Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
Ch a t G P T-Se r i e Te i l 3 © kr as 99 © ag v is ue ll - Fo to lia www trelectronic de Einfach Positionieren mit integrierter Sicherheitstechnik Die EncoTRive Kompaktantriebe integrieren Motor Absolutdrehgeber Feldbus und Regelung Entlastung für den Schaltschrank mit voll integrierter Elektronik Einfache Umsetzung der Maschinensicherheit STO safe torque off integriert SS1 safe stop 1 integriert Passgenau für Ihre Anwendung vielfältiges Spektrum an Motoren und Getrieben Einfache Verkabelung Versorgung mit Sicherheitskleinspannung Ansteuerung über sichere Eingänge und Profinet dächtnis sein beziehungsweise aktuellere Varianten wie Cortana ebenfalls von Microsoft der Sprachassistent Siri von Apple oder Alexa von Amazon Von einer anfänglichen Qualität die uns eher zum Schmunzeln gebracht hat als wirklich hilfreich zu sein haben sich Sprachassistenten in den letzten Jahren als effizientes Werkzeug für eine Vielzahl von Anwendungen etabliert – vom Kundenservice bis hin zu interaktiven Lernplattformen Aber mit dem Erscheinen von ChatGPT beziehungsweise gpt-4 von OpenAI hat nochmals eine tiefgreifende Änderung im Bereich der Chatbots und Conversational Interfaces stattgefunden Neben einem massiven Qualitätsund Flexibilitätssprung durch den Einsatz von LLMs für Chatbots ist nun auch die technische Umsetzung deutlich leichter Ein fein ausgearbeitetes Regelsystem wie es früher die zwingende Grundlage für das Chatbot-Verhalten war ist nun nicht mehr erforderlich Dieser Artikel konzentriert sich speziell auf die technische Möglichkeit mit LLMs da sie die Tür der Dialog gesteuerten Benutzerschnittstellen für industrielle Produkte und Dienstleistungen weit öffnet und damit die bisherigen sehr hohe Einstiegshürden praktisch entfallen Spezifische Anfragen mit lokalem Wissen Der einfachste Weg wäre es einen Chatbot direkt auf einem der großen Sprachmodelle LLMs aufzubauen Für allgemeine Anfragen wären wahrscheinlich bei Modellen wie gpt-4 sogar durchaus hilfreiche Antworten zu erwarten Der Nachteil besteht jedoch darin dass das Modell prinzipbedingt nicht den spezifischen herstellerund maschinenbezogenen Kontext oder veränderliche Betriebsdaten kennen kann Um dieses Problem zu lösen hat sich eine Technik namens Retrieval-Augmented-Generation RAG etabliert Der RAG-Prozess funktioniert zusammengefasst wie folgt • Retrieval Abruf Wenn das Sprachmodell eine Anfrage erhält sucht es zuerst in einer externen Datenbank oder einem Datensatz nach relevanten Informationen Diese Datenbank kann aus einer Vielzahl von Dokumenten bestehen wie Betriebshandbücher als PDF oder ausgewählte Webseiten zum Kundensupport oder anderen Informationsquellen • Augmentation Erweiterung Die abgerufenen Informationen werden dann vom Sprachmodell genutzt um die Antwort zu informieren oder zu „erweitern“ Das bedeutet dass das Modell nicht nur auf seinem internen Wissen das während des Trainings erworben wurde basiert sondern auch auf spezifischen aus der Datenbank abgerufenen Informationen