banner
Heim / Blog / Auto
Blog

Auto

Jan 10, 2024Jan 10, 2024

Veröffentlicht

An

Von

Beim Vergleich von ChatGPT mit autonomen KI-Agenten wie Auto-GPT und GPT-Engineer zeigt sich ein deutlicher Unterschied im Entscheidungsprozess. Während ChatGPT eine aktive menschliche Beteiligung erfordert, um das Gespräch voranzutreiben und auf Benutzereingaben basierende Anleitungen bereitzustellen, ist der Planungsprozess überwiegend auf menschliches Eingreifen angewiesen.

Generative KI-Modelle wie Transformatoren sind die hochmoderne Kerntechnologie, die diese autonomen KI-Agenten antreibt. Diese Transformatoren werden anhand großer Datensätze trainiert, sodass sie komplexe Argumentations- und Entscheidungsfähigkeiten simulieren können.

Viele dieser autonomen KI-Agenten stammen aus Open-Source-Initiativen, die von innovativen Personen geleitet werden, die herkömmliche Arbeitsabläufe transformieren. Anstatt nur Vorschläge zu unterbreiten, können Agenten wie Auto-GPT Aufgaben selbstständig erledigen, vom Online-Shopping bis zur Erstellung grundlegender Apps. Der Code Interpreter von OpenAI zielt darauf ab, ChatGPT vom bloßen Vorschlagen von Ideen zum aktiven Lösen von Problemen mit diesen Ideen zu verbessern.

Sowohl Auto-GPT als auch GPT-Engineer sind mit der Leistung von GPT 3.5 und GPT-4 ausgestattet. Es erfasst die Codelogik, kombiniert mehrere Dateien und beschleunigt den Entwicklungsprozess.

Der Kern der Funktionalität von Auto-GPT liegt in seinen KI-Agenten. Diese Agenten sind so programmiert, dass sie bestimmte Aufgaben ausführen, von alltäglichen Aufgaben wie der Terminplanung bis hin zu komplexeren Aufgaben, die strategische Entscheidungen erfordern. Allerdings agieren diese KI-Agenten innerhalb der von den Nutzern gesetzten Grenzen. Durch die Steuerung ihres Zugriffs über APIs können Benutzer die Tiefe und den Umfang der Aktionen bestimmen, die die KI ausführen kann.

Wenn Sie beispielsweise mit der Erstellung einer in ChatGPT integrierten Chat-Webanwendung beauftragt werden, zerlegt Auto-GPT das Ziel automatisch in umsetzbare Schritte, wie die Erstellung eines HTML-Frontends oder die Skripterstellung für ein Python-Backend. Während die Anwendung diese Eingabeaufforderungen autonom erstellt, können Benutzer sie dennoch überwachen und ändern. Wie der Ersteller von AutoGPT @SigGravitas gezeigt hat, ist es in der Lage, ein Testprogramm auf Basis von Python zu erstellen und auszuführen.

Massives Update für Auto-GPT: Codeausführung! 🤖💻

Auto-GPT ist jetzt in der Lage, mit #gpt4 eigenen Code zu schreiben und Python-Skripte auszuführen!

Dadurch kann es rekursiv debuggen, entwickeln und sich selbst verbessern… 🤯 👇 pic.twitter.com/GEkMb1LyxV

– SigGravity (@SigGravity) 1. April 2023

Während das folgende Diagramm eine allgemeinere Architektur eines autonomen KI-Agenten beschreibt, bietet es wertvolle Einblicke in die Prozesse hinter den Kulissen.

Autonome KI-Agentenarchitektur

Der Prozess wird durch die Überprüfung des OpenAI-API-Schlüssels und die Initialisierung verschiedener Parameter, einschließlich Kurzzeitspeicher und Datenbankinhalte, eingeleitet. Sobald die Schlüsseldaten an den Agenten übergeben wurden, interagiert das Modell mit GPT3.5/GPT4, um eine Antwort abzurufen. Diese Antwort wird dann in ein JSON-Format umgewandelt, das der Agent interpretiert, um verschiedene Funktionen auszuführen, wie etwa die Durchführung von Online-Suchen, das Lesen oder Schreiben von Dateien oder sogar die Ausführung von Code. Auto-GPT verwendet ein vorab trainiertes Modell, um diese Antworten in einer Datenbank zu speichern, und zukünftige Interaktionen verwenden diese gespeicherten Informationen als Referenz. Die Schleife wird fortgesetzt, bis die Aufgabe als abgeschlossen gilt.

Durch die Einrichtung modernster Tools wie GPT-Engineer und Auto-GPT können Sie Ihren Entwicklungsprozess optimieren. Nachfolgend finden Sie eine strukturierte Anleitung, die Ihnen bei der Installation und Konfiguration beider Tools hilft.

Das Einrichten von Auto-GPT kann komplex erscheinen, aber mit den richtigen Schritten wird es unkompliziert. Dieser Leitfaden behandelt das Verfahren zur Einrichtung von Auto-GPT und bietet Einblicke in die verschiedenen Szenarien.

Öffnen Sie die AI-API-Schlüsselgenerierung

Speicher-Backend-Optionen : Ein Speicher-Backend dient als Speichermechanismus für AutoGPT, um auf wichtige Daten für seine Vorgänge zuzugreifen. AutoGPT nutzt sowohl kurzfristige als auch langfristige Speicherfunktionen. Pinecone, Milvus, Redis und andere sind einige verfügbare Optionen.

Auto-GPT bietet zahlreiche Befehlszeilenargumente zur Anpassung seines Verhaltens:

AutoGPT in der CLI

Sobald die Konfigurationen abgeschlossen sind, starten Sie Auto-GPT mit:

Für diejenigen, die Auto-GPT in Containern umwandeln möchten, bietet Docker einen optimierten Ansatz. Bedenken Sie jedoch, dass die Ersteinrichtung von Docker etwas kompliziert sein kann. Weitere Informationen finden Sie im Installationshandbuch von Docker.

Führen Sie die folgenden Schritte aus, um den OpenAI-API-Schlüssel zu ändern. Stellen Sie sicher, dass Docker im Hintergrund ausgeführt wird. Gehen Sie nun in das Hauptverzeichnis von AutoGPT und befolgen Sie die folgenden Schritte auf Ihrem Terminal

Mit Docker-Compose:

Um Risiken zu mindern, betreiben Sie Auto-GPT in einem virtuellen Container wie Docker. Dadurch wird sichergestellt, dass alle potenziell schädlichen Inhalte auf den virtuellen Raum beschränkt bleiben und Ihre externen Dateien und Ihr System unangetastet bleiben. Alternativ ist Windows Sandbox eine Option, allerdings wird es nach jeder Sitzung zurückgesetzt und behält seinen Status nicht bei.

Führen Sie Auto-GPT aus Sicherheitsgründen immer in einer virtuellen Umgebung aus, um sicherzustellen, dass Ihr System vor unerwarteten Ausgaben geschützt bleibt.

Angesichts all dessen besteht immer noch die Möglichkeit, dass Sie nicht die gewünschten Ergebnisse erzielen können. Auto-GPT-Benutzer berichteten von wiederkehrenden Problemen beim Versuch, in eine Datei zu schreiben, wobei es häufig zu Fehlversuchen aufgrund problematischer Dateinamen kam. Hier ist ein solcher Fehler:Auto-GPT (Version 0.2.2) hängt den Text nach dem Fehler „write_to_file zurückgegeben: Fehler: Datei wurde bereits aktualisiert“ nicht an

Verschiedene Lösungen zur Behebung dieses Problems wurden im zugehörigen GitHub-Thread als Referenz besprochen.

GPT-Engineer-Workflow:

Der Prozess der Einrichtung von GPT-Engineer wurde in einer leicht verständlichen Anleitung zusammengefasst. Hier ist eine Schritt-für-Schritt-Aufschlüsselung:

1. Vorbereitung der Umgebung: Stellen Sie vor dem Eintauchen sicher, dass Sie Ihr Projektverzeichnis bereit haben. Öffnen Sie ein Terminal und führen Sie den folgenden Befehl aus

2. Klonen Sie das Repository:Git-Klon https://github.com/AntonOsika/gpt-engineer.git .

3. Abhängigkeiten navigieren und installieren:Wechseln Sie nach dem Klonen in das VerzeichnisCD GPT-Ingenieurund installieren Sie alle notwendigen Abhängigkeitenmake installieren

4. Virtuelle Umgebung aktivieren:Aktivieren Sie je nach Betriebssystem die erstellte virtuelle Umgebung.

5. Konfiguration – API-Schlüssel-Setup: Für die Interaktion mit OpenAI benötigen Sie einen API-Schlüssel. Wenn Sie noch keins haben, melden Sie sich auf der OpenAI-Plattform an, dann:

6. Projektinitialisierung und Codegenerierung:Die Magie von GPT-Engineer beginnt mit demmain_promptDatei gefunden in derProjekteOrdner.

Ersetzen Sie hier „Website“ durch den von Ihnen gewählten Projektnamen.

Ihr generierter Code befindet sich imArbeitsplatzVerzeichnis innerhalb des Projektordners.

7. Nachgeneration: Obwohl GPT-Engineer leistungsstark ist, ist es möglicherweise nicht immer perfekt. Überprüfen Sie den generierten Code, nehmen Sie bei Bedarf manuelle Änderungen vor und stellen Sie sicher, dass alles reibungslos läuft.

Prompt:

Einrichten und Ausführen von GPT-Engineer

Ähnlich wie bei Auto-GPT kann es bei GPT-Engineer manchmal auch nach einer vollständigen Einrichtung zu Fehlern kommen. Bei meinem dritten Versuch gelang es mir jedoch, auf die folgende Streamlit-Webseite zuzugreifen. Stellen Sie sicher, dass Sie alle Fehler auf der Problemseite des offiziellen GPT-Engineer-Repositorys überprüfen.

Mit GPT-Engineer erstellte Streamlit-App

Eine einzelne von Auto-GPT ausgeführte Aufgabe kann mehrere Schritte umfassen. Wichtig ist, dass jeder dieser Schritte einzeln abgerechnet werden könnte, was die Kosten erhöht. Auto-GPT kann in sich wiederholenden Schleifen stecken bleiben und die versprochenen Ergebnisse nicht liefern. Solche Vorkommnisse gefährden die Zuverlässigkeit und untergraben die Investition.

Stellen Sie sich vor, Sie möchten mit Auto-GPT einen kurzen Aufsatz erstellen. Die ideale Länge des Aufsatzes beträgt 8.000 Token, aber während des Erstellungsprozesses durchläuft das Modell mehrere Zwischenschritte, um den Inhalt fertigzustellen. Wenn Sie GPT-4 mit einer Kontextlänge von 8 KB verwenden, wird Ihnen die Eingabe in Rechnung gestellt0,03 $ . Und für die Ausgabe würden die Kosten anfallen0,06 $ . Nehmen wir nun an, dass das Modell in eine unvorhergesehene Schleife gerät und bestimmte Teile mehrmals wiederholt. Der Vorgang wird nicht nur länger, sondern jede Wiederholung erhöht auch die Kosten.

Um sich davor zu schützen:

Legen Sie Nutzungsbeschränkungen festbei OpenAI Billing & Limits:

Die im Quellcode dargestellten Funktionen von Auto-GPT unterliegen bestimmten Grenzen. Seine Problemlösungsstrategien werden durch seine intrinsischen Funktionen und die Zugänglichkeit bestimmt, die die API von GPT-4 bietet. Ausführliche Diskussionen und mögliche Problemumgehungen finden Sie unter: Auto-GPT-Diskussion.

Die Dynamik zwischen KI und Arbeitsmärkten entwickelt sich ständig weiter und wird in diesem Forschungsbericht ausführlich dokumentiert. Eine wichtige Erkenntnis ist, dass der technologische Fortschritt zwar häufig qualifizierten Arbeitskräften zugute kommt, für diejenigen, die Routineaufgaben ausführen, jedoch Risiken birgt. Tatsächlich können technologische Fortschritte bestimmte Aufgaben verdrängen, aber gleichzeitig den Weg für vielfältige, arbeitsintensive Aufgaben ebnen.

Schätzungsweise 80 % der amerikanischen Arbeitnehmer könnten feststellen, dass LLMs (Language Learning Models) etwa 10 % ihrer täglichen Aufgaben beeinflussen. Diese Statistik unterstreicht die Verschmelzung von KI und menschlichen Rollen.

Die doppelte Rolle der KI in der Belegschaft:

Tools wie ChatGPT, Auto-GPT und GPT-Engineer stehen eindeutig an vorderster Front bei der Neugestaltung der Interaktion zwischen Technologie und ihren Benutzern. Mit Wurzeln in Open-Source-Bewegungen manifestieren diese KI-Agenten die Möglichkeiten der Maschinenautonomie und rationalisieren Aufgaben von der Planung bis zur Softwareentwicklung.

Während wir uns auf den Weg in eine Zukunft machen, in der KI tiefer in unsere täglichen Routinen integriert wird, wird ein Gleichgewicht zwischen der Nutzung der Fähigkeiten der KI und der Wahrung menschlicher Rollen von entscheidender Bedeutung. Im weiteren Sinne zeichnet die Dynamik des KI-Arbeitsmarkts ein duales Bild von Wachstumschancen und Herausforderungen und erfordert eine bewusste Integration von Tech-Ethik und Transparenz.

TinyML: Anwendungen, Einschränkungen und seine Verwendung in IoT- und Edge-Geräten

Ich habe die letzten fünf Jahre damit verbracht, in die faszinierende Welt des maschinellen Lernens und des Deep Learning einzutauchen. Meine Leidenschaft und mein Fachwissen haben dazu geführt, dass ich an über 50 verschiedenen Software-Engineering-Projekten mitgewirkt habe, mit besonderem Schwerpunkt auf KI/ML. Meine anhaltende Neugier hat mich auch zur Verarbeitung natürlicher Sprache geführt, einem Bereich, den ich gerne weiter erforschen möchte.

Über ChatGPT hinaus; KI-Agent: Eine neue Welt der Arbeiter

GPT-3: Few Shot Learning für Sprachmodell?

Die Leute haben Angst vor KI, aber Apples ChatGPT könnte KI zu jedem Freund machen

Erkundung des ChatGPT-Code-Interpreters von OpenAI: Ein tiefer Einblick in seine Fähigkeiten

Big Tech und generative KI: Werden Big Tech die generative KI kontrollieren?

OpenAI muss in drei Monaten mit einem Verkehrsrückgang von fast 20 % rechnen

1. Voraussetzungen:Python-UmgebungOpenAI-API-SchlüsselSpeicher-Backend-Optionen2. Einrichten Ihres Arbeitsbereichs:python3 -m venv myenvMacOS oder LinuxQuelle myenv/bin/activate3. Installation:Git-Klon https://github.com/Significant-Gravitas/Auto-GPT.gitKasseGit Checkout Stable-0.2.2cd Auto-GPTpip install -r Anforderungen.txt4. Konfiguration:.env.template/Auto-GPT.env.envOPENAI_API_KEY=.env5. Befehlszeilenanweisungen:Allgemeine Verwendungpython -m autogpt --helppython -m autogpt --ai-settings python -m autogpt --use-memory 6. Auto-GPT startenLinux oder Mac./run.sh startenWindows.\run.batDocker-Integration (empfohlener Setup-Ansatz)docker build -t autogpt .docker run -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogptdocker-compose run --build --rm auto-gptdocker-compose run --rm auto-gpt --gpt3only--continuousAuto-GPT (Version 0.2.2) hängt den Text nach dem Fehler „write_to_file zurückgegeben: Fehler: Datei wurde bereits aktualisiert“ nicht anSchnelle DefinitionCodegenerierungVerfeinerung und Optimierung1. Vorbereitung der Umgebung:mkdir-WebsiteCD-Website2. Klonen Sie das Repository:Git-Klon https://github.com/AntonOsika/gpt-engineer.git .3. Abhängigkeiten navigieren und installieren:CD GPT-Ingenieurmake installieren4. Virtuelle Umgebung aktivieren:macOS/LinuxQuelle venv/bin/activateWindowssetze OPENAI_API_KEY=[deinen API-Schlüssel]5. Konfiguration – API-Schlüssel-Setup:macOS/Linuxexport OPENAI_API_KEY=[Ihr API-Schlüssel]Windowssetze OPENAI_API_KEY=[deinen API-Schlüssel]6. Projektinitialisierung und Codegenerierung:main_promptProjektecp -r Projekte/Beispiel/Projekte/Websitemain_promptgpt-engineer-Projekte/WebsiteArbeitsplatz7. Nachgeneration:Prompt:Betriebskosten0,03 $0,06 $Legen Sie Nutzungsbeschränkungen festHartes LimitWeiche GrenzeFunktionseinschränkungenAuswirkungen von KI auf den ArbeitsmarktPositive AspekteAnliegen