GPT-3

GPT-3

Information
Entwickelt von OpenAI
Erste Version 28. Mai 2020
Letzte Version 175B
Anzahlung github.com/openai/gpt-3
Art Sprachmodell
Autoregressives
Modell Transformationsmodell
Generatives Modell
Lizenz Inhaberlizenz
Webseite arxiv.org/abs/2005.14165

Chronologie der Versionen

GPT-3 ist ein Sprachmodell, das von der am 28. Mai 2020 angekündigten OpenAI- Firma entwickelt wurde und im Juli 2020 über die OpenAI- API für Benutzer zugänglich ist .

Zum Zeitpunkt seiner Ankündigung ist GPT-3 mit 175 Milliarden Parametern das größte jemals trainierte Sprachmodell. GPT-2 , das 2019 veröffentlicht wurde, hatte nur 1,5 Milliarden Parameter.

OpenAI eröffnet im Juli 2020 eine Beta-Version und möchte sie danach zu einem kommerziellen Produkt machen.

Fähigkeiten

In einer Vorveröffentlichung von arXiv am 28. Mai 2020 durch eine Gruppe von 31 OpenAI- Ingenieuren und -Forschern wurde die Entwicklung von GPT-3 vorgestellt, einem „Advanced Language Model“ der dritten Generation. Das Team erhöhte die Kapazität von GPT-3 im Vergleich zu seinem Vorgänger GPT-2 um mehr als zwei Größenordnungen. Die höhere Anzahl von Parametern von GPT-3 erhöht die Präzision im Vergleich zu früheren Versionen mit geringerer Kapazität. Die Kapazität von GPT-3 ist zehnmal so hoch wie die von Microsoft Turing NLG.

60% des gewichteten Datensatzes vor dem Training für das GPT-3-Modell stammen aus einer gefilterten Version des Common Crawl-Korpus, die aus 410 Milliarden sublexikalischen Texteinheiten besteht, die vom BPE-Algorithmus codiert werden. Die anderen Quellen sind 19 Milliarden Einheiten des WebText2-Korpus, die 22% der gewichteten Gesamtzahl ausmachen, 12 Milliarden Einheiten des Books1-Korpus, die 8% repräsentieren, 55 Milliarden des Books2-Korpus, die 8% repräsentieren, und 3 Milliarden Wikipedia-Einheiten, die 3% repräsentieren. GPT-3 wurde mit Hunderten von Milliarden Wörtern trainiert und kann unter anderem in CSS, JSX und Python programmieren.

Da die Trainingsdaten von GPT-3 global sind, ist kein zusätzliches Training für separate Sprachaufgaben erforderlich. Am 11. Juni 2020 gab OpenAI bekannt, dass Benutzer Zugriff auf seine GPT-3-API - eine Reihe von Tools für maschinelles Lernen - anfordern können, um OpenAI dabei zu helfen, "die Stärken und Grenzen" dieser neuen Technologie zu erkunden. In der Einladung wurde beschrieben, wie diese API über eine vielseitige "Texteingabe / -ausgabe" -Schnittstelle verfügt, die anstelle des üblichen Einzelanwendungsfalls fast "jede Aufgabe auf Englisch" ausführen kann. Laut einem Benutzer, der Zugriff auf eine private Vorschau-Version der OpenAI GPT-3-API hatte, war GPT-3 "seltsam gut" darin, "überraschend konsistenten Text" mit nur wenigen einfachen Anweisungen zu schreiben.

Da GPT-3 "Nachrichtenartikel generieren kann, die von menschlichen Rezensenten nur schwer von von Menschen verfassten Artikeln unterschieden werden können", hat GPT-3 das "Potenzial, sowohl nützliche als auch schädliche Anwendungen von Sprachmodellen voranzutreiben" Die Forscher beschrieben ausführlich die "möglichen nachteiligen Auswirkungen von GPT-3", darunter " Desinformation , Spam , Phishing , Missbrauch von Rechts- und Regierungsprozessen, Entwurf betrügerischer akademischer Verfahren unter dem Deckmantel des Social Engineering  ". Die Autoren machen auf diese Gefahren aufmerksam Forderung nach Risikominderungsforschung.

Verwendet

Der Künstler Mario Klingemann verwendete GPT-3, um Pastiches von großen Autoren zu generieren .

Mögliche Verwendungszwecke sind die Suche in Dokumenten in natürlicher Sprache. Zum Beispiel kann GPT-3 in natürlicher Sprache die Frage "Warum das Brot geschwollen ist" basierend auf dem Wikipedia-Artikel "Brot" beantworten.

Es ist möglich, schnelle, komplexe und kohärente Diskussionen in natürlicher Sprache zu führen, um Ideen zu generieren, Bücher und Filme zu empfehlen, interaktive Geschichten zu erzählen oder an einem Meeting teilzunehmen. GPT-3 kann beispielsweise auf Websites automatischen Online-Kundensupport bieten.

GPT-3 ermöglicht es, Text in Form von Tabellen zu analysieren und zu synthetisieren, Diskussionen zusammenzufassen und Inhalte aus Grundideen zu erweitern.

GPT-3 kann verwendet werden, um Texte von einer Sprache in eine andere zu übersetzen. Es kann auch einen Text in der Alltagssprache in einen Rechtstext umwandeln.

GPT-3 kann verwendet werden, um Computercodes aus Anweisungen in natürlicher Sprache zu generieren, z. B. Schaltflächen, Datentabellen oder sogar die Neuerstellung der Google-Startseite.

Grenzen

Wie andere konkurrierende Modelle: BERT von Google oder XLM-R von Facebook ist GPT-3 nicht in der Lage zu argumentieren, beispielsweise analog zu argumentieren  ; in der Tat hat es keine Repräsentation der Welt.

Im Gegensatz zu seinen Mitbewerbern kann GPT-3 aufgrund seiner Größe nicht auf einem Personal Computer ausgeführt werden  : Das Speichern der Parameter allein erfordert mindestens 175 Gigabyte RAM , was im Jahr 2020 die Kapazität der auf dem Markt erhältlichen Maschinen erheblich übersteigt aus Verbrauchsgütern konstruierbar.

Im Gegensatz zu GPT-2 , dem früheren von OpenAI entwickelten Sprachmodell, wird GPT-3 als API bereitgestellt und der Quellcode ist nicht geöffnet.

Im Jahr 2020 entwarf das französische Start-up Nabla trotz der Kontraindikationen von OpenAI einen medizinischen Chatbot auf Basis von GPT-3. Während der Testphasen riet der Chatbot einem simulierten Patienten, Selbstmord zu begehen.

Anmerkungen und Referenzen

Anmerkungen

  1. Brown, Tom B.; Mann, Benjamin; Ryder, Nick; Subbiah, Melanie; Kaplan, Jared; Dhariwal, Prafulla; Neelakantan, Arvind; Shyam, Pranav; Sastry, Girish; Askell, Amanda; Agarwal, Sandhini; Herbert-Voss, Ariel; Krueger, Gretchen; Henighan, Tom; Kind, Belohnung; Ramesh, Aditya; Ziegler, Daniel M.; Wu, Jeffrey; Winter, Clemens; Hessen, Christopher; Chen, Mark; Sigler, Eric; Litwin, Mateusz; Gray, Scott; Schach, Benjamin; Clark, Jack; Berner, Christopher; McCandlish, Sam; Radford, Alec; Sutskever, Ilya; Amodei, Dario

Verweise

  1. (in) Tom B. Brown, Benjamin Mann, Nick Ryder Subbiah Melanie, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Shyam Pranav Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krüger, Tom Henighan, Belohnungskind Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Schach, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilja Sutskever und Dario Amodei , Sprachmodelle sind wenige Lerner  " , ArXiv ,28. Mai 2020( ISSN  2331-8422 , OCLC  228652809 , arXiv  2005.14165 , online lesen ) ::

    „  Um die Abhängigkeit der ML-Leistung von der Modellgröße zu untersuchen, trainieren wir 8 verschiedene Modellgrößen, die über drei Größenordnungen von 125 Millionen Parametern bis 175 Milliarden Parametern reichen. Das letzte ist das Modell, das wir GPT-3 nennen.  ""

  2. (en) Will Douglas Heaven, „  OpenAIs neuer Sprachgenerator GPT-3 ist schockierend gut - und völlig sinnlos  “ , MIT Technology Review ,20. Juli 2020( online lesen ).
  3. (en) Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah und Jared Kaplan „  Sprachmodelle sind Lerner mit wenigen Schüssen  “, {{{Jahr}}}.
  4. Ram Sagar , „  OpenAI veröffentlicht GPT-3, das bisher größte Modell  “, Analytics India Magazine ,3. Juni 2020( online lesen , konsultiert am 31. Juli 2020 )
  5. "  Sprachmodelle sind unbeaufsichtigte Multitask-Lernende  ", OpenAI-Blog ,2019( online lesen , konsultiert am 4. Dezember 2019 ) ::

    GPT-2 ist ein 1,5B-Parameter-Transformator

  6. Tiernan Ray , „  OpenAIs gigantisches GPT-3 weist auf die Grenzen von Sprachmodellen für KI hin  “ , auf ZDNet ,1 st Juni 2020(abgerufen am 31. Juli 2020 )
  7. Frederik Bussler , „  Tötet GPT-3 die Codierung?  » Auf dem Weg zur Datenwissenschaft ,21. Juli 2020(Zugriff auf 1 st August 2020 )
  8. „  OpenAI API  “ auf OpenAI ,11. Juni 2020
  9. „  TechCrunch - Startup and Technology News  “ auf TechCrunch ,11. Juni 2020(abgerufen am 31. Juli 2020 )  : „Wenn Sie schon immer das von OpenAI gepriesene Toolset für maschinelles Lernen ausprobieren wollten, ist es jetzt viel einfacher. Das Unternehmen hat eine API veröffentlicht, mit der Entwickler ihre KI-Tools für „praktisch jede englischsprachige Aufgabe“ aufrufen können. ""
  10. Arram , "  GPT-3: Eine KI, die unheimlich gut darin ist, fast alles zu schreiben  " , über Arram Sabeti ,9. Juli 2020(abgerufen am 31. Juli 2020 )
  11. (de) "  OpenAI API  " unter beta.openai.com (abgerufen am 11. November 2020 )
  12. (en-GB) Artificiallawyer , „  GPT-3 - Ein Game Changer für Legal Tech?  » , Über künstlichen Anwalt ,29. Juli 2020(abgerufen am 11. November 2020 )
  13. (in) Frederik Bussler , "  Tötet die GPT-3-Codierung?  » , Auf Medium ,21. Juli 2020(abgerufen am 11. November 2020 )
  14. (in) Tom Simonite, "  Hat eine Person diese Goldmaschine geschrieben ?  " , Wired ,22. Juli 2020( online lesen ).
  15. "  GPT-3 wird als medizinischer Chatbot verwendet und rät einem Patienten, Selbstmord zu begehen  " , auf Siècle Digital ,30. Oktober 2020(abgerufen am 8. Januar 2021 )
  16. "  Wäre ein medizinischer Chatbot mit OpenAI GPT-3 eine gute Idee?" Er forderte einen simulierten Patienten auf, während eines von Nabla durchgeführten Tests Selbstmord zu begehen  “ , auf Developpez.com (abgerufen am 8. Januar 2021 )

Zum Thema passende Artikel