OpenAI, eine Non-Profit-Organisation, die sich mit der Erforschung von künstlicher Intelligenz beschäftigt, hat ein groß angelegtes KI-Sprachmodell entwickelt, das fähig ist, ganze zusammenhängende Textparagrafen zu erschaffen: GPT-2. Es kann einfach strukturierte Texte verstehen, automatisch übersetzen, schlichte Fragen beantworten und Inhalte zusammenfassen, ohne speziell für eine dieser Aufgaben trainiert worden zu sein. Für das Training wurde ein Datensatz von acht Millionen Webseiten verwendet was dazu führt, dass GPT-2 täuschend „echte“ Texte zu schreiben kann.
Credits: “Language Models are Unsupervised Multitask Learners” by Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever
Ars Electronica
https://ars.electronica.art/
https://www.facebook.com/arselectronica
https://www.twitter.com/arselectronica
https://www.instagram.com/arselectronica
https://www.flickr.com/photos/arselectronica
Credits: “Language Models are Unsupervised Multitask Learners” by Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever
Ars Electronica
https://ars.electronica.art/
https://www.facebook.com/arselectronica
https://www.twitter.com/arselectronica
https://www.instagram.com/arselectronica
https://www.flickr.com/photos/arselectronica
- Kategorien
- PC (Windows/Mac/Linux) Anleitungen
Kommentare deaktiviert.