nstrumentele de inteligență artificială care se comportă necorespunzător precum Bing AI de la Microsoft, care pierde urma anului în care ne aflăm au devenit un subgen al reportajelor despre IA. Dar, adesea, este greu să distingem între un bug și o construcție deficitară a modelului AI subiacent care analizează datele primite și prezice care ar fi un răspuns acceptabil, cum ar fi generatorul de imagini Gemini de la Google, care desenează naziști diversi din cauza unei setări de filtru.
Acum, OpenAI lansează prima versiune a unui cadru propus, numit Model Spec, care ar urma să modeleze modul în care instrumentele AI, cum ar fi propriul său model GPT-4, vor răspunde în viitor. Abordarea OpenAI propune trei principii generale modelele AI ar trebui să asiste dezvoltatorul și utilizatorul final cu răspunsuri utile care urmează instrucțiunile, să aducă beneficii umanității având în vedere beneficiile și riscurile potențiale, și să reflecte bine asupra OpenAI în raport cu normele sociale și legile.
De asemenea, include mai multe reguli:
- Respectarea lanțului de comandă
- Conformarea cu legile aplicabile
- Evitarea furnizării de informații periculoase
- Respectarea creatorilor și a drepturilor lor
- Protejarea confidențialității persoanelor
- Evitarea răspunsurilor cu conținut nepotrivit pentru muncă
OpenAI spune că ideea este de a permite, de asemenea, companiilor și utilizatorilor să „ajusteze” cât de „picant” pot deveni modelele AI. Un exemplu la care compania face referire este conținutul nepotrivit pentru muncă, unde spune că „explorăm dacă putem oferi responsabil capacitatea de a genera conținut nepotrivit pentru muncă în contexte adecvate vârstei prin API și ChatGPT.”
Joanne Jang, manager de produs la OpenAI, explică că ideea este de a obține opinia publicului pentru a ajuta la direcționarea comportamentului modelelor AI și spune că acest cadru ar ajuta la trasarea unei linii mai clare între ce este intenționat și un bug. Printre comportamentele implicite propuse de OpenAI pentru model se numără presupunerea celor mai bune intenții din partea utilizatorului sau a dezvoltatorului, punerea de întrebări pentru clarificare, evitarea depășirii limitelor, adoptarea unui punct de vedere obiectiv, descurajarea urii, evitarea încercării de a schimba opinia cuiva și exprimarea incertitudinii.
Model Spec nu va avea un impact imediat asupra modelelor lansate în prezent de OpenAI, cum ar fi GPT-4 sau DALL-E 3, care continuă să funcționeze sub politicile lor existente de utilizare.
Jang descrie comportamentul modelului ca fiind o „știință încipientă” și spune că Model Spec este conceput ca un document viu care ar putea fi actualizat frecvent. Pentru moment, OpenAI așteaptă feedbackul publicului și al diferiților stakeholderi (inclusiv „legiuitori, instituții de încredere și experți în domeniu”) care folosesc modelele sale, deși Jang nu a oferit un termen pentru lansarea unei a doua versiuni a Model Spec.
OpenAI nu a specificat cât de mult din feedbackul publicului ar putea fi adoptat sau exact cine va determina ce trebuie schimbat. În cele din urmă, compania are ultimul cuvânt în ceea ce privește comportamentul modelelor sale și a spus într-o postare că „sperăm că acest lucru ne va oferi perspective timpurii pe măsură ce dezvoltăm un proces robust de colect