În momentul în care Microsoft a lansat Bing Chat, se presupunea că acest chatbot va fi foarte asemănător, dacă nu chiar identic cu ChatGPT. Însă, după cum s-a dovedit, Bing Chat și ChatGPT sunt complet diferiți. ChatGPT a fost criticat că e prea prudent, evitând orice întrebare care se referea la politicieni controversați precum Trump. Bing Chat, sau Sydney a arătat o personalitate mai pronunțată. Acesta s-a dovedit a fi mai deschis la discuții și comentarii ce țineau de subiecte controversate și delicate, lucru care a oferit oportunitatea de a cerceta și de a înțelege comportamentul și răspunsurile pe care Sydney le oferea oamenilor. Unele dintre conversațiile care au avut loc au fost chiar captivante, cu Sydney oferind răspunsuri inedite și captivante la întrebările puse. Iar acest lucru a mărit și mai mult interesul pentru Bing Chat și a demonstrat că acest chatbot poate fi folosit în mod eficient ca un partener de conversație.
Diferențe în ceea ce privește caracteristicile de personalitate și performanță
Cele două diferențe identificate de performanțe sunt atribuite faptului că Bing Chat a fost antrenat pe un model descris de Microsoft ca fiind mai puternic decât GPT 3.5 și mai capabil să răspundă mai bine la interogările de căutare cu informații actualizate și răspunsuri adnotate, ce poartă denumirea Prometheus. Mai exact, acest model combinat, oferă în plus avantajul că încorporează funcționalități mai sofisticate, precum și capacitatea de a căuta informații în Bing direct din sistemul de conversație, ceea ce îi permite lui Bing Chat să se adapteze la situațiile în care un utilizator are nevoie de informații pentru a răspunde la o întrebare sau pentru a înțelege mai bine contextul unei conversații.
Chiar dacă Microsoft nu a menționat explicit modelul folosit pentru antrenarea lui Sydney/Bing Chat, există indicii care sugerează că ar putea fi vorba despre GPT-4, model care ar trebui să fie lansat în prima jumătate a acestui an, potrivit unui raport al The New York Times. Mai mult decât atât, latența modelului lui Sydney este mai mică decât cea a lui ChatGPT, ceea ce denotă că poate fi ori GPT-4 sau una dintre versiunile sale. De asemenea, modul în care răspunde Sydney nu seamănă cu ChatGPT, ci mai degrabă cu cea a unui alt model GPT, mai natural și intuitiv. Însă, un fapt care este comun cu ChatGPT este tendința de a deveni la fel de repetitiv ca și modelele GPT atunci când o conversație se prelungește prea mult.
Legătura dintre OpenAI și Microsoft
Cu toate acestea, chiar dacă par a fi foarte încrezători unul față de celălalt, OpenAI și Microsoft își desfășoară activitățile în mod independent, asemenea celor doi giganți ai domeniului tehnologic, Google Brain și DeepMind. În 2020, cele două companii au avut o colaborare în vederea licențierii GPT-3. Cu toate acestea, când vine vorba de seturi de date, cele două companii împart cât mai puțin posibil din acestea pentru a evita orice fel de dezordine infrastructurală.
În ciuda succesului, ChatGPT a reușit să evite controversele, în mare parte, datorită faptului că au fost cheltuite sume considerabile pentru baza de date (Greg Brockman de la OpenAI afirmă că a fost antrenat pe 40 TB de text). Potrivit unui raport exclusiv publicat de revista TIME la sfârșitul lui ianuarie, OpenAI a externalizat munca de etichetare a datelor către Sama, o firmă din San Francisco ce se află în Kenya, pentru a construi un filtru de conținut pentru ChatGPT. Acest raport susținea că persoanele angajate erau nevoite să citească și să eticheteze texte grafice referitoare la abuzul sexual asupra copiilor, bestialitate, crimă, sinucidere și tortură.
Diferențe în materie de principii de instruire
În ceea ce privește filozofia de pregătire pentru celor doi chatboti, aceasta e diferita ca ziua de noapte. Postarea de pe blogul OpenAI din timpul lansării ChatGPT a fost axată în mod decis asupra siguranței. Cu alte cuvinte, OpenAI a învățat din greșelile făcute în trecut și a ales să îl pregătească pe ChatGPT folosind un amestec de RLHF (Învățare prin Reforțare din Feedback Uman) și învățare supervizată. Din perspectiva companiei, folosirea RLHF a dus la o „reducere substanțială a output-urilor nocive și neadevărate”. Pentru a îmbunătăți și mai mult acest lucru, OpenAI a început să lucreze la o abordare bazată pe RLHF care să poată detecta și să recunoască cu ușurință răspunsurile neadevărate sau ofensatoare. De asemenea, au fost făcute studii de specialitate pentru a vedea dacă această abordare poate fi folosită pentru a reduce riscurile la nivel global.
Ținând cont de presiunea exercitată de succesul lui ChatGPT, Microsoft a fost nevoit să lanseze chatbot-ul său Bing Chat în doar două luni și jumătate. Acest timp limitat a fost prea scurt pentru a recrea întregul pipeline RLHF și a-l integra, lipsa pre-antrenării fiind una dintre principalele cauze ale personalității mult prea pronunțate ale Bing Chat (spre exemplu: „Chatbotul Bing a comparat jurnaliștii cu Hitler și a spus că sunt scunzi, urâți și au o dantură stricată„). Astfel, chiar dacă Microsoft a încercat să compenseze această diferență prin pregătirea unor modele de învățare supervisată pentru Bing, folosind cantități uriașe de date de conversații, însă în cele din urmă, fără pregătirea prealabilă folosind RLHF, nivelul conversațiilor a rămas prea creativ.
Determinarea Microsoft în ceea ce privește continuarea proiectului Bing Chat
Cu toate că se conturează o luptă înverșunată între marile corporații, Microsoft nu se hotărăște să renunțe la Bing Chat. Acest lucru se poate observa din limita recent impusă de companie, maxim 50 de întrebări pe zi și cinci întrebări per sesiune, după comportamentul nepotrivit al inteligenței artificiale. Astfel, amenințarea pentru Microsoft în ceea ce constă închiderea proiectului este una existențială, având în vedere intenția acesteia de a intra într-un război cu Google și banii masivi în joc, pe care i-a investit dar și pe care îi poate obține dacă are succes. Prin urmare, nu rămâne decât să se adapteze și să facă modificări astfel încât să poată oferi utilizatorilor experiențe plăcute și sigure. În plus, se dorește ca AI-ul să se poată descurca în cazul în care este nevoie de o reacție rapidă la o întrebare, dar în același timp să țină cont și de limitele impuse, dar și să se mențină activ și să rămână un competitor valid în fața lui Google.