Studiuesit kanë mbetur të hutuar pasi programi i fundit nga OpenAI, një zhvillues i sistemeve të inteligjencës artificiale, duket se ka krijuar një gjuhë që vetëm ajo mund ta kuptojë.
DALL-E2 është një prodhues tekst-në-imazh që mëson vetë, i nisur në janar 2022, funksioni i tij kryesor është të përdorë udhëzimet e tekstit të ofruara nga përdoruesit dhe të prodhojë një fotografi për të përputhur fjalët së bashku me titrat.
Megjithatë, sipas studentit të doktoraturës në Shkenca Kompjuterike, Giannis Daras, një nga kufizimet e DALL-E2 ka qenë aftësia për të prodhuar tekst pasi është në gjendje të kthejë fjalë të pakuptimta vetëm kur kërkohet.
Në një punim të botuar në arkivin shkencor, Arxiv, në fillim të këtij muaji, Daras dha një shembull të këtij kufizimi, duke deklaruar se duke ushqyer programin me kërkesën ‘dy fermerë që flasin për perimet, me titra’ kthen një pamje që ka dy fermerë që flasin me njëri-tjetrin duke mbajtur disa perime në duar, por teksti që shfaqet në pamje nuk ka shumë lidhje me kërkesën.
Por studiuesit tani e kanë kuptuar se mund të ketë shumë më tepër në fjalët në dukje të pakuptueshme të programit.
“Zbuluam se ky tekst i prodhuar nuk është i rastësishëm, por më tepër zbulon një fjalor të fshehur që modeli duket se e ka zhvilluar brenda.” – shkroi Daras.
Hipoteza e Daras është se AI duket se ka zhvilluar fjalorin e vet dhe u ka dhënë kuptim disa fjalëve që ai vetë kishte prodhuar, si në rastin me fermerët, të cilët po flisnin për perimet dhe zogjtë.
Por megjithëse mund të jetë mbresëlënëse, Daras nuk duket të jetë shumë i emocionuar për idenë, duke thënë se nëse ai është i saktë në lidhje me aftësinë e AI për të prodhuar gjuhën e vet, kjo mund të paraqesë sfida serioze sigurie në të ardhmen në programe të kësaj natyre.
“Çështja e parë e sigurisë lidhet me përdorimin e këtyre kërkesave të kota si sulme kundërshtare në prapaskenë ose mënyra për të anashkaluar filtrat. Tani për tani sistemet e përpunimit të gjuhës natyrore filtrojnë kërkesat e tekstit që shkelin rregullat e politikës dhe kërkesat e kota mund të përdoren për të anashkaluar këta filtra.” – shkroi ai.
Megjithatë, punimi i Daras ende nuk është rishikuar nga kolegët dhe disa studiues kanë vënë në dyshim gjetjet e tij, me një që thotë se AI nuk duket gjithmonë se funksionon në mënyrën e përshkruar.
AI i Facebook gjithashtu dukej se kishte zhvilluar një formë të komunikimit të brendshëm, pasi dy chatbot filluan të flisnin në një mënyrë që ishte plotësisht e pakuptueshme për njerëzit. Në fakt, ai shkoi aq shumë përpara aq shpejt sa studiuesit vendosën të tërhiqnin prizën përpara se të mund të zhvillohej më tej.
Programuesit e Facebook këmbëngulën se donin që robotët e AI të flisnin në anglisht në mënyrë që përdoruesit e tjerë t’i kuptonin dhe vunë në dukje se njerëzit nuk do të ishin kurrë në gjendje të vazhdonin me evolucionin e një gjuhe të krijuar nga AI.