Ilustracija (Pexels)
Facebookova matična tvrtka Meta Platforms u utorak je objavila model umjetne inteligencije sposoban za prijevode i transkripciju govora na više desetaka jezika, što je potencijalni temelj za alate koji omogućuju komunikaciju u stvarnome vremenu premošćujući jezične podjele.
Takve podjele predstavljaju jaz među različitim jezicima s obzirom na njihovu funkcionalnu održivost i zastupljenost na internetu.
Tvrtka je u postu na svome blogu objavila da njezin model SeamlessM4T podržava prijevode teksta i govora na gotovo stotinu jezika, kao i potpuni prijevod govora u govor za 35 jezika, kombinirajući pritom tehnologiju koja je prije bila dostupna samo u zasebnim modelima.
Izvršni direktor Mete, Mark Zuckerberg rekao je da ima viziju alata koji olakšavaju interakcije među korisnicima iz cijelog svijeta u metaverzumu.
U postu na blogu stoji i to da Meta stavlja svoj model na raspolaganje javnosti za nekomercijalnu upotrebu.
Najveća svjetska tvrtka za društvene medije ove je godine objavila mnoštvo uglavnom besplatnih AI modela. Među njima je i veliki jezični model nazvan LLaMA (Large Language Model Meta AI), osmišljen kako bi pomogao istraživačima umjetne inteligencije da unaprijede svoj rad na ovome polju.
Zuckerberg kaže da otvoreni ekosustav umjetne inteligencije ide u korist Mete, s obzirom na to da tvrtka dobiva više učinkovitim crowd-sourcingom za stvaranje alata namijenjenih korisnicima za svoje društvene platforme, nego naplaćivanjem pristupa modelima.
Unatoč tomu Meta je suočena sa sličnim pravnim pitanjima kao i ostatak industrije kada su posrijedi podaci o poduci uneseni za izradu modela.
U srpnju su stand-up komičarka Sarah Silverman i još dvoje autora podnijeli tužbe za kršenje autorskih prava protiv Mete i OpenAI-ja, optuživši ih da su neovlašteno koristili njihov sadržaj za jezičnu poduku umjetne inteligencije. Sadržaj je bio zaštićen autorskim pravima, a Meta i OpenAI koristili su ga za poduku robota za chat.
Kada je riječ o modelu SeamlessM4T, istraživači Mete u svome istraživačkom radu tvrde da su podatke o audio-poduci prikupili s četiri milijuna sati "sirovog zvuka koji potječe iz javno dostupnog repozitorija indeksiranih internetskih podataka", no nisu naveli o kojem se repozitoriju radi.
Glasnogovornik Mete nije odgovorio na pitanja o porijeklu audio podataka.
U njihovu istraživačkom radu stoji i to da tekstualni podaci potječu iz skupova podataka koji su kreirani prošle godine, a sadržaje su izvukli s Wikipedije i sličnih internetskih stranica.