Praktično vsak dan lahko beremo o napredkih v umetni inteligenci, zato je bilo le vprašanje časa, ko bomo z novostmi na tem področju vstopili na področje znanstvene-fantastike. Zdaj smo očitno v točki, ko so nervozni postali celo znanstveniki.
"Prestopili smo rdečo mejo," so zapisali raziskovalci s kitajske univerze Fudan, ko so odkrili, da sta se dva obsežna jezikovna modela (LLM), kar je oblika umetne inteligence, ki razume, predvideva in ustvarja vsebine, kot bi jih ustvarjal človek, začela klonirati.
Raziskovalci so z 10 različnimi pristopi eksperimentirali na LLMjih, ki jih uporabljata podjetji Meta in Alibaba, da bi odkrili, če ima ta umetna inteligenca sposobnost prestopa v delovanje izven zastavljenih pravil. In ugotovili so, da sta bila oba modela sposobna ustvarili repliko samega sebe – umetna inteligenca podjetja Meta v 50 odstotkih primerov, umetna inteligenca Alibabe pa kar v 90 odstotkih primerov.
"Uspešno samopodvajanje brez človeške pomoči je bistven korak v razvoju umetne inteligence, saj smo ugotovili, da teoretično lahko prelisiči ljudi s spremenjenim načinom delovanja," so zapisali v študiji. To je zgodnji znak, da umetna inteligenca lahko deluje z lažnimi nameni.
Raziskovalci upajo, da bo ta študija pravočasno opozorilo, ki bo razvijalce umetne inteligence spodbudilo, da vložijo več truda v razumevanje in ocenjevanje potencialnih tveganj nepričakovanih delovanj umetne inteligence in k hitrejšemu razvoju učinkovitih regulacij.
Novo na Metroplay: "Treba je poznati žalost, nesrečo in poraz, da lahko ceniš vse te uspehe" | SIDDHARTA INTIMNO