AI може да убие всички ни: Сам Олтман
Сам Олтман смята, че технологията, залегнала в основата на най-известния продукт на компанията му, може да доведе до края на човешката цивилизация.
През май главният изпълнителен директор на OpenAI Сам Олтман влезе в залата за изслушване на подкомисията на Сената във Вашингтон със спешна молба към законодателите: Създаване на обмислени разпоредби, които да приемат мощното обещание на изкуствения интелект, като същевременно намалят риска той да надвие човечеството. Това беше решаващ момент за него и за бъдещето на изкуствения интелект.
С пускането на ChatGPT на OpenAI в края на миналата година 38-годишният Олтман за една нощ се превърна в плакатното дете на новата група инструменти за изкуствен интелект, които могат да генерират изображения и текстове в отговор на подкани от потребителя - технология, наречена генеративен изкуствен интелект.
Скоро след пускането си ChatGPT се превърна в нарицателно име, почти синоним на самия ИИ. Главните изпълнителни директори го използваха за изготвяне на имейли, хора създаваха уебсайтове без предишен опит в кодирането и той премина изпити в юридически и бизнес училища. Той има потенциала да направи революция в почти всяка индустрия, включително в образованието, финансите, селското стопанство и здравеопазването - от операциите до разработването на лекарствени ваксини.
Но същите тези инструменти предизвикват опасения за всичко - от измами в училищата до изместване на работниците - и дори за екзистенциална заплаха за човечеството. Възходът на изкуствения интелект, например, накара икономистите да предупредят за пазара на труда. Според оценки на Goldman Sachs до 300 милиона работни места на пълно работно време по света в крайна сметка могат да бъдат автоматизирани по някакъв начин от генеративния ИИ. Около 14 млн. позиции могат да изчезнат само през следващите пет години, според доклад на Световния икономически форум от април.
В показанията си пред Конгреса Олтман заяви, че потенциалът ИИ да бъде използван за манипулиране на гласоподаватели и за насочване на дезинформация са сред "областите, които ме тревожат най-много".
Две седмици след изслушването Олтман се присъедини към стотици водещи учени, изследователи и бизнес лидери, които подписаха писмо, в което се казва: "Намаляването на риска от изчезване, причинено от ИИ, трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемии и ядрена война."
Предупреждението беше широко отразено в пресата, като някои изказаха мнение, че то показва необходимостта от по-сериозно отношение към подобни апокалиптични сценарии. То също така подчерта една важна динамика в Силициевата долина: В същото време се надпреварват да инвестират в тази технология и да я внедряват в продукти, които достигат до милиарди хора.
"Кевин Бейкън от Силициевата долина
Въпреки че Алтман, дългогодишен предприемач и инвеститор в Силициевата долина, през предходните години до голяма степен оставаше извън светлината на прожекторите, през последните месеци погледите се насочиха към него като към детето от плаката на революцията в областта на ИИ. Това също така го изложи на съдебни спорове, регулаторен контрол и както похвали, така и осъждания по целия свят.
В онзи ден пред подкомисията на Сената обаче Олтман определи настоящия бум на технологията като ключов момент.
"Дали [ИИ] ще бъде като печатарската преса, която разпространяваше знанието, силата и обучението широко в целия пейзаж, което даваше възможност на обикновените, всекидневни хора, което водеше до по-голямо процъфтяване, което водеше преди всичко до две по-големи свободи?", каза той. "Или ще бъде по-скоро като атомната бомба - огромен технологичен пробив, но последиците (тежки, ужасни) продължават да ни преследват и до днес?"
Олтман отдавна се представя като човек, който е наясно с рисковете, свързани с изкуствения интелект, и обещава да върви напред отговорно. Той е един от няколкото главни изпълнителни директори на технологични компании, които се срещнаха с лидерите на Белия дом, включително вицепрезидента Камала Харис и президента Джо Байдън, за да подчертаят значението на етичното и отговорно развитие на ИИ.
Други искат Олтман и OpenAI да действат по-предпазливо. Илон Мъск, който помогна за основаването на OpenAI, преди да се отдели от групата, и десетки технологични лидери, професори и изследователи в призоваха лабораториите за изкуствен интелект като OpenAI да спрат обучението на най-мощните системи за изкуствен интелект поне за шест месеца, позовавайки се на "дълбоки рискове за обществото и човечеството". (В същото време някои експерти се питат дали подписалите писмото не се стремят да запазят конкурентното си предимство пред други компании).
Олтман заяви, че е съгласен с някои части от писмото, включително с това, че "летвата за безопасност трябва да се повиши", но каза, че паузата няма да бъде "оптимален начин" за справяне с предизвикателствата.
Въпреки това OpenAI е поставила крака си здраво върху педала на газта. Неотдавна се съобщи, че OpenAI и дизайнерът на iPhone Джони Айв водят преговори за набиране на 1 млрд. долара от японския конгломерат SoftBank за устройство с изкуствен интелект, което да замени смартфона.
Онези, които познават Олтман, го описват като човек, който прави прозорливи залози и дори е наричан "стартъп Йода" или "Кевин Бейкън от Силициевата долина", тъй като е работил с почти всички в индустрията. Аарон Леви, главен изпълнителен директор на корпоративната облачна компания Box и дългогодишен приятел на Олтман, който е дошъл заедно с него в света на стартъпите, казва пред CNN, че Олтман е "интроспективен" и иска да обсъжда идеи, да получава различни гледни точки и безкрайно насърчава обратната връзка за всичко, върху което работи.
"Винаги съм смятал, че той е изключително самокритичен към идеите си и е готов да приеме всякаква обратна връзка по всяка тема, с която се е занимавал през годините", каза Леви.
Но Бърн Елиът, анализатор в Gartner Research, отбеляза известното клише: има риск да поставите всичките си яйца в една кошница, независимо колко голямо е доверието ви в нея.
"Много неща могат да се случат с една кошница", добави той.
Източник: CNN
Снимка: AP