Стивън Хокинг нарече изкуствения интелект „възможно най-голямата грешка в историята на човечеството“
Прочутият британски физик Стивън Хокинг, в статия, вдъхновена от научно-фантастичния филм „Transcendence“ с Джони Деп в главната роля, заяви, че подценяването на заплахата от изкуствения интелект може да се окаже най-голямата грешка в историята на човечеството.
В статия, написана в сътрудничество с проф. Стюарт Ръсел, специалист по компютърни науки в Университета на Калифорния в Бъркли и професорите по физика Макс Тегмарк и Франк Вилчек от Масачузетския технологичен институт, Хокинг посочва някои постижения в областта на изкуствения интелект, отбелязвайки самоуправляващите се автомобили, гласовия асистент Siri и суперкомпютърът, който победи човек в телевизионната викторина-игра Jeopardy.
Всички тези постижения бледнеят на фона на това, което ни очаква в следващите десетилетия. Успешното създаване на изкуствен интелект ще бъде най-голямото събитие в историята на човечеството. За съжаление, то може да бъде последното, ако ние не се научим да избягваме рисковете – цитиран Хогинг британският вестник Independent.
Професорите пишат, че в бъдеще може да се случи така, че никой и нищо да не може да спре машината с нечовешки интелект от самоусъвършенстване. Това ще включи процеса на така нареченото технологична сингулярност, под което се разбира изключително бързото развитие на технологиите. Във филма с Джони Деп в този смисъл се използва думата „трансцендентност“.
Само си представете, че тази технология задмине човека и започне да управлява финансовите пазари , научните изследвания, хората и разработката на оръжия, извън нашето разбиране. Ако краткосрочния ефект на изкуствен интелект зависи от това кой го управлява, дългосрочният ефект - от това дали може да бъде управляван въобще.
Трудно е да се каже какви последици биха могли да има върху хората изкуствен интелект. Хокинг е убеден, че на тези въпроси са посветени малко сериозни изследвания извън такива организации с нестопанска цел, като например Кеймбриджския център за изследване на екзистенциални рискове, Института за бъдещето на човечеството, както и изследователски институти за машинния интелект и животът на бъдещето.
Според него всеки от нас трябва да се запита какво можем да направим сега, за да се избегне най-лошия сценарий за бъдещето.
Междувременно изкуственият интелект вече бавно прониква в масите.
Следвайте "Буднаера" в Телеграм
Ако този материал Ви харесва, помогнете ни да го популяризираме. Благодарим Ви!