Тренд публикува проучване за Нагласи на българите спрямо изкуствения интелект (юни 2023), което разкрива въпреки малката извадка от участници, че има разпространено незнание (даже дезинформация) относно изкуственият интелект. Public Awareness of Artificial Intelligence in Everyday Activities (фев. 2023) показва много подобни резултати от проучване проведено в САЩ, което е знак, че има широко разпространено неразбиране относно какво представлява и какво прави т.нар. ИИ. Незнание, подклаждано от маркетингови кампании и породено от сложността на материята, която изисква задълбочени познания по статистика и компютърна наука. Поради това в тази уводна статия търсим да насочим читателя към същността и възможностите на ИИ, но също така и да представим друг поглед за тези, които вече са изградили своето мнение.
Малко предистория
С адвента на задълбоченото машинно обучение през 2012 и популяризацията на рекурентните невронни мрежи чрез ChatGPT (ноември 2022), се наблюдава все по-общо и разпространено използване на ИИ. Не толкова популярен е фактът, че изкуствен интелект се използва още от 80те години на 20-ти век за решаването на ограничени, конкретни задачи изискващи малък капацитет за обработка на данни, т.нар. експертни системи.
През 2012г. излизат няколко големи статии, които поставят началото на така нареченото задълбочено машинно обучение. “Революцията” в областта, въпреки големината на пробива, остава скрита за широката публика, тъй като изисква добре обучени специалисти за обработка и управление на тези програми.
През последните години благодарение на ChatGPT, Dall-E 2 и Stable Diffusion, потребителите се докосват до все по-достъпни продукти, но въпреки удобствата, ИИ остава не добре разбрана научна сфера за широката публика. Множество медии и маркетингови кампании се възползват от това и предават често невярна и дори заблудителна информация: не само относно същността на изкуственият интелект, но и възможностите, които има, и мащаба на употребата му.
Какво де факто е т.нар. AI?
Изкуственият интелект по естество е математически модел, програма, която се стреми да моделира определена задача чрез статистически методи и търси да достигне до „разумен“ отговор, решение в стандартна ситуация. Алгоритмите основно са изградени от математическа машина, която извършва изчисленията; и данни, които са специално подбрани и моделирани, за да могат да се използват от системата.
Тези, които решават много конкретни задачи (като например разпознаването на цветове или символи) разчитат на малко количество статистически данни. С увеличаване на сложността на задачата (например разпознаването на изображение или дума), прогресивно расте и нуждата от захранващи данни и изчислителна мощ. За разлика от широко разпространеното мислене, че ИИ има собствени размисли, по своята същност, той е математическа машина, взимаща решения на базата на статистика.
Изкуственият интелект не е безвреден, той е инструмент, средство, което дава нови възможности на хората. Може да бъде използван както за добро, така и за зло. Злоупотребата е по-лесна от употребата с добри цели. От там произлиза и погрешното разбиране, че ИИ може да бъде само вреден и единствено опасен за човечеството.
В какво се състои опасността от ИИ?
Опасността не се крие зад технологията, а зад хората и интелектите, които се възползват от възможностите предоставени от ИИ. Една от основните способности на дълбоките невронни мрежи е да обработва огромни количества данни и да ги манипулира. Те могат да бъдат използвани за множество добри, хуманни цели: примери за това са ИИ, трениран да открива райони с взривни устройства и мини от войни; програми, които позволяват на хора с увреждания да живеят по-пълноценен живот; модели, позволяващи по-ефективно производство на електроенергия.
Възможностите са много и разнообразни, но това включва и услуги за обработка на предпочитания, обработка на личните данни, проследяване на кредитни и банкови транзакции, надзор и наблюдение в огромни мащаби, въздействие над политически избори, генериране на фалшиви новини и легитимирането им (т.нар. Фактчекъри). Все сфери, в които злоупотребата е много вероятна.
Силата на ИИ може да разшири действието на злите намерения (като своеобразен усилвател), пример за това е използването на социално кредитиране, дигитална самоличност и лицево разпознаване за следене на огромно количество хора: китайското правителство използва мощни математически модели за разпознаване на обекти и лица, даващо сила на ККП и китайското Министерство на държавната сигурност всеобхватно разузнаване на населението. Тоест ИИ много лесно може да се използва за масов контрол и натиск върху свободата на хората.
Скритият антиутопичен елемент
Но нека обърнем поглед и към “по-сладката”, но всъщност лукава цел – обещанието за свобода без отговорност. Свят, в който ИИ взима „правилните“ решения: решения кои медикаменти да използваш, какви продукти да закупуваш, как да възпиташ децата си, как да се образоваш и редица други вече имплементирани и употребявани похвати на системата, използвани за директна замяна на изначални и вложени в човека процеси за търсене на (раз)решение у Твореца и неговия ред.
Същия този свят вкарва човека в състояние, в което няма нужда да се влага, да се труди, да се бори за изработване на благото си. Установява се нов ред, в който и благото и наказанието идва от един “бог”, но не Твореца, а фалшив бог, контролиран от скрити корпоративни интереси, малки групи от хора управляващи задкулисно машината-идол.
Всъщност в това се крие и опасността. Рекламира се “светлото бъдеще”, в което няма нужда даже да разсъждаваш – изкуствения интелект знае по-добре. Силни маркетингови стратегии изграждат всеобщата представа у широката аудитория, че ИИ е ще бъде по-добър интелект от човека и особено генеративния ИИ има опасност да стане “осъзнат” (да има съзнание). Оттам се появява от една страна страхът за работното място, а от друга “хайпът” (ентусиазмът), че това е “четвъртата индустриална революция” и ключът към прогреса. Но точно неразбиране какво представлява т.нар. “Изкуствен интелект” предразполага реакция към двете крайности – отхвърляне като изцяло зло нещо, а от друга – универсално решение на проблемите на хората, бъдещето на човешката цивилизация и тем подобни басни (все пак да не забравяме, че философията на съвременните “меритократи” и технологични гурута е в посока на пълна хибридизация между информационните технологии и човешкото същество).
ИИ не трябва да бъде идол
Натоварването на тази технология с илюзията за “великите” й възможности, може да докара до погрома на цели поколения и да измени в отрицателна посока общественото развитие. Същността на проблема е във възприятията на човека за тази технология. Защото ако човек повярва, че ИИ е винаги прав (или дори само статистически, защото нали “фактите говорят” или “компютрите не лъжат”), съществува опасността човек да му делегира повече власт над много по-чувствителни аспекти от живота си или да възприема априори за правилни без критика решенията, които генерира един софтуер, когато е подлъган, че последния плюе винаги правилния резултат. Нали това е доводът на трансхуманистите, че грешка при компютрите не може да има, грешките могат да са само човешки.
Но един е случаят на решаване на конкретни задачи, в които ИИ е ефективен инструмент за обработка и манипулация на голяма база данни, друг случай обаче е когато маркетинговия тренд създаде илюзията, че ИИ може да решава неща в живота ти по-добре от човеци, по-добре може да отсъди от съдия, по-обективен би бил от всеки правораздаващ орган (неотчитайки, че ИИ няма изобщо съзнание, че да има обективно възприятие, а има еднопосочен импорт на данни, отново събрание от субект…), по-добър съвет за отношенията ти с други хора би ти дал, по-добра медицинска диагноза би ти дал и много други.
Да не говорим, че подобен сценарий разчита изцяло на това, че обективната реалност е напълно акуратно и в пълнота записана в базата данни, което очевидно не отговаря на истината. Но може би това е и целта на пропагандаторите – светът да бъде вкаран в алтернативна фактология, да бъде заглушена Истината?
Оттук накъде?
Когато човек търси да развие у себе си тази отговорност и правилен ред, когато отхвърли страха кой изкуствен интелект ще отнеме работата му и коя служба ще го проследи (не че не трябва да имаме едно наум), а придобие страх от Твореца, Неговия Съд и Ред, тогава придобива и свобода – свободата да управлява и владее над технологията и творението, придобива и интелект, който не може да бъде заменен от статистическо изследване, алгоритъм или логическа постройка, подобно на гениите на отминали времена, чиито достижения, от които черпим и до днес, все още не могат да бъдат разбрани докрай.
Изкуственият интелект не само е навлязъл в животите на всеки един, но системата търси все по-широкото му интегриране и разпространение, което до голяма степен основателно предизвиква притеснение в по-будните граждани. Това обяснява негативната реакция, отразена и в проучването на Тренд: над 40% от анкетираните имат отрицателно мнение за ИИ. Напълно основателно е вроденото усещане за опасност, защото, когато е в неразбиране, човек се бори със сянка, скрит и непознат интелект, който е представен като „надвишаващ човешките възможности“. Но истинския враг (демон), с който трябва да се борим не е самата технология сама по себе си, а онези невидими сили, които всячески търсят да я обсебят и превърнат в инструмент за контрол над човешката съдба. И това далеч не се ограничава само до политически и икономически играчи на световната сцена.
Въпреки огромната съпротива, ако човек придобие разбиране и просветен поглед над събитията, тогава получава и инструментите да се съпротивлява на системата и агентите, които се възползват от нея. В следващите статии ще търсим да развиваме този поглед и ще разгледаме в конкретика различни сфери, в които се използва изкуственият интелект (злонамерено или не) и скритите механизми зад него.