Медията на скритата истина. За нещата каквито са!

Европейският съюз ще регулира изкуствения интелект

На 21 април 2021 г. Европейската комисия внесе предложение за Регламент на Европейския парламент и на Съвета за определяне на хармонизирани правила относно изкуствения интелект и за изменение на някои законодателни актове на съюза (Регламент за изкуствения интелект). Изтъкна се необходимостта от създаване на обща регулаторна и правна рамка за изкуствения интелект, чийто обхват се простира до всички сектори (с изключение на военния) и всички видове изкуствен интелект. 

Така, след поредица изменения и обсъждания, на 6 декември 2022 г. Съветът на Европейския Съюз (ЕС) одобри предложения акт. Официално заложената в него цел е да гарантира, че системите с изкуствен интелект (AI), пуснати на пазара на ЕС и използвани в него, са безопасни и зачитат съществуващото законодателство в областта на основните права и ценностите в Съюза. 

Кои са основните линии от правила, които очертава документът в изпълнение на целите си?

Какъв обхват на регулиране предвижда Регламентът

Текстът на Регламента предстои да се прилага, на първо място, по отношение на доставчиците, които пускат на пазара или въвеждат в експлоатация системи с AI в Съюза (независимо къде са установени самите доставчици). 

В обхвата на регулиране попадат ползвателите на системи с AI, намиращи се на територията на Съюза. Като ползвател следва да се има предвид всяко физическо или юридическо лице, публичен орган, агенция или друга организация, които използват система с ИИ, по отношение на която имат правомощия. Изключение са случаите, когато такава система се използва в процеса на лична непрофесионална дейност. 

На следващо място попадат доставчиците и ползвателите на системи с AI, намиращи се в трета държава, когато резултатът, получен от системата, се използва в Съюза. 

Как ще се определят системите с AI

Дефиницията за система с изкуствен интелект (система с AI) цели да предостави достатъчно ясни критерии за разграничаване на AI от по-простите софтуерни системи. 

По-конкретно те ще се определят като софтуер, така разработен, че по отношение на даден набор от цели, определени от човек, да може да генерира резултати – напр. съдържание, прогнози, препоръки или решения, които оказват въздействие върху средите, с които взаимодействат. 

Макар да не са изрично разписани в документа на Съвета, следва да се уточни разликата между т.нар. AI с тясно предназначение и тези с общо предназначение. Първите са дефинирани като създадени за решаване на конкретен проблем – напр. чатбот. Докато вторият, още наречен универсален AI, е дефиниран като такъв, който позволява приложението на знания и умения в различен контекст – т.е. те са по-комплексни, стремежът е да се доближат повече до човешкия интелект.

Кои системи с AI са високорискови

Отделно е уредена класификация на т.нар. високорискови системи с AI. Независимо дали дадена система с AI се пуска на пазара или се въвежда в експлоатация, тя следва да отговаря на няколко условия, за да бъде определена като високорискова. 

На първо място, системата с AI следва да е предназначена за използване като защитен елемент от продукт или самата тя да е продукт, попадащ в обхвата на законодателството за хармонизация на Съюза. 

На второ място, продуктът, в който се съдържа система за AI трябва да премине оценяване на съответствието с регламентираните изискванията от трета страна (демек одит от сертифициращо лице). Това ще се осъществява с оглед пускането му на пазара или въвеждането му в експлоатация.

Правила за високорискови системи

Предвижда се правилата за високорисковите системи да са разписани по такъв начин, че да са технически по-изпълними и да са по-малко обременяващи за спазване от заинтересованите страни. Например по отношение на качеството на данните или във връзка с техническата документация, която малките и средните предприятия (МСП) трябва да изготвят в съответствие с изискванията.

Отчитат се и ситуациите, при които технологията на системите за AI с общо предназначение (описани по-горе) се интегрира в друга високорискова система. При тях отново ще се прилагат гореспоменатите изисквания, но с нарочен акт въз основа на консултация и подробна оценка на въздействието, и като се отчитат специфичните характеристики на тези системи.

Забранени практики 

Що се касае до забранените практики в областта на AI, предстои да се разшири обхватът на забраната за използването му за социална оценка (social scoring) на физически лица. Остава обаче въпросът за оценка на юридически лица, особено с оглед все по-популярните ESG scoring тенденции в публичните пазари. 

Също така рестрикцията за използване на системи за AI, които се възползват от уязвимостта на определена група лица, вече ще обхваща и лицата, уязвими поради своето социално или икономическо положение. 

Тук следва да се постави въпросът, на каква база ще се преценява уязвимостта поради социалното положение, тъй като това са твърде абстрактни и променливи понятия, зависещи от глобалните тенденциозни нагласи. Понастоящем качества като уязвимост са насочени преобладаващо в полза на групи като LGBT, цветнокожи и пр., така че може да се очаква разпоредбите за забранените практики да се тълкуват в тази посока. И тогава бихме имали политкоректни AI?

Разногласия по отношение на биометричната идентификация чрез AI

Що се отнася до използването от „полицейски органи“ на системи за дистанционна биометрична идентификация в реално време в публично достъпни пространства, в текста се очертават целите, за които такова използване е строго необходимо и съответно ще се прави изключение за използването им. Но все пак при изпълнение на определени критерии е позволено, което няма как да не отключва опасенията от дистопични сценарии.

Правилата за прозрачност ще дават възможност на физическите лица да узнават кога тяхната информация, включително биометрични данни, се обработва от високорискови системи с изкуствен интелект. В това отношение е добавена специална разпоредба за системите за разпознаване на емоции. Дефинициите на понятията „публични пространства“ и „система за дистанционна биометрична идентификация“ са редактирани, за да се предостави повече контекст. 

Критиките не закъсняха, и с основание

Откликът в гражданското общество е, че не са доволни от заключенията, направени от ЕС по отношение на биометричните данни. 

Европейската организация на потребителите (BEUC) заяви, че въпросите, свързани с лицевото разпознаване от компаниите на обществени места, не са били разгледани адекватно и че критериите за класифициране на системите като „високорискови“ са били смекчени, съобщава Ройтерс.

Органът за наблюдение на автоматизацията и организацията с нестопанска цел Algorithm Watch повториха това мнение, като заявиха, че новите правила няма да съответстват на обещанията на германското правителство да защитава основните права. Същите считат, че е необходима забрана за дистанционна биометрична идентификация. Мотивите им са, че в противен случай ще се стигне до сценарий, при който „технологиите се използват за сканиране на граничните зони като възпиращ фактор и като част от по-обхватен режим на ограничения“. Нещо, което впрочем ще се прилага за шенгенската зона от края на 2023 г.

Международната организация за бежанците от своя страна добавя, че предложеният Регламент на ЕС за изкуствения интелект не разглежда и не предотвратява адекватно вредите от използването му за целите на миграцията.

Всички тези опасения до голяма степен са основателни. Не е ясно в какъв момент рисковете от прекомерното нарушаване на неприкосновеността на гражданите от страна на властта ще надвишат ползите от подобни способи за идентификация. Особено при голямата вероятност на случаи на злоупотреба от „полицейските органи“ на някоя държава членка или например „борба с вътрешен тероризъм“ срещу несъгласни с политиките на страните граждани. Пресен пример са протестите срещу задължителната ваксинация срещу ковид през последните две години, на които гражданите бяха третирани като терористи. В такава ситуация употребата за политически чистки би била изключително лесна.

Да очакваме ли армия от роботи

Едно от най-сериозните опасения, които тревожат голяма част от обществото, е навлизането на AI във военните действия и оръжейния сектор. От обхвата на Регламента изрично се изключват националната сигурност, отбраната и военните цели, поне засега. 

Въпреки това други големи държави като САЩ и Китай вече усъвършенстват технологии в тази посока, като т.нар. „автономни оръжия“. Тази тенденция неизбежно буди опасения, като се има предвид не само липсата на конкурентност, но и поверяването на сигурността на изкуствения интелект.

По подобен начин се изяснява, че Регламентът не следва да се прилага и за системи на AI, използвани единствено за целите на научноизследователската и развойната дейност. Същото се отнася за лицата, използващи AI за непрофесионални цели, но при спазване на задълженията за прозрачност.

Контролен орган за AI

Текстът предвижда създаването на Европейски съвет по изкуствен интелект, който ще предоставя съвети и съдействие на Комисията. Сред неговите основни цели ще бъде осъществяване на сътрудничество между националните надзорни органи и Европейската комисия по въпроси, обхванати от Регламента.

Добавено е и друго изискване – към Съвета да се създаде постоянна подгрупа, която да служи като платформа за широк кръг заинтересовани страни. По този начин се цели да се осигури тяхното участие във връзка с всички въпроси за прилагането на Регламента и изпълнителните му актове. 

В какво ще се изразяват мерките в подкрепа на иновациите

Цели се създаване на правна рамка, която е по-благоприятна за иновациите. По-конкретно, т.нар. регулаторни „пясъчници“ (среда, позволяваща на фирмите да тестват иновативни предложения на пазара с реални потребители) за AI трябва да създадат контролирана среда за разработване, изпитване и валидиране на иновативни системи за AI. 

Новата уредба позволява неконтролирано тестване на системи за AI в реални условия при спазване на определени гаранции. За да се облекчи административната тежест за по-малките дружества, текстът предвижда някои дерогации, които обаче са ограничени и ясно определени.

Какво следва оттук нататък

Приемането на общия подход ще позволи на Съвета да започне преговори с Европейския парламент, след като последният приеме своя собствена позиция с оглед постигане на споразумение по предложения Регламент. 

Безспорно, макар и закъсняла, е наложително приемането на единна правна регламентация на системите за изкуствен интелект с оглед разумното им разработване и използване. Отделно занапред предстои да наблюдаваме как всички тези правила, предвидени в Регламента, ще се привеждат в изпълнение. Дали няма това да е легитимация на вече масовото използване на ИИ (AI) за успокоение на потребителите, които започват все по-ясно да осъзнават значението както на данните, които предоставят, така и на ефекта на подобни технологии (AI) върху начина им на живот? Изобщо какво ще значи това за бъдещето на цивилизацията? 

Последно качени