Културни кодове: Могат ли демокрацията и ИИ да съществуват едновременно? Отговорите на Ювал Харари
Ако интернет ерата има една мечта, тя е, че повече информация, повече данни и повече откритост ще създадат по-добър, по-истински свят.
Звучи страхотно, нали? Никога не е било по-лесно да научите повече за света и да споделите това знание, отколкото сега. Но, реално погледнато е малко вероятно да се направи извода, че истината и мъдростта триумфират. Какво можем да направим по въпроса? Защо повече информация не ни направи по-умни и мъдри?
Ювал Ноа Харари, историк и автор на новата книга „Nexus. Кратка история на информационните мрежи от каменната ера до изкуствения интелект“, дава два убедителни аргумента, които ни доближават до отговорите на тези въпроси. Първото твърдение е, че всяка значима система днес всъщност е резултат от информационна мрежа. От валута до религия, от национални държави до изкуствен интелект, всичко работи, защото има верига от хора, машини и институции, които събират и обменят информация.
Вторият момент е, че тези мрежи за сътрудничество създават огромна сила, но начинът, по който повечето от тях са структурирани, най-вероятно ще доведе до катастрофални резултати. Доколкото нашата сила като вид нараства благодарение на технологиите, потенциалните последици от това явление изглеждат като водещи към катастрофа.
Основният въпрос, засегнат в книгата, е: ако хората са толкова умни, защо са толкова глупави? Ние сме най-умните животни на планетата. Можем да създаваме самолети, атомни бомби, компютри и много други. И в същото време сме на ръба да унищожим себе си, нашата цивилизация и по-голямата част от екологичната система. И това изглежда като голям парадокс: ако знаем толкова много за света, за далечните галактики, за ДНК и субатомните частици, защо сме толкова активно ангажирани в самоунищожението? Основният отговор, който много митологии и теологии дават е, че има нещо лошо в човешката природа и затова трябва да разчитаме на някакъв външен източник, като бог, който да ни спаси от самите нас. Ювал Ноа Харари смята, че това е грешен отговор. Освен грешен, той е и опасен, защото насърчава хората да абдикират от отговорност.
По същество няма нищо лошо в човешката природа. Проблемът е в информацията. Повечето хора са добри хора. Не са склонни към самоунищожение. Но ако дадете на добрите хора лоша информация, те вземат лоши решения. Историята показва, че наистина ставаме все по-добри и по-добри в натрупването на огромно количество информация, но самата информация не става по-добра. Съвременните общества, подобно на племената от каменната ера, са обект на масови заблуди и психози.
Много хора, особено на места като Силициевата долина, вярват, че информацията е абсолютната истина. Колкото повече информация, толкова по-добро разбиране на света. Повечето от информацията обаче е боклук. Информацията не е истина. Основното, което прави информацията, е да създава връзки. Най-простият начин да обедините много хора в общество, религия, корпорация или армия не е истината. Най-лесният начин да обедините хората е чрез фантазия, митология и заблуди. Ето защо, разполагайки с най-напредналите информационни технологии в историята, ние сме на ръба на самоунищожението, смята Харари.
До днес цялата човешка култура е създадена от човешки умове. Ние живеем в културата. Преживяваме всичко, което ни се случва чрез посредничеството на културни продукти: митология, идеология, артефакти, песни, пиеси, телевизионни сериали. Ние живеем в пашкул в тази културна вселена. До днес всички инструменти, всички поеми, всички серии, всички митологии са продукт на органичния човешки ум. Сега, все повече, те ще бъдат продукт на неорганичен разум, AI, извънземен разум. Отново, акронимът винаги е означавал изкуствен интелект, но всъщност трябва да означава извънземен интелект. Извънземен не в смисъл, че идва от космоса, а в смисъл, че е много различен от начина, по който хората мислят и вземат решения, защото не е органичен по произход.
Като конкретен пример, един от ключовите моменти на AI революцията беше, когато AlphaGo победи Lи Седол в турнир по Го - сложна стратегическа игра, подобна на шаха, произхождаща от древен Китай. В някои страни се смята за едно от основните изкуства, които всеки цивилизован човек трябва да познава. Ако сте били китайски благородник през Средновековието, вие сте знаели калиграфия, свирили сте на музикални инструменти и сте играели на Го. Цели философии се развиха около тази игра, която се разглеждаше като отражение на политиката и живота. А през 2016 г. програмата за изкуствен интелект AlphaGo се научи да играе Го и победи шампиона е сред хората. Но най-интересното е как го направи. Тя използва стратегия, която всички експерти първоначално смятаха за ужасна, защото никой не играе така. И тя се оказа блестяща. Милиони хора са играли тази игра и сега знаем, че те са изследвали само много малка част от света на Го.
Хората бяха заседнали на един остров и смятаха, че това е цялата планета Го. И тогава се появи ИИ и в рамките на няколко седмици откри нови континенти. И сега хората играят Го напълно различно, отколкото преди 2016 г. Може да кажете, че няма значение, защото е просто игра. Но същото нещо вероятно ще се случи във все повече области. Например финансите също са изкуство. Цялата финансова структура, която познаваме, се основава на човешкото въображение. Историята на финансите е историята на хората, изобретяващи финансови механизми. Парите са финансов механизъм. Облигации, акции, борсово търгувани фондове, ценни книжа – всички тези удивителни неща са продукт на човешката изобретателност. И тогава се появява изкуственият интелект, който започва да измисля нови финансови механизми, за които никой не се е замислял и не си е представял.
Какво се случва, например, ако финансите станат толкова сложни заради развитието на изкуствения интелект, че никой човек вече не може да ги разбере? Дори днес колко хора наистина разбират финансовата система? По-малко от 1 процент? След 10 години броят на хората, които разбират финансовата система, може да бъде нула, защото финансовата система е идеална площадка за ИИ. Това е свят на чиста информация и математика.
AI все още изпитва трудности при взаимодействие с външния физически свят. От много години Илон Мъск ни обещава, че догодина по пътищата ще се появят напълно автономни коли, но това не се случва. Защо? Защото, за да шофирате кола, трябва да взаимодействате с физическия свят, с хаотичния свят на трафика в Ню Йорк, с всички строителни работи, пешеходци и така нататък. С финансите всичко е много по-просто. Това са само цифри. И какво ще се случи, ако в това информационно царство, където AI е местен жител, а ние сме извънземни, имигранти, той създаде толкова сложни финансови устройства и механизми, че никой не би могъл да ги разбира?
Ще бъдем ли в капан? Възможно е, но не е задължително. Трябва да бъдем много по-внимателни и обмислящи в начина, по който проектираме тези неща. Важно е да разберете, че AI не е инструмент, а агент и като такъв е вероятно да бъде извън нашия контрол в бъдеще, ако не внимаваме с него. Не е като да имаме един суперкомпютър, който да се опитва да превземе света. Ще имаме милиони AI бюрократи в училища, фабрики, навсякъде, които ще вземат решения вместо нас, които не разбираме.
Демокрацията до голяма степен е свързана с отчетност. Отговорността зависи от способността за разбиране на взетите решения. Например, кандидатствате в банка за кредит, но ви отказват. Питате: "Защо?" Те ви отговарят: „Не знаем, алгоритъмът прегледа всички данни и реши да не ви даде заем, но ние просто се доверяваме на нашия алгоритъм.“ Това много прилича на края на демокрацията. Все още можете да провеждате избори и да избирате когото искате, но ако хората вече не са в състояние да разберат основните решения, които засягат живота им, тогава отговорността вече няма.
Никой не знае със сигурност кога ще преминем тази линия. Изглежда, че всичко върви по-бързо, отколкото всички очакваха. Може би три години, може би пет години, може би десет. Просто помислете за това от космическа гледна точка. Ние, хората, сме резултат от 4 милиарда години органична еволюция. Органичната еволюция, както я познаваме, е започнала на планетата Земя преди 4 милиарда години с малки микроорганизми. И са били необходими милиарди години за еволюцията на многоклетъчните организми, влечугите, бозайниците, маймуните и хората. Цифровата неорганична еволюция е милиони пъти по-бърза. Сега сме в началото на нов еволюционен процес, който може да продължи хиляди или дори милиони години. AI, който познаваме днес през 2024 г., ChatGPT и всички останали са просто амеби в процеса на еволюция на AI.
Съвместимостта на демокрацията и информационните мрежи на 21 век зависи от нашите решения. На първо място, трябва да разберем, че информационните технологии не са само едно нещо. Това не е демокрация от една страна и информационни технологии от друга. Информационните технологии са в основата на демокрацията. Демокрацията се гради върху потока от информация.
През по-голямата част от историята не беше възможно да се създадат широкомащабни демократични структури, защото липсваха информационни технологии. По същество демокрацията е разговор между много хора. В едно малко племе или малък град-държава преди хиляди години е било възможно да се събере цялото или голям процент от населението на, да речем, древна Атина на градския площад, за да реши дали да влезе във война със Спарта или не. Технически е било възможно да се проведе дискусия. Но милиони хора, разпръснати на хиляди километри, не са можели да говорят помежду си. Нямало е как да проведат разговор в реално време. Следователно в света нямаме нито един пример за мащабна демокрация, предшестваща съвременната. Всички примери са много малки по мащаб.
Широкомащабната демокрация стана възможна едва с появата на вестниците, телеграфите, радиото и телевизията. И сега можете да водите разговор между милиони хора, разпръснати из огромна територия. Така демокрацията се изгражда на основата на информационните технологии. Всеки път, когато има голяма промяна в информационните технологии, се случва земетресение в демокрацията, която е изградена върху тях. И това е, което преживяваме сега с алгоритмите на социалните медии и така нататък. Това не означава, че е дошъл краят на демокрацията. Въпросът е може ли демокрацията да се адаптира?
Как изкуственият интелект ще промени баланса на силите към демократични или по-тоталитарни общества зависи от нашите решения. Няма да има най-лош сценарий. В диктаторските общества не можете да говорите за нищо, за което режимът не иска да говорите. Но в действителност диктаторите имат свои проблеми с ИИ, защото той е неконтролируем агент. И през цялата човешка история най-лошото нещо за един диктатор е бил подчинен, който е станал твърде силен и неконтролируем. Ако погледнете, да речем, Римската империя, нито един римски император не е бил свален от демократична революция. Няма такъв. Но много от тях са били убити, свалени или са станали марионетки на приближени, могъщи военноначалници или губернатори на провинции, брат, съпруга или някой друг в семейството. Това е най-големият страх на всеки диктатор. А самите диктатори управляват въз основата на страха.
Големият проблем е какво ще се случи, ако AI започне да манипулира самия диктатор. Завземането на властта при демокрация е много сложно, защото самата демокрация е сложна. Да кажем, че след пет или десет години AI ще се научи да манипулира президента на Съединените щати. Но ще се сблъска с гласуване в Сената. Фактът, че той знае как да манипулира президента, няма да му помогне със Сената, губернаторите на щатите или Върховния съд. Има толкова много неща за преодоляване. Но в някои страни AI трябва само да се научи да манипулира един изключително параноичен и зависим човек, което е доста просто.
За да се защитят, демокрациите трябва да направят няколко неща. Една от тях е корпорациите да бъдат отговорни за действията на техните алгоритми. Не за действията на потребителите, а за действията на алгоритмите. Ако алгоритъм на социална мрежа разпространява изпълнена с омраза теория на конспирацията, мрежата трябва да носи отговорност. Ако от мрежата кажат: „Но ние не сме създали теория на конспирацията. Някой потребител го е създал и ние не искаме да го цензурираме“, тогава отговаряме: „Не ви молим да го цензурирате. Само ви молим да не го разпространявате." Това не е нещо ново. Помислете например за традиционните медии. Редакторът на едно издание, когато решава какво да постави на първа страница, ще внимава да не разпространява невярна информация. Ако някой дойде при него с теория на конспирацията, той не казва на този човек: „О, цензуриран си. Не ти е позволено да казваш такива неща“. Редакторът ще каже: „Добре, но нямаме достатъчно доказателства, за да подкрепим вашето твърдение. Така че, с цялото ми уважение, можете да продължите да го твърдите, но ние няма да поставим вашето мнение на първа страница на нашето издание." Същото трябва да важи и за социалните мрежи.
Компаниите може да се оплакват: „Как можем да разберем дали нещо е вярно или не?“ Е, това е ваша работа. Ако управлявате медийна компания, вашата работа не е просто да привличате потребители, а да действате отговорно, да разработите механизми за разграничаване на надеждна информация от ненадеждна информация и да разпространявате само това, което имате основателна причина да вярвате, че е надеждна информация. Това вече се случи. Вие не сте първите в историята, които са длъжни да правят разлика между достоверна и недостоверна информация. Редактори на вестници, учени, съдии вече са направили това, така че можете да се поучите от техния опит. И ако не можете да направите това, тогава сте в грешния бизнес. Компаниите трябва да носят отговорност за действията на алгоритмите. Това е първото нещо.
Второто нещо е да забраните на ботовете да участват в разговори. AI не трябва да участва в човешки разговори, освен ако не се идентифицира като AI. Представете си демокрацията като група хора, които стоят в кръг и си говорят. И изведнъж група роботи влизат в кръга и започват да говорят много високо и ентусиазирано. И не знаете кои от тях са роботи и кои хора. Точно това се случва по целия свят в момента. И затова разговорът прекъсва. И има проста противоотрова. Роботите не се канят в социалните кръгове, освен ако веднага не изяснят, че са роботи. Има отделно място за, да речем, AI лекар, който дава медицински съвети, при условие че се легитимира.
По същия начин, ако влезете в социална мрежа и видите, че определена история става вирусна, има много гледания, вие също започвате да се чудите: „О, каква е тази нова история, за която всички говорят?“ Кои са тези всички? Ако тази история всъщност се пробутва от ботове, значи не са хора. Те не трябва да участват в разговора. Това е изключително важен въпрос в едно демократично общество, във всяко човешко общество. Ботовете не трябва да могат да определят кои теми са на всеослушание. Свободата на словото е човешко право, което трябва да бъде запазено за хората, а не за ботовете.
Източник: Vox
Ключови думи
ОЩЕ ОТ КАТЕГОРИЯТА
|
|
Коментари
Няма въведени кометари.