Ако се върнем няколко десетилетия назад, ще ни е трудно да обясним на хората от онова време какво точно правим днес, когато „си говорим“ с изкуствен интелект. Днес ние пишем текст и получаваме смислен отговор. Пускаме снимка и машина я описва. Компютър побеждава шампиони по шах, го и дори на състезания по програмиране. А само преди едно поколение „изкуствен интелект“ беше по-скоро обещание и научна фантастика, отколкото ежедневна практика.
И все пак мечтата за изкуствен разум е много по-стара от компютъра. Хората са си представяли мислещи автомати много преди да се появи микропроцесорът. В това има нещо дълбоко човешко – да си представиш същество, което прилича на теб, но е изградено от метал, зъбни колела и символи.
Още в античните митове виждаме проблясъци на тази фантазия. Гръцкият майстор-художник Пигмалион, който се влюбва в статуята си, е далечен роднина на по-късните инженери, които се влюбват в машините си. В легендите на Хефест има механични слуги – бронзови фигури, които изпълняват заповеди. По-късно средновековните истории за голема – изкуствено същество, създадено от кал и оживено с тайно знание – също са ранна форма на идея за „програмиране“ на материята.
В епохата на Просвещението мечтата започва да се материализира в метал и дърво. Автоматите на XVIII век – механични патици, които „ядат“ и „храносмилат“, механични музиканти, пишещи автомати – са по-скоро илюзия за интелект, отколкото истинска мисъл, но оставят в хората впечатлението, че поведението на живото може да бъде разложено на механизми. Под тяхната лъскава повърхност стои прост механизъм, но в очите на публиката това е магия.
Докато часовникарите изграждат механични чудеса, философите си блъскат главите с въпроса какво е разумът. От Декарт и неговото „Cogito, ergo sum“ до Хюм и Кант, европейската философия се опитва да разграничи мисъл, усещане, съзнание. Идеята, че разумът може да бъде описан като система от правила, не е чужда на логиците от XIX век. Джордж Бул формализира логиката в алгебрична форма – нещо, което по-късно ще се окаже фундаментално за цифровите схеми и компютърната логика.
Краят на XIX и началото на XX век са времето, когато „скритият фундамент“ на бъдещия изкуствен интелект започва да се изгражда от математици и логиците. Фреге, Пеано, Хилберт и други правят логиката по-строга, а нейните символи – по-подходящи за машина. Въпросът „можем ли да формализираме всички математически истини в система от аксиоми и правила?“ не е просто философски; той посява семето на идеята, че мисленето може да бъде обработка на символи.
И тук в нашия разказ се появява една фигура, която днес е почти митична – Алън Тюринг. Млад, странно сдържан британски математик, който се опитва да отговори на един на пръв поглед чисто теоретичен въпрос: „Какво изобщо означава да изчисляваме?“ Отговорът му – абстрактната „Тюринг машина“ – е гениално опростяване: лента, главичка за четене и писане, краен набор от състояния и правила. Всичко това звучи сухо, но идеята е радикална: всяка процедура, която може да се изпълни по стъпки, може да се моделира от такава машина.
Когато днес говорим за „универсален компютър“, ние всъщност живеем в света на Тюринг – свят, в който една и съща машина може да играе шах, да обработва текст, да изобразява филм и да симулира мозъчна дейност, просто като сменим програмата. По-късно Тюринг ще предложи и известния „Тюринг тест“ – проста, но дълбока мисловна игра: ако машина може да разговаря с нас така, че да не можем да я различим от човек, имаме ли право да откажем да я наречем „интелигентна“?
Междувременно, светът гори. Втората световна война изтегля Тюринг от теоретичните му занимания и го поставя в сърцето на една от най-големите криптографски битки в историята – разбиването на кода „Енигма“. Машините, които помагат в това усилие, показват на практика, че автоматизираното изчисление може да решава задачи, които са непосилни за човешкия ум в разумно време. Когато войната свършва, вече е ясно, че компютрите няма да останат играчка за математици.
Първите електронни компютри – ENIAC, EDVAC, Manchester Baby – са дракони от лампи и кабели, но в умовете на няколко визионери те вече са нещо повече от калкулатори. Джон фон Нойман, Норбърт Винер и други започват да мислят за „кибернетика“ – обща теория за контрол и комуникация в животни и машини. Ако можем да опишем нервната система и поведението на животното като система за обратна връзка, защо да не го направим и с машини?
През 50-те години една група учени в Съединените щати решават, че е време да дадат име на тази нова мечта – да създадат интелект в машина. Така стигаме до лятото на 1956 година и една малка конференция в Дартмут Колидж, Ню Хемпшър. Там Джон Маккарти, Марвин Мински, Клод Шанън и няколко други се събират с грандиозната увереност, че ако прекарат достатъчно време заедно, ще направят сериозен пробив в „изкуствения интелект“ – термин, който Маккарти въвежда именно тогава.
Днес Дартмутската конференция често се описва като „раждането“ на AI като самостоятелно научно поле. Участниците са толкова уверени, че някои от тях предполагат, че в рамките на едно поколение ще можем да изградим машини, които да са поне толкова интелигентни, колкото човек. Правителствата и военните агенции се впечатляват и започват да наливат пари. Усещането е, че стоим на прага на нова епоха.
Първият период на AI е епохата на символиката. Идеята е сравнително проста: ако човешкото мислене може да бъде описано като манипулиране на символи според правила, тогава можем да програмираме машина да прави същото. Така се раждат първите програми, които решават логически задачи, доказват теореми, играят шашки. Днес тези демонстрации ни изглеждат примитивни, но тогава са били истински фойерверки.
Марвин Мински и Джон Маккарти се превръщат в едни от най-гласовитите шампиони на този подход. В лабораториите на MIT и Станфорд се разработват системи, които изглеждат впечатляващи на малки примери – програми, които могат да разсъждават за блокчета върху маса, да планират действия, да доказват геометрични теореми. „Добрата стара изкуственоинтелигентщина“ – както по-късно ще я наречат с леко ироничен тон – живее в света на символи, логики и ръчно кодирани правила.
В този период се появява и една от първите идеи за нещо, което прилича на мозък – перцептронът. Франк Розенблат предлага модел на изкуствен неврон, който получава входове, умножава ги по тегла и решава дали да се „активира“. Изглежда, че такива единици могат да се комбинират и да се учат да разпознават прости модели. В края на 50-те и началото на 60-те години има истински ентусиазъм около перцептроните. Някои вярват, че сме на една крачка от машини, които ще могат да виждат и да разбират света.
И точно тук идва първият студен душ. През 1969 година излиза книгата „Perceptrons: An Introduction to Computational Geometry“ на Марвин Мински и Сиймур Пейпърт. В нея те математически демонстрират фундаментални ограничения на еднослойните перцептрони – например, че не могат да решат дори сравнително простия проблем на логическата функция XOR. Заключението им, изразено с авторитета на големи имена, се възприема от много хора като доказателство, че невронните мрежи са задънена улица.
Последиците са сериозни. Финансирането за този тип изследвания започва да пресъхва, интересът се измества към символни подходи и към по-прагматични приложения. Този период днес нерядко се нарича първата „зима на AI“ – време, в което обещанията не се реализират, а ентусиазмът е заменен от скептицизъм и отрязани бюджети.
Но историята на AI никога не е просто низ от провали. Паралелно с това се развиват и други линии – експертните системи. Идеята е съблазнителна: ако не можем да направим общ разум, нека поне да направим машини, които са много добри в тясна област. В края на 70-те и през 80-те години става модерно да „източим“ знанието от човешки експерт – лекар, геолог, инженер – и да го превърнем в система от правила „ако–то“. Така се появяват системи като MYCIN (за диагностика на инфекции), XCON (за конфигуриране на компютърни системи) и много други.
За известно време изглежда, че това е кухненската рецепта за изкуствен интелект в бизнеса. Фирмите инвестират в „знание-инженери“, които създават правила, а експертните системи започват да спестяват пари. Но под лъскавата повърхност се крие проблем: знанието се оказва трудно за формализиране, правилата стават хиляди, поддръжката им е мъчителна, системите се чупят, когато светът се промени. Вторият студен душ не закъснява – с края на 80-те и началото на 90-те интересът към експертните системи също спада, а разговорите за „втора зима на AI“ стават все по-чести.
В тези години в сенките работят хора, които не се отказват от идеята за невронни мрежи. Една група изследователи – сред тях Джефри Хинтън, Ян Лекун, Йошуа Бенджио – не приемат, че „перцептроните са мъртви“. Вместо да останат в рамките на еднослойните мрежи, те търсят начини да обучават многослойни структури. Ключовата идея, която позволява това, е алгоритъмът за обратно разпространение на грешката (backpropagation). Вместо да гадаем теглата, ние измерваме грешката на мрежата и постепенно коригираме всеки слой, така че следващия път да се справи по-добре – почти като ученик, който решава задачи, проверява грешките си и си прави изводи.
За дълго време тази линия остава на периферията. В 90-те е модерно да се говори повече за поддръжка на знания, за логически програми, за статистически методи като байесови мрежи и SVM. Но Хинтън, Лекун и Бенджио продължават. Те усъвършенстват алгоритмите, подобряват инициализацията, експериментират с различни архитектури и в крайна сметка стигат до нещо, което днес наричаме „дълбоко обучение“ – невронни мрежи с много слоеве, които могат да извличат все по-абстрактни характеристики от данните.
Признанието ще дойде много по-късно: през 2018 г. тримата ще получат заедно наградата „Тюринг“ – често наричана „Нобел на компютърните науки“ – за техните концептуални и инженерни пробиви, които превърнаха дълбоките невронни мрежи в ключов компонент на съвременните изчисления.
Докато те тихо си вършат работата, обществото вижда други, по-видими спектакли. Един от тях е срещата между IBM Deep Blue и световния шампион по шах Гари Каспаров. Шахът отдавна е възприеман като символ на човешкия интелект – игра на стратегия, предвиждане и дълбока интуиция. Още от 50-те години изследователите си представят деня, в който компютър ще победи най-добрия човек. През 1997 г. този ден настъпва: Deep Blue побеждава Каспаров в мач от шест партии, като печели с крайния резултат 3½–2½.
Медиите го наричат „историческа победа на машината“. За мнозина това е моментът, в който AI „надминава“ човека. Ако погледнем по-отблизо, виждаме, че Deep Blue всъщност е гигантски калкулатор, оптимизиран да изчислява милиони ходове в секунда и да използва мощна библиотека от човешки шахматни знания. Той не „мисли“ като човек, но е чудовищно добър точно в една игра с ясни правила. Символиката обаче остава – машина побеждава един от най-добрите човешки умове в неговата собствена игра.
По това време невронните мрежи още не са в центъра на вниманието. Промяната ще започне десетина години по-късно, когато няколко фактора се подредят: по-бързи графични процесори (GPU), огромни набори от данни (снимки, текст, звук), подобрени алгоритми. През 2012 г. една дълбока невронна мрежа – AlexNet – доминира в състезанието ImageNet за разпознаване на обекти в изображения, намалявайки драстично грешките спрямо всички предишни подходи. От този момент нататък досегашните методи изглеждат остарели.
Конволюционни невронни мрежи (CNN), върху които стъпва този успех, са естествено продължение на работата на Ян Лекун от 90-те за разпознаване на ръкописни цифри. Идеята имитира начина, по който визуалната кора в мозъка обработва образи: първо се разпознават прости форми и ръбове, после по-сложни структури, после цели обекти. Слоевете на мрежата се учат да „гледат“ света на различни нива на детайл, без някой да им казва кои характеристики са важни – те ги откриват сами от данните.
Паралелно с това се развиват и други архитектури – рекурентни мрежи и LSTM, които са по-добри за последователности като текст и реч. Внезапно машините започват да разпознават говор, да превеждат между езици, да предлагат завършване на изречения с качество, което до скоро би изглеждало немислимо.
А след това идва друга вълна, която променя самата структура на невронните мрежи – трансформърите. През 2017 г. група изследователи от Google публикуват статия с провокативното заглавие „Attention Is All You Need“. В нея те предлагат нова архитектура за работа с последователности, която изцяло изоставя идеята за рекурентност и конволюция и вместо това се основава върху механизма на „внимание“. Вместо да обработва текста дума по дума, моделът може да „поглежда“ всяка дума спрямо всяка друга и да преценява кои части на входа са най-важни за текущата задача.
Това звучи абстрактно, но има много човешка аналогия. Когато четем сложен абзац, ние не вървим с еднакво внимание през всяка дума. Понякога се връщаме назад, свързваме изречения, скачаме между началото и края, подчертаваме ключови фрази. Трансформърът прави нещо подобно – разпределя вниманието си върху различни части на текста в зависимост от контекста. Това го прави много по-ефективен и паралелизируем, а резултатът е впечатляващ скок в качеството на превода, резюмирането и други задачи.
На тази архитектура стъпват големите езикови модели – LLM. Те се обучават върху огромни масиви текст – книги, статии, код, разговори – и се учат да предсказват следващата дума или символ, но в този на пръв поглед прост процес се изгражда сложна вътрешна структура от асоциации, стилове, факти. Моделите започват да пишат текст, който звучи като писан от човек, да отговарят на въпроси, да разсъждават в рамките на това, което са видели.
Тук неизбежно се появява въпросът: „А това вече разум ли е?“ Някои, като Шейн Лег – съосновател на DeepMind, – от години говорят за „изкуствен общ интелект“ (AGI), система, която не просто решава конкретни задачи, а притежава общи способности за учене и адаптация, близки до човешките. Други са по-предпазливи. Да можеш да сглобиш изречения и да решиш тест по програмиране не означава задължително да разбираш света като човек.
Докато спорим, машините междувременно продължават да постигат символични победи. Ако Deep Blue беше триумф на brute force в шаха, то AlphaGo е триумф на дълбокото обучение и усиленото обучение в една много по-сложна игра – го. През 2016 г. AlphaGo побеждава Ли Седол – един от най-добрите играчи в света – с резултат 4:1 в мач, който шокира не само геймърите, но и широката публика.
Разликата с Deep Blue е съществена. Вместо да разчита само на изчислителна мощ и ръчно програмирани оценки, AlphaGo комбинира дълбоки невронни мрежи, които оценяват позиции и предлагат ходове, с Monte Carlo Tree Search, който изследва възможните партии. Учи се от милиони човешки игри и после играе милиони партии срещу себе си, за да усъвършенства стратегиите си. Това е машина, която не просто „търси по дърво“, а развива интуиция за играта, макар и по начин, който е различен от човешкия.
След AlphaGo идват и други повратни моменти. Дълбокото обучение навлиза в медицината, финансите, индустрията. Системи за компютърно зрение започват да разпознават патологии в снимки; модели за обработка на естествен език анализират документи, резюмират договори; генеративни модели създават изображения, музика, синтетични гласове.
Най-новата вълна са генеративните системи, които не само класифицират или предсказват, а създават – текст, код, изображения. Големите езикови модели се превръщат в универсални интерфейси към знанията на света: можем да ги питаме как да напишем програма, как да обясним на дете законите на Нютон, как да анализираме историческо събитие.
Дори в по-тесни състезания виждаме нови „моментни снимки“ на напредъка. През 2025 г. моделът Gemini 2.5 на DeepMind печели златен медал в престижното състезание по програмиране ICPC, като решава задача за оптимално разпределение на течност в мрежа от тръби и резервоари, с която всички човешки отбори се провалят. Подобно на Deep Blue и AlphaGo, това постижение се представя като нова крачка към системи, които могат да решават комплексни реални проблеми.
Паралелно с тези пробиви, историята на AI продължава да се пише и от хората зад сцената. Джефри Хинтън напуска Google и започва да говори открито за рисковете от твърде бързото развитие, Ян Лекун напуска Meta, за да създаде нова компания за „Advanced Machine Intelligence“, но остава оптимист за бъдеще, в което AI ще бъде по-скоро инструмент за освобождаване на човешкия потенциал, отколкото заплаха.
И въпреки това, всеки път когато AI премине нов праг – победи шампион, напише есе, реши сложна задача – обществото се люшка между възторг и паника. От едната страна са тези, които виждат в AI ключа към решаването на огромни проблеми – от дизайн на лекарства до оптимизация на енергийни системи. От другата – тези, които предупреждават за изкривяване на пазара на труда, за концентрация на власт, за алгоритмична несправедливост, за загуба на човешка автономия.
Ако погледнем назад по цялата линия – от първите автомати до трансформърите – виждаме една и съща динамика. Първо идват големите обещания. После реалността се оказва по-сложна, отнема повече време, има повече ограничения. Ентусиазмът се охлажда, финансирането намалява, говори се за „зима“. След това в някой тих ъгъл на науката някой намира нов подход – нов алгоритъм, нова архитектура, нов вид данни – и вълната тръгва отново.
Така се сменят символният AI и експертните системи, невронните мрежи и дълбокото обучение, конвенционалните модели и трансформърите. Но под повърхността има нещо постоянно – човешкото усилие да разберем какво е интелект, като се опитаме да го построим отначало.
Когато говорим за повратни точки, често споменаваме конкретни години и събития: 1956 – Дартмут; 1969 – „Perceptrons“ и първата зима; 1997 – Deep Blue; 2012 – ImageNet и възходът на дълбокото обучение; 2016 – AlphaGo; 2017 – трансформърите; 2018 – Тюринг наградата за Хинтън, Лекун и Бенджио; 2020-те – бумът на генеративния AI и LLM. Но тези точки са само върхове на айсберг. Под тях стоят години работа, провалени експерименти, непубликувани статии, лични драми и малки, почти невидими открития.
Може би най-честната картина на историята на AI не е тази за марш към неизбежен триумф, а тази за постоянен танц между амбиция и реалност. Всеки път, когато обявяваме, че сме „на крачка от истинския интелект“, реалността ни напомня, че разбирането на човешкия ум е далеч по-сложно. В същото време машините постепенно стават все по-полезни, все по-присъстващи в ежедневието ни, без да се налага да ги обявяваме за „съзнателни“.
Днес ние седим пред екран, пишем текст и машина ни отговаря със смислени, понякога блестящи, понякога грешни думи. Можем да ѝ възложим да ни помогне с код, със стихотворение, с анализ на данни. За някои това вече е достатъчно, за да говорят за „нова ера“. За други това е просто поредният, макар и впечатляващ инструмент, който ние, хората, сме си създали.
Ако се опитаме да видим бъдещето през очите на миналото, трябва да сме предпазливи. Първите изследователи на AI също са вярвали, че са на крачка от решението. Надценили са скоростта, но не и посоката. Днес вероятно правим същото: надценяваме това, което моделите могат да направят в следващите няколко години, и подценяваме това, което може да се случи за едно–две поколения.
Историята на изкуствения интелект е история за това как една стара мечта – да създадем изкуствен разум – се сблъсква отново и отново с упоритата сложност на реалния свят. Но тя е и история за хората, които не спират да опитват: от Тюринг, който си е представял абстрактна машина на лента, до съвременните изследователи на трансформъри и генеративни модели, които тренират системи върху цялата текстова памет на човечеството.
Дали това ще ни доведе до нещо, което с право можем да наречем „изкуствен общ интелект“, или ще останем в царството на много силните, но все пак ограничени инструменти – никой не знае. Намираме се в една от онези точки на историята, в които е изкушаващо да обявим, че сме стигнали до края на пътя. А всъщност най-вероятно сме по средата.
Сигурното е едно: когато след още петдесет или сто години някой реши да разказва историята на AI, той ще гледа на днешните ни спорове и страхове със същата смесица от усмивка и уважение, с която ние гледаме на обещанията на Дартмут през 1956. И както ние днес се обръщаме към миналото, за да разберем къде сме, така и те ще се обръщат към нашето време, за да видят кога човечеството наистина е започнало да разбира не само как да строи мислещи машини, но и как да живее с тях.