За своите експерименти с изкуствен интелект д-р Щефен Вернер и д-р Майкъл Кофлън са се вдъхновили от начините, по които мислят животните. Техните прозрения биха могли да помогнат за разработването на невронни мрежи, които са по-стабилни, ефективни и гъвкави.
„Въпреки че изкуственият интелект (ИИ) извършва впечатляващи подвизи, големите модели на Силициевата долина, обучени на огромни количества данни, започнаха да показват намаляваща възвръщаемост: те не се развиват с темпото, с което се развиваха преди", обяснява д-р Щефен Вернер от Групата по експериментална зоология към Университета във Вагенинген, Нидерландия. „На всичкото отгоре тези големи модели са доста непрозрачни. Трудно е да се разбере как функционират, а оттам и как могат да бъдат подобрени". Вернер и колегата му д-р Майкъл Кофлън се върнаха към основите, експериментирайки с възможно най-малките алгоритми за дълбоко обучение. „Като физици ние се стремим да разбираме чрез опростяване, търсейки минималната система", обяснява Кофлън.
За своите експерименти учените са се вдъхновили от животинския свят. „Мозъците на животните имат аспекти, на които биха завидели много изкуствени модели. Те могат да функционират, докато все още растат, изискват по-малко обширни мрежи и могат да учат повече от една задача едновременно", казва Вернер. „Ние възпроизведохме тези качества в малки невронни мрежи, както за да видим дали това е възможно, така и за да ги изучим." Прозренията, извлечени от тези модели, сочат нови насоки за развитието на изкуствения интелект.
Откриване на изненадващи качества
„Едно от препятствията, с които се сблъсква изкуственият интелект, се нарича катастрофално забравяне", обяснява Вернер. „Да речем, че сте обучили изкуствен интелект да разпознава ръкописен текст и сега го учите да разпознава форми. Често се случва така, че той забравя първата задача, докато учи втората. За разлика от тях, много биологични умове могат да научат няколко неща едновременно, без никога да рискуват това презаписване."
Вернер и Кофлън обучават своя експериментален изкуствен интелект върху широко използван набор от данни - „Невронните числа", както ги наричат, на модифицирания Национален институт за стандарти и технологии.
Вернер и Кофлън обучиха своя експериментален ИИ върху широко използван набор от данни, „Невронните числа", както се наричат, на Модифицирания национален институт за стандарти и технологии.
Учените успели да научат своя модел на две неща едновременно, като непрекъснато редували двете задачи по време на периода на обучението му. „Въпреки че обучението отнема малко повече време, изкуственият интелект се научи да разпознава както ръкописни текстове, така и форми с приблизително същия успех като специализираните си колеги. Интересното обаче беше да се види, че невронната мрежа се е разделила приблизително на две части. Тя използваше всяка половина за отделна задача. Ние не я бяхме създали по този начин, тази структура се появи в резултат на обучението", казва Вернер.
Вернер и Кофлън откриват още едно изненадващо качество, когато се опитват да възпроизведат неврогенезата на животните. „Това е процесът, при който мозъците им растат. Най-важното за нас беше начинът, по който биологичното познание остава функционално през целия процес на растеж. Затова искахме да разберем дали изкуственият интелект ще се разпадне, ако разширим модела, докато той вече е в процес на обучение", казва Кофлън. „Това не се случи. Всъщност бяхме изненадани да видим увеличаване на стабилността на процеса на обучение. Сривовете в точността, които не са необичайни по време на обучението, станаха по-редки."
Разбиране на изкуствения интелект
Физиците се стремяха преди всичко да разберат. „Тези експерименти бяха подхранвани от нашето любопитство. Искахме да разберем повече за приликите, но и за разликите между биологичните и изкуствените невронни мрежи", казва Кофлън. Възникващите качества, които експериментите им разкриват, също така пораждат нови въпроси от страна на учените. Вернер дава един пример. „Дали относителното сходство на двете задачи, на които обучихме модела, е свързано с начина, по който той се раздели на две половини? Щеше ли мрежата да изглежда по различен начин, ако задачите бяха по-малко сходни?"
И все пк в област, в която доминиращият подход е подложен на контрол, именно изследвания като това могат да открият нови пътища. При изграждането на ChatGPT и Gemini например преобладава инженерният подход. „Тези модели са създадени, за да работят, а не за да бъдат разбрани на всяко ниво", обяснява Вернер. „Това би забавило изключително много тяхното развитие."
За разлика от тях DeepSeek, китайският изкуствен интелект, който разтърси индустрията през януари 2025 г., излезе от хедж фонд, доминиран от математици. „Подобно на физиците, те биха се интересували от това какво кара ИИ да работи по начина, по който работи", казва Кофлън. Това би могло да обясни защо DeepSeek работи на такова впечатляващо ниво, като същевременно функционира по-ефективно и струва по-малко за създаването и обучението му.
„ИИ показа впечатляващ напредък през последните няколко години - казва Вернер, - но неотдавнашният спад може да изисква нов подход. Може би е дошло времето да забавим темпото и да се стремим към по-научно разбиране на начина, по който работи изкуственият интелект"=
Коментари