Главная   •   Понятия и трактовки   •   Технические ошибки при создании искусственного интеллекта
Технические ошибки при создании искусственного интеллекта PDF Печать E-mail
Автор: Administrator   
23.08.2012 00:00

Ошибкой программирования при создании искусственного интеллекта может быть то, что программируются инструменты и средства, а не конечная цель. Искусственному интеллекту нужна возможность переосмысления эмпирической веры в ценность результата после получения новых знаний о нем. Он должен уметь создавать новый путь к цели, на более высоком уровне.

Если создается игрок в шахматы, его надо запрограммировать на поиск выигрышных ходов и комбинаций. Каждый конкретный шаг программировать не надо, ведь тогда игрок будет не лучше своего создателя.

Билл Хиббард в своей работе «Сверх-интеллектуальные машины» выразил мысль, что искусственный интеллект должен хотеть, чтобы люди процветали и были счастливы. Создатели должны дать им эмоции, руководящие их обучением поведению. Главной врожденной эмоцией всех иниеллектуальных машин должна быть безоговорочная любовь абсолютно ко всем людям. Начать можно с изготовления простейших машин для распознавания человеческой мимики – выражения счастья и несчастья, человеческих жестов и речи. Затем переходить к более сложным машинам, мотивированным на позитивное отношение к человеческому счастью. Еще более сложные машины будут анализировать текущий момент и предсказывать счастье или несчастье для людей в будущем. Ведь изобретены же машины, предсказывающие стоимость облигаций на рынке.

Военные исследователи США создали по заказу Пентагона нейронную сеть, распознающую замаскированные танки на пересеченной местности. Для тренировки и программирования сети, ей «показывали» фотографии танков, танков лесу и фото деревьев без танков. Сеть справилась с задачей блестяще. Но из Пентагона ее вернули – постоянно ошибалась. Оказывается, лес без танков снимали в солнечную погоду, а с танками – в пасмурную. И сеть научилась просто отличать солнечную картинку от фотографии хмурого дня.