Реклама





Рефераты по философии

Проблемы искусственного интеллекта

(страница 5)

Закон претендует на точное ( в рамках данного уровня познания) описания хода явлений. Закон либо верен, либо неверен, бессмысленно говорить о хороших и плохих законах. Модель в этом отношении противоположна закону. Модель может быть плохой или хорошей, она не претендует на точное воспроизведение сложной системы, а ограничивается описанием отдельных аспектов, причем для одного и того же аспекта могут быть предложены модели, одновременно имеющие право на существование.

В изучении сложных систем (в т.ч. диффузных - нельзя выделить отдельные части без повреждения системы) формулировка относительно простых законов оказывается невозможной и заменяется построением эскизных моделей. Образно говоря, здесь мы имеем дело с математическим описанием, напоминающим современную абстрактную живопись. Можно сказать, что попытки реалистичного описания сложных систем иллюзорны такое описание не воспринималось бы из-за чрезмерной сложности.

Это не означает, что категория закона утрачивает смысл в науке, но то, что дополнительно к ранее известным интеллектуальным орудиям - строгой дедукции и эксперименту рождается третье орудие - математическое моделирование, в котором по-новому выступает математика и появляется новый вид эксперимента - машинный эксперимент, в котором проигрываются различные модели с последующим сопоставлением с реальным экспериментом.

Путь, который предлагает кибернетика, состоит в построении эскизных моделей, охватывающих все более и более широкий диапазон функций мышления. Задачи раскрыть "в лоб" "сущность мышления" не ставится, а ставится задача построения эскизных моделей, позволяющих описать отдельные его стороны, воспроизведены отдельные его функции и, двигаясь в этом направлении, строить системы, все более приближающиеся к человеческому мозгу.

Отсутствия жесткой связи способа функционирования (поведения) со строго определенным субстратом означает, что если две системы обнаруживают одинаковое поведение в достаточно широкой области, то они должны рассматриваться как системы сходные, аналогичные по этому способу поведения. Имеет смысл рассмотреть этот вопрос в связи с проблемой кибернетического моделирования.

Иногда встречается утверждение, что кибернетическое моделирование вообще неприменимо к изучению мышления, т.к. моделирование основана на понятиях соответствия и изоморфизма, а мышление есть чисто человеческая способность, якобы не могущая быть описана на основе понятий соответствия. Иногда говорят, что понимание познания, мышления как соответствия образа предмету означает ни много ни мало как дуалистическую точку зрения, внешне сопоставляющую предмет и образ.

Понимание сознания как отражения неизбежно означает понимание его как соответствия, возникающего в ходе приспособления организма к среде. Причем это соответствие не есть просто внешнее соответствие вещи и образа как самостоятельного по отношению к вещи идеального предмета. Это действительно была бы дуалистическая точка зрения, но она не может монополизировать понятие соответствия, именно как соответствие определенных состояний мозга определенным состояниям внешнего мира. Это соответствие и несет информацию о внешнем мире.

В приведенном утверждении не проводится различие между информационным моделированием информационных процессов и информационным моделированием неинформационных процессов. Информационная модель прибора не будет работать, а будет только моделировать работу, однако в отношение мышления этот тезис представляется спорным. По отношении к информационным процессам их моделирование является функционально полным, т.е. если модель дает те же самые результаты, что и реальный объект, то их различие теряет смысл.

Многие споры вокруг проблемы "кибернетика и мышление" имеют эмоциональную подоплеку. Признание возможности искусственного разума представляется чем-то унижающим человеческое достоинство. Однако нельзя смешивать вопросы возможности искусственного разума с вопросом о развитии и совершенствовании человеческого разума. Разумеется, искусственный разум может быть использован в негодных целях, однако это проблема не научная, а скорее морально-этическая.

Однако развитие кибернетики выдвигает ряд проблем, которые все же требуют пристального внимания. Эти проблемы связаны с опасностями, возникающими в ходе работ по искусственному интеллекту.

Первая проблема связана с возможной потерей стимулов к творческому труду в результате массовой компьютеризации или использования машин в сфере искусств. Однако в последнее время стало ясно, что человек добровольно не отдаст самый квалифицированный творческий труд, т.к. он для самого человека является привлекательным.

Вторая проблема носит более серьезный характер и на нее неоднократно указывали такие специалисты, как Н. Винер, Н. М. Амосов, И. А. Полетаев и др. Состоит она в следующем.

Уже сейчас существуют машины и программы, способные в процессе работы самообучаться, т.е. повышать эффективность приспособления к внешним факторам. В будущем, возможно, появятся машины, обладающие таким уровнем приспособляемости и надежности, что необходимость человеку вмешиваться в процесс отпадет. В этом случае возможна потеря самим человеком своих качеств, ответственных за поиск решений. Налицо возможная деградация способностей человека к реакции на изменение внешних условий и, возможно, неспособность принятия управления на себя в случае аварийной ситуации. Встает вопрос о целесообразности введения некоторого предельного уровня в автоматизации процессов, связанных с тяжелыми аварийными ситуациями. В этом случае у человека, "надзирающим" за управляющей машиной, всегда хватит умения и реакции таким образом воздействовать на ситуацию, чтобы погасить разгорающуюся аварийную ситуацию. Таковые ситуации возможны на транспорте, в ядерной энергетике. Особо стоит отметить такую опасность в ракетных войсках стратегического назначения, где последствия ошибки могут иметь фатальный характер. Несколько лет назад в США начали внедрять полностью компьютеризированную систему запуска ракет по командам суперкомпьютера, обрабатывающего огромные массивы данных, собранных со всего света. Однако оказалось, что даже при условии многократного дублирования и перепроверки, вероятность ошибки оказалась бы столь велика, что отсутствие контролирующего оператора привело бы к непоправимой ошибке. От системы отказались.

Люди будут постоянно решать проблему искусственного интеллекта, постоянно сталкиваясь со все новыми проблемами. И, видимо, процесс этот бесконечен.

Литература.

1. Философия. Учебное пособие для аспирантов / Р. В. Жердев, Т. А. Евсеева. Санкт-Петербург: НЕСТОР, 1997.

2. Баженов Л. Б., Гутчин И. Б., Интеллект и машина, М.: Знание, 1973.

3. Бердяев Н. А. Человек и машина, Вопросы философии, 1995, N2.

4. Вычислительные машины и мышление. М.: Мир, 1996.

5. Кибернетика и философия. АН Латвийской ССР, изд. "Зинатне", 1989.

6. Клаус Г. Кибернетика и философия, М.: "Иностранная литература", 1983.

7. Моисеев Н. Н. Компьютеризация, ее социальные последствия, Вопросы философии, 1987, N9.

8. Шалютин С. Искусственный интеллект. М., 1993.

12345

Название: Проблемы искусственного интеллекта
Дата: 2007-06-06
Просмотрено 16606 раз