Методика преподавания информатики

Автор работы: Пользователь скрыл имя, 29 Апреля 2015 в 17:19, курсовая работа

Краткое описание

Применение компьютеров в научных исследованиях является необходимым условием изучения сложных систем. Традиционная методология взаимосвязи теории и эксперимента должна быть дополнена принципами компьютерного моделирования. Эта новая эффективная процедура дает возможность целостного изучения поведения наиболее сложных систем как естественных, так и создаваемых для проверки теоретических гипотез. Методами компьютерного моделирования пользуются специалисты практически всех отраслей и областей науки и техники - от истории до космонавтики, поскольку с их помощью можно прогнозировать и даже имитировать явления, события или проектируемые предметы в заранее заданных параметрах.

Содержание

Введение…………………………………………………………………………..3
1. Этапы развития искусственного интеллекта…………………………….…..5
1.1. Становление искусственного интеллекта (1943-1956 гг.)……………5
1.2. Эвристический поиск и доказательство теорем (1956-1969 гг.)……..6
1.3. Представление знаний (1969-1979 гг.)………………………………..7
1.4. Коммерческий успех (1979-1988 гг.)………………………………….9
1.5. Коллективистские модели искусственного интеллекта (с 1996 г. по настоящее время)……………… ………………………….………10
2. Компьютерное моделирование в естествознании: возможности, достижения, перспективы…………………………………………………………………….…..12
3. Краткая оценка современного состояния САПР……………………….……..14
4. Новейшие средства компьютерного моделирования………………………….15
5. Моделирование трехмерный объектов в SolidWorks………………………….16
6. Компьютерное моделирование и виртуальная реальность…………………...18
Заключение………………………………………………………………………….22
Список литературы…………………………………………………………………24

Прикрепленные файлы: 1 файл

курсовая.doc

— 109.50 Кб (Скачать документ)
Оглавление
Введение…………………………………………………………………………..3
  1. Этапы развития искусственного интеллекта…………………………….…..5
    1. Становление искусственного интеллекта (1943-1956 гг.)……………5
    1. Эвристический поиск и доказательство теорем (1956-1969 гг.)……..6
    1. Представление знаний  (1969-1979 гг.)………………………………..7
    1. Коммерческий успех (1979-1988 гг.)………………………………….9
    1. Коллективистские модели искусственного интеллекта (с 1996 г.  по настоящее время)………………    ………………………….………10
2. Компьютерное моделирование в естествознании: возможности, достижения,   перспективы…………………………………………………………………….…..12
3. Краткая  оценка современного состояния САПР……………………….……..14
4. Новейшие средства компьютерного моделирования………………………….15
5. Моделирование трехмерный  объектов в SolidWorks………………………….16
6. Компьютерное моделирование и виртуальная реальность…………………...18
Заключение………………………………………………………………………….22
Список литературы…………………………………………………………………24

 

 

 

 

Введение

       Применение компьютеров в научных исследованиях является необходимым условием изучения сложных систем. Традиционная методология взаимосвязи теории и эксперимента должна быть дополнена принципами компьютерного моделирования. Эта новая эффективная процедура дает возможность целостного изучения поведения наиболее сложных систем как естественных, так и создаваемых для проверки теоретических гипотез. Методами компьютерного моделирования пользуются специалисты практически всех отраслей и областей науки и техники - от истории до космонавтики, поскольку с их помощью можно прогнозировать и даже имитировать явления, события или проектируемые предметы в заранее заданных параметрах.

Понятие искусственный интеллект, как впрочем, и просто интеллект, весьма расплывчато. Если обобщить все сказанное за последние тридцать лет, то оказывается, что человек просто хочет создать себе подобного в той или иной форме, хочет, чтобы какие-то действия выполнялись более рационально, с меньшими затратами времени и энергии. С конца 40-х годов ученые все большего числа университетских и промышленных исследовательских лабораторий устремились к дерзкой цели: построение компьютеров, действующих таким образом, что по результатам работы их невозможно было бы отличить от человеческого разума. В последнее время наблюдается возрастание интереса к искусственному интеллекту, вызванное повышением требований к информационным системам. Умнеет программное обеспечение, умнеет бытовая техника. Мы неуклонно движемся к новой информационной революции, сравнимой по масштабам с развитием Интернета, имя которой – искусственный интеллект.

      Искусственный интеллект является сейчас «горячей точкой» научных исследований. В этой точке, как в фокусе, сконцентрированы наибольшие усилия кибернетиков, лингвистов, психологов, философов, математиков и инженеров. Именно здесь решаются многие коренные вопросы, связанные с путями развития научной мысли, с воздействием достижений в области вычислительной техники и робототехники на жизнь будущих поколений людей. Здесь возникают и получают права на жизнь новые методы научных междисциплинарных исследований. Здесь формируется новый взгляд на роль тех или иных научных результатов и возникает то, что можно было бы назвать философским осмыслением этих результатов. Терпеливо продвигаясь вперед в своем нелегком труде, исследователи, работающие в области искусственного интеллекта (ИИ), обнаружили, что вступили в схватку с весьма запутанными проблемами, далеко выходящими за пределы традиционной информатики. Оказалось, что, прежде всего, необходимо понять механизмы процесса обучения, природу языка и чувственного восприятия. Выяснилось, что для создания машин, имитирующих работу человеческого мозга, требуется разобраться в том, как действуют миллиарды его взаимосвязанных нейронов. И тогда многие исследователи пришли к выводу, что, пожалуй, самая трудная проблема, стоящая перед современной наукой – познание процессов функционирования человеческого разума, а не просто имитация его работы. Что непосредственно затрагивало фундаментальные теоретические проблемы психологической науки. В самом деле, ученым трудно даже прийти к единой точке зрения относительно самого предмета их исследований – интеллекта. Некоторые считают, что интеллект – умение решать сложные задачи; другие рассматривают его как способность к обучению, обобщению и аналогиям; третьи – как возможность взаимодействия с внешним миром путем общения, восприятия и осознания воспринятого. Тем не менее, многие исследователи ИИ склонны принять тест машинного интеллекта, предложенный в начале 50-х годов выдающимся английским математиком и специалистом по вычислительной технике Аланом Тьюрингом. «Компьютер можно считать разумным, – утверждал Тьюринг, – если он способен заставить нас поверить, что мы имеем дело не с машиной, а с человеком».

 

Этапы развития искусственного интеллекта

Становление искусственного интеллекта (1943 - 1956 гг.)

 
      Исследования  в области ИИ начались сразу же после появления первых электронных  компьютеров. За 50 лет ИИ прошел в  своем развитии несколько этапов.Связано это было с тем, что основу мозга образуют нервные клетки – нейроны. Поэтому исследователи в ранний период развития ИИ пытались строить разумные машины, имитируя поведение коллектива нейронов. В 1943 г. У. Маккаллох и У. Питтс предложили модель формального логического нейрона, который мог находиться в двух устойчивых состояниях. Д. Хебб (1949 г.) разработал простое правило, позволяющее изменять веса связей между нейронами с целью их обучения. В 1951 году М. Минский и Д. Эдмондс разработали нейрокомпьютер, который содержал 40 нейронов. Эти первые работы в области ИИ обозначили два основных подхода к разработке СИИ–логическийиконнекционистский. 
      Термин "искусственный интеллект" был  предложен на семинаре с аналогичным  названием, который проходил в Дартсмутском колледже (США) летом 1956 года. Семинар был организован М. Минским и Дж. Маккарти.          Среди участников семинара были Г. Саймон и А. Ньюэлл, которые разработали программу “Логик-теоретик”, предназначенную для доказательства теорем в исчислении высказываний. Именно этих четырех исследователей считают “отцами” ИИ. М. Минский и Дж. Маккарти основали лабораторию ИИ в Массачусетском технологическом институте, а Г. Саймон и А. Ньюэлл в университете Карнеги-Меллона. Позже Дж. Маккарти перешел в Стэнфордский университет. В этих трех университетах, а также в Эдинбургском университете выполнялись первые работы, обеспечившие становление ИИ.  
 
   

 

Эвристический поиск и доказательство теорем (1956 – 1969 гг.)

 

 Работы Г. Саймона и А. Ньюэлла по созданию программы "Логик-теоретик" были завершены в 1957 г. С помощью этой программы был успешно доказан ряд теорем из книги Уайтхеда и Рассела "Principia mathematica". Один из недостатков программы состоял в том, что она неэффективно осуществляла поиск решений. А. Ньюэлл и Г. Саймон заинтересовались общими методами поиска решений, приступив к созданию следующей программы, которую назвали "Универсальный решатель задач". Эту программу обычно называют GPS по первым буквам английского названия General Problem Solver. GPS разрабатывалась с целью имитации процесса решения задач человеком и базировалась на идеях эвристического поиска. Эвристика – правило, полученное опытным путем, которое позволяет сократить количество

переборов впространстве поиска решений. 
      Программа GPS могла настраиваться на предметную область. Для этого необходимо было задавать структуру состояний задачи и операторы, преобразующие эти состояния. Решение задачи осуществлялось на основе поисковых алгоритмов в пространстве возможных решений по эвристиче ским правилам, которые направляли поиск к искомой цели. GPS была, вероятно, первой программой, которая использовала способы рассуждений, свойственные человеку. 
      В этот же период Дж. Маккарти создает язык Лисп, который становится доминирующим языком программирования систем ИИ. В 1958 году Маккарти публикует статью "Программы и здравый смысл", в которой описывает гипотетическую программу "Advice Taker", центральной идеей которой было представление знаний и логический вывод.  
      

 

 

Представление знаний (1969 – 1979 гг.)

К концу 60-х годов было обнаружено, что для решения практически важных задач недостаточно одних знаний общего характера (общих стратегий поиска решений). Успешное решение прикладных задач возможно только при наличии хорошо структурированных специальных знаний. Программа DENDRAL, разработанная в 1969 году Э. Фейгенбаумом, Б. Букхененом и Э. Ледербергом, содержала детальные сведения из области органической химии и помогала химикам определять молекулярную структуру неизвестных органических соединений по данным, получаемым с помощью масс-спектрометра. Масс-спектрометр, разделяя молекулы на фрагменты, измеряет массу и электрический заряд каждого из фрагментов. Чтобы определять множество форм молекул, которые могут состоять из таких фрагментов, в программе DENDRAL использовались эмпирические знания химиков, представленные в форме правил "если-то". Это позволило резко сократить число предлагаемых вариантов решений. 
      DENDRAL была первой успешно реализованной программой, аккумулирующей знания экспертов. Такие программы получили название "экспертные системы". Они содержали большой объем практических знаний, что позволяло им давать ответы на специальные вопросы в той или иной области. 
      Вдохновленные успехом программы DENDRAL Э. Фейгенбаум, Б. Букхенен и Э. Шортлифф разрабатывают экспертную систему MYCIN. Система MYCIN содержала около 450 правил, позволяющих диагностировать инфекционные заболевания крови. Важным отличием системы MYCIN от DENDRAL было то, что MYCIN позволяла осуществлять правдоподобные заключения на основе ненадежных знаний. С этой целью факты и правила в системе MYCIN характеризовались коэффициентами уверенности. 
      Авторы  системы MYCIN пошли дальше, когда удалили из нее базу знаний, т.е. всю медицинскую информацию. Оставшаяся часть системы содержала только логику управления правилами и была названа EMYCIN (пустая MYCIN). EMYCIN представляла собой оболочку экспертной системы, которую можно было наполнять знаниями. Подобные системы стали применять в самых разных областях – от определения конфигурации компьютерных систем до геологической разведки. 
     Дальнейшее  совершенствование систем понимания  естественного языка связано  с именами Р. Шенка и В. Вудса. Шенк разработал программу, преобразующую входные естественно-языковые высказывания к элементарным концептам, которые можно было представлять в памяти ЭВМ. В дальнейшем в сотрудничестве с Р. Абельсоном он разработал модель представления знаний, называемую "скриптами", или сценариями. Шенк использовал скрипты в программе SAM, которая могла интерпретировать рассказы. В 1973 году В. Вудс создает систему LUNAR, которая позволяла геологам задавать вопросы на естественном языке относительно образцов пород, доставленных с Луны. LUNAR была первой используемой на практике системой с естественно-языковым интерфейсом доступа к базе данных. В рассматриваемый период были разработаны     различные языки представления  знаний. Некоторые из них базировались на логике. Так, в 1973 году А. Колмероэ создает язык логического программирования Пролог, ставший популярным в Европе. В США создается язык PLANNER, поддерживающий предикатный уровень представления знаний. Часть языков использовала теорию фреймов, предложенную М. Минским (1975 г.). Фрейм представляет информационную структуру, состоящую из слотов, в которых собраны характеристики и соответствующие значения, обеспечивающие описание объектов или понятий. Фреймы организуются в иерархические сети, что позволяет экономно представлять знания в памяти ЭВМ. Для работы с фреймовыми моделями представления знаний были разработаны языки FRL, KRL, GUS.  
      Коммерческий  успех (1979 – 1988 гг.)

 

Первой интеллектуальной системой, нашедшей применение в промышленности, стала экспертная система К1, разработанная Мак-Дермоттом (1982 г.). Система К1 применялась для определения конфигурации компьютерных систем семейства VAX. Коммерческая версия системы, разработанная корпорацией Digital Equipment совместно с университетом Карнеги-Меллона (США), получила название XCON. К 1986 году система XCON позволяла корпорации Digital Equipment экономить 70 млн. долларов ежегодно. Кроме этого, применение системы сократило число ошибок с 30% до 1%. 
      Экспертные  системы начинают широко применяться  и в других корпорациях и фирмах, например, American Express сократила свои затраты на 27 млн. долларов в год благодаря экспертной системе, управляющей выдачей кредитов. 
      В 1981 году Япония объявляет о начале проекта машин V поколения, базирующихся на принципах ИИ. Проект был рассчитан на 10 лет и предусматривал, среди многих целей, создание Пролог-машины с возможностями общения на естественном языке. Этот проект способствовал активизации исследований в области ИИ во многих странах. К разработке интеллектуальных систем подключились многие компании – Texas Instruments, Xerox, Symbolics и др. Объемы финансирования проектов в области ИИ за 1980-1988 гг. выросли с нескольких миллионов до 2 млрд. долларов в 1988 году. 
      Возрождение нейроинформатики (с 1986 г. по настоящее время). После доказательства М. Минским ограниченных возможностей первых нейронных сетей исследования в этом направлении выполнялись учеными других областей знаний. В 1982 г. физик Дж. Хопфилд опубликовал работу, в которой проанализировал методами статистической механики свойства однослойной нейронной сети с симметричными связями. Хопфилд обнаружил возможность применения такой сети в задаче распознавания образов. Психологи Д. Румельхарт и Г. Хинтон, изучавшие модели нейросетевой памяти, заново открыли в 1986 году алгоритм обучения многослойного персептрона, названный алгоритмом обратного распространения ошибки. Ранее этот алгоритм был открыт Брайсоном и Хо в 1969 году. Указанные две работы послужили толчком к лавинообразному росту применениймоделей нейронных ссетей для  решения практических задач. Помимо теоретических разработок, этому  способствовало и появление мощных аппаратно-программных средств, позволяющих  моделировать нейронные сети достаточного уровня сложности. 
      В настоящее время модели нейронных  сетей применяются в самых  различных областях.   

 

Коллективистские  модели ИИ (с 1996 г. по настоящее время)

 

   Рассмотренные выше этапы развития ИИ характеризуются разрозненными подходами, основанными на выделении частного свойства понятия "интеллект". Например, принцип знаниецентризма обусловил развитие и господство в течение определенного периода когнитивистских моделей ИИ, в частности, логических. В соответствии с такими моделями на первый план выдвигается способность интеллектуальной системы рассуждать, а действия (поведение) рассматриваются как нечто вторичное. Основное внимание при этом уделяется логическому выводу. Выделение в определении ИИ функции обучения (адаптации) способствовало развитию коннекционистских (нейронные сети) и эволюционных моделей (генетические алгоритмы). 
      Трактовка ИИ с позиций способности к  восприятию и коммуникации привела  к развитию моделей понимания  изображений и естественного  языка. 
    Выделениеи гиперболизация отдельных свойств  интеллекта способствовали противопоставлению и расхождению различных школ ИИ. К началу 90-х годов исследователи начали осознавать, что подобные трактовки ИИ носят весьма ограниченный характер и не учитывают реалии развития интеллекта человека. Во-первых, естественный интеллект интегрирует в себе весь спектр свойств интеллекта. Во-вторых, интеллектуальное развитие человека происходит в обществе, в процессе выполнения им определенной деятельности. В отрыве от взаимодействия с себе подобными развитие естественного интеллекта проблематично. Поэтому, начиная с начала 90-х годов, в ИИ стали преобладать две основные тенденции – интеграция и децентрализация. 
      Интеграционные  процессы проявились в разработке гибридных  систем искусственного интеллекта, объединяющих в себе преимущества разнородных  моделей, например, нечеткие экспертные системы и нейронные сети. В  таких интегрированных системах могут поддерживаться различные  модели представления знаний, разные типы рассуждений, модели восприятия и  распознавания образов. Процессы  децентрализации связаны с рассмотрением  ИИ с позиций коллективного поведения  большого числа взаимодействующих  между собой интеллектуальных агентов. При этом интеллект агента рассматривается  как подсистема управления деятельностью  в процессе взаимодействия агента с  другими агентами. В основе распределенного (децентрализованного) интеллекта лежит функционально-структурная  единица – агент. 
      Важно отметить, что при решении конкретной задачи агенты образуют структурированное  сообщество, в котором наблюдается  определенная кооперация между агентами. Например, можно говорить об агентах, выполняющих простую передачу сообщений, о координирующих агентах, которые  организуют взаимодействие в сообществе (группе) агентов, о поисковых агентах, которые анализируют большие  объемы информации и возвращают результат  поиска, об агентах, формирующих понятия, и др. 
      Таким образом, согласно коллективистской модели основным объектом исследований ИИ является сообщество неоднородных, взаимодействующих  агентов, а основное содержание разработок связано с созданием интеллектуальных агентов, обладающих заданными свойствами, и вычислительных структур, поддерживающих взаимодействие агентов.

 

Компьютерное моделирование в естествознании: возможности, достижения, перспективы.

 

      Большинство естественнонаучных теорий очень похожи на математику внутренней логикой своего построения. В основе любой математической теории лежит несколько аксиом, а все частные результаты, называемые теоремами, выводятся из аксиом посредством дедуктивных логических рассуждений. Аксиомы являются идеальными абстрактными образами реальных объектов.

     Точно также во всех т.н. точных науках после этапа накопления экспериментальных данных формулируются основные законы, из которых могут быть получены все свойства различных систем и процессов, охватываемых данной теорией. Компактная и точная формулировка законов естествознания делается на языке математики в виде каких-либо уравнений. Таким образом, математической моделью любой реальной системы является некоторое уравнение или система уравнений с определенными значениями параметров и определенными граничными условиями.

      Во многих случаях для решения этих уравнений традиционными аналитическими методами требуется использование серьезного, порой, очень громоздкого математического аппарата. Иногда решения в аналитической форме вообще отсутствуют. Попытка ограничиться рассмотрением простейших систем, для которых решение основных уравнений может быть найдено элементарными методами, существенно обедняет наши представления об окружающем мире.

   Эффективный путь преодоления этих трудностей - построение компьютерной модели изучаемого явления, под которой понимается совокупность численных методов решения основных уравнений, алгоритмов их реализации и компьютерных программ. Хорошая компьютерная модель превращает компьютер из сверхбыстрого калькулятора в интеллектуальный инструмент, способствующий открытию новых эффектов, явлений и даже созданию новых теорий.

    Результативность компьютерной модели в значительной степени определяется качеством используемого программного обеспечения. Основные требования, предъявляемые к программам - это, конечно, простота ввода и корректировки исходных данных, а также визуализация (наглядность) результатов счета. Сегодня имеются и мощные специализированные системы программирования (MAPLE, SolidWorks, AutoCAD и др.) и специальные программы, в которых реализуется удобные графические пользовательские возможности.

    Использование компьютерных моделей превращает компьютер в универсальную экспериментальную установку. В компьютерном эксперименте обеспечен полный контроль за всеми параметрами системы, компьютерный эксперимент дешев и безопасен, с помощью компьютера удается ставить "принципиально невозможные" эксперименты (геологические процессы, космология, экологические катастрофы и т.д.).

Информация о работе Методика преподавания информатики