Архитектура фон Неймана, реконфигурируемые компьютерные системы и антимашина

Автор работы: Пользователь скрыл имя, 24 Ноября 2011 в 17:33, курсовая работа

Описание

В настоящее время существуют различные точки зрения на архитектуру Фон-Неймана: есть как сторонники, так и противники этой архитектуры. Трудно согласиться с еретическим на первый взгляд утверждением, будто два кита современных компьютерных технологий— статистическая теория информации и вычислительная архитектура с программами, хранимыми в памяти,— исчерпали свой потенциал и нуждаются в радикальном обновлении. Однако тем не менее утверждение это во многом справедливо.

Содержание

Введение……………………………………………………………….....5
Теория информации Клода Шеннона…………………………………..6
Аргументы сторонников искусственного интеллекта…………......…11
Многоядерность……...…………………………………………………15
Синдром фон Неймана и антимашина……………………………...…16
Реконфигурируемый компьютинг……………………………………..21
Заключение……………………………………………………………...26
Список использованной литературы…………………………………..28

Работа состоит из  1 файл

курсовая образец.doc

— 216.50 Кб (Скачать документ)

    Министерство  образования и науки РФ

    ФГБОУ ВПО «Сибирский Государственный  Технологический Университет» 

    Химико-технологический  факультет заочно-дистанционного обучения 

    Кафедра системотехники 
 

    

      
 
 
 
 
 
 
 

Архитектура фон Неймана, реконфигурируемые  компьютерные системы и антимашина 

    Пояснительная записка

    (СТ.000000.074 ПЗ) 
 
 
 
 
 
 
 
 

                                           Руководитель:

                                                               (подпись)

                                           _______________________________

                                                                               (оценка, дата) 

                                           Разработал:

                                           Студент группы 2204

                                                               (подпись)

                                           _______________________________

                                         (дата сдачи) 
 
 
 
 
 
 

СИБИРСКИЙ ГОСУДАРСТВЕННЫЙ ТЕХНОЛОГИЧЕСКИЙ  УНИВЕРСИТЕТ

КАФЕДРА СИСТЕМОТЕХНИКИ 

    ЗАДАНИЕ НА КУРСОВУЮ РАБОТУ ПО ИНФОРМАТИКЕ 

    Студент    Кляузер Роман Владимирович

    Факультет  Химико-технологический факультет заочно-дистанционного обучения

Тема  курсовой работы:    Архитектура фон Неймана, реконфигурируемые компьютерные системы и антимашина 
 

    Задания:

  1. Проанализировать теорию информации Клода- Шеннона.
  2. Проанализировать закон Мура.
  3. Выявит положительные стороны фон-неймановской архитектуры.

    4)Сравнит машину Фон-Неймана с антимашиной. 
 

              Задание выдано ___________________ 

              Руководитель  Коляда А.В.

 

    

    РЕФЕРАТ 

Пояснительная записка включает в себя 28 страниц текста, схему закона  Мура , график падения удельной производительности процессоров, таблицу сравнения архитектуры Фон-Неймана с антимашиной.               
 

 

           

    СОДЕРЖАНИЕ 

РЕФЕРАТ 3

Введение……………………………………………………………….....5

Теория информации Клода Шеннона…………………………………..6

Аргументы сторонников искусственного интеллекта…………......…11

Многоядерность……...…………………………………………………15

Синдром фон Неймана и антимашина……………………………...…16

Реконфигурируемый компьютинг……………………………………..21

Заключение……………………………………………………………...26

Список использованной литературы…………………………………..28 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

    ВВЕДЕНИЕ 

    В данной курсовой работе будет рассмотрена архитектура фон-неймановской машины.

В настоящее  время существуют различные точки  зрения на архитектуру Фон-Неймана: есть как сторонники, так и противники этой архитектуры.            Трудно согласиться с еретическим на первый взгляд утверждением, будто два кита современных компьютерных технологий— статистическая теория информации и вычислительная архитектура с программами, хранимыми в памяти,— исчерпали свой потенциал и нуждаются в радикальном обновлении. Однако тем не менее утверждение это во многом справедливо. 
 
 
 
 
 
 
 
 

 

  Теория  информации Клода Шеннона

Теория  информации Клода Шеннона, которую, по примеру самого Шеннона, все же следует называть «теорией передачи данных», никоим образом больше не может соответствовать современным представлениям об информации. Напомним, что она возникла как ответ на необходимость решать задачи, связанные с передачей данных, и предлагает соответствующую меру для передаваемых данных. Иначе говоря, шенноновская теория отражает то видение информации, которое было выработано в связи с процессами передачи данных. Поэтому вполне естественно, что ее область действия не может распространяться на множество современных приложений наподобие обработки неструктурированных данных, работы с мультимедийным контентом и т.д. Как это ни странно, но ИТ-специалисты в подавляющем большинстве не знают теории информации, а слова «информация» и «данные» часто используются как синонимы. Показательно, что даже самые старательные студенты компьютерных специальностей, прослушавшие обстоятельный курс по теории информации, не могут соотнести содержание этого курса с профильными специальностями. Из-за существующего разрыва между практической работой с информацией и теорией информации технологии, называемые «информационными», имеют дело вовсе не с информацией, а с обычными данными. Единого признанного представления о том, что же такое информация и что такое технологии для работы ней, не существует.                   Невозможность установить соответствие между данными и информацией рождает, условно говоря, построенные «на коленке» технологии. К их числу относятся такие полезные методы, как минимизация дублирования данных (то есть исключение таких данных, которые соответствуют одной и той же информации) или повышение качества данных (исключение разных наборов данных, соответствующих одной и той же информации). Вполне востребованные, они тем не менее базируются на интуитивных представлениях, без какого-либо строгого определения того, как данные соотносятся с заключенных в них информацией. Совершенно очевидно, что подобная кустарщина в работе с информацией может стать серьезным барьером. Экспоненциальный рост объемов хранимых данных, смещение в сторону неструктурированных данных, появление новых дисциплин работы с данными, необходимость доведения до практической реализации старых идей наподобие распознавания речи невозможны без разработки новой теории информации. Однако ее формированию препятствует так называемая «стена ментальности». Еще один «постаревший» кит— ставшая по нынешним временам архаичной фон-неймановская архитектура. Именно она является самым серьезным тормозом на пути дальнейшего совершенствования аппаратного и программного обеспечения. Моральное старение фон-неймановской архитектуры приводит к тому, что вся отрасль, связанная с обработкой данных, несмотря на ее видимое процветание, несмотря на бесчисленные разговоры об информационном обществе и пр., с неизбежностью приближается к критическому состоянию. Дело в количественном и качественном росте. Компьютерный мир все плотнее и плотнее объединяется с миром реальным. Появился специальный термин «всепроникающие компьютерные системы» (pervasive computing). Компьютер перестал быть ЭВМ, электронной вычислительной машиной, и неожиданно выяснилось, что в своем первоначальном виде компьютер не вполне соответствует окружающей среде. Реальный мир во всех его проявлениях параллелен, а современный компьютерный мир по своей природе последователен: данные передаются по последовательным каналам, команды выполняются одна за другой, как следствие любые попытки распараллеливания и адаптации к условиям реального мира рождают чрезвычайно сложные и искусственные решения. Одну из фундаментальных слабостей современных компьютеров вскрыл в 1977 году Джон Бэкус в речи, с которой он выступил при получении Тьюринговской премии. С тех пор в ход пошло прозвучавшее в ней выражение «бутылочное горло фон Неймана», символизирующее собой органический недостаток архитектурной схемы, ассоциирующейся с именем Джона фон Неймана. Но несмотря ни на что, с 1945 года и поныне архитектурная схема фон Неймана служит основой всех компьютеров, за исключением небольшого количества специализированных микроконтроллеров, построенных с использованием «гарвардской схемы», называемой так по имени машины Говарда Айкена Harvard Mark I, где программы хранились на перфорированных лентах, а обрабатываемые данные— в релейных массивах (рис. 1). В современных микроконтроллерах перфоленты заменила память ROM, реле— память RAM, но суть осталась прежней: в процессоре встречаются два независимых и не сдерживающих друг друга потока команд и данных. Как следствие, такие специализированные устройства обладают производительностью, необходимой для работы в технических системах в режиме реального времени. 

 
 

Рисунок 1 - машина Harvard Mark I.

  Но  если кризис фон-неймановской архитектуры  наступает, то почему же о нем задумывается ограниченное число специалистов? Скорее всего, причина успокоенности большинства в том, что картину видимого благополучия искусственным образом поддерживает закон Мура.       Поначалу закон Мура воспринимался как некий казус. Он в большей степени удивлял, чем служил руководством к действию, но со временем корректность закона перестала вызывать сомнение, и сейчас есть уверенность в его действенности на долгие годы вперед, с ним связывают надежды на будущее. Показательно, что о законе Мура широко заговорили лишь лет пять назад; как ни странно, до этого он был мало кому известен, а уж его точная формулировка и подавно. Долгое время его ошибочно интерпретировали как закон периодического удвоения производительности, и только когда удельная производительность стала падать, вспомнили об изначальной формулировке, говорящей о плотности размещения транзисторов на кристалле. До тех пор пока сложность процессоров не начала сдерживать дальнейшее развитие, закон Мура воспринимался исключительно как гарант прогресса, однако сегодня сложность стала серьезной проблемой. Отношение к закону Мура и его месту в компьютерной истории нуждается в переосмыслении. В общем эволюционном процессе закон Мура играет двойственную роль, являясь и тормозом, и стимулом одновременно.               Тормозом— или, скорее, консервирующим фактором— закон Мура можно считать потому, что он на протяжении добрых десяти лет позволял сохранять динамику развития, обходясь без радикальных инновационных шагов. Работала своеобразная положительная обратная связь; увеличением количества транзисторов разработчики процессоров компенсировали снижение качества архитектуры. Как результат производительность продолжала расти, но медленнее, чем число транзисторов. Однако какой ценой это достигалось? Как показано нa за последнее десятилетие удельная производительность процессоров в пересчете на число транзисторов упала на один-два порядка. Дальнейшее развитие полупроводниковых технологий по закону Мура не может компенсировать чудовищную неэффективность современных процессоров. Диспропорцию между числом транзисторов на кристалле и удельной производительностью, выраженной в скорости выполнения, отнесенной к площади, иногда называют «дефицитом Мура» (Moore Gap).

Рисунок 2 - Падение удельной производительности процессоров.

  Но  с другой стороны, количественный рост, постулируемый законом Мура, предопределяет неизбежные перемены, и в какой-то момент должен сработать диалектический переход количества в качество. Легендарный Дэйв Паттерсон, профессор из Калифорнийского университета в Беркли, изобретатель RISC-процессоров и RAID-массивов, считает, что грядет новое время, когда перестанут действовать прежние прописные истины и им на смену придут новые. Однако переход этот осложняется наличием трех «стен».

  • Энергетическая стена. Старая истина— энергия не стоит ничего, транзисторы дороги. Новая истина— дорога энергия, транзисторы не стоят ничего.
  • Стена памяти. Старая истина— память работает быстро, а операции с плавающей запятой медленны. Новая истина— системную производительность сдерживает память, операции выполняются быстро.
  • Стена параллелизма на уровне команд. Старая истина— производительность можно повысить за счет качества компиляторов и таких архитектурных усовершенствований, как конвейеры, внеочередное выполнение команд, сверхдлинное командное слово (Very Long Instruction Word, VLIW), явный параллелизм команд (Explicitly Parallel Instruction Computing, EPIC) и др. Новая истина— естественный параллелизм, команды и длинные, и короткие, но выполняются они параллельно, на разных ядрах.        Некоторые авторы считают, что есть еще одна стена, «стена ментальности» (educational wall). За 60 лет существования компьютеров сложилась определенная образовательная традиция. Тем, кто вырос как специалист на не подвергаемых сомнению догматах, непросто признать их уязвимость. Вообще говоря, несовершенство и избыточная затратность современных компьютерных систем становится популярной темой для обсуждения. К примеру, об этом недавно, во время своего пребывания в Москве, говорил Билл Инмон. «Отец» хранилищ данных указывает, что все современные решения для работы с данными объединяет то, что стоимость функциональных компонентов (транзисторы, диски и т.д.) становится все менее значимой, а основная стоимость продуктов приходится на поддерживающую инфраструктуру.
 

Аргументы сторонников искусственного интеллекта

  Помимо  очевидных технологических претензий  к фон-неймановской архитектуре (излишняя сложность, неспособность к распараллеливанию, низкий коэффициент полезного использования транзисторов и т.п.), есть еще одна группа претензий. Стоит вспомнить то, какие надежды несколько десятилетий назад возлагались на искусственный интеллект, какими умными представлялись будущие машины и то, каким провалом все в конечном итоге кончилось. Адепты искусственного интеллекта видят причину неудач в монопольном положении одной архитектуры, которая способна безукоризненно выполнять ограниченный набор действий, но оказывается не в состоянии адаптироваться к решению задач с элементами интеллектуальности. Нельзя же признать, что монстры от IBM, методом перебора обыгрывающие гроссмейстеров, и в самом деле играют в шахматы. То же самое можно сказать о различных задачах распознавания и многом другом. Фон-неймановские машины (фактически— последовательные цифровые процессоры) способны воспринимать единственный входной поток единиц и нулей и обрабатывать данные, состоящие из тех же единиц и нулей. На то, чтобы приспособить машины для решения интеллектуальных задач, остаются лишь весьма ограниченные языковые возможности. Со временем они оказываются исчерпанными, и ни о каком реальном использовании современных компьютеров для решения интеллектуальных задач говорить не приходится. Но это вовсе не означает, что компьютеры в принципе пригодны лишь для решения рутинных задач. Рано или поздно они должны стать интеллектуальными ассистентами человека, как представляли их Ванневар Буш и Даг Энгельбарт.                   Впрочем, претензии к фон-неймановской схеме со стороны потерпевших неудачу исследователей нельзя принять в качестве главного критического аргумента. Действенной причиной для коренного пересмотра фундаментальной компьютерной архитектуры могут стать изменившиеся требования бизнеса, а непосредственным стимулом— проблемы увеличения сложности одноядерных процессоров и многоядерность как единственное лекарство от этой сложности. Вернемся к двуликости закона Мура. История процессора Itanium прекрасно иллюстрирует то, как можно его использовать для консервирования действующей парадигмы. Через год исполнится 20 лет с того памятного момента, когда в HP, придя к выводу об ограниченной возможности для дальнейшего развития архитектуры RISC, отдали предпочтение казавшейся им более перспективной архитектуре с явным параллелизмом EPIC, позволяющей выполнять за один такт очень длинное командное слово. Но и они, и те, кто стал их союзником, просчитались; вопреки ожиданиям процессор с одним ядром (а про другие тогда не знали) получился невероятно сложным, а компиляторы, способные реализовать его возможности,— и того сложнее. Период собственно разработки затянулся на 12 лет, но и после еще семи лет доработки желаемый результат остается не достигнутым. Продукты, построенные на Itanium, не смогли составить конкуренцию ни RISC-серверам (их, по данным Gartner, в 2007 году было выпущено на порядок больше, чем серверов на Itanium), ни тем более стандартным серверам на процессорах х86, на замену которым планировался Itanium (здесь он уступает более чем два порядка). Даже в сегменте HPC, где, казалось бы, выдающаяся по сравнению с другими процессорами производительность на операциях с плавающей запятой дает Itanium преимущества, он уступает свои позиции; в нынешнем списке Top?500 на его долю приходится всего 3,2% общего числа суперкомпьютеров. Нетрудно прийти к выводу, что, если нельзя использовать возможности закона Мура на одном ядре из-за исключительной сложности такого ядра, то следует пойти по пути увеличения числа ядер. Именно так поступили в Sun Microsystems, выпустив 8-ядерный процессор Niagara. Идея многоядерности стала очевидной и для тех, кто делал ставку на EPIC, и вот на очередном IDF осенью 2004 года Пол Отеллини, генеральный директор Intel, заявил: «Мы связываем наше будущее с многоядерными продуктами; мы верим, что это ключевая точка перегиба для всей индустрии» Тогда эту перспективу рассматривали ограниченно, поэтому слова Отеллини отнесли к вполне ожидаемым двухъядерным или четырехъядерным процессорам и особого внимания на прозрачный намек по поводу прогнозируемого перегиба не обратили. В стороне от общественного внимания осталось и еще одно многозначительное высказывание по поводу грядущего увеличения числа ядер, сделанное им тогда же: «Это не гонка. Это радикальное изменение в компьютинге, мы не имеем права рассматривать происходящее как простую технологическую гонку».                  Три года спустя один из самых авторитетных современных специалистов в области многоядерных процессорных архитектур, профессор Массачусетского технологического института Ананд Агарвал, выступая на конференции, посвященной проблемам современных процессоров, имея опыт собственной разработки в основанной им компании Tilera, сказал следующее: «Процессоры становятся все более и более единообразными и обезличенными, критичнее становится система», а далее подарил афоризм: «Процессор— это транзистор современности».                     Его мысль развил Энди Бехтольсхайм из Sun Microsystems: «Больше нельзя рассматривать производительность как серьезное ограничение. Теперь главное ограничение— ввод/вывод, а производительность ввода/вывода невозможно поднять за счет простого увеличения плотности транзисторов».     Можно говорить о двух заметно разнящихся между собой тенденциях в процессе увеличения числа ядер. Одну теперь называют мультиядерность (multi-core), в этом случае предполагается, что ядра являются высокопроизводительными и их относительно немного; сейчас их число— два-четыре, и согласно закону Мура оно будет периодически удваиваться. Этот путь имеет два основных прежних недостатка: первый— высокое энергопотребление, второй— высокая сложность чипа и, как следствие, низкий процент выхода готовой продукции. При производстве 8-ядерного процессора IBM Сell только 20% производимых кристаллов являются годными. Другой путь— многоядерность (many-core). В таком случае на кристалле собирается на порядок большее число, но при этом простейших ядер, потребляющих милливатты. Допустим, для начала ядер будет сто, но и это число с той же периодичностью удваивается, а следовательно, в обозримом будущем появятся процессоры с тысячами и десятками тысяч ядер. Данный подход попадает в категорию так называемых «разрушительных инноваций» (disruptive innovation). Такого рода технологии взламывают существующие рынки; к примеру, на наших глазах начинается замена жестких дисков твердотельными дисками, цифровая фотография вытеснила аналоговую.       Впрочем, эти революционные процессы прошли или происходят достаточно безболезненно для потребителей, чего нельзя сказать о многоядерности. Действительно, ни одна из современных школ программирования не в состоянии справиться с грядущими проблемами, не случайно на суперкомпьютерной конференции, прошедшей в Дрездене в 2007 году, один из центральных докладов назывался «Развал системы традиционных знаний в многоядерную эру. Все, что вы знаете,— неверно». 

Информация о работе Архитектура фон Неймана, реконфигурируемые компьютерные системы и антимашина