Развитие компьютерных технологий
РАЗВИТИЕ КОМПЬЮТЕРНЫХ ТЕХНОЛОГИЙ
Из истории
В 1642 году Блез Паскаль изобрел устройство, механически выполняющие сложение чисел, а в 1673 году Готфрид Вильгельм Лейбниц сконструировал арифмометр, позволяющий механически выполнять четыре арифметических действия. Начиная с 19 века арифмометры получили очень широкое применение. На них выполняли даже очень сложные расчеты, например, расчеты баллистических таблиц для артиллерийских стрельб. Существовала и специальная профессия счетчик – человек, работающий с арифмометром, быстро и точно соблюдающий определенную последовательность инструкций (такую последовательность инструкций впоследствии стали называть программой). Но многие расчеты производились очень медленно – даже десятки счетчиков должны были работать по несколько недель и месяцев. Причина проста – при таких расчетах выбор выполняемых действий и запись результатов производилась человеком, а скорость его работы весьма ограничена
В первой половине 19 века английский математик Чарльз Бэббидж попытался построить универсальное вычислительное устройство – Аналитическую машину, которая должна была выполнять вычисления, без участия человека. Для этого она должна была уметь исполнять программы, вводимые с помощью перфокарт (карт из плотной бумаги с информацией, наносимой с помощью отверстий, они в то время уже широко употреблялись в ткацких станках), и иметь “склад” для запоминания данных и промежуточных результатов (в современной терминологии – память). Бэббидж не смог довести до конца работу по созданию Аналитических машин – она оказалась слишком сложной для техники того времени. Однако он разработал все основные идеи, и в 1943 году американец Говард Эйкен с помощью работ Баббиджа на основе техники 20 века – электромеханических реле – смог построить на одном из предприятий фирмы IBM такую машину под названием “Марк – 1”. Еще раньше идеи Бэббиджа были переоткрыты немецким инженером Конрадом Цузе, который в 1941 году построил аналогичную машину
К этому времени потребность в автоматизации вычислений (в том числе для военных нужд – баллистики, криптографии и т.д.) стала настолько велика, что над созданием машин типа построенных Эйкеном и Цузе одновременно работало несколько групп исследователей. Начиная с 1943 года группа специалистов под руководством Джона Мачли и Преспера Экерта в США начала конструировать подобную машину уже на основе электронных ламп, а не реле. Их машина, названная ENIAC, работала в тысячу раз быстрее, чем “Марк – 1”, однако для задания ее программы приходилось несколько часов или даже нескольких дней подсоединять нужным образом провода. Чтобы упростить задачу задания программ, Мачпи и Экерт стали конструировать новую машину, которая могла бы хранить программу в своей памяти. В 1945 году к работе был привлечен знаменитый математик Джон фон Нейман, который подготовил доклад об этой машине. Доклад был разослан многим ученым и получил широкую известность, поскольку в нем фон Нейман ясно и просто сформулировал общие принципы функционирования универсальных вычислительных устройств, т.е. компьютеров
Первый компьютер, в котором были воплощены принципы фон Ньмана, был построен в 1949 году английским исследователем Морисом Уилксом. С той поры компьютеры стали гораздо более мощными, но подавляющее большинство из них сделано в соответствии с теми принципами, которые изложил в своем докладе в 1945 году Джон фон Нейман
В наше время компьютер не редкость, но ещё десять лет назад было редкостью увидеть какой-нибудь персональный компьютер — они были, но были очень дорогие, и даже не каждая фирма могла иметь у себя в офисе компьютер. А теперь? Теперь в каждом третьем доме есть компьютер, который уже глубоко вошёл в жизнь самих обитателей дома
Области применения ЭВМ непрерывно расширяются. Этому в значительной степени способствует распространение персональных ЭВМ, и особенно микроЭВМ. За время, прошедшее с 50-х годов, цифровая ЭВМ превратилась из “волшебного”, но при этом дорогого, уникального и перегретого нагромождения электронных ламп, проводов и магнитных сердечников в небольшую по размерам машину - персональный компьютер - состоящий из миллионов крошечных полупроводниковых приборов, которые упакованы в небольшие пластмассовые коробочки
На сегодняшний день компьютерные технологии применяются повсюду, они управляют работой кассовых аппаратов, следят за работой автомобильных систем зажигания, ведут учёт семейного бюджета, или просто используются в качестве развлекательного комплекса, но это только малая часть возможностей современных компьютеров. Более того, бурный прогресс полупроводниковой микроэлектроники, представляющей собой базу вычислительной техники, свидетельствует о том, что сегодняшний уровень как самих компьютеров, так и областей их применения является лишь слабым подобием того, что наступит в будущем. Постепенно изучение компьютерной техники пытаются вводить в программы школьного обучения как обязательный предмет, чтобы ребёнок смог уже с довольно раннего возраста знать строение и возможности компьютеров. А в самих школах (в основном на западе и в Америке) уже многие годы компьютеры применялись для ведения учебной документации, а теперь они используются при изучении многих учебных дисциплин, не имеющих прямого отношения к вычислительной технике
Оптические компьютеры
Развитие вычислительной техники представляет собой постоянно сменяющие друг друга физические способы реализации логических алгоритмов - от механических устройств (вычислительная машина Бэббиджа) к ламповым (компьютеры 40-50-х годов Марк I и Марк II), затем к транзисторным и, наконец, к интегральным схемам. И уже на рубеже XXI века идут разговоры о скором достижении пределов применения полупроводниковых технологий и появлении вычислительных устройств, работающих на совершенно ином принципе. Все это свидетельствует о том, что прогресс не стоит на месте, и с течением времени ученые открывают новые возможности создания вычислительных систем, принципиально отличающихся от широко применяемых компьютеров. Существует несколько возможных альтернатив замены современных компьютеров, одна из которых - создание так называемых оптических компьютеров, носителем информации в которых будет световой поток
Проникновение оптических методов в вычислительную технику ведется по трем основным направлениям. Первое основано на использовании аналоговых интерференционных оптических вычислений для решения отдельных специальных задач, связанных с необходимостью быстрого выполнения интегральных преобразований. Второе направление связано с использованием оптических соединений для передачи сигналов на различных ступенях иерархии элементов вычислительной техники, т.е. создание чисто оптических или гибридных (оптоэлектронных) соединений вместо обычных, менее надежных, электрических соединений. При этом в конструкции компьютера появляются новые элементы - оптоэлектронные преобразователи электрических сигналов в оптические и обратно. Но самым перспективным направлением развития оптических вычислительных устройств является создание компьютера, полностью состоящего из оптических устройств обработки информации. Это направление интенсивно развивают с начала 80-х годов ведущие научные центры (MTI, Sandia Laboratories и др.) и основные компании-производители компьютерного оборудования (Intel, IBM)
В основе работы различных компонентов оптического компьютера (трансфазаторы-оптические транзисторы, триггеры, ячейки памяти, носители информации) лежит явление оптической бистабильности. Оптическая бистабильность - это одно из проявлений взаимодействия света с веществом в нелинейных системах с обратной связью, при котором определенной интенсивности и поляризации падающего на вещество излучения соответствуют два (аналог 0 и 1 в полупроводниковых системах) возможных стационарных состояния световой волны, прошедшей через вещество, отличающихся амплитудой и (или) параметрами поляризации. Причем предыдущее состояние вещества однозначно определяет, какое из двух состояний световой волны реализуется на выходе. Для большего понимания явление оптической бистабильности можно сравнить с обычной петлей магнитного гистерезиса (эффект, используемый в магнитных носителях информации). Увеличение интенсивности падающего на вещество светового луча до некоторого значения I 1 приводит к резкому возрастанию интенсивности прошедшего луча; на обратном же ходе при уменьшении интенсивности падающего луча до некоторого значения I 2
Весь набор полностью оптических логических устройств для синтеза более сложных блоков оптических компьютеров реализуется на основе пассивных нелинейных резонаторов-интерферометров. В зависимости от начальных условий (начального положения пика пропускания и начальной интенсивности оптического излучения) в пассивном нелинейном резонаторе, нелинейный процесс завершается установлением одного из двух устойчивых состояний пропускания падающего излучения. А из нескольких нелинейных резонаторов можно собрать любой, более сложный логический элемент (триггер)
Элементы памяти оптического компьютера представляют собой полупроводниковые нелинейные оптические интерферометры, в основном, созданными из арсенида галлия (GaAs). Минимальный размер оптического элемента памяти определяется минимально необходимым числом атомов, для которого устойчиво наблюдается оптическая бистабильность. Это число составляет ~1000 атомов, что соответствует 1-10 нанометрам
К настоящему времени уже созданы и оптимизированы отдельные составляющие оптических компьютеров – оптические процессоры, ячейки памяти), однако до полной сборки еще далеко. Основной проблемой, стоящей перед учеными, является синхронизация работы отдельных элементов оптического компьютера в единой системе, поскольку уже существующие элементы характеризуются различными параметрами рабочей волны светового излучения (интенсивность, длина волны), и уменьшение его размера. Если для конструирования оптического компьютера использовать уже разработанные компоненты, то обычный PC имел бы размеры легкового автомобиля. Однако применение оптического излучения в качестве носителя информации имеет ряд потенциальных преимуществ по сравнению с электрическими сигналами, а именно:
- световые потоки, в отличие от электрических, могут пересекаться друг с другом;
- световые потоки могут быть локализованы в поперечном направлении до нанометровых размеров и передаваться по свободному пространству;
- скорость распространения светового сигнала выше скорости электрического;
- взаимодействие световых потоков с нелинейными средами распределено по всей среде, что дает новые степени свободы ( по сравнению с электронными системами) в организации связи и создании параллельных архитектур.
Вообще, создание большего количества параллельных архитектур, по сравнению с полупроводниковыми компьютерами, является основным достоинством оптических компьютеров, оно позволяет преодолеть ограничения по быстродействию и параллельной обработке информации, свойственные современным ЭВМ. Развитие оптических технологий все равно будет продолжаться, поскольку полученные результаты важны не только для создания оптических компьютеров, но также и для оптических коммуникаций и сети Internet
Компьютеры Intel
Казалось бы, VIA уже давно выпустил свой чипсет Apollo Pro133, который имеет возможность использования этой частоты, однако процессоров поддерживающих такую FSB не было, потому о полноценных 133 МГц говорить не приходилось. В конце сентября ситуация изменилась - на рынок выпустили первый процессор, рассчитанный на эту частоту. Правда, к сожалению, этим процессором пока не станет давно ожидаемый Coppermine, представляющий собой Pentium III, сделанный на базе технологии 0.18 мкм и имеющий интегрированный в ядро и работающий на полной частоте процессора кеш второго уровня размером 256 Кбайт. Ошибки, допущенные при проектировании этого ядра, не дают возможности представить этот процессор в конце сентября - его появлением будет ознаменован последний квартал этого года
Но одними процессорами Intel, ясное дело, не ограничится - в этом случае создалась бы достаточно нелепая ситуация - новинки поддерживались бы только материнскими платами на чипсетах VIA. В этот же день свет увидят и два новых чипсета i820 и i810e. Выход i820 - своего рода эпохальное событие - этот чипсет откладывался и переделывался несметное количество раз - первой официальной датой его выхода был июнь этого года. Но, наконец-то разработчики и потенциальные потребители пришли к какому-никакому соглашению, что и позволит вывести i820 на рынок
Самым большим плюсом, и самым большим минусом i820 является поддерживаемый им совершенно новый для PC тип памяти - Direct Rambus DRAM. В общем, самое сомнительное звено - первые материнские платы на чипсете i820 будут требовать от пользователя полностью сменить используемую память, с модулей DIMM перейти на RIMM. Что, в сочетании с их дороговизной и немалыми объемами памяти, требуемыми сегодняшними приложениями, выльется в копеечку, и вряд ли вызовет массовый энтузиазм
25 октября 1999 года - Coppermine
Технологию 0.18 мкм - в жизнь! Этот девиз однозначно описывает все события, которые произошли 25 октября. В этот день начаты массовые продажи Pentium III-процессоров, выпущенных по новой технологии и начиненные новым ядром - Coppermine. Наличие в нем 256-килобайтного встроенного кеша второго уровня, работающего на частоте ядра и подобного тому, что мы имеем сегодня в Celeron, гарантирует новое увеличение производительности
А дальше?
Что будет потом, зная гибкость самой любимой компании, точно сказать уже достаточно тяжело. Однако некие общие тенденции можно описать
Что касается процессоров, то помимо дальнейшего наращивания скоростей, нас будет ждать и еще один ребенок из семейки Coppermine. Это новый Celeron, сделанный на этом ядре, который был запущен где-то в районе первого квартала 2000 года. Главные отличия от существующих Celeron будут скрываться в поддержке частоты системной шины 100 МГц и долгожданной поддержке набора интеловских SIMD-инструкций SSE
После этого каких-то кардинальных событий с х86 процессорами от Intel не случалось аж до 2001 года, когда миру было представлено новое процессорное ядро - Willamette, обеспечивающее безпроблемную работу на частотах более гигагерца, преодолеть который существующие архитектуры вряд ли смогут. Willamette будет иметь L1-кеш объемом 256 Кбайт и L2-кеш как минимум 1 Мбайт. При этом данный CPU начнет выпускаться по технологии 0.18 мкм с последующим переходом на 0.13 мкм и медную технологию, вводить которую на 0.18 мкм Intel, в отличие от AMD, считает нецелесообразным
Вторая интересность, поджидающая нас в том же втором квартале - Timna. Это немного напоминает Cyrix MediaGX, поскольку является Pentium III процессором c интегрированным L2-кешем 128 Кбайт, графическим контроллером и контроллером памяти, поддерживающем Direct Rambus DRAM. Timna, по идее, будет выпускаться также в виде FC-PGA, устанавливаемым в новый сокет - PGA370-S. Впрочем, и это пока только проект, силикона еще нет, потому все может измениться
Не остановится на месте и направление Mainstream-чипсетов. Выход Camino2 произойдет во втором-третьем квартале 2000 года. Этот чипсет, представляющий собой усовершенствованный i820, будет специально оптимизироваться под Coppermine. В его состав помимо всего прочего будет входить четырехпортовый контроллер USB, контроллер Ultra ATA/100 (еще бы знать, что это такое, многоканальный AC97 кодек, интегрированный LAN-контроллер и некоторые другие возможности, которые к тому времени давно уже появятся в чипсетах VIA. В общем, скучать не придется
Нейрокомпьютер
Для решения некоторых задач требуется создание эффективной системы искусственного интеллекта, которая могла бы обрабатывать информацию, не затрачивая много вычислительных ресурсов. И разработчиков "осенило": мозг и нервная система живых организмов позволяют решать задачи управления и эффективно обрабатывать сенсорную информацию, а это огромный плюс для создаваемых вычислительных систем. Именно это послужило предпосылкой создания искусственных вычислительных систем на базе нейронных систем живого мира. Специалисты, добившись нужных результатов в этой области, создадут компьютер с большими возможностями
Создание компьютера на основе нейронных систем живого мира базируется на теории перцептронов, разработчиком которой был Розенблатт. Он предложил понятие перцептрона - искусственной нейронной сети, которая может обучаться распознаванию образов. Предположим, что есть некоторая зенитно-ракетная установка, задача которой - распознать цель и определить наиболее опасную из них. Также есть два самолета вероятного противника: штурмовик и бомбардировщик. Зенитно-ракетная установка, используя оптические средства, фотографирует самолеты и отправляет полученные снимки на вход нейронной сети (при полностью сфотографированном самолете нейронная сеть быстро распознает его). Но если снимок получился плохо, то именно здесь используются основные свойства нейронной сети, одно из которых - возможность к самообучению. Например, на снимке отсутствует одно крыло и хвостовая часть самолета. Через некоторое (приемлемое) время нейронная сеть сама дорисовывает отсутствующие части и определяет тип этого самолета и дальнейшие действия по отношению к нему. Из распознанных штурмовика и бомбардировщика оператор данной зенитно-ракетной установки выберет для уничтожения более опасный самолет
Перспективность создания компьютеров по теории Розенблатта состоит в том, что структуры, имеющие свойства мозга и нервной системы, имеют ряд особенностей, которые сильно помогают при решении сложных задач:
- Параллельность обработки информации.
- Способность к обучению.
- Способность к автоматической классификации.
- Высокая надежность.
- Ассоциативность.
Нейрокомпьютеры - это совершенно новый тип вычислительной техники, иногда их называют биокомпьютерами. Нейрокомпьютеры можно строить на базе нейрочипов, которые функционально ориентированы на конкретный алгоритм, на решение конкретной задачи. Для решения задач разного типа требуется нейронная сеть разной топологии (топология - специальное расположение вершин, в данном случае нейрочипов, и пути их соединения). Возможна эмуляция нейрокомпьютеров (моделирование) - как программно на ПЭВМ и суперЭВМ, так и программно-аппаратно на цифровых супербольших интегральных схемах. Искусственная нейронная сеть построена на нейроноподобных элементах - искусственных нейронах и нейроноподобных связях. Здесь важно заметить, что один искусственный нейрон может использоваться в работе нескольких (приблизительно похожих) алгоритмов обработки информации в сети, и каждый алгоритм осуществляется при помощи некоторого количества искусственных нейронов
Квантовый компьютер
Последние десять лет разработки ведутся во многих направлениях - наиболее успешными и быстро развивающимися из них являются квантовые компьютеры, нейрокомпьютеры и оптические компьютеры, поскольку современная элементная и технологическая база имеет все необходимое для их создания. Хотя при этом возникают определенные проблемы. Но не будем забегать вперед - все перечисленные виды компьютеров и проблемы с их разработкой подробно описаны в этой статье. Начнем с предпосылок создания более скоростных, а значит, и более высокопроизводительных вычислительных систем
Для описания состояния квантовой системы было введено понятие волновой функции, ее значение представляется в виде вектора с большим числом значений
Существуют волновые функции, которые называются собственными для какой-либо определенной величины. Квантовая система может находиться в состоянии с волновой функцией, равной линейной комбинации собственных функций, соответствующих каждому из возможных значений (такое состояние называется сложным), т. е. физически - ни в возбужденном, ни в основном состоянии. Это означает, что кубит в одну единицу времени равен и 0, и 1, тогда как классический бит в ту же единицу времени равен либо 0, либо 1. Как для классических, так и для квантовых компьютеров были введены элементарные логические операции: дизъюнкция, конъюнкция и квантовое отрицание, при помощи которых будет организована вся логика квантового компьютера
Согласно законам квантовой механики, энергия электрона, связанного в атоме, не произвольна. Она может иметь лишь определенный прерывный (дискретный) ряд значений Е 0 , Е 1 ,... Е n называемых уровнями энергии. Этот набор называют энергетическим спектром атома
Самый нижний уровень энергии Е0, при котором энергия атома наименьшая, называется основным. Остальные уровни (Е 1 , Е 2 ,... Е n ) соответствуют более высокой энергии атома и называются возбужденными. Излучение и поглощение атомом электромагнитной энергии происходит отдельными порциями - квантами, или фотонами
При поглощении фотона энергия увеличивается - он переходит "вверх" - с нижнего на верхний уровень, при излучении фотона атом совершает обратный переход вниз. Если атом в данный момент времени находится в одном из возбужденных состояний Е 2 , то такое состояние атома неустойчиво, даже если на него не влияют другие частицы. Через очень короткое время атом перейдет в одно из состояний с меньшей энергией, например Е 1
Такой самопроизвольный (спонтанный) переход с одного уровня на другой и сопровождающее его спонтанное излучение столь же случайны во времени, как радиоактивный распад ядра атома. Предсказать точно момент перехода принципиально невозможно - можно лишь говорить о вероятности того, что переход произойдет через такое-то время. Но атом может перейти с уровня Е 2 на Е 1 не спонтанно, а под действием электромагнитной волны, если только частота этой волны достаточно близка к частоте перехода атома. Такая резонансная волна как бы "расшатывает" электрон и ускоряет его "падение" на уровень с меньшей энергией
Переходы, происходящие под действием внешнего электромагнитного поля, называются вынужденными (или стимулированными). При создании квантового компьютера основное внимание уделяется вопросам управления кубитами при помощи вынужденного излучения и недопущении спонтанного излучения, которое нарушит работу всей квантовой системы
От рассказа о физике происходящих в квантовом компьютере процессов перейдем к тому, как эти свойства реализуются в экспериментальном образце квантового компьютера
Для того чтобы практически реализовать квантовый компьютер, существуют несколько важных правил, которые в 1996 г. привел Дивиченцо (D.P. Divincenzo). Без их выполнения не может быть построена ни одна квантовая система
- Точно известное число частиц системы.
- Возможность приведения системы в точно известное начальное состояние.
- Высокая степень изоляции от внешней среды.
- Умение менять состояние системы согласно заданной последовательности элементарных преобразований.
Так на какой же основе будет построена вычислительная система будущего? Попробуем ответить на этот вопрос. В данной работе рассматривались три вида компьютеров: квантовые компьютеры, которые построены на основе явлений, возникающих в квантовой физике и дающих мощный вычислительный агрегат при решении задач сложных вычислений; нейрокомпьютеры и оптические компьютеры, которые построены на различной теоретической базе, но схожи в том, что и те и другие занимаются обработкой информации. С достоверностью известно, что уже сейчас существуют системы обработки информации, построенные на объединении оптических и нейронных компьютеров, - это так называемые нейроно-оптические компьютеры. Для того чтобы создать мощную систему обработки информации, пришлось разработать гибридную систему, т. е. имеющую свойства как оптических, так и нейронных компьютеров. Можно предположить, что объединение квантовых и нейроно-оптических компьютеров даст миру самую мощную гибридную вычислительную систему
Такую систему от обычной будут отличать огромная производительность (за счет параллелизма) и возможность эффективной обработки и управления сенсорной информацией. Но это лишь предположение, которое никакими фактическими доказательствами в настоящее время не подкреплено. Но технология создания вычислительных систем не стоит на месте, и в ближайшем будущем на рынке возможно появление новых вычислительных систем
Список литературы
- Глазер В. “Световодная техника” М. Энегроатомиздат 1995г.
- Оокоси Е. Оптоэлектроника и оптическая связь. М.: Мир, 1998г.
- Журнал PC Magazine ( Russian Edition ) N2 1991г.
- М. ГУК “Аппаратные средства IBM PC” Питер Санкт-Петербург 1997г.
Категории:
- Астрономии
- Банковскому делу
- ОБЖ
- Биологии
- Бухучету и аудиту
- Военному делу
- Географии
- Праву
- Гражданскому праву
- Иностранным языкам
- Истории
- Коммуникации и связи
- Информатике
- Культурологии
- Литературе
- Маркетингу
- Математике
- Медицине
- Международным отношениям
- Менеджменту
- Педагогике
- Политологии
- Психологии
- Радиоэлектронике
- Религии и мифологии
- Сельскому хозяйству
- Социологии
- Строительству
- Технике
- Транспорту
- Туризму
- Физике
- Физкультуре
- Философии
- Химии
- Экологии
- Экономике
- Кулинарии
Подобное:
- Развитие средств связи
Развитие средств связиРазвитие средств связиВ нашей стране создается единая автоматизированная система связи. Для этого раз
- Развитие суперЭВМ - тенденции и перспективы развития суперЭВМ
РАЗВИТИЕ СУПЕРЭВМ - ТЕНДЕНЦИИ И ПЕРСПЕКТИВЫ РАЗВИТИЯ СУПЕР ЭВМ На сегодняшний день весьма актуальна тема перехода к новым поколениям в
- Разработка информационных технологий
Разработка информационных технологий ПЛАН Характеристика основных этапов технологического процесса 1.2. Технологические операции сбо
- Разработка общего программного обеспечения
Разработка общего программного обеспечения МАКРОЯЗЫК И МАКРОПРОЦЕССОР Оператор, работающий в какой-либо системе, часто встречается с
- Разработка структур обеспечения программно-технического комплекса
Разработка структур обеспечения программно-технического комплекса (ПТК) "Web- интерфейс к базам данных" ВведениеОбзор ПТК данного видаТе
- Разрядность, тактовая частота, объем оперативной памяти
РАЗРЯДНОСТЬ, ТАКТОВАЯ ЧАСТОТА, ОБЪЕМ ОПЕРАТИВНОЙ ПАМЯТИПроцессор. Важнейшей характеристикой процессора, определяющей его быстродейст
- Распознавание речи
РАСПОЗНАВАНИЕ РЕЧИ. По мере развития компьютерных систем становится все более очевидным, что использование этих систем намного рас