Презентация "Нейронные сети" по информатике – проект, доклад

Слайд 1
Слайд 2
Слайд 3
Слайд 4
Слайд 5
Слайд 6
Слайд 7
Слайд 8
Слайд 9
Слайд 10
Слайд 11
Слайд 12
Слайд 13

Презентацию на тему "Нейронные сети" можно скачать абсолютно бесплатно на нашем сайте. Предмет проекта: Информатика. Красочные слайды и иллюстрации помогут вам заинтересовать своих одноклассников или аудиторию. Для просмотра содержимого воспользуйтесь плеером, или если вы хотите скачать доклад - нажмите на соответствующий текст под плеером. Презентация содержит 13 слайд(ов).

Слайды презентации

Лекция 5. Нейронные сети: обучение без учителя. Главная черта, делающая обучение без учителя привлекательным, – это его "самостоятельность". Процесс обучения, как и в случае обучения с учителем, заключается в подстраивании весов синапсов. Некоторые алгоритмы, правда, изменяют и структуру с
Слайд 1

Лекция 5. Нейронные сети: обучение без учителя

Главная черта, делающая обучение без учителя привлекательным, – это его "самостоятельность". Процесс обучения, как и в случае обучения с учителем, заключается в подстраивании весов синапсов. Некоторые алгоритмы, правда, изменяют и структуру сети, то есть количество нейронов и их взаимосвязи, но такие преобразования правильнее назвать более широким термином – самоорганизацией, и в рамках данной главы они рассматриваться не будут. Очевидно, что подстройка синапсов может проводиться только на основании информации, доступной в нейроне, то есть его состояния и уже имеющихся весовых коэффициентов. Исходя из этого соображения и, что более важно, по аналогии с известными принципами самоорганизации нервных клеток, построены алгоритмы обучения Хебба.

Сигнальный метод обучения Хебба заключается в изменении весов по следующему правилу: (1). Где – выходное значение нейрона i слоя (n-1), – выходное значение нейрона j слоя n; – весовой коэффициент синапса, соединяющего эти нейроны, на итерациях t и t-1 соответственно; – коэффициент скорости обучения.
Слайд 2

Сигнальный метод обучения Хебба заключается в изменении весов по следующему правилу:

(1)

Где – выходное значение нейрона i слоя (n-1), – выходное значение нейрона j слоя n; – весовой коэффициент синапса, соединяющего эти нейроны, на итерациях t и t-1 соответственно; – коэффициент скорости обучения. Здесь и далее, для общности, под n подразумевается произвольный слой сети. При обучении по данному методу усиливаются связи между возбужденными нейронами.

Существует также и дифференциальный метод обучения Хебба. (2). Здесь и - выходное значение нейрона i слоя n-1 соответственно на итерациях t и t-1; и - то же самое для нейрона j слоя n. Как видно из формулы (2), сильнее всего обучаются синапсы, соединяющие те нейроны, выходы которых наиболее динамичн
Слайд 3

Существует также и дифференциальный метод обучения Хебба.

(2)

Здесь и - выходное значение нейрона i слоя n-1 соответственно на итерациях t и t-1; и - то же самое для нейрона j слоя n. Как видно из формулы (2), сильнее всего обучаются синапсы, соединяющие те нейроны, выходы которых наиболее динамично изменились в сторону увеличения.

Полный алгоритм обучения с применением вышеприведенных формул будет выглядеть так: На стадии инициализации всем весовым коэффициентам присваиваются небольшие случайные значения. На входы сети подается входной образ, и сигналы возбуждения распространяются по всем слоям согласно принципам классических
Слайд 4

Полный алгоритм обучения с применением вышеприведенных формул будет выглядеть так: На стадии инициализации всем весовым коэффициентам присваиваются небольшие случайные значения. На входы сети подается входной образ, и сигналы возбуждения распространяются по всем слоям согласно принципам классических прямопоточных (feed forward) сетей, то есть для каждого нейрона рассчитывается взвешенная сумма его входов, к которой затем применяется активационная функция нейрона, в результате чего получается его выходное значение , где – число нейронов в слое i; n=0...N-1, а N – число слоёв в сети. На основании полученных выходных значений нейронов по формуле (1) или (2) производится изменение весовых коэффициентов. Цикл с шага 2, пока выходные значения сети не застабилизируются с заданной точностью.

Применение этого нового способа определения завершения обучения, отличного от использовавшегося для сети обратного распространения, обусловлено тем, что подстраиваемые значения синапсов фактически не ограничены. На втором шаге цикла попеременно предъявляются все образы из входного набора.
Слайд 5

Применение этого нового способа определения завершения обучения, отличного от использовавшегося для сети обратного распространения, обусловлено тем, что подстраиваемые значения синапсов фактически не ограничены. На втором шаге цикла попеременно предъявляются все образы из входного набора.

Следует отметить, что вид откликов на каждый класс входных образов не известен заранее и будет представлять собой произвольное сочетание состояний нейронов выходного слоя, обусловленное случайным распределением весов на стадии инициализации. Вместе с тем, сеть способна обобщать схожие образы, относя
Слайд 6

Следует отметить, что вид откликов на каждый класс входных образов не известен заранее и будет представлять собой произвольное сочетание состояний нейронов выходного слоя, обусловленное случайным распределением весов на стадии инициализации. Вместе с тем, сеть способна обобщать схожие образы, относя их к одному классу. Тестирование обученной сети позволяет определить топологию классов в выходном слое. Для приведения откликов обученной сети к удобному представлению можно дополнить сеть одним слоем, который, например, по алгоритму обучения однослойного перцептрона необходимо заставить отображать выходные реакции сети в требуемые образы.

Другой алгоритм обучения без учителя – алгоритм Кохонена – предусматривает подстройку синапсов на основании их значений от предыдущей итерации. (3). Из вышеприведенной формулы видно, что обучение сводится к минимизации разницы между входными сигналами нейрона, поступающими с выходов нейронов предыду
Слайд 7

Другой алгоритм обучения без учителя – алгоритм Кохонена – предусматривает подстройку синапсов на основании их значений от предыдущей итерации.

(3)

Из вышеприведенной формулы видно, что обучение сводится к минимизации разницы между входными сигналами нейрона, поступающими с выходов нейронов предыдущего слоя , и весовыми коэффициентами его синапсов.

Полный алгоритм обучения имеет примерно такую же структуру, как в методах Хебба, но на шаге 3 из всего слоя выбирается нейрон, значения синапсов которого максимально походят на входной образ, и подстройка весов по формуле (3) проводится только для него. Эта, так называемая, аккредитация может сопров
Слайд 8

Полный алгоритм обучения имеет примерно такую же структуру, как в методах Хебба, но на шаге 3 из всего слоя выбирается нейрон, значения синапсов которого максимально походят на входной образ, и подстройка весов по формуле (3) проводится только для него. Эта, так называемая, аккредитация может сопровождаться затормаживанием всех остальных нейронов слоя и введением выбранного нейрона в насыщение. Выбор такого нейрона может осуществляться, например, расчетом скалярного произведения вектора весовых коэффициентов с вектором входных значений. Максимальное произведение дает “выигравший” нейрон.

Другой вариант – расчет расстояния между этими векторами в p-мерном пространстве, где p – размер векторов. (4). где j – индекс нейрона в слое n, i – индекс суммирования по нейронам слоя (n-1), – вес синапса, соединяющего нейроны; выходы нейронов слоя (n-1) являются входными значениями для слоя n. Ко
Слайд 9

Другой вариант – расчет расстояния между этими векторами в p-мерном пространстве, где p – размер векторов.

(4)

где j – индекс нейрона в слое n, i – индекс суммирования по нейронам слоя (n-1), – вес синапса, соединяющего нейроны; выходы нейронов слоя (n-1) являются входными значениями для слоя n. Корень в формуле (4) брать не обязательно, так как важна лишь относительная оценка различных . В данном случае, "побеждает" нейрон с наименьшим расстоянием. Иногда слишком часто получающие аккредитацию нейроны принудительно исключаются из рассмотрения, чтобы "уравнять права" всех нейронов слоя. Простейший вариант такого алгоритма заключается в торможении только что выигравшего нейрона.

При использовании обучения по алгоритму Кохонена существует практика нормализации входных образов, а так же – на стадии инициализации – и нормализации начальных значений весовых коэффициентов. (5). где – i-ая компонента вектора входного образа или вектора весовых коэффициентов, а n – его размерность
Слайд 10

При использовании обучения по алгоритму Кохонена существует практика нормализации входных образов, а так же – на стадии инициализации – и нормализации начальных значений весовых коэффициентов.

(5)

где – i-ая компонента вектора входного образа или вектора весовых коэффициентов, а n – его размерность. Это позволяет сократить длительность процесса обучения.

Инициализация весовых коэффициентов случайными значениями может привести к тому, что различные классы, которым соответствуют плотно распределенные входные образы, сольются или, наоборот, раздробятся на дополнительные подклассы в случае близких образов одного и того же класса. Для избегания такой сит
Слайд 11

Инициализация весовых коэффициентов случайными значениями может привести к тому, что различные классы, которым соответствуют плотно распределенные входные образы, сольются или, наоборот, раздробятся на дополнительные подклассы в случае близких образов одного и того же класса. Для избегания такой ситуации используется метод выпуклой комбинации [Лигун А. А., Малышева А. Д. Математическая обработка результатов эксперимента. // Днепродзержинск: ДИИ, 1992—47с ].

Суть его сводится к тому, что входные нормализованные образы подвергаются преобразованию: (6). где – i-ая компонента входного образа, n – общее число его компонент, (t) – коэффициент, изменяющийся в процессе обучения от 0 до 1, в результате чего вначале на входы сети подаются практически одинаковые
Слайд 12

Суть его сводится к тому, что входные нормализованные образы подвергаются преобразованию:

(6)

где – i-ая компонента входного образа, n – общее число его компонент, (t) – коэффициент, изменяющийся в процессе обучения от 0 до 1, в результате чего вначале на входы сети подаются практически одинаковые образы, а с течением времени они все больше сходятся к исходным. Весовые коэффициенты устанавливаются на шаге инициализации равными величине:

(7)

где n – размерность вектора весов для нейронов инициализируемого слоя

На основе рассмотренного выше метода строятся нейронные сети особого типа – так называемые самоорганизующиеся структуры – self-organizing feature maps. Для них после выбора из слоя n нейрона j с минимальным расстоянием (4) обучается по формуле (3) не только этот нейрон, но и его соседи, расположенны
Слайд 13

На основе рассмотренного выше метода строятся нейронные сети особого типа – так называемые самоорганизующиеся структуры – self-organizing feature maps. Для них после выбора из слоя n нейрона j с минимальным расстоянием (4) обучается по формуле (3) не только этот нейрон, но и его соседи, расположенные в окрестности R. Величина R на первых итерациях очень большая, так что обучаются все нейроны, но с течением времени она уменьшается до нуля. Таким образом, чем ближе конец обучения, тем точнее определяется группа нейронов, отвечающих каждому классу образов.

Были рассмотрены: Сигнальный метод Хебба Дифференциальный метод Хебба Алгоритм Кохонена подстройки весов синапсов от предыдущей итерации Нормализация входных образов, дальнейшая подстройка весов.

Список похожих презентаций

Нейронные сети Хопфилда и Хэмминга

Нейронные сети Хопфилда и Хэмминга

Структурная схема сети Хопфилда приведена на Рис. 1. Она состоит из единственного слоя нейронов, число которых является одновременно числом входов ...
Поиск информации в сети Интернет

Поиск информации в сети Интернет

Поисковые системы. Для поиска информации в сети Интернет существуют поисковые системы, которые содержат информацию о ресурсах Интернета. Каждая поисковая ...
Особенности использования каталога образовательных ресурсов сети Интернет

Особенности использования каталога образовательных ресурсов сети Интернет

Первоначальное знакомство педагогов и обучаемых с сетью Интернет Увеличение числа школ, имеющих доступ к сети Интернет Начало работы учителя с ресурсами ...
Образовательные ресурсы сети Интернет по информатике и информационным технологиям для школьников

Образовательные ресурсы сети Интернет по информатике и информационным технологиям для школьников

Российские порталы, посвященные олимпиадному программированию:. http://neerc.ifmo.ru/school/io - Олимпиады по информатике. (Санкт-Петербург). Вы можете ...
Локальные сети

Локальные сети

Ethernet-сети. Проводные сети часто называют Ethernet-сетями – по названию технологии Ethernet, которая лежит в основе большинства таких сетей. Существуют ...
Топология сети

Топология сети

Обычно используют базы топологий:. 1.Общая шина. 2.Звезда. 3.Дерево. 4.Кольцо. 5.Ячеистая топология. Общая шина. Все компьютеры подсоединяются к общему ...
Советы по безопасности в сети интернет

Советы по безопасности в сети интернет

Введение. Если вы много времени проводите в Сети, то полноценная защита просто необходима. Я предлагаю вашему вниманию десять советов о том, как сделать ...
Работа в сети Интернет. Электронная почта

Работа в сети Интернет. Электронная почта

вопросы. Что такое Интернет? Что такое web-страница, гиперссылка? Интерфейс домашней страницы. Какие поисковые системы вы знаете? МОЛОДЦЫ. Иван Шишкин ...
Безопасность в сети Интернет

Безопасность в сети Интернет

Интернет. Интернет – это объединенные между собой компьютерные сети, глобальная мировая система передачи информации с помощью информационно-вычислительных ...
Безопасность в сети Интернет

Безопасность в сети Интернет

Безопасность учителей и родителей в сети Интернете. Защитите свой компьютер Регулярно обновляйте операционную систему. Используйте антивирусную программу. ...
Безопасная работа в сети Internet

Безопасная работа в сети Internet

Безопасная работа в сети. Цели и задачи проекта. Его цель – способствовать безопасному и более ответственному использованию онлайн-технологий, особенно ...
Адресация компьютеров в сети

Адресация компьютеров в сети

При подключении компьютера к сети в параметрах настройки протокола TCP/IP должны быть указаны IP-адрес компьютера и маска сети. IP-адрес уникально ...
Адресация и передача информации в сети Интернет

Адресация и передача информации в сети Интернет

Роль протоколов при обмене информацией:. Протоколы – это единые правила передачи данных в сети. Файл Блок 1 Блок 2 … Блок n Начало Конец. В сети Интернет ...
Адресация в сети интернет

Адресация в сети интернет

Проверка домашнего задания:. 1. Что такое компьютерная сеть? 2. Как называлась первая экспериментальная компьютерная сеть, и какова цель ее создания? ...
Правила безопасности в сети Интернет

Правила безопасности в сети Интернет

Интернет используется множеством пользователей с целью электронной связи и обмена информацией. Все сервисы, предоставленные глобальной сетью, могут ...
Проблемы безопасности детей и подростков в сети Интернет

Проблемы безопасности детей и подростков в сети Интернет

Тема: «Чем опасен Интернет?», Интернет это добро или зло?». Интернет может быть и всемирной энциклопедией, объединяющей информационные ресурсы во ...
Безопасность в сети Интернет

Безопасность в сети Интернет

Безопасность в интернете – очень важная проблема нынешнего времени. И касается она всех, от детей до пенсионеров. Она становится все актуальнее в ...
Самоорганизация в сети Веб

Самоорганизация в сети Веб

Регулярность в распределении гиперссылок. Исследования показали, что гиперссылки в сети Веб не подчиняются модели независимой случайной генерации. ...
Безопасность в сети Интернет

Безопасность в сети Интернет

Типы вредоносных программ и сетей. Вирус. Вирус — разновидность компьютерных программ, отличительной особенностью которых является способность к саморепликации. ...
Социальные сети

Социальные сети

История термина «социальная сеть». Появился в работе Джеймса Барнса «Классы и собрания в норвежском островном приходе» в 1954 году. Метафора “социальной ...

Конспекты

Сказка о золотых правилах безопасности в сети Интернет

Сказка о золотых правилах безопасности в сети Интернет

Тема: «Сказка о золотых правилах безопасности в сети Интернет. ». Цель. . Воспитание грамотного и ответственного пользователя сети Интернет. . ...
Поиск информации в сети Интернет. Сетевое взаимодействие

Поиск информации в сети Интернет. Сетевое взаимодействие

Открытый урок по информатике в 8 классе. 31.01.2014 г. Тема: «Поиск информации в сети Интернет. Сетевое взаимодействие». Учитель: Конякина Т.В. ...
Работа в локальной сети

Работа в локальной сети

Урок информатики в 9 классе. Тема: Работа в локальной сети. Организационный момент. . (5 мин). . Добрый день! А сегодня он действительно ...
Одиночество в сети

Одиночество в сети

Конспект классного часа «Одиночество в сети». Цель:. Выявление причин одиночества ребёнка в интернет-сети. Задачи:. Сравнить реальную и виртуальную ...
Поиск информации в сети Интернет

Поиск информации в сети Интернет

Автор: Пастлер Елена Эдуардовна. Место работы: МОУ «Школа №71» г. Прокопьевска Кемеровской области. Должность: учитель информатики. Урок информатики ...
Адресация в сети Интернет

Адресация в сети Интернет

Тема: «. Адресация в сети Интернет». Урок информатики и ИКТ в 10 классе. Учитель информатики: Плинк Е.Н. ГБОУ СОШ №575. Цели урока:. Образовательная:. ...
Локальные компьютерные сети

Локальные компьютерные сети

Конспект урока «Локальные компьютерные сети». Тема: Локальные компьютерные сети. Задачи:. . учебная. : сформировать знания о назначение, ...
Безопасность в сети Интернет

Безопасность в сети Интернет

Тема урока: «Безопасность в сети Интернет». Класс:. 11 класс. Цель урока. : изучить опасные угрозы сети Интернет и методы борьбы с ними;. ...
Безопасность в сети Интернет

Безопасность в сети Интернет

Безопасность в сети Интернет. . Цель урока:. . обеспечение информационной безопасности. Несовершеннолетних обучающихся и воспитанников путем привития ...
безопасность в сети

безопасность в сети

МБОУ "Кантемировский лицей". Урок безопасности в сети Интернет, проведённый в 1-а классе. Учитель: Савченкова С.В. 2014-2015 ...

Советы как сделать хороший доклад презентации или проекта

  1. Постарайтесь вовлечь аудиторию в рассказ, настройте взаимодействие с аудиторией с помощью наводящих вопросов, игровой части, не бойтесь пошутить и искренне улыбнуться (где это уместно).
  2. Старайтесь объяснять слайд своими словами, добавлять дополнительные интересные факты, не нужно просто читать информацию со слайдов, ее аудитория может прочитать и сама.
  3. Не нужно перегружать слайды Вашего проекта текстовыми блоками, больше иллюстраций и минимум текста позволят лучше донести информацию и привлечь внимание. На слайде должна быть только ключевая информация, остальное лучше рассказать слушателям устно.
  4. Текст должен быть хорошо читаемым, иначе аудитория не сможет увидеть подаваемую информацию, будет сильно отвлекаться от рассказа, пытаясь хоть что-то разобрать, или вовсе утратит весь интерес. Для этого нужно правильно подобрать шрифт, учитывая, где и как будет происходить трансляция презентации, а также правильно подобрать сочетание фона и текста.
  5. Важно провести репетицию Вашего доклада, продумать, как Вы поздороваетесь с аудиторией, что скажете первым, как закончите презентацию. Все приходит с опытом.
  6. Правильно подберите наряд, т.к. одежда докладчика также играет большую роль в восприятии его выступления.
  7. Старайтесь говорить уверенно, плавно и связно.
  8. Старайтесь получить удовольствие от выступления, тогда Вы сможете быть более непринужденным и будете меньше волноваться.

Информация о презентации

Ваша оценка: Оцените презентацию по шкале от 1 до 5 баллов
Дата добавления:23 октября 2018
Категория:Информатика
Содержит:13 слайд(ов)
Поделись с друзьями:
Скачать презентацию
Смотреть советы по подготовке презентации