TechShape.ru

Информационные технологии

Основные разделы

Применение Квантовых Нейронных сетей. Смысл алгоритма обучения с учителем

Класс задач, которые можно решить с помощью КНС, определяется тем, как сеть работает и тем, как она обучается. При работе КНС принимает значения входных переменных и выдает значения выходных переменных. Таким образом, сеть можно применять в ситуации, когда у Вас имеется определенная известная информация, и Вы хотите из нее получить некоторую пока не известную информацию (Patterson, 1996; Fausett, 1994). Вот некоторые примеры таких задач:

· Распознавание образов и классификация

В качестве образов могут выступать различные по своей природе объекты: символы текста, изображения, образцы звуков и т. д. При обучении сети предлагаются различные образцы образов с указанием того, к какому классу они относятся. Образец, как правило, представляется как вектор значений признаков. При этом совокупность всех признаков должна однозначно определять класс, к которому относится образец. В случае если признаков недостаточно, сеть может соотнести один и тот же образец с несколькими классами, что неверно. По окончании обучения сети ей можно предъявлять неизвестные ранее образы и получать ответ о принадлежности к определённому классу.

· Принятие решений и управление

Эта задача близка к задаче классификации. Классификации подлежат ситуации, характеристики которых поступают на вход КНС. На выходе сети при этом должен появиться признак решения, которое она приняла. При этом в качестве входных сигналов используются различные критерии описания состояния управляемой системы.

· Кластеризация

Под кластеризацией понимается разбиение множества входных сигналов на классы, при том, что ни количество, ни признаки классов заранее не известны. После обучения такая сеть способна определять, к какому классу относится входной сигнал.

· Прогнозирование

После обучения сеть способна предсказать будущее значение некой последовательности на основе нескольких предыдущих значений и/или каких-то существующих в настоящий момент факторов. Следует отметить, что прогнозирование возможно только тогда, когда предыдущие изменения действительно в какой-то степени предопределяют будущие.

· Аппроксимация

Доказана обобщённая аппроксимационная теорема: с помощью линейных операций и каскадного соединения можно из произвольного нелинейного элемента получить устройство, вычисляющее любую непрерывную функцию с некоторой наперёд заданной точностью.

· Сжатие данных и Ассоциативная память

Способность нейросетей к выявлению взаимосвязей между различными параметрами дает возможность выразить данные большой размерности более компактно, если данные тесно взаимосвязаны друг с другом. Обратный процесс - восстановление исходного набора данных из части информации - называется авто-ассоциативной памятью. Ассоциативная память позволяет также восстанавливать исходный сигнал/образ из зашумленных/поврежденных входных данных. Решение задачи гетероассоциативной памяти позволяет реализовать память, адресуемую по содержимому.

Этапы решения задач:

сбор данных для обучения;

подготовка и нормализация данных;

выбор топологии сети;

экспериментальный подбор характеристик сети;

собственно обучение;

проверка адекватности обучения;

корректировка параметров, окончательное обучение;

вербализация сети с целью дальнейшего использования.

Итак, перейдем ко второму важному условию применения Квантовых Нейронных сетей: мы должны знать, что между известными входными значениями и неизвестными выходами имеется связь. Эта связь может быть искажена шумом.

Перейти на страницу: 1 2

Еще статьи

Амплитудная, частотная модуляции
Данная курсовая работа предусматривает изучение различных видов модуляции: амплитудной, фазовой, частотной, импульсной. При выполнении этой работы необходимы знания принципов работы составных элементов системы связи: модулятора и демодулятора, АЦП и ЦАП, кодера и декодера. Существуют три основные схем ...

Все права защищены! 2020 - www.techshape.ru