СПЕЦИАЛИЗИРОВАННЫЕ АЛГОРИТМЫ ОБУЧЕНИЯ И НАСТРОЙКИ РЕКУРРЕНТНОЙ СЕТИ ПРЕОБРАЗОВАТЕЛЯ ЧАСТОТНО-ВРЕМЕННЫХ ПАРАМЕТРОВ СИГНАЛОВ В КОД > Полезные советы
Тысяча полезных мелочей    

СПЕЦИАЛИЗИРОВАННЫЕ АЛГОРИТМЫ ОБУЧЕНИЯ И НАСТРОЙКИ РЕКУРРЕНТНОЙ СЕТИ ПРЕОБРАЗОВАТЕЛЯ ЧАСТОТНО-ВРЕМЕННЫХ ПАРАМЕТРОВ СИГНАЛОВ В КОД

СПЕЦИАЛИЗИРОВАННЫЕ АЛГОРИТМЫ ОБУЧЕНИЯ И НАСТРОЙКИ РЕКУРРЕНТНОЙ СЕТИ ПРЕОБРАЗОВАТЕЛЯ ЧАСТОТНО-ВРЕМЕННЫХ ПАРАМЕТРОВ СИГНАЛОВ В КОД

Локтюхин В.Н. Челебаев С.В. Антоненко А.В. Статья в формате PDF 148 KB

Одним из направлений повышения эффективности преобразователей формы представления информации (ПФИ) аналоговой величины x (заданной в виде частоты f x или временного интервала  ) в цифровой эквивалент  в информационно-измерительных системах является расширение функциональных (интеллектуальных) возможностей ПФИ, в том числе с использованием математического аппарата искусственных нейронных сетей (ИНС) [1].

Предложенная в [1] методика синтеза нейросетевых преобразователей содержит 4 этапа. Наиболее трудоемким из них является настройка нейросетевых ПФИ на решение задачи преобразования. Под настройкой ИНС-преобразователя понимается совокупность специальных процедур, таких как, выбор алгоритма обучения нейросети и обучающих примеров, а также собственно процедуры обучения и тестирования устройства на решение поставленной задачи преобразования [1].

При разработке аппаратно-реализуемых нейросетевых устройств преобразования существует задача разработки специализированных алгоритмов обучения нейронных сетей [1], так как универсальные нейросетевые структуры и алгоритмы их обучения рассчитаны, как правило, на программную реализацию, что не всегда приемлемо в устройствах, функционирующих независимо от вычислительного центра управления системой сбора и обработки информации.

Из работы [2] известна структура нейросетевого преобразователя частотно-временных параметров  x сигналов в цифровой код  на основе последовательного соединения двух компонент: однослойной ИНС и двухслойной рекуррентной сети. Последняя обладает рядом недостатков.

  1. Неопределенность минимального необходимого количества нейронов скрытого слоя сети для выполнения поставленной задачи преобразования.
  2. Структура рассчитана на обучение с помощью алгоритма обратного распространения ошибки, сходимость которого зависит от многих факторов (вид функции активации нейронов, способность алгоритма обойти «локальные минимумы» и др.), что не всегда возможно учесть заранее в аппаратно-реализуемом устройстве.

В связи с этим предлагается модификация второй компоненты структуры нейросетевого преобразователя частотно-временных параметров x сигналов в цифровой код  на основе двухслойной рекуррентной сети с целью устранения выше перечисленных недостатков.

Первая компонента осуществляет преобразование аналоговой величины x, представленной в виде частоты f x или временного интервала , в число-импульсный код  относительно опopной величины  , представленной в виде временного интервала , частоты f  или периода T 0.

Математически работу нейрона первой компоненты ИНС (см. рис. 2) можно описать следующей формулой [2]:

 

где  - значения суммы на входе порогового элемента нейрона в дискретные моменты времени (такт) , h - номер такта преобразования длительностью T 0. Аналоговая величина x задает значение переменного порога нейрона. Код на выходе первой компоненты представляется в виде последовательности импульсов α 0:

 

Модифицированная вторая компонента может осуществлять преобразование унитарного число-импульсного кода  в двоично-позиционный код  в зависимости от значений весовых коэффициентов и порогов нейронов сети. Входом для импульсов α0 является сдвиговый регистр, состоящий из элементов задержки ЭЗ1, ЭЗ2,.. и т.д. Биты элементов задержки сдвигового регистра совместно с битами элементов задержки обратных связей ЭЗБ1, ЭЗБ2,.. и т.д. являются входами двухслойной рекуррентной сети.

Условно двухслойную сеть можно разбить на группы нейронов, формирующие соответствующие им биты β1 позиционного кода , и группу нейронов формирующих сигнал сброса Clr сдвигового регистра. Каждая из этих групп образует двухслойную рекуррентную подсеть с обратной связью, которая состоит из группы нейронов первого слоя и одного нейрона второго (выходного) слоя. Нейроны имеют пороговую функцию активации:

где  - взвешенная сумма значений входов нейрона x j; M - число входов нейрона; W j,i - весовые коэффициенты нейрона; θ i - порог нейрона.

Предлагаемый алгоритм содержит 3 этапа.

  1. Формирование обучающей выборки.
  2. Формирование структуры сети.
  3. Обучение нейронов сформированной сети.

Приведенный специализированный алгоритм обучения и настройки нейросетевых преобразователей позволяет проектировать преобразователи формы информации на основе модифицированной рекуррентной сети на задачу нелинейного преобразования «аналог-код», не прибегая к стандартным обучающим алгоритмам при настройке и (или) перенастройке функционального преобразователя на реализацию новой функции преобразования. Это исключает итеративное приближение весовых коэффициентов к искомым значениям, что существенно сокращает время настройки. Предложенные этапы обучения учитывают структурные особенности слоев рекуррентной сети, что снижает аппаратные затраты на реализацию весовых коэффициентов второго слоя, в отличие от стандартных алгоритмов обучения сетей, рассчитанных в основном на программную реализацию.

СПИСОК ЛИТЕРАТУРЫ

  1. Локтюхин В.Н., Челебаев С.В. Нейросетевые преобразователи импульсно-аналоговой информации: организация, синтез, реализация / Под общей редакцией А.И. Галушкина. - М.: Горячая линия - Телеком, 2008. ‑ 144 с.
  2. Локтюхин В.Н., Челебаев С.В. Применение рекуррентных сетей для синтеза импульсно-цифровых преобразователей // Вестник Рязанского государственного радиотехнического университета, № 19, 2006. С. 94-103.


ФУНКЦИОНАЛЬНЫЕ ПРОДУКТЫ НА ОСНОВЕ МЯСА КРОЛИКА

Статья в формате PDF 268 KB...

27 04 2024 5:45:46

СИНГЕМЕРОБИЯ ПАРЦИАЛЬНЫХ ФЛОР РЕГИОНА КАК ПОКАЗАТЕЛЬ АНТРОПОГЕННОЙ ТРАНСФОРМАЦИИ ФИТОСИСТЕМ (НА ПРИМЕРЕ ЯКУТИИ)

СИНГЕМЕРОБИЯ ПАРЦИАЛЬНЫХ ФЛОР РЕГИОНА КАК ПОКАЗАТЕЛЬ АНТРОПОГЕННОЙ ТРАНСФОРМАЦИИ ФИТОСИСТЕМ (НА ПРИМЕРЕ ЯКУТИИ) В работе приведены результаты анализа степеней сингемеробии парциальных флор Якутии в разрезе флористических районов. Отмечается роль географических факторов в формировании групп районов, объединенных по степени сингемеробии флор крупных геоботанических типов. ...

25 04 2024 3:21:30

КРИПТОСИСТЕМЫ И ВИДЫ АТАК

КРИПТОСИСТЕМЫ И ВИДЫ АТАК Статья в формате PDF 327 KB...

24 04 2024 5:24:31

К ТЕОРИИ ВИНТОВОГО ПРЕОБРАЗОВАТЕЛЯ СИЛ

К ТЕОРИИ ВИНТОВОГО ПРЕОБРАЗОВАТЕЛЯ СИЛ Статья в формате PDF 376 KB...

11 04 2024 16:28:14

ЭКОЛОГИЯ ГОРОДА

ЭКОЛОГИЯ ГОРОДА Статья в формате PDF 84 KB...

06 04 2024 18:40:39

Локация на основе теории всплесов

Локация на основе теории всплесов Статья в формате PDF 122 KB...

01 04 2024 1:25:21

СТУПЕНЧАТЫЕ ПРЕДСТАВЛЕНИЯ НА ГРАФАХ

СТУПЕНЧАТЫЕ ПРЕДСТАВЛЕНИЯ НА ГРАФАХ Статья в формате PDF 127 KB...

31 03 2024 4:16:43

ФОРМИРОВАНИЕ СОВРЕМЕННОЙ ИНТЕЛЛИГЕНЦИИ В УСЛОВИЯХ СТАНОВЛЕНИЯ ИНТЕЛЛЕКТУАЛЬНОЙ СОБСТВЕННОСТИ

ФОРМИРОВАНИЕ СОВРЕМЕННОЙ ИНТЕЛЛИГЕНЦИИ В УСЛОВИЯХ СТАНОВЛЕНИЯ ИНТЕЛЛЕКТУАЛЬНОЙ СОБСТВЕННОСТИ В настоящее время одной из наиболее обсуждаемых является тема воздействия интеллигенции на общественно-экономическую жизнь. Интеллигенция, являясь наиболее образованной группой общества, является монополистом в области на духовного и интеллектуального производства. По мере ускорения научно-технического прогресса данная тенденция усиливается. ...

26 03 2024 3:26:59

Еще:
Поддержать себя -1 :: Поддержать себя -2 :: Поддержать себя -3 :: Поддержать себя -4 :: Поддержать себя -5 :: Поддержать себя -6 :: Поддержать себя -7 :: Поддержать себя -8 :: Поддержать себя -9 :: Поддержать себя -10 :: Поддержать себя -11 :: Поддержать себя -12 :: Поддержать себя -13 :: Поддержать себя -14 :: Поддержать себя -15 :: Поддержать себя -16 :: Поддержать себя -17 :: Поддержать себя -18 :: Поддержать себя -19 :: Поддержать себя -20 :: Поддержать себя -21 :: Поддержать себя -22 :: Поддержать себя -23 :: Поддержать себя -24 :: Поддержать себя -25 :: Поддержать себя -26 :: Поддержать себя -27 :: Поддержать себя -28 :: Поддержать себя -29 :: Поддержать себя -30 :: Поддержать себя -31 :: Поддержать себя -32 :: Поддержать себя -33 :: Поддержать себя -34 :: Поддержать себя -35 :: Поддержать себя -36 :: Поддержать себя -37 :: Поддержать себя -38 ::