Рус Eng Cn Перевести страницу на:  
Please select your language to translate the article


You can just close the window to don't translate
Библиотека
ваш профиль

Вернуться к содержанию

Программные системы и вычислительные методы
Правильная ссылка на статью:

Гиниятуллин В.М., Арсланов И.Г., Богданова П.Д., Габитов Р.Н., Салихова М.А. Способы реализации функций троичной логики

Аннотация: В качестве исходных данных используются таблицы истинности трехмерных функций двоичной, троичной и смешанных логик. Вычисление значений логических функций производится с помощью: геометрических интерпретаций, дизъюнктивных / конъюнктивных нормальных форм (ДНФ / КНФ), неполносвязанных искусственных нейронных сетей (ИНС) и персептронов со скрытым слоем. Подробно рассматриваются промежуточные результаты вычислений всеми приведенными способами. Изучаются свойства функций смешанных логик: двоично – троичной и 3 – 2 логики, в одномерном, двух и трехмерном случаях. Приводятся взаимно эквивалентные реализации логических функций в виде ДНФ и неполносвязанной нейронной сети. Осуществлена замена непрерывной функции активации на троичную пороговую. В исследовании используются методы построения ДНФ, прямой синтез матриц весов ИНС, персептрон обучается с помощью алгоритма Back Propagation, часть выводов формулируется по законам математической индукции. В работе показано, что: 1. минимизация количества нейронов в скрытом слое персептрона, в неявном виде, приводит к использованию многозначных логик; 2. некоторые функции двоично – троичной логики можно использовать для формирования дизъюнктивных форм; 3. существует взаимно однозначный способ преобразования ДНФ в ИНС и обратно; 4. в одномерной 3 – 2 логике имеется всего 8 функций и все они перечислены; 5. предложенная структура ИНС может реализовывать любую функцию троичной логики произвольной мерности.


Ключевые слова:

проблема XOR, персептрон, разделяющая гиперплоскость, функция активации, совершенная дизъюнктивная форма, двоично-троичная логика, 3-2 логика, троичная логика, обучение нейронной сети, алгоритм Back Propagation

Abstract: the study uses initial data in form of truth table of three-dimensional function of binary, ternary and mixed logics. Calculation of values of the functions is done by their geometric interpretations, disjunctive / conjunctive normal forms, incompletely connected artificial neural networks and perceptrons with hidden layer. The article in detail reviews the intermediate computation results for all methods mention above. The authors study properties of functions of mixed logic: binary-ternary and 3-2 logics in one-, two- and three-dimensions. The article presents mutually equivalent implementations of logic functions in the form of disjunctive normal form and in the form of incompletely connected artificial neural network. The authors performed replacement of continuous activation function with ternary threshold function. The study includes building disjunctive normal forms, direct synthesis of incompletely connected artificial neural network weights matrix. The perceptron is trained with Back Propagation algorithm. Some conclusions are formed based on the laws of mathematical induction. The article shows that: 1. minimization of the quantity of neurons in perceptron’s hidden layer implicitly leads to the usage of many-valued logics; 2. some functions of binary-ternary logics may be used to build disjunctive forms; 3. a bijective way to convert disjunctive normal form into the form of incompletely connected artificial neural network and vice versa exists; 4. in one-dimensional 3-2 logic there are only eight functions and all of them are listed; 5. proposed structure of incompletely connected artificial neural network may implement any function of ternary logic in any dimensionality.


Keywords:

XOR problem, perceptron, separating hyperplane, activation function, perfect disjunctive form, binary-ternary logic, 3-2 logic, ternary logic, neural network training, Back Propagation algorithm


Эта статья может быть бесплатно загружена в формате PDF для чтения. Обращаем ваше внимание на необходимость соблюдения авторских прав, указания библиографической ссылки на статью при цитировании.

Скачать статью

Библиография
1. Кодд Э. Ф. Расширение реляционной модели для лучшего отражения семантики. // СУБД, 1996, №2. С. 141-160.
2. Дейт К.Дж. Введение в системы баз данных. Москва. Вильямс. 2000. 848 с.
3. URL: http://dit.ipg.pt./MBP
4. Гиниятуллин В.М. Моделирование логических функций в нейросетевом базисе. // Нефтегазовое дело, 2008 № 1 C. 35-43.
5. URL: http://ru.wikipedia.org/wiki/Троичные_функц
References
1. Kodd E. F. Rasshirenie relyatsionnoy modeli dlya luchshego otrazheniya semantiki. // SUBD, 1996, №2. S. 141-160.
2. Deyt K.Dzh. Vvedenie v sistemy baz dannykh. Moskva. Vil'yams. 2000. 848 s.
3. URL: http://dit.ipg.pt./MBP
4. Giniyatullin V.M. Modelirovanie logicheskikh funktsiy v neyrosetevom bazise. // Neftegazovoe delo, 2008 № 1 C. 35-43.
5. URL: http://ru.wikipedia.org/wiki/Troichnye_funkts