From 3aa558e76d819a5771e02f2b1574937df3d2a304 Mon Sep 17 00:00:00 2001 From: Anna Makarenko Date: Wed, 24 Jul 2024 22:50:17 +0300 Subject: [PATCH] fix --- Contents/part_kb/src/intro_lang.tex | 2 +- .../intro_sc_code_segments/segment_8.tex | 10 +++--- Contents/part_kb/src/intro_lang/intro_scg.tex | 2 +- Contents/part_kb/src/sd_numbers.tex | 2 +- .../part_platform/src/sd_program_interp.tex | 2 +- Contents/part_ps/src/sd_ann.tex | 34 +++++++++---------- 6 files changed, 26 insertions(+), 26 deletions(-) diff --git a/Contents/part_kb/src/intro_lang.tex b/Contents/part_kb/src/intro_lang.tex index a1b123c0..3b52b003 100644 --- a/Contents/part_kb/src/intro_lang.tex +++ b/Contents/part_kb/src/intro_lang.tex @@ -231,7 +231,7 @@ \end{scnsubdividing} \scntext{примечание}{Отсутствие знака, обозначающего некоторую сущность, не означает отсутствие самой этой сущности. Это означает только то, что мы даже не догадываемся о её существовании и, следовательно, не приступили к её исследованию.} - \newpage\scnheader{отношение, заданное на множестве знаков\scnsupergroupsign} + \scnheader{отношение, заданное на множестве знаков\scnsupergroupsign} \scntext{примечание}{Поскольку все знаки являются дискретными информационными конструкциями, множество знаков является областью задания всех отношений, заданных на множестве дискретных информационных конструкций. Тем не менее есть как минимум одно отношение, специфичное для множества знаков.} \scnhaselement{синонимия знаков*} \begin{scnindent} diff --git a/Contents/part_kb/src/intro_lang/intro_sc_code_segments/segment_8.tex b/Contents/part_kb/src/intro_lang/intro_sc_code_segments/segment_8.tex index 9c5bb448..5d74cf17 100644 --- a/Contents/part_kb/src/intro_lang/intro_sc_code_segments/segment_8.tex +++ b/Contents/part_kb/src/intro_lang/intro_sc_code_segments/segment_8.tex @@ -388,7 +388,7 @@ \scnfileitem{В современных работах в технических науках, возможно, наиболее близкими понятиями являются понятия, выражающие смысл термина \scnqqi{семантическое пространство} (интериорный подход). Общим во многих подходах к работе с \scnqqi{семантическим пространством} является рассмотрение словоформ или лексем (множеств словоформ) и их признаков. В литературе встречаются следующие подходы: \begin{scnitemize} - \item подход на основе семантических осей и пространства признаков (бинарных $\scnleftcurlbrace 0,1\scnrightcurlbrace \uppercase{n}$, монополярных $\scnleftsquarebrace 0;1\scnrightsquarebrace\uppercase{n}$, биполярных $\scnleftsquarebrace -1;1\scnrightsquarebrace\uppercase{n}$); + \item подход на основе семантических осей и пространства признаков (бинарных $\scnleftcurlbrace 0,1\scnrightcurlbrace \upperscore{n}$, монополярных $\scnleftsquarebrace 0;1\scnrightsquarebrace\upperscore{n}$, биполярных $\scnleftsquarebrace -1;1\scnrightsquarebrace\upperscore{n}$); \item подход на основе семантических осей и нейронного кодирования места в поле смыслов (слова и словосочетания имеют области (подмножества) значений, связываясь другими частями речи как включением и пересечением, тексты соответствуют пути связанных областей, бинарное кодирование групп нейронов, распознающих смыслы); \item подход на основе модели \scnqqi{смысл-текст} (отражение неполноты семантических шкал и анализ синтагм и поверхностно-синтаксической структуры); \item нейролингвистические данные отражает процессы синтеза и восприятия речи в нейронных сетях (сеть лексического синтеза), близка к модели \scnqqi{смысл-текст}; @@ -409,12 +409,12 @@ \begin{scnindent} \scnrelfrom{смотрите}{\scncite{Manin2016}} \end{scnindent} - \scnfileitem{На основе статистики строится матрица размерности $ M \times N $ частот $ p\lowercase{ij} $ появления лексемы (слова) $ w\lowercase{i} $ в документе (контексте, подтексты, которые могут перекрываться) $ c\lowercase{j} $ . - \\ $$ x\lowercase{ij} \eq \max{\scnleftcurlbrace 0\scnrightcurlbrace \cup \scnleftcurlbrace \log (\frac{p\uppercase{ij}}{(\Sigma \uppercase{j} p\uppercase{ij}) * ( \Sigma \uppercase{i} p\uppercase{ij}) }) \scnrightcurlbrace} $$ } + \scnfileitem{На основе статистики строится матрица размерности $ M \times N $ частот $ p\underscore{ij} $ появления лексемы (слова) $ w\underscore{i} $ в документе (контексте, подтексты, которые могут перекрываться) $ c\underscore{j} $ . + \\ $$ x\underscore{ij} \eq \max{\scnleftcurlbrace 0\scnrightcurlbrace \cup \scnleftcurlbrace \log (\frac{p\upperscore{ij}}{(\Sigma \upperscore{j} p\upperscore{ij}) * ( \Sigma \upperscore{i} p\upperscore{ij}) }) \scnrightcurlbrace} $$ } \scnfileitem{В знаменателе --- оценки вероятности слова и контекста соответственно. \\В случае невырожденной матрицы $r \eq N$ каждая такая матрица задает точку в грассманиане $N$-мерных подпространств $M$-мерного пространства ($ N \leq M $). \\В случае невырожденной матрицы $r \eq M$ каждая такая матрица задает точку в грассманиане $M$-мерных подпространств $N$-мерного пространства ($ M \leq N $). } - \scnfileitem{Каждый текст --- точка в грассманиане, соответствующем проективному пространству $P\uppercase{M-1} \eq Gr(\langle 1,M \rangle )$, относительно одного выделенного контекста. Для всех контекстов получая ориентированную $N$-ку, в соответствии с порядком контекстов в текстах, можно построить маршрут (путь), соединяя геодезическими соседние точки в $N$-ке. Для двух текстов $T$ и $T'$ это будут две ломанные, между которыми можно вычислить метрику Фреше, используя метрику Фубини-Штуди в $P\uppercase{M-1}$, для этого следует параметризовать пути $\Gamma( T )$ и $\Gamma( T' )$ через $t$ ($\gamma\in\Gamma( T )\uppercase{\scnleftsquarebrace 0;1\scnrightsquarebrace }$, $\gamma '\in\Gamma( T')\uppercase{\scnleftsquarebrace 0;1\scnrightsquarebrace }$): $$ \delta( \langle \Gamma ( T ),\Gamma ( T')\rangle ) \eq\inf\uppercase{\gamma,\gamma'}\max{t\in\scnleftsquarebrace 0;1\scnrightsquarebrace }( \scnleftcurlbrace d\uppercase{FS}( \langle \gamma( t) ,\gamma'( t) \rangle ) \scnrightcurlbrace ). $$} + \scnfileitem{Каждый текст --- точка в грассманиане, соответствующем проективному пространству $P\upperscore{M-1} \eq Gr(\langle 1,M \rangle )$, относительно одного выделенного контекста. Для всех контекстов получая ориентированную $N$-ку, в соответствии с порядком контекстов в текстах, можно построить маршрут (путь), соединяя геодезическими соседние точки в $N$-ке. Для двух текстов $T$ и $T'$ это будут две ломанные, между которыми можно вычислить метрику Фреше, используя метрику Фубини-Штуди в $P\upperscore{M-1}$, для этого следует параметризовать пути $\Gamma( T )$ и $\Gamma( T' )$ через $t$ ($\gamma\in\Gamma( T )\upperscore{\scnleftsquarebrace 0;1\scnrightsquarebrace }$, $\gamma '\in\Gamma( T')\upperscore{\scnleftsquarebrace 0;1\scnrightsquarebrace }$): $$ \delta( \langle \Gamma ( T ),\Gamma ( T')\rangle ) \eq\inf\upperscore{\gamma,\gamma'}\max{t\in\scnleftsquarebrace 0;1\scnrightsquarebrace }( \scnleftcurlbrace d\upperscore{FS}( \langle \gamma( t) ,\gamma'( t) \rangle ) \scnrightcurlbrace ). $$} \begin{scnindent} \begin{scnrelfromset}{смотрите} \scnitem{\scncite{Alt1995}} @@ -422,7 +422,7 @@ \scnitem{\scncite{Harris1992}} \end{scnrelfromset} \end{scnindent} - \scnfileitem{Другой способ задать линейный порядок --- это рассмотреть фильтрацию в $\mathbb{R}\uppercase{M}$, заданную расширяющимися контекстами. В итоге для текста получаем точки (флаги) во флаговом многообразии. Для флаговых многообразий тоже можно вычислить метрику Фубини-Штуди.} + \scnfileitem{Другой способ задать линейный порядок --- это рассмотреть фильтрацию в $\mathbb{R}\upperscore{M}$, заданную расширяющимися контекстами. В итоге для текста получаем точки (флаги) во флаговом многообразии. Для флаговых многообразий тоже можно вычислить метрику Фубини-Штуди.} \begin{scnindent} \begin{scnrelfromset}{смотрите} \scnitem{\scncite{Kostrikin1997}} diff --git a/Contents/part_kb/src/intro_lang/intro_scg.tex b/Contents/part_kb/src/intro_lang/intro_scg.tex index d069e163..d50d3a60 100644 --- a/Contents/part_kb/src/intro_lang/intro_scg.tex +++ b/Contents/part_kb/src/intro_lang/intro_scg.tex @@ -485,7 +485,7 @@ \scntext{пояснение}{\textit{Четвёртое направление расширения Ядра SCg-кода} --- это расширение его алфавита путем введения дополнительных элементов, обозначающих \textit{переменные постоянные сущности} различного вида. Признаком sc.g-элементов, обозначающих сущности указанного класса, являются квадратики для изображения обозначений \textit{переменных постоянных сущностей}, не являющихся бинарными связями, а также пунктирные и штрих-пунктирные линии для изображения \textit{переменных постоянных бинарных связей}.} \scntext{пояснение}{Подчеркнем, что \textit{переменные постоянные сущности} могут отличаться друг от друга по характеру их \textit{области значений*}. Этими значениями в общем случае могут быть как \textit{константные постоянные сущности}, так и \textit{переменные постоянные сущности}. В любом случае, значение \textit{переменной сущности} является либо \textit{константной сущностью}, либо \textit{переменной сущностью}. Если каждое значение переменной является константой, то такую переменную будем называть \textit{переменной первого уровня}. Если каждое значение переменной является \textit{переменной первого уровня}, то такую переменную будем называть \textit{переменной второго уровня}.} \scntext{пояснение}{\textit{Переменная постоянная сущность первого уровня} (первичная sc-переменная), не являющаяся бинарной связью --- это переменная, каждым значением которой является \textit{константная постоянная сущность}, не являющаяся бинарной связью. Такая переменная изображается квадратиком, который ориентирован по вертикали и горизонтали. - \\\textit{Переменная постоянная сущность второго уровня} (вторичная sc-переменная), не являющаяся бинарной связью, изображается квадратиком, повернутым на 45$\uppercase{\circ}$. + \\\textit{Переменная постоянная сущность второго уровня} (вторичная sc-переменная), не являющаяся бинарной связью, изображается квадратиком, повернутым на 45$\upperscore{\circ}$. \\Указанная выше семантика таких изображений приписывается \uline{по умолчанию}. Это означает, что, если обозначаемая sc-переменная имеет более сложную структуру области её значений (является sc-переменной третьего и выше уровня или sc-переменной, значения которой имеют различный логический уровень), то эта область должна быть специфицирована явно, при этом такая sc-переменная в SCg-коде изображается так же, как первичная sc-переменная.} \scnheader{Примеры sc.g-текстов, трансформируемых по Четвертому направлению расширения Ядра SCg-кода} \begin{scneqtoset} diff --git a/Contents/part_kb/src/sd_numbers.tex b/Contents/part_kb/src/sd_numbers.tex index 8a5e0180..262d10d1 100644 --- a/Contents/part_kb/src/sd_numbers.tex +++ b/Contents/part_kb/src/sd_numbers.tex @@ -167,7 +167,7 @@ \scniselement{бинарное отношение} \scntext{пояснение}{\textbf{\textit{возведение в степень*}} --- это \textit{арифметическая операция}, в результате которой число, называемое основанием степени, умножается само на себя столько раз, каков показатель степени. \\Первым компонентом связки отношения \textbf{\textit{возведение в степень*}} является ориентированная пара, первым компонентом которой является \textit{число}, которое является основанием степени, вторым --- \textit{число}, которое является показателем степени. - \\Вторым компонентом связки отношения \textbf{\textit{возведение в степень*}} является \textit{число}, которое является результатом возведения в степень.Отдельно отметим, что каждая связка отношения \textbf{\textit{возведение в степень*}} вида a = $b\uppercase{c}$ может также трактоваться и как запись об извлечении корня или взятии логарифма, в связи с чем \textit{арифметические операции} извлечения корня и взятия логарифма отдельно не вводится.} + \\Вторым компонентом связки отношения \textbf{\textit{возведение в степень*}} является \textit{число}, которое является результатом возведения в степень.Отдельно отметим, что каждая связка отношения \textbf{\textit{возведение в степень*}} вида a = $b\upperscore{c}$ может также трактоваться и как запись об извлечении корня или взятии логарифма, в связи с чем \textit{арифметические операции} извлечения корня и взятия логарифма отдельно не вводится.} \scnrelfrom{описание примера}{\scnfileimage[20em]{Contents/part_kb/src/images/sd_numbers/pow.png}} \scnheader{больше*} diff --git a/Contents/part_platform/src/sd_program_interp.tex b/Contents/part_platform/src/sd_program_interp.tex index 56704e59..6423ef4b 100644 --- a/Contents/part_platform/src/sd_program_interp.tex +++ b/Contents/part_platform/src/sd_program_interp.tex @@ -162,7 +162,7 @@ \scntext{пояснение}{В рамках данного \textit{Программного варианта реализации ostis-платформы} \textit{sc-память} моделируется в виде набора \textit{сегментов}, каждый из которых представляет собой фиксированного размера упорядоченную последовательность \textit{элементов sc-памяти}, каждый из которых соответствует конкретному \textit{sc-элементу}.} \scnrelto{семейство подмножеств}{элемент sc-памяти} \begin{scnindent} - \scntext{пояснение}{В настоящее время каждый сегмент состоит из $2\uppercase{16}-165535$ \textit{элементов sc-памяти}. Каждый сегмент состоит из набора структур данных, описывающих конкретные \textit{sc-элементы} (элементов sc-памяти). Независимо от типа описываемого sc-элемента каждый \textit{элемент sc-памяти} имеет фиксированный размер (в текущий момент --- 44 байт), что обеспечивает удобство их хранения. Таким образом, максимальный размер базы знаний в текущей программной модели sc-памяти может достигнуть 223 Гб (без учета содержимого \textit{внутренних файлов ostis-системы}, хранимого в файловой памяти).} + \scntext{пояснение}{В настоящее время каждый сегмент состоит из $2\upperscore{16}-165535$ \textit{элементов sc-памяти}. Каждый сегмент состоит из набора структур данных, описывающих конкретные \textit{sc-элементы} (элементов sc-памяти). Независимо от типа описываемого sc-элемента каждый \textit{элемент sc-памяти} имеет фиксированный размер (в текущий момент --- 44 байт), что обеспечивает удобство их хранения. Таким образом, максимальный размер базы знаний в текущей программной модели sc-памяти может достигнуть 223 Гб (без учета содержимого \textit{внутренних файлов ostis-системы}, хранимого в файловой памяти).} \end{scnindent} \scntext{примечание}{Выделение \textit{сегментов sc-памяти} позволяет, с одной стороны, упростить адресный доступ к \textit{элементам sc-памяти}, с другой стороны --- реализовать возможность выгрузки части \textit{sc-памяти} из \textit{оперативной памяти} на \textit{файловую систему} при необходимости. Во втором случае сегмент \textit{sc-памяти} становится минимальной (атомарной) выгружаемой частью sc-памяти. Механизм выгрузки сегментов реализуется в соответствии с существующими принципами организации виртуальной памяти в современных \textit{операционных системах}.} \scntext{примечание}{По умолчанию все сегменты физически располагаются в оперативной памяти, если объема памяти не хватает, то предусмотрен механизм выгрузки части сегментов на жесткий диск (механизм виртуальной памяти).} diff --git a/Contents/part_ps/src/sd_ann.tex b/Contents/part_ps/src/sd_ann.tex index 2e049de3..2aba51ed 100644 --- a/Contents/part_ps/src/sd_ann.tex +++ b/Contents/part_ps/src/sd_ann.tex @@ -226,14 +226,14 @@ \scnitem{задача классификации} \begin{scnindent} \scnsubset{задача} - \scntext{пояснение}{Задача построения классификатора, т.е. отображения $\tilde c: X \rightarrow C$, где $ X \in \mathbb{R}\uppercase{m}$ --- - признаковое пространство п.в.а., $C \eq \scnleftcurlbrace~C_1, C_2, ...C_k\scnrightcurlbrace$ --- конечное и обычно небольшое множество меток классов.} + \scntext{пояснение}{Задача построения классификатора, т.е. отображения $\tilde c: X \rightarrow C$, где $ X \in \mathbb{R}\upperscore{m}$ --- + признаковое пространство п.в.а., $C \eq \scnleftcurlbrace C_1, C_2, ...C_k \scnrightcurlbrace$ --- конечное и обычно небольшое множество меток классов.} \end{scnindent} \scnitem{задача регрессии} \begin{scnindent} \scnsubset{задача} \scntext{пояснение}{Задача построения оценочной функции по примерам $(x_i, f(x_i))$, где $f(x)$ --- неизвестная функция} - \scntext{пояснение}{\textbf{\textit{оценочная функция}} --- отображение вида $\tilde{f}: X \rightarrow \mathbb{R}$, где $X \in \mathbb{R}\uppercase{m}$ --- признаковое пространство п.в.а.} + \scntext{пояснение}{\textbf{\textit{оценочная функция}} --- отображение вида $\tilde{f}: X \rightarrow \mathbb{R}$, где $X \in \mathbb{R}\upperscore{m}$ --- признаковое пространство п.в.а.} \end{scnindent} \scnitem{задача кластеризации} \begin{scnindent} @@ -276,8 +276,8 @@ \scntext{примечание}{Отдельный формальный нейрон является искусственной нейронной сети с одним нейроном в единственном слое.} \scnsubset{искусственная нейронная сеть} \scntext{пояснение}{\textbf{\textit{формальный нейрон}} --- это основной элемент \textit{искусственной нейронной сети}, применяющий свою \textit{функцию активации} (\scncite{Golovko2017}) к сумме произведений входных сигналов на весовые коэффициенты: - $y \eq F(\sum\textunderscore\scnleftcurlbrace i \eq 1\scnrightcurlbrace\scnsupergroupsign\scnleftcurlbrace n\scnrightcurlbrace w_ix_i - T) \eq F(WX - T)$ - где $X \eq (x\lowercase{1},x\lowercase{2},...,x\lowercase{n})\uppercase{\scnleftcurlbrace T\scnrightcurlbrace}$ --- вектор входного сигнала; $W - (w_1,w_2,...,w_n)$ --- вектор весовых коэффициентов; \textit{T} --- пороговое значение; + $y \eq F(\sum\underscore{\scnleftcurlbrace i \eq 1\scnrightcurlbrace}\upperscore{\scnleftcurlbrace n\scnrightcurlbrace} w_ix_i - T) \eq F(WX - T)$ + где $X \eq (x\underscore{1},x\underscore{2},...,x\underscore{n})\upperscore{\scnleftcurlbrace T\scnrightcurlbrace}$ --- вектор входного сигнала; $W - (w_1,w_2,...,w_n)$ --- вектор весовых коэффициентов; \textit{T} --- пороговое значение; \textit{F} --- функция активации.} \scnrelfrom{изображение}{\scnfileimage[20em]{Contents/part_ps/src/images/sd_ps/sd_ann/neuron.png}} \scntext{примечание}{Формальные нейроны могут иметь полный набор связей с нейронами предшествующего слоя или неполный (разряженный) набор связей.} @@ -443,7 +443,7 @@ \begin{scnindent} \scntext{формула}{ \begin{equation*} - y \eq \frac{1}{1+e\uppercase{\scnleftcurlbrace-cS\scnrightcurlbrace}} + y \eq \frac{1}{1+e\upperscore{\scnleftcurlbrace -cS\scnrightcurlbrace}} \end{equation*} где \textit{с} > 0 --- коэффициент, характеризующий ширину сигмоидной функции по оси абсцисс, \textit{S} --- в.с.} \end{scnindent} @@ -451,7 +451,7 @@ \begin{scnindent} \scntext{формула}{ \begin{equation*} - y \eq \frac{e\uppercase{\scnleftcurlbrace~cS\scnrightcurlbrace}-e\uppercase{\scnleftcurlbrace-cS\scnrightcurlbrace}}{e\uppercase{\scnleftcurlbrace~cs\scnrightcurlbrace}+e\uppercase{\scnleftcurlbrace-cS\scnrightcurlbrace}} + y \eq \frac{e\upperscore{\scnleftcurlbrace cS\scnrightcurlbrace}-e\upperscore{\scnleftcurlbrace -cS\scnrightcurlbrace}}{e\upperscore{\scnleftcurlbrace cs\scnrightcurlbrace}+e\upperscore{\scnleftcurlbrace -cS\scnrightcurlbrace}} \end{equation*} где \textit{с} > 0 --- коэффициент, характеризующий ширину сигмоидной функции по оси абсцисс, \textit{S} --- в.с.} \end{scnindent} @@ -459,7 +459,7 @@ \begin{scnindent} \scntext{формула}{ \begin{equation*} - y_j \eq softmax(S_j) \eq \frac{e\uppercase{\scnleftcurlbrace S_j\scnrightcurlbrace}}{\sum\uppercase{j} e\uppercase{\scnleftcurlbrace S_j\scnrightcurlbrace}} + y_j \eq softmax(S_j) \eq \frac{e\upperscore{\scnleftcurlbrace S\underscore{j}\scnrightcurlbrace}}{\sum\upperscore{j} e\upperscore{\scnleftcurlbrace S\underscore{j}\scnrightcurlbrace}} \end{equation*} где $S_j$ --- в.с. \textit{j}-го выходного нейрона.} \end{scnindent} @@ -473,7 +473,7 @@ kS, S \leq 0 \end{cases} \end{equation*} - где \textit{k} \eq 0 или принимает небольшое значение, например, 0.01 или 0.001.} + где \textit{k} $\eq$ 0 или принимает небольшое значение, например, 0.01 или 0.001.} \end{scnindent} \end{scnsubdividing} \end{scnindent} @@ -495,9 +495,9 @@ \scnrelfrom{второй домен}{число} \scnrelfrom{формула}{ \begin{equation*} - S \eq \sum\uppercase{i \eq 1}\uppercase{\scnleftcurlbrace n\scnrightcurlbrace} w_ix_i - T + % S \eq \sum\underscore{i \eq 1}\upperscore{\scnleftcurlbrace n\scnrightcurlbrace} w\underscore{i} x\underscore{i} - T \end{equation*} - где \textit{n} --- размерность вектора входных значений, $w_i$ --- \textit{i}-тый элемент вектора весовых коэффициентов, $x_i$ --- \textit{i}-тый элемент вектора входных значений, \textit{T} --- пороговое значение.} + где \textit{n} --- размерность вектора входных значений, $w\underscore{i}$ --- \textit{i}-тый элемент вектора весовых коэффициентов, $x\underscore{i}$ --- \textit{i}-тый элемент вектора входных значений, \textit{T} --- пороговое значение.} \scnheader{выходное значение формального нейрона*} \scnidtf{выходное значение нейрона*} @@ -841,9 +841,9 @@ \scnidtf{средняя квадратичная ошибка} \scntext{формула}{ \begin{equation*} - MSE \eq \frac{1}{L} \sum\uppercase{l \eq 1}\uppercase{L} \sum\lowercase{i \eq 1}\uppercase{m} (y\lowercase{i}\uppercase{l} - e\lowercase{i}\uppercase{l})\uppercase{2} + % MSE \eq \frac{1}{L} \sum\upperscore{l \eq 1}\upperscore{L} \sum\underscore{i \eq 1}\upperscore{m} (y\underscore{i}\upperscore{l} - e\underscore{i}\upperscore{l})\upperscore{2} \end{equation*} - где $y\lowercase{i}\uppercase{l}$ --- прогноз модели, $e\lowercase{i}\uppercase{l}$ --- ожидаемый (эталонный) результат, \textit{m} --- размерность выходного вектора, \textit{L} --- объем обучающей выборки.} + где $y\underscore{i}\upperscore{l}$ --- прогноз модели, $e\underscore{i}\upperscore{l}$ --- ожидаемый (эталонный) результат, \textit{m} --- размерность выходного вектора, \textit{L} --- объем обучающей выборки.} \end{scnindent} \scnitem{BCE} \begin{scnindent} @@ -851,9 +851,9 @@ \scnidtf{бинарная кросс-энтропия} \scntext{формула}{ \begin{equation*} - BCE \eq - \sum\uppercase{l \eq 1}\uppercase{L} (e\uppercase{l} \log(y\uppercase{l}) + (1 - e\uppercase{l})\log(1 - y\uppercase{l})) + % BCE \eq - \sum\upperscore{l \eq 1}\upperscore{L} (e\upperscore{l} \log(y\upperscore{l}) + (1 - e\upperscore{l})\log(1 - y\upperscore{l})) \end{equation*} - где $y\uppercase{l}$ --- прогноз модели, $e\uppercase{l}$ --- ожидаемый (эталонный) результат: \textit{0} или \textit{1}, \textit{L} --- объем обучающей выборки.} + где $y\upperscore{l}$ --- прогноз модели, $e\upperscore{l}$ --- ожидаемый (эталонный) результат: \textit{0} или \textit{1}, \textit{L} --- объем обучающей выборки.} \scntext{примечание}{для бинарной кросс-энтропии в выходном слое и.н.с. будет находиться один нейрон} \end{scnindent} \scnitem{MCE} @@ -862,9 +862,9 @@ \scnidtf{мультиклассовая кросс-энтропия} \scntext{формула}{ \begin{equation*} - MCE \eq - \sum\uppercase{l \eq 1}\uppercase{L} \sum\uppercase{i \eq 1}\uppercase{m} e_\scnleftcurlbrace~i\scnrightcurlbrace\uppercase{l} \log(y_\scnleftcurlbrace~i\scnrightcurlbrace\uppercase{l}) + % MCE \eq - \sum\upperscore{l \eq 1}\upperscore{L} \sum\upperscore{i \eq 1}\upperscore{m} e\underscore{\scnleftcurlbrace i\scnrightcurlbrace\upperscore{l}} \log(y\underscore{\scnleftcurlbrace i\scnrightcurlbrace\upperscore{l}}) \end{equation*} - где $y\lowercase{\scnleftcurlbrace i\scnrightcurlbrace\uppercase{l}}$ --- прогноз модели, $e\lowercase{i\uppercase{l}}$ --- ожидаемый (эталонный результат), \textit{m} --- размерность выходного вектора.} + где $y\underscore{\scnleftcurlbrace i\scnrightcurlbrace\upperscore{l}}$ --- прогноз модели, $e\underscore{i\upperscore{l}}$ --- ожидаемый (эталонный результат), \textit{m} --- размерность выходного вектора.} \scntext{примечание}{для мультиклассовой кросс-энтропии количество нейронов в выходном слое и.н.с. совпадает с количеством классов} \end{scnindent} \end{scnrelfromlist}