diff --git a/Contents/part_ps/src/sd_ann.tex b/Contents/part_ps/src/sd_ann.tex index 2aba51ed..40890d2d 100644 --- a/Contents/part_ps/src/sd_ann.tex +++ b/Contents/part_ps/src/sd_ann.tex @@ -442,8 +442,8 @@ \scnitem{сигмоидная функция} \begin{scnindent} \scntext{формула}{ - \begin{equation*} - y \eq \frac{1}{1+e\upperscore{\scnleftcurlbrace -cS\scnrightcurlbrace}} + \begin{equation*}линейная функция + y \eq \frac{1}{1+e\upperscore{\scnleftcurlbrace -cS\scnrightcurlbrace}} \end{equation*} где \textit{с} > 0 --- коэффициент, характеризующий ширину сигмоидной функции по оси абсцисс, \textit{S} --- в.с.} \end{scnindent} @@ -451,7 +451,7 @@ \begin{scnindent} \scntext{формула}{ \begin{equation*} - y \eq \frac{e\upperscore{\scnleftcurlbrace cS\scnrightcurlbrace}-e\upperscore{\scnleftcurlbrace -cS\scnrightcurlbrace}}{e\upperscore{\scnleftcurlbrace cs\scnrightcurlbrace}+e\upperscore{\scnleftcurlbrace -cS\scnrightcurlbrace}} + y \eq \frac{e\upperscore{\scnleftcurlbrace cS\scnrightcurlbrace}-e\upperscore{\scnleftcurlbrace -cS\scnrightcurlbrace}}{e\upperscore{\scnleftcurlbrace cs\scnrightcurlbrace}+e\upperscore{\scnleftcurlbrace -cS\scnrightcurlbrace}} \end{equation*} где \textit{с} > 0 --- коэффициент, характеризующий ширину сигмоидной функции по оси абсцисс, \textit{S} --- в.с.} \end{scnindent} @@ -459,9 +459,9 @@ \begin{scnindent} \scntext{формула}{ \begin{equation*} - y_j \eq softmax(S_j) \eq \frac{e\upperscore{\scnleftcurlbrace S\underscore{j}\scnrightcurlbrace}}{\sum\upperscore{j} e\upperscore{\scnleftcurlbrace S\underscore{j}\scnrightcurlbrace}} + y\underscore{j} \eq softmax(S_j) \eq \frac{e\upperscore{\scnleftcurlbrace S\underscore{j}\scnrightcurlbrace}}{\sum\upperscore{j} e\upperscore{\scnleftcurlbrace S\underscore{j}\scnrightcurlbrace}} \end{equation*} - где $S_j$ --- в.с. \textit{j}-го выходного нейрона.} + где $S\underscore{j}$ --- в.с. \textit{j}-го выходного нейрона.} \end{scnindent} \scnitem{функция ReLU} \begin{scnindent} @@ -495,7 +495,7 @@ \scnrelfrom{второй домен}{число} \scnrelfrom{формула}{ \begin{equation*} - % S \eq \sum\underscore{i \eq 1}\upperscore{\scnleftcurlbrace n\scnrightcurlbrace} w\underscore{i} x\underscore{i} - T + S \eq \sum\underscore{i \eq 1}\upperscore{\scnleftcurlbrace n\scnrightcurlbrace} w\underscore{i} x\underscore{i} - T \end{equation*} где \textit{n} --- размерность вектора входных значений, $w\underscore{i}$ --- \textit{i}-тый элемент вектора весовых коэффициентов, $x\underscore{i}$ --- \textit{i}-тый элемент вектора входных значений, \textit{T} --- пороговое значение.} @@ -746,10 +746,10 @@ \scntext{алгоритм}{\\ \begin{minipage}{\linewidth} \begin{algorithm}[H] - \KwData{$X$ --- данные, $Et$ --- желаемый отклик (метки), $E_m$ --- желаемая ошибка (в соответствии с выбранной функцией потерь)} + \KwData{$X$ --- данные, $Et$ --- желаемый отклик (метки), $E\underscore{m}$ --- желаемая ошибка (в соответствии с выбранной функцией потерь)} \KwResult{обученная нейронная сеть \textit{Net}} инициализация весов \textit{W} и порогов \textit{T};\\ - \Repeat{$E