Skip to content

Commit

Permalink
fix
Browse files Browse the repository at this point in the history
  • Loading branch information
MakarenkoAI committed Jul 26, 2024
1 parent 3aa558e commit 0e71714
Showing 1 changed file with 11 additions and 11 deletions.
22 changes: 11 additions & 11 deletions Contents/part_ps/src/sd_ann.tex
Original file line number Diff line number Diff line change
Expand Up @@ -442,26 +442,26 @@
\scnitem{сигмоидная функция}
\begin{scnindent}
\scntext{формула}{
\begin{equation*}
y \eq \frac{1}{1+e\upperscore{\scnleftcurlbrace -cS\scnrightcurlbrace}}
\begin{equation*}линейная функция
y \eq \frac{1}{1+e\upperscore{\scnleftcurlbrace -cS\scnrightcurlbrace}}
\end{equation*}
где \textit{с} > 0 --- коэффициент, характеризующий ширину сигмоидной функции по оси абсцисс, \textit{S} --- в.с.}
\end{scnindent}
\scnitem{функция гиперболического тангенса}
\begin{scnindent}
\scntext{формула}{
\begin{equation*}
y \eq \frac{e\upperscore{\scnleftcurlbrace cS\scnrightcurlbrace}-e\upperscore{\scnleftcurlbrace -cS\scnrightcurlbrace}}{e\upperscore{\scnleftcurlbrace cs\scnrightcurlbrace}+e\upperscore{\scnleftcurlbrace -cS\scnrightcurlbrace}}
y \eq \frac{e\upperscore{\scnleftcurlbrace cS\scnrightcurlbrace}-e\upperscore{\scnleftcurlbrace -cS\scnrightcurlbrace}}{e\upperscore{\scnleftcurlbrace cs\scnrightcurlbrace}+e\upperscore{\scnleftcurlbrace -cS\scnrightcurlbrace}}
\end{equation*}
где \textit{с} > 0 --- коэффициент, характеризующий ширину сигмоидной функции по оси абсцисс, \textit{S} --- в.с.}
\end{scnindent}
\scnitem{функция softmax}
\begin{scnindent}
\scntext{формула}{
\begin{equation*}
y_j \eq softmax(S_j) \eq \frac{e\upperscore{\scnleftcurlbrace S\underscore{j}\scnrightcurlbrace}}{\sum\upperscore{j} e\upperscore{\scnleftcurlbrace S\underscore{j}\scnrightcurlbrace}}
y\underscore{j} \eq softmax(S_j) \eq \frac{e\upperscore{\scnleftcurlbrace S\underscore{j}\scnrightcurlbrace}}{\sum\upperscore{j} e\upperscore{\scnleftcurlbrace S\underscore{j}\scnrightcurlbrace}}
\end{equation*}
где $S_j$ --- в.с. \textit{j}-го выходного нейрона.}
где $S\underscore{j}$ --- в.с. \textit{j}-го выходного нейрона.}
\end{scnindent}
\scnitem{функция ReLU}
\begin{scnindent}
Expand Down Expand Up @@ -495,7 +495,7 @@
\scnrelfrom{второй домен}{число}
\scnrelfrom{формула}{
\begin{equation*}
% S \eq \sum\underscore{i \eq 1}\upperscore{\scnleftcurlbrace n\scnrightcurlbrace} w\underscore{i} x\underscore{i} - T
S \eq \sum\underscore{i \eq 1}\upperscore{\scnleftcurlbrace n\scnrightcurlbrace} w\underscore{i} x\underscore{i} - T
\end{equation*}
где \textit{n} --- размерность вектора входных значений, $w\underscore{i}$ --- \textit{i}-тый элемент вектора весовых коэффициентов, $x\underscore{i}$ --- \textit{i}-тый элемент вектора входных значений, \textit{T} --- пороговое значение.}

Expand Down Expand Up @@ -746,10 +746,10 @@
\scntext{алгоритм}{\\
\begin{minipage}{\linewidth}
\begin{algorithm}[H]
\KwData{$X$ --- данные, $Et$ --- желаемый отклик (метки), $E_m$ --- желаемая ошибка (в соответствии с выбранной функцией потерь)}
\KwData{$X$ --- данные, $Et$ --- желаемый отклик (метки), $E\underscore{m}$ --- желаемая ошибка (в соответствии с выбранной функцией потерь)}
\KwResult{обученная нейронная сеть \textit{Net}}
инициализация весов \textit{W} и порогов \textit{T};\\
\Repeat{$E<E_m$}{
\Repeat{$E<E\underscore{m}$}{
\ForEach{$x \in X$ $\And$ $e \in Et$}{
фаза прямого распространения сигнала: вычисляются активации для всех слоев и.н.с.;\\
фаза обратного распространения ошибки: вычисляются ошибки для последнего слоя и всех предшествующих слоев;\\
Expand Down Expand Up @@ -841,7 +841,7 @@
\scnidtf{средняя квадратичная ошибка}
\scntext{формула}{
\begin{equation*}
% MSE \eq \frac{1}{L} \sum\upperscore{l \eq 1}\upperscore{L} \sum\underscore{i \eq 1}\upperscore{m} (y\underscore{i}\upperscore{l} - e\underscore{i}\upperscore{l})\upperscore{2}
MSE \eq \frac{1}{L} \sum\underscore{l \eq 1}\upperscore{L} \sum\underscore{i \eq 1}\upperscore{m} (y\underscore{i}\upperscore{l} - e\underscore{i}\upperscore{l})\upperscore{2}
\end{equation*}
где $y\underscore{i}\upperscore{l}$ --- прогноз модели, $e\underscore{i}\upperscore{l}$ --- ожидаемый (эталонный) результат, \textit{m} --- размерность выходного вектора, \textit{L} --- объем обучающей выборки.}
\end{scnindent}
Expand All @@ -851,7 +851,7 @@
\scnidtf{бинарная кросс-энтропия}
\scntext{формула}{
\begin{equation*}
% BCE \eq - \sum\upperscore{l \eq 1}\upperscore{L} (e\upperscore{l} \log(y\upperscore{l}) + (1 - e\upperscore{l})\log(1 - y\upperscore{l}))
BCE \eq - \sum\underscore{l \eq 1}\upperscore{L} (e\upperscore{l} \log(y\upperscore{l}) + (1 - e\upperscore{l})\log(1 - y\upperscore{l}))
\end{equation*}
где $y\upperscore{l}$ --- прогноз модели, $e\upperscore{l}$ --- ожидаемый (эталонный) результат: \textit{0} или \textit{1}, \textit{L} --- объем обучающей выборки.}
\scntext{примечание}{для бинарной кросс-энтропии в выходном слое и.н.с. будет находиться один нейрон}
Expand All @@ -862,7 +862,7 @@
\scnidtf{мультиклассовая кросс-энтропия}
\scntext{формула}{
\begin{equation*}
% MCE \eq - \sum\upperscore{l \eq 1}\upperscore{L} \sum\upperscore{i \eq 1}\upperscore{m} e\underscore{\scnleftcurlbrace i\scnrightcurlbrace\upperscore{l}} \log(y\underscore{\scnleftcurlbrace i\scnrightcurlbrace\upperscore{l}})
MCE \eq - \sum\underscore{l \eq 1}\upperscore{L} \sum\underscore{i \eq 1}\upperscore{m} e\underscore{\scnleftcurlbrace i\scnrightcurlbrace\upperscore{l}} \log(y\underscore{\scnleftcurlbrace i\scnrightcurlbrace\upperscore{l}})
\end{equation*}
где $y\underscore{\scnleftcurlbrace i\scnrightcurlbrace\upperscore{l}}$ --- прогноз модели, $e\underscore{i\upperscore{l}}$ --- ожидаемый (эталонный результат), \textit{m} --- размерность выходного вектора.}
\scntext{примечание}{для мультиклассовой кросс-энтропии количество нейронов в выходном слое и.н.с. совпадает с количеством классов}
Expand Down

0 comments on commit 0e71714

Please sign in to comment.