Искусственные нейронные сети

Искусственные нейронные сети: как я могу оценить количество нейронов и слоев?

Любит | Нелюбов | Ответы | Вид | 7238


Йошуа Бенжио руководитель Монреальского института алгоритмов обучения, профессор @ U. Montreal   
@ | Обновлено Right Now


Ну, это зависит от контекста. Если вы говорите о CNN , то ReLU (выпрямленная линейная единица) и Softmax являются наиболее широко используемыми функциями активации для классификаций на основе изображений. Активация ReLU обычно обозначается как max (0, x), которая выводит x для всех неотрицательных значений x. Он используется для введения некоторых нелинейностей в сеть. И Softmax используется для классификации каждого из выходных узлов в функцию распределения вероятности. Это означает, что выходные данные от каждого выходного узла дают выходные данные с точки зрения вероятностей. Таким образом, выходной сигнал каждого из выходных узлов дает значение в диапазоне от 0 до 1, а сумма значений выходных данных из каждого выходного узла равна 1.

Если вы говорите о других нейронных сетях, таких как многоуровневое восприятие, RNN и LSTM, то для скрытых нейронов широко используется активация гиперболического тангенса ( tanh ), а для выходных узлов - активация сигмоидальной . Выходное значение tanh находится в диапазоне от -1 до 1, где выходное значение сигмоида находится в диапазоне от 0 до 1.

РЕЛУ:

у = макс (0, х)

Софтмакс:

Тань:

сигмовидной:

Удачи !!

| |



Онлайн-курс
«Машинное обучение для людей»
Один из самых трендовых курсов в сфере Цифровой экономики.