-
- NAKAMARU Tomoki
- 東京大学工学部 計数工学科
-
- AIHARA Kazuyuki
- 東京大学生産技術研究所 情報・エレクトロニクス系部門
-
- OKU Makito
- 東京大学生産技術研究所 情報・エレクトロニクス系部門
Bibliographic Information
- Other Title
-
- 多層ニューラルネットワークのパラメータ初期化手法の修正
- タソウ ニューラルネットワーク ノ パラメータ ショキカ シュホウ ノ シュウセイ
Search this article
Description
Deep neural networks and their learning methods( deep learning) are attracting attentions of many people in late years with many successful results. Although error backpropagation is generally used for training multilayer neural networks, its performance depends heavily on the initial parameters of networks. In this research, we proposed methods of improving Xavier Initialization for neural networks with ReLU (Rectified Linear Unit) and another modification of Xavier Initialization for neural networks dealing high dimensional numbers.
Journal
-
- SEISAN KENKYU
-
SEISAN KENKYU 68 (3), 261-264, 2016
Institute of Industrial Science The University of Tokyo
- Tweet
Details 詳細情報について
-
- CRID
- 1390001204062275072
-
- NII Article ID
- 130005153083
-
- NII Book ID
- AN00127075
-
- ISSN
- 18812058
- 0037105X
-
- NDL BIB ID
- 027482256
-
- Text Lang
- en
-
- Data Source
-
- JaLC
- NDL Search
- CiNii Articles
-
- Abstract License Flag
- Disallowed