ディープニューラルネットワークモデルの信頼性確保に関する研究
AIの実用化において、ゼロの状態からディープニューラルネットワーク(DNN)モデルを学習することは稀で、学習済みDNNモデルに対して独自のデータによって追加学習するなどして派生させたDNNモデルを利用することが一般的である。このとき、最終的に利用されるDNNモデルの信頼性は、元となっている学習済みDNNモデルに大きく依拠することとなる。そこで、開発者の情報をDNNモデル内に書き込むことによって、信頼性確保の一助とする。特に、最近ではオープンソースのDNNモデルも増えていることから、元のモデルから派生モデルに至る開発者の系譜を記録できることが重要である。

