深層学習、人工的な直感とAGIの探求

ディープ・ラーニング・システムは、生物学的材料に基づいていないにもかかわらず、生物学的に見える挙動を人類が深遠な学習の形で人工的な直感に幸運にも遭遇したこともそうです。

人工知能の分野ではルネサンスが起こっています。 現場の多くの長期専門家にとって、あまりにも明白ではありません。 私は多くの人がディープ・ラーニングの発展に反対しているプッシュバックについて以前に書きました。 ディープラーニングは、しかし、古典的な方法から非常に根本的な出発点です。 Artificial General Intelligence(AGI)への古典的アプローチがすべて壊れていたことを認識したある研究者は、Monica Andersonです。

アンダーソンは、還元主義の科学的アプローチに致命的な欠陥があり、AGIを求めて研究を迷わせていることを早期に認識した数少ない研究者の1人です。 ディープ・ラーニングと古典的なA.Iの違いを強調する非常に良いアナロジー。 アプローチは、直観と論理の違いです。 デュアルプロセス理論は、2種類の認知が存在することを理論化しています。

f:id:miyamotok0105:20170305002015p:plain

古典的なA.I.技術は認知の論理的根拠に主に焦点を当ててきましたが、ディープラーニングは認知的直観の領域で対照的な動作をしています。ディープ・ラーニング・システムは、生物学的材料に基づいていないにもかかわらず、生物学的に見える挙動を人類が深遠な学習の形で人工的な直感に幸運にも遭遇したこともそうです。

アンダーソン氏は、「直感的な能力を備えたシステムを構築するためには、「還元主義的方法」に基づく構造に依存することができない」と主張している。アンダーソンは、人工直感の代替アプローチとしてディープラーニングを認めている。アンダーソンは、還元主義的方法を次のような特徴を持つものとして特徴づけている。

最適性:私たちは可能な限り最良の答えを得るよう努めています。

完全性:私たちはすべての答えを得ることに努めています。

再現性:同じ条件で実験を繰り返すたびに同じ結果が得られると期待しています。

適時性:有限の時間で結果を得ることが期待されます。

パーシモン:私たちは、利用可能なデータを完全に説明する最も簡単な理論を発見しようと努めています。

透明性:結果にどのように到達したのかを理解したい。

Scrutability:結果を理解したい。

Andersonは、論理に基づいたアプローチは、代替的な「モデルフリー」アプローチを支持して放棄する必要があると推測しています。つまり、直感に基づく認知は、還元ベースの原則からは生じない。アンダーソンが「モデルフリー」と言うのは「知性のないコンポーネント」です。つまり、彼女は次のように書いています。

インテリジェントなコンポーネントからインテリジェントなシステムを構築しようとしている場合は、問題を1つのレベルに押し下げているだけです。

アンダーソンはいくつかの「モデルフリー」メカニズムを提案しており、それらの組み合わせは直感で目にする緊急の行動につながります。私が推測しているメカニズムは次のとおりです。

発見、認知、学習、抽象化、適応、進化、物語、相談、委任、市場など、さまざまな分野の専門家によって構成されています。

アンダーソンの戦略の詳細は、知的財産上の理由から公開されていないことに注意してください。私は、上記のような複雑な(またはインテリジェントな)緊急の行動につながる可能性のある基礎的なメカニズムに単純(または非知的)な計算メカニズムがあることに同意します。普遍的な計算は、ちょうど3つの基本的なメカニズム(すなわち、計算、シグナリング、およびメモリ)の存在によって生じることを理解する必要があります。

私は、進歩に不可欠な障壁となる現在の数学には限界があることには同意します。しかしこれは、私たちの数学的ツールの総体的な弱点のために進歩を遂げることができないことを意味するものではありません。逆に、ディープラーニングの研究者は、実験的な計算手段によってかなりの進歩を遂げました。エンジニアリングとプラクティスは歩調を合わせた理論を持っており、これは引き続き傾向になります。私は以前、3つの分野、すなわち時間の概念、緊急集団行動、メタレベル推論という分析に問題があると書いてきました。私たちはこのように道のりを歩み、数学的な飛躍を待つか、普遍的な計算の分野では分析技術の能力が限られていると予想して、兵士になることができます。

私の個人的な偏見は、メソッドが成功するためにエージェントのグローバルな知識を必要としてはならないということです。言い換えれば、すべてのエージェントは、地元の知識だけに基づいて行動を決定しなければならず、緊急のグローバルな行動は、その構成員の個々のローカル相互作用によって生じる。提案されている多くの代替モデルでは、通常、エージェントが機能するためにはグローバルな知識が必要であるという根本的な前提があります。私はまた、動作することが知られている方法に偏っています。これまでのところ、ディープラーニングは非常にうまく動作することが示されている唯一の人工直感です。 DLの概念的な問題の1つは、SGDがその構成要素に逆伝播するグローバルな知識を必要とすることです。この要件は、モジュラーディープラーニングシステムで緩和される可能性が高いですが、したがって、私は構成部分の知能の欠如の尺度を意味するものの、「モデル化されたモデル」ではなく「モデル化されたモデル」という用語を好む。しかし一般的には、これは緊急性を生むメカニズムの中で最も簡単なものを探すという点で、「傍時代」の概念に似ています。

ディープ・ラーニングのメタ・メタモデルの解体に基づいた私の現在の分析は、ドメイン適応、転送学習、継続学習、マルチタスク学習などの機能につながるビルディング・ブロック・メカニズムがまだ不足していることです。実際には、教師なし学習(すなわち、予測学習)を確実に把握することはできません。これらのメカニズムは、既存のビルディングブロックから出現する可能性がありますが、誤って発見される可能性もあります。次のようなConwayの人生のゲームの発見に非常に似ています:

f:id:miyamotok0105:20170305002102g:plain

上記のセルオートマトンのシンプルさにもかかわらず、なぜそれがどうやって動作するのか理解できません。私たちが預けることができる理論はほとんどありません。 AGIの探求にも同様の状況が存在すると私は信じている。 Conwayの人生のゲームのようなすべてのビルディング・ブロックをすでに持っている可能性は確かです。あるいは、上記の宇宙船と同様に、まだ発見されていないメカニズムが欠落しています。これは、誰にでもAGIの進歩の予測不可能なレベルを説明するはずです。私たちはAGIを達成することから偶然の発見にすぎないかもしれません。

この記事を終える前に私がカバーすべき1つの追加トピックがあります。それは私が以前の記事で議論した意識の概念です:「モジュラーディープラーニングは意識の最後から二番目のステップになるかもしれません。そのポストでは、IITモデルとSchmidhuberの二重RNNモデルの2つの理論を持ちました。デュアルプロセス理論モデルでは、意識は論理的認識から生じる。すべての3つの理論は、興味深いことに、事象間の因果関係を追跡するメカニズムを持っています。意識の概念と原因と結果を追跡するという考えを分けることはできないようです。より抽象的なことに、時間の経過と共に進化する行動を追跡することは不可欠な要素であるように思われる。

参考

http://www.kdnuggets.com/2017/02/deep-learning-artificial-intelligence-quest-agi.html

機械学習系のデータセット

DataSet - 機械学習の「朱鷺の杜Wiki」

https://github.com/caesar0301/awesome-public-datasets

機械学習に使える、オープンデータ一覧 ※随時更新 - Beginning AI

http://rikei-webmemo.hateblo.jp/entry/2014/07/20/114031

http://www.wakayama-u.ac.jp/~kazama/lab/datasets.html

https://medium.com/ai-business/public-data-from-google-acdd140748dc

学習を学習するディープラーニングについて

ご察しの通り普通にこういうのはやってる人がいるわけですね。 この分野は非常に興味深いです。


強化学習を用いたニューラルネットワークアーキテクチャの設計(Designing Neural Network Architectures using Reinforcement Learning)

https://arxiv.org/abs/1611.02167 現在、畳み込みニューラルネットワーク(CNN)アーキテクチャを設計するには、人間の専門知識と労力の両方が必要です。新しいアーキテクチャは慎重な実験によって手作りされたり、既存のネットワークの一部から修正されています。与えられた学習課題に対して高性能なCNNアーキテクチャを自動的に生成する強化学習に基づくメタモデリング手法を提案する。学習エージェントは、ε-greedy探査戦略と経験再生を用いたQ-learningを使用してCNN層を順次選択するように訓練される。エージェントは、可能なアーキテクチャの大規模ではあるが有限の空間を探索し、学習タスクのパフォーマンスを向上させて設計を繰り返し検出します。画像分類ベンチマークでは、エージェントの設計したネットワーク(標準コンボルーション、プーリング、完全接続レイヤのみで構成)は、同じレイヤタイプで設計された既存のネットワークを凌駕し、より多くを使用する最先端の方法複雑なレイヤータイプ。我々はまた、画像分類タスクに関するネットワーク設計のための既存のメタモデリング手法を凌駕する。

強化学習を用いたニューラルアーキテクチャ検索(Neural Architecture Search with Reinforcement Learning)

https://github.com/arXivTimes/arXivTimes/issues/23 ニューラルネットワークは、画像、音声、自然言語の理解において、多くの困難な学習課題に対してうまく機能する、強力で柔軟なモデルです。彼らの成功にもかかわらず、ニューラルネットワークはまだ設計が難しいです。本稿では、再帰的なネットワークを使用してニューラルネットワークのモデル記述を生成し、このRNNを強化学習で学習させて、検証セット上に生成されたアーキテクチャの期待精度を最大化する。CIFAR-10データセットでは、最初から始めて、私たちの方法は、テストセットの正確さに関して人間が発明したアーキテクチャに匹敵する斬新なネットワークアーキテクチャを設計できます。当社のCIFAR-10モデルは、3.65のテストエラーレートを達成しています。これは、類似のアーキテクチャスキームを使用した従来の最先端モデルよりも0.09%優れ、1.05倍高速です。

強化学習を学ぶ(Learning to reinforcement learn)

https://arxiv.org/abs/1611.05763 近年、深層強化学習(RL)システムは、多数の困難なタスク領域において超人的な性能を達成している。しかし、そのようなアプリケーションの大きな制限は、膨大な量のトレーニングデータに対する要求です。したがって、重要な現在の目的は、新しいタスクに迅速に適応できる深層RL方法を開発することである。本研究では、この課題に対する新しいアプローチを紹介します。これは深層メタ強化学習と呼ばれます。これまでの研究では、再帰的なネットワークは完全に監視された状況でメタ学習をサポートできることが示されています。このアプローチをRL設定に拡張します。出現するのは、1つのRLアルゴリズムを使用して訓練されたシステムであり、その反復動力学は第2の非常に別個のRL手順を実装するシステムである。この第2の学習されたRLアルゴリズムは、元のアルゴリズムとは任意の点で異なっていてもよい。重要なのは、学習されているため、トレーニングドメインの構造を利用するように構成されていることです。これらの点を一連の7つの概念実証実験で解凍します。それぞれの実験で深層メタ-RLの重要な側面が検証されます。我々は、アプローチの拡張とスケールアップの見通しを検討し、神経科学にとっての潜在的に重要な影響を指摘する。

大規模なニューラルネットワーク:疎なゲート混合エキスパート層(Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer)

https://arxiv.org/abs/1701.06538 情報を吸収するニューラルネットワークの能力は、そのパラメータの数によって制限される。理論的には、計算量が比例して増加することなくモデル容量を劇的に増加させる方法として、ネットワークの一部が例として有効である条件付き計算が提案されている。しかし、実際には、アルゴリズム上およびパフォーマンス上の大きな課題があります。この作業では、これらの課題に対処し、最終的に現代GPUクラスタでの計算効率のわずかな損失だけで、モデル容量の1000倍を超える条件付き計算の約束を実現します。我々は、数千のフィードフォワードサブネットワークで構成されたまばらにゲートされたMixed-of-Expertsレイヤー(MoE)を導入します。訓練可能なゲーティングネットワークは、各例で使用するこれらの専門家の疎結合を決定します。私たちは、モデリング能力とトレーニングコーパスで利用できる膨大な知識を吸収するためにモデル能力が重要な言語モデリング機械翻訳のタスクにMoEを適用します。本発明者らは、積み重ねられたLSTM層間に畳み込まれて1370億個のパラメータを有するMoEが適用されるモデルアーキテクチャを提示する。大規模な言語モデリング機械翻訳ベンチマークでは、これらのモデルは、最少の計算コストで最先端のものよりも優れた結果を達成します。

畳み込みニューラルファブリック(Convolutional Neural Fabrics)

https://arxiv.org/abs/1606.02492 CNNの成功にもかかわらず、与えられたタスクに最適なアーキテクチャを選択することは未解決の問題です。 単一の最適なアーキテクチャを選択することを目指すのではなく、指数関数的に多数のアーキテクチャを組み込んだ「ファブリック」を提案します。 ファブリックは、異なるレイヤー、スケール、およびチャネルでレスポンスマップを疎密なローカル接続パターンで接続する3Dトレリスで構成されています。 ファブリックの唯一のハイパーパラメータは、チャネルとレイヤの数です。 個々のアーキテクチャはパスとしてリカバリできますが、ファブリックはすべての組み込みアーキテクチャをまとめてアンサンブルし、パスが重なる場所で重みを共有することもできます。 パラメータは、バックプロパゲーションに基づく標準的な方法を使用して学習することができます。コストは、ファブリックのサイズに比例して増加します。 我々は、MNISTとCIFAR10の画像分類、およびPart Labelsデータセットのセマンティックセグメンテーションのための最先端技術と競合するベンチマーク結果を提示します。

プログレッシブニューラルネットワーク(Progressive Neural Networks)

https://arxiv.org/abs/1606.04671 複雑な一連のタスクを解決することを学ぶ - 転送を活用し、致命的な忘却を回避することは、人間のレベルの知性を達成する上での主要な障害です。 プログレッシブネットワークアプローチは、この方向への一歩を踏み出しています。彼らは忘れていなくて、以前学習した機能との横方向の接続を介して、前の知識を活用することができます。 我々は、このアーキテクチャを幅広い強化学習タスク(Atariおよび3D迷路ゲーム)で広範囲に評価し、プレトレーニングおよび精密化に基づいて一般的なベースラインを上回ることを示します。 新規の感度尺度を用いて、学習は、学習された方針の低レベル感覚および高レベル制御層の両方で起こることを実証する。

ソース https://github.com/synpon/prog_nn

深層強化学習による継続的な制御(Continuous control with deep reinforcement learning)

Deep Q-Learningの成功の根底にあるアイデアを、継続的なアクションドメインに適応させます。 我々は、連続的な行動空間上で動作することができる決定論的な政策勾配に基づく、俳優 - 評論家、モデルフリーのアルゴリズムを提示する。 私たちのアルゴリズムは、同じ学習アルゴリズム、ネットワークアーキテクチャ、ハイパーパラメータを使用して、カートポールのスイングアップ、機敏な操作、脚式の歩行、車の運転などの古典的な問題を含む20以上の物理的なタスクを堅牢に解決します。 我々のアルゴリズムは、ドメインとその派生物の力学に完全にアクセスできる計画アルゴリズムによって見出されたものと競合するポリシーを見つけることができる。 さらに、多くのタスクで、アルゴリズムはポリシーをエンドツーエンドで学習できることを実証しています。生のピクセル入力から直接です。

ソース https://github.com/songrotek/DDPG

ニューラルプログラマ - インタプリタ(Neural Programmer-Interpreters)

https://arxiv.org/abs/1511.06279 ニューラル・プログラマーインタープリタ(NPI):プログラムの表現と実行を学ぶ反復的かつ構成的なニューラル・ネットワークを提案する。 NPIには3つの学習可能なコンポーネントがあります.1つのNPIが異なるアフォーダンスを持つ複数の知覚的に多様な環境で動作することを可能にする、タスクに依存しないリカレントコア、永続的なキー値プログラムメモリ、およびドメイン固有のエンコーダです。 NPIは、より高いレベルのプログラムを表現するためのより低いレベルのプログラムを構成することを学ぶことによって、シーケンス間のLSTMと比較して、サンプルの複雑さを低減し、汎化能力を高める。プログラムメモリは、既存のプログラムを構築することによって、追加のタスクの効率的な学習を可能にする。 NPIは、計算の中間結果をキャッシュするために環境(例えば、読み書きポインタを有するスクラッチパッド)を利用して、再帰的な隠れユニットに対する長期記憶負荷を軽減することもできる。この作業では、完全に管理された実行トレースを使用してNPIをトレーニングします。各プログラムには、入力に条件付けされた即時サブプログラムへの呼び出しの例シーケンスがあります。多数の比較的弱いラベルを訓練するのではなく、少数の豊富な例からNPIを学びます。モデルの追加、並べ替え、正規化の3つの構成プログラムを学習するために、モデルの機能を実証します。さらに、単一のNPIが、これらのプログラムおよび関連するすべての21のサブプログラムを実行することを学びます。

NPIのソース https://github.com/pombredanne/NPI-tensorflow

ニューラルチューリングマシン(Neural Turing Machines)

https://arxiv.org/abs/1410.5401# 我々は、ニューラルネットワークの能力を、注意プロセスによって相互作用することができる外部メモリリソースに結合することによって拡張する。 組み合わせたシステムはTuring MachineやVon Neumannのアーキテクチャに類似していますが、エンドツーエンドで微分可能で、勾配降下で効率的に訓練することができます。 予備的な結果は、ニューラルチューリングマシンが、入力、出力の例からのコピー、ソート、および連想想起などの単純なアルゴリズムを推論できることを示しています。

微分可能なニューラル計算機(Differentiable neural computers)

https://deepmind.com/blog/differentiable-neural-computers/ 最近のNatureの研究では、微分可能な神経計算機と呼ばれるメモリ拡張型ニューラルネットワークの一形態を紹介し、人工的に生成された物語、家系図、人工物など、複雑で構造化されたデータに関する質問に答えるために、 ロンドン地下鉄の地図さえあります。 また、強化学習を用いたブロックパズルゲームを解くことができることを示す。

https://github.com/yos1up/DNC https://github.com/Mostafa-Samir/DNC-tensorflow

進化するディープニューラルネットワーク(Evolving Deep Neural Networks)

https://arxiv.org/pdf/1703.00548.pdf 深い学習が成功するかどうかは、タスクを実行するアーキテクチャに依存します。 ディープ・ラーニングがより困難なタスクにスケールアップされるにつれ、アーキテクチャーは手作業で設計するようになっています。この論文では、ディープ・ラーニング・アーキテクチャーを進化を通して最適化するための自動化メソッドCoDeepNEATを提案します。 存在する神経進化方法をトポロジーコンポーネント、および超パラメータに拡張することにより、この方法は、物体認識および言語モデリングにおける標準的なベンチマークでの最良のデザインに匹敵する結果を達成する。 また、マガジンウェブサイト上に自動画像キャプションの実世界アプリケーションを構築することもサポートしています。 利用可能なコンピューティングパワーの増加が予想され、ディープネットワークの進化は、将来的に深い学習アプリケーションを構築する有望なアプローチです。

OptNet:ニューラルネットワークにおける層としての微分可能な最適化(OptNet: Differentiable Optimization as a Layer in Neural Networks)

https://arxiv.org/pdf/1703.00443.pdf 本稿では、最適化問題(ここでは、具体的には2次プログラムの形で)を、より大規模なエンドツーエンドの訓練可能なネットワークの個々の層として統合するネットワークアーキテクチャであるOptNetを紹介します。これらのレイヤーは、伝統的な畳み込み的かつ完全に連結されたレイヤーがキャプチャできない隠れた状態間の複雑な依存性を可能にします。この論文では、このようなアーキテクチャの基礎を開発します。これらのレイヤーとレイヤーパラメーター;我々は、これらの層のための非常に効率的なソルバを開発する。これは、プライマルデュアル内部ポイント法の中で高速GPUベースのバッチ解決を利用し、バックプロパゲーショングラジエントを解決の上に実質的に追加コストなしで提供する。いくつかの問題でこれらのアプローチの適用を強調している。特にスタンドアウトの例では、ゲームのルールに関する先験的な情報なしに、メソッドが入力と出力のゲームだけでスードクをプレイできることを示しています。この作業は、実験した他のニューラルネットワークアーキテクチャでは事実上不可能であり、我々のアプローチの表現能力を強調している。

ソース https://github.com/locuslab/optnet

ニューラルネットを最適化するための学習(Learning to Optimize Neural Nets)

https://arxiv.org/pdf/1703.00441.pdf 最適化学習(Li&Malik、2016)は、強化学習を用いて最適化アルゴリズムを学習するための枠組みである。本稿では、浅いニューラルネットを学習するための最適化アルゴリズムの学習を検討する。 このような高次元の確率的最適化問題は、既存の強化学習アルゴリズムにとって興味深い課題を提示する。我々はこの設定における最適化アルゴリズムの学習に適した拡張を開発し、学習された最適化アルゴリズムが他の既知の最適化アルゴリズムよりも一貫して優れていることを示す。 ニューラルネットアーキテクチャ。 より具体的には、提案した方法を用いてMNISTのニューラルネットワークを学習する問題に対する最適化アルゴリズムが、CIFAR-10とCIFAR-100のトーラスフェイスデータセットニューラルネットの訓練の問題であることを示す。

(Learning to learn)

https://arxiv.org/abs/1606.04474 手で設計された機能から機械学習の学習された機能への移行は大成功を収めました。それにもかかわらず、最適化アルゴリズムは依然として手作業で設計されています。本稿では、学習問題として最適化アルゴリズムの設計をどのようにキャストすることができるかを示し、アルゴリズムが関心のある問題の構造を自動的に利用する方法を学習できるようにする。LSTMによって実装された学習済みのアルゴリズムは、一般的な手作業で設計された競合他社の訓練を受けたタスクより優れており、同様の構造を持つ新しいタスクにも一般化することができます。これは、単純な凸問題、神経ネットワークの訓練、神経芸術によるイメージのスタイリングなど、多くのタスクでこれを実証しています。

オンラインコース

    - Kaggleの元CEOが創業したDeepLearning初心者向けビデオ教育機関 http://course.fast.ai/lessons/lesson1.html

    - データサイエンスマシンラーニングエッセンシャル https://www.edx.org/course/data-science-machine-learning-essentials-microsoft-dat203x-0     - データ科学入門 https://www.coursera.org/course/datasci     - 機械学習の紹介 https://www.udacity.com/course/intro-to-machine-learning–ud120     - 機械学習ニューラルネットワーク https://www.coursera.org/course/neuralnets     - ディープラーニング https://www.udacity.com/course/deep-learning–ud730     - 強化学習 https://www.udacity.com/course/reinforcement-learning–ud600

Pythonディープ・ラーニング・フレームワークの概要

Theanoからの拡張が2個も紹介されてる。フランスのモントリオール大学で使ってるのがTheano。 mxnetは早い。kerasが使いやすいと書いてある。


Theano、Lasagne、Blocks、TensorFlow、Keras、MXNet、PyTorchなど、主要なPythonディープラーニングフレームワークの簡潔な概要をお読みください。

私は最近、「ニューラルネットワークのための最高のPythonライブラリ」の話題について、私の古いData Science Stack Exchangeの回答を見つけました。そして、Pythonの深層学習エコシステムが過去2.5年の間にどのくらい進化したかがわかりました。 2014年7月に私が推奨したライブラリ、pylearn2はもはや積極的に開発され、維持されていませんが、深層学習ライブラリが数多く出現しています。 それぞれには独自の長所と短所があります。

Theano

  説明:

TheanoはPythonライブラリで、多次元配列を効率的に使用する数式を定義、最適化、評価することができます。 GPUで動作し、効率的なシンボリックな区別を行います。

ドキュメンテーション

http://deeplearning.net/software/theano/

概要:

Theanoは、私たちのリストにある他の深層学習フレームワークの多くに力を与える数値計算ワークスです。それはFrédéricBastienとモントリオール大学の研究室MILAの優れた研究チームによって構築されました。そのAPIはかなり低いレベルです。効果的なTheanoを書くためには、他のフレームワークの中で隠されているアルゴリズムに精通している必要があります。 Theanoは、充実した学術的な機械学習の専門知識を備えているか、モデルのきめ細かな制御を求めているか、あるいは珍しいモデルや珍しいモデルを実装したい場合には、Go-toライブラリです。一般に、Theanoは柔軟性のために使いやすさをトレードしています。

長所:

フレキシブル 適切に使用された場合の演奏者 短所:

実質的な学習曲線 下位API 複雑な記号グラフをコンパイルするのが遅くなる リソース:

インストールガイド http://deeplearning.net/software/theano/install.html 公式のTheanoチュートリアル http://deeplearning.net/software/theano/tutorial/ Theanoスライドショーと練習問題 https://github.com/goodfeli/theano_exercises Theanoによる線形回帰からCNNへ https://github.com/Newmu/Theano-Tutorials Python&Theanoによるディープラーニング入門(MNISTビデオチュートリアルhttps://indico.io/blog/introduction-to-deep-learning-with-python-and-theano-2/

Lasagne

説明:

Theanoのニューラルネットワークを構築およびトレーニングするための軽量ライブラリ。

ドキュメンテーション

http://lasagne.readthedocs.org/

概要:

Theanoは、まず象徴的数学のためのライブラリを目指しているため、Theanoの上に深層学習に適した抽象概念を提供しています。 DeepMindの研究者であるSander Dielemanが主に書いて、管理しています。 Lasagneは、シンボリック変数間の関数関係でネットワークモデルを指定するのではなく、ユーザーが作業するための “Conv2DLayer"や "DropoutLayer"のようなビルディングブロックをレイヤーレベルで考えることができます。 Lasagneは、柔軟性の面でほとんど犠牲を必要とせず、レイヤー定義、レイヤーの初期化、モデル正則化、モデル監視、モデル訓練を支援する豊富な共通コンポーネントを提供します。

長所:

依然として非常にフレキシブル Theanoより抽象度の高い層 ドキュメントとコードには、さまざまなパスタ・パンチが含まれています 短所:

より小さいコミュニティ リソース:

公式GitHubページ https://github.com/Lasagne/Lasagne 公式インストールガイド http://lasagne.readthedocs.io/en/latest/user/installation.html 公式ラザニアチュートリアル http://lasagne.readthedocs.io/en/latest/user/tutorial.html ラザーンコードの例 https://github.com/Lasagne/Lasagne/tree/master/examples

Blocks

説明:

ニューラルネットワークを構築しトレーニングするためのTheanoフレームワーク

ドキュメンテーション

http://blocks.readthedocs.io/ja/latest/

概要:

Lasagneと同様に、BlocksはTheanoの上に抽象レイヤーを追加して、生のTheanoを書くより深く学ぶモデルのよりクリーンでシンプルで標準化された定義を容易にすることを目指しています。これは、モントリオール大学の研究室MILAによって書かれました.Teranoの構築に貢献した人々と、ニューラルネットワークの定義、死者のPyLearn2との最初の高水準インタフェースに貢献した人々の一部です。効果的に使用するには少し難しい学習曲線を犠牲にして、Lasagneよりも少し柔軟です。とりわけ、ブロックはリカレントニューラルネットワークアーキテクチャの優れたサポートを持っているので、そのジャンルのジャンルを調べることに興味があるかどうかは一見の価値があります。 TensorFlowと並んで、Blocksは、私たちがインディゴでプロダクションに導入した多くのAPIのライブラリです。

長所:

依然として非常にフレキシブル Theanoより抽象度の高い層 非常によくテストされた 短所:

実質的な学習曲線 より小さいコミュニティ リソース:

公式インストールガイド

http://blocks.readthedocs.io/en/latest/setup.html ブロックライブラリの設計に関するArxiv論文 https://arxiv.org/pdf/1506.00619.pdf BlocksとLasagneの違いについてのredditの議論 https://www.reddit.com/r/MachineLearning/comments/4kpztm/lasagne_vs_blocks_for_deep_learning/ ブロックのデータパイプライン用姉妹ライブラリ、Fuel https://github.com/mila-udem/fuel

TensorFlow

説明:

データフローグラフを使用した数値計算用のオープンソースソフトウェアライブラリ。

ドキュメンテーション

https://www.tensorflow.org/api_docs/python/

概要:

TensorFlowは、Theanoのような低レベルのシンボリック計算ライブラリと、BlocksやLasagneのようなより高水準のネットワーク仕様ライブラリとの融合です。 Pythonディープラーニングライブラリコレクションの最新メンバーですが、Google Brainチームの支援を受けて最大のアクティブコミュニティを獲得した可能性があります。複数のGPU機械学習モデルを実行し、効率的なデータパイプラインを提供するユーティリティを提供し、モデルの検査、ビジュアライゼーション、シリアライズのためのモジュールを内蔵しています。最近では、TensorFlowチームは、次の深層学習ライブラリであるKerasのサポートを我々のリストに組み込むことに決めました。コミュニティは、TensorFlowには欠点がありますが、コミュニティの大きさとプロジェクトの背後にある大量の勢いは、TensorFlowを学ぶことが安全な賭けだということに同意しているようです。結果的に、TensorFlowは今日のインディペンデーションで深く学ぶ選択のライブラリです。

長所:

ソフトウェア大手のGoogleが支援 非常に大きなコミュニティ 低レベルと高レベルのネットワークトレーニングへのインターフェイス Theanoベースのオプションよりも速いモデルのコンパイル クリーンなマルチGPUサポート 短所:

Tanoorflowは追いついていますが、最初はTheanoベースのオプションより多くのベンチマークでは遅くなりました。 RNNサポートはまだTheanoによってoutclassedです リソース:

Official TensorFlowのウェブサイト TensorFlow ダウンロードと設定ガイド https://github.com/tensorflow/tensorflow/blob/master/tensorflow/g3doc/get_started/os_setup.md インドネシアのTensorFlow https://indico.io/blog/the-good-bad-ugly-of-tensorflow/ TensorFlowチュートリアルのコレクション https://github.com/nlintz/TensorFlow-Tutorials TensorFlowを使って教えたUdacityマシン学習コース https://www.udacity.com/course/deep-learning–ud730 TensorFlow MNISTチュートリアル https://www.tensorflow.org/tutorials/mnist/beginners/ TensorFlowデータ入力 https://indico.io/blog/tensorflow-data-inputs-part1-placeholders-protobufs-queues/

Keras

説明:

Pythonの深層学習ライブラリ。コンバネット、リカレントニューラルネットワークなどTheanoまたはTensorFlowで実行されます。

ドキュメンテーション

https://keras.io/

概要:

Kerasはたぶん最高レベルで、大部分のユーザーフレンドリーなライブラリです。 Google Brainチームのもう一人のメンバーであるFrancis Cholletによって書かれ維持されています。ユーザーは、構築したモデルをTheanoまたはTensorFlowの記号グラフで実行するかどうかを選択できます。 KerasのユーザーインターフェイスはTorchからインスピレーションを得ています。そのため、Luaでの機械学習の経験があれば、Kerasは一見価値があります。 Kerasコミュニティは、優れたドキュメントと使いやすさのおかげで非常に大きく活発でした。最近、TensorFlowチームは、Kerasサポートを組み込んだ出荷計画を発表しました。すぐにKerasはTensorFlowプロジェクトのサブセットになります。

長所:

TheanoまたはTensorFlowバックエンドの選択 直観的で高水準のインタフェース 簡単な学習曲線 短所:

柔軟性が低く、他のオプションよりも規範的 リソース:

公式インストールガイド https://keras.io/#installation KerasユーザーのGoogleグループ https://groups.google.com/forum/#!forum/keras-users Kerasの例のリポジトリ https://github.com/fchollet/keras/tree/master/examples DockerでKerasを使用する方法 https://github.com/fchollet/keras/tree/master/docker アプリケーションエリア別Kerasチュートリアルリポジトリ https://github.com/fchollet/keras-resources

MXNet

説明:

MXNetは、効率と柔軟性の両方を考慮して設計された深層学習フレームワークです。

ドキュメンテーション

http://mxnet.io/api/python/index.html#python-api-reference

概要:

MXNetは、深層学習のためのAmazonの選択肢のライブラリであり、おそらく一番の実績のあるライブラリです。これは、TheanoとTensorFlowに似たデータフローグラフを持ち、マルチGPU構成を良好にサポートし、LasagneやBlocksに似たより高いレベルのモデルビルディングブロックを持ち、想像できるどんなハードウェアでも実行できます(携帯電話)。 MXNetはR、Julia、C ++、ScalaMatlabJavascriptへのインターフェイスも提供しています。それに次ぐ性能を求めているなら、MXNetを選んでください。MXNetのいくつかの特色に取り組む必要があります。

長所:

急速なベンチマーク 非常にフレキシブル 短所:

最小のコミュニティ Theanoよりも激しい学習曲線 リソース:

公式スタートガイド http://mxnet.io/get_started/ インディゴのMXNet入門 https://indico.io/blog/getting-started-with-mxnet/ MXNetサンプルのリポジトリ https://github.com/dmlc/mxnet/tree/master/example AmazonのCTOがMXNetを買収 http://www.allthingsdistributed.com/2016/11/mxnet-default-framework-deep-learning-aws.html MXNet Arxiv用紙 https://arxiv.org/abs/1512.01274

PyTorch

説明:

強力なGPUアクセラレーションを備えたPythonテンソルとダイナミックニューラルネットワーク

ドキュメンテーション

http://pytorch.org/docs/

概要:

PyTorchは1週間前にリリースされたばかりで、Pythonの深層学習フレームワークのリストの中の新しい子供です。 LuaのTorchライブラリがPythonに移植されていないため、Facebook Artificial Intelligence Researchチーム(FAIR)の支援を受けており、動的計算グラフ(Theano、TensorFlow、デリバティブ陪審員はPyTorchがPythonの深層学習エコシステムで果たす役割についてまだ議論していませんが、すべての兆候は、PyTorchが私たちのリストにある他のフレームワークの非常に優れた代替手段であることを示しています。

長所:

Facebookからの組織的支援 動的グラフのきれいなサポート 高レベルと低レベルのAPIのブレンド 短所:

代替案よりはるかに成熟していない(自分たちの言葉で - 「私たちは早期リリースのベータ版です。いくつかの冒険を期待してください」) 限定された参考文献/公式文書の外のリソース リソース:

PyTorch公式ホームページ http://pytorch.org/ PyTorch twitter feed https://twitter.com/PyTorch PyTorchサンプルのリポジトリ https://github.com/pytorch/examples PyTorchチュートリアルリポジトリ https://github.com/pytorch/tutorials

ライター

Madison May、indico

参考

http://www.kdnuggets.com/2017/02/python-deep-learning-frameworks-overview.html

NASA、ソフトウェアのカタログを公開、地球上のアプリケーションのための公開されていないアクセスを許可

NASAは2017-2018年のソフトウェアカタログを発表しました。ソフトウェアカタログは、著作権著作権料なしで、幅広い種類の技術アプリケーション用の広範なソフトウェア製品ポートフォリオを無償で公開しています。

ハードコピーとオンラインの両方で入手可能なこの第3版の出版物は、データ処理/ストレージ、ビジネスシステム、運営、推進、航空宇宙に関するすべての代理店のセンターから寄せられたものです。 これには、NASAがスペースを探索し、宇宙についての理解を深めるために使用する多くのツールが含まれています。 はじめてのリリースのために多数のソフトウェアパッケージが提供されています。 各カタログ項目には、それが何をしているのかを明記した言語記述が付いています。

NASAの宇宙技術ミッション・ディレクター(STMD)の管理責任者であるSteve Jurczykは次のように述べています。「ソフトウェアカタログは、起業家、中小企業、学界、産業界に今日のトップ航空宇宙専門家が使用するツールへのアクセスを許可することにより、ワシントン。 「これらのソフトウェアコードへのアクセスは、アメリカの雇用を創出し、収益を上げ、命を救う具体的な利益を生み出す可能性を秘めています。

NASAは、2014年4月にソフトウェアカタログの初版を公開し、連邦政府機関(カスタムコードの最大の作成者)によって編集される公に利用可能なソフトウェアの最初の包括的なリストになった。それ以来、NASAは数千のソフトウェアプログラムを学生、業界、個人、その他の政府機関と共有してきました。

「ソフトウェアは、NASAのミッション成功と科学的発見のそれぞれの重要な要素でした。 NASAの技術移転プログラムの幹部であるダン・ロッキニー(Dan Lockney)は、実際には、すべてのNASAの革新の30%以上がソフトウェアであると述べています。 「これらのツールを他のセクターに移して、新しく創造的な方法でそれらを実現する見通しに興奮しています。

入手可能なソフトウェアには、より高度なドローン用のコードと静かな航空機用のコードがあります。いくつかのコードにはアクセス制限が適用されますが、NASAは過去2年間にソフトウェアのリリースプロセスを自動化して更新し、できるだけ迅速かつ簡単に、簡単に実行できるようにしました。

ソフトウェアカタログはNASAの技術移転プログラムの製品であり、STMDの代理店で管理されています。このプログラムは、探査と発見のミッションのために開発された技術が国民に広範に利用可能であることを保証し、国家への利益を最大化する。

ソフトウェアカタログの検索可能なPDFについては、以下をご覧ください。

http://software.nasa.gov

NASAの技術移転プログラムの詳細については、をご覧ください。

http://technology.nasa.gov

参照

https://www.nasa.gov/press-release/nasa-releases-software-catalog-granting-the-public-free-access-to-technologies-for

2017年論文リサーチ

解釈可能な構造 - 進化するLSTM(Interpretable Structure-Evolving LSTM)

https://arxiv.org/abs/1703.03055 本稿では、Long Short-Term Memory(LSTM)リカレントニューラルネットワークを用いた階層グラフ構造上の解釈可能なデータ表現を学習するための一般的なフレームワークを開発する。LSTMモデルを事前固定構造で学習するのではなく、LSTMネットワーク最適化中にデータから漸進的かつ確率的に中間解釈可能なマルチレベルグラフ構造をさらに学習することを提案する。したがって、このモデルを構造進化型LSTMと呼びます。特に、各ノードが小さなデータ要素である初期の要素レベルのグラフ表現から開始して、構造を発展させるLSTMは、スタックされたLSTM層に沿って高い互換性を有するグラフノードを確率的にマージすることによって多段階グラフ表現を徐々に進化させる。各LSTM層において、我々は、対応するLSTMゲート出力からの2つの接続されたノードの互換性を評価し、これはマージ確率を生成するために使用される。したがって、候補グラフ構造は、ノードが、それらの合併確率を有するクリークにグループ化されるところで生成される。次に、確率確率を用いた確率的サンプリングによって局所的最適に詰まるリスクを軽減するMetropolis-Hastingアルゴリズムを用いて新しいグラフ構造を生成する。グラフ構造が受け入れられると、分割されたクリークをノードとすることにより、より高いレベルのグラフが構築される。進化するプロセスでは、冗長な情報がフィルタリングされ、より長期間のデータ依存性のより効率的な伝播を可能にする上位レベルで表現が抽象化されます。

深層ネットワークの高速適応のためのモデルに不可欠なメタ学習(Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks)

https://arxiv.org/abs/1703.03400 我々は、勾配降下で訓練され、分類、回帰、および強化学習を含む様々な異なる学習問題に適用可能なモデルと互換性があるという意味で、モデルに依存しないメタ学習のアルゴリズムを提案する。メタ学習の目標は、少数の訓練サンプルのみを使用して新しい学習タスクを解決できるように、さまざまな学習タスクでモデルを訓練することです。我々のアプローチでは、モデルのパラメータは明示的に訓練されているため、新しいタスクからの少量の訓練データを伴う少数の勾配ステップがそのタスクに対して良好な一般化性能を生成する。実際には、私たちの方法はモデルを微調整しやすいように訓練します。このアプローチにより、少数の画像分類ベンチマークで最先端のパフォーマンスが得られる。

ニューラルネットワークに対するジェネティックポイズニング攻撃法(Generative Poisoning Attack Method Against Neural Networks)

[1703.01340] Generative Poisoning Attack Method Against Neural Networks 中毒攻撃は、機械学習アルゴリズムに対する重大なセキュリティ上の脅威と認識されています。例えば、多くのアプリケーションでは、深いニューラルネットワーク(DNN)モデルは、入力データが被害を受けうる再トレーニングを実行するための入力としてパブリックデータを収集します。サポートベクターマシンSVM)に対する中毒攻撃は、これまで広範に研究されてきたが、そのような攻撃がニューラルネットワーク(NN)、特にDNNにどのように実装されるかに関する知識は非常に限られている。本研究では、まず、従来の勾配法(直接勾配法と呼ばれる)を適用して、NNに対して被毒モデルデータを生成する可能性を調べる。次に、被毒データの発生率を高めるための生成方法を提案する。被毒データの生成に用いたオートエンコーダ(ジェネレータ)をロスの報酬関数で更新し、対象NNモデル(弁別子)が被毒データを受信して​​ノーマルデータの損失を計算する。本発明者らの実験結果は、直接的な勾配法と比較して、生成法が被毒データ発生速度を最大239.38倍高速化することができ、モデル精度がわずかに低下することを示している。ターゲットモデルの喪失をチェックすることによって、そのような被害の攻撃方法を検出する対策も設計されています。直接勾配法と比較して38倍であり、モデル精度がわずかに低下している。ターゲットモデルの喪失をチェックすることによって、そのような被害の攻撃方法を検出する対策も設計されています。直接勾配法と比較して38倍であり、モデル精度がわずかに低下している。ターゲットモデルの喪失をチェックすることによって、そのような被害の攻撃方法を検出する対策も設計されています。 >DNNに対して毒のデータを学習させることで精度を低下させる。

Inception-v4、Inception-ResNetと学習に残る接続の影響(Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning)

非常に深い畳み込みネットワークは、近年の画像認識性能の最大の進歩の中心であった。 1つの例は、比較的低い計算コストで非常に良好な性能を達成することが示されているインセプションアーキテクチャである。最近では、より伝統的なアーキテクチャと連携した残存接続の導入により、2015年のILSVRCの課題に最先端のパフォーマンスがもたらされました。その性能は最新世代のInception-v3ネットワークに似ていました。これは、インセプションアーキテクチャを残存接続と組み合わせることに何らかの利益があるかどうかの問題を提起する。ここでは、残留接続を伴うトレーニングがインセプションネットワークのトレーニングを大幅に加速するという経験的な証拠を明確にしています。残余のインセプション・ネットワークが同様に高価なインセプション・ネットワークよりも性能が優れているという証拠もいくつか残っている。我々はまた、残余および非残余のインセプションネットワークのためのいくつかの新しい合理化されたアーキテクチャを提示する。これらのバリエーションは、ILSVRC 2012分類タスクの単一フレーム認識性能を大幅に向上させます。さらに、適切なアクティブ化スケーリングが非常に広い残差インセプションネットワークのトレーニングを安定させる方法を示します。 3つの残差と1つのInception-v4のアンサンブルで、ImageNet分類(CLS)チャレンジのテストセットで3.08%のトップ5エラーを達成します。 >ネットワークの安定をさせる。3つの残差と1つのInception-v4のアンサンブルを使用。

実行の習得(Learning to Execute)

http://arxiv.org/abs/1410.4615 長い短期記憶単位(LSTM)を有するリカレントニューラルネットワーク(RNN)は表現力があり、訓練が容易であるため広く使用されている。私たちの関心は、伝統的にニューラルネットワークにとって複雑すぎると見なされている短いコンピュータプログラムを評価するためにそれらを訓練することによって、シーケンス間シーケンスのLSTMの表現力と学習可能性を経験的に評価することにあります。定数メモリを使用して単一の左から右へのパスで評価できる単純なクラスのプログラムを検討します。私たちの主な結果は、LSTMがそのようなプログラムの文字レベルの表現を正しい出力にマップすることを学ぶことができるということです。特に、カリキュラムの学習を使用する必要があり、従来のカリキュラムの学習は効果がないと判明しましたが、私たちはすべての実験条件でネットワークのパフォーマンスを改善した新しいカリキュラムの変種を開発しました。改善されたカリキュラムは追加問題に劇的な影響を与え、99%の精度で2つの9桁の数値を追加するようにLSTMを訓練することを可能にしました。 https://github.com/fchollet/keras/blob/master/examples/addition_rnn.py

微分可能な境界木を用いた最近接近傍表現の学習(Learning Deep Nearest Neighbor Representations Using Differentiable Boundary Trees)

https://arxiv.org/abs/1702.08833 最近(kNN)法は、ハードウェアの進歩とアルゴリズムの効率を考慮して、近年普及している。今日から選択する方法は、それぞれ長所と短所があります。すべてのkNNに基づく方法間で共有される1つの要件は、サンプル間の良好な表現および距離測定の必要性である。 我々は、深いkNN表現を学習することを可能にする微分可能な境界木と呼ばれる新しい方法を紹介する。効率的な最近傍分類、回帰および検索を可能にする最近提案された境界木アルゴリズムを構築する。ツリー内のトラバーサルを確率論的事象としてモデル化することにより、我々はツリーの予測に関連する微分可能なコスト関数を形成することができる。深いニューラルネットワークを使用してデータを変換し、ツリーを逆拡散することで、kNNメソッドの良い表現を学ぶことができます。 我々の方法は、明確に解釈可能な構造を持つ非常に効率的な木を可能にする適切な表現を学ぶことができることを実証する。

DeepNAT:細分化神経解剖のための深畳み込みニューラルネットワーク(DeepNAT: Deep Convolutional Neural Network for Segmenting Neuroanatomy)

https://arxiv.org/abs/1702.08192

我々は、T1加重磁気共鳴画像におけるNeuroAnaTomyの自動セグメンテーションのための3D Deep畳み込みニューラルネットワークDeepNATを紹介する。DeepNATは、脳のセグメンテーションに対するエンドツーエンドの学習ベースのアプローチであり、抽象的なフィーチャー表現とマルチクラス分類を共同して学習します。我々は、パッチの中心ボクセルだけでなく、マルチタスク学習として策定された近隣のボクセルも予測する、3Dパッチベースのアプローチを提案する。クラスの不均衡問題に対処するために、2つのネットワークを階層的に配置します。最初のレイヤーではフォアグラウンドを背景から分離し、2つ目のレイヤーではフォアグラウンドで25の脳構造を識別します。パッチには空間的な文脈がないので、それらを座標で補強する。この目的のために、本発明者らは、脳容積の新規な固有パラメータ化を導入し、Laplace-Beltrami演算子の固有関数によって形成される。ネットワークアーキテクチャとしては、プーリング、バッチ正規化、および非線形性を備えた3つの畳み込みレイヤーと、完全に接続されたドロップアウトレイヤーを使用します。最終的なセグメンテーションは、クローズドボクセル間のラベル合意を確実にする、完全に接続された3次元の条件付きランダムフィールドを有するネットワークの確率的出力から推測される。ネットワーク内の約270万のパラメータは、確率的な勾配降下で学習されます。我々の結果は、DeepNATが最先端の方法に匹敵することを示しています。最後に、純粋に学習ベースの方法は、訓練されたネットワークを目的のアプリケーション上の小さな訓練サンプルで微調整することによって、若年者、老人、または罹患した脳への適応の可能性が高くなります。

f:id:miyamotok0105:20170304121705p:plain f:id:miyamotok0105:20170304121744p:plain

GamerGateを測定すること:嫌悪、性欲、そしていじめの話(Measuring #GamerGate: A Tale of Hate, Sexism, and Bullying)

ここ数年の間に、オンラインの攻撃や虐待行為は、さまざまな形態やさまざまなプラットフォームで発生してきました。極端な場合、これらの事件は憎しみ、差別、いじめに発展し、実際の脅威や個人や団体に対する攻撃にもなりました。本稿では、Gamergateの論争を研究する。オンラインゲームの世界で2014年8月に開始され、さまざまなソーシャルネットワーキングプラットフォームに急速に広まり、最終的にはサイバー攻撃サイバー攻撃の多くの事件につながった。私たちは、340kのユニークユーザーと1.6Mのツイートのデータセットの測定調査を発表し、これらのユーザーのプロパティ、投稿するコンテンツ、およびランダムなTwitterユーザーとの違いを調べます。この「Twitter戦争」に関わるユーザーは、より多くの友人やフォロワーを持つ傾向があり、一般的には従事していて、負の感情を伴うつぶやき、ランダムなユーザーよりも喜び、そして嫌いです。また、Twitterサスペンドメカニズムがそのような虐待行為をどのように処理するかについて予備的な測定も行います。私たちはGamergateに焦点を絞っていますが、積極的でいじめの活動に関連するつぶやきを収集して分析する方法論は、独立した関心事です。 >データサイエンス的内容。 https://arxiv.org/abs/1702.07784

教師なし画像 - 画像変換ネットワーク(Unsupervised Image-to-Image Translation Networks)

1つの領域の画像を別の領域の対応する画像にマッピングする既存の画像 - 画像変換フレームワークの大部分は、教師あり学習に基づく。すなわち、2つの領域の対応する画像の対が翻訳を学習するために必要とされる関数。2つの異なる領域に対応する画像をキャプチャすることは、しばしば困難な作業であるため、これは主にアプリケーションを制限します。この問題に対処するために、私たちは、変分的な自動エンコーダーと生成的な対立ネットワークに基づく、UNIT(Unsupervised Image-to-Image Translation)フレームワークを提案する。提案されたフレームワークは、2つの領域に対応する画像なしに翻訳機能を学習することができる。我々は、重み共有制約と敵対的な訓練目的とを組み合わせることによって、この学習能力を可能にする。さまざまな監督されていない画像翻訳タスクからの視覚化結果を介して、提案されたフレームワークの有効性を検証する。切除研究は、重要な設計選択肢をさらに明らかにする。さらに、UNITフレームワークを教師なしドメイン適応タスクに適用し、ベンチマークデータセットで競合するアルゴリズムより優れた結果を達成します。 f:id:miyamotok0105:20170304123129p:plain f:id:miyamotok0105:20170304123135p:plain f:id:miyamotok0105:20170304123137p:plain https://arxiv.org/abs/1703.00848

非負行列の因子分解の導入(Introduction to Nonnegative Matrix Factorization)

本稿では、非負行列分解(NMF)の概要を簡単に紹介します。NMFのいくつかの側面、すなわち、ハイパースペクトルイメージングにおける応用、NMF解の幾何学的および一意性、複雑さ、アルゴリズム、および多面体の拡張された処方との関連について議論する。NMFを視点に入れるために、制約のある低ランク行列近似問題のより一般的な問題クラスをまず簡単に紹介する。

深いエネルギーに基づく政策による強化学習(Reinforcement Learning with Deep Energy-Based Policies)

https://arxiv.org/abs/1702.08165 私たちは、以前の表ドメインでしか実現できなかった、連続した州や行為に対する表現力豊かなエネルギーベースの政策を学習する方法を提案します。我々は、ボルツマン分布を介して最適な方針を表すソフトQラーニングと呼ばれる新しいアルゴリズムの結果、最大エントロピー方針を学習する方法を適用する。我々は最近提案された償却されたスタイン変動勾配降下を使用して、この分布からのサンプルを近似する確率的サンプリングネットワークを学習する。提案されたアルゴリズムの利点は、水泳と歩行ロボットとの模擬実験で確認されるタスク間のスキルの移転を可能にする改善された探索と構成性を含む。我々はまた、対応するエネルギーベースのモデルについての近似推論を実行することができるアクター評論手法への接続を描く。 f:id:miyamotok0105:20170304122238p:plain f:id:miyamotok0105:20170304122232p:plain

PMLB:機械学習のための大規模ベンチマークスイート評価と比較(PMLB: A Large Benchmark Suite for Machine Learning Evaluation and Comparison)

https://arxiv.org/pdf/1703.00512.pdf データマイニングにおける機械学習方法の選択、開発、または比較は、特定の研究の目標の問題および目標に基づいて困難な作業となり得る。実際の実世界とシミュレーションされた多数のベンチマークデータセットが異なるソースから出現していますが、標準としての組織と採用が一貫していません。そのため、特定のベンチマークを選択してキュレーションすることは、本研究では、さまざまな機械学習手法の長所と短所を容易に識別できるように、アクセシブルで、キュレーションされた、開発中の公開ベンチマークリソースを紹介します。このリソースの現在のベンチマークデータセットのメタ特徴を比較して、利用可能なデータの多様性を示します。最後に、多数の確立された機械学習手法をベンチマークスイート全体に適用し、データセットアルゴリズムがどのようにパフォーマンスを集約するかを分析します。この作業は、一般的なベンチマークスイートの限界を理解し、既存のベンチマーキング標準を将来のより多様で効率的な標準に結びつけるリソースを開発するための重要な第一歩です。キーワード:機械学習ベンチマーク、データリポジトリ、分類

着色(P6、ダイヤモンド、K4)フリーグラフ(Coloring (P6, diamond, K4)-free graphs)

https://arxiv.org/pdf/1703.00606.pdf 我々は、単純グラフ、有限グラフ、および無向グラフを考える。 ここで定義されていない表記法や用語については[22]を参照してください。

Xception:深度分離可能な深い学習(Xception: Deep Learning with Depthwise Separable)

https://arxiv.org/pdf/1610.02357.pdf 我々は、畳み込みニューラルネットワークにおけるインセプションモジュールの解釈を、規則的な畳み込みと深さ方向の分離可能な畳み込み演算(奥行き方向の畳み込みとその後のポイント畳み込み)との間の中間ステップとして提示する。この光では、深さ方向に分離可能な畳み込みは、最大数のタワーを有するインセプションモジュールとして理解することができる。この観察は、Inceptionモジュールが深さ方向に分離可能な畳み込みに置き換えられている、Inceptionに触発された新規な畳み込みニューラルネットワークアーキテクチャを提案する。我々は、Xceptionと呼ばれるこのアーキテクチャが、ImageNetdataset(Inception V3が設計された)上のInception V3をわずかに上回り、3億5000万の画像と17,000クラスを含むより大きな画像分類データセットでInceptionV3を大幅に上回ることを示す。 XceptionアーキテクチャはInceptionV3と同じ数のパラメータを持つため、パフォーマンスの向上は容量の増加によるものではなく、モデルパラメータの効率的な使用によるものです。

畳み込みと分離可能な畳み込みとの間の連続体

この強力な仮説に基づいて、Inceptionモジュールの「極端な」バージョンでは、最初に1x1畳み込みを使用してクロスチャネル相関をマップし、各出力チャネルの空間相関を別々にマッピングします。これは図4に示されている。我々は、この極端な形態のインセプションモジュールは深さ方向の分離可能なコンボリューションとほぼ同じであると言い、2014年の早い時期にニューラルネットワーク設計で使用されており、 2016年のTensorFlowフレームワーク[1] .TensorFlowやKerasなどのディーププレイングフレームワークで一般に「分離可能な畳み込み」と呼ばれる深度分離可能な畳み込みは、深さ方向の畳み込み、すなわち入力の各チャンネルで独立して実行される空間畳み込みすなわち、1x1畳み込み(convolution)であり、深度畳み込みによって出力されたチャネルを新しいチャネル空間に投影する。これは、空間的に分離可能な畳み込みと混同してはいけません。これは画像処理コミュニティで一般に「分離可能な畳み込み」とも呼ばれます。インセプションモジュールと高度に分離可能な畳み込みとの間の2つの小さな相違点は、
- 操作の順序:通常実行される(例えば、TensorFlowにおける)深さ方向に分離可能な畳み込みは、最初にチャネルワイズ空間畳み込みを行い、次に1x1畳み込みを実行するが、Inceptionは1x1畳み込みを最初に行う。
- 最初の操作後に非線形性があるかどうか。 インセプションでは、両方の操作の後にReLUの非線形性が続きますが、通常、奥行き方向の分離可能な畳み込みは非線形性なしで実装されます。

f:id:miyamotok0105:20170305231637p:plain 図1:カノニカルインセプションモジュール(インセプションV3)。

f:id:miyamotok0105:20170305231707p:plain 図2:簡略化されたインセプションモジュール

f:id:miyamotok0105:20170305231730p:plain 図3:簡略化されたInceptionモジュールの厳密に同等の再構成。

f:id:miyamotok0105:20170305231803p:plain 図4:Inceptionモジュールの「極端な」バージョン.1つの空間畳み込みがある 1x1コンボリューションの出力チャネル。