AI Technology Community
Today search ranking
The Week search ranking
month search ranking
678views
0likes
2021 CVPR最優秀学生論文賞(Best Student Paper)
最優秀学生論文賞(Best Student Paper)タスクプログラミング:データ効率の良い行動表現の学習(Task Programming: Learning Data Efficient Behavior Representations)著者チームはカリフォルニア工科大学とノースウェスタン大学に所属——Jennifer J. Sun、Ann Kennedy、Eric Zhan、David J. Anderson、Yisong Yue、Pietro
12-11 13:55
681views
0likes
2021 CVPR最優秀論文賞ノミネート(Best Paper Honorable Mentions)
何愷明(かいみん)とXinlei Chenの論文「Exploring Simple Siamese Representation Learning」(シンプルなシャイアム表現学習の探究)が最優秀論文のノミネートを獲得しました。https://arxiv.org/abs/2011.10566 この論文では主に、「シャイアムネットワーク」(Siamese networks)が最近の様々な教師なし視覚表現学習モデルにおいて一般的な存在になっていることが研究されています。
12-11 13:54
496views
0likes
2021 CVPR論文賞
最高論文賞(Best Paper)今年の最高論文は、マックス・プランク知能システム研究所とテュービンゲン大学のチームのマイケル・ニーマイヤー(Michael Niemeyer)、アンドレアス・ガイガー(Andreas Geiger)のものです。彼らの論文は「GIRAFFE: Representing Scenes as Compositional Generative Neural Feature Fields」(GIRAFFE:シーンを構成的生成ニューラル特徴フィールドとして表現する)
12-11 13:53
769views
0likes
国際コンピュータビジョン・モード識別会議(CVPR)
国際コンピュータビジョンとパターン認識会議(CVPR)はIEEEが毎年開催する学術会議で、会議の主な内容はコンピュータビジョンとパターン認識技術です。CVPRは世界トップレベルのコンピュータビジョン会議(三大トップ会議の一つで、他の二つはICCVとECCV)で、近年は毎年約1500人が参加しています。
12-11 13:49
603views
0likes
国際コンピュータビジョン大会International Conference on Computer Vision
ICCV、英語の正式名称はInternational Conference on Computer Vision、中国語の正式名称は国際コンピュータビジョン大会です。この会議もIEEEが主催する世界最高レベルの学術会議で、2年に1度世界中で開催され、業界では非常に高い評価を得ています。ICCVの論文採用率は
12-11 13:49
1312views
0likes
欧州コンピュータビジョン国際会議European Conference on Computer Vision
ECCVは、英語の正式名称がEuropean Conference on Computer Visionで、中国語の正式名称は欧州コンピュータビジョン国際会議です。ECCVの毎年の論文受理率は約25 - 30%で、毎回の会議で世界的に約300本の論文が採録され、採録される論文の主な出所は米国や欧州などのトップ
12-11 13:48
629views
4likes
KNNアルゴリズム(K最隣接アルゴリズム)の詳細
K近傍法の核心的な数学的知識は距離の計算と重みの計算です。私たちは予測対象の点を中心点として、その周囲の一定半径内にある既知の点との距離を計算し、上位k個の点を選び出して投票を行います。このk個の点の中で、どのクラスの点が多いかによって、その予測点はそのクラスに属すると判定されます。
02-16 23:45
1299views
1likes
KNNアルゴリズムの長所と短所
利点:簡単で、理解しやすく、モデリングや訓練が不要で、実装しやすい;希少事象の分類に適している;多クラス分類問題に適しており、例えば遺伝子特徴に基づいてその機能分類を判断する場合、kNNはSVMよりも性能が良い。欠点:怠惰アルゴリズムで、メモリオーバーヘッドが大きく、テストサンプルの分類時の計算量が多く、性
12-10 23:29
505views
0likes
KNNアルゴリズムの流れ
KNNアルゴリズムの流れ:テストデータと各訓練データ間の距離を計算する;距離の昇順にソートする;距離が最も小さいK個の点を選ぶ;上位K個の点が属するクラスの出現頻度を確定する;上位K個の点の中で最も出現頻度の高いクラスをテストデータの予測分類として返す。下の図にはKN
12-10 23:28
466views
0likes
ニューラルネットワークとディープラーニング:ニューラルネットワークを使用して手書きの数字を識別すると
前言:この一連の内容は主に「neural networks and deep learning」という電子書籍から翻訳したものです。この本を翻訳することを決めたのは、この本が視覚分野のディープラーニングの理論面を非常に分かりやすく解説していると思ったからです。皆さんにも多くのことを学んでいただけることを期待しています。人間の視覚システムは
12-10 23:23
393views
1likes
Step活性化関数
活性化関数 Step は実際よりも理論に傾いており、生物ニューロンの全か無かの特性を模倣しています。その導関数が 0 である(零点での導関数は定義されないことを除く)ため、勾配に基づく最適化手法が使えないので、ニューラルネットワークには適用できません。
12-10 23:20
490views
0likes
Hard Tanh活性化関数
Hard TanhはTanh活性化関数の線形区分近似です。比較すると、計算が容易であり、これにより学習計算の速度が速くなります。ただし、初回の導関数値がゼロになる可能性があり、これが静止ニューロンや学習率の低下を引き起こすことがあります(詳細はReLUを参照)。
12-10 23:19
578views
1likes
LeCun Tanh(Scaled Tanhとも呼ばれる)
LeCun Tanh(スケーリングされた Tanh とも呼ばれます)は Tanh 活性化関数の拡張バージョンです。これは学習を改善するいくつかの特性を持っています:f(± 1) = ±1;二階導関数は x = 1 で最大になります;また、有効ゲインは 1 に近いです。
12-10 23:18
491views
0likes
ArcTan活性化関数
視覚的には双曲正接(Tanh)関数に似ていますが、ArcTan活性化関数はより平坦で、他の双曲線関数よりも明瞭です。デフォルトでは、その出力範囲は-π/2 と π/2 の間です。その導関数がゼロに近づく速度も遅く、これは学習効率が高いことを意味します。しかし、これはまた、導
12-10 23:17
638views
0likes
Softsign活性化関数
SoftsignはTanh活性化関数のもう一つの代替選択肢です。Tanhと同じように、Softsignは反対称、中心化されておらず、微分可能で、-1と1の間の値を返します。そのより平坦な曲線とより遅い下降導関数は、それがより効率的に学習できることを示しています。一方で、導関数の計算はTanh
12-10 23:17
414views
0likes
SoftPlusアクティブ化関数
ReLUの良い代替選択肢として、SoftPlusは0より大きい任意の値を返すことができます。ReLUとは異なり、SoftPlusの導関数は連続的で非ゼロであり、どこにでも存在するため、無反応ニューロンの発生を防ぎます。しかし、SoftPlusがReLUと異なるもう一つの点は、その非対称性です。
12-10 23:16
416views
0likes
活性化関数Bent Identity
活性化関数のBent Identityは、IdentityとReLUの間の妥協的な選択肢です。それは非線形挙動を許容します。その非ゼロの導関数は学習を効果的に向上させ、ReLUに関連する無反応ニューロンの問題を克服します。導関数が1の両側で値を返すことができるため、それは
12-10 23:15
396views
0likes
Symmetrical Sigmoidアクティベーション関数
対称シグモイド(Symmetrical Sigmoid)は、もう一つのTanh活性化関数の変種です(実際には、入力を半分にしたTanhに相当します)。Tanhと同様に、反対称で、ゼロ中心で、微分可能で、値域は-1から1の間です。そのより平坦な形状とより緩やかな下降導関数は、それがより効率的に...
12-10 23:15
467views
0likes
Log Logアクティベーション関数
Log Log活性化関数(上の図の f(x) から、この関数は e を底とする入れ子式の指数関数であることがわかる)の値域は [0,1] であり、Complementary Log Log活性化関数は古典的なシグモイド活性化関数を代替する可能性があります。この関数はより早く飽和し、ゼロ点の値は 0.5 より高くなります。
12-10 23:15
1010views
4likes
ガウス活性化関数(Gaussian)
ガウス活性化関数(Gaussian)は、放射基底関数ネットワーク(RBFN)で一般的に使用されるガウスカーネル関数ではありません。ガウス活性化関数は、多層パーセプトロン型のモデルではあまり普及していません。この関数はどこでも微分可能であり、偶数関数ですが、1階導関数はすぐにゼロに収束します。
12-10 23:14