JP2007536610A - 実世界環境において使用するためのモバイル頭脳ベースデバイス - Google Patents
実世界環境において使用するためのモバイル頭脳ベースデバイス Download PDFInfo
- Publication number
- JP2007536610A JP2007536610A JP2007508501A JP2007508501A JP2007536610A JP 2007536610 A JP2007536610 A JP 2007536610A JP 2007508501 A JP2007508501 A JP 2007508501A JP 2007508501 A JP2007508501 A JP 2007508501A JP 2007536610 A JP2007536610 A JP 2007536610A
- Authority
- JP
- Japan
- Prior art keywords
- neural
- visual
- brain
- nerve
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Neurology (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Dermatology (AREA)
- Neurosurgery (AREA)
- Human Computer Interaction (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
Abstract
【解決手段】これらの擬似皮質及び皮質下領域は、再入可能に結合され、各領域は、平均活動レベルとニューロングループの活動の関連タイミングとの両方を表現する神経ユニットを含む。この頭脳ベースデバイスBBDは、共通する視覚的特徴を有する複数のオブジェクトの中から区別することを学習し、「目標」物体に、本質的に好ましい聴覚的な合図を連合させる。再入可能な神経構造によって抑制され、行動とシナプシス可塑性とによって変調されたこれらの回路は、結果として物体の識別に成功する。
【選択図】図2
Description
米国特許仮出願番号60/562,376、発明名称「実世界環境において使用するためのモバイル頭脳ベースデバイス」、発明者、出願日2004年4月15日(代理人管理番号NSRF-01000US0)、及び、米国特許出願番号11/___,___、発明名称「実世界環境において使用するためのモバイル頭脳ベースデバイス」、発明者、出願日2005年4月13日(代理人管理番号NSRF-01000US1)。
本特許明細書の開示部分は、著作権保護を受ける資料を含む。著作権者は、それが特許商標庁のファイル又は記録において発行される限りは、特許明細書又は特許開示の何れによる複製転載に関して異議はないが、それ以外については、如何なるものであれ全著作権を所有する。
視覚システムは、霊長類の後頭側頭もしくは下面の皮質経路に基づいてモデル化されており、V1→V2→V4→ITの神経領域を含み、連続した領域におけるこれらのニューロンは、下側頭連合野における、ほぼ全体の視覚野をカバーする受容野までの、累進的に大きな受容野を有している。NOMAD10のCCDカメラ16からの視覚イメージは、色及びエッジについてフィルタがかけられ、このフィルタされた出力は、V1領域におけるニューラル活動に直接影響を与える。V1は、選択的に、緑(V1−緑)、赤(V1−赤)、水平ラインセグメント(V1−水平)、垂直ラインセグメント(V1−垂直)、45度ライン(V1−対角線−右)、そして、135度ライン(V1−対角線−左)に反応する神経ユニットをそれぞれ有する、サブ領域(不図示)に分割される。この視覚システムは、この視覚システム内及び視覚システムと他の皮質領域との間の高いレベルの相互作用を解析するための、計算機上の取り扱いやすい基盤を与える。
本追跡システムにより、NOMAD10は、聴覚及び視覚刺激に対して適応することができる。神経領域C(上丘に類似する)の活動は、NOMAD10がそのカメラ凝視を向けるところを命令する。NOMAD10における追跡は、領域Cにおける神経ユニットの活動のベクトル和に基づいて、ホイール22への信号によって実現される。領域Cにおける各神経ユニットは、その好適な指示に一致する受容野を有しており、この領域は、もし活動が領域Cの左側上で優位を占めるならば左へ曲がることを誘発する信号がNOMAD10のホイール22に対して出されるような、地勢図的な配置を有している。聴覚の神経領域(A−左、及び、A−右)は、NOMAD10を音源に順応させる領域Cのそれぞれ同側に対して、強い興奮性の投射を有する。神経領域V4は、領域Cへ地勢的に投射し、その活動により、NOMAD10は、視覚物体(例えば、赤い三角)上への凝視を集中させることができる。神経領域IT及び視覚システムSは、共に領域Cへ投射し、活動のバイアスを生成することによってIT→CおよびIT→Sの経路における可塑性結合が目標選択を促進し、突出した知覚分野をもたらす(後述の評価システムを参照)。以下で述べるように、NOMAD10は、バイアスの欠如のために、条件付け又は訓練段階に先行して環境内における2つの物体の間に優先的にその凝視を向ける(例えば、赤い三角及び赤い四角)。適切な視覚物体(例えば、赤い三角)を学習した後は、可塑的結合の強度を変えて、選択された物体の位置に対応する領域Cのこれらの部分における活動を、より活発化させることとなる。
本システムは、マイクロホン16、18からの入力を、擬似的な神経ユニット活動に変換する。神経領域マイク−左及びマイク−右は、それぞれ、対応するマイクロホン16、18が、所定の周波数帯域内の十分に増幅された音を検知する度に活発になる。マイク−左/マイク−右は、領域A−左/A−右における神経ユニットに投射する。一方からの音は、NOMAD10をその音源に順応させる領域Cの同側上の活動を順番に生成する、その聴覚システムの同側の活動をもたらす。
擬似的な評価システムにおける活動は、顕著な知覚事象の発生を合図し、この活動は、IT→S及びIT→Cの経路における結合の強さの調節に寄与する。はじめに、以下に述べる学習段階において、神経領域Sは、聴覚システムによって検知された音によって活発にされる(神経システム12のA−左→S、及び、A−右→Sを参照)。顕著な事象によって引き起こされる点、擬似神経システムの大きな領域に影響を及ぼす点(シナプシス可塑性の節で後述する)、そして、いくつかのサイクルを持続させる点で、領域Sにおける活動は、上昇するニューロン調節システムのそれに類似している。加えて、追跡領域Cへ投射によって、領域Sは、実世界環境におけるNOMAD10の行動に直接影響を及ぼす。
一実施形態において、擬似神経システム12の神経領域V1、V2等の中の神経ユニットは、平均発生(発火)率モデルによってシミュレートされる。各神経ユニットの状態は、平均発生(発火)率変数(σ)及び位相変数(P)の両方によって決定される。各神経ユニットの平均発生(発火)率変数は、約100ミリ秒の時間間隔における、概ね100ニューロンのグループの平均活動又は発生(発火)率に対応する。発生(発火)活動の相対的タイミングを特定する位相変数は、実時間における個々のニューロンのスパイク活動のモデリングに関連するコンピュータ上のコストを背負うことなく、時間的な特異性を与える(下記の神経ユニット活動及び位相を参照)。
一実施形態において、神経ユニット間のシナプシス結合は、所定の神経領域の中(例えばV1又はC)と、神経領域の間(例えば、V2→V4又はC→V4)との両方で、図2の凡例によって示されるように、電圧独立又は電圧依存の何れか、位相独立又は位相依存の何れか、そして、可塑性又は非可塑性の何れかになるになるようにセットされる。電圧独立結合は、ニューロンのシナプシス後状態にも関わらず、シナプシス入力をシナプシス後ニューロンへ与える。電圧依存結合は、シナプシス後減極を活発にさせるよう要求するレセプタタイプ(例えば、NMDAレセプタ)の寄与を表す。換言すると、シナプシス前ニューロンは、シナプシス後ニューロンへのシナプスを通って自身の神経突起に沿って信号を送信する。このシナプシス後ニューロンは、この信号を受信し、これを他のシナプシス前ニューロンから受信している他の信号とともに統合する。
図3A−3Eに、神経ユニット間の再入可能結合が、如何にして上で示したような位相パラメータを伴った平均発火率モデルにおいて神経同時性へ導かれるかを示し、それによって、上述した「結合問題」の解決を容易にする。図3Aに、3つの神経ユニット(n1−n3)からなる簡単なネットワークモデルを示す。ユニットn1及びn2は、それぞれ、絶え間ない位相独立入力(実線の入力矢印)を受信し、個々の電圧依存結合を介して第3の神経ユニットn3(実線の入力矢印)へ投射する。再入可能な電圧依存結合(点線矢印で図示)を介して、ユニットn1及びn2は、互いに投射し合い、そして、ユニットn3は、ユニットn1及びn2の両方へ折り返し投射する。
多様な実施形態において、各神経ユニットの平均発火率(s)は、0(静止中)から1(最大発火)までの連続的な範囲に及ぶ。位相(p)は、0から2πの範囲の角度によって神経ユニットの活動の関連タイミングを表現する、32の離散バイナリに分割される。神経ユニットの状態は、その現在の状態と、電圧独立、電圧依存からの寄与と、位相独立シナプシス結合との関数として更新される。ユニットjから神経ユニットiへの電圧独立入力cは、
(表2)
(解剖学上の投射及び結合タイプの属性)
シナプシス強度は、シナプシス前及び後神経ユニットの位相及び活動に依存するシナプシス規則による変更の影響を受ける。可塑性のシナプシス結合は、評価独立(図2のIT→ITを参照)又は評価従属(図2のIT→S、IT→Cを参照)の何れかである。これら規則は、両方とも修正されたBCM学習規則に基づいており、ここでは、閾値は機能低下の領域を定義し、増強は、シナプシス前及びシナプシス後神経ユニット間の位相相違の関数である(図2の図内挿入図を参照)。図2に示した図式的な挿入図は、既知のBCM規則の形式を示し、ここでは、シナプシス変化(ΔCij)は、シナプシス後及び前神経ユニット(ΔP)と2つの閾値(Θ1及びΘ2)との間の位相相違の関数である。
ここで、pi(t)及びpj(t)は、シナプシス後及び前ユニットの位相である(0.0≦Δp≦1.0)。1.0に近いΔpの値は、シナプシス前及び後ユニットが類似の位相を有していることを示し、0.0に近いΔpの値は、シナプシス前及び後ユニットが同調しないということを示している。関数BCMは、区分的線形関数として実装され、入力としてΔpを取得し、2つの閾値(θ1,θ2ラジアン)と方向(k1,k2)と飽和パラメータρとによって決定される(終始、ρ=6)。
擬似神経システム12の各シミュレーションサイクルの間、知覚入力が処理され、全ての神経ユニットの状態が計算されて、全ての可塑性結合の結合強度が決定され、運動出力が生成される。以下に記載する実験においては、各シミュレーションされたサイクルの遂行は、およそ100ミリ秒の実時間が要求される。
図5Aに、NOMAD10の環境図を示す。この環境は、黒い壁で囲まれた領域からなっている。緑のひし形、緑の正方形、赤いひし形、赤い正方形からなる集合からの様々な形状の対が、2つの向かい側の壁に掛けられている。床は、不透明な黒いプラスティックパネルで覆われ、反射性のある工作用紙で作られた境界を含んでいる。この境界が、NOMADの前面に取り付けられた赤外線(IR)探知器12によって探知されて床に向かい合うと、NOMAD10は、次の2つの反射的動作のうちの1つを行う:(i)、もし、物体がその視野中にあるならば、後退し、停止し、そして、およそ180度回転する、(ii)もし、その視野中に物体が存在しないならば、NOMAD10は、およそ90度回転し、このようにして、視覚刺激なしに壁から離れる向きをとる。視覚形状を含む壁の境界近くで、部屋の片側上の赤外線エミッタ(IR)が、他方の側上のスピーカを含むIRセンサと組にされて(図5Aに示したように)、IRビームが生成される。もし、NOMAD10の動作が何れかのIRビームを遮断すると、音がスピーカによって放出される。NOMAD10による音の探知は、擬似神経システム12を介して音源へ向かう適応動作を導き出す。
図6A及び6Bに、NOMAD10についての実験の配置を示す。NOMAD10は、約「90対66」の、領域の2壁面上の物体を観察する。実験は、図6A及び6Bに示したように、訓練及びテストの2つの段階に分けられる。両方の段階の間、V1、V2等の領域の、全ての神経ユニットの活動及び位相反応は、分析のために記録される。
図6Aに示した訓練段階において、NOMAD10は、15〜20分の実時間と、赤いひし形及び赤い正方形(図6Aの左)そして赤いひし形及び緑のひし形(図6Aの右の)といった視覚形状の様々な対への概ね24のアプローチとに相当する、10000シミュレーションサイクルの囲い込み探検を自律的に行う。このようにして、各対は、「目標」の形状(赤いひし形)と「目標以外の選択肢」の形状(緑のひし形又は赤い正方形)とを含むことになる。目標以外の選択肢は、目標と属性を共有するよう故意に設計される。例えば、赤いひし形が目標である場合には、赤いひし形/赤い正方形の対が一方の壁の上に掛けられ(図6Aの左側に示されている)、赤いひし形/緑のひし形の対が他方の壁の上に掛けられている(図6Aの右側に示されている)。その部屋の何れか片側上の赤いひし形は、図示したように、両方の場合ともスピーカに最近接している。目標と目標以外の選択肢との対における形状の左右適応(例えば、左の上の赤い正方形、右の上の緑のひし形)が目標選択を混同しないということを保証するために、目標以外の選択肢の側は、6回の対の観察ごとに取り替えられる。この訓練段階の間、スピーカへの反応は、NOMAD10を目標に向かわせる。
図6Bに示したように、訓練の間、スピーカは消され(それゆえ、図示しない)、NOMAD10は、15000シミュレーションサイクルの囲い込み探検を自律的に行うことを許可される。はじめの10000サイクルには、図6Aの訓練段階の間に所定の同一の目標及び目標以外の選択肢との遭遇も含まれている。最後の5000サイクルには、目標と、その目標とは何れの特徴も共有しない4つの形状の組(左及び右)の単一の形状との遭遇が含まれる(例えば、目標としての「赤いひし形」と、目標以外の選択肢としての「緑の正方形」との組)。
頭脳ベースBBDの各「主題」の識別行動は、図7A−7Bに示したような、条件付け又は訓練に続く聴覚合図がない場合において、その「主題」が目標物体に向かって如何にうまく追跡されるかによって評価される。これは、図6Bに示す視覚物体の対への各アプローチの間に、目標がカメラ16を介してNOMAD10の視界の中心に置かれるための時間の分数として計算される。3つの別々の「主題」は、4つの目標形状又は物体、つまり、赤いひし形(rd)、赤い正方形(rs)、緑の正方形(gs)、及び緑のひし形(gd)のうちの、好ましい1つに条件付けされる。神経領域V2における活動は、NOMAD10の視野が、そのカメラ16を介して特定の視覚形状を中心においた時間の割合を評価するために使用される。図7A及び7Bの棒グラフは、標準偏差を意味するエラーバーを伴った、追跡時間平均割合を表す。図7Aに示したように、完全な再入可能結合子を伴ったBBD「主題」は、全てのアプローチを平均して、各目標形状に対する目標以外の選択肢(灰色のバー)以上の著しい追従があった(白いバー)。図7Bに示したように、完全な再入可能結合を伴った「主題」(白いバー)は、テスト中のみ「障害」を受けた「主題」(明るい灰色のバー)、及び、訓練中とテスト中の両方において障害をうけた主題(黒いバー)よりも、著しく良好に目標に追跡した(*は、ランクサム(RankSum)テストを使用して、p<0.01であることを示す)。
環境におけるNOMAD10の行動の間、同期的に活動する神経グループからなる回路が、擬似神経システム12における異なる神経領域の全体にわたって分配される。典型的な行動の実行中の、ニューラル反応のスナップショットを図8に与える。このスナップショットは、訓練セッションの(図6A)の修了に向けて、赤いひし形である目標及び緑のひし形である目標以外の選択肢にアプローチ中のNOMAD10を示す。描かれた神経領域V2,V4,IT,C及びSにおける各画素は、各所定の神経領域内部の単一神経ユニットの活動及び位相を表す。このように、例えば、図8は、神経領域V2及びV4、特に、色(赤、緑)及び線方向(垂直、対角)についてのニューラルサブ領域に対する反応を示している。この位相は各ピクセルの色によって示され、その活動はピクセルの輝度によって示される(黒は活動なし:非常に明るいものは最大の活動)。
これらニューラル反応のダイナミクスを分析するために、テストセッションにおける目標−目標以外の選択肢の対へのアプローチ中に、活動的な神経ユニットの位相分布が検査される。図9Aに、完全な「主題」(再入可能な結合を伴った)によって、赤い正方形をした目標以外の選択肢に直面した赤いひし形の目標へアプローチする間の、様々な神経領域における神経の位相の分布を示す。図9Aは、ニューラルサブ領域V4R(赤)、V4H(水平)、V4D(対角)における位相分布の間の、整合的な相関を示す。ニューラルサブ領域V4Rにおける二方向性の分布は、NOMAD10の環境における2つの赤い形状(ひし形、正方形)の存在を反映している。1つの形跡は、ニューラルサブ領域V4D(対角)に確実に相関し、それゆえ、赤いひし形に関連付けることができ、他方は確実にサブ領域V4H(水平)に相関し、それゆえ、赤い正方形に関連付けることができる(この期間中、非活発のままであった領域V4Gは不図示)。赤いひし形を選ぶためにテストフェーズの間に事前に条件付けすることによってもたらされるシナプシスの変化に影響を及ぼす、赤い正方形である目標以外の選択肢とは対照的に、領域S,IT及びCにおける、活発な神経ユニットの位相は、赤いひし形の目標に強く相関される。このように、ネットワーク活動のグローバルパターンは、目標のほうを選んで、バイアスされた位相分布を表示する。
このバイアスを定量化し、一般性を評価するために、テスト中の目標に関連する領域S,IT及びCにおける神経ユニットの割合を、目標以外の選択肢に関連する割合と共に図6Bに示す。表3に、全ての「主題」と全4つの目標形状との上に計算されるこれら割合の平均値を示す。
(表3)
(目標と目標以外の選択肢の物体とに対応する機能的回路の神経構成及び平均活動)
目標以外の選択肢に関連する回路においてよりも顕著に大きな割合の神経ユニットが、目標に関連する機能的回路の部分となっている。加えて、目標に関連するこれら神経ユニットは、目標以外の選択肢に関連する回路における神経ユニットよりも顕著に高い発火率を有している。
再入可能な結合の障害は、上記のローカル及びグローバルな処理の間の相互作用を著しく妨げる。非常に簡単なネットワークモデルにおいてでさえ、再入可能な結合の除去は、ニューラル同期の出現を防ぐことができる(図3A−3Eを参照)。より大きなスケール上では、図9Bに、内部領域における興奮性再入可能結合の障害後の、図9Aに示したのと同一のNOMAD10の「主題」による、同一の目標/目標以外の選択肢の対へのアプローチを示す。いくつかの個々の領域は、その位相分布においてピークを示し続けるが(例えば、ニューラルサブ領域V4R)、多くはそうではなく、神経領域間の位相相関は、激しく減少する。この現象は、多様なV4神経領域の間のみならず(図2)、領域V4及び領域S,IT及びCの間でも発生する。完全な「主題」においてはっきりと明らかな、動的に形成され、グローバルに統一性の取れた(coherent)回路は、障害のある「主題」においてはほとんど完全に欠如している。例えば、図9Bは、領域Sにおける活動は、もはや領域V4における単一の形跡には独自に相関せず、代わって、2つの異なる状態の間を交替する。神経領域IT及びCにおける優勢な形跡の欠如も示されている。
図10A−10Cは、赤いひし形目標を選択するよう条件付けした後の「主題」に対する神経領域間の位相相関の地勢的な表現を示す。図は、色を付けてコード化されて(暗い青は相関が無いことを意味し、暗い赤は高い相関を意味する)、各色付けされた領域は、神経領域の所定の対の、中間位相間の相関係数を示す。図10Aは、再入可能結合が完全であるときの相関係数を示す。図9に示したデータに従って、特定の目標機能(V4D及びV4R)と、これらの領域間と、領域S,IT及びCとに関連する領域間には強い位相相関が見られる。テスト中に障害を受けた再入可能結合を伴った場合(図10B)、そして、条件付け中及びテスト中の両方において障害を受けた再入可能結合を伴った場合(図10C)の同一の「主題」に対する神経領域間の相関は、共に非常に弱い。視覚的に示したように、目標に関連する神経領域V1,V2等の間の結合は、何れの障害ケース(図10B及び10C)におけるものよりも、再入可能結合が完全である場合(図10A)に、より高いものとなる。
図11A及び11Bは、異なった位置及び異なったスケールでの、NOMAD10の視覚野における目標物体に対するニューラル評価領域Sの応答を示す図である。平均値は、標準誤差を示すエラーバーを伴って、全ての目標物体に対するNOMAD10の「主題」による全てのアプローチに対して計算されている。図11Aは、視覚野(135°)内の目標位置の機能としての平均反応を示す。図11Bは、視覚8°〜27°の範囲で識別できる目標サイズとしての平均反応を示す。図11A及び11Bの挿入物は、正方形の目標が、極端な位置及びスケールにおいて、NOMAD10の視野にどのように現れるかを示している。
目標形状への単一アプローチの間の神経領域S,IT及びCに対する、単一の「主題」のための条件付け中のニューラル活動について、早期段階(左パネル、タイムステップ750〜1165)を図12Aに、条件付けの遅延段階(右パネル、タイムステップ6775から7170)を図12Bに示す。各パネルは、時間を通じた、対応神経領域における神経ユニット位相の分布を示している。図9と同様に、グレースケールは、特定の位相での各神経領域における神経ユニットの割合を示す。各パネルの下部の濃密な線は、スピーカからの音が与えられたタイムステップを示す(図6Aを参照)。早期の条件付け訓練期間(左パネル)においては、領域Sは、音の開始までは(すなわち、可聴活動)不活性であり、ここでは、目標に関連する領域IT及びCの両方における上部形跡と同調して強く活性化される。目標以外の選択肢に対応する領域IT及びCにおける下部形跡は、同時刻においては比較的抑制されている。条件付けの後半においては(右パネル)、領域S,IT及びCは、音の開始より充分前には、目標(下部形跡)に対応する視覚システム活動に同調し、目標以外の選択肢に関連する活動は、音の開始より充分前には、相対的に抑制されている。
図13は、本発明の多様な実施形態によるシステムの例示的説明である。この図は、論理的に区分されたコンポーネントで描かれているが、かかる描画は、ただ説明目的のために過ぎない。この図に表現されたコンポーネントを任意に結合することができ、又は、別々のソフトウェア、ファームウェア及び/又はハードウェアコンポーネントに分割することができるということは、当業者にとって明らかである。さらに、かかるコンポーネントがどのように結合又は分割されようとも、同じコンピューティングデバイス上で実行することができ、あるいは、1又は複数のネットワーク又は他の適当な通信手段に接続された、異なるコンピューティングデバイスの中に分散することができるということも、当業者にとって明らかである。
擬似神経システム12によって制御されるNOMAD10を含み、異なった刺激の視覚特性を結合する頭脳ベースデバイス(BBD)について述べた。頭脳ベースデバイスBBDにおける結合は、再入可能な神経構造(図2、表1及び表2)、神経グループの動的な同期、そして、シナプシス可塑性及び環境内を動くNOMAD10の自律的な行動によって生成される相関を含む、多階層の相互作用の結果として発生する。具体的には、視覚的物体へのアプローチの間、同期的に活性する神経回路の構成が、NOMAD10の視野における各物体に対して発生する。神経領域V1、V2等の内部及び間の再入可能結合によって作動可能になるこれらの回路は、順番にNOMAD10の識別的な行動を引き起こす、運動領域活動を活性化させる。これは、有効な視覚的物体認識の根底にある、頭脳、体、及び行動の間の複雑で動的な相互作用の中に洞察を与えるものである。
12 擬似神経システム
16 CCDカメラ
18、20 マイク
22 エフェクタ(ホイール)
24 赤外線(IR)センサ
Claims (15)
- 視覚的場面を統合するように実世界環境において行動するモバイル頭脳ベースデバイスであって、
a)
i)視覚情報を受信するための視覚入力センサと、
ii)聴覚情報を受信するための聴覚入力センサと、
iii)モバイル適応デバイスの運動を可能にするためのエフェクタと、
を有するモバイル適応デバイスと、
b)前記視覚的場面内の物体の異なる視覚的特徴を結合するための、人間の脳の皮質領域に対応するコンピュータベース擬似神経システムと、
を備え、前記擬似神経システムは、
i)視覚システムを形成し、前記視覚入力センサからの視覚入力に反応して視覚刺激を生成するものであって、視覚刺激を生成するための前記頭脳の下面皮質経路に対応する第1の神経領域と、
ii)聴覚システムを形成し、前記聴覚入力センサからの聴覚入力に反応して聴覚刺激を生成する第2の神経領域と、
iii)上昇神経調節系に類似するものであって、上記実世界環境において移動している間に前記モバイル頭脳ベースデバイスが経験する実世界の顕著な事象に反応して評価刺激を生成する第3の神経領域と、
iv)頭脳の上位の小隆起に対応するものであって、追跡システムを形成し、前記聴覚刺激、視覚刺激、及び評価刺激に反応して、前記モバイル適応デバイスを前記モバイル適応デバイスへの前記聴覚入力情報及び視覚入力情報に向けるように前記エフェクタを制御する第4の神経領域と、
を含み、
c)視覚的結合は、前記モバイル適応デバイスの実世界移動の間に、
前記第1、第2、第3、及び第4の各神経領域内における神経ユニットの再入接続可能性、
前記第1、第2、第3、及び第4の神経領域間の再入接続可能性、及び、
前記第1、第2、第3、及び第4の各神経領域内での活動である局部的処理と、前記実世界における動作の間に形成され前記第1、第2、第3、及び第4神経領域の間で同期活動する機能的神経回路を生成するグローバル処理との相互作用、
を通して実現されることを特徴とするデバイス。 - 請求項1に記載のモバイル頭脳ベースデバイスにおいて、前記第1、第2、第3、及び第4の各神経領域における各神経ユニットは、そのタイミングが発生率変数によって表される相対的な神経活動を有し、この神経活動の相対的タイミングは位相変数によって表され、複数の神経ユニットの発生位相が類似することは同期活動を反映するものであることを特徴とするデバイス。
- 請求項1に記載のモバイル頭脳ベースデバイスにおいて、前記評価刺激は、前記第1、第2、第3、及び第4の神経領域間のシナプシス結合の強さを修正して、実世界環境におけるモバイル頭脳ベースデバイスの適応的行動を与えることを特徴とするデバイス。
- 請求項1に記載のモバイル頭脳ベースデバイスにおいて、前記第1の神経領域は、垂直皮質経路V1→V2→V4→ITに対応することを特徴とするデバイス。
- 請求項4に記載のモバイル頭脳ベースデバイスにおいて、前記神経領域V1は、視覚的物体の色及びラインセグメントに反応する神経ユニットを有するサブ領域に分割されることを特徴とするデバイス。
- 請求項4に記載のモバイル頭脳ベースデバイスにおいて、前記神経領域V2は、その各領域が前記視覚的知覚入力の画素に対応する神経ユニットを有することを特徴とするデバイス。
- 請求項1に記載のモバイル頭脳ベースデバイスにおいて、前記第1、第2、第3、及び第4の各神経領域内の神経ユニットは、それら自身の間で興奮性のシナプシス結合を有し、前記興奮性のシナプシス結合のそれぞれは、電圧依存であることを特徴とするデバイス。
- 請求項7に記載のモバイル頭脳ベースデバイスにおいて、前記第1、第2、第3、及び第4の神経領域は、前記領域間で再入可能な興奮性結合を有し、前記全ての再入可能な興奮性結合は電圧依存であることを特徴とするデバイス。
- 請求項1に記載のモバイル頭脳ベースデバイスにおいて、前記評価刺激は、前記第1の神経領域から前記第3の神経領域へと、前記第1の神経領域から前記第4の神経領域へとのニューラル経路におけるシナプシス結合の強さの調節に寄与することを特徴とするデバイス。
- 所定の視覚的物体を、視覚的特徴を共有する他の視覚的物体から識別するために実世界環境において学習するモバイル頭脳ベースデバイスであって、
a)その視野における前記視覚的物体についての視覚情報を受信するためのカメラと、音声情報を受信するための音声レシーバと、前記カメラから受信した視覚的刺激と前記音声レシーバから受信した音声刺激に向かって方向付けするための追跡システムとを備えるモバイル適応デバイスと、
b)視覚的物体に対する結び付けを行う人間の皮質及び皮質下の頭脳領域に対応するものであって、前記視覚及び聴覚刺激に反応して前記追跡システムを制御する擬似的な大規模再入可能神経構造システムと、
を備え、前記神経構造システムは、それぞれが神経ユニットからなる複数の神経領域を有し、前記神経領域には、前記複数の神経領域間の再入可能なシナプシス結合と前記各神経領域内の神経ユニット間の再入可能なシナプシス結合とが存在し、前記再入可能なシナプシス結合は、前記シナプシス再入可能結合の強さとは独立して前記複数の神経領域間の同期活動を助長するものであり、評価独立及び評価依存のシナプシス可塑性を有し、前記擬似的な大規模再入可能神経神経構造システムは、前記モバイル頭脳ベースデバイスの自律した行動を与えることを特徴とするデバイス。 - 請求項10に記載のモバイル頭脳ベースデバイスにおいて、前記擬似的な大規模再入可能神経構造システムは、前記視野内の各物体に対する前記各神経領域における、前記複数の神経領域間と神経ユニット間とに、異なるアクティブ再入可能な神経回路を形成することを特徴とするデバイス。
- 請求項11に記載のモバイル頭脳ベースデバイスにおいて、前記異なるアクティブ再入可能な神経回路は、前記回路の相対的な活動のタイミングにおいて差異を有することを特徴とするデバイス。
- 請求項10に記載のモバイル頭脳ベースデバイスにおいて、前記擬似的な大規模再入可能神経構造システムは、視覚システム、追跡システム、聴覚システム、及び評価システムを含む神経領域の4システムからなることを特徴とするデバイス。
- 請求項13に記載のモバイル頭脳ベースデバイスであって、擬似的な大規模再入可能神経構造を実装するコンピュータシステムをさらに含み、ここにおいて、前記コンピュータシステムは、構造上の投射の属性テーブルと前記再入可能神経構造の結合形式とを蓄積し、前記テーブルは、前記モバイル適応デバイスを、該デバイスがその環境内を移動する間制御するために使用される頭脳の神経構造をあらわすことを特徴とするデバイス。
- 請求項14に記載のモバイル頭脳ベースデバイスにおいて、前記各神経領域は、神経ユニットからなり、前記コンピュータシステムは、その1つが前記各神経領域のサイズを規定する別個のパラメータテーブルを蓄積することを特徴とするデバイス。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US56237604P | 2004-04-15 | 2004-04-15 | |
US60/562,376 | 2004-04-15 | ||
US11/105,019 US7519452B2 (en) | 2004-04-15 | 2005-04-13 | Mobile brain-based device for use in a real world environment |
US11/105,019 | 2005-04-13 | ||
PCT/US2005/012541 WO2005106762A2 (en) | 2004-04-15 | 2005-04-14 | Mobile brain-based device for use in a real world environment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007536610A true JP2007536610A (ja) | 2007-12-13 |
JP5175089B2 JP5175089B2 (ja) | 2013-04-03 |
Family
ID=35242324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007508501A Expired - Fee Related JP5175089B2 (ja) | 2004-04-15 | 2005-04-14 | 実世界環境において使用するためのモバイル頭脳ベースデバイス |
Country Status (5)
Country | Link |
---|---|
US (4) | US7519452B2 (ja) |
EP (2) | EP1763811A4 (ja) |
JP (1) | JP5175089B2 (ja) |
CN (1) | CN1981296B (ja) |
WO (1) | WO2005106762A2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024100995A1 (ja) * | 2022-11-11 | 2024-05-16 | ソフトバンク株式会社 | 情報処理装置、プログラム、及び情報処理方法 |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7765029B2 (en) * | 2005-09-13 | 2010-07-27 | Neurosciences Research Foundation, Inc. | Hybrid control device |
WO2007094830A1 (en) | 2005-11-10 | 2007-08-23 | In Silico Biosciences, Inc. | Method and apparatus for computer modeling the human brain for predicting drug effects |
US7827124B2 (en) * | 2005-12-28 | 2010-11-02 | Neurosciences Research Foundation, Inc. | Brain-based device having a cerebellar model for predictive motor control |
EP2024901A2 (en) | 2006-05-25 | 2009-02-18 | Elminda Ltd. | Neuropsychological spatiotemporal pattern recognition |
US20080004749A1 (en) * | 2006-06-30 | 2008-01-03 | Honeywell International, Inc. | System and method for generating instructions for a robot |
US8103602B2 (en) | 2006-12-29 | 2012-01-24 | Neurosciences Research Foundation, Inc. | Solving the distal reward problem through linkage of STDP and dopamine signaling |
US20140214730A9 (en) * | 2007-02-05 | 2014-07-31 | Goded Shahaf | System and method for neural modeling of neurophysiological data |
US20110004412A1 (en) * | 2007-11-29 | 2011-01-06 | Elminda Ltd. | Clinical applications of neuropsychological pattern analysis and modeling |
US8473436B2 (en) * | 2009-11-18 | 2013-06-25 | The Intellisis Corporation | Neural segmentation of an input signal and applications using simulated neurons, and a phase modulator |
US9405975B2 (en) | 2010-03-26 | 2016-08-02 | Brain Corporation | Apparatus and methods for pulse-code invariant object recognition |
US9129220B2 (en) * | 2010-07-07 | 2015-09-08 | Qualcomm Incorporated | Methods and systems for digital neural processing with discrete-level synapes and probabilistic STDP |
US9906838B2 (en) | 2010-07-12 | 2018-02-27 | Time Warner Cable Enterprises Llc | Apparatus and methods for content delivery and message exchange across multiple content delivery networks |
US8860787B1 (en) | 2011-05-11 | 2014-10-14 | Google Inc. | Method and apparatus for telepresence sharing |
US9256711B2 (en) * | 2011-07-05 | 2016-02-09 | Saudi Arabian Oil Company | Systems, computer medium and computer-implemented methods for providing health information to employees via augmented reality display |
US8862764B1 (en) * | 2012-03-16 | 2014-10-14 | Google Inc. | Method and Apparatus for providing Media Information to Mobile Devices |
US20130297539A1 (en) * | 2012-05-07 | 2013-11-07 | Filip Piekniewski | Spiking neural network object recognition apparatus and methods |
US9129221B2 (en) * | 2012-05-07 | 2015-09-08 | Brain Corporation | Spiking neural network feedback apparatus and methods |
US9224090B2 (en) * | 2012-05-07 | 2015-12-29 | Brain Corporation | Sensory input processing apparatus in a spiking neural network |
US9412041B1 (en) | 2012-06-29 | 2016-08-09 | Brain Corporation | Retinal apparatus and methods |
US9186793B1 (en) | 2012-08-31 | 2015-11-17 | Brain Corporation | Apparatus and methods for controlling attention of a robot |
US9311594B1 (en) | 2012-09-20 | 2016-04-12 | Brain Corporation | Spiking neuron network apparatus and methods for encoding of sensory data |
US9218563B2 (en) | 2012-10-25 | 2015-12-22 | Brain Corporation | Spiking neuron sensory processing apparatus and methods for saliency detection |
US9275326B2 (en) | 2012-11-30 | 2016-03-01 | Brain Corporation | Rate stabilization through plasticity in spiking neuron network |
US9904889B2 (en) | 2012-12-05 | 2018-02-27 | Applied Brain Research Inc. | Methods and systems for artificial cognition |
US9436908B2 (en) * | 2013-02-22 | 2016-09-06 | Qualcomm Technologies Inc. | Apparatus and methods for rate-modulated plasticity in a neuron network |
US9436909B2 (en) | 2013-06-19 | 2016-09-06 | Brain Corporation | Increased dynamic range artificial neuron network apparatus and methods |
US9239985B2 (en) | 2013-06-19 | 2016-01-19 | Brain Corporation | Apparatus and methods for processing inputs in an artificial neuron network |
US9552546B1 (en) | 2013-07-30 | 2017-01-24 | Brain Corporation | Apparatus and methods for efficacy balancing in a spiking neuron network |
CA3231419A1 (en) | 2013-08-02 | 2015-02-05 | Soul Machines Limited | System for neurobehavioural animation |
US10552734B2 (en) * | 2014-02-21 | 2020-02-04 | Qualcomm Incorporated | Dynamic spatial target selection |
US9987743B2 (en) | 2014-03-13 | 2018-06-05 | Brain Corporation | Trainable modular robotic apparatus and methods |
US9533413B2 (en) | 2014-03-13 | 2017-01-03 | Brain Corporation | Trainable modular robotic apparatus and methods |
US9881349B1 (en) | 2014-10-24 | 2018-01-30 | Gopro, Inc. | Apparatus and methods for computerized object identification |
FR3028743B1 (fr) * | 2014-11-21 | 2021-02-19 | Univ Centre Hospitalier | Dispositif pour la mesure des signaux de l'activite cerebrale d'un individu |
US9840003B2 (en) | 2015-06-24 | 2017-12-12 | Brain Corporation | Apparatus and methods for safe navigation of robotic devices |
WO2018200541A1 (en) | 2017-04-24 | 2018-11-01 | Carnegie Mellon University | Virtual sensor system |
US11151440B2 (en) | 2017-11-08 | 2021-10-19 | International Business Machines Corporation | Neural response human detector |
CN109376853B (zh) * | 2018-10-26 | 2021-09-24 | 电子科技大学 | 回声状态神经网络输出轴突电路 |
WO2021023724A1 (en) * | 2019-08-05 | 2021-02-11 | Université de Montréal | System simulating a decisional process in a mammal brain about motions of a visually observed body |
EP4100893A4 (en) * | 2020-02-03 | 2024-03-20 | Strong Force TX Portfolio 2018, LLC | SELECTION AND CONFIGURATION OF ARTIFICIAL INTELLIGENCE |
CN111338482B (zh) * | 2020-03-04 | 2023-04-25 | 太原理工大学 | 一种基于监督自编码的脑控字符拼写识别方法及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5136687A (en) * | 1989-10-10 | 1992-08-04 | Edelman Gerald M | Categorization automata employing neuronal group selection with reentry |
US6507828B1 (en) * | 1998-06-19 | 2003-01-14 | Jason Leonard | Neuron circuit and related techniques |
WO2002015125A2 (en) * | 2000-08-16 | 2002-02-21 | Research Foundation Of State University Of New York | Neural network device for evolving appropriate connections |
JP2002301674A (ja) * | 2001-04-03 | 2002-10-15 | Sony Corp | 脚式移動ロボット及びその運動教示方法、並びに記憶媒体 |
US6999953B2 (en) * | 2002-07-03 | 2006-02-14 | Energy Conversion Devices, Inc. | Analog neurons and neurosynaptic networks |
US20040138780A1 (en) * | 2002-11-15 | 2004-07-15 | Lewis Murray Anthony | Certain principles of biomorphic robots |
-
2005
- 2005-04-13 US US11/105,019 patent/US7519452B2/en not_active Expired - Fee Related
- 2005-04-14 CN CN2005800193357A patent/CN1981296B/zh not_active Expired - Fee Related
- 2005-04-14 EP EP05735603A patent/EP1763811A4/en not_active Withdrawn
- 2005-04-14 JP JP2007508501A patent/JP5175089B2/ja not_active Expired - Fee Related
- 2005-04-14 EP EP11196268A patent/EP2437205A1/en not_active Withdrawn
- 2005-04-14 WO PCT/US2005/012541 patent/WO2005106762A2/en active Application Filing
-
2009
- 2009-04-10 US US12/421,859 patent/US20110184556A1/en not_active Abandoned
-
2011
- 2011-11-30 US US13/308,296 patent/US20120173020A1/en not_active Abandoned
-
2013
- 2013-06-11 US US13/915,565 patent/US20130274919A1/en not_active Abandoned
Non-Patent Citations (4)
Title |
---|
CSNG200000815003; 安野 卓 他: '人間の状況判断機能と操縦スキルを模擬した自律型移動ロボットの走行制御' 電気学会論文誌 Vol.118-C No.12, 19981201, 第1698-1705頁 * |
JPN6011039171; Krichmar, J.L., Edelman, G.M.: 'Brain-based devices: intelligent systems based on principles of the nervous system' Proceedings. 2003 IEEE/RSJ International Conference on Intelligent Robots and Systems , 20031027, 第940-945頁 * |
JPN6011039173; 安野 卓 他: '人間の状況判断機能と操縦スキルを模擬した自律型移動ロボットの走行制御' 電気学会論文誌 Vol.118-C No.12, 19981201, 第1698-1705頁 * |
JPN7012005113; Jeffrey L. Krichmar and James A. Snook: 'A Neural Approach to Adaptive Behavior and Multi-Sensor Action Selection in a Mobile Device' Proceedings of the 2002 IEEE International Conference on Robotics and Automation vol.4, 200205, p.3864-3869. * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024100995A1 (ja) * | 2022-11-11 | 2024-05-16 | ソフトバンク株式会社 | 情報処理装置、プログラム、及び情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2437205A1 (en) | 2012-04-04 |
US7519452B2 (en) | 2009-04-14 |
CN1981296B (zh) | 2012-03-14 |
WO2005106762A2 (en) | 2005-11-10 |
WO2005106762A3 (en) | 2007-02-22 |
EP1763811A2 (en) | 2007-03-21 |
CN1981296A (zh) | 2007-06-13 |
JP5175089B2 (ja) | 2013-04-03 |
US20120173020A1 (en) | 2012-07-05 |
US20050261803A1 (en) | 2005-11-24 |
EP1763811A4 (en) | 2010-04-21 |
US20130274919A1 (en) | 2013-10-17 |
US20110184556A1 (en) | 2011-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5175089B2 (ja) | 実世界環境において使用するためのモバイル頭脳ベースデバイス | |
Ursino et al. | Neurocomputational approaches to modelling multisensory integration in the brain: a review | |
AU2015248794C1 (en) | System, method and computer program product for handling humanoid robot interaction with human | |
Paulun et al. | A retinotopic spiking neural network system for accurate recognition of moving objects using neucube and dynamic vision sensors | |
CN109765991A (zh) | 社交互动系统、用于帮助用户进行社交互动的系统及非暂时性计算机可读存储介质 | |
Velásquez | An emotion-based approach to robotics | |
Grossberg | Attention: Multiple types, brain resonances, psychological functions, and conscious states | |
CN109376621A (zh) | 一种样本数据生成方法、装置以及机器人 | |
Lacquaniti et al. | How long did it last? You would better ask a human | |
Grossberg | Developmental designs and adult functions of cortical maps in multiple modalities: Perception, attention, navigation, numbers, streaming, speech, and cognition | |
Rucci et al. | Integrating robotics and neuroscience: brains for robots, bodies for brains | |
Yücel et al. | Head pose and neural network based gaze direction estimation for joint attention modeling in embodied agents | |
Samuelson et al. | Grounding word learning in space and time | |
Iqbal et al. | Detecting and synthesizing synchronous joint action in human-robot teams | |
D'Angelo | A bio-inspired attentive model to predict perceptual saliency in natural scenes | |
Ma et al. | Neural mechanisms underlying temporal aspects of conscious visual perception | |
Salah et al. | Head pose and gaze direction estimation for joint attention modeling in embodied agents | |
Berthoz | Simplexity in Perception | |
NGUYEN | Bio-inspired retinal optic flow perception in robotic navigation | |
Lins | An embodied account of spatial language grounding | |
Parisi et al. | A Deep Neural Model for Emotion-Driven Multimodal Attention | |
Wang | The time dimension for neural computation | |
Ravulakollu et al. | Stimuli localization: An integration methodology inspired by the superior colliculus for audio and visual attention | |
CA3193435A1 (en) | Event representation in embodied agents | |
KR20220117671A (ko) | 몰입도-추론 기반 교감-유도형 dht 생성 방법 및 이를 적용하는 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110801 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20111101 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20111109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120201 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120919 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121010 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20121025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5175089 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |