JP6092527B2 - ユーザ凝視データに基づいた時空間データのセグメント化 - Google Patents

ユーザ凝視データに基づいた時空間データのセグメント化 Download PDF

Info

Publication number
JP6092527B2
JP6092527B2 JP2012114262A JP2012114262A JP6092527B2 JP 6092527 B2 JP6092527 B2 JP 6092527B2 JP 2012114262 A JP2012114262 A JP 2012114262A JP 2012114262 A JP2012114262 A JP 2012114262A JP 6092527 B2 JP6092527 B2 JP 6092527B2
Authority
JP
Japan
Prior art keywords
segmentation
frame
interest
region
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012114262A
Other languages
English (en)
Other versions
JP2013045445A (ja
Inventor
ブイ.プロホロフ ダニール
ブイ.プロホロフ ダニール
ティー.マニーノ マッテオ
ティー.マニーノ マッテオ
Original Assignee
トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド
トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド, トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド filed Critical トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド
Publication of JP2013045445A publication Critical patent/JP2013045445A/ja
Application granted granted Critical
Publication of JP6092527B2 publication Critical patent/JP6092527B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本出願は、時空間データのユーザによる凝視をモニタすることを通して得られた凝視データを使用して、ビデオデータまたはライダーデータを含む時空間データをセグメント化することに関する。
ここに提供される“背景技術”の記載は、この開示の背景を一般的に提示することを目的とする。ここに記載された仕事は、この背景技術の項に記載される範囲において、出願の時点で従来技術として見なされない記載の側面と同様に、明示的にまたは暗示的にも従来技術としては認められない。
ビデオデータのセグメント化は、一般に、ビデオデータのフレームを個々に、即ち、フレーム単位ベースでセグメント化することを含む。このプロセスは、フレーム内のオブジェクトと、オブジェクト間の境界とを特定するために、個々のフレームのピクセルをセグメントに分割することを含む。一般に、このプロセスは、コンピュータおよびユーザによって実行されるステップを含む。
一つのプロセスにおいて、例えば、個々のフレームがコンピュータのオブジェクト検出器に入力され、個々のフレーム内の全てのオブジェクトを特定するために大規模に分析される。その後、オブジェクト検出器によって特定されたオブジェクトをユーザがレビューし、誤った特定を訂正する。このプロセスが、ビデオデータのそれぞれのフレームに対して繰り返される。
セグメント化の別のプロセスにおいて、ビデオシーケンスのキーフレームをユーザがマニュアルで特定することが求められる。このプロセスにおいて、ユーザはデータオブジェクトの個々のフレームを見て、オブジェクトの境界に沿って制御ポイントを生成する。ユーザは次にパラメータを入力し、このパラメータは、オブジェクトが静的か動的かを特定し、且つ、連続するフレームにおける定義された境界の位置を調整するために使用される。その後、ユーザは、境界の位置およびサイズを調整するために、ビデオのキーフレームを編集することができる。その後、コンピュータアルゴリズムは、直接に見ることができず且つ編集できなかったフレーム内のオブジェクトの位置および形状を特定するために、補間法を使用する。
この開示は、本発明者等が発見した既知のセグメント化プロセスに関連する種々の問題に対処する。特に、オブジェクト検出器を含むプロセスにおいて、詳細なセグメント化には非常に時間がかかる。例えば、オブジェクト検出器がフレーム内のオブジェクトを特定するためには、そのフレームの全ての領域を分析しなければならず、これには大量のコンピュータパワーを消費する。さらに、フレームが多くのオブジェクトを含む場合、そのプロセスはさらに多くのコンピュータリソースを必要とする。その上、オブジェクト検出器は、オブジェクト検出を実行するために使用したオブジェクト認識アルゴリズムに基づいて、フレーム内のオブジェクトを不正確に特定することがある。その結果、ユーザがこれらの誤特定を訂正するために費やす時間が増加する。
キーフレーム中のオブジェクトの特定に基づくプロセスにおいてさえも、ユーザはフレームを見てパラメータを入力することが要求される。その結果として、このプロセスは非常に時間を費やすものとなる。
この開示は、ユーザの凝視データ(gaze data)の使用によって時空間データ(例えば、ビデオデータまたはライダーデータ)をセグメント化し、それによって、セグメント化を既知のプロセスよりもより少ないコンピュータリソースによって実施することを対象とする。即ち、ユーザの凝視データを使用することによって、ユーザが一瞬、凝視を固定した場所に相当する時空間データのフレーム内の領域において、セグメント化を実行することができる。これにより、セグメント化がフレームの特定の領域に限定されるので、セグメント化を迅速に実行することができるようになる。
一実施例は、オブジェクトが、時空間フレームを見ているユーザに特定されたタスクに関連しているか否かを決定すること、に関連する。このようなタスクは、ユーザを、運転者か乗客かまたは車両として特定することを含む。オブジェクトをタスクに関連付けることによって、これらのオブジェクトに対する関係が確立される。
本開示の一側面によれば、セグメント化タスクがユーザに対して特定され、さらに、時空間データを複数のフレームとして見ているユーザの目の動きをモニタすることによって生成された凝視データが受信される。凝視データは、フレーム全体にわたるユーザの凝視に基づいた固定位置(fixation location)を含む。複数のフレームのうちの第1フレームと第2フレームが、固定位置に基づいて選択される。第1および第2のフレームに関連する興味ある領域に基づいて、第1および第2のフレームから第1および第2のオブジェクトをそれぞれセグメント化するために、セグメント化を第1および第2のフレーム上で実施する。この興味ある領域とは、固定位置のうちの一つの位置に相当する。第1および第2のオブジェクトがセグメント化タスクに関連するか否かに関する決定が実行され、第1と第2のオブジェクトが関連している場合に、第1のオブジェクトを第2のオブジェクトに関連させるために、関連データが生成される。
前述の段落は、概略紹介のために提供されたものであり、後述する特許請求の範囲を限定するべく意図されるものではない。記載された実施例は、更なる効果と共に、以下の詳細な記載を添付図面と共に参照することによって、最も良く理解される。
添付の図面と関連して以下の詳細な説明を参照することによって、この開示とそれらに付随する多くの効果がより良く理解されるので、それらの完全な理解は容易となるものと思われる。
セグメント化システムのハードウエア・コンポーネントを示すブロック図である。 凝視追跡装置を示す。 典型的なユーザの視覚的走査経路を示す。 時空間データの典型的なフレームを示す。 一実施例に係るセグメント化および関連するアルゴリズムのフローチャートを示す。 固定位置を決定するためのアルゴリズムのフローチャートを示す。 ビデオフレーム選択のためのアルゴリズムのフローチャートを示す。 セグメント化を実行するためのアルゴリズムのフローチャートを示す。 オブジェクトの関連性決定および関連データ生成のためのアルゴリズムのフローチャートを示す。 交差点においてセグメント化を実施する第1の事例を示す。 交差点においてセグメント化を実施する第1の事例を示す。 セグメント化において使用される興味ある典型領域を示す。 セグメント化において使用される興味ある典型領域を示す。 図10および図11の事例において特定されるオブジェクトを示す。 図10および図11の事例において特定されるオブジェクトを示す。 交差点におけるセグメント化実施の第2の事例を示す。 交差点におけるセグメント化実施の第2の事例を示す。 交差点におけるセグメント化実施の第3の事例を示す。 交差点におけるセグメント化実施の第3の事例を示す。 交差点におけるセグメント化実施の第4の事例を示す。 交差点におけるセグメント化実施の第4の事例を示す。 セグメントまたはオブジェクトが類似しているか否かを決定するための手順を示す。
図面において、参照番号は、複数の図面にわたって同一または該当する部分を指定する。図1はセグメント化システムの典型的な構造を示す。セグメント化システム100は、コンピュータハードウエア部品を含み、これらは個々にプログラムされ或いは種々の記録媒体上に記録されたプログラムコードを実行する。典型的な実施例において、セグメント化システム100は中央処理ユニット(CPU)102、メモリ104、ハードディスクドライブ108および/または光ディスクドライブ110の動作を制御するためのディスク制御装置106、ネットワーク制御装置112、I/Oインターフェース114およびグラフィック制御装置116を含む。I/Oインターフェースはカメラ118に接続され、グラフィック制御装置116はディスプレイ120に接続されている。ある実装では、カメラ118はディスプレイ120の部品であり、ディスプレイ120と通信/データチャンネルを共有する。ある実装では、I/Oインターフェースは、ユーザ入力周辺機器、例えばタッチスクリーンモニタ制御装置、キーボードおよびマウスにさらに接続されている。さらに、図1に示す制御装置は、共通BUS122をデータ転送のために共有し、制御装置は特定用途向け集積化制御装置および他のプログラム可能なコンポーネントを含んでいても良い。
ネットワーク制御装置は、セグメント化システム100がネットワーク、例えばインターネットを介して通信することを可能とする。ある側面において、カメラ118および/またはディスプレイ120は、ネットワークを介してセグメント化システム100に接続されている。
図2は、カメラ118とディスプレイ120とを含む、凝視追跡装置200を示す。例えばセグメント化システム100であるセグメント化システムに接続されたカメラは、ディスプレイ120に対するユーザの目の動きを追跡することによって、凝視データを獲得する。凝視追跡装置200は、ユーザが、ディスプレイ120上に複数のフレームとして表示された時空間データ(例えばビデオデータ、ライダーデータ)を見ている間、ユーザの凝視をモニタし記録する。凝視追跡装置200は、ユーザの目の動き、頭の動き或いはこれら両方の組合せをモニタするように構成されている。
以下に議論する事例は、ビデオデータに関連して議論されている。しかしながら、別の時空間データ、例えばライダーデータ、熱マップデータ、赤外デバイス或いは飛行時間型センサを通して生成された他のデータの使用が可能なことを認識すべきである。
図3は、凝視追跡装置200によって記録された凝視データ300の一つの表現を示す。この凝視データはディスプレイ上でのユーザ凝視の、視覚的走査経路を示し、ユーザ凝視が瞬間的に固定された固定位置を含んでいる。この凝視データは、座標値(例えば、xおよびy)と時間データで表現することができる。例えば、固定位置302は、時間t1とt2の間のユーザの凝視位置を表している。同様に、固定位置304、306、308、および310は、時間t3とt4間、t5とt6間、t7とt8間およびt9とt10間それぞれのユーザ凝視位置を表している。
一般に、離散座標とは反対に、ユーザ凝視はディスプレイスクリーン上のある領域に向けられる。従って、典型的な側面において、固定位置は、一つの面積とこの面積を定義する相当する座標値とで定義される。図3に示すように、固定位置302は円形領域によって定義される。しかしながら、他の幾何学的形状、例えば正方形、長方形、三角形、及び楕円、を使用することができることを認識すべきである。さらに、固定位置の面積は、ユーザ凝視が長時間に渡って特定位置に集中するに伴って、そのサイズが縮小する。即ち、図3の典型的な表現を取ると、固定位置302はt1−t2が比較的短いことを示し、一方、固定位置304はt3−t4が比較的長いことを示す。
図4は、複数の時空間フレームと相当する固定位置との関連を示している。一実施例において、時間t1とt2間に示される2個のフレームは固定位置302に関係している。しかしながら、図4は主に代表目的でフレームを示していることを認識すべきである。即ち、そのフレームが、例えば24fps(1秒あたりのフレーム数)で作動するビデオデータのフレームである場合、図4に示すそれぞれのフレームはビデオデータの12フレームを表すことができる。
図5は、時空間データをセグメント化するためのアルゴリズムプロセスを、フローチャートによって示すものである。このプロセスは、S502でセグメント化タスクを特定すること、S504で凝視データを受信すること、S506で固定位置を決定すること、S508でビデオフレームを選択すること、S510でセグメント化を実行すること、およびS512で関連性を決定し且つ関連データを生成すること、を含む。
ユーザがディスプレイスクリーン上の、例えばビデオ画像のような時空間データを見始める前に、S502において、ユーザにセグメント化タスクが特定される。時空間データを見ている間、ユーザが注意を払うべきオブジェクトについての方向がユーザに与えられ、或いはユーザは運転者または乗客として行動するように命令される。従って、ユーザの凝視は、セグメント化タスクに関連するオブジェクト、例えば運転者または乗客に向けられることになる。
以下の事例において、時空間データは運転方法のビデオであり、且つユーザは、安全運転の目的を持った乗用車の運転者のタスクが特定されている。しかしながら、その他のセグメント化タスク、例えばサイクリング、車両の乗客であること、商用車を運転すること、或いは建設車両を運転することも同様に適用することができる。乗用車の運転者であるというタスクに対して、ユーザは彼の凝視をオブジェクトに向け、このオブジェクトは安全運転に関連しているものであり、例えば他の車両、歩行者、道路上のライン、交通信号機/信号、標識等である。その他のオブジェクトを、安全運転のタスクに関係しないとして分類し或いは決定することができる。
S502の、ユーザにセグメント化タスクを特定するプロセスは、ディスプレイスクリーン上にセグメント化タスクをディスプレイすること、或いはユーザの選択のためにセグメント化タスクのリストをディスプレイスクリーン上にディスプレイすることを含む。ユーザがセグメント化タスクを特定し、或いは音声命令または音声再生によってセグメント化システム100により特定されても良い。
一旦、セグメント化タスクが特定されると、セグメント化システム100はS504において凝視データを受信する。上記で議論したように、凝視データは、カメラ118のような凝視追跡カメラの結果であって良い。凝視データはさらに、ネットワーク装置または記録媒体から受信されても良い。セグメント化システム100は凝視データを、生成されたデータとして或いは、以前に記録されたデータを有する装置或いは媒体からのデータとして、受信する。
S506において、固定位置が決定される。このプロセスは、図6に示すフローチャートによって説明される。現在の凝視候補の継続時間が決定され、この候補は固定位置の候補である。S600でこの候補の継続時間が閾値継続時間を超えると決定されると、次にその候補は固定位置として設定される。S604において、もしその候補が最後の候補であると決定されると、そのプロセスは終了する。そうでない限り、S606で次の凝視候補が現在の候補として設定され、S600で始まるプロセスが繰り返される。継続時間閾値が満足されない場合、プロセスはS602をスキップし、S604に進み、そして全ての候補が処理されるまでプロセスS506が繰り返される。
上記で議論したように、凝視データは固定位置を含み、この固定位置ではユーザは瞬間的に彼の凝視を固定する。このような固定位置と関連するのは、固定位置におけるユーザ凝視の継続時間を示す期間データである。ユーザの凝視が、常に、一つの位置から次の位置へ連続した経路をたどることはない。往々にして、ユーザの凝視は、ほんの一瞬で、ディスプレイ上の他の位置に移動する。このような状況において、期間データが非常に短い継続時間を示しても、固定位置は生成される。
この開示の一側面において、このような状況に対処するために、全ての固定位置は固定位置候補として定義され、固定位置候補それぞれの期間データが、S600で議論したように既定の閾値と比較される。この既定閾値は、例えば1秒の10分の1、或いは24fpsビデオが使用されている場合2フレームとすることができる。このようにして、ユーザの意図的でない固定位置を示す固定位置候補は使用されなくなる。しかしながら、S506の固定位置を決定するプロセスを部分的に省略し或いは変更して、全ての固定位置候補を固定位置として設定することもできる。
図7は、S508において時空間データのフレームを選択するためのプロセスを示している。S700において、現在のフレームの時間が固定位置の継続時間内であるか否かの決定がなされる。継続時間内である場合、S702において、現在のフレームをセグメント化すべきとして選択し、さらにS704において、現在のフレームが最後のフレームであるか否かの決定がなされる。最後のフレームでない場合、S706において次のフレームが現在のフレームとして選択され、プロセスはS700に戻る。S700において、現在のフレームが固定位置の継続時間内でない場合、プロセスはS702をスキップしてS704に進み、そして全てのフレームが処理されるまで、プロセスS508が繰り返される。図示はしていないが、プロセスS508は周期的ベースでフレームをスキップし、処理要求を単純化することができる。例えば、時空間データが高いフレーム速度で獲得されたビデオデータである場合、全てのフレームを個々に処理する必要はなく、1個毎の、或いは4個に1個のフレームのみが処理される必要がある。さらに、プロセスS508は、それぞれの固定位置に対して1個または2個のフレームのみを選択するように適応させることができ、そして次の固定位置に相当するフレームにスキップする。
一般に、時空間データのフレームは、ディスプレイ上のフレームの表示時間を示す時間に関連する。さらに、上記で議論したように、継続時間データは固定位置に関連している。一側面において、フレームの時間が固定位置の継続時間内であると決定されると、そのフレームはセグメント化すべきフレームであるとして選択される。
図8は、S510においてセグメント化を実行するプロセスを示している。S800において最初に、S508で選択されたフレームがセグメント化される。このフレームは、このフレームに関連した興味ある領域に基づいてセグメント化される。言い換えると、興味ある領域が、セグメント化すべきフレームの一面積を特定するために使用される。この興味ある領域は、固定位置の1個の位置に相当する領域を表す。例えば、図10Aに示すように、興味ある領域は固定位置を取り囲む領域であり、さらに実質的に固定位置を中心としている。後に議論するように、興味ある領域のサイズと位置は、フレームの異なる面積がセグメント化されるように調整される。S800におけるセグメント化は、興味ある領域内に位置するオブジェクトを(例えば、特定し、検出し且つ抽出するために)セグメント化するように実施される。
S800におけるセグメント化は、興味ある領域内の面積のみをセグメント化することを含んでいても良い。それによって、興味ある領域内に位置するオブジェクトがセグメント化され、興味ある領域の外に位置するオブジェクトはセグメント化されないであろう。
典型的な側面において、S800でのセグメント化に続いて、S802において、オブジェクトのタイプ或いはクラスを特定するためにオブジェクトの特徴を分類することを含んでいても良い。オブジェクトのタイプまたはクラスは、オブジェクトの特徴を、オブジェクトと関連あるとして以前に記録された特徴と比較することにより、特定することができる。このような比較は、オブジェクトの以下に議論するようなヒストグラムを、オブジェクトと関連するとして以前に記録されたヒストグラムと比較することによって、実施される。オブジェクトのタイプ或いはクラスが特定されると、特定されたタイプまたはクラスとしてラベル付けされる(例えば、タグ付けされ或いはマーク付けされる)。このデータは、セグメント化されたオブジェクトの位置データと共に出力することができる。
一側面において、セグメント化は、興味ある領域内に位置するオブジェクトをオブジェクト検出器または追跡装置によって検出することを含む。オブジェクト検出器は興味ある領域の位置およびサイズのパラメータを受信し、そして興味ある領域内に位置する1個のオブジェクトまたは複数のオブジェクトを検出する。この事例において、オブジェクト検出器は、パラメータによって定義された特定位置及び面積におけるフレームのオブジェクトを検出することができる。オブジェクト検出器は、セグメント化されたオブジェクトの位置データおよびタイプまたはクラスデータを出力することもある。従って、オブジェクト検出器を特定された位置上にフォーカスすることにより、フレームをセグメント化しオブジェクトを特定するために必要な時間が減少する。
上述したオブジェクト検出器は、オブジェクト認識アルゴリズムを使用することによってオブジェクト検出を実施する。このようなアルゴリズムは、例えば、Histogram of Oriented Gradients(HOG)特徴、Speeded up Robust Features(SURF)およびウエーブレットベースの特徴のような、特徴ベースの入力を受信する。認識アルゴリズムは、サポートベクターマシン(SVM)、ツリーベースの分類器およびニューラルネットワークとして実施することができる。
フレームがセグメント化された後、プロセスはS804に進み、その1個または複数のオブジェクトが、S502においてユーザに対して以前に特定されたセグメントタスクに関連するか否かを決定する。S804において、セグメント化されたオブジェクトの特定されたタイプまたはクラスが、セグメント化タスクに関連する既定のタイプまたはクラスであるか否かについての決定が行われる。これは、一般に、S802において特定されたセグメント化オブジェクトのタイプまたはクラスを、S502でユーザに対して特定されたセグメント化タスクに関連する既定のタイプまたはクラスと比較することを含んでいる。
安全運転の事例において、セグメント化システム100は、セグメント化オブジェクトの特定されたタイプまたはクラスが安全運転のタスクに関連あるか否かを決定する。安全運転に関連するオブジェクトタイプまたはクラスは、例えば、車両、歩行者、道路上のライン、交通信号、標識等である。言い換えると、セグメント化されたオブジェクトのタイプまたはクラスが歩行者であると特定されると、そのオブジェクトは安全運転のタスクに関連すると決定される。
S804で、オブジェクトがセグメント化タスクと関連しないと決定された場合、プロセスはS806に進み、ここで興味ある領域のサイズを調整する。興味ある領域のサイズは、オブジェクトを含み或いは排除するように、その面積が大きくなるように或いは小さくなるように調整することができる。
一側面において、セグメントタスクに関連しないオブジェクトが検出されると、興味ある領域の面積を増大させて、プロセスがS800に戻った場合、興味ある領域の以前の面積の外側に位置するオブジェクトがセグメント化されるようにしても良い。興味ある領域のサイズを調整するためのパラメータは事前にユーザによって設定され、或いはセグメントシステム100内に記録されていても良い。さらに、S800におけるフレームセグメント化が結果としてオブジェクトのセグメント化を生じない場合、興味ある領域のサイズをS806で増大し、S800でセグメント化が繰り返されるようにしても良い。オブジェクトのセグメント化に未だ成功しない場合、プロセスを次のフレームに進め、或いは終了することができる。
S808において、タスクに関連すると決定されたオブジェクトは、もしこのような決定が利用される場合、或いは、S800でセグメント化されS802で特定されたオブジェクトは、S512でプロセスによって利用されるべく出力される。これについては、後に議論する。次にS810において、現在セグメント化されたフレームが、セグメント化すべき最後のフレームであるか否かが決定される。最後のフレームである場合、そのプロセスは終了する。そうでない場合、S812において、次のフレームがセグメント化されるべきフレームとして設定される。S814において、興味ある領域の位置および興味ある領域のサイズを、セグメント化すべき今現在のフレームの前のフレームに対して以前に特定され且つ出力されたオブジェクトに基づいて、調整することができる。その後、プロセスはフレームセグメント化のためにS800に戻る。
特定されたオブジェクトのセグメント化タスクに対する関連性は、S802で決定されるものとして上記で議論された。関連性を決定し関連データを生成するプロセスであるS512において、別の関連性が決定される。
図9は、オブジェクトの関連性を決定し且つ関連データを生成するためのプロセスS512を示す。S900において、S808において出力されたオブジェクトがS502においてユーザに対して特定されたセグメント化タスクに関連するか否か、についての決定が行われる。この決定は、図8に示すプロセスS510のS810において既に行われている場合、省略するようにしても良い。
セグメント化されたオブジェクトのタイプまたはクラスがセグメント化タスクに関連する既定のタイプまたはクラスであるか否かの決定を、S900において、個々のオブジェクトに対しそれぞれ、2個またはそれ以上のオブジェクトに対して一度に、或いは全てのオブジェクトに同時に、行うようにしても良い。このようにして、S900を、フレーム毎のベースで或いは複数フレームに対して一度に実施するようにしても良い。
S900において1個のオブジェクトまたは複数のオブジェクトがセグメント化タスクに関連すると決定された場合、プロセスは、S902において関連データを生成するように進行する。関連データは、一般に、フレーム中のセグメント化されたオブジェクトがセグメント化タスクに関連することを示すものである。
ステップS902で生成された関連データは、さらに、第1のフレームからセグメント化されたオブジェクトと第2のフレームからセグメント化されたオブジェクトとが関連していることを示すことができる。例えば、安全運転の場合、第1のフレームからセグメント化された自動車が、第2のフレームからセグメント化された自動車に関連している場合もある。関連データは、これらの自動車が同じ自動車であるか、或いは、同じ道路上の自動車であるかを示すことができる。
複数のオブジェクトが同じオブジェクトであると特定されると、関連データはオブジェクトに関連する一時的なアクション、例えば第1の位置から第2の位置への自動車の移動、を表示する。このような場合、関連データは第1の場所と第2の場所の位置を含む。その他の一時的なアクションとしては、レーンを変えようとしている自動車、駐車場から街路に出ようとしている自動車、突然、軌道変更をする(例えば、舗道から飛び降り、街路を疾走する)歩行者、或いは停止信号の変化、を含むことができる。オブジェクトを異なるフレームからのセグメントに関連付けるための関連データを生成することによって、関連データとして記憶されているこれらのオブジェクト間に、関係性を形成することができる。
一時的なアクションを、回帰ニューラルネットワーク、テンポラル・ランダム・フォレスト(temporal−random forests)、カルマンフィルター(Kalman filter)(KF)追跡器、条件付密度伝搬(conditional density propagation)及び一時的ベイズ予測器(temporal Bayesian predictors)を含む、追跡および一時的認識アルゴリズムを使用することによって認識することができる。関連データを、2個以上のフレームからセグメント化された1個または複数のオブジェクトに関連付けるために、関連データを生成することができることを認識すべきである。さらに、1個以上のオブジェクトを個々のフレームからセグメント化することができ、さらに、これらのオブジェクトをセグメント化タスクおよび/または互いに関連付けるために、関連データを生成することもできる。
図10−21を参照して、興味ある領域内のフレームのセグメント化事例を以下で議論する。一般に、興味ある領域の面積は固定位置の面積よりも大きい。一側面において、興味ある領域は、事前に設定されたユーザパラメータによって定義される。例えば、ユーザはパラメータ、例えば、幅、長さ、半径等を、興味ある領域の形状/幾何学形状に基づいて設定することができる。他の側面において、興味ある領域は、ステレオ情報、距離測定、オブジェクト検出器からの出力(添付の図18−19の説明中に述べられるように、領域のサイズは、木を認識することによって縮小する)、或いはマップ情報による時空間データの以前の処理の何れかから既知である、オブジェクトまでの距離の関数によって定義される。
図10−11は、ビデオデータのフレーム内に位置するオブジェクトのセグメント化の一例を示す。この例において、フレーム10および15は、時間t1とt2間のフレームとして選択される。図10に示すように、ユーザ凝視の固定位置が自動車上に円で位置付けられており、さらに、興味ある領域が固定位置の周りの正方形として定義されている。フレーム10および15は、同じ場所に位置する興味ある領域によってセグメント化されている。代替的な興味ある領域が図12−13に示されており、それぞれ、フレーム10に対して円である興味ある領域と、楕円である興味ある領域を示している。
フレーム10の興味ある領域に基づいて、その中に位置する自動車がセグメント化される(例えば、特定される)。フレーム10に対するこのセグメント化の可視表現が図14に示されており、この図は、自動車(矢印で特定されている)を特定されたオブジェクトとし、一方で表示されたその他の特徴は無視されている。フレーム15のためのセグメント化の可視表現が図15に示されている。
代替的実施例において、セグメント化は、図16−17に示すように、第1のフレーム上で第1の場所に位置する興味ある領域によって実施され、さらに、第2フレーム上で第2の場所に位置する興味ある領域によって実施される。この例において、興味ある領域は、第1の固定位置に関連する第1の場所から、第2の固定位置に関連する第2の場所へ移動する。言い換えると、興味ある領域の位置は、ユーザ凝視の動き(即ち、特定された自動車の動き)に従って調節される。
図18−19は、フレーム20においてセグメント化されたオブジェクトのサイズに基づいてサイズを縮小させた、興味ある領域によって、フレーム25をセグメント化する例を示している。図18に示すように、フレーム20が、実質的に木よりも大きな興味ある領域によってセグメント化され、この木は特定すべきオブジェクトであり且つフレーム20のセグメント化の結果として認識されるものである。セグメント化システム100が、木をセグメント化するためにセグメント化を実施した後、図19に示すように、木のサイズに基づいた面積を有する興味ある領域によってフレーム25がセグメント化されるように、興味ある領域の面積が調整される。言い換えると、フレーム25をセグメント化するために使用される興味ある領域の面積は、フレーム20をセグメント化することによって決定された木のサイズに基づいて縮小される。
図20−21は、第1回目は初期面積を有する興味ある領域で、第2回目は縮小した面積を有する興味ある領域によって、フレーム30をセグメント化する事例を示している。この事例において、歩行者を特定するタスクがユーザに対して特定され(これは上記で議論した安全運転タスクの一部分であり得る)、フレーム30からのセグメント化オブジェクトがセグメント化タスクに関連すると決定された場合、或いは、既定の時間が経過した場合に、セグメント化が完了する。このように、興味ある領域のサイズを調整するプロセスは、適切なオブジェクト(即ち、歩行者)を特定することに基づいて、実施される。
図20に示すように、第1のセグメント化プロセスは、ストップ標識と歩行者の両者を取り囲む興味ある領域によって、フレーム30上で実施される。この場合、第1のセグメント化プロセスはストップ標識をセグメント化し、そして、ストップ標識が歩行者を特定するタスクと関連しないことを決定する。
その結果、図21に示すように、第2のセグメント化プロセスが、タスクに関連しないオブジェクト(即ち、ストップ標識)を除去して、興味ある領域が歩行者のみを取り囲むように縮小されたサイズを有する、興味ある領域によって、フレーム30上で実行される。即ち、第2のセグメント化プロセスは歩行者をセグメント化し、そして、その歩行者が歩行者を特定するというタスクに関連していると決定して、フレーム30に対するセグメント化プロセスを終了する。
セグメント化システム100は、複数ユーザの固定位置によって実行することができる。例えば、開示の一側面において、セグメント化は、第1のユーザから得られた固定位置の使用によってフレーム上で実施され、その後、第2のユーザから得られた固定位置の使用によってフレーム上で実施される。次に、合成されたセグメント化を分析し、平均の結果を出力する。このようにして、両方のセグメント化においてセグメント化されたオブジェクトを、平均セグメント化結果として特定することにより、セグメント化プロセスをさらに正確にすることができる。
安全運転の場合において、この開示の一側面は、セグメント化プロセスの出力によって、改良された運転者凝視モデルを作成することを含む。凝視を、相当する運転状況において記録することによって潜在的な相関情報が蓄積され、これは、凝視パターンをモデル化しより経験のある運転者から経験の少ない運転者に知識を伝達するために有用である。例えば、セグメント化システムは、運転状況、運転プラン、行動を凝視パターンに関連付け、それらをメモリ中に記憶させ、それらをオンデマンドで再生することができる。このようにして、経験の少ない運転者は、より経験のある運転者の凝視に基づいて用意されたセグメント化ビデオを見ることによって、与えられた運転状況においてより経験のある運転者がどの様に反応するかを学習することができる。その結果、これにより種々の教育的効果が提供される。
上記の記載は、ビデオデータに基づいて提供されているが、その他の時空間データ、例えば、ライダー(光検出および計測)データも利用可能であることを認識すべきである。さらに、ライダーデータをビデオデータと結合することも可能で、この場合、追跡カメラをビデオシーンにおけるユーザの目の動きを追跡するために使用し、且つ、オブジェクトは相当するライダーデータからセグメント化される。さらに、運転者が車両を運転している間、凝視追跡カメラとライダーを使用して、凝視追跡をリアルタイムで行うことができる。このような実施によって、運転者の車両内での位置の既定の幾何学的データに基づいて、ユーザの凝視位置を検出することができる。
ライダーセンサは、オブジェクトを光によって照射することによって、距離データを獲得する。この距離データを、興味ある領域のサイズを設定するために利用することができる。例えば、オブジェクトがディスプレイスクリーン面から遥かに離れていることを距離データが示した場合、興味ある領域の面積を、この距離に基づいて増大させ或いは縮小することができる。
上述の側面によれば、類似の可視表現に基づいて、オブジェクトとセグメントを比較することができる。このような実施の一つでは、図22における事例に示すように、ヒストグラム比較を利用することができる。ここでは単に説明目的のために、単色比較を示している。標準的な3色RGBスペクトルに対して、当然、同様の比較を実施することができる。上部の比較は、2個のセグメント、例えば2個の異なるフレームからの2個の異なるセグメント、或いは1個のフレームからのセグメントおよびオブジェクト認識に使用されるデータベース中に記憶されたセグメント、が類似していることを、どのように決定するかを示している。ここで、ヒストグラムは、良く似た傾向を互いにプリセットされた範囲内で示す。
一方、下部の比較は、類似していない2個のセグメントを示している。即ち、それらのヒストグラムは非類似の傾向を有し、且つ、大きな不一致を有しており、2個のセグメントが同じオブジェクトを示すことは在りそうもない。同様の比較を、例えば、オブジェクトの輪郭を比較するような、ライダー源からの曇り点データによって行うことができる。
上記開示に照らして明らかに本開示の多くの修正および変更が可能である。従って、適用された特許請求の範囲内で、ここに具体的に記載されたものとは異なる方法で実施できることを、理解すべきである。

Claims (16)

  1. 時空間データを複数のフレームとして見ているユーザの目の動きをモニタすることによって生成された凝視データを受信するように構成された受信ユニットであって、前記凝視データは、フレーム全体にわたるユーザの凝視に基づく固定位置を含む、受信ユニットと、
    固定位置に基づいて前記フレーム中から第1のフレームと第2のフレームを選択するように構成された選択ユニットと、
    前記第1および第2のフレームに関連した興味ある領域に基づいて、前記第1および第2のフレームから第1および第2のオブジェクトをそれぞれ特定するために、前記第1および第2のフレームにセグメント化を実施するように構成されたセグメント化ユニットであって、前記興味ある領域は前記固定位置を取り囲む領域である、セグメント化ユニットと、
    前記第1および第2のオブジェクトがユーザに対して特定されたセグメント化タスクに関連するか否かを決定するように構成された決定ユニットと、および
    前記第1および第2のオブジェクトが前記セグメント化タスクに関連すると決定された場合に、前記第1のオブジェクトを前記第2のオブジェクトに関連させる関連データを生成するように構成された生成ユニットと、を備える、セグメント化装置。
  2. 請求項1に記載の装置において、
    前記受信ユニットは、それぞれがユーザの凝視の期間を示す継続時間を含む複数の固定位置候補を含む凝視データを受信するように構成されており、さらに
    前記固定位置は、閾値よりも長い継続時間を有する固定位置候補である、セグメント化装置。
  3. 請求項2に記載の装置において、前記第1および第2のフレームは、前記固定位置の1個の継続時間の間に表示されたフレームである、セグメント化装置。
  4. 請求項2に記載の装置において、前記興味ある領域の面積が前記固定位置の前記継続時間によって決定され、さらに、
    前記興味ある領域の面積は前記固定位置の前記継続時間が増加すると減少する、セグメント化装置。
  5. 請求項1に記載の装置において、前記セグメント化ユニットは、
    第1の場所に位置する興味ある領域によって前記第1のフレームをセグメント化し、さらに、
    前記第1の場所とは異なる場所である第2の場所に位置する興味ある領域によって前記第2のフレームをセグメント化することよって、前記セグメント化を実施するように構成されている、セグメント化装置。
  6. 請求項5に記載の装置において、
    前記固定位置は第1および第2の固定位置を含み、さらに、
    前記第1の場所は前記第1の固定位置を取り囲む領域であり、且つ、前記第2の場所は前記第2の固定位置を取り囲む領域である、セグメント化装置。
  7. 請求項1に記載の装置において、前記セグメント化ユニットは、同じ場所に位置する興味ある領域によって前記第1および第2のフレームをセグメント化することにより、前記セグメント化を実施する、セグメント化装置。
  8. 請求項1に記載の装置において、前記セグメント化ユニットは、前記第2のフレームをセグメント化するために使用される興味ある領域の面積が、前記第1のフレームをセグメント化するために使用される興味ある領域の面積よりも小さくなるように、前記第2のフレームをセグメント化するために使用される興味ある領域の面積を調整することによって、前記セグメント化を実施する、セグメント化装置。
  9. 請求項1に記載の装置において、前記セグメント化ユニットは、前記第2のフレームをセグメント化するために使用される興味ある領域の面積が前記第1のオブジェクトのサイズに基づくように、前記第2のフレームをセグメント化するために使用される興味ある領域の面積を調整することによって、前記セグメント化を実施する、セグメント化装置。
  10. 請求項1に記載の装置において、前記セグメント化ユニットは、
    前記第1のオブジェクトが前記セグメント化タスクに関連しないと前記決定ユニットが決定したことに応答して、前記第1のフレームの興味ある領域を初期面積から縮小された面積まで縮小し、さらに、
    前記第1のオブジェクトが前記セグメント化タスクに関連しないと前記決定ユニットが決定したことに応答して、前記縮小された面積を有する前記興味ある領域に基づいて、第3のオブジェクトをセグメント化するために、前記第1のフレームをセグメント化する、セグメント化装置。
  11. 請求項1に記載の装置において、
    前記セグメント化ユニットは、オブジェクト認識アルゴリズムを前記第1おおび第2のフレームに適用することによって、セグメント化を実施し、さらに、
    前記生成ユニットは、前記オブジェクト認識アルゴリズムの出力に基づいて前記関連データを生成し、ここで前記オブジェクト認識アルゴリズムの出力は前記第1および第2のオブジェクトのタイプまたはクラスおよび位置データを含む、セグメント化装置。
  12. 請求項1に記載の装置において、前記複数のフレームは、ライダーまたは別の飛行時間型センサによって提供されるデータから生成される、セグメント化装置。
  13. 請求項1に記載の装置において、
    前記セグメント化ユニットは、前記第1および第2のオブジェクトのタイプまたはクラスをそれぞれ特定するために、前記第1および第2のオブジェクトの特徴を分析することによって、セグメント化を実施し、さらに、
    前記決定ユニットは、前記第1および第2のオブジェクトのそれぞれのタイプまたはクラスが、セグメント化タスクに関連した既定のタイプまたはクラスであるとして特定された場合、前記第1および第2のオブジェクトが前記セグメント化タスクに関連すると決定する、セグメント化装置。
  14. 時空間データを複数のフレームとしてみているユーザの目の動きをモニタすることによって生成された凝視データを受信する手段であって、前記凝視データは、フレーム全体にわたるユーザの凝視に基づく固定位置を含む、受信する手段と、
    前記固定位置に基づいて、前記フレームの第1のフレームと第2のフレームを選択する手段と、
    前記第1および第2のフレームに関連する興味ある領域に基づいて、前記第1および第2のフレームからそれぞれ第1および第2のオブジェクトを特定するために、前記第1および第2のフレームにセグメント化を実施する手段であって、前記興味ある領域は前記固定位置を取り囲む領域である、セグメント化を実施する手段と、
    前記第1および第2のオブジェクトが、ユーザに対して特定されたセグメント化タスクに関連しているか否かを決定する手段と、さらに、
    前記第1および第2のオブジェクトが前記セグメント化タスクに関連すると決定された場合に、前記第1のオブジェクトを前記第2のオブジェクトに関連させるための関連データを生成する手段と、を備えるセグメント化装置。
  15. ユーザに対してセグメント化タスクを特定し、
    時空間データを複数のフレームとして見ているユーザの目の動きをモニタすることによって生成された凝視データであって、前記フレーム全体にわたるユーザの凝視に基づく固定位置を含む、凝視データを受信し、
    前記固定位置に基づいて、前記フレームの第1および第2のフレームを選択し、
    前記第1および第2のフレームに関連する興味ある領域であって、前記固定位置を取り囲む興味ある領域に基づいて、前記第1および第2のフレームからそれぞれ第1および第2のオブジェクトを特定するために、前記第1および第2のフレーム上でセグメント化を実施し、
    前記第1および第2のオブジェクトが、前記セグメント化タスクに関連するか否かを決定し、さらに、
    前記第1および第2のオブジェクトが前記セグメント化タスクに関連すると決定された場合に、前記第1のオブジェクトを前記第2のオブジェクトに関連させるための関連データを生成する、方法。
  16. プロセッサによって実行された場合、前記プロセッサに請求項15に記載の方法を実行させるための命令が符号化されている、持続性のコンピュータ可読媒体。
JP2012114262A 2011-08-26 2012-05-18 ユーザ凝視データに基づいた時空間データのセグメント化 Expired - Fee Related JP6092527B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/219,251 2011-08-26
US13/219,251 US8379981B1 (en) 2011-08-26 2011-08-26 Segmenting spatiotemporal data based on user gaze data

Publications (2)

Publication Number Publication Date
JP2013045445A JP2013045445A (ja) 2013-03-04
JP6092527B2 true JP6092527B2 (ja) 2017-03-08

Family

ID=46045721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012114262A Expired - Fee Related JP6092527B2 (ja) 2011-08-26 2012-05-18 ユーザ凝視データに基づいた時空間データのセグメント化

Country Status (3)

Country Link
US (1) US8379981B1 (ja)
EP (1) EP2562684A3 (ja)
JP (1) JP6092527B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120288140A1 (en) * 2011-05-13 2012-11-15 Carnegie Mellon University Method and system for selecting a video analysis method based on available video representation features
US9111351B2 (en) * 2011-12-15 2015-08-18 Sony Corporation Minimizing drift using depth camera images
US9996150B2 (en) * 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
EP2940985A4 (en) * 2012-12-26 2016-08-17 Sony Corp IMAGE PROCESSING DEVICE, AND IMAGE PROCESSING METHOD AND PROGRAM
US9367117B2 (en) * 2013-08-29 2016-06-14 Sony Interactive Entertainment America Llc Attention-based rendering and fidelity
WO2015072604A1 (ko) * 2013-11-15 2015-05-21 엘지전자(주) 투명 디스플레이 장치와 그의 제어방법
US9760779B2 (en) 2014-03-20 2017-09-12 Sony Corporation Generating trajectory data for video data
WO2016029939A1 (en) * 2014-08-27 2016-03-03 Metaio Gmbh Method and system for determining at least one image feature in at least one image
WO2016080873A1 (en) * 2014-11-18 2016-05-26 Telefonaktiebolaget L M Ericsson (Publ) Method and apparatus for video processing based on physiological data
CN109491508B (zh) * 2018-11-27 2022-08-26 北京七鑫易维信息技术有限公司 一种确定注视对象的方法和装置
CN109741338A (zh) * 2018-12-13 2019-05-10 北京爱奇艺科技有限公司 一种人脸分割方法、装置及设备
CN110348296B (zh) * 2019-05-30 2022-04-12 北京市遥感信息研究所 一种基于人机融合的目标识别方法
US11490968B2 (en) * 2020-07-29 2022-11-08 Karl Storz Se & Co. Kg Devices, systems, and methods for labeling objects of interest during a medical procedure
CN112906594B (zh) * 2021-03-03 2022-06-03 杭州海康威视数字技术股份有限公司 一种布防区域生成方法、装置、设备及存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3724859B2 (ja) * 1995-10-16 2005-12-07 富士通株式会社 画像表示システム
JPH10320109A (ja) * 1997-05-19 1998-12-04 Canon Inc 表示装置、拡大表示支援方法、および音声化支援方法
JPH11288341A (ja) * 1998-04-01 1999-10-19 Canon Inc ナビゲーション装置及び方法
AUPP603798A0 (en) 1998-09-18 1998-10-15 Canon Kabushiki Kaisha Automated image interpretation and retrieval system
US20020176604A1 (en) 2001-04-16 2002-11-28 Chandra Shekhar Systems and methods for determining eye glances
US20050018911A1 (en) 2003-07-24 2005-01-27 Eastman Kodak Company Foveated video coding system and method
JP4720107B2 (ja) 2004-05-27 2011-07-13 日産自動車株式会社 ドライバモデルおよび同モデルを備えた車両挙動制御システムのアシスト機能評価装置
US8155446B2 (en) 2005-11-04 2012-04-10 Eyetracking, Inc. Characterizing dynamic regions of digital media data
WO2007089198A1 (en) * 2006-02-01 2007-08-09 Tobii Technology Ab Generation of graphical feedback in a computer system
US8406457B2 (en) 2006-03-15 2013-03-26 Omron Corporation Monitoring device, monitoring method, control device, control method, and program
KR100820639B1 (ko) 2006-07-25 2008-04-10 한국과학기술연구원 시선 기반 3차원 인터랙션 시스템 및 방법 그리고 3차원시선 추적 시스템 및 방법
US8358840B2 (en) 2007-07-16 2013-01-22 Alexander Bronstein Methods and systems for representation and matching of video content
US20090290753A1 (en) 2007-10-11 2009-11-26 General Electric Company Method and system for gaze estimation
JP4735676B2 (ja) 2008-08-06 2011-07-27 株式会社デンソー 走行支援装置
US20100054526A1 (en) 2008-09-03 2010-03-04 Dean Eckles Method, apparatus and computer program product for providing gaze information
US9683853B2 (en) 2009-01-23 2017-06-20 Fuji Xerox Co., Ltd. Image matching in support of mobile navigation
US8175376B2 (en) 2009-03-09 2012-05-08 Xerox Corporation Framework for image thumbnailing based on visual similarity
US8384532B2 (en) 2009-04-02 2013-02-26 GM Global Technology Operations LLC Lane of travel on windshield head-up display
US9507418B2 (en) * 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action

Also Published As

Publication number Publication date
EP2562684A2 (en) 2013-02-27
EP2562684A3 (en) 2013-08-28
US8379981B1 (en) 2013-02-19
US20130051612A1 (en) 2013-02-28
JP2013045445A (ja) 2013-03-04

Similar Documents

Publication Publication Date Title
JP6092527B2 (ja) ユーザ凝視データに基づいた時空間データのセグメント化
CN110737266B (zh) 一种自动驾驶控制方法、装置、车辆和存储介质
JP2021504856A (ja) 前方衝突制御方法および装置、電子機器、プログラムならびに媒体
US20190374151A1 (en) Focus-Based Tagging Of Sensor Data
US8831281B2 (en) Summary view of video objects sharing common attributes
Zakaria et al. Lane detection in autonomous vehicles: A systematic review
KR20200110702A (ko) 기본 미리 보기 영역 및 시선 기반 운전자 주의 산만 검출
US20150116493A1 (en) Method and system for estimating gaze direction of vehicle drivers
US20130120125A1 (en) Method and system for lane departure warning
CN104408743A (zh) 图像分割方法和装置
US11995878B2 (en) Method of processing information from an event-based sensor
KR20190062184A (ko) 보행자 상태 기반의 보행자와 차량간 충돌 경고 시스템 및 그 방법
US9280703B2 (en) Apparatus and method for tracking hand
CN111091038A (zh) 训练方法、计算机可读介质和检测消失点的方法及装置
CN109034136A (zh) 图像处理方法、装置、摄像设备及存储介质
CN111989915B (zh) 用于图像中的环境的自动视觉推断的方法、介质、及系统
CN110832497A (zh) 用于自治系统的对象过滤和统一表示形式的系统和方法
CN111178286B (zh) 姿态轨迹预测方法、装置及电子设备
JP6255944B2 (ja) 画像解析装置、画像解析方法及び画像解析プログラム
US8588583B2 (en) Systems and methods for interactive video frame selection
Azimjonov et al. Vision-based vehicle tracking on highway traffic using bounding-box features to extract statistical information
CN111950339A (zh) 视频处理
US20120189161A1 (en) Visual attention apparatus and control method based on mind awareness and display apparatus using the visual attention apparatus
Aditya et al. Collision detection: An improved deep learning approach using SENet and ResNext
KR101492366B1 (ko) 차량 사고 감지 방법 및 그 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160517

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170209

R150 Certificate of patent or registration of utility model

Ref document number: 6092527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees