JP5849762B2 - 予測情報提示システム、予測情報提示装置、予測情報提示方法および予測情報提示プログラム - Google Patents

予測情報提示システム、予測情報提示装置、予測情報提示方法および予測情報提示プログラム Download PDF

Info

Publication number
JP5849762B2
JP5849762B2 JP2012036556A JP2012036556A JP5849762B2 JP 5849762 B2 JP5849762 B2 JP 5849762B2 JP 2012036556 A JP2012036556 A JP 2012036556A JP 2012036556 A JP2012036556 A JP 2012036556A JP 5849762 B2 JP5849762 B2 JP 5849762B2
Authority
JP
Japan
Prior art keywords
prediction
information
video
predicted
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012036556A
Other languages
English (en)
Other versions
JP2013171516A (ja
Inventor
坂田 一拓
一拓 坂田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2012036556A priority Critical patent/JP5849762B2/ja
Publication of JP2013171516A publication Critical patent/JP2013171516A/ja
Application granted granted Critical
Publication of JP5849762B2 publication Critical patent/JP5849762B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、人間の行動予測の結果を提示するための予測情報提示システム、予測情報提示装置、予測情報提示方法および予測情報提示プログラムに関する。
近年のカメラデバイスの普及や、画像データの分析技術の発展に伴い、映像等の情報にもとづいて人々の行動を予測するシステムが実現されている。例えば、店舗において店内にビデオカメラを設置し、顧客の動線履歴を撮影し、分析することにより、来店した顧客の店内での動線を予測するシステムがある。また、予測技術の発展に伴い、このようなシステムが、日常生活を送っている際のユーザの周辺の他者の行動を予測することも可能になると予想される。
人物などの行動を予測するシステムでは、予測結果をユーザに提示する手段が必要である。例えば、システムがユーザの周辺の特定人物の行動を予測した時に、「誰がどのような行動を行うか」という予測内容をユーザが理解できる形で通知する必要がある。
例えば、店舗内の顧客動線を予測するシステムでは、顧客の数が少ない場合には、顧客が入店したタイミングなどをもとに予測対象となる顧客を特定し、その顧客をユーザに指し示すことができる。しかし、システムが、日常生活を送るユーザの周辺の人物の行動を予測する場合、その予測結果を、ユーザにわかりやすく伝えることが難しい。例えば、システムが、ユーザ周辺の特定の人物の行動を予測できたとしても、ユーザにその特定の人物を指し示すことができないため、予測結果を提示することが困難である。
車庫などの駐車位置からの移動時に、自車両の位置と、自車両の進行方向における道路端の位置や物体の相対位置とにもとづいて演算した予測結果(移動予測軌跡)を、自車両の周辺領域を撮影した画像上に重畳表示する装置がある(例えば、特許文献1参照。)。特許文献1に記載されている装置は、運転者に、自車両の周辺に存在する障害物と移動予測軌跡との相対位置を容易に認識させることができる。
撮像装置が撮影した人物や車両などの予測対象の画像と、3次元空間の予め定められた空間モデルとをもとに、予測対象を3次元空間における任意の仮想視点から見た画像データを生成し、表示する装置がある(例えば、特許文献2参照。)。特許文献2に記載されている装置は、撮像装置を搭載した物体、例えば、自車両の移動に関連する移動情報を、生成した画像データに重畳させて表示することにより、自車両が移動する場合に、予測される移動先の方位、地名、ランドマーク等に関する情報を、ユーザに直感的に認識させることができる。
特開2010−041488号公報 特開2005−268847号公報
特許文献1および特許文献2に記載されている装置は、自車両の移動に関する情報を、ユーザに直感的に認識させることはできるが、予測対象となる物体の移動に関する情報を、ユーザに直感的に認識させることができない。
そこで、本発明は、ユーザ周辺の他者の行動予測の結果を直感的にユーザに認識させることができる予測情報提示システム、予測情報提示装置、予測情報提示方法および予測情報提示プログラムを提供することを目的とする。
本発明による予測情報提示システムは、映像情報を表示する表示装置と通信可能であって、予測対象者を撮影する撮像装置と、撮像装置が撮影した映像情報をもとに予測対象者の行動を予測し、予測した行動の内容を示す予測内容情報と、予測した行動の発生タイミングを示す予測タイミング情報とを含む予測情報を生成する予測装置と、予測情報提示装置とを備え、予測情報提示装置は、予測装置から入力した予測情報をもとに、予測した行動を映像として表した予測動作映像を生成し、撮像装置が撮影した映像情報に予測動作映像を重畳させた予測映像情報を生成する映像処理手段と、予測映像情報を表示装置に出力する出力手段とを含むことを特徴とする。
本発明による予測情報提示装置は、映像情報を表示する表示装置と通信可能であって、予測対象者を撮影した映像情報をもとに予測対象者の行動を予測する予測装置から、予測した行動の内容を示す予測内容情報と、予測した行動の発生タイミングを示す予測タイミング情報とを含む予測情報を入力し、入力した予測情報をもとに、予測した行動を映像として表した予測動作映像を生成し、予測対象者を撮影した映像情報に予測動作映像を重畳させた予測映像情報を生成する映像処理手段と、予測映像情報を表示装置に出力する出力手段とを含むことを特徴とする。
本発明による予測情報提示方法は、撮像装置が、予測対象者を撮影し、予測装置が、撮像装置が撮影した映像情報をもとに予測対象者の行動を予測し、予測した行動の内容を示す予測内容情報と、予測した行動の発生タイミングを示す予測タイミング情報とを含む予測情報を生成し、映像情報を表示する表示装置と通信可能な予測情報提示装置が、予測装置から入力した予測情報をもとに、予測した行動を映像として表した予測動作映像を生成し、撮像装置が撮影した映像情報に予測動作映像を重畳させた予測映像情報を生成し、予測映像情報を表示装置に出力することを特徴とする。
本発明による予測情報提示プログラムは、映像情報を表示する表示装置と通信可能なコンピュータに、予測対象者を撮影した映像情報をもとに予測対象者の行動を予測する予測装置から、予測した行動の内容を示す予測内容情報と、予測した行動の発生タイミングを示す予測タイミング情報とを含む予測情報を入力し、入力した予測情報をもとに、予測した行動を映像として表した予測動作映像を生成し、予測対象者を撮影した映像情報に予測動作映像を重畳させた予測映像情報を生成する処理と、予測映像情報を表示装置に出力する処理とを実行させることを特徴とする。
本発明によれば、ユーザ周辺の他者の行動予測の結果を直感的にユーザに認識させることができる。
本発明による予測情報提示システムの第1の実施形態の構成を示すブロック図である。 予測情報提示装置の予測情報蓄積部に格納される予測情報の一例を示す説明図である。 予測情報提示装置の予測映像生成部の動作を示すフローチャートである。 表示装置の表示部に表示される映像の一例を示す説明図である。 本発明による予測情報提示システムの主要部を示すブロック図である。
実施形態1.
以下、本発明の第1の実施形態を図面を参照して説明する。
図1は、本発明による予測情報提示システムの第1の実施形態の構成を示すブロック図である。
本発明の予測情報提示システムは、予測情報提示装置100と、撮像装置200と、予測装置300と、表示装置400とを備える。
予測情報提示装置100は、撮像装置200、予測装置300および表示装置400と、有線または無線で通信可能に接続される。
予測情報提示装置100は、行動予測の結果を示す予測動作映像を生成し、生成した予測動作映像を表示装置400に出力する。
撮像装置200は、例えば、カメラである。撮像装置200は、ユーザの周辺を撮影し、映像情報(以下、カメラ映像という。)を取得する。
予測装置300は、撮像装置200と有線または無線で通信可能に接続され、撮像装置200からカメラ映像を入力する。
予測装置300は、入力したカメラ映像をもとに、ユーザ周辺で発生する他者の行動を予測し、行動予測の結果を含む予測情報を生成する。
具体的には、予測装置300は、入力したカメラ映像を蓄積し、一定時間以上蓄積したカメラ映像をもとに、カメラ映像内の人物の動きと、他の要因、例えば、時刻などとの相関を取得する。このとき、高い相関が得られた場合には、予測装置300は、その相関関係にもとづいて、当該人物の行動を予測することができる。例えば、撮像装置200が建物内のT字路などの分岐路を撮影した映像から、「午前の時間帯は右に曲がる人の割合が高く、午後の時間帯は左に曲がる人の割合が高い」という相関が得られた場合には、予測装置300は、現在の時刻にもとづいて、カメラ映像内の人物の曲がる方向を予測することができる。
なお、本実施形態では、予測装置300は、撮像装置200から取得した情報のみをもとに予測を行っているが、撮像装置200以外の機器から取得した情報をもとに、予測を行うようにしてもよい。
予測情報は、対象者識別情報と、予測内容情報と、予測タイミング情報とを含む。対象者識別情報は、予測対象となる人物(以下、予測対象者という。)を識別するための情報である。予測内容情報は、予測対象者の行動予測の内容を表す情報である。予測タイミング情報は、予測した行動の発生時刻や発生タイミングを表す情報である。なお、予測情報は、その他の情報を含んでいてもよい。
対象者識別情報は、顔認識処理によって予測対象者の顔画像から抽出した特徴量データや、予測対象者を管理するユーザ管理テーブルに対応づけられたID情報などである。ユーザ管理テーブルは、例えば、予測情報提示システムと通信可能なデータベース装置などに格納される。
表示装置400は、予測情報提示装置100が生成する情報を表示部(図示せず)に出力する。
表示装置400は、例えば、ディスプレイである。本実施形態では、表示装置400は、ユーザが装着可能なメガネ型のウェアラブルディスプレイである。
ここで、予測情報提示装置100の構成の詳細について説明する。
予測情報提示装置100は、映像入力部110と、予測情報入力部120と、予測情報蓄積部130と、予測映像生成部140と、映像出力部150とを含む。
映像入力部110は、撮像装置200からカメラ映像を受信する。映像入力部110は、受信したカメラ映像を予測映像生成部140に出力する。
予測情報入力部120は、予測装置300から予測情報を受信する。予測情報入力部120は、受信した予測情報を予測情報蓄積部130に出力する。
予測情報蓄積部130は、予測情報入力部120から入力した予測情報を蓄積する。
図2は、予測情報提示装置100の予測情報蓄積部130に格納される予測情報の一例を示す説明図である。図2に示す例では、対象者識別情報として、ユーザ管理テーブルに紐付けられたID情報が用いられている。例えば、図2に示す「000001,2011/11/1 18:45:00,起立」という予測情報は、対象者識別情報「000001」で示される人物が、時刻「2011/11/1 18:45:00」に、「起立」という行動を行うであろう、という予測を表す。
なお、予測情報のフォーマットや形態は、図2に示す例に限定されず、予測情報提示装置100が処理可能なフォーマットや形態であれば、その他のフォーマットや形態であってもよい。
予測映像生成部140は、予測情報蓄積部130に蓄積された予測情報にもとづいて、予測動作映像を生成する。予測動作映像は、人物映像であって、予測情報の内容を具体的な動作の映像で表現した情報である。予測映像生成部140は、カメラ映像に予測動作映像を重ね合わせた予測映像情報を生成する。予測映像生成部140は、生成した予測映像情報を映像出力部150に出力する。
映像出力部150は、予測映像生成部140から入力した予測映像情報を表示装置400に出力する。
なお、予測映像生成部140、映像入力部110、予測情報入力部120、予測情報蓄積部130および映像出力部150は、予測情報提示装置100が備えるCPUによって実現される。
次に、本実施形態の動作を説明する。
図3は、予測情報提示装置100の予測映像生成部140の動作を示すフローチャートである。図3を参照して、予測映像生成部140の動作の詳細を説明する。
まず、予測映像生成部140は、予測情報蓄積部130に格納された予測情報と、映像入力部110から入力したカメラ映像にもとづいて、表示すべき予測情報があるか否かを判定する(ステップS11)。
具体的には、予測映像生成部140は、予測情報蓄積部130に格納された予測情報の中に、予測タイミングが示す時刻と現在時刻との差が既定時間内であって、かつ、カメラ映像に映る人物に対応する対象者識別情報を含む予測情報が存在するか否かを判定する。
カメラ映像に映る人物に対応する対象者識別情報を含む予測情報が存在するか否かの判定方法としては、例えば、顔認識処理を用いる方法がある。顔認識処理を用いる場合には、予測対象者の顔画像から抽出した特徴量データを、対象者識別情報として用いればよい。予測映像生成部140は、カメラ映像に映る人物の顔画像から特徴量データを抽出し、抽出した特徴量データと一致する対象者識別情報を含む予測情報が存在するか否かを判定する。なお、予測対象の人物がカメラ映像に含まれているか否かの判定方法は、その他の方法であってもよい。
次に、予測映像生成部140は、ステップS11の判定において、表示すべき予測情報があると判断した場合には(ステップS12のY)、ステップS13以降の処理を実行する。
表示すべき予測情報が無いと判断した場合には(ステップS12のN)、予測映像生成部140は、ステップS11の処理に戻る。なお、予測映像生成部140は、ステップS11の処理に戻る前に、一定時間待機してもよい。
次に、予測映像生成部140は、ステップS11で検出された表示すべき予測情報の内容にもとづき、予測動作映像を生成する(ステップS13)。
予測映像生成部140は、カメラ映像に映る予測対象者が、予測内容情報が示す行動を行っている映像、つまり、予測動作映像を生成する。予測動作映像を生成する方法としては、CG(Computer Graphics)などにより人物映像を合成する方法がある。
次に、予測映像生成部140は、ステップS13で生成した予測動作映像と、映像入力部110が入力したカメラ映像とを合成して、予測映像情報を生成する(ステップS14)。合成方法としては、カメラ映像に予測動作映像を重ね合わせて、新たな映像を生成する方法がある。
最後に、予測映像生成部140は、ステップS14で生成した予測映像情報を、映像出力部150を介して、表示装置400に送出する(ステップS15)。
ステップS11からS15の処理により、予測情報提示装置100は、カメラ映像に予測動作映像を重畳させた映像を、表示装置400を介してユーザに提示することができる。
なお、撮像装置200は、携帯可能なカメラ、例えば、ユーザが装着可能なメガネ型のカメラなどであってもよい。そのような構成によれば、撮像装置200は、ユーザの視線方向を撮影することができる。従って、予測映像生成部140は、ユーザの視線方向、例えば、ユーザの目前にいる人物の予測動作映像を生成することができる。従って、「目前の人が歩き出す」などの予測をユーザに提示することができる。また、表示装置400がメガネ型のディスプレイである場合には、撮像装置200と表示装置400とが一体となっていてもよい。
図4は、表示装置400の表示部に表示される映像の一例を示す説明図である。図4(a)は、カメラ映像である。また、図4(b)〜(d)は、カメラ映像に予測動作映像を重ね合わせた映像である。図4(b)〜(d)は、「目前の人が3分後に歩き出す」という予測を示すために、図4(b)、図4(c)、図4(d)の順に、中央に映る予測対象者が歩き出す様子を示す予測動作映像をカメラ映像に重ね合わせた映像である。
また、図4に示すように、予測映像生成部140は、予測動作映像に加えて、予測動作が発生するまでの時間または予測動作が発生する時刻を示す時間情報を、画像としてカメラ映像に重ね合わせるようにしてもよい。
以上に説明したように、本実施形態では、予測情報提示装置100が、予測装置300から受信した予測情報をもとに予測動作映像を生成し、予測動作映像を重ね合わせたカメラ映像を表示装置400に出力する。そのため、ユーザは、予測情報を映像として認識することができるので、行動予測の結果を直感的に認識することができる。
また、本実施形態では、予測映像生成部140は、ステップS11において、表示すべき予測情報の有無を判断しているが、表示すべき予測情報の有無を判断せずに、予測装置300から入力される予測情報をすべて表示するようにしてもよい。
また、本実施形態では、人物の行動を予測の対象としているが、人物以外の動作、例えば、生物、乗り物、機械などの動作を予測の対象としてもよい。その場合には、生物、乗り物、機械などの画像から抽出した特徴量データなどを、対象者識別情報として予測情報に格納するようにすればよい。
また、表示装置400がメガネ型のディスプレイであって、透過(シースルー)型の表示部を備えている場合には、予測映像生成部140は、カメラ映像と予測動作映像とを合成せずに、予測動作映像のみを映像出力部150に出力するようにしてもよい。その際、予測映像生成部140が、予測動作映像の表示位置を適切に設定することにより、シースルー型の表示部を介して見える背景、つまり、ユーザの視界に、予測動作映像を重ね合わることができる。
図5は、本発明による予測情報提示システムの主要部を示すブロック図である。図5に示すように、予測情報提示システムは、映像情報を表示する表示装置40(図1に示す表示装置400に相当。)と通信可能であって、予測対象者を撮影する撮像装置20(図1に示す撮像装置200に相当。)と、撮像装置20が撮影した映像情報をもとに予測対象者の行動を予測し、予測した行動の内容を示す予測内容情報と、予測した行動の発生タイミングを示す予測タイミング情報とを含む予測情報を生成する予測装置30(図1に示す予測装置300に相当。)と、予測情報提示装置10(図1における予測情報提示装置100に相当。)とを備え、予測情報提示装置10は、予測装置から入力した予測情報をもとに、予測した行動を映像として表した予測動作映像を生成し、撮像装置が撮影した映像情報に予測動作映像を重畳させた予測映像情報を生成する映像処理手段11(図1に示す予測情報提示装置100における映像入力部110、予測情報入力部120、予測情報蓄積部130および予測映像生成部140相当。)と、予測映像情報を表示装置に出力する出力手段12(図1に示す予測情報提示装置100における映像出力部150に相当。)とを含む。
また、上記の実施形態には、以下のような予測情報提示システムも開示されている。
(1)予測装置30が、予測対象者の識別情報を予測情報に格納し、映像処理手段11が、識別情報をもとに、撮像装置20が撮影した映像に映る人物の中から予測対象者を特定し、特定した予測対象者の予測動作映像を生成する予測情報提示システム。
そのような構成によれば、映像処理手段11は、撮像装置20が撮影した映像に複数の人物が映っている場合であっても、予測対象者を特定することができる。また、撮像装置20が撮影した映像に複数の予測対象者が映っている場合であっても、それぞれの予測対象者に応じた予測映像を生成することができる。
(2)映像処理手段11が、予測情報に含まれる予測タイミング情報から、予測動作が発生するまでの時間、または、予測動作の発生時刻を示す時間情報を取得し、予測映像情報に時間情報を重畳する予測情報提示システム。
そのような構成によれば、予測動作映像が示す予測動作がいつ発生するのかをユーザに提示することができるので、ユーザは、より詳細な予測内容を認識することができる。
(3)撮像装置20が、ユーザの頭部に装着可能であって、ユーザの視野方向を撮影する予測情報提示システム。
そのような構成によれば、任意の場所において、ユーザの目前にいる人物を予測対象にすることができる。
また、上記の実施形態には、以下のような予測情報提示装置も開示されている。
(4)映像情報を表示する表示装置40と通信可能であって、予測対象者を撮影した映像情報をもとに予測対象者の行動を予測する予測装置30から、予測した行動の内容を示す予測内容情報と、予測した行動の発生タイミングを示す予測タイミング情報とを含む予測情報を入力し、入力した予測情報をもとに、予測した行動を映像として表した予測動作映像を生成し、予測対象者を撮影した映像情報に予測動作映像を重畳させた予測映像情報を生成する映像処理手段11と、予測映像情報を表示装置に出力する出力手段12とを含む予測情報提示装置。
(5)映像処理手段12が、予測情報に含まれる予測対象者の識別情報をもとに、撮像装置が撮影した映像に映る人物の中から予測対象者を特定し、特定した予測対象者の予測動作映像を生成する予測情報提示装置。
そのような構成によれば、映像処理手段11は、撮像装置20が撮影した映像に複数の人物が映っている場合であっても、予測対象者を特定することができる。また、撮像装置20が撮影した映像に複数の予測対象者が映っている場合であっても、それぞれの予測対象者に応じた予測映像を生成することができる。
10、100 予測情報提示装置
11 映像処理手段
12 出力手段
20、200 撮像装置
30、300 予測装置
40、400 表示装置
110 映像入力部
120 予測情報入力部
130 予測情報蓄積部
140 予測映像生成部
150 映像出力部

Claims (8)

  1. 映像情報を表示する表示装置と通信可能であって、
    予測対象者を撮影する撮像装置と、
    前記撮像装置が撮影した映像情報をもとに前記予測対象者の行動を予測し、予測した前記行動の内容を示す予測内容情報と、予測した前記行動の発生タイミングを示す予測タイミング情報とを含む予測情報を生成する予測装置と、
    予測情報提示装置とを備え、
    前記予測情報提示装置は、
    前記予測装置から入力した前記予測情報をもとに、予測した前記行動を映像として表した予測動作映像を生成し、前記撮像装置が撮影した映像情報に前記予測動作映像を重畳させた予測映像情報を生成する映像処理手段と、
    前記予測映像情報を前記表示装置に出力する出力手段とを含む
    ことを特徴とする予測情報提示システム。
  2. 予測装置は、予測対象者の識別情報を予測情報に格納し、
    映像処理手段は、前記識別情報をもとに、撮像装置が撮影した映像に映る人物の中から前記予測対象者を特定し、特定した前記予測対象者の予測動作映像を生成する
    請求項1に記載の予測情報提示システム。
  3. 映像処理手段は、予測情報に含まれる予測タイミング情報から、予測動作が発生するまでの時間、または、予測動作の発生時刻を示す時間情報を取得し、予測映像情報に前記時間情報を重畳する
    請求項1または請求項2に記載の予測情報提示システム。
  4. 撮像装置は、ユーザの頭部に装着可能であって、前記ユーザの視野方向を撮影する
    請求項1から請求項3のうちのいずれか1項に記載の予測情報提示システム。
  5. 映像情報を表示する表示装置と通信可能であって、
    予測対象者を撮影した映像情報をもとに前記予測対象者の行動を予測する予測装置から、予測した前記行動の内容を示す予測内容情報と、予測した前記行動の発生タイミングを示す予測タイミング情報とを含む予測情報を入力し、入力した前記予測情報をもとに、予測した前記行動を映像として表した予測動作映像を生成し、前記予測対象者を撮影した映像情報に前記予測動作映像を重畳させた予測映像情報を生成する映像処理手段と、
    前記予測映像情報を前記表示装置に出力する出力手段とを含む
    ことを特徴とする予測情報提示装置。
  6. 映像処理手段は、予測情報に含まれる予測対象者の識別情報をもとに、撮像装置が撮影した映像に映る人物の中から前記予測対象者を特定し、特定した前記予測対象者の予測動作映像を生成する
    請求項5に記載の予測情報提示装置。
  7. 撮像装置が、予測対象者を撮影し、
    予測装置が、前記撮像装置が撮影した映像情報をもとに前記予測対象者の行動を予測し、予測した前記行動の内容を示す予測内容情報と、予測した前記行動の発生タイミングを示す予測タイミング情報とを含む予測情報を生成し、
    映像情報を表示する表示装置と通信可能な予測情報提示装置が、前記予測装置から入力した前記予測情報をもとに、予測した前記行動を映像として表した予測動作映像を生成し、前記撮像装置が撮影した映像情報に前記予測動作映像を重畳させた予測映像情報を生成し、前記予測映像情報を前記表示装置に出力する
    ことを特徴とする予測情報提示方法。
  8. 映像情報を表示する表示装置と通信可能なコンピュータに、
    予測対象者を撮影した映像情報をもとに前記予測対象者の行動を予測する予測装置から、予測した前記行動の内容を示す予測内容情報と、予測した前記行動の発生タイミングを示す予測タイミング情報とを含む予測情報を入力し、入力した前記予測情報をもとに、予測した前記行動を映像として表した予測動作映像を生成し、前記予測対象者を撮影した映像情報に前記予測動作映像を重畳させた予測映像情報を生成する処理と、
    前記予測映像情報を前記表示装置に出力する処理とを実行させる
    ための予測情報提示プログラム。
JP2012036556A 2012-02-22 2012-02-22 予測情報提示システム、予測情報提示装置、予測情報提示方法および予測情報提示プログラム Expired - Fee Related JP5849762B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012036556A JP5849762B2 (ja) 2012-02-22 2012-02-22 予測情報提示システム、予測情報提示装置、予測情報提示方法および予測情報提示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012036556A JP5849762B2 (ja) 2012-02-22 2012-02-22 予測情報提示システム、予測情報提示装置、予測情報提示方法および予測情報提示プログラム

Publications (2)

Publication Number Publication Date
JP2013171516A JP2013171516A (ja) 2013-09-02
JP5849762B2 true JP5849762B2 (ja) 2016-02-03

Family

ID=49265390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012036556A Expired - Fee Related JP5849762B2 (ja) 2012-02-22 2012-02-22 予測情報提示システム、予測情報提示装置、予測情報提示方法および予測情報提示プログラム

Country Status (1)

Country Link
JP (1) JP5849762B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107533712A (zh) * 2015-05-11 2018-01-02 索尼公司 信息处理装置、信息处理方法和程序

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318587A (ja) * 2003-04-17 2004-11-11 Canon Inc 行動予測、および、これを用いた対応措置実施システム
JP2006072830A (ja) * 2004-09-03 2006-03-16 Aisin Aw Co Ltd 運転支援システム及び運転支援モジュール
JP5473750B2 (ja) * 2010-04-23 2014-04-16 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP2013171516A (ja) 2013-09-02

Similar Documents

Publication Publication Date Title
JP7480823B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP4934861B2 (ja) 表示システム、表示方法、表示効果測定システム、及び、表示効果測定方法。
JP6597609B2 (ja) 画像処理装置、監視システム、画像処理方法、及びプログラム
US20170201709A1 (en) Information processing apparatus, information processing method, and program
JP2005332309A (ja) ユーザ支援装置
KR101181967B1 (ko) 고유식별 정보를 이용한 3차원 실시간 거리뷰시스템
JP2017046196A (ja) 画像情報生成装置、画像情報生成方法、画像処理システム及びプログラム
US20210329175A1 (en) Image processing system, image processing method, and program
JPWO2014050432A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP2020057111A (ja) 表情判定システム、プログラム及び表情判定方法
KR102418994B1 (ko) 증강현실 기반 작업 공정 모니터링 및 작업 숙련도 평가방법
JP2022020891A (ja) 混雑情報報知システム
TW201944324A (zh) 導引系統
JP4735242B2 (ja) 注視対象物体特定装置
JP2007249527A (ja) 画像編集装置、画像編集方法および画像編集プログラム
TWI670646B (zh) 資訊顯示方法及其顯示系統
JP2009217448A (ja) 画像情報を用いた人物追跡システム
JP2016195323A (ja) 情報処理装置、情報処理方法、プログラム
KR20110070666A (ko) 광고 컨텐츠 공급 장치 및 방법
JP2009238251A (ja) ユーザ支援装置
JP5849762B2 (ja) 予測情報提示システム、予測情報提示装置、予測情報提示方法および予測情報提示プログラム
WO2014087622A1 (ja) 見え方提示システム、方法およびプログラム
JP6532234B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP2014215747A (ja) 追跡装置、追跡システム、及び、追跡方法
JPWO2020039897A1 (ja) 駅監視システム及び駅監視方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151117

R150 Certificate of patent or registration of utility model

Ref document number: 5849762

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees