JP2021157299A - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents
情報処理装置、情報処理方法及び情報処理プログラム Download PDFInfo
- Publication number
- JP2021157299A JP2021157299A JP2020054674A JP2020054674A JP2021157299A JP 2021157299 A JP2021157299 A JP 2021157299A JP 2020054674 A JP2020054674 A JP 2020054674A JP 2020054674 A JP2020054674 A JP 2020054674A JP 2021157299 A JP2021157299 A JP 2021157299A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- recognition
- image
- unit
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 93
- 238000003672 processing method Methods 0.000 title claims abstract description 14
- 238000003384 imaging method Methods 0.000 claims abstract description 171
- 230000005484 gravity Effects 0.000 claims description 51
- 230000006870 function Effects 0.000 description 44
- 238000000034 method Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 238000010248 power generation Methods 0.000 description 6
- 230000007423 decrease Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000003306 harvesting Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
また、一態様の情報処理方法及び情報処理プログラムは、一態様の情報処理装置と同様の効果を奏することができる。
本明細書では、「情報」の文言を使用しているが、「情報」の文言は「データ」と言い換えることができ、「データ」の文言は「情報」と言い換えることができる。
情報処理装置1は、定点撮像部21によって動画又は時間的に連続した静止画を撮像することにより生成された画像データに基づいて被写体201(図8,10参照)を撮像する。被写体201は、例えば、一定の動きをする物体である。一定の動きをする物体には、略一定の動きをする物体も含まれ、例えば、直線的(略直線的)に移動する車両、人物及び動物等である。具体的な一例として、被写体201は、直線道路等を移動する物体であってよい。なお、被写体201は、移動する物体に限られず、静止する物体(例えば、車両、人物及び動物等)であってもよい。
情報処理装置1は、定点撮像部21、記憶部22、設定部12、認識部13、予測部14、生成部15、サイズ取得部16、重心取得部17、位置取得部18、速度取得部19及び出力制御部20を備える。設定部12、認識部13、予測部14、生成部15、サイズ取得部16、重心取得部17、位置取得部18、速度取得部19及び出力制御部20は、情報処理装置1の制御部11(一例として、演算処理装置)の一機能として実現されてもよい。上述した記憶部22の他に、後述する通信部23及び表示部24は、本発明の「出力部」の一実施形態を構成してもよい。
定点撮像部21は、地面に固定されたポール等に設置され、又は、移動可能な三脚等に設置される。定点撮像部21は、移動可能な三脚等に設置された場合、その三脚と共に移動させることが可能である。これにより、定点撮像部21は、ユーザの所望の場所に容易に配置され、またユーザが必要とする期間のみ所望の場所に配置されることができる。
発電パネルは、光を受けて発電を行う。発電パネルは、エネルギハーベスティング技術を利用したデバイス、すなわち、周囲の環境のエネルギを収穫して電力に変換するデバイスであってもよい。具体的な一例として、発電パネルは、太陽電池パネルであってよい。発電パネルで発電された電力は、例えば、バッテリなどに蓄電して、そのバッテリから定点撮像部21に給電してもよい。
電源は、例えば、一次電池、二次電池又は商用電源等である。電源として一次電池又は二次電池が用いられる場合、その一次電池又は二次電池が交換可能なように定点撮像部21に配される。また、電源として二次電池が用いられる場合、その二次電池が充電可能なように定点撮像部21に配されてもよい。
なお、発電パネル又は電源は、定点撮像部21の他に、制御部等に給電してもよい。
また、記憶部22は、定点撮像部21において生成される画像データに基づく画像(フレーム又は静止画)内の位置と、その位置における定点撮像部21からの距離とを予め対応付けた関係(画像位置情報)を記憶する。画像位置情報の生成方法については、後述する。
図3は、定点撮像部21で撮像される画像の一例について説明するための図である。
図4は、Y座標とピクセル数との関係を示すグラフである。図4の横軸はY座標を示し、縦軸は1m当たりのピクセル数を示す。ここで、定点撮像部21で撮像される画像内における奥行方向がY座標であり、その画像の幅方向がX座標である。
図5は、画像位置情報の一例について説明するためのグラフである。図5の横軸はY座標を示し、縦軸は、定点撮像部21が配される地面の位置から任意のY座標の位置までの距離を示す。
図6は、Y座標と画像の幅の比率との関係を示すグラフである。図6の横軸はY座標を示し、縦軸は画像の幅の比率を示す。
図7は、第1〜9設定部121〜129について説明するためのブロック図である。
設定部12は、第3距離L3を取得して、定点撮像部21で撮像される画像内の位置と第3距離L3とを対応付けることにより、画像位置情報を取得する。
画像位置情報を取得するために、まず、定点撮像部21の撮像範囲内で人物110を移動させる。この場合、例えば、不図示の入力装置を用いて、人物の身長(高さ)が入力される。第1設定部121は、入力された人物の身長を取得する。
また、第1設定部121は、定点撮像部21が撮影する画角θ2を取得する。画角θ2は、例えば、不図示の入力装置を用いて入力される。第1設定部121は、入力された画角θ2を取得する。画角θ2は、定点撮像部21の撮像素子(図示せず)の平面サイズ、及び、定点撮像部21の撮像レンズ(図示せず)の焦点距離等によって定まる。
また、第1設定部121は、定点撮像部21で得られる画像の幅(一例として、ピクセル数)を取得する。画像の幅(画像幅)は、例えば、不図示の入力装置を用いて入力される。
第2設定部122は、撮像範囲内で人物110を歩かせることにより、画像内の任意に位置において、定点撮像部21で撮像される画像内での1m当たりのピクセル数を取得する。すなわち、第2設定部122は、第1設定部121で取得された人の身長に基づいて画像100a内における1mの大きさ(長さ)を取得し、さらに取得した1mの大きさ当たりの画像のピクセル数を取得する。
図3に例示する場合、定点撮像部21に用いられる撮像素子(定点撮像部21で得られる画像)のサイズは、1280ピクセル×960ピクセルである。第2設定部122は、図3に例示する画像に人物110(図3には図示せず)が記録される場合、人物110の高さと、撮像素子(画像)のピクセル数とに基づいて、1mの大きさ当たりのピクセル数を取得する。
なお、人物110が定点撮像部21から遠ざかる方向に移動する場合、画像内の所定の位置において人物がその位置よりも遠ざからない無限点P1(図3参照)が存在する。画像内における無限点P1を含む水平線が基準線LSとなる。
図3に例示する場合、画像の縦方向が実空間の奥行方向に対応し、その画像の縦方向の座標がY座標になる。また、図3に例示する場合、画像の横方向が実空間の幅方向に対応し、その画像の横方向の座標がX座標になる。そして、図3の左上のピクセルを原点の座標(0,0)とすると、右上のピクセルの座標が(1280,0)になる。図3の中心位置のピクセルの座標が(640,480)になる。図3の左下のピクセルの座標が(0,960)になり、右下のピクセルの座標が(1280,960)になる。
図2に例示するように、人物110がいるY座標の位置(Y座標の方向の所定位置)における画像100aを考える。第4設定部124は、定点撮像部21で撮像される画像の幅方向のピクセル数(図3に例示する場合では1280ピクセル)は第1設定部121によって取得されるため、1m当たりのピクセル数に基づいて、そのY座標の所定位置における画像100aの幅wの実際の長さを取得する。
第5設定部125は、上述したY座標の所定位置における画像100aの幅wの実際の長さ、及び、定点撮像部21の画角θ2に基づいて、定点撮像部21から画像100aの中心位置Pcまでの実際の距離(第1距離L1)を取得する。また、第5設定部125は、画像のピクセル数、1m当たりのピクセル数、Y座標の所定位置における画像100aの幅wの実際の長さ、及び、定点撮像部21の画角に基づいて、画像100aの中心位置Pcから地面までの実際の距離(第2距離L2)を取得する。
すなわち、第8設定部128は、地面から定点撮像部21までの高さHと、定点撮像部21と地面とのなす角θとに基づいて、定点撮像部21が配される地面位置P0からY座標の所定位置(画像100a)までの距離L3を取得する。第8設定部128は、その距離L3と、画像内の所定位置におけるY座標とを対応付けることにより、画像内の位置に関する情報(画像位置情報)を取得する。また、第8設定部128は、人物110を定点撮像部21の撮像範囲内を移動させて、撮像範囲内の任意の位置における定点撮像部21が配される地面位置P0から被写体(人)110までの距離を取得することに基づいて、画像位置情報を取得する。第8設定部128は、画像位置情報を記憶部22に記憶する。
すなわち、第4設定部124では、実際の画像の幅wを取得する。人物110がいない位置(人が歩いていない位置に対応するY座標)においては、第4設定部124は、実際の画像の幅wを取得することができない。このため、第9設定部129は、第4設定部124でY座標の複数の位置で画像の幅wを取得した場合、その複数の位置での画像の幅wに基づいて、Y座標の任意の位置における画像の幅を算出する。例えば、第9設定部129は、第4設定部124で取得された複数の画像の幅のうち1つをY座標の基準位置の画像の幅(基準幅)と設定し、複数の画像の幅のうち基準幅を除く他の画像の幅と、基準幅との比率(幅比率)を求める。第9設定部129は、第4設定部124で取得された複数の画像それぞれに基づいて、基準幅との比率(幅比率)を求める。この幅比率をグラフに示すと、図6のようになる。
これにより、画像位置情報の取得を終了する。
図8は、第1認識枠210及び第2認識枠220の一例について説明するための図である。
図9は、第1認識枠210及び第2認識枠220それぞれの中心位置210a,220aについて説明するための図である。
図10は、正面枠220b及び背面枠220cの一例について説明するための図である。
図11は、重心位置PGについて説明するための図である。
図12は、被写体201の速度を取得する際の重心位置PGの変化について説明するための図である。
サイズ取得部16は、被写体201の画像上での高さを求める場合にも、上述した被写体201の画像上での幅方向のサイズを求める場合と同様にして取得することができる。
まず、画像位置情報を取得する方法について説明する。
図13は、一実施形態に係る情報処理方法であって、画像位置情報を取得する方法ついて説明するためのフローチャートである。
すなわち、設定部12は、第1〜9設定部121〜129により、以下の処理を行う。
第1設定部121は、被写体の高さと、定点撮像部21の画角と、定点撮像部21で撮像される画像の幅を予め取得する。
第2設定部122は、被写体が移動する場合、第1設定部121で取得された被写体の高さに基づいて、1m当たりのピクセル数を取得する。
第3設定部123は、画像の奥行方向の座標となるY座標と、第2設定部122で取得される被写体の1m当たりのピクセル数との関係を取得する。
第4設定部124は、第1設定部121で取得される画像の幅と、第2設定部122で取得された1m当たりのピクセル数とに基づいて所定位置における実際の画像の幅wを取得する。
第5設定部125は、第4設定部124で取得された実際の画像の幅wと、第1設定部121で取得された画角θ2とに基づいて、定点撮像部21から画像内の中心位置Pcまでの距離である第1距離L1と、地面から中心位置Pcまでの距離である第2距離L2とを取得する。
第6設定部126は、第5設定部125で取得された第1距離L1及び第2距離L2に基づいて、地面と定点撮像部21の撮像方向における中心線(Y軸方向に沿う線)とのなす角θを求める。
第7設定部127は、第5設定部125で取得された第1距離L1及び第2距離L2と、第6設定部126で取得されたなす角θとに基づいて、地面から定点撮像部21までの高さHを取得する。
第8設定部128は、第7設定部127で取得された地面から定点撮像部21までの高さHと、第6設定部126で取得されたなす角θとに基づいて、定点撮像部21が配される撮像位置から被写体までの位置を取得し、画像位置情報を取得する。
ここで、第9設定部129は、第4設定部124で取得された画像の幅のうち、Y座標の方向における基準位置の幅と、Y座標の方向の所定位置における幅とに基づいて、Y座標に対する幅比率を取得することとしてもよい。
図14は、一実施形態に係る情報処理方法であって、被写体201に関する情報を取得する方法について説明するためのフローチャートである。
上述した所定時刻は、現在時刻であってもよい。すなわち、第2認識枠220は、現在時刻における被写体201の予想位置であってよい。これにより、被写体201が他の物体によって一時的に全部又は一部が隠れた場合でも、その被写体201を認識する(被写体201の位置を予測する)ことが可能になる。
生成部15は、第1,2延長線230,240と基準線LSとの交点PSを基準にした画像の垂直方向に対して左側に被写体201が位置する場合、画像に対して第2認識枠220の左下にある頂点に接するように矩形の正面枠220bを生成すると共に、画像に対して第2認識枠220の右上にある頂点に接するように矩形の背面枠220cを生成する。
又は、生成部15は、第1,2延長線230,240と基準線LSとの交点PSを基準にした画像の垂直方向に対して右側に被写体201が位置する場合、画像に対して第2認識枠220の右下にある頂点に接するように矩形の正面枠220bを生成すると共に、画像に対して第2認識枠220の左上にある頂点に接するように矩形の背面枠220cを生成する。
この場合、重心取得部17は、一例として、定点撮像部21において生成される画像データに基づく画像内の位置と、その位置における定点撮像部21からの距離とを予め対応付けた結果(設定部12によって得られた結果(画像位置情報))に基づいて、定点撮像部21から重心位置PGまでの距離(一例として、画像上における水平方向(X方向)と垂直方法(Y方向)の距離)を取得することとしてもよい。なお、X方向の距離は、画像上の水平方向の中心線からの距離であってもよい。
情報処理装置1は、時間的に連続して被写体201を撮像して画像データを生成する定点撮像部21と、定点撮像部21によって撮像された画像データに記録される少なくとも2つの時間的に異なる画像に基づいて被写体201をそれぞれ認識し、それぞれの時刻において被写体201を囲う複数の第1認識枠210を生成する認識部13と、複数の第1認識枠210と、その複数の第1認識枠210の中心位置210aと、定点撮像部21によって撮像される画像データに基づく画像の基準線LSとに基づいて、認識部13によって第1認識枠210を生成する際の画像の記録時刻よりも時間的に先となる所定時刻における被写体201を囲う第2認識枠220とその第2認識枠220の中心位置220aとを予測する予測部14と、予測部14によって生成される第2認識枠220に一部が接するように、被写体201の正面の外形に応じた正面枠220bと、被写体201の背面の外形に応じた背面枠220cとを生成する生成部15と、定点撮像部21から被写体201までの距離と、画像データに基づく画像のサイズと、生成部15によって生成された正面枠220b及び背面枠220cの少なくとも一方のサイズとに基づいて、被写体201のサイズを取得するサイズ取得部16と、を備える。
これにより、情報処理装置1は、画像に記録される被写体201に関する情報を取得することができる。
所定の座標系は、一例として、グローバル座標系であってもよい。これにより、情報処理装置1は、被写体201の位置(座標)を取得することができる。
これにより、情報処理装置1は、被写体201が移動する際に、その被写体201の重心位置PGに基づいて速度を取得することができる。
これにより、情報処理装置1は、取得した被写体201に関する情報を、通信部23によって外部に送信し、表示部24に表示し、及び、記憶部22に記憶することができる。
これよりに、情報処理装置1は、例えば、学習モデル又はパターンマッチング等に基づいて被写体201を認識することができ、認識した被写体201に基づいた第1認識枠210(ROI)を生成することができる。
これにより、情報処理装置1は、複数の第1認識枠210に基づいて、被写体201の第2認識枠220(ROI)を生成することができる。
これにより、情報処理装置1は、複数の第1認識枠210に基づいて、被写体201の移動方向に応じた第2認識枠220を生成することができる。
これにより、情報処理装置1は、被写体201の移動方向に、画像に対して左方向の成分がある場合に、正面枠220b及び背面枠220cを生成することができる。
これにより、情報処理装置1は、被写体201の移動方向に、画像に対して右方向の成分がある場合に、正面枠220b及び背面枠220cを生成することができる。
これにより、情報処理装置1は、その距離を、被写体201に関する情報を取得する際の基礎にすることができる。
これにより、情報処理方法は、画像に記録される被写体201に関する情報を取得することができる。
これにより、情報処理プログラムは、画像に記録される被写体201に関する情報を取得することができる。
情報処理プログラムは、上述した各機能をコンピュータに実現させることができる。情報処理プログラムは、外部メモリ又は光ディスク等の、コンピュータで読み取り可能な非一時的な記録媒体に記録されていてもよい。
また、上述したように、情報処理装置1の各部は、コンピュータの演算処理装置等で実現されてもよい。その演算処理装置等は、例えば、集積回路等によって構成される。このため、情報処理装置1の各部は、演算処理装置等を構成する回路として実現されてもよい。すなわち、情報処理装置1の設定部12、認識部13、予測部14、生成部15、サイズ取得部16、重心取得部17、位置取得部18、速度取得部19及び出力制御部20は、コンピュータの演算処理装置等を構成する設定回路、認識回路、予測回路、生成回路、サイズ取得回路、重心取得回路、位置取得回路、速度取得回路及び出力制御回路として実現されてもよい。
また、情報処理装置1の定点撮像部21及び出力部(記憶部22、通信部23及び表示部24)は、例えば、演算処理装置等の機能を含む定点撮像機能及び出力機能(記憶機能、通信機能及び表示機能)として実現されもよい。また、情報処理装置1の定点撮像部21及び出力部(記憶部22、通信部23及び表示部24)は、例えば、集積回路等によって構成されることにより定点撮像回路及び出力回路(記憶回路、通信回路及び表示回路)として実現されてもよい。また、情報処理装置1の定点撮像部21及び出力部(記憶部22、通信部23及び表示部24)は、例えば、複数のデバイスによって構成されることにより定点撮像装置及び出力装置(記憶装置、通信装置及び表示装置)として構成されてもよい。
11 制御部
12 設定部
13 認識部
14 予測部
15 生成部
16 サイズ取得部
17 重心取得部
18 位置取得部
19 速度取得部
20 出力制御部
21 定点撮像部
22 記憶部
23 通信部
24 表示部
Claims (12)
- 時間的に連続して被写体を撮像して画像データを生成する定点撮像部と、
前記定点撮像部によって撮像された画像データに記録される少なくとも2つの時間的に異なる画像に基づいて被写体をそれぞれ認識し、それぞれの時刻において被写体を囲う第1認識枠を生成する認識部と、
複数の第1認識枠と、当該複数の第1認識枠の中心位置と、前記定点撮像部によって撮像される画像データに基づく画像の基準線とに基づいて、認識部によって第1認識枠を生成する際の画像の記録時刻よりも時間的に先となる所定時刻における被写体を囲う第2認識枠と当該第2認識枠の中心位置とを予測する予測部と、
前記予測部によって生成される第2認識枠に一部が接するように、被写体の正面の外形に応じた正面枠と、被写体の背面の外形に応じた背面枠とを生成する生成部と、
前記定点撮像部から被写体までの距離と、画像データに基づく画像のサイズと、前記生成部によって生成された正面枠及び背面枠の少なくとも一方のサイズとに基づいて、被写体のサイズを取得するサイズ取得部と、
を備える情報処理装置。 - 前記生成部によって生成された正面枠及び背面枠に基づいて、被写体の重心位置を取得する重心取得部と、
前記重心取得部によって取得された重心位置を所定の座標系に変換することにより、被写体の位置を取得する位置取得部と、
を備える請求項1に記載の情報処理装置。 - 前記重心取得部によって取得された時間毎の被写体の複数の重心位置の変化に基づいて被写体の速度を取得する速度取得部を備える
請求項2に記載の情報処理装置。 - 前記サイズ取得部によって取得された被写体のサイズ、前記位置取得部によって取得された被写体の位置、及び、前記速度取得部によって取得された被写体の速度のうち、少なくとも1つを出力する出力部を備える
請求項3に記載の情報処理装置。 - 前記認識部は、画像上において被写体を囲う矩形の枠を第1認識枠として生成する
請求項1〜4のいずれか1項に記載の情報処理装置。 - 前記予測部は、画像上において被写体を囲う矩形の枠を第2認識枠として生成する
請求項1〜5のいずれか1項に記載の情報処理装置。 - 前記予測部は、
基準線として、画像データに基づく画像の水平方向に延びる線を設定し、
基準線の所定位置を端点として設定し、当該端点から複数の第1認識枠の各中心位置を通る中心線上を中心位置として第2認識枠を生成する
請求項1〜6のいずれか1項に記載の情報処理装置。 - 前記生成部は、
所定位置を基準に、画像データに基づく画像の垂直方向に対して左側に被写体が位置する場合、画像に対して第2認識枠の左下にある頂点に接するように矩形の正面枠を生成すると共に、画像に対して第2認識枠の右上にある頂点に接するように矩形の背面枠を生成する
請求項7に記載の情報処理装置。 - 前記生成部は、
所定位置を基準に、画像データに基づく画像の垂直方向に対して右側に被写体が位置する場合、画像に対して第2認識枠の右下にある頂点に接するように矩形の正面枠を生成すると共に、画像に対して第2認識枠の左上にある頂点に接するように矩形の背面枠を生成する
請求項7に記載の情報処理装置。 - 前記サイズ取得部は、前記定点撮像部において生成される画像データに基づく画像内の位置と、当該位置における前記定点撮像部からの距離とを予め対応付けた結果に基づいて、定点撮像部から被写体までの距離を取得する
請求項1〜9のいずれか1項に記載の情報処理装置。 - コンピュータが、
時間的に連続して被写体を撮像して画像データを生成する定点撮像ステップと、
前記定点撮像ステップによって撮像された画像データに記録される少なくとも2つの時間的に異なる画像に基づいて被写体をそれぞれ認識し、それぞれの時刻において被写体を囲う第1認識枠を生成する認識ステップと、
複数の第1認識枠と、当該複数の第1認識枠の中心位置と、前記定点撮像ステップによって撮像される画像データに基づく画像の基準線とに基づいて、認識ステップによって第1認識枠を生成する際の画像の記録時刻よりも時間的に先となる所定時刻における被写体を囲う第2認識枠と当該第2認識枠の中心位置とを予測する予測ステップと、
前記予測ステップによって生成される第2認識枠に一部が接するように、被写体の正面の外形に応じた正面枠と、被写体の背面の外形に応じた背面枠とを生成する生成ステップと、
前記定点撮像ステップから被写体までの距離と、画像データに基づく画像のサイズと、前記生成ステップによって生成された正面枠及び背面枠の少なくとも一方のサイズとに基づいて、被写体のサイズを取得するサイズ取得ステップと、
を実行する情報処理方法。 - コンピュータに、
時間的に連続して被写体を撮像して画像データを生成する定点撮像機能と、
前記定点撮像機能によって撮像された画像データに記録される少なくとも2つの時間的に異なる画像に基づいて被写体をそれぞれ認識し、それぞれの時刻において被写体を囲う第1認識枠を生成する認識機能と、
複数の第1認識枠と、当該複数の第1認識枠の中心位置と、前記定点撮像機能によって撮像される画像データに基づく画像の基準線とに基づいて、認識機能によって第1認識枠を生成する際の画像の記録時刻よりも時間的に先となる所定時刻における被写体を囲う第2認識枠と当該第2認識枠の中心位置とを予測する予測機能と、
前記予測機能によって生成される第2認識枠に一部が接するように、被写体の正面の外形に応じた正面枠と、被写体の背面の外形に応じた背面枠とを生成する生成機能と、
前記定点撮像機能から被写体までの距離と、画像データに基づく画像のサイズと、前記生成機能によって生成された正面枠及び背面枠の少なくとも一方のサイズとに基づいて、被写体のサイズを取得するサイズ取得機能と、
を実現させる情報処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020054674A JP7393270B2 (ja) | 2020-03-25 | 2020-03-25 | 情報処理装置、情報処理方法及び情報処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020054674A JP7393270B2 (ja) | 2020-03-25 | 2020-03-25 | 情報処理装置、情報処理方法及び情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021157299A true JP2021157299A (ja) | 2021-10-07 |
JP7393270B2 JP7393270B2 (ja) | 2023-12-06 |
Family
ID=77918400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020054674A Active JP7393270B2 (ja) | 2020-03-25 | 2020-03-25 | 情報処理装置、情報処理方法及び情報処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7393270B2 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015041382A (ja) * | 2013-08-20 | 2015-03-02 | 株式会社リコー | 対象追跡方法及び対象追跡装置 |
WO2019206270A1 (zh) * | 2018-04-27 | 2019-10-31 | 深圳市商汤科技有限公司 | 测距方法、智能控制方法及装置、电子设备和存储介质 |
WO2020029758A1 (zh) * | 2018-08-07 | 2020-02-13 | 北京市商汤科技开发有限公司 | 对象三维检测及智能驾驶控制的方法、装置、介质及设备 |
-
2020
- 2020-03-25 JP JP2020054674A patent/JP7393270B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015041382A (ja) * | 2013-08-20 | 2015-03-02 | 株式会社リコー | 対象追跡方法及び対象追跡装置 |
WO2019206270A1 (zh) * | 2018-04-27 | 2019-10-31 | 深圳市商汤科技有限公司 | 测距方法、智能控制方法及装置、电子设备和存储介质 |
WO2020029758A1 (zh) * | 2018-08-07 | 2020-02-13 | 北京市商汤科技开发有限公司 | 对象三维检测及智能驾驶控制的方法、装置、介质及设备 |
Also Published As
Publication number | Publication date |
---|---|
JP7393270B2 (ja) | 2023-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102051889B1 (ko) | 스마트 글래스에서 2d 데이터를 기반으로 3d 증강현실을 구현하는 방법 및 시스템 | |
CN109683135A (zh) | 一种声源定位方法及装置、目标抓拍系统 | |
CN101730876A (zh) | 使用相机和输出标记的指点装置 | |
CN101339654A (zh) | 一种基于标志点的增强现实三维注册方法和系统 | |
CN108537214B (zh) | 一种室内语义地图的自动化构建方法 | |
JP7031685B2 (ja) | モデル学習装置、モデル学習方法及びコンピュータプログラム | |
Wang et al. | A robust subpixel refinement technique using self‐adaptive edge points matching for vision‐based structural displacement measurement | |
CN111780744B (zh) | 移动机器人混合导航方法、设备及存储装置 | |
CN116012445A (zh) | 一种基于深度相机的导览机器人感知行人三维空间信息的方法和系统 | |
CN103033145A (zh) | 用于识别多个物体的形状的方法与系统 | |
CN113487674B (zh) | 一种人体位姿估计系统和方法 | |
CN111399634A (zh) | 一种手势引导物体识别的方法及装置 | |
CN110942083A (zh) | 拍摄装置以及拍摄系统 | |
JP7393270B2 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
JP2532985B2 (ja) | 3次元画像評価装置 | |
CN113744302A (zh) | 动态目标行为预测方法和系统 | |
KR20180036205A (ko) | 시뮬레이션용 스마트 테이블 장치 | |
Munoz-Salinas et al. | People detection and tracking through stereo vision for human-robot interaction | |
CN116259001A (zh) | 一种多视角融合的三维行人姿态估计与追踪方法 | |
JP7561911B2 (ja) | 撮像装置、撮像方法及び撮像プログラム | |
KR101209598B1 (ko) | 감시 시스템 | |
Yang et al. | Measurement of 3-DOF Planar Motion of the Object Based on Image Segmentation and Matching | |
Ghaneizad et al. | A fast bottom-up approach toward three-dimensional human pose estimation using an array of cameras | |
CN118559720B (zh) | 一种面向重度遮挡目标的采摘机器人自适应容错作业方法 | |
WO2022239291A1 (ja) | 物体検知装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231016 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7393270 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |