JP2022138639A - 処理装置 - Google Patents
処理装置 Download PDFInfo
- Publication number
- JP2022138639A JP2022138639A JP2021038631A JP2021038631A JP2022138639A JP 2022138639 A JP2022138639 A JP 2022138639A JP 2021038631 A JP2021038631 A JP 2021038631A JP 2021038631 A JP2021038631 A JP 2021038631A JP 2022138639 A JP2022138639 A JP 2022138639A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- unit
- area
- shielded
- imaging device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 128
- 238000003384 imaging method Methods 0.000 claims abstract description 92
- 238000001514 detection method Methods 0.000 claims abstract description 55
- 230000010354 integration Effects 0.000 claims description 34
- 230000010365 information processing Effects 0.000 claims description 16
- 238000000034 method Methods 0.000 claims description 14
- 238000003672 processing method Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 5
- 238000009434 installation Methods 0.000 description 59
- 238000012790 confirmation Methods 0.000 description 31
- 230000009471 action Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 6
- 230000000295 complement effect Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】遮蔽物などが存在する場合に視認できない領域が出来てしまうおそれがある。【解決手段】処理装置は、画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定する推定部と、前記推定部が前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する検出部と、を有する。【選択図】図11
Description
本発明は、処理装置、処理方法、プログラム、処理システムに関する。
視覚を拡張することなどを目的として、撮像した画像データの表示を行うことがある。
例えば、特許文献1には、人間の視覚を拡張する視覚拡張装置が記載されている。特許文献1によると、視覚拡張装置は、撮像手段と画像処理手段と表示手段とを有する。例えば、撮像手段は、使用者の視野の範囲と略同一の視野の範囲を撮像する。また、画像処理手段は、撮像手段により撮像した画像に対して所定の処理を行なう。そして、表示手段は、処理された画像を、使用者の視野内に、視認可能に表示する。
特許文献1に記載の技術では、使用者の視野の範囲と略同一の視野の範囲を撮像するため、例えば視野内に遮蔽物が存在する場合などにおいて、遮蔽物の陰に隠れている人や物を認識することは出来なかった。このように、遮蔽物などが存在する場合に視認できない領域が出来てしまうおそれがある、という課題が生じていた。
そこで、本発明の目的は、遮蔽物などが存在する場合に視認できない領域が出来てしまうおそれがある、という課題を解決する処理装置、処理方法、プログラムを提供することにある。
かかる目的を達成するため本開示の一形態である処理装置は、
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定する推定部と、
前記推定部が前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する検出部と、
を有する
という構成をとる。
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定する推定部と、
前記推定部が前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する検出部と、
を有する
という構成をとる。
また、本開示の他の形態である処理方法は、
情報処理装置が、
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定し、
前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する
という構成をとる。
情報処理装置が、
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定し、
前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する
という構成をとる。
また、本開示の他の形態であるプログラムは、
情報処理装置に、
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定し、
前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する
を実現するためのプログラムである。
情報処理装置に、
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定し、
前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する
を実現するためのプログラムである。
また、本開示の他の形態である処理システムは、
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定する推定部と、前記推定部が前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する検出部と、を有する処理装置と、
前記検出部による検出結果を前記画像データに統合して表示する表示装置と、
を有する
という構成をとる。
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定する推定部と、前記推定部が前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する検出部と、を有する処理装置と、
前記検出部による検出結果を前記画像データに統合して表示する表示装置と、
を有する
という構成をとる。
上述したような各構成によると、遮蔽物などが存在する場合に視認できない領域が出来てしまうおそれがあるという課題を解決可能な処理装置、処理方法、プログラムを提供することが出来る。
[第1の実施形態]
本開示の第1の実施形態について、図1から図9を参照して説明する。図1は、処理システム100を説明するための図である。図2は、処理システム100全体の構成例を示す図である。図3は、処理装置400の構成例を示すブロック図である。図4は、遮蔽領域推定部433の処理例を説明するための図である。図5は、拡張領域確認部434の処理例を説明するための図である。図6は、不可視物体検出部435の処理例を説明するための図である。図7は、統合部436の処理例を説明するための図である。図8は、統合部436の他の処理例を説明するための図である。図9は、処理装置400の動作例を示すフローチャートである。
本開示の第1の実施形態について、図1から図9を参照して説明する。図1は、処理システム100を説明するための図である。図2は、処理システム100全体の構成例を示す図である。図3は、処理装置400の構成例を示すブロック図である。図4は、遮蔽領域推定部433の処理例を説明するための図である。図5は、拡張領域確認部434の処理例を説明するための図である。図6は、不可視物体検出部435の処理例を説明するための図である。図7は、統合部436の処理例を説明するための図である。図8は、統合部436の他の処理例を説明するための図である。図9は、処理装置400の動作例を示すフローチャートである。
本開示の第1の実施形態においては、ある撮像装置が取得した画像データ中に存在する遮蔽領域内の物体を他の撮像装置が取得した画像データである第2画像データを用いて検出することで、遮蔽領域に隠れている物体を表示可能な処理システム100について説明する。図1で示すように、例えば、処理システム100は、人物Aが有する撮像装置を用いて取得した画像データ中に遮蔽領域が存在する場合、当該遮蔽領域内を撮像する他の撮像装置がないか確認する。例えば、図1の場合、人物Aとは異なる位置に存在する人物Dが有するまたは異なる位置に設置された装置Dが上記遮蔽領域内を撮像している。そこで、処理システム100は、撮像装置である装置Dが取得した画像データに基づいて、人物などの物体を検出するとともに、検出した物体の位置を推定する。また、処理システム100は、推定した位置に基づいて、人物Aが有する撮像装置を用いて取得した画像データ中に存在する遮蔽領域内に人物などの物体が存在するか否か確認する。そして、人物Aが有する撮像装置を用いて取得した画像データ中に存在する遮蔽領域内に人物などの物体が存在すると判断される場合、処理システム100は、検出した結果を人物Aが有する撮像装置を用いて取得した画像データに統合するとともに、統合した結果を人物Aが有する装置に対して出力する。例えば、図1の場合、人物Aが有する撮像装置を用いて取得した画像データ中の遮蔽領域内に人物Cが存在している。そのため、処理システム100は、当該遮蔽領域内に人物Cが存在している旨に応じた情報を人物Aが有する撮像装置を用いて取得した画像データに統合するとともに、統合した結果を人物Aが有する装置に対して出力する。
なお、遮蔽領域とは、壁、車両、大型の荷物などの遮蔽物の存在により、画像データでは確認できない物体が隠れている可能性のある領域のことをいう。図1で示すように、ある方向から取得した画像データにおいては遮蔽領域内に隠れてしまい視認できない不可視物体であっても、他の位置、他の方向から取得した画像データにおいては確認可能な場合がある。
図2は、処理システム100の全体的な構成例を示している。図2を参照すると、処理システム100は、例えば、移動装置200と設置装置300と処理装置400とを含むことが出来る。例えば、処理システム100は、移動装置200や設置装置300を複数含むことが出来る。処理システム100は、移動装置200と設置装置300のうちのいずれか一方を含まなくてもよい。
図2で示すように、移動装置200と処理装置400とは、有線または無線を介して互いに通信可能なよう接続されている。また、設置装置300と処理装置400とは、有線または無線を介して互いに通信可能なよう接続されている。なお、移動装置200と処理装置400とは、図示しない中継装置などを介して互いに通信を行ってもよい。同様に、設置装置300と処理装置400とは、図示しない中継装置などを介して互いに通信を行ってもよい。
移動装置200は、画像データを取得するとともに画像データを表示可能な装置(表示装置)である。移動装置200は、利用者などの移動物体が有しており、移動物体の移動に応じて移動する。例えば、移動装置200は、カメラなどの撮像装置とタッチパネル付きディスプレイなどの画面表示装置とを有するスマートフォンやタブレットなどの携帯情報端末である。移動装置200は、カメラや360度カメラなどの撮像装置とAR/MR(Augmented Reality / Mixed Reality)グラスなどの画面表示装置など複数の装置から構成されてもよい。
移動装置200は、例えば、処理システム100の利用者が有しており、利用者の位置から120度や360度など所定の視野角で画像データを取得する。また、移動装置200は、取得した画像データを処理装置400へと送信する。移動装置200は、画像データを取得した時刻を示す時刻情報などを画像データと対応付けて、対応付けたデータを処理装置400へと送信してもよい。
また、移動装置200は、利用者の位置(移動装置200の位置)を示す位置データを処理装置400へと送信することが出来る。例えば、移動装置200は、GPS(Global Positioning System)機能などを有しており、GPS機能を利用して取得した位置データを処理装置400へと所定の間隔で送信する。移動装置200は、位置データを取得した時刻を示す時刻情報などを位置データと対応付けて、対応付けたデータを処理装置400へと送信してもよい。なお、利用者の位置(移動装置200の位置)は、ビーコンなどによる位置測位を行うことで処理装置400が把握可能なよう構成してもよい。
また、移動装置200は画面表示装置を有しており、画面表示装置に画像データを表示する。例えば、移動装置200は、自身が有する撮像装置を用いて取得した画像データや処理装置400から受信した画像データなどを画面表示することが出来る。
なお、移動装置200は、画像データを取得する機能のみを有する装置であってもよい。換言すると、処理システム100に含まれる移動装置200のうちの一部は、画面表示装置を有していなくてもよい。また、移動装置200は、人物以外の移動物体が有していてもよい。
設置装置300は、画像データを取得する装置である。例えば、設置装置300は、予め定められた位置に設置された監視カメラなどの撮像装置である。例えば、設置装置300は、予め定められた方向に向かって所定の視野角で画像データを取得する。そして、設置装置300は、取得した画像データを処理装置400へと送信する。設置装置300は、画像データを取得した時刻を示す時刻情報などを画像データと対応付けて、対応付けたデータを処理装置400へと送信してもよい。
なお、設置装置300の撮像方向は可変であってもよい。設置装置300の撮像方向を可変にする場合、設置装置300の撮像方向を示す情報を処理装置400に対して送信することなどにより、処理装置400において設置装置300の撮像方向を把握可能なものとする。また、設置装置300は、画像データを表示する機能を有していてもよい。
処理装置400は、移動装置200などから取得した画像データ中に存在する遮蔽領域を推定するとともに、推定した遮蔽領域内に存在する物体を他の撮像装置が取得した画像データに基づいて検出する情報処理装置である。例えば、処理装置400は、サーバ装置などの情報処理装置である。処理装置400は、1台の情報処理装置により構成されてもよいし、例えば、クラウド上などに実現されてもよい。
図3は、処理装置400の構成例を示している。図3を参照すると、処理装置400は、主な構成要素として、例えば、通信I/F部410と、記憶部420と、演算処理部430と、を有している。
通信I/F部410は、データ通信回路からなる。通信I/F部410は、通信回線を介して接続された外部装置との間でデータ通信を行う。
記憶部420は、ハードディスクやメモリなどの記憶装置である。記憶部420は、演算処理部430における各種処理に必要な処理情報やプログラム427を記憶する。プログラム427は、演算処理部430に読み込まれて実行されることにより各種処理部を実現する。プログラム427は、通信I/F部410などのデータ入出力機能を介して外部装置や記録媒体から予め読み込まれ、記憶部420に保存されている。記憶部420で記憶される主な情報としては、例えば、視野角情報421、設置位置・向き情報422、画像情報423、位置情報424、行動ベクトル情報425、統合済み画像情報426などがある。なお、記憶部420には、地図情報など例示した以外の情報が含まれてよい。
視野角情報421は、移動装置200が有する撮像装置や設置装置300などの視野角を示している。例えば、視野角情報421では、移動装置200や設置装置300などを識別するための識別情報と、視野角を示す情報と、が対応付けられている。視野角情報421は、移動装置200や設置装置300などから予め取得され記憶部420に格納される。
設置位置・向き情報422は、設置装置300の設置位置や設置装置300が設置されている方向などを示している。例えば、設置位置・向き情報422では、設置装置300を識別するための識別情報と、設置装置300の設置位置や設置方向などを示す情報と、が対応付けられている。設置位置・向き情報422は、設置装置300などから予め取得され記憶部420に格納される。
画像情報423は、移動装置200が有する撮像部や設置装置300などが取得した画像データを示している。例えば、画像情報423では、移動装置200や設置装置300などを識別するための識別情報ごとに、時系列の画像データが格納されている。画像情報423は、移動装置200や設置装置300などから画像データを取得することで生成・更新される。
位置情報424は、移動装置200の位置(利用者の位置)を示している。例えば、位置情報424では、移動装置200を識別するための識別情報ごとに、時系列の位置データが格納されている。位置情報424は、移動装置200などから位置データを取得することで生成・更新される。位置情報424は、ビーコンなどによる位置測位を行うことで取得され生成・更新されてもよい。
行動ベクトル情報425は、利用者が移動する方向である移動速度や利用者が移動する速度である移動速度などを示している。例えば、行動ベクトル情報425は、移動装置200を識別するための識別情報ごとに、時系列の移動方向や移動速度などを示している。行動ベクトル情報425は、例えば、後述する行動ベクトル算出部432が位置情報424に基づいて移動速度や移動方向などを算出することで取得され生成・更新される。
統合済み画像情報426は、遮蔽領域内に存在する物体を示す情報を統合した画像データを示している。例えば、統合済み画像情報426では、移動装置200や設置装置300などを識別するための識別情報ごとに、時系列の統合済み画像データが格納されている。統合済み画像情報426は、後述する統合部436が統合処理を行うことで取得され生成・更新される。
演算処理部430は、CPUなどの演算装置とその周辺回路を有する。演算処理部430は、記憶部420からプログラム427を読み込んで実行することにより、上記ハードウェアとプログラム427とを協働させて各種処理部を実現する。演算処理部430で実現される主な処理部としては、例えば、受信部431、行動ベクトル算出部432、遮蔽領域推定部433、拡張領域確認部434、不可視物体検出部435、統合部436、出力部437などがある。
受信部431は、移動装置200や設置装置300から各種データを受信する。すると、受信部431は、受信したデータを記憶部420に格納する。
例えば、受信部431は、移動装置200や設置装置300から画像データを受信する。すると、受信部431は、受信した画像データを画像情報423として記憶部420に格納する。受信部431は、画像データと時刻情報とを対応付けて記憶部420に格納してもよい。時刻情報は、画像データに対応付けられている時刻であってよいし、受信部431が画像データを受信した時刻などであってもよい。
また、受信部431は、移動装置200から位置データを受信する。すると、受信部431は、受信した位置データを位置情報424として記憶部420に格納する。受信部431は、位置データと時刻情報とを対応付けて記憶部420に格納してもよい。時刻情報は、位置データに対応付けられている時刻であってもよいし、受信部431が位置データを受信した時刻などであってもよい。なお、受信部431は、移動装置200からの送信に基づいて中継装置などが位置測位を行うことで取得した位置データを中継装置から受信するよう構成してもよい。この場合も、受信部431は、受信した位置データを位置情報424として記憶部420に格納する。
行動ベクトル算出部432は、位置情報424に基づいて、利用者の移動方向や移動速度を示す情報を算出する。そして、行動ベクトル算出部432は、算出した移動方向や移動速度を示す情報を行動ベクトル情報425として記憶部420に格納する。
上述したように、位置情報424には、利用者ごとに時系列の位置データが格納されている。そこで、行動ベクトル算出部432は、位置情報424に含まれる時系列の位置データのうち複数の位置データを取得して、取得した位置データを用いて利用者の移動方向と移動速度を算出する。なお、行動ベクトル算出部432は、一般的な方法を用いて移動方向と移動速度を算出してよい。行動ベクトル算出部432が移動方向や移動速度を算出する際に用いる位置データの数も任意でよい。
なお、行動ベクトル算出部432は、任意のタイミングで移動方向や移動速度を算出してよい。例えば、行動ベクトル算出部432は、予め定められた間隔で定期的に利用者の移動方向や移動速度を示す情報を算出することが出来る。
遮蔽領域推定部433は、画像情報423に含まれる画像データに基づいて、画像データ中に存在する遮蔽領域を推定する。遮蔽領域推定部433が画像データ中に遮蔽領域が存在する旨を推定した場合、拡張領域確認部434による確認が行われる。一方、画像データ中に遮蔽領域が存在する旨が推定されなかった場合、例えば後述する出力部437により、遮蔽領域の存在しない画像データの表示を行うよう移動装置200などに対して指示することが出来る。例えば、遮蔽領域推定部433は、移動装置200から受信した画像データについて、遮蔽領域の推定を行う。遮蔽領域推定部433は、設置装置300から受信した画像データについても、所定の条件を満たす場合などにおいて遮蔽領域の推定を行うよう構成してもよい。
例えば、遮蔽領域推定部433は、画像データに基づいて奥行きの推定を行う。例えば、遮蔽領域推定部433は、深度推定用のニューラルネットワークを用いるなど既知の技術を用いて奥行きの推定を行うことが出来る。そして、遮蔽領域推定部433は、推定した結果に基づいて遮蔽領域を推定する。例えば、遮蔽領域推定部433は、奥行きの変化が所定値(任意でよい)以下となる領域など推定した奥行きが予め定められた条件を満たす領域を遮蔽領域と推定する。例えば、図4で示す場合、遮蔽領域推定部433は、画像データ中の右側所定範囲について、奥行きの変化が所定値以下となるため遮蔽領域と推定する。
なお、遮蔽領域推定部433は、上記例示した以外の方法を用いて遮蔽領域の推定を行ってもよい。例えば、遮蔽領域推定部433は、予め学習したモデルを用いたりパターンマッチングなどを行ったりすることで所定基準以上の大きさを有する物体を検出して、検出した物体が存在する箇所を遮蔽領域と推定してもよい。また、遮蔽領域推定部433は、予め取得した地図情報に基づいて遮蔽領域を推定してもよい。例えば、遮蔽領域推定部433は、位置情報424に基づいて利用者の位置を把握することが出来るとともに、行動ベクトル情報425に基づいて移動方向に利用者が向いていると推定することが出来る。また、利用者が向いている方向に応じた画像データが取得されていると推定できる。そこで、遮蔽領域推定部433は、地図情報と、利用者の位置や向いている方向と、視野角情報421が示す視野角と、に基づいて、画像データに反映されているであろう地図の領域を推定することで、画像データ中の壁などの遮蔽物が存在する領域を特定して遮蔽領域を推定することが出来る。遮蔽領域推定部433は、画像データとともに移動装置200や設置装置300などから取得した深度情報を用いて遮蔽領域を推定するなど、上記例示した以外の方法を用いて遮蔽領域の推定を行ってもよい。
なお、遮蔽領域推定部433は、任意のタイミングで遮蔽領域の推定を行ってよい。例えば、遮蔽領域推定部433は、画像情報423として画像データが格納されるごとに格納した画像データ中に遮蔽領域が存在するか否か確認することが出来る。遮蔽領域推定部433は、予め定められた間隔で定期的に遮蔽領域の推定を行ってもよい。遮蔽領域推定部433は、例えば、地図情報と位置情報424とに基づいて壁などの遮蔽物付近など利用者が所定の条件を満たす箇所に存在すると推定される場合に遮蔽領域の推定を行うよう構成してもよい。遮蔽領域推定部433は、位置情報424を用いて他の利用者が有する画像データに基づいて推定された遮蔽領域付近に利用者が存在すると推定される場合に遮蔽領域の推定を行うなど、他の利用者に対する遮蔽領域の推定結果を用いて遮蔽領域の推定を行うか否か判断してもよい。
拡張領域確認部434(特定部)は、遮蔽領域推定部433が画像データ中に遮蔽領域が存在すると推定した場合に、当該遮蔽領域が存在する画像データを取得した撮像装置とは別の撮像装置が取得した画像データである第2画像データに基づいて遮蔽領域内を補完可能であるか否か確認する。拡張領域確認部434が補完可能であると判断する場合、不可視物体検出部435による検出が行われる。一方、補完可能ではないと判断される場合、例えば後述する出力部437により、画像データの表示を行うよう対応する移動装置200などに対して指示することが出来る。
例えば、拡張領域確認部434は、図5で示すように、推定した遮蔽領域内を撮像している他の移動装置200や設置装置300が存在しているか否か確認することで、補完が可能であるか否か確認する。
具体的には、例えば、拡張領域確認部434は、視野角情報421、設置位置・向き情報422、位置情報424、行動ベクトル情報425などや、遮蔽領域推定部433による推定の結果などを参照する。これにより、拡張領域確認部434は、遮蔽領域の存在を推定した画像データを取得した移動装置200などが撮像している領域である撮像領域の位置や遮蔽領域となる位置などを特定する。つまり、拡張領域確認部434は、画像データを取得した移動装置200などの位置、向いている方向、視野角などを特定することで、遮蔽領域の位置などを特定する。
また、拡張領域確認部434は、視野角情報421と設置位置・向き情報422を参照することで、処理システム100に含まれる他の設置装置300の撮像領域となる位置を確認する。つまり、拡張領域確認部434は、処理システム100内に存在する設置装置300の設置位置、向いている方向、視野角を特定することで、各設置装置300の撮像領域となる位置を確認する。そして、拡張領域確認部434は、上記確認の結果に基づいて、遮蔽領域内を撮像している設置装置300を特定する。例えば、拡張領域確認部434は、特定した遮蔽領域の位置と、設置装置300の撮像領域となる位置と、が少なくとも一部重なっている場合に、設置装置300が遮蔽領域を撮像していると判断して、遮蔽領域内を撮像している設置装置300として当該設置装置300を特定する。遮蔽領域内を撮像している設置装置300を特定できた場合、拡張領域確認部434は、遮蔽領域が存在する画像データを取得した撮像装置とは別の撮像装置が取得した第2画像データに基づいて遮蔽領域内を補完可能であると判断する。例えば、図5の場合、設置装置300αの撮像領域と、人物Aが有する移動装置200を用いて取得した画像データ内に存在する遮蔽領域と、が重なっている。そのため、拡張領域確認部434は、遮蔽領域内を撮像している設置装置300として設置装置300αを特定して、設置装置300αが第2画像データに基づいて遮蔽領域内を補完可能であると判断する。
また、例えば、拡張領域確認部434は、視野角情報421と位置情報424と行動ベクトル情報425に基づいて判断される利用者の向きとを参照することで、処理システム100に含まれる移動装置200の撮像領域を確認する。つまり、拡張領域確認部434は、移動装置200の位置、向いている方向、視野角を特定することで、各移動装置200の撮像領域となる位置を確認する。そして、拡張領域確認部434は、上記確認の結果に基づいて、遮蔽領域内を撮像している移動装置200を特定する。特定の方法は、設置装置300の場合と同様でよい。遮蔽領域内を撮像している移動装置200を特定できた場合、拡張領域確認部434は、特定した移動装置200が有する撮像装置が取得した第2画像データに基づいて遮蔽領域内を補完可能であると判断する。
例えば、以上のように、拡張領域確認部434は、移動装置200や設置装置300の位置や向きを示す情報に基づいて遮蔽領域内を撮像している移動装置200や設置装置300が存在するか否か確認することで、遮蔽領域内を補完可能であるか否か確認する。そして、例えば、拡張領域確認部434が1つでも遮蔽領域内を撮像している移動装置200や設置装置300を特定できた場合、不可視物体検出部435による処理に進む。
不可視物体検出部435は、拡張領域確認部434が補完可能であると判断した場合に、遮蔽領域内を撮像している移動装置200や設置装置300から取得した第2画像データに基づいて、遮蔽領域に対応する領域に存在する物体を検出する。つまり、不可視物体検出部435は、遮蔽領域が存在する画像データにおいて遮蔽領域の陰に隠れている物体である不可視物体を、他の撮像装置が取得した第2画像データを用いて検出する。例えば、不可視物体検出部435は、画像情報423に含まれる時系列の第2画像データのうち最新となる第2画像データを用いて物体の検出を行う。不可視物体検出部435が遮蔽領域に対応する領域に存在する物体を検出した場合、統合部436による統合処理に進む。一方、物体が検出されなかった場合、例えば後述する出力部437により、画像データの表示を行うよう対応する移動装置200などに対して指示することが出来る。
例えば、不可視物体検出部435は、第2画像データに対して予め学習したモデルを用いたりパターンマッチングなどを行ったりすることで、第2画像データ内に存在する人物などの物体を検出する。また、不可視物体検出部435は、移動装置200や設置装置300の位置を示す情報を用いて、検出した物体の実際の位置を推定する。例えば、不可視物体検出部435は、深度推定用のニューラルネットワークを用いるなど既知の技術を用いて推定した奥行きの情報などを用いて、検出した物体の位置を推定する。そして、不可視物体検出部435は、推定した物体の位置に基づいて、検出した物体が遮蔽領域に相当する領域内に存在するか否か確認する。物体が遮蔽領域に相当する領域内に存在すると推定される場合、不可視物体検出部435は、遮蔽領域に対応する領域に物体が存在する旨を検出する。つまり、不可視物体検出部435は不可視物体を検出する。例えば、図6で示す場合、推定した物体の位置から物体である人物Cが遮蔽領域に対応する領域内に存在していると推定される。そこで、不可視物体検出部435は、遮蔽領域内に不可視物体である人物Cが存在している旨を検出する。なお、不可視物体検出部435は、自己カメラキャリブレーションなどにより推定したカメラパラメータと画像中における物体の位置から世界座標における物体の3次元位置を推定する、移動装置200や設置装置300などから取得した深度情報を用いるなど、上記例示した以外の方法を用いて検出した物体の位置を推定してもよい。
なお、不可視物体検出部435は、遮蔽領域に対応する領域に存在する物体を検出した場合において、時系列の第2画像データを複数用いることで、検出した物体の移動速度や移動方向を示す情報を算出してもよい。
統合部436は、不可視物体検出部435が遮蔽領域に対応する領域に物体が存在する旨を検出した場合に、検出した結果を遮蔽領域が存在する画像データに統合する。そして、統合部436は、統合した結果の画像データである統合済み画像データを統合済み画像情報426として記憶部420に格納する。
図7は、統合部436による処理例を示している。例えば、図7で示すように、統合部436は、遮蔽領域内に物体を検出した旨を示す抽象化表示を画像データに統合する。例えば、抽象化表示は、人など検出した物体の種類を示す情報が表示された楕円形などの表示である。抽象化表示は上記例示した以外の検出した物体に応じた抽象的表現であってよい。また、図8を参照すると、統合部436は、検出した物体を示す吹き出しなどを単に追加してもよい。統合部436は、検出した物体の画像データなどを、遮蔽領域が存在する画像データに透過統合してもよい。
なお、統合部436は、上記例示した以外の統合を行ってもよい。例えば、統合部436は、拡張領域確認部434により補完可能ではないと判断された場合、遮蔽領域内の物体が存在するか否か不明である旨を示す情報を画像データに統合することが出来る。一方、統合部436は、不可視物体検出部435により遮蔽領域内に物体が検出されなかった場合、遮蔽領域内に物体が存在しない旨を示す情報を画像データに統合することが出来る。また、統合部436は、不可視物体検出部435が物体の移動速度や移動方向を示す情報を算出した場合、算出した移動速度や移動方向を示す情報なども画像データに統合してもよい。このように、統合部436は、上述した各処理部の処理結果に応じた情報を統合してもよい。
出力部437は、各処理部による処理の結果に応じた出力を行う。例えば、統合部436による統合処理が行われた場合、出力部437は、統合済み画像データを遮蔽領域が存在する画像データの送信元である移動装置200などに対して送信する。一方、遮蔽領域推定部433により遮蔽領域が推定されなかった場合、拡張領域確認部434により補完可能ではないと判断された場合、不可視物体検出部435が遮蔽領域内に物体を検出しなかった場合、などにおいて、出力部437は、画像データの表示を行うよう対応する移動装置200などに対して指示する。
なお、統合部436が各処理部の処理結果に応じた情報を統合していた場合、出力部437は、各統合処理の結果に応じた統合済み画像データを出力してよい。
以上が、処理装置400の構成例である。続いて、図9を参照して、処理装置400の動作例について説明する。
図9は、処理装置400の動作例を示している。図9を参照すると、遮蔽領域推定部433は、画像情報423に含まれる画像データに基づいて、画像データ中に存在する遮蔽領域を推定する(ステップS101)。遮蔽領域推定部433は、任意の方法を用いて遮蔽領域の推定を行ってよい。
画像データ中に遮蔽領域が存在すると推定した場合(ステップS101、Yes)、拡張領域確認部434は、当該遮蔽領域が存在する画像データを取得した撮像装置とは別の撮像装置が取得した画像データである第2画像データに基づいて遮蔽領域内を補完可能であるか否か確認する(ステップS102)。例えば、拡張領域確認部434は、遮蔽領域内を撮像している他の移動装置200や設置装置300が存在しているか否か確認することで、補完が可能であるか否か確認する。
補完が可能であると推定される場合(ステップS102、Yes)、不可視物体検出部435は、第2画像データに基づいて、遮蔽領域に対応する領域に存在する物体を検出する。例えば、不可視物体検出部435は、第2画像データ中に存在する物体を検出するとともに、検出した物体の位置を推定する(ステップS103)ことで、遮蔽領域に対応する領域に存在する物体を検出する。
遮蔽領域に対応する領域に存在する物体が検出された場合、つまり、不可視物体が存在する場合(ステップS104、Yes)、統合部436は、検出した結果を遮蔽領域が存在する画像データに統合する(ステップS105)。これに応じて、出力部437は、統合した結果である統合済み画像データを対応する移動装置200などに対して送信する。
一方、画像データ中に遮蔽領域が存在すると推定されなかった場合(ステップS101、No)、補完が可能であると推定されなかった場合(ステップS102、No)、不可視物体が存在しなかった場合(ステップS104、No)、出力部437は、画像データの表示を行うよう移動装置200などに対して送信する。
このように、処理装置400は、遮蔽領域推定部433と拡張領域確認部434と不可視物体検出部435とを有している。このような構成により、不可視物体検出部435は、遮蔽領域推定部433により遮蔽領域の存在が推定される場合に、拡張領域確認部434が特定した移動装置200や設置装置300から取得した画像データである第2画像データを用いて、遮蔽領域の存在が推定される画像データにおいて遮蔽領域の陰に隠れている物体である不可視物体を検出することが出来る。その結果、不可視物体の存在を示す情報を遮蔽領域が存在する画像データに統合することが可能となる。これにより、遮蔽物などが存在する場合においても視認できない領域を例えば疑似的に視認可能とすることが可能となる。
なお、処理装置400は、移動装置200や設置装置300から画像データを取得したタイミングで画像データ中の物体検出などを行うよう構成してもよい。この場合、不可視物体検出部435は、事前に検出した結果を用いて不可視物体の検出を行ってもよい。
[第2実施形態]
次に、図10、図11を参照して、本開示の第2の実施形態について説明する。本開示の第2の実施形態では、情報処理装置である処理装置500の構成の概要について説明する。
次に、図10、図11を参照して、本開示の第2の実施形態について説明する。本開示の第2の実施形態では、情報処理装置である処理装置500の構成の概要について説明する。
図10は、処理装置500のハードウェア構成例を示している。図10を参照すると、処理装置500は、一例として、以下のようなハードウェア構成を有している。
・CPU(Central Processing Unit)501(演算装置)
・ROM(Read Only Memory)502(記憶装置)
・RAM(Random Access Memory)503(記憶装置)
・RAM503にロードされるプログラム群504
・プログラム群504を格納する記憶装置505
・情報処理装置外部の記録媒体510の読み書きを行うドライブ装置506
・情報処理装置外部の通信ネットワーク511と接続する通信インタフェース507
・データの入出力を行う入出力インタフェース508
・各構成要素を接続するバス509
・CPU(Central Processing Unit)501(演算装置)
・ROM(Read Only Memory)502(記憶装置)
・RAM(Random Access Memory)503(記憶装置)
・RAM503にロードされるプログラム群504
・プログラム群504を格納する記憶装置505
・情報処理装置外部の記録媒体510の読み書きを行うドライブ装置506
・情報処理装置外部の通信ネットワーク511と接続する通信インタフェース507
・データの入出力を行う入出力インタフェース508
・各構成要素を接続するバス509
また、処理装置500は、プログラム群504をCPU501が取得して当該CPU501が実行することで、図11に示す推定部521と検出部522としての機能を実現することが出来る。なお、プログラム群504は、例えば、予め記憶装置505やROM502に格納されており、必要に応じてCPU501がRAM503などにロードして実行する。また、プログラム群504は、通信ネットワーク511を介してCPU501に供給されてもよいし、予め記録媒体510に格納されており、ドライブ装置506が該プログラムを読み出してCPU501に供給してもよい。
なお、図10は、処理装置500のハードウェア構成例を示している。処理装置500のハードウェア構成は上述した場合に限定されない。例えば、処理装置500は、ドライブ装置506を有さないなど、上述した構成の一部から構成されてもよい。
推定部521は、画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定する。
検出部522は、推定部521が遮蔽領域の存在を推定した場合に、画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、画像データにおける遮蔽領域内に存在する物体を検出する。
このように、処理装置500は、推定部521と検出部522とを有している。このような構成によると、検出部522は、推定部521が遮蔽領域の存在を推定した場合に、画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、画像データにおける遮蔽領域内に存在する物体を検出することが出来る。その結果、遮蔽物などが存在する場合においても視認できない領域を例えば疑似的に視認可能とすることが可能となる。
なお、上述した処理装置500などの情報処理装置は、当該情報処理装置に所定のプログラムが組み込まれることで実現できる。具体的に、本発明の他の形態であるプログラムは、情報処理装置に、画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定し、遮蔽領域の存在を推定した場合に、画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、画像データにおける遮蔽領域内に存在する物体を検出する、処理を実現するためのプログラムである。
また、上述した情報処理装置により実行される処理方法は、情報処理装置が、画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定し、遮蔽領域の存在を推定した場合に、画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、画像データにおける遮蔽領域内に存在する物体を検出する、というものである。
上述した構成を有する、プログラム(又は記録媒体)、又は、処理方法、または、上述した構成を有する処理装置と表示装置を含む処理システム、などの発明であっても、上述した場合と同様の作用・効果を有するために、上述した本発明の目的を達成することが出来る。
<付記>
上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における処理装置などの概略を説明する。但し、本発明は、以下の構成に限定されない。
上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における処理装置などの概略を説明する。但し、本発明は、以下の構成に限定されない。
(付記1)
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定する推定部と、
前記推定部が前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する検出部と、
を有する
処理装置。
(付記2)
前記検出部は、前記第2画像データを用いて物体を検出するとともに検出した物体の位置を推定することで、前記画像データにおける前記遮蔽領域内に存在する物体を検出する
付記1に記載の処理装置。
(付記3)
撮像装置の位置を示す情報と撮像方向を示す情報に基づいて、前記第2画像データを取得する撮像装置を特定する特定部を有し、
前記検出部は、前記特定部が特定した撮像装置を用いて取得した前記第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する
付記1または付記2に記載の処理装置。
(付記4)
前記特定部は、前記画像データを取得した撮像装置の位置に応じて特定される前記遮蔽領域の位置に重なる撮像領域を有する撮像装置を、前記第2画像データを取得する撮像装置として特定する
付記3に記載の処理装置。
(付記5)
前記検出部による検出の結果を前記画像データに統合する統合部を有する
付記1から付記4までのうちのいずれか1項に記載の処理装置。
(付記6)
前記統合部は、前記遮蔽領域内に物体を検出した旨を示す抽象化表示を画像データに統合する
付記5に記載の処理装置。
(付記7)
前記統合部が統合した結果を、前記画像データを取得した撮像装置に対して出力する出力部を有する
付記5または付記6に記載の処理装置。
(付記8)
情報処理装置が、
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定し、
前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する
処理方法。
(付記9)
情報処理装置に、
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定し、
前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する
処理を実現するためのプログラム。
(付記10)
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定する推定部と、前記推定部が前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する検出部と、を有する処理装置と、
前記検出部による検出結果を前記画像データに統合して表示する表示装置と、
を有する
処理システム。
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定する推定部と、
前記推定部が前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する検出部と、
を有する
処理装置。
(付記2)
前記検出部は、前記第2画像データを用いて物体を検出するとともに検出した物体の位置を推定することで、前記画像データにおける前記遮蔽領域内に存在する物体を検出する
付記1に記載の処理装置。
(付記3)
撮像装置の位置を示す情報と撮像方向を示す情報に基づいて、前記第2画像データを取得する撮像装置を特定する特定部を有し、
前記検出部は、前記特定部が特定した撮像装置を用いて取得した前記第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する
付記1または付記2に記載の処理装置。
(付記4)
前記特定部は、前記画像データを取得した撮像装置の位置に応じて特定される前記遮蔽領域の位置に重なる撮像領域を有する撮像装置を、前記第2画像データを取得する撮像装置として特定する
付記3に記載の処理装置。
(付記5)
前記検出部による検出の結果を前記画像データに統合する統合部を有する
付記1から付記4までのうちのいずれか1項に記載の処理装置。
(付記6)
前記統合部は、前記遮蔽領域内に物体を検出した旨を示す抽象化表示を画像データに統合する
付記5に記載の処理装置。
(付記7)
前記統合部が統合した結果を、前記画像データを取得した撮像装置に対して出力する出力部を有する
付記5または付記6に記載の処理装置。
(付記8)
情報処理装置が、
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定し、
前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する
処理方法。
(付記9)
情報処理装置に、
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定し、
前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する
処理を実現するためのプログラム。
(付記10)
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定する推定部と、前記推定部が前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する検出部と、を有する処理装置と、
前記検出部による検出結果を前記画像データに統合して表示する表示装置と、
を有する
処理システム。
なお、上記各実施形態及び付記において記載したプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されていたりする。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。
以上、上記各実施形態を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることが出来る。
100 処理システム
200 移動装置
300 設置装置
400 処理装置
410 通信I/F部
420 記憶部
421 視野角情報
422 設置位置・向き情報
423 画像情報
424 位置情報
425 行動ベクトル情報
426 統合済み画像情報
427 プログラム
430 演算処理部
431 受信部
432 行動ベクトル算出部
433 遮蔽領域推定部
434 拡張領域確認部
435 不可視物体検出部
436 統合部
437 出力部
500 処理装置
501 CPU
502 ROM
503 RAM
504 プログラム群
505 記憶装置
506 ドライブ装置
507 通信インタフェース
508 入出力インタフェース
509 バス
510 記録媒体
511 通信ネットワーク
521 推定部
522 検出部
200 移動装置
300 設置装置
400 処理装置
410 通信I/F部
420 記憶部
421 視野角情報
422 設置位置・向き情報
423 画像情報
424 位置情報
425 行動ベクトル情報
426 統合済み画像情報
427 プログラム
430 演算処理部
431 受信部
432 行動ベクトル算出部
433 遮蔽領域推定部
434 拡張領域確認部
435 不可視物体検出部
436 統合部
437 出力部
500 処理装置
501 CPU
502 ROM
503 RAM
504 プログラム群
505 記憶装置
506 ドライブ装置
507 通信インタフェース
508 入出力インタフェース
509 バス
510 記録媒体
511 通信ネットワーク
521 推定部
522 検出部
Claims (10)
- 画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定する推定部と、
前記推定部が前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する検出部と、
を有する
処理装置。 - 前記検出部は、前記第2画像データを用いて物体を検出するとともに検出した物体の位置を推定することで、前記画像データにおける前記遮蔽領域内に存在する物体を検出する
請求項1に記載の処理装置。 - 撮像装置の位置を示す情報と撮像方向を示す情報に基づいて、前記第2画像データを取得する撮像装置を特定する特定部を有し、
前記検出部は、前記特定部が特定した撮像装置を用いて取得した前記第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する
請求項1または請求項2に記載の処理装置。 - 前記特定部は、前記画像データを取得した撮像装置の位置に応じて特定される前記遮蔽領域の位置に重なる撮像領域を有する撮像装置を、前記第2画像データを取得する撮像装置として特定する
請求項3に記載の処理装置。 - 前記検出部による検出の結果を前記画像データに統合する統合部を有する
請求項1から請求項4までのうちのいずれか1項に記載の処理装置。 - 前記統合部は、前記遮蔽領域内に物体を検出した旨を示す抽象化表示を画像データに統合する
請求項5に記載の処理装置。 - 前記統合部が統合した結果を、前記画像データを取得した撮像装置に対して出力する出力部を有する
請求項5または請求項6に記載の処理装置。 - 情報処理装置が、
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定し、
前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する
処理方法。 - 情報処理装置に、
画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定し、
前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する
処理を実現するためのプログラム。 - 画像データに基づいて、当該画像データでは確認できない物体が隠れている可能性のある領域である遮蔽領域を推定する推定部と、前記推定部が前記遮蔽領域の存在を推定した場合に、前記画像データを取得した撮像装置とは異なる位置に存在する撮像装置を用いて取得した第2画像データを用いて、前記画像データにおける前記遮蔽領域内に存在する物体を検出する検出部と、を有する処理装置と、
前記検出部による検出結果を前記画像データに統合して表示する表示装置と、
を有する
処理システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021038631A JP2022138639A (ja) | 2021-03-10 | 2021-03-10 | 処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021038631A JP2022138639A (ja) | 2021-03-10 | 2021-03-10 | 処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022138639A true JP2022138639A (ja) | 2022-09-26 |
Family
ID=83399314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021038631A Pending JP2022138639A (ja) | 2021-03-10 | 2021-03-10 | 処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022138639A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102023109669A1 (de) | 2022-08-31 | 2024-02-29 | Mitsubishi Electric Corporation | Halbleiterprüfvorrichtung und Halbleiterherstellungsvorrichtung |
-
2021
- 2021-03-10 JP JP2021038631A patent/JP2022138639A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102023109669A1 (de) | 2022-08-31 | 2024-02-29 | Mitsubishi Electric Corporation | Halbleiterprüfvorrichtung und Halbleiterherstellungsvorrichtung |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108352056B (zh) | 用于校正错误深度信息的系统和方法 | |
TWI659398B (zh) | 利用方向感應之侵入偵測技術 | |
JP6203406B2 (ja) | 拡張現実環境内の平面の広がりを判定するためのシステムおよび方法 | |
EP2915140B1 (en) | Fast initialization for monocular visual slam | |
US8803992B2 (en) | Augmented reality navigation for repeat photography and difference extraction | |
US11367257B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US20150193971A1 (en) | Methods and Systems for Generating a Map including Sparse and Dense Mapping Information | |
JP6364952B2 (ja) | 情報処理装置、情報処理システムおよび情報処理方法 | |
EP3435346B1 (en) | Spectacle-type wearable terminal, and control method and control program for same | |
US9832447B2 (en) | Image processing system and image processing program | |
KR20160122709A (ko) | 디바이스의 모션의 추정을 결정하기 위한 방법들 및 시스템들 | |
CN110478901A (zh) | 基于增强现实设备的交互方法及系统 | |
CN108198044A (zh) | 商品信息的展示方法、装置、介质及电子设备 | |
KR20170053007A (ko) | 자세 추정 방법 및 자세 추정 장치 | |
JP2007249722A (ja) | 物体検知装置 | |
EP3594907B1 (en) | Method and apparatus for augmenting reality | |
US20150186559A1 (en) | X-ray vision for buildings | |
JP6920776B2 (ja) | 監視支援システム及び監視支援方法 | |
JP2007243509A (ja) | 画像処理装置 | |
CN113910224B (zh) | 机器人跟随的方法、装置及电子设备 | |
JP2015184839A (ja) | 画像生成装置、画像表示システム及び画像生成方法 | |
KR20180020043A (ko) | 다시점 영상 제어 방법 및 이를 지원하는 전자 장치 | |
JP2022138639A (ja) | 処理装置 | |
CN113587928B (zh) | 导航方法、装置、电子设备、存储介质及计算机程序产品 | |
CN116863107A (zh) | 增强现实提供方法、装置以及非暂时性计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240207 |