JP7378232B2 - 画像処理装置およびその制御方法 - Google Patents

画像処理装置およびその制御方法 Download PDF

Info

Publication number
JP7378232B2
JP7378232B2 JP2019116628A JP2019116628A JP7378232B2 JP 7378232 B2 JP7378232 B2 JP 7378232B2 JP 2019116628 A JP2019116628 A JP 2019116628A JP 2019116628 A JP2019116628 A JP 2019116628A JP 7378232 B2 JP7378232 B2 JP 7378232B2
Authority
JP
Japan
Prior art keywords
self
area
image
region
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019116628A
Other languages
English (en)
Other versions
JP2021002290A (ja
Inventor
拓哉 琴寄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019116628A priority Critical patent/JP7378232B2/ja
Priority to US16/906,355 priority patent/US11508150B2/en
Publication of JP2021002290A publication Critical patent/JP2021002290A/ja
Application granted granted Critical
Publication of JP7378232B2 publication Critical patent/JP7378232B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Description

本発明は、複合現実システムにおける画像処理技術に関するものである。
現実世界と仮想世界とをリアルタイムに融合させる技術として、複合現実感(MR:Mixed Reality)技術や拡張現実感(AR:Augmented Reality)技術が知られている。MR(やAR)による映像をユーザに提示する装置として、ビデオシースルー型の画像処理装置(ビデオシースルー端末)がある。これは、ビデオカメラで現実世界を撮影し、撮影画像に仮想物体を重畳した合成画像をリアルタイムにディスプレイ等に表示させ、ユーザに提示する装置である。例えば、ビデオシースルー端末には、背面にビデオカメラを有するタブレット端末や、ビデオシースルー型HMD(Head Mounted Display)などが含まれる。
また、MRの表示においては、表示装置における表示領域の制限やCGの描画領域など、現実世界の映像を遮る領域が存在し、使用者の現実世界における視界を狭くしている。そのため、複合現実感を体験する使用者が、他の使用者や周辺の物体へ衝突する危険が高まることになる。そのため、このような危険な状況を的確に把握可能とすることが求められている。
特許文献1は、HMD使用者同士の距離を求め、距離が所定の値以下になった際に使用者同士の接近を報知する技術を開示している。特許文献2は、HMDの位置が予め定められた領域外に出た際に警告を発し、現実映像に切り替える技術を開示している。特許文献3は、リアルタイムに外部環境を測定し警告を発する技術を開示している。
特許第4642538号公報 米国特許第5,900,849号 特開2014-170330号公報
しかしながら、特許文献1や2の技術では、危険物となる物体を事前に登録する必要があるという課題がある。また、移動する物体に対して対応することが出来ないという課題がある。また、特許文献3の技術では、移動する物体に対応することが可能であるが、自分自身の手や足なども障害物として誤認識してしまい、複合現実感の体験を妨げてしまうという課題がある。
本発明は上述の問題点に鑑みなされたものであり、複合現実感を体験中の使用者に現実世界の物体との接触の可能性をより好適に知覚可能とさせる技術を提供することを目的としている。
上述の問題点を解決するため、本発明に係る画像処理装置は以下の構成を備える。すなわち、画像処理装置は、
現実空間を撮像する撮像部により得られた映像に基づいて、前記現実空間における前記撮像部の自己位置を推定する位置推定手段と、
前記映像に基づいて、前記現実空間に存在する現実物体を認識する認識手段と、
前記映像に含まれる所定の画像特徴に基づいて前記現実空間における所定の領域を決定する領域決定手段と、
前記認識手段により認識された現実物体が前記所定の領域に含まれるか否かに従って、警告を行うか否かを判定する判定手段と、
を有し、
前記判定手段は、前記認識手段により認識された現実物体が前記所定の領域に含まれない場合、警告を行うと判定する。
本発明によれば、複合現実感を体験中の使用者に現実世界の物体との接触の可能性をより好適に知覚可能とさせる技術を提供することができる。
第1実施形態に係る情報処理システムの構成を示すブロック図である。 第1実施形態における処理を示すフローチャートである。 第2実施形態に係る情報処理システムの構成を示すブロック図である。 第2実施形態における処理を示すフローチャートである。 第3実施形態に係る情報処理システムの構成を示すブロック図である。 第3実施形態における処理を示すフローチャートである。 変形例4に係る情報処理システムの構成を示すブロック図である。 変形例4における処理を示すフローチャートである。 自己領域の推定を説明する図である。 自己領域の推定を説明する他の図である。 情報処理装置のハードウェア構成を示すブロック図である。 自己位置、自己領域、周辺環境の関係を説明する図である。 自己位置、自己領域、周辺環境の関係を説明する他の図である。 変形例1における発明の効果を例示的に説明する図である。 第4実施形態に係る情報処理システムの構成を示すブロック図である。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでするものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
(第1実施形態)
本発明に係る画像処理装置の第1実施形態として、ビデオシースルー型HMDとして構成される情報処理システムを例に挙げて以下に説明する。特に、周辺に存在する障害物との接触(衝突)に関する警告をユーザに通知する形態について説明する。
<システム構成>
図1は、第1実施形態に係る情報処理システムの構成を示すブロック図である。上述のように、情報処理システムはビデオシースルー型HMDとして構成され、撮像部100、提示部200、指標登録部300、情報処理装置1000を含む。撮像部100は、現実空間を撮像して映像を出力するビデオカメラである。提示部200は、画像の表示(例えば、警告表示)を行う表示部や音声の再生(例えば、警告音再生)を行う音声再生部である。ここでは、撮像部100及び提示部200はHMDに搭載され、指標登録部300は取り外し可能な外部端末であることを想定する。なお、情報処理装置1000に含まれる各処理部を、HMDの外部のPC(不図示)により処理するよう構成してもよい。その場合、HMDと当該PC(不図示)とは、有線又は無線により相互に通信可能に構成される。
図12は、自己位置、自己領域、障害物領域の関係を説明する図である。MR体験環境3400においては、自己位置3410、自己領域3420、障害物領域3440を規定することが出来る。なお、破線の円3450は、自己位置3410から一定の距離の範囲を示している。
「自己位置」とは、空間における撮像部100の位置(HMDを装着したユーザの視点位置)を示す。例えば、MR体験環境3400における所与の一点を原点として、互いに直交する3軸をそれぞれX軸、Y軸、Z軸として定義した座標系における位置を表す3個のパラメータにより表現される。更に姿勢(向き)を表す3個のパラメータを加えて表現してもよい。
「自己領域」とは、HMDを装着したユーザが存在する範囲(ユーザ自身の手や腕など体の存在する範囲)を示す用語である。なお、手持ち物体3420などユーザ自身の動きと同調して動く物体もユーザ自身の手や腕に加えて自己領域と考えてよい。例えば、MR体験環境3400における所与の一点を原点として、互いに直交する3軸をそれぞれX軸、Y軸、Z軸として定義した座標系における位置を表す3個のパラメータの複数の組により表現される。
「障害物領域」とは、HMDを装着したユーザの周辺環境に存在する障害物となる物体の存在する領域を示す用語である。例えば、MR体験環境3400における所与の一点を原点として、互いに直交する3軸をそれぞれX軸、Y軸、Z軸として定義した座標系における位置を表す3個のパラメータの複数の組により表現される。
以下の説明では、自己位置、自己領域、障害物領域は、同一の座標系における座標パラメータにより表現されるとして説明する。ただし、自己位置、自己領域、障害物領域それぞれを異なる座標系で表現し、座標変換により関連付けるよう構成してもよい。
情報処理装置1000は、自己位置推定部1010、指標判定部1020、自己領域推定部1030、周辺環境認識部1040、警告表示判定部1050を含む。ユーザあるいはオペレータは指標登録部300を介して、事前に自己領域の基準位置を示す指標画像(特定の模様やマーカなど)を情報処理装置1000に登録する。情報処理装置1000は、撮像部100により取得された映像から登録された指標画像を検出し自己領域の推定を行う。
自己位置推定部1010は、撮像部100から映像を取得し、自己位置を推定し、推定結果を警告表示判定部1040に通知する。なお、自己位置の取得はSLAM(Simultaneous Localization And Mapping)による推定を用いることが出来る。また、映像中の特徴点の追跡による推定や、光学式や磁気式のセンサや画像中の既知の指標画像の検出による推定などが利用可能である。
指標判定部1020は、撮像部100から映像を取得し、取得した映像中に映る画像特徴である所与の指標画像を検出し、自己領域推定部1030に通知する。具体的には、指標登録部300からユーザの自己領域として判定したい領域に設置した指標画像中の2次元座標を取得する。ここで指標画像と画像中の領域を一意に特定でき、三次元空間中の座標を求めることが可能なものであれば公知のいずれの指標画像を用いてもよい。例えば、特開2017-129567号公報に示されるような、パターン画像を有する四角形指標が利用可能である。また、文献「LSD-SLAM: Large-Scale Direct Monocular SLAM, J. Engel, T. Schops, D. Cremers, European Conference on Computer Vision (ECCV), 2014」に示す手法を用いることも出来る。
自己領域推定部1030は、指標判定部1020から取得した指標画像の2次元座標に基づいて所定の領域を自己領域として領域決定し警告表示判定部1050に通知する。ここで自己領域として判定する領域は指標画像の存在する領域、指標画像の領域から一定の距離内にある領域、指標画像の領域から一定のオフセットを経て規定される定型領域など、様々な決定方法を用いることが出来る。一般には、指標画像の領域を包含する領域が自己領域として決定される。
周辺環境認識部1040は、撮像部100から映像を取得し、周辺環境の物体を計測し、警告表示判定部1050に入力する。ここで、周辺環境の物体の計測は複数の視点からの映像による視差から奥行を推定したものや、深度センサによる奥行推定など公知のいずれの手法を用いて計測した値でもよい。
警告表示判定部1050は、提示部200において警告表示を行うか否かを判定し。行う場合には提示部200に警告表示命令を通知する。まず、自己位置推定部1010から取得した自己位置から一定の距離以内に周辺環境認識部1040により計測された物体が存在するかどうかを判定する。次に、自己領域推定部1030から自己領域を取得し、自己位置から一定の距離以内に存在する物体と自己領域が一致する(物体が自己領域に含まれる)か否かを判定する。そして、自己位置から一定の距離以内に存在する物体が自己領域と一致しない場合に提示部200へ警告表示命令を通知する。なお、提示部200は、画像による警告に限定されず、音声による警告など、ユーザが認識できる方法であれば様々な警告手法が利用可能である。
図11は、情報処理装置のハードウェア構成を示すブロック図である。情報処理装置は、CPU4001、RAM4002、ROM4003,ユーザインタフェース(UI)4004、外部記憶装置4005、インタフェース(I/F)4006を含む。各部はバス4010を介して相互に接続されている。
CPU4001は、読み出し専用メモリ(ROM)4003又は外部記憶装置4005に記憶されたプログラムを読み出して実行することにより、バス4010を介して接続する各部を統括的に制御する。オペレーティングシステム(OS)をはじめ、後述する処理を実現するための各種プログラムやデータ等は、ROM4003又は外部記憶装置4005に記憶されている。CPU4001は、プログラムを実行する際に、ランダムアクセスメモリ(RAM)4002をワークメモリとして利用する。ユーザインタフェース(UI)4004は、ユーザからの指示入力を受け付ける。例えば、現実物体としてのUI(キーボード、マウス、ペン、タッチパネルなど)の他、仮想のUIを実現するための各種センサに対応する。また、I/F4006は、外部の装置(撮像部100や提示部200など)と接続するためのインタフェースである。なお、ここでは、以下に説明する処理を、ソフトウェアにより実現する(CPU4001がプログラムを実行する)ことを想定するが、処理の一部または全部をハードウェアにより実現してもよい。ハードウェアとしては、特定用途向け集積回路(ASIC)などが用いられる。
<装置の動作>
図2は、第1実施形態における処理を示すフローチャートである。情報処理装置1000の処理手順について説明する。
ステップS2010では、指標判定部1020は、自己領域として判定する領域に付される指標の登録を指標登録部300を介してユーザから受け付ける。登録した指標は、自己領域である物体(図12の領域3420にある物体など)に付されることになる。
ステップS2020では、自己位置推定部1010は、撮像部100から映像を取得し、映像中の特徴点を抽出し、3次元空間中での自己位置を推定する。ここで、自己位置の取得はSLAMによる推定を用いることが出来る。
ステップS2030では、自己領域推定部1030は、指標判定部1020から指標の検出結果として指標画像の3次元空間中での位置(または領域)を取得する。例えば、自己領域推定部1030は、取得した指標画像の位置(または領域)から一定の距離内の領域を自己領域とする。
ステップS2040では、周辺環境認識部1040は、周辺環境の奥行を取得し、周辺における物体の存在を認識する。例えば、撮像部100から複数の視点からの映像を取得し、視差をもとに周辺環境の奥行を計測し、物体の存在を推定する。
ステップS2050では、警告表示判定部1050は、自己位置推定部1010から自己位置を取得し、周辺認識部1040から計測された物体の領域を取得する。取得した自己位置と物体の領域との位置関係(一定の距離以内であるか否か)を計算する。一定の距離以内の周辺環境に物体が存在する場合はS2060に進み、そうでなければ処理を終了する。
ステップS2060では、警告表示判定部1050は、自己領域推定部1030から自己領域を取得し、S2050で判定した自己位置と自己領域の位置関係を計算する。そして、S2050で決定された物体が自己領域に含まれるか否かを判定する。物体が自己領域に含まれる場合は処理を終了し、そうでない場合はS2070に進む。
ステップS2070では、警告表示判定部1050は、提示部200に対して警告の表示を通知する。これにより、提示部200は警告を表示することになる。
例えば図12に示す状況では、周辺環境認識部1040は、撮像部100により得られた映像に基づき計測された奥行に基づき、領域3420及び領域3440に存在する物体を周辺環境に存在する物体として認識する。特に、領域3420は、自己位置3410から一定の距離内にあると認識する。一方、自己領域推定部1030は、指標判定部1020による検出結果に基づき領域3420を自己領域と認識する。そのため、警告表示判定部1050は、領域3420に存在する物体は自己領域に含まれる物体であると判定し、警告表示をしないと判定する。
図13は、自己位置、自己領域、周辺環境の関係を説明する他の図である。図13に示す状況では、周辺環境認識部1040は、撮像部100により得られた映像に基づき計測された奥行に基づき、領域3420及び領域3440に存在する物体を周辺環境に存在する物体として認識する。特に、領域3440は、自己位置3410から一定の距離内にあると認識する。一方、自己領域推定部1030は、指標判定部1020による検出結果に基づき領域3420を自己領域と認識する。そのため、警告表示判定部1050は、領域3440に存在する物体は自己領域に含まれない物体であると判定し、警告表示をすると判定する。
以上説明したとおり第1実施形態によれば、「自己領域」を推定することにより、周辺に存在する物体のうち障害物として警告すべき物体を好適に判定することが可能となる。これにより、複合現実感を体験中の使用者に現実世界の物体との接触(衝突)の可能性をより好適に知覚可能とさせることが可能となる。特に、障害物となる物体を事前に登録することなく、好適に警告を発することが可能となる。
(第2実施形態)
本発明に係る画像処理装置の第2実施形態として、ビデオシースルー型HMDとして構成される情報処理システムを例に挙げて以下に説明する。指標画像の代わりに所定の色を自己領域の推定に利用する点が第1実施形態と異なる。
<システム構成>
図3は、第2実施形態に係る情報処理システムの構成を示すブロック図である。なお、第1実施形態と同じ参照符号の処理部については、第1実施形態と同様であるため説明は省略する。図3に示すように、情報処理装置1200は、第1実施形態における指標登録部300及び指標判定部1020を含まず、色登録部400及び色検出部1060を含んでいる。
ユーザあるいはオペレータは色登録部400を介して、事前に自己領域を示す色を情報処理装置1200に登録する。例えば、自身の手や足などの色を事前に登録し、色検出部1260に登録色として通知する。
色検出部1260は、撮像部100から映像を取得し、取得した映像中に含まれる登録色の領域を検出し、自己領域推定部1030に通知する。具体的には、登録色の領域の2次元座標を取得する。そして、検出した領域を自己領域推定部1230に通知する。
自己領域推定部1230は、色検出部1260から取得した色領域に基づいて自己領域を推定する。ここで自己領域とする領域は2次元画像上での色領域でも良いし、複数の視点から検出した色領域の視差から推定した3次元中の領域でも良い。
<装置の動作>
図4は、第2実施形態における処理を示すフローチャートである。なお、第1実施形態と同じ参照符号のステップについては、第1実施形態と同様であるため説明は省略する。
ステップS2100では、色検出部1260は、自己領域として判定する領域の色の登録を色登録部400を介してユーザから受け付ける。登録した色は、自己領域である物体(図12の領域3420にある物体、あるいは手や腕など)の色である。
ステップS2110では、色検出部1260は、撮像部100から映像を取得し、映像中における登録色の領域を抽出する。
ステップS2130では、自己領域推定部1230は、色検出部1260が抽出した領域を取得する。そして、複数の視点から取得した色領域の視差情報をもとに3次元空間中での自己領域を推定する。例えば、自己領域推定部1230は、取得した領域から一定の距離内の領域を自己領域とする。
以上説明したとおり第2実施形態によれば、色に基づいて「自己領域」を推定することにより、周辺に存在する物体のうち障害物として警告すべき物体を好適に判定することが可能となる。特に、自己領域としたい領域すべてに指標画像を付すことなく、自己領域である手や腕を好適に判定することが可能となる。
(第3実施形態)
本発明に係る画像処理装置の第2実施形態として、ビデオシースルー型HMDとして構成される情報処理システムを例に挙げて以下に説明する。深度(奥行情報)の移動量を自己領域の推定に利用する点が第1及び第2実施形態と異なる。
<システムの構成>
図5は、第3実施形態に係る情報処理システムの構成を示すブロック図である。なお、第1実施形態と同じ参照符号の処理部については、第1実施形態と同様であるため説明は省略する。図5に示すように、情報処理装置1300は、第1実施形態における指標登録部300及び指標判定部1020を含まず、深度測定部500と深度移動量計測部1370を含んでいる。
深度測定部500は、周辺環境におけるHMDからの距離を深度情報として計測し、深度移動量計測部1370と、周辺環境認識部1340に通知する。
深度移動量計測部1070は、深度測定部500から深度を逐次取得する。そして、複数の時点からの深度を用いて、各点(各方向)における深度領域の移動特徴を計測する。ここでは、深度移動量を計測し、自己領域推定部1330に通知する。
また、周辺環境認識部1340は、深度測定部500から通知された深度の情報に基づいて周辺環境の物体を計測する。もちろん、第1実施形態と同様に撮像部100から映像に基づいて計測をしてもよいし、映像と深度の両方に基づいて計測をしてもよい。
<装置の動作>
図6は、第3実施形態における処理を示すフローチャートである。なお、第1実施形態と同じ参照符号のステップについては、第1実施形態と同様であるため説明は省略する。
ステップS2200では、深度移動量計測部1370は、深度測定部500から逐次深度の情報を取得する。例えば、撮像部100の撮像範囲と同じ視野範囲における深度の情報を取得する。そして、複数の時点における視野範囲内の各点の深度を比較し、各点での深度移動量を計測する。
ステップS2230では、自己領域推定部1330は、深度移動量計測部1370から各点の深度移動量を取得する。そして、視野範囲内の各点の深度移動量を比較することにより、視野範囲内における自己領域と周辺環境とを推定する。例えば、視野範囲内において、同一方向に移動している領域かつより広い領域を周辺環境とし、それ以外の方向に動いている領域を自己領域とする。
図9は、深度移動量に基づく自己領域の推定を説明する図である。ここでは、ある時点から別の時点への時間経過に伴い環境3100が環境3200に変化する場合を示している。環境3100においては、障害物領域である箱3000、壁3010、箱3020と、自己領域である手3030と、が存在している。環境3200においては、環境3100における障害物領域と自己領域とが矢印で示されるようにそれぞれ独立して移動した状態を示している。そのため、ここでは、深度移動量に基づいて複数の部分領域に分割する。このとき、箱3000、壁3010、箱3020は同一の移動方向(やや左回転)となるが、手3030は別の移動方向(右上への並進移動)となる。箱3000、壁3010、箱3020に対応する領域の方が、手3030に対応する領域よりも広いため、箱3000、壁3010、箱3020に対応する領域を周辺環境と推定する。そして、別の移動方向である手3030に対応する領域は自己領域として判定する。
以上説明したとおり第3実施形態によれば、深度移動量に基づいて「自己領域」を推定することにより、周辺に存在する物体のうち障害物として警告すべき物体を好適に判定することが可能となる。特に、自己領域としたい領域に指標画像を付すことなく、自己領域を好適に判定することが可能となる。
(変形例1)
警告表示判定部1050を、警告表示・CG表示変更部(不図示)に置き換えることも可能である。
警告表示・CG表示変更部は、自己位置と一定距離内にある周辺環境中の物体が自己領域に含まれる場合に警告表示とCG表示を半透明にする。ここで、警告表示とCG表示の変更は、半透明表示への変更に限定されず、警告表示のアイコン変更や、大きさ変更、CGの透明度変更や色変更、ワイヤーフレーム表示、非表示への切り替え、色のブレンドなど様々な変更が可能である。
図14は、変形例1における発明の効果を例示的に説明する図である。状況3600は、ある方向から見たMR体験環境を示しており、仮想物体3610に対して、仮想物体3630及び現実物体3620と組み合わせる作業を示している。状況3600では、ユーザは、仮想物体3610の開口方向から観察しているため、仮想物体3630及び現実物体3620を容易に目視することが出来る。
一方、この状況を他の方向(上方)から見た場合、仮想物体3630及び現実物体3620を目視することが出来ない。すなわち、仮想物体3610の開口方向ではない方向から観察しているため、仮想物体3610により視界が遮られることになる。そのため、ユーザは、仮想物体3610に対して、仮想物体3630及び現実物体3620と組み合わせる作業を続けることが困難になってしまう。さらに、現実物体3620の位置を確認できないため、誤って(例えば現実物体3620を把持していない右手と)衝突してしまう危険がある。
変形例1の処理を適用することにより、仮想物体3610の表示を半透明にすることで、仮想物体3610に隠れていた手3640及び現実物体3620を確認しながら作業を続けることが可能となる。一方で、自己領域以外の周辺の壁や障害物については警告を通知することができる。
(変形例2)
第3実施形態の構成(図5)における自己領域推定部1330において、一定時間接近し続ける物体を自己領域から除外するよう構成することも可能である。
図10は、自己領域の推定を説明する他の図である。環境3300においては、障害物領域である箱3000、壁3010、箱3020と、自己領域である手3030と、が存在している。更に、移動物体である障害物3040が存在する。
障害物3040は移動物体であるため、箱3000、壁3010、箱3020とは異なる深度移動量を持つ。しかし、障害物3040が自身の方向に連続的に接近してくる場合、ユーザと衝突する危険がある。一方、手3030は自己領域であるため、連続的にユーザに接近し続けることはなく、近づいたり離れたりを繰り返す。このような状況で障害物3040に対して正しく警告を通知するために、一定時間自己位置に接近し続ける物体については、深度移動量が周辺環境と異なる場合であっても自己領域とみなさない。
変形例2の処理を適用することにより、周辺環境に移動する可能性のある障害物が存在する場合においても、好適に警告を表示できるようになる。
(変形例3)
第3実施形態の処理(図6)におけるS2060において、第3実施形態とは逆の処理をするよう構成してもよい。すなわち、警告表示判定部1050は、S2050で決定された物体が自己領域に含まれるか否かを判定し、物体が自己領域に含まれる場合はS2070に進み、そうでない場合は処理を終了する(警告の表示を通知しない)。
変形例3の処理を適用することにより、自己領域の接近に対してのみ警告を表示できるようになる。例えば、ユーザが壁などに囲まれたスペースにおいて検証デスクに座って作業する場合など、周辺環境と自己位置の関係がほぼ固定されたMR体験環境において、より適切に警告を通知することができる。
(変形例4)
第1~第3実施形態に示す全ての処理部を備えるよう情報処理システムを構成してもよい。図7は、変形例4に係る情報処理システムの構成を示すブロック図である。情報処理装置1400は、指標登録部300及び指標判定部1020、色登録部400及び色検出部1260、深度測定部500及び深度移動量計測部1370を含んでいる。
図8は、変形例4における処理を示すフローチャートである。図8に示すように第3実施形態におけるS2010とS2330との間に、S2020、S2100、2110、S2200の処理が配置されている。
ステップS2330では、自己領域推定部1430は、深度移動量計測部1370から各点の深度移動量を取得する。そして、視野範囲内の各点の深度移動量を比較することにより、視野範囲内における自己領域と周辺環境とを推定する。例えば、視野範囲内において、同一方向に移動している領域かつより広い領域を周辺環境とし、それ以外の方向に動いている領域を自己領域とする。さらに、自己領域推定部1430は、指標判定部1020から取得した映像中の指標画像の領域と、色検出部1060から取得した映像中の登録色の領域を考慮して、自己領域を修正する。例えば、深度移動量に基づき推定した自己領域と、指標画像の領域と、登録色の領域と、の和(AND)の領域を修正された自己領域として警告表示判定部1050に通知する。なお、これらの3種類の領域のいずかの2つの組み合わせでも良い。なお、和(AND)の代わりに、積(OR)やXORを用いてもよい。
変形例4の処理を適用することにより、多様な状況における自己領域の検出の精度を高めることができる。
(第4実施形態)
本発明に係る画像処理装置の第4実施形態として、ビデオシースルー型HMDとして構成される情報処理システムを例に挙げて以下に説明する。自己位置の移動履歴を自己領域の推定に利用する点が第1~第3実施形態と異なる。
<システムの構成>
図15は、第4実施形態に係る情報処理システムの構成を示すブロック図である。なお、第1実施形態と同じ参照符号の処理部については、第1実施形態と同様であるため説明は省略する。図15に示すように、情報処理装置1500は、第1実施形態における指標登録部300及び指標判定部1020を含まず、自己位置記憶部1580を含んでいる。
自己位置記憶部1080は、自己位置推定部1010が推定した自己位置を逐次取得し、自己位置を時系列で一定期間保持する。自己領域推定部1240は、自己位置記憶部1080に保持された自己位置の時系列に基づいて自己領域を推定する。
<装置の動作>
情報処理装置1400の処理手順は、第1実施形態(図2)における指標の入力(S2010)を削除したものになる。また、自己領域の推定(S2030)においては、自己位置の推定(S2020)における自己位置の履歴に基づいて自己位置を推定する。
例えば、直近10分間の自己位置の履歴を受け取り、姿勢の平均を求める。求めた姿勢の下方向を鉛直下向きと推定する。そして、最新(現時点)の自己位置から所定半径(例えば50cm)の円柱を鉛直下向きに延長した領域を自己領域とする。例えば、世界座標のy座標が0となるまで延長する。ここで、特開2017-156887号公報に示されるような、自己位置と人間の姿勢DBからから自身の領域を推定する方法など、他の方法を用いることも可能である。
以上説明したとおり第4実施形態によれば、自己位置の移動履歴に基づいて「自己領域」を推定することにより、周辺に存在する物体のうち障害物として警告すべき物体を好適に判定することが可能となる。このような構成とすることにより、外部装置(指標登録部300、色登録部、深度測定部500)を削減することが可能となる。
(その他の実施例)
なお、上述した情報処理装置内の各処理部については、機械学習された学習済みモデルを代わりに用いて処理する構成とすることが出来る。すなわち、自己位置推定部1010、指標判定部1020、周辺環境認識部1040、色検出部1060、周辺環境認識部1340、深度移動量計測部1370における画像処理に適用することが出来る。また、自己領域推定部1030、1230、1330、1430、1530における領域推定に適用することが出来る。更に、警告表示判定部1050における判定に適用することが出来る。その場合には、例えば、その処理部への入力データと出力データとの組合せを学習データとして複数個準備し、それらから機械学習によって知識を獲得し、獲得した知識に基づいて入力データに対する出力データを結果として出力する学習済みモデルを生成する。学習済みモデルは、例えばニューラルネットワークモデルで構成可能である。そして、その学習済みモデルは、前記処理部と同等の処理をするためのプログラムとして、CPUあるいはGPUなどと協働で動作することにより、前記処理部の処理を行う。なお、上記学習済みモデルは、必要に応じて一定の処理後に更新しても良い。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100 撮像部; 200 提示部; 300 指標登録部; 1000 情報処理装置; 1010 自己位置推定部; 1020 指標判定部; 1030 自己領域推定部; 1040 周辺環境認識部; 1050 警告表示判定部

Claims (10)

  1. 現実空間を撮像する撮像部により得られた映像に基づいて、前記現実空間における前記撮像部の自己位置を推定する位置推定手段と、
    前記映像に基づいて、前記現実空間に存在する現実物体を認識する認識手段と、
    前記映像に含まれる所定の画像特徴に基づいて前記現実空間における所定の領域を決定する領域決定手段と、
    前記認識手段により認識された現実物体が前記所定の領域に含まれるか否かに従って、警告を行うか否かを判定する判定手段と、
    を有し、
    前記判定手段は、前記認識手段により認識された現実物体が前記所定の領域に含まれない場合、警告を行うと判定する
    ことを特徴とする画像処理装置。
  2. 前記所定の画像特徴は所与の指標画像であり、
    前記領域決定手段は、前記所与の指標画像が付された現実物体を包含する領域を前記所定の領域として決定する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記所与の指標画像の登録を受け付け、前記映像に含まれる前記所与の指標画像を検出する検出手段を更に有する
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記所定の画像特徴は所与の色であり、
    前記領域決定手段は、前記所与の色を有する現実物体を含む領域を前記所定の領域として決定する
    ことを特徴とする請求項1に記載の画像処理装置。
  5. 前記所与の色の登録を受け付け、前記映像に含まれる前記所与の色を検出する色検出手段を更に有する
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記撮像部は、複数の視点から前記現実空間を撮像するよう構成されており、
    前記認識手段は、前記複数の視点からの映像による視差から奥行を推定することにより前記現実物体を認識する
    ことを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
  7. 前記認識手段は、深度センサによる奥行推定にさらに基づいて前記現実物体を認識する
    ことを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
  8. 前記警告は、表示部における警告表示と音声再生部における警告音再生との少なくとも1つを含む
    ことを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  9. 現実空間を撮像する撮像部により得られた映像を処理する画像処理装置の制御方法であって、
    前記映像に基づいて、前記現実空間における前記撮像部の自己位置を推定する位置推定工程と、
    前記映像に基づいて、前記現実空間に存在する現実物体を認識する認識工程と、
    前記映像に含まれる所定の画像特徴に基づいて前記現実空間における所定の領域を決定する領域決定工程と、
    前記認識工程により認識された現実物体が前記所定の領域に含まれるか否かに従って、警告を行うか否かを判定する判定工程と、
    を含み、
    前記判定工程では、前記認識工程により認識された現実物体が前記所定の領域に含まれない場合、警告を行うと判定する
    ことを特徴とする制御方法。
  10. コンピュータを、請求項1乃至の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2019116628A 2019-06-24 2019-06-24 画像処理装置およびその制御方法 Active JP7378232B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019116628A JP7378232B2 (ja) 2019-06-24 2019-06-24 画像処理装置およびその制御方法
US16/906,355 US11508150B2 (en) 2019-06-24 2020-06-19 Image processing apparatus and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019116628A JP7378232B2 (ja) 2019-06-24 2019-06-24 画像処理装置およびその制御方法

Publications (2)

Publication Number Publication Date
JP2021002290A JP2021002290A (ja) 2021-01-07
JP7378232B2 true JP7378232B2 (ja) 2023-11-13

Family

ID=73994068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019116628A Active JP7378232B2 (ja) 2019-06-24 2019-06-24 画像処理装置およびその制御方法

Country Status (2)

Country Link
US (1) US11508150B2 (ja)
JP (1) JP7378232B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021181448A1 (ja) * 2020-03-09 2021-09-16 オリンパス株式会社 面推定方法、面推定装置、および記録媒体
EP4288950A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd User interactions in extended reality
EP4295314A1 (en) 2021-02-08 2023-12-27 Sightful Computers Ltd Content sharing in extended reality
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US12099696B2 (en) 2022-09-30 2024-09-24 Sightful Computers Ltd Displaying virtual content on moving vehicles

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006301924A (ja) 2005-04-20 2006-11-02 Canon Inc 画像処理方法および画像処理装置
JP2009015720A (ja) 2007-07-06 2009-01-22 Ntt Docomo Inc 認識装置および認識方法
JP2010067079A (ja) 2008-09-11 2010-03-25 Dainippon Printing Co Ltd 行動解析システムおよび行動解析方法
JP2013257716A (ja) 2012-06-12 2013-12-26 Sony Computer Entertainment Inc 障害物回避装置および障害物回避方法
JP2017156887A (ja) 2016-02-29 2017-09-07 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017191576A (ja) 2016-04-15 2017-10-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
JP2018063567A (ja) 2016-10-13 2018-04-19 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2301216A (en) 1995-05-25 1996-11-27 Philips Electronics Uk Ltd Display headset
JP2014170330A (ja) 2013-03-02 2014-09-18 Yasuaki Iwai 仮想現実提示システム、仮想現実提示方法、仮想現実提示装置
JP2017129567A (ja) 2016-01-20 2017-07-27 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006301924A (ja) 2005-04-20 2006-11-02 Canon Inc 画像処理方法および画像処理装置
JP2009015720A (ja) 2007-07-06 2009-01-22 Ntt Docomo Inc 認識装置および認識方法
JP2010067079A (ja) 2008-09-11 2010-03-25 Dainippon Printing Co Ltd 行動解析システムおよび行動解析方法
JP2013257716A (ja) 2012-06-12 2013-12-26 Sony Computer Entertainment Inc 障害物回避装置および障害物回避方法
JP2017156887A (ja) 2016-02-29 2017-09-07 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017191576A (ja) 2016-04-15 2017-10-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
JP2018063567A (ja) 2016-10-13 2018-04-19 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
JP2021002290A (ja) 2021-01-07
US20200401805A1 (en) 2020-12-24
US11508150B2 (en) 2022-11-22

Similar Documents

Publication Publication Date Title
JP7378232B2 (ja) 画像処理装置およびその制御方法
JP6598617B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6723061B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
US20190354799A1 (en) Method of Determining a Similarity Transformation Between First and Second Coordinates of 3D Features
EP1967941A2 (en) Video-based image control system
JP5765133B2 (ja) 入力装置、入力制御方法及び入力制御プログラム
CN105074617A (zh) 三维用户界面装置和三维操作处理方法
JP6524589B2 (ja) クリック動作検出装置,方法およびプログラム
JP2005227876A (ja) 画像処理方法、画像処理装置
JP6742760B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
US10573083B2 (en) Non-transitory computer-readable storage medium, computer-implemented method, and virtual reality system
CN111033573A (zh) 信息处理装置、系统、图像处理方法、计算机程序及存储介质
US20230267667A1 (en) Immersive analysis environment for human motion data
KR101338958B1 (ko) 멀티터치 단말기에서 가상물체의 3차원 움직임 조작시스템 및 방법
LIU et al. A preliminary study of kinect-based real-time hand gesture interaction systems for touchless visualizations of hepatic structures in surgery
WO2020144848A1 (ja) オーサリング装置、オーサリング方法、及びオーサリングプログラム
KR101807512B1 (ko) 맵핑형 3차원 상호작용 장치 및 방법
KR20080055622A (ko) 인간친화형 컴퓨터입출력 시스템
JP2006343954A (ja) 画像処理方法、画像処理装置
JP2005165665A (ja) 仮想物体の操作補助装置、方法、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
WO2022123752A1 (ja) 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体
TWI836680B (zh) 立體影像互動模擬系統與運作方法
TW202340926A (zh) 作業支援系統以及方法

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231031

R151 Written notification of patent or utility model registration

Ref document number: 7378232

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151