JP2019113881A - 頭部装着装置 - Google Patents

頭部装着装置 Download PDF

Info

Publication number
JP2019113881A
JP2019113881A JP2016058692A JP2016058692A JP2019113881A JP 2019113881 A JP2019113881 A JP 2019113881A JP 2016058692 A JP2016058692 A JP 2016058692A JP 2016058692 A JP2016058692 A JP 2016058692A JP 2019113881 A JP2019113881 A JP 2019113881A
Authority
JP
Japan
Prior art keywords
image
head
user
mounted device
image portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016058692A
Other languages
English (en)
Inventor
靖展 亘理
Yasuhiro Watari
靖展 亘理
隆行 石田
Takayuki Ishida
隆行 石田
鈴木 章
Akira Suzuki
章 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2016058692A priority Critical patent/JP2019113881A/ja
Priority to US16/083,142 priority patent/US10620436B2/en
Priority to PCT/JP2017/004758 priority patent/WO2017163647A1/ja
Publication of JP2019113881A publication Critical patent/JP2019113881A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

【課題】コントローラに対する操作をさせることなくユーザーの動きを検出できる頭部装着装置を提供する。【解決手段】ユーザーの頭部に装着される筐体に取り付けられたカメラ等によって撮像された画像を受け入れて、画像から、ユーザーの身体の第1の部位に対応する第1の画像部分を検出する第1検出部42、検出した第1の画像部分における、所定の特徴量を取得し、画像内の第1の画像部分を含み、所定の特徴量が連続的に変化する領域を特定する領域検出部43、特定された領域内の画像部分から、第1の部位とは異なるユーザーの身体の第2の部位に対応する第2の画像部分を検出する第2検出部44を備える。【選択図】図2

Description

本発明は、ユーザーが頭部に装着して使用する頭部装着装置に関する。
ヘッドマウントディスプレイやスマートグラスなどと呼ばれる、ユーザーが頭部に装着して使用するタイプの装置(頭部装着装置)が知られている。このような頭部装着装置は、ユーザーの目の前に画像を結像させることで、その画像をユーザーに提示する。
こうしたヘッドマウントディスプレイ等の頭部装着装置をゲームの映像表示に用いる場合等において、着用したユーザーの手などの動きを検出したい要望があるが、従来、ユーザーの動きは別途コントローラ等からの入力に基づいてしか検出できていなかった。
本発明は上記実情を考慮してなされたものであって、その目的の一つは、コントローラに対する操作をさせることなくユーザーの動きを検出できる頭部装着装置を提供することにある。
本発明に係る頭部装着装置は、ユーザーの頭部に装着される筐体に取り付けられた撮像手段と、前記撮像手段により撮像された画像を受け入れて、当該画像から、ユーザーの身体の第1の部位に対応する第1の画像部分を検出し、当該検出した第1の画像部分における、所定の特徴量を取得する第1検出手段と、前記画像内の前記第1の画像部分を含み、前記所定の特徴量が連続的に変化する領域を特定する領域特定手段と、前記特定された領域内の画像部分から、前記第1の部位とは異なるユーザーの身体の第2の部位に対応する第2の画像部分を検出する第2検出手段と、を含むこととしたものである。
本発明の実施の形態に係る映像表示システムの全体概要図である。 本発明の実施の形態に係る頭部装着装置の機能的構成例を示すブロック図である。 本発明の実施の形態に係る頭部装着装置の領域検出部の動作例を表すフローチャート図である。 本発明の実施の形態に係る頭部装着装置の動作概要を示す説明図である。 本発明の実施の形態に係る頭部装着装置におけるユーザーの腕の交差状態を検出する動作例を表す説明図である。 本発明の実施の形態に係る頭部装着装置における首の方向を検出する動作例を表す説明図である。
以下、本発明の実施形態について、図面に基づき詳細に説明する。ここでは本発明の実施の形態に係る頭部装着装置は、ヘッドマウントディスプレイであるものとして説明する。もっとも、本実施の形態の頭部装着装置は、ヘッドマウントディスプレイである必要は必ずしもなく、ヘッドフォンや、ヘッドバンド等、ユーザーの頭部に装着されるものであればいかなるものであってもよい。
図1は、本発明の一実施形態に係る頭部装着装置10を含む情報処理システム1の全体概要図である。本実施の形態の情報処理システム1は、頭部装着装置10と、映像供給装置20と、中継装置30とを含んで構成されている。
本実施の形態の一例において、頭部装着装置10は、ユーザーが頭部に装着して使用する映像表示装置であって、後に説明する中継装置30から入力される映像信号に応じた映像を表示してユーザーに提示する。本実施形態では、頭部装着装置10は両目での映像の閲覧に対応しており、ユーザーの右目及び左目それぞれの目の前に互いに独立に映像を表示するものとしてもよい。
この頭部装着装置10は、映像表示ユニット31、映像表示処理部32を収納し、ユーザーの頭部に装着される筐体11と、この筐体11の前面(装着時にユーザーの視線方向に相当する方向にある面)に取り付けられた前面カメラ12と、筐体11の左右側面にそれぞれ取り付けられた検出カメラ13L,13Rと、制御部14と、通信処理部15とを含む。
映像表示ユニット31は例えば左目用映像を表示する表示素子と、右目用映像を表示する表示素子とを含む。この表示素子は例えば液晶ディスプレイや、有機EL表示パネルでよい。ユーザーは、頭部装着装置10を装着した状態で、左目用映像を左目で、右目用映像を右目で、それぞれ見ることになる。
この映像表示ユニット31は、映像表示処理部32から供給される信号に従って左目用の表示素子と、右目用の表示素子とにそれぞれ独立に映像を表示する。
映像表示処理部32は、通信処理部15を介して中継装置30から入力される映像信号に基づいて、映像表示ユニット31に対して映像の信号を出力する回路を有している。
前面カメラ12は、頭部装着装置10の筐体11前面(装着時にユーザーの視線方向に相当する方向にある面)に配され、ユーザーの前方の画像を撮像し、撮像して得られた画像を制御部14に出力する。
検出カメラ13L,13R(以下、区別の必要がない場合はそれぞれを検出カメラ13と表記する)は、例えば筐体11の左右側面にそれぞれ取り付けられる。これら検出カメラ13L,13Rはそれぞれ複数(例えば一対)の撮像素子を含み、これら複数の撮像素子は互いに距離を置いて配される。検出カメラ13は、それぞれの撮像素子によりユーザーの側方かつ下方の視野範囲の画像を撮像し、撮像して得られた各画像データを制御部14に出力する。本実施の形態のある例では、この検出カメラ13が本発明の撮像手段を実現する。
制御部14は、CPU等のプログラム制御デバイスと、プログラムを保持する記憶デバイスとを含んで構成される。このプログラムは、コンピュータ可読かつ非一時的な媒体(DVD−ROM等)に格納されて提供され、この記憶デバイスに格納されたものであってもよい。この制御部14は、当該プログラムを実行することで、次のように動作する。検出カメラ13にて撮像された画像を受け入れて、当該画像から、ユーザーの身体の第1の部位に対応する第1の画像部分を検出する。またこの制御部14は、当該検出した第1の画像部分における、所定の特徴量(後述する)を取得する。
また制御部14は、検出カメラ13にて撮像された画像データ内で、上記第1の画像部分を含み、所定の特徴量が連続的に変化する領域を特定する。ここで連続的変化とは、注目している位置の特徴量と、それに隣接する位置での特徴量との差が予め定めたしきい値を下回ることを意味し、つまり制御部14は、注目している位置の特徴量と、それに隣接する位置での特徴量との差が予め定めたしきい値を下回るとき、注目している位置と隣接する位置とで特徴量が連続していると判断することとなる。
制御部14は、さらに、上記特定した領域内の画像部分から、第1の部位とは異なるユーザーの身体の第2の部位に対応する第2の画像部分を検出する処理を行う。制御部14は、当該検出した第2の画像部分の位置を特定するデータを生成して出力する。この制御部14の詳しい動作は後に説明する。
通信処理部15は、中継装置30との間で種々のデータの通信を行うためのインタフェースである。具体的には頭部装着装置10は、中継装置30との間で無線LANやBluetooth(登録商標)などの無線通信によりデータの送受信を行う。この場合、通信処理部15は通信用のアンテナ、及び通信モジュールを含み、制御部14から入力される指示に従って、前方カメラ12で撮像された画像のデータや、制御部14が出力するデータ等を中継装置30宛に送出する。またこの通信処理部15は中継装置30から映像信号のデータ等を受信すると、当該データを制御部14に出力する等の処理を行っている。この例では、制御部14が、映像表示処理部32に対して中継装置30から受信した映像信号を出力することで、映像がユーザーに提示されることとなる。
映像供給装置20は、頭部装着装置10がユーザーに提示する映像を供給する情報処理装置であって、例えば家庭用ゲーム機、携帯型ゲーム機、パーソナルコンピューター、スマートフォン、タブレット等であってよい。本実施の形態の一例では、この映像供給装置20は、中継装置30を介して頭部装着装置10からユーザーの身体の第2の部位の位置を特定するデータを受けて、当該データに基づく処理を行う。一例として第2の部位がユーザーの手の位置である場合、映像供給装置20は、ユーザーの手が頭部装着装置10に出力している映像のどの部分に対応する位置にあるかを判断し、映像中の物体に触れたかのような映像を生成して頭部装着装置10に出力するなど、仮想現実を演出する処理等を実行する。
中継装置30は、映像供給装置20から供給される映像のデータを受け付けて、受け付けたデータに応じた映像信号を頭部装着装置10に対して出力する。中継装置30は、有線又は無線のいずれかにより頭部装着装置10と接続される。本実施の形態の一例では、この中継装置30は、映像供給装置20が供給する映像データを、頭部装着装置10で表示可能な映像信号に変換して出力するビデオプロセッサを備えており、当該変換後の映像信号を頭部装着装置10に出力する。また本実施の形態の例に係る中継装置30は、頭部装着装置10から受信したデータを映像供給装置20に出力する。
次に、本実施の形態の頭部装着装置10の制御部14による動作について説明する。本実施の形態の一例では、この制御部14は、機能的には、図2に例示するように、特徴量演算部41と、第1検出部42と、領域検出部43と、第2検出部44と、位置データ生成部45とを含んで構成される。
特徴量演算部41は、画像データの入力を受けて、当該画像データの各部分(例えば画像データを構成する各画素)ごとに、所定の特徴量を演算する。本実施の形態の一例では、この特徴量は、上記画像データの部分ごとに、当該部分内に撮像されている対象物と、撮像手段である検出カメラ13との距離に応じて変化する特徴量である。
この場合、特徴量演算部41は、例えば検出カメラ13が出力する各画像データについて、当該画像データと同じサイズのマップ画像データであって、元の画像データ内の各部分に対応する位置の画素の値を、元の画像データ内の当該部分に撮像された対象物までの距離に基づいて定めた、いわゆるデプス・マップ(深度マップ)を生成して出力するものとする。このような2つ以上の画像データから深度マップを作成する処理の具体的方法は既に知られているので、ここでの詳しい説明を省略する。
第1検出部42は、検出カメラ13L,13Rにてそれぞれ撮像された画像データを受け入れ、各画像データのうちから、ユーザーの身体の第1の部位に対応する第1の画像部分を検出する。具体的に、第1の部位は、検出カメラ13から最も近いユーザーの身体部分、例えば肩とする。
この例では第1検出部42は、検出カメラ13L,13Rから得られた各画像データを特徴量演算部41に出力して、検出カメラ13L,13Rのそれぞれが撮像した画像データについて、それぞれ対応するデプス・マップデータを得る。
そして第1検出部42は、当該デプス・マップデータを用いて、検出カメラ13L,13Rのそれぞれが撮像した画像データ内で最も近接した位置にある所定形状の部分(肩であれば外接形状が実質的にU字状となる舌片状部分)をユーザーの身体の第1の部位として検出する。
また第1検出部42は、検出カメラ13L,13Rから得られた各画像データのうち、当該検出した第1の部位に相当する画素部分を第1の画像部分として、当該第1の画像部分に含まれる画素を特定する情報のセットを出力する。
領域検出部43は、特徴量演算部41が出力したデプス・マップを参照して、第1検出部42が出力した情報で特定される画素を含み、上記所定の特徴量が連続的に変化する領域を特定する。
具体的に領域検出部43は、図3に例示する処理を実行する。すなわち領域検出部43は、特徴量演算部41が出力したデプス・マップ上で、第1検出部42が出力した情報で特定される画素に対応する部分を注目部分として特定する(S11)。領域検出部43は、この注目部分に含まれる画素の特徴量(ここでは検出カメラ13からの距離の情報)を参照し、注目部分に隣接する画素のうち、過去に注目部分として特定された部分に含まれた画素ではなく、かつ、当該画素に係る特徴量と注目部分に含まれるいずれかの画素の特徴量との差が予め定めたしきい値を下回る画素を検索する(S12)。
領域検出部43は、処理S12における検索により見出された画素があるか否かを調べ(S13)、見出された画素があれば(S13:Yes)、当該見出された画素(複数ある場合は見出されたすべての画素)からなる部分を注目部分として(S14)、処理S11に戻って処理を続ける。つまり領域検出部43は、注目部分に隣接し、特徴量が連続的に変化していると評価できる画素を新たな注目部分として選択する処理を繰り返す。これにより、当初注目部分として選択された画素部分(第1の領域に相当する部分)を含み、特徴量が連続的変化している領域を拡大しつつ特定していく。
また、処理S13において、検索の結果、見出された画素がないと判断されると(S13:No)、領域検出部43は、それまでに注目部分として選択された画像部分の領域を、特徴量が連続的に変化する領域として特定し、当該特定した領域を表す情報を出力する(S15)。ここで領域を表す情報は、領域内に含まれる画素を特定する情報(各画素の座標情報)のセットでよい。
第2検出部44は、領域検出部43が出力する情報で特定される領域内の画像部分から、第1の部位とは異なるユーザーの身体の第2の部位に対応する第2の画像部分を検出する。
例えばこの第2検出部44は、領域検出部43が出力する情報で特定された領域の長さ方向の端部を、第2の部位に相当する第2の画像部分として検出する。具体的に、第2検出部44は、領域検出部43が出力する情報で特定された領域に外接する矩形を検出し、検出した矩形の横軸方向長さと、縦軸方向長さを比較する。第2検出部44は比較の結果、横軸と縦軸とのうち長い側の軸方向を長手方向として、その両端部(長手方向に直行する辺)のうち、第1検出部42にて検出した第1の部位の重心から離れている側の辺上に接する、上記領域内の画素を注目画素として選択する。ここで第1の部位の重心は、第1の部位に相当する画像部分内の画素群の重心を意味し、具体的には画素群の座標が(xi,yi)(i=1,2…,N)であるときには、その平均Σ(xi,yi)/Nとして求めればよい。
あるいは、第2検出部44は、領域検出部43が出力する情報で特定される領域内の画像部分のうち、第1の領域に相当する画像部分の重心から最も遠い位置にある画素を注目画素として選択する。
そして第2検出部44は、当該注目画素を中心とし、半径を所定の方法で定めた仮想的な円を設定する。ここで半径は、例えば予め定められた半径であってもよいし、デプス・マップの情報から、選択した注目画素の、検出カメラ13からの距離に応じて定められた半径(例えば検出カメラ13から遠いほど半径を小さくする)であってもよい。
第2検出部44は、当該仮想的な円に含まれる画素であって、かつ、領域検出部43が出力する情報で特定される領域内にある画素を、第2部位に対応する第2の画像部分として検出する。
位置データ生成部45は、第2検出部44が検出した第2の画像部分を特定するデータを生成して出力する。具体的にこの位置データ生成部45は、第2検出部44が検出した第2の画像部分に含まれる画素群を特定する情報(各画素の座標情報)のセットを出力する。
[動作例]
本実施の形態の一例に係る頭部装着装置10は、上記の構成を備えており、次のように動作する。
頭部装着装置10は、所定のタイミング(例えば映像供給装置20側からの指示を受けたタイミング)で、検出カメラ13により頭部装着装置10を装着しているユーザーの側方から、下方向の映像を、複数の撮像素子により撮像する(いわゆるステレオ撮影)。
そして頭部装着装置10は、得られた画像データの各画素ごとに、当該画素に撮像されている対象物と、検出カメラ13との距離を表す情報を、特徴量として演算し、デプス・マップを生成する。ここでの例では具体的に、図4に例示する画像が撮像されたものとする。ユーザーの頭部の側方下方側には通常、ユーザーの肩が位置しているので、検出カメラ13は通常、最も近い位置に肩を含む像を撮像することとなる。
そこで頭部装着装置10は、検出カメラ13にて撮像された画像データとデプス・マップとを用いて、ユーザーの身体の第1の部位としての肩が撮像されている部分を検出する。例えば検出カメラ13が撮像した画像データ内で最も近接した位置にある、実質的にU字状となる舌片状部分をユーザーの身体の肩として検出する。
頭部装着装置10は、次に、デプス・マップ上で検出したユーザーの肩の画像部分を初期の注目部分A1として特定する(S21)。頭部装着装置10は、注目部分A1に含まれる画素の特徴量(ここでは検出カメラ13からの距離の情報)を参照し、注目部分A1に隣接する画素のうち、当該画素に係る特徴量と注目部分A1に含まれるいずれかの画素の特徴量との差が予め定めたしきい値を下回る画素を検索する。
ここでは当該検索の結果、注目部分A1に隣接する上腕部の一部に相当する画像の部分が肩から距離が連続している部分として検出される。次いで、頭部装着装置10は、この新たに検出した部分を新たな注目部分として、当該注目部分に隣接する画素のうち、過去に注目部分として特定された部分に含まれた画素(つまり、ここでは画像部分A1に含まれる画素)ではなく、かつ、当該画素に係る特徴量と注目部分に含まれるいずれかの画素の特徴量との差が予め定めたしきい値を下回る画素を検索する。
以下、この処理を繰り返すことで、ユーザーの上腕部に相当する部分A2が、過去に注目部分として選択された部分となり、上腕部の部分A2が検出される(S22)。
頭部装着装置10は、以下同様に特徴量の連続する部分を注目部分として選択しつつ処理を行うことで、上腕部から距離が連続している部分として、ユーザーの下腕部に相当する画像の部分A3を検出し(S23)、さらにユーザーの下腕部から距離が連続する部分として、ユーザーの手に相当する画像の部分A4を検出する(S24)。
次に頭部装着装置10は、この新たに検出した部分A4を新たな注目部分として、当該注目部分A4に隣接する画素のうち、過去に注目部分として特定された部分に含まれた画素(ここでは画像部分A1,A2,A3に含まれる画素)ではなく、かつ、当該画素に係る特徴量と注目部分A4に含まれるいずれかの画素の特徴量との差が予め定めたしきい値を下回る画素を検索するが、ユーザーが手に何も持っていない状態では、手から先は一般的には床面等、手との距離が連続的にならない(しきい値を超えた距離の差がある)部分となるので、頭部装着装置10は、ここまでに注目部分として選択した画像部分A1,A2,A3,A4をまとめて、特徴量が連続的に変化する領域として特定する。そして頭部装着装置10は、当該特定した領域を表す情報を出力する。ここで領域を表す情報は、画像部分A1,A2,A3,A4に含まれる各画素を特定する情報(各画素の座標情報)のセットとする。
また頭部装着装置10は、当初検出した肩の画像部分A1の重心Pを求め、この重心から最も遠い位置にある画素Qを注目画素として選択する。そして頭部装着装置10は、当該注目画素Qを中心とし、予め定めた半径の仮想的な円Rを設定し、この仮想的な円Rに含まれ、かつ、画像部分A1,A2,A3,A4のいずれかの領域内にある画素を、第2部位に対応する第2の画像部分として検出する。この場合、肩の重心から最も遠い位置にある画素Qは通常、指先(あるいは指先が肩側に向いている場合は手首)が撮像されている画素となると想定されるので、当該画素から所定の半径内にある画素には手が撮像されていると考えられる。そこで頭部装着装置10は、ここで検出した第2の画像部分が手の画像部分であるとして、この第2の画像部分を特定するデータを生成して出力する。ここでは第2の画像部分に含まれる画素群を特定する情報(各画素の座標情報)のセットを出力する。
本実施の形態の頭部装着装置10では、筐体11の左右に設けられた検出カメラ13L,13Rが撮像する各画像データに基づいて上記の処理を実行する。そして筐体11の左右方向でそれぞれ撮像された画像データから検出した、手の画像部分の画素群を特定する情報のセットを出力する。また、頭部装着装置10は、検出カメラ13L,13Rが撮像した画像データを出力してもよい。なお、検出カメラ13にはステレオ撮影のために複数の撮像素子が含まれるが、このうちいずれか一つを選択して出力することとしてもよい。さらに頭部装着装置10は、検出カメラ13L,13Rが撮像した画像データに基づいてそれぞれ生成されたデプス・マップの画像を出力してもよい。
本発明の一実施形態に係る頭部装着装置10を含む情報処理システム1では、このようにして頭部装着装置10が出力したデータが中継装置30を介して映像供給装置20に入力される。
映像供給装置20は、頭部装着装置10が出力した、頭部装着装置10の筐体11の左右方向でそれぞれ撮像された画像データから検出した、手の画像部分の画素群を特定する情報のセット等の入力を受けるとともに、頭部装着装置10の位置や向きのデータを別途得て、これらのデータからユーザーの手の位置を三次元的な位置情報を求める。この三次元的な位置情報は、例えばユーザーの頭部を座標の中心として、ユーザーの身体の左右方向(冠状面と横断面とが交差してできる線分の方向)をX軸、上下方向(冠状面と矢状面とが交差してできる線分の方向)をY軸、奥行方向(矢状面と横断面とが交差してできる線分の方向)をZ軸とした座標系での値として表すことができる。
この映像供給装置20での処理は、頭部装着装置10が備える検出カメラ13L,13Rの座標と、それらの視線方向の情報とを頭部装着装置10の位置や向きのデータに基づいて得た上で、カメラ座標系からワールド座標系への変換を行う広く知られた処理を用いて行うことができる。
この頭部装着装置10の位置や向きを測定するため、本実施の形態のある例では、頭部装着装置10が、モーションセンサーを有し、頭部装着装置10の位置や向き、動きに関する各種の情報を測定することとしてもよい。このような測定を行うためのモーションセンサーとしては、3軸の加速度センサー、3軸のジャイロスコープ、3軸の地磁気センサー、気圧センサー等を含むものを用いることができる。この測定結果を用いることで、頭部装着装置10の動きや向きの変化が特定される。すなわち、加速度センサーの検出結果を用いることで、頭部装着装置10の鉛直方向に対する傾きや平行移動を検出できる。また、ジャイロスコープや地磁気センサーを用いることで、頭部装着装置10の回転運動を検出できる。さらに、気圧センサーを用いることで、頭部装着装置10の鉛直方向に沿った動きを検出できる。
なお、映像供給装置20が頭部装着装置10の位置や向きを得る方法としては、ここに述べた方法以外にも種々の公知の方法を用いることができるが、ここでのこれ以上の詳しい説明は省略する。
[変形例]
ここまでの説明では、制御部11の特徴量演算部41が演算する特徴量が、検出カメラ13から撮像された対象までの距離を表すものとしていたが、本実施の形態はこれに限られない。例えば、特徴量は、画像部分に撮像された対象物の法線方向を表す情報であってもよい。この場合、頭部装着装置10の筐体11に例えばモアレ法を用いるもの等、構造光を投影する装置(不図示)を設け、検出カメラ13にて画像データを撮像する際に、ユーザーの身体に構造光を投影して撮像を行うようにしてもよい。構造光を投影する手段を備えれば、法線方向の情報は構造光投影法による三次元計測の方法で取得できる。また法線方向の情報は、これ以外の広く知られた三次元計測の方法で取得してもよい。
このように法線の情報を用いる場合も、検出カメラ13からの距離を用いる方法と同様に、肩が検出できれば、肩から上腕、下腕、手までは法線方向が連続的に変化している(互いに隣接する画素において計測された法線方向の情報の差が所定のしきい値を下回る)こととなるため、法線方向が連続する領域を検出することで、検出カメラ13が撮像した画像データにおいて手が撮像されている範囲を検出できる。
[カメラの配置]
また本実施の形態のここまでの例では、検出カメラ13は、筐体11の左右側方に配されることとしていたが、ユーザーの肩等、第1の部位に相当する箇所が撮像できれば、この配置は必ずしも筐体11の左右側方でなくてもよい。例えば、検出カメラ13Lは、筐体11の下部の左端側に配されてもよい。また、検出カメラ13Rは、筐体11下部の右端側に配されてもよい。
[別の利用例]
本実施の形態の頭部装着装置10は、また、検出カメラ13にて撮像した画像データに基づいてユーザーの腕部を検出してもよい。具体的には、頭部装着装置10は、領域検出部43の動作において注目部分に隣接し、注目部分に含まれるいずれかの画素と特徴量の差が所定値を下回る画素(複数あってよい)を選択したとき、その時点で注目部分となっている画素群の重心と、新たに選択した画素群の重心とを結ぶ線分の方向を表す情報を演算する。
頭部装着装置10は、当初は(第1の部位に相当する領域が注目部分となっている段階では)、演算した線分の方向を表す情報を記録するとともに、ラベル情報を発行する(ここではラベル情報を所定の初期値、例えば数値の「1」とする)。そして頭部装着装置10は、新たに選択した画素群を特定する情報を、当該ラベル情報に関連付けて記憶する。
以下、上記線分の方向を表す情報を演算するごとに、前回記録した情報と、当該演算した情報とを比較し、その差(これらはベクトルであるので各線分の方向の交差角度を差として、内積を各ベクトルの大きさの積で除して求めればよい)が予め定めた角度しきい値を下回る場合には、今回演算した情報を記録するとともに、前回発行したラベル情報に関連付けられた情報に追加して、今回新たに選択した画素群を特定する情報を記憶していく。
また、上記差がが予め定めた角度しきい値を上回る場合は、今回演算した、線分の方向を表す情報を記録するとともに、新たなラベル情報を発行し(例えばその時点でのラベル情報である数値を「1」だけインクリメントして新たなラベル情報とする)、当該発行したラベル情報に関連付けて今回新たに選択した画素群を特定する情報を記憶する。
この処理を、画素が選択されなくなるまで繰り返すことで、頭部装着装置10は、特徴量が連続的に変化する領域を特定するとともに、当該領域内で直線的に変化する部位ごとにラベリングを施すことができる。この例では、ユーザーが肘や手首を曲げている場合、上腕、下腕、手のそれぞれの部位に相当する画素に互いに異なるラベルが付されることとなる。
これにより、頭部装着装置10は、上腕や下腕といったユーザーの腕部分を検出可能となる。
さらに頭部装着装置10は、ここで検出した腕部がユーザーの視点から見て交差している(一方の腕の一部が他方の腕によって隠されている)か、交差していないかを判断してもよい。この場合、検出カメラ13L,13Rは、筐体11の前方に配され、下向きの画像を撮影可能な位置に取り付けられる。
ユーザーが手を交差させている場合は、図5(a)に例示するようにラベリングが行われる。なお、図5(a),(b)では説明のため、右側の検出カメラ13Rが撮像した画像データに基づいて得られたラベリングの結果を「1R」,「2R」…のように、添字Rを付して示し、左側の検出カメラ13Lが撮像した画像データに基づいて得られたラベリングの結果を「1L」,「2L」…のように、添字Lを付して示している。
図5(a)に示したように、ユーザーが手を交差させている場合は、頭部装着装置10は、肩に相当する画像部分に付されたラベル1L,1Rからそれぞれ特徴量が連続する部分としてラベル2L,2R,3Rを付した部分を検出する。
頭部装着装置10は、ここで互いに異なる添字が付されたラベルの領域が隣接しているか否かを調べる。つまり、頭部装着装置10は、左側の検出カメラ13Lが撮像した画像データに基づいて得られた、特徴量が連続的に変化する領域(ラベル1L,2Lが付された領域)と、右側の検出カメラ13Rが撮像した画像データに基づいて得られた、特徴量が連続的に変化する領域(ラベル1R,2R,3Rが付された領域)とが隣接しているか否かを調べる。
ここで、これらの領域が隣接していれば、頭部装着装置10は、ユーザーの腕が交差していると判断する(図5(a))。またこのとき、領域の大きさを比較することで、左右どちらの腕が上となっているかを判断してもよい。すなわち頭部装着装置10は、比較的大きい領域が右側の検出カメラ13Rが撮像した画像データに基づいて得られたならば、右腕が上と判断し、比較的大きい領域が左側の検出カメラ13Lが撮像した画像データに基づいて得られたならば、左腕が上と判断する。
また、頭部装着装置10は、左側の検出カメラ13Lが撮像した画像データに基づいて得られた、特徴量が連続的に変化する領域と、右側の検出カメラ13Rが撮像した画像データに基づいて得られた、特徴量が連続的に変化する領域とが隣接していない場合には、ユーザーの腕が交差していないと判断する(図5(b))。
[肩の検出]
さらに本実施の形態の頭部装着装置10は、筐体11の左右にそれぞれ赤外線発光装置や、LEDフラッシュ等の発光手段を有し、ユーザーの身体の第1の部位(ユーザーの肩の位置等)を検出するにあたり、これらを点灯させて検出カメラ13にて撮像を行ってもよい。
この例では、ユーザーの肩部のように、発光手段に近接しているユーザーの身体の部位が、過露光の状態で(いわゆる白飛びした状態で)撮像される。そこで、頭部装着装置10は、検出カメラ13にて撮像された画像データから過露光の領域を検出することで、ユーザーの身体の第1の部位に相当する画像部分を検出してもよい。
さらに本実施の形態の頭部装着装置10は、ユーザーの身体の第1の部位については、毎回、最も近接した部分を検出したり、過露光の部分を検出したりするのではなく、一度検出がなされた後は、検出カメラ13が撮像した画像データから、その動きを追跡することとしてもよい。
[首の向きの考慮]
また本実施の形態のここまでの説明では、頭部装着装置10の位置や向きを測定するため、モーションセンサーを用いる例について説明したが、本実施の形態はこれに限られない。
例えば、図6に例示するように、正中線を軸とした首の回転角を、冠状面C(左右の肩を結ぶ線分を含む面)に対するユーザーの鼻の方向(まっすぐ前を見ているときの視線方向)の角度θとすると、検出カメラ13によって撮像された画像データから肩の部分に相当する領域を検出して用いて、この角度θを得ることができる。
具体的に頭部装着装置10は、検出カメラ13が撮像した画像データから、ユーザーの身体の第1の部位として肩の画像部分を検出する。そして当該画像部分を楕円フィッティングし、この楕円の長軸方向を冠状面内の直線の方向として、画像データの横軸に対するこの長軸方向のなす角を、正中線を軸とした首の回転角θ(ただし0≦θ≦90度)とする。
図6では、ユーザーの首が冠状面の法線方向を向いている場合(正面を向いている場合)に回転角が90度と判断され(A)、ユーザーの首が冠状面に対して角度θだけ傾いているときに、検出カメラ13の画像データから回転角がθと判断される例(B)を示している。
なお、首の向きによっては、左右の検出カメラ13L,13Rのいずれか一方の視野にはユーザーの肩が含まれない場合があるが、冠状面はユーザーの左右方向に対称であるので、左右の検出カメラ13L,13Rのいずれか一方が得た画像データから上記首の回転角θが得られれば、他方の画像データから得られる首の回転角も同じとなる。
頭部装着装置10は、このように首の回転角θの情報を得て、映像供給装置20に送出することで、映像供給装置20が頭部装着装置10の位置や向きの情報(より具体的には検出カメラ13の位置の情報)を演算できる。そして映像供給装置20は、ユーザーの手や腕の位置等、頭部装着装置10が、検出カメラ13の画像データに基づいて検出したユーザーの身体の部位の位置の情報を演算できることとなる。
本実施の形態によると、検出カメラ13によって撮像された画像データに基づいてユーザーの手の位置等を特定するので、コントローラに対する操作をさせることなくユーザーの動きを検出できる。
10 頭部装着装置、11 筐体、12 前面カメラ、13 検出カメラ、14 制御部、15 通信処理部、20 映像供給装置、30 中継装置、31 映像表示ユニット、32 映像表示処理部、41 特徴量演算部、42 第1検出部、43 領域検出部、44 第2検出部、45 位置データ生成部。

Claims (6)

  1. ユーザーの頭部に装着される筐体に取り付けられた撮像手段と、
    前記撮像手段により撮像された画像を受け入れて、当該画像から、ユーザーの身体の第1の部位に対応する第1の画像部分を検出し、当該検出した第1の画像部分における、所定の特徴量を取得する第1検出手段と、
    前記画像内の前記第1の画像部分を含み、前記所定の特徴量が連続的に変化する領域を特定する領域特定手段と、
    前記特定された領域内の画像部分から、前記第1の部位とは異なるユーザーの身体の第2の部位に対応する第2の画像部分を検出する第2検出手段と、
    を含む頭部装着装置。
  2. 請求項1に記載の頭部装着装置において、
    前記特徴量は、
    画像部分に撮像された対象と、前記撮像手段との距離に関する量である頭部装着装置。
  3. 請求項1に記載の頭部装着装置において、
    前記特徴量は、
    画像部分に撮像された対象物の法線方向を表す情報である頭部装着装置。
  4. 請求項1から3のいずれか一項に記載の頭部装着装置において、
    前記第2検出手段は、前記特定された領域の長さ方向の端部を、前記第2の部位に相当する第2の画像部分として検出する頭部装着装置。
  5. ユーザーの頭部に装着される筐体に取り付けられた撮像手段を備える頭部装着装置と接続されるコンピュータを、
    前記撮像手段により撮像された画像を受け入れて、当該画像から、ユーザーの身体の第1の部位に対応する第1の画像部分を検出し、当該検出した第1の画像部分における、所定の特徴量を取得する第1検出手段と、
    前記画像内の前記第1の画像部分を含み、前記所定の特徴量が連続的に変化する領域を特定する領域特定手段と、
    前記特定された領域内の画像部分から、前記第1の部位とは異なるユーザーの身体の第2の部位に対応する第2の画像部分を検出する第2検出手段と、
    として機能させるプログラム。
  6. ユーザーの頭部に装着される筐体に取り付けられた撮像手段を備える頭部装着装置と接続されるコンピュータを、
    前記撮像手段により撮像された画像を受け入れて、当該画像から、ユーザーの身体の第1の部位に対応する第1の画像部分を検出し、当該検出した第1の画像部分における、所定の特徴量を取得する第1検出手段と、
    前記画像内の前記第1の画像部分を含み、前記所定の特徴量が連続的に変化する領域を特定する領域特定手段と、
    前記特定された領域内の画像部分から、前記第1の部位とは異なるユーザーの身体の第2の部位に対応する第2の画像部分を検出する第2検出手段と、
    として機能させるためのプログラムを記憶した、コンピュータ読み取り可能な情報記憶媒体。
JP2016058692A 2016-03-23 2016-03-23 頭部装着装置 Pending JP2019113881A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016058692A JP2019113881A (ja) 2016-03-23 2016-03-23 頭部装着装置
US16/083,142 US10620436B2 (en) 2016-03-23 2017-02-09 Head-mounted apparatus
PCT/JP2017/004758 WO2017163647A1 (ja) 2016-03-23 2017-02-09 頭部装着装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016058692A JP2019113881A (ja) 2016-03-23 2016-03-23 頭部装着装置

Publications (1)

Publication Number Publication Date
JP2019113881A true JP2019113881A (ja) 2019-07-11

Family

ID=59901140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016058692A Pending JP2019113881A (ja) 2016-03-23 2016-03-23 頭部装着装置

Country Status (3)

Country Link
US (1) US10620436B2 (ja)
JP (1) JP2019113881A (ja)
WO (1) WO2017163647A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200080047A (ko) * 2018-12-26 2020-07-06 삼성전자주식회사 진정 사용자의 손을 식별하는 방법 및 이를 위한 웨어러블 기기

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242694A (ja) 2004-02-26 2005-09-08 Mitsubishi Fuso Truck & Bus Corp ハンドパターンスイッチ装置
WO2012147961A1 (ja) * 2011-04-28 2012-11-01 Necシステムテクノロジー株式会社 情報処理装置、情報処理方法及び記録媒体
US9389420B2 (en) 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
JP6116934B2 (ja) * 2012-09-06 2017-04-19 東芝アルパイン・オートモティブテクノロジー株式会社 アイコン操作装置
JP6217244B2 (ja) * 2013-08-29 2017-10-25 セイコーエプソン株式会社 画像処理装置、これを有する頭部装着型表示装置、画像処理方法およびコンピュータープログラム

Also Published As

Publication number Publication date
WO2017163647A1 (ja) 2017-09-28
US20190033589A1 (en) 2019-01-31
US10620436B2 (en) 2020-04-14

Similar Documents

Publication Publication Date Title
US10269139B2 (en) Computer program, head-mounted display device, and calibration method
US9569895B2 (en) Information processing apparatus, display control method, and program
US11184597B2 (en) Information processing device, image generation method, and head-mounted display
KR20150085797A (ko) 정보처리장치 및 정보처리방법
JP2018511098A (ja) 複合現実システム
JP5869712B1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
JP2013258614A (ja) 画像生成装置および画像生成方法
JP5656514B2 (ja) 情報処理装置及び方法
KR20110097639A (ko) 화상 처리 장치, 화상 처리 방법, 프로그램 및 화상 처리 시스템
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
CN109155055B (zh) 关注区域图像生成装置
JP2022122876A (ja) 画像表示システム
JP4580678B2 (ja) 注視点位置表示装置
KR101256046B1 (ko) 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템
JP2024050696A (ja) 情報処理装置、ユーザガイド提示方法、およびヘッドマウントディスプレイ
JP6723743B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2009258884A (ja) ユーザインタフェイス
WO2017163648A1 (ja) 頭部装着装置
WO2014111947A1 (en) Gesture control in augmented reality
JPH10198506A (ja) 座標検出システム
US11474595B2 (en) Display device and display device control method
WO2017163647A1 (ja) 頭部装着装置
JP6467039B2 (ja) 情報処理装置
JP2020177066A (ja) 観察状態表示システム、観察状態表示方法及びプログラム
JP6890524B2 (ja) 姿勢制御システム