JP7394046B2 - システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム - Google Patents
システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム Download PDFInfo
- Publication number
- JP7394046B2 JP7394046B2 JP2020195149A JP2020195149A JP7394046B2 JP 7394046 B2 JP7394046 B2 JP 7394046B2 JP 2020195149 A JP2020195149 A JP 2020195149A JP 2020195149 A JP2020195149 A JP 2020195149A JP 7394046 B2 JP7394046 B2 JP 7394046B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- user
- coordinate information
- imaging mode
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 290
- 230000010365 information processing Effects 0.000 title claims description 74
- 238000003672 processing method Methods 0.000 title description 9
- 238000012545 processing Methods 0.000 claims description 80
- 238000004364 calculation method Methods 0.000 claims description 75
- 238000000034 method Methods 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 12
- 238000004891 communication Methods 0.000 description 28
- 230000036544 posture Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 18
- 210000004247 hand Anatomy 0.000 description 10
- 210000003813 thumb Anatomy 0.000 description 7
- 210000003811 finger Anatomy 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 239000011521 glass Substances 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000002149 energy-dispersive X-ray emission spectroscopy Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
Description
特許文献1に記載のコントローラ(操作装置)は、ユーザーの左右の手で把持される左側把持部及び右側把持部と、当該コントローラの正面に配設された方向ボタン及び操作ボタンとを有する。
図1は、本発明の第1実施形態に係るシステム1の全体を示す模式図であり、図2は、システム1の概略的な構成を示すブロック図である。
図1Aに示すように、本実施形態に係るシステム1は、第1センサ装置であるHMDユニット20と、情報処理装置30と、コントローラ40と、表示装置50とを含むゲームシステムである。
情報処理装置30は、図2に示すように、HMDユニット20、コントローラ40、および表示装置50のぞれぞれと有線または無線のネットワークにより接続される。
システム1では、HMDユニット20、およびコントローラ40から送信される情報に応じて情報処理装置30がゲームを進行し、HMDユニット20および表示装置50が、情報処理装置30の実行時画面、例えばゲーム画面を表示する。
HMDユニット20は、ユーザーに関する座標情報を算出して出力することにより、コントローラ40と同様にユーザー操作を受け付けるための操作装置としても機能する。
図1Aに示すようにユーザーの頭部に装着して使用する場合、HMDユニット20は、表示装置の機能と、ユーザーの一人称視点で撮像する第1撮像モードによる撮像を行う撮像装置の機能とを有し、ユーザーの頭部に着脱可能に構成される。図1Aの例に示すように、HMDユニット20は、HMDユニット20をユーザーの体に装着可能な装着部20Aによりユーザーの頭部に装着可能に構成される。なお、HMDユニット20および装着部20Aは、図1Aの例のようにバンド型であってもよいし、ヘルメット型やメガネ型などどのような構成であってもよい。また、HMDユニット20の装着に際しては、例えば、情報処理装置30によってHMDユニット20にチュートリアルなどを表示することにより、ユーザーが装着部20AによりHMDユニット20を適切に装着するよう案内するとよい。
HMDユニット20を頭部に装着して第1撮像モードによる撮像を行うか、または、HMDユニット20をテーブル等に載置して第2撮像モードによる撮像を行うかは、プレイ対象のゲームの内容等の目的に応じて異なる。
図3は、本発明の一実施形態に係るシステム1におけるHMDユニット20の概略的な構成を示すブロック図である。
HMDユニット20は、第1撮像装置であるRGBカメラ21と、IMU(Inertial Measurement Unit)23と、第1の演算処理装置として機能する算出部24と、情報出力部25と、受信部26と、表示部27とを含む。
RGBカメラ21は、第1画像センサであるイメージセンサ211と、イメージセンサ211に接続される処理回路212とを含む。イメージセンサ211は、例えば所定の周期で、またはユーザー操作に応じた所定のタイミングで全ピクセル(全画素)を同期的にスキャンすることによって第1画像信号であるRGB画像信号213を生成する。処理回路212は、例えばRGB画像信号213を保存および伝送に適した形式に変換する。また、処理回路212は、RGB画像信号213にタイムスタンプを与える。
なお、本明細書では、当該信号に基づいて画像を構築可能な信号を画像信号という。したがって、RGB画像信号213は、画像信号の一例を示す。
算出部24の座標算出部241は、例えば、RGB画像信号213に基づいて被写体認識を行うことによりユーザーを認識する。HMDユニット20の被写界に複数のユーザーが含まれる場合、座標算出部241は、それぞれのユーザーを識別する。
そして、座標算出部241は、認識したユーザーごとに、学習済みモデル242に基づいて、RGB画像信号213からユーザーが有する複数の関節の位置を示す座標情報を算出する。ユーザーが有する複数の関節の位置は、ユーザーの姿勢に関する特徴点、ユーザーの腕の形状に関する特徴点、またはユーザーの手指の形状に関する特徴点に相当する。
学習済みモデル242は、例えば、複数の関節を有する人物の画像を入力データとし、人物の複数の関節の位置を示す座標情報を正解データとした教師あり学習を実行することによって予め構築することができる。なお、機械学習の具体的な手法については、公知の各種の技術を利用可能であるため詳細な説明は省略する。また、算出部24に関係性学習部を備え、RGB画像信号213が入力される度に、入力されたRGB画像信号213に基づく画像と関節の位置を示す座標情報との関係性を学習して学習済みモデル242を更新する構成としてもよい。
情報出力部25は、算出部24により算出したユーザーに関する座標情報と、IMU23により取得した姿勢情報とを情報処理装置30に出力する。
表示部27は、例えばLCD(Liquid Crystal Display)や有機ELなどの表示素子と、レンズなどの光学装置とを備え、受信部26により受信した情報に基づき、表示画像を表示することにより、ユーザーに提示することが可能である。なお、表示部27の表示素子は、透過型の表示素子であってもよいし、非透過型の表示素子であってもよい。
また、HMDユニット20の筐体に着脱可能なスマートフォンなどの端末装置を表示装置として使用してもよい。さらに、AR(Augmented Reality)グラス、MR(Mixed Reality)グラスなどの装着型デバイスをHMDユニット20として使用してもよい。
第1撮像モードでは、図4Aに示すように、主にユーザーの手元が被写界に収まり、ユーザーから見て、手元の背後(後方)において、表示装置50が被写界に収まる場合もある。また、第1撮像モードでは、ユーザーの頭部は被写界に収まらず、例えばユーザーが両腕を上げたり、肩の近傍で手指によりポーズをとったりしている場合には、それらの部分は被写界に収まらない。
一方、第2撮像モードでは、図4Bに示すように、主にユーザーの上半身および手元が被写界に収まり、ユーザーが腕や手指によりポーズをとっている場合に、その略すべてが被写界に収まる。また、第2撮像モードでは、表示装置50は被写界に収まらない。
したがって、本実施形態の第1撮像モードおよび第2撮像モードでは、生成される画像信号に基づく画像データに含まれる被写体が異なる。
判定部321は、例えば、HMDユニット20から出力された座標情報のうち、ユーザーの姿勢に関する特徴点の座標情報に基づく認識を行い、座標情報にユーザーの顔または頭部が含まれる場合には、HMDユニット20により第2撮像モードで撮像が行われていると判定することができる。同様に、判定部321は、例えば、座標情報のうち、ユーザーの腕の形状に関する特徴点の座標情報に基づく認識を行い、座標情報において、ユーザーの手や拳がユーザーの腕よりも手前に存在する場合には、HMDユニット20により第2撮像モードで撮像が行われていると判定することができる。
反対に、HMDユニット20から出力された座標情報にユーザーの顔または頭部が含まれない場合、および座標情報において、ユーザーの手や拳がユーザーの腕よりも後方に存在する場合には、判定部321はHMDユニット20により第1撮像モードで撮像が行われていると判定することができる。
また、上述した判定方法については、予め定められてもよいし、ユーザーにより設定可能としてもよい。さらに、その他の情報を組み合わせて判定を行ってもよい。例えば、HMDユニット20のIMU23により取得される姿勢情報を利用してもよい。例えば、IMU23による姿勢情報に基づいて、ユーザーとHMDユニット20との相対的な位置関係を検出し、検出した位置関係を撮像モードの判定に用いてもよい。また、HMDユニット20のIMU23により取得される姿勢情報のみに基づいて撮像モードの判定を行ってもよい。
さらに、装着部20AによるHMDユニット20の装着状態を検出する装着センサをHMDユニット20に備え、装着センサにより検出した装着状態に応じて判定を行ってもよい。例えば、装着状態が「HMDユニット20がユーザーに装着されている」ことを示す場合には第1撮像モードで撮像が行われていると判定し、装着状態が「HMDユニット20がユーザーに装着されていない」ことを示す場合には第2撮像モードで撮像が行われていると判定してもよい。装着センサは、装着部20Aの構成に応じて、例えば、接触センサ、着脱センサ、スイッチなどにより構成することができる。また、装着センサに代えて、または加えて、HMDユニット20がテーブルなどに載置されているか否かを検出する接触センサおよび姿勢センサなどを備えてもよい。
HMDユニット20により第1撮像モードで撮像が行われている場合、図4Aに示すように、ユーザーは手のひらを頭部に装着したHMDユニット20の方に向ける。そのため、HMDユニット20から出力された座標情報においては、ユーザーの両手の親指が外側に向くことになる。
一方、HMDユニット20により第2撮像モードで撮像が行われている場合、図4Bに示すように、ユーザーは手のひらをテーブル等に載置したHMDユニット20の方に向ける。そのため、HMDユニット20から出力された座標情報においては、ユーザーの両手の親指が内側に向くことになる。
いずれの場合も、手が上向きであるか下向きであるか、および腕が交差しているか否か等を組み合わせて判定を行うことにより、より正確な判定を行うことができる。
また、制御値の算出、および表示画像の生成の詳細については、後述するコントローラ40および表示装置50の構成の説明と関連して説明を行う。
通信部41は、情報処理装置30の通信部31から出力された制御値を受信して、力覚提示部43、振動部44、および音声出力部45の各部に出力する。また、通信部41は、操作部42により受け付けたユーザー操作に関する情報を、情報処理装置30に出力する。
操作部42は、ボタンおよびパッドなどの複数の操作子を備え、操作子に対するユーザーの操作入力を受け付ける。
力覚提示部43は、操作部42の少なくとも一部の操作子に設けられ、情報処理装置30から供給される制御値にしたがい、ユーザー操作に抗する、あるいは連動する力をユーザーに提示する。具体的に、力覚提示部43は、回転するロータを含むモータやアクチュエータ等で構成できる。力覚提示部43を構成する力覚提示装置については広く知られたものを採用できるので、ここでの詳しい説明を省略する。
音声出力部45は、情報処理装置30から供給される制御値にしたがい、音声を出力するものであり、例えばスピーカにより構成できる。音声出力部45は、ユーザー操作が行われた場合に音声を出力することにより、ユーザー操作が正しく行われ、情報処理装置30に認識されたことをユーザーに通知することが可能である。
なお、上述した力覚提示部43による力覚の提示と連動して、振動部44による振動と、音声出力部45による音声出力との少なくとも一方が行われることにより、ユーザーへのフィードバック制御の多様性を高めることが可能である。
判定部321により第1撮像モードと判定された場合、制御値算出部322は、HMDユニット20による第1撮像モードでの撮像に基づく座標情報に基づいて、コントローラ40へのフィードバック制御の制御値を算出する。したがって、HMDユニット20による第1撮像モードの撮像に基づく第1の処理を行うことができる。
一方、判定部321により第2撮像モードと判定された場合、制御値算出部322は、HMDユニット20による第2撮像モードでの撮像に基づく座標情報に基づいて、コントローラ40へのフィードバック制御の制御値を算出する。したがって、HMDユニット20による第2撮像モードの撮像に基づく第2の処理を行うことができる。
また、コントローラ40に、音声入力部を備え、音声認識技術を適用してもよい。例えば、コントローラ40にマイクなどの音声入力部と音声認識部とを備え、ユーザーが発声するコマンドや、ユーザーの呼びかけなどを示す情報を、通信部41を介して情報処理装置30に供給してもよい。
受信部51は、情報処理装置30の画像生成部323が生成した表示画像を示す情報を、通信部31を介して受信する。
表示部52は、例えばLCDや有機ELなどのモニタを備え、受信部51により受信した情報に基づき、表示画像を表示することにより、ユーザーに提示することが可能である。
判定部321により第1撮像モードと判定された場合、制御値算出部322は、HMDユニット20による第1撮像モードでの撮像に基づく座標情報に基づいて、表示画像へのフィードバック制御の制御値を算出する。したがって、HMDユニット20による第1撮像モードの撮像に基づく第1の処理を行うことができる。
一方、判定部321により第2撮像モードと判定された場合、制御値算出部322は、HMDユニット20による第2撮像モードでの撮像に基づく座標情報に基づいて、表示画像へのフィードバック制御の制御値を算出する。したがって、HMDユニット20による第2撮像モードの撮像に基づく第2の処理を行うことができる。
制御値算出部322は、ユーザー操作に応じたフィードバック制御として表示画像をどのように変化させるかを示す制御値を算出する。制御値算出部322による制御値の算出は、予め定められた計算式やテーブル等にしたがって行うことができる。
そして、算出部24がユーザーに関する座標情報を算出し(ステップS102)、情報出力部25が座標情報、および姿勢情報を出力する(ステップS103)。
HMDユニット20はステップS101からステップS103の処理を繰り返すことにより、ユーザーの状態を示す各種情報を情報処理装置30に継続的に供給することが可能である。
そして、判定部321が、HMDユニット20から出力された座標情報にユーザーの顔または頭が含まれるか否かを判定し(ステップS202)、座標情報にユーザーの顔または頭が含まれないと判定した場合(ステップS202NO)には後述するステップS204に進み、座標情報にユーザーの顔または頭が含まれると判定した場合(ステップS202YES)には、判定部321が第2撮像モードであると判定する(ステップS203)。
座標情報においてユーザーの手が腕より手前にないと判定した場合(ステップS204NO)には、判定部321が第1撮像モードであると判定する(ステップS205)。
図7に図示された例では、制御部32は、HMDユニット20の表示部27、および表示装置50の表示部52にユーザーに特定のポーズをとることを促すメッセージを表示する(ステップS301)。ここでは例えば「両手の手のひらを見せてください」とのメッセージを表示する。
次に、通信部31がHMDユニット20から供給された各種情報を再び取得する(ステップS302)。そして、判定部321が、HMDユニット20から出力された座標情報においてユーザーの親指が外側を向いているか否かを判定し(ステップS303)、座標情報においてユーザーの親指が外側を向いていると判定した場合(ステップS303YES)には、判定部321が第1撮像モードであると判定し(ステップS304)、座標情報においてユーザーの親指が外側を向いていないと判定した場合(ステップS303NO)には、判定部321が第2撮像モードであると判定する(ステップS305)。
また、第1実施形態のHMDユニット20は、ユーザーに関する座標情報を算出することによりユーザー操作を受け付けることができるため、従来のポインティングデバイス方式の操作装置のようにカーソル位置を維持するためにユーザーの肉体疲労を引き起こすこともない。また、HMDユニット20は、従来の姿勢検出方式の操作装置のように認識対象となるマーカーやアタッチメントをユーザーに装着させる必要もない。
以下、図面を参照して本発明の第2実施形態について説明する。第2実施形態では、第1実施形態と異なる部分についてのみ説明し、第1実施形態と同様の部分については説明を省略する。また、第2実施形態においては、第1実施形態と実質的に同一の機能構成を有する構成要素については、同一の符号を付す。
図8は、本発明の第2実施形態に係るシステム2の全体を示す模式図であり、図9は、システム2の概略的な構成を示すブロック図である。
第2実施形態に係るシステム2は、図8に示すように、第1実施形態のシステム1に加えて、第2センサ装置であるカメラユニット60を含むゲームシステムである。また、システム2は、第1実施形態のシステム1の情報処理装置30に代えて、情報処理装置70を含む。
カメラユニット60は、第1実施形態で説明した第2撮像モードによる撮像を行うための撮像装置である。カメラユニット60の最適な配置に関しては、第1実施形態のHMDユニット20が第2撮像モードで撮像を行う場合と同様である。
カメラユニット60は、RGBカメラ61と、IMU63と、第1の演算処理装置として機能する算出部64と、情報出力部65とを含む。RGBカメラ61、IMU63、算出部64、情報出力部65の各部は、それぞれ第1実施形態のHMDユニット20のRGBカメラ21、IMU23、算出部24、情報出力部25の各部と同様の構成を有する。
そして、RGBカメラ61は、第1実施形態のRGBカメラ21のイメージセンサ211および処理回路212と同様の構成を有するイメージセンサ611および処理回路612によって、RGB画像信号613を生成する。
算出部64は、第1実施形態の算出部24の座標算出部241および学習済みモデル242と同様の構成を有する座標算出部641および学習済みモデル642により、RGBカメラ61において生成されたRGB画像信号613に基づいて、ユーザーに関する座標情報を算出する。
情報出力部65は、算出部64により算出したユーザーに関する座標情報と、IMU63により取得した姿勢情報とを情報処理装置70に出力する。
図11は、第2実施形態における撮像モードについて説明する図である。第2実施形態のシステム2は、HMDユニット20により第1撮像モードの撮像を行い、カメラユニット60により第2撮像モードの撮像を行う。
したがって、第1実施形態と同様に、第2実施形態の第1撮像モードおよび第2撮像モードでは、生成される画像信号に基づく画像データに含まれる被写体が異なる。
通信部71は、HMDユニット20の情報出力部25から出力されたユーザーに関する座標情報とおよび姿勢情報に加えて、カメラユニット60の情報出力部65から出力されたユーザーに関する座標情報と、姿勢情報とを受信し、HMDユニット20の表示部27に表示させる表示画像を出力する。なお、以降では区別のために、HMDユニット20の情報出力部25から出力されたユーザーに関する座標情報を座標情報C20と称し、カメラユニット60の情報出力部65から出力されたユーザーに関する座標情報を座標情報C60と称する。
判定部721は、HMDユニット20から出力された座標情報C20またはカメラユニット60から出力された座標情報C60に基づいて、第1撮像モードおよび第2撮像モードのいずれによる撮像が行われているかを判定する。判定は第1実施形態の情報処理装置30と同様に行われる。
情報処理装置70の制御値算出部722は、上述したように、コントローラ40へのフィードバック制御の制御値を算出するが、判定部721により第1撮像モードと判定された場合、制御値算出部722は、HMDユニット20から出力された座標情報C20に基づいて、コントローラ40へのフィードバック制御の制御値を算出する。HMDユニット20から出力された座標情報C20を用いて制御値を算出することにより、HMDユニット20を操作装置とした第1撮像モードに基づく第1の処理を行うことができる。
一方、判定部721により第2撮像モードと判定された場合、制御値算出部722は、カメラユニット60から出力された座標情報C60に基づいて、コントローラ40へのフィードバック制御の制御値を算出する。カメラユニット60から出力された座標情報C60を用いて制御値を算出することにより、カメラユニット60を操作装置とした第2撮像モードに基づく第2の処理を行うことができる。
情報処理装置70の制御値算出部722は、上述したように、HMDユニット20の表示部27、および表示装置50の表示部52に表示する表示画像へのフィードバック制御の制御値を算出するが、判定部721により第1撮像モードと判定された場合、制御値算出部722は、HMDユニット20から出力された座標情報C20に基づいて、表示画像へのフィードバック制御の制御値を算出する。HMDユニット20から出力された座標情報C20を用いて制御値を算出することにより、HMDユニット20を操作装置とした第1撮像モードに基づく処理を行うことができる。
一方、判定部721により第2撮像モードと判定された場合、制御値算出部722は、カメラユニット60から出力された座標情報C60に基づいて、表示画像へのフィードバック制御の制御値を算出する。カメラユニット60から出力された座標情報C60を用いて制御値を算出することにより、カメラユニット60を操作装置とした第2撮像モードに基づく処理を行うことができる。
判定部721が、カメラユニット60から出力された座標情報C60にユーザーの顔または頭が含まれるか否かを判定し(ステップS402)、座標情報C60にユーザーの顔または頭が含まれないと判定した場合(ステップS402NO)には後述するステップS405に進み、座標情報C60にユーザーの顔または頭が含まれると判定した場合(ステップS402YES)には、カメラユニット60から出力された座標情報C60が使用可能か否かを判定する(ステップS403)。座標情報C60が使用可能か否かは、例えば座標情報C60に基づく制御値の算出が可能か否かに基づいて判定することができる。座標情報C60が使用可能と判定した場合(ステップS403YES)は、判定部721が第2撮像モードであると判定する(ステップS404)。一方、座標情報C60が使用可能でないと判定した場合(ステップS403NO)は、判定部721が撮像モードの判定を行うことができないため、ステップS401に戻る。
判定部721が、座標情報C60においてユーザーの手が腕より手前にないと判定した場合(ステップS405NO)、HMDユニット20から出力された座標情報C20が使用可能か否かを判定する(ステップS406)。座標情報C20が使用可能か否かは、座標情報C20に基づく制御値の算出が可能か否かに基づいて判定することができる。座標情報C20が使用可能と判定した場合(ステップS406YES)は、判定部721が第1撮像モードであると判定する(ステップS407)。一方、座標情報C20が使用可能でないと判定した場合(ステップS406NO)は、判定部721が撮像モードの判定を行うことができないため、ステップS401に戻る。
例えば、ユーザーに「両手の手のひらを見せるポーズ」を促す場合、判定部721は、HMDユニット20から出力された座標情報C20においてユーザーの親指が外側を向いているか否かと、カメラユニット60から出力された座標情報C60においてユーザーの親指が内側を向いているか否かとの少なくとも一方を判定することにより撮像モードの判定を行うことができる。
以下、図面を参照して本発明の第3実施形態について説明する。第3実施形態では、第1実施形態と異なる部分についてのみ説明し、第1実施形態と同様の部分については説明を省略する。また、第3実施形態においては、第1実施形態と実質的に同一の機能構成を有する構成要素については、同一の符号を付す。
第3実施形態に係るシステム3は、図示を省略するが、第1実施形態のシステム1と同様の情報処理装置30と、コントローラ40と、表示装置50とを含むとともに、システム1のHMDユニット20に代えて、HMDユニット80を含むゲームシステムである。
HMDユニット80は、第1実施形態のシステム1のHMDユニット20と同様に、RGBカメラ81と、IMU83と、第1の演算処理装置として機能する算出部84と、情報出力部85と、受信部86と、表示部87とを含むとともに、第2撮像装置であるEDS(Event Driven Sensor)82を含む。RGBカメラ81、IMU83、算出部84、情報出力部85、受信部86、表示部87の各部は、それぞれ第1実施形態のHMDユニット20のRGBカメラ21、IMU23、算出部24、情報出力部25、受信部26、表示部27の各部と同様の構成を有する。
RGBカメラ81は、第1実施形態のRGBカメラ21のイメージセンサ211および処理回路212と同様の構成を有するイメージセンサ811および処理回路812によって、RGB画像信号813を生成する。
なお、本明細書では、上述したように、当該信号に基づいて画像を構築可能な信号を画像信号という。したがって、RGB画像信号813およびイベント信号823は、画像信号の一例を示す。
算出部84の座標算出部841は、例えば、イベント信号823において同じ極性のイベントが発生していることが示される連続した画素領域に存在するオブジェクトを検出し、RGB画像信号813の対応する部分に基づいて被写体認識を行うことによりユーザーを認識する。カメラユニット60の被写界に複数のユーザーが含まれる場合、座標算出部841は、それぞれのユーザーを識別する。
そして、座標算出部841は、認識したユーザーごとに、学習済みモデル842に基づいて、RGB画像信号813からユーザーが有する複数の関節の位置を示す座標情報を算出する。ユーザーが有する複数の関節の位置は、ユーザーの姿勢に関する特徴点、ユーザーの腕の形状に関する特徴点、またはユーザーの手指の形状に関する特徴点に相当する。
学習済みモデル842については、第1実施形態と同様であるため説明を省略する。
受信部86および表示部87は、第1実施形態のHMDユニット20の受信部26および表示部27と同様の構成を有する。
そして、算出部84がユーザーに関する座標情報を算出し(ステップS503)、情報出力部85が座標情報および姿勢情報を出力する(ステップS504)。
HMDユニット80はステップS501からステップS504の処理を繰り返すことにより、ユーザーの状態を示す各種情報を情報処理装置30に継続的に供給することが可能である。
以下、図面を参照して本発明の第4実施形態について説明する。第4実施形態では、第1実施形態と異なる部分についてのみ説明し、第1実施形態と同様の部分については説明を省略する。また、第4実施形態においては、第1実施形態と実質的に同一の機能構成を有する構成要素については、同一の符号を付す。
図15は、第4実施形態に係るシステム4の概略的な構成を示すブロック図である。
第4実施形態に係るシステム4は、図15に示すように、第1実施形態のシステム1の情報処理装置30に代えて、サーバ90および端末装置100を含むゲームシステムである。
このような構成により、RGB画像信号213の生成から座標情報の算出までをHMDユニット20で行い、サーバ90には座標情報のみを出力することにより、クラウドサーバなどのサーバを用いたゲームシステムにおいても同様の効果を得ることができる。
さらに、第2実施形態で説明したシステム2および第3実施形態で説明したシステム3についても、同様にサーバを適用することにより、同様の効果を得ることができる。
Claims (17)
- 所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、前記ユーザーの三人称視点から前記ユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像装置と、
前記第1画像信号に基づいて前記ユーザーを認識し、前記第1画像信号に基づいて、前記ユーザーに関する座標情報を算出する第1の演算処理装置と、
前記座標情報に基づいて、前記第1撮像モード、および、前記第2撮像モードのいずれによる撮像が行われているかを判定する第2の演算処理装置と、
前記第1撮像モードと判定された場合には、前記第1撮像モードにおいて算出された前記座標情報に基づいて第1の処理を行い、前記第2撮像モードと判定された場合には、前記第2撮像モードにおいて算出された前記座標情報に基づいて第2の処理を行う第3の演算処理装置と、を備えるシステム。 - 前記座標情報は、前記ユーザーの姿勢に関する特徴点、前記ユーザーの腕の形状に関する特徴点、または前記ユーザーの手指の形状に関する特徴点の少なくともいずれかの座標情報を含む、請求項1に記載のシステム。
- 前記第1の演算処理装置は、複数の関節を有する人物の画像と、前記複数の関節の位置を示す座標情報との関係性を学習することによって構築された学習済みモデルに基づいて、前記ユーザーの少なくとも1つの関節を前記特徴点とした前記座標情報を算出する、請求項2に記載のシステム。
- 少なくとも前記撮像装置を前記ユーザーの体に装着可能な装着部を備える、請求項1から請求項3のいずれか1項に記載のシステム。
- 前記装着部は、前記撮像装置を前記ユーザーの頭部に装着可能である、請求項4に記載のシステム。
- 前記撮像装置と、前記第1の演算処理装置と含むセンサ装置と、
前記第2の演算処理装置および前記第3の演算処理装置を含む情報処理装置と、を含むシステムであって、
前記センサ装置は、前記座標情報を前記情報処理装置に出力する、請求項4または請求項5に記載のシステム。 - 前記撮像装置は、前記第1撮像モードで撮像を行う第1撮像装置と、前記第2撮像モードで撮像を行う第2撮像装置とを含み、
前記第2の演算処理装置は、前記第1撮像装置および前記第2撮像装置のいずれにより撮像が行われているかを判定し、
前記第3の演算処理装置は、前記第1撮像装置と判定された場合には、前記第1撮像装置により生成された前記第1画像信号に基づいて算出された前記座標情報に基づいて前記第1の処理を行い、前記第2撮像装置と判定された場合には、前記第2撮像装置により生成された前記第1画像信号に基づいて算出された前記座標情報に基づいて前記第2の処理を行う、請求項1から請求項3のいずれか1項に記載のシステム。 - 少なくとも前記第1撮像装置を前記ユーザーの体に装着可能な装着部を備える、請求項7に記載のシステム。
- 前記装着部は、前記第1撮像装置を前記ユーザーの頭部に装着可能である、請求項8に
記載のシステム。 - 前記第1撮像装置と、前記第1の演算処理装置と含む第1センサ装置と、
前記第2撮像装置と、前記第1の演算処理装置と含む第2センサ装置と、
前記第2の演算処理装置および前記第3の演算処理装置を含む情報処理装置と、を含むシステムであって、
前記第1センサ装置および前記第2センサ装置は、前記座標情報を前記情報処理装置に出力する、請求項7から請求項9のいずれか1項に記載のシステム。 - 前記撮像装置は、前記第1画像センサに加えて、画素ごとに入射する光の強度変化を検出したときに非同期的に第2画像信号を生成するイベント駆動型のビジョンセンサを含む第2画像センサを含み、
前記第1の演算処理装置は、前記第1画像信号および前記第2画像信号に基づいて、前記ユーザーの認識と、前記座標情報の算出との少なくとも一方を行う、請求項1から請求項10のいずれか1項に記載のシステム。 - 所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、前記ユーザーの三人称視点から前記ユーザーを撮像する第2撮像モードのいずれかにより撮像を行う1つの撮像部と、
前記第1画像信号に基づいて前記ユーザーを認識し、前記第1画像信号に基づいて、前記ユーザーに関する座標情報を算出する演算処理部と、
前記座標情報を出力する情報出力部と、を備える撮像装置。 - 前記座標情報は、前記ユーザーの姿勢に関する特徴点、前記ユーザーの腕の形状に関する特徴点、または前記ユーザーの手指の形状に関する特徴点の少なくともいずれかの座標情報を含む、請求項12に記載の撮像装置。
- 前記演算処理部は、複数の関節を有する人物の画像と、前記複数の関節の位置を示す座標情報との関係性を学習することによって構築された学習済みモデルに基づいて、前記ユーザーの少なくとも1つの関節を前記特徴点とした前記座標情報を算出する、請求項13に記載の撮像装置。
- 所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、前記ユーザーの三人称視点から前記ユーザーを撮像する第2撮像モードのいずれかにより撮像を行い、前記第1画像信号に基づいて前記ユーザーを認識し、前記第1画像信号に基づいて前記ユーザーに関する座標情報を算出し、前記座標情報を出力する撮像装置から、前記座標情報を取得する取得部と、
前記座標情報に基づいて、前記第1撮像モード、および、前記第2撮像モードのいずれによる撮像が行われているかを判定する第1の演算処理部と、
前記第1撮像モードと判定された場合には、前記第1撮像モードにおいて算出された前記座標情報に基づいて第1の処理を行い、前記第2撮像モードと判定された場合には、前記第2撮像モードにおいて算出された前記座標情報に基づいて第2の処理を行う第2の演算処理部と、を備える情報処理装置。 - 所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、前記ユーザーの三人称視点から前記ユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像装置から、前記第1画像信号を取得する取得ステップと、
前記第1画像信号に基づいて前記ユーザーを認識し、前記第1画像信号に基づいて、前記ユーザーに関する座標情報を算出する算出ステップと、
前記座標情報に基づいて、前記第1撮像モード、および、前記第2撮像モードのいずれによる撮像が行われているかを判定する判定ステップと、
前記第1撮像モードと判定された場合には、前記第1撮像モードにおいて算出された前記座標情報に基づいて第1の処理を行い、前記第2撮像モードと判定された場合には、前記第2撮像モードにおいて算出された前記座標情報に基づいて第2の処理を行う処理ステップと
を含む情報処理方法。 - 所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、前記ユーザーの三人称視点から前記ユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像装置から、前記第1画像信号を取得する機能と、
前記第1画像信号に基づいて前記ユーザーを認識し、前記第1画像信号に基づいて、前記ユーザーに関する座標情報を算出する機能と、
前記座標情報に基づいて、前記第1撮像モード、および、前記第2撮像モードのいずれによる撮像が行われているかを判定する機能と、
前記第1撮像モードと判定された場合には、前記第1撮像モードにおいて算出された前記座標情報に基づいて第1の処理を行い、前記第2撮像モードと判定された場合には、前記第2撮像モードにおいて算出された前記座標情報に基づいて第2の処理を行う機能と
をコンピュータに実現させる情報処理プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020195149A JP7394046B2 (ja) | 2020-11-25 | 2020-11-25 | システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム |
US18/253,070 US20230353860A1 (en) | 2020-11-25 | 2021-11-16 | System, imaging apparatus, information processing apparatus, information processing method, and information processing program |
PCT/JP2021/042137 WO2022113834A1 (ja) | 2020-11-25 | 2021-11-16 | システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム |
EP21897808.8A EP4252871A1 (en) | 2020-11-25 | 2021-11-16 | System, imaging device, information processing device, information processing method, and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020195149A JP7394046B2 (ja) | 2020-11-25 | 2020-11-25 | システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022083680A JP2022083680A (ja) | 2022-06-06 |
JP2022083680A5 JP2022083680A5 (ja) | 2023-03-30 |
JP7394046B2 true JP7394046B2 (ja) | 2023-12-07 |
Family
ID=81755960
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020195149A Active JP7394046B2 (ja) | 2020-11-25 | 2020-11-25 | システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230353860A1 (ja) |
EP (1) | EP4252871A1 (ja) |
JP (1) | JP7394046B2 (ja) |
WO (1) | WO2022113834A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014115457A (ja) | 2012-12-10 | 2014-06-26 | Sony Corp | 情報処理装置および記録媒体 |
JP2014127987A (ja) | 2012-12-27 | 2014-07-07 | Sony Corp | 情報処理装置および記録媒体 |
US20150109528A1 (en) | 2013-10-21 | 2015-04-23 | Postech Academy-Industry Foundation | Apparatus and method for providing motion haptic effect using video analysis |
JP2019213764A (ja) | 2018-06-14 | 2019-12-19 | 株式会社バンダイナムコスタジオ | シミュレーションシステム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5100324B2 (ja) | 2007-11-16 | 2012-12-19 | 株式会社ソニー・コンピュータエンタテインメント | ゲームシステムおよびゲームコントローラ |
-
2020
- 2020-11-25 JP JP2020195149A patent/JP7394046B2/ja active Active
-
2021
- 2021-11-16 EP EP21897808.8A patent/EP4252871A1/en active Pending
- 2021-11-16 WO PCT/JP2021/042137 patent/WO2022113834A1/ja unknown
- 2021-11-16 US US18/253,070 patent/US20230353860A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014115457A (ja) | 2012-12-10 | 2014-06-26 | Sony Corp | 情報処理装置および記録媒体 |
JP2014127987A (ja) | 2012-12-27 | 2014-07-07 | Sony Corp | 情報処理装置および記録媒体 |
US20150109528A1 (en) | 2013-10-21 | 2015-04-23 | Postech Academy-Industry Foundation | Apparatus and method for providing motion haptic effect using video analysis |
JP2019213764A (ja) | 2018-06-14 | 2019-12-19 | 株式会社バンダイナムコスタジオ | シミュレーションシステム |
Also Published As
Publication number | Publication date |
---|---|
EP4252871A1 (en) | 2023-10-04 |
US20230353860A1 (en) | 2023-11-02 |
JP2022083680A (ja) | 2022-06-06 |
WO2022113834A1 (ja) | 2022-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017077918A1 (ja) | 情報処理装置、情報処理システム、および情報処理方法 | |
JP7095602B2 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
JP2003337963A (ja) | 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体 | |
KR20220120649A (ko) | 인공 현실 콘텐츠의 가변 초점 디스플레이를 갖는 인공 현실 시스템 | |
US11086392B1 (en) | Devices, systems, and methods for virtual representation of user interface devices | |
JP2010108500A (ja) | 着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法 | |
US20210089162A1 (en) | Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user | |
US10978019B2 (en) | Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium | |
US11443540B2 (en) | Information processing apparatus and information processing method | |
US11630520B1 (en) | Systems and methods for sensing gestures via vibration-sensitive wearables donned by users of artificial reality systems | |
WO2017130514A1 (ja) | 情報処理装置、情報処理方法、およびプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
KR20150040580A (ko) | 가상 공간 멀티 터치 인터랙션 장치 및 방법 | |
US20210109606A1 (en) | Automatic Switching between Different Modes of Tracking User Motions to Control Computer Applications | |
JP2007034628A (ja) | 画像処理方法及び装置 | |
US11137600B2 (en) | Display device, display control method, and display system | |
JP7394046B2 (ja) | システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム | |
JP7300436B2 (ja) | 情報処理装置、システム、情報処理方法および情報処理プログラム | |
JP7434207B2 (ja) | システム、情報処理方法および情報処理プログラム | |
WO2019054037A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7513564B2 (ja) | システム、情報処理方法および情報処理プログラム | |
WO2023238678A1 (ja) | 情報処理装置、コントローラ表示方法およびコンピュータプログラム | |
WO2023157498A1 (ja) | 情報処理装置、デバイス速度推定方法およびデバイス位置推定方法 | |
WO2023275919A1 (ja) | ウェアラブル端末装置、プログラムおよび表示方法 | |
TW202414033A (zh) | 追蹤系統、追蹤方法及自追蹤追蹤器 | |
EP3734415A1 (en) | Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230322 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230322 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7394046 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |