JP7394046B2 - システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム - Google Patents

システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
JP7394046B2
JP7394046B2 JP2020195149A JP2020195149A JP7394046B2 JP 7394046 B2 JP7394046 B2 JP 7394046B2 JP 2020195149 A JP2020195149 A JP 2020195149A JP 2020195149 A JP2020195149 A JP 2020195149A JP 7394046 B2 JP7394046 B2 JP 7394046B2
Authority
JP
Japan
Prior art keywords
imaging
user
coordinate information
imaging mode
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020195149A
Other languages
English (en)
Other versions
JP2022083680A5 (ja
JP2022083680A (ja
Inventor
直之 宮田
英樹 柳澤
麻美子 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2020195149A priority Critical patent/JP7394046B2/ja
Priority to US18/253,070 priority patent/US20230353860A1/en
Priority to PCT/JP2021/042137 priority patent/WO2022113834A1/ja
Priority to EP21897808.8A priority patent/EP4252871A1/en
Publication of JP2022083680A publication Critical patent/JP2022083680A/ja
Publication of JP2022083680A5 publication Critical patent/JP2022083680A5/ja
Application granted granted Critical
Publication of JP7394046B2 publication Critical patent/JP7394046B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Description

本発明は、システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラムに関する。
従来、コンピュータやゲーム装置等の情報処理装置に接続され、当該情報処理装置に操作信号を送信する操作装置が知られている(例えば、特許文献1参照)。
特許文献1に記載のコントローラ(操作装置)は、ユーザーの左右の手で把持される左側把持部及び右側把持部と、当該コントローラの正面に配設された方向ボタン及び操作ボタンとを有する。
米国特許出願公開第2009/0131171号明細書
ところで、上記特許文献1に記載されたコントローラ等は、ユーザーの左右の手で把持されるものであるため、ユーザーの動きの自由度が低下するという問題がある。そこで、ユーザーの身体の動きであるジェスチャーおよび音声認識を行う操作装置を用いる技術も考えられているが、ポインティングデバイス方式の操作装置ではカーソル位置を維持するためにユーザーの肉体疲労を引き起こす場合がある。また、姿勢検出方式の操作装置では認識対象となるマーカーやアタッチメントをユーザーに装着させる必要があり、いずれの場合もユーザーの利便性には問題がある。
そこで、本発明は、ユーザーにとって利便性が高く、正確に撮像モードに応じた処理を行うことができるシステム、撮像装置、情報処理装置、情報処理方法および情報処理プログラムを提供することを目的とする。
本発明のある観点によれば、所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、ユーザーの三人称視点からユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像装置と、第1画像信号に基づいてユーザーを認識し、第1画像信号に基づいて、ユーザーに関する座標情報を算出する第1の演算処理装置と、座標情報に基づいて、第1撮像モード、および、第2撮像モードのいずれによる撮像が行われているかを判定する第2の演算処理装置と、第1撮像モードと判定された場合には、第1撮像モードにおいて算出された座標情報に基づいて第1の処理を行い、第2撮像モードと判定された場合には、第2撮像モードにおいて算出された座標情報に基づいて第2の処理を行う第3の演算処理装置と、を備えるシステムが提供される。
本発明の別の観点によれば、所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、ユーザーの三人称視点からユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像部と、第1画像信号に基づいてユーザーを認識し、第1画像信号に基づいて、ユーザーに関する座標情報を算出する演算処理部と、座標情報を出力する情報出力部と、を備える撮像装置が提供される。
本発明のさらに別の観点によれば、所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、ユーザーの三人称視点からユーザーを撮像する第2撮像モードのいずれかにより撮像を行い、第1画像信号に基づいてユーザーを認識し、第1画像信号に基づいてユーザーに関する座標情報を算出し、座標情報を出力する撮像装置から、座標情報を取得する取得部と、座標情報に基づいて、第1撮像モード、および、第2撮像モードのいずれによる撮像が行われているかを判定する第1の演算処理部と、第1撮像モードと判定された場合には、第1撮像モードにおいて算出された座標情報に基づいて第1の処理を行い、第2撮像モードと判定された場合には、第2撮像モードにおいて算出された座標情報に基づいて第2の処理を行う第2の演算処理部と、を備える情報処理装置が提供される。
本発明のさらに別の観点によれば、所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、ユーザーの三人称視点からユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像装置から、第1画像信号を取得する取得ステップと、第1画像信号に基づいてユーザーを認識し、第1画像信号に基づいて、ユーザーに関する座標情報を算出する算出ステップと、座標情報に基づいて、第1撮像モード、および、第2撮像モードのいずれによる撮像が行われているかを判定する判定ステップと、第1撮像モードと判定された場合には、第1撮像モードにおいて算出された座標情報に基づいて第1の処理を行い、第2撮像モードと判定された場合には、第2撮像モードにおいて算出された座標情報に基づいて第2の処理を行う処理ステップとを含む情報処理方法が提供される。
本発明のさらに別の観点によれば、所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、ユーザーの三人称視点からユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像装置から、第1画像信号を取得する機能と、第1画像信号に基づいてユーザーを認識し、第1画像信号に基づいて、ユーザーに関する座標情報を算出する機能と、座標情報に基づいて、第1撮像モード、および、第2撮像モードのいずれによる撮像が行われているかを判定する機能と、第1撮像モードと判定された場合には、第1撮像モードにおいて算出された座標情報に基づいて第1の処理を行い、第2撮像モードと判定された場合には、第2撮像モードにおいて算出された座標情報に基づいて第2の処理を行う機能とをコンピュータに実現させる情報処理プログラムが提供される。
上記の構成によれば、画像信号に基づいてユーザーに関する座標情報を算出し、算出した座標情報に基づいて撮像モードの判定を行うことにより、ユーザーにとって利便性が高く、正確に撮像モードに応じた処理を行うことができる。
本発明の第1実施形態に係るシステムの全体を示す模式図である。 本発明の第1実施形態に係るシステムの概略的な構成を示すブロック図である。 本発明の第1実施形態に係るシステムにおけるHMDユニットの概略的な構成を示すブロック図である。 本発明の第1実施形態における撮像モードについて説明する図である。 本発明の第1実施形態に係る処理方法の例を示すフローチャートである。 本発明の第1実施形態に係る処理方法の例を示す別のフローチャートである。 本発明の第1実施形態に係る処理方法の例を示す別のフローチャートである。 本発明の第2実施形態に係るシステムの全体を示す模式図である。 本発明の第2実施形態に係るシステムの概略的な構成を示すブロック図である。 本発明の第2実施形態に係るシステムにおけるカメラユニットの概略的な構成を示すブロック図である。 本発明の第2実施形態における撮像モードについて説明する図である。 本発明の第2実施形態に係る処理方法の例を示すフローチャートである。 本発明の第3実施形態に係るシステムにおけるHMDユニットの概略的な構成を示すブロック図である。 本発明の第3実施形態に係る処理方法の例を示すフローチャートである。 本発明の第4実施形態に係るシステムの概略的な構成を示すブロック図である。
以下、添付図面を参照しながら、本発明のいくつかの実施形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<第1実施形態>
図1は、本発明の第1実施形態に係るシステム1の全体を示す模式図であり、図2は、システム1の概略的な構成を示すブロック図である。
図1Aに示すように、本実施形態に係るシステム1は、第1センサ装置であるHMDユニット20と、情報処理装置30と、コントローラ40と、表示装置50とを含むゲームシステムである。
情報処理装置30は、図2に示すように、HMDユニット20、コントローラ40、および表示装置50のぞれぞれと有線または無線のネットワークにより接続される。
システム1では、HMDユニット20、およびコントローラ40から送信される情報に応じて情報処理装置30がゲームを進行し、HMDユニット20および表示装置50が、情報処理装置30の実行時画面、例えばゲーム画面を表示する。
本実施形態において、HMDユニット20は、ゲームのプレイヤーであるユーザーに関する座標情報を算出して、情報処理装置30に送信する。ここで、ユーザーに関する座標情報とは、ユーザーの姿勢に関する特徴点の座標情報、ユーザーの腕の形状に関する特徴点の座標情報、またはユーザーの手指の形状に関する特徴点の座標情報の少なくとも1つを含む。
HMDユニット20は、ユーザーに関する座標情報を算出して出力することにより、コントローラ40と同様にユーザー操作を受け付けるための操作装置としても機能する。
本実施形態において、HMDユニット20は、図1Aに示すように、ユーザーの頭部に装着して使用可能であるとともに、図1Bに示すように、テーブル等に載置して使用することも可能である。
図1Aに示すようにユーザーの頭部に装着して使用する場合、HMDユニット20は、表示装置の機能と、ユーザーの一人称視点で撮像する第1撮像モードによる撮像を行う撮像装置の機能とを有し、ユーザーの頭部に着脱可能に構成される。図1Aの例に示すように、HMDユニット20は、HMDユニット20をユーザーの体に装着可能な装着部20Aによりユーザーの頭部に装着可能に構成される。なお、HMDユニット20および装着部20Aは、図1Aの例のようにバンド型であってもよいし、ヘルメット型やメガネ型などどのような構成であってもよい。また、HMDユニット20の装着に際しては、例えば、情報処理装置30によってHMDユニット20にチュートリアルなどを表示することにより、ユーザーが装着部20AによりHMDユニット20を適切に装着するよう案内するとよい。
一方、図1Bに示すようにテーブル等に載置して使用する場合、HMDユニット20は、ユーザーの三人称視点からユーザーを撮像する第2撮像モードによる撮像を行う撮像装置の機能を有する。そして、HMDユニット20は、ユーザーの三人称視点からユーザーを撮像するために、被写界にユーザーが収まる位置、例えばユーザーから1メートル程度の距離に配置される。図1Bの例では、HMDユニット20は、表示装置50の近傍に配置される。HMDユニット20の最適な配置位置は、目的に応じて異なる。例えば、プレイ対象のゲームの内容に応じて、ユーザーの体全体、上半身、手元等、把握する対象が被写界に収まる位置にHMDユニット20を配置することが望まれる。なお、HMDユニット20の配置に際しては、例えば、情報処理装置30によって表示装置50にチュートリアルなどを表示することにより、ユーザーがHMDユニット20を適切な位置に配置するよう案内するとよい。
HMDユニット20を頭部に装着して第1撮像モードによる撮像を行うか、または、HMDユニット20をテーブル等に載置して第2撮像モードによる撮像を行うかは、プレイ対象のゲームの内容等の目的に応じて異なる。
以下、システム1の各構成について説明する。
図3は、本発明の一実施形態に係るシステム1におけるHMDユニット20の概略的な構成を示すブロック図である。
HMDユニット20は、第1撮像装置であるRGBカメラ21と、IMU(Inertial Measurement Unit)23と、第1の演算処理装置として機能する算出部24と、情報出力部25と、受信部26と、表示部27とを含む。
RGBカメラ21は、第1画像センサであるイメージセンサ211と、イメージセンサ211に接続される処理回路212とを含む。イメージセンサ211は、例えば所定の周期で、またはユーザー操作に応じた所定のタイミングで全ピクセル(全画素)を同期的にスキャンすることによって第1画像信号であるRGB画像信号213を生成する。処理回路212は、例えばRGB画像信号213を保存および伝送に適した形式に変換する。また、処理回路212は、RGB画像信号213にタイムスタンプを与える。
なお、本明細書では、当該信号に基づいて画像を構築可能な信号を画像信号という。したがって、RGB画像信号213は、画像信号の一例を示す。
IMU23は、HMDユニット20自体、より具体的には、イメージセンサ211の姿勢を検出する慣性センサである。IMU23は、所定の周期で、または、所定のタイミングでイメージセンサ211の三次元の姿勢情報を取得し、姿勢情報を情報出力部25に出力する。
算出部24は、座標算出部241、および学習済みモデル242を含み、RGBカメラ21において生成されたRGB画像信号213に基づいて、ユーザーに関する座標情報を算出する。
算出部24の座標算出部241は、例えば、RGB画像信号213に基づいて被写体認識を行うことによりユーザーを認識する。HMDユニット20の被写界に複数のユーザーが含まれる場合、座標算出部241は、それぞれのユーザーを識別する。
そして、座標算出部241は、認識したユーザーごとに、学習済みモデル242に基づいて、RGB画像信号213からユーザーが有する複数の関節の位置を示す座標情報を算出する。ユーザーが有する複数の関節の位置は、ユーザーの姿勢に関する特徴点、ユーザーの腕の形状に関する特徴点、またはユーザーの手指の形状に関する特徴点に相当する。
学習済みモデル242は、例えば、複数の関節を有する人物の画像を入力データとし、人物の複数の関節の位置を示す座標情報を正解データとした教師あり学習を実行することによって予め構築することができる。なお、機械学習の具体的な手法については、公知の各種の技術を利用可能であるため詳細な説明は省略する。また、算出部24に関係性学習部を備え、RGB画像信号213が入力される度に、入力されたRGB画像信号213に基づく画像と関節の位置を示す座標情報との関係性を学習して学習済みモデル242を更新する構成としてもよい。
情報出力部25は、算出部24により算出したユーザーに関する座標情報と、IMU23により取得した姿勢情報とを情報処理装置30に出力する。
受信部26は、情報処理装置30が生成した表示画像を示す情報を、情報処理装置30から受信する。
表示部27は、例えばLCD(Liquid Crystal Display)や有機ELなどの表示素子と、レンズなどの光学装置とを備え、受信部26により受信した情報に基づき、表示画像を表示することにより、ユーザーに提示することが可能である。なお、表示部27の表示素子は、透過型の表示素子であってもよいし、非透過型の表示素子であってもよい。
また、HMDユニット20の筐体に着脱可能なスマートフォンなどの端末装置を表示装置として使用してもよい。さらに、AR(Augmented Reality)グラス、MR(Mixed Reality)グラスなどの装着型デバイスをHMDユニット20として使用してもよい。
ここまで説明したように、HMDユニット20は、RGB画像信号213の生成からユーザーに関する座標情報の算出までを単体で完結し、情報処理装置30に対してRGB画像信号213は出力せずに、算出した座標情報および姿勢情報を出力することができる。なお、HMDユニット20は、独立した電源を有することが好ましい。
図4は、本実施形態における撮像モードについて説明する図である。HMDユニット20は、上述したように、ユーザーの一人称視点で撮像する第1撮像モードと、ユーザーの三人称視点からユーザーを撮像する第2撮像モードとを有する。
第1撮像モードでは、図4Aに示すように、主にユーザーの手元が被写界に収まり、ユーザーから見て、手元の背後(後方)において、表示装置50が被写界に収まる場合もある。また、第1撮像モードでは、ユーザーの頭部は被写界に収まらず、例えばユーザーが両腕を上げたり、肩の近傍で手指によりポーズをとったりしている場合には、それらの部分は被写界に収まらない。
一方、第2撮像モードでは、図4Bに示すように、主にユーザーの上半身および手元が被写界に収まり、ユーザーが腕や手指によりポーズをとっている場合に、その略すべてが被写界に収まる。また、第2撮像モードでは、表示装置50は被写界に収まらない。
したがって、本実施形態の第1撮像モードおよび第2撮像モードでは、生成される画像信号に基づく画像データに含まれる被写体が異なる。
再び図2を参照して、情報処理装置30は、例えば通信インターフェース、プロセッサ、およびメモリを有するコンピュータによって実装され、第2の演算処理装置および第3の演算処理装置として機能する通信部31および制御部32を含む。制御部32は、プロセッサがメモリに格納された、または通信インターフェースを介して受信されたプログラムに従って動作することによって実現される判定部321、制御値算出部322、および画像生成部323の各機能を含む。以下、各部の機能についてさらに説明する。
通信部31は、HMDユニット20の情報出力部25から出力されたユーザーに関する座標情報と、姿勢情報とを受信するとともに、HMDユニット20の表示部27に表示させる表示画像を出力する。また、通信部31は、コントローラ40と相互に通信可能であるとともに、表示装置50に表示させる表示画像を出力する。
制御部32の判定部321は、座標情報に基づいて、第1撮像モードおよび第2撮像モードのいずれによる撮像が行われているかを判定する。
判定部321は、例えば、HMDユニット20から出力された座標情報のうち、ユーザーの姿勢に関する特徴点の座標情報に基づく認識を行い、座標情報にユーザーの顔または頭部が含まれる場合には、HMDユニット20により第2撮像モードで撮像が行われていると判定することができる。同様に、判定部321は、例えば、座標情報のうち、ユーザーの腕の形状に関する特徴点の座標情報に基づく認識を行い、座標情報において、ユーザーの手や拳がユーザーの腕よりも手前に存在する場合には、HMDユニット20により第2撮像モードで撮像が行われていると判定することができる。
反対に、HMDユニット20から出力された座標情報にユーザーの顔または頭部が含まれない場合、および座標情報において、ユーザーの手や拳がユーザーの腕よりも後方に存在する場合には、判定部321はHMDユニット20により第1撮像モードで撮像が行われていると判定することができる。
なお、判定部321は、上述した腕、手、および拳の相対位置に限らず、他の部位の相対位置に基づいて撮像モードの判定を行ってもよい。例えば、判定部321は、ユーザーの体の末端部分、より具体的には足および脚部の相対位置等に基づいて撮像モードの判定を行ってもよい。
また、上述した判定方法については、予め定められてもよいし、ユーザーにより設定可能としてもよい。さらに、その他の情報を組み合わせて判定を行ってもよい。例えば、HMDユニット20のIMU23により取得される姿勢情報を利用してもよい。例えば、IMU23による姿勢情報に基づいて、ユーザーとHMDユニット20との相対的な位置関係を検出し、検出した位置関係を撮像モードの判定に用いてもよい。また、HMDユニット20のIMU23により取得される姿勢情報のみに基づいて撮像モードの判定を行ってもよい。
また、HMDユニット20により生成されるRGB画像信号213に対する被写体解析を行い、ユーザーの背後(後方)に矩形部分の被写体が含まれる場合には、表示装置50が被写界に収められていると推定し、HMDユニット20により第1撮像モードで撮像が行われていると判定してもよい。
さらに、装着部20AによるHMDユニット20の装着状態を検出する装着センサをHMDユニット20に備え、装着センサにより検出した装着状態に応じて判定を行ってもよい。例えば、装着状態が「HMDユニット20がユーザーに装着されている」ことを示す場合には第1撮像モードで撮像が行われていると判定し、装着状態が「HMDユニット20がユーザーに装着されていない」ことを示す場合には第2撮像モードで撮像が行われていると判定してもよい。装着センサは、装着部20Aの構成に応じて、例えば、接触センサ、着脱センサ、スイッチなどにより構成することができる。また、装着センサに代えて、または加えて、HMDユニット20がテーブルなどに載置されているか否かを検出する接触センサおよび姿勢センサなどを備えてもよい。
ここまで説明した各判定方法では撮像モードを判定できない場合、ユーザーに特定のポーズをとることを促して判定を行ってもよい。例えば、制御部32は、HMDユニット20の表示部27、および表示装置50の表示部52に「両手の手のひらを見せてください」等のメッセージを表示する。
HMDユニット20により第1撮像モードで撮像が行われている場合、図4Aに示すように、ユーザーは手のひらを頭部に装着したHMDユニット20の方に向ける。そのため、HMDユニット20から出力された座標情報においては、ユーザーの両手の親指が外側に向くことになる。
一方、HMDユニット20により第2撮像モードで撮像が行われている場合、図4Bに示すように、ユーザーは手のひらをテーブル等に載置したHMDユニット20の方に向ける。そのため、HMDユニット20から出力された座標情報においては、ユーザーの両手の親指が内側に向くことになる。
いずれの場合も、手が上向きであるか下向きであるか、および腕が交差しているか否か等を組み合わせて判定を行うことにより、より正確な判定を行うことができる。
以上説明したように、ユーザーに特定のポーズをとることを促し、座標情報においてそのポーズの特徴を確認することにより、撮像モードの判定を確実に行うことができる。なお、第1撮像モードおよび第2撮像モードによる座標情報において差異が発生し、識別可能なポーズであれば、上記以外のポーズを採用してもよい。
制御値算出部322は、判定部321により判定した撮像モードに応じて、HMDユニット20、コントローラ40、および表示装置50を含む外部装置へのフィードバック制御の制御値を算出する。上述したように、HMDユニット20およびコントローラ40は、ユーザー操作を受け付けるための操作装置として機能する。そこで、制御値算出部322は、HMDユニット20およびコントローラ40のいずれかを介して行われたユーザー操作に応じて、HMDユニット20、コントローラ40、および表示装置50を含む外部装置へのフィードバック制御の制御値を算出する。算出された制御値は、通信部31を介してコントローラ40に出力される。
画像生成部323は、判定部321により判定した撮像モードに応じて、ユーザーの状態を示す表示画像を生成する。より具体的には、画像生成部323は、制御値算出部322により算出した制御値に応じて、HMDユニット20の表示部27、および表示装置50の表示部52に表示する表示画像を生成する。生成された表示画像は、通信部31を介してHMDユニット20および表示装置50に出力される。なお、表示画像には、ユーザーの視点を再現したいわゆるFirst Person View画像、ユーザーを外部からみたいわゆるThird Person View画像などが含まれる。どのような表示画像を用いるかは、プレイ対象のゲームの内容や、シーン等目的に応じて定められる。
また、制御値の算出、および表示画像の生成の詳細については、後述するコントローラ40および表示装置50の構成の説明と関連して説明を行う。
コントローラ40は、図2に示すように、通信部41、操作部42、力覚提示部43、振動部44、および音声出力部45を含む。ユーザーはコントローラ40を操作することによりゲームに関する各種操作を行うことができる。
通信部41は、情報処理装置30の通信部31から出力された制御値を受信して、力覚提示部43、振動部44、および音声出力部45の各部に出力する。また、通信部41は、操作部42により受け付けたユーザー操作に関する情報を、情報処理装置30に出力する。
操作部42は、ボタンおよびパッドなどの複数の操作子を備え、操作子に対するユーザーの操作入力を受け付ける。
力覚提示部43は、操作部42の少なくとも一部の操作子に設けられ、情報処理装置30から供給される制御値にしたがい、ユーザー操作に抗する、あるいは連動する力をユーザーに提示する。具体的に、力覚提示部43は、回転するロータを含むモータやアクチュエータ等で構成できる。力覚提示部43を構成する力覚提示装置については広く知られたものを採用できるので、ここでの詳しい説明を省略する。
振動部44は、情報処理装置30から供給される制御値にしたがい、振動を発生するものであり、例えばモータにより構成できる。振動部44は、ユーザー操作が行われた場合に振動を発生することにより、ユーザー操作が正しく行われ、情報処理装置30に認識されたことをユーザーに通知することが可能である。
音声出力部45は、情報処理装置30から供給される制御値にしたがい、音声を出力するものであり、例えばスピーカにより構成できる。音声出力部45は、ユーザー操作が行われた場合に音声を出力することにより、ユーザー操作が正しく行われ、情報処理装置30に認識されたことをユーザーに通知することが可能である。
なお、上述した力覚提示部43による力覚の提示と連動して、振動部44による振動と、音声出力部45による音声出力との少なくとも一方が行われることにより、ユーザーへのフィードバック制御の多様性を高めることが可能である。
情報処理装置30の制御値算出部322は、上述したように、コントローラ40へのフィードバック制御の制御値を算出するが、より具体的には、判定部321により判定された撮像モードに応じて、コントローラ40の力覚提示部43、振動部44、および音声出力部45へのフィードバック制御の制御値を算出する。
判定部321により第1撮像モードと判定された場合、制御値算出部322は、HMDユニット20による第1撮像モードでの撮像に基づく座標情報に基づいて、コントローラ40へのフィードバック制御の制御値を算出する。したがって、HMDユニット20による第1撮像モードの撮像に基づく第1の処理を行うことができる。
一方、判定部321により第2撮像モードと判定された場合、制御値算出部322は、HMDユニット20による第2撮像モードでの撮像に基づく座標情報に基づいて、コントローラ40へのフィードバック制御の制御値を算出する。したがって、HMDユニット20による第2撮像モードの撮像に基づく第2の処理を行うことができる。
力覚提示部43に関して、制御値算出部322は、ユーザー操作に応じたフィードバック制御としてどのような力覚を提示させるかを示す制御値を算出する。振動部44に関して、制御値算出部322は、ユーザー操作に応じたフィードバック制御としてどのような振動を発生させるかを提示するかを示す制御値を算出する。音声出力部45に関して、制御値算出部322は、ユーザー操作に応じたフィードバック制御としてどのような音声を出力させるかを示す制御値を算出する。制御値算出部322による制御値の算出は、予め定められた計算式やテーブル等にしたがって行うことができる。
なお、ここまで説明したコントローラ40には公知の様々な構成を適用することが可能である。例えば、両手のそれぞれに把持可能な一対のコントローラにより構成されてもよいし、キーボートのような文字入力が可能なコントローラにより構成されてもよいし、スマートフォンなどのアプリケーションにより構成されてもよい。
また、コントローラ40に、音声入力部を備え、音声認識技術を適用してもよい。例えば、コントローラ40にマイクなどの音声入力部と音声認識部とを備え、ユーザーが発声するコマンドや、ユーザーの呼びかけなどを示す情報を、通信部41を介して情報処理装置30に供給してもよい。
表示装置50は、図2に示すように、受信部51、および表示部52を含む。
受信部51は、情報処理装置30の画像生成部323が生成した表示画像を示す情報を、通信部31を介して受信する。
表示部52は、例えばLCDや有機ELなどのモニタを備え、受信部51により受信した情報に基づき、表示画像を表示することにより、ユーザーに提示することが可能である。
なお、システム1は、HMDユニット20の表示部27、および表示装置50の表示部52の2つの表示部を備える。表示画像は、HMDユニット20の表示部27、および表示装置50の表示部52の両方に表示されてもよいし、いずれか一方の表示部のみに表示されてもよい。例えば、第1撮像モードにおいては、ユーザーがHMDユニット20を装着していると考え、HMDユニット20の表示部27のみに表示画像を表示してもよい。また、例えば、第2撮像モードにおいては、ユーザーがHMDユニット20を装着していないと考え、表示装置50の表示部52のみに表示画像を表示してもよい。
また、上述した表示装置50には公知の様々な構成を適用することが可能である。例えば、図1に示した専用の表示装置により構成されてもよいし、コンピュータの表示装置により構成されてもよいし、スマートフォンなどの端末装置の表示装置により構成されてもよい。また、表示部52の表面に接触を検知するタッチパネルを備えてもよい。
情報処理装置30の制御値算出部322は、上述したように、HMDユニット20の表示部27、および表示装置50の表示部52に表示する表示画像へのフィードバック制御の制御値を算出する。より具体的には、制御値算出部322は、判定部321により判定された撮像モードに応じて、表示画像へのフィードバック制御の制御値を算出する。
判定部321により第1撮像モードと判定された場合、制御値算出部322は、HMDユニット20による第1撮像モードでの撮像に基づく座標情報に基づいて、表示画像へのフィードバック制御の制御値を算出する。したがって、HMDユニット20による第1撮像モードの撮像に基づく第1の処理を行うことができる。
一方、判定部321により第2撮像モードと判定された場合、制御値算出部322は、HMDユニット20による第2撮像モードでの撮像に基づく座標情報に基づいて、表示画像へのフィードバック制御の制御値を算出する。したがって、HMDユニット20による第2撮像モードの撮像に基づく第2の処理を行うことができる。
制御値算出部322は、ユーザー操作に応じたフィードバック制御として表示画像をどのように変化させるかを示す制御値を算出する。制御値算出部322による制御値の算出は、予め定められた計算式やテーブル等にしたがって行うことができる。
情報処理装置30の画像生成部323は、上述したように、制御値算出部322により算出した制御値に応じて、HMDユニット20の表示部27、および表示装置50の表示部52に表示する表示画像を生成する。より具体的には、画像生成部323は、表示画像を変化させるための制御値にしたがって、HMDユニット20の表示部27、および表示装置50の表示部52に表示する表示画像を新たに生成する。
図5は、第1実施形態に係るHMDユニット20の処理の例を示すフローチャートである。図示された例では、RGBカメラ21のイメージセンサ211がRGB画像信号213を生成する(ステップS101)。
そして、算出部24がユーザーに関する座標情報を算出し(ステップS102)、情報出力部25が座標情報、および姿勢情報を出力する(ステップS103)。
HMDユニット20はステップS101からステップS103の処理を繰り返すことにより、ユーザーの状態を示す各種情報を情報処理装置30に継続的に供給することが可能である。
図6および図7は、第1実施形態に係る情報処理装置30の処理の例を示すフローチャートである。図6に図示された例では、通信部31がHMDユニット20から供給された各種情報を取得する(ステップS201)。
そして、判定部321が、HMDユニット20から出力された座標情報にユーザーの顔または頭が含まれるか否かを判定し(ステップS202)、座標情報にユーザーの顔または頭が含まれないと判定した場合(ステップS202NO)には後述するステップS204に進み、座標情報にユーザーの顔または頭が含まれると判定した場合(ステップS202YES)には、判定部321が第2撮像モードであると判定する(ステップS203)。
座標情報にユーザーの顔または頭が含まれないと判定した場合(ステップS202NO)、判定部321が、HMDユニット20から出力された座標情報においてユーザーの手が腕より手前にあるか否かを判定し(ステップS204)、座標情報においてユーザーの手が腕より手前にないと判定した場合(ステップS204NO)には後述するステップS205に進み、座標情報においてユーザーの手が腕よりも手前にあると判定した場合(ステップS204YES)には、ステップS203に戻る。
座標情報においてユーザーの手が腕より手前にないと判定した場合(ステップS204NO)には、判定部321が第1撮像モードであると判定する(ステップS205)。
なお、ステップS203またはステップS205において撮像モードを判定した後、制御部32は、再びステップS201に戻り、処理を繰り返すことにより、継続的に撮像モードの判定を行う。また、所定の時間を経過しても撮像モードの判定が行われない場合には、制御部32は、下記の処理を行ってもよい。
図7に図示された例では、制御部32は、HMDユニット20の表示部27、および表示装置50の表示部52にユーザーに特定のポーズをとることを促すメッセージを表示する(ステップS301)。ここでは例えば「両手の手のひらを見せてください」とのメッセージを表示する。
次に、通信部31がHMDユニット20から供給された各種情報を再び取得する(ステップS302)。そして、判定部321が、HMDユニット20から出力された座標情報においてユーザーの親指が外側を向いているか否かを判定し(ステップS303)、座標情報においてユーザーの親指が外側を向いていると判定した場合(ステップS303YES)には、判定部321が第1撮像モードであると判定し(ステップS304)、座標情報においてユーザーの親指が外側を向いていないと判定した場合(ステップS303NO)には、判定部321が第2撮像モードであると判定する(ステップS305)。
図7に示したように、ユーザーに特定のポーズをとることを促して判定を行う代わりに、HMDユニット20の表示部27、および表示装置50の表示部52にエラーメッセージを表示するなどしてユーザーに報知する構成としてもよい。また、図7に示したように、ユーザーに特定のポーズをとることを促して判定を行っても撮像モードの判定が行われない場合に、上述したようにユーザーに報知する構成としてもよい。
プレイ対象のゲームの内容等に応じて、ユーザーが撮像モードを変更した際には、RGBカメラ21が撮像する対象である被写体(被写界)が変化し、結果としてRGB画像信号213の内容が変化する。そして、RGB画像信号213の内容が変化すると、RGB画像信号213に基づいて算出される座標情報にその変化が反映される。上述したように、制御部32は、撮像モードを一旦判定した後、処理を繰り返す。したがって、システム1では、撮像モードの変更に追従して、座標情報に基づく撮像モードの判定を行うことができる。
以上で説明したような本発明の第1実施形態によれば、HMDユニット20は、第1画像センサであるイメージセンサ211を含み、ユーザーの一人称視点で撮像する第1撮像モード、および、ユーザーの三人称視点からユーザーを撮像する第2撮像モードのいずれかにより撮像を行う。そして、算出部24は、RGB画像信号213に基づいてユーザーを認識し、ユーザーに関する座標情報を算出する。そして、情報処理装置30の判定部321は、座標情報に基づいて、第1撮像モード、および、第2撮像モードのいずれによる撮像が行われているかを判定し、第1撮像モードと判定された場合には、制御部32は第1撮像モードにおいて算出された座標情報に基づいて第1の処理を行い、第2撮像モードと判定された場合には、制御部32は第2撮像モードにおいて算出された座標情報に基づいて第2の処理を行う。そのため、ユーザーが第1撮像モードおよび第2撮像モードに関して特別な設定等をすることなく適切な処理が可能であり、ユーザーにとって利便性が高く、正確に撮像モードに応じた処理を行うことができる。
また、第1実施形態のHMDユニット20は、ユーザーに関する座標情報を算出することによりユーザー操作を受け付けることができるため、従来のポインティングデバイス方式の操作装置のようにカーソル位置を維持するためにユーザーの肉体疲労を引き起こすこともない。また、HMDユニット20は、従来の姿勢検出方式の操作装置のように認識対象となるマーカーやアタッチメントをユーザーに装着させる必要もない。
また、第1実施形態では、座標情報は、ユーザーの姿勢に関する特徴点、ユーザーの腕の形状に関する特徴点、またはユーザーの手指の形状に関する特徴点の少なくともいずれかの座標情報を含む。したがって、特徴的なユーザーの状態を把握して座標情報を算出することができる。
また、第1実施形態では、HMDユニット20の算出部24は、複数の関節を有する人物の画像と、複数の関節の位置を示す座標情報との関係性を学習することによって構築された学習済みモデル242に基づいて、RGB画像信号213に基づく画像に含まれる人物の少なくとも1つの関節の座標情報を算出する。したがって、ユーザーに関する座標情報を的確かつ高速に算出することができる。
また、第1実施形態では、HMDユニット20をユーザーの体に装着可能な装着部20Aを備える。したがって、装着部20AによってHMDユニット20をユーザーの頭部に装着した場合には第1撮像モードによる撮像を行い、装着部20AによってHMDユニット20をユーザーの頭部に装着せずにテーブル等に載置した場合には第2撮像モードによる撮像を行うことが可能である。
<第2実施形態>
以下、図面を参照して本発明の第2実施形態について説明する。第2実施形態では、第1実施形態と異なる部分についてのみ説明し、第1実施形態と同様の部分については説明を省略する。また、第2実施形態においては、第1実施形態と実質的に同一の機能構成を有する構成要素については、同一の符号を付す。
図8は、本発明の第2実施形態に係るシステム2の全体を示す模式図であり、図9は、システム2の概略的な構成を示すブロック図である。
第2実施形態に係るシステム2は、図8に示すように、第1実施形態のシステム1に加えて、第2センサ装置であるカメラユニット60を含むゲームシステムである。また、システム2は、第1実施形態のシステム1の情報処理装置30に代えて、情報処理装置70を含む。
第2実施形態のシステム2において、カメラユニット60は、HMDユニット20と同様に、ゲームのプレイヤーであるユーザーに関する座標情報を算出して、情報処理装置70に送信する。つまり、カメラユニット60は、ユーザーに関する座標情報を算出して出力することにより、HMDユニット20およびコントローラ40と同様に、ユーザー操作を受け付けるための操作装置として機能する。
カメラユニット60は、第1実施形態で説明した第2撮像モードによる撮像を行うための撮像装置である。カメラユニット60の最適な配置に関しては、第1実施形態のHMDユニット20が第2撮像モードで撮像を行う場合と同様である。
図10は、カメラユニット60の概略的な構成を示すブロック図である。
カメラユニット60は、RGBカメラ61と、IMU63と、第1の演算処理装置として機能する算出部64と、情報出力部65とを含む。RGBカメラ61、IMU63、算出部64、情報出力部65の各部は、それぞれ第1実施形態のHMDユニット20のRGBカメラ21、IMU23、算出部24、情報出力部25の各部と同様の構成を有する。
そして、RGBカメラ61は、第1実施形態のRGBカメラ21のイメージセンサ211および処理回路212と同様の構成を有するイメージセンサ611および処理回路612によって、RGB画像信号613を生成する。
算出部64は、第1実施形態の算出部24の座標算出部241および学習済みモデル242と同様の構成を有する座標算出部641および学習済みモデル642により、RGBカメラ61において生成されたRGB画像信号613に基づいて、ユーザーに関する座標情報を算出する。
情報出力部65は、算出部64により算出したユーザーに関する座標情報と、IMU63により取得した姿勢情報とを情報処理装置70に出力する。
ここまで説明したように、カメラユニット60は、第1実施形態のHMDユニット20と同様に、RGB画像信号613の生成からユーザーに関する座標情報の算出までを単体で完結し、情報処理装置70に対してRGB画像信号613は出力せずに、算出した座標情報および姿勢情報を出力することができる。なお、カメラユニット60は、独立した電源を有することが好ましい。
カメラユニット60およびHMDユニット20のいずれを利用するかは、プレイ対象のゲームの内容等の目的に応じて異なる。
図11は、第2実施形態における撮像モードについて説明する図である。第2実施形態のシステム2は、HMDユニット20により第1撮像モードの撮像を行い、カメラユニット60により第2撮像モードの撮像を行う。
第1撮像モードでは、図11Aに示すように、ユーザーの頭部に装着されたHMDユニット20により撮像を行う。一方、第2撮像モードでは、図11Bに示すように、テーブル等に載置されたカメラユニット60により撮像を行う。
したがって、第1実施形態と同様に、第2実施形態の第1撮像モードおよび第2撮像モードでは、生成される画像信号に基づく画像データに含まれる被写体が異なる。
再び図9を参照して、情報処理装置70は、第1実施形態の情報処理装置30の通信部31に代えて通信部71を含み、制御部32に代えて制御部72を含む。
通信部71は、HMDユニット20の情報出力部25から出力されたユーザーに関する座標情報とおよび姿勢情報に加えて、カメラユニット60の情報出力部65から出力されたユーザーに関する座標情報と、姿勢情報とを受信し、HMDユニット20の表示部27に表示させる表示画像を出力する。なお、以降では区別のために、HMDユニット20の情報出力部25から出力されたユーザーに関する座標情報を座標情報C20と称し、カメラユニット60の情報出力部65から出力されたユーザーに関する座標情報を座標情報C60と称する。
制御部72は、第1実施形態の情報処理装置30の制御部32の判定部321に代えて判定部721の機能を含み、制御値算出部322に代えて制御値算出部722の機能を含み、画像生成部323に代えて画像生成部723の機能を含む。
判定部721は、HMDユニット20から出力された座標情報C20またはカメラユニット60から出力された座標情報C60に基づいて、第1撮像モードおよび第2撮像モードのいずれによる撮像が行われているかを判定する。判定は第1実施形態の情報処理装置30と同様に行われる。
制御値算出部722は、判定部721により判定した撮像モードに応じて、HMDユニット20、コントローラ40、および表示装置50を含む外部装置へのフィードバック制御の制御値を算出する。上述したように、HMDユニット20、コントローラ40、およびカメラユニット60は、ユーザー操作を受け付けるための操作装置として機能する。そこで、制御値算出部722は、HMDユニット20、コントローラ40、およびカメラユニット60のいずれかを介して行われたユーザー操作に応じて、HMDユニット20、コントローラ40、および表示装置50を含む外部装置へのフィードバック制御の制御値を算出する。制御値の算出は第1実施形態の情報処理装置30と同様に行われる。そして、算出された制御値は、通信部71を介してコントローラ40に出力される。
画像生成部723は、判定部721により判定した撮像モードに応じて、ユーザーの状態を示す表示画像を生成する。表示画像の生成は第1実施形態の情報処理装置30と同様に行われる。
コントローラ40は、第1実施形態と同様の構成および機能を有する。
情報処理装置70の制御値算出部722は、上述したように、コントローラ40へのフィードバック制御の制御値を算出するが、判定部721により第1撮像モードと判定された場合、制御値算出部722は、HMDユニット20から出力された座標情報C20に基づいて、コントローラ40へのフィードバック制御の制御値を算出する。HMDユニット20から出力された座標情報C20を用いて制御値を算出することにより、HMDユニット20を操作装置とした第1撮像モードに基づく第1の処理を行うことができる。
一方、判定部721により第2撮像モードと判定された場合、制御値算出部722は、カメラユニット60から出力された座標情報C60に基づいて、コントローラ40へのフィードバック制御の制御値を算出する。カメラユニット60から出力された座標情報C60を用いて制御値を算出することにより、カメラユニット60を操作装置とした第2撮像モードに基づく第2の処理を行うことができる。
表示装置50は、第1実施形態と同様の構成および機能を有する。
情報処理装置70の制御値算出部722は、上述したように、HMDユニット20の表示部27、および表示装置50の表示部52に表示する表示画像へのフィードバック制御の制御値を算出するが、判定部721により第1撮像モードと判定された場合、制御値算出部722は、HMDユニット20から出力された座標情報C20に基づいて、表示画像へのフィードバック制御の制御値を算出する。HMDユニット20から出力された座標情報C20を用いて制御値を算出することにより、HMDユニット20を操作装置とした第1撮像モードに基づく処理を行うことができる。
一方、判定部721により第2撮像モードと判定された場合、制御値算出部722は、カメラユニット60から出力された座標情報C60に基づいて、表示画像へのフィードバック制御の制御値を算出する。カメラユニット60から出力された座標情報C60を用いて制御値を算出することにより、カメラユニット60を操作装置とした第2撮像モードに基づく処理を行うことができる。
図12は、第2実施形態に係る情報処理装置70の処理の例を示すフローチャートである。図示された例では、通信部71がHMDユニット20およびカメラユニット60のそれぞれから供給された各種情報を取得する(ステップS401)。
判定部721が、カメラユニット60から出力された座標情報C60にユーザーの顔または頭が含まれるか否かを判定し(ステップS402)、座標情報C60にユーザーの顔または頭が含まれないと判定した場合(ステップS402NO)には後述するステップS405に進み、座標情報C60にユーザーの顔または頭が含まれると判定した場合(ステップS402YES)には、カメラユニット60から出力された座標情報C60が使用可能か否かを判定する(ステップS403)。座標情報C60が使用可能か否かは、例えば座標情報C60に基づく制御値の算出が可能か否かに基づいて判定することができる。座標情報C60が使用可能と判定した場合(ステップS403YES)は、判定部721が第2撮像モードであると判定する(ステップS404)。一方、座標情報C60が使用可能でないと判定した場合(ステップS403NO)は、判定部721が撮像モードの判定を行うことができないため、ステップS401に戻る。
座標情報C60にユーザーの顔または頭が含まれないと判定した場合(ステップS402NO)、判定部721が、カメラユニット60から出力された座標情報C60においてユーザーの手が腕より手前にあるか否かを判定し(ステップS405)、座標情報C60においてユーザーの手が腕より手前にないと判定した場合(ステップS405NO)には後述するステップS406に進み、座標情報C60においてユーザーの手が腕よりも手前にあると判定した場合(ステップS405YES)には、ステップS403に戻る。
判定部721が、座標情報C60においてユーザーの手が腕より手前にないと判定した場合(ステップS405NO)、HMDユニット20から出力された座標情報C20が使用可能か否かを判定する(ステップS406)。座標情報C20が使用可能か否かは、座標情報C20に基づく制御値の算出が可能か否かに基づいて判定することができる。座標情報C20が使用可能と判定した場合(ステップS406YES)は、判定部721が第1撮像モードであると判定する(ステップS407)。一方、座標情報C20が使用可能でないと判定した場合(ステップS406NO)は、判定部721が撮像モードの判定を行うことができないため、ステップS401に戻る。
なお、ステップS404またはステップS407において撮像モードを判定した後、制御部72は、再びステップS401に戻り、処理を繰り返すことにより、継続的に撮像モードの判定を行う。また、所定の時間を経過しても撮像モードの判定が行われない場合には、第1実施形態の制御部32と同様に、ユーザーに特定のポーズをとることを促して判定を行う構成としてもよいし、HMDユニット20の表示部27、および表示装置50の表示部52にエラーメッセージを表示するなどしてユーザーに報知する構成としてもよい。また、ユーザーに特定のポーズをとることを促して判定を行っても撮像モードの判定が行われない場合に、上述したようにユーザーに報知する構成としてもよい。
例えば、ユーザーに「両手の手のひらを見せるポーズ」を促す場合、判定部721は、HMDユニット20から出力された座標情報C20においてユーザーの親指が外側を向いているか否かと、カメラユニット60から出力された座標情報C60においてユーザーの親指が内側を向いているか否かとの少なくとも一方を判定することにより撮像モードの判定を行うことができる。
以上で説明したような本発明の第2実施形態によれば、システム2が第1撮像モードで撮像を行う第1撮像装置であるHMDユニット20と、第2撮像モードで撮像を行う第2撮像装置であるカメラユニット60とを含み、判定部721がHMDユニット20およびカメラユニット60の何れにより撮像が行われているかを判定する。そして、HMDユニット20により撮像が行われていると判定された場合には、制御部72はHMDユニット20から出力された座標情報C20に基づいて第1の処理を行い、カメラユニット60により撮像が行われていると判定された場合には、制御部72はカメラユニット60から出力された座標情報C60に基づいて第2の処理を行う。そのため、HMDユニット20およびカメラユニット60を併用する際にも、第1実施形態と同様の効果を得ることができる。
また、第2実施形態のカメラユニット60は、RGB画像信号613の生成からユーザーに関する座標情報の算出までをカメラユニット60で行い、RGB画像信号613は出力せずに、座標情報と、イメージセンサ611の姿勢情報とを出力することにより、通信負荷や通信遅延の問題を低減することができる。さらに、RGB画像信号613を出力する必要がないため、プライバシー保護の点でも有用である。
<第3実施形態>
以下、図面を参照して本発明の第3実施形態について説明する。第3実施形態では、第1実施形態と異なる部分についてのみ説明し、第1実施形態と同様の部分については説明を省略する。また、第3実施形態においては、第1実施形態と実質的に同一の機能構成を有する構成要素については、同一の符号を付す。
第3実施形態に係るシステム3は、図示を省略するが、第1実施形態のシステム1と同様の情報処理装置30と、コントローラ40と、表示装置50とを含むとともに、システム1のHMDユニット20に代えて、HMDユニット80を含むゲームシステムである。
図13は、システム3におけるHMDユニット80の概略的な構成を示すブロック図である。
HMDユニット80は、第1実施形態のシステム1のHMDユニット20と同様に、RGBカメラ81と、IMU83と、第1の演算処理装置として機能する算出部84と、情報出力部85と、受信部86と、表示部87とを含むとともに、第2撮像装置であるEDS(Event Driven Sensor)82を含む。RGBカメラ81、IMU83、算出部84、情報出力部85、受信部86、表示部87の各部は、それぞれ第1実施形態のHMDユニット20のRGBカメラ21、IMU23、算出部24、情報出力部25、受信部26、表示部27の各部と同様の構成を有する。
RGBカメラ81は、第1実施形態のRGBカメラ21のイメージセンサ211および処理回路212と同様の構成を有するイメージセンサ811および処理回路812によって、RGB画像信号813を生成する。
EDS82は、センサアレイを構成する第2画像センサであるセンサ821と、センサ821に接続される処理回路822とを含む。センサ821は、受光素子を含み、画素ごとに入射する光の強度変化、より具体的には予め定めた所定の値を超える輝度変化を検出したときに第2画像信号であるイベント信号823を生成するイベント駆動型のビジョンセンサである。処理回路822を経て出力されるイベント信号823は、センサ821の識別情報(例えばピクセルの位置)と、輝度変化の極性(上昇または低下)と、タイムスタンプとを含む。また、輝度変化を検出した際に、EDS82は、RGB画像信号813の生成頻度(RGBカメラ81のフレームレート)より大幅に高い頻度でイベント信号823を生成することができる。
なお、本明細書では、上述したように、当該信号に基づいて画像を構築可能な信号を画像信号という。したがって、RGB画像信号813およびイベント信号823は、画像信号の一例を示す。
第3実施形態において、RGB画像信号813およびイベント信号823に与えられるタイムスタンプは同期している。具体的には、例えば、EDS82でタイムスタンプを生成するために用いられる時刻情報をRGBカメラ81に提供することによって、RGB画像信号813およびイベント信号823に与えられるタイムスタンプを同期させることができる。あるいは、タイムスタンプを生成するための時刻情報がRGBカメラ81とEDS82とでそれぞれ独立している場合、特定のイベント(例えば、画像全体にわたる被写体の変化)が発生した時刻を基準にしてタイムスタンプのオフセット量を算出することによって、事後的にRGB画像信号813およびイベント信号823に与えられるタイムスタンプを同期させることができる。
また、第3実施形態では、事前に実行されるRGBカメラ81とEDS82とのキャリブレーション手順によって、EDS82のセンサ821がRGB画像信号813の1または複数のピクセルに対応付けられ、イベント信号823はRGB画像信号813の1または複数のピクセルにおける光の強度変化に応じて生成される。より具体的には、例えば、RGBカメラ81とEDS82とで共通の校正パターンを撮像し、RGBカメラ81およびEDS82のぞれぞれの内部パラメータおよび外部パラメータからカメラとセンサとの間の対応パラメータを算出することによって、RGB画像信号813の1または複数のピクセルにセンサ821を対応付けることができる。
IMU83は、イメージセンサ811およびセンサ821の姿勢を検出する慣性センサであり、所定の周期で、または、所定のタイミングでイメージセンサ811およびセンサ821の三次元の姿勢情報を取得し、姿勢情報を情報出力部85に出力する。
算出部84は、座標算出部841、および学習済みモデル842を含み、EDS82において生成されたイベント信号823と、RGBカメラ81において生成されたRGB画像信号813とに基づいて、ユーザーに関する座標情報を算出する。
算出部84の座標算出部841は、例えば、イベント信号823において同じ極性のイベントが発生していることが示される連続した画素領域に存在するオブジェクトを検出し、RGB画像信号813の対応する部分に基づいて被写体認識を行うことによりユーザーを認識する。カメラユニット60の被写界に複数のユーザーが含まれる場合、座標算出部841は、それぞれのユーザーを識別する。
そして、座標算出部841は、認識したユーザーごとに、学習済みモデル842に基づいて、RGB画像信号813からユーザーが有する複数の関節の位置を示す座標情報を算出する。ユーザーが有する複数の関節の位置は、ユーザーの姿勢に関する特徴点、ユーザーの腕の形状に関する特徴点、またはユーザーの手指の形状に関する特徴点に相当する。
学習済みモデル842については、第1実施形態と同様であるため説明を省略する。
情報出力部85は、算出部84により算出したユーザーに関する座標情報、およびIMU83により取得した姿勢情報を情報処理装置30に出力する。
受信部86および表示部87は、第1実施形態のHMDユニット20の受信部26および表示部27と同様の構成を有する。
ここまで説明したように、HMDユニット80は、第1実施形態のHMDユニット20と同様に、RGB画像信号813およびイベント信号823の生成からユーザーに関する座標情報の算出までを単体で完結し、情報処理装置30に対してRGB画像信号813およびイベント信号823は出力せずに、算出した座標情報および姿勢情報を出力することができる。なお、HMDユニット80は、第1実施形態のHMDユニット20と同様に、独立した電源を有することが好ましい。
情報処理装置30、コントローラ40、表示装置50の各部は、第1実施形態と同様の構成および機能を有する。
図14は、第3実施形態に係るHMDユニット80の処理の例を示すフローチャートである。図示された例では、RGBカメラ81のイメージセンサ811がRGB画像信号813を生成する(ステップS501)とともに、EDS82のセンサ821がイベント信号823を生成する(ステップS502)。
そして、算出部84がユーザーに関する座標情報を算出し(ステップS503)、情報出力部85が座標情報および姿勢情報を出力する(ステップS504)。
HMDユニット80はステップS501からステップS504の処理を繰り返すことにより、ユーザーの状態を示す各種情報を情報処理装置30に継続的に供給することが可能である。
情報処理装置30における処理は、第1実施形態と同様であるため、フローチャートの図示および説明を省略する。
以上で説明したような本発明の第3実施形態では、HMDユニット80は、イメージセンサ811およびセンサ821によりそれぞれ生成したRGB画像信号813およびイベント信号823に基づいて、ユーザーに関する座標情報を算出して情報処理装置30に出力する。したがって、第1実施形態と同様に、ユーザーが第1撮像モードおよび第2撮像モードに関して特別な設定等をすることなく適切な処理が可能であり、ユーザーにとって利便性が高く、正確に撮像モードに応じた処理を行うことができる。さらに、イベント信号823を生成するセンサ821を利用することにより、レイテンシを抑えつつ、正確に撮像モードに応じた処理を行うことができる。
なお、第3実施形態では、第1実施形態のシステム1におけるHMDユニット20に代えて、RGBカメラ81に加えてEDS82を有するHMDユニット80を含むシステム3を例に挙げて説明した。しかし、第2実施形態のシステム2のHMDユニット20に代えて、RGBカメラに加えてEDSを有するHMDユニットを含む構成としてもよい。さらに、第2実施形態のシステム2のカメラユニット60に代えて、RGBカメラに加えてEDSを有するカメラユニットを含む構成としてもよい。いずれの場合も、イベント信号を生成するセンサを利用することにより、レイテンシを抑えつつ、正確に撮像モードに応じた処理を行うことができる。
<第4実施形態>
以下、図面を参照して本発明の第4実施形態について説明する。第4実施形態では、第1実施形態と異なる部分についてのみ説明し、第1実施形態と同様の部分については説明を省略する。また、第4実施形態においては、第1実施形態と実質的に同一の機能構成を有する構成要素については、同一の符号を付す。
図15は、第4実施形態に係るシステム4の概略的な構成を示すブロック図である。
第4実施形態に係るシステム4は、図15に示すように、第1実施形態のシステム1の情報処理装置30に代えて、サーバ90および端末装置100を含むゲームシステムである。
サーバ90は、HMDユニット20および端末装置100とインターネット通信網や、無線によって通信可能に接続されたサーバ(例えば、クラウドサーバ)である。サーバ90は、第1実施形態の情報処理装置30と同様の構成を有し、HMDユニット20により出力された情報に基づく各種処理を行う。また、端末装置100は、通信部101を備え、通信部101は、サーバ90から出力された情報を受信する。また、通信部101は、第1実施形態の情報処理装置30の通信部31と同様に、コントローラ40と相互に通信可能であるとともに、HMDユニット20および表示装置50に表示させる画像を出力する。
このような構成により、RGB画像信号213の生成から座標情報の算出までをHMDユニット20で行い、サーバ90には座標情報のみを出力することにより、クラウドサーバなどのサーバを用いたゲームシステムにおいても同様の効果を得ることができる。
さらに、第2実施形態で説明したシステム2および第3実施形態で説明したシステム3についても、同様にサーバを適用することにより、同様の効果を得ることができる。
なお、上記の各実施形態において情報処理装置で行った処理の一部をHMDユニットおよびカメラユニットで行う構成としてもよい。例えば、第1実施形態の情報処理装置30における判定部321の機能をHMDユニット20内に備えてもよい。また、例えば、第2実施形態の情報処理装置70における判定部721の機能をHMDユニット20およびカメラユニット60内に備えてもよい。いずれの場合も、HMDユニット20およびカメラユニット60は、判定した撮像モードに応じて、座標情報の算出方法、より具体的には、学習済みモデルを変更してもよい。
また、上記の各実施形態において、HMDユニットのRGBカメラおよびEDSの数は同数であってもよいし、異なる数であってもよい。また、RGBカメラおよびEDSの数は、それぞれ1つであってもよいし、複数であってもよい。例えば、複数のRGBカメラを備える場合には、RGB画像信号を生成する被写界のレンジを拡大したり、複数のRGB画像信号から人物の状態を三次元で推定したりすることができる。また、例えば、複数のEDS12を備える場合には、イベント信号を生成する被写界のレンジを拡大したり、複数のイベント信号に基づいて、人物の三次元の移動量を算出したりすることができる。カメラユニットのRGBカメラおよびEDSについても同様である。
また、上記の各実施形態で説明されたHMDユニットおよびカメラユニットは、単一の装置内で実装されてもよいし、複数の装置に分散して実装されてもよい。例えば、各センサの少なくとも一部を独立に備え、その他の構成をHMDユニットおよびカメラユニット本体として実装してもよい。
以上、添付図面を参照しながら本発明のいくつかの実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
1・2・3・4…システム、20・80…HMDユニット、21・61・81…RGBカメラ、23・63・83…IMU、24・64・84…算出部、25・65・85…情報出力部、26・51・86…受信部、27・52・87…表示部、30・70…情報処理装置、31・41・71・101…通信部、32・72…制御部、40…コントローラ、42…操作部、43…力覚提示部、44…振動部、45…音声出力部、50…表示装置、60…カメラユニット、82…EDS、90…サーバ、100…端末装置、211・611・811…イメージセンサ、212・612・812・822…処理回路、213・613・813…RGB画像信号、241・641・841…座標算出部、242・642・842…学習済みモデル、321・721…判定部、322・722…制御値算出部、323・723…画像生成部、821…センサ、823…イベント信号。

Claims (17)

  1. 所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、前記ユーザーの三人称視点から前記ユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像装置と、
    前記第1画像信号に基づいて前記ユーザーを認識し、前記第1画像信号に基づいて、前記ユーザーに関する座標情報を算出する第1の演算処理装置と、
    前記座標情報に基づいて、前記第1撮像モード、および、前記第2撮像モードのいずれによる撮像が行われているかを判定する第2の演算処理装置と、
    前記第1撮像モードと判定された場合には、前記第1撮像モードにおいて算出された前記座標情報に基づいて第1の処理を行い、前記第2撮像モードと判定された場合には、前記第2撮像モードにおいて算出された前記座標情報に基づいて第2の処理を行う第3の演算処理装置と、を備えるシステム。
  2. 前記座標情報は、前記ユーザーの姿勢に関する特徴点、前記ユーザーの腕の形状に関する特徴点、または前記ユーザーの手指の形状に関する特徴点の少なくともいずれかの座標情報を含む、請求項1に記載のシステム。
  3. 前記第1の演算処理装置は、複数の関節を有する人物の画像と、前記複数の関節の位置を示す座標情報との関係性を学習することによって構築された学習済みモデルに基づいて、前記ユーザーの少なくとも1つの関節を前記特徴点とした前記座標情報を算出する、請求項2に記載のシステム。
  4. 少なくとも前記撮像装置を前記ユーザーの体に装着可能な装着部を備える、請求項1から請求項3のいずれか1項に記載のシステム。
  5. 前記装着部は、前記撮像装置を前記ユーザーの頭部に装着可能である、請求項4に記載のシステム。
  6. 前記撮像装置と、前記第1の演算処理装置と含むセンサ装置と、
    前記第2の演算処理装置および前記第3の演算処理装置を含む情報処理装置と、を含むシステムであって、
    前記センサ装置は、前記座標情報を前記情報処理装置に出力する、請求項4または請求項5に記載のシステム。
  7. 前記撮像装置は、前記第1撮像モードで撮像を行う第1撮像装置と、前記第2撮像モードで撮像を行う第2撮像装置とを含み、
    前記第2の演算処理装置は、前記第1撮像装置および前記第2撮像装置のいずれにより撮像が行われているかを判定し、
    前記第3の演算処理装置は、前記第1撮像装置と判定された場合には、前記第1撮像装置により生成された前記第1画像信号に基づいて算出された前記座標情報に基づいて前記第1の処理を行い、前記第2撮像装置と判定された場合には、前記第2撮像装置により生成された前記第1画像信号に基づいて算出された前記座標情報に基づいて前記第2の処理を行う、請求項1から請求項3のいずれか1項に記載のシステム。
  8. 少なくとも前記第1撮像装置を前記ユーザーの体に装着可能な装着部を備える、請求項7に記載のシステム。
  9. 前記装着部は、前記第1撮像装置を前記ユーザーの頭部に装着可能である、請求項8に
    記載のシステム。
  10. 前記第1撮像装置と、前記第1の演算処理装置と含む第1センサ装置と、
    前記第2撮像装置と、前記第1の演算処理装置と含む第2センサ装置と、
    前記第2の演算処理装置および前記第3の演算処理装置を含む情報処理装置と、を含むシステムであって、
    前記第1センサ装置および前記第2センサ装置は、前記座標情報を前記情報処理装置に出力する、請求項7から請求項9のいずれか1項に記載のシステム。
  11. 前記撮像装置は、前記第1画像センサに加えて、画素ごとに入射する光の強度変化を検出したときに非同期的に第2画像信号を生成するイベント駆動型のビジョンセンサを含む第2画像センサを含み、
    前記第1の演算処理装置は、前記第1画像信号および前記第2画像信号に基づいて、前記ユーザーの認識と、前記座標情報の算出との少なくとも一方を行う、請求項1から請求項10のいずれか1項に記載のシステム。
  12. 所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、前記ユーザーの三人称視点から前記ユーザーを撮像する第2撮像モードのいずれかにより撮像を行う1つの撮像部と、
    前記第1画像信号に基づいて前記ユーザーを認識し、前記第1画像信号に基づいて、前記ユーザーに関する座標情報を算出する演算処理部と、
    前記座標情報を出力する情報出力部と、を備える撮像装置。
  13. 前記座標情報は、前記ユーザーの姿勢に関する特徴点、前記ユーザーの腕の形状に関する特徴点、または前記ユーザーの手指の形状に関する特徴点の少なくともいずれかの座標情報を含む、請求項12に記載の撮像装置。
  14. 前記演算処理部は、複数の関節を有する人物の画像と、前記複数の関節の位置を示す座標情報との関係性を学習することによって構築された学習済みモデルに基づいて、前記ユーザーの少なくとも1つの関節を前記特徴点とした前記座標情報を算出する、請求項13に記載の撮像装置。
  15. 所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、前記ユーザーの三人称視点から前記ユーザーを撮像する第2撮像モードのいずれかにより撮像を行い、前記第1画像信号に基づいて前記ユーザーを認識し、前記第1画像信号に基づいて前記ユーザーに関する座標情報を算出し、前記座標情報を出力する撮像装置から、前記座標情報を取得する取得部と、
    前記座標情報に基づいて、前記第1撮像モード、および、前記第2撮像モードのいずれによる撮像が行われているかを判定する第1の演算処理部と、
    前記第1撮像モードと判定された場合には、前記第1撮像モードにおいて算出された前記座標情報に基づいて第1の処理を行い、前記第2撮像モードと判定された場合には、前記第2撮像モードにおいて算出された前記座標情報に基づいて第2の処理を行う第2の演算処理部と、を備える情報処理装置。
  16. 所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、前記ユーザーの三人称視点から前記ユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像装置から、前記第1画像信号を取得する取得ステップと、
    前記第1画像信号に基づいて前記ユーザーを認識し、前記第1画像信号に基づいて、前記ユーザーに関する座標情報を算出する算出ステップと、
    前記座標情報に基づいて、前記第1撮像モード、および、前記第2撮像モードのいずれによる撮像が行われているかを判定する判定ステップと、
    前記第1撮像モードと判定された場合には、前記第1撮像モードにおいて算出された前記座標情報に基づいて第1の処理を行い、前記第2撮像モードと判定された場合には、前記第2撮像モードにおいて算出された前記座標情報に基づいて第2の処理を行う処理ステップと
    を含む情報処理方法。
  17. 所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、前記ユーザーの三人称視点から前記ユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像装置から、前記第1画像信号を取得する機能と、
    前記第1画像信号に基づいて前記ユーザーを認識し、前記第1画像信号に基づいて、前記ユーザーに関する座標情報を算出する機能と、
    前記座標情報に基づいて、前記第1撮像モード、および、前記第2撮像モードのいずれによる撮像が行われているかを判定する機能と、
    前記第1撮像モードと判定された場合には、前記第1撮像モードにおいて算出された前記座標情報に基づいて第1の処理を行い、前記第2撮像モードと判定された場合には、前記第2撮像モードにおいて算出された前記座標情報に基づいて第2の処理を行う機能と
    をコンピュータに実現させる情報処理プログラム。
JP2020195149A 2020-11-25 2020-11-25 システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム Active JP7394046B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020195149A JP7394046B2 (ja) 2020-11-25 2020-11-25 システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム
US18/253,070 US20230353860A1 (en) 2020-11-25 2021-11-16 System, imaging apparatus, information processing apparatus, information processing method, and information processing program
PCT/JP2021/042137 WO2022113834A1 (ja) 2020-11-25 2021-11-16 システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム
EP21897808.8A EP4252871A1 (en) 2020-11-25 2021-11-16 System, imaging device, information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020195149A JP7394046B2 (ja) 2020-11-25 2020-11-25 システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム

Publications (3)

Publication Number Publication Date
JP2022083680A JP2022083680A (ja) 2022-06-06
JP2022083680A5 JP2022083680A5 (ja) 2023-03-30
JP7394046B2 true JP7394046B2 (ja) 2023-12-07

Family

ID=81755960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020195149A Active JP7394046B2 (ja) 2020-11-25 2020-11-25 システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム

Country Status (4)

Country Link
US (1) US20230353860A1 (ja)
EP (1) EP4252871A1 (ja)
JP (1) JP7394046B2 (ja)
WO (1) WO2022113834A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014115457A (ja) 2012-12-10 2014-06-26 Sony Corp 情報処理装置および記録媒体
JP2014127987A (ja) 2012-12-27 2014-07-07 Sony Corp 情報処理装置および記録媒体
US20150109528A1 (en) 2013-10-21 2015-04-23 Postech Academy-Industry Foundation Apparatus and method for providing motion haptic effect using video analysis
JP2019213764A (ja) 2018-06-14 2019-12-19 株式会社バンダイナムコスタジオ シミュレーションシステム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5100324B2 (ja) 2007-11-16 2012-12-19 株式会社ソニー・コンピュータエンタテインメント ゲームシステムおよびゲームコントローラ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014115457A (ja) 2012-12-10 2014-06-26 Sony Corp 情報処理装置および記録媒体
JP2014127987A (ja) 2012-12-27 2014-07-07 Sony Corp 情報処理装置および記録媒体
US20150109528A1 (en) 2013-10-21 2015-04-23 Postech Academy-Industry Foundation Apparatus and method for providing motion haptic effect using video analysis
JP2019213764A (ja) 2018-06-14 2019-12-19 株式会社バンダイナムコスタジオ シミュレーションシステム

Also Published As

Publication number Publication date
EP4252871A1 (en) 2023-10-04
US20230353860A1 (en) 2023-11-02
JP2022083680A (ja) 2022-06-06
WO2022113834A1 (ja) 2022-06-02

Similar Documents

Publication Publication Date Title
WO2017077918A1 (ja) 情報処理装置、情報処理システム、および情報処理方法
JP7095602B2 (ja) 情報処理装置、情報処理方法及び記録媒体
JP2003337963A (ja) 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
KR20220120649A (ko) 인공 현실 콘텐츠의 가변 초점 디스플레이를 갖는 인공 현실 시스템
US11086392B1 (en) Devices, systems, and methods for virtual representation of user interface devices
JP2010108500A (ja) 着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法
US20210089162A1 (en) Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user
US10978019B2 (en) Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
US11443540B2 (en) Information processing apparatus and information processing method
US11630520B1 (en) Systems and methods for sensing gestures via vibration-sensitive wearables donned by users of artificial reality systems
WO2017130514A1 (ja) 情報処理装置、情報処理方法、およびプログラムを記録したコンピュータ読み取り可能な記録媒体
KR20150040580A (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
US20210109606A1 (en) Automatic Switching between Different Modes of Tracking User Motions to Control Computer Applications
JP2007034628A (ja) 画像処理方法及び装置
US11137600B2 (en) Display device, display control method, and display system
JP7394046B2 (ja) システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム
JP7300436B2 (ja) 情報処理装置、システム、情報処理方法および情報処理プログラム
JP7434207B2 (ja) システム、情報処理方法および情報処理プログラム
WO2019054037A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7513564B2 (ja) システム、情報処理方法および情報処理プログラム
WO2023238678A1 (ja) 情報処理装置、コントローラ表示方法およびコンピュータプログラム
WO2023157498A1 (ja) 情報処理装置、デバイス速度推定方法およびデバイス位置推定方法
WO2023275919A1 (ja) ウェアラブル端末装置、プログラムおよび表示方法
TW202414033A (zh) 追蹤系統、追蹤方法及自追蹤追蹤器
EP3734415A1 (en) Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231127

R150 Certificate of patent or registration of utility model

Ref document number: 7394046

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150