JP7434207B2 - システム、情報処理方法および情報処理プログラム - Google Patents
システム、情報処理方法および情報処理プログラム Download PDFInfo
- Publication number
- JP7434207B2 JP7434207B2 JP2021067661A JP2021067661A JP7434207B2 JP 7434207 B2 JP7434207 B2 JP 7434207B2 JP 2021067661 A JP2021067661 A JP 2021067661A JP 2021067661 A JP2021067661 A JP 2021067661A JP 7434207 B2 JP7434207 B2 JP 7434207B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- image sensor
- user
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 49
- 238000003672 processing method Methods 0.000 title claims description 8
- 238000012545 processing Methods 0.000 claims description 56
- 238000004364 calculation method Methods 0.000 claims description 52
- 238000006243 chemical reaction Methods 0.000 claims description 37
- 230000008859 change Effects 0.000 claims description 30
- 238000000034 method Methods 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 16
- 230000009466 transformation Effects 0.000 claims description 13
- 230000036544 posture Effects 0.000 description 36
- 238000009434 installation Methods 0.000 description 35
- 238000004891 communication Methods 0.000 description 32
- 238000010586 diagram Methods 0.000 description 15
- 230000004044 response Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000002149 energy-dispersive X-ray emission spectroscopy Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Image Input (AREA)
Description
本発明の別の観点によれば、表示装置に表示する表示画像を生成する情報処理方法であって、所定のタイミングで全画素を同期的にスキャンする第1画像センサにより生成された第1画像信号と、画素ごとに入射する光の強度変化を検出したときに非同期的に第2画像信号を生成するイベント駆動型のビジョンセンサを含む第2画像センサにより生成された第2画像信号とを取得する取得ステップと、少なくとも第2画像信号に基づいてユーザーを認識し、少なくとも第2画像信号に基づいて、ユーザーに関する座標情報を算出する算出ステップと、第1画像センサ及び第2画像センサの姿勢情報に基づいて、座標情報に対する座標変換処理を行う変換処理ステップと、座標変換処理後の座標情報に基づいて、ユーザーの状態を示す表示画像を生成する画像生成ステップとを含む情報処理方法が提供される。
本発明のさらに別の観点によれば、所定のタイミングで全画素を同期的にスキャンする第1画像センサにより生成された第1画像信号と、画素ごとに入射する光の強度変化を検出したときに非同期的に第2画像信号を生成するイベント駆動型のビジョンセンサを含む第2画像センサにより生成された第2画像信号とを取得する機能と、少なくとも第2画像信号に基づいてユーザーを認識し、少なくとも第2画像信号に基づいて、ユーザーに関する座標情報を算出する機能と、第1画像センサ及び第2画像センサの姿勢情報に基づいて、座標情報に対する座標変換処理を行う機能と、座標変換処理後の座標情報に基づいて、ユーザーの状態を示す表示画像を生成する機能とをコンピュータに実現させる情報処理プログラムが提供される。
本実施形態に係るシステム1は、図1に示すように、センサ装置であるカメラユニット10と、情報処理装置20と、コントローラ30と、表示装置40とを含むゲームシステムである。情報処理装置20は、カメラユニット10、コントローラ30、および表示装置40のぞれぞれと有線または無線のネットワークにより接続される。
システム1では、カメラユニット10およびコントローラ30から送信される情報に応じて情報処理装置20がゲームを進行し、表示装置40が、情報処理装置20の実行時画面、例えばゲーム画面を表示する。
カメラユニット10は、ユーザーに関する座標情報を算出して出力することにより、コントローラ30と同様にユーザー操作を受け付けるための操作装置として機能する。このようなカメラユニット10は、ユーザーに関する座標情報を算出するために、被写界にユーザーが収まる位置、例えばユーザーから1メートル程度の距離に配置され、手動または電動で仰角を変更可能である。図1の例では、カメラユニット10は、表示装置40の近傍に配置される。カメラユニット10の配置の詳細は後述する。
図2は、本発明の一実施形態に係るシステムの概略的な構成を示すブロック図である。
カメラユニット10は、RGBカメラ11と、EDS(Event Driven Sensor)12と、IMU(Inertial Measurement Unit)13と、位置情報取得部14と、第1の演算処理装置として機能する算出部15と、情報出力部16とを含む。
RGBカメラ11は、第1画像センサであるイメージセンサ111と、イメージセンサ111に接続される処理回路112とを含む。イメージセンサ111は、例えば所定の周期で、またはユーザー操作に応じた所定のタイミングで全ピクセル(全画素)を同期的にスキャンすることによって第1画像信号であるRGB画像信号113を生成する。処理回路112は、例えばRGB画像信号113を保存および伝送に適した形式に変換する。また、処理回路112は、RGB画像信号113にタイムスタンプを与える。
なお、本明細書では、当該信号に基づいて画像を構築可能な信号を画像信号という。したがって、RGB画像信号113およびイベント信号123は、画像信号の一例を示す。
算出部15の座標算出部151は、例えば、イベント信号123において同じ極性のイベントが発生していることが示される連続した画素領域に存在するオブジェクトを検出し、RGB画像信号113の対応する部分に基づいて被写体認識を行うことによりユーザーを認識する。カメラユニット10の被写界に複数のユーザーが含まれる場合、座標算出部151は、それぞれのユーザーを識別する。
そして、座標算出部151は、認識したユーザーごとに、学習済みモデル152に基づいて、RGB画像信号113からユーザーが有する複数の関節の位置を示す座標情報を算出する。学習済みモデル152は、例えば、複数の関節を有する人物の画像を入力データとし、人物の複数の関節の位置を示す座標情報を正解データとした教師あり学習を実行することによって予め構築することができる。なお、機械学習の具体的な手法については、公知の各種の技術を利用可能であるため詳細な説明は省略する。また、算出部15に関係性学習部を備え、RGB画像信号113が入力される度に、入力されたRGB画像信号113に基づく画像と関節の位置を示す座標情報との関係性を学習して学習済みモデル152を更新する構成としてもよい。
基準設置状態とは、図4Aおよび図4Bに示すように、ユーザーUが表示装置40に正対した状態で、カメラユニット10は、表示装置40のユーザーU側に、ユーザーUに正対して配置される状態である。基準設置状態において、ユーザーU、カメラユニット10の撮像方向(矢印C)、表示装置40の表示方向(矢印D)は略平行である。
なお、このような基準設置状態は、例えば、情報処理装置20によって表示装置40にチュートリアルなどを表示し、ユーザーUにカメラユニット10の正しい配置を促すことにより実現する。この時、カメラユニット10によりテスト撮影を行い、生成されたRGB画像信号113およびイベント信号123を評価することにより、基準設置状態が正しく実現されているかを判断することができる。また、基準設置状態が実現された際に、IMU13により取得した姿勢情報、および、位置情報取得部14により生成された位置情報は、基準設置状態の姿勢情報および位置情報である。基準設置状態の姿勢情報および位置情報は、情報出力部16により出力され、情報処理装置20における情報処理に用いられる。
このような場合には、図5に示すように、コントローラ30およびユーザーUの体の各要素が重ならないようにカメラユニット10の設置状態を変更することにより、生成されたRGB画像信号113およびイベント信号123においてコントローラ30およびユーザーUの両手を分離して座標情報を算出することができる。図5は、ユーザーU、カメラユニット10、および表示装置40の位置関係を側方から見た図であり、カメラユニット10の位置は変更せずに、仰角を角度a1だけ変更した例を示す。角度a1は、IMU13により取得される姿勢情報から求めることができる。
図6Aは、カメラユニット10の仰角は変更せずに、ユーザーUから表示装置40を見た際の水平方向において、カメラユニットの位置を距離d1だけ変更した例を示す。距離d1は、位置情報取得部14により取得された位置情報から求めることができる。また、ユーザーUを中心とした回転角度である角度a2は、IMU13により取得される姿勢情報から求めることができる。
図6Bは、カメラユニット10の仰角は変更せずに、ユーザーUから表示装置40を見た際の水平方向において、カメラユニットの位置を距離d2だけ変更し、さらに、前後方向において、カメラユニットの位置を距離d2だけ変更した例を示す。距離d2およびd3は、位置情報取得部14により取得された位置情報から求めることができる。また、ユーザーUを中心とした回転角度である角度a3は、IMU13により取得される姿勢情報から求めることができる。
制御部22の推定部221は、通信部21を介して取得した姿勢情報および位置情報に基づいて、表示装置40とカメラユニット10との相対的な位置関係を推定する。上述したように、ユーザーU、カメラユニット10、および表示装置40の位置関係は、IMU13により取得される姿勢情報、および位置情報取得部14により取得された位置情報から求めることができる。
姿勢情報または位置情報の変化が所定の閾値を超えた場合とは、カメラユニット10の設置状態が座標情報の算出にふさわしくない、あるいはカメラユニット10の設置状態が変化してしまい、座標情報の算出が困難である等、カメラユニット10の設置状態を変更する必要がある場合である。一方、変化量が所定の閾値未満である場合とは、カメラユニット10の設置状態が座標情報の算出に適した状態である、あるいは、カメラユニット10の設置状態が変化していたとしても、上述した各部による処理によって、その変化を補完可能な範囲であるため、カメラユニット10の設置状態を変更する必要がない場合である。なお、閾値は目的に応じて変更してもよい。例えば、プレイ対象のゲームの内容や、シーン等に応じた許容範囲に基づき、閾値を変更してもよい。
通信部31は、情報処理装置20の通信部21から出力された制御値を受信して、力覚提示部33、振動部34、および音声出力部35の各部に出力する。また、通信部31は、操作部32により受け付けたユーザー操作に関する情報を、情報処理装置20に出力する。
操作部32は、ボタンおよびパッドなどの複数の操作子を備え、操作子に対するユーザーの操作入力を受け付ける。
力覚提示部33は、操作部32の少なくとも一部の操作子に設けられ、情報処理装置20から供給される制御値にしたがい、ユーザー操作に抗する、あるいは連動する力をユーザーに提示する。具体的に、力覚提示部33は、回転するロータを含むモータやアクチュエータ等で構成できる。力覚提示部33を構成する力覚提示装置については広く知られたものを採用できるので、ここでの詳しい説明を省略する。
音声出力部35は、情報処理装置20から供給される制御値にしたがい、音声を出力するものであり、例えばスピーカにより構成できる。音声出力部35は、ユーザー操作が行われた場合に音声を出力することにより、ユーザー操作が正しく行われ、情報処理装置20に認識されたことをユーザーに通知することが可能である。
なお、上述した力覚提示部33による力覚の提示と連動して、振動部34による振動と、音声出力部35による音声出力との少なくとも一方が行われることにより、ユーザーへのフィードバック制御の多様性を高めることが可能である。
また、コントローラ30に、音声入力部を備え、音声認識技術を適用してもよい。例えば、コントローラ30にマイクなどの音声入力部と音声認識部とを備え、ユーザーが発声するコマンドや、ユーザーの呼びかけなどを示す情報を、通信部31を介して情報処理装置20に供給してもよい。
受信部41は、情報処理装置20の画像生成部224が生成した表示画像を示す情報を、通信部21を介して受信する。
表示部42は、例えばLCD(Liquid Crystal Display)や有機ELなどのモニタを備え、受信部41により受信した情報に基づき、表示画像を表示することにより、ユーザーに提示することが可能である。
なお、制御値算出部223による制御値の算出の際に、変換処理部222により変換処理を行う前の、通信部21を介して取得した座標情報を補助的に利用してもよい。また、変換処理部222により変換処理を行う前の、通信部21を介して取得した座標情報に基づく制御値と、変換処理後の座標情報に基づく制御値との両方を算出してもよい。
制御値算出部223は、ユーザー操作に応じたフィードバック制御として表示画像をどのように変化させるかを示す制御値を算出する。制御値算出部223による制御値の算出は、予め定められた計算式やテーブル等にしたがって行うことができる。
なお、制御値算出部223が、通信部21を介して取得した座標情報に基づく制御値と、変換処理後の座標情報に基づく制御値との両方を算出する場合に、詳細な描画が必要な部分については通信部21を介して取得した座標情報に基づく制御値を用いることにより、より繊細な描画を実現することも可能である。
そして、算出部15がユーザーに関する座標情報を算出し(ステップS103)、情報出力部16が座標情報、姿勢情報、および位置情報を出力する(ステップS104)。
カメラユニット10はステップS103からステップS104の処理を繰り返す(ステップS101からS102の処理も繰り返されるが、必ずしもステップS103以降の処理と同じ周期でなくてもよい)ことにより、ユーザーの状態を示す各種情報を情報処理装置20に供給することが可能である。
そして、警告部208が姿勢情報の変化量と所定の閾値とを比較し(ステップS202)、変化量が所定の閾値以上である場合(ステップS202NO)には、警告動作を行い(ステップS203)、ユーザーにカメラユニット10の設定状態の変更を促す。
一方、変化量が所定の閾値未満である場合(ステップS202YES)には、ステップS204に進む。
なお、ステップS202の判定処理においては、姿勢情報の変化量に代えて、または加えて、位置情報の変化量と所定の閾値とを比較してもよい。このような判定を行うことにより、カメラユニット10の設定状態をより厳密に監視し、適切なタイミングで警告動作を行うことが可能となる。
次に、制御値算出部223がフィードバック制御の制御値を算出し(ステップS206)、画像生成部224が制御値に基づいて表示画像を生成し(ステップS207)、通信部21を介して表示画像を出力する(ステップS208)。
したがって、カメラユニット10の設置状態の変化にかかわらず、レイテンシを抑えつつ、より正確なユーザーの状態に応じた表示画像を生成することができる。また、カメラユニット10の設置位置の自由度を向上させることができる。
また、本発明の一実施形態のカメラユニット10は、ユーザーに関する座標情報を算出することによりユーザー操作を受け付けることができるため、従来のポインティングデバイス方式の操作装置のようにカーソル位置を維持するためにユーザーの肉体疲労を引き起こすこともない。また、カメラユニット10は、従来の姿勢検出方式の操作装置のように認識対象となるマーカーやアタッチメントをユーザーに装着させる必要もない。
このような構成により、RGB画像信号113およびイベント信号123の生成から座標情報の算出までをカメラユニット10で行い、サーバ50には座標情報とカメラユニット10の姿勢情報等とを出力することにより、クラウドサーバなどのサーバを用いたゲームシステムにおいても同様の効果を得ることができる。
Claims (7)
- 所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサと、
画素ごとに入射する光の強度変化を検出したときに非同期的に第2画像信号を生成するイベント駆動型のビジョンセンサを含む第2画像センサと、
前記第1画像センサおよび前記第2画像センサの位置情報を取得する位置情報取得部と、
前記第1画像センサ及び前記第2画像センサの姿勢情報を取得する慣性センサと、
前記位置情報と前記姿勢情報とに基づいて、表示画像を表示する表示装置と前記第1画像センサおよび前記第2画像センサとの相対的な位置関係を推定する推定部と、
少なくとも前記第2画像信号に基づいてユーザーを認識し、少なくとも前記第2画像信号に基づいて、前記ユーザーに関する座標情報を算出する第1の演算処理装置と、
前記位置関係に基づいて、前記座標情報に対する座標変換処理を行う第2の演算処理装置と、
前記座標変換処理後の前記座標情報に基づいて、前記ユーザーの状態を示す前記表示画像を生成する画像生成装置と、を備えるシステム。 - 前記座標情報は、前記ユーザーの姿勢に関する座標情報、前記ユーザーの腕の形状に関する座標情報、前記ユーザーの手指の形状に関する座標情報、または前記ユーザーが装着または保持している外部装置の姿勢に関する座標情報の少なくとも1つを含む、請求項1に記載のシステム。
- 前記第1の演算処理装置は、複数の関節を有する人物の画像と、前記複数の関節の位置を示す座標情報との関係性を学習することによって構築された学習済みモデルに基づいて、前記ユーザーの少なくとも1つの関節の座標情報を算出する、請求項1または請求項2に記載のシステム。
- 前記姿勢情報の変化が所定の閾値を超えた場合に、警告動作を行う警告部をさらに備える、請求項1から請求項3のいずれか1項に記載のシステム。
- 前記第1画像センサと、前記第2画像センサと、前記慣性センサと、前記第1の演算処理装置と含むセンサ装置と、
前記第2の演算処理装置と、前記画像生成装置とを含む情報処理装置と、を含むシステムであって、
前記センサ装置は、前記姿勢情報と、前記座標情報とを前記情報処理装置に出力する、請求項1から請求項4のいずれか1項に記載のシステム。 - 表示装置に表示する表示画像を生成する情報処理方法であって、
所定のタイミングで全画素を同期的にスキャンする第1画像センサにより生成された第1画像信号と、画素ごとに入射する光の強度変化を検出したときに非同期的に第2画像信号を生成するイベント駆動型のビジョンセンサを含む第2画像センサにより生成された前記第2画像信号とを取得する取得ステップと、
前記第1画像センサ及び前記第2画像センサの位置情報と、前記第1画像センサ及び前記第2画像センサの姿勢情報とに基づいて、前記表示装置と前記第1画像センサおよび前記第2画像センサとの相対的な位置関係を推定する推定ステップと、
少なくとも前記第2画像信号に基づいてユーザーを認識し、少なくとも前記第2画像信号に基づいて、前記ユーザーに関する座標情報を算出する算出ステップと、
前記位置関係に基づいて、前記座標情報に対する座標変換処理を行う変換処理ステップと、
前記座標変換処理後の前記座標情報に基づいて、前記ユーザーの状態を示す前記表示画像を生成する画像生成ステップと
を含む情報処理方法。 - 所定のタイミングで全画素を同期的にスキャンする第1画像センサにより生成された第1画像信号と、画素ごとに入射する光の強度変化を検出したときに非同期的に第2画像信号を生成するイベント駆動型のビジョンセンサを含む第2画像センサにより生成された前記第2画像信号とを取得する機能と、
前記第1画像センサ及び前記第2画像センサの位置情報と、前記第1画像センサ及び前記第2画像センサの姿勢情報とに基づいて、表示画像を表示する表示装置と前記第1画像センサおよび前記第2画像センサとの相対的な位置関係を推定する機能と、
少なくとも前記第2画像信号に基づいてユーザーを認識し、少なくとも前記第2画像信号に基づいて、前記ユーザーに関する座標情報を算出する機能と、
前記位置関係に基づいて、前記座標情報に対する座標変換処理を行う機能と、
前記座標変換処理後の前記座標情報に基づいて、前記ユーザーの状態を示す前記表示画像を生成する機能と
をコンピュータに実現させる情報処理プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021067661A JP7434207B2 (ja) | 2021-04-13 | 2021-04-13 | システム、情報処理方法および情報処理プログラム |
PCT/JP2022/013836 WO2022220049A1 (ja) | 2021-04-13 | 2022-03-24 | システム、情報処理方法および情報処理プログラム |
US18/554,028 US20240127629A1 (en) | 2021-04-13 | 2022-03-24 | System, information processing method, and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021067661A JP7434207B2 (ja) | 2021-04-13 | 2021-04-13 | システム、情報処理方法および情報処理プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022162703A JP2022162703A (ja) | 2022-10-25 |
JP2022162703A5 JP2022162703A5 (ja) | 2023-04-11 |
JP7434207B2 true JP7434207B2 (ja) | 2024-02-20 |
Family
ID=83640590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021067661A Active JP7434207B2 (ja) | 2021-04-13 | 2021-04-13 | システム、情報処理方法および情報処理プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240127629A1 (ja) |
JP (1) | JP7434207B2 (ja) |
WO (1) | WO2022220049A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017191576A (ja) | 2016-04-15 | 2017-10-19 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
JP2020181123A (ja) | 2019-04-26 | 2020-11-05 | 塁 佐藤 | カラオケ演出システム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4720874B2 (ja) * | 2008-08-14 | 2011-07-13 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
JP7104611B2 (ja) * | 2018-11-22 | 2022-07-21 | 株式会社デンソーアイティーラボラトリ | 情報処理装置、情報処理方法およびプログラム |
JP2021048456A (ja) * | 2019-09-17 | 2021-03-25 | 株式会社東芝 | 画像処理装置 |
-
2021
- 2021-04-13 JP JP2021067661A patent/JP7434207B2/ja active Active
-
2022
- 2022-03-24 WO PCT/JP2022/013836 patent/WO2022220049A1/ja active Application Filing
- 2022-03-24 US US18/554,028 patent/US20240127629A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017191576A (ja) | 2016-04-15 | 2017-10-19 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
JP2020181123A (ja) | 2019-04-26 | 2020-11-05 | 塁 佐藤 | カラオケ演出システム |
Also Published As
Publication number | Publication date |
---|---|
US20240127629A1 (en) | 2024-04-18 |
WO2022220049A1 (ja) | 2022-10-20 |
JP2022162703A (ja) | 2022-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017077918A1 (ja) | 情報処理装置、情報処理システム、および情報処理方法 | |
JP6465672B2 (ja) | 情報処理装置および情報処理方法 | |
JP2018511098A (ja) | 複合現実システム | |
US20210042513A1 (en) | Information processing apparatus, information processing method, and program | |
JP2021002301A (ja) | 画像表示システム、画像表示装置、画像表示方法、プログラム、及び頭部装着型画像表示装置 | |
WO2020003860A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2020110659A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2022000697A (ja) | 表示装置、表示装置の制御方法 | |
US11137600B2 (en) | Display device, display control method, and display system | |
JP7434207B2 (ja) | システム、情報処理方法および情報処理プログラム | |
JP7300436B2 (ja) | 情報処理装置、システム、情報処理方法および情報処理プログラム | |
EP4075786A1 (en) | Image processing device, system, image processing method and image processing program | |
JP7394046B2 (ja) | システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム | |
WO2022220048A1 (ja) | システム、情報処理方法および情報処理プログラム | |
US11954269B2 (en) | Information processing apparatus, information processing method, and program for generating location data | |
JP2021022075A (ja) | 映像表示制御装置、方法およびプログラム | |
WO2021131950A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR20180058199A (ko) | 영상 회의를 위한 전자 장치 및 그의 동작 방법 | |
WO2023195056A1 (ja) | 画像処理方法、ニューラルネットワークの学習方法、三次元画像表示方法、画像処理システム、ニューラルネットワークの学習システム、及び三次元画像表示システム | |
WO2023157498A1 (ja) | 情報処理装置、デバイス速度推定方法およびデバイス位置推定方法 | |
WO2023157338A1 (ja) | 情報処理装置およびデバイス位置推定方法 | |
WO2023249073A1 (ja) | 情報処理装置、ディスプレイデバイス、情報処理方法、及びプログラム | |
US20190180577A1 (en) | Output control device, output controlling method and program | |
CN115552891A (zh) | 远程控制系统和其远程作业装置、影像处理装置及程序 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230403 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230403 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7434207 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |