JPWO2019176035A1 - Image generator, image generation system, and image generation method - Google Patents

Image generator, image generation system, and image generation method Download PDF

Info

Publication number
JPWO2019176035A1
JPWO2019176035A1 JP2020506041A JP2020506041A JPWO2019176035A1 JP WO2019176035 A1 JPWO2019176035 A1 JP WO2019176035A1 JP 2020506041 A JP2020506041 A JP 2020506041A JP 2020506041 A JP2020506041 A JP 2020506041A JP WO2019176035 A1 JPWO2019176035 A1 JP WO2019176035A1
Authority
JP
Japan
Prior art keywords
camera
image
posture
posture information
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020506041A
Other languages
Japanese (ja)
Other versions
JP7122372B2 (en
Inventor
孝範 南野
孝範 南野
武 中川
武 中川
貴一 池田
貴一 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2019176035A1 publication Critical patent/JPWO2019176035A1/en
Application granted granted Critical
Publication of JP7122372B2 publication Critical patent/JP7122372B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

カメラ画像取得部135は、ヘッドマウントディスプレイの姿勢変化に連動して姿勢変化が可能なカメラによる撮影画像を取得する。カメラ姿勢情報取得部134は、カメラの撮影時の姿勢情報を取得する。差分計算部136は、ヘッドマウントディスプレイの姿勢情報とカメラの撮影時の姿勢情報の差分を算出する。画像補正部138は、算出された差分にもとづいてヘッドマウントディスプレイの姿勢に合うように撮影画像を補正する。 The camera image acquisition unit 135 acquires an image captured by the camera that can change the posture in conjunction with the change in the posture of the head-mounted display. The camera posture information acquisition unit 134 acquires posture information at the time of shooting by the camera. The difference calculation unit 136 calculates the difference between the posture information of the head-mounted display and the posture information at the time of shooting by the camera. The image correction unit 138 corrects the captured image so as to match the posture of the head-mounted display based on the calculated difference.

Description

この発明は、画像を生成する装置、システムおよび方法に関する。 The present invention relates to devices, systems and methods for producing images.

ヘッドマウントディスプレイ(HMD)が様々な分野で利用されている。HMDにヘッドトラッキング機能をもたせ、ユーザの頭部の姿勢と連動して表示画面を更新することで、映像世界への没入感を高められる。 Head-mounted displays (HMDs) are used in various fields. By adding a head tracking function to the HMD and updating the display screen in conjunction with the posture of the user's head, it is possible to enhance the immersive feeling in the video world.

特開2015−95045号公報JP-A-2015-95045

HMDから遠隔地に配置したロボットなどの制御装置にコマンドを送信してロボットを操作し、ロボットに搭載されたカメラから見た映像をロボットから受信してHMDの表示パネルに表示することにより、HMDを装着したユーザがロボットを遠隔操作するシステムが利用されている。 By sending a command from the HMD to a control device such as a robot located in a remote location to operate the robot, and receiving the image seen from the camera mounted on the robot from the robot and displaying it on the display panel of the HMD, the HMD A system is used in which a user wearing a robot remotely controls a robot.

このような遠隔操作システムでは、HMDを装着したユーザの姿勢に連動してロボットのカメラの姿勢が制御され、ロボットのカメラの撮影画像をユーザがリアルタイムで見ることができるため、ユーザはロボットが配置された場所にいるような臨場感をもって、遠隔操作を行うことができる。しかしながら、ロボットのモータ制御の遅延と誤差、さらには変動するネットワーク遅延によって、カメラの姿勢がHMDの姿勢と一致せず、HMDの姿勢からずれたカメラ画像をHMDで見ることになり、ユーザは酔ったような感覚に陥ることがある。 In such a remote control system, the posture of the robot camera is controlled in conjunction with the posture of the user wearing the HMD, and the user can see the captured image of the robot camera in real time. Remote control can be performed with a sense of realism as if you were in a designated place. However, due to the delay and error of the motor control of the robot and the fluctuating network delay, the attitude of the camera does not match the attitude of the HMD, and the camera image deviated from the attitude of the HMD is viewed on the HMD, and the user gets drunk. You may feel like you are.

本発明はこうした課題に鑑みてなされたものであり、その目的は、ヘッドマウントディスプレイに表示されるカメラ画像をヘッドマウントディスプレイの姿勢に適合させることのできる画像生成技術を提供することにある。 The present invention has been made in view of these problems, and an object of the present invention is to provide an image generation technique capable of adapting a camera image displayed on a head-mounted display to the posture of the head-mounted display.

上記課題を解決するために、本発明のある態様の画像生成装置は、ヘッドマウントディスプレイの姿勢変化に連動して姿勢変化が可能なカメラによる撮影画像を取得するカメラ画像取得部と、前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得部と、前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算部と、算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正部とを含む。 In order to solve the above problems, the image generation device of an embodiment of the present invention includes a camera image acquisition unit that acquires an image captured by a camera capable of changing the posture in conjunction with the posture change of the head mount display, and a camera image acquisition unit of the camera. The camera attitude information acquisition unit that acquires the attitude information at the time of shooting, the difference calculation unit that calculates the difference between the attitude information of the head mount display and the attitude information at the time of shooting by the camera, and the calculation unit based on the calculated difference. It includes an image correction unit that corrects the captured image so as to match the posture of the head mount display.

本発明の別の態様は、画像生成方法である。この方法は、ヘッドマウントディスプレイの姿勢変化に連動して姿勢変化が可能なカメラによる撮影画像を取得するカメラ画像取得ステップと、前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得ステップと、前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算ステップと、算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正ステップとを含む。 Another aspect of the present invention is an image generation method. In this method, a camera image acquisition step of acquiring an image taken by a camera capable of changing the posture in conjunction with a posture change of the head mount display, a camera attitude information acquisition step of acquiring the posture information at the time of shooting by the camera, and a camera attitude information acquisition step. A difference calculation step for calculating the difference between the posture information of the head mount display and the posture information at the time of shooting by the camera, and the photographed image is corrected so as to match the posture of the head mount display based on the calculated difference. Includes image correction steps.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above components, the expression of the present invention converted between a method, a device, a system, a computer program, a recording medium in which a computer program is readable, a data structure, and the like are also used in the present invention. It is effective as an aspect of.

本発明によれば、ヘッドマウントディスプレイに表示されるカメラ画像をヘッドマウントディスプレイの姿勢に適合させることができる。 According to the present invention, the camera image displayed on the head-mounted display can be adapted to the posture of the head-mounted display.

本実施の形態に係る情報処理システムの構成例を示す図である。It is a figure which shows the configuration example of the information processing system which concerns on this embodiment. 図1のHMDの機能ブロックを示す図である。It is a figure which shows the functional block of the HMD of FIG. 図1のロボットの外観構成を示す図である。It is a figure which shows the appearance structure of the robot of FIG. 図3のロボットにおける筐体の姿勢の例を示す図である。It is a figure which shows the example of the posture of the housing in the robot of FIG. 図3のロボットにおける筐体の姿勢の例を示す図である。It is a figure which shows the example of the posture of the housing in the robot of FIG. 図1のロボットの機能ブロックを示す図である。It is a figure which shows the functional block of the robot of FIG. 図2のリプロジェクション部の機能構成図である。It is a functional block diagram of the projection part of FIG. 従来のリプロジェクション処理を説明する図である。It is a figure explaining the conventional reprojection processing. 図7のリプロジェクション部によるリプロジェクション処理を説明する図である。It is a figure explaining the reprojection processing by the reprojection part of FIG. 図7のリプロジェクション部によるリプロジェクション処理の手順を説明するフローチャートである。It is a flowchart explaining the procedure of the reprojection processing by the reprojection part of FIG.

図1は、本実施の形態に係る情報処理システム1の構成例を示す。情報処理システム1は、ロボット10と、ユーザAが頭部に装着するヘッドマウントディスプレイ装置(HMD)100とを備える。HMD100はアクセスポイント(AP)2を介して、ネットワーク4に接続される。AP2は無線アクセスポイントおよびルータの機能を有し、HMD100は、AP2と既知の無線通信プロトコルで接続するが、ケーブルで接続してもよい。 FIG. 1 shows a configuration example of the information processing system 1 according to the present embodiment. The information processing system 1 includes a robot 10 and a head-mounted display device (HMD) 100 worn by the user A on the head. The HMD 100 is connected to the network 4 via the access point (AP) 2. The AP2 has the functions of a wireless access point and a router, and the HMD 100 connects to the AP2 using a known wireless communication protocol, but may be connected by a cable.

ロボット10は、アクチュエータ装置12と、アクチュエータ装置12により姿勢を変更可能に駆動される筐体20とを備える。筐体20には、右カメラ14aおよび左カメラ14bが搭載される。以下、右カメラ14aおよび左カメラ14bを特に区別しない場合には「カメラ14」と呼ぶ。実施例においてカメラ14は、アクチュエータ装置12により駆動される筐体20に設けられる。ロボット10はアクセスポイント(AP)3を介して、ネットワーク4に接続される。ロボット10は、AP3と既知の無線通信プロトコルで接続するが、ケーブルで接続してもよい。 The robot 10 includes an actuator device 12 and a housing 20 that is driven by the actuator device 12 so that its posture can be changed. A right camera 14a and a left camera 14b are mounted on the housing 20. Hereinafter, when the right camera 14a and the left camera 14b are not particularly distinguished, they are referred to as "camera 14". In the embodiment, the camera 14 is provided in the housing 20 driven by the actuator device 12. The robot 10 is connected to the network 4 via the access point (AP) 3. The robot 10 is connected to the AP3 by a known wireless communication protocol, but may be connected by a cable.

情報処理システム1において、HMD100とロボット10はネットワーク4を介して通信可能に接続する。なおHMD100とロボット10とが近くに存在する場合、両者はAPを介さずに、直接、無線または有線で通信可能に接続してもよい。情報処理システム1においてロボット10は、ユーザAのいわば分身として動作する。ユーザAが装着しているHMD100の動きはロボット10に伝達され、アクチュエータ装置12が、HMD100の動きに連動して筐体20を動かす。たとえばユーザAが首を前後に振ると、アクチュエータ装置12が筐体20を前後に振るように動かし、ユーザAが首を左右に振ると、アクチュエータ装置12が筐体20を左右に振るように動かす。これによりロボット10の周囲にいる人は、ユーザAがその場にいるかのような感覚をもって、ユーザAとコミュニケーションをとることができる。 In the information processing system 1, the HMD 100 and the robot 10 are communicably connected to each other via the network 4. When the HMD 100 and the robot 10 are close to each other, they may be directly connected to each other by wireless or wired communication without going through the AP. In the information processing system 1, the robot 10 operates as a so-called alter ego of the user A. The movement of the HMD 100 worn by the user A is transmitted to the robot 10, and the actuator device 12 moves the housing 20 in conjunction with the movement of the HMD 100. For example, when the user A shakes his head back and forth, the actuator device 12 moves the housing 20 back and forth, and when the user A shakes his head left and right, the actuator device 12 moves the housing 20 left and right. .. As a result, the person around the robot 10 can communicate with the user A as if the user A were there.

AP2の代わりに通信機能をもつゲーム機、パーソナルコンピュータなどの情報処理装置をクライアント装置として設け、HMD100をクライアント装置に無線または有線で接続してもよい。また、AP3の代わりにゲーム機、パーソナルコンピュータなどの情報処理装置をサーバ装置として設け、ロボット10をサーバ装置に無線または有線で接続してもよい。 Instead of AP2, an information processing device such as a game machine or a personal computer having a communication function may be provided as a client device, and the HMD 100 may be connected to the client device wirelessly or by wire. Further, instead of AP3, an information processing device such as a game machine or a personal computer may be provided as a server device, and the robot 10 may be connected to the server device wirelessly or by wire.

右カメラ14aおよび左カメラ14bは、筐体20の前面にて横方向に所定の間隔を空けて配置される。右カメラ14aおよび左カメラ14bはステレオカメラを構成し、右カメラ14aは右目用画像を所定の周期で撮影し、左カメラ14bは左目用画像を所定の周期で撮影する。この場合、右カメラ14aおよび左カメラ14bは、HMD100の姿勢変化に連動して姿勢変化が可能なように構成されている。撮影された右目用画像および左目用画像は、リアルタイムでユーザAのHMD100に送信される。HMD100は、受信した右目用画像を右目用表示パネルに表示し、受信した左目用画像を左目用表示パネルに表示する。これによりユーザAは、ロボット10の筐体20が向いている方向の映像をリアルタイムで見ることができる。 The right camera 14a and the left camera 14b are arranged laterally at predetermined intervals on the front surface of the housing 20. The right camera 14a and the left camera 14b constitute a stereo camera, the right camera 14a captures an image for the right eye at a predetermined cycle, and the left camera 14b captures an image for the left eye at a predetermined cycle. In this case, the right camera 14a and the left camera 14b are configured so that the posture can be changed in conjunction with the posture change of the HMD 100. The captured right-eye image and left-eye image are transmitted to the user A's HMD100 in real time. The HMD 100 displays the received right-eye image on the right-eye display panel, and displays the received left-eye image on the left-eye display panel. As a result, the user A can see the image in the direction in which the housing 20 of the robot 10 is facing in real time.

このように情報処理システム1では、ロボット10がユーザAにより遠隔操作されてユーザAの顔の動きを再現し、またユーザAがHMD100を通じて、ロボット周辺の画像を見ることができる。 In this way, in the information processing system 1, the robot 10 is remotely controlled by the user A to reproduce the movement of the user A's face, and the user A can see the image around the robot through the HMD 100.

HMD100は、両目を完全に覆う没入型(非透過型)のディスプレイ装置に限られず、透過型のディスプレイ装置であってもよい。また形状としては、図示されるような帽子型であってもよいが、眼鏡型であってもよい。なおHMD100は専用の頭部装着ディスプレイ装置のみならず、表示パネル、マイク、スピーカを有する端末装置と、端末装置の表示パネルをユーザの目の前の位置に固定する筐体とから構成されてもよい。端末装置は、たとえばスマートフォンやポータブルゲーム機など、比較的小型の表示パネルを有するものであってよい。 The HMD 100 is not limited to an immersive (non-transmissive) display device that completely covers both eyes, and may be a transmissive display device. The shape may be a hat type as shown in the figure, but may be a spectacle type. The HMD 100 may be composed of not only a dedicated head-mounted display device but also a terminal device having a display panel, a microphone, and a speaker, and a housing for fixing the display panel of the terminal device at a position in front of the user. Good. The terminal device may have a relatively small display panel, such as a smartphone or a portable game machine.

図2は、HMD100の機能ブロックを示す。制御部120は、画像信号、音声信号、センサ情報などの各種信号およびデータや、命令を処理して出力するメインプロセッサである。記憶部122は、制御部120が処理するデータや命令などを一時的に記憶する。姿勢センサ124は、HMD100の回転角度や傾きなどの姿勢情報を所定の周期で検出する。姿勢センサ124は、少なくとも3軸の加速度センサおよび3軸のジャイロセンサを含む。 FIG. 2 shows a functional block of the HMD 100. The control unit 120 is a main processor that processes and outputs various signals and data such as image signals, audio signals, and sensor information, and commands. The storage unit 122 temporarily stores data, instructions, and the like processed by the control unit 120. The posture sensor 124 detects posture information such as the rotation angle and tilt of the HMD 100 at a predetermined cycle. The attitude sensor 124 includes at least a 3-axis accelerometer and a 3-axis gyro sensor.

通信制御部126は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、ロボット10との間で信号やデータを送受信する。通信制御部126は、制御部120から、姿勢センサ124で検出された姿勢情報を受け取り、ロボット10に送信する。また通信制御部126は、ロボット10から、画像データを受け取り、制御部120に供給する。制御部120は、画像データをロボット10から受け取ると、画像データを表示パネル102に供給して表示させる。 The communication control unit 126 transmits / receives signals and data to / from the robot 10 via a network adapter or an antenna by wired or wireless communication. The communication control unit 126 receives the attitude information detected by the attitude sensor 124 from the control unit 120 and transmits it to the robot 10. Further, the communication control unit 126 receives image data from the robot 10 and supplies it to the control unit 120. When the control unit 120 receives the image data from the robot 10, the control unit 120 supplies the image data to the display panel 102 and displays the image data.

リプロジェクション部130は、ロボット10から受信された画像データに対してリプロジェクション処理を施す。リプロジェクション部130の詳細な構成は後述する。 The reprojection unit 130 performs a reprojection process on the image data received from the robot 10. The detailed configuration of the reprojection unit 130 will be described later.

図3は、ロボット10の外観構成を示す。筐体20は、カメラ14を収容する。カメラ14は筐体前面に設けられる。カメラ14は、ハウジング36内に収容されている電源装置から電力線(図示せず)を介して電力を供給されて動作する。 FIG. 3 shows the appearance configuration of the robot 10. The housing 20 houses the camera 14. The camera 14 is provided on the front surface of the housing. The camera 14 operates by being supplied with electric power from a power supply device housed in the housing 36 via a power line (not shown).

筐体20は保護カバー19を有し、ロボット10を使用しない状態、つまりロボット10の電源がオフにされた状態では、保護カバー19が筐体前面を覆う閉位置に配置されて、カメラ14を保護する。 The housing 20 has a protective cover 19, and when the robot 10 is not used, that is, when the power of the robot 10 is turned off, the protective cover 19 is arranged in a closed position covering the front surface of the housing, and the camera 14 is mounted. Protect.

筐体20はアクチュエータ装置12によって姿勢を変更可能に支持されている。アクチュエータ装置12は、脚部40と、脚部40の上部に支持される半球状のハウジング36と、筐体20を駆動するための駆動機構50とを備える。駆動機構50は、長尺方向に第1貫通長孔32aを形成された第1円弧状アーム32と、長尺方向に第2貫通長孔34aを形成された第2円弧状アーム34と、第1円弧状アーム32と第2円弧状アーム34とを交差させた状態で、第1円弧状アーム32と第2円弧状アーム34とを回動可能に支持する台座30とを備える。台座30の上側は、カバー38により覆われており、カバー38で覆われた空間には、第1円弧状アーム32および第2円弧状アーム34をそれぞれ回転させるモータが配置されている。なお台座30は、ハウジング36に対して回動可能に支持されており、ハウジング36内には、台座30を回転させるモータが配置されている。 The housing 20 is supported by the actuator device 12 so that its posture can be changed. The actuator device 12 includes a leg portion 40, a hemispherical housing 36 supported on the upper portion of the leg portion 40, and a drive mechanism 50 for driving the housing 20. The drive mechanism 50 includes a first arc-shaped arm 32 having a first penetrating elongated hole 32a formed in the elongated direction, a second arc-shaped arm 34 having a second penetrating elongated hole 34a formed in the elongated direction, and a second. A pedestal 30 that rotatably supports the first arc-shaped arm 32 and the second arc-shaped arm 34 in a state where the first arc-shaped arm 32 and the second arc-shaped arm 34 are crossed is provided. The upper side of the pedestal 30 is covered with a cover 38, and in the space covered by the cover 38, motors for rotating the first arc-shaped arm 32 and the second arc-shaped arm 34 are arranged. The pedestal 30 is rotatably supported with respect to the housing 36, and a motor for rotating the pedestal 30 is arranged in the housing 36.

第1円弧状アーム32および第2円弧状アーム34は半円状に形成され、同じ回転中心を有するように両端部が台座30に支持される。半円状の第1円弧状アーム32の径は、半円状の第2円弧状アーム34の径よりも僅かに大きく、第1円弧状アーム32は、第2円弧状アーム34の外周側に配置される。第1円弧状アーム32と第2円弧状アーム34は、台座30において直交するように配置されてよい。実施例では、第1円弧状アーム32が台座30に支持された両端部を結ぶラインと、第2円弧状アーム34が台座30に支持された両端部を結ぶラインとが直交する。挿通部材42は、第1貫通長孔32aおよび第2貫通長孔34aに挿通されて、第1貫通長孔32aおよび第2貫通長孔34aの交差位置に配置される。挿通部材42は、第1円弧状アーム32および第2円弧状アーム34の回転により、第1貫通長孔32a内および第2貫通長孔34a内を摺動する。 The first arc-shaped arm 32 and the second arc-shaped arm 34 are formed in a semicircular shape, and both ends thereof are supported by the pedestal 30 so as to have the same rotation center. The diameter of the semicircular first arc-shaped arm 32 is slightly larger than the diameter of the semicircular second arc-shaped arm 34, and the first arc-shaped arm 32 is located on the outer peripheral side of the second arc-shaped arm 34. Be placed. The first arc-shaped arm 32 and the second arc-shaped arm 34 may be arranged so as to be orthogonal to each other on the pedestal 30. In the embodiment, the line connecting both ends of the first arcuate arm 32 supported by the pedestal 30 and the line connecting both ends of the second arcuate arm 34 supported by the pedestal 30 are orthogonal to each other. The insertion member 42 is inserted through the first through elongated hole 32a and the second through elongated hole 34a, and is arranged at the intersection position of the first through elongated hole 32a and the second through elongated hole 34a. The insertion member 42 slides in the first through elongated hole 32a and in the second through elongated hole 34a by the rotation of the first arc-shaped arm 32 and the second arc-shaped arm 34.

第1モータは、第1円弧状アーム32を回転させるために設けられ、第2モータは、第2円弧状アーム34を回転させるために設けられる。第1モータおよび第2モータは、台座30上に配置されて、台座30が回転すると、第1モータおよび第2モータも台座30とともに回転する。第3モータは、台座30を回転させるために設けられ、ハウジング36内に配置される。第1モータ、第2モータおよび第3モータは、図示しない電源装置から電力を供給されて回転する。 The first motor is provided to rotate the first arc-shaped arm 32, and the second motor is provided to rotate the second arc-shaped arm 34. The first motor and the second motor are arranged on the pedestal 30, and when the pedestal 30 rotates, the first motor and the second motor also rotate together with the pedestal 30. The third motor is provided to rotate the pedestal 30 and is arranged in the housing 36. The first motor, the second motor, and the third motor are rotated by being supplied with electric power from a power supply device (not shown).

第1モータが第1円弧状アーム32を回転し、第2モータが第2円弧状アーム34を回転し、第3モータが台座30を回転することで、アクチュエータ装置12は、挿通部材42に取り付けられた筐体20の向きおよび姿勢を変化させられる。 The actuator device 12 is attached to the insertion member 42 by the first motor rotating the first arc-shaped arm 32, the second motor rotating the second arc-shaped arm 34, and the third motor rotating the pedestal 30. The orientation and orientation of the housing 20 can be changed.

図4および図5は、ロボット10における筐体20の姿勢の例を示す図である。
図4(a)および(b)は、筐体20を左右方向に傾けた例を示す。図5(a)および(b)は、筐体20を前後方向に傾けた例を示す。このようにロボット10の駆動機構50は、筐体20に任意の姿勢をとらせることが可能となる。筐体20の姿勢は、第1モータおよび第2モータの駆動量を調整することで制御され、また筐体20の向きは、第3モータの駆動量を調整することで制御される。
4 and 5 are views showing an example of the posture of the housing 20 in the robot 10.
4 (a) and 4 (b) show an example in which the housing 20 is tilted in the left-right direction. 5 (a) and 5 (b) show an example in which the housing 20 is tilted in the front-rear direction. In this way, the drive mechanism 50 of the robot 10 allows the housing 20 to take an arbitrary posture. The posture of the housing 20 is controlled by adjusting the driving amounts of the first and second motors, and the orientation of the housing 20 is controlled by adjusting the driving amounts of the third motor.

図6は、ロボット10の機能ブロックを示す。ロボット10は、外部からの入力を受け付けて処理する入力系統22と、外部への出力を処理する出力系統24とを備える。入力系統22は、受信部60、センサ情報取得部62、動き検出部64、視線方向決定部66、およびアクチュエータ制御部68を備える。また出力系統24は、画像処理部80および送信部90を備える。 FIG. 6 shows a functional block of the robot 10. The robot 10 includes an input system 22 that receives and processes an input from the outside, and an output system 24 that processes an output to the outside. The input system 22 includes a receiving unit 60, a sensor information acquisition unit 62, a motion detecting unit 64, a line-of-sight direction determining unit 66, and an actuator control unit 68. The output system 24 also includes an image processing unit 80 and a transmission unit 90.

図6において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。 In FIG. 6, each element described as a functional block that performs various processes can be composed of a circuit block, a memory, and other LSIs in terms of hardware, and is loaded in the memory in terms of software. It is realized by a program or the like. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any of them.

上記したようにHMD100は、姿勢センサ124が検出したセンサ情報をロボット10に送信し、受信部60は、センサ情報を受信する。 As described above, the HMD 100 transmits the sensor information detected by the attitude sensor 124 to the robot 10, and the receiving unit 60 receives the sensor information.

センサ情報取得部62は、HMD100の姿勢センサ124が検出した姿勢情報を取得する。動き検出部64は、ユーザAの頭部に装着されたHMD100の姿勢を検出する。視線方向決定部66は、動き検出部64により検出されたHMD100の姿勢に応じて筐体20のカメラ14の視線方向を定める。 The sensor information acquisition unit 62 acquires the attitude information detected by the attitude sensor 124 of the HMD 100. The motion detection unit 64 detects the posture of the HMD 100 mounted on the head of the user A. The line-of-sight direction determination unit 66 determines the line-of-sight direction of the camera 14 of the housing 20 according to the posture of the HMD 100 detected by the motion detection unit 64.

動き検出部64は、HMD100を装着したユーザの頭部の姿勢を検出するヘッドトラッキング処理を行う。ヘッドトラッキング処理は、ユーザの頭部の姿勢に、HMD100の表示パネル102に表示する視野を連動させるために行われ、実施例のヘッドトラッキング処理では、HMD100の水平基準方向に対する回転角度と、水平面に対する傾き角度とが検出される。水平基準方向は、たとえばHMD100の電源がオンされたときに向いている方向として設定されてよい。 The motion detection unit 64 performs a head tracking process for detecting the posture of the head of the user wearing the HMD 100. The head tracking process is performed to link the posture of the user's head with the field of view displayed on the display panel 102 of the HMD 100, and in the head tracking process of the embodiment, the rotation angle of the HMD 100 with respect to the horizontal reference direction and the horizontal plane. The tilt angle and is detected. The horizontal reference direction may be set as, for example, the direction facing when the power of the HMD 100 is turned on.

視線方向決定部66は、動き検出部64により検出されたHMD100の姿勢に応じて、視線方向を定める。この視線方向は、ユーザAの視線方向であり、ひいては分身であるロボット10のカメラ14の視線方向(光軸方向)である。 The line-of-sight direction determination unit 66 determines the line-of-sight direction according to the posture of the HMD 100 detected by the motion detection unit 64. This line-of-sight direction is the line-of-sight direction of the user A, and by extension, the line-of-sight direction (optical axis direction) of the camera 14 of the robot 10 which is an alter ego.

カメラ14の視線方向(光軸方向)をユーザAの視線方向に連動させるために、ロボット10の基準姿勢を事前に設定しておく必要がある。図3には、第1円弧状アーム32と第2円弧状アーム34とが台座30に対して90度起立した状態を示しているが、この状態を水平方向として設定し、またロボット10の電源がオンされたときに筐体20の前面が向いている方向を、水平基準方向として設定してよい。なおロボット10は、HMD100と同様に姿勢センサを有して、水平方向を自律的に設定できるようにしてもよい。 In order to link the line-of-sight direction (optical axis direction) of the camera 14 with the line-of-sight direction of the user A, it is necessary to set the reference posture of the robot 10 in advance. FIG. 3 shows a state in which the first arc-shaped arm 32 and the second arc-shaped arm 34 are upright 90 degrees with respect to the pedestal 30, but this state is set as the horizontal direction and the power supply of the robot 10 is set. The direction in which the front surface of the housing 20 faces when is turned on may be set as the horizontal reference direction. The robot 10 may have an attitude sensor similar to the HMD 100 so that the horizontal direction can be set autonomously.

HMD100およびロボット10の基準姿勢を設定した状態で、視線方向決定部66は、動き検出部64により検出された回転角度および傾き角度を、そのままカメラ14の視線方向(光軸方向)として決定してよい。動き検出部64が、HMD100の回転角度および傾き角度を検出すると、視線方向決定部66は、HMD100の視線方向を3次元座標のベクトル(x,y,z)として決定し、このときロボット10のカメラ14の視線方向を同じ(x,y,z)と決定してもよく、また何らかの補正を加えた(x’,y’,z’)として決定してもよい。 With the reference postures of the HMD 100 and the robot 10 set, the line-of-sight direction determination unit 66 directly determines the rotation angle and tilt angle detected by the motion detection unit 64 as the line-of-sight direction (optical axis direction) of the camera 14. Good. When the motion detection unit 64 detects the rotation angle and the tilt angle of the HMD 100, the line-of-sight direction determination unit 66 determines the line-of-sight direction of the HMD 100 as a vector (x, y, z) of three-dimensional coordinates, and at this time, the robot 10 The line-of-sight direction of the camera 14 may be determined to be the same (x, y, z), or may be determined as (x', y', z') with some correction.

アクチュエータ制御部68は、視線方向決定部66で決定された視線方向となるようにカメラ14の向きを制御する。具体的にアクチュエータ制御部68は、第1モータ52、第2モータ54、第3モータ56に供給する電力を調整して、HMD100の動きに、筐体20の動きを追従させる。アクチュエータ制御部68によるモータ駆動制御は、リアルタイムに実施され、したがって筐体20の向きは、ユーザAの視線の向きと同じように動かされる。 The actuator control unit 68 controls the direction of the camera 14 so that the line-of-sight direction is determined by the line-of-sight direction determination unit 66. Specifically, the actuator control unit 68 adjusts the electric power supplied to the first motor 52, the second motor 54, and the third motor 56 to make the movement of the housing 20 follow the movement of the HMD 100. The motor drive control by the actuator control unit 68 is performed in real time, and therefore the orientation of the housing 20 is moved in the same manner as the direction of the line of sight of the user A.

実施例のアクチュエータ装置12によれば、筐体20は、第1円弧状アーム32および第2円弧状アーム34の回転中心を基準として駆動されるが、この動きは人の首と同じ動きを示す。アクチュエータ装置12は、2本の半円アームを交差させた簡易な構造でユーザAの首の動きを再現する。 According to the actuator device 12 of the embodiment, the housing 20 is driven with reference to the rotation centers of the first arc-shaped arm 32 and the second arc-shaped arm 34, and this movement shows the same movement as the human neck. .. The actuator device 12 reproduces the movement of the user A's neck with a simple structure in which two semicircular arms are crossed.

次に出力系統24について説明する。
出力系統24において、右カメラ14aおよび左カメラ14bは、アクチュエータ装置12により制御された方向に向けられて、それぞれの画角内を撮影する。右カメラ14aおよび左カメラ14bは、たとえば大人の平均的な両目の間隔となるように離れて配置されてよい。右カメラ14aが撮影した右目用画像データおよび左カメラ14bが撮影した左目用画像データは、送信部90からHMD100に送信されて、それぞれ表示パネル102の右半分および左半分に表示される。これらの画像は、右目および左目から見た視差画像を形成し、表示パネル102を2分割してなる領域にそれぞれ表示させることで、画像を立体視させることができる。なおユーザAは光学レンズを通して表示パネル102を見るために、画像処理部80は、予めレンズによる光学歪みを補正した画像データを生成して、HMD100に供給してもよい。
Next, the output system 24 will be described.
In the output system 24, the right camera 14a and the left camera 14b are directed in the direction controlled by the actuator device 12 and photograph within their respective angles of view. The right camera 14a and the left camera 14b may be spaced apart, for example, at the average distance between the eyes of an adult. The image data for the right eye taken by the right camera 14a and the image data for the left eye taken by the left camera 14b are transmitted from the transmission unit 90 to the HMD 100 and displayed on the right half and the left half of the display panel 102, respectively. These images form a parallax image viewed from the right eye and the left eye, and the display panel 102 is divided into two and displayed in each of the regions, so that the image can be viewed stereoscopically. In order for the user A to see the display panel 102 through the optical lens, the image processing unit 80 may generate image data in which the optical distortion caused by the lens is corrected in advance and supply the image data to the HMD 100.

右カメラ14aおよび左カメラ14bは、所定の周期(たとえば1/60秒)で撮影を行い、送信部90は遅延なく画像データをHMD100に送信する。これによりユーザAはロボット10の周囲の状況をリアルタイムで見ることができ、また顔の向きを変えることで、見たい方向を見ることができる。 The right camera 14a and the left camera 14b take pictures at a predetermined cycle (for example, 1/60 second), and the transmission unit 90 transmits the image data to the HMD 100 without delay. As a result, the user A can see the situation around the robot 10 in real time, and can see the desired direction by changing the direction of the face.

カメラ姿勢情報取得部70は、カメラ14の姿勢と向きを含む姿勢情報を取得して送信部90に供給する。送信部90はカメラ14の姿勢情報をHMD100に送信する。カメラ14の姿勢情報は、たとえば、モーションセンサにより検知させる姿勢情報を用いて求めてもよく、あるいは、ロボット10の筐体20の姿勢と向きを変化させるアクチュエータ装置12に搭載されたモータの位置情報から求めてもよい。 The camera posture information acquisition unit 70 acquires posture information including the posture and orientation of the camera 14 and supplies it to the transmission unit 90. The transmission unit 90 transmits the attitude information of the camera 14 to the HMD 100. The posture information of the camera 14 may be obtained by using, for example, the posture information detected by the motion sensor, or the position information of the motor mounted on the actuator device 12 that changes the posture and orientation of the housing 20 of the robot 10. You may ask from.

図7は、図2のリプロジェクション部130の機能構成図である。同図は機能に着目したブロック図を描いており、これらの機能ブロックはハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現することができる。 FIG. 7 is a functional configuration diagram of the projection unit 130 of FIG. The figure depicts a block diagram focusing on functions, and these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

リプロジェクション部130は、HMD姿勢情報取得部132と、カメラ姿勢情報取得部134と、カメラ画像取得部135と、差分計算部136と、警告部137と、画像補正部138とを含む。 The reprojection unit 130 includes an HMD attitude information acquisition unit 132, a camera attitude information acquisition unit 134, a camera image acquisition unit 135, a difference calculation unit 136, a warning unit 137, and an image correction unit 138.

HMD姿勢情報取得部132は、姿勢センサ124が検出したHMD100の姿勢と向きを含む姿勢情報(「HMD姿勢情報」と呼ぶ)を取得し、差分計算部136に供給する。カメラ姿勢情報取得部134は、通信制御部126がロボット10から受信した、カメラ14の撮影時のカメラ14の姿勢と向きを含む姿勢情報(「カメラ姿勢情報」と呼ぶ)を取得し、差分計算部136に供給する。カメラ画像取得部135は、通信制御部126がロボット10から受信した左右のカメラ14の撮影画像(「カメラ画像」と呼ぶ)を取得し、画像補正部138に供給する。 The HMD attitude information acquisition unit 132 acquires attitude information (referred to as “HMD attitude information”) including the attitude and orientation of the HMD 100 detected by the attitude sensor 124, and supplies it to the difference calculation unit 136. The camera posture information acquisition unit 134 acquires posture information (referred to as “camera posture information”) including the posture and orientation of the camera 14 at the time of shooting by the camera 14 received by the communication control unit 126 from the robot 10, and calculates the difference. Supply to unit 136. The camera image acquisition unit 135 acquires the captured images (referred to as “camera images”) of the left and right cameras 14 received from the robot 10 by the communication control unit 126 and supplies them to the image correction unit 138.

ここで、カメラ姿勢情報はカメラ画像にメタデータとして埋め込まれてもよい。カメラ姿勢情報をカメラ画像にメタデータとして埋め込んで伝送する方法として、HDMI(登録商標)2.1規格を利用してもよい。HDMI2.1規格では各フレームデータのVBlank信号に各フレームに適用すべき動的メタデータを挿入して伝送することが検討されている。動的メタデータにカメラ姿勢情報を埋め込めば、ロボット10のカメラ14による撮像時のカメラ姿勢情報をカメラ画像のフレームデータに同期させてHMD100に伝送することができる。ここではHDMI2.1規格のVBlank信号に動的メタデータを挿入する例を説明したが、これは一例であり、各フレームに同期する何らかの同期信号に動的メタデータを挿入して伝送すればよい。カメラ姿勢情報取得部134は、通信制御部126がロボット10から受信したカメラ画像の各フレームの同期信号に挿入されたメタデータからカメラ姿勢情報を抽出する。 Here, the camera posture information may be embedded in the camera image as metadata. HDMI (registered trademark) 2.1 standard may be used as a method of embedding camera posture information in a camera image as metadata and transmitting the information. In the HDMI 2.1 standard, it is considered to insert the dynamic metadata to be applied to each frame into the VBlank signal of each frame data and transmit it. By embedding the camera attitude information in the dynamic metadata, the camera attitude information at the time of imaging by the camera 14 of the robot 10 can be synchronized with the frame data of the camera image and transmitted to the HMD 100. Here, an example of inserting dynamic metadata into a VBlank signal of the HDMI 2.1 standard has been described, but this is an example, and dynamic metadata may be inserted into some synchronization signal synchronized with each frame and transmitted. .. The camera posture information acquisition unit 134 extracts the camera posture information from the metadata inserted in the synchronization signal of each frame of the camera image received from the robot 10 by the communication control unit 126.

差分計算部136は、HMD姿勢情報とカメラ姿勢情報の差分を算出し、画像補正部138に供給する。画像補正部138は、算出された姿勢差分にもとづいてHMD100の最新の姿勢に合うようにカメラ画像を補正することによりリプロジェクション処理を実行する。リプロジェクション処理されたカメラ画像は制御部120に供給され、表示パネル102に表示される。 The difference calculation unit 136 calculates the difference between the HMD attitude information and the camera attitude information, and supplies the difference to the image correction unit 138. The image correction unit 138 executes the reprojection process by correcting the camera image so as to match the latest posture of the HMD 100 based on the calculated posture difference. The reprojected camera image is supplied to the control unit 120 and displayed on the display panel 102.

HMD姿勢情報にもとづいて、ロボット10の可動範囲を越えてHMD100が動かされたと判定される場合や、HMD100の姿勢がロボット10の可動範囲の限界値に対して所定の閾値まで近づいたと判定される場合、差分計算部136は画像補正部138にリプロジェクション処理を指示することを中断または継続し、警告部137に通知する。警告部137は、可動範囲を超えるか可動限界に近づいている旨のメッセージを表示パネル102に表示する。その際、HMD100を装着したユーザが頭部を戻すべき方向を警告メッセージと合わせて表示してもよい。 Based on the HMD posture information, it is determined that the HMD 100 has been moved beyond the movable range of the robot 10, or that the posture of the HMD 100 has approached a predetermined threshold value with respect to the limit value of the movable range of the robot 10. In this case, the difference calculation unit 136 interrupts or continues to instruct the image correction unit 138 to perform the reprojection process, and notifies the warning unit 137. The warning unit 137 displays a message on the display panel 102 indicating that the movable range has been exceeded or the movable limit is approaching. At that time, the direction in which the user wearing the HMD 100 should return the head may be displayed together with the warning message.

具体的には、差分計算部136は、HMD100の姿勢がロボット10の可動範囲内にあるかどうかを判定してもよい。たとえば、ロボット10のカメラ14が360度回転させることができず、一定の範囲にしか回転させられない場合、あらかじめその範囲を可動範囲としてHMD100に設定しておき、HMD姿勢情報をカメラ14の可動範囲と比較する。あらかじめ可動範囲を設定せずに、HMD100の姿勢とカメラ14の姿勢が大きく乖離している場合に、可動範囲を超えたと判定してもよい。 Specifically, the difference calculation unit 136 may determine whether or not the posture of the HMD 100 is within the movable range of the robot 10. For example, if the camera 14 of the robot 10 cannot be rotated 360 degrees and can be rotated only within a certain range, the range is set in advance in the HMD 100 as a movable range, and the HMD posture information is set to the movable range of the camera 14. Compare with range. If the posture of the HMD 100 and the posture of the camera 14 deviate significantly from each other without setting the movable range in advance, it may be determined that the movable range has been exceeded.

また、ロボット10のカメラ14はモータによって姿勢制御されるため、HMD100を装着したユーザのように姿勢を速く変えることはできない。そこで、HMD姿勢情報にもとづいて、HMD100の姿勢変化にカメラ14が追従可能な速度を超えてHMD100が動かされたと判定される場合、差分計算部136は画像補正部138によるリプロジェクション処理を指示することを中断または継続し、警告部137に通知する。警告部137は、HMD100を装着するユーザに頭部をゆっくり動かすように促すメッセージを表示パネル102に表示する。 Further, since the posture of the camera 14 of the robot 10 is controlled by the motor, the posture cannot be changed as quickly as the user wearing the HMD 100. Therefore, when it is determined that the HMD 100 has been moved beyond the speed at which the camera 14 can follow the attitude change of the HMD 100 based on the HMD attitude information, the difference calculation unit 136 instructs the image correction unit 138 to perform the reprojection process. This is interrupted or continued, and the warning unit 137 is notified. The warning unit 137 displays a message on the display panel 102 prompting the user wearing the HMD 100 to slowly move his / her head.

具体的には、差分計算部136は、HMD姿勢情報とカメラ姿勢情報の差分が閾値を超える場合やHMD姿勢情報の変化速度が閾値を超えた場合、カメラ14の追従可能速度を超えたと判定する。HMD100の姿勢が所定の閾値よりも速く動いた場合に、HMD姿勢情報とカメラ姿勢情報の差分が大きくなることから、カメラ14の追従可能速度を超えたと判定してもよい。 Specifically, the difference calculation unit 136 determines that the followable speed of the camera 14 has been exceeded when the difference between the HMD attitude information and the camera attitude information exceeds the threshold value or when the change speed of the HMD attitude information exceeds the threshold value. .. When the posture of the HMD 100 moves faster than a predetermined threshold value, the difference between the HMD posture information and the camera posture information becomes large, so that it may be determined that the followable speed of the camera 14 has been exceeded.

このように、HMD100の動きがカメラ14の可動範囲や追従可能速度の限界に近づいたり、限界を超えた場合に、リプロジェクション処理によってカメラ画像を補正して対処すると、ユーザがカメラ14の可動範囲や追従可能速度を超えても頭部を動かせると勘違いしてしまうことがある。本実施の形態では、このような場合にリプロジェクション処理を中断し、警告部137が警告を表示パネル102に表示することで、HMD100を装着するユーザの頭部の動きを適切に規制することができる。もっともこのような場合でもリプロジェクション処理を中断せず継続しつつ警告を表示することも可能である。 In this way, when the movement of the HMD 100 approaches or exceeds the limit of the movable range and the followable speed of the camera 14, the camera image is corrected by the reprojection processing and the user handles the movable range of the camera 14. It may be misunderstood that the head can be moved even if the speed that can be followed is exceeded. In the present embodiment, the reprojection process is interrupted in such a case, and the warning unit 137 displays a warning on the display panel 102, whereby the movement of the head of the user wearing the HMD 100 can be appropriately regulated. it can. However, even in such a case, it is possible to display a warning while continuing the reprojection process without interrupting it.

図7のリプロジェクション部130の動作を説明する。比較のため、図8を参照して従来のリプロジェクション処理を説明した後、図9を参照して本実施の形態のリプロジェクション処理を説明する。 The operation of the reprojection unit 130 of FIG. 7 will be described. For comparison, the conventional reprojection process will be described with reference to FIG. 8, and then the reprojection process of the present embodiment will be described with reference to FIG.

図8は、従来のリプロジェクション処理を説明する図である。ここでは、ロボット10の代わりにレンダリング装置300がネットワークを介してHMD100と接続している。 FIG. 8 is a diagram illustrating a conventional reprojection process. Here, instead of the robot 10, the rendering device 300 is connected to the HMD 100 via a network.

HMD100にヘッドトラッキング機能をもたせて、ユーザの頭部の動きと連動して視点や視線方向を変えて画像をレンダリングしてHMD100に表示する場合、画像のレンダリングから表示までに遅延があるため、レンダリング時に前提としたユーザの頭部の向きと、画像をHMD100に表示した時点でのユーザの頭部の向きとの間でずれが発生し、ユーザは酔ったような感覚に陥ることがある。またネットワークを経由する場合、ネットワークによる遅延変動によってもずれが生じる。そこでレンダリング時に使用したHMD100の姿勢と最新のHMD100の姿勢のずれを補償するための補正処理をレンダリング画像にかけることにより、リプロジェクションを実行し、リプロジェクション後の画像をHMD100に表示することでユーザの酔いを低減させる。 When the HMD100 has a head tracking function and the image is rendered by changing the viewpoint and the direction of the line of sight in conjunction with the movement of the user's head and displayed on the HMD100, there is a delay from the rendering of the image to the display. Occasionally, there is a discrepancy between the orientation of the user's head, which is assumed, and the orientation of the user's head when the image is displayed on the HMD 100, and the user may feel drunk. In addition, when passing through a network, a deviation occurs due to delay fluctuations due to the network. Therefore, by applying a correction process to the rendered image to compensate for the deviation between the posture of the HMD 100 used at the time of rendering and the latest posture of the HMD 100, the reprojection is executed, and the image after the reprojection is displayed on the HMD 100 by the user. Reduce sickness.

HMD100は、現在の姿勢情報にもとづいて動き予測を行い、予測したHMD姿勢情報202をレンダリング装置300に送信する。レンダリング装置300は予測されたHMD姿勢情報202を用いてHMD100に表示すべき画像をレンダリングする。レンダリング装置300はレンダリング画像310をレンダリングに使用した姿勢情報204とともにHMD100に送信する。 The HMD 100 predicts the movement based on the current posture information, and transmits the predicted HMD posture information 202 to the rendering device 300. The rendering device 300 uses the predicted HMD attitude information 202 to render an image to be displayed on the HMD 100. The rendering device 300 transmits the rendered image 310 to the HMD 100 together with the attitude information 204 used for rendering.

ここでレンダリングに使用した姿勢情報204は、予測したHMD姿勢情報202と同じものであることに留意する。レンダリング装置300がHMD100の動き予測を行い、予測したHMD姿勢情報202を生成してもよい。 It should be noted that the attitude information 204 used for rendering here is the same as the predicted HMD attitude information 202. The rendering device 300 may predict the movement of the HMD 100 and generate the predicted HMD posture information 202.

差分計算部302は、最新のHMD姿勢情報200とレンダリングに使用した姿勢情報204の差分を算出し、リプロジェクション部304は、算出された姿勢差分にもとづいてレンダリング画像310にリプロジェクション処理を施し、HMD100に表示する。 The difference calculation unit 302 calculates the difference between the latest HMD posture information 200 and the posture information 204 used for rendering, and the reprojection unit 304 reprojects the rendered image 310 based on the calculated posture difference. Display on HMD100.

図9は、図7のリプロジェクション部130によるリプロジェクション処理を説明する図である。 FIG. 9 is a diagram illustrating a reprojection process by the reprojection unit 130 of FIG. 7.

HMD100の現在の姿勢情報にもとづいて動き予測を行い、予測したHMD姿勢情報202をロボット10に送信する。ロボット10は予測されたHMD姿勢情報202を用いてカメラ14の姿勢と向きを制御し、カメラ14で画像を撮影する。ロボット10はカメラ画像210を撮影時のカメラ姿勢情報205とともにHMD100に送信する。 Motion prediction is performed based on the current posture information of the HMD 100, and the predicted HMD posture information 202 is transmitted to the robot 10. The robot 10 controls the posture and orientation of the camera 14 using the predicted HMD posture information 202, and captures an image with the camera 14. The robot 10 transmits the camera image 210 to the HMD 100 together with the camera posture information 205 at the time of shooting.

ここで撮影時のカメラ姿勢情報205は、予測したHMD姿勢情報202とは異なることに留意する。ロボット10においてモータがカメラ14の姿勢制御を行うとき、モータの誤差や動作遅延などが発生するため、予測したHMD100の姿勢にカメラ14の姿勢を完全に一致させることはできないからである。 It should be noted here that the camera attitude information 205 at the time of shooting is different from the predicted HMD attitude information 202. This is because when the motor controls the posture of the camera 14 in the robot 10, an error of the motor, an operation delay, and the like occur, so that the posture of the camera 14 cannot be completely matched with the predicted posture of the HMD 100.

差分計算部136は、最新のHMD姿勢情報200と撮影時のカメラ姿勢情報205の差分を算出する。画像補正部138は、算出された姿勢差分にもとづいて最新のHMD100の姿勢に合うようにカメラ画像210にリプロジェクション処理を施し、HMD100に表示する。ここで、厳密に言えば、最新のHMD姿勢情報200は、現時点のHMD100の姿勢ではなく、リプロジェクション処理してHMD100に表示される画像がユーザの目に入るまでの時間を考慮に入れて予測したHMD100の姿勢を用いてもよい。 The difference calculation unit 136 calculates the difference between the latest HMD posture information 200 and the camera posture information 205 at the time of shooting. The image correction unit 138 reprojects the camera image 210 so as to match the latest posture of the HMD 100 based on the calculated posture difference, and displays the camera image 210 on the HMD 100. Strictly speaking, the latest HMD posture information 200 is not the current posture of the HMD 100, but is predicted by taking into consideration the time until the image displayed on the HMD 100 after the reprojection processing is seen by the user. The posture of the HMD 100 may be used.

本実施の形態のリプロジェクション部130では、予測したHMD姿勢情報202ではなく、撮影時のカメラ姿勢情報205を用いてリプロジェクションを行う点が従来のリプロジェクション処理とは異なる。 The reprojection unit 130 of the present embodiment is different from the conventional reprojection process in that the reprojection is performed using the camera posture information 205 at the time of shooting instead of the predicted HMD posture information 202.

撮影時のカメラ姿勢情報205を用いたリプロジェクション処理によって、モータの誤差や動作遅延が原因でカメラ14の姿勢がHMD100の姿勢に合わないことにより生じるずれを解消し、HMD100を装着したユーザの違和感を軽減することができる。 The reprojection process using the camera posture information 205 at the time of shooting eliminates the deviation caused by the posture of the camera 14 not matching the posture of the HMD 100 due to the error of the motor and the operation delay, and the user wearing the HMD 100 feels uncomfortable. Can be reduced.

人間の頭部の動きに比べてモータによって制御されるカメラ14の動きは精度が粗いため、カメラ14によって撮影される動画は滑らかな動きにはならない。リプロジェクション処理を施すことでカメラ14によって撮影された動画の動きを滑らかにする効果もある。 Since the movement of the camera 14 controlled by the motor is less accurate than the movement of the human head, the moving image captured by the camera 14 is not smooth. The reprojection processing also has the effect of smoothing the movement of the moving image captured by the camera 14.

また、予測したHMD姿勢情報202をロボット10に送信する際、ネットワークの輻輳状態によってはパケット損失が起き、予測したHMD姿勢情報202がロボット10に送信されずに欠落することもある。そのような場合でも、カメラ画像210とともにHMD100に送信される姿勢情報は撮影時のカメラ姿勢情報205であるため、予測したHMD姿勢情報202が欠落しても、撮影時のカメラ姿勢情報205にもとづいてリプロジェクション処理を確実に行うことができるという利点もある。 Further, when the predicted HMD posture information 202 is transmitted to the robot 10, packet loss may occur depending on the congestion state of the network, and the predicted HMD posture information 202 may be lost without being transmitted to the robot 10. Even in such a case, since the posture information transmitted to the HMD 100 together with the camera image 210 is the camera posture information 205 at the time of shooting, even if the predicted HMD posture information 202 is missing, it is based on the camera posture information 205 at the time of shooting. There is also an advantage that the reprojection process can be performed reliably.

なお、撮影時のカメラ姿勢情報205をカメラ画像210とともに送信せずに、SLAM(Simultaneous Localization and Mapping)などの技術を利用し、カメラ画像210から自己位置推定により、撮影時のカメラ14の姿勢を推定するように構成してもよい。 It should be noted that the posture of the camera 14 at the time of shooting is estimated by self-position estimation from the camera image 210 by using a technique such as SLAM (Simultaneous Localization and Mapping) without transmitting the camera posture information 205 at the time of shooting together with the camera image 210. It may be configured to estimate.

図10は、図7のリプロジェクション部130によるリプロジェクション処理の手順を説明するフローチャートである。 FIG. 10 is a flowchart illustrating a procedure of the reprojection process by the reprojection unit 130 of FIG. 7.

カメラ画像取得部135はロボット10からカメラ画像を受信し、カメラ姿勢情報取得部134はカメラ画像にメタデータとして付加されたカメラ姿勢情報を取得する(S10)。 The camera image acquisition unit 135 receives the camera image from the robot 10, and the camera attitude information acquisition unit 134 acquires the camera attitude information added as metadata to the camera image (S10).

HMD姿勢情報取得部132は、姿勢センサ124が検出した最新のHMD姿勢情報を取得する(S12)。 The HMD attitude information acquisition unit 132 acquires the latest HMD attitude information detected by the attitude sensor 124 (S12).

差分計算部136は、最新のHMD姿勢情報とカメラ姿勢情報の差分を算出する(S14)。 The difference calculation unit 136 calculates the difference between the latest HMD attitude information and the camera attitude information (S14).

差分計算部136は、最新のHMD姿勢情報がロボット10のカメラ14の可動範囲内であるかどうかを判定し(S16)、可動範囲内であれば(S16のY)、ステップS20に進む。 The difference calculation unit 136 determines whether or not the latest HMD posture information is within the movable range of the camera 14 of the robot 10 (S16), and if it is within the movable range (Y of S16), proceeds to step S20.

最新のHMD姿勢情報がロボット10のカメラ14の可動範囲の限界値に近づいているか、可動範囲を超えている場合(S16のN)、警告部137は、HMD100の動きをロボット10の可動範囲内に収めるようにユーザを誘導する警告メッセージを表示パネル102に表示する(S18)。 When the latest HMD posture information approaches or exceeds the limit value of the movable range of the camera 14 of the robot 10 (N in S16), the warning unit 137 moves the HMD 100 within the movable range of the robot 10. A warning message for guiding the user to fit in the display panel 102 is displayed on the display panel 102 (S18).

差分計算部136は、HMD100の姿勢変化がロボット10のカメラ14の追従可能速度内であるかどうかを判定し(S20)、追従可能速度内であれば(S20のY)、ステップS24に進む。 The difference calculation unit 136 determines whether or not the posture change of the HMD 100 is within the followable speed of the camera 14 of the robot 10 (S20), and if it is within the followable speed (Y of S20), proceeds to step S24.

HMD100の姿勢変化がロボット10の追従可能速度の限界値に近づいているか、追従可能速度を越えている場合(S20のN)、警告部137は、HMD100の姿勢変化をロボット10の追従可能速度内に収めるにユーザを誘導する警告メッセージを表示パネル102に表示する(S22)。 When the attitude change of the HMD 100 approaches the limit value of the followable speed of the robot 10 or exceeds the followable speed (N of S20), the warning unit 137 changes the attitude of the HMD 100 within the followable speed of the robot 10. A warning message for guiding the user to fit in the display panel 102 is displayed on the display panel 102 (S22).

画像補正部138は、最新のHMD姿勢情報とカメラ姿勢情報の差分にもとづいてカメラ画像を補正することにより、リプロジェクション処理を実行する(S24)。 The image correction unit 138 executes the reprojection process by correcting the camera image based on the difference between the latest HMD posture information and the camera posture information (S24).

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。そのような変形例を説明する。 The present invention has been described above based on the embodiments. Embodiments are examples, and it will be understood by those skilled in the art that various modifications are possible for each of these components and combinations of each processing process, and that such modifications are also within the scope of the present invention. .. An example of such a modification will be described.

上記の実施の形態では、リプロジェクション部130はHMD100に設けられたが、リプロジェクション部130をHMD100が接続されたクライアント装置に設けてもよい。 In the above embodiment, the reprojection unit 130 is provided in the HMD 100, but the reprojection unit 130 may be provided in the client device to which the HMD 100 is connected.

上記の実施の形態では、HMD100とロボット10がネットワークを経由して接続され、ロボット10を遠隔操作する場合を説明したが、ネットワークを経由しないでHMD100とロボット10が接続されている場合でも同様のリプロジェクション処理を適用することができる。モータの遅延や誤差があるため、ネットワークによる遅延変動がなくても、カメラ14の姿勢とHMD100の姿勢のずれが発生するため、カメラ画像をHMD100の姿勢に合わせて補正するリプロジェクション処理が有効である。また、ロボット10に限らず、カメラ14が搭載された制御装置であれば、どのような制御装置に対しても同様のリプロジェクション処理を適用することができる。 In the above embodiment, the case where the HMD 100 and the robot 10 are connected via the network and the robot 10 is remotely controlled has been described, but the same applies even when the HMD 100 and the robot 10 are connected without passing through the network. Reprojection processing can be applied. Since there is a motor delay and error, even if there is no delay fluctuation due to the network, the attitude of the camera 14 and the attitude of the HMD 100 will deviate, so the reprojection process that corrects the camera image according to the attitude of the HMD 100 is effective. is there. Further, the same reprojection processing can be applied not only to the robot 10 but also to any control device equipped with the camera 14.

上記の実施の形態では、ロボット10そのものは移動せず、ロボット10に搭載されたカメラ14が姿勢を変える場合を説明したが、ロボット10自体が位置を変える場合であっても同様のリプロジェクション処理を適用することができる。その場合、モーションセンサによるカメラ姿勢だけでなく、サーボ機構の位置情報などからカメラの絶対的な位置情報を取得してカメラ画像とともに送信する。カメラ14が移動する場合は、SLAMのように環境地図上でのカメラ14の位置と姿勢を推定する自己位置推定技術を利用することもできる。なお、サーボ機構の位置情報やSLAMなどの自己位置推定技術は、ロボット10が位置を変えない場合にもカメラ14の姿勢情報を取得するために利用することができる。 In the above embodiment, the case where the robot 10 itself does not move and the camera 14 mounted on the robot 10 changes its posture has been described, but the same reprojection processing is performed even when the robot 10 itself changes its position. Can be applied. In that case, the absolute position information of the camera is acquired not only from the camera posture by the motion sensor but also from the position information of the servo mechanism and transmitted together with the camera image. When the camera 14 moves, a self-position estimation technique that estimates the position and orientation of the camera 14 on the environment map, such as SLAM, can also be used. The position information of the servo mechanism and the self-position estimation technique such as SLAM can be used to acquire the attitude information of the camera 14 even when the robot 10 does not change the position.

1 情報処理システム、 10 ロボット、 12 アクチュエータ装置、 14a 右カメラ、 14b 左カメラ、 20 筐体、 22 入力系統、 24 出力系統、 30 台座、 32 第1円弧状アーム、 34 第2円弧状アーム、 36 ハウジング、 38 カバー、 40 脚部、 42 挿通部材、 50 駆動機構、 52 第1モータ、 54 第2モータ、 56 第3モータ、 60 受信部、 62 センサ情報取得部、 64 動き検出部、 66 視線方向決定部、 68 アクチュエータ制御部、 70 カメラ姿勢情報取得部、 80 画像処理部、 90 送信部、 100 HMD、 102 表示パネル、 120 制御部、 122 記憶部、 124 姿勢センサ、 126 通信制御部、 130 リプロジェクション部、 132 HMD姿勢情報取得部、 134 カメラ姿勢情報取得部、 135 カメラ画像取得部、 136 差分計算部、 137 警告部、 138 画像補正部。 1 Information processing system, 10 Robot, 12 Actuator device, 14a Right camera, 14b Left camera, 20 Housing, 22 Input system, 24 Output system, 30 Pedestal, 32 1st arc arm, 34 2nd arc arm, 36 Housing, 38 cover, 40 legs, 42 insertion member, 50 drive mechanism, 52 1st motor, 54 2nd motor, 56 3rd motor, 60 receiver, 62 sensor information acquisition unit, 64 motion detection unit, 66 line-of-sight direction Decision unit, 68 Actuator control unit, 70 Camera attitude information acquisition unit, 80 Image processing unit, 90 Transmission unit, 100 HMD, 102 Display panel, 120 Control unit, 122 Storage unit, 124 Attitude sensor, 126 Communication control unit, 130 Projection unit, 132 HMD posture information acquisition unit, 134 camera attitude information acquisition unit, 135 camera image acquisition unit, 136 difference calculation unit, 137 warning unit, 138 image correction unit.

画像を生成する技術に適用できる。 It can be applied to the technology to generate images.

Claims (6)

ヘッドマウントディスプレイの姿勢変化に連動して姿勢変化が可能なカメラによる撮影画像を取得するカメラ画像取得部と、
前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得部と、
前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算部と、
算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正部とを含むことを特徴とする画像生成装置。
A camera image acquisition unit that acquires images taken by a camera that can change its posture in conjunction with a change in the posture of the head-mounted display.
A camera posture information acquisition unit that acquires posture information during shooting by the camera, and a camera posture information acquisition unit.
A difference calculation unit that calculates the difference between the posture information of the head-mounted display and the posture information at the time of shooting by the camera, and
An image generation device including an image correction unit that corrects the captured image so as to match the posture of the head-mounted display based on the calculated difference.
前記カメラ姿勢情報取得部は、前記カメラの撮影時の姿勢情報を前記撮影画像の各フレームの同期信号に挿入されたメタデータから抽出することを特徴とする請求項1に記載の画像生成装置。 The image generation device according to claim 1, wherein the camera posture information acquisition unit extracts posture information at the time of shooting by the camera from metadata inserted in a synchronization signal of each frame of the shot image. 前記ヘッドマウントディスプレイの姿勢情報にもとづいて前記ヘッドマウントディスプレイの姿勢が前記カメラの可動範囲の限界値に対して所定の閾値まで近づいたか、または前記カメラの可動範囲を越えたと判定される場合、前記画像補正部による前記撮影画像の補正を中断または継続し、警告を表示する警告部をさらに含むことを特徴とする請求項1または2に記載の画像生成装置。 When it is determined that the posture of the head-mounted display approaches a predetermined threshold value with respect to the limit value of the movable range of the camera or exceeds the movable range of the camera based on the posture information of the head-mounted display, the above-mentioned The image generation device according to claim 1 or 2, further comprising a warning unit that interrupts or continues the correction of the captured image by the image correction unit and displays a warning. 前記ヘッドマウントディスプレイの姿勢情報にもとづいて前記ヘッドマウントディスプレイの姿勢変化が前記カメラの追従可能速度を越えたと判定される場合、前記画像補正部による前記撮影画像の補正を中断または継続し、警告を表示する警告部をさらに含むことを特徴とする請求項1または2に記載の画像生成装置。 When it is determined that the posture change of the head-mounted display exceeds the followable speed of the camera based on the posture information of the head-mounted display, the correction of the captured image by the image correction unit is interrupted or continued, and a warning is issued. The image generator according to claim 1 or 2, further comprising a warning unit to be displayed. ヘッドマウントディスプレイの姿勢変化に連動して姿勢変化が可能なカメラによる撮影画像を取得するカメラ画像取得ステップと、
前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得ステップと、
前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算ステップと、
算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正ステップとを含むことを特徴とする画像生成方法。
The camera image acquisition step to acquire the image taken by the camera that can change the attitude in conjunction with the attitude change of the head-mounted display,
The camera posture information acquisition step for acquiring the posture information at the time of shooting by the camera, and
A difference calculation step for calculating the difference between the posture information of the head-mounted display and the posture information at the time of shooting by the camera, and
An image generation method comprising an image correction step of correcting the captured image so as to match the posture of the head-mounted display based on the calculated difference.
ヘッドマウントディスプレイの姿勢変化に連動して姿勢変化が可能なカメラによる撮影画像を取得するカメラ画像取得機能と、
前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得機能と、
前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算機能と、
算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正機能とをコンピュータに実現させることを特徴とするプログラム。
A camera image acquisition function that acquires images taken by a camera that can change the attitude in conjunction with the attitude change of the head-mounted display,
The camera posture information acquisition function that acquires the posture information at the time of shooting by the camera, and
A difference calculation function that calculates the difference between the posture information of the head-mounted display and the posture information at the time of shooting by the camera, and
A program characterized in that a computer realizes an image correction function that corrects the captured image so as to match the posture of the head-mounted display based on the calculated difference.
JP2020506041A 2018-03-14 2018-03-14 Image generation device, image generation system, and image generation method Active JP7122372B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/010078 WO2019176035A1 (en) 2018-03-14 2018-03-14 Image generation device, image generation system, and image generation method

Publications (2)

Publication Number Publication Date
JPWO2019176035A1 true JPWO2019176035A1 (en) 2021-03-11
JP7122372B2 JP7122372B2 (en) 2022-08-19

Family

ID=67907053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020506041A Active JP7122372B2 (en) 2018-03-14 2018-03-14 Image generation device, image generation system, and image generation method

Country Status (2)

Country Link
JP (1) JP7122372B2 (en)
WO (1) WO2019176035A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6801136B1 (en) * 2020-05-14 2020-12-16 エヌ・ティ・ティ・コミュニケーションズ株式会社 Remote control system and its remote work equipment, video processing equipment and programs
WO2022149497A1 (en) * 2021-01-05 2022-07-14 ソニーグループ株式会社 Information processing device, information processing method, and computer program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05228855A (en) * 1992-02-19 1993-09-07 Yaskawa Electric Corp Tele-existance visual device
JP2002135641A (en) * 2000-10-27 2002-05-10 Nippon Telegr & Teleph Corp <Ntt> Camera system of freely moving view point and visual line
WO2016152572A1 (en) * 2015-03-20 2016-09-29 日産自動車株式会社 Indirect-view presentation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05228855A (en) * 1992-02-19 1993-09-07 Yaskawa Electric Corp Tele-existance visual device
JP2002135641A (en) * 2000-10-27 2002-05-10 Nippon Telegr & Teleph Corp <Ntt> Camera system of freely moving view point and visual line
WO2016152572A1 (en) * 2015-03-20 2016-09-29 日産自動車株式会社 Indirect-view presentation device

Also Published As

Publication number Publication date
JP7122372B2 (en) 2022-08-19
WO2019176035A1 (en) 2019-09-19

Similar Documents

Publication Publication Date Title
EP3379525B1 (en) Image processing device and image generation method
EP3287837B1 (en) Head-mountable display system
JP6378781B2 (en) Head-mounted display device and video display system
WO2016017245A1 (en) Information processing device, information processing method, and image display system
US11277603B2 (en) Head-mountable display system
JPWO2016113951A1 (en) Head-mounted display device and video display system
US20190045125A1 (en) Virtual reality video processing
US20190215505A1 (en) Information processing device, image generation method, and head-mounted display
KR20160147735A (en) Head region position detection device and head region position detection method, image processing device and image processing method, display device, and computer program
US11647292B2 (en) Image adjustment system, image adjustment device, and image adjustment
US20140361987A1 (en) Eye controls
CN112272817B (en) Method and apparatus for providing audio content in immersive reality
JP2021060627A (en) Information processing apparatus, information processing method, and program
JP7122372B2 (en) Image generation device, image generation system, and image generation method
JP6588196B2 (en) Image generating apparatus, image generating method, and calibration method
US20240036327A1 (en) Head-mounted display and image displaying method
JP6518645B2 (en) INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD
CN105828021A (en) Specialized robot image acquisition control method and system based on augmented reality technology
TW202029779A (en) Method and program for playing virtual reality image
JP2023099494A (en) Data processing apparatus for virtual reality, data processing method, and computer software
JP7203157B2 (en) Video processing device and program
US20190089899A1 (en) Image processing device
JP6867566B2 (en) Image display device and image display system
JP2022519033A (en) Image representation of the scene
WO2022149497A1 (en) Information processing device, information processing method, and computer program

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20200807

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7122372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150