JPWO2019176035A1 - Image generator, image generation system, and image generation method - Google Patents
Image generator, image generation system, and image generation method Download PDFInfo
- Publication number
- JPWO2019176035A1 JPWO2019176035A1 JP2020506041A JP2020506041A JPWO2019176035A1 JP WO2019176035 A1 JPWO2019176035 A1 JP WO2019176035A1 JP 2020506041 A JP2020506041 A JP 2020506041A JP 2020506041 A JP2020506041 A JP 2020506041A JP WO2019176035 A1 JPWO2019176035 A1 JP WO2019176035A1
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- posture
- posture information
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/66—Transforming electric information into light information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
カメラ画像取得部135は、ヘッドマウントディスプレイの姿勢変化に連動して姿勢変化が可能なカメラによる撮影画像を取得する。カメラ姿勢情報取得部134は、カメラの撮影時の姿勢情報を取得する。差分計算部136は、ヘッドマウントディスプレイの姿勢情報とカメラの撮影時の姿勢情報の差分を算出する。画像補正部138は、算出された差分にもとづいてヘッドマウントディスプレイの姿勢に合うように撮影画像を補正する。 The camera image acquisition unit 135 acquires an image captured by the camera that can change the posture in conjunction with the change in the posture of the head-mounted display. The camera posture information acquisition unit 134 acquires posture information at the time of shooting by the camera. The difference calculation unit 136 calculates the difference between the posture information of the head-mounted display and the posture information at the time of shooting by the camera. The image correction unit 138 corrects the captured image so as to match the posture of the head-mounted display based on the calculated difference.
Description
この発明は、画像を生成する装置、システムおよび方法に関する。 The present invention relates to devices, systems and methods for producing images.
ヘッドマウントディスプレイ(HMD)が様々な分野で利用されている。HMDにヘッドトラッキング機能をもたせ、ユーザの頭部の姿勢と連動して表示画面を更新することで、映像世界への没入感を高められる。 Head-mounted displays (HMDs) are used in various fields. By adding a head tracking function to the HMD and updating the display screen in conjunction with the posture of the user's head, it is possible to enhance the immersive feeling in the video world.
HMDから遠隔地に配置したロボットなどの制御装置にコマンドを送信してロボットを操作し、ロボットに搭載されたカメラから見た映像をロボットから受信してHMDの表示パネルに表示することにより、HMDを装着したユーザがロボットを遠隔操作するシステムが利用されている。 By sending a command from the HMD to a control device such as a robot located in a remote location to operate the robot, and receiving the image seen from the camera mounted on the robot from the robot and displaying it on the display panel of the HMD, the HMD A system is used in which a user wearing a robot remotely controls a robot.
このような遠隔操作システムでは、HMDを装着したユーザの姿勢に連動してロボットのカメラの姿勢が制御され、ロボットのカメラの撮影画像をユーザがリアルタイムで見ることができるため、ユーザはロボットが配置された場所にいるような臨場感をもって、遠隔操作を行うことができる。しかしながら、ロボットのモータ制御の遅延と誤差、さらには変動するネットワーク遅延によって、カメラの姿勢がHMDの姿勢と一致せず、HMDの姿勢からずれたカメラ画像をHMDで見ることになり、ユーザは酔ったような感覚に陥ることがある。 In such a remote control system, the posture of the robot camera is controlled in conjunction with the posture of the user wearing the HMD, and the user can see the captured image of the robot camera in real time. Remote control can be performed with a sense of realism as if you were in a designated place. However, due to the delay and error of the motor control of the robot and the fluctuating network delay, the attitude of the camera does not match the attitude of the HMD, and the camera image deviated from the attitude of the HMD is viewed on the HMD, and the user gets drunk. You may feel like you are.
本発明はこうした課題に鑑みてなされたものであり、その目的は、ヘッドマウントディスプレイに表示されるカメラ画像をヘッドマウントディスプレイの姿勢に適合させることのできる画像生成技術を提供することにある。 The present invention has been made in view of these problems, and an object of the present invention is to provide an image generation technique capable of adapting a camera image displayed on a head-mounted display to the posture of the head-mounted display.
上記課題を解決するために、本発明のある態様の画像生成装置は、ヘッドマウントディスプレイの姿勢変化に連動して姿勢変化が可能なカメラによる撮影画像を取得するカメラ画像取得部と、前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得部と、前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算部と、算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正部とを含む。 In order to solve the above problems, the image generation device of an embodiment of the present invention includes a camera image acquisition unit that acquires an image captured by a camera capable of changing the posture in conjunction with the posture change of the head mount display, and a camera image acquisition unit of the camera. The camera attitude information acquisition unit that acquires the attitude information at the time of shooting, the difference calculation unit that calculates the difference between the attitude information of the head mount display and the attitude information at the time of shooting by the camera, and the calculation unit based on the calculated difference. It includes an image correction unit that corrects the captured image so as to match the posture of the head mount display.
本発明の別の態様は、画像生成方法である。この方法は、ヘッドマウントディスプレイの姿勢変化に連動して姿勢変化が可能なカメラによる撮影画像を取得するカメラ画像取得ステップと、前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得ステップと、前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算ステップと、算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正ステップとを含む。 Another aspect of the present invention is an image generation method. In this method, a camera image acquisition step of acquiring an image taken by a camera capable of changing the posture in conjunction with a posture change of the head mount display, a camera attitude information acquisition step of acquiring the posture information at the time of shooting by the camera, and a camera attitude information acquisition step. A difference calculation step for calculating the difference between the posture information of the head mount display and the posture information at the time of shooting by the camera, and the photographed image is corrected so as to match the posture of the head mount display based on the calculated difference. Includes image correction steps.
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above components, the expression of the present invention converted between a method, a device, a system, a computer program, a recording medium in which a computer program is readable, a data structure, and the like are also used in the present invention. It is effective as an aspect of.
本発明によれば、ヘッドマウントディスプレイに表示されるカメラ画像をヘッドマウントディスプレイの姿勢に適合させることができる。 According to the present invention, the camera image displayed on the head-mounted display can be adapted to the posture of the head-mounted display.
図1は、本実施の形態に係る情報処理システム1の構成例を示す。情報処理システム1は、ロボット10と、ユーザAが頭部に装着するヘッドマウントディスプレイ装置(HMD)100とを備える。HMD100はアクセスポイント(AP)2を介して、ネットワーク4に接続される。AP2は無線アクセスポイントおよびルータの機能を有し、HMD100は、AP2と既知の無線通信プロトコルで接続するが、ケーブルで接続してもよい。
FIG. 1 shows a configuration example of the
ロボット10は、アクチュエータ装置12と、アクチュエータ装置12により姿勢を変更可能に駆動される筐体20とを備える。筐体20には、右カメラ14aおよび左カメラ14bが搭載される。以下、右カメラ14aおよび左カメラ14bを特に区別しない場合には「カメラ14」と呼ぶ。実施例においてカメラ14は、アクチュエータ装置12により駆動される筐体20に設けられる。ロボット10はアクセスポイント(AP)3を介して、ネットワーク4に接続される。ロボット10は、AP3と既知の無線通信プロトコルで接続するが、ケーブルで接続してもよい。
The
情報処理システム1において、HMD100とロボット10はネットワーク4を介して通信可能に接続する。なおHMD100とロボット10とが近くに存在する場合、両者はAPを介さずに、直接、無線または有線で通信可能に接続してもよい。情報処理システム1においてロボット10は、ユーザAのいわば分身として動作する。ユーザAが装着しているHMD100の動きはロボット10に伝達され、アクチュエータ装置12が、HMD100の動きに連動して筐体20を動かす。たとえばユーザAが首を前後に振ると、アクチュエータ装置12が筐体20を前後に振るように動かし、ユーザAが首を左右に振ると、アクチュエータ装置12が筐体20を左右に振るように動かす。これによりロボット10の周囲にいる人は、ユーザAがその場にいるかのような感覚をもって、ユーザAとコミュニケーションをとることができる。
In the
AP2の代わりに通信機能をもつゲーム機、パーソナルコンピュータなどの情報処理装置をクライアント装置として設け、HMD100をクライアント装置に無線または有線で接続してもよい。また、AP3の代わりにゲーム機、パーソナルコンピュータなどの情報処理装置をサーバ装置として設け、ロボット10をサーバ装置に無線または有線で接続してもよい。
Instead of AP2, an information processing device such as a game machine or a personal computer having a communication function may be provided as a client device, and the HMD 100 may be connected to the client device wirelessly or by wire. Further, instead of AP3, an information processing device such as a game machine or a personal computer may be provided as a server device, and the
右カメラ14aおよび左カメラ14bは、筐体20の前面にて横方向に所定の間隔を空けて配置される。右カメラ14aおよび左カメラ14bはステレオカメラを構成し、右カメラ14aは右目用画像を所定の周期で撮影し、左カメラ14bは左目用画像を所定の周期で撮影する。この場合、右カメラ14aおよび左カメラ14bは、HMD100の姿勢変化に連動して姿勢変化が可能なように構成されている。撮影された右目用画像および左目用画像は、リアルタイムでユーザAのHMD100に送信される。HMD100は、受信した右目用画像を右目用表示パネルに表示し、受信した左目用画像を左目用表示パネルに表示する。これによりユーザAは、ロボット10の筐体20が向いている方向の映像をリアルタイムで見ることができる。
The
このように情報処理システム1では、ロボット10がユーザAにより遠隔操作されてユーザAの顔の動きを再現し、またユーザAがHMD100を通じて、ロボット周辺の画像を見ることができる。
In this way, in the
HMD100は、両目を完全に覆う没入型(非透過型)のディスプレイ装置に限られず、透過型のディスプレイ装置であってもよい。また形状としては、図示されるような帽子型であってもよいが、眼鏡型であってもよい。なおHMD100は専用の頭部装着ディスプレイ装置のみならず、表示パネル、マイク、スピーカを有する端末装置と、端末装置の表示パネルをユーザの目の前の位置に固定する筐体とから構成されてもよい。端末装置は、たとえばスマートフォンやポータブルゲーム機など、比較的小型の表示パネルを有するものであってよい。 The HMD 100 is not limited to an immersive (non-transmissive) display device that completely covers both eyes, and may be a transmissive display device. The shape may be a hat type as shown in the figure, but may be a spectacle type. The HMD 100 may be composed of not only a dedicated head-mounted display device but also a terminal device having a display panel, a microphone, and a speaker, and a housing for fixing the display panel of the terminal device at a position in front of the user. Good. The terminal device may have a relatively small display panel, such as a smartphone or a portable game machine.
図2は、HMD100の機能ブロックを示す。制御部120は、画像信号、音声信号、センサ情報などの各種信号およびデータや、命令を処理して出力するメインプロセッサである。記憶部122は、制御部120が処理するデータや命令などを一時的に記憶する。姿勢センサ124は、HMD100の回転角度や傾きなどの姿勢情報を所定の周期で検出する。姿勢センサ124は、少なくとも3軸の加速度センサおよび3軸のジャイロセンサを含む。
FIG. 2 shows a functional block of the HMD 100. The
通信制御部126は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、ロボット10との間で信号やデータを送受信する。通信制御部126は、制御部120から、姿勢センサ124で検出された姿勢情報を受け取り、ロボット10に送信する。また通信制御部126は、ロボット10から、画像データを受け取り、制御部120に供給する。制御部120は、画像データをロボット10から受け取ると、画像データを表示パネル102に供給して表示させる。
The
リプロジェクション部130は、ロボット10から受信された画像データに対してリプロジェクション処理を施す。リプロジェクション部130の詳細な構成は後述する。
The
図3は、ロボット10の外観構成を示す。筐体20は、カメラ14を収容する。カメラ14は筐体前面に設けられる。カメラ14は、ハウジング36内に収容されている電源装置から電力線(図示せず)を介して電力を供給されて動作する。
FIG. 3 shows the appearance configuration of the
筐体20は保護カバー19を有し、ロボット10を使用しない状態、つまりロボット10の電源がオフにされた状態では、保護カバー19が筐体前面を覆う閉位置に配置されて、カメラ14を保護する。
The
筐体20はアクチュエータ装置12によって姿勢を変更可能に支持されている。アクチュエータ装置12は、脚部40と、脚部40の上部に支持される半球状のハウジング36と、筐体20を駆動するための駆動機構50とを備える。駆動機構50は、長尺方向に第1貫通長孔32aを形成された第1円弧状アーム32と、長尺方向に第2貫通長孔34aを形成された第2円弧状アーム34と、第1円弧状アーム32と第2円弧状アーム34とを交差させた状態で、第1円弧状アーム32と第2円弧状アーム34とを回動可能に支持する台座30とを備える。台座30の上側は、カバー38により覆われており、カバー38で覆われた空間には、第1円弧状アーム32および第2円弧状アーム34をそれぞれ回転させるモータが配置されている。なお台座30は、ハウジング36に対して回動可能に支持されており、ハウジング36内には、台座30を回転させるモータが配置されている。
The
第1円弧状アーム32および第2円弧状アーム34は半円状に形成され、同じ回転中心を有するように両端部が台座30に支持される。半円状の第1円弧状アーム32の径は、半円状の第2円弧状アーム34の径よりも僅かに大きく、第1円弧状アーム32は、第2円弧状アーム34の外周側に配置される。第1円弧状アーム32と第2円弧状アーム34は、台座30において直交するように配置されてよい。実施例では、第1円弧状アーム32が台座30に支持された両端部を結ぶラインと、第2円弧状アーム34が台座30に支持された両端部を結ぶラインとが直交する。挿通部材42は、第1貫通長孔32aおよび第2貫通長孔34aに挿通されて、第1貫通長孔32aおよび第2貫通長孔34aの交差位置に配置される。挿通部材42は、第1円弧状アーム32および第2円弧状アーム34の回転により、第1貫通長孔32a内および第2貫通長孔34a内を摺動する。
The first arc-shaped
第1モータは、第1円弧状アーム32を回転させるために設けられ、第2モータは、第2円弧状アーム34を回転させるために設けられる。第1モータおよび第2モータは、台座30上に配置されて、台座30が回転すると、第1モータおよび第2モータも台座30とともに回転する。第3モータは、台座30を回転させるために設けられ、ハウジング36内に配置される。第1モータ、第2モータおよび第3モータは、図示しない電源装置から電力を供給されて回転する。
The first motor is provided to rotate the first arc-shaped
第1モータが第1円弧状アーム32を回転し、第2モータが第2円弧状アーム34を回転し、第3モータが台座30を回転することで、アクチュエータ装置12は、挿通部材42に取り付けられた筐体20の向きおよび姿勢を変化させられる。
The
図4および図5は、ロボット10における筐体20の姿勢の例を示す図である。
図4(a)および(b)は、筐体20を左右方向に傾けた例を示す。図5(a)および(b)は、筐体20を前後方向に傾けた例を示す。このようにロボット10の駆動機構50は、筐体20に任意の姿勢をとらせることが可能となる。筐体20の姿勢は、第1モータおよび第2モータの駆動量を調整することで制御され、また筐体20の向きは、第3モータの駆動量を調整することで制御される。4 and 5 are views showing an example of the posture of the
4 (a) and 4 (b) show an example in which the
図6は、ロボット10の機能ブロックを示す。ロボット10は、外部からの入力を受け付けて処理する入力系統22と、外部への出力を処理する出力系統24とを備える。入力系統22は、受信部60、センサ情報取得部62、動き検出部64、視線方向決定部66、およびアクチュエータ制御部68を備える。また出力系統24は、画像処理部80および送信部90を備える。
FIG. 6 shows a functional block of the
図6において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。 In FIG. 6, each element described as a functional block that performs various processes can be composed of a circuit block, a memory, and other LSIs in terms of hardware, and is loaded in the memory in terms of software. It is realized by a program or the like. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any of them.
上記したようにHMD100は、姿勢センサ124が検出したセンサ情報をロボット10に送信し、受信部60は、センサ情報を受信する。
As described above, the
センサ情報取得部62は、HMD100の姿勢センサ124が検出した姿勢情報を取得する。動き検出部64は、ユーザAの頭部に装着されたHMD100の姿勢を検出する。視線方向決定部66は、動き検出部64により検出されたHMD100の姿勢に応じて筐体20のカメラ14の視線方向を定める。
The sensor
動き検出部64は、HMD100を装着したユーザの頭部の姿勢を検出するヘッドトラッキング処理を行う。ヘッドトラッキング処理は、ユーザの頭部の姿勢に、HMD100の表示パネル102に表示する視野を連動させるために行われ、実施例のヘッドトラッキング処理では、HMD100の水平基準方向に対する回転角度と、水平面に対する傾き角度とが検出される。水平基準方向は、たとえばHMD100の電源がオンされたときに向いている方向として設定されてよい。
The
視線方向決定部66は、動き検出部64により検出されたHMD100の姿勢に応じて、視線方向を定める。この視線方向は、ユーザAの視線方向であり、ひいては分身であるロボット10のカメラ14の視線方向(光軸方向)である。
The line-of-sight
カメラ14の視線方向(光軸方向)をユーザAの視線方向に連動させるために、ロボット10の基準姿勢を事前に設定しておく必要がある。図3には、第1円弧状アーム32と第2円弧状アーム34とが台座30に対して90度起立した状態を示しているが、この状態を水平方向として設定し、またロボット10の電源がオンされたときに筐体20の前面が向いている方向を、水平基準方向として設定してよい。なおロボット10は、HMD100と同様に姿勢センサを有して、水平方向を自律的に設定できるようにしてもよい。
In order to link the line-of-sight direction (optical axis direction) of the
HMD100およびロボット10の基準姿勢を設定した状態で、視線方向決定部66は、動き検出部64により検出された回転角度および傾き角度を、そのままカメラ14の視線方向(光軸方向)として決定してよい。動き検出部64が、HMD100の回転角度および傾き角度を検出すると、視線方向決定部66は、HMD100の視線方向を3次元座標のベクトル(x,y,z)として決定し、このときロボット10のカメラ14の視線方向を同じ(x,y,z)と決定してもよく、また何らかの補正を加えた(x’,y’,z’)として決定してもよい。
With the reference postures of the
アクチュエータ制御部68は、視線方向決定部66で決定された視線方向となるようにカメラ14の向きを制御する。具体的にアクチュエータ制御部68は、第1モータ52、第2モータ54、第3モータ56に供給する電力を調整して、HMD100の動きに、筐体20の動きを追従させる。アクチュエータ制御部68によるモータ駆動制御は、リアルタイムに実施され、したがって筐体20の向きは、ユーザAの視線の向きと同じように動かされる。
The
実施例のアクチュエータ装置12によれば、筐体20は、第1円弧状アーム32および第2円弧状アーム34の回転中心を基準として駆動されるが、この動きは人の首と同じ動きを示す。アクチュエータ装置12は、2本の半円アームを交差させた簡易な構造でユーザAの首の動きを再現する。
According to the
次に出力系統24について説明する。
出力系統24において、右カメラ14aおよび左カメラ14bは、アクチュエータ装置12により制御された方向に向けられて、それぞれの画角内を撮影する。右カメラ14aおよび左カメラ14bは、たとえば大人の平均的な両目の間隔となるように離れて配置されてよい。右カメラ14aが撮影した右目用画像データおよび左カメラ14bが撮影した左目用画像データは、送信部90からHMD100に送信されて、それぞれ表示パネル102の右半分および左半分に表示される。これらの画像は、右目および左目から見た視差画像を形成し、表示パネル102を2分割してなる領域にそれぞれ表示させることで、画像を立体視させることができる。なおユーザAは光学レンズを通して表示パネル102を見るために、画像処理部80は、予めレンズによる光学歪みを補正した画像データを生成して、HMD100に供給してもよい。Next, the
In the
右カメラ14aおよび左カメラ14bは、所定の周期(たとえば1/60秒)で撮影を行い、送信部90は遅延なく画像データをHMD100に送信する。これによりユーザAはロボット10の周囲の状況をリアルタイムで見ることができ、また顔の向きを変えることで、見たい方向を見ることができる。
The
カメラ姿勢情報取得部70は、カメラ14の姿勢と向きを含む姿勢情報を取得して送信部90に供給する。送信部90はカメラ14の姿勢情報をHMD100に送信する。カメラ14の姿勢情報は、たとえば、モーションセンサにより検知させる姿勢情報を用いて求めてもよく、あるいは、ロボット10の筐体20の姿勢と向きを変化させるアクチュエータ装置12に搭載されたモータの位置情報から求めてもよい。
The camera posture
図7は、図2のリプロジェクション部130の機能構成図である。同図は機能に着目したブロック図を描いており、これらの機能ブロックはハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現することができる。
FIG. 7 is a functional configuration diagram of the
リプロジェクション部130は、HMD姿勢情報取得部132と、カメラ姿勢情報取得部134と、カメラ画像取得部135と、差分計算部136と、警告部137と、画像補正部138とを含む。
The
HMD姿勢情報取得部132は、姿勢センサ124が検出したHMD100の姿勢と向きを含む姿勢情報(「HMD姿勢情報」と呼ぶ)を取得し、差分計算部136に供給する。カメラ姿勢情報取得部134は、通信制御部126がロボット10から受信した、カメラ14の撮影時のカメラ14の姿勢と向きを含む姿勢情報(「カメラ姿勢情報」と呼ぶ)を取得し、差分計算部136に供給する。カメラ画像取得部135は、通信制御部126がロボット10から受信した左右のカメラ14の撮影画像(「カメラ画像」と呼ぶ)を取得し、画像補正部138に供給する。
The HMD attitude
ここで、カメラ姿勢情報はカメラ画像にメタデータとして埋め込まれてもよい。カメラ姿勢情報をカメラ画像にメタデータとして埋め込んで伝送する方法として、HDMI(登録商標)2.1規格を利用してもよい。HDMI2.1規格では各フレームデータのVBlank信号に各フレームに適用すべき動的メタデータを挿入して伝送することが検討されている。動的メタデータにカメラ姿勢情報を埋め込めば、ロボット10のカメラ14による撮像時のカメラ姿勢情報をカメラ画像のフレームデータに同期させてHMD100に伝送することができる。ここではHDMI2.1規格のVBlank信号に動的メタデータを挿入する例を説明したが、これは一例であり、各フレームに同期する何らかの同期信号に動的メタデータを挿入して伝送すればよい。カメラ姿勢情報取得部134は、通信制御部126がロボット10から受信したカメラ画像の各フレームの同期信号に挿入されたメタデータからカメラ姿勢情報を抽出する。
Here, the camera posture information may be embedded in the camera image as metadata. HDMI (registered trademark) 2.1 standard may be used as a method of embedding camera posture information in a camera image as metadata and transmitting the information. In the HDMI 2.1 standard, it is considered to insert the dynamic metadata to be applied to each frame into the VBlank signal of each frame data and transmit it. By embedding the camera attitude information in the dynamic metadata, the camera attitude information at the time of imaging by the
差分計算部136は、HMD姿勢情報とカメラ姿勢情報の差分を算出し、画像補正部138に供給する。画像補正部138は、算出された姿勢差分にもとづいてHMD100の最新の姿勢に合うようにカメラ画像を補正することによりリプロジェクション処理を実行する。リプロジェクション処理されたカメラ画像は制御部120に供給され、表示パネル102に表示される。
The
HMD姿勢情報にもとづいて、ロボット10の可動範囲を越えてHMD100が動かされたと判定される場合や、HMD100の姿勢がロボット10の可動範囲の限界値に対して所定の閾値まで近づいたと判定される場合、差分計算部136は画像補正部138にリプロジェクション処理を指示することを中断または継続し、警告部137に通知する。警告部137は、可動範囲を超えるか可動限界に近づいている旨のメッセージを表示パネル102に表示する。その際、HMD100を装着したユーザが頭部を戻すべき方向を警告メッセージと合わせて表示してもよい。
Based on the HMD posture information, it is determined that the
具体的には、差分計算部136は、HMD100の姿勢がロボット10の可動範囲内にあるかどうかを判定してもよい。たとえば、ロボット10のカメラ14が360度回転させることができず、一定の範囲にしか回転させられない場合、あらかじめその範囲を可動範囲としてHMD100に設定しておき、HMD姿勢情報をカメラ14の可動範囲と比較する。あらかじめ可動範囲を設定せずに、HMD100の姿勢とカメラ14の姿勢が大きく乖離している場合に、可動範囲を超えたと判定してもよい。
Specifically, the
また、ロボット10のカメラ14はモータによって姿勢制御されるため、HMD100を装着したユーザのように姿勢を速く変えることはできない。そこで、HMD姿勢情報にもとづいて、HMD100の姿勢変化にカメラ14が追従可能な速度を超えてHMD100が動かされたと判定される場合、差分計算部136は画像補正部138によるリプロジェクション処理を指示することを中断または継続し、警告部137に通知する。警告部137は、HMD100を装着するユーザに頭部をゆっくり動かすように促すメッセージを表示パネル102に表示する。
Further, since the posture of the
具体的には、差分計算部136は、HMD姿勢情報とカメラ姿勢情報の差分が閾値を超える場合やHMD姿勢情報の変化速度が閾値を超えた場合、カメラ14の追従可能速度を超えたと判定する。HMD100の姿勢が所定の閾値よりも速く動いた場合に、HMD姿勢情報とカメラ姿勢情報の差分が大きくなることから、カメラ14の追従可能速度を超えたと判定してもよい。
Specifically, the
このように、HMD100の動きがカメラ14の可動範囲や追従可能速度の限界に近づいたり、限界を超えた場合に、リプロジェクション処理によってカメラ画像を補正して対処すると、ユーザがカメラ14の可動範囲や追従可能速度を超えても頭部を動かせると勘違いしてしまうことがある。本実施の形態では、このような場合にリプロジェクション処理を中断し、警告部137が警告を表示パネル102に表示することで、HMD100を装着するユーザの頭部の動きを適切に規制することができる。もっともこのような場合でもリプロジェクション処理を中断せず継続しつつ警告を表示することも可能である。
In this way, when the movement of the
図7のリプロジェクション部130の動作を説明する。比較のため、図8を参照して従来のリプロジェクション処理を説明した後、図9を参照して本実施の形態のリプロジェクション処理を説明する。
The operation of the
図8は、従来のリプロジェクション処理を説明する図である。ここでは、ロボット10の代わりにレンダリング装置300がネットワークを介してHMD100と接続している。
FIG. 8 is a diagram illustrating a conventional reprojection process. Here, instead of the
HMD100にヘッドトラッキング機能をもたせて、ユーザの頭部の動きと連動して視点や視線方向を変えて画像をレンダリングしてHMD100に表示する場合、画像のレンダリングから表示までに遅延があるため、レンダリング時に前提としたユーザの頭部の向きと、画像をHMD100に表示した時点でのユーザの頭部の向きとの間でずれが発生し、ユーザは酔ったような感覚に陥ることがある。またネットワークを経由する場合、ネットワークによる遅延変動によってもずれが生じる。そこでレンダリング時に使用したHMD100の姿勢と最新のHMD100の姿勢のずれを補償するための補正処理をレンダリング画像にかけることにより、リプロジェクションを実行し、リプロジェクション後の画像をHMD100に表示することでユーザの酔いを低減させる。
When the HMD100 has a head tracking function and the image is rendered by changing the viewpoint and the direction of the line of sight in conjunction with the movement of the user's head and displayed on the HMD100, there is a delay from the rendering of the image to the display. Occasionally, there is a discrepancy between the orientation of the user's head, which is assumed, and the orientation of the user's head when the image is displayed on the
HMD100は、現在の姿勢情報にもとづいて動き予測を行い、予測したHMD姿勢情報202をレンダリング装置300に送信する。レンダリング装置300は予測されたHMD姿勢情報202を用いてHMD100に表示すべき画像をレンダリングする。レンダリング装置300はレンダリング画像310をレンダリングに使用した姿勢情報204とともにHMD100に送信する。
The
ここでレンダリングに使用した姿勢情報204は、予測したHMD姿勢情報202と同じものであることに留意する。レンダリング装置300がHMD100の動き予測を行い、予測したHMD姿勢情報202を生成してもよい。
It should be noted that the
差分計算部302は、最新のHMD姿勢情報200とレンダリングに使用した姿勢情報204の差分を算出し、リプロジェクション部304は、算出された姿勢差分にもとづいてレンダリング画像310にリプロジェクション処理を施し、HMD100に表示する。
The
図9は、図7のリプロジェクション部130によるリプロジェクション処理を説明する図である。
FIG. 9 is a diagram illustrating a reprojection process by the
HMD100の現在の姿勢情報にもとづいて動き予測を行い、予測したHMD姿勢情報202をロボット10に送信する。ロボット10は予測されたHMD姿勢情報202を用いてカメラ14の姿勢と向きを制御し、カメラ14で画像を撮影する。ロボット10はカメラ画像210を撮影時のカメラ姿勢情報205とともにHMD100に送信する。
Motion prediction is performed based on the current posture information of the
ここで撮影時のカメラ姿勢情報205は、予測したHMD姿勢情報202とは異なることに留意する。ロボット10においてモータがカメラ14の姿勢制御を行うとき、モータの誤差や動作遅延などが発生するため、予測したHMD100の姿勢にカメラ14の姿勢を完全に一致させることはできないからである。
It should be noted here that the
差分計算部136は、最新のHMD姿勢情報200と撮影時のカメラ姿勢情報205の差分を算出する。画像補正部138は、算出された姿勢差分にもとづいて最新のHMD100の姿勢に合うようにカメラ画像210にリプロジェクション処理を施し、HMD100に表示する。ここで、厳密に言えば、最新のHMD姿勢情報200は、現時点のHMD100の姿勢ではなく、リプロジェクション処理してHMD100に表示される画像がユーザの目に入るまでの時間を考慮に入れて予測したHMD100の姿勢を用いてもよい。
The
本実施の形態のリプロジェクション部130では、予測したHMD姿勢情報202ではなく、撮影時のカメラ姿勢情報205を用いてリプロジェクションを行う点が従来のリプロジェクション処理とは異なる。
The
撮影時のカメラ姿勢情報205を用いたリプロジェクション処理によって、モータの誤差や動作遅延が原因でカメラ14の姿勢がHMD100の姿勢に合わないことにより生じるずれを解消し、HMD100を装着したユーザの違和感を軽減することができる。
The reprojection process using the
人間の頭部の動きに比べてモータによって制御されるカメラ14の動きは精度が粗いため、カメラ14によって撮影される動画は滑らかな動きにはならない。リプロジェクション処理を施すことでカメラ14によって撮影された動画の動きを滑らかにする効果もある。
Since the movement of the
また、予測したHMD姿勢情報202をロボット10に送信する際、ネットワークの輻輳状態によってはパケット損失が起き、予測したHMD姿勢情報202がロボット10に送信されずに欠落することもある。そのような場合でも、カメラ画像210とともにHMD100に送信される姿勢情報は撮影時のカメラ姿勢情報205であるため、予測したHMD姿勢情報202が欠落しても、撮影時のカメラ姿勢情報205にもとづいてリプロジェクション処理を確実に行うことができるという利点もある。
Further, when the predicted
なお、撮影時のカメラ姿勢情報205をカメラ画像210とともに送信せずに、SLAM(Simultaneous Localization and Mapping)などの技術を利用し、カメラ画像210から自己位置推定により、撮影時のカメラ14の姿勢を推定するように構成してもよい。
It should be noted that the posture of the
図10は、図7のリプロジェクション部130によるリプロジェクション処理の手順を説明するフローチャートである。
FIG. 10 is a flowchart illustrating a procedure of the reprojection process by the
カメラ画像取得部135はロボット10からカメラ画像を受信し、カメラ姿勢情報取得部134はカメラ画像にメタデータとして付加されたカメラ姿勢情報を取得する(S10)。
The camera
HMD姿勢情報取得部132は、姿勢センサ124が検出した最新のHMD姿勢情報を取得する(S12)。
The HMD attitude
差分計算部136は、最新のHMD姿勢情報とカメラ姿勢情報の差分を算出する(S14)。
The
差分計算部136は、最新のHMD姿勢情報がロボット10のカメラ14の可動範囲内であるかどうかを判定し(S16)、可動範囲内であれば(S16のY)、ステップS20に進む。
The
最新のHMD姿勢情報がロボット10のカメラ14の可動範囲の限界値に近づいているか、可動範囲を超えている場合(S16のN)、警告部137は、HMD100の動きをロボット10の可動範囲内に収めるようにユーザを誘導する警告メッセージを表示パネル102に表示する(S18)。
When the latest HMD posture information approaches or exceeds the limit value of the movable range of the
差分計算部136は、HMD100の姿勢変化がロボット10のカメラ14の追従可能速度内であるかどうかを判定し(S20)、追従可能速度内であれば(S20のY)、ステップS24に進む。
The
HMD100の姿勢変化がロボット10の追従可能速度の限界値に近づいているか、追従可能速度を越えている場合(S20のN)、警告部137は、HMD100の姿勢変化をロボット10の追従可能速度内に収めるにユーザを誘導する警告メッセージを表示パネル102に表示する(S22)。
When the attitude change of the
画像補正部138は、最新のHMD姿勢情報とカメラ姿勢情報の差分にもとづいてカメラ画像を補正することにより、リプロジェクション処理を実行する(S24)。
The
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。そのような変形例を説明する。 The present invention has been described above based on the embodiments. Embodiments are examples, and it will be understood by those skilled in the art that various modifications are possible for each of these components and combinations of each processing process, and that such modifications are also within the scope of the present invention. .. An example of such a modification will be described.
上記の実施の形態では、リプロジェクション部130はHMD100に設けられたが、リプロジェクション部130をHMD100が接続されたクライアント装置に設けてもよい。
In the above embodiment, the
上記の実施の形態では、HMD100とロボット10がネットワークを経由して接続され、ロボット10を遠隔操作する場合を説明したが、ネットワークを経由しないでHMD100とロボット10が接続されている場合でも同様のリプロジェクション処理を適用することができる。モータの遅延や誤差があるため、ネットワークによる遅延変動がなくても、カメラ14の姿勢とHMD100の姿勢のずれが発生するため、カメラ画像をHMD100の姿勢に合わせて補正するリプロジェクション処理が有効である。また、ロボット10に限らず、カメラ14が搭載された制御装置であれば、どのような制御装置に対しても同様のリプロジェクション処理を適用することができる。
In the above embodiment, the case where the
上記の実施の形態では、ロボット10そのものは移動せず、ロボット10に搭載されたカメラ14が姿勢を変える場合を説明したが、ロボット10自体が位置を変える場合であっても同様のリプロジェクション処理を適用することができる。その場合、モーションセンサによるカメラ姿勢だけでなく、サーボ機構の位置情報などからカメラの絶対的な位置情報を取得してカメラ画像とともに送信する。カメラ14が移動する場合は、SLAMのように環境地図上でのカメラ14の位置と姿勢を推定する自己位置推定技術を利用することもできる。なお、サーボ機構の位置情報やSLAMなどの自己位置推定技術は、ロボット10が位置を変えない場合にもカメラ14の姿勢情報を取得するために利用することができる。
In the above embodiment, the case where the
1 情報処理システム、 10 ロボット、 12 アクチュエータ装置、 14a 右カメラ、 14b 左カメラ、 20 筐体、 22 入力系統、 24 出力系統、 30 台座、 32 第1円弧状アーム、 34 第2円弧状アーム、 36 ハウジング、 38 カバー、 40 脚部、 42 挿通部材、 50 駆動機構、 52 第1モータ、 54 第2モータ、 56 第3モータ、 60 受信部、 62 センサ情報取得部、 64 動き検出部、 66 視線方向決定部、 68 アクチュエータ制御部、 70 カメラ姿勢情報取得部、 80 画像処理部、 90 送信部、 100 HMD、 102 表示パネル、 120 制御部、 122 記憶部、 124 姿勢センサ、 126 通信制御部、 130 リプロジェクション部、 132 HMD姿勢情報取得部、 134 カメラ姿勢情報取得部、 135 カメラ画像取得部、 136 差分計算部、 137 警告部、 138 画像補正部。 1 Information processing system, 10 Robot, 12 Actuator device, 14a Right camera, 14b Left camera, 20 Housing, 22 Input system, 24 Output system, 30 Pedestal, 32 1st arc arm, 34 2nd arc arm, 36 Housing, 38 cover, 40 legs, 42 insertion member, 50 drive mechanism, 52 1st motor, 54 2nd motor, 56 3rd motor, 60 receiver, 62 sensor information acquisition unit, 64 motion detection unit, 66 line-of-sight direction Decision unit, 68 Actuator control unit, 70 Camera attitude information acquisition unit, 80 Image processing unit, 90 Transmission unit, 100 HMD, 102 Display panel, 120 Control unit, 122 Storage unit, 124 Attitude sensor, 126 Communication control unit, 130 Projection unit, 132 HMD posture information acquisition unit, 134 camera attitude information acquisition unit, 135 camera image acquisition unit, 136 difference calculation unit, 137 warning unit, 138 image correction unit.
画像を生成する技術に適用できる。 It can be applied to the technology to generate images.
Claims (6)
前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得部と、
前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算部と、
算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正部とを含むことを特徴とする画像生成装置。A camera image acquisition unit that acquires images taken by a camera that can change its posture in conjunction with a change in the posture of the head-mounted display.
A camera posture information acquisition unit that acquires posture information during shooting by the camera, and a camera posture information acquisition unit.
A difference calculation unit that calculates the difference between the posture information of the head-mounted display and the posture information at the time of shooting by the camera, and
An image generation device including an image correction unit that corrects the captured image so as to match the posture of the head-mounted display based on the calculated difference.
前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得ステップと、
前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算ステップと、
算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正ステップとを含むことを特徴とする画像生成方法。The camera image acquisition step to acquire the image taken by the camera that can change the attitude in conjunction with the attitude change of the head-mounted display,
The camera posture information acquisition step for acquiring the posture information at the time of shooting by the camera, and
A difference calculation step for calculating the difference between the posture information of the head-mounted display and the posture information at the time of shooting by the camera, and
An image generation method comprising an image correction step of correcting the captured image so as to match the posture of the head-mounted display based on the calculated difference.
前記カメラの撮影時の姿勢情報を取得するカメラ姿勢情報取得機能と、
前記ヘッドマウントディスプレイの姿勢情報と前記カメラの撮影時の姿勢情報の差分を算出する差分計算機能と、
算出された前記差分にもとづいて前記ヘッドマウントディスプレイの姿勢に合うように前記撮影画像を補正する画像補正機能とをコンピュータに実現させることを特徴とするプログラム。A camera image acquisition function that acquires images taken by a camera that can change the attitude in conjunction with the attitude change of the head-mounted display,
The camera posture information acquisition function that acquires the posture information at the time of shooting by the camera, and
A difference calculation function that calculates the difference between the posture information of the head-mounted display and the posture information at the time of shooting by the camera, and
A program characterized in that a computer realizes an image correction function that corrects the captured image so as to match the posture of the head-mounted display based on the calculated difference.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/010078 WO2019176035A1 (en) | 2018-03-14 | 2018-03-14 | Image generation device, image generation system, and image generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019176035A1 true JPWO2019176035A1 (en) | 2021-03-11 |
JP7122372B2 JP7122372B2 (en) | 2022-08-19 |
Family
ID=67907053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020506041A Active JP7122372B2 (en) | 2018-03-14 | 2018-03-14 | Image generation device, image generation system, and image generation method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7122372B2 (en) |
WO (1) | WO2019176035A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6801136B1 (en) * | 2020-05-14 | 2020-12-16 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Remote control system and its remote work equipment, video processing equipment and programs |
WO2022149497A1 (en) * | 2021-01-05 | 2022-07-14 | ソニーグループ株式会社 | Information processing device, information processing method, and computer program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05228855A (en) * | 1992-02-19 | 1993-09-07 | Yaskawa Electric Corp | Tele-existance visual device |
JP2002135641A (en) * | 2000-10-27 | 2002-05-10 | Nippon Telegr & Teleph Corp <Ntt> | Camera system of freely moving view point and visual line |
WO2016152572A1 (en) * | 2015-03-20 | 2016-09-29 | 日産自動車株式会社 | Indirect-view presentation device |
-
2018
- 2018-03-14 JP JP2020506041A patent/JP7122372B2/en active Active
- 2018-03-14 WO PCT/JP2018/010078 patent/WO2019176035A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05228855A (en) * | 1992-02-19 | 1993-09-07 | Yaskawa Electric Corp | Tele-existance visual device |
JP2002135641A (en) * | 2000-10-27 | 2002-05-10 | Nippon Telegr & Teleph Corp <Ntt> | Camera system of freely moving view point and visual line |
WO2016152572A1 (en) * | 2015-03-20 | 2016-09-29 | 日産自動車株式会社 | Indirect-view presentation device |
Also Published As
Publication number | Publication date |
---|---|
JP7122372B2 (en) | 2022-08-19 |
WO2019176035A1 (en) | 2019-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3379525B1 (en) | Image processing device and image generation method | |
EP3287837B1 (en) | Head-mountable display system | |
JP6378781B2 (en) | Head-mounted display device and video display system | |
WO2016017245A1 (en) | Information processing device, information processing method, and image display system | |
US11277603B2 (en) | Head-mountable display system | |
JPWO2016113951A1 (en) | Head-mounted display device and video display system | |
US20190045125A1 (en) | Virtual reality video processing | |
US20190215505A1 (en) | Information processing device, image generation method, and head-mounted display | |
KR20160147735A (en) | Head region position detection device and head region position detection method, image processing device and image processing method, display device, and computer program | |
US11647292B2 (en) | Image adjustment system, image adjustment device, and image adjustment | |
US20140361987A1 (en) | Eye controls | |
CN112272817B (en) | Method and apparatus for providing audio content in immersive reality | |
JP2021060627A (en) | Information processing apparatus, information processing method, and program | |
JP7122372B2 (en) | Image generation device, image generation system, and image generation method | |
JP6588196B2 (en) | Image generating apparatus, image generating method, and calibration method | |
US20240036327A1 (en) | Head-mounted display and image displaying method | |
JP6518645B2 (en) | INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD | |
CN105828021A (en) | Specialized robot image acquisition control method and system based on augmented reality technology | |
TW202029779A (en) | Method and program for playing virtual reality image | |
JP2023099494A (en) | Data processing apparatus for virtual reality, data processing method, and computer software | |
JP7203157B2 (en) | Video processing device and program | |
US20190089899A1 (en) | Image processing device | |
JP6867566B2 (en) | Image display device and image display system | |
JP2022519033A (en) | Image representation of the scene | |
WO2022149497A1 (en) | Information processing device, information processing method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A527 Effective date: 20200807 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220808 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7122372 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |