JP6949475B2 - Image processing equipment, image processing methods and programs - Google Patents
Image processing equipment, image processing methods and programs Download PDFInfo
- Publication number
- JP6949475B2 JP6949475B2 JP2016229985A JP2016229985A JP6949475B2 JP 6949475 B2 JP6949475 B2 JP 6949475B2 JP 2016229985 A JP2016229985 A JP 2016229985A JP 2016229985 A JP2016229985 A JP 2016229985A JP 6949475 B2 JP6949475 B2 JP 6949475B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- interest
- display unit
- live
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像処理装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method and a program.
近年、現実空間と仮想空間とをリアルタイムかつシームレスに融合させる技術として、複合現実感(MR:Mixed Reality)技術が知られている。MR技術においては、使用者(視聴者)の頭部に装着された頭部装着型表示装置を利用して、使用者にMR空間を体験させることができる。頭部装着型表示装置は、自装置に実装された撮像ユニットが撮像した、若しくは外部装置から入力された現実空間の画像上に、CG(コンピュータグラフィックス)により描画された仮想空間の画像を合成した合成画像を、表示ユニットに表示する。 In recent years, mixed reality (MR) technology has been known as a technology for seamlessly fusing a real space and a virtual space in real time. In MR technology, a head-mounted display device mounted on the head of a user (viewer) can be used to allow the user to experience the MR space. The head-mounted display device synthesizes a virtual space image drawn by CG (computer graphics) on a real space image captured by an imaging unit mounted on the own device or input from an external device. The combined image is displayed on the display unit.
従来、動画像データにエラーが発生した場合、エラーが発生している画像を補間画像で置き換えて補間する方法が提案されている。特許文献1には、画像にエラーが発生した場合、エラーが発生した画像の全体または画像内のエラー箇所を、過去の画像で置き換えて補間する点が開示されている。また、特許文献2には、MRシステムにおいて、合成画像にエラーが発生し、前後のフレーム間で画像の内容に大きな動きがない場合、エラーが発生した合成画像の全体または画像内のエラー箇所を、直前のフレームの合成画像で置き換える点が開示されている。 Conventionally, when an error occurs in moving image data, a method of replacing the error-occurring image with an interpolated image and interpolating has been proposed. Patent Document 1 discloses that when an error occurs in an image, the entire image in which the error has occurred or the error portion in the image is replaced with a past image and interpolated. Further, in Patent Document 2, when an error occurs in the composite image in the MR system and there is no large movement in the content of the image between the frames before and after, the error portion in the entire composite image or the error portion in the image in which the error occurs is described. , The point of replacing with the composite image of the immediately preceding frame is disclosed.
MRシステムにおいては、広い空間に置かれた使用者がMR空間を体験するために、頭部装着型表示装置とCG画像を生成するCG画像生成装置とを別々の筐体で構成し、装置間で無線通信を行う場合がある。しかしながら、無線通信を介在させた場合、CG画像の伝送の遅延やエラーが起きる可能性が高くなる。
MRシステムにおいて、背景画像に重畳させるCG画像にエラーが発生した際に、背景画像も一緒に補間画像に置き換えた場合、使用者の頭部の動きに対して画面全体が補間領域となる。このように画面内の補間領域が増えると、使用者に違和感を与えやすい。
また、MRシステムにおいて、合成画像にエラーが発生した際に、過去の合成画像をそのまま補間画像として代用した場合、補間画像と本来表示すべき合成画像と間には内容の差が生じるため、使用者に違和感を与えるおそれがある。
そこで、本発明は、表示すべき画像にエラーが発生した場合であっても、違和感が低減されたMR空間を提示可能とすることを目的としている。
In the MR system, in order for a user placed in a wide space to experience the MR space, a head-mounted display device and a CG image generator that generates a CG image are configured in separate housings, and the devices are used between the devices. There are cases where wireless communication is performed. However, when wireless communication is intervened, there is a high possibility that a delay or error in transmission of a CG image will occur.
In the MR system, when an error occurs in the CG image superimposed on the background image and the background image is also replaced with the interpolated image, the entire screen becomes the interpolated area with respect to the movement of the user's head. When the interpolation area in the screen is increased in this way, it is easy to give the user a sense of discomfort.
Also, in the MR system, when an error occurs in the composite image, if the past composite image is used as the interpolated image as it is, there will be a difference in content between the interpolated image and the composite image that should be displayed, so it is used. There is a risk of giving a sense of discomfort to the person.
Therefore, an object of the present invention is to make it possible to present an MR space in which a sense of discomfort is reduced even when an error occurs in an image to be displayed.
上記課題を解決するために、本発明に係る画像処理装置の一態様は、表示部の視点の位置姿勢に対応した実写画像を時系列上連続して入力する入力手段と、前記入力手段により入力された前記実写画像に基づいて、前記表示部の視点の位置姿勢の動き量を検出する第一の検出手段と、前記表示部の視点の位置姿勢に基づき時系列上連続して生成された、前記表示部に表示されるべき第一のCG画像を取得する取得手段と、前記取得手段により取得された、注目フレームよりも時間的に前のフレームの前記第一のCG画像を補正対象として、前記表示部の視点の位置姿勢の動き量に基づいて幾何変換し、注目フレームの第二のCG画像を生成する生成手段と、注目フレームの前記第一のCG画像に異常が発生しているか否かを判定する判定手段と、前記判定手段により前記異常が発生していないと判定された場合、注目フレームの前記第一のCG画像を当該注目フレームに対応する前記実写画像と合成した合成画像を前記表示部に表示させ、前記判定手段により前記異常が発生していると判定された場合、注目フレームの前記第二のCG画像を当該注目フレームに対応する前記実写画像と合成した合成画像を前記表示部に表示させる表示制御手段と、を備える。 In order to solve the above problems, one aspect of the image processing apparatus according to the present invention is an input means for continuously inputting live images corresponding to the position and orientation of the viewpoint of the display unit in time series, and the input means. Based on the live image, the first detecting means for detecting the amount of movement of the viewpoint position and orientation of the display unit and the time-series continuously generated based on the position and orientation of the viewpoint of the display unit. obtaining means for obtaining a first CG image to be displayed on the display unit, which is acquired by the acquisition unit, the first CG image of a temporally previous frame than the frame of interest as the correction target, Whether or not an abnormality has occurred in the generation means for generating the second CG image of the frame of interest by geometrically transforming based on the amount of movement of the position and orientation of the viewpoint of the display unit and the first CG image of the frame of interest. When the determination means determines whether or not the abnormality has occurred, a composite image obtained by synthesizing the first CG image of the frame of interest with the live image corresponding to the frame of interest is used. When the display unit is displayed and the determination means determines that the abnormality has occurred, a composite image obtained by synthesizing the second CG image of the frame of interest with the live image corresponding to the frame of interest is obtained. A display control means for displaying on the display unit is provided.
本発明によれば、表示すべき画像にエラーが発生した場合であっても、違和感のないMR空間を提示可能とすることができる。 According to the present invention, it is possible to present a comfortable MR space even when an error occurs in an image to be displayed.
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
(第一の実施形態)
図1は、本実施形態における複合現実感システム(MRシステム)10の構成例を示す図である。本実施形態におけるMRシステム10は、現実空間と仮想空間とを融合した複合現実空間(MR空間)を使用者(視聴者)に提示するための画像処理システムである。
本実施形態では、MR空間を体感する使用者の頭部に装着される頭部装着型表示装置(HMD)20を利用して、使用者にMR空間を提示する場合について説明する。本実施形態において、HMD20は、現実空間の画像(実写画像)とコンピュータグラフィックス(CG)により描画される仮想空間の画像(CG画像)とを合成した合成画像を使用者に提示可能なビデオシースルー型HMDである。HMD20は、実写画像とCG画像とを合成して合成画像を生成する画像処理装置30と、画像処理装置30により生成された合成画像を表示する表示部40と、を備える。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. The embodiments described below are examples of means for realizing the present invention, and should be appropriately modified or changed depending on the configuration of the device to which the present invention is applied and various conditions. It is not limited to the embodiment of.
(First Embodiment)
FIG. 1 is a diagram showing a configuration example of a mixed reality system (MR system) 10 in the present embodiment. The
In the present embodiment, a case where the MR space is presented to the user by using the head-mounted display device (HMD) 20 mounted on the head of the user who experiences the MR space will be described. In the present embodiment, the HMD 20 is a video see-through capable of presenting a composite image obtained by synthesizing a real space image (live-action image) and a virtual space image (CG image) drawn by computer graphics (CG) to the user. Type HMD. The HMD 20 includes an
MRシステム10は、HMD20と、CG画像を生成するCG画像生成装置50と、を備える。HMD20とCG画像生成装置50とは、ネットワークを介して互いにデータを送信可能に接続されている。ネットワークは、LAN(Local Area Network)やWAN(Wide Area Network)、インターネットなどである。なお、ネットワークへの物理的な接続形態は、有線であってもよいし、無線であってもよい。但し、広い空間に置かれた使用者がMR空間を体感するためには、HMD20からネットワークへの接続形態は無線であることが望ましい。
HMD20の画像処理装置30は、画像取得部31と、第一のバッファ32と、第二のバッファ33と、画像合成部34と、表示制御部35と、補間画像生成部36と、を備える。また、CG画像生成装置50は、GMV検出部51と、描画位置算出部52と、CG生成部53と、を備える。
The
The
画像取得部31は、使用者の視点に対応するHMD20の視点の位置姿勢に対応した画像を時系列上連続して入力する。本実施形態では、画像取得部31は、使用者の右目、左目それぞれに対応する位置から現実空間を撮像した実写画像を一定周期で入力する。例えば、画像取得部31は、現実空間を撮像したビデオ映像を1フレームごとにキャプチャし、実写画像として取得することができる。画像取得部31は、取得した実写画像に、画像の時間情報(同期情報)としてフレーム番号を付加し、CG画像生成装置50のGMV検出部51に送信する(D1)。また、画像取得部31は、フレーム番号を付加した実写画像を、第一のバッファ32に保存する。
なお、画像取得部31が実写画像をどこから取得するかについては、特に限定されるものではない。例えば、画像取得部31は、HMD20に実装された撮像装置や、ネットワークに接続されたサーバ装置、記憶媒体から情報を読み取る装置、ハードディスク装置などから取得することができる。また、画像取得部31が取得する画像は、HMD20の視点の位置姿勢に対応した画像であれよく、実写画像に限定されない。
The
The place where the
第一のバッファ32は、画像取得部31により取得された実写画像を、フレーム番号と共に一時的に保存(格納)する。第二のバッファ33は、CG画像生成装置50のGMV検出部51により送信されたGMV(グローバルモーションベクトル)を保存する。ここで、GMVは、HMD20の視点の位置姿勢の動き量(変化量)を示す情報である。第二のバッファ33は、フレーム番号と共にGMVを一時的に保存する。また、第二のバッファ33は、CG画像生成装置50のCG生成部53により生成されたCG画像をフレーム番号と共に一時的に保存する。
The
画像合成部34は、実写画像とCG画像とを合成した合成画像(MR画像)を生成する。本実施形態では、画像合成部34は、注目フレームの合成画像を生成する際に、注目フレームのCG画像に異常が発生しているか否かを判定する。ここで、CG画像に異常が発生している状態とは、注目フレームの合成画像を生成するタイミングにおいて、注目フレームのCG画像が合成画像の生成に使用できない状態である。例えば、CG画像に異常が発生している状態は、CG画像の取得が同期信号に対して遅延している場合や、CG画像自体にエラーが発生している場合を含む。
The
本実施形態では、CG画像の取得が同期信号に対して遅延している場合に、CG画像に異常が発生していると判定する例について説明する。具体的には、画像合成部34は、注目フレームの合成画像を生成するタイミングにおいて、注目フレームのCG画像が第二のバッファ33に保持されているか否かを判定することで、注目フレームのCG画像に異常が発生しているか否かを判定する。
そして、注目フレームのCG画像が保存されている場合は、第一のバッファ32に保存された注目フレームの実写画像と、第二のバッファ33に保存された注目フレームのCG画像とを合成し、合成画像を生成する。一方、注目フレームのCG画像が保存されていない場合は、第一のバッファ32に保存された注目フレームの実写画像と、補間画像生成部36により生成された、注目フレームのCG画像を補間するための補間画像とを合成し、合成画像を生成する。
In the present embodiment, an example in which it is determined that an abnormality has occurred in the CG image when the acquisition of the CG image is delayed with respect to the synchronization signal will be described. Specifically, the
Then, when the CG image of the attention frame is stored, the live-action image of the attention frame stored in the
表示制御部35は、画像合成部34により生成された合成画像を表示部40に表示させる表示制御を行う。
補間画像生成部36は、第二のバッファ33に保存された、注目フレームよりも時間的に前で且つ最新のCG画像を補正対象として補正し、注目フレームのCG画像を補間するための補間画像を生成する。具体的には、補間画像生成部36は、補正対象のCG画像を、当該補正対象のCG画像のフレーム番号に相当する実写画像から注目フレームの実写画像までの間のGMVを加味して幾何変換し、補間画像を生成する。ここで、幾何変換は、平面内の写像、奥行き方向の写像、および空間内の回転の少なくとも1つを含む。
また、補間画像の生成を完了するタイミングは、表示制御部35により注目フレームの合成画像を表示部40に表示させるタイミングよりも前、具体的には、画像合成部34において注目フレームの合成画像を生成するタイミングに間に合うタイミングとする。
The
The interpolated
Further, the timing of completing the generation of the interpolated image is prior to the timing of displaying the composite image of the frame of interest on the
GMV検出部51は、画像取得部31から送信された実写画像をもとにGMVを検出し、フレーム番号と共にHMD20の画像処理装置30に送信する(D2)。また、GMV検出部51は、検出したGMVを描画位置算出部52に送信する。描画位置算出部52は、GMVに基づいてCGの描画位置を算出し、算出結果をCG生成部53に送信する。CG生成部53は、GMVを加味した左右両目用のCG画像をそれぞれ生成し、フレーム番号、描画位置と共にHMD20の画像処理装置30に送信する(D3)。なお、CG生成部53は、GMVに加えて、光源やその他の環境を考慮してCG画像を生成してもよい。
表示部40は、画像処理装置30から送信された合成画像を表示するディスプレイを備える。ここで、上記ディスプレイは、使用者の左右の目にそれぞれ対応して配置することができる。この場合、使用者の左目に対応するディスプレイには左目用の合成画像が表示され、使用者の右目に対応するディスプレイには右目用の合成画像が表示される。また、表示部40は、ディスプレイ上の画像を眼球に導くための光学系を備えていてもよい。
The
The
図2は、画像処理装置30のハードウェア構成の一例を示す図である。
画像処理装置30は、CPU301と、RAM302と、ROM303と、記憶装置304と、記憶媒体ドライブ305と、インターフェース(I/F)306と、システムバス307と、を備える。
CPU301は、画像処理装置30における動作を統括的に制御するプロセッサであり、システムバス307を介して、各構成部(302〜306)を制御する。RAM302は、記憶装置304や記憶媒体ドライブ305からロードされたプログラムやデータを一時的に記憶するための領域を有する。さらに、RAM302は、I/F306を介して外部装置から受信したデータを一時的に記憶するためのエリアを有する。また、RAM302は、CPU301が各処理を実行する際に用いるワークエリアも有する。例えば、RAM302は、図1の第一のバッファ32および第二のバッファ33として機能することができる。
FIG. 2 is a diagram showing an example of the hardware configuration of the
The
The
ROM303は、コンピュータの設定データやブートプログラムなどを格納する。記憶装置304は、画像処理装置30が行うものとして説明した上述の各処理をCPU301に実行させるためのプログラムやデータを記憶している。記憶装置304に記憶されているプログラムやデータは、CPU301による制御に従って適宜RAM302にロードされる。CPU301は、このロードされたプログラムやデータを用いて処理を実行することで、図1に示す画像処理装置30の各部の機能を実現することができる。
記憶媒体ドライブ305は、CD−ROMやDVD−ROMなどの記憶媒体に記録されたプログラムやデータを読み出したり、係る記憶媒体にプログラムやデータを書き込んだりすることができる。なお、上記において、記憶装置304に保存されているものとして説明したプログラムやデータの一部若しくは全部を、この記憶媒体に記録しておいてもよい。記憶媒体ドライブ305が記憶媒体から読み出したプログラムやデータは、記憶装置304やRAM302に対して出力される。
The
The
I/F306は、外部装置と通信するためのインターフェースである。I/F306を介して受信したデータは、RAM302や記憶装置304に入力される。
上述したように、図1に示す画像処理装置30の各部の機能は、CPU301がプログラムを実行することで実現することができる。ただし、図1に示す画像処理装置30の各部のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU301の制御に基づいて動作する。
The I /
As described above, the functions of each part of the
なお、CG画像生成装置50についても、図2の構成と同様のハードウェア構成を有することができる。この場合、図1に示すCG画像生成装置50の各部の機能は、CG画像生成装置50のCPUがプログラムを実行することで実現することができる。ただし、図1に示すCG画像生成装置50の各部のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CG画像生成装置50のCPUの制御に基づいて動作する。
つまり、図1に示すHMD20およびCG画像生成装置50を構成するそれぞれのブロックは、目標とする処理速度が得られる範囲であれば、ハードウェア、ソフトウェアどちらによって実現されてもよい。
The
That is, each block constituting the
以下、画像処理装置30およびCG画像生成装置50において実行される処理の手順について、図3を参照しながら説明する。図3に示す処理は、例えば使用者による指示入力に応じて開始される。ただし、図3の処理の開始タイミングは、上記のタイミングに限らない。
画像処理装置30およびCG画像生成装置50は、それぞれCPUが必要なプログラムを読み出して実行することにより、図3に示す処理を実現することができる。ただし、上述したように、図1に示す画像処理装置30およびCG画像生成装置50の各要素のうち少なくとも一部が専用のハードウェアとして動作することで図4の処理が実現されるようにしてもよい。この場合、専用のハードウェアは、各装置のCPUの制御に基づいて動作する。なお、以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
Hereinafter, the procedure of the processing executed by the
The
まず、CG画像生成装置50の処理の流れについて説明する。
S1において、GMV検出部51は、画像処理装置30の画像取得部31から実写画像(D1)を受信したか否かを判定する。そして、GMV検出部51は、実写画像を受信していないと判定した場合は、実写画像を受信するまで待機し、実写画像を受信するとS2に移行する。S2では、GMV検出部51は、S1において取得した実写画像を注目フレームの実写画像とし、注目フレームの1つ前のフレームの実写画像と比較して、HMDの視点の位置姿勢の動き量を検出し、注目フレームのGMVを生成する。ここで、HMDの視点の位置姿勢の動き量は、画像中の特徴点を検出し、検出した特徴点の移動をフレームにまたがって追跡することにより検出することができる。
First, the processing flow of the
In S1, the
S3では、GMV検出部51は、S2において生成されたGMVを、注目フレームのフレーム番号と共に画像処理装置30に送信する(D2)。画像処理装置30に送信されたGMVは、フレーム番号と共に第二のバッファ33に保存される。次にS4では、描画位置算出部52は、S2において生成されたGMVに基づいてCGの描画位置を算出し、CG生成部53は、S2において生成されたGMVに基づいてCG画像を生成する。そして、S5では、CG生成部53は、S4において生成されたCG画像を、注目フレームのフレーム番号やCGの描画位置と共に画像処理装置30に送信する(D3)。画像処理装置30に送信されたCG画像は、フレーム番号やCGの描画位置と共に第二のバッファ33に保存される。
このように、CG画像生成装置50は、注目フレームのGMVを検出した後、注目フレームのCG画像を生成し、注目フレームのGMVを先行して注目フレームのCG画像の生成を待たずに画像処理装置30へ送信する。
In S3, the
In this way, the CG
次に、画像処理装置30の処理の流れについて説明する。
まずS11において、画像取得部31は、実写画像を取得(キャプチャ)する。次にS12において、画像取得部31は、S11において取得された実写画像をフレーム番号と共にCG画像生成装置50に送信する(D1)。また、画像取得部31は、S11において取得された実写画像をフレーム番号と共に第一のバッファ32に保存する。
S13では、補間画像生成部36は、CG画像生成装置50から注目フレームに対応するGMVを受信すると(D2)、第二のバッファ33に保存されたCG画像のうち、注目フレームよりも時間的に前で且つ最新のCG画像を補正対象として読み出す。そして、読み出したCG画像を、GMVに基づいて幾何変換して補間画像を生成する。ここで、幾何変換は、平面内の写像、奥行き方向の写像、および空間内の回転の少なくとも1つを含むことができる。
Next, the processing flow of the
First, in S11, the
In S13, when the interpolated
CG画像生成装置50から画像処理装置30へのデータの伝送エラー等がなく、正常にCG画像が送信されている限り、上記補正対象は注目フレームの直前のフレームのCG画像である。しかしながら、MRシステム10においては、CG画像生成装置50におけるCG画像の生成処理の遅延や、CG画像生成装置50から画像処理装置30へのデータ伝送の遅延、データ伝送のエラーといったCG画像の異常が発生し得る。つまり、画像処理装置30においては、CG画像の受信が同期信号に対して遅れたり、CG画像を受信できなかったりするフレームが存在する場合がある。
As long as there is no data transmission error from the CG
上述したような異常により注目フレームの直前のフレームのCG画像が第二のバッファ33に保存されていない場合には、S13において補間画像生成部36は、直前のフレームよりもさらに前のCG画像を補正対象として補間画像を生成する。その場合、補間画像生成部36は、注目フレームの実写画像のGMVだけでなく、補正対象のCG画像のフレーム番号に対応する実写画像から注目フレームの実写画像までの間のGMVを加味して補間画像を生成する。
なお、本実施形態では、GMVについては、CG画像生成装置50から画像処理装置30へのデータの伝送エラー等がなく、正常にGMVが送信されているものとして説明する。
When the CG image of the frame immediately before the frame of interest is not stored in the
In the present embodiment, it is assumed that the GMV is normally transmitted without any data transmission error from the CG
次に、S14では、画像合成部34は、合成画像を生成するタイミング(画像合成タイミング)となったか否かを判定する。ここで、画像合成部34は、実写画像をキャプチャする周期でタイマを動作させ、タイマ終了を検出することで画像合成タイミングを検出することができる。画像合成部34は、画像合成タイミングではないと判定した場合には、画像合成タイミングとなるまで待機し、画像合成タイミングとなったことを検出するとS15に移行する。
S15では、画像合成部34は、注目フレーム番号のCG画像が第二のバッファ33に保存されているか否かを判定する。注目フレーム番号のCG画像(D3)は、CG画像の異常が発生していない場合、画像合成タイミングの前に受信され(図3の左向きの点線矢印)、第二のバッファ33に保存される。しかしながら、CG画像の異常が発生している場合、注目フレーム番号のCG画像は画像合成タイミングの時点で第二のバッファ33に保存されていない場合がある(図3の下向きの点線矢印)。なお、画像合成タイミングに遅れて受信したCG画像は、次フレームの補間画像の生成処理(S13の処理)において利用可能とするために、第二のバッファ33に保存される。
Next, in S14, the
In S15, the
そこで、画像合成部34は、S15において、第二のバッファ33に注目フレーム番号のCG画像が保存されているか否かを判定することで、CG画像に異常が発生しているか否かを判定する。ここでは、CG画像の取得が、画像合成タイミングを示す同期信号に対して遅延しているか否かを判定することができる。そして、画像合成部34は、第二のバッファ33に注目フレーム番号のCG画像が保存されている(CG画像に異常が発生していない)と判定した場合にはS16に移行する。S16では、画像合成部34は、S11において取得された注目フレームの実写画像と、第二のバッファ33に保存されている注目フレーム番号のCG画像とを合成し、S18に移行する。
一方、S15において、画像合成部34が、第二のバッファ33に注目フレーム番号のCG画像が保存されていない(CG画像に異常が発生している)と判定した場合、S17に移行する。そして、S17では、画像合成部34は、S11において取得された注目フレームの実写画像と、S13において生成された補間画像とを合成し、S18に移行する。
S18では、表示制御部35は、S16またはS17において生成された合成画像を表示部40に表示する表示制御を行う。
Therefore, in S15, the
On the other hand, in S15, when the
In S18, the
以下、図1の各ブロックでの処理タイミングについて、図4〜図6を用いて説明する。図4〜図6は、横軸方向に時間Tをとり、上段から順に、画像取得部31、CG生成部53、第二のバッファ33、画像合成部34、補間画像生成部36の処理タイミングを表している。つまり、上段から実写画像(撮像画像)の取得、CG画像の生成、CG画像の保存、合成画像の生成、補間画像の生成のタイミングを示している。
これら図4〜図6において、実写画像F、CG画像Cおよび合成画像Syの添え字の数字は、フレーム番号に相当している。例えば、図4の点線で囲まれた処理の添え字は「2」である。この点線領域では、フレーム番号=2の実写画像F2を用いてCG画像C2を生成し、実写画像F2とCG画像C2とを合成して合成画像Sy2を生成することを示している。また、CG画像C2を補正して生成された補間画像が、補間画像C2´であることを示している。
Hereinafter, the processing timing in each block of FIG. 1 will be described with reference to FIGS. 4 to 6. In FIGS. 4 to 6, the time T is taken in the horizontal axis direction, and the processing timings of the
In FIGS. 4 to 6, the subscript numbers of the live-action image F, the CG image C, and the composite image Sy correspond to the frame numbers. For example, the subscript of the process surrounded by the dotted line in FIG. 4 is "2". In this dotted line region, it is shown that the CG image C2 is generated using the live-action image F2 having the frame number = 2, and the live-action image F2 and the CG image C2 are combined to generate the composite image Sy2. Further, it is shown that the interpolated image generated by correcting the CG image C2 is the interpolated image C2'.
図4は、データ伝送の遅延により、CG画像C3およびC4が第二のバッファ33に保存されるタイミングが、それぞれ合成画像Sy3およびSy4を生成するタイミングよりも僅かに遅れた場合の処理タイミングを示している。なお、CG画像C3およびC4は、それぞれ合成画像Sy4およびSy5を生成するタイミングよりは前に第二のバッファ33に保存されているものとする。
画像取得部31は、実写画像F2をキャプチャすると、キャプチャした実写画像F2をGMV検出部51に送信する。すると、GMV検出部51は、実写画像F2をもとにGMVを検出し、検出したGMVを画像処理装置30に送信する。実写画像F2のGMVを受信した画像処理装置30は、補間画像生成部36において、受信したGMVをもとに、第二のバッファ33に保存されている最新のCG画像を補正し、補間画像を生成する。このとき、第二のバッファ33にはCG画像C1が保存されているため、補間画像生成部36は、CG画像C1を補正して補間画像C1´を生成する。そして、画像合成部34は、合成画像Sy2の画像合成タイミングとなるまで待機する。
FIG. 4 shows the processing timing when the timing at which the CG images C3 and C4 are stored in the
When the
その間、CG画像生成装置50は、CG生成部53において、実写画像F2のGMVに基づいてCG画像C2を生成し、生成したCG画像C2を画像処理装置30へ送信する。異常が発生していない場合、画像処理装置30は、合成画像Sy2の画像合成タイミングよりも前にCG画像C2を受信し、第二のバッファ33にCG画像C2が保存される。
したがって、合成画像Sy2の画像合成タイミングでは、画像合成部34は、実写画像F2とCG画像C2とを合成して合成画像Sy2を生成する。そして、表示制御部35は、実写画像F2とCG画像C2とを合成した合成画像Sy2を表示部40に表示させる。このように、画像処理装置30は、HMDの視点の位置姿勢に基づいて生成されたCG画像をリアルタイム合成して表示させるので、使用者に違和感のないMR空間を提示することができる。
Meanwhile, the CG
Therefore, at the image composition timing of the composite image Sy2, the
その後、実写画像F2をキャプチャしてから一定時間が経過すると、画像取得部31は、実写画像F3をキャプチャする。そして、同様に、GMV検出部51は実写画像F3をもとにGMVを検出し、補間画像生成部36は、実写画像F3のGMVをもとにCG画像C2を補正し、補間画像C2´を生成する。そして、画像合成部34は、合成画像Sy3の画像合成タイミングとなるまで待機する。
このとき、データ伝送の遅延により、CG画像C3が第二のバッファ33に保存されるタイミングが、合成画像Sy3の画像合成タイミングよりも僅かに遅れたものとする。その場合、合成画像Sy3の画像合成タイミングでは、第二のバッファ33にCG画像C3が保存されていないため、画像合成部34は、実写画像F3と過去のCG画像C2を補正して生成された補間画像C2´とを合成し、合成画像Sy3を生成する。
After that, when a certain period of time has elapsed after capturing the live-action image F2, the
At this time, it is assumed that the timing at which the CG image C3 is stored in the
合成画像Sy3を生成するタイミングよりも僅かに遅れて受信されたCG画像C3は、第二のバッファ33に保存される。第二のバッファ33に保存されたCG画像C3は、補間画像生成部36により実写画像F4のGMVをもとに補正され、補間画像C3´が生成される。そして、CG画像C3と同様のデータ伝送の遅延により、合成画像Sy4を生成するタイミングにおいて、第二のバッファ33にCG画像C4が保存されていない場合、画像合成部34は、実写画像F4と補間画像C3´とを合成して合成画像Sy4を生成する。
The CG image C3 received slightly later than the timing for generating the composite image Sy3 is stored in the
その後、データ伝送の遅延が解消し、合成画像Sy5を生成するタイミングにおいて、第二のバッファ33に正常にCG画像C5が保存されている場合、画像合成部34は、実写画像F5とCG画像C5とを合成して合成画像Sy5を生成する。
以上のように、データ伝送の遅延により、画像処理装置30がCG画像生成装置50から正常なタイミングでCG画像を取得できない場合には、過去に取得済みの最新のCG画像をGMVに基づいて補正した補間画像を代用する。したがって、本来表示すべきCG画像と内容に差がない補間画像を合成表示することができ、違和感のないMR空間を提示することができる。
After that, when the delay in data transmission is eliminated and the CG image C5 is normally stored in the
As described above, when the
図5は、データ伝送の遅延により、CG画像C3が第二のバッファ33に保存されるタイミングが、合成画像Sy4を生成するタイミングよりも後になる場合の処理タイミングを示している。
合成画像Sy3は、図4の例と同様に、実写画像F3と補間画像C2´とを合成して生成される。
次に、実写画像F4がキャプチャされ、実写画像F4のGMVが検出されると、補間画像生成部36は、合成画像Sy4を生成するタイミングよりも前に、補間画像を生成する。このとき、第二のバッファ33にCG画像C3は保存されていないため、補間画像生成部36が生成する補間画像は、CG画像C2を、実写画像F2からF4までの間のGMVを加味して補正された補間画像C2”となる。そして、合成画像Sy4の画像合成タイミングでは、画像合成部34は、実写画像F4と補間画像C2”とを合成して合成画像Sy4を生成する。
FIG. 5 shows a processing timing when the timing at which the CG image C3 is stored in the
The composite image Sy3 is generated by synthesizing the live-action image F3 and the interpolated image C2', as in the example of FIG.
Next, when the live-action image F4 is captured and the GMV of the live-action image F4 is detected, the interpolated
その後、合成画像Sy4の画像合成タイミングよりも僅かに遅れてCG画像C3およびC4が第二のバッファ33に保存されたものとする。この場合、実写画像F5がキャプチャされ、画像処理装置30がGMV検出部51から実写画像F5のGMVを受信した際には、補間画像生成部36は、CG画像C4を実写画像F5のGMVに基づいて補正し、補間画像C4´を生成する。つまり、CG画像C3を補正した補間画像C3´は生成されない。
その後、データ伝送の遅延が解消し、合成画像Sy5を生成するタイミングよりも前に、第二のバッファ33に正常にCG画像C5が保存された場合、画像合成部34は、実写画像F5とCG画像C5とを合成して合成画像Sy5を生成する。以降の処理は、図4と同様である。
After that, it is assumed that the CG images C3 and C4 are stored in the
After that, when the delay in data transmission is eliminated and the CG image C5 is normally stored in the
図6は、データ伝送の遅延により、CG画像C3が第二のバッファ33に保存されるタイミングが、合成画像Sy3を生成するタイミングよりも僅かに遅れ、さらに、データ伝送のエラーにより、CG画像C4が消失した場合の処理タイミングを示している。
合成画像Sy3は、図4の例と同様に、実写画像F3と補間画像C2´とを合成して生成される。また、合成画像Sy4は、図4の例と同様に、実写画像F4と補間画像C3´とを合成して生成される。
次に、実写画像F5がキャプチャされ、実写画像F5のGMVが検出されると、補間画像生成部36は、合成画像Sy5を生成するタイミングよりも前に、補間画像を生成する。このとき、CG画像C4は第二のバッファ33に保存されていないため、補間画像生成部36が生成する補間画像は、CG画像C3を実写画像F3からF5までの間のGMVを加味して補正された補間画像C3”となる。
In FIG. 6, the timing at which the CG image C3 is stored in the
The composite image Sy3 is generated by synthesizing the live-action image F3 and the interpolated image C2', as in the example of FIG. Further, the composite image Sy4 is generated by synthesizing the live-action image F4 and the interpolated image C3', as in the example of FIG.
Next, when the live-action image F5 is captured and the GMV of the live-action image F5 is detected, the interpolated
そして、合成画像Sy5の画像合成タイミングにおいて、CG画像C5が第二のバッファ33に保存されていない場合には、画像合成部34は、実写画像F5と補間画像C3”とを合成して合成画像Sy5を生成することになる。図6の例では、合成画像Sy5の画像合成タイミングにおいて、CG画像C5が第二のバッファ33に保存されているため、画像合成部34は、実写画像F5とCG画像C5とを合成して合成画像Sy5を生成する。つまり、補間画像C3”は、このタイミングでは使用されない。以降の処理は、図4と同様である。
Then, when the CG image C5 is not stored in the
以上説明したように、本実施形態における画像処理装置30は、HMD20の視点の位置姿勢に基づき時系列上連続して生成された、HMD20に表示されるべきCG画像をCG画像生成装置50から入力する。入力されたCG画像は、時間情報と共に第二のバッファ33に一時的に保存(格納)される。また、画像処理装置30は、注目フレームよりも時間的に前のフレームのCG画像を補正対象として、HMD20の視点の位置姿勢の動き量(GMV)に基づいて幾何変換し、注目フレームの補間画像を生成する。
As described above, the
さらに、画像処理装置30は、注目フレームのCG画像に、生成処理の遅延やデータ伝送の遅延、データ伝送のエラーといった異常が発生しているか否かを判定する。そして、画像処理装置30は、上記異常の判定結果に基づいて、表示部40に表示させるCG画像を選択する。具体的には、画像処理装置30は、異常が発生していないと判定された場合、注目フレームのCG画像を表示部40に表示させ、異常が発生していると判定された場合、注目フレームの補間画像を表示部40に表示させる。本実施形態では、画像処理装置30は、現実空間を撮像した実写画像といったHMD20の視点の位置姿勢に対応した画像に、上記異常の判定結果に基づいて選択されたCG画像または補間画像を合成して表示部40に表示させる。
Further, the
つまり、何らかの異常により、画像合成タイミングにおいて注目フレームのCG画像が第二のバッファ33に保存されていない場合、補間画像を代用して実写画像との合成画像を生成する。ここで、補間画像は、過去に正常に取得したCG画像を、HMD20の視点の位置姿勢の動き量に基づいて幾何変換して補正したCG画像である。また、幾何変換は、平面内の写像、奥行き方向の写像、および空間内の回転の少なくとも1つを含むことができる。
以上のように、画像処理装置30は、CG画像に異常が発生した場合、背景画像は実写画像を用い、CG画像のみ補間画像を用いてMR画像を表示させることができる。つまり、画面内の補間領域をCG画像の表示領域に止めることができる。このように、画面内の補間領域が増えることを抑制することができるので、使用者に与える違和感を抑制することができる。また、上記補間画像は、過去のCG画像をGMVに基づいて補正した、HMD20の視点の位置姿勢に合ったCG画像であり、本来表示すべきCG画像との間に内容の差がないCG画像とすることができる。そのため、補間画像を表示した際の使用者の違和感も抑制することができる。
したがって、通信品質の低い環境や、CG画像の生成に時間がかかったり処理時間がばらついたりするシステムであっても、使用者に違和感のないCG画像およびMR画像を提供することが可能となる。さらに、合成画像を左目用画像、右目用画像として別系統で生成し、それぞれ左目用表示ユニット、右目用表示ユニットに表示して使用者にステレオ動画像を提供するMRシステムにおいては、ステレオ感が損なわれることを防止することもできる。
That is, when the CG image of the frame of interest is not stored in the
As described above, when an abnormality occurs in the CG image, the
Therefore, even in an environment with low communication quality or in a system in which it takes time to generate a CG image or the processing time varies, it is possible to provide a CG image and an MR image that do not give a sense of discomfort to the user. Furthermore, in an MR system that generates a composite image as a left-eye image and a right-eye image in separate systems and displays them on the left-eye display unit and the right-eye display unit, respectively, to provide a stereo moving image to the user, a stereo feeling is obtained. It can also be prevented from being damaged.
また、画像処理装置30は、補間画像の生成に際し、第二のバッファ33に格納されたCG画像のうち、注目フレームよりも時間的に前で且つ最新のCG画像を補正対象とすることができる。このように、過去の最新のCG画像を補正対象として補間画像を生成すれば、精度良く補間画像を生成することができ、より違和感のないMR空間を提示することができる。
さらに、画像処理装置30は、補間画像の生成に際し、注目フレームの合成画像を表示部40に表示させるタイミングよりも前、具体的には、注目フレームの合成画像を生成するタイミング(画像合成タイミング)に間に合うように補間画像の生成を完了させる。これにより、適切にMR画像を提示することができる。
Further, when generating the interpolated image, the
Further, when the
また、画像処理装置30は、注目フレームの画像合成タイミングにおいて、第二のバッファ33に注目フレームのCG画像が格納されていない場合、CG画像に異常が発生していると判定する。このように、CG画像が第二のバッファ33に保存されているか否かを判定することで、CG画像の取得が同期信号に対して遅延しているか否かを判定することができる。したがって、CG画像生成装置50においてCG画像の生成処理に遅延が生じた場合や、CG画像生成装置50からのCG画像の伝送に遅延が生じた場合、さらにCG画像の伝送にエラーが生じた場合には、容易かつ適切に上記異常を判定することができる。
Further, the
さらにまた、本実施形態におけるMRシステム10においては、CG画像生成装置50が、HMD20の視点の位置姿勢の動き量(GMV)を検出するGMV検出部51と、HMD20の視点の位置姿勢に基づいてCG画像を生成するCG生成部53と、を備える。そして、CG画像生成装置50が、GMV検出部51により検出されたGMVに関する情報と、CG生成部53により生成されたCG画像とを画像処理装置30に対して送信する。
このとき、CG画像生成装置50は、GMVに関する情報とCG画像とのうち、GMVに関する情報を先行して画像処理装置30に送信する。したがって、画像処理装置30は、注目フレームの画像合成タイミングに間に合うように、注目フレームのGMVを受信して、適切に注目フレームの補間画像を生成することができる。
Furthermore, in the
At this time, the CG
なお、上記実施形態において、GMVについては、CG画像生成装置50から画像処理装置30への伝送エラー等がなく、正常に送信されているものとして説明した。しかしながら、GMVを、確実にCG画像生成装置50からHMD20の画像処理装置30に伝送するために、データ保証のある(信頼度の高い)プロトコルで通信を行ってもよい。信頼度の高い通信としては、例えばTCP(Transmission Control Protocol)がある。また、CG画像の伝送は高速性を要するため、データ保証よりも通信速度を優先させたプロトコルを用いて通信を行ってもよい。通信速度を優先させたプロトコルには、例えばUDP(User Datagram Protocol)がある。
In the above embodiment, the GMV has been described as being normally transmitted without a transmission error or the like from the CG
(第二の実施形態)
次に、本発明の第二の実施形態について説明する。
上述した第一の実施形態では、CG画像生成装置50においてGMVを検出する場合について説明した。この第二の実施形態では、HMD20においてGMVを検出する場合について説明する。
図7は、本実施形態におけるMRシステム10の構成を示すブロック図である。この図7において、図1と同様の構成を有する部分には図1と同一符号を付し、以下、構成の異なる部分を中心に説明する。
(Second embodiment)
Next, a second embodiment of the present invention will be described.
In the first embodiment described above, the case where the
FIG. 7 is a block diagram showing the configuration of the
MRシステム10は、HMD20と、CG画像生成装置50Aとを備える。HMD20は、画像処理装置30Aと、表示部40と、を備える。画像処理装置30Aは、図1の画像処理装置30に対し、GMV検出部37が追加された構成を有する。また、第一のバッファ32aおよび第二のバッファ33aは、図1の第一のバッファ32および第二のバッファ33とは保存する情報が異なる。CG画像生成装置50Aは、図1のCG画像生成装置50におけるGMV検出部51を除いた構成を有する。
The
画像取得部31により取得された実写画像は、GMV検出部37に送信される。GMV検出部37は、画像取得部31から入力された実写画像に基づいてGMVを検出する。GMVの検出方法については、図1のGMV検出部51と同様である。そして、GMV検出部37は、実写画像とGMVとをフレーム番号と共に第一のバッファ32aに送信する。また、GMV検出部37は、検出したGMVを描画位置算出部52に送信する。第一のバッファ32aは、実写画像とGMVとをフレーム番号と対応付けて保存し、第二のバッファ33aは、CG生成部53により生成されたCG画像を、フレーム番号および描画位置と共に保存する。
The live-action image acquired by the
以上のように、本実施形態における画像処理装置30Aは、HMD20の視点の位置姿勢に対応した実写画像を時系列上連続して入力し、入力された実写画像に基づいて、HMD20の視点の位置姿勢の動き量(GMV)を検出する。GMVのデータ量は、実写画像のデータ量と比べてはるかに小さい。したがって、GMV検出が十分高速に行える場合は、本実施形態のようにHMD20にGMV検出部37を配置する方が、HMD20からCG画像生成装置50Aに伝送するデータのサイズが小さくなる。これにより、実写画像の伝送エラーに起因する画像処理装置30AでのCG画像の取得エラーの発生確率を下げることができ、CG画像を補間画像で代用する頻度を下げることができる。
As described above, the
なお、上記実施形態において、GMV検出部37は、画像からGMVを検出する場合について説明したが、ジャイロセンサや加速度センサを用いてHMD20の位置姿勢の動き量を検出してもよい。この場合のMRシステム10は、図8に示すような構成となる。
画像処理装置30Bは、図7の画像処理装置30AにおけるGMV検出部37の代わりに、画像取得部31からの入力を持たないGMV検出部37aを備える構成を有する。GMV検出部37aは、GMVを検出するタイミングに同期して、ジャイロセンサや加速度センサによりGMVを検出し、GMVをフレーム番号と共にCG画像生成装置50Aと第一のバッファ32aとに送信する。また、画像取得部31は、取得した実写画像をフレーム番号と共に第一のバッファ32aに送信する。その他の構成および動作については、図7と同様であるため、説明は割愛する。
In the above embodiment, the
The
(第三の実施形態)
次に、本発明の第三の実施形態について説明する。
上述した第一および第二の実施形態では、HMD20がビデオシースルー型HMDであり、実写画像とCG画像とを合成した合成画像を表示する場合について説明した。第三の実施形態では、HMD20が光学シースルー型HMDであり、透明な画像投影面に、CG画像のみを投影する場合について説明する。
図9は、本実施形態におけるMRシステム10の構成を示すブロック図である。この図9において、図8と同様の構成を有する部分には図8と同一符号を付し、以下、構成の異なる部分を中心に説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.
In the first and second embodiments described above, the case where the
FIG. 9 is a block diagram showing the configuration of the
MRシステム10は、HMD20と、CG画像生成装置50Aとを備える。HMD20は、画像処理装置30Cと、表示部40と、を備える。本実施形態においては、HMD20は、実写画像をキャプチャする必要がなく、画像処理装置30Cは、図8の画像処理装置30Bが備える画像取得部31を備えていない。また、画像処理装置30Cは、図8の画像合成部34の代わりに、表示画像選択部38を備える。さらに、第一のバッファ32bは、図8の第一のバッファ32aとは保存する情報が異なる。第一のバッファ32bは、実写画像を保存する必要がなく、GMV検出部37aにより検出されたGMVを時間情報と共に保存する。
The
表示画像選択部38は、表示部40に表示するCG画像を選択する。表示画像選択部38は、注目フレームのCG画像の表示を行うタイミングに同期して、注目フレームのCG画像に異常が発生しているか否かを判定する。具体的には、表示画像選択部38は、注目フレームのCG画像を表示するタイミングにおいて、注目フレームに相当するCG画像が第二のバッファ33aに保存されているか否かを判定することで、注目フレームのCG画像に異常が発生しているか否かを判定する。
そして、注目フレームのCG画像が保存されている場合は、第二のバッファ33aに保存された注目フレームのCG画像を表示画像として選択する。一方、注目フレームのCG画像が保存されていない場合は、補間画像生成部36により生成された、注目フレームのCG画像を補間する補間画像を表示画像として選択する。
The display
Then, when the CG image of the attention frame is stored, the CG image of the attention frame stored in the
なお、本実施形態においては、CG画像に透過情報を含めておき、画像投影面に投影されるCGに、透過情報が画像として反映されるようにすることもできる。また、実写画像に透過情報を含め、外界において実写画像にCG画像を重畳し、使用者に提示するようにしてもよい。
以上により、頭部装着型表示装置の画像投影面が透明で、CG画像のみを投影する構成のMRシステムにおいて、本来表示すべきCG画像に異常が発生した場合であっても、違和感のないMR空間を提示することができる。
In the present embodiment, the transmission information may be included in the CG image so that the transmission information is reflected as an image in the CG projected on the image projection surface. Further, the live-action image may include transparent information, and the CG image may be superimposed on the live-action image and presented to the user in the outside world.
As described above, in an MR system in which the image projection surface of the head-mounted display device is transparent and only the CG image is projected, even if an abnormality occurs in the CG image that should be originally displayed, the MR does not feel uncomfortable. Space can be presented.
(第四の実施形態)
次に、本発明の第四の実施形態について説明する。
上述した第一の実施形態では、CG画像生成装置50において検出されたGMVをHMD20の画像処理装置30に送信し、画像処理装置30における補間画像の生成に用いる場合について説明した。第四の実施形態では、CG画像生成装置50におけるGMV検出とは別に、HMD20において簡易的なGMVを検出する場合について説明する。
図10は、本実施形態におけるMRシステム10の構成を示すブロック図である。この図10において、図1と同様の構成を有する部分には図1と同一符号を付し、以下、構成の異なる部分を中心に説明する。
(Fourth Embodiment)
Next, a fourth embodiment of the present invention will be described.
In the first embodiment described above, a case where the GMV detected by the CG
FIG. 10 is a block diagram showing the configuration of the
MRシステム10は、HMD20と、CG画像生成装置50とを備える。HMD20は、画像処理装置30Dと、表示部40と、を備える。画像処理装置30Dは、図1の画像処理装置30に対し、簡易GMV検出部39が追加された構成を有する。また、第一のバッファ32bは、図1の第一のバッファ32とは保存する情報が異なる。さらに、補間画像生成部36aは、図1の補間画像生成部36とは補間画像の生成方法が異なる。
簡易GMV検出部39は、画像取得部31によって取得された実写画像をもとに、簡易的にHMD20の位置姿勢の動き量を検出する。本実施形態では、簡易GMV検出部39は、HMD20の視点の上下左右のような2次元方向の動きを簡易検出する。この簡易GMV検出部39は、HMD20に十分搭載可能な程度に処理が軽い検出手段である。一方、GMV検出部51は、HMD20の視点の上下左右だけでなく、面内回転、前後の動きを検出する比較的高度な処理を要する検出手段である。
The
The simple
簡易GMV検出部39は、検出した簡易的なGMVをフレーム番号と共に第一のバッファ32cに送信する。第一のバッファ32cは、実写画像と簡易的なGMVとをフレーム番号と対応付けて保存する。
補間画像生成部36aは、補間画像の生成タイミングにおいて、第二のバッファ33に注目フレームのGMVが保存されているか否かを判定する。そして、注目フレームのGMVが保存されている場合は、第二のバッファ33に保存された、注目フレームよりも時間的に前で且つ最新のCG画像を、注目フレームのGMVを用いて補正し、補間画像を生成する。一方、注目フレームのGMVが保存されていない場合、第二のバッファ33に保存された、注目フレームよりも時間的に前で且つ最新のCG画像を、第一のバッファ32cに保存された注目フレームの簡易的なGMVを用いて補正し、補間画像を生成する。
The simple
The interpolated
図11は、画像処理装置30DおよびCG画像生成装置50において実行される処理の手順を示すフローチャートである。この図11において、図3と同一処理を行うステップには図3と同一ステップ番号を付し、以下、処理の異なる部分を中心に説明する。
本実施形態において、CG画像生成装置50の処理は、図3と同様である。
画像処理装置30Dの処理は、図3のS12の後にS21〜S25の処理が追加され、S13の処理が削除されていることを除いては、図3と同様である。
FIG. 11 is a flowchart showing a procedure of processing executed by the
In the present embodiment, the processing of the
The processing of the
S21では、簡易GMV検出部39は、簡易的なGMVを生成する。簡易GMV検出部39は、S2におけるGMV検出部51によるGMVの生成に比べて演算量の少ない手法でGMVを検出する簡易検出を行う。なお、簡易GMV検出部39による簡易検出の手法は、GMV検出部51によるGMVの検出手法に比べて精度が劣る手法であってもよい。
次に、補正画像生成部36aは、S22において、補間画像を生成するタイミングとなったか否かを判定する。ここで、補間画像生成部36aは、実写画像をキャプチャする周期でタイマを動作させ、タイマ終了を検出することで補間画像生成タイミングを検出することができる。補間画像生成部36aは、補間画像生成タイミングではないと判定した場合には、補間画像生成タイミングとなるまで待機し、補間画像生成タイミングとなったことを検出するとS23に移行する。
In S21, the simple
Next, the corrected
S23では、補間画像生成部36aは、注目フレームに該当するGMVをCG画像生成装置50から受信したか否かを判定する。注目フレームのGMV(D2)は、データ伝送等の異常が発生していない場合、補間画像生成タイミングの前に受信され(図3の左向きの点線矢印)、第二のバッファ33に保存される。しかしながら、何らかの異常が発生している場合、注目フレームのGMVは補間画像生成タイミングの時点で第二のバッファ33に保存されていない場合がある(図3の下向きの点線矢印)。
そこで、補間画像生成部36aは、S23において、第二のバッファ33に注目フレームのGMVが保存されているか否かを判定することで、注目フレームのGMVを受信したか否かを判定する。そして、補間画像生成部36aは、GMVを受信していると判定した場合にはS24に移行し、GMVを受信していない場合にはS25に移行する。
In S23, the interpolated
Therefore, the interpolated
S24では、補間画像生成部36aは、第二のバッファ33に保存されているCG画像のうち、注目フレームよりも時間的に前で且つ最新のCG画像を、第二のバッファ33に保存された注目フレームのGMVを加味して補正した補間画像を生成する。これに対して、S25では、補間画像生成部36aは、第二のバッファ33に保存されているCG画像のうち、注目フレームよりも時間的に前で且つ最新のCG画像を、第一のバッファ32cに保存された簡易的なGMVを加味して補正した補間画像を生成する。
In S24, the interpolated
以上のように、本実施形態における画像処理装置30Dは、GMV検出部51よりも簡易的にGMVを検出し、検出した簡易GMVを、補間画像生成部36aに対して通信インターフェースを介さずに出力する簡易GMV検出部39を備える。これにより、伝送エラーによってCG画像生成装置50において検出されたGMVをHMD20が受信できない場合であっても、簡易GMVを代用して補間画像を生成することができる。つまり、伝送エラーが発生しても、使用者の動きに追従した補間画像を作り続けることができる。したがって、通信環境の劣る環境においても、使用者に違和感のないCG画像およびMR画像を提示することが可能となる。
As described above, the
(変形例)
なお、上記各実施形態では、画像の時間情報としてフレーム番号を用いる場合について説明したが、フレーム番号の代わりにタイムスタンプ情報を用いてもよい。
また、上記各実施形態において、CG画像の生成処理にn(nは自然数)フレーム以上のレイテンシが存在する場合、画像処理装置30における補間画像の生成処理や合成画像の生成処理では、nフレーム前のフレーム番号の画像を処理してもよい。
さらに、上記各実施形態において、CG画像を重畳する画像を実写画像として説明したが、実写画像ではなく、ビデオ映像とCG画像とを重畳してもよい。上記第三の実施形態のように頭部装着型表示装置(HMD)の画像投影面が透明で、CG画像のみを投影する構成のMRシステムでは、ビデオ映像に透過情報を含め、外界においてビデオ画像にCG画像を重畳し、使用者に提示するようにしてもよい。
(Modification example)
In each of the above embodiments, the case where the frame number is used as the time information of the image has been described, but the time stamp information may be used instead of the frame number.
Further, in each of the above embodiments, when there is a latency of n (n is a natural number) frame or more in the CG image generation process, the interpolated image generation process and the composite image generation process in the
Further, in each of the above embodiments, the image on which the CG image is superimposed has been described as the live-action image, but the video image and the CG image may be superimposed instead of the live-action image. In the MR system in which the image projection surface of the head-mounted display (HMD) is transparent and only the CG image is projected as in the third embodiment, the video image includes the transmission information and the video image is included in the outside world. A CG image may be superimposed on the image and presented to the user.
また、上記各実施形態においては、CG画像を表示する表示装置であるHMDと、CG画像を生成するCG画像生成装置とが別々の筐体で構成され、装置間がネットワークを介して通信可能に接続されている場合について説明した。しかしながら、CG画像を表示させる画像処理装置とCG画像生成装置とが1つの筐体により構成されたMRシステムにも適用可能である。この場合、CG画像生成装置から画像処理装置へのデータ伝送の遅延やエラーといった異常は発生しない。しかしながら、CG画像の生成処理の遅延が発生した場合には、上記各実施形態と同様に、補間画像の違和感を低減してMR空間を提示することができるという効果が得られる。 Further, in each of the above embodiments, the HMD, which is a display device for displaying a CG image, and the CG image generation device for generating a CG image are configured in separate housings, and the devices can communicate with each other via a network. The case where it is connected was explained. However, it can also be applied to an MR system in which an image processing device for displaying a CG image and a CG image generation device are configured by one housing. In this case, an abnormality such as a delay or an error in data transmission from the CG image generation device to the image processing device does not occur. However, when the CG image generation process is delayed, the effect of reducing the discomfort of the interpolated image and presenting the MR space can be obtained as in each of the above embodiments.
さらに、上記各実施形態においては、画像処理装置30は、CG画像生成装置により生成されたCG画像を時系列上連続して取得する場合について説明した。しかしながら、画像処理装置30は、CG画像生成装置により生成された複数フレームのCG画像が記憶された記憶媒体から、連続的にCG画像を読み出す構成であってもよい。この場合、記憶媒体からCG画像を読み出す際のエラーや、CG画像を復号する際のエラー、CG画像自体のノイズ付加などのエラーを判定することで、注目フレームのCG画像に異常が発生しているか否かを判定してもよい。
さらに、表示装置は頭部装着型表示装置(HMD)に限定されるものではなく、ハンドヘルドディスプレイ(HHD)を用いてもよい。HHDは、手持ちのディスプレイである。つまり、使用者が手にとり、双眼鏡のように覗き込むことで画像を観察するディスプレイであってもよい。さらに、表示装置は、タブレットやスマートフォン等の表示端末であってもよい。
Further, in each of the above embodiments, the case where the
Further, the display device is not limited to the head-mounted display device (HMD), and a handheld display (HHD) may be used. The HHD is a handheld display. That is, it may be a display in which the user observes the image by picking it up and looking into it like binoculars. Further, the display device may be a display terminal such as a tablet or a smartphone.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or recording medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
10…複合現実感システム、20…頭部装着型表示装置、30…画像処理装置、31…画像取得部、32…第一のバッファ、33…第二のバッファ、34…画像合成部、35…表示制御部、36…補間画像生成部、40…表示部、50…CG画像生成装置 10 ... Mixed reality system, 20 ... Head-mounted display device, 30 ... Image processing device, 31 ... Image acquisition unit, 32 ... First buffer, 33 ... Second buffer, 34 ... Image compositing unit, 35 ... Display control unit, 36 ... Interpolated image generation unit, 40 ... Display unit, 50 ... CG image generation device
Claims (15)
前記入力手段により入力された前記実写画像に基づいて、前記表示部の視点の位置姿勢の動き量を検出する第一の検出手段と、
前記表示部の視点の位置姿勢に基づき時系列上連続して生成された、前記表示部に表示されるべき第一のCG画像を取得する取得手段と、
前記取得手段により取得された、注目フレームよりも時間的に前のフレームの前記第一のCG画像を補正対象として、前記表示部の視点の位置姿勢の動き量に基づいて幾何変換し、注目フレームの第二のCG画像を生成する生成手段と、
注目フレームの前記第一のCG画像に異常が発生しているか否かを判定する判定手段と、
前記判定手段により前記異常が発生していないと判定された場合、注目フレームの前記第一のCG画像を当該注目フレームに対応する前記実写画像と合成した合成画像を前記表示部に表示させ、前記判定手段により前記異常が発生していると判定された場合、注目フレームの前記第二のCG画像を当該注目フレームに対応する前記実写画像と合成した合成画像を前記表示部に表示させる表示制御手段と、
を備えることを特徴とする画像処理装置。 An input means for continuously inputting live-action images corresponding to the position and orientation of the viewpoint of the display unit in chronological order,
Based on the live-action image input by the input means, a first detecting means for detecting the amount of movement of the position and orientation of the viewpoint of the display unit, and
Obtaining means for said generated continuously when the series based on the position and orientation of the viewpoint of the display unit, to obtain a first CG image to be displayed on the display unit,
The first CG image of the frame time before the frame of interest acquired by the acquisition means is geometrically transformed based on the amount of movement of the position and orientation of the viewpoint of the display unit, and the frame of interest is obtained. A generation means for generating a second CG image of
A determination means for determining whether or not an abnormality has occurred in the first CG image of the frame of interest, and
When it is determined by the determination means that the abnormality has not occurred, a composite image obtained by synthesizing the first CG image of the frame of interest with the live-action image corresponding to the frame of interest is displayed on the display unit. When the determination means determines that the abnormality has occurred, a display control means for displaying a composite image obtained by synthesizing the second CG image of the frame of interest with the live-action image corresponding to the frame of interest on the display unit. When,
An image processing device comprising.
前記生成手段は、
前記格納手段に格納された前記第一のCG画像のうち、注目フレームよりも時間的に前で且つ最新の前記第一のCG画像を、前記補正対象とすることを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 A storage means for storing the first CG image acquired by the acquisition means together with time information is further provided.
The generation means
Of the stored said first CG image in the storage unit, the newest of the first CG image and in the previous temporally than the frame of interest, from claim 1, characterized in that the said corrected The image processing apparatus according to any one of 3.
前記取得手段による前記第一のCG画像の取得が同期信号に対して遅延している場合、前記異常が発生していると判定することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 The determination means
According to any one of claims 1 to 4, when the acquisition of the first CG image by the acquisition means is delayed with respect to the synchronization signal, it is determined that the abnormality has occurred. The image processing apparatus described.
前記表示制御手段により注目フレームの合成画像を前記表示部に表示させるタイミングにおいて、前記格納手段に注目フレームの前記第一のCG画像が格納されていない場合、前記異常が発生していると判定することを特徴とする請求項4に記載の画像処理装置。 The determination means
When the display control means displays the composite image of the frame of interest on the display unit, if the first CG image of the frame of interest is not stored in the storage means, it is determined that the abnormality has occurred. The image processing apparatus according to claim 4.
第一のCG画像を生成し、前記画像処理装置に送信可能な画像生成装置と、を備え、
前記画像処理装置は、
表示部の視点の位置姿勢に対応した実写画像を時系列上連続して入力する入力手段と、
前記入力手段により入力された前記実写画像に基づいて、前記表示部の視点の位置姿勢の動き量を検出する第一の検出手段と、
前記表示部の視点の位置姿勢に基づき時系列上連続して生成された、前記表示部に表示されるべき第一のCG画像を取得する取得手段と、
前記取得手段により取得された、注目フレームよりも時間的に前のフレームの前記第一のCG画像を補正対象として、前記表示部の視点の位置姿勢の動き量に基づいて幾何変換し、注目フレームの第二のCG画像を生成する生成手段と、
注目フレームの前記第一のCG画像に異常が発生しているか否かを判定する判定手段と、
前記判定手段により前記異常が発生していないと判定された場合、注目フレームの前記第一のCG画像を前記表示部に表示させ、前記判定手段により前記異常が発生していると判定された場合、注目フレームの前記第二のCG画像を前記表示部に表示させる表示制御手段と、
を備え、
前記画像生成装置は、
前記表示部の視点の位置姿勢の動き量を検出する第二の検出手段と、
前記表示部の視点の位置姿勢に基づいて、前記第一のCG画像を生成する画像生成手段と、
前記第二の検出手段により検出された前記位置姿勢の動き量に関する情報と、前記画像生成手段により生成された前記第一のCG画像とを前記画像処理装置に送信する送信手段と、
を備えることを特徴とする画像処理システム。 Image processing equipment and
An image generator capable of generating a first CG image and transmitting the first CG image to the image processing apparatus is provided .
The image processing device is
An input means for continuously inputting live-action images corresponding to the position and orientation of the viewpoint of the display unit in chronological order,
Based on the live-action image input by the input means, a first detecting means for detecting the amount of movement of the position and orientation of the viewpoint of the display unit, and
An acquisition means for acquiring a first CG image to be displayed on the display unit, which is continuously generated in time series based on the position and orientation of the viewpoint of the display unit.
The first CG image of the frame time before the frame of interest acquired by the acquisition means is geometrically transformed based on the amount of movement of the position and orientation of the viewpoint of the display unit, and the frame of interest is obtained. A generation means for generating a second CG image of
A determination means for determining whether or not an abnormality has occurred in the first CG image of the frame of interest, and
When the determination means determines that the abnormality has not occurred, the first CG image of the frame of interest is displayed on the display unit, and the determination means determines that the abnormality has occurred. , A display control means for displaying the second CG image of the frame of interest on the display unit, and
With
The image generator
A second detecting means for detecting the amount of movement of the position and posture of the viewpoint of the display unit, and
An image generation means for generating the first CG image based on the position and orientation of the viewpoint of the display unit, and
A transmission means for transmitting information on the amount of movement of the position and orientation detected by the second detection means and the first CG image generated by the image generation means to the image processing apparatus.
An image processing system characterized by being equipped with.
前記第二の検出手段により検出された前記位置姿勢の動き量に関する情報と、前記画像生成手段により生成された前記第一のCG画像とのうち、前記位置姿勢の動き量に関する情報を先行して前記画像処理装置に送信することを特徴とする請求項10に記載の画像処理システム。 The transmission means
Of the information on the amount of movement of the position and orientation detected by the second detection means and the first CG image generated by the image generation means, the information on the amount of movement of the position and orientation is preceded. The image processing system according to claim 10 , wherein the image is transmitted to the image processing apparatus.
前記第二の検出手段により検出された前記位置姿勢の動き量に関する情報を、前記画像生成手段により生成された前記第一のCG画像よりも信頼度の高い通信手段により前記画像処理装置に送信することを特徴とする請求項10または11に記載の画像処理システム。 The transmission means
Information on the amount of movement of the position and orientation detected by the second detection means is transmitted to the image processing apparatus by a communication means having a higher reliability than the first CG image generated by the image generation means. The image processing system according to claim 10 or 11.
前記第二の検出手段よりも簡易的に前記位置姿勢の動き量を検出し、検出した前記位置姿勢の動き量に関する情報を、前記生成手段に対して通信インターフェースを介さずに出力する簡易検出手段をさらに備え、
前記生成手段は、
注目フレームの前記第二のCG画像を生成するタイミングにおいて、前記送信手段から前記第二の検出手段により検出された注目フレームに対応する前記位置姿勢の動き量に関する情報を受信していない場合、前記簡易検出手段により簡易的に検出された前記位置姿勢の動き量に関する情報を用いて前記第二のCG画像を生成することを特徴とする請求項10から12のいずれか1項に記載の画像処理システム。 The image processing device is
A simple detection means that detects the amount of movement of the position and orientation more simply than the second detection means, and outputs the detected information on the amount of movement of the position and orientation to the generation means without going through a communication interface. With more
The generation means
When the information regarding the amount of movement of the position and orientation corresponding to the frame of interest detected by the second detection means is not received from the transmitting means at the timing of generating the second CG image of the frame of interest, the above. The image processing according to any one of claims 10 to 12 , wherein the second CG image is generated by using the information about the amount of movement of the position and the posture simply detected by the simple detection means. system.
入力された前記実写画像に基づいて、前記表示部の視点の位置姿勢の動き量を検出するステップと、
前記表示部の視点の位置姿勢に基づき時系列上連続して生成された、前記表示部に表示されるべき第一のCG画像を取得するステップと、
注目フレームよりも時間的に前のフレームの前記第一のCG画像を補正対象として、前記表示部の視点の位置姿勢の動き量に基づいて幾何変換し、注目フレームの第二のCG画像を生成するステップと、
注目フレームの前記第一のCG画像に異常が発生しているか否かを判定するステップと、
前記異常が発生していないと判定された場合、注目フレームの前記第一のCG画像を当該注目フレームに対応する前記実写画像と合成した合成画像を前記表示部に表示させ、前記異常が発生していると判定された場合、注目フレームの前記第二のCG画像を当該注目フレームに対応する前記実写画像と合成した合成画像を前記表示部に表示させるステップと、を含むことを特徴とする画像処理方法。 A step of continuously inputting live-action images corresponding to the position and orientation of the viewpoint of the display unit in chronological order,
A step of detecting the amount of movement of the position and orientation of the viewpoint of the display unit based on the input live-action image, and
Acquiring the display unit is generated continuously when the series based on the position and orientation of the viewpoint, the first CG image to be displayed on the display unit,
The first CG image of the frame before the frame of interest is geometrically transformed based on the amount of movement of the position and orientation of the viewpoint of the display unit to generate the second CG image of the frame of interest. Steps to do and
A step of determining whether or not an abnormality has occurred in the first CG image of the frame of interest, and
When it is determined that the abnormality has not occurred, a composite image obtained by synthesizing the first CG image of the frame of interest with the live image corresponding to the frame of interest is displayed on the display unit, and the abnormality occurs. An image characterized by including a step of displaying a composite image obtained by synthesizing the second CG image of the attention frame with the live image corresponding to the attention frame on the display unit. Processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016229985A JP6949475B2 (en) | 2016-11-28 | 2016-11-28 | Image processing equipment, image processing methods and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016229985A JP6949475B2 (en) | 2016-11-28 | 2016-11-28 | Image processing equipment, image processing methods and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018087849A JP2018087849A (en) | 2018-06-07 |
JP6949475B2 true JP6949475B2 (en) | 2021-10-13 |
Family
ID=62494379
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016229985A Active JP6949475B2 (en) | 2016-11-28 | 2016-11-28 | Image processing equipment, image processing methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6949475B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101874111B1 (en) | 2017-03-03 | 2018-07-03 | 클릭트 주식회사 | Method and program for playing virtual reality image |
JP7175715B2 (en) * | 2018-10-31 | 2022-11-21 | キヤノン株式会社 | Information processing device, information processing method and program |
DE112021003465T5 (en) * | 2020-06-30 | 2023-05-17 | Sony Group Corporation | INFORMATION PROCESSOR, INFORMATION PROCESSING METHOD AND STORAGE MEDIUM |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6046712A (en) * | 1996-07-23 | 2000-04-04 | Telxon Corporation | Head mounted communication system for providing interactive visual communications with a remote system |
JP5113426B2 (en) * | 2007-05-29 | 2013-01-09 | キヤノン株式会社 | Head-mounted display device and control method thereof |
JP4912224B2 (en) * | 2007-06-08 | 2012-04-11 | キヤノン株式会社 | Image display system and control method thereof |
JP5531881B2 (en) * | 2010-09-22 | 2014-06-25 | 富士通株式会社 | Moving picture decoding apparatus, moving picture decoding method, and integrated circuit |
JP6620079B2 (en) * | 2016-09-08 | 2019-12-11 | 株式会社ソニー・インタラクティブエンタテインメント | Image processing system, image processing method, and computer program |
-
2016
- 2016-11-28 JP JP2016229985A patent/JP6949475B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018087849A (en) | 2018-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108139204B (en) | Information processing apparatus, method for estimating position and/or orientation, and recording medium | |
JP4857196B2 (en) | Head-mounted display device and control method thereof | |
CN111627116B (en) | Image rendering control method and device and server | |
JP2017097122A (en) | Information processing device and image generation method | |
US11003408B2 (en) | Image generating apparatus and image generating method | |
WO2020003860A1 (en) | Information processing device, information processing method, and program | |
JP6949475B2 (en) | Image processing equipment, image processing methods and programs | |
KR20210044506A (en) | Apparatus of displaying augmented reality object and operating methode thereof | |
JP4144888B2 (en) | Image processing method and image processing apparatus | |
US10901213B2 (en) | Image display apparatus and image display method | |
JP2014215755A (en) | Image processing system, image processing apparatus, and image processing method | |
JP2019095916A (en) | Image generation device, head-mounted display, image generation system, image generation method, and program | |
JP2016192137A (en) | Information processing device, information processing method and program | |
JP6515512B2 (en) | Display device, display device calibration method, and calibration program | |
US20200312032A1 (en) | Image generating apparatus and image generation method | |
JP2018063567A (en) | Image processing device, image processing method and program | |
JP2018005778A (en) | Image display device, image display system, and image display method | |
JP6655751B1 (en) | Video display control device, method and program | |
US11749141B2 (en) | Information processing apparatus, information processing method, and recording medium | |
US20210241425A1 (en) | Image processing apparatus, image processing system, image processing method, and medium | |
JP2006285786A (en) | Information processing method and information processor | |
JP6614835B2 (en) | COMMUNICATION DEVICE, HEAD MOUNT DISPLAY, IMAGE PROCESSING SYSTEM, COMMUNICATION METHOD, AND PROGRAM | |
US11263999B2 (en) | Image processing device and control method therefor | |
JP7357554B2 (en) | Synchronous control device, control method of synchronous control device, system | |
US20210390928A1 (en) | Information processing apparatus, information processing method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210304 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210824 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210922 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6949475 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |