JP2019029868A - Image processing system and processing method, program thereof - Google Patents

Image processing system and processing method, program thereof Download PDF

Info

Publication number
JP2019029868A
JP2019029868A JP2017148499A JP2017148499A JP2019029868A JP 2019029868 A JP2019029868 A JP 2019029868A JP 2017148499 A JP2017148499 A JP 2017148499A JP 2017148499 A JP2017148499 A JP 2017148499A JP 2019029868 A JP2019029868 A JP 2019029868A
Authority
JP
Japan
Prior art keywords
image
composite image
display device
hmd
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017148499A
Other languages
Japanese (ja)
Other versions
JP2019029868A5 (en
JP7148779B2 (en
Inventor
雅之 兜
Masayuki Kabuto
雅之 兜
浩一 入口
Koichi Iriguchi
浩一 入口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2017148499A priority Critical patent/JP7148779B2/en
Publication of JP2019029868A publication Critical patent/JP2019029868A/en
Publication of JP2019029868A5 publication Critical patent/JP2019029868A5/ja
Priority to JP2022068056A priority patent/JP7319575B2/en
Application granted granted Critical
Publication of JP7148779B2 publication Critical patent/JP7148779B2/en
Priority to JP2023117247A priority patent/JP2023145551A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

To provide a user-friendly mechanism, by controlling shake correction of a composite image by a state of a testee.SOLUTION: An image processing system (PC100) includes generation means for generating a composite image obtained by synthesizing an image of a virtual object displayed according to a position and an attitude related to a view point of a testee, first output means for outputting the composite image, generated by the generation means, to a first display device (HMD101) used by the testee, and second output means for outputting the composite image, subjected to shake correction by using the composite image, to a second display device (160). The second display device outputs the composite image, generated by the generation means, to the second display device, when the conditions related to the shake correction are satisfied, based on the position of the testee.SELECTED DRAWING: Figure 1

Description

本発明は、合成画像のブレ補正に係る技術に関するものである。 The present invention relates to a technique related to blur correction of a composite image.

近年、複合現実(Mixed Reality/以下、MRと記載)の技術が普及している。複合現実の技術を用いることで、ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに対し、現実画像にCGモデルを配置した複合現実画像を提供し、現実と仮想を複合した複合現実の世界(複合現実空間)を体験させることができる。複合現実画像を生成するにあたり、HMDの位置とCGモデルの位置とを、センサや二次元マーカを用いて特定する手法が取られている。 In recent years, mixed reality (hereinafter referred to as MR) technology has become widespread. By using a mixed reality technology, a mixed reality image in which a CG model is arranged on a real image is provided to a user wearing a head-mounted display (hereinafter referred to as an HMD), and a mixed reality world in which reality and virtual are combined ( (Mixed reality space) can be experienced. In generating a mixed reality image, a method of specifying the position of the HMD and the position of the CG model using a sensor or a two-dimensional marker is used.

特許文献2には、客観カメラにより撮影された体験者を含む画像と、体験者が体験している際に映し出されるCG画像と、を合成して、ディスプレイに表示する技術が開示されている。 Patent Document 2 discloses a technique of combining an image including an experienced person photographed by an objective camera and a CG image projected when the experienced person is experiencing and displaying the synthesized image on a display.

このように、単に体験者に画像を表示するばかりでなく、体験者が見ている画像や、体験者の体験状態を映し出すことが一般的に行われている。 As described above, not only displaying an image to the experience person but also displaying the image viewed by the experience person and the experience state of the experience person is generally performed.

特開2003−308514号公報JP 2003-308514 A 特開2015−170232号公報Japanese Patent Laying-Open No. 2015-170232

上述したように、MRでは、体験者の見ている映像を外部ディスプレイに表示(体験者のHMDに表示されている映像と同じ映像を表示)して、体験していない人が外部から確認することがある。 As described above, in MR, an image viewed by an experienced person is displayed on an external display (the same image as the image displayed on the experienced person's HMD is displayed), and a person who has not experienced confirms from outside. Sometimes.

この場合、体験者は移動しているため、HMDで撮影した現実画像(動画)はブレが大きくなる(多くのブレが発生する)。体験者は自分の動きに合わせてHMDに現実画像を用いて生成されたMR画像が表示されるため、ブレとなるような表示があっても違和感がないものの、体験していない人は自分の動きとは関係ない映像(ブレのある映像)を外部ディスプレイで見ているため気分がわるくなる(酔いやすい)ということが発生する。 In this case, since the experience person is moving, the actual image (moving image) photographed by the HMD is greatly blurred (many blurring occurs). Experienced users will see MR images generated using real images on the HMD according to their movements, so even if there is a blurry display, there is no sense of incongruity, but those who have not experienced their own When a video (blurred video) that is not related to movement is viewed on an external display, the user feels uncomfortable (easy to get sick).

特に、外部ディスプレイは大型のディスプレイを用いていることが多く、よりブレが大きく感じることがあり、HMDに表示している映像は体験していない人には適さないという問題があった。 In particular, a large display is often used as the external display, and blurring may be felt more greatly, and there is a problem that the image displayed on the HMD is not suitable for those who have not experienced it.

一方、体験していない人であっても、体験者の実際の作業状態を見る必要が場合(検証作業などの場合)、体験者のHMDで表示している映像をそのまま見る必要があるため一律にブレを制御することにも問題がある。 On the other hand, even if it is a person who has not experienced, if it is necessary to see the actual working state of the experienced person (in the case of verification work etc.), it is necessary to see the video displayed on the experienced person's HMD as it is. There is also a problem in controlling blurring.

そこで、本発明は、体験者の状態により合成画像のブレ補正を制御し、使い勝手のよい仕組みを提供することを目的とする。 Accordingly, an object of the present invention is to provide an easy-to-use mechanism by controlling the blur correction of a composite image according to the state of an experienced person.

本発明の目的を達成するための画像処理装置は、体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する生成手段と、前記生成手段により生成された合成画像を体験者の利用する第1表示装置に出力する第1出力手段と、前記合成画像を用いてブレ補正された合成画像を第2表示装置に出力する第2出力手段とを備え、前記第2出力手段は、体験者の位置に基づき、ブレ補正に係る条件を満たす場合に、前記生成手段により生成された合成画像を第2表示装置に出力することを特徴とする。 An image processing apparatus for achieving an object of the present invention is generated by a generating unit that generates a composite image by combining virtual object images displayed according to a position and orientation related to a viewpoint of an experiencer, and the generating unit. First output means for outputting the composite image to the first display device used by the experience person, and second output means for outputting the composite image corrected for blur using the composite image to the second display device, The second output means outputs the composite image generated by the generation means to the second display device when the condition relating to blur correction is satisfied based on the position of the experience person.

本発明により、体験者の状態により合成画像のブレ補正を制御し、使い勝手のよい仕組みを提供することができる。   According to the present invention, it is possible to provide an easy-to-use mechanism by controlling the blur correction of a composite image according to the state of an experienced person.

システムの概要を示す図。The figure which shows the outline | summary of a system. HMD101及びPC100のそれぞれのハードウェア構成例を示すブロック図。FIG. 3 is a block diagram showing an example of the hardware configuration of each of the HMD 101 and the PC 100. PC100の機能構成例を示すブロック図。The block diagram which shows the function structural example of PC100. PC100のモジュール構成例を示すブロック図。The block diagram which shows the module structural example of PC100. HMD101、PC100、外部ディスプレイ160が行う処理のフローチャート。The flowchart of the process which HMD101, PC100, and the external display 160 perform. ステップS510における処理のフローチャート。The flowchart of the process in step S510. 外部メモリ211に保持される情報の構成例を示す図。The figure which shows the structural example of the information hold | maintained at the external memory. 外部ディスプレイ160のブレ補正時の表示例を示す図。The figure which shows the example of a display at the time of the blurring correction of the external display 160. 外部ディスプレイ160のブレ補正解除時の表示例を示す図。The figure which shows the example of a display at the time of cancellation | release of blur correction of the external display 160. FIG.

以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。 Embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

本実施形態に係るシステムは、現実空間と仮想空間との合成空間である複合現実空間を、HMD等の頭部装着型表示装置や、頭部装着型表示装置は別個に設けられた表示装置に対して提示する複合現実感提示システムである。先ず、本実施形態に係るシステムの概要について、図1を用いて説明する。 In the system according to the present embodiment, a mixed reality space that is a composite space of a real space and a virtual space is used in a head-mounted display device such as an HMD or a display device in which a head-mounted display device is provided separately. It is a mixed reality presentation system. First, an outline of a system according to the present embodiment will be described with reference to FIG.

ユーザの頭部にはHMD101が装着されており、HMD101の表示画面には、画像処理装置としてのPC100から出力される複合現実空間の画像が表示される。ユーザはHMD101の表示画面に表示される複合現実空間の画像を観察することで複合現実空間を体験する。 The HMD 101 is attached to the user's head, and an image of the mixed reality space output from the PC 100 as the image processing apparatus is displayed on the display screen of the HMD 101. The user experiences the mixed reality space by observing the mixed reality space image displayed on the display screen of the HMD 101.

また、本実施形態において、体験しているユーザは複数人(体験者A、体験者B)いるものとして説明する。 Further, in the present embodiment, a description will be given assuming that there are a plurality of users (experience person A, experience person B) who are experiencing.

HMD101には、光学式センサ104で検知可能(計測可能)な光学式マーカ103が取り付けられており、光学式センサ104による光学式マーカ103の計測結果はPC100に送出される。図1では図示を簡略化するために、光学式センサ104の数を1としているが、実際には複数の光学式センサ104を配置する。PC100は光学式センサ104による光学式マーカ103の計測結果に基づいて光学式マーカ103の位置姿勢を求める。光学式センサ104による光学式マーカ103の計測結果に基づいて該光学式マーカ103の位置姿勢を求めるための技術については周知であるため、該技術に係る詳細な説明は省略する。そしてPC100は、例えばHMD101に備わっているカメラをユーザの視点(ユーザ視点)とする場合には、予め求めた「ユーザ視点と光学式マーカ103との間の相対的な位置姿勢関係」を用いて、光学式マーカ103の位置姿勢をユーザ視点の位置姿勢に変換する。 The optical marker 103 that can be detected (measured) by the optical sensor 104 is attached to the HMD 101, and the measurement result of the optical marker 103 by the optical sensor 104 is sent to the PC 100. In FIG. 1, in order to simplify the illustration, the number of the optical sensors 104 is set to 1, but a plurality of optical sensors 104 are actually arranged. The PC 100 obtains the position and orientation of the optical marker 103 based on the measurement result of the optical marker 103 by the optical sensor 104. Since a technique for obtaining the position and orientation of the optical marker 103 based on the measurement result of the optical marker 103 by the optical sensor 104 is well known, a detailed description thereof will be omitted. For example, when the camera provided in the HMD 101 is used as the user's viewpoint (user viewpoint), the PC 100 uses the “relative position and orientation relationship between the user viewpoint and the optical marker 103” obtained in advance. Then, the position and orientation of the optical marker 103 are converted into the position and orientation of the user viewpoint.

なお、ユーザ視点の位置姿勢を取得する方法は特定の方法に限らない。例えば、ユーザ視点の位置姿勢を得るために用いる位置姿勢計測用センサは光学式センサ104に限らず、磁気センサ、超音波センサなど他の種類の位置姿勢計測用センサを用いてユーザ視点の位置姿勢を取得するようにしても良い。また、現実空間中に配されている二次元マーカ102をHMD101に備わっているカメラにより撮像し、該撮像により得られる撮像画像を用いてユーザ視点の位置姿勢を求めても良い。また、位置姿勢計測用センサと2次元マーカとを併用してユーザ視点の位置姿勢を取得するようにしても良い。 The method for acquiring the position and orientation of the user viewpoint is not limited to a specific method. For example, the position and orientation measurement sensor used to obtain the position and orientation of the user viewpoint is not limited to the optical sensor 104, but the position and orientation of the user viewpoint using other types of position and orientation measurement sensors such as a magnetic sensor and an ultrasonic sensor. You may make it acquire. Alternatively, the two-dimensional marker 102 arranged in the real space may be imaged by a camera provided in the HMD 101, and the position and orientation of the user viewpoint may be obtained using a captured image obtained by the imaging. Further, the position and orientation of the user viewpoint may be acquired by using the position and orientation measurement sensor and the two-dimensional marker together.

そしてPC100は、CGモデル130等の仮想物体を生成して仮想空間中に配置し、ユーザ視点から見た仮想物体の画像を生成する。そしてPC100は、この生成した仮想物体の画像と、HMD101が有するカメラにより撮像された現実空間の画像と、を合成した合成画像を複合現実空間の画像として生成し、該生成した複合現実空間の画像をHMD101に対して送出する。これによりユーザは、自身の視点の位置姿勢に応じた複合現実空間の画像を眼前に観察することができる。 Then, the PC 100 generates a virtual object such as the CG model 130 and arranges it in the virtual space, and generates an image of the virtual object viewed from the user viewpoint. The PC 100 generates a composite image obtained by synthesizing the generated virtual object image and the real space image captured by the camera of the HMD 101 as an image of the mixed reality space, and the generated mixed reality space image. Is sent to the HMD 101. Thereby, the user can observe the image of the mixed reality space according to the position and orientation of his / her viewpoint in front of the eyes.

また、現実空間には、ユーザが複合現実空間を体験している際の映像を表示する外部ディスプレイ160が配されている。この外部ディスプレイ160は、体験していないユーザにより体験者の映像を確認するために用いられる。 In the real space, an external display 160 for displaying an image when the user is experiencing the mixed reality space is arranged. The external display 160 is used for confirming the video of the experienced person by a user who has not experienced.

本実施形態では、外部ディスプレイ160が、HMD101それぞれのPC100に接続されているものとする。そして、それぞれのHMD101で表示している映像がそれぞれの外部ディスプレイ160に表示されている。体験者AのHMD101の映像は、体験者A用の外部ディスプレイ160に表示されている。また、体験者BのHMD101の映像は、体験者B用の外部ディスプレイ160に表示されている。 In the present embodiment, it is assumed that the external display 160 is connected to each PC 100 of the HMD 101. The video displayed on each HMD 101 is displayed on each external display 160. The image of the HMD 101 of the user A is displayed on the external display 160 for the user A. Also, the video of the HMD 101 of the experience person B is displayed on the external display 160 for the experience person B.

なお、この外部ディスプレイ160への表示制御が本実施形態における特徴の一例である。 The display control on the external display 160 is an example of the feature in the present embodiment.

次に、HMD101及びPC100のそれぞれのハードウェア構成例について、図2のブロック図を用いて説明する。なお、図2に示した構成は、HMD101、PC100に適用可能なハードウェア構成の一例であり、図2の構成に限るものではない。 Next, a hardware configuration example of each of the HMD 101 and the PC 100 will be described with reference to the block diagram of FIG. The configuration illustrated in FIG. 2 is an example of a hardware configuration applicable to the HMD 101 and the PC 100, and is not limited to the configuration illustrated in FIG.

先ず、HMD101について説明する。右目・左目ビデオカメラ221は、ユーザの右目に提供する現実空間の画像を撮像するための右目用ビデオカメラと、ユーザの左目に提供する現実空間の画像を撮像するための左目用ビデオカメラと、を有し、それぞれのビデオカメラによる撮像画像(現実空間の画像)はPC100に送出される。 First, the HMD 101 will be described. The right-eye / left-eye video camera 221 includes a right-eye video camera for capturing a real-space image provided to the user's right eye, a left-eye video camera for capturing a real-space image provided to the user's left eye, Images taken by the respective video cameras (real space images) are sent to the PC 100.

右目・左目ディスプレイ222は、ユーザの右目に映像(画像及び文字を含む)を提供するための右目用ディスプレイと、ユーザの左目に映像(画像及び文字を含む)を提供するための左目用ディスプレイと、を有する。PC100から送出された右目用の映像は右目用ディスプレイに表示され、左目用の映像は左目用ディスプレイに表示される。 The right-eye / left-eye display 222 includes a right-eye display for providing video (including images and characters) to the user's right eye, and a left-eye display for providing video (including images and characters) to the user's left eye. Have. The right-eye video sent from the PC 100 is displayed on the right-eye display, and the left-eye video is displayed on the left-eye display.

次に、PC100について説明する。汎用バス212は、右目・左目ビデオカメラ221から送出される現実空間の画像を受信するためのインターフェースとして機能するものであり、例えば、外部入力端子(例えば、IEEE1394端子)によって構成される。 Next, the PC 100 will be described. The general-purpose bus 212 functions as an interface for receiving a real space image transmitted from the right-eye / left-eye video camera 221 and includes, for example, an external input terminal (for example, an IEEE 1394 terminal).

CPU201はROM202やRAM203に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU201は、PC100全体の動作制御を行うと共に、PC100が行うものとして後述する各処理を実行若しくは制御する。 The CPU 201 executes various processes using computer programs and data stored in the ROM 202 and RAM 203. As a result, the CPU 201 controls the operation of the entire PC 100 and executes or controls each process described later as what the PC 100 performs.

ROM202には、書換不要のコンピュータプログラムやデータ、例えば、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)が格納されている。 The ROM 202 stores rewrite-free computer programs and data, for example, BIOS (Basic Input / Output System) which is a control program of the CPU 201.

RAM203は、ROM202や外部メモリ211からロードされたコンピュータプログラムやデータを格納するためのエリアを有する。またRAM203は、汎用バス212を介して右目・左目ビデオカメラ221から受信した現実空間の画像を格納するためのエリアを有する。またRAM203は、通信I/Fコントローラ208を介して光学式センサ104から受信した計測結果を格納するためのエリアを有する。またRAM203は、通信I/Fコントローラ208を介して客観カメラ106から受信した現実空間の画像を格納するためのエリアを有する。またRAM203は、CPU201が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM203は、各種のエリアを適宜提供することができる。 The RAM 203 has an area for storing computer programs and data loaded from the ROM 202 and the external memory 211. The RAM 203 has an area for storing an image of the real space received from the right-eye / left-eye video camera 221 via the general-purpose bus 212. The RAM 203 has an area for storing measurement results received from the optical sensor 104 via the communication I / F controller 208. The RAM 203 has an area for storing an image of the real space received from the objective camera 106 via the communication I / F controller 208. The RAM 203 has a work area used when the CPU 201 executes various processes. Thus, the RAM 203 can provide various areas as appropriate.

ビデオコントローラ206は、右目・左目ディスプレイ222、ディスプレイ210、外部ディスプレイ160の表示制御を行うためのものである。右目・左目ディスプレイ222に対しては、例えば外部出力端子(例えば、Digital Visual Interface)を用いて映像信号(画像や文字の表示用信号)の出力を行う。ディスプレイ210は、CRTや液晶画面などにより構成されており、CPU201による処理結果を画像や文字などでもって表示することができる。ディスプレイ210を用いて、システムの各種設定などの情報の入力・表示を行うことができる。 The video controller 206 is for performing display control of the right eye / left eye display 222, the display 210, and the external display 160. For the right-eye / left-eye display 222, for example, an external output terminal (for example, Digital Visual Interface) is used to output a video signal (image or character display signal). The display 210 is configured by a CRT, a liquid crystal screen, or the like, and can display a processing result by the CPU 201 using an image, text, or the like. Information such as various system settings can be input and displayed using the display 210.

入力コントローラ205は、入力デバイス209の動作制御を行うためのものである。入力デバイス209は、マウスやキーボードなどのユーザインターフェースとして機能するものであり、ユーザが操作することで各種の指示をCPU201に対して入力することができる。例えば、入力デバイス209がタッチパネルの場合、ユーザがタッチパネルに表示されたアイコンやカーソルやボタンを押下(指等でタッチ)することにより、各種の指示の入力を行うことができる。なお、タッチパネルは、マルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。 The input controller 205 is for performing operation control of the input device 209. The input device 209 functions as a user interface such as a mouse and a keyboard, and can input various instructions to the CPU 201 by a user operation. For example, when the input device 209 is a touch panel, the user can input various instructions by pressing (touching with a finger or the like) an icon, a cursor, or a button displayed on the touch panel. The touch panel may be a touch panel that can detect a position touched by a plurality of fingers, such as a multi-touch screen.

メモリコントローラ207は、外部メモリ211への情報の読み書きを制御するためのものである。外部メモリ211は、ハードディスクドライブ装置、フレキシブルディスク、PCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等のメモリ装置である。外部メモリ211には、OS(オペレーティングシステム)や、PC100が行うものとして後述する各処理をCPU201に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。 The memory controller 207 is for controlling reading and writing of information to and from the external memory 211. The external memory 211 is a memory device such as a hard disk drive device, a flexible disk, a card type memory connected to the PCMCIA card slot via an adapter. The external memory 211 stores an OS (Operating System) and computer programs and data for causing the CPU 201 to execute or control each process described below as performed by the PC 100.

外部メモリ211に保存されているコンピュータプログラムには、以下に説明する各フローチャートに従った処理をCPU201に実行させるためのコンピュータプログラムが含まれている。また、外部メモリ211に保存されているデータには、本実施形態を含む以下の各実施形態において既知の情報として取り扱う情報や、CGモデル130を含む様々な仮想物体の描画に要するデータ(描画データ)が含まれている。外部メモリ211に保存されているコンピュータプログラムやデータは、CPU201による制御に従って適宜RAM203にロードされ、CPU201による処理対象となる。なお、外部メモリ211は、USBメモリ、SDカードなどのメモリ装置であっても良い。 The computer program stored in the external memory 211 includes a computer program for causing the CPU 201 to execute processing according to each flowchart described below. The data stored in the external memory 211 includes information handled as known information in the following embodiments including the present embodiment, and data (drawing data) required for drawing various virtual objects including the CG model 130. )It is included. Computer programs and data stored in the external memory 211 are appropriately loaded into the RAM 203 under the control of the CPU 201 and are processed by the CPU 201. The external memory 211 may be a memory device such as a USB memory or an SD card.

通信I/Fコントローラ208は、光学式センサ104から計測結果や現実空間の画像を受信するためのインターフェースとして機能するものである。また通信I/Fコントローラ208は、LANやインターネットなどのネットワークを介して外部の機器との間のデータ通信を行うためのインターフェースとして機能するものである。例えば、通信I/Fコントローラ208は、TCP/IPを用いたインターネット通信等が可能である。また通信I/Fコントローラ208は、ギガビットイーサネット(登録商標)等を通じて光学式センサ104との通信も制御する。なお、図1では、光学式センサ104、及び外部ディスプレイ160と、PC100と、の間のデータ通信は有線であるが、無線であっても良い。例えば、PC100は、LANケーブルやUSBケーブル、無線通信など様々な通信形態によって光学式センサ104、外部ディスプレイ160との間のデータ通信を行うことができる。 The communication I / F controller 208 functions as an interface for receiving measurement results and real space images from the optical sensor 104. The communication I / F controller 208 functions as an interface for performing data communication with an external device via a network such as a LAN or the Internet. For example, the communication I / F controller 208 can perform Internet communication using TCP / IP. The communication I / F controller 208 also controls communication with the optical sensor 104 through Gigabit Ethernet (registered trademark) or the like. In FIG. 1, data communication between the optical sensor 104 and the external display 160 and the PC 100 is wired, but may be wireless. For example, the PC 100 can perform data communication with the optical sensor 104 and the external display 160 by various communication modes such as a LAN cable, a USB cable, and wireless communication.

上記の汎用バス212、CPU201、ROM202、RAM203、ビデオコントローラ206、入力コントローラ205、メモリコントローラ207、通信I/Fコントローラ208は何れも、システムバス204に接続されている。 The general-purpose bus 212, CPU 201, ROM 202, RAM 203, video controller 206, input controller 205, memory controller 207, and communication I / F controller 208 are all connected to the system bus 204.

なお、本実施形態では、HMD101とPC100とを別個の機器とするが、HMD101とPC100とを一体化させても良い。また、PC100をサーバ装置として取り扱っても良い。 In the present embodiment, the HMD 101 and the PC 100 are separate devices, but the HMD 101 and the PC 100 may be integrated. Further, the PC 100 may be handled as a server device.

次に、PC100のモジュール構成例について、図4のブロック図を用いて説明する。オペレーティングシステム401は、HMD101との間の入出力を制御し、右目・左目ビデオカメラ221から汎用バス212を介して得られた現実空間の画像を複合現実感プラットフォーム403へと受け渡す。またオペレーティングシステム401は、グラフィックエンジン402で描画された複合現実空間の画像を、ビデオコントローラ206を介して、右目・
左目ディスプレイ222へ出力する。
Next, a module configuration example of the PC 100 will be described with reference to the block diagram of FIG. The operating system 401 controls input / output to / from the HMD 101, and transfers an image of the real space obtained from the right-eye / left-eye video camera 221 via the general-purpose bus 212 to the mixed reality platform 403. The operating system 401 also converts the mixed reality space image drawn by the graphic engine 402 via the video controller 206 to the right eye /
Output to the left eye display 222.

グラフィックエンジン402は、外部メモリ211に記憶されている仮想物体の描画データを用いて仮想物体の画像を生成し、該生成した仮想物体の画像を右目・左目ビデオカメラ221による撮像画像上に重畳することで複合現実空間の画像を生成する。仮想物体の画像の生成(描画)に利用するエンジンは、例えば、OpenGLやDirectXなどの広く利用されているグラフィックエンジンでも、独自に開発したグラフィックエンジンでもよい。なお、本実施形態ではグラフィックライブラリとしてOpenGLを利用するものとする。 The graphic engine 402 generates a virtual object image using the virtual object drawing data stored in the external memory 211 and superimposes the generated virtual object image on the image captured by the right-eye / left-eye video camera 221. Thus, an image of the mixed reality space is generated. An engine used for generating (drawing) an image of a virtual object may be a widely used graphic engine such as OpenGL or DirectX, or a graphic engine developed independently. In the present embodiment, OpenGL is used as the graphic library.

複合現実感プラットフォーム(MRプラットフォームともいう)403は、上記のようにしてユーザの視点の位置姿勢を求め、現実空間と仮想空間との位置合わせを行う。これらの技術は、例えば、特開2002−32784号公報、特開2006−072903公報、特開2007−166427公報等に開示されている既存の技術を用いて実現することが可能である。 The mixed reality platform (also referred to as MR platform) 403 obtains the position and orientation of the user's viewpoint as described above, and aligns the real space and the virtual space. These techniques can be realized by using existing techniques disclosed in, for example, Japanese Unexamined Patent Application Publication Nos. 2002-32784, 2006-072903, and 2007-166427.

複合現実感アプリケーション(MRアプリケーションやビューアアプリケーションともいう)404は、複合現実感プラットフォーム403から視点の位置姿勢や、仮想物体の色や形状の情報、仮想物体の位置姿勢等の仮想物体の描画に要する情報を受け付け、グラフィックエンジン402に対して、仮想物体の画像の描画命令を発行する。この時、OpenGLのAPIを用いて、描画する仮想物体の識別情報、位置姿勢の情報を設定した命令を発行する。 A mixed reality application (also referred to as an MR application or a viewer application) 404 is required to draw a virtual object such as a viewpoint position and orientation, information on the color and shape of a virtual object, and a position and orientation of a virtual object from the mixed reality platform 403. The information is received, and a drawing command for a virtual object image is issued to the graphic engine 402. At this time, using the OpenGL API, a command in which the identification information and the position and orientation information of the virtual object to be drawn are set is issued.

また、複合現実感プラットフォーム403は、客観カメラ106から撮像画像を受信すると、該撮像画像を複合現実感アプリケーション404へ受け渡す。補正モジュール405は、グラフィックエンジン402で描画された画像をブレ補正する処理を行う。ブレ補正する処理を行うか否かについての制御は、複合現実感プラットフォーム403や複合現実感アプリケーション404が制御するものとする。 Further, when the mixed reality platform 403 receives a captured image from the objective camera 106, the mixed reality platform 403 delivers the captured image to the mixed reality application 404. The correction module 405 performs a process for correcting the blur of the image drawn by the graphic engine 402. It is assumed that the mixed reality platform 403 and the mixed reality application 404 control whether or not to perform the blur correction process.

補正モジュール405は、電子式の手ブレ補正技術を用いることで実現可能である。例えば、撮影された画像を一度メモリに読み込み、次に撮影された画像と比較して、像のズレを画素をずらすことで補正する。ブレ補正する技術については様々あり、いずれの補正技術を用いて実現してもよい。補正する画像は、HMD101に出力する画像である。 The correction module 405 can be realized by using an electronic camera shake correction technique. For example, a captured image is once read into a memory, and compared with the next captured image, the image shift is corrected by shifting the pixels. There are various techniques for blur correction, and any of the correction techniques may be used. The image to be corrected is an image output to the HMD 101.

補正モジュール405によりブレ補正した画像またはブレ補正しない画像を外部ディスプレイ160へ出力する。 The image corrected by the correction module 405 or the image not subjected to the vibration correction is output to the external display 160.

次に、1枚(1フレーム分)の複合現実空間の画像を生成してHMD101や外部ディスプレイ160に表示するためにHMD101及びPC100が行う処理について、図5のフローチャートに従って説明する。 Next, processing performed by the HMD 101 and the PC 100 in order to generate a single (one frame) mixed reality space image and display it on the HMD 101 or the external display 160 will be described with reference to the flowchart of FIG.

ステップS500では、PC100で、ブレ補正に係る補正処理設定を行う。補正処理設定については、HMD情報700とCGモデル情報720に設定される。PC100のディスプレイ210で表示される設定画面から設定情報が入力される。 In step S500, the PC 100 performs correction processing settings related to blur correction. The correction process setting is set in the HMD information 700 and the CG model information 720. Setting information is input from a setting screen displayed on the display 210 of the PC 100.

ここで、図7について説明する。図7は、本実施形態で用いる設定情報の一例を示す図である。設定情報は、外部メモリ211に記憶されるものとする。 Here, FIG. 7 will be described. FIG. 7 is a diagram illustrating an example of setting information used in the present embodiment. It is assumed that the setting information is stored in the external memory 211.

設定情報には、HMD情報700とCGモデル情報720がある。HMD情報700は各HMD101の設定が記憶されている。 The setting information includes HMD information 700 and CG model information 720. The HMD information 700 stores the settings of each HMD 101.

CGモデル情報720は、仮想空間における各CGモデルの設定が記憶されている。 The CG model information 720 stores settings for each CG model in the virtual space.

HMD情報700は、HMDID701、位置702、姿勢703、外部ディスプレイ表示有無704、対象705、設定値706の情報を有している。 The HMD information 700 includes information of HMDID 701, position 702, posture 703, external display display presence / absence 704, target 705, and setting value 706.

HMDID701は、HMD101ごとのIDを記憶しているものである。位置702と姿勢703は、複合現実感プラットフォーム403で算出されたHMD101の位置姿勢情報を記憶するものである。この情報は常に更新されるものである。 The HMDID 701 stores an ID for each HMD 101. The position 702 and the posture 703 store the position and orientation information of the HMD 101 calculated by the mixed reality platform 403. This information is constantly updated.

外部ディスプレイ表示有無704は、HMD101に出力する画像を外部ディスプレイに出力するか否かを設定した情報(フラグ)である。ONの場合には、外部ディスプレイ160に出力する設定でありブレ補正処理を行う場合の設定である。OFFの場合には、外部ディスプレイ160に出力しない設定であり、ブレ補正処理を行わない場合の設定である。また、ONの場合には、対象705と設定値706が設定されるものとする。 The external display display presence / absence 704 is information (flag) that sets whether to output an image to be output to the HMD 101 to the external display. In the case of ON, it is a setting for outputting to the external display 160, and is a setting for performing blur correction processing. In the case of OFF, this is a setting for not outputting to the external display 160, and is a setting for not performing the blur correction process. In the case of ON, the target 705 and the set value 706 are set.

なお、外部ディスプレイ表示有無704がONの場合であっても、対象705と設定値706が設定されていない場合には、外部ディスプレイ160に画像を出力はするが補正処理をしないように制御する構成であってもよい。 Even when the external display display presence / absence 704 is ON, when the target 705 and the set value 706 are not set, the image is output to the external display 160, but the correction process is not performed. It may be.

対象705と設定値706は、ブレ補正処理を行う場合の設定であり、ブレ補正処理を行う基準が設定されている。 The target 705 and the set value 706 are settings for performing blur correction processing, and a reference for performing blur correction processing is set.

対象705は、他の体験者のHMD101との関係によりブレ補正処理を解除するか、CGとの関係によりブレ補正処理を解除するのかを設定できる。HMD101に近づいた際にブレ補正処理を解除する場合には、対象705に対象とするHMDのIDが設定され、設定値706に距離情報が記憶される。 The object 705 can set whether to cancel the shake correction process based on the relationship with the HMD 101 of another experiencer or whether to cancel the shake correction process based on the relationship with the CG. When canceling the shake correction process when approaching the HMD 101, the target HMD ID is set in the target 705, and the distance information is stored in the setting value 706.

また、CGに近づいた際に補正処理を解除する場合には、対象705に対象とするCGが設定され、設定値706に距離情報が記憶される。 Further, when the correction process is canceled when approaching the CG, the target CG is set as the target 705 and the distance information is stored in the set value 706.

対象705にCGのモデルIDが設定されてもよいが、本実施形態では、補正の解除処理がされるCGかは、CGモデル情報720で設定されるものとする。 Although the CG model ID may be set for the target 705, in the present embodiment, it is assumed that the CG to be subjected to the correction cancellation processing is set in the CG model information 720.

CGモデル情報720は、モデルID721、モデル名722、ファイルパス723、位置724、姿勢725、補正制御解除対象726の情報を有している。 The CG model information 720 includes information on a model ID 721, a model name 722, a file path 723, a position 724, a posture 725, and a correction control release target 726.

モデルID721はCGモデルのIDを記憶しているものである。モデル名722は、CGモデル自体のファイル名称を記憶しているものである。ファイルパス723は、CGモデルとなるファイルが保存されている場所を記憶しているものである。 The model ID 721 stores the ID of the CG model. The model name 722 stores the file name of the CG model itself. The file path 723 stores a location where a file serving as a CG model is stored.

位置724、姿勢725は、CGモデルを表示する現実空間において表示すべき仮想空間上の位置姿勢の値を有している。 The position 724 and the posture 725 have position and posture values on the virtual space to be displayed in the real space where the CG model is displayed.

補正制御解除対象726は、補正処理を解除するか否かを設定する情報を記憶しているものである。補正処理(補正制御)を解除するCGモデルの場合には、ONが設定される。補正処理(補正制御)を解除しないCGモデルの場合には、OFFが設定される。 The correction control cancellation target 726 stores information for setting whether to cancel the correction process. In the case of a CG model for canceling the correction process (correction control), ON is set. In the case of a CG model that does not cancel the correction process (correction control), OFF is set.

すなわち、補正制御解除対象726でONとなっており、対象705がCGとなっている場合に、所定の位置にHMD101があると補正処理が解除され、HMD101で表示している画像と同じブレのある画像が外部ディスプレイ160に表示される。 That is, when the correction control cancellation target 726 is ON and the target 705 is CG, the correction process is canceled if the HMD 101 is in a predetermined position, and the same blurring as the image displayed on the HMD 101 is present. A certain image is displayed on the external display 160.

ステップS501では、図7の設定情報をメモリに読み込み、HMD101が起動される。HMD101が起動されると、ステップS502へ処理を移す。 In step S501, the setting information of FIG. 7 is read into the memory, and the HMD 101 is activated. When the HMD 101 is activated, the process proceeds to step S502.

ステップS502では、右目・左目ビデオカメラ221の機能を用いて現実画像の撮像を開始する。 In step S502, real image capturing is started using the functions of the right-eye / left-eye video camera 221.

ステップS503では、右目・左目ビデオカメラ221は、撮像した現実空間の画像(右目用カメラによる撮像画像、左目用カメラによる撮像画像)をPC100に対して出力する。なお撮像と送信は繰り返し行われ、PC100から順次MR画像を受信してHMD101の右目・左目ディスプレイ222で表示する。 In step S <b> 503, the right-eye / left-eye video camera 221 outputs the captured real space image (the image captured by the right-eye camera and the image captured by the left-eye camera) to the PC 100. Imaging and transmission are repeated, and MR images are sequentially received from the PC 100 and displayed on the right-eye / left-eye display 222 of the HMD 101.

ステップS504では、CPU201は、右目・左目ビデオカメラ221から出力された現実空間の画像を汎用バス212を介して受信し、ステップS505ではCPU201は、該受信した現実空間の画像をRAM203や外部メモリ211に格納する。 In step S504, the CPU 201 receives the real-space image output from the right-eye / left-eye video camera 221 via the general-purpose bus 212. In step S505, the CPU 201 receives the received real-space image in the RAM 203 or the external memory 211. To store.

ステップS506では、CPU201は、光学式センサ104による光学式マーカ103の計測結果を通信I/Fコントローラ208を介して取得し、該取得した計測結果に基づいて上記のようにしてユーザ視点の位置姿勢(HMD101の位置姿勢)を求める。ステップS506で求めるユーザ視点の位置姿勢は、右の視点(右目用ビデオカメラ)の位置姿勢、左の視点(左目用ビデオカメラ)の位置姿勢、である。右の視点については上記と同様、予め求めた「右の視点と光学式マーカ103との間の相対的な位置姿勢関係」を用いて、光学式マーカ103の位置姿勢を変換することで求めることができる。同様に、左の視点については上記と同様、予め求めた「左の視点と光学式マーカ103との間の相対的な位置姿勢関係」を用いて、光学式マーカ103の位置姿勢を変換することで求めることができる。 In step S506, the CPU 201 acquires the measurement result of the optical marker 103 by the optical sensor 104 via the communication I / F controller 208, and based on the acquired measurement result, the position and orientation of the user viewpoint as described above. (HMD 101 position and orientation) is obtained. The position and orientation of the user viewpoint obtained in step S506 are the position and orientation of the right viewpoint (right-eye video camera) and the position and orientation of the left viewpoint (left-eye video camera). As with the above, the right viewpoint is obtained by converting the position and orientation of the optical marker 103 using the “relative position and orientation relationship between the right viewpoint and the optical marker 103” obtained in advance. Can do. Similarly, for the left viewpoint, the position and orientation of the optical marker 103 are converted using the “relative position and orientation relationship between the left viewpoint and the optical marker 103” obtained in the same manner as described above. Can be obtained.

ステップS507では、CPU201は、ステップS506で求めた視点の位置姿勢を、HMD101の識別情報(ID)と関連づけて外部メモリ211に格納する。例えば、図7のHMD情報700に示す如く、HMDごとにID、位置、姿勢を対応付けて管理している。 In step S507, the CPU 201 stores the viewpoint position and orientation obtained in step S506 in the external memory 211 in association with the identification information (ID) of the HMD 101. For example, as shown in the HMD information 700 of FIG. 7, IDs, positions, and postures are managed in association with each HMD.

ステップS508では、CPU201は、図7のCGモデル情報720を基に、外部メモリ211に格納されている仮想物体の描画データをRAM203に読み出し、該読み出した描画データに基づいて仮想物体を生成し、該生成した仮想物体を仮想空間中に配置する。そしてCPU201は、ステップS506で求めた視点の位置姿勢に基づいて、該視点から見た仮想物体の画像を生成する。そしてCPU201は、ステップS504で受信した現実空間の画像上に、仮想物体の画像を重畳させることで複合現実空間の画像(MR画像)を生成する。厳密にはCPU201は、右目用カメラによる撮像画像(現実空間の画像)上に、右の視点の位置姿勢に基づいて生成した仮想物体の画像を重畳させることで、右目用の複合現実空間の画像を生成すると共に、左目用カメラによる撮像画像(現実空間の画像)上に、左の視点の位置姿勢に基づいて生成した仮想物体の画像を重畳させることで、左目用の複合現実空間の画像を生成する。 In step S508, the CPU 201 reads out the virtual object drawing data stored in the external memory 211 to the RAM 203 based on the CG model information 720 in FIG. 7, and generates a virtual object based on the read drawing data. The generated virtual object is arranged in the virtual space. Then, the CPU 201 generates an image of the virtual object viewed from the viewpoint based on the position and orientation of the viewpoint obtained in step S506. Then, the CPU 201 generates a mixed reality space image (MR image) by superimposing the virtual object image on the real space image received in step S504. Strictly speaking, the CPU 201 superimposes the image of the virtual object generated based on the position and orientation of the right viewpoint on the image captured by the right-eye camera (image in the real space), so that the image of the mixed reality space for the right eye is superimposed. And the virtual object image generated based on the position and orientation of the left viewpoint is superimposed on the image captured by the left-eye camera (real space image). Generate.

ステップS508は、体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する生成処理の一例を示すものである。 Step S508 shows an example of a generation process for generating a synthesized image obtained by synthesizing the virtual object image displayed in accordance with the position and orientation related to the viewpoint of the user.

ステップS509では、CPU201は、外部ディスプレイ表示有無704の設定に基づいて、外部ディスプレイにステップS508で生成されたMR画像を表示するか否かを判定する。ONの場合には、ステップS510へ処理を移し、OFFの場合には、ステップS514へ処理を移す。 In step S509, the CPU 201 determines whether to display the MR image generated in step S508 on the external display based on the setting of the external display display presence / absence 704. If it is ON, the process proceeds to step S510. If it is OFF, the process proceeds to step S514.

ステップS510では、CPU201は、外部ディスプレイ160への出力の際の補正制御を行う。補正制御処理の詳細については、図6にて詳述する。 In step S <b> 510, the CPU 201 performs correction control when outputting to the external display 160. Details of the correction control processing will be described in detail with reference to FIG.

ステップS511では、CPU201は、ビデオコントローラ206を介して外部ディスプレイ160へMR画像を出力する。このMR画像は、ブレ補正処理がされた画像の場合と、ブレ補正処理がされていない(解除された)画像の場合がある。 In step S511, the CPU 201 outputs the MR image to the external display 160 via the video controller 206. This MR image may be an image that has undergone blur correction processing or an image that has not been subjected to blur correction processing (cancelled).

ステップS511は、合成画像を用いてブレ補正された合成画像を第2表示装置に出力する第2出力処理の一例を示すものである。また、体験者の位置に基づき、ブレ補正に係る条件を満たす場合に、ステップS508で生成された合成画像を第2表示装置に出力する第2出力処理の一例を示すものである。 更に、対象物との距離を満たさない場合に、ブレ補正された合成画像を第2表示装置に出力し、対象物との距離を満たさない場合に、ブレ補正を解除してステップS508で生成された合成画像を第2表示装置に出力するものである。 Step S511 shows an example of a second output process for outputting a composite image that has been shake-corrected using the composite image to the second display device. In addition, an example of the second output process for outputting the composite image generated in step S508 to the second display device when the condition for blur correction is satisfied based on the position of the experience person is shown. Furthermore, when the distance to the object is not satisfied, the shake-corrected composite image is output to the second display device, and when the distance to the object is not satisfied, the blur correction is canceled and generated in step S508. The synthesized image is output to the second display device.

ステップS512では、外部ディスプレイ160が、MR画像をPC100から受信し、ステップS513で、受信したMR画像を表示する。 In step S512, the external display 160 receives the MR image from the PC 100, and displays the received MR image in step S513.

ステップS513において、外部ディスプレイ160で表示した例が、図8と図9である。 The example displayed on the external display 160 in step S513 is FIG. 8 and FIG.

図8は、補正制御解除するCG802を体験者Aが見ているが、設定値706の距離外にいる(条件を満たさない)ためブレ補正処理がされ表示されている状態である。 FIG. 8 shows a state where the user A is looking at the CG 802 to cancel the correction control, but is subjected to the blur correction process and displayed because it is outside the set value 706 distance (does not satisfy the condition).

図9は、補正制御解除するCG902を体験者Aが見ており、設定値706の距離内にい
る(基準を満たす)ためブレ補正処理が解除され表示されている状態である。902の点線のCGは、ブレにより表示されているモデルを示している。なお、903の点線の表示はブレを便宜的に説明するためのものであり、点線表示に限定されるものではない。
FIG. 9 shows a state in which the user A is looking at the CG 902 to cancel the correction control, and the blur correction process is canceled and displayed because the user is within the distance of the set value 706 (satisfies the standard). A dotted line CG 902 indicates a model displayed by blurring. Note that the display of the dotted line 903 is for the purpose of explaining blurring for convenience, and is not limited to the dotted line display.

また、901のように、体験者以外で外部ディスプレイ160を見ているユーザに注意を促すため、「体験者と同じ映像が表示されています。ブレ補正処理がないため気分が悪くなることがあります。ご注意ください。」と表示する。この表示は、補正制御を解除した際に、PC100から出力される情報である。また、901の表示は、図7の設定情報(不図示)にて、任意に設定することができるものとする。 In addition, as in 901, in order to call attention to the user who is viewing the external display 160 other than the experienced person, "The same video as the experienced person is displayed. Please be careful. ”Is displayed. This display is information output from the PC 100 when the correction control is canceled. The display 901 can be arbitrarily set by setting information (not shown) in FIG.

ステップS514では、CPU201は、ステップS508において生成したMR画像(右目用の複合現実空間の画像、左目用の複合現実空間の画像)を、ビデオコントローラ206を介してHMD101に対して出力する。 In step S514, the CPU 201 outputs the MR image (the mixed reality space image for the right eye and the mixed reality space image for the left eye) generated in step S508 to the HMD 101 via the video controller 206.

ステップS514は、ステップS508で生成された合成画像を体験者の利用する第1表示装置に出力する第1出力処理の一例を示すものである。 Step S514 shows an example of a first output process for outputting the composite image generated in step S508 to the first display device used by the experience person.

ステップS515では、右目・左目ディスプレイ222は、ステップS514においてPC100から送信された右目用の複合現実空間の画像及び左目用の複合現実空間の画像を受信する。そしてステップS516では、右目・左目ディスプレイ222は、右目用の複合現実空間の画像を右目用ディスプレイに表示する。 In step S515, the right-eye / left-eye display 222 receives the right-eye mixed reality space image and the left-eye mixed reality space image transmitted from the PC 100 in step S514. In step S516, the right-eye / left-eye display 222 displays the right-eye mixed reality space image on the right-eye display.

次に、ステップS510の補正制御処理について、図6のフローチャートに従って説明する。 Next, the correction control process in step S510 will be described with reference to the flowchart of FIG.

ステップS601では、CPU201は、図7の設定情報に基づき、他の体験者のHMD101、或いは、対象のCGを特定する。なお、他の体験者のHMD101の場合には、他の体験者が撮像された画像に含まれることが望ましい。すなわち、他の体験者を見ている状態で設定値等の条件を満たした場合に、ブレ補正制御の解除がされるものである。 In step S601, the CPU 201 specifies the HMD 101 of another experience person or the target CG based on the setting information of FIG. In the case of the HMD 101 of another experienced person, it is desirable that the other experienced person is included in an image captured. That is, the blur correction control is canceled when a condition such as a set value is satisfied while viewing another experienced person.

ステップS602では、CPU201は、他の体験者のHMD101、或いは、対象のCGとの距離を算出して、取得する。距離の算出は、対象となる体験者のHMD101の位置と他の体験者のHMDの位置、或いは、対象となる体験者のHMD101の位置とCGとの位置により算出することができる。 In step S602, the CPU 201 calculates and acquires a distance from the HMD 101 of another experience person or the target CG. The distance can be calculated from the position of the HMD 101 of the target experiencer and the position of the HMD of another experience, or the position of the HMD 101 of the target experiencer and the position of the CG.

ステップS603では、CPU201は、取得した距離が、設定値706の距離を満たすか否かを判定する。具体的には、設定値706の距離より遠い位置に対象となる体験者のHMD101が存在するか否かを判定する。遠い位置にある場合には、条件を満たさないとして、ステップS607へ処理を移す。近い位置にある場合には、条件を満たすとして、ステップS604へ処理を移す。 すなわち、上述の条件は、ブレ補正に係る条件であり、ブレ補正を解除する条件である。また、体験者の位置と対象物との距離でもある。 In step S <b> 603, the CPU 201 determines whether or not the acquired distance satisfies the distance of the set value 706. Specifically, it is determined whether or not the HMD 101 of the target experiencer exists at a position farther than the distance of the set value 706. If it is in a far position, it is determined that the condition is not satisfied, and the process proceeds to step S607. If it is close, the condition is satisfied and the process proceeds to step S604. That is, the above-described conditions are conditions relating to blur correction, and are conditions for canceling blur correction. It is also the distance between the position of the experience person and the object.

ステップS604では、CPU201は、ブレ補正が解除されたか否かを判定する。すなわち、ブレ補正状態からブレ補正を行わない状態(解除状態)となった場合には、ステップS605へ処理を移す。既に解除状態である場合には、ステップS606へ処理を移す。 In step S604, the CPU 201 determines whether or not the blur correction has been canceled. That is, when the shake correction state is not performed (the release state), the process proceeds to step S605. If already released, the process proceeds to step S606.

ステップS605では、通常の場合にはブレ補正を実行しているため、ブレ補正が解除された場合には、体験者以外のユーザに補正処理が解除されたことを注意喚起するべく、CPU201は、ブレ補正がされていないことの情報を外部ディスプレイ160へ出力(通知)する。注意喚起の例が、図9の901である。 In step S605, since blur correction is performed in a normal case, when the blur correction is canceled, the CPU 201 instructs the user other than the user to cancel that the correction process has been canceled. Information (notification) that the blur correction has not been performed is output to the external display 160. An example of alerting is 901 in FIG.

なお、本実施形態では、ブレ補正が解除された際に注意喚起するように制御したが、ブレ補正が解除されている間は注意喚起の情報を出力する(所定間隔で出力する)ようにしてもよい。 In this embodiment, control is performed so as to call attention when blur correction is canceled. However, warning information is output (output at predetermined intervals) while blur correction is cancelled. Also good.

また、注意喚起の表示がされており、ブレ補正がされるタイミングになった場合には、注意喚起の表示を解除するように制御することは言うまでもない。 Needless to say, when the warning display is displayed and the timing for correcting the blur is reached, control is performed to cancel the warning display.

ステップS605は、体験者の位置に基づきブレ補正に係る条件を満たし、ステップS508で生成された合成画像を第2表示装置に出力する場合に、ブレ補正がされていないこと通知する通知処理の一例を示すものである。 Step S605 is an example of notification processing for notifying that blur correction has not been performed when the conditions relating to blur correction are satisfied based on the position of the experience person and the composite image generated in step S508 is output to the second display device. Is shown.

ステップS606では、CPU201は、ステップS508で生成されたMR画像(補正処理なしのMR画像)を取得する。 In step S606, the CPU 201 acquires the MR image generated in step S508 (an MR image without correction processing).

ステップS607では、ステップS508で生成されたMR画像を用いて、補正モジュール405でブレ補正を実行する。 In step S607, blur correction is performed by the correction module 405 using the MR image generated in step S508.

ステップS608では、CPU201は、ステップS607で補正したMR画像を取得する。 In step S608, the CPU 201 acquires the MR image corrected in step S607.

ステップS606又はステップS607で取得したMR画像を、ステップS511で出力する。 The MR image acquired in step S606 or step S607 is output in step S511.

以上、本実施形態によれば、HMD101の条件により、ブレ補正処理の有無を切り替えて外部ディスプレイに表示を行うため、使い勝手のよい仕組みとなる。特に、長時間ブレのある映像をみることを軽減し、酔いなどを防ぐことができる。 As described above, according to the present embodiment, the presence / absence of the blur correction process is switched according to the conditions of the HMD 101 and the display is performed on the external display. In particular, it is possible to reduce watching blurry video for a long time and prevent sickness.

他の実施形態として、以下のような形態も考えられる。 上記の実施形態では、条件を満たす場合にブレ補正処理を解除するものとしたが、他の実施形態では、条件を満たす(例えばHMD101が設定距離外にあるという条件を満たす)場合にブレ補正処理を実行し、条件を満たさない(例えばHMD101が設定距離内にあるという条件を満たす)場合にブレ補正処理を解除する構成とする。 The following forms are also conceivable as other embodiments. In the above-described embodiment, the blur correction process is canceled when the condition is satisfied. However, in other embodiments, the blur correction process is performed when the condition is satisfied (for example, the condition that the HMD 101 is outside the set distance is satisfied). Is executed, and the blur correction process is canceled when the condition is not satisfied (for example, the condition that the HMD 101 is within the set distance is satisfied).

このように、ブレの補正処理の実行と解除を切替することができればよく、条件を満たす基準(距離内か距離外どちらを基準とするか)については、どちらであってもよい。 In this way, it is only necessary to switch between execution and cancellation of the blur correction process, and any of the criteria that satisfy the condition (whether the reference is within or outside the distance) may be used.

最後に、上記のPC100の機能構成例について、図3のブロック図を用いて説明する。なお、図3の各機能部はハードウェアで実装しても良いし、ソフトウェア(コンピュータプログラム)で実装しても良い。前者の場合、例えばこのようなハードウェアをHMD101に搭載することで、HMD101は、PC100が行うものとして上述した各処理をも実行することができる。後者の場合、このようなコンピュータプログラムを外部メモリ211に保存しておき、CPU201がこのコンピュータプログラムを適宜RAM203に読み出して実行することで、対応する機能部の機能を実現することができる。 なお、PC100は、画像処理装置として言い換えることも可能である。 Finally, a functional configuration example of the PC 100 will be described with reference to the block diagram of FIG. Each functional unit in FIG. 3 may be implemented by hardware or software (computer program). In the former case, for example, by installing such hardware in the HMD 101, the HMD 101 can also execute the processes described above as being performed by the PC 100. In the latter case, such a computer program is stored in the external memory 211, and the CPU 201 reads out this computer program to the RAM 203 and executes it appropriately, thereby realizing the function of the corresponding functional unit. The PC 100 can also be rephrased as an image processing apparatus.

生成部301は、体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する機能部である。撮像された現実画像とCGとを合成した複合現実空間の画像であることが望ましい。 The generation unit 301 is a functional unit that generates a combined image by combining virtual object images displayed in accordance with the position and orientation related to the viewpoint of the user. It is desirable that the image is a mixed reality space obtained by synthesizing the captured real image and CG.

第1出力部302は、生成部301により生成された合成画像を体験者の利用する第1表示装置(例えば、HMD101)に出力する機能部である。 The first output unit 302 is a functional unit that outputs the composite image generated by the generation unit 301 to a first display device (for example, the HMD 101) used by the experience person.

第2出力部303は、合成画像を用いてブレ補正された合成画像を第2表示装置(例えば、外部ディスプレイ160)に出力する機能部である。また、第2出力部303は、体験者の位置姿勢に基づき、ブレ補正に係る条件(具体的には、ブレ補正を解除する条件)を満たす場合に、生成部301により生成された合成画像を第2表示装置に出力する機能部である。 The second output unit 303 is a functional unit that outputs a composite image that has undergone shake correction using the composite image to a second display device (for example, the external display 160). In addition, the second output unit 303 displays the composite image generated by the generation unit 301 when a condition related to shake correction (specifically, a condition for canceling shake correction) is satisfied based on the position and orientation of the experience person. It is a functional unit that outputs to the second display device.

通知部304は、体験者の位置姿勢に基づきブレ補正を解除する条件を満たし、生成部301により生成された合成画像を第2表示装置に出力する場合に、ブレ補正がされていないこと通知する機能部である。通知の例は901である。 The notification unit 304 notifies that the shake correction is not performed when the condition for releasing the shake correction based on the position and orientation of the experience person is satisfied and the composite image generated by the generation unit 301 is output to the second display device. It is a functional part. An example of notification is 901.

ブレ補正を解除する条件とは、体験者の位置姿勢と対象物との距離である。   The condition for canceling the shake correction is a distance between the position and orientation of the experience person and the object.

また、第2出力部303は、対象物との距離を満たさない場合に、ブレ補正された合成画像を第2表示装置に出力し、対象物との距離を満たさない場合に、ブレ補正を解除して生成部301により生成された合成画像を第2表示装置に出力する。   In addition, the second output unit 303 outputs the shake-corrected composite image to the second display device when the distance to the object is not satisfied, and cancels the shake correction when the distance to the object is not satisfied. Then, the composite image generated by the generation unit 301 is output to the second display device.

つまり、本実施形態に係る画像処理装置は、外部ディスプレイへ合成画像を表示する際に、体験者の位置によりブレ補正をしない合成画像を出力することで検証などの形態において利便性を高めることができる。特に検証に不要な動作の場合にはブレ補正がされ、検証に必要(正確な表示が必要)な場合にはブレ補正がされないように制御するため、外部で確認しているユーザの酔いなどの体調不良を軽減しつつ、外部からの検証を容易にすることができる。   In other words, the image processing apparatus according to the present embodiment can improve convenience in a form such as verification by outputting a composite image that is not subjected to shake correction depending on the position of the user when displaying the composite image on an external display. it can. Especially when motion is not necessary for verification, shake correction is performed. When verification is required (accurate display is required), control is performed so that blur correction is not performed. Verification from the outside can be facilitated while reducing poor physical condition.

なお、外部ディスプレイは、体験者以外が利用する表示装置であればいずれの装置であってもよい。 It should be noted that the external display may be any device as long as it is a display device used by someone other than the experience person.

なお、上述の実施形態では、HMD101とPC100とを別個の装置としているが、HMD101とPC100とを一体化させ、HMD101は自機が行うものとして上述した各処理だけでなく、PC100が行うものとして説明した上記の各処理も行うようにしても良い。 In the above-described embodiment, the HMD 101 and the PC 100 are separate devices. However, the HMD 101 and the PC 100 are integrated, and the HMD 101 performs not only the above-described processes performed by the own device but also the PC 100. The above-described processes described above may also be performed.

また上述の実施形態では、HMD101はビデオシースルー方式の頭部装着型表示装置であるものとして説明した。しかし、HMD101として光学シースルー方式の頭部装着型表示装置を使用しても良い。 In the above-described embodiment, the HMD 101 is described as a video see-through head-mounted display device. However, an optical see-through head-mounted display device may be used as the HMD 101.

また、ユーザの頭部に装着されているHMD101に加えて若しくは代えて他の表示装置、例えばタブレット端末装置やスマートフォン等の携帯端末装置に対してユーザ視点に基づく複合現実空間の画像を出力するようにしても良い。この場合、携帯端末装置は、該携帯端末装置に備わっているセンサやアプリケーションを使用することで該携帯端末装置の位置姿勢をユーザ視点として取得することができる。ユーザ視点に基づく複合現実空間の画像はPC100が生成しても良いし、携帯端末装置側で生成しても良い。 In addition to or instead of the HMD 101 mounted on the user's head, an image of the mixed reality space based on the user viewpoint is output to another display device, for example, a mobile terminal device such as a tablet terminal device or a smartphone. Anyway. In this case, the mobile terminal device can acquire the position and orientation of the mobile terminal device as a user viewpoint by using a sensor or application provided in the mobile terminal device. The image of the mixed reality space based on the user viewpoint may be generated by the PC 100 or may be generated on the mobile terminal device side.

また、上述の実施形態では、現実空間と仮想空間とを合成した複合現実空間をユーザに提示する複合現実感提示システム(MRシステム)を例にとり説明したが、仮想空間のみをユーザに提示する、所謂VRシステムに適用しても構わない。その場合、現実空間の撮像や現実空間の画像との合成に係る処理は不要となる。 In the above-described embodiment, the mixed reality presentation system (MR system) that presents the user with the mixed reality space obtained by synthesizing the real space and the virtual space has been described as an example. However, only the virtual space is presented to the user. You may apply to what is called a VR system. In that case, processing related to imaging of the real space and synthesis with the image of the real space is not necessary.

また、上述の実施形態では説明を簡単にするために、1台のPC100に1台のHMD101が接続されているものとしたが、1台のPC100に2台以上のHMD101を接続するようにしても良い。 Further, in the above-described embodiment, in order to simplify the description, one HMD 101 is connected to one PC 100. However, two or more HMDs 101 are connected to one PC 100. Also good.

以上、本発明の実施形態について示したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 Although the embodiment of the present invention has been described above, the present invention can take an embodiment as a system, apparatus, method, program, recording medium, or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.

また、本発明におけるプログラムは、フローチャートの処理方法をコンピュータが実行可能なプログラムであり、本発明の記憶媒体は処理方法をコンピュータが実行可能なプログラムが記憶されている。 The program according to the present invention is a program that allows a computer to execute the processing method of the flowchart, and the storage medium according to the present invention stores a program that allows the computer to execute the processing method.

以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読み出し実行することによっても、本発明の目的が達成されることは言うまでもない。 As described above, a recording medium that records a program that implements the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus stores the program stored in the recording medium. It goes without saying that the object of the present invention can also be achieved by executing reading.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。 In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium storing the program constitutes the present invention.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク、ソリッドステートドライブ等を用いることができる。 As a recording medium for supplying the program, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD-ROM, magnetic tape, nonvolatile memory card, ROM, EEPROM, silicon A disk, solid state drive, or the like can be used.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on an instruction of the program is actually It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the processing and the processing is included.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, after the program read from the recording medium is written to the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board is based on the instructions of the program code. It goes without saying that the case where the CPU or the like provided in the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 Further, the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Needless to say, the present invention can be applied to a case where the present invention is achieved by supplying a program to a system or apparatus. In this case, by reading a recording medium storing a program for achieving the present invention into the system or apparatus, the system or apparatus can enjoy the effects of the present invention.

さらに、本発明を達成するためのプログラムを通信線上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 Furthermore, by downloading and reading a program for achieving the present invention from a server, database, etc. on a communication line using a communication program, the system or apparatus can enjoy the effects of the present invention.

なお、以上説明した各実施形態の一部若しくは全部を適宜組み合わせて使用しても構わないし、以上説明した各実施形態の一部若しくは全部を選択的に使用しても構わない。 In addition, a part or all of each embodiment described above may be used in combination as appropriate, or a part or all of each embodiment described above may be selectively used.

100 PC 101 HMD 103 光学式マーカ 102 二次元マーカ 104 光学式センサ 130 CGモデル 160 外部ディスプレイ   100 PC 101 HMD 103 Optical marker 102 Two-dimensional marker 104 Optical sensor 130 CG model 160 External display

Claims (6)

体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する生成手段と、 前記生成手段により生成された合成画像を体験者の利用する第1表示装置に出力する第1出力手段と、 前記合成画像を用いてブレ補正された合成画像を第2表示装置に出力する第2出力手段とを備え、 前記第2出力手段は、体験者の位置に基づき、ブレ補正に係る条件を満たす場合に、前記生成手段により生成された合成画像を第2表示装置に出力することを特徴とする画像処理装置。 A generating unit configured to generate a combined image obtained by combining virtual object images displayed in accordance with a position and orientation related to the viewpoint of the user; and a first display device used by the user using the combined image generated by the generating unit. A first output means for outputting, and a second output means for outputting a composite image that has been shake-corrected using the composite image to a second display device, wherein the second output means is based on the position of the experience person, An image processing apparatus that outputs a composite image generated by the generation unit to a second display device when a condition relating to blur correction is satisfied. 前記体験者の位置に基づきブレ補正に係る条件を満たし、前記生成手段により生成された合成画像を第2表示装置に出力する場合に、ブレ補正がされていないこと通知する通知手段
を更に備えることを特徴とする請求項1に記載の画像処理装置。
And a notification means for notifying that the shake correction is not performed when the condition relating to the shake correction is satisfied based on the position of the experience person and the composite image generated by the generation means is output to the second display device. The image processing apparatus according to claim 1.
ブレ補正に係る条件とは、ブレ補正を解除する条件であって、体験者の位置と対象物との距離であることを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the condition relating to the shake correction is a condition for canceling the shake correction, and is a distance between the position of the experience person and the object. 前記第2出力手段は、対象物との距離を満たさない場合に、ブレ補正された合成画像を第2表示装置に出力し、対象物との距離を満たさない場合に、ブレ補正を解除して前記生成手段により生成された合成画像を第2表示装置に出力することを特徴とする請求項3に記載の画像処理装置。   The second output means outputs the blur-corrected composite image to the second display device when the distance to the object is not satisfied, and cancels the blur correction when the distance to the object is not satisfied. The image processing apparatus according to claim 3, wherein the composite image generated by the generation unit is output to the second display device. 体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する生成ステップと、 前記生成ステップにより生成された合成画像を体験者の利用する第1表示装置に出力する第1出力ステップと、 前記合成画像を用いてブレ補正された合成画像を第2表示装置に出力する第2出力ステップとを実行し、 前記第2出力ステップは、体験者の位置に基づき、ブレ補正に係る条件を満たす場合に、前記生成ステップにより生成された合成画像を第2表示装置に出力することを特徴とする画像処理装置の処理方法。 A generation step of generating a composite image obtained by combining virtual object images displayed in accordance with the position and orientation related to the viewpoint of the experience person, and the first display device used by the experience person using the composite image generated by the generation step. A first output step of outputting, and a second output step of outputting a composite image that has been shake-corrected using the composite image to a second display device, wherein the second output step is based on the position of the experience person A processing method of an image processing apparatus, wherein the composite image generated by the generation step is output to a second display device when a condition relating to blur correction is satisfied. 画像処理装置を 体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する生成手段と、 前記生成手段により生成された合成画像を体験者の利用する第1表示装置に出力する第1出力手段と、 前記合成画像を用いてブレ補正された合成画像を第2表示装置に出力する第2出力手段として機能させ、 前記第2出力手段を、体験者の位置に基づき、ブレ補正に係る条件を満たす場合に、前記生成手段により生成された合成画像を第2表示装置に出力させるためのプログラム。 Generating means for generating a composite image obtained by synthesizing an image of a virtual object displayed in accordance with a position and orientation related to the viewpoint of the experience person of the image processing device; and a first use of the composite image generated by the generation means for the experience person A first output means for outputting to one display device; and a second output means for outputting a composite image that has been shake-corrected using the composite image to a second display device. A program for causing a second display device to output a composite image generated by the generation unit when a condition relating to blur correction is satisfied based on a position.
JP2017148499A 2017-07-31 2017-07-31 Image processing device, its processing method, and program Active JP7148779B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017148499A JP7148779B2 (en) 2017-07-31 2017-07-31 Image processing device, its processing method, and program
JP2022068056A JP7319575B2 (en) 2017-07-31 2022-04-18 Image processing device, its processing method, and program
JP2023117247A JP2023145551A (en) 2017-07-31 2023-07-19 Image processing device, processing method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017148499A JP7148779B2 (en) 2017-07-31 2017-07-31 Image processing device, its processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022068056A Division JP7319575B2 (en) 2017-07-31 2022-04-18 Image processing device, its processing method, and program

Publications (3)

Publication Number Publication Date
JP2019029868A true JP2019029868A (en) 2019-02-21
JP2019029868A5 JP2019029868A5 (en) 2020-09-03
JP7148779B2 JP7148779B2 (en) 2022-10-06

Family

ID=65478795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017148499A Active JP7148779B2 (en) 2017-07-31 2017-07-31 Image processing device, its processing method, and program

Country Status (1)

Country Link
JP (1) JP7148779B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299326A (en) * 2006-05-02 2007-11-15 Canon Inc Information processor, its control method, image processor, program and storage medium
JP6154531B1 (en) * 2016-09-30 2017-06-28 株式会社ドワンゴ Display device, display method, and display program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299326A (en) * 2006-05-02 2007-11-15 Canon Inc Information processor, its control method, image processor, program and storage medium
JP6154531B1 (en) * 2016-09-30 2017-06-28 株式会社ドワンゴ Display device, display method, and display program

Also Published As

Publication number Publication date
JP7148779B2 (en) 2022-10-06

Similar Documents

Publication Publication Date Title
KR102502404B1 (en) Information processing device and method, and program
JP4227561B2 (en) Image processing method and image processing apparatus
US20200312033A1 (en) Image generation device, image generation system, image generation method, and program
JP7372061B2 (en) Remote work support system
JP7182920B2 (en) Image processing device, image processing method and program
JP2009123018A (en) Image processor and image processing method
JP2015176559A (en) information processing method, information processing apparatus, and program
JP2006318095A (en) Image processing method and image processor
US11003408B2 (en) Image generating apparatus and image generating method
JP2016105279A (en) Device and method for processing visual data, and related computer program product
JP2017134771A (en) Information processing device, information processing method, and program
US10901213B2 (en) Image display apparatus and image display method
JP2006126936A (en) Image processing method and image processing device
JP2006285789A (en) Image processing method and image processor
JP6641122B2 (en) Display device, information processing device, and control method therefor
JP2005339377A (en) Image processing method and image processor
JP2018063567A (en) Image processing device, image processing method and program
JP2015201734A (en) Image processing system, control method of the same, and program
JP7319575B2 (en) Image processing device, its processing method, and program
JP7279113B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM
JP6858007B2 (en) Image processing system, image processing method
JP7148779B2 (en) Image processing device, its processing method, and program
JP2004233201A (en) Position attitude measuring method
JP4217661B2 (en) Image processing method and image processing apparatus
JP2021131490A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220905

R151 Written notification of patent or utility model registration

Ref document number: 7148779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151