JP7148779B2 - Image processing device, its processing method, and program - Google Patents

Image processing device, its processing method, and program Download PDF

Info

Publication number
JP7148779B2
JP7148779B2 JP2017148499A JP2017148499A JP7148779B2 JP 7148779 B2 JP7148779 B2 JP 7148779B2 JP 2017148499 A JP2017148499 A JP 2017148499A JP 2017148499 A JP2017148499 A JP 2017148499A JP 7148779 B2 JP7148779 B2 JP 7148779B2
Authority
JP
Japan
Prior art keywords
image
specific
display means
blur correction
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017148499A
Other languages
Japanese (ja)
Other versions
JP2019029868A (en
JP2019029868A5 (en
Inventor
雅之 兜
浩一 入口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2017148499A priority Critical patent/JP7148779B2/en
Publication of JP2019029868A publication Critical patent/JP2019029868A/en
Publication of JP2019029868A5 publication Critical patent/JP2019029868A5/ja
Priority to JP2022068056A priority patent/JP7319575B2/en
Application granted granted Critical
Publication of JP7148779B2 publication Critical patent/JP7148779B2/en
Priority to JP2023117247A priority patent/JP2023145551A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、合成画像のブレ補正に係る技術に関するものである。 The present invention relates to a technique for blur correction of a composite image.

近年、複合現実(Mixed Reality/以下、MRと記載)の技術が普及している。複合現実の技術を用いることで、ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに対し、現実画像にCGモデルを配置した複合現実画像を提供し、現実と仮想を複合した複合現実の世界(複合現実空間)を体験させることができる。複合現実画像を生成するにあたり、HMDの位置とCGモデルの位置とを、センサや二次元マーカを用いて特定する手法が取られている。 In recent years, the technology of mixed reality (hereinafter referred to as MR) has become widespread. By using mixed reality technology, users wearing a head-mounted display (HMD) are provided with a mixed reality image in which a CG model is arranged in a real image, and a mixed reality world that combines reality and virtuality ( (Mixed reality space) can be experienced. In generating a mixed reality image, a method of specifying the position of the HMD and the position of the CG model using sensors and two-dimensional markers is adopted.

特許文献2には、客観カメラにより撮影された体験者を含む画像と、体験者が体験している際に映し出されるCG画像と、を合成して、ディスプレイに表示する技術が開示されている。 Patent Literature 2 discloses a technique for synthesizing an image including the experiencer captured by an objective camera with a CG image projected while the experiencer is experiencing the experience, and displaying the result on a display.

このように、単に体験者に画像を表示するばかりでなく、体験者が見ている画像や、体験者の体験状態を映し出すことが一般的に行われている。 In this way, it is common practice not only to simply display an image to the experiencer, but also to display the image the experiencer is looking at and the experience state of the experiencer.

特開2003-308514号公報JP-A-2003-308514 特開2015-170232号公報JP 2015-170232 A

上述したように、MRでは、体験者の見ている映像を外部ディスプレイに表示(体験者のHMDに表示されている映像と同じ映像を表示)して、体験していない人が外部から確認することがある。 As described above, in MR, the image that the user sees is displayed on the external display (the same image as that displayed on the HMD of the user is displayed), and the person who has not experienced it can check it from the outside. Sometimes.

この場合、体験者は移動しているため、HMDで撮影した現実画像(動画)はブレが大きくなる(多くのブレが発生する)。体験者は自分の動きに合わせてHMDに現実画像を用いて生成されたMR画像が表示されるため、ブレとなるような表示があっても違和感がないものの、体験していない人は自分の動きとは関係ない映像(ブレのある映像)を外部ディスプレイで見ているため気分がわるくなる(酔いやすい)ということが発生する。 In this case, since the user is moving, the real image (moving image) captured by the HMD is greatly blurred (many blurring occurs). Since the MR image generated using the real image is displayed on the HMD according to the user's movement, even if the display is blurred, there is no sense of discomfort. People often get sick (easily get motion sickness) because they are watching images that have nothing to do with movement (blurry images) on an external display.

特に、外部ディスプレイは大型のディスプレイを用いていることが多く、よりブレが大きく感じることがあり、HMDに表示している映像は体験していない人には適さないという問題があった。 In particular, the external display often uses a large display, and there is a problem that the image displayed on the HMD is not suitable for people who have not experienced the image displayed on the HMD.

一方、体験していない人であっても、体験者の実際の作業状態を見る必要が場合(検証作業などの場合)、体験者のHMDで表示している映像をそのまま見る必要があるため一律にブレを制御することにも問題がある。 On the other hand, even for those who have not experienced the experience, if it is necessary to see the actual work state of the experiencer (in the case of verification work, etc.), it is necessary to see the image displayed on the HMD of the experiencer as it is, so it is uniform There is also a problem in controlling blurring.

そこで、本発明は、画像のブレ補正を制御し、ユーザの酔いなどを低減した使い勝手のよい仕組みを提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a user-friendly mechanism that controls blur correction of an image to reduce motion sickness of the user .

上記目的を達成するため、本発明の画像処理装置は、
特定の画像に対して、像のズレを補正する特定のブレ補正を施さずに、第1の表示手段に出力するように制御し、
前記特定の画像に対して、前記特定のブレ補正を施して第2の表示手段に出力するように制御する制御手段
を備えることを特徴とする。
In order to achieve the above object, the image processing apparatus of the present invention includes:
controlling a specific image to be output to the first display means without performing specific blur correction for correcting image shift;
Control means for controlling the specific image to be subjected to the specific blur correction and output to the second display means
characterized by comprising

本発明により、画像のブレ補正を制御し、ユーザの酔いなどを低減した使い勝手のよい仕組みを提供することができる。 According to the present invention, it is possible to provide an easy-to-use mechanism that controls blur correction of an image and reduces sickness of the user .

システムの概要を示す図。The figure which shows the outline|summary of a system. HMD101及びPC100のそれぞれのハードウェア構成例を示すブロック図。FIG. 2 is a block diagram showing a hardware configuration example of each of the HMD 101 and PC 100; PC100の機能構成例を示すブロック図。FIG. 2 is a block diagram showing a functional configuration example of a PC 100; FIG. PC100のモジュール構成例を示すブロック図。FIG. 2 is a block diagram showing a module configuration example of the PC 100; HMD101、PC100、外部ディスプレイ160が行う処理のフローチャート。4 is a flowchart of processing performed by the HMD 101, PC 100, and external display 160; ステップS510における処理のフローチャート。4 is a flowchart of processing in step S510. 外部メモリ211に保持される情報の構成例を示す図。4 is a diagram showing a configuration example of information held in an external memory 211; FIG. 外部ディスプレイ160のブレ補正時の表示例を示す図。FIG. 10 is a diagram showing a display example of the external display 160 during blur correction; 外部ディスプレイ160のブレ補正解除時の表示例を示す図。FIG. 10 is a diagram showing a display example of the external display 160 when blur correction is canceled;

以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that the embodiment described below is an example of a specific implementation of the present invention, and is one of specific examples of the configuration described in the claims.

本実施形態に係るシステムは、現実空間と仮想空間との合成空間である複合現実空間を、HMD等の頭部装着型表示装置や、頭部装着型表示装置は別個に設けられた表示装置に対して提示する複合現実感提示システムである。先ず、本実施形態に係るシステムの概要について、図1を用いて説明する。 The system according to the present embodiment displays a mixed reality space, which is a composite space of a real space and a virtual space, on a head-mounted display device such as an HMD, or on a display device provided separately from the head-mounted display device. It is a mixed reality presentation system that presents to. First, the outline of the system according to this embodiment will be described with reference to FIG.

ユーザの頭部にはHMD101が装着されており、HMD101の表示画面には、画像処理装置としてのPC100から出力される複合現実空間の画像が表示される。ユーザはHMD101の表示画面に表示される複合現実空間の画像を観察することで複合現実空間を体験する。 An HMD 101 is worn on the user's head, and the display screen of the HMD 101 displays an image of a mixed reality space output from the PC 100 as an image processing device. The user experiences the mixed reality space by observing the image of the mixed reality space displayed on the display screen of the HMD 101 .

また、本実施形態において、体験しているユーザは複数人(体験者A、体験者B)いるものとして説明する。 Moreover, in this embodiment, it is assumed that there are a plurality of users (experiencer A, experiencer B) who are experiencing.

HMD101には、光学式センサ104で検知可能(計測可能)な光学式マーカ103が取り付けられており、光学式センサ104による光学式マーカ103の計測結果はPC100に送出される。図1では図示を簡略化するために、光学式センサ104の数を1としているが、実際には複数の光学式センサ104を配置する。PC100は光学式センサ104による光学式マーカ103の計測結果に基づいて光学式マーカ103の位置姿勢を求める。光学式センサ104による光学式マーカ103の計測結果に基づいて該光学式マーカ103の位置姿勢を求めるための技術については周知であるため、該技術に係る詳細な説明は省略する。そしてPC100は、例えばHMD101に備わっているカメラをユーザの視点(ユーザ視点)とする場合には、予め求めた「ユーザ視点と光学式マーカ103との間の相対的な位置姿勢関係」を用いて、光学式マーカ103の位置姿勢をユーザ視点の位置姿勢に変換する。 An optical marker 103 detectable (measurable) by an optical sensor 104 is attached to the HMD 101 , and the measurement result of the optical marker 103 by the optical sensor 104 is sent to the PC 100 . Although the number of optical sensors 104 is one in FIG. 1 for the sake of simplification, a plurality of optical sensors 104 are actually arranged. The PC 100 obtains the position and orientation of the optical marker 103 based on the measurement result of the optical marker 103 by the optical sensor 104 . Since the technique for obtaining the position and orientation of the optical marker 103 based on the measurement result of the optical marker 103 by the optical sensor 104 is well known, detailed description of the technique will be omitted. For example, when the camera provided in the HMD 101 is used as the user's viewpoint (user's viewpoint), the PC 100 uses the "relative position and orientation relationship between the user's viewpoint and the optical marker 103" obtained in advance. , transforms the position and orientation of the optical marker 103 into the position and orientation of the user's viewpoint.

なお、ユーザ視点の位置姿勢を取得する方法は特定の方法に限らない。例えば、ユーザ視点の位置姿勢を得るために用いる位置姿勢計測用センサは光学式センサ104に限らず、磁気センサ、超音波センサなど他の種類の位置姿勢計測用センサを用いてユーザ視点の位置姿勢を取得するようにしても良い。また、現実空間中に配されている二次元マーカ102をHMD101に備わっているカメラにより撮像し、該撮像により得られる撮像画像を用いてユーザ視点の位置姿勢を求めても良い。また、位置姿勢計測用センサと2次元マーカとを併用してユーザ視点の位置姿勢を取得するようにしても良い。 Note that the method of acquiring the position and orientation of the user's viewpoint is not limited to a specific method. For example, the position and orientation measurement sensor used to obtain the position and orientation of the user's viewpoint is not limited to the optical sensor 104, and other types of position and orientation measurement sensors such as a magnetic sensor and an ultrasonic sensor may be used to obtain the position and orientation of the user's viewpoint. can be obtained. Alternatively, the two-dimensional marker 102 placed in the physical space may be imaged by a camera provided in the HMD 101, and the position and orientation of the user's viewpoint may be obtained using the captured image obtained by the imaging. Also, a position and orientation measurement sensor and a two-dimensional marker may be used together to acquire the position and orientation of the user's viewpoint.

そしてPC100は、CGモデル130等の仮想物体を生成して仮想空間中に配置し、ユーザ視点から見た仮想物体の画像を生成する。そしてPC100は、この生成した仮想物体の画像と、HMD101が有するカメラにより撮像された現実空間の画像と、を合成した合成画像を複合現実空間の画像として生成し、該生成した複合現実空間の画像をHMD101に対して送出する。これによりユーザは、自身の視点の位置姿勢に応じた複合現実空間の画像を眼前に観察することができる。 Then, the PC 100 generates a virtual object such as the CG model 130 and arranges it in the virtual space to generate an image of the virtual object seen from the user's viewpoint. Then, the PC 100 generates a composite image obtained by synthesizing the generated image of the virtual object and the image of the real space captured by the camera of the HMD 101 as an image of the mixed reality space, and generates the generated image of the mixed reality space. is transmitted to the HMD 101 . This allows the user to observe an image of the mixed reality space according to the position and orientation of his/her own viewpoint.

また、現実空間には、ユーザが複合現実空間を体験している際の映像を表示する外部ディスプレイ160が配されている。この外部ディスプレイ160は、体験していないユーザにより体験者の映像を確認するために用いられる。 Also, in the real space, an external display 160 is arranged to display an image when the user is experiencing the mixed reality space. This external display 160 is used by a non-experienced user to check the video of the experiencer.

本実施形態では、外部ディスプレイ160が、HMD101それぞれのPC100に接続されているものとする。そして、それぞれのHMD101で表示している映像がそれぞれの外部ディスプレイ160に表示されている。体験者AのHMD101の映像は、体験者A用の外部ディスプレイ160に表示されている。また、体験者BのHMD101の映像は、体験者B用の外部ディスプレイ160に表示されている。 In this embodiment, the external display 160 shall be connected to each PC100 of HMD101. Images displayed by each HMD 101 are displayed on each external display 160 . The image of the HMD 101 of the experiencer A is displayed on the external display 160 for the experiencer A. FIG. Also, the image of the HMD 101 of the experiencer B is displayed on the external display 160 for the experiencer B. FIG.

なお、この外部ディスプレイ160への表示制御が本実施形態における特徴の一例である。 Note that display control on the external display 160 is an example of the feature of this embodiment.

次に、HMD101及びPC100のそれぞれのハードウェア構成例について、図2のブロック図を用いて説明する。なお、図2に示した構成は、HMD101、PC100に適用可能なハードウェア構成の一例であり、図2の構成に限るものではない。 Next, hardware configuration examples of the HMD 101 and the PC 100 will be described with reference to the block diagram of FIG. Note that the configuration shown in FIG. 2 is an example of a hardware configuration applicable to the HMD 101 and the PC 100, and is not limited to the configuration shown in FIG.

先ず、HMD101について説明する。右目・左目ビデオカメラ221は、ユーザの右目に提供する現実空間の画像を撮像するための右目用ビデオカメラと、ユーザの左目に提供する現実空間の画像を撮像するための左目用ビデオカメラと、を有し、それぞれのビデオカメラによる撮像画像(現実空間の画像)はPC100に送出される。 First, the HMD 101 will be explained. The right-eye/left-eye video camera 221 includes a right-eye video camera for capturing an image of the real space provided to the right eye of the user, a left-eye video camera for capturing the image of the real space provided to the left eye of the user, , and images captured by the respective video cameras (images of the real space) are sent to the PC 100 .

右目・左目ディスプレイ222は、ユーザの右目に映像(画像及び文字を含む)を提供するための右目用ディスプレイと、ユーザの左目に映像(画像及び文字を含む)を提供するための左目用ディスプレイと、を有する。PC100から送出された右目用の映像は右目用ディスプレイに表示され、左目用の映像は左目用ディスプレイに表示される。 Right-eye/left-eye display 222 includes a right-eye display for providing images (including images and text) to the user's right eye and a left-eye display for providing images (including images and text) to the user's left eye. , has The right-eye image transmitted from the PC 100 is displayed on the right-eye display, and the left-eye image is displayed on the left-eye display.

次に、PC100について説明する。汎用バス212は、右目・左目ビデオカメラ221から送出される現実空間の画像を受信するためのインターフェースとして機能するものであり、例えば、外部入力端子(例えば、IEEE1394端子)によって構成される。 Next, the PC 100 will be explained. The general-purpose bus 212 functions as an interface for receiving real space images sent from the right-eye/left-eye video camera 221, and is configured by, for example, an external input terminal (eg, IEEE1394 terminal).

CPU201はROM202やRAM203に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU201は、PC100全体の動作制御を行うと共に、PC100が行うものとして後述する各処理を実行若しくは制御する。 The CPU 201 executes various processes using computer programs and data stored in the ROM 202 and RAM 203 . As a result, the CPU 201 controls the operation of the entire PC 100 and executes or controls each process described later as what the PC 100 performs.

ROM202には、書換不要のコンピュータプログラムやデータ、例えば、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)が格納されている。 The ROM 202 stores computer programs and data that do not need to be rewritten, such as BIOS (Basic Input/Output System), which is a control program for the CPU 201 .

RAM203は、ROM202や外部メモリ211からロードされたコンピュータプログラムやデータを格納するためのエリアを有する。またRAM203は、汎用バス212を介して右目・左目ビデオカメラ221から受信した現実空間の画像を格納するためのエリアを有する。またRAM203は、通信I/Fコントローラ208を介して光学式センサ104から受信した計測結果を格納するためのエリアを有する。またRAM203は、通信I/Fコントローラ208を介して客観カメラ106から受信した現実空間の画像を格納するためのエリアを有する。またRAM203は、CPU201が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM203は、各種のエリアを適宜提供することができる。 RAM 203 has an area for storing computer programs and data loaded from ROM 202 and external memory 211 . The RAM 203 also has an area for storing real space images received from the right-eye/left-eye video camera 221 via the general-purpose bus 212 . The RAM 203 also has an area for storing measurement results received from the optical sensor 104 via the communication I/F controller 208 . The RAM 203 also has an area for storing the real space image received from the objective camera 106 via the communication I/F controller 208 . The RAM 203 also has a work area used when the CPU 201 executes various processes. Thus, the RAM 203 can appropriately provide various areas.

ビデオコントローラ206は、右目・左目ディスプレイ222、ディスプレイ210、外部ディスプレイ160の表示制御を行うためのものである。右目・左目ディスプレイ222に対しては、例えば外部出力端子(例えば、Digital Visual Interface)を用いて映像信号(画像や文字の表示用信号)の出力を行う。ディスプレイ210は、CRTや液晶画面などにより構成されており、CPU201による処理結果を画像や文字などでもって表示することができる。ディスプレイ210を用いて、システムの各種設定などの情報の入力・表示を行うことができる。 The video controller 206 is for performing display control of the right-eye/left-eye display 222 , the display 210 and the external display 160 . For the right-eye/left-eye display 222, for example, an external output terminal (for example, Digital Visual Interface) is used to output a video signal (image or character display signal). A display 210 is composed of a CRT, a liquid crystal screen, or the like, and can display the results of processing by the CPU 201 in the form of images, characters, or the like. The display 210 can be used to input and display information such as various system settings.

入力コントローラ205は、入力デバイス209の動作制御を行うためのものである。入力デバイス209は、マウスやキーボードなどのユーザインターフェースとして機能するものであり、ユーザが操作することで各種の指示をCPU201に対して入力することができる。例えば、入力デバイス209がタッチパネルの場合、ユーザがタッチパネルに表示されたアイコンやカーソルやボタンを押下(指等でタッチ)することにより、各種の指示の入力を行うことができる。なお、タッチパネルは、マルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。 The input controller 205 is for controlling the operation of the input device 209 . The input device 209 functions as a user interface such as a mouse and a keyboard, and can be operated by the user to input various instructions to the CPU 201 . For example, if the input device 209 is a touch panel, the user can input various instructions by pressing (touching with a finger or the like) an icon, cursor, or button displayed on the touch panel. The touch panel may be a touch panel, such as a multi-touch screen, capable of detecting positions touched by multiple fingers.

メモリコントローラ207は、外部メモリ211への情報の読み書きを制御するためのものである。外部メモリ211は、ハードディスクドライブ装置、フレキシブルディスク、PCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等のメモリ装置である。外部メモリ211には、OS(オペレーティングシステム)や、PC100が行うものとして後述する各処理をCPU201に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。 The memory controller 207 is for controlling reading and writing of information to the external memory 211 . The external memory 211 is a memory device such as a hard disk drive, a flexible disk, or a card-type memory connected to a PCMCIA card slot via an adapter. The external memory 211 stores an OS (operating system), and computer programs and data for causing the CPU 201 to execute or control each process described later as what the PC 100 performs.

外部メモリ211に保存されているコンピュータプログラムには、以下に説明する各フローチャートに従った処理をCPU201に実行させるためのコンピュータプログラムが含まれている。また、外部メモリ211に保存されているデータには、本実施形態を含む以下の各実施形態において既知の情報として取り扱う情報や、CGモデル130を含む様々な仮想物体の描画に要するデータ(描画データ)が含まれている。外部メモリ211に保存されているコンピュータプログラムやデータは、CPU201による制御に従って適宜RAM203にロードされ、CPU201による処理対象となる。なお、外部メモリ211は、USBメモリ、SDカードなどのメモリ装置であっても良い。 The computer programs stored in the external memory 211 include computer programs for causing the CPU 201 to execute processing according to each flowchart described below. The data stored in the external memory 211 includes information handled as known information in each of the following embodiments including this embodiment, and data required for drawing various virtual objects including the CG model 130 (drawing data). )It is included. Computer programs and data stored in the external memory 211 are appropriately loaded into the RAM 203 under the control of the CPU 201 and are processed by the CPU 201 . Note that the external memory 211 may be a memory device such as a USB memory or an SD card.

通信I/Fコントローラ208は、光学式センサ104から計測結果や現実空間の画像を受信するためのインターフェースとして機能するものである。また通信I/Fコントローラ208は、LANやインターネットなどのネットワークを介して外部の機器との間のデータ通信を行うためのインターフェースとして機能するものである。例えば、通信I/Fコントローラ208は、TCP/IPを用いたインターネット通信等が可能である。また通信I/Fコントローラ208は、ギガビットイーサネット(登録商標)等を通じて光学式センサ104との通信も制御する。なお、図1では、光学式センサ104、及び外部ディスプレイ160と、PC100と、の間のデータ通信は有線であるが、無線であっても良い。例えば、PC100は、LANケーブルやUSBケーブル、無線通信など様々な通信形態によって光学式センサ104、外部ディスプレイ160との間のデータ通信を行うことができる。 The communication I/F controller 208 functions as an interface for receiving measurement results and real space images from the optical sensor 104 . Also, the communication I/F controller 208 functions as an interface for performing data communication with external devices via a network such as a LAN or the Internet. For example, the communication I/F controller 208 is capable of Internet communication using TCP/IP. The communication I/F controller 208 also controls communication with the optical sensor 104 through Gigabit Ethernet (registered trademark) or the like. Note that data communication between the optical sensor 104 and the external display 160 and the PC 100 is wired in FIG. 1, but may be wireless. For example, the PC 100 can perform data communication with the optical sensor 104 and the external display 160 using various communication modes such as LAN cable, USB cable, and wireless communication.

上記の汎用バス212、CPU201、ROM202、RAM203、ビデオコントローラ206、入力コントローラ205、メモリコントローラ207、通信I/Fコントローラ208は何れも、システムバス204に接続されている。 All of the general-purpose bus 212 , CPU 201 , ROM 202 , RAM 203 , video controller 206 , input controller 205 , memory controller 207 and communication I/F controller 208 are connected to system bus 204 .

なお、本実施形態では、HMD101とPC100とを別個の機器とするが、HMD101とPC100とを一体化させても良い。また、PC100をサーバ装置として取り扱っても良い。 Although the HMD 101 and the PC 100 are separate devices in this embodiment, the HMD 101 and the PC 100 may be integrated. Also, the PC 100 may be treated as a server device.

次に、PC100のモジュール構成例について、図4のブロック図を用いて説明する。オペレーティングシステム401は、HMD101との間の入出力を制御し、右目・左目ビデオカメラ221から汎用バス212を介して得られた現実空間の画像を複合現実感プラットフォーム403へと受け渡す。またオペレーティングシステム401は、グラフィックエンジン402で描画された複合現実空間の画像を、ビデオコントローラ206を介して、右目・
左目ディスプレイ222へ出力する。
Next, a module configuration example of the PC 100 will be described with reference to the block diagram of FIG. The operating system 401 controls input/output with the HMD 101 , and transfers the real space image obtained from the right-eye/left-eye video camera 221 via the general-purpose bus 212 to the mixed reality platform 403 . The operating system 401 also transmits the image of the mixed reality space drawn by the graphic engine 402 to the right eye/eye through the video controller 206 .
Output to left eye display 222 .

グラフィックエンジン402は、外部メモリ211に記憶されている仮想物体の描画データを用いて仮想物体の画像を生成し、該生成した仮想物体の画像を右目・左目ビデオカメラ221による撮像画像上に重畳することで複合現実空間の画像を生成する。仮想物体の画像の生成(描画)に利用するエンジンは、例えば、OpenGLやDirectXなどの広く利用されているグラフィックエンジンでも、独自に開発したグラフィックエンジンでもよい。なお、本実施形態ではグラフィックライブラリとしてOpenGLを利用するものとする。 The graphic engine 402 generates an image of the virtual object using drawing data of the virtual object stored in the external memory 211, and superimposes the generated image of the virtual object on the image captured by the right-eye/left-eye video camera 221. This generates an image of the mixed reality space. The engine used to generate (render) the image of the virtual object may be, for example, a widely used graphic engine such as OpenGL or DirectX, or a uniquely developed graphic engine. Note that OpenGL is used as a graphic library in this embodiment.

複合現実感プラットフォーム(MRプラットフォームともいう)403は、上記のようにしてユーザの視点の位置姿勢を求め、現実空間と仮想空間との位置合わせを行う。これらの技術は、例えば、特開2002-32784号公報、特開2006-072903公報、特開2007-166427公報等に開示されている既存の技術を用いて実現することが可能である。 A mixed reality platform (also referred to as an MR platform) 403 obtains the position and orientation of the user's viewpoint as described above, and aligns the physical space with the virtual space. These techniques can be implemented using existing techniques disclosed in, for example, Japanese Patent Application Laid-Open Nos. 2002-32784, 2006-072903, and 2007-166427.

複合現実感アプリケーション(MRアプリケーションやビューアアプリケーションともいう)404は、複合現実感プラットフォーム403から視点の位置姿勢や、仮想物体の色や形状の情報、仮想物体の位置姿勢等の仮想物体の描画に要する情報を受け付け、グラフィックエンジン402に対して、仮想物体の画像の描画命令を発行する。この時、OpenGLのAPIを用いて、描画する仮想物体の識別情報、位置姿勢の情報を設定した命令を発行する。 A mixed reality application (also referred to as an MR application or a viewer application) 404 receives from the mixed reality platform 403 the position and orientation of the viewpoint, the color and shape information of the virtual object, the position and orientation of the virtual object, and other information necessary for drawing the virtual object. It receives information and issues a command to draw a virtual object image to the graphic engine 402 . At this time, an OpenGL API is used to issue a command in which identification information and position/orientation information of a virtual object to be drawn are set.

また、複合現実感プラットフォーム403は、客観カメラ106から撮像画像を受信すると、該撮像画像を複合現実感アプリケーション404へ受け渡す。補正モジュール405は、グラフィックエンジン402で描画された画像をブレ補正する処理を行う。ブレ補正する処理を行うか否かについての制御は、複合現実感プラットフォーム403や複合現実感アプリケーション404が制御するものとする。 Also, upon receiving the captured image from the objective camera 106 , the mixed reality platform 403 transfers the captured image to the mixed reality application 404 . A correction module 405 performs blur correction processing on the image rendered by the graphic engine 402 . It is assumed that the mixed reality platform 403 and the mixed reality application 404 control whether or not to perform blur correction processing.

補正モジュール405は、電子式の手ブレ補正技術を用いることで実現可能である。例えば、撮影された画像を一度メモリに読み込み、次に撮影された画像と比較して、像のズレを画素をずらすことで補正する。ブレ補正する技術については様々あり、いずれの補正技術を用いて実現してもよい。補正する画像は、HMD101に出力する画像である。 Correction module 405 can be implemented using electronic image stabilization technology. For example, a captured image is once read into a memory, compared with the next captured image, and image misalignment is corrected by shifting pixels. There are various blur correction techniques, and any correction technique may be used for implementation. An image to be corrected is an image to be output to the HMD 101 .

補正モジュール405によりブレ補正した画像またはブレ補正しない画像を外部ディスプレイ160へ出力する。 The blur-corrected image or the non-blur-corrected image is output to the external display 160 by the correction module 405 .

次に、1枚(1フレーム分)の複合現実空間の画像を生成してHMD101や外部ディスプレイ160に表示するためにHMD101及びPC100が行う処理について、図5のフローチャートに従って説明する。 Next, processing performed by the HMD 101 and the PC 100 to generate one (one frame) image of the mixed reality space and display it on the HMD 101 and the external display 160 will be described with reference to the flowchart of FIG.

ステップS500では、PC100で、ブレ補正に係る補正処理設定を行う。補正処理設定については、HMD情報700とCGモデル情報720に設定される。PC100のディスプレイ210で表示される設定画面から設定情報が入力される。 In step S500, the PC 100 performs correction processing settings related to blur correction. Correction processing settings are set in the HMD information 700 and the CG model information 720 . Setting information is input from a setting screen displayed on the display 210 of the PC 100 .

ここで、図7について説明する。図7は、本実施形態で用いる設定情報の一例を示す図である。設定情報は、外部メモリ211に記憶されるものとする。 Now, FIG. 7 will be described. FIG. 7 is a diagram showing an example of setting information used in this embodiment. It is assumed that the setting information is stored in the external memory 211 .

設定情報には、HMD情報700とCGモデル情報720がある。HMD情報700は各HMD101の設定が記憶されている。 The setting information includes HMD information 700 and CG model information 720 . The HMD information 700 stores settings of each HMD 101 .

CGモデル情報720は、仮想空間における各CGモデルの設定が記憶されている。 The CG model information 720 stores settings of each CG model in the virtual space.

HMD情報700は、HMDID701、位置702、姿勢703、外部ディスプレイ表示有無704、対象705、設定値706の情報を有している。 The HMD information 700 includes HMD ID 701 , position 702 , orientation 703 , external display display presence/absence 704 , target 705 , and setting value 706 .

HMDID701は、HMD101ごとのIDを記憶しているものである。位置702と姿勢703は、複合現実感プラットフォーム403で算出されたHMD101の位置姿勢情報を記憶するものである。この情報は常に更新されるものである。 The HMDID 701 stores an ID for each HMD 101 . A position 702 and an orientation 703 store position and orientation information of the HMD 101 calculated by the mixed reality platform 403 . This information is constantly being updated.

外部ディスプレイ表示有無704は、HMD101に出力する画像を外部ディスプレイに出力するか否かを設定した情報(フラグ)である。ONの場合には、外部ディスプレイ160に出力する設定でありブレ補正処理を行う場合の設定である。OFFの場合には、外部ディスプレイ160に出力しない設定であり、ブレ補正処理を行わない場合の設定である。また、ONの場合には、対象705と設定値706が設定されるものとする。 The external display display presence/absence 704 is information (flag) that sets whether or not an image to be output to the HMD 101 is output to an external display. When it is ON, it is a setting for outputting to the external display 160 and is a setting for performing blur correction processing. If it is OFF, it is a setting for not outputting to the external display 160, and is a setting for not performing blur correction processing. Also, if it is ON, the target 705 and the set value 706 are set.

なお、外部ディスプレイ表示有無704がONの場合であっても、対象705と設定値706が設定されていない場合には、外部ディスプレイ160に画像を出力はするが補正処理をしないように制御する構成であってもよい。 Note that even when the external display display presence/absence 704 is ON, if the target 705 and the setting value 706 are not set, the image is output to the external display 160 but the correction process is not performed. may be

対象705と設定値706は、ブレ補正処理を行う場合の設定であり、ブレ補正処理を行う基準が設定されている。 A target 705 and a set value 706 are settings for performing blur correction processing, and a standard for performing blur correction processing is set.

対象705は、他の体験者のHMD101との関係によりブレ補正処理を解除するか、CGとの関係によりブレ補正処理を解除するのかを設定できる。HMD101に近づいた際にブレ補正処理を解除する場合には、対象705に対象とするHMDのIDが設定され、設定値706に距離情報が記憶される。 The object 705 can set whether to cancel the blur correction processing depending on the relationship with the HMD 101 of the other experiencer or whether to cancel the blur correction processing depending on the relationship with the CG. When the blur correction processing is canceled when the HMD 101 is approached, the ID of the target HMD is set in the target 705 and the distance information is stored in the set value 706 .

また、CGに近づいた際に補正処理を解除する場合には、対象705に対象とするCGが設定され、設定値706に距離情報が記憶される。 Further, when the correction process is canceled when the CG is approached, the target CG is set in the target 705 and the distance information is stored in the set value 706 .

対象705にCGのモデルIDが設定されてもよいが、本実施形態では、補正の解除処理がされるCGかは、CGモデル情報720で設定されるものとする。 A CG model ID may be set for the object 705 , but in this embodiment, it is assumed that the CG model information 720 is used to set whether the correction is to be canceled or not.

CGモデル情報720は、モデルID721、モデル名722、ファイルパス723、位置724、姿勢725、補正制御解除対象726の情報を有している。 The CG model information 720 includes model ID 721 , model name 722 , file path 723 , position 724 , orientation 725 , and correction control cancellation target 726 .

モデルID721はCGモデルのIDを記憶しているものである。モデル名722は、CGモデル自体のファイル名称を記憶しているものである。ファイルパス723は、CGモデルとなるファイルが保存されている場所を記憶しているものである。 The model ID 721 stores the ID of the CG model. The model name 722 stores the file name of the CG model itself. A file path 723 stores a location where a file serving as a CG model is saved.

位置724、姿勢725は、CGモデルを表示する現実空間において表示すべき仮想空間上の位置姿勢の値を有している。 A position 724 and an orientation 725 have values of the position and orientation in the virtual space to be displayed in the physical space where the CG model is displayed.

補正制御解除対象726は、補正処理を解除するか否かを設定する情報を記憶しているものである。補正処理(補正制御)を解除するCGモデルの場合には、ONが設定される。補正処理(補正制御)を解除しないCGモデルの場合には、OFFが設定される。 The correction control cancellation target 726 stores information for setting whether or not to cancel the correction processing. ON is set in the case of a CG model for which correction processing (correction control) is to be canceled. OFF is set in the case of a CG model for which correction processing (correction control) is not canceled.

すなわち、補正制御解除対象726でONとなっており、対象705がCGとなっている場合に、所定の位置にHMD101があると補正処理が解除され、HMD101で表示している画像と同じブレのある画像が外部ディスプレイ160に表示される。 That is, when the correction control cancellation target 726 is ON and the target 705 is CG, the correction processing is canceled when the HMD 101 is at a predetermined position, and the image displayed by the HMD 101 is blurred. An image is displayed on the external display 160 .

ステップS501では、図7の設定情報をメモリに読み込み、HMD101が起動される。HMD101が起動されると、ステップS502へ処理を移す。 In step S501, the setting information of FIG. 7 is read into the memory, and the HMD 101 is activated. When the HMD 101 is activated, the process moves to step S502.

ステップS502では、右目・左目ビデオカメラ221の機能を用いて現実画像の撮像を開始する。 In step S502, the function of the right-eye/left-eye video camera 221 is used to start capturing a real image.

ステップS503では、右目・左目ビデオカメラ221は、撮像した現実空間の画像(右目用カメラによる撮像画像、左目用カメラによる撮像画像)をPC100に対して出力する。なお撮像と送信は繰り返し行われ、PC100から順次MR画像を受信してHMD101の右目・左目ディスプレイ222で表示する。 In step S<b>503 , the right-eye/left-eye video camera 221 outputs the captured images of the physical space (the image captured by the right-eye camera and the image captured by the left-eye camera) to the PC 100 . Note that imaging and transmission are repeatedly performed, and MR images are sequentially received from the PC 100 and displayed on the right-eye/left-eye display 222 of the HMD 101 .

ステップS504では、CPU201は、右目・左目ビデオカメラ221から出力された現実空間の画像を汎用バス212を介して受信し、ステップS505ではCPU201は、該受信した現実空間の画像をRAM203や外部メモリ211に格納する。 In step S504, the CPU 201 receives the physical space image output from the right-eye/left-eye video camera 221 via the general-purpose bus 212. In step S505, the CPU 201 stores the received physical space image in the RAM 203 or the external memory 211. store in

ステップS506では、CPU201は、光学式センサ104による光学式マーカ103の計測結果を通信I/Fコントローラ208を介して取得し、該取得した計測結果に基づいて上記のようにしてユーザ視点の位置姿勢(HMD101の位置姿勢)を求める。ステップS506で求めるユーザ視点の位置姿勢は、右の視点(右目用ビデオカメラ)の位置姿勢、左の視点(左目用ビデオカメラ)の位置姿勢、である。右の視点については上記と同様、予め求めた「右の視点と光学式マーカ103との間の相対的な位置姿勢関係」を用いて、光学式マーカ103の位置姿勢を変換することで求めることができる。同様に、左の視点については上記と同様、予め求めた「左の視点と光学式マーカ103との間の相対的な位置姿勢関係」を用いて、光学式マーカ103の位置姿勢を変換することで求めることができる。 In step S506, the CPU 201 acquires the measurement result of the optical marker 103 by the optical sensor 104 via the communication I/F controller 208, and determines the position and orientation of the user's viewpoint based on the acquired measurement result as described above. (the position and orientation of the HMD 101) is obtained. The position and orientation of the user viewpoint obtained in step S506 are the position and orientation of the right viewpoint (video camera for right eye) and the position and orientation of the left viewpoint (video camera for left eye). As described above, the right viewpoint is obtained by converting the position and orientation of the optical marker 103 using the "relative position and orientation relationship between the right viewpoint and the optical marker 103" obtained in advance. can be done. Similarly, for the left viewpoint, the position and orientation of the optical marker 103 are converted using the "relative position and orientation relationship between the left viewpoint and the optical marker 103" obtained in advance. can be found at

ステップS507では、CPU201は、ステップS506で求めた視点の位置姿勢を、HMD101の識別情報(ID)と関連づけて外部メモリ211に格納する。例えば、図7のHMD情報700に示す如く、HMDごとにID、位置、姿勢を対応付けて管理している。 In step S<b>507 , the CPU 201 stores the viewpoint position and orientation obtained in step S<b>506 in the external memory 211 in association with the identification information (ID) of the HMD 101 . For example, as shown in HMD information 700 in FIG. 7, ID, position, and orientation are associated and managed for each HMD.

ステップS508では、CPU201は、図7のCGモデル情報720を基に、外部メモリ211に格納されている仮想物体の描画データをRAM203に読み出し、該読み出した描画データに基づいて仮想物体を生成し、該生成した仮想物体を仮想空間中に配置する。そしてCPU201は、ステップS506で求めた視点の位置姿勢に基づいて、該視点から見た仮想物体の画像を生成する。そしてCPU201は、ステップS504で受信した現実空間の画像上に、仮想物体の画像を重畳させることで複合現実空間の画像(MR画像)を生成する。厳密にはCPU201は、右目用カメラによる撮像画像(現実空間の画像)上に、右の視点の位置姿勢に基づいて生成した仮想物体の画像を重畳させることで、右目用の複合現実空間の画像を生成すると共に、左目用カメラによる撮像画像(現実空間の画像)上に、左の視点の位置姿勢に基づいて生成した仮想物体の画像を重畳させることで、左目用の複合現実空間の画像を生成する。 In step S508, the CPU 201 reads the drawing data of the virtual object stored in the external memory 211 into the RAM 203 based on the CG model information 720 of FIG. 7, generates a virtual object based on the read drawing data, The generated virtual object is arranged in the virtual space. Then, the CPU 201 generates an image of the virtual object seen from the viewpoint based on the position and orientation of the viewpoint obtained in step S506. Then, the CPU 201 generates a mixed reality space image (MR image) by superimposing the image of the virtual object on the image of the physical space received in step S504. Strictly speaking, the CPU 201 superimposes the image of the virtual object generated based on the position and orientation of the right viewpoint on the image captured by the camera for the right eye (the image of the real space), thereby obtaining the mixed reality space image for the right eye. is generated, and an image of a virtual object generated based on the position and orientation of the left viewpoint is superimposed on the image captured by the camera for the left eye (image of the real space) to create an image of the mixed reality space for the left eye. Generate.

ステップS508は、体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する生成処理の一例を示すものである。 Step S508 represents an example of generation processing for generating a synthesized image obtained by synthesizing images of virtual objects displayed according to the position and orientation of the viewpoint of the experiencer.

ステップS509では、CPU201は、外部ディスプレイ表示有無704の設定に基づいて、外部ディスプレイにステップS508で生成されたMR画像を表示するか否かを判定する。ONの場合には、ステップS510へ処理を移し、OFFの場合には、ステップS514へ処理を移す。 In step S<b>509 , the CPU 201 determines whether or not to display the MR image generated in step S<b>508 on the external display based on the setting of the presence/absence of external display display 704 . If it is ON, the process proceeds to step S510, and if it is OFF, the process proceeds to step S514.

ステップS510では、CPU201は、外部ディスプレイ160への出力の際の補正制御を行う。補正制御処理の詳細については、図6にて詳述する。 In step S<b>510 , the CPU 201 performs correction control when outputting to the external display 160 . Details of the correction control process will be described in detail with reference to FIG.

ステップS511では、CPU201は、ビデオコントローラ206を介して外部ディスプレイ160へMR画像を出力する。このMR画像は、ブレ補正処理がされた画像の場合と、ブレ補正処理がされていない(解除された)画像の場合がある。 In step S<b>511 , the CPU 201 outputs MR images to the external display 160 via the video controller 206 . This MR image may be an image on which blur correction processing has been performed, or an image on which blur correction processing has not been performed (cancelled).

ステップS511は、合成画像を用いてブレ補正された合成画像を第2表示装置に出力する第2出力処理の一例を示すものである。また、体験者の位置に基づき、ブレ補正に係る条件を満たす場合に、ステップS508で生成された合成画像を第2表示装置に出力する第2出力処理の一例を示すものである。 更に、対象物との距離を満たさない場合に、ブレ補正された合成画像を第2表示装置に出力し、対象物との距離を満た場合に、ブレ補正を解除してステップS508で生成された合成画像を第2表示装置に出力するものである。 Step S511 shows an example of a second output process for outputting a synthesized image that has undergone blur correction using the synthesized image to the second display device. Also, it shows an example of second output processing for outputting the composite image generated in step S508 to the second display device when the conditions for blur correction are satisfied based on the position of the user. Further, if the distance to the object is not satisfied, the blur-corrected synthetic image is output to the second display device, and if the distance to the object is satisfied , the blur correction is canceled and the image generated in step S508 is displayed. The combined image is output to the second display device.

ステップS512では、外部ディスプレイ160が、MR画像をPC100から受信し、ステップS513で、受信したMR画像を表示する。 At step S512, the external display 160 receives the MR image from the PC 100, and at step S513 displays the received MR image.

ステップS513において、外部ディスプレイ160で表示した例が、図8と図9である。 Examples displayed on the external display 160 in step S513 are shown in FIGS. 8 and 9. FIG.

図8は、補正制御解除するCG802を体験者Aが見ているが、設定値706の距離外にいる(条件を満たさない)ためブレ補正処理がされ表示されている状態である。 FIG. 8 shows a state in which the user A is viewing the CG 802 for which the correction control is to be canceled, but is outside the distance of the set value 706 (the conditions are not satisfied), so the blur correction process is performed and displayed.

図9は、補正制御解除するCG902を体験者Aが見ており、設定値706の距離内にい
る(基準を満たす)ためブレ補正処理が解除され表示されている状態である。902の点線のCGは、ブレにより表示されているモデルを示している。なお、903の点線の表示はブレを便宜的に説明するためのものであり、点線表示に限定されるものではない。
FIG. 9 shows a state in which the user A is looking at the CG 902 for which correction control is to be canceled, and is within the distance of the set value 706 (which satisfies the criteria), so the blur correction processing is canceled and displayed. The dotted line CG of 902 shows the model displayed by blurring. Note that the dotted line display of 903 is for convenience of explanation of blurring, and is not limited to the dotted line display.

また、901のように、体験者以外で外部ディスプレイ160を見ているユーザに注意を促すため、「体験者と同じ映像が表示されています。ブレ補正処理がないため気分が悪くなることがあります。ご注意ください。」と表示する。この表示は、補正制御を解除した際に、PC100から出力される情報である。また、901の表示は、図7の設定情報(不図示)にて、任意に設定することができるものとする。 In addition, like 901, in order to call attention to the user who is looking at the external display 160 other than the experiencer, "The same image as the experiencer is displayed. There is no blur correction processing, so it may make you feel sick. Please be careful." is displayed. This display is information output from the PC 100 when the correction control is cancelled. Also, the display of 901 can be arbitrarily set by the setting information (not shown) in FIG.

ステップS514では、CPU201は、ステップS508において生成したMR画像(右目用の複合現実空間の画像、左目用の複合現実空間の画像)を、ビデオコントローラ206を介してHMD101に対して出力する。 In step S<b>514 , the CPU 201 outputs the MR images (right-eye mixed reality space image, left-eye mixed reality space image) generated in step S<b>508 to the HMD 101 via the video controller 206 .

ステップS514は、ステップS508で生成された合成画像を体験者の利用する第1表示装置に出力する第1出力処理の一例を示すものである。 Step S514 shows an example of first output processing for outputting the synthesized image generated in step S508 to the first display device used by the user.

ステップS515では、右目・左目ディスプレイ222は、ステップS514においてPC100から送信された右目用の複合現実空間の画像及び左目用の複合現実空間の画像を受信する。そしてステップS516では、右目・左目ディスプレイ222は、右目用の複合現実空間の画像を右目用ディスプレイに表示する。 In step S515, the right-eye/left-eye display 222 receives the mixed reality space image for the right eye and the mixed reality space image for the left eye transmitted from the PC 100 in step S514. Then, in step S516, the right-eye/left-eye display 222 displays the right-eye mixed reality space image on the right-eye display.

次に、ステップS510の補正制御処理について、図6のフローチャートに従って説明する。 Next, the correction control process of step S510 will be described according to the flowchart of FIG.

ステップS601では、CPU201は、図7の設定情報に基づき、他の体験者のHMD101、或いは、対象のCGを特定する。なお、他の体験者のHMD101の場合には、他の体験者が撮像された画像に含まれることが望ましい。すなわち、他の体験者を見ている状態で設定値等の条件を満たした場合に、ブレ補正制御の解除がされるものである。 In step S601, the CPU 201 identifies the HMD 101 of another experiencer or the target CG based on the setting information in FIG. In addition, in the case of the HMD 101 of another experiencer, it is desirable that the image is included in the captured image of the other experiencer. In other words, when conditions such as set values are satisfied while other users are watching, the blur correction control is canceled.

ステップS602では、CPU201は、他の体験者のHMD101、或いは、対象のCGとの距離を算出して、取得する。距離の算出は、対象となる体験者のHMD101の位置と他の体験者のHMDの位置、或いは、対象となる体験者のHMD101の位置とCGとの位置により算出することができる。 In step S602, the CPU 201 calculates and acquires the distance from the HMD 101 of another experiencer or the target CG. The distance can be calculated from the position of the target experiencer's HMD 101 and the position of another experiencer's HMD, or from the position of the target experiencer's HMD 101 and the position of the CG.

ステップS603では、CPU201は、取得した距離が、設定値706の距離を満たすか否かを判定する。具体的には、設定値706の距離より遠い位置に対象となる体験者のHMD101が存在するか否かを判定する。遠い位置にある場合には、条件を満たさないとして、ステップS607へ処理を移す。近い位置にある場合には、条件を満たすとして、ステップS604へ処理を移す。 すなわち、上述の条件は、ブレ補正に係る条件であり、ブレ補正を解除する条件である。また、体験者の位置と対象物との距離でもある。 In step S<b>603 , the CPU 201 determines whether or not the acquired distance satisfies the distance of the setting value 706 . Specifically, it is determined whether or not the target experiencer's HMD 101 exists at a position farther than the distance of the set value 706 . If it is at a distant position, the condition is not satisfied, and the process proceeds to step S607. If the position is close, the condition is satisfied, and the process proceeds to step S604. That is, the above conditions are conditions related to blur correction, and conditions for canceling blur correction. It is also the distance between the position of the experiencer and the object.

ステップS604では、CPU201は、ブレ補正が解除されたか否かを判定する。すなわち、ブレ補正状態からブレ補正を行わない状態(解除状態)となった場合には、ステップS605へ処理を移す。既に解除状態である場合には、ステップS606へ処理を移す。 In step S604, the CPU 201 determines whether or not blur correction has been cancelled. That is, when the blur correction state changes to the state in which the blur correction is not performed (released state), the process proceeds to step S605. If it is already in the canceled state, the process moves to step S606.

ステップS605では、通常の場合にはブレ補正を実行しているため、ブレ補正が解除された場合には、体験者以外のユーザに補正処理が解除されたことを注意喚起するべく、CPU201は、ブレ補正がされていないことの情報を外部ディスプレイ160へ出力(通知)する。注意喚起の例が、図9の901である。 In step S605, since blur correction is normally executed, when blur correction is canceled, the CPU 201, in order to alert users other than the user that the correction process has been canceled, Information that blur correction is not performed is output (notified) to the external display 160 . An example of alerting is 901 in FIG.

なお、本実施形態では、ブレ補正が解除された際に注意喚起するように制御したが、ブレ補正が解除されている間は注意喚起の情報を出力する(所定間隔で出力する)ようにしてもよい。 In the present embodiment, control is performed so as to call attention when the blur correction is canceled. good too.

また、注意喚起の表示がされており、ブレ補正がされるタイミングになった場合には、注意喚起の表示を解除するように制御することは言うまでもない。 In addition, it goes without saying that when a warning is displayed and the timing for blur correction has come, control is performed to cancel the display of the warning.

ステップS605は、体験者の位置に基づきブレ補正に係る条件を満たし、ステップS508で生成された合成画像を第2表示装置に出力する場合に、ブレ補正がされていないこと通知する通知処理の一例を示すものである。 Step S605 is an example of notification processing for notifying that blur correction has not been performed when the conditions related to blur correction are satisfied based on the position of the user and the composite image generated in step S508 is output to the second display device. is shown.

ステップS606では、CPU201は、ステップS508で生成されたMR画像(補正処理なしのMR画像)を取得する。 In step S606, the CPU 201 acquires the MR image (MR image without correction processing) generated in step S508.

ステップS607では、ステップS508で生成されたMR画像を用いて、補正モジュール405でブレ補正を実行する。 In step S607, the correction module 405 performs blur correction using the MR image generated in step S508.

ステップS608では、CPU201は、ステップS607で補正したMR画像を取得する。 In step S608, the CPU 201 acquires the MR image corrected in step S607.

ステップS606又はステップS607で取得したMR画像を、ステップS511で出力する。 The MR image acquired in step S606 or step S607 is output in step S511.

以上、本実施形態によれば、HMD101の条件により、ブレ補正処理の有無を切り替えて外部ディスプレイに表示を行うため、使い勝手のよい仕組みとなる。特に、長時間ブレのある映像をみることを軽減し、酔いなどを防ぐことができる。 As described above, according to the present embodiment, depending on the conditions of the HMD 101, the presence or absence of the blur correction process is switched to display on the external display, so that the system is easy to use. In particular, watching a blurred image for a long time can be reduced and motion sickness can be prevented.

他の実施形態として、以下のような形態も考えられる。 上記の実施形態では、条件を満たす場合にブレ補正処理を解除するものとしたが、他の実施形態では、条件を満たす(例えばHMD101が設定距離外にあるという条件を満たす)場合にブレ補正処理を実行し、条件を満たさない(例えばHMD101が設定距離内にあるという条件を満たす)場合にブレ補正処理を解除する構成とする。 As another embodiment, the following forms are also conceivable. In the above embodiment, the blur correction process is canceled when the condition is met. In other embodiments, the blur correction process is canceled when the condition is met (for example, the condition that the HMD 101 is out of the set distance). is executed, and the blur correction process is canceled when the condition is not satisfied (for example, the condition that the HMD 101 is within the set distance is satisfied).

このように、ブレの補正処理の実行と解除を切替することができればよく、条件を満たす基準(距離内か距離外どちらを基準とするか)については、どちらであってもよい。 In this way, it suffices to switch between execution and cancellation of blur correction processing, and the criterion for satisfying the conditions (whether the within-distance or out-of-distance criterion) may be either.

最後に、上記のPC100の機能構成例について、図3のブロック図を用いて説明する。なお、図3の各機能部はハードウェアで実装しても良いし、ソフトウェア(コンピュータプログラム)で実装しても良い。前者の場合、例えばこのようなハードウェアをHMD101に搭載することで、HMD101は、PC100が行うものとして上述した各処理をも実行することができる。後者の場合、このようなコンピュータプログラムを外部メモリ211に保存しておき、CPU201がこのコンピュータプログラムを適宜RAM203に読み出して実行することで、対応する機能部の機能を実現することができる。 なお、PC100は、画像処理装置として言い換えることも可能である。 Finally, a functional configuration example of the PC 100 will be described with reference to the block diagram of FIG. Note that each functional unit in FIG. 3 may be implemented by hardware or may be implemented by software (computer program). In the former case, by installing such hardware in the HMD 101, for example, the HMD 101 can also execute each of the processes described above as those performed by the PC 100. FIG. In the latter case, such a computer program is stored in the external memory 211, and the CPU 201 appropriately reads out the computer program to the RAM 203 and executes it, thereby realizing the functions of the corresponding functional units. Note that the PC 100 can also be rephrased as an image processing device.

生成部301は、体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する機能部である。撮像された現実画像とCGとを合成した複合現実空間の画像であることが望ましい。 The generating unit 301 is a functional unit that generates a synthesized image by synthesizing images of virtual objects displayed according to the position and orientation of the viewpoint of the user. It is desirable that the image is a mixed reality space image obtained by synthesizing a captured real image and CG.

第1出力部302は、生成部301により生成された合成画像を体験者の利用する第1表示装置(例えば、HMD101)に出力する機能部である。 The first output unit 302 is a functional unit that outputs the synthesized image generated by the generation unit 301 to the first display device (for example, the HMD 101) used by the user.

第2出力部303は、合成画像を用いてブレ補正された合成画像を第2表示装置(例えば、外部ディスプレイ160)に出力する機能部である。また、第2出力部303は、体験者の位置姿勢に基づき、ブレ補正に係る条件(具体的には、ブレ補正を解除する条件)を満たす場合に、生成部301により生成された合成画像を第2表示装置に出力する機能部である。 The second output unit 303 is a functional unit that outputs a synthesized image that has undergone blur correction using the synthesized image to a second display device (eg, external display 160). In addition, the second output unit 303 outputs the synthesized image generated by the generation unit 301 based on the position and orientation of the user when the conditions related to blur correction (specifically, the conditions for canceling the blur correction) are satisfied. This is a functional unit that outputs to the second display device.

通知部304は、体験者の位置姿勢に基づきブレ補正を解除する条件を満たし、生成部301により生成された合成画像を第2表示装置に出力する場合に、ブレ補正がされていないこと通知する機能部である。通知の例は901である。 The notification unit 304 notifies that the blur correction has not been performed when the condition for canceling the blur correction is satisfied based on the position and orientation of the experiencer and the composite image generated by the generation unit 301 is output to the second display device. It is a functional part. An example of notification is 901.

ブレ補正を解除する条件とは、体験者の位置姿勢と対象物との距離である。 The condition for canceling blur correction is the distance between the position and orientation of the user and the object.

また、第2出力部303は、対象物との距離を満たさない場合に、ブレ補正された合成画像を第2表示装置に出力し、対象物との距離を満た場合に、ブレ補正を解除して生成部301により生成された合成画像を第2表示装置に出力する。

Further, the second output unit 303 outputs the blur-corrected synthetic image to the second display device when the distance to the object is not satisfied , and cancels the blur correction when the distance to the object is satisfied. Then, the synthesized image generated by the generation unit 301 is output to the second display device.

つまり、本実施形態に係る画像処理装置は、外部ディスプレイへ合成画像を表示する際に、体験者の位置によりブレ補正をしない合成画像を出力することで検証などの形態において利便性を高めることができる。特に検証に不要な動作の場合にはブレ補正がされ、検証に必要(正確な表示が必要)な場合にはブレ補正がされないように制御するため、外部で確認しているユーザの酔いなどの体調不良を軽減しつつ、外部からの検証を容易にすることができる。 In other words, the image processing apparatus according to the present embodiment, when displaying a synthesized image on an external display, outputs a synthesized image that is not shake-corrected according to the position of the user, thereby enhancing convenience in the form of verification or the like. can. In particular, in the case of motions that are unnecessary for verification, blur correction is performed, and in cases where verification is necessary (accurate display is required), blur correction is not performed. Verification from the outside can be facilitated while reducing poor physical condition.

なお、外部ディスプレイは、体験者以外が利用する表示装置であればいずれの装置であってもよい。 Note that the external display may be any device as long as it is a display device used by a person other than the user.

なお、上述の実施形態では、HMD101とPC100とを別個の装置としているが、HMD101とPC100とを一体化させ、HMD101は自機が行うものとして上述した各処理だけでなく、PC100が行うものとして説明した上記の各処理も行うようにしても良い。 In the above-described embodiment, the HMD 101 and the PC 100 are separate devices. Each of the processes described above may also be performed.

また上述の実施形態では、HMD101はビデオシースルー方式の頭部装着型表示装置であるものとして説明した。しかし、HMD101として光学シースルー方式の頭部装着型表示装置を使用しても良い。 Further, in the above-described embodiment, the HMD 101 is described as a video see-through type head-mounted display device. However, an optical see-through type head-mounted display device may be used as the HMD 101 .

また、ユーザの頭部に装着されているHMD101に加えて若しくは代えて他の表示装置、例えばタブレット端末装置やスマートフォン等の携帯端末装置に対してユーザ視点に基づく複合現実空間の画像を出力するようにしても良い。この場合、携帯端末装置は、該携帯端末装置に備わっているセンサやアプリケーションを使用することで該携帯端末装置の位置姿勢をユーザ視点として取得することができる。ユーザ視点に基づく複合現実空間の画像はPC100が生成しても良いし、携帯端末装置側で生成しても良い。 In addition to or instead of the HMD 101 worn on the user's head, an image of the mixed reality space based on the user's viewpoint is output to another display device, such as a tablet terminal device or a mobile terminal device such as a smartphone. You can do it. In this case, the mobile terminal device can acquire the position and orientation of the mobile terminal device as the user's viewpoint by using the sensors and applications provided in the mobile terminal device. The image of the mixed reality space based on the user's viewpoint may be generated by the PC 100 or may be generated by the mobile terminal device.

また、上述の実施形態では、現実空間と仮想空間とを合成した複合現実空間をユーザに提示する複合現実感提示システム(MRシステム)を例にとり説明したが、仮想空間のみをユーザに提示する、所謂VRシステムに適用しても構わない。その場合、現実空間の撮像や現実空間の画像との合成に係る処理は不要となる。 Further, in the above-described embodiment, a mixed reality presentation system (MR system) that presents the user with a mixed reality space that combines the real space and the virtual space has been described as an example, but only the virtual space is presented to the user. It may be applied to a so-called VR system. In that case, processing related to imaging of the real space and synthesis with the image of the real space are unnecessary.

また、上述の実施形態では説明を簡単にするために、1台のPC100に1台のHMD101が接続されているものとしたが、1台のPC100に2台以上のHMD101を接続するようにしても良い。 In the above-described embodiment, one HMD 101 is connected to one PC 100 for the sake of simplicity of explanation. Also good.

以上、本発明の実施形態について示したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 Although the embodiments of the present invention have been described above, the present invention can be embodied as, for example, systems, devices, methods, programs, recording media, and the like. Specifically, it may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.

また、本発明におけるプログラムは、フローチャートの処理方法をコンピュータが実行可能なプログラムであり、本発明の記憶媒体は処理方法をコンピュータが実行可能なプログラムが記憶されている。 Further, the program in the present invention is a program that allows a computer to execute the processing method of the flowchart, and the storage medium of the present invention stores the program that allows the computer to execute the processing method.

以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読み出し実行することによっても、本発明の目的が達成されることは言うまでもない。 As described above, a recording medium recording a program for realizing the functions of the above-described embodiments is supplied to a system or device, and the computer (or CPU or MPU) of the system or device reads the program stored in the recording medium. Needless to say, the object of the present invention can also be achieved by reading and executing.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。 In this case, the program itself read from the recording medium implements the novel functions of the present invention, and the recording medium storing the program constitutes the present invention.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、DVD-ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク、ソリッドステートドライブ等を用いることができる。 Examples of recording media for supplying programs include flexible disks, hard disks, optical disks, magneto-optical disks, CD-ROMs, CD-Rs, DVD-ROMs, magnetic tapes, non-volatile memory cards, ROMs, EEPROMs, silicon A disk, solid state drive, or the like can be used.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program read by the computer, not only the functions of the above-described embodiments are realized, but also based on the instructions of the program, the OS (operating system) and the like running on the computer are actually executed. Needless to say, a case where part or all of the processing is performed and the functions of the above-described embodiments are realized by the processing are included.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, after the program read from the recording medium is written in the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board is read according to the instruction of the program code. It goes without saying that a case where a CPU or the like provided in a function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 Moreover, the present invention may be applied to a system composed of a plurality of devices or to an apparatus composed of a single device. Further, it goes without saying that the present invention can be applied to the case where it is achieved by supplying a program to a system or apparatus. In this case, by loading a recording medium storing a program for achieving the present invention into the system or device, the system or device can enjoy the effects of the present invention.

さらに、本発明を達成するためのプログラムを通信線上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 Furthermore, by downloading and reading out the program for achieving the present invention from a server, database, etc. on the communication line using the communication program, the system or apparatus can enjoy the effects of the present invention.

なお、以上説明した各実施形態の一部若しくは全部を適宜組み合わせて使用しても構わないし、以上説明した各実施形態の一部若しくは全部を選択的に使用しても構わない。 Some or all of the embodiments described above may be used in combination as appropriate, or some or all of the embodiments described above may be selectively used.

100 PC 101 HMD 103 光学式マーカ 102 二次元マーカ 104 光学式センサ 130 CGモデル 160 外部ディスプレイ 100 PC 101 HMD 103 Optical Marker 102 Two-Dimensional Marker 104 Optical Sensor 130 CG Model 160 External Display

Claims (22)

特定の画像に対して、像のズレを補正する特定のブレ補正を施さずに、第1の表示手段に出力するように制御し、
前記特定の画像に対して、前記特定のブレ補正を施して第2の表示手段に出力するように制御する制御手段
を備え、
前記特定の画像は仮想物体及び撮影された画像を含む画像であることを特徴とする画像処理装置。
controlling a specific image to be output to the first display means without performing specific blur correction for correcting image shift;
a control means for controlling the specific image to be subjected to the specific blur correction and output to a second display means;
An image processing apparatus, wherein the specific image is an image including a virtual object and a photographed image.
特定の画像に対して、像のズレを補正する特定のブレ補正を施さずに、第1の表示手段に出力するように制御し、
前記特定の画像に対して、前記特定のブレ補正を施して第2の表示手段に出力するように制御する制御手段
を備え、
前記画像は仮想物体と撮影された画像との合成画像であることを特徴とする画像処理装置。
controlling a specific image to be output to the first display means without performing specific blur correction for correcting image shift;
a control means for controlling the specific image to be subjected to the specific blur correction and output to a second display means;
An image processing apparatus, wherein the image is a composite image of a virtual object and a photographed image.
特定の画像に対して、像のズレを補正する特定のブレ補正を施さずに、第1の表示手段に出力するように制御し、
前記特定の画像に対して、前記特定のブレ補正を施して第2の表示手段に出力するように制御する制御手段
を備え、
前記制御手段は、前記第1の表示手段を有する装置の位置が所定の条件を満たす場合には、前記特定の画像に前記特定のブレ補正を施さずに前記第2の表示手段に出力するように制御することを特徴とする画像処理装置。
controlling a specific image to be output to the first display means without performing specific blur correction for correcting image shift;
a control means for controlling the specific image to be subjected to the specific blur correction and output to a second display means;
The control means outputs the specific image to the second display means without applying the specific blur correction to the specific image when the position of the apparatus having the first display means satisfies a predetermined condition. An image processing apparatus characterized by controlling to
特定の画像に対して、像のズレを補正する特定のブレ補正を施さずに、第1の表示手段に出力するように制御し、
前記特定の画像に対して、前記特定のブレ補正を施して第2の表示手段に出力するように制御する制御手段
を備え、
前記制御手段は、前記特定の画像に前記特定のブレ補正を施さずに前記第2の表示手段に出力する場合、前記特定のブレ補正が施されていないことを通知するように制御することを特徴とする画像処理装置。
controlling a specific image to be output to the first display means without performing specific blur correction for correcting image shift;
a control means for controlling the specific image to be subjected to the specific blur correction and output to a second display means;
When the specific image is output to the second display means without being subjected to the specific blur correction, the control means controls to notify that the specific blur correction has not been performed. An image processing device characterized by:
前記制御手段は、前記第1の表示手段に、前記第1の表示手段を備える装置の位置に基づいて生成される画像であって、前記特定の画像に基づく画像を出力するように制御することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置 The control means controls the first display means to output an image based on the specific image, which is an image generated based on the position of the device provided with the first display means. The image processing apparatus according to any one of claims 1 to 4, characterized by 前記特定の画像は仮想物体を含む画像であることを特徴とする請求項2乃至4のいずれか1項に記載の画像処理装置。 5. The image processing apparatus according to claim 2, wherein said specific image is an image containing a virtual object. 前記特定の画像は撮影された画像を含む画像であることを特徴とする請求項2乃至4、6のいずれか1項に記載の画像処理装置。 7. The image processing apparatus according to claim 2, wherein said specific image is an image including a photographed image. 前記撮影された画像は前記第1の表示手段を有する装置に備えられた撮像手段で撮影された画像であることを特徴とする請求項1または7に記載の画像処理装置。 8. The image processing apparatus according to claim 1, wherein said photographed image is an image photographed by image pickup means provided in an apparatus having said first display means. 前記画像は仮想物体と撮影された画像との合成画像であることを特徴とする請求項3又は4に記載の画像処理装置。 5. The image processing apparatus according to claim 3, wherein said image is a composite image of a virtual object and a photographed image. 前記特定のブレ補正は、前記特定の画像の像のズレを、画素をずらすことで補正する処理であることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 10. The image processing apparatus according to any one of claims 1 to 9, wherein the specific blur correction is a process of correcting image shift of the specific image by shifting pixels. 前記特定のブレ補正は前記特定の画像の前後を比較した結果に基づいて補正する処理であることを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。 11. The image processing apparatus according to any one of claims 1 to 10, wherein the specific shake correction is a process of performing correction based on a result of comparing before and after the specific image. 前記特定のブレ補正は電子式の手ブレ補正であることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。 12. The image processing apparatus according to any one of claims 1 to 11, wherein the specific blur correction is electronic blur correction. 前記制御手段は、前記第1の表示手段を有する装置の位置が所定の条件を満たす場合には、前記特定の画像に前記特定のブレ補正を施さずに前記第2の表示手段に出力するように制御することを特徴とする請求項4に記載の画像処理装置。 The control means outputs the specific image to the second display means without applying the specific blur correction to the specific image when the position of the apparatus having the first display means satisfies a predetermined condition. 5. The image processing apparatus according to claim 4, wherein the control is performed such that 前記所定の条件とは、前記第1の表示手段を有する装置と対象物との距離に係る条件であることを特徴とする請求項3または13に記載の画像処理装置。 14. The image processing apparatus according to claim 3, wherein said predetermined condition is a condition relating to a distance between a device having said first display means and an object. 前記制御手段は、前記第1の表示手段を有する装置と対象物との距離が前記所定の条件を満たさない場合に、前記特定の画像の前記特定のブレ補正を施して前記第2の表示手段に出力し、前記第1の表示手段を有する装置と対象物との距離が前記所定の条件を満たす場合に、前記特定の画像に前記特定のブレ補正を施さずに前記第2の表示手段に出力するように制御することを特徴とする請求項14に記載の画像処理装置。 When the distance between the device having the first display means and the object does not satisfy the predetermined condition, the control means applies the specific blur correction to the specific image to display the image on the second display means. and when the distance between the device having the first display means and the object satisfies the predetermined condition, the specific image is displayed on the second display means without performing the specific blur correction. 15. The image processing apparatus according to claim 14, wherein control is performed so as to output. 前記第1の表示手段はヘッドマウントディスプレイに備えられていることを特徴とする請求項1乃至15のいずれか1項に記載の画像処理装置。 16. The image processing apparatus according to any one of claims 1 to 15, wherein said first display means is provided in a head mounted display. 前記第2の表示手段は、前記ヘッドマウントディスプレイの体験者以外が利用する装置の表示手段であることを特徴とする請求項16に記載の画像処理装置。 17. The image processing apparatus according to claim 16, wherein said second display means is a display means of a device used by a person other than a person who has experienced said head-mounted display. 特定の画像に対して、像のズレを補正する特定のブレ補正を施さずに、第1の表示手段に出力するように制御し、
前記特定の画像に対して、前記特定のブレ補正を施して第2の表示手段に出力するように制御する制御ステップ
を備え、
前記特定の画像は仮想物体及び撮影された画像を含む画像であることを特徴とする画像処理装置の制御方法。
controlling a specific image to be output to the first display means without performing specific blur correction for correcting image shift;
a control step of performing control so that the specific image is subjected to the specific blur correction and output to a second display means;
A control method for an image processing device, wherein the specific image is an image including a virtual object and a photographed image.
特定の画像に対して、像のズレを補正する特定のブレ補正を施さずに、第1の表示手段に出力するように制御し、
前記特定の画像に対して、前記特定のブレ補正を施して第2の表示手段に出力するように制御する制御ステップ
を備え、
前記画像は仮想物体と撮影された画像との合成画像であることを特徴とする画像処理装置の制御方法。
controlling a specific image to be output to the first display means without performing specific blur correction for correcting image shift;
a control step of performing control so that the specific image is subjected to the specific blur correction and output to a second display means;
A control method for an image processing device, wherein the image is a composite image of a virtual object and a photographed image.
特定の画像に対して、像のズレを補正する特定のブレ補正を施さずに、第1の表示手段に出力するように制御し、
前記特定の画像に対して、前記特定のブレ補正を施して第2の表示手段に出力するように制御する制御ステップ
を備え、
前記制御ステップは、前記第1の表示手段を有する装置の位置が所定の条件を満たす場合には、前記特定の画像に前記特定のブレ補正を施さずに前記第2の表示手段に出力するように制御することを特徴とする画像処理装置の制御方法。
controlling a specific image to be output to the first display means without performing specific blur correction for correcting image shift;
a control step of performing control so that the specific image is subjected to the specific blur correction and output to a second display means;
In the control step, when the position of the device having the first display means satisfies a predetermined condition, the specific image is output to the second display means without being subjected to the specific shake correction. A control method for an image processing apparatus, characterized by controlling to
特定の画像に対して、像のズレを補正する特定のブレ補正を施さずに、第1の表示手段に出力するように制御し、
前記特定の画像に対して、前記特定のブレ補正を施して第2の表示手段に出力するように制御する制御ステップ
を備え、
前記制御ステップは、前記特定の画像に前記特定のブレ補正を施さずに前記第2の表示手段に出力する場合、前記特定のブレ補正が施されていないことを通知するように制御することを特徴とする画像処理装置の制御方法。
controlling a specific image to be output to the first display means without performing specific blur correction for correcting image shift;
a control step of performing control so that the specific image is subjected to the specific blur correction and output to a second display means;
In the control step, when the specific image is output to the second display means without being subjected to the specific blur correction, it is controlled to notify that the specific blur correction has not been performed. A control method for an image processing apparatus characterized by:
コンピュータを、請求項1乃至17のいずれか1項に記載された画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 17.
JP2017148499A 2017-07-31 2017-07-31 Image processing device, its processing method, and program Active JP7148779B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017148499A JP7148779B2 (en) 2017-07-31 2017-07-31 Image processing device, its processing method, and program
JP2022068056A JP7319575B2 (en) 2017-07-31 2022-04-18 Image processing device, its processing method, and program
JP2023117247A JP2023145551A (en) 2017-07-31 2023-07-19 Image processing device, processing method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017148499A JP7148779B2 (en) 2017-07-31 2017-07-31 Image processing device, its processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022068056A Division JP7319575B2 (en) 2017-07-31 2022-04-18 Image processing device, its processing method, and program

Publications (3)

Publication Number Publication Date
JP2019029868A JP2019029868A (en) 2019-02-21
JP2019029868A5 JP2019029868A5 (en) 2020-09-03
JP7148779B2 true JP7148779B2 (en) 2022-10-06

Family

ID=65478795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017148499A Active JP7148779B2 (en) 2017-07-31 2017-07-31 Image processing device, its processing method, and program

Country Status (1)

Country Link
JP (1) JP7148779B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299326A (en) 2006-05-02 2007-11-15 Canon Inc Information processor, its control method, image processor, program and storage medium
JP6154531B1 (en) 2016-09-30 2017-06-28 株式会社ドワンゴ Display device, display method, and display program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299326A (en) 2006-05-02 2007-11-15 Canon Inc Information processor, its control method, image processor, program and storage medium
JP6154531B1 (en) 2016-09-30 2017-06-28 株式会社ドワンゴ Display device, display method, and display program

Also Published As

Publication number Publication date
JP2019029868A (en) 2019-02-21

Similar Documents

Publication Publication Date Title
US11189055B2 (en) Information processing apparatus and method and program
US10725297B2 (en) Method and system for implementing a virtual representation of a physical environment using a virtual reality environment
JP4227561B2 (en) Image processing method and image processing apparatus
JP7060778B2 (en) Information processing system, information processing system control method and program
CN109448050B (en) Method for determining position of target point and terminal
JP2014021570A (en) Moving image generation device
JP6409861B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP2018106297A (en) Mixed reality presentation system, information processing apparatus and control method thereof, and program
JP2016105279A (en) Device and method for processing visual data, and related computer program product
JP2017134771A (en) Information processing device, information processing method, and program
US10901213B2 (en) Image display apparatus and image display method
JP2006126936A (en) Image processing method and image processing device
JP6641122B2 (en) Display device, information processing device, and control method therefor
JP2021099816A (en) Information processing apparatus, information processing system, information processing method, and program
JP7319575B2 (en) Image processing device, its processing method, and program
JP2018063567A (en) Image processing device, image processing method and program
JP7148779B2 (en) Image processing device, its processing method, and program
JP7279113B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM
US20230244318A1 (en) Program, head-mounted display, and information processing device
JP4217661B2 (en) Image processing method and image processing apparatus
JP6655751B1 (en) Video display control device, method and program
JP7176348B2 (en) Image output system, method and program
JP2018088604A (en) Image display device, image display method, and system
JP2015201734A (en) Image processing system, control method of the same, and program
JP2016115230A (en) Information processing apparatus, information processing system, control method thereof, and program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220905

R151 Written notification of patent or utility model registration

Ref document number: 7148779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151