JP2019029868A - Image processing system and processing method, program thereof - Google Patents
Image processing system and processing method, program thereof Download PDFInfo
- Publication number
- JP2019029868A JP2019029868A JP2017148499A JP2017148499A JP2019029868A JP 2019029868 A JP2019029868 A JP 2019029868A JP 2017148499 A JP2017148499 A JP 2017148499A JP 2017148499 A JP2017148499 A JP 2017148499A JP 2019029868 A JP2019029868 A JP 2019029868A
- Authority
- JP
- Japan
- Prior art keywords
- image
- composite image
- display device
- hmd
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 30
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000012937 correction Methods 0.000 claims abstract description 90
- 239000002131 composite material Substances 0.000 claims abstract description 47
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 6
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 73
- 238000000034 method Methods 0.000 description 54
- 230000003287 optical effect Effects 0.000 description 30
- 239000003550 marker Substances 0.000 description 18
- 238000004891 communication Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 16
- 238000004590 computer program Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 230000036544 posture Effects 0.000 description 6
- 238000012795 verification Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 206010025482 malaise Diseases 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、合成画像のブレ補正に係る技術に関するものである。 The present invention relates to a technique related to blur correction of a composite image.
近年、複合現実(Mixed Reality/以下、MRと記載)の技術が普及している。複合現実の技術を用いることで、ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに対し、現実画像にCGモデルを配置した複合現実画像を提供し、現実と仮想を複合した複合現実の世界(複合現実空間)を体験させることができる。複合現実画像を生成するにあたり、HMDの位置とCGモデルの位置とを、センサや二次元マーカを用いて特定する手法が取られている。 In recent years, mixed reality (hereinafter referred to as MR) technology has become widespread. By using a mixed reality technology, a mixed reality image in which a CG model is arranged on a real image is provided to a user wearing a head-mounted display (hereinafter referred to as an HMD), and a mixed reality world in which reality and virtual are combined ( (Mixed reality space) can be experienced. In generating a mixed reality image, a method of specifying the position of the HMD and the position of the CG model using a sensor or a two-dimensional marker is used.
特許文献2には、客観カメラにより撮影された体験者を含む画像と、体験者が体験している際に映し出されるCG画像と、を合成して、ディスプレイに表示する技術が開示されている。 Patent Document 2 discloses a technique of combining an image including an experienced person photographed by an objective camera and a CG image projected when the experienced person is experiencing and displaying the synthesized image on a display.
このように、単に体験者に画像を表示するばかりでなく、体験者が見ている画像や、体験者の体験状態を映し出すことが一般的に行われている。 As described above, not only displaying an image to the experience person but also displaying the image viewed by the experience person and the experience state of the experience person is generally performed.
上述したように、MRでは、体験者の見ている映像を外部ディスプレイに表示(体験者のHMDに表示されている映像と同じ映像を表示)して、体験していない人が外部から確認することがある。 As described above, in MR, an image viewed by an experienced person is displayed on an external display (the same image as the image displayed on the experienced person's HMD is displayed), and a person who has not experienced confirms from outside. Sometimes.
この場合、体験者は移動しているため、HMDで撮影した現実画像(動画)はブレが大きくなる(多くのブレが発生する)。体験者は自分の動きに合わせてHMDに現実画像を用いて生成されたMR画像が表示されるため、ブレとなるような表示があっても違和感がないものの、体験していない人は自分の動きとは関係ない映像(ブレのある映像)を外部ディスプレイで見ているため気分がわるくなる(酔いやすい)ということが発生する。 In this case, since the experience person is moving, the actual image (moving image) photographed by the HMD is greatly blurred (many blurring occurs). Experienced users will see MR images generated using real images on the HMD according to their movements, so even if there is a blurry display, there is no sense of incongruity, but those who have not experienced their own When a video (blurred video) that is not related to movement is viewed on an external display, the user feels uncomfortable (easy to get sick).
特に、外部ディスプレイは大型のディスプレイを用いていることが多く、よりブレが大きく感じることがあり、HMDに表示している映像は体験していない人には適さないという問題があった。 In particular, a large display is often used as the external display, and blurring may be felt more greatly, and there is a problem that the image displayed on the HMD is not suitable for those who have not experienced it.
一方、体験していない人であっても、体験者の実際の作業状態を見る必要が場合(検証作業などの場合)、体験者のHMDで表示している映像をそのまま見る必要があるため一律にブレを制御することにも問題がある。 On the other hand, even if it is a person who has not experienced, if it is necessary to see the actual working state of the experienced person (in the case of verification work etc.), it is necessary to see the video displayed on the experienced person's HMD as it is. There is also a problem in controlling blurring.
そこで、本発明は、体験者の状態により合成画像のブレ補正を制御し、使い勝手のよい仕組みを提供することを目的とする。 Accordingly, an object of the present invention is to provide an easy-to-use mechanism by controlling the blur correction of a composite image according to the state of an experienced person.
本発明の目的を達成するための画像処理装置は、体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する生成手段と、前記生成手段により生成された合成画像を体験者の利用する第1表示装置に出力する第1出力手段と、前記合成画像を用いてブレ補正された合成画像を第2表示装置に出力する第2出力手段とを備え、前記第2出力手段は、体験者の位置に基づき、ブレ補正に係る条件を満たす場合に、前記生成手段により生成された合成画像を第2表示装置に出力することを特徴とする。 An image processing apparatus for achieving an object of the present invention is generated by a generating unit that generates a composite image by combining virtual object images displayed according to a position and orientation related to a viewpoint of an experiencer, and the generating unit. First output means for outputting the composite image to the first display device used by the experience person, and second output means for outputting the composite image corrected for blur using the composite image to the second display device, The second output means outputs the composite image generated by the generation means to the second display device when the condition relating to blur correction is satisfied based on the position of the experience person.
本発明により、体験者の状態により合成画像のブレ補正を制御し、使い勝手のよい仕組みを提供することができる。 According to the present invention, it is possible to provide an easy-to-use mechanism by controlling the blur correction of a composite image according to the state of an experienced person.
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。 Embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.
本実施形態に係るシステムは、現実空間と仮想空間との合成空間である複合現実空間を、HMD等の頭部装着型表示装置や、頭部装着型表示装置は別個に設けられた表示装置に対して提示する複合現実感提示システムである。先ず、本実施形態に係るシステムの概要について、図1を用いて説明する。 In the system according to the present embodiment, a mixed reality space that is a composite space of a real space and a virtual space is used in a head-mounted display device such as an HMD or a display device in which a head-mounted display device is provided separately. It is a mixed reality presentation system. First, an outline of a system according to the present embodiment will be described with reference to FIG.
ユーザの頭部にはHMD101が装着されており、HMD101の表示画面には、画像処理装置としてのPC100から出力される複合現実空間の画像が表示される。ユーザはHMD101の表示画面に表示される複合現実空間の画像を観察することで複合現実空間を体験する。 The HMD 101 is attached to the user's head, and an image of the mixed reality space output from the PC 100 as the image processing apparatus is displayed on the display screen of the HMD 101. The user experiences the mixed reality space by observing the mixed reality space image displayed on the display screen of the HMD 101.
また、本実施形態において、体験しているユーザは複数人(体験者A、体験者B)いるものとして説明する。 Further, in the present embodiment, a description will be given assuming that there are a plurality of users (experience person A, experience person B) who are experiencing.
HMD101には、光学式センサ104で検知可能(計測可能)な光学式マーカ103が取り付けられており、光学式センサ104による光学式マーカ103の計測結果はPC100に送出される。図1では図示を簡略化するために、光学式センサ104の数を1としているが、実際には複数の光学式センサ104を配置する。PC100は光学式センサ104による光学式マーカ103の計測結果に基づいて光学式マーカ103の位置姿勢を求める。光学式センサ104による光学式マーカ103の計測結果に基づいて該光学式マーカ103の位置姿勢を求めるための技術については周知であるため、該技術に係る詳細な説明は省略する。そしてPC100は、例えばHMD101に備わっているカメラをユーザの視点(ユーザ視点)とする場合には、予め求めた「ユーザ視点と光学式マーカ103との間の相対的な位置姿勢関係」を用いて、光学式マーカ103の位置姿勢をユーザ視点の位置姿勢に変換する。
The optical marker 103 that can be detected (measured) by the
なお、ユーザ視点の位置姿勢を取得する方法は特定の方法に限らない。例えば、ユーザ視点の位置姿勢を得るために用いる位置姿勢計測用センサは光学式センサ104に限らず、磁気センサ、超音波センサなど他の種類の位置姿勢計測用センサを用いてユーザ視点の位置姿勢を取得するようにしても良い。また、現実空間中に配されている二次元マーカ102をHMD101に備わっているカメラにより撮像し、該撮像により得られる撮像画像を用いてユーザ視点の位置姿勢を求めても良い。また、位置姿勢計測用センサと2次元マーカとを併用してユーザ視点の位置姿勢を取得するようにしても良い。
The method for acquiring the position and orientation of the user viewpoint is not limited to a specific method. For example, the position and orientation measurement sensor used to obtain the position and orientation of the user viewpoint is not limited to the
そしてPC100は、CGモデル130等の仮想物体を生成して仮想空間中に配置し、ユーザ視点から見た仮想物体の画像を生成する。そしてPC100は、この生成した仮想物体の画像と、HMD101が有するカメラにより撮像された現実空間の画像と、を合成した合成画像を複合現実空間の画像として生成し、該生成した複合現実空間の画像をHMD101に対して送出する。これによりユーザは、自身の視点の位置姿勢に応じた複合現実空間の画像を眼前に観察することができる。 Then, the PC 100 generates a virtual object such as the CG model 130 and arranges it in the virtual space, and generates an image of the virtual object viewed from the user viewpoint. The PC 100 generates a composite image obtained by synthesizing the generated virtual object image and the real space image captured by the camera of the HMD 101 as an image of the mixed reality space, and the generated mixed reality space image. Is sent to the HMD 101. Thereby, the user can observe the image of the mixed reality space according to the position and orientation of his / her viewpoint in front of the eyes.
また、現実空間には、ユーザが複合現実空間を体験している際の映像を表示する外部ディスプレイ160が配されている。この外部ディスプレイ160は、体験していないユーザにより体験者の映像を確認するために用いられる。
In the real space, an
本実施形態では、外部ディスプレイ160が、HMD101それぞれのPC100に接続されているものとする。そして、それぞれのHMD101で表示している映像がそれぞれの外部ディスプレイ160に表示されている。体験者AのHMD101の映像は、体験者A用の外部ディスプレイ160に表示されている。また、体験者BのHMD101の映像は、体験者B用の外部ディスプレイ160に表示されている。
In the present embodiment, it is assumed that the
なお、この外部ディスプレイ160への表示制御が本実施形態における特徴の一例である。
The display control on the
次に、HMD101及びPC100のそれぞれのハードウェア構成例について、図2のブロック図を用いて説明する。なお、図2に示した構成は、HMD101、PC100に適用可能なハードウェア構成の一例であり、図2の構成に限るものではない。 Next, a hardware configuration example of each of the HMD 101 and the PC 100 will be described with reference to the block diagram of FIG. The configuration illustrated in FIG. 2 is an example of a hardware configuration applicable to the HMD 101 and the PC 100, and is not limited to the configuration illustrated in FIG.
先ず、HMD101について説明する。右目・左目ビデオカメラ221は、ユーザの右目に提供する現実空間の画像を撮像するための右目用ビデオカメラと、ユーザの左目に提供する現実空間の画像を撮像するための左目用ビデオカメラと、を有し、それぞれのビデオカメラによる撮像画像(現実空間の画像)はPC100に送出される。
First, the HMD 101 will be described. The right-eye / left-
右目・左目ディスプレイ222は、ユーザの右目に映像(画像及び文字を含む)を提供するための右目用ディスプレイと、ユーザの左目に映像(画像及び文字を含む)を提供するための左目用ディスプレイと、を有する。PC100から送出された右目用の映像は右目用ディスプレイに表示され、左目用の映像は左目用ディスプレイに表示される。
The right-eye / left-
次に、PC100について説明する。汎用バス212は、右目・左目ビデオカメラ221から送出される現実空間の画像を受信するためのインターフェースとして機能するものであり、例えば、外部入力端子(例えば、IEEE1394端子)によって構成される。
Next, the
CPU201はROM202やRAM203に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU201は、PC100全体の動作制御を行うと共に、PC100が行うものとして後述する各処理を実行若しくは制御する。
The
ROM202には、書換不要のコンピュータプログラムやデータ、例えば、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)が格納されている。
The
RAM203は、ROM202や外部メモリ211からロードされたコンピュータプログラムやデータを格納するためのエリアを有する。またRAM203は、汎用バス212を介して右目・左目ビデオカメラ221から受信した現実空間の画像を格納するためのエリアを有する。またRAM203は、通信I/Fコントローラ208を介して光学式センサ104から受信した計測結果を格納するためのエリアを有する。またRAM203は、通信I/Fコントローラ208を介して客観カメラ106から受信した現実空間の画像を格納するためのエリアを有する。またRAM203は、CPU201が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM203は、各種のエリアを適宜提供することができる。
The
ビデオコントローラ206は、右目・左目ディスプレイ222、ディスプレイ210、外部ディスプレイ160の表示制御を行うためのものである。右目・左目ディスプレイ222に対しては、例えば外部出力端子(例えば、Digital Visual Interface)を用いて映像信号(画像や文字の表示用信号)の出力を行う。ディスプレイ210は、CRTや液晶画面などにより構成されており、CPU201による処理結果を画像や文字などでもって表示することができる。ディスプレイ210を用いて、システムの各種設定などの情報の入力・表示を行うことができる。
The
入力コントローラ205は、入力デバイス209の動作制御を行うためのものである。入力デバイス209は、マウスやキーボードなどのユーザインターフェースとして機能するものであり、ユーザが操作することで各種の指示をCPU201に対して入力することができる。例えば、入力デバイス209がタッチパネルの場合、ユーザがタッチパネルに表示されたアイコンやカーソルやボタンを押下(指等でタッチ)することにより、各種の指示の入力を行うことができる。なお、タッチパネルは、マルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。
The
メモリコントローラ207は、外部メモリ211への情報の読み書きを制御するためのものである。外部メモリ211は、ハードディスクドライブ装置、フレキシブルディスク、PCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等のメモリ装置である。外部メモリ211には、OS(オペレーティングシステム)や、PC100が行うものとして後述する各処理をCPU201に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。
The
外部メモリ211に保存されているコンピュータプログラムには、以下に説明する各フローチャートに従った処理をCPU201に実行させるためのコンピュータプログラムが含まれている。また、外部メモリ211に保存されているデータには、本実施形態を含む以下の各実施形態において既知の情報として取り扱う情報や、CGモデル130を含む様々な仮想物体の描画に要するデータ(描画データ)が含まれている。外部メモリ211に保存されているコンピュータプログラムやデータは、CPU201による制御に従って適宜RAM203にロードされ、CPU201による処理対象となる。なお、外部メモリ211は、USBメモリ、SDカードなどのメモリ装置であっても良い。
The computer program stored in the
通信I/Fコントローラ208は、光学式センサ104から計測結果や現実空間の画像を受信するためのインターフェースとして機能するものである。また通信I/Fコントローラ208は、LANやインターネットなどのネットワークを介して外部の機器との間のデータ通信を行うためのインターフェースとして機能するものである。例えば、通信I/Fコントローラ208は、TCP/IPを用いたインターネット通信等が可能である。また通信I/Fコントローラ208は、ギガビットイーサネット(登録商標)等を通じて光学式センサ104との通信も制御する。なお、図1では、光学式センサ104、及び外部ディスプレイ160と、PC100と、の間のデータ通信は有線であるが、無線であっても良い。例えば、PC100は、LANケーブルやUSBケーブル、無線通信など様々な通信形態によって光学式センサ104、外部ディスプレイ160との間のデータ通信を行うことができる。
The communication I /
上記の汎用バス212、CPU201、ROM202、RAM203、ビデオコントローラ206、入力コントローラ205、メモリコントローラ207、通信I/Fコントローラ208は何れも、システムバス204に接続されている。
The general-
なお、本実施形態では、HMD101とPC100とを別個の機器とするが、HMD101とPC100とを一体化させても良い。また、PC100をサーバ装置として取り扱っても良い。
In the present embodiment, the
次に、PC100のモジュール構成例について、図4のブロック図を用いて説明する。オペレーティングシステム401は、HMD101との間の入出力を制御し、右目・左目ビデオカメラ221から汎用バス212を介して得られた現実空間の画像を複合現実感プラットフォーム403へと受け渡す。またオペレーティングシステム401は、グラフィックエンジン402で描画された複合現実空間の画像を、ビデオコントローラ206を介して、右目・
左目ディスプレイ222へ出力する。
Next, a module configuration example of the
Output to the
グラフィックエンジン402は、外部メモリ211に記憶されている仮想物体の描画データを用いて仮想物体の画像を生成し、該生成した仮想物体の画像を右目・左目ビデオカメラ221による撮像画像上に重畳することで複合現実空間の画像を生成する。仮想物体の画像の生成(描画)に利用するエンジンは、例えば、OpenGLやDirectXなどの広く利用されているグラフィックエンジンでも、独自に開発したグラフィックエンジンでもよい。なお、本実施形態ではグラフィックライブラリとしてOpenGLを利用するものとする。
The graphic engine 402 generates a virtual object image using the virtual object drawing data stored in the
複合現実感プラットフォーム(MRプラットフォームともいう)403は、上記のようにしてユーザの視点の位置姿勢を求め、現実空間と仮想空間との位置合わせを行う。これらの技術は、例えば、特開2002−32784号公報、特開2006−072903公報、特開2007−166427公報等に開示されている既存の技術を用いて実現することが可能である。 The mixed reality platform (also referred to as MR platform) 403 obtains the position and orientation of the user's viewpoint as described above, and aligns the real space and the virtual space. These techniques can be realized by using existing techniques disclosed in, for example, Japanese Unexamined Patent Application Publication Nos. 2002-32784, 2006-072903, and 2007-166427.
複合現実感アプリケーション(MRアプリケーションやビューアアプリケーションともいう)404は、複合現実感プラットフォーム403から視点の位置姿勢や、仮想物体の色や形状の情報、仮想物体の位置姿勢等の仮想物体の描画に要する情報を受け付け、グラフィックエンジン402に対して、仮想物体の画像の描画命令を発行する。この時、OpenGLのAPIを用いて、描画する仮想物体の識別情報、位置姿勢の情報を設定した命令を発行する。
A mixed reality application (also referred to as an MR application or a viewer application) 404 is required to draw a virtual object such as a viewpoint position and orientation, information on the color and shape of a virtual object, and a position and orientation of a virtual object from the
また、複合現実感プラットフォーム403は、客観カメラ106から撮像画像を受信すると、該撮像画像を複合現実感アプリケーション404へ受け渡す。補正モジュール405は、グラフィックエンジン402で描画された画像をブレ補正する処理を行う。ブレ補正する処理を行うか否かについての制御は、複合現実感プラットフォーム403や複合現実感アプリケーション404が制御するものとする。
Further, when the
補正モジュール405は、電子式の手ブレ補正技術を用いることで実現可能である。例えば、撮影された画像を一度メモリに読み込み、次に撮影された画像と比較して、像のズレを画素をずらすことで補正する。ブレ補正する技術については様々あり、いずれの補正技術を用いて実現してもよい。補正する画像は、HMD101に出力する画像である。
The
補正モジュール405によりブレ補正した画像またはブレ補正しない画像を外部ディスプレイ160へ出力する。
The image corrected by the
次に、1枚(1フレーム分)の複合現実空間の画像を生成してHMD101や外部ディスプレイ160に表示するためにHMD101及びPC100が行う処理について、図5のフローチャートに従って説明する。
Next, processing performed by the
ステップS500では、PC100で、ブレ補正に係る補正処理設定を行う。補正処理設定については、HMD情報700とCGモデル情報720に設定される。PC100のディスプレイ210で表示される設定画面から設定情報が入力される。
In step S500, the
ここで、図7について説明する。図7は、本実施形態で用いる設定情報の一例を示す図である。設定情報は、外部メモリ211に記憶されるものとする。
Here, FIG. 7 will be described. FIG. 7 is a diagram illustrating an example of setting information used in the present embodiment. It is assumed that the setting information is stored in the
設定情報には、HMD情報700とCGモデル情報720がある。HMD情報700は各HMD101の設定が記憶されている。
The setting information includes HMD information 700 and CG model information 720. The HMD information 700 stores the settings of each
CGモデル情報720は、仮想空間における各CGモデルの設定が記憶されている。 The CG model information 720 stores settings for each CG model in the virtual space.
HMD情報700は、HMDID701、位置702、姿勢703、外部ディスプレイ表示有無704、対象705、設定値706の情報を有している。
The HMD information 700 includes information of
HMDID701は、HMD101ごとのIDを記憶しているものである。位置702と姿勢703は、複合現実感プラットフォーム403で算出されたHMD101の位置姿勢情報を記憶するものである。この情報は常に更新されるものである。
The
外部ディスプレイ表示有無704は、HMD101に出力する画像を外部ディスプレイに出力するか否かを設定した情報(フラグ)である。ONの場合には、外部ディスプレイ160に出力する設定でありブレ補正処理を行う場合の設定である。OFFの場合には、外部ディスプレイ160に出力しない設定であり、ブレ補正処理を行わない場合の設定である。また、ONの場合には、対象705と設定値706が設定されるものとする。
The external display display presence /
なお、外部ディスプレイ表示有無704がONの場合であっても、対象705と設定値706が設定されていない場合には、外部ディスプレイ160に画像を出力はするが補正処理をしないように制御する構成であってもよい。
Even when the external display display presence /
対象705と設定値706は、ブレ補正処理を行う場合の設定であり、ブレ補正処理を行う基準が設定されている。
The
対象705は、他の体験者のHMD101との関係によりブレ補正処理を解除するか、CGとの関係によりブレ補正処理を解除するのかを設定できる。HMD101に近づいた際にブレ補正処理を解除する場合には、対象705に対象とするHMDのIDが設定され、設定値706に距離情報が記憶される。
The
また、CGに近づいた際に補正処理を解除する場合には、対象705に対象とするCGが設定され、設定値706に距離情報が記憶される。
Further, when the correction process is canceled when approaching the CG, the target CG is set as the
対象705にCGのモデルIDが設定されてもよいが、本実施形態では、補正の解除処理がされるCGかは、CGモデル情報720で設定されるものとする。
Although the CG model ID may be set for the
CGモデル情報720は、モデルID721、モデル名722、ファイルパス723、位置724、姿勢725、補正制御解除対象726の情報を有している。
The CG model information 720 includes information on a
モデルID721はCGモデルのIDを記憶しているものである。モデル名722は、CGモデル自体のファイル名称を記憶しているものである。ファイルパス723は、CGモデルとなるファイルが保存されている場所を記憶しているものである。
The
位置724、姿勢725は、CGモデルを表示する現実空間において表示すべき仮想空間上の位置姿勢の値を有している。
The
補正制御解除対象726は、補正処理を解除するか否かを設定する情報を記憶しているものである。補正処理(補正制御)を解除するCGモデルの場合には、ONが設定される。補正処理(補正制御)を解除しないCGモデルの場合には、OFFが設定される。
The correction
すなわち、補正制御解除対象726でONとなっており、対象705がCGとなっている場合に、所定の位置にHMD101があると補正処理が解除され、HMD101で表示している画像と同じブレのある画像が外部ディスプレイ160に表示される。
That is, when the correction
ステップS501では、図7の設定情報をメモリに読み込み、HMD101が起動される。HMD101が起動されると、ステップS502へ処理を移す。
In step S501, the setting information of FIG. 7 is read into the memory, and the
ステップS502では、右目・左目ビデオカメラ221の機能を用いて現実画像の撮像を開始する。
In step S502, real image capturing is started using the functions of the right-eye / left-
ステップS503では、右目・左目ビデオカメラ221は、撮像した現実空間の画像(右目用カメラによる撮像画像、左目用カメラによる撮像画像)をPC100に対して出力する。なお撮像と送信は繰り返し行われ、PC100から順次MR画像を受信してHMD101の右目・左目ディスプレイ222で表示する。
In step S <b> 503, the right-eye / left-
ステップS504では、CPU201は、右目・左目ビデオカメラ221から出力された現実空間の画像を汎用バス212を介して受信し、ステップS505ではCPU201は、該受信した現実空間の画像をRAM203や外部メモリ211に格納する。
In step S504, the
ステップS506では、CPU201は、光学式センサ104による光学式マーカ103の計測結果を通信I/Fコントローラ208を介して取得し、該取得した計測結果に基づいて上記のようにしてユーザ視点の位置姿勢(HMD101の位置姿勢)を求める。ステップS506で求めるユーザ視点の位置姿勢は、右の視点(右目用ビデオカメラ)の位置姿勢、左の視点(左目用ビデオカメラ)の位置姿勢、である。右の視点については上記と同様、予め求めた「右の視点と光学式マーカ103との間の相対的な位置姿勢関係」を用いて、光学式マーカ103の位置姿勢を変換することで求めることができる。同様に、左の視点については上記と同様、予め求めた「左の視点と光学式マーカ103との間の相対的な位置姿勢関係」を用いて、光学式マーカ103の位置姿勢を変換することで求めることができる。
In step S506, the
ステップS507では、CPU201は、ステップS506で求めた視点の位置姿勢を、HMD101の識別情報(ID)と関連づけて外部メモリ211に格納する。例えば、図7のHMD情報700に示す如く、HMDごとにID、位置、姿勢を対応付けて管理している。
In step S507, the
ステップS508では、CPU201は、図7のCGモデル情報720を基に、外部メモリ211に格納されている仮想物体の描画データをRAM203に読み出し、該読み出した描画データに基づいて仮想物体を生成し、該生成した仮想物体を仮想空間中に配置する。そしてCPU201は、ステップS506で求めた視点の位置姿勢に基づいて、該視点から見た仮想物体の画像を生成する。そしてCPU201は、ステップS504で受信した現実空間の画像上に、仮想物体の画像を重畳させることで複合現実空間の画像(MR画像)を生成する。厳密にはCPU201は、右目用カメラによる撮像画像(現実空間の画像)上に、右の視点の位置姿勢に基づいて生成した仮想物体の画像を重畳させることで、右目用の複合現実空間の画像を生成すると共に、左目用カメラによる撮像画像(現実空間の画像)上に、左の視点の位置姿勢に基づいて生成した仮想物体の画像を重畳させることで、左目用の複合現実空間の画像を生成する。
In step S508, the
ステップS508は、体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する生成処理の一例を示すものである。 Step S508 shows an example of a generation process for generating a synthesized image obtained by synthesizing the virtual object image displayed in accordance with the position and orientation related to the viewpoint of the user.
ステップS509では、CPU201は、外部ディスプレイ表示有無704の設定に基づいて、外部ディスプレイにステップS508で生成されたMR画像を表示するか否かを判定する。ONの場合には、ステップS510へ処理を移し、OFFの場合には、ステップS514へ処理を移す。
In step S509, the
ステップS510では、CPU201は、外部ディスプレイ160への出力の際の補正制御を行う。補正制御処理の詳細については、図6にて詳述する。
In step S <b> 510, the
ステップS511では、CPU201は、ビデオコントローラ206を介して外部ディスプレイ160へMR画像を出力する。このMR画像は、ブレ補正処理がされた画像の場合と、ブレ補正処理がされていない(解除された)画像の場合がある。
In step S511, the
ステップS511は、合成画像を用いてブレ補正された合成画像を第2表示装置に出力する第2出力処理の一例を示すものである。また、体験者の位置に基づき、ブレ補正に係る条件を満たす場合に、ステップS508で生成された合成画像を第2表示装置に出力する第2出力処理の一例を示すものである。 更に、対象物との距離を満たさない場合に、ブレ補正された合成画像を第2表示装置に出力し、対象物との距離を満たさない場合に、ブレ補正を解除してステップS508で生成された合成画像を第2表示装置に出力するものである。 Step S511 shows an example of a second output process for outputting a composite image that has been shake-corrected using the composite image to the second display device. In addition, an example of the second output process for outputting the composite image generated in step S508 to the second display device when the condition for blur correction is satisfied based on the position of the experience person is shown. Furthermore, when the distance to the object is not satisfied, the shake-corrected composite image is output to the second display device, and when the distance to the object is not satisfied, the blur correction is canceled and generated in step S508. The synthesized image is output to the second display device.
ステップS512では、外部ディスプレイ160が、MR画像をPC100から受信し、ステップS513で、受信したMR画像を表示する。
In step S512, the
ステップS513において、外部ディスプレイ160で表示した例が、図8と図9である。
The example displayed on the
図8は、補正制御解除するCG802を体験者Aが見ているが、設定値706の距離外にいる(条件を満たさない)ためブレ補正処理がされ表示されている状態である。
FIG. 8 shows a state where the user A is looking at the
図9は、補正制御解除するCG902を体験者Aが見ており、設定値706の距離内にい
る(基準を満たす)ためブレ補正処理が解除され表示されている状態である。902の点線のCGは、ブレにより表示されているモデルを示している。なお、903の点線の表示はブレを便宜的に説明するためのものであり、点線表示に限定されるものではない。
FIG. 9 shows a state in which the user A is looking at the
また、901のように、体験者以外で外部ディスプレイ160を見ているユーザに注意を促すため、「体験者と同じ映像が表示されています。ブレ補正処理がないため気分が悪くなることがあります。ご注意ください。」と表示する。この表示は、補正制御を解除した際に、PC100から出力される情報である。また、901の表示は、図7の設定情報(不図示)にて、任意に設定することができるものとする。
In addition, as in 901, in order to call attention to the user who is viewing the
ステップS514では、CPU201は、ステップS508において生成したMR画像(右目用の複合現実空間の画像、左目用の複合現実空間の画像)を、ビデオコントローラ206を介してHMD101に対して出力する。
In step S514, the
ステップS514は、ステップS508で生成された合成画像を体験者の利用する第1表示装置に出力する第1出力処理の一例を示すものである。 Step S514 shows an example of a first output process for outputting the composite image generated in step S508 to the first display device used by the experience person.
ステップS515では、右目・左目ディスプレイ222は、ステップS514においてPC100から送信された右目用の複合現実空間の画像及び左目用の複合現実空間の画像を受信する。そしてステップS516では、右目・左目ディスプレイ222は、右目用の複合現実空間の画像を右目用ディスプレイに表示する。
In step S515, the right-eye / left-
次に、ステップS510の補正制御処理について、図6のフローチャートに従って説明する。 Next, the correction control process in step S510 will be described with reference to the flowchart of FIG.
ステップS601では、CPU201は、図7の設定情報に基づき、他の体験者のHMD101、或いは、対象のCGを特定する。なお、他の体験者のHMD101の場合には、他の体験者が撮像された画像に含まれることが望ましい。すなわち、他の体験者を見ている状態で設定値等の条件を満たした場合に、ブレ補正制御の解除がされるものである。
In step S601, the
ステップS602では、CPU201は、他の体験者のHMD101、或いは、対象のCGとの距離を算出して、取得する。距離の算出は、対象となる体験者のHMD101の位置と他の体験者のHMDの位置、或いは、対象となる体験者のHMD101の位置とCGとの位置により算出することができる。
In step S602, the
ステップS603では、CPU201は、取得した距離が、設定値706の距離を満たすか否かを判定する。具体的には、設定値706の距離より遠い位置に対象となる体験者のHMD101が存在するか否かを判定する。遠い位置にある場合には、条件を満たさないとして、ステップS607へ処理を移す。近い位置にある場合には、条件を満たすとして、ステップS604へ処理を移す。 すなわち、上述の条件は、ブレ補正に係る条件であり、ブレ補正を解除する条件である。また、体験者の位置と対象物との距離でもある。
In step S <b> 603, the
ステップS604では、CPU201は、ブレ補正が解除されたか否かを判定する。すなわち、ブレ補正状態からブレ補正を行わない状態(解除状態)となった場合には、ステップS605へ処理を移す。既に解除状態である場合には、ステップS606へ処理を移す。
In step S604, the
ステップS605では、通常の場合にはブレ補正を実行しているため、ブレ補正が解除された場合には、体験者以外のユーザに補正処理が解除されたことを注意喚起するべく、CPU201は、ブレ補正がされていないことの情報を外部ディスプレイ160へ出力(通知)する。注意喚起の例が、図9の901である。
In step S605, since blur correction is performed in a normal case, when the blur correction is canceled, the
なお、本実施形態では、ブレ補正が解除された際に注意喚起するように制御したが、ブレ補正が解除されている間は注意喚起の情報を出力する(所定間隔で出力する)ようにしてもよい。 In this embodiment, control is performed so as to call attention when blur correction is canceled. However, warning information is output (output at predetermined intervals) while blur correction is cancelled. Also good.
また、注意喚起の表示がされており、ブレ補正がされるタイミングになった場合には、注意喚起の表示を解除するように制御することは言うまでもない。 Needless to say, when the warning display is displayed and the timing for correcting the blur is reached, control is performed to cancel the warning display.
ステップS605は、体験者の位置に基づきブレ補正に係る条件を満たし、ステップS508で生成された合成画像を第2表示装置に出力する場合に、ブレ補正がされていないこと通知する通知処理の一例を示すものである。 Step S605 is an example of notification processing for notifying that blur correction has not been performed when the conditions relating to blur correction are satisfied based on the position of the experience person and the composite image generated in step S508 is output to the second display device. Is shown.
ステップS606では、CPU201は、ステップS508で生成されたMR画像(補正処理なしのMR画像)を取得する。
In step S606, the
ステップS607では、ステップS508で生成されたMR画像を用いて、補正モジュール405でブレ補正を実行する。
In step S607, blur correction is performed by the
ステップS608では、CPU201は、ステップS607で補正したMR画像を取得する。
In step S608, the
ステップS606又はステップS607で取得したMR画像を、ステップS511で出力する。 The MR image acquired in step S606 or step S607 is output in step S511.
以上、本実施形態によれば、HMD101の条件により、ブレ補正処理の有無を切り替えて外部ディスプレイに表示を行うため、使い勝手のよい仕組みとなる。特に、長時間ブレのある映像をみることを軽減し、酔いなどを防ぐことができる。
As described above, according to the present embodiment, the presence / absence of the blur correction process is switched according to the conditions of the
他の実施形態として、以下のような形態も考えられる。 上記の実施形態では、条件を満たす場合にブレ補正処理を解除するものとしたが、他の実施形態では、条件を満たす(例えばHMD101が設定距離外にあるという条件を満たす)場合にブレ補正処理を実行し、条件を満たさない(例えばHMD101が設定距離内にあるという条件を満たす)場合にブレ補正処理を解除する構成とする。
The following forms are also conceivable as other embodiments. In the above-described embodiment, the blur correction process is canceled when the condition is satisfied. However, in other embodiments, the blur correction process is performed when the condition is satisfied (for example, the condition that the
このように、ブレの補正処理の実行と解除を切替することができればよく、条件を満たす基準(距離内か距離外どちらを基準とするか)については、どちらであってもよい。 In this way, it is only necessary to switch between execution and cancellation of the blur correction process, and any of the criteria that satisfy the condition (whether the reference is within or outside the distance) may be used.
最後に、上記のPC100の機能構成例について、図3のブロック図を用いて説明する。なお、図3の各機能部はハードウェアで実装しても良いし、ソフトウェア(コンピュータプログラム)で実装しても良い。前者の場合、例えばこのようなハードウェアをHMD101に搭載することで、HMD101は、PC100が行うものとして上述した各処理をも実行することができる。後者の場合、このようなコンピュータプログラムを外部メモリ211に保存しておき、CPU201がこのコンピュータプログラムを適宜RAM203に読み出して実行することで、対応する機能部の機能を実現することができる。 なお、PC100は、画像処理装置として言い換えることも可能である。
Finally, a functional configuration example of the
生成部301は、体験者の視点に係る位置姿勢に応じて表示される仮想物体の画像を合成した合成画像を生成する機能部である。撮像された現実画像とCGとを合成した複合現実空間の画像であることが望ましい。
The
第1出力部302は、生成部301により生成された合成画像を体験者の利用する第1表示装置(例えば、HMD101)に出力する機能部である。
The
第2出力部303は、合成画像を用いてブレ補正された合成画像を第2表示装置(例えば、外部ディスプレイ160)に出力する機能部である。また、第2出力部303は、体験者の位置姿勢に基づき、ブレ補正に係る条件(具体的には、ブレ補正を解除する条件)を満たす場合に、生成部301により生成された合成画像を第2表示装置に出力する機能部である。
The
通知部304は、体験者の位置姿勢に基づきブレ補正を解除する条件を満たし、生成部301により生成された合成画像を第2表示装置に出力する場合に、ブレ補正がされていないこと通知する機能部である。通知の例は901である。
The
ブレ補正を解除する条件とは、体験者の位置姿勢と対象物との距離である。 The condition for canceling the shake correction is a distance between the position and orientation of the experience person and the object.
また、第2出力部303は、対象物との距離を満たさない場合に、ブレ補正された合成画像を第2表示装置に出力し、対象物との距離を満たさない場合に、ブレ補正を解除して生成部301により生成された合成画像を第2表示装置に出力する。
In addition, the
つまり、本実施形態に係る画像処理装置は、外部ディスプレイへ合成画像を表示する際に、体験者の位置によりブレ補正をしない合成画像を出力することで検証などの形態において利便性を高めることができる。特に検証に不要な動作の場合にはブレ補正がされ、検証に必要(正確な表示が必要)な場合にはブレ補正がされないように制御するため、外部で確認しているユーザの酔いなどの体調不良を軽減しつつ、外部からの検証を容易にすることができる。 In other words, the image processing apparatus according to the present embodiment can improve convenience in a form such as verification by outputting a composite image that is not subjected to shake correction depending on the position of the user when displaying the composite image on an external display. it can. Especially when motion is not necessary for verification, shake correction is performed. When verification is required (accurate display is required), control is performed so that blur correction is not performed. Verification from the outside can be facilitated while reducing poor physical condition.
なお、外部ディスプレイは、体験者以外が利用する表示装置であればいずれの装置であってもよい。 It should be noted that the external display may be any device as long as it is a display device used by someone other than the experience person.
なお、上述の実施形態では、HMD101とPC100とを別個の装置としているが、HMD101とPC100とを一体化させ、HMD101は自機が行うものとして上述した各処理だけでなく、PC100が行うものとして説明した上記の各処理も行うようにしても良い。
In the above-described embodiment, the
また上述の実施形態では、HMD101はビデオシースルー方式の頭部装着型表示装置であるものとして説明した。しかし、HMD101として光学シースルー方式の頭部装着型表示装置を使用しても良い。
In the above-described embodiment, the
また、ユーザの頭部に装着されているHMD101に加えて若しくは代えて他の表示装置、例えばタブレット端末装置やスマートフォン等の携帯端末装置に対してユーザ視点に基づく複合現実空間の画像を出力するようにしても良い。この場合、携帯端末装置は、該携帯端末装置に備わっているセンサやアプリケーションを使用することで該携帯端末装置の位置姿勢をユーザ視点として取得することができる。ユーザ視点に基づく複合現実空間の画像はPC100が生成しても良いし、携帯端末装置側で生成しても良い。
In addition to or instead of the
また、上述の実施形態では、現実空間と仮想空間とを合成した複合現実空間をユーザに提示する複合現実感提示システム(MRシステム)を例にとり説明したが、仮想空間のみをユーザに提示する、所謂VRシステムに適用しても構わない。その場合、現実空間の撮像や現実空間の画像との合成に係る処理は不要となる。 In the above-described embodiment, the mixed reality presentation system (MR system) that presents the user with the mixed reality space obtained by synthesizing the real space and the virtual space has been described as an example. However, only the virtual space is presented to the user. You may apply to what is called a VR system. In that case, processing related to imaging of the real space and synthesis with the image of the real space is not necessary.
また、上述の実施形態では説明を簡単にするために、1台のPC100に1台のHMD101が接続されているものとしたが、1台のPC100に2台以上のHMD101を接続するようにしても良い。
Further, in the above-described embodiment, in order to simplify the description, one
以上、本発明の実施形態について示したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 Although the embodiment of the present invention has been described above, the present invention can take an embodiment as a system, apparatus, method, program, recording medium, or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.
また、本発明におけるプログラムは、フローチャートの処理方法をコンピュータが実行可能なプログラムであり、本発明の記憶媒体は処理方法をコンピュータが実行可能なプログラムが記憶されている。 The program according to the present invention is a program that allows a computer to execute the processing method of the flowchart, and the storage medium according to the present invention stores a program that allows the computer to execute the processing method.
以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読み出し実行することによっても、本発明の目的が達成されることは言うまでもない。 As described above, a recording medium that records a program that implements the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus stores the program stored in the recording medium. It goes without saying that the object of the present invention can also be achieved by executing reading.
この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。 In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium storing the program constitutes the present invention.
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク、ソリッドステートドライブ等を用いることができる。 As a recording medium for supplying the program, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD-ROM, magnetic tape, nonvolatile memory card, ROM, EEPROM, silicon A disk, solid state drive, or the like can be used.
また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on an instruction of the program is actually It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the processing and the processing is included.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, after the program read from the recording medium is written to the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board is based on the instructions of the program code. It goes without saying that the case where the CPU or the like provided in the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 Further, the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Needless to say, the present invention can be applied to a case where the present invention is achieved by supplying a program to a system or apparatus. In this case, by reading a recording medium storing a program for achieving the present invention into the system or apparatus, the system or apparatus can enjoy the effects of the present invention.
さらに、本発明を達成するためのプログラムを通信線上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 Furthermore, by downloading and reading a program for achieving the present invention from a server, database, etc. on a communication line using a communication program, the system or apparatus can enjoy the effects of the present invention.
なお、以上説明した各実施形態の一部若しくは全部を適宜組み合わせて使用しても構わないし、以上説明した各実施形態の一部若しくは全部を選択的に使用しても構わない。 In addition, a part or all of each embodiment described above may be used in combination as appropriate, or a part or all of each embodiment described above may be selectively used.
100 PC 101 HMD 103 光学式マーカ 102 二次元マーカ 104 光学式センサ 130 CGモデル 160 外部ディスプレイ
100
Claims (6)
を更に備えることを特徴とする請求項1に記載の画像処理装置。 And a notification means for notifying that the shake correction is not performed when the condition relating to the shake correction is satisfied based on the position of the experience person and the composite image generated by the generation means is output to the second display device. The image processing apparatus according to claim 1.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017148499A JP7148779B2 (en) | 2017-07-31 | 2017-07-31 | Image processing device, its processing method, and program |
JP2022068056A JP7319575B2 (en) | 2017-07-31 | 2022-04-18 | Image processing device, its processing method, and program |
JP2023117247A JP2023145551A (en) | 2017-07-31 | 2023-07-19 | Image processing device, processing method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017148499A JP7148779B2 (en) | 2017-07-31 | 2017-07-31 | Image processing device, its processing method, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022068056A Division JP7319575B2 (en) | 2017-07-31 | 2022-04-18 | Image processing device, its processing method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019029868A true JP2019029868A (en) | 2019-02-21 |
JP2019029868A5 JP2019029868A5 (en) | 2020-09-03 |
JP7148779B2 JP7148779B2 (en) | 2022-10-06 |
Family
ID=65478795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017148499A Active JP7148779B2 (en) | 2017-07-31 | 2017-07-31 | Image processing device, its processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7148779B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007299326A (en) * | 2006-05-02 | 2007-11-15 | Canon Inc | Information processor, its control method, image processor, program and storage medium |
JP6154531B1 (en) * | 2016-09-30 | 2017-06-28 | 株式会社ドワンゴ | Display device, display method, and display program |
-
2017
- 2017-07-31 JP JP2017148499A patent/JP7148779B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007299326A (en) * | 2006-05-02 | 2007-11-15 | Canon Inc | Information processor, its control method, image processor, program and storage medium |
JP6154531B1 (en) * | 2016-09-30 | 2017-06-28 | 株式会社ドワンゴ | Display device, display method, and display program |
Also Published As
Publication number | Publication date |
---|---|
JP7148779B2 (en) | 2022-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102502404B1 (en) | Information processing device and method, and program | |
JP4227561B2 (en) | Image processing method and image processing apparatus | |
US20200312033A1 (en) | Image generation device, image generation system, image generation method, and program | |
JP7372061B2 (en) | Remote work support system | |
JP7182920B2 (en) | Image processing device, image processing method and program | |
JP2009123018A (en) | Image processor and image processing method | |
JP2015176559A (en) | information processing method, information processing apparatus, and program | |
JP2006318095A (en) | Image processing method and image processor | |
US11003408B2 (en) | Image generating apparatus and image generating method | |
JP2016105279A (en) | Device and method for processing visual data, and related computer program product | |
JP2017134771A (en) | Information processing device, information processing method, and program | |
US10901213B2 (en) | Image display apparatus and image display method | |
JP2006126936A (en) | Image processing method and image processing device | |
JP2006285789A (en) | Image processing method and image processor | |
JP6641122B2 (en) | Display device, information processing device, and control method therefor | |
JP2005339377A (en) | Image processing method and image processor | |
JP2018063567A (en) | Image processing device, image processing method and program | |
JP2015201734A (en) | Image processing system, control method of the same, and program | |
JP7319575B2 (en) | Image processing device, its processing method, and program | |
JP7279113B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM | |
JP6858007B2 (en) | Image processing system, image processing method | |
JP7148779B2 (en) | Image processing device, its processing method, and program | |
JP2004233201A (en) | Position attitude measuring method | |
JP4217661B2 (en) | Image processing method and image processing apparatus | |
JP2021131490A (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20180703 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20181031 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200720 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200720 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210727 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220905 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7148779 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |