JP6360348B2 - Image processing method and image processing program - Google Patents

Image processing method and image processing program Download PDF

Info

Publication number
JP6360348B2
JP6360348B2 JP2014093582A JP2014093582A JP6360348B2 JP 6360348 B2 JP6360348 B2 JP 6360348B2 JP 2014093582 A JP2014093582 A JP 2014093582A JP 2014093582 A JP2014093582 A JP 2014093582A JP 6360348 B2 JP6360348 B2 JP 6360348B2
Authority
JP
Japan
Prior art keywords
imaging
data
arrangement
real object
imaging data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014093582A
Other languages
Japanese (ja)
Other versions
JP2015210763A (en
Inventor
佐野 高一
高一 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Monokoto Inc
Original Assignee
Monokoto Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Monokoto Inc filed Critical Monokoto Inc
Priority to JP2014093582A priority Critical patent/JP6360348B2/en
Publication of JP2015210763A publication Critical patent/JP2015210763A/en
Application granted granted Critical
Publication of JP6360348B2 publication Critical patent/JP6360348B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、画像処理方法、及び画像処理プログラムに関する。   The present invention relates to an image processing method and an image processing program.

カメラ等の撮像手段で撮像して生成された撮像データにアノテーションを重ねることにより、現実世界を拡張して表示できるAR(Augmented Reality)技術が知られている。アノテーションは、マーカに関連付けてコンピュータに記憶された画像データから成り、現実には存在していない仮想オブジェクトである。AR技術においては、実際に存在する物品(実オブジェクト)に付されたマーカを認識することで、この仮想オブジェクトの表示位置等が算出される。   AR (Augmented Reality) technology is known in which the real world can be expanded and displayed by superimposing annotations on imaging data generated by imaging with an imaging means such as a camera. An annotation is a virtual object that consists of image data stored in a computer in association with a marker and does not actually exist. In the AR technology, the display position of the virtual object is calculated by recognizing a marker attached to an actually existing article (real object).

このようなAR技術に関して、例えば特許文献1の画像合成方法によれば、机(実オブジェクト)上のマーカを認識することにより、表示画面には机上にコップ(仮想オブジェクト)が存在しているかのように表示される。この画像合成方法は、マーカを配置する予定範囲(机の表面)の3次元情報を予め準備するステップと、撮像して撮像データを生成するステップと、撮像データ中のマーカを検出するステップと、3次元情報を撮像データ中のマーカ位置に重畳するステップと、さらにこの上に仮想オブジェクトを重畳するステップと、から構成される。この画像合成方法を用いれば、マーカが3次元情報により隠蔽されるので、実オブジェクトと仮想オブジェクトが違和感なく表示される。   With regard to such an AR technology, for example, according to the image composition method of Patent Document 1, by recognizing a marker on a desk (real object), whether a cup (virtual object) exists on the desk on the display screen. Is displayed. In this image composition method, a step of preparing in advance three-dimensional information of a planned range (desk surface) where a marker is arranged, a step of capturing an image to generate image data, a step of detecting a marker in the image data, The method includes a step of superimposing three-dimensional information on the marker position in the imaging data, and a step of superimposing a virtual object thereon. If this image composition method is used, since the marker is hidden by the three-dimensional information, the real object and the virtual object are displayed without a sense of incongruity.

この仮想オブジェクトとしては様々な画像データを採用できるので、仮想オブジェクトの表示内容は特に限定されない。しかし、実オブジェクトに仮想オブジェクトを付加して表示するというAR技術においては、実オブジェクトは実際の映像(撮像データ)を表示し続ける必要があった。すなわち、従来は実オブジェクトそのものを様々な態様で表示することができなかった。   Since various image data can be adopted as the virtual object, the display content of the virtual object is not particularly limited. However, in the AR technology in which a virtual object is added to a real object for display, the real object needs to continue displaying actual video (imaging data). That is, conventionally, the real object itself cannot be displayed in various forms.

特開2005−234757号公報JP 2005-234757 A

本発明は、実オブジェクトそのものを様々な態様で表示できる画像処理方法、及び画像処理プログラムを提供することを目的とする。   An object of the present invention is to provide an image processing method and an image processing program that can display a real object itself in various modes.

本発明の画像処理方法は、撮像手段が、略一定の撮像位置及び撮像姿勢で撮像し、撮像データを生成する撮像ステップと、マーカを有する実オブジェクトの配置後に生成された前記撮像データに含まれる該マーカを検出して、前記撮像位置及び前記撮像姿勢に対する該実オブジェクトの配置位置及び配置姿勢を特定する第一検出ステップと、前記マーカに対応付けて記憶手段に記憶された仮想オブジェクトのオブジェクト画像データを読み出して、該オブジェクト画像データを前記実オブジェクトの配置前に生成された前記撮像データに重畳して第一合成データを生成する第一合成ステップと、表示手段に、前記実オブジェクトの配置位置及び配置姿勢が特定されるまで前記撮像データを表示し続け、該実オブジェクトの配置位置及び配置姿勢の特定後に前記第一合成データを表示する表示切換ステップと、を含み、
前記第一合成ステップにおいて、前記第一検出ステップにより特定された前記実オブジェクトの配置位置及び配置姿勢に対応する位置及び姿勢で前記オブジェクト画像データの重畳を行うことを特徴とする。
The image processing method of the present invention is included in the imaging step in which the imaging unit captures an image at a substantially constant imaging position and orientation and generates imaging data, and the imaging data generated after the arrangement of the real object having the marker. A first detection step of detecting the marker and specifying the arrangement position and arrangement orientation of the real object with respect to the imaging position and the imaging orientation; and an object image of a virtual object stored in a storage unit in association with the marker A first compositing step of reading out data and superimposing the object image data on the imaging data generated before the arrangement of the real object to generate first composite data; And continuously displaying the imaging data until the arrangement posture is specified, and the arrangement position and arrangement figure of the real object Of anda display switching step of displaying the first combined data after a specific,
In the first composition step, the object image data is superimposed at a position and posture corresponding to the placement position and placement posture of the real object specified in the first detection step.

本発明の画像処理方法は、さらに、撮像状況を監視する監視ステップと、前記撮像状況が変化していない場合の前記撮像データを実オブジェクトの配置前の撮像データとして記憶する記憶ステップと、を含むことを特徴とする。   The image processing method of the present invention further includes a monitoring step for monitoring an imaging situation, and a storage step for storing the imaging data when the imaging situation has not changed as imaging data before arrangement of a real object. It is characterized by that.

本発明の画像処理方法は、前記第一検出ステップによって前記マーカが検出される直前に記憶された前記撮像データを実オブジェクトの配置前の撮像データとして用いることを特徴とする。   The image processing method of the present invention is characterized in that the imaging data stored immediately before the marker is detected in the first detection step is used as imaging data before arrangement of a real object.

本発明の画像処理方法は、さらに、撮像状況を監視する監視ステップを含み、前記撮像状況が変化している場合に、前記表示切換ステップにおいて、前記撮像データを表示することを特徴とする。   The image processing method of the present invention further includes a monitoring step for monitoring an imaging situation, and when the imaging situation has changed, the imaging data is displayed in the display switching step.

本発明の画像処理方法は、さらに、前記撮像状況が変化した後に生成された前記撮像データに基づいて、前記撮像状況が変化した後の実オブジェクトの配置位置及び配置姿勢に対応する位置及び姿勢へと連続的に遷移する仮想オブジェクトのオブジェクト画像データを、該実オブジェクトの配置前の前記撮像データに重畳して第二合成データを生成する第二合成ステップを含み、前記表示切換ステップにおいて、前記第二合成データから前記撮像データへと表示を切り換えることを特徴とする。   In the image processing method of the present invention, further, based on the imaging data generated after the imaging situation has changed, the position and orientation corresponding to the arrangement position and orientation of the real object after the imaging situation has changed. A second composition step of generating second composite data by superimposing the object image data of the virtual object that continuously transitions with the imaging data before the placement of the real object, and in the display switching step, The display is switched from the two composite data to the imaging data.

本発明の画像処理プログラムは、コンピュータに上記の各ステップを実行させるプログラムである。   The image processing program of the present invention is a program that causes a computer to execute the above steps.

本発明の表示手段には次のデータが表示される。実オブジェクトの配置前は、撮像手段により生成された撮像データaが表示される。実オブジェクトの配置後は、その位置と姿勢が特定されるまで、実オブジェクトの映像を含む撮像データbが表示される。位置及び姿勢の特定後は、実オブジェクトの配置前の撮像データaを背景映像として、これに仮想オブジェクトのオブジェクト画像データを重畳して成る第一合成データが表示される。
ここで、撮像手段は一定の撮像位置及び撮像姿勢で撮像して撮像データa、bを生成するので、撮像データa、bは実オブジェクトの映像の有無を除けば同一の映像である。すなわち、表示手段には常に同一の背景映像が表示される。
また、第一合成データには実オブジェクトは表示されず、この代わりに実オブジェクトの配置位置及び配置姿勢に対応する位置及び姿勢で重畳された仮想オブジェクトが表示される。
よって、表示手段には、表示されていた実オブジェクトの映像のみが仮想オブジェクトに置き換えられたように表示される。そして、仮想オブジェクトのオブジェクト画像データには様々な画像データを採用できるので、本発明によれば、撮像シーンにおける実オブジェクトのみを様々な態様で表示できる。
The following data is displayed on the display means of the present invention. Before the real object is arranged, the imaging data a generated by the imaging means is displayed. After the real object is arranged, the imaging data b including the video of the real object is displayed until the position and orientation are specified. After specifying the position and orientation, the first composite data formed by superimposing the object image data of the virtual object on the imaging data a before the placement of the real object is displayed as a background video.
Here, since the imaging means captures images at a certain imaging position and orientation and generates imaging data a and b, the imaging data a and b are the same video except for the presence or absence of the video of the real object. That is, the same background video is always displayed on the display means.
In addition, the real object is not displayed in the first composite data, and instead, a virtual object superimposed at a position and posture corresponding to the arrangement position and arrangement posture of the real object is displayed.
Therefore, the display means displays only the video of the displayed real object as if it was replaced with a virtual object. Since various image data can be adopted as the object image data of the virtual object, according to the present invention, only the real object in the imaging scene can be displayed in various modes.

本発明の画像処理装置の使用例を示す図である。It is a figure which shows the usage example of the image processing apparatus of this invention. 本発明の画像処理装置のブロック図である。1 is a block diagram of an image processing apparatus of the present invention. 本発明の画像処理方法のフローチャートである。It is a flowchart of the image processing method of this invention. 本発明の作用の説明図である。It is explanatory drawing of an effect | action of this invention. 本発明の他の画像処理装置のブロック図である。It is a block diagram of the other image processing apparatus of this invention. 本発明の他の画像処理方法のフローチャートである。It is a flowchart of the other image processing method of this invention. 本発明のさらに他の画像処理方法のフローチャートである。10 is a flowchart of still another image processing method of the present invention. 本発明のさらに他の画像処理方法のフローチャートである。10 is a flowchart of still another image processing method of the present invention.

本発明の画像処理装置、画像処理方法、及び画像処理プログラムを説明する。なお、各図にわたって示される同じ符号は同一または同様のものを示す。   An image processing apparatus, an image processing method, and an image processing program of the present invention will be described. In addition, the same code | symbol shown over each figure shows the same or the same thing.

画像処理装置1は、例えば図1に示すように、液晶表示パネル等の表示手段3と、撮像手段5と、これらと通信可能に接続されたコンピュータと、を備えるものであり、代表的には、正面に表示手段3を有し、背面に撮像手段5を有する携帯情報端末である。基面6に置かれた台7等によりその姿勢が略一定に保持されて用いられる。   As shown in FIG. 1, for example, the image processing apparatus 1 includes a display unit 3 such as a liquid crystal display panel, an imaging unit 5, and a computer that is communicably connected thereto. This is a portable information terminal having the display means 3 on the front and the imaging means 5 on the back. It is used with its posture held substantially constant by a table 7 or the like placed on the base surface 6.

撮像手段5は、略一定の位置及び姿勢で所定の範囲を撮像して、撮像データ21(図4)を生成するものである。この撮像手段5は、代表的には、レンズとイメージセンサを有し、所定の範囲を撮像するカメラモジュールである。生成される撮像データ21は、実オブジェクト15が配置される前の撮像データ21a(図4(a))と、実オブジェクト15が配置された後の撮像データ21b(図4(b))である。この撮像データ21は、所定のフレームレートで撮像されて生成されたものであっても良い。また、この撮像データ21は、後述する制御手段11によって取得され、不図示の内部記憶に記憶される。   The imaging means 5 captures a predetermined range at a substantially constant position and orientation, and generates imaging data 21 (FIG. 4). The imaging means 5 is typically a camera module that has a lens and an image sensor and images a predetermined range. The generated imaging data 21 is imaging data 21a (FIG. 4A) before the real object 15 is arranged and imaging data 21b (FIG. 4B) after the real object 15 is arranged. . The imaging data 21 may be generated by imaging at a predetermined frame rate. Further, the imaging data 21 is acquired by the control means 11 described later and stored in an internal storage (not shown).

コンピュータは、図2に示すように、記憶手段9と、制御手段11と、を備える。   As shown in FIG. 2, the computer includes storage means 9 and control means 11.

記憶手段9は、マーカ13に対応付けて仮想オブジェクト17(図4(c))のオブジェクト画像データを記憶するものであり、例えばフラッシュメモリ等の補助記憶である。マーカ13は、後述する検出部19が実オブジェクト15の存在を検出し、その配置位置及び配置姿勢を特定するために定められた所定の模様及び色彩を有するものであり、実オブジェクト15の外観に違和感なく表示されるのが好ましい。実オブジェクト15とは、検出対象として予め定められた人形、模型、文具、その他日用品等、様々な現実物品であり、その表面の全体又は部分的にマーカ13が表示されている。仮想オブジェクト17のオブジェクト画像データは、好ましくは、仮想オブジェクト17をアニメーション表示させるための動画データであるが、これに限定されず、仮想オブジェクト17の静止画データであっても良い。仮想オブジェクト17は、実オブジェクト15に関連するコンピュータグラフィックス(以下、CGという)である。好ましくは、基本的な静止形態が実オブジェクト15の形態と略同じであるCGである。しかし、これに限定されず、例えば、実オブジェクト15の色違いのCGであっても良い。さらに、実オブジェクト15と類似する物品のCGであっても良い。一のマーカ13に対応付けて記憶される仮想オブジェクト17のオブジェクト画像データは一つに限定されず、複数であってもよい。   The storage means 9 stores the object image data of the virtual object 17 (FIG. 4C) in association with the marker 13, and is an auxiliary storage such as a flash memory. The marker 13 has a predetermined pattern and color determined in order that the detection unit 19 described later detects the presence of the real object 15 and specifies its arrangement position and arrangement posture. It is preferable that the image is displayed without a sense of incongruity. The real object 15 is a variety of real articles such as dolls, models, stationery, and other daily items that are predetermined as detection targets, and the marker 13 is displayed on the entire surface or a part thereof. The object image data of the virtual object 17 is preferably moving image data for displaying the virtual object 17 in an animation, but is not limited thereto, and may be still image data of the virtual object 17. The virtual object 17 is computer graphics (hereinafter referred to as CG) related to the real object 15. Preferably, it is a CG whose basic stationary form is substantially the same as the form of the real object 15. However, the present invention is not limited to this. For example, a CG of a different color of the real object 15 may be used. Further, it may be a CG of an article similar to the real object 15. The object image data of the virtual object 17 stored in association with one marker 13 is not limited to one, and may be plural.

制御手段11は、図2に示すように、記憶手段9、撮像手段5、及び表示手段3と通信可能に接続されて、これらを制御するものであり、例えば携帯情報端末内に組み込まれたSoC(System on a Chip)である。この制御手段11は、検出部19、合成部25、及び表示切換部23を有する。また、制御手段11は、不図示の内部記憶を有し、撮像データ21等のデータを必要に応じて格納し、読み出す。   As shown in FIG. 2, the control means 11 is connected to the storage means 9, the imaging means 5, and the display means 3 so as to be able to communicate therewith, and controls them, for example, an SoC incorporated in a portable information terminal. (System on a Chip). The control means 11 includes a detection unit 19, a synthesis unit 25, and a display switching unit 23. The control unit 11 has an internal storage (not shown), and stores and reads data such as the imaging data 21 as necessary.

検出部19は、撮像データ21を取得して、実オブジェクト15の配置後に生成された撮像データ21bに含まれるマーカ13aを検出し、撮像手段5の撮像位置及び撮像姿勢に対する実オブジェクト15の配置位置及び配置姿勢を特定する。合成部25は、記憶手段9から仮想オブジェクト17のオブジェクト画像データを読み出して、これを実オブジェクト15の配置前に生成された撮像データ21aに重畳して第一合成データ27(図4(c))を生成する。表示切換部23は、実オブジェクト15の配置位置及び配置姿勢が特定されるまでは撮像データ21を表示手段3に表示し続け、実オブジェクト15の配置位置及び配置姿勢が特定された後には第一合成データ27を表示させる。   The detection unit 19 acquires the imaging data 21, detects the marker 13a included in the imaging data 21b generated after the arrangement of the real object 15, and the arrangement position of the real object 15 with respect to the imaging position and imaging posture of the imaging means 5 And the arrangement posture is specified. The synthesizing unit 25 reads out the object image data of the virtual object 17 from the storage means 9 and superimposes the image data 21a generated before the arrangement of the real object 15 on the first synthesized data 27 (FIG. 4C). ) Is generated. The display switching unit 23 continues to display the imaging data 21 on the display means 3 until the arrangement position and orientation of the real object 15 are specified. After the arrangement position and arrangement orientation of the real object 15 are specified, the display switching unit 23 The composite data 27 is displayed.

次に、本発明の画像処理方法は、図3に示すように、撮像ステップs10と、第一検出ステップs30と、第一合成ステップs40と、表示切換ステップとを含む。この表示切換ステップは、撮像データ表示ステップs20と、合成データ表示ステップs50と、を含む。以下、各ステップを、フローの順に説明する。   Next, as shown in FIG. 3, the image processing method of the present invention includes an imaging step s10, a first detection step s30, a first synthesis step s40, and a display switching step. This display switching step includes an imaging data display step s20 and a composite data display step s50. Hereinafter, each step will be described in the order of the flow.

撮像ステップs10は、撮像手段5が、略一定の撮像位置及び撮像姿勢で撮像し、実オブジェクト15の配置前の撮像データ21a、及び実オブジェクト15の配置後の撮像データ21bを生成するステップである。例えば、撮像手段5は、所定のフレームレートで撮像して、撮像データ21を生成する。   The imaging step s10 is a step in which the imaging means 5 captures an image at a substantially constant imaging position and orientation, and generates imaging data 21a before the real object 15 is arranged and imaging data 21b after the real object 15 is arranged. . For example, the imaging unit 5 captures an image at a predetermined frame rate and generates imaging data 21.

撮像データ表示ステップs20は、表示切換部23が撮像データ21を取得して、この撮像データ21を表示手段3に表示し続けるステップである。撮像データ21は、後述の第一検出ステップs30において実オブジェクト15の配置位置及び配置姿勢が特定されるまで表示される。撮像データ21が、所定のフレームレートで撮像され生成される場合には、リアルタイムの映像が表示される。   The imaging data display step s20 is a step in which the display switching unit 23 acquires the imaging data 21 and continues to display the imaging data 21 on the display means 3. The imaging data 21 is displayed until the arrangement position and the arrangement posture of the real object 15 are specified in a first detection step s30 described later. When the imaging data 21 is captured and generated at a predetermined frame rate, a real-time video is displayed.

第一検出ステップs30は、検出部19が、撮像データ21を取得して、実オブジェクト15の配置後に生成された撮像データ21bに含まれるマーカ13a(図4(b))を検出して、撮像位置に対する実オブジェクト15の配置位置及び配置姿勢を特定するステップである。マーカ13aの検出は、AR技術における公知の画像認識が用いられる。例えば、撮像データ21に含まれる複数の特徴点を抽出し、各特徴点を結んで形成される図形(以下、図形A)と、記憶手段9に記憶されたマーカ13の基本図形(以下、図形B)とを比較して、マーカ13aの有無を検出することができる。また、実オブジェクト15の配置位置及び配置姿勢は、例えば、図形Aの位置、図形Bに対する図形Aの大きさ及び歪みに基づいて、マーカ13aの位置及び座標系を検出することにより特定される。特定された実オブジェクト15の配置位置及び配置姿勢は、後述の第一合成ステップs40で用いられるので内部記憶に記憶される。この様に、マーカ13aの検出が成功し、配置位置及び配置姿勢が特定された場合(s31の矢印Y)には、第一合成ステップs40に進む。一方、撮像データ21からマーカ13aが検出できない、又は配置位置と配置姿勢が特定できない場合(s31の矢印N)には、この撮像データ21を実オブジェクト15の配置前の撮像データ21aとして内部記憶に記憶する記憶ステップs32を介して撮像ステップs10に戻る。   In the first detection step s30, the detection unit 19 acquires the imaging data 21, detects the marker 13a (FIG. 4B) included in the imaging data 21b generated after the arrangement of the real object 15, and performs imaging. This is a step of specifying the arrangement position and arrangement posture of the real object 15 with respect to the position. For the detection of the marker 13a, known image recognition in the AR technique is used. For example, a plurality of feature points included in the imaging data 21 are extracted, and a figure (hereinafter referred to as figure A) formed by connecting the feature points and a basic figure (hereinafter referred to as figure) of the marker 13 stored in the storage means 9. The presence or absence of the marker 13a can be detected by comparing B). The arrangement position and arrangement orientation of the real object 15 are specified by detecting the position and coordinate system of the marker 13a based on the position of the figure A, the size and distortion of the figure A with respect to the figure B, for example. The identified arrangement position and arrangement orientation of the real object 15 are stored in the internal memory because they are used in a first synthesis step s40 described later. As described above, when the detection of the marker 13a is successful and the arrangement position and the arrangement posture are specified (arrow Y in s31), the process proceeds to the first synthesis step s40. On the other hand, when the marker 13a cannot be detected from the imaging data 21 or the arrangement position and orientation cannot be specified (arrow N in s31), the imaging data 21 is stored in the internal memory as the imaging data 21a before arrangement of the real object 15. The process returns to the imaging step s10 via the storing step s32.

第一合成ステップs40は、合成部25が、実オブジェクト15の配置前の撮像データ21aを取得し、記憶手段9に記憶された仮想オブジェクト17のオブジェクト画像データを読み出して、取得した撮像データ21aにオブジェクト画像データを重畳して第一合成データ27を生成するステップである。オブジェクト画像データは、第一検出ステップs30にて検出されたマーカ13aの種類に対応するものが検索されて読み出される。オブジェクト画像データを重畳する際は、第一検出ステップs30により特定された実オブジェクト15の配置位置及び配置姿勢に対応する位置及び姿勢にオブジェクト画像データの重畳を行う。例えば、仮想オブジェクト17の基準点及び座標系を、検出したマーカ13aの位置及び座標系と一致させて重畳することができる。なお、オブジェクト画像データが動画データである場合には、仮想オブジェクト17の重畳開始位置及び重畳開始姿勢を実オブジェクト15の配置位置及び配置姿勢に対応させて重畳する。   In the first synthesis step s40, the synthesis unit 25 acquires the imaging data 21a before the arrangement of the real object 15, reads out the object image data of the virtual object 17 stored in the storage unit 9, and adds the acquired imaging data 21a to the acquired imaging data 21a. In this step, the first composite data 27 is generated by superimposing the object image data. As the object image data, data corresponding to the type of the marker 13a detected in the first detection step s30 is retrieved and read. When superimposing the object image data, the object image data is superimposed on the position and orientation corresponding to the arrangement position and arrangement orientation of the real object 15 specified in the first detection step s30. For example, the reference point and coordinate system of the virtual object 17 can be overlapped with the detected position and coordinate system of the marker 13a. When the object image data is moving image data, the superimposition start position and superposition start attitude of the virtual object 17 are superimposed in correspondence with the arrangement position and arrangement attitude of the real object 15.

合成データ表示ステップs50は、実オブジェクト15の配置位置及び配置姿勢の特定後に、表示切換部23が合成部25から第一合成データ27を取得し、表示手段3に表示するステップである。   The composite data display step s50 is a step in which the display switching unit 23 acquires the first composite data 27 from the composite unit 25 and displays it on the display means 3 after specifying the arrangement position and orientation of the real object 15.

本発明の画像処理プログラムは、撮像手段5、表示切換部23、検出部19、及び合成部25に上記のステップを実行させるプログラムである。   The image processing program of the present invention is a program that causes the imaging unit 5, the display switching unit 23, the detection unit 19, and the synthesis unit 25 to execute the above steps.

本発明の作用及び効果を図4に基づいて説明する。なお、図4では、マーカ13を有する実オブジェクト15としてバスの模型を用いており、このバスの模型と本発明の画像処理装置1は机29上に置かれるものとする。   The operation and effect of the present invention will be described with reference to FIG. In FIG. 4, a bus model is used as the real object 15 having the marker 13, and the bus model and the image processing apparatus 1 of the present invention are placed on a desk 29.

(1)先ず、図4(a)に示すように、バスの模型が配置されていない状態では、撮像ステップs10により生成された机29aのみの撮像データ21aが、撮像データ表示ステップs20により表示手段3に表示される。また、バスの模型が撮像範囲内に配置されていないので、第一検出ステップs30によりマーカ13aは検出されない。よって、記憶ステップs32により撮像データ21aが、実オブジェクト15の配置前の撮像データ21aとして内部記憶に記憶される。そして、撮像ステップs10に戻る。
(2)次に、図4(b)に示すように、バスの模型が配置されると、第一検出ステップs30により、その配置位置及び配置姿勢が特定される。なお、配置位置及び配置姿勢が特定されるまでの間は、撮像データ表示ステップs20により、机29aとその上に置かれているバスの模型(実オブジェクト15a)を含む撮像データ21bが表示手段3に表示される。
(3)第一検出ステップs30によりバスの模型の配置位置及び配置姿勢が特定されると、第一合成ステップs40により、バスの模型が配置される前の撮像データ21aに対して、バスのCGが移動する動画データが重畳されて第一合成データ27が生成される。そして、合成データ表示ステップs50により、図4(c)に示すように、表示手段3には、破線で図示されるバス画像から実線で図示されるバス画像までの動画が表示される。なお、撮像データ21aと第一合成データ27の切り換えを自然に演出するために、切り換え中にモーフィングやクロスフェード等の映像技術を用いるのが好ましい。
(1) First, as shown in FIG. 4A, in the state where the bus model is not arranged, the imaging data 21a of only the desk 29a generated by the imaging step s10 is displayed by the imaging data display step s20. 3 is displayed. Further, since the bus model is not disposed within the imaging range, the marker 13a is not detected by the first detection step s30. Therefore, the imaging data 21a is stored in the internal storage as the imaging data 21a before the real object 15 is arranged by the storage step s32. Then, the process returns to the imaging step s10.
(2) Next, as shown in FIG. 4B, when the bus model is arranged, the arrangement position and the arrangement attitude are specified by the first detection step s30. Until the arrangement position and orientation are specified, the imaging data display step s20 displays the imaging data 21b including the desk 29a and the bus model (real object 15a) placed thereon on the display means 3. Is displayed.
(3) When the position and orientation of the bus model are specified in the first detection step s30, the bus CG is compared with the imaging data 21a before the bus model is arranged in the first synthesis step s40. The first synthesized data 27 is generated by superimposing the moving image data that moves. Then, in the combined data display step s50, as shown in FIG. 4C, a moving image from the bus image shown by the broken line to the bus image shown by the solid line is displayed on the display means 3. It should be noted that it is preferable to use video techniques such as morphing and crossfading during the switching in order to produce a natural switching between the imaging data 21a and the first composite data 27.

上記のように、実オブジェクト15の配置前は、撮像手段5により生成された撮像データ21aが表示される。実オブジェクト15の配置後は、その位置と姿勢が特定されるまで、実オブジェクトの映像15aを含む撮像データ21bが表示される。位置及び姿勢の特定後は、実オブジェクト15の配置前の撮像データ21aを背景映像として、これに仮想オブジェクト17のオブジェクト画像データを重畳して成る第一合成データ27が表示される。
ここで、撮像手段5は一定の撮像位置及び撮像姿勢で撮像して撮像データ21a,21bを生成するので、撮像データ21a,21bは実オブジェクトの映像15aの有無を除けば同一の映像である。すなわち、表示手段3には常に同一の背景映像が表示される。
また、第一合成データ27には実オブジェクトの映像15aは表示されず、この代わりに仮想オブジェクト17が、撮像データ21b中の実オブジェクトの映像15aの表示位置及び表示姿勢で表示される。
よって、表示されていた実オブジェクトの映像15aのみが仮想オブジェクト17に置き換えられたように表示される。上記の例においては、オブジェクト画像データとして、実オブジェクト15と同じ形態のバスが走行する動画データを用いたため、机に置かれているバスがひとりでに走行し始めたように表示される。
そして、仮想オブジェクト17のオブジェクト画像データには様々な画像データを採用できるので、本発明によれば、撮像シーンにおける実オブジェクト15のみを様々な態様で表示できる。例えば、オブジェクト画像データとして、バスがロボットに変形するような動画データを採用してもよい。
As described above, the imaging data 21a generated by the imaging means 5 is displayed before the real object 15 is arranged. After the real object 15 is arranged, the imaging data 21b including the real object video 15a is displayed until the position and orientation thereof are specified. After specifying the position and orientation, the first composite data 27 formed by superimposing the object image data of the virtual object 17 on the imaging data 21a before the real object 15 is arranged is displayed.
Here, since the imaging means 5 captures images at a constant imaging position and orientation and generates imaging data 21a and 21b, the imaging data 21a and 21b are the same video except for the presence or absence of the video 15a of the real object. That is, the same background video is always displayed on the display means 3.
Further, the real object video 15a is not displayed in the first composite data 27, and instead, the virtual object 17 is displayed in the display position and the display posture of the real object video 15a in the imaging data 21b.
Therefore, only the video 15a of the displayed real object is displayed as if it was replaced with the virtual object 17. In the above example, moving image data in which a bus of the same form as the real object 15 travels is used as the object image data, so that the bus placed on the desk is displayed as if it has started traveling alone.
Since various image data can be adopted as the object image data of the virtual object 17, according to the present invention, only the real object 15 in the imaging scene can be displayed in various modes. For example, moving image data that transforms a bus into a robot may be adopted as object image data.

本発明の画像処理装置、画像処理方法、及び画像処理プログラムは上記の態様に限定されない。   The image processing apparatus, the image processing method, and the image processing program of the present invention are not limited to the above embodiments.

例えば、本発明の画像処理装置1は、図1に示されるような位置及び姿勢の保持態様に限定されず、使用者が手に持って保持するものであっても良い。   For example, the image processing apparatus 1 of the present invention is not limited to the position and posture holding mode as shown in FIG. 1, and may be held by the user in his / her hand.

また、図5に示すように、本発明の画像処理装置31の制御手段33は、撮像状況を監視する監視部35を備えるものであっても良い。この監視部35は、撮像手段5から撮像データ21を取得し、撮像状況に応じて撮像データ21を検出部19、及び合成部25に入力する。   As shown in FIG. 5, the control means 33 of the image processing apparatus 31 of the present invention may include a monitoring unit 35 that monitors the imaging state. The monitoring unit 35 acquires the imaging data 21 from the imaging unit 5 and inputs the imaging data 21 to the detection unit 19 and the synthesis unit 25 according to the imaging situation.

また、図6及び図7に示すように、本発明の画像処理方法は、監視部35が、撮像状況を監視する監視ステップs60,s70を含むものであっても良い。この監視ステップs60,s70は、代表的には、変動監視ステップ及び/又は移動体監視ステップを含む。   Further, as shown in FIGS. 6 and 7, the image processing method of the present invention may include monitoring steps s60 and s70 in which the monitoring unit 35 monitors the imaging state. The monitoring steps s60 and s70 typically include a fluctuation monitoring step and / or a moving body monitoring step.

変動監視ステップは、監視部35が、撮像位置と撮像姿勢を監視するステップである。この変動監視ステップは、例えば、撮像手段5から所定のフレームレートで撮像データ21を取得し、連続する撮像データ21を比較して変動量を算出し、この変動量に基づいて撮像位置及び撮像姿勢の変動の有無を検出する。変動量の算出は、先ず一の撮像データ21において基準点を決定し、その座標を取得する。次に、この一の撮像データ21に連続する他の撮像データ21における前記基準点を検出し、その座標を取得する。そして、これらの撮像データ21間の基準点の座標について差分を求める。これにより変動量が算出される。変動量が所定範囲内にあって、この状態が所定時間継続する場合には、撮像位置及び撮像姿勢が変動していない、すなわち画像処理装置31自身が静止状態にあると判断される。一方、変動量が所定範囲外の場合には、撮像位置及び撮像姿勢が変動している、すなわち画像処理装置31自身が静止状態にないと判断される。   The fluctuation monitoring step is a step in which the monitoring unit 35 monitors the imaging position and the imaging posture. For example, the fluctuation monitoring step acquires the imaging data 21 from the imaging means 5 at a predetermined frame rate, compares the continuous imaging data 21 to calculate the fluctuation amount, and based on the fluctuation amount, the imaging position and the imaging posture are calculated. The presence or absence of fluctuation is detected. In calculating the amount of variation, first, a reference point is determined in one imaging data 21, and its coordinates are acquired. Next, the reference point in the other imaging data 21 continuous to the one imaging data 21 is detected, and the coordinates thereof are acquired. Then, a difference is obtained for the coordinates of the reference point between the imaging data 21. Thereby, the fluctuation amount is calculated. If the fluctuation amount is within a predetermined range and this state continues for a predetermined time, it is determined that the imaging position and the imaging posture have not changed, that is, the image processing device 31 itself is in a stationary state. On the other hand, when the fluctuation amount is outside the predetermined range, it is determined that the imaging position and the imaging posture are fluctuating, that is, the image processing device 31 itself is not in a stationary state.

なお、変動監視ステップは、撮像データ21に基づいて撮像位置及び撮像姿勢を監視するものに限定されない。例えば、画像処理装置31は制御手段11と通信可能に接続された加速度センサ(不図示)を備え、監視部35は、所定のフレームレートで取得した加速度センサの出力値の差分に基づいて変動を監視しても良い。   Note that the fluctuation monitoring step is not limited to monitoring the imaging position and the imaging posture based on the imaging data 21. For example, the image processing device 31 includes an acceleration sensor (not shown) that is communicably connected to the control means 11, and the monitoring unit 35 varies the difference based on the difference between the output values of the acceleration sensor acquired at a predetermined frame rate. You may monitor.

移動体監視ステップは、監視部35が、撮像範囲内を移動する物体(以下、移動体という)の有無を監視するステップである。移動体の有無は例えば次の通り検出する。先ず、撮像手段5から所定のフレームレートで撮像データ21を取得する。次に、連続する撮像データ21間の差分画像を求める。そして、差分画像内に階調値が0ではない部分(若しくは0に近い所定値以上の部分)が連続して所定面積比以上ある場合に、移動体が有ると判断する。一方、階調値が0ではない部分が連続して所定面積比以上ない場合には、移動体が無いと判断する。   The moving body monitoring step is a step in which the monitoring unit 35 monitors the presence or absence of an object that moves within the imaging range (hereinafter referred to as a moving body). The presence or absence of a moving object is detected as follows, for example. First, the imaging data 21 is acquired from the imaging means 5 at a predetermined frame rate. Next, a difference image between continuous imaging data 21 is obtained. Then, it is determined that there is a moving body when a portion where the gradation value is not 0 (or a portion equal to or greater than a predetermined value close to 0) in the difference image is continuously greater than or equal to a predetermined area ratio. On the other hand, when the portion where the gradation value is not 0 continuously does not exceed the predetermined area ratio, it is determined that there is no moving body.

なお、監視部35が監視する撮像状況は、撮像位置及び撮像姿勢の変動、並びに/又は移動体の有無に限定されない。例えば、撮像手段5から所定のフレームレートで取得した各撮像データ21を比較して撮像範囲の明るさの変化を監視するものであっても良い。   Note that the imaging state monitored by the monitoring unit 35 is not limited to the change in the imaging position and the imaging posture and / or the presence or absence of a moving body. For example, the change in the brightness of the imaging range may be monitored by comparing the respective imaging data 21 acquired from the imaging means 5 at a predetermined frame rate.

本発明の画像処理方法において上記の監視ステップs60は、図6に示すように、撮像データ表示ステップs20と第一検出ステップs30との間に設けられる。監視ステップs60によって変化が検出された場合には(s61の矢印N)、撮像ステップs10に戻る。一方、変化が検出されない場合には(s61の矢印Y)、第一検出ステップs30に進む。そして、第一検出ステップs30を経て、撮像データ21中のマーカ13aが検出できない場合や、配置位置と配置姿勢が特定できない場合(s31の矢印N)には記憶ステップs32に進み、撮像データ21aが内部記憶に記憶される。すなわち、記憶ステップs32は、撮像状況が変化していない場合(代表的には、撮像位置と撮像姿勢に変化がなく、かつ、撮像範囲内に移動体が無い場合)に生成された撮像データ21aを実オブジェクト15の配置前の撮像データ21aとして記憶するものである。   In the image processing method of the present invention, the monitoring step s60 is provided between the imaging data display step s20 and the first detection step s30 as shown in FIG. If a change is detected in the monitoring step s60 (arrow N in s61), the process returns to the imaging step s10. On the other hand, if no change is detected (arrow Y in s61), the process proceeds to the first detection step s30. If the marker 13a in the imaging data 21 cannot be detected through the first detection step s30, or if the arrangement position and orientation cannot be specified (arrow N in s31), the process proceeds to the storage step s32, and the imaging data 21a is Stored in internal memory. In other words, the storage step s32 is the imaging data 21a generated when the imaging situation has not changed (typically, when the imaging position and the imaging posture are not changed and there is no moving object within the imaging range). Is stored as the imaging data 21a before the real object 15 is arranged.

ここで、上記の変動監視ステップを含む監視ステップs60によれば、画像処理装置31に変動がない場合に第一検出ステップs30に進む。よって、静止状態になれば瞬時に実オブジェクト15の配置前の撮像データ21aを記憶することができ、使用者に気付かれずに第一合成データ27の背景映像を準備できる。
また、上記の移動体監視ステップを含む監視ステップs60によれば、撮像範囲内に移動体が有る場合には第一検出ステップs30に進まない。よって、実オブジェクト15の配置中に生成された撮像データ21は記憶されず、第一合成データ27における背景映像の対象から自動的に除外される。
Here, according to the monitoring step s60 including the above-described fluctuation monitoring step, the process proceeds to the first detection step s30 when there is no fluctuation in the image processing device 31. Therefore, when it is in a stationary state, the imaging data 21a before the arrangement of the real object 15 can be instantly stored, and the background image of the first composite data 27 can be prepared without being noticed by the user.
Further, according to the monitoring step s60 including the above-described moving body monitoring step, when there is a moving body within the imaging range, the process does not proceed to the first detection step s30. Therefore, the imaging data 21 generated during the arrangement of the real object 15 is not stored, and is automatically excluded from the target of the background video in the first composite data 27.

また、上記の監視ステップs60を含む本発明の画像処理方法において、合成部25は、マーカ13aが検出される直前に内部記憶に記憶された撮像データ21aを実オブジェクト15の配置前の撮像データ21aとして用いるのが好ましい。これにより、合成直前に生成された撮像データ21aを背景映像として第一合成データ27が生成される。よって、表示切換ステップにより、表示内容が撮像データ21bから第一合成データ27に切り換えられた際、違和感なく背景映像を切り換えることができる。   Further, in the image processing method of the present invention including the monitoring step s60 described above, the synthesis unit 25 uses the imaging data 21a stored in the internal storage immediately before the marker 13a is detected as the imaging data 21a before the real object 15 is arranged. It is preferable to use as. As a result, the first composite data 27 is generated using the imaging data 21a generated immediately before the composition as a background video. Therefore, when the display content is switched from the imaging data 21b to the first composite data 27 by the display switching step, the background video can be switched without a sense of incongruity.

また、上記の監視ステップs70を含む本発明の画像処理方法において、表示切換ステップは、撮像状況が変化している場合に、撮像データ21を表示するものであっても良い。具体的には、監視ステップs70は、図7(a)に示すように、合成データ表示ステップs50に設けられる。この監視ステップs70によって変化が検出されない場合には(s71の矢印Y)、第一合成データ表示s51が継続される。一方、変化が検出された場合には(s71の矢印N)、合成データ表示ステップs50が終了してエンドに進み、スタートから再開される。これにより、撮像データ21が表示される。なお、監視ステップs70において撮像データ21bを用いて撮像状況の変化を監視する場合は、所定の撮像範囲を撮像して、撮像データ21bを生成する撮像ステップを監視ステップs70の前に設ける。   Further, in the image processing method of the present invention including the monitoring step s70 described above, the display switching step may display the imaging data 21 when the imaging state changes. Specifically, the monitoring step s70 is provided in the combined data display step s50 as shown in FIG. If no change is detected in this monitoring step s70 (arrow Y in s71), the first combined data display s51 is continued. On the other hand, when a change is detected (arrow N in s71), the combined data display step s50 is completed, the process proceeds to the end, and the process is restarted from the start. Thereby, the imaging data 21 is displayed. When monitoring the change in the imaging state using the imaging data 21b in the monitoring step s70, an imaging step for imaging the predetermined imaging range and generating the imaging data 21b is provided before the monitoring step s70.

この監視ステップs70を含む本発明は、撮像状況が変化している場合に、第一合成データ表示s51を中断する。そして、スタートから処理が再開されることにより、撮像データ表示ステップs20により撮像データ21が表示される。このため、表示中の背景映像が撮像状況の変化に追従していないという不自然な表示を防止し、本発明の仕組みを使用者に気付かせない。   In the present invention including the monitoring step s70, the first combined data display s51 is interrupted when the imaging state changes. Then, when the process is restarted from the start, the imaging data 21 is displayed in the imaging data display step s20. For this reason, the unnatural display that the background image being displayed does not follow the change in the imaging state is prevented, and the user is not aware of the mechanism of the present invention.

さらに、図7(b)に示すように、上記の監視ステップs70を含む本発明の画像処理方法は、撮像状況が変化した場合に、合成部25が第二合成データを生成する第二合成ステップs82と、表示切換部23が第二合成データから撮像データ21へと表示を切り換えるステップと、を含むものであっても良い。   Furthermore, as shown in FIG. 7B, the image processing method of the present invention including the monitoring step s70 described above is the second synthesis step in which the synthesis unit 25 generates the second synthesis data when the imaging state changes. s82 and the step of the display switching unit 23 switching the display from the second composite data to the imaging data 21 may be included.

第二合成データは、実オブジェクト15の配置前の撮像データ21aに、アニメーションデータが重畳されたものである。このアニメーションデータは、代表的には、マーカ13に対応付けて記憶手段9に予め記憶された仮想オブジェクト17の他のオブジェクト画像データであり、第一合成データ27に含まれる一のオブジェクト画像データとは異なるものである。この他のオブジェクト画像データは、撮像状況の変化後の実オブジェクト15の配置位置及び配置姿勢に対応する位置及び姿勢に連続的に遷移する動画データである。合成部25は、アニメーションデータを読み出して実オブジェクト15の配置前の撮像データ21aに重畳させる。この際、合成データ表示ステップs50において表示中の仮想オブジェクト17の位置及び姿勢に合わせてアニメーションデータを重畳するのが好ましい。遷移が終了した場合には、第二合成データの終了を示すフラグを設定しても良い。   The second composite data is obtained by superimposing animation data on the imaging data 21a before the arrangement of the real object 15. This animation data is typically other object image data of the virtual object 17 stored in advance in the storage means 9 in association with the marker 13, and one object image data included in the first composite data 27 Are different. The other object image data is moving image data that continuously transitions to a position and orientation corresponding to the arrangement position and arrangement orientation of the real object 15 after the imaging state changes. The synthesizing unit 25 reads out the animation data and superimposes it on the imaging data 21a before the real object 15 is arranged. At this time, it is preferable to superimpose animation data in accordance with the position and orientation of the virtual object 17 being displayed in the composite data display step s50. When the transition ends, a flag indicating the end of the second composite data may be set.

撮像状況の変化後の実オブジェクト15の配置位置及び配置姿勢は、撮像状況の変化後に生成された撮像データ21に基づいて特定される。例えば、図7(b)に示すように、第二撮像ステップs80と、第二検出ステップs81により特定される。   The arrangement position and the arrangement posture of the real object 15 after the change of the imaging situation are specified based on the imaging data 21 generated after the change of the imaging situation. For example, as shown in FIG. 7B, the second imaging step s80 and the second detection step s81 are specified.

第二撮像ステップs80は、撮像手段5が、撮像状況の変化後に撮像して撮像データ21を生成するステップであり、監視ステップs70により変化が検出された後(s71の矢印N)に設けられる。この撮像データ21は、所定のフレームレートで撮像されて生成されたものであっても良い。   The second imaging step s80 is a step in which the imaging means 5 captures an image after the imaging state changes and generates imaging data 21, and is provided after the change is detected by the monitoring step s70 (arrow N in s71). The imaging data 21 may be generated by imaging at a predetermined frame rate.

第二検出ステップs81は、検出部19が、撮像状況の変化後の撮像データ21に基づいて、撮像状況の変化後の撮像位置及び撮像姿勢に対する実オブジェクト15の配置位置及び配置姿勢を特定するステップである。この特定方法は、第一検出ステップs30と同じ方法で特定することができる。所定のフレームレート毎に撮像データ21を取得する場合には、その度に実オブジェクト15の配置位置及び配置姿勢を特定しても良い。   The second detection step s81 is a step in which the detection unit 19 specifies the arrangement position and the arrangement posture of the real object 15 with respect to the imaging position and the imaging posture after the change of the imaging situation, based on the imaging data 21 after the imaging situation changes. It is. This identification method can be identified by the same method as in the first detection step s30. When acquiring the imaging data 21 for each predetermined frame rate, the arrangement position and the arrangement posture of the real object 15 may be specified each time.

表示切換ステップは、表示切換部23が、合成部25から第二合成データを取得して、第一合成データ27の表示から第二合成データの表示へと切り換えて表示する第二合成データ表示s83と、この第二合成データ表示s83から変化後の撮像データ21の表示へと切り換えるステップと、を含む。第二合成データ表示s83は、仮想オブジェクト17の遷移が終了するまで表示される(s84の矢印N)。遷移の終了は、例えば、第二合成ステップs82において設定されるフラグを参照して判断される。遷移が終了した場合には(s84の矢印Y)、合成データ表示ステップs50からエンドに進み、スタートから再開され、撮像データ21が表示される(s20)。なお、表示の切り替えを自然に演出するために、切り換え中にモーフィングやクロスフェード等の映像技術を用いるのが好ましい。   In the display switching step, the display switching unit 23 acquires the second synthesized data from the synthesizing unit 25 and switches the display of the first synthesized data 27 to the display of the second synthesized data for display. And a step of switching from the second composite data display s83 to the display of the changed imaging data 21. The second composite data display s83 is displayed until the transition of the virtual object 17 is completed (arrow N in s84). The end of the transition is determined with reference to, for example, a flag set in the second synthesis step s82. When the transition is completed (arrow Y in s84), the process proceeds from the composite data display step s50 to the end, restarts from the start, and the imaging data 21 is displayed (s20). Note that it is preferable to use a video technique such as morphing or crossfading during the switching in order to produce the switching of the display naturally.

このように、撮像状況が変化した場合に、第二合成データ表示s83が第一合成データ表示s51と変化後の撮像データ表示の間に介在するので、仮想オブジェクト17と実オブジェクト15aの切り換えが自然に表現される。   As described above, when the imaging state changes, the second composite data display s83 is interposed between the first composite data display s51 and the changed imaging data display, so that the switching between the virtual object 17 and the real object 15a is natural. It is expressed in

また、本発明の画像処理プログラムは、コンピュータに上記のステップを実行させるものである。   An image processing program of the present invention causes a computer to execute the above steps.

以上、本発明の画像処理方法、画像処理プログラム、及び画像処理装置について説明したが、本発明はその趣旨を逸脱しない範囲で、当業者の知識に基づき種々の改良、修正、変形を加えた態様で実施し得るものであり、これらの態様はいずれも本発明の範囲に属するものである。   The image processing method, the image processing program, and the image processing apparatus of the present invention have been described above. However, the present invention includes various improvements, corrections, and modifications based on the knowledge of those skilled in the art without departing from the spirit of the present invention. These embodiments are all within the scope of the present invention.

例えば、画像処理方法におけるフローは、上記のものに限定されず、例えば図8に示すフローであっても良い。図8に示すフローは、スタートからエンドまでの各ステップが1のフレームで行われ、このフローが毎フレーム実行される。   For example, the flow in the image processing method is not limited to the above, and may be the flow shown in FIG. In the flow shown in FIG. 8, each step from the start to the end is performed in one frame, and this flow is executed every frame.

先ずは、撮像ステップs10により、フレーム毎の撮像データ21が取得される。次に、監視ステップs90により、フレーム毎に撮像状況の変化が検出される。次に、表示手段3に表示させる内容を示す表示フラグと、撮像状況の監視結果と、を確認する(s91)。その結果に応じて、図8に示す(ケース1)〜(ケース4)のいずれかのフローが実行される。
(ケース1)表示フラグが撮像データ21を示し、かつ撮像状況が変化している場合には、撮像データ表示ステップs20が実行されて、そのフレームの処理が終了する。
(ケース2)表示フラグが撮像データ21を示し、かつ撮像状況が変化していない場合には、第一検出ステップs30に進み、検出が失敗した場合(s31の矢印N)には、記憶ステップs32、撮像データ表示ステップs20の順に実行されて、そのフレームの処理が終了する。一方、検出が成功した場合(s31の矢印Y)には、表示フラグが操作され(s92)、次に説明する(ケース3)の第一合成ステップs40が実行される。表示フラグの操作(s92)は、表示手段に第一合成データ27を表示することを示すフラグが設定される。
(ケース3)表示フラグが第一合成データ27を示し、かつ撮像状況が変化していない場合には、第一合成ステップs40、第一合成データ表示s51の順に実行され、そのフレームの処理が終了する。
(ケース4)表示フラグが第一合成データ27を示し、かつ撮像状況が変化している場合、又は表示フラグが第二合成データを示す場合には、第二検出ステップs81、第二合成ステップs82、第二合成データ表示s83、表示フラグの操作s93の順に実行される。表示フラグの操作s93においては、仮想オブジェクト17の遷移中の場合には、表示手段3に第二合成データを表示することを示すフラグが設定される。仮想オブジェクト17の遷移が終了したときには、表示手段に撮像データ21を表示することを示すフラグが設定される。
First, imaging data 21 for each frame is acquired in imaging step s10. Next, in the monitoring step s90, a change in imaging state is detected for each frame. Next, the display flag indicating the content to be displayed on the display means 3 and the monitoring result of the imaging state are confirmed (s91). Depending on the result, one of the flows of (Case 1) to (Case 4) shown in FIG. 8 is executed.
(Case 1) When the display flag indicates the imaging data 21 and the imaging situation has changed, the imaging data display step s20 is executed, and the processing of the frame ends.
(Case 2) If the display flag indicates the imaging data 21 and the imaging state has not changed, the process proceeds to the first detection step s30. If the detection fails (arrow N in s31), the storage step s32 The imaging data display step s20 is executed in this order, and the processing of the frame ends. On the other hand, when the detection is successful (arrow Y in s31), the display flag is manipulated (s92), and the first synthesis step s40 described below (case 3) is executed. In the display flag operation (s92), a flag indicating that the first composite data 27 is displayed on the display means is set.
(Case 3) When the display flag indicates the first composite data 27 and the imaging state has not changed, the first composite step s40 and the first composite data display s51 are executed in this order, and the processing of the frame ends. To do.
(Case 4) When the display flag indicates the first composite data 27 and the imaging state changes, or when the display flag indicates the second composite data, the second detection step s81 and the second composite step s82 The second composite data display s83 and the display flag operation s93 are executed in this order. In the display flag operation s93, a flag indicating that the second composite data is displayed on the display means 3 is set when the virtual object 17 is in transition. When the transition of the virtual object 17 is completed, a flag indicating that the imaging data 21 is displayed on the display unit is set.

また、本発明において用いられる実オブジェクト15は、一種類に限定されず、複数種類であっても良い。複数種類の実オブジェクト15は、それぞれ異なるマーカ13を有する。この場合、記憶手段9には、各マーカを識別する識別IDと、各識別IDに対応付けられてマーカ13を認識して検出するための基本図形と、各識別IDに対応付けられた仮想オブジェクト17のオブジェクト画像データが記憶される。そして、第一検出ステップs30においては、検出部19が、撮像データ21aに含まれる特徴点と基本図形とを比較して、マーカの有無を検出し、識別IDを特定する。また、第一合成ステップs40においては、合成部25が、識別IDを取得し、この識別IDに対応するオブジェクト画像データを読み出して、第一合成データ27を生成する。これにより、表示手段3には、実オブジェクト15の種類に応じた仮想オブジェクト17が様々な態様で表示される。   Further, the real object 15 used in the present invention is not limited to one type, and may be a plurality of types. The plurality of types of real objects 15 have different markers 13 respectively. In this case, the storage means 9 includes an identification ID for identifying each marker, a basic figure associated with each identification ID for recognizing and detecting the marker 13, and a virtual object associated with each identification ID. Seventeen object image data are stored. In the first detection step s30, the detection unit 19 compares the feature points included in the imaging data 21a with the basic figure, detects the presence / absence of the marker, and identifies the identification ID. In the first composition step s40, the composition unit 25 obtains an identification ID, reads object image data corresponding to the identification ID, and generates first composition data 27. As a result, the virtual object 17 corresponding to the type of the real object 15 is displayed on the display means 3 in various modes.

1,31 … 画像処理装置
3 … 表示手段
5 … 撮像手段
7 … 台
9 … 記憶手段
11,33 … 制御手段
13 … 実オブジェクトに表示されたマーカ
13a … 撮像データ中のマーカ
15 … 現実世界にある実オブジェクト
15a … 撮像データ中の実オブジェクト
17 … 仮想オブジェクト
19 … 検出部
21 … 撮像データ
21a … 実オブジェクトの配置前の撮像データ
21b … 実オブジェクトの配置後の撮像データ
23 … 表示切換部
25 … 合成部
27 … 第一合成データ
29 … 机
29a … 撮像データ中の机
35 … 監視部
1,31… Image processing device
3… Display means
5… Imaging means
7… stand
9… Memory means
11,33… Control means
13… Marker displayed on real object
13a… Marker in imaging data
15… Real objects in the real world
15a… Real object in the imaging data
17… virtual objects
19… Detector
21… Imaging data
21a… Imaging data before placement of real object
21b… Imaging data after placement of real object
23… Display switching section
25… Synthesizer
27… First synthesis data
29… desk
29a… Desk in imaging data
35… Monitoring unit

Claims (9)

撮像手段が、略一定の撮像位置及び撮像姿勢で撮像し、撮像データを生成する撮像ステップと、
マーカを有する実オブジェクトの配置後に生成された前記撮像データに含まれる該マーカを検出して、前記撮像位置及び前記撮像姿勢に対する該実オブジェクトの配置位置及び配置姿勢を特定する第一検出ステップと、
前記マーカに対応付けて記憶手段に記憶された仮想オブジェクトのオブジェクト画像データを読み出して、該オブジェクト画像データを前記実オブジェクトの配置前に生成された前記撮像データに重畳して第一合成データを生成する第一合成ステップと、
撮像状況を監視する監視ステップと、
前記撮像状況が変化していない場合の前記撮像データを実オブジェクトの配置前の撮像データとして記憶する記憶ステップと、
表示手段に、前記実オブジェクトの配置位置及び配置姿勢が特定されるまで前記撮像データを表示し続け、該実オブジェクトの配置位置及び配置姿勢の特定後に前記第一合成データを表示する表示切換ステップと、
を含み、
前記第一検出ステップによって前記マーカが検出される直前に記憶された前記撮像データを実オブジェクトの配置前の撮像データとして用い、前記第一合成ステップにおいて、前記第一検出ステップにより特定された前記実オブジェクトの配置位置及び配置姿勢に対応する位置及び姿勢で前記オブジェクト画像データの重畳を行うことを特徴とする画像処理方法。
An imaging step in which the imaging means captures an image at a substantially constant imaging position and orientation and generates imaging data;
A first detection step of detecting the marker included in the imaging data generated after arrangement of a real object having a marker, and specifying the arrangement position and arrangement attitude of the real object with respect to the imaging position and the imaging attitude;
Reads the object image data of the virtual object stored in the storage means in association with the marker, and generates the first composite data by superimposing the object image data on the imaging data generated before the arrangement of the real object A first synthesis step to
A monitoring step for monitoring imaging conditions;
A storage step of storing the imaging data when the imaging situation has not changed as imaging data before arrangement of a real object;
A display switching step of continuously displaying the imaging data until the arrangement position and orientation of the real object are specified on the display means, and displaying the first composite data after specifying the arrangement position and orientation of the real object; ,
Including
The imaging data stored immediately before the marker is detected in the first detection step is used as imaging data before the arrangement of the real object, and the actual data identified by the first detection step in the first synthesis step is used. An image processing method, wherein the object image data is superimposed at a position and orientation corresponding to an arrangement position and orientation of an object.
前記記憶ステップの後に撮像ステップに戻る請求項1に記載の画像処理方法。The image processing method according to claim 1, wherein the image processing step returns to the imaging step after the storing step. 前記撮像状況が変化している場合に、前記表示切換ステップにおいて、前記撮像データを表示することを特徴とする請求項1に記載の画像処理方法。 When the imaging situation is changing, in the display switching step, the image processing method according to claim 1, wherein the displaying the captured data. 前記撮像状況が変化した後に生成された前記撮像データに基づいて、前記撮像状況が変化した後の実オブジェクトの配置位置及び配置姿勢に対応する位置及び姿勢へと連続的に遷移する仮想オブジェクトのオブジェクト画像データを、該実オブジェクトの配置前の前記撮像データに重畳して第二合成データを生成する第二合成ステップを含み、
前記表示切換ステップにおいて、前記第二合成データから前記撮像データへと表示を切り換えることを特徴とする請求項に記載の画像処理方法。
Based on the imaging data generated after the imaging situation has changed, the object of the virtual object that continuously transitions to a position and orientation corresponding to the arrangement position and orientation of the real object after the imaging situation has changed Including a second synthesis step of generating second synthesized data by superimposing the image data on the imaging data before arrangement of the real object;
The image processing method according to claim 3 , wherein in the display switching step, the display is switched from the second composite data to the imaging data.
コンピュータの記憶手段に、マーカに対応付けて仮想オブジェクトのオブジェクト画像データを記憶する記憶ステップ、
撮像手段に、略一定の撮像位置及び撮像姿勢で撮像し、撮像データを生成する撮像ステップ、
前記コンピュータの検出部に、前記マーカを有する実オブジェクトの配置後に生成された前記撮像データに含まれる該マーカを検出して、前記撮像位置及び前記撮像姿勢に対する該実オブジェクトの配置位置及び配置姿勢を特定する第一検出ステップ、
前記コンピュータの監視部に、撮像状況を監視する監視ステップ、
前記コンピュータの内部記憶に、前記撮像状況が変化していない場合の前記撮像データを実オブジェクトの配置前の撮像データとして記憶する記憶ステップ、
前記コンピュータの合成部に、前記オブジェクト画像データを読み出して、該オブジェクト画像データを前記実オブジェクトの配置前に生成された前記撮像データに重畳して第一合成データを生成する第一合成ステップ、
前記コンピュータの表示切換部に、前記実オブジェクトの配置位置及び配置姿勢が特定されるまで、表示手段に、前記撮像データを表示し続け、該実オブジェクトの配置位置及び配置姿勢の特定後に前記第一合成データを表示する表示切換ステップ、を実行させ、
前記第一検出ステップによって前記マーカが検出される直前に記憶された前記撮像データを実オブジェクトの配置前の撮像データとして用い、前記第一合成ステップにおいて、前記第一検出ステップにより特定された前記実オブジェクトの配置位置及び配置姿勢に対応する位置及び姿勢で前記オブジェクト画像データの重畳を行うことを特徴とする画像処理プログラム。
A storage step of storing object image data of the virtual object in association with the marker in a storage means of the computer;
An imaging step of imaging the imaging means at a substantially constant imaging position and orientation and generating imaging data;
The detection unit of the computer detects the marker included in the imaging data generated after the arrangement of the real object having the marker, and determines the arrangement position and the arrangement attitude of the real object with respect to the imaging position and the imaging attitude. A first detection step to identify,
A monitoring step of monitoring an imaging state in the monitoring unit of the computer;
A storage step of storing, in the internal storage of the computer, the imaging data when the imaging situation has not changed as imaging data before arrangement of a real object;
A first compositing step of reading the object image data to a compositing unit of the computer and generating the first composite data by superimposing the object image data on the imaging data generated before the arrangement of the real object;
The imaging data is continuously displayed on the display means until the arrangement position and orientation of the real object are specified on the display switching unit of the computer, and after the arrangement position and orientation of the real object are specified, the first object is displayed. A display switching step for displaying the composite data,
The imaging data stored immediately before the marker is detected in the first detection step is used as imaging data before the arrangement of the real object, and the actual data identified by the first detection step in the first synthesis step is used. An image processing program that superimposes the object image data at a position and orientation corresponding to an arrangement position and orientation of an object.
前記記憶ステップの後に撮像手段に撮像ステップを実行させる請求項5に記載の画像処理プログラム。The image processing program according to claim 5, which causes the imaging unit to execute an imaging step after the storing step. 前記第一検出ステップによって前記マーカが検出される直前に記憶された前記撮像データを実オブジェクトの配置前の撮像データとして用いることを特徴とする請求項に記載の画像処理プログラム。 6. The image processing program according to claim 5 , wherein the imaging data stored immediately before the marker is detected in the first detection step is used as imaging data before arrangement of a real object. 前記コンピュータの監視部に、撮像状況を監視する監視ステップを実行させ、
前記撮像状況が変化している場合に、前記表示切換ステップにおいて、前記撮像データを表示することを特徴とする請求項に記載の画像処理プログラム。
Causing the monitoring unit of the computer to execute a monitoring step of monitoring an imaging state;
The image processing program according to claim 5 , wherein the imaging data is displayed in the display switching step when the imaging situation is changed.
前記コンピュータの合成部に、前記撮像状況が変化した後に生成された前記撮像データに基づいて、前記撮像状況が変化した後の実オブジェクトの配置位置及び配置姿勢に対応する位置及び姿勢へと連続的に遷移する仮想オブジェクトのオブジェクト画像データを、該実オブジェクトの配置前の前記撮像データに重畳して第二合成データを生成する第二合成ステップを実行させ、
前記表示切換ステップにおいて、前記第二合成データから前記撮像データへと表示を切り換えることを特徴とする請求項に記載の画像処理プログラム。
Based on the imaging data generated after the imaging situation changes, the composition unit of the computer continuously detects the position and orientation corresponding to the arrangement position and orientation of the real object after the imaging situation changes. A second synthesis step of generating second synthesized data by superimposing the object image data of the virtual object transitioning to the imaging data before arrangement of the real object,
9. The image processing program according to claim 8 , wherein in the display switching step, the display is switched from the second composite data to the imaging data.
JP2014093582A 2014-04-30 2014-04-30 Image processing method and image processing program Active JP6360348B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014093582A JP6360348B2 (en) 2014-04-30 2014-04-30 Image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014093582A JP6360348B2 (en) 2014-04-30 2014-04-30 Image processing method and image processing program

Publications (2)

Publication Number Publication Date
JP2015210763A JP2015210763A (en) 2015-11-24
JP6360348B2 true JP6360348B2 (en) 2018-07-18

Family

ID=54612866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014093582A Active JP6360348B2 (en) 2014-04-30 2014-04-30 Image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP6360348B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260602A (en) * 2006-06-13 2006-09-28 Sony Computer Entertainment Inc Image processing apparatus
JP2011095797A (en) * 2009-10-27 2011-05-12 Sony Corp Image processing device, image processing method and program
JP5776218B2 (en) * 2011-02-24 2015-09-09 株式会社大林組 Image composition method
JP5831151B2 (en) * 2011-11-14 2015-12-09 コニカミノルタ株式会社 Control processing program, image display apparatus, and image display method

Also Published As

Publication number Publication date
JP2015210763A (en) 2015-11-24

Similar Documents

Publication Publication Date Title
CN111667582B (en) Electronic device and method for adjusting size of augmented reality three-dimensional object
US10001844B2 (en) Information processing apparatus information processing method and storage medium
US20140118396A1 (en) Image processing device, image processing method, and computer program product
JP6192483B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP6500355B2 (en) Display device, display program, and display method
JP2018049591A (en) Image processing apparatus, image generation method, and program
CN104574267A (en) Guiding method and information processing apparatus
KR20170031733A (en) Technologies for adjusting a perspective of a captured image for display
US9424689B2 (en) System,method,apparatus and computer readable non-transitory storage medium storing information processing program for providing an augmented reality technique
US9779699B2 (en) Image processing device, image processing method, computer readable medium
KR101248736B1 (en) Augmented reality book station based augmented reality system and method, augmented reality processing apparatus for realizing the same
US9792730B2 (en) Display control method, system and medium
JP6202981B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP6739847B2 (en) Image display control device and image display control program
US20170046879A1 (en) Augmented reality without a physical trigger
JP2014170483A5 (en)
US11941763B2 (en) Viewing system, model creation apparatus, and control method
US9478068B2 (en) Computer-readable medium, image processing device, image processing system, and image processing method
TW201640280A (en) Method and system for operating article-oriented augmented reality, and computer-readable storing medium
US20220254123A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US10540816B2 (en) Information display system
JP6632298B2 (en) Information processing apparatus, information processing method and program
JP6360348B2 (en) Image processing method and image processing program
CN113228117B (en) Authoring apparatus, authoring method, and recording medium having an authoring program recorded thereon
US20200394845A1 (en) Virtual object display control device, virtual object display system, virtual object display control method, and storage medium storing virtual object display control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180622

R150 Certificate of patent or registration of utility model

Ref document number: 6360348

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250