JP2017016166A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2017016166A
JP2017016166A JP2013233805A JP2013233805A JP2017016166A JP 2017016166 A JP2017016166 A JP 2017016166A JP 2013233805 A JP2013233805 A JP 2013233805A JP 2013233805 A JP2013233805 A JP 2013233805A JP 2017016166 A JP2017016166 A JP 2017016166A
Authority
JP
Japan
Prior art keywords
image
content
background
unit
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013233805A
Other languages
Japanese (ja)
Inventor
克幸 永井
Katsuyuki Nagai
克幸 永井
幸司 森下
Koji Morishita
幸司 森下
尚志 野田
Hisashi Noda
尚志 野田
英良 松嶋
Hideyoshi Matsushima
英良 松嶋
岩元 浩太
Kota Iwamoto
浩太 岩元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
NEC Solution Innovators Ltd
Original Assignee
NEC Corp
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, NEC Solution Innovators Ltd filed Critical NEC Corp
Priority to JP2013233805A priority Critical patent/JP2017016166A/en
Priority to PCT/JP2014/005387 priority patent/WO2015072091A1/en
Publication of JP2017016166A publication Critical patent/JP2017016166A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology of presenting an AR image formed by superimposing AR content on a desired background image, without any limitation of location or time.SOLUTION: An image processing apparatus includes: an operation receiving unit which receives an operation for selecting an image file; a background acquisition unit which acquires an image of the image file selected in the selection operation, as a background image, from a background holding unit holding the image file; a marker detection unit which detects a marker from the acquired background image; a reference calculation unit which sets a three-dimensional coordinate space, on the basis of real information on the detected marker and image information, and calculates a background imaging position and a background imaging direction; a position determination unit which determines a position on the three-dimensional coordinate space where an AR content to be displayed is arranged virtually; and a display processing unit which causes a display unit to display a composite image formed by superimposing an image viewed from the background imaging position in the background imaging direction of the AR content to be arranged in the position determined on the three-dimensional coordinate space, on the background image.SELECTED DRAWING: Figure 1

Description

本発明は、拡張現実(Augmented Reality;AR)の画像処理技術に関する。   The present invention relates to augmented reality (AR) image processing technology.

現在、拡張現実と呼ばれる技術を用いた様々なアプリケーションが提供されている。AR技術は、スマートフォン等の携帯機器のカメラやヘッドマウントディスプレイ(HMD)を介して得られる現実世界に3次元コンテンツや2次元コンテンツ(文字や図柄など)を重畳的に表示させる。例えば、下記非特許文献1には、現実世界に重畳させる3次元コンテンツを現実世界に存在する現実オブジェクトを実写した画像で生成する手法が提案されている。また、当該3次元コンテンツには、実写画像ではなく、コンピュータグラフィック(CG)技術を用いて生成される仮想3次元モデルが利用される形態もある。   Currently, various applications using a technique called augmented reality are provided. The AR technology displays three-dimensional content and two-dimensional content (such as characters and designs) in a superimposed manner in the real world obtained via a camera or a head-mounted display (HMD) of a mobile device such as a smartphone. For example, the following Non-Patent Document 1 proposes a method of generating a three-dimensional content to be superimposed on the real world with an image obtained by actually capturing a real object existing in the real world. In addition, there is a form in which the virtual three-dimensional model generated by using computer graphic (CG) technology is used for the three-dimensional content, instead of the photographed image.

以降、現実世界に3次元コンテンツや2次元データが重畳された合成画像はAR画像と表記される場合もある。また、3次元コンテンツや2次元コンテンツが重畳される現実世界を写す画像が背景画像と表記される場合もある。また、この背景画像に重畳される3次元コンテンツや2次元コンテンツがARコンテンツと表記される場合もある。   Hereinafter, a composite image in which 3D content and 2D data are superimposed on the real world may be referred to as an AR image. In addition, an image of the real world on which 3D content or 2D content is superimposed may be described as a background image. In addition, 3D content and 2D content superimposed on the background image may be referred to as AR content.

下記非特許文献2は、AR技術を用いた、移動ロボットの遠隔操縦システムを提案する。この提案手法では、ロボットの3次元モデルがAR技術を用いて拡張自由視点画像に重畳された画像がHMDを介して操縦者に提示される。この拡張自由視点画像は、移動ロボットにより複数地点で取得された全方位画像群および距離画像群、並びに、当該取得時のロボットの位置及び姿勢に基づいて、生成される。また、下記特許文献1には、重畳する3次元コンテンツの生成手法として、注目物体の3次元表示をするための変換画像を加速度センサ等の専用の機材を用いることなく単一のカメラで生成する手法が提案されている。この提案手法では、注目物体を含む複数の画像についてカメラの回転軸を構成する複数の画像座標をユーザに指定させ、指定された画像座標が一致するように変換対象画像が幾何変換される。   Non-Patent Document 2 below proposes a remote control system for a mobile robot using AR technology. In this proposed method, an image in which a three-dimensional model of a robot is superimposed on an extended free viewpoint image using AR technology is presented to the operator via the HMD. This extended free viewpoint image is generated based on the omnidirectional image group and distance image group acquired at a plurality of points by the mobile robot, and the position and orientation of the robot at the time of acquisition. Also, in Patent Document 1 below, as a method for generating three-dimensional content to be superimposed, a converted image for three-dimensional display of a target object is generated with a single camera without using dedicated equipment such as an acceleration sensor. A method has been proposed. In this proposed technique, the user designates a plurality of image coordinates constituting the rotation axis of the camera for a plurality of images including the target object, and the conversion target image is geometrically transformed so that the designated image coordinates coincide.

国際公開第2011/148595号International Publication No. 2011/148595

宇野祐介、「拡張現実感のための視点依存テクスチャ・ジオメトリに基づく仮想化実物体の提示」、奈良先端科学技術大学院大学 情報科学研究科 情報科学専攻 修士論文、2013年3月15日Yusuke Uno, “Presentation of Virtual Real Objects Based on View-Dependent Texture Geometry for Augmented Reality”, Nara Institute of Science and Technology, Graduate School of Information Science, Master's Thesis, March 15, 2013 上田優子他、「拡張自由視点画像生成を用いた遠隔移動ロボット操縦インタフェース」、信学技報、vol.112, no.386、pp.217-222、2013年1月Yuko Ueda et al. “Remote Mobile Robot Operation Interface Using Extended Free Viewpoint Image Generation”, IEICE Technical Report, vol.112, no.386, pp.217-222, January 2013

上述の提案手法や既存のアプリケーションでは、3次元コンテンツや2次元コンテンツが重畳される背景画像には、リアルタイムに撮像装置から得られるリアルタイム映像が利用される。これにより、ユーザは、撮像装置がリアルタイムに写す現実世界にあたかもARコンテンツが存在するようなAR画像を視認することができる。   In the above-described proposed method and existing applications, a real-time video obtained from an imaging device in real time is used as a background image on which three-dimensional content or two-dimensional content is superimposed. As a result, the user can visually recognize an AR image in which AR content exists in the real world captured by the imaging apparatus in real time.

しかしながら、上述のような手法では、ARコンテンツを重畳させたい現実世界が、そのときの撮像装置の存在場所に制限されてしまう。例えば、ユーザが、所持するカメラ付き携帯端末で、自身の部屋にARコンテンツが重畳されたAR画像を見ることができるのは、ユーザがその携帯端末を持って自身の部屋にいるときだけであり、電車の中等のようなユーザの部屋以外の場所では、そのAR画像を見ることはできない。   However, with the above-described method, the real world where the AR content is to be superimposed is limited to the location where the imaging device is present. For example, a user can view an AR image in which AR content is superimposed on his / her room with his / her camera-equipped mobile terminal only when the user is in his / her room with the mobile terminal. The AR image cannot be seen in places other than the user's room such as in a train.

本発明は、このような事情に鑑みてなされたものであり、場所や時間の制限なく、所望の背景画像にARコンテンツが重畳されたAR画像を提示する技術を提供することにある。   The present invention has been made in view of such circumstances, and it is an object of the present invention to provide a technique for presenting an AR image in which an AR content is superimposed on a desired background image without restrictions on place or time.

本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。   Each aspect of the present invention employs the following configurations in order to solve the above-described problems.

第1の側面は、画像処理装置に関する。第1の側面に係る画像処理装置は、画像ファイルの選択操作を受け付ける操作受付部と、マーカが写る背景画像を保存する画像ファイルを保持する背景保持部から、操作受付部により受け付けられる選択操作で選択された画像ファイルの画像を背景画像として取得する背景取得部と、背景取得部で取得される背景画像からマーカを検出するマーカ検出部と、検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、かつ、背景撮影位置及び背景撮影方向を算出する基準算出部と、表示対象のARコンテンツを仮想的に配置する3次元座標空間上の位置を決定する位置決定部と、3次元座標空間の決定された位置に配置されるARコンテンツの背景撮影位置及び背景撮影方向からの視認画像が背景画像に重畳された合成画像を表示部に表示させる表示処理部と、を有する。   The first aspect relates to an image processing apparatus. The image processing apparatus according to the first aspect is a selection operation accepted by an operation accepting unit from an operation accepting unit that accepts an operation of selecting an image file and a background holding unit that holds an image file that stores a background image in which a marker is captured. Based on a background acquisition unit that acquires an image of the selected image file as a background image, a marker detection unit that detects a marker from the background image acquired by the background acquisition unit, and real information and image information about the detected marker A reference calculation unit that sets a three-dimensional coordinate space, calculates a background shooting position and a background shooting direction, and a position determination unit that determines a position in a three-dimensional coordinate space where an AR content to be displayed is virtually arranged And a visual image from the background photographing position and background photographing direction of the AR content arranged at the determined position in the three-dimensional coordinate space are superimposed on the background image. It has a display unit for displaying the synthesized image on the display unit.

第2の側面は、画像処理方法に関する。第2の側面に係る画像処理方法は、画像ファイルの選択操作を受け付け、マーカが写る背景画像を保存する画像ファイルを保持する背景保持部から、当該受け付けられた選択操作で選択された画像ファイルの画像を背景画像として取得し、取得された背景画像からマーカを検出し、検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、検出されたマーカに関する現実情報及び画像情報に基づいて、背景撮影位置及び背景撮影方向を算出し、表示対象のARコンテンツを仮想的に配置する3次元座標空間上の位置を決定し、3次元座標空間の決定された位置に配置されるARコンテンツの背景撮影位置及び背景撮影方向からの視認画像が背景画像に重畳された合成画像を表示部に表示させる、ことを含む。   The second aspect relates to an image processing method. The image processing method according to the second aspect receives an image file selection operation, and from a background holding unit that stores an image file that stores a background image in which a marker is captured, the image file selected by the received selection operation. An image is acquired as a background image, a marker is detected from the acquired background image, a three-dimensional coordinate space is set based on the detected reality information and image information, and the detected reality information and image related to the detected marker Based on the information, the background shooting position and the background shooting direction are calculated, the position in the three-dimensional coordinate space where the AR content to be displayed is virtually arranged is determined, and the position is arranged at the determined position in the three-dimensional coordinate space. And displaying a composite image in which a visual image from the background shooting position and background shooting direction of the AR content is superimposed on the background image on the display unit.

なお、本発明の他の側面としては、上記第2の側面の方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。   Another aspect of the present invention may be a program that causes at least one computer to execute the method of the second aspect, or a computer-readable recording medium that records such a program. May be. This recording medium includes a non-transitory tangible medium.

上記各側面によれば、場所や時間の制限なく、所望の背景画像にARコンテンツが重畳されたAR画像を提示する技術を提供することができる。   According to each aspect described above, it is possible to provide a technique for presenting an AR image in which AR content is superimposed on a desired background image without any restrictions on place or time.

本実施形態における画像処理装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the image processing apparatus in this embodiment. 本実施形態における画像処理装置の動作例を示すフローチャートである。5 is a flowchart illustrating an operation example of the image processing apparatus according to the present embodiment. 第1実施形態における画像処理装置のハードウェア構成例を概念的に示す図である。1 is a diagram conceptually illustrating a hardware configuration example of an image processing apparatus according to a first embodiment. 第1実施形態における画像処理装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the image processing apparatus in 1st Embodiment. コンテンツ保持部に保持される各コンテンツ撮影方向に対応付けられた複数のコンテンツ画像の例を概念的に示す図である。It is a figure which shows notionally the example of several content image matched with each content imaging | photography direction hold | maintained at a content holding part. 第1実施形態における画像処理装置の動作例を示すフローチャートである。3 is a flowchart illustrating an operation example of the image processing apparatus according to the first embodiment. 第2実施形態における画像処理装置のハードウェア構成例を概念的に示す図である。It is a figure which shows notionally the hardware structural example of the image processing apparatus in 2nd Embodiment. 第2実施形態における画像処理装置の動作例の一部を示すフローチャートである。12 is a flowchart illustrating a part of an operation example of the image processing apparatus according to the second embodiment. 第2変形例における画像処理装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the image processing apparatus in a 2nd modification. 画像ファイルに保存される背景画像の例を示す図である。It is a figure which shows the example of the background image preserve | saved at an image file. 画像ファイルに保存される背景画像の例を示す図である。It is a figure which shows the example of the background image preserve | saved at an image file. 画像ファイルに保存される背景画像の例を示す図である。It is a figure which shows the example of the background image preserve | saved at an image file. 図10Aに示される背景画像にコンテンツ画像が重畳された合成画像(AR画像)の例を示す図である。It is a figure which shows the example of the synthesized image (AR image) with which the content image was superimposed on the background image shown by FIG. 10A. 図10Bに示される背景画像にコンテンツ画像が重畳された合成画像(AR画像)の例を示す図である。It is a figure which shows the example of the synthesized image (AR image) with which the content image was superimposed on the background image shown by FIG. 10B. 図10Cに示される背景画像にコンテンツ画像が重畳された合成画像(AR画像)の例を示す図である。It is a figure which shows the example of the synthesized image (AR image) with which the content image was superimposed on the background image shown by FIG. 10C. AR画像上でのARコンテンツの移動を示す図である。It is a figure which shows the movement of AR content on an AR image. AR画像上でのARコンテンツの移動を示す図である。It is a figure which shows the movement of AR content on an AR image. AR画像上でのARコンテンツの移動を示す図である。It is a figure which shows the movement of AR content on an AR image.

以下、本発明の実施の形態について説明する。なお、以下に挙げる実施形態は例示であり、本発明は以下の実施形態の構成に限定されない。   Embodiments of the present invention will be described below. In addition, embodiment mentioned below is an illustration and this invention is not limited to the structure of the following embodiment.

図1は、本実施形態における画像処理装置の処理構成例を概念的に示す図である。図1に示されるように、画像処理装置100は、操作受付部101、背景取得部102、マーカ検出部103、基準算出部104、位置決定部105、表示処理部106等を有する。画像処理装置100は、後述する詳細実施形態における画像処理装置10と同様のハードウェア構成を有し、その画像処理装置10と同様にプログラムが処理されることで、上述の各処理部が実現される。また、画像処理装置100は、背景保持部107及び表示部108を有してもよい。但し、背景保持部107及び表示部108は、画像処理装置100と通信可能に接続される他のコンピュータ(図示せず)が有していてもよい。表示部108は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイ等のような、描画データに対応する画面を表示する装置である。   FIG. 1 is a diagram conceptually illustrating a processing configuration example of an image processing apparatus according to the present embodiment. As illustrated in FIG. 1, the image processing apparatus 100 includes an operation reception unit 101, a background acquisition unit 102, a marker detection unit 103, a reference calculation unit 104, a position determination unit 105, a display processing unit 106, and the like. The image processing apparatus 100 has a hardware configuration similar to that of the image processing apparatus 10 in the detailed embodiment described later, and each processing unit described above is realized by processing a program in the same manner as the image processing apparatus 10. The In addition, the image processing apparatus 100 may include a background holding unit 107 and a display unit 108. However, the background holding unit 107 and the display unit 108 may be included in another computer (not shown) connected to be communicable with the image processing apparatus 100. The display unit 108 is a device that displays a screen corresponding to drawing data, such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube) display.

操作受付部101は、画像ファイルの選択操作を受け付ける。   The operation reception unit 101 receives an image file selection operation.

背景取得部102は、マーカが写る背景画像を保存する画像ファイルを保持する背景保持部107から、操作受付部101により受け付けられる選択操作で選択された画像ファイルの画像を背景画像として取得する。ここで、画像ファイルには、動画データ又は静止画データが保存され、背景取得部102は、動画データ又は静止画データから静止画情報としての背景画像を取得する。   The background acquisition unit 102 acquires, as a background image, the image of the image file selected by the selection operation received by the operation reception unit 101 from the background storage unit 107 that stores the image file that stores the background image on which the marker is reflected. Here, moving image data or still image data is stored in the image file, and the background acquisition unit 102 acquires a background image as still image information from the moving image data or still image data.

マーカ検出部103は、背景取得部102で取得される背景画像からマーカを検出する。ここで、マーカとは、現実世界に配置された画像や物であり、ARマーカ等と呼ばれる。但し、本実施形態は、このマーカから、参照方向によらず、或る基準点及びその基準点からの相互に直交する3つの方向を一定に得ることができるのであれば、このマーカの具体的形態を制限しない。例えば、マーカ検出部103は、マーカの現実情報(形状情報等)を予め保持しており、この現実情報に基づいて、背景画像からマーカを検出する。   The marker detection unit 103 detects a marker from the background image acquired by the background acquisition unit 102. Here, the marker is an image or an object arranged in the real world and is called an AR marker or the like. However, in the present embodiment, if a certain reference point and three directions orthogonal to each other from the reference point can be obtained from this marker regardless of the reference direction, the specific of this marker can be obtained. The form is not limited. For example, the marker detection unit 103 holds in advance the marker actual information (shape information and the like), and detects the marker from the background image based on the reality information.

基準算出部104は、検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、かつ、背景撮影位置及び背景撮影方向を算出する。マーカに関する現実情報とは、マーカの現実世界における既知の情報を意味し、例えば、マーカの実際の形状を示す。また、マーカに関する画像情報とは、マーカの背景画像内における情報を意味し、マーカの背景画像内の形状を示す。基準算出部104は、検出されたマーカから認識される基準点に応じた位置に3次元座標空間を設定する。3次元座標空間の設定位置については、特に制限されない。また、基準算出部104は、マーカに関する現実情報と画像情報との比較により、背景撮影位置及び背景撮影方向を算出する。背景撮影位置及び背景撮影方向は、その画像ファイルの背景画像を撮影した撮像装置の位置及び向き(姿勢)を意味する。   The reference calculation unit 104 sets a three-dimensional coordinate space, and calculates a background shooting position and a background shooting direction based on the actual information and image information regarding the detected marker. The real information on the marker means known information in the real world of the marker, and indicates the actual shape of the marker, for example. Moreover, the image information regarding a marker means the information in the background image of a marker, and shows the shape in the background image of a marker. The reference calculation unit 104 sets a three-dimensional coordinate space at a position corresponding to the reference point recognized from the detected marker. The set position in the three-dimensional coordinate space is not particularly limited. In addition, the reference calculation unit 104 calculates the background shooting position and the background shooting direction by comparing the actual information about the marker and the image information. The background shooting position and the background shooting direction mean the position and orientation (posture) of the imaging apparatus that shot the background image of the image file.

位置決定部105は、表示対象のARコンテンツを仮想的に配置する上記3次元座標空間上の位置を決定する。位置決定部105は、この位置を任意に又は固定的に決定することができる。表示対象のARコンテンツは、上記非特許文献1及び2で提案される3次元モデルであってもよいし、現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像を切り替え表示することで模擬される3次元コンテンツであってもよいし、平面的な2次元コンテンツであってもよい。   The position determination unit 105 determines the position in the three-dimensional coordinate space where the AR content to be displayed is virtually arranged. The position determination unit 105 can determine this position arbitrarily or fixedly. The AR content to be displayed may be the three-dimensional model proposed in Non-Patent Documents 1 and 2 above, or a plurality of content images obtained by photographing a real object from a plurality of directions are displayed by switching. It may be a three-dimensional content that is simulated in the above, or a planar two-dimensional content.

表示処理部106は、3次元座標空間における上記決定された位置に配置されるARコンテンツの背景撮影位置及び背景撮影方向からの視認画像が上記背景画像に重畳された合成画像を表示部108に表示させる。ARコンテンツが上述の3次元モデル又は2次元コンテンツである場合には、表示処理部106は、3次元モデル又は2次元コンテンツの持つ情報に基づいて、周知の手法を用いて当該視認画像を得ることができる。一方で、ARコンテンツが、現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像を切り替え表示することで模擬される3次元コンテンツである場合の当該視認画像の取得手法は、詳細実施形態として後述する。   The display processing unit 106 displays on the display unit 108 a composite image in which a visual image from the background photographing position and background photographing direction of the AR content arranged at the determined position in the three-dimensional coordinate space is superimposed on the background image. Let When the AR content is the above-described 3D model or 2D content, the display processing unit 106 obtains the visual image using a well-known method based on the information of the 3D model or 2D content. Can do. On the other hand, when the AR content is a three-dimensional content that is simulated by switching and displaying a plurality of content images obtained by photographing a real object from a plurality of directions, a method for acquiring the visual image is implemented in detail. It will be described later as a form.

図2は、本実施形態における画像処理装置100の動作例を示すフローチャートである。本実施形態における画像処理方法は、図2に示されるように、画像処理装置100のような少なくとも1つのコンピュータにより実行され、(S21)から(S27)の処理工程を含む。   FIG. 2 is a flowchart showing an operation example of the image processing apparatus 100 in the present embodiment. As shown in FIG. 2, the image processing method in the present embodiment is executed by at least one computer such as the image processing apparatus 100, and includes the processing steps (S21) to (S27).

(S21)では、当該コンピュータは、画像ファイルの選択操作を受け付ける。   In (S21), the computer accepts an image file selection operation.

(S22)では、当該コンピュータは、マーカがそれぞれ背景画像を保存する画像ファイルを保持する背景保持部から、(S21)で受け付けられた選択操作で選択された画像ファイルの画像を背景画像として取得する。マーカ及び画像ファイルについては上述したとおりである。(S22)の内容は、背景取得部102の処理内容と同様である。   In (S22), the computer acquires, as a background image, an image of the image file selected by the selection operation accepted in (S21) from a background holding unit that holds an image file in which each marker stores a background image. . The marker and the image file are as described above. The content of (S22) is the same as the processing content of the background acquisition unit 102.

(S23)では、当該コンピュータは、(S22)で取得された背景画像からマーカを検出する。(S23)の内容は、マーカ検出部103の処理内容と同様である。   In (S23), the computer detects a marker from the background image acquired in (S22). The content of (S23) is the same as the processing content of the marker detection unit 103.

(S24)では、当該コンピュータは、(S23)で検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定する。
(S25)では、当該コンピュータは、(S23)で検出されたマーカに関する現実情報及び画像情報に基づいて、背景撮影位置及び背景撮影方向を算出する。(S24)及び(S25)の内容は、基準算出部104の処理内容と同様である。
In (S24), the computer sets a three-dimensional coordinate space based on the actual information and image information regarding the marker detected in (S23).
In (S25), the computer calculates a background shooting position and a background shooting direction based on the actual information and the image information regarding the marker detected in (S23). The contents of (S24) and (S25) are the same as the processing contents of the reference calculation unit 104.

(S26)では、当該コンピュータは、表示対象のARコンテンツを仮想的に配置する上記3次元座標空間上の位置を決定する。(S26)の内容は、位置決定部105の処理内容と同様である。   In (S26), the computer determines a position in the three-dimensional coordinate space where the AR content to be displayed is virtually arranged. The content of (S26) is the same as the processing content of the position determination part 105. FIG.

(S27)では、当該コンピュータは、(S24)で設定された3次元座標空間の(S26)で決定された位置に配置されるARコンテンツの、(S25)で算出された背景撮影位置及び背景撮影方向からの視認画像が、(S22)で取得された背景画像に重畳された合成画像を表示部に表示させる。(S27)の内容は、表示処理部106の処理内容と同様である。   In (S27), the computer captures the background photographing position and background photographing calculated in (S25) of the AR content arranged at the position determined in (S26) in the three-dimensional coordinate space set in (S24). The visual image from the direction is displayed on the display unit as a composite image superimposed on the background image acquired in (S22). The content of (S27) is the same as the processing content of the display processing unit 106.

上記表示部及び上記背景保持部は、画像処理方法の実行主体である少なくとも1つのコンピュータが有していてもよいし、この少なくとも1つのコンピュータと通信可能に接続される他のコンピュータ(図示せず)が有していてもよい。また、本発明の実施形態は、上述の画像処理方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録した当該コンピュータが読み取り可能な記録媒体であってもよい。   The display unit and the background holding unit may be included in at least one computer that is an execution subject of the image processing method, or another computer (not shown) connected to be communicable with the at least one computer. ) May have. The embodiment of the present invention may be a program that causes at least one computer to execute the above-described image processing method, or may be a computer-readable recording medium that records such a program. .

また、本実施形態における画像処理方法の処理工程の実行順は、図2に示される順番に制限されない。例えば、(S26)は、(S24)より後であれば、(S25)の前に実行されてもよいし、(S25)と並列に実行されてもよい。   Further, the execution order of the processing steps of the image processing method in the present embodiment is not limited to the order shown in FIG. For example, if (S26) is after (S24), it may be executed before (S25), or may be executed in parallel with (S25).

このように、本実施形態では、背景保持部に保持される画像ファイルの中からユーザによる選択操作で選択された画像ファイルの画像が背景画像(被重畳画像)として取得され、この背景画像に対してARコンテンツの視認画像が重畳された合成画像が表示される。従って、本実施形態によれば、ユーザは、保持される画像ファイルの中から所望の背景画像を保存する画像ファイルを選択する操作を行うことで、所望の背景画像にARコンテンツが重畳された合成画像(AR画像)を見ることができる。ひいては、ユーザは、いつでもどこでも、所望の背景画像のAR画像を見ることができる。   As described above, in this embodiment, the image of the image file selected by the selection operation by the user from the image files held in the background holding unit is acquired as a background image (superimposed image), and the background image Then, a composite image on which a visual image of the AR content is superimposed is displayed. Therefore, according to the present embodiment, the user performs an operation of selecting an image file in which a desired background image is stored from among the held image files, so that the AR content is superimposed on the desired background image. An image (AR image) can be seen. As a result, the user can view the AR image of the desired background image anytime and anywhere.

このように、本発明者らは、ARコンテンツを重畳させる背景画像の制限を解消し、場所や時間の制限なく、所望の背景画像にARコンテンツが重畳されたAR画像を提示するという新たな発想を見出した。そして、上述のように、被重畳画像となり得るように、マーカがそれぞれ写る複数の背景画像を複数の画像ファイルとして保存しておき、AR画像を見たいときに、ユーザに、その中から所望の背景画像を保存する画像ファイルを選択させるという、新たなユーザインタフェースを見出した。このようなユーザインタフェースは、リアルタイム映像にARコンテンツを重畳させることを前提とする既存のARアプリケーションのユーザインタフェースとはその発想が全く異なるものである。   As described above, the present inventors have solved the new idea of eliminating the limitation of the background image on which the AR content is superimposed and presenting the AR image in which the AR content is superimposed on the desired background image without limitation of place or time. I found. Then, as described above, a plurality of background images each containing a marker are stored as a plurality of image files so as to be a superimposed image, and when a user wants to view an AR image, the user can select a desired image from the background image. A new user interface has been found to select an image file for storing a background image. Such a user interface has a completely different idea from the user interface of an existing AR application that presupposes that AR content is superimposed on real-time video.

本実施形態におけるこのようなユーザインタフェースによれば、既存のARアプリケーションにおける次のような問題点も解消することができる。AR画像を撮影及び表示する装置としてカメラ付きの携帯端末が用いられる場合、ユーザは、その携帯端末でARコンテンツが重畳される現実世界を常に撮影しなければならない。これでは、AR画像を見るために、ユーザは、常に腕を上げている必要があり、楽な姿勢でAR画像を見ることができない。更に、携帯端末はユーザの手で保持されるため、携帯端末の位置を完全に固定することは困難であり、背景画像がぶれてしまう。   According to such a user interface in the present embodiment, the following problems in the existing AR application can be solved. When a portable terminal with a camera is used as a device that captures and displays an AR image, the user must always shoot the real world on which AR content is superimposed on the portable terminal. In this case, in order to view the AR image, the user needs to always raise his arm, and cannot view the AR image with an easy posture. Furthermore, since the portable terminal is held by the user's hand, it is difficult to completely fix the position of the portable terminal, and the background image is blurred.

本実施形態によれば、ユーザによる選択操作で選択された画像ファイルの画像が背景画像(被重畳画像)として用いられるため、ユーザは、手振れを気にすることなく、かつ、楽な姿勢でAR画像を見ることができる。   According to the present embodiment, since the image of the image file selected by the selection operation by the user is used as the background image (superimposed image), the user does not mind camera shake and has an easy posture. You can see the image.

また、ARコンテンツの視認画像は、その背景画像から検出されたマーカに基づいて設定される3次元座標空間上の或る位置に置かれたARコンテンツが、そのマーカに基づいて算出される背景画像の背景撮影位置及び背景撮影方向から視認される形態となる。よって、ユーザは、表示されるAR画像を見ることにより、所望の背景画像に写る現実世界にあたかもそのARコンテンツが存在していたかのような状況を認識することができる。   The visual image of the AR content is a background image in which the AR content placed at a certain position in the three-dimensional coordinate space set based on the marker detected from the background image is calculated based on the marker. This is a form visually recognized from the background photographing position and the background photographing direction. Therefore, the user can recognize the situation as if the AR content existed in the real world shown in the desired background image by viewing the displayed AR image.

以下、上述の実施形態について更に詳細を説明する。以下には、詳細実施形態として第1実施形態及び第2実施形態を例示する。以下では、上述の実施形態と同じ内容については適宜省略し、上述の実施形態と異なる内容を中心に説明する。   Hereinafter, the details of the above-described embodiment will be described. Below, 1st Embodiment and 2nd Embodiment are illustrated as detailed embodiment. In the following, the same contents as those of the above-described embodiment will be omitted as appropriate, and the contents different from those of the above-described embodiment will be mainly described.

[第1実施形態]
第1実施形態における画像処理装置は、現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像の中の1つのコンテンツ画像をARコンテンツの視認画像として用いて、AR画像(合成画像)を生成する。
[First Embodiment]
The image processing apparatus according to the first embodiment uses one content image among a plurality of content images obtained by photographing a real object from a plurality of directions as a visual image of the AR content, and uses an AR image (composite image). Is generated.

〔装置構成〕
図3は、第1実施形態における画像処理装置10のハードウェア構成例を概念的に示す図である。画像処理装置10は、いわゆるコンピュータである。携帯型、据え置き型等、画像処理装置10の形態は制限されない。画像処理装置10は、例えば、バスで相互に接続される、CPU(Central Processing Unit)11、メモリ12、入出力インタフェース(I/F)13、通信装置14等を有する。メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク等である。通信ユニット14は、他のコンピュータや機器と信号のやりとりを行う。通信ユニット14には、可搬型記録媒体等も接続され得る。
〔Device configuration〕
FIG. 3 is a diagram conceptually illustrating a hardware configuration example of the image processing apparatus 10 in the first embodiment. The image processing apparatus 10 is a so-called computer. The form of the image processing apparatus 10 such as a portable type or a stationary type is not limited. The image processing apparatus 10 includes, for example, a CPU (Central Processing Unit) 11, a memory 12, an input / output interface (I / F) 13, a communication device 14, and the like that are connected to each other via a bus. The memory 12 is a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk, or the like. The communication unit 14 exchanges signals with other computers and devices. A portable recording medium or the like can be connected to the communication unit 14.

入出力I/F13は、表示装置15、入力装置16等のユーザインタフェース装置と接続可能である。表示装置15は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイのような、CPU11やGPU(Graphics Processing Unit)(図示せず)等により処理された描画データに対応する画面を表示する装置である。表示装置15は、上述の表示部108に相当する。入力装置16は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置である。表示装置15及び入力装置16は一体化され、タッチパネルとして実現されてもよい。また、表示装置15及び入力装置16は、画像処理装置10と通信ユニット14を介して通信可能に接続される他のコンピュータに接続されていてもよい。   The input / output I / F 13 can be connected to user interface devices such as the display device 15 and the input device 16. The display device 15 displays a screen corresponding to drawing data processed by a CPU 11 or a GPU (Graphics Processing Unit) (not shown) such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube) display. Device. The display device 15 corresponds to the display unit 108 described above. The input device 16 is a device that receives an input of a user operation such as a keyboard and a mouse. The display device 15 and the input device 16 may be integrated and realized as a touch panel. The display device 15 and the input device 16 may be connected to another computer that is communicably connected to the image processing device 10 via the communication unit 14.

また、画像処理装置10は、図3には示されない他のハードウェア要素を有していてもよい。例えば、画像処理装置10は、撮像部に相当するカメラを有していてもよい。この場合、画像処理装置10は、そのカメラで撮像された背景画像の画像ファイルを背景保持部31に保持させることができるし、後述する現実オブジェクトのコンテンツ画像をそのカメラで撮像することができる。画像処理装置10のハードウェア構成は制限されない。   Further, the image processing apparatus 10 may have other hardware elements not shown in FIG. For example, the image processing apparatus 10 may have a camera corresponding to the imaging unit. In this case, the image processing apparatus 10 can cause the background holding unit 31 to hold an image file of a background image captured by the camera, and can capture a content image of a real object described later with the camera. The hardware configuration of the image processing apparatus 10 is not limited.

〔処理構成〕
図4は、第1実施形態における画像処理装置10の処理構成例を概念的に示す図である。第1実施形態における画像処理装置10は、操作受付部21、背景取得部22、マーカ検出部23、基準算出部24、位置決定部25、画像抽出部26、サイズ調整部27、合成処理部28、表示処理部29、背景保持部31、コンテンツ保持部32等を有する。これら各処理部は、例えば、CPU11によりメモリ12に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F13又は通信ユニット14を介してインストールされ、メモリ12に格納されてもよい。
[Processing configuration]
FIG. 4 is a diagram conceptually illustrating a processing configuration example of the image processing apparatus 10 in the first embodiment. The image processing apparatus 10 according to the first embodiment includes an operation reception unit 21, a background acquisition unit 22, a marker detection unit 23, a reference calculation unit 24, a position determination unit 25, an image extraction unit 26, a size adjustment unit 27, and a synthesis processing unit 28. A display processing unit 29, a background holding unit 31, a content holding unit 32, and the like. Each of these processing units is realized, for example, by executing a program stored in the memory 12 by the CPU 11. Further, the program is installed from a portable recording medium such as a CD (Compact Disc) or a memory card or another computer on the network via the input / output I / F 13 or the communication unit 14 and is stored in the memory 12. It may be stored.

操作受付部21は、上述の操作受付部101に相当する。操作受付部21は、表示装置15に表示される画面に対する入力装置16を用いたユーザ操作を受け付ける。操作受付部21は、画像ファイルの選択操作に加えて、合成画像に対するコンテンツ画像の移動操作を更に受け付ける。当該選択操作は、例えば、表示装置15に表示される複数の画像ファイルのリストから1つの画像ファイルを選択する操作と、その操作を確定するボタン操作とから構成される。また、その移動操作は、例えば、表示装置15に表示される合成画像上のコンテンツ画像をドラッグアンドドロップ又はスワイプする操作である。但し、本実施形態は、具体的な操作内容自体を制限しない。コンテンツ画像とは、背景画像にARコンテンツの視認画像として重畳される画像であり、その詳細については後述する。   The operation reception unit 21 corresponds to the operation reception unit 101 described above. The operation reception unit 21 receives a user operation using the input device 16 for a screen displayed on the display device 15. The operation accepting unit 21 further accepts a content image moving operation with respect to the composite image in addition to the image file selecting operation. The selection operation includes, for example, an operation for selecting one image file from a list of a plurality of image files displayed on the display device 15 and a button operation for confirming the operation. The movement operation is, for example, an operation of dragging and dropping or swiping the content image on the composite image displayed on the display device 15. However, the present embodiment does not limit the specific operation content itself. The content image is an image that is superimposed on the background image as a visual image of the AR content, and details thereof will be described later.

更に、操作受付部21は、複数の現実オブジェクトの中から表示対象とする1つの現実オブジェクトを選択する操作を受け付けることもできる。現実オブジェクトとは、背景画像に重畳するARコンテンツの元となる現実世界に存在する物や人である。操作受付部21は、後述するコンテンツ保持部32に保持されるコンテンツ画像に対応する複数の現実オブジェクトのリストを表示装置15に表示させ、そのリストに対する入力装置16を用いた選択操作を受け付けることができる。   Furthermore, the operation reception unit 21 can also receive an operation for selecting one real object to be displayed from among a plurality of real objects. A real object is an object or person existing in the real world that is the source of AR content to be superimposed on a background image. The operation receiving unit 21 displays a list of a plurality of real objects corresponding to content images held in a content holding unit 32 described later on the display device 15 and receives a selection operation using the input device 16 for the list. it can.

背景取得部22、背景保持部31、マーカ検出部23及び基準算出部24は、上述の実施形態における、背景取得部102、背景保持部107、マーカ検出部103及び基準算出部104と同様である。   The background acquisition unit 22, background holding unit 31, marker detection unit 23, and reference calculation unit 24 are the same as the background acquisition unit 102, background holding unit 107, marker detection unit 103, and reference calculation unit 104 in the above-described embodiment. .

位置決定部25は、上述の位置決定部105のように、表示対象のARコンテンツを仮想的に配置する3次元座標空間上の位置を決定する。更に、位置決定部25は、操作受付部21で移動操作が受け付けられた場合に、その移動操作が示す3次元座標空間上のARコンテンツの移動後の位置を決定する。具体的には、位置決定部25は、マーカの現実情報及び画像情報に基づいて、合成画像上における移動操作が示す移動後の位置を3次元座標空間上の位置に変換し、その変換された位置をARコンテンツの移動後の位置に決定する。   The position determination unit 25 determines the position in the three-dimensional coordinate space where the AR content to be displayed is virtually arranged, like the position determination unit 105 described above. Further, when the operation accepting unit 21 accepts a moving operation, the position determining unit 25 determines the position after movement of the AR content in the three-dimensional coordinate space indicated by the moving operation. Specifically, the position determination unit 25 converts the moved position indicated by the moving operation on the composite image into a position on the three-dimensional coordinate space based on the marker actual information and the image information, and the converted position is obtained. The position is determined as the position after the AR content is moved.

コンテンツ保持部32は、ARコンテンツに相当する現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像を各コンテンツ撮影方向に対応付けて保持する。第1実施形態では、当該複数のコンテンツ画像がARコンテンツの視認画像として用いられるため、コンテンツ保持部32は、細かい角度幅で全方向から撮影された多数のコンテンツ画像を保持することが望ましい。背景画像に重畳するコンテンツ画像を、背景画像の背景撮影方向及び背景撮影位置からの現実オブジェクトの視認画像に近似させることができるからである。   The content holding unit 32 holds a plurality of content images obtained by shooting a real object corresponding to the AR content from a plurality of directions in association with each content shooting direction. In the first embodiment, since the plurality of content images are used as a visual image of the AR content, it is desirable that the content holding unit 32 hold a large number of content images taken from all directions with a fine angle width. This is because the content image to be superimposed on the background image can be approximated to the visual image of the real object from the background shooting direction and the background shooting position of the background image.

図5は、コンテンツ保持部32に保持される各コンテンツ撮影方向に対応付けられた複数のコンテンツ画像の例を概念的に示す図である。図5では、コンテンツ撮影方向が、水平方向と垂直方向との2軸の座標空間に並べられて表記されている。図5に示されるように、コンテンツ保持部32は、各コンテンツ画像をコンテンツ撮影方向を示す位置座標と関連付けて保持することもできる。   FIG. 5 is a diagram conceptually illustrating an example of a plurality of content images associated with each content shooting direction held in the content holding unit 32. In FIG. 5, the content shooting direction is shown in a two-axis coordinate space in the horizontal direction and the vertical direction. As shown in FIG. 5, the content holding unit 32 can also hold each content image in association with position coordinates indicating the content shooting direction.

また、図5の例では、各コンテンツ画像には、現実オブジェクトと共にマーカ及びその他の背景がそれぞれ写っている。第1実施形態では、コンテンツ保持部32は、現実オブジェクト以外のものが写るコンテンツ画像を保持するようにしてもよい。但し、コンテンツ保持部32は、現実オブジェクト以外の画像領域が透明化されたコンテンツ画像を保持することが望ましい。現実オブジェクトの視認画像のみを表すコンテンツ画像を背景画像に重畳させた合成画像を生成し易いからである。   In the example of FIG. 5, each content image includes a marker and other backgrounds as well as a real object. In the first embodiment, the content holding unit 32 may hold a content image in which something other than a real object is captured. However, it is desirable that the content holding unit 32 holds a content image in which an image area other than the real object is made transparent. This is because it is easy to generate a composite image in which a content image representing only a visual image of a real object is superimposed on a background image.

コンテンツ保持部32は、保持するコンテンツ画像にマーカが写る場合には、そのマーカの現実世界のサイズ及び形状の情報を保持する。コンテンツ保持部32は、保持するコンテンツ画像にマーカが写らない場合には、現実オブジェクトの現実世界のサイズの情報を保持する。   When a marker appears in the content image to be held, the content holding unit 32 holds information on the size and shape of the marker in the real world. The content holding unit 32 holds information about the size of the real world of the real object when the marker is not captured in the content image to be held.

また、コンテンツ保持部32は、各コンテンツ撮影方向に対応付けられる複数のコンテンツ画像を複数の現実オブジェクトの各々についてそれぞれ保持することもできる。この場合、操作受付部21は、複数の現実オブジェクトの中から表示対象とする1つの現実オブジェクトを選択する操作を受け付けることができる。   The content holding unit 32 can also hold a plurality of content images associated with each content shooting direction for each of a plurality of real objects. In this case, the operation reception unit 21 can receive an operation of selecting one real object to be displayed from among a plurality of real objects.

画像抽出部26は、コンテンツ保持部32から、位置決定部25で決定された位置から基準算出部24で算出された背景撮影位置への方向と近いコンテンツ撮影方向に対応付けられて保持されるコンテンツ画像を抽出する。ARコンテンツの3次元座標空間における位置から背景撮影位置への方向と一致するコンテンツ撮影方向に対応付けられているコンテンツ画像がコンテンツ保持部32に保持されていることが望ましい。そのコンテンツ画像が、背景画像の撮影位置からの現実オブジェクトの視認画像に一致するからである。そのように一致するコンテンツ画像がコンテンツ保持部32に保持されていない場合に、画像抽出部26は、最も近似するコンテンツ撮影方向に対応付けられて保持されるコンテンツ画像を抽出する。   The image extraction unit 26 holds content associated with a content shooting direction close to the direction from the position determined by the position determination unit 25 to the background shooting position calculated by the reference calculation unit 24 from the content holding unit 32. Extract images. It is desirable that the content holding unit 32 hold a content image associated with a content shooting direction that matches the direction from the position in the three-dimensional coordinate space of the AR content to the background shooting position. This is because the content image matches the visual image of the real object from the shooting position of the background image. When such a matching content image is not held in the content holding unit 32, the image extraction unit 26 extracts a content image held in association with the closest content shooting direction.

コンテンツ保持部32に複数の現実オブジェクトのコンテンツ画像が保持されている場合には、画像抽出部26は、操作受付部21により受け付けられた操作により選択された現実オブジェクトに対応してコンテンツ保持部32に保持される複数のコンテンツ画像の中から1つのコンテンツ画像を抽出する。   When content images of a plurality of real objects are held in the content holding unit 32, the image extraction unit 26 corresponds to the real object selected by the operation received by the operation receiving unit 21, and the content holding unit 32. One content image is extracted from a plurality of content images held in the.

また、画像抽出部26は、操作受付部21で移動操作が受け付けられた場合には、位置決定部25により決定される移動後の位置から基準算出部24で算出された背景撮影位置への方向と近いコンテンツ撮影方向に対応付けられてコンテンツ保持部32に保持されるコンテンツ画像を新たに抽出する。新たに抽出されるコンテンツ画像は、背景画像の撮影位置からの移動後の位置に存在する現実オブジェクトの視認画像となる。   In addition, when the operation accepting unit 21 accepts a moving operation, the image extracting unit 26 uses a direction from the moved position determined by the position determining unit 25 to the background photographing position calculated by the reference calculating unit 24. A content image held in the content holding unit 32 in association with the content shooting direction close to is newly extracted. The newly extracted content image is a visual image of a real object that exists at a position after the background image is moved from the shooting position.

サイズ調整部27は、現実オブジェクトの現実サイズと、マーカ検出部23で検出されたマーカに関する現実情報及び画像情報と、位置決定部25により決定される位置とに基づいて、画像抽出部26により抽出されたコンテンツ画像を拡大又は縮小する。サイズ調整部27は、コンテンツ画像に写る現実オブジェクトが現実世界のサイズで背景画像に写る現実世界と重畳されるように、コンテンツ画像の拡大率又は縮小率を決定する。例えば、サイズ調整部27は、マーカに関する現実情報及び画像情報を用いることで、背景画像における現実世界の縮小率を得ることができ、現実オブジェクトの現実サイズとコンテンツ画像での画像サイズと背景画像における現実世界の縮小率と、背景撮影位置とARコンテンツの位置との間の距離とを用いて、コンテンツ画像の拡大率又は縮小率を決定することができる。   The size adjustment unit 27 is extracted by the image extraction unit 26 based on the actual size of the real object, the real information and image information regarding the marker detected by the marker detection unit 23, and the position determined by the position determination unit 25. The enlarged content image is enlarged or reduced. The size adjusting unit 27 determines the enlargement ratio or reduction ratio of the content image so that the real object shown in the content image is superimposed on the real world shown in the background image in the size of the real world. For example, the size adjustment unit 27 can obtain the reduction ratio of the real world in the background image by using the real information and the image information regarding the marker, and the real size of the real object, the image size in the content image, and the background image The enlargement ratio or reduction ratio of the content image can be determined using the reduction ratio in the real world and the distance between the background shooting position and the AR content position.

合成処理部28は、3次元座標空間における位置決定部25により決定された位置に配置されるARコンテンツの背景撮影位置及び背景撮影方向からの視認画像が背景画像に重畳された合成画像(AR画像)を生成する。具体的には、合成処理部28は、画像抽出部26により抽出されたコンテンツ画像を現実オブジェクト(ARコンテンツ)の視認画像として、背景取得部22により取得された背景画像に重畳する。   The composition processing unit 28 is a composite image (AR image) in which the visual image from the background photographing position and the background photographing direction of the AR content arranged at the position determined by the position determining unit 25 in the three-dimensional coordinate space is superimposed on the background image. ) Is generated. Specifically, the composition processing unit 28 superimposes the content image extracted by the image extraction unit 26 on the background image acquired by the background acquisition unit 22 as a visual image of the real object (AR content).

合成処理部28は、背景画像に重畳するコンテンツ画像を、操作受付部21による移動操作の受け付けに応じて画像抽出部26により新たに抽出されたコンテンツ画像に切り換える。また、合成処理部28は、サイズ調整部27によりコンテンツ画像が拡大又は縮小された場合には、その拡大又は縮小されたコンテンツ画像を背景画像に重畳する。   The composition processing unit 28 switches the content image to be superimposed on the background image to the content image newly extracted by the image extracting unit 26 in response to the movement operation received by the operation receiving unit 21. Further, when the content image is enlarged or reduced by the size adjusting unit 27, the composition processing unit 28 superimposes the enlarged or reduced content image on the background image.

表示処理部29は、合成処理部28により生成された合成画像を表示装置15に表示させる。   The display processing unit 29 causes the display device 15 to display the combined image generated by the combining processing unit 28.

〔動作例〕
以下、第1実施形態における画像処理方法について図6を用いて説明する。図6は、第1実施形態における画像処理装置10の動作例を示すフローチャートである。以下の説明では、画像処理装置10が各方法の実行主体となるが、画像処理装置10に含まれる上述の各処理部が実行主体となってもよい。図6では、図2に示される処理工程と同じものには、図2と同じ符号が付されている。
[Operation example]
The image processing method in the first embodiment will be described below with reference to FIG. FIG. 6 is a flowchart illustrating an operation example of the image processing apparatus 10 according to the first embodiment. In the following description, the image processing apparatus 10 is the execution subject of each method, but the above-described processing units included in the image processing apparatus 10 may be the execution subject. In FIG. 6, the same processing steps as those shown in FIG.

画像処理装置10は、入力装置16を用いたユーザ操作を受け付ける(S61)。(S61)の内容は、操作受付部21の処理内容と同様である。
画像処理装置10は、選択操作が受け付けられた場合には(S62;選択)、図2と同様に、(S22)から(S26)を実行する。
The image processing apparatus 10 accepts a user operation using the input device 16 (S61). The content of (S61) is the same as the processing content of the operation reception part 21. FIG.
When the selection operation is accepted (S62; selection), the image processing apparatus 10 executes (S22) to (S26) as in FIG.

この場合、画像処理装置10は、コンテンツ保持部32から、(S26)で決定された位置から(S25)で算出された背景撮影位置への方向と近いコンテンツ撮影方向に対応付けられて保持されるコンテンツ画像を抽出する(S63)。(S63)の内容は、画像抽出部26の処理内容と同様である。   In this case, the image processing apparatus 10 is held from the content holding unit 32 in association with the content shooting direction close to the direction from the position determined in (S26) to the background shooting position calculated in (S25). A content image is extracted (S63). The content of (S63) is the same as the processing content of the image extraction unit 26.

続いて、画像処理装置10は、現実オブジェクトが現実世界におけるサイズで背景画像に写る現実世界に重畳されるように、(S63)で抽出されたコンテンツ画像を拡大又は縮小する(S64)。(S64)の内容は、サイズ調整部27の処理内容と同様である。   Subsequently, the image processing apparatus 10 enlarges or reduces the content image extracted in (S63) so that the real object is superimposed on the real world in the background image with the size in the real world (S64). The content of (S64) is the same as the processing content of the size adjustment unit 27.

画像処理装置10は、(S64)で拡大又は縮小されたコンテンツ画像を(S22)で取得された背景画像に重畳して合成画像性を生成する(S65)。(S65)の内容は、合成処理部28の処理内容と同様である。   The image processing apparatus 10 superimposes the content image enlarged or reduced in (S64) on the background image acquired in (S22) to generate composite image properties (S65). The content of (S65) is the same as the processing content of the composition processing unit 28.

画像処理装置10は、(S65)で生成された合成画像を表示装置15に表示させる(S66)。   The image processing device 10 causes the display device 15 to display the composite image generated in (S65) (S66).

一方で、画像処理装置10は、移動操作が受け付けられた場合には(S62;移動)、(S61)で受け付けられた移動操作が示す3次元座標空間上のARコンテンツの移動後の位置を決定する(S67)。(S67)の内容は、位置決定部25の処理内容と同様である。   On the other hand, when the movement operation is accepted (S62; movement), the image processing apparatus 10 determines the position after the movement of the AR content in the three-dimensional coordinate space indicated by the movement operation accepted in (S61). (S67). The content of (S67) is the same as the processing content of the position determination part 25. FIG.

画像処理装置10は、(S67)で決定された移動後の位置から(S25)で算出された背景撮影位置への方向と近いコンテンツ撮影方向に対応付けられてコンテンツ保持部32に保持されるコンテンツ画像を新たに抽出する(S63)。以降、画像処理装置10は、この新たに抽出されたコンテンツ画像に対して、(S64)以降を実行する。   The image processing apparatus 10 stores the content held in the content holding unit 32 in association with the content shooting direction close to the direction from the moved position determined in (S67) to the background shooting position calculated in (S25). An image is newly extracted (S63). Thereafter, the image processing apparatus 10 executes (S64) and subsequent steps on the newly extracted content image.

また、図6には図示されていないが、コンテンツ保持部32に複数の現実オブジェクトのコンテンツ画像が保持されている場合には、画像処理装置10は、(S61)で、複数の現実オブジェクトの中から表示対象とする1つの現実オブジェクトを選択する操作を受け付けることもできる。この場合、画像処理装置10は、(S63)で、その操作により選択された現実オブジェクトに対応してコンテンツ保持部32に保持される複数のコンテンツ画像の中から1つのコンテンツ画像を抽出する。   Although not shown in FIG. 6, when content images of a plurality of real objects are held in the content holding unit 32, the image processing apparatus 10 (S 61) An operation for selecting one real object to be displayed can be accepted. In this case, the image processing apparatus 10 extracts one content image from a plurality of content images held in the content holding unit 32 corresponding to the real object selected by the operation (S63).

〔第1実施形態の作用及び効果〕
上述したように第1実施形態では、複数の画像ファイルの中からユーザによる選択操作で選択された画像ファイルの画像が背景画像(被重畳画像)として用いられるため、ユーザに、場所や時間の制限なく、所望の背景画像にARコンテンツが重畳されたAR画像を見せることができる。
[Operation and Effect of First Embodiment]
As described above, in the first embodiment, an image of an image file selected by a user's selection operation from among a plurality of image files is used as a background image (superimposed image). In addition, an AR image in which AR content is superimposed on a desired background image can be shown.

更に、第1実施形態では、現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像が各コンテンツ撮影方向と対応付けられて予め保持されており、保持される複数のコンテンツ画像の中の1つのコンテンツ画像をARコンテンツの視認画像として用いて、AR画像(合成画像)が生成される。このように、第1実施形態によれば、各コンテンツ撮影方向と対応付けられた複数のコンテンツ画像を準備すればよいため、専門的なCG技術が必要となる3次元モデルを生成する形態に較べ、ARコンテンツを容易に作成することができる。従って、第1実施形態によれば、AR技術を用いるプラットフォームの開発及び利用の敷居を低くすることができ、それを一般ユーザに利用し易くすることができる。   Furthermore, in the first embodiment, a plurality of content images obtained by shooting a real object from a plurality of directions are stored in advance in association with each content shooting direction. An AR image (composite image) is generated using one content image as a visual image of the AR content. As described above, according to the first embodiment, since a plurality of content images associated with each content shooting direction need only be prepared, compared to a mode of generating a three-dimensional model that requires specialized CG technology. AR content can be easily created. Therefore, according to the first embodiment, the threshold for development and use of the platform using the AR technology can be lowered, and it can be easily used by general users.

更に、第1実施形態では、3次元座標空間上のARコンテンツの位置から背景画像の撮影位置への方向と近いコンテンツ撮影方向に対応付けられて保持されるコンテンツ画像が、現実オブジェクトの視認画像として背景画像に重畳される。よって、第1実施形態によれば、背景画像に重畳するコンテンツ画像を、背景画像の撮影位置及び撮影方向からの現実オブジェクトの視認画像に近似させることができ、背景画像に写る現実世界に現実オブジェクトが重畳された空間の現実感を増強させることができる。   Furthermore, in the first embodiment, a content image held in association with a content shooting direction that is close to the direction from the position of the AR content in the three-dimensional coordinate space to the shooting position of the background image is used as a visual image of the real object. It is superimposed on the background image. Therefore, according to the first embodiment, the content image superimposed on the background image can be approximated to the visual image of the real object from the shooting position and shooting direction of the background image, and the real object appears in the real world reflected in the background image. It is possible to enhance the realism of the space where is superimposed.

更に、第1実施形態では、移動操作が示す3次元座標空間上の移動後の位置が決定され、この移動後の位置から背景画像の撮影位置への方向と近いコンテンツ撮影方向に対応付けられて保持されるコンテンツ画像が新たに抽出され、背景画像に重畳するコンテンツ画像がその新たに抽出されたコンテンツ画像に切り換えられる。よって、AR画像上でコンテンツ画像に対して移動操作が行われると、その移動後の位置に応じて、AR画像上での現実オブジェクトの見え方が変わる。このように、第1実施形態によれば、AR画像上でのARコンテンツとしての現実オブジェクトを現実感を維持しつつユーザに移動させることができる。   Furthermore, in the first embodiment, the position after movement in the three-dimensional coordinate space indicated by the movement operation is determined, and is associated with the content shooting direction close to the direction from the position after the movement to the shooting position of the background image. The content image to be held is newly extracted, and the content image to be superimposed on the background image is switched to the newly extracted content image. Therefore, when a moving operation is performed on the content image on the AR image, the appearance of the real object on the AR image changes according to the position after the movement. Thus, according to the first embodiment, the real object as the AR content on the AR image can be moved to the user while maintaining the realism.

更に、第1実施形態では、現実オブジェクトが現実世界でのサイズで背景画像に写る現実世界に重畳されるように、重畳するコンテンツ画像が拡大又は縮小される。従って、第1実施形態によれば、現実オブジェクトと背景画像に写る背景との現実世界でのサイズ関係をユーザに適切に視認させることができる。   Furthermore, in the first embodiment, the superimposed content image is enlarged or reduced so that the real object is superimposed on the real world in the size of the real world and reflected in the background image. Therefore, according to the first embodiment, the size relationship in the real world between the real object and the background reflected in the background image can be appropriately recognized by the user.

また、第1実施形態では、各コンテンツ撮影方向に対応付けられる複数のコンテンツ画像を複数の現実オブジェクトの各々についてそれぞれ保持するようにすれば、ユーザに、背景画像のみでなく、重畳するARコンテンツとして所望の現実オブジェクトを選択させることができる。   Further, in the first embodiment, if a plurality of content images associated with each content shooting direction are held for each of a plurality of real objects, the AR content to be superimposed is not limited to the user. A desired real object can be selected.

[第2実施形態]
第2実施形態における画像処理装置は、画像ファイルの画像を背景画像として取得する手法と、リアルタイム映像の画像フレームを背景画像として取得する手法とを選択的に実行する。以下、第2実施形態における画像処理装置10について、第1実施形態と異なる内容を中心に説明する。以下の説明では、第1実施形態と同様の内容については適宜省略する。
[Second Embodiment]
The image processing apparatus according to the second embodiment selectively executes a method for acquiring an image of an image file as a background image and a method for acquiring an image frame of a real-time video as a background image. Hereinafter, the image processing apparatus 10 according to the second embodiment will be described focusing on the content different from the first embodiment. In the following description, the same contents as those in the first embodiment are omitted as appropriate.

〔装置構成〕
図7は、第2実施形態における画像処理装置10のハードウェア構成例を概念的に示す図である。第2実施形態における画像処理装置10は、第1実施形態の構成に加えて、撮像部に相当するカメラ17を更に有する。カメラ17は、入出力I/F13又は通信ユニット14に接続される。
〔Device configuration〕
FIG. 7 is a diagram conceptually illustrating a hardware configuration example of the image processing apparatus 10 in the second embodiment. The image processing apparatus 10 according to the second embodiment further includes a camera 17 corresponding to an imaging unit in addition to the configuration of the first embodiment. The camera 17 is connected to the input / output I / F 13 or the communication unit 14.

〔処理構成〕
第2実施形態における画像処理装置10は、図4に示される第1実施形態と同様の処理構成を有する。
[Processing configuration]
The image processing apparatus 10 in the second embodiment has a processing configuration similar to that of the first embodiment shown in FIG.

操作受付部21は、カメラ17からのリアルタイム映像の取得を要求する操作も受け付けることができる。この操作受け付けに応じて、操作受付部21は、カメラ17を起動させることもできる。   The operation receiving unit 21 can also receive an operation requesting acquisition of real-time video from the camera 17. In response to this operation reception, the operation reception unit 21 can also activate the camera 17.

背景取得部22は、操作受付部21で上記要求操作が受け付けられた場合、その受け付けられた上記要求操作に応じて、カメラ17から得られるリアルタイム映像の画像フレームを背景画像として逐次取得する。これにより、被重畳画像としての背景画像が画像ファイルの画像からリアルタイム映像の画像フレームに切り換えられる。   When the requested operation is accepted by the operation accepting unit 21, the background obtaining unit 22 sequentially obtains an image frame of a real-time video obtained from the camera 17 as a background image in accordance with the accepted requested operation. Thereby, the background image as the superimposed image is switched from the image of the image file to the image frame of the real-time video.

表示処理部29は、上述のようなコンテンツ画像が視認画像として重畳されたリアルタイム映像を表示装置15に表示させる。   The display processing unit 29 causes the display device 15 to display a real-time video on which the content image as described above is superimposed as a visual image.

〔動作例〕
以下、第2実施形態における画像処理方法について図8を用いて説明する。図8は、第2実施形態における画像処理装置10の動作例の一部を示すフローチャートである。以下の説明では、画像処理装置10が各方法の実行主体となるが、画像処理装置10に含まれる上述の各処理部が実行主体となってもよい。図8では、図6に示される処理工程と同じものには、図6と同じ符号が付されている。
[Operation example]
The image processing method in the second embodiment will be described below with reference to FIG. FIG. 8 is a flowchart illustrating a part of an operation example of the image processing apparatus 10 according to the second embodiment. In the following description, the image processing apparatus 10 is the execution subject of each method, but the above-described processing units included in the image processing apparatus 10 may be the execution subject. In FIG. 8, the same processing steps as those shown in FIG. 6 are denoted by the same reference numerals as those in FIG.

第2実施形態における画像処理装置10は、図6に示される(S61)でリアルタイム映像の取得を要求する操作を受け付けると、図8に示される動作を実行する。
画像処理装置10は、カメラ17から得られるリアルタイム映像の画像フレームを背景画像として取得する(S81)。以降、(S81)で取得された背景画像に対して、上述の第1実施形態と同様に、(S23)以降を実行する。
When the image processing apparatus 10 according to the second embodiment receives an operation requesting acquisition of a real-time video in (S61) illustrated in FIG. 6, the image processing apparatus 10 performs the operation illustrated in FIG.
The image processing apparatus 10 acquires an image frame of a real-time video obtained from the camera 17 as a background image (S81). Thereafter, (S23) and subsequent steps are executed on the background image acquired in (S81) as in the first embodiment.

画像処理装置10は、カメラ17から得られるリアルタイム映像の画像フレーム毎に図8に示される動作を繰り返し実行することで、コンテンツ画像が視認画像として重畳されたリアルタイム映像を表示装置15に表示させることができる。画像処理装置10は、背景画像として利用する画像フレームをリアルタイム映像を構成する全画像フレームから間引いてもよい。また、画像処理装置10は、隣接する画像フレーム間でマーカの配置が変わらない場合には、(S23)から(S64)を省くことができる。   The image processing apparatus 10 displays the real-time video on which the content image is superimposed as a visual image on the display device 15 by repeatedly executing the operation shown in FIG. 8 for each image frame of the real-time video obtained from the camera 17. Can do. The image processing apparatus 10 may thin out an image frame used as a background image from all image frames constituting a real-time video. Further, the image processing apparatus 10 can omit (S23) to (S64) when the marker arrangement does not change between adjacent image frames.

〔第2実施形態における作用及び効果〕
第2実施形態では、ユーザによる操作に応じて、ARコンテンツが重畳される背景画像が画像ファイルの画像からリアルタイム映像の画像フレームに切り換えられる。そして、リアルタイム画像の画像フレームに対して、ARコンテンツの位置からその画像フレームの撮影位置への方向と近いコンテンツ撮影方向と対応付けて保持されるコンテンツ画像が現実オブジェクトの視認画像として重畳される。これにより、第2実施形態によれば、コンテンツ画像が視認画像として重畳されたリアルタイム映像を表示装置15に表示させることができる。
[Operations and effects in the second embodiment]
In the second embodiment, the background image on which the AR content is superimposed is switched from an image file image to a real-time video image frame in accordance with a user operation. Then, a content image held in association with a content shooting direction close to the direction from the AR content position to the shooting position of the image frame is superimposed on the image frame of the real-time image as a visual image of the real object. Thereby, according to 2nd Embodiment, the real-time image | video with which the content image was superimposed as a visual recognition image can be displayed on the display apparatus 15. FIG.

[第1変形例]
上述の第1実施形態では、ユーザによる背景画像の選択操作を可能としているため、ユーザが誤ってマーカが写っていない背景画像を保持する画像ファイルを選択する可能性がある。コンピュータに格納される画像ファイルは多数存在し、その中には、適切な背景画像を保存する画像ファイル以外の画像ファイルも多数存在するため、このような誤りは起こり得る。そして、マーカが背景画像に写っていない場合、その背景画像に適切にARコンテンツを重畳することはできない。そこで、第1実施形態における画像処理装置10の各処理部は次のような処理を行ってもよい。
[First Modification]
In the first embodiment described above, since the user can select a background image, there is a possibility that the user may select an image file that holds a background image on which a marker is not accidentally shown. Such an error may occur because there are many image files stored in the computer, and among them, there are many image files other than the image file that stores the appropriate background image. If the marker is not reflected in the background image, the AR content cannot be appropriately superimposed on the background image. Therefore, each processing unit of the image processing apparatus 10 in the first embodiment may perform the following processing.

表示処理部29は、マーカ検出部23により背景画像からマーカが検出されない場合に、マーカが検出されないことを表示装置15に表示させる。
操作受付部21は、マーカが検出されなかった画像ファイル以外の画像ファイルを選択し直す操作を受け付ける。
背景取得部22は、選択し直す操作により新たに選択された画像ファイルの画像を背景画像として新たに取得する。
The display processing unit 29 causes the display device 15 to display that no marker is detected when no marker is detected from the background image by the marker detection unit 23.
The operation accepting unit 21 accepts an operation of reselecting an image file other than the image file in which no marker is detected.
The background acquisition unit 22 newly acquires an image of the image file newly selected by the reselection operation as a background image.

これにより、ユーザは、選択した画像ファイルがARコンテンツを重畳させることができない背景画像を保存するものであるか否かを認識することができ、画像ファイルを選択し直すことができるため、安心して、画像ファイルの選択操作を行うことができる。   As a result, the user can recognize whether the selected image file stores a background image on which AR content cannot be superimposed, and can reselect the image file. The image file can be selected.

[第2変形例]
背景画像を保存する画像ファイルを生成する時間及び場所は任意である。言い換えれば、ユーザは、背景画像に用いるために異なる複数の場所を写した複数の画像ファイルを背景保持部31に保持させることができる。このような状況下では、複数種のマーカを提供した方が利便性が上がる可能性がある。一方、画像処理装置10は、背景画像に写るマーカの現実情報(形状情報、サイズ情報)を知っている必要がある。
[Second Modification]
The time and place for generating the image file for storing the background image are arbitrary. In other words, the user can cause the background holding unit 31 to hold a plurality of image files showing a plurality of different places for use in the background image. Under such circumstances, it may be more convenient to provide multiple types of markers. On the other hand, the image processing apparatus 10 needs to know the actual information (shape information, size information) of the marker that appears in the background image.

図9は、第2変形例における画像処理装置10の処理構成例を概念的に示す図である。第2変形例における画像処理装置10は、第1実施形態及び第2実施形態の構成に加えて、マーカ情報保持部35を更に有する。マーカ情報保持部35についても他の処理部と同様に実現される。マーカ情報保持部35は、画像処理装置10ではなく、画像処理装置10と通信可能に接続される他のコンピュータが有していてもよい。   FIG. 9 is a diagram conceptually illustrating a processing configuration example of the image processing apparatus 10 in the second modification. The image processing apparatus 10 according to the second modification further includes a marker information holding unit 35 in addition to the configurations of the first embodiment and the second embodiment. The marker information holding unit 35 is also realized in the same manner as other processing units. The marker information holding unit 35 may be included not in the image processing apparatus 10 but in another computer connected to be communicable with the image processing apparatus 10.

マーカ情報保持部35は、形状情報及びサイズ情報をそれぞれ含む複数種のマーカの情報を保持する。この場合、マーカ検出部23は、マーカ情報保持部35から、1種のマーカの形状情報及びサイズ情報を取得し、この取得された形状情報及びサイズ情報を用いて、背景取得部22で取得された背景画像からマーカを検出する。1種のマーカを特定する手法は制限されない。例えば、マーカ検出部23は、マーカ情報保持部35に保持されるマーカ種毎に順次、マーカが検出できるか否かを試すことができる。また、マーカ検出部23は、ユーザにマーカ種を選択させるための画面を表示装置15に表示させ、ユーザの選択操作に応じてマーカ種を特定することもできる。   The marker information holding unit 35 holds information on a plurality of types of markers each including shape information and size information. In this case, the marker detection unit 23 acquires the shape information and size information of one kind of marker from the marker information holding unit 35, and is acquired by the background acquisition unit 22 using the acquired shape information and size information. Marker is detected from the background image. The technique for specifying one type of marker is not limited. For example, the marker detection unit 23 can try whether or not a marker can be sequentially detected for each marker type held in the marker information holding unit 35. The marker detection unit 23 can also display a screen for allowing the user to select a marker type on the display device 15 and specify the marker type according to the user's selection operation.

このようにすれば、背景画像を撮影するにあたり、ユーザに複数種のマーカを用いることを許容することができ、ARプラットフォームの利便性を向上させることができる。   In this way, it is possible to allow the user to use a plurality of types of markers when shooting the background image, and the convenience of the AR platform can be improved.

[第3変形例]
第2実施形態の画像処理装置10の各処理部は次のような処理を行ってもよい。
[Third Modification]
Each processing unit of the image processing apparatus 10 according to the second embodiment may perform the following processing.

操作受付部21は、視認画像が重畳されたリアルタイム映像が表示装置15に表示されている状態におけるスナップショット操作を受け付ける。
背景取得部22は、操作受付部21によるスナップショット操作の受け付けに応じて、画像フレームを背景画像として固定的に保持する。このとき、背景取得部22は、画像フレームを固定的に保持した後、カメラ17を停止することもできる。
表示処理部29は、視認画像が重畳されたリアルタイム映像の表示に替え、固定的に保持される背景画像にコンテンツ画像が視認画像として重畳された合成画像を表示装置15に表示させる。
The operation receiving unit 21 receives a snapshot operation in a state where a real-time video on which a visual image is superimposed is displayed on the display device 15.
The background acquisition unit 22 fixedly holds the image frame as a background image in response to the reception of the snapshot operation by the operation reception unit 21. At this time, the background acquisition unit 22 can also stop the camera 17 after holding the image frame fixedly.
The display processing unit 29 causes the display device 15 to display a composite image in which a content image is superimposed as a visual image on a fixedly held background image, instead of displaying a real-time video on which the visual image is superimposed.

このようにすれば、ユーザによるスナップショット操作が受け付けられた際に得られた画像フレームを固定的に背景画像として用いて、コンテンツ画像が重畳されたAR画像を表示装置15に表示させることができる。これによれば、ユーザは、リアルタイム映像を好きなタイミングで停止させた画像にコンテンツ画像が重畳されたAR画像を見ることができる。更に、これによれば、手振れ等により重畳されるコンテンツ画像の位置が揺れ、表示されるAR画像が見難くなることを防止することができ、かつ、ユーザに楽な姿勢でAR画像を見させることができる。   In this way, the AR image on which the content image is superimposed can be displayed on the display device 15 by using the image frame obtained when the snapshot operation by the user is accepted as a fixed background image. . According to this, the user can see the AR image in which the content image is superimposed on the image obtained by stopping the real-time video at a desired timing. Furthermore, according to this, it is possible to prevent the position of the superimposed content image from being shaken due to camera shake or the like, making it difficult to see the displayed AR image, and to allow the user to view the AR image with an easy posture. be able to.

[補足]
第2実施形態における画像処理装置10は、画像ファイルの画像を背景画像として取得する手法と、リアルタイム映像の画像フレームを背景画像として取得する手法とを選択的に実行する。しかしながら、画像処理装置10は、画像ファイルの画像を背景画像として取得する手法を持たず、リアルタイム映像の画像フレームを背景画像として取得する手法を実行するようにしてもよい。この場合、画像処理装置10は操作受付部21を持たなくてもよい。
[Supplement]
The image processing apparatus 10 according to the second embodiment selectively executes a method for acquiring an image of an image file as a background image and a method for acquiring an image frame of a real-time video as a background image. However, the image processing apparatus 10 does not have a method of acquiring an image of an image file as a background image, and may execute a method of acquiring an image frame of a real-time video as a background image. In this case, the image processing apparatus 10 may not have the operation receiving unit 21.

以下に実施例を挙げ、上述の各実施形態を更に詳細に説明する。本発明は以下の実施例から何ら限定を受けない。   Examples will be given below to describe the above-described embodiments in more detail. The present invention is not limited in any way by the following examples.

図10A、図10B及び図10Cは、画像ファイルに各々保存される背景画像の例をそれぞれ示す図である。これら図に示されるように、各背景画像にはそれぞれマーカが含まれる。これら例によれば、同じマーカが各背景画像に含まれるが、画像処理装置10が知っているマーカであれば、各背景画像に含まれるマーカは同じでなくてもよい。これら例に示されるように、背景保持部31には、異なる各背景画像をそれぞれ保存する複数の画像ファイルが保持される。   10A, 10B, and 10C are diagrams respectively showing examples of background images stored in the image file. As shown in these figures, each background image includes a marker. According to these examples, the same marker is included in each background image, but the marker included in each background image may not be the same as long as the image processing device 10 knows the marker. As shown in these examples, the background holding unit 31 holds a plurality of image files for storing different background images.

以下、図6及び図8で示される(S63)及び(S65)、並びに、画像抽出部26及び合成処理部28の処理内容の更なる具体例を説明する。この場合、コンテンツ保持部32は、コンテンツ撮影方向を示す情報として、現実オブジェクトの撮影時における現実オブジェクトからカメラ方向を示す単位ベクトルを各コンテンツ画像に対応付けて保持する。   Hereinafter, (S63) and (S65) shown in FIGS. 6 and 8 and further specific examples of the processing contents of the image extraction unit 26 and the composition processing unit 28 will be described. In this case, the content holding unit 32 holds, as information indicating the content shooting direction, a unit vector indicating the camera direction from the real object when shooting the real object in association with each content image.

画像処理装置10(画像抽出部26)は、3次元座標空間上のARコンテンツの位置から背景画像の撮影位置への方向を示す単位ベクトルを算出する。画像処理装置10(画像抽出部26)は、背景画像から算出された単位ベクトルと、コンテンツ保持部32に保持される各コンテンツ画像の各単位ベクトルとの内積をそれぞれ計算し、内積値が最大となるコンテンツ画像の単位ベクトルを特定する。画像処理装置10(画像抽出部26)は、その特定された単位ベクトルと対応付けられて保持されるコンテンツ画像をコンテンツ保持部32から抽出する。   The image processing apparatus 10 (image extraction unit 26) calculates a unit vector indicating the direction from the position of the AR content in the three-dimensional coordinate space to the shooting position of the background image. The image processing apparatus 10 (image extraction unit 26) calculates the inner product of the unit vector calculated from the background image and each unit vector of each content image held in the content holding unit 32, and the inner product value is maximum. A unit vector of the content image is specified. The image processing apparatus 10 (image extraction unit 26) extracts the content image held in association with the specified unit vector from the content holding unit 32.

画像処理装置10(合成処理部28)は、コンテンツ画像と背景画像とを合成する際に、まず、3次元座標空間上に板状の3次元オブジェクトを生成しておく。画像処理装置10(合成処理部28)は、上述のように抽出されたコンテンツ画像を板状の3次元オブジェクトにテクスチャとして貼り付ける。   When synthesizing the content image and the background image, the image processing apparatus 10 (compositing processing unit 28) first generates a plate-like three-dimensional object in the three-dimensional coordinate space. The image processing apparatus 10 (the composition processing unit 28) pastes the content image extracted as described above as a texture on a plate-shaped three-dimensional object.

図11A、図11B及び図11Cは、図10A、図10B及び図10Cに示される背景画像にコンテンツ画像が重畳された合成画像(AR画像)の例をそれぞれ示す図である。これら図に示されるように、重畳するコンテンツ画像は、背景画像の撮影位置及び撮影方向に応じて切り替えられ、現実オブジェクトが背景画像の撮影位置及び撮影方向から視認される形態となる。   11A, 11B, and 11C are diagrams illustrating examples of a composite image (AR image) in which a content image is superimposed on the background image illustrated in FIGS. 10A, 10B, and 10C. As shown in these drawings, the superimposed content image is switched according to the shooting position and shooting direction of the background image, and the real object is visually recognized from the shooting position and shooting direction of the background image.

図12A、図12B及び図12Cは、AR画像上でのARコンテンツの移動を示す図である。図12Aでは、ARコンテンツがマーカの上に配置されており、図12Bでは、図12Aの状態からARコンテンツがマーカに対して後ろ方向に移動されており、図12Cでは、図12Aの状態からARコンテンツがマーカに対して左方向に移動されている。ユーザは、図12Aに示されるAR画像が表示装置15に表示されている状態で、コンテンツ画像を移動する操作を行うことで、図12B及び図12Cに示されるようなAR画像を見ることができる。また、図12Bでは、コンテンツ画像は、移動後の位置に応じて、図12Aに示されるコンテンツ画像よりもサイズが縮小されている。図12Cでは、コンテンツ画像は、移動後の位置に応じて、図12Aに示されるコンテンツ画像から切り換えられている。   12A, 12B, and 12C are diagrams illustrating movement of AR content on an AR image. In FIG. 12A, the AR content is arranged on the marker. In FIG. 12B, the AR content is moved backward from the state of FIG. 12A. In FIG. 12C, the AR content is moved from the state of FIG. The content has been moved to the left with respect to the marker. The user can view the AR image as shown in FIGS. 12B and 12C by performing an operation of moving the content image in a state where the AR image shown in FIG. 12A is displayed on the display device 15. . In FIG. 12B, the content image is reduced in size compared to the content image shown in FIG. 12A according to the position after movement. In FIG. 12C, the content image is switched from the content image shown in FIG. 12A according to the position after movement.

なお、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。   In addition, in the some flowchart used by the above-mentioned description, although several process (process) is described in order, the execution order of the process performed by each embodiment is not restrict | limited to the order of the description. In each embodiment, the order of the illustrated steps can be changed within a range that does not hinder the contents. Moreover, each above-mentioned embodiment and each modification can be combined in the range with which the content does not conflict.

上記の各実施形態及び各変形例の一部又は全部は、以下の付記のようにも特定され得る。但し、各実施形態及び各変形例が以下の記載に限定されるものではない。   A part or all of each of the above embodiments and modifications may be specified as in the following supplementary notes. However, each embodiment and each modification are not limited to the following description.

(付記1)
画像ファイルの選択操作を受け付ける操作受付部と、
マーカが写る背景画像を保存する画像ファイルを保持する背景保持部から、前記操作受付部により受け付けられる選択操作で選択された画像ファイルの画像を背景画像として取得する背景取得部と、
前記背景取得部で取得される前記背景画像からマーカを検出するマーカ検出部と、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、かつ、背景撮影位置及び背景撮影方向を算出する基準算出部と、
表示対象のAR(Augmented Reality)コンテンツを仮想的に配置する前記3次元座標空間上の位置を決定する位置決定部と、
前記3次元座標空間の前記決定された位置に配置される前記ARコンテンツの前記背景撮影位置及び前記背景撮影方向からの視認画像が前記背景画像に重畳された合成画像を表示部に表示させる表示処理部と、
を備える画像処理装置。
(付記2)
前記ARコンテンツに相当する現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像を各コンテンツ撮影方向に対応付けて保持するコンテンツ保持部から、前記位置決定部で決定された位置から前記背景撮影位置への方向と近い該コンテンツ撮影方向に対応付けられて保持されるコンテンツ画像を抽出する画像抽出部と、
前記画像抽出部により抽出されるコンテンツ画像を前記視認画像として前記背景画像に重畳する合成処理部と、
を更に備える付記1に記載の画像処理装置。
(付記3)
前記操作受付部は、前記合成画像に対する前記コンテンツ画像の移動操作を更に受け付け、
前記位置決定部は、前記受け付けられた移動操作が示す前記3次元座標空間上の前記ARコンテンツの移動後の位置を決定し、
前記画像抽出部は、前記位置決定部により決定される移動後の位置から前記背景撮影位置への方向と近い前記コンテンツ撮影方向に対応付けられて前記コンテンツ保持部に保持されるコンテンツ画像を新たに抽出し、
前記合成処理部は、前記背景画像に重畳するコンテンツ画像を前記新たに抽出されたコンテンツ画像に切り換える、
付記2に記載の画像処理装置。
(付記4)
前記現実オブジェクトの現実サイズと、前記マーカ検出部で検出されたマーカに関する前記現実情報及び前記画像情報と、前記位置決定部により決定される位置とに基づいて、前記抽出されたコンテンツ画像を拡大又は縮小するサイズ調整部、
を更に備え、
前記合成処理部は、前記サイズ調整部により調整されたコンテンツ画像を前記視認画像として前記背景画像に重畳する、
付記2又は3に記載の画像処理装置。
(付記5)
前記コンテンツ保持部は、前記各コンテンツ撮影方向に対応付けられる前記複数のコンテンツ画像を複数の現実オブジェクトの各々についてそれぞれ保持し、
前記操作受付部は、前記複数の現実オブジェクトの中から前記表示対象とする1つの現実オブジェクトを選択する操作を更に受け付け、
前記画像抽出部は、前記受け付けられた操作により選択された現実オブジェクトに対応して前記コンテンツ保持部に保持される前記複数のコンテンツ画像の中から1つのコンテンツ画像を抽出する、
付記2から4のいずれか1つに記載の画像処理装置。
(付記6)
前記表示処理部は、前記マーカ検出部により前記背景画像から前記マーカが検出されない場合に、マーカが検出されないことを前記表示部に表示させ、
前記操作受付部は、前記マーカが検出されなかった前記画像ファイル以外の画像ファイルを選択し直す操作を受け付け、
前記背景取得部は、前記操作により新たに選択された画像ファイルの画像を前記背景画像として新たに取得する、
付記1から5のいずれか1つに記載の画像処理装置。
(付記7)
前記操作受付部は、撮像部からのリアルタイム映像の取得を要求する操作を受け付け、
前記背景取得部は、前記操作受付部で受け付けられた前記操作に応じて、前記撮像部から得られる前記リアルタイム映像の画像フレームを前記背景画像として逐次取得し、
前記表示処理部は、前記コンテンツ画像が前記視認画像として重畳されたリアルタイム映像を前記表示部に表示させる、
付記2から5のいずれか1つに記載の画像処理装置。
(付記8)
前記操作受付部は、前記視認画像が重畳されたリアルタイム映像が前記表示部に表示されている状態におけるスナップショット操作を受け付け、
前記背景取得部は、前記操作受付部による前記スナップショット操作の受け付けに応じて、前記画像フレームを前記背景画像として固定的に保持し、
前記表示処理部は、前記視認画像が重畳されたリアルタイム映像の表示に替え、前記固定的に保持される背景画像に前記コンテンツ画像が前記視認画像として重畳された前記合成画像を前記表示部に表示させる、
付記7に記載の画像処理装置。
(付記9)
前記マーカ検出部は、形状情報及びサイズ情報をそれぞれ含む複数種のマーカの情報を保持するマーカ情報保持部から、1種のマーカの形状情報及びサイズ情報を取得し、該取得された形状情報及びサイズ情報を用いて、前記マーカを検出する、
付記1から8のいずれか1つに記載の画像処理装置。
(Appendix 1)
An operation reception unit for receiving an image file selection operation;
A background acquisition unit for acquiring, as a background image, an image of an image file selected by a selection operation received by the operation reception unit, from a background holding unit for storing an image file storing a background image in which a marker is reflected;
A marker detection unit for detecting a marker from the background image acquired by the background acquisition unit;
A reference calculation unit that sets a three-dimensional coordinate space based on real information and image information regarding the detected marker, and calculates a background shooting position and a background shooting direction;
A position determining unit that determines a position in the three-dimensional coordinate space in which AR (Augmented Reality) content to be displayed is virtually arranged;
Display processing for causing a display unit to display a composite image in which a visual image from the background photographing position and the background photographing direction of the AR content arranged at the determined position in the three-dimensional coordinate space is superimposed on the background image And
An image processing apparatus comprising:
(Appendix 2)
From a content holding unit that holds a plurality of content images obtained by shooting a real object corresponding to the AR content from a plurality of directions in association with each content shooting direction, from the position determined by the position determination unit An image extraction unit for extracting a content image held in association with the content shooting direction close to the direction to the background shooting position;
A composition processing unit that superimposes the content image extracted by the image extraction unit on the background image as the visual image;
The image processing apparatus according to appendix 1, further comprising:
(Appendix 3)
The operation accepting unit further accepts an operation for moving the content image with respect to the composite image,
The position determination unit determines a position after movement of the AR content in the three-dimensional coordinate space indicated by the accepted movement operation;
The image extraction unit newly creates a content image held in the content holding unit in association with the content shooting direction close to the direction from the moved position determined by the position determination unit to the background shooting position. Extract and
The composition processing unit switches the content image to be superimposed on the background image to the newly extracted content image.
The image processing apparatus according to appendix 2.
(Appendix 4)
Enlarging or extracting the extracted content image based on the real size of the real object, the real information and the image information regarding the marker detected by the marker detection unit, and the position determined by the position determination unit Size adjustment part to reduce,
Further comprising
The composition processing unit superimposes the content image adjusted by the size adjusting unit on the background image as the visual image.
The image processing apparatus according to appendix 2 or 3.
(Appendix 5)
The content holding unit holds the plurality of content images associated with the content shooting directions for each of a plurality of real objects,
The operation accepting unit further accepts an operation of selecting one real object to be displayed from the plurality of real objects,
The image extraction unit extracts one content image from the plurality of content images held in the content holding unit corresponding to a real object selected by the accepted operation;
The image processing apparatus according to any one of appendices 2 to 4.
(Appendix 6)
The display processing unit displays on the display unit that no marker is detected when the marker is not detected from the background image by the marker detection unit,
The operation accepting unit accepts an operation of reselecting an image file other than the image file in which the marker is not detected,
The background acquisition unit newly acquires an image of an image file newly selected by the operation as the background image.
The image processing apparatus according to any one of appendices 1 to 5.
(Appendix 7)
The operation accepting unit accepts an operation requesting acquisition of a real-time video from the imaging unit,
The background acquisition unit sequentially acquires an image frame of the real-time video obtained from the imaging unit as the background image in response to the operation received by the operation reception unit,
The display processing unit causes the display unit to display a real-time video in which the content image is superimposed as the visual image.
The image processing apparatus according to any one of appendices 2 to 5.
(Appendix 8)
The operation accepting unit accepts a snapshot operation in a state where a real-time video on which the visual image is superimposed is displayed on the display unit,
The background acquisition unit fixedly holds the image frame as the background image in response to reception of the snapshot operation by the operation reception unit,
The display processing unit displays the composite image in which the content image is superimposed on the fixedly held background image as the visual image instead of displaying the real-time video on which the visual image is superimposed. Let
The image processing apparatus according to appendix 7.
(Appendix 9)
The marker detection unit acquires shape information and size information of one type of marker from a marker information holding unit that holds information of a plurality of types of markers each including shape information and size information, and the acquired shape information and Detecting the marker using size information;
The image processing apparatus according to any one of appendices 1 to 8.

(付記10)
少なくとも1つのコンピュータにより実行される画像処理方法において、
画像ファイルの選択操作を受け付け、
マーカが写る背景画像を保存する画像ファイルを保持する背景保持部から、前記受け付けられた選択操作で選択された画像ファイルの画像を背景画像として取得し、
前記取得された背景画像からマーカを検出し、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、背景撮影位置及び背景撮影方向を算出し、
表示対象のAR(Augmented Reality)コンテンツを仮想的に配置する前記3次元座標空間上の位置を決定し、
前記3次元座標空間の前記決定された位置に配置される前記ARコンテンツの前記背景撮影位置及び前記背景撮影方向からの視認画像が前記背景画像に重畳された合成画像を表示部に表示させる、
ことを含む画像処理方法。
(付記11)
前記ARコンテンツに相当する現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像を各コンテンツ撮影方向に対応付けて保持するコンテンツ保持部から、前記3次元座標空間上の前記決定された位置から前記背景撮影位置への方向と近い該コンテンツ撮影方向に対応付けられて保持されるコンテンツ画像を抽出し、
前記抽出されたコンテンツ画像を前記視認画像として前記背景画像に重畳する、
ことを更に含む付記10に記載の画像処理方法。
(付記12)
前記合成画像に対する前記コンテンツ画像の移動操作を受け付け、
前記受け付けられた移動操作が示す前記3次元座標空間上の前記ARコンテンツの移動後の位置を決定し、
前記決定された移動後の位置から前記背景撮影位置への方向と近い前記コンテンツ撮影方向に対応付けられて前記コンテンツ保持部に保持されるコンテンツ画像を新たに抽出し、
前記背景画像に重畳するコンテンツ画像を前記新たに抽出されたコンテンツ画像に切り換える、
ことを更に含む付記11に記載の画像処理方法。
(付記13)
前記現実オブジェクトの現実サイズと、前記検出されたマーカに関する前記現実情報及び前記画像情報と、前記3次元座標空間上の前記決定された位置とに基づいて、前記抽出されたコンテンツ画像を拡大又は縮小する、
ことを更に含む付記11又は12に記載の画像処理方法。
(付記14)
複数の現実オブジェクトの中から前記表示対象とする1つの現実オブジェクトを選択する操作を受け付ける、
ことを更に含み、
前記コンテンツ保持部は、前記各コンテンツ撮影方向に対応付けられる前記複数のコンテンツ画像を前記複数の現実オブジェクトの各々についてそれぞれ保持し、
前記コンテンツ画像の抽出は、前記受け付けられた操作により選択された現実オブジェクトに対応して前記コンテンツ保持部に保持される前記複数のコンテンツ画像の中から1つのコンテンツ画像を抽出する、
付記11から13のいずれか1つに記載の画像処理方法。
(付記15)
前記背景画像から前記マーカが検出されない場合に、マーカが検出されないことを前記表示部に表示させ、
前記マーカが検出されなかった前記画像ファイル以外の画像ファイルを選択し直す操作を受け付け、
前記操作により新たに選択された画像ファイルの画像を前記背景画像として新たに取得する、
ことを更に含む付記10から14のいずれか1つに記載の画像処理方法。
(付記16)
撮像部からのリアルタイム映像の取得を要求する操作を受け付け、
前記受け付けられた前記操作に応じて、前記撮像部から得られる前記リアルタイム映像の画像フレームを前記背景画像として逐次取得し、
前記コンテンツ画像が前記視認画像として重畳されたリアルタイム映像を前記表示部に表示させる、
ことを更に含む付記11から14のいずれか1つに記載の画像処理方法。
(付記17)
前記視認画像が重畳されたリアルタイム映像が前記表示部に表示されている状態におけるスナップショット操作を受け付け、
前記スナップショット操作の受け付けに応じて、前記画像フレームを前記背景画像として固定的に保持し、
前記視認画像が重畳されたリアルタイム映像の表示に替え、前記固定的に保持される背景画像に前記コンテンツ画像が前記視認画像として重畳された前記合成画像を前記表示部に表示させる、
ことを更に含む付記16に記載の画像処理方法。
(付記18)
形状情報及びサイズ情報をそれぞれ含む複数種のマーカの情報を保持するマーカ情報保持部から、1種のマーカの形状情報及びサイズ情報を取得する、
ことを更に含み、
前記マーカの検出は、前記取得された形状情報及びサイズ情報を用いて、前記マーカを検出する、
付記10から17のいずれか1つに記載の画像処理方法。
(Appendix 10)
In an image processing method executed by at least one computer,
Accept image file selection operations,
An image of the image file selected by the accepted selection operation is acquired as a background image from a background holding unit that holds an image file that stores a background image showing a marker,
Detecting a marker from the acquired background image;
Based on real information and image information regarding the detected marker, a three-dimensional coordinate space is set,
Based on the actual information and image information about the detected marker, calculate a background shooting position and a background shooting direction,
Determining a position in the three-dimensional coordinate space where the AR (Augmented Reality) content to be displayed is virtually arranged;
Displaying a composite image in which a visual image from the background photographing position and the background photographing direction of the AR content arranged at the determined position in the three-dimensional coordinate space is superimposed on the background image on a display unit;
An image processing method.
(Appendix 11)
From the content holding unit that holds a plurality of content images obtained by shooting a real object corresponding to the AR content from a plurality of directions in association with each content shooting direction, the determined in the three-dimensional coordinate space Extracting a content image held in association with the content shooting direction close to the direction from the position to the background shooting position;
Superimposing the extracted content image on the background image as the visual image;
The image processing method according to appendix 10, further including:
(Appendix 12)
Accepting an operation of moving the content image with respect to the composite image;
Determining a position after movement of the AR content in the three-dimensional coordinate space indicated by the accepted movement operation;
Newly extracting a content image held in the content holding unit in association with the content shooting direction close to the direction from the determined moved position to the background shooting position,
Switching the content image to be superimposed on the background image to the newly extracted content image;
The image processing method according to claim 11, further comprising:
(Appendix 13)
The extracted content image is enlarged or reduced based on the real size of the real object, the real information and the image information regarding the detected marker, and the determined position in the three-dimensional coordinate space. To
The image processing method according to appendix 11 or 12, further including:
(Appendix 14)
Receiving an operation of selecting one real object to be displayed from among a plurality of real objects;
Further including
The content holding unit holds the plurality of content images associated with the content shooting directions for each of the plurality of real objects,
In the extraction of the content image, one content image is extracted from the plurality of content images held in the content holding unit corresponding to the real object selected by the accepted operation.
The image processing method according to any one of appendices 11 to 13.
(Appendix 15)
If the marker is not detected from the background image, display that the marker is not detected on the display unit,
Accepting an operation to reselect an image file other than the image file in which the marker is not detected,
An image of the image file newly selected by the operation is newly acquired as the background image.
The image processing method according to any one of appendices 10 to 14, further including:
(Appendix 16)
Accepting an operation requesting acquisition of real-time video from the imaging unit,
In response to the accepted operation, the image frame of the real-time video obtained from the imaging unit is sequentially acquired as the background image,
Displaying the real-time video on which the content image is superimposed as the visual image on the display unit;
The image processing method according to any one of appendices 11 to 14, further including:
(Appendix 17)
Accepting a snapshot operation in a state where the real-time video on which the visual image is superimposed is displayed on the display unit,
In response to accepting the snapshot operation, the image frame is fixedly held as the background image,
Instead of displaying the real-time video on which the visual image is superimposed, the composite image in which the content image is superimposed as the visual image on the fixedly held background image is displayed on the display unit.
The image processing method according to appendix 16, further including:
(Appendix 18)
Obtaining shape information and size information of one type of marker from a marker information holding unit that holds information of a plurality of types of markers each including shape information and size information;
Further including
The detection of the marker detects the marker using the acquired shape information and size information.
18. The image processing method according to any one of appendices 10 to 17.

(付記19)
撮像部から得られるリアルタイム映像の画像フレームを背景画像として逐次取得する背景取得部と、
前記背景取得部で取得される前記背景画像からマーカを検出するマーカ検出部と、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、かつ、背景撮影位置及び背景撮影方向を算出する基準算出部と、
表示対象のAR(Augmented Reality)コンテンツを仮想的に配置する前記3次元座標空間上の位置を決定する位置決定部と、
前記ARコンテンツに相当する現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像を各コンテンツ撮影方向に対応付けて保持するコンテンツ保持部から、前記位置決定部で決定された位置から前記背景撮影位置への方向と近い該コンテンツ撮影方向に対応付けられて保持されるコンテンツ画像を抽出する画像抽出部と、
前記画像抽出部により抽出されるコンテンツ画像を前記視認画像として前記背景画像に重畳する合成処理部と、
前記コンテンツ画像が前記視認画像として重畳されたリアルタイム映像を表示部に表示させる表示処理部と、
を備える画像処理装置。
(付記20)
前記視認画像が重畳されたリアルタイム映像が前記表示部に表示されている状態におけるスナップショット操作を受け付ける操作受付部、
を更に備え、
前記背景取得部は、前記操作受付部による前記スナップショット操作の受け付けに応じて、前記画像フレームを前記背景画像として固定的に保持し、
前記表示処理部は、前記視認画像が重畳されたリアルタイム映像の表示に替え、前記固定的に保持される背景画像に前記コンテンツ画像が前記視認画像として重畳された前記合成画像を前記表示部に表示させる、
付記19に記載の画像処理装置。
(Appendix 19)
A background acquisition unit that sequentially acquires an image frame of a real-time video obtained from the imaging unit as a background image;
A marker detection unit for detecting a marker from the background image acquired by the background acquisition unit;
A reference calculation unit that sets a three-dimensional coordinate space based on real information and image information regarding the detected marker, and calculates a background shooting position and a background shooting direction;
A position determining unit that determines a position in the three-dimensional coordinate space in which AR (Augmented Reality) content to be displayed is virtually arranged;
From a content holding unit that holds a plurality of content images obtained by shooting a real object corresponding to the AR content from a plurality of directions in association with each content shooting direction, from the position determined by the position determination unit An image extraction unit for extracting a content image held in association with the content shooting direction close to the direction to the background shooting position;
A composition processing unit that superimposes the content image extracted by the image extraction unit on the background image as the visual image;
A display processing unit that displays on the display unit a real-time video in which the content image is superimposed as the visual image;
An image processing apparatus comprising:
(Appendix 20)
An operation accepting unit that accepts a snapshot operation in a state where the real-time video on which the visual image is superimposed is displayed on the display unit;
Further comprising
The background acquisition unit fixedly holds the image frame as the background image in response to reception of the snapshot operation by the operation reception unit,
The display processing unit displays the composite image in which the content image is superimposed on the fixedly held background image as the visual image instead of displaying the real-time video on which the visual image is superimposed. Let
The image processing apparatus according to appendix 19.

(付記21)
撮像部から得られるリアルタイム映像の画像フレームを背景画像として逐次取得し、
前記取得された背景画像からマーカを検出し、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、前記背景画像の背景撮影位置及び背景撮影方向を算出し、
表示対象のAR(Augmented Reality)コンテンツを仮想的に配置する前記3次元座標空間上の位置を決定し、
前記ARコンテンツに相当する現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像を各コンテンツ撮影方向に対応付けて保持するコンテンツ保持部から、前記3次元座標空間上の前記決定された位置から前記背景撮影位置への方向と近い該コンテンツ撮影方向に対応付けられて保持されるコンテンツ画像を抽出し、
前記抽出されたコンテンツ画像を前記視認画像として前記背景画像に重畳し、
前記コンテンツ画像が前記視認画像として重畳されたリアルタイム映像を表示部に表示させる、
ことを含む画像処理方法。
(付記22)
前記視認画像が重畳されたリアルタイム映像が前記表示部に表示されている状態におけるスナップショット操作を受け付け、
前記スナップショット操作の受け付けに応じて、前記画像フレームを前記背景画像として固定的に保持し、
前記視認画像が重畳されたリアルタイム映像の表示に替え、前記固定的に保持される背景画像に前記コンテンツ画像が前記視認画像として重畳された前記合成画像を前記表示部に表示させる、
ことを更に含む付記21に記載の画像処理方法。
(Appendix 21)
Obtain sequentially the image frame of the real-time video obtained from the imaging unit as a background image,
Detecting a marker from the acquired background image;
Based on real information and image information regarding the detected marker, a three-dimensional coordinate space is set,
Based on the actual information and image information regarding the detected marker, calculate a background shooting position and a background shooting direction of the background image,
Determining a position in the three-dimensional coordinate space where the AR (Augmented Reality) content to be displayed is virtually arranged;
From the content holding unit that holds a plurality of content images obtained by shooting a real object corresponding to the AR content from a plurality of directions in association with each content shooting direction, the determined in the three-dimensional coordinate space Extracting a content image held in association with the content shooting direction close to the direction from the position to the background shooting position;
Superimposing the extracted content image as the visual image on the background image;
Displaying the real-time video on which the content image is superimposed as the visual image on the display unit;
An image processing method.
(Appendix 22)
Accepting a snapshot operation in a state where the real-time video on which the visual image is superimposed is displayed on the display unit,
In response to accepting the snapshot operation, the image frame is fixedly held as the background image,
Instead of displaying the real-time video on which the visual image is superimposed, the composite image in which the content image is superimposed as the visual image on the fixedly held background image is displayed on the display unit.
The image processing method according to claim 21, further comprising:

(付記23)
付記10から18、21及び22のいずれか1つに記載の画像処理方法を少なくとも1つのコンピュータに実行させるプログラム。
(Appendix 23)
A program that causes at least one computer to execute the image processing method according to any one of Supplementary Notes 10 to 18, 21, and 22.

10、100 画像処理装置
11 CPU
12 メモリ
15 表示装置
16 入力装置
17 カメラ
21、101 操作受付部
22、102 背景取得部
23、103 マーカ検出部
24、104 基準算出部
25、105 位置決定部
26 画像抽出部
27 サイズ調整部
28 合成処理部
29、106 表示処理部
31、107 背景保持部
32 コンテンツ保持部
35 マーカ情報保持部
108 表示部
10, 100 Image processing apparatus 11 CPU
DESCRIPTION OF SYMBOLS 12 Memory 15 Display apparatus 16 Input device 17 Camera 21, 101 Operation reception part 22, 102 Background acquisition part 23, 103 Marker detection part 24, 104 Reference | standard calculation part 25, 105 Position determination part 26 Image extraction part 27 Size adjustment part 28 Composition Processing unit 29, 106 Display processing unit 31, 107 Background holding unit 32 Content holding unit 35 Marker information holding unit 108 Display unit

Claims (11)

画像ファイルの選択操作を受け付ける操作受付部と、
マーカが写る背景画像を保存する画像ファイルを保持する背景保持部から、前記操作受付部により受け付けられる選択操作で選択された画像ファイルの画像を背景画像として取得する背景取得部と、
前記背景取得部で取得される前記背景画像からマーカを検出するマーカ検出部と、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、かつ、背景撮影位置及び背景撮影方向を算出する基準算出部と、
表示対象のAR(Augmented Reality)コンテンツを仮想的に配置する前記3次元座標空間上の位置を決定する位置決定部と、
前記3次元座標空間の前記決定された位置に配置される前記ARコンテンツの前記背景撮影位置及び前記背景撮影方向からの視認画像が前記背景画像に重畳された合成画像を表示部に表示させる表示処理部と、
を備える画像処理装置。
An operation reception unit for receiving an image file selection operation;
A background acquisition unit for acquiring, as a background image, an image of an image file selected by a selection operation received by the operation reception unit, from a background holding unit for storing an image file storing a background image in which a marker is reflected;
A marker detection unit for detecting a marker from the background image acquired by the background acquisition unit;
A reference calculation unit that sets a three-dimensional coordinate space based on real information and image information regarding the detected marker, and calculates a background shooting position and a background shooting direction;
A position determining unit that determines a position in the three-dimensional coordinate space in which AR (Augmented Reality) content to be displayed is virtually arranged;
Display processing for causing a display unit to display a composite image in which a visual image from the background photographing position and the background photographing direction of the AR content arranged at the determined position in the three-dimensional coordinate space is superimposed on the background image And
An image processing apparatus comprising:
前記ARコンテンツに相当する現実オブジェクトを複数の方向から撮影して得られた複数のコンテンツ画像を各コンテンツ撮影方向に対応付けて保持するコンテンツ保持部から、前記位置決定部で決定された位置から前記背景撮影位置への方向と近い該コンテンツ撮影方向に対応付けられて保持されるコンテンツ画像を抽出する画像抽出部と、
前記画像抽出部により抽出されるコンテンツ画像を前記視認画像として前記背景画像に重畳する合成処理部と、
を更に備える請求項1に記載の画像処理装置。
From a content holding unit that holds a plurality of content images obtained by shooting a real object corresponding to the AR content from a plurality of directions in association with each content shooting direction, from the position determined by the position determination unit An image extraction unit for extracting a content image held in association with the content shooting direction close to the direction to the background shooting position;
A composition processing unit that superimposes the content image extracted by the image extraction unit on the background image as the visual image;
The image processing apparatus according to claim 1, further comprising:
前記操作受付部は、前記合成画像に対する前記コンテンツ画像の移動操作を更に受け付け、
前記位置決定部は、前記受け付けられた移動操作が示す前記3次元座標空間上の前記ARコンテンツの移動後の位置を決定し、
前記画像抽出部は、前記位置決定部により決定される移動後の位置から前記背景撮影位置への方向と近い前記コンテンツ撮影方向に対応付けられて前記コンテンツ保持部に保持されるコンテンツ画像を新たに抽出し、
前記合成処理部は、前記背景画像に重畳するコンテンツ画像を前記新たに抽出されたコンテンツ画像に切り換える、
請求項2に記載の画像処理装置。
The operation accepting unit further accepts an operation for moving the content image with respect to the composite image,
The position determination unit determines a position after movement of the AR content in the three-dimensional coordinate space indicated by the accepted movement operation;
The image extraction unit newly creates a content image held in the content holding unit in association with the content shooting direction close to the direction from the moved position determined by the position determination unit to the background shooting position. Extract and
The composition processing unit switches the content image to be superimposed on the background image to the newly extracted content image.
The image processing apparatus according to claim 2.
前記現実オブジェクトの現実サイズと、前記マーカ検出部で検出されたマーカに関する前記現実情報及び前記画像情報と、前記位置決定部により決定される位置とに基づいて、前記抽出されたコンテンツ画像を拡大又は縮小するサイズ調整部、
を更に備え、
前記合成処理部は、前記サイズ調整部により調整されたコンテンツ画像を前記視認画像として前記背景画像に重畳する、
請求項2又は3に記載の画像処理装置。
Enlarging or extracting the extracted content image based on the real size of the real object, the real information and the image information regarding the marker detected by the marker detection unit, and the position determined by the position determination unit Size adjustment part to reduce,
Further comprising
The composition processing unit superimposes the content image adjusted by the size adjusting unit on the background image as the visual image.
The image processing apparatus according to claim 2.
前記コンテンツ保持部は、前記各コンテンツ撮影方向に対応付けられる前記複数のコンテンツ画像を複数の現実オブジェクトの各々についてそれぞれ保持し、
前記操作受付部は、前記複数の現実オブジェクトの中から前記表示対象とする1つの現実オブジェクトを選択する操作を更に受け付け、
前記画像抽出部は、前記受け付けられた操作により選択された現実オブジェクトに対応して前記コンテンツ保持部に保持される前記複数のコンテンツ画像の中から1つのコンテンツ画像を抽出する、
請求項2から4のいずれか1項に記載の画像処理装置。
The content holding unit holds the plurality of content images associated with the content shooting directions for each of a plurality of real objects,
The operation accepting unit further accepts an operation of selecting one real object to be displayed from the plurality of real objects,
The image extraction unit extracts one content image from the plurality of content images held in the content holding unit corresponding to a real object selected by the accepted operation;
The image processing apparatus according to claim 2.
前記表示処理部は、前記マーカ検出部により前記背景画像から前記マーカが検出されない場合に、マーカが検出されないことを前記表示部に表示させ、
前記操作受付部は、前記マーカが検出されなかった前記画像ファイル以外の画像ファイルを選択し直す操作を受け付け、
前記背景取得部は、前記操作により新たに選択された画像ファイルの画像を前記背景画像として新たに取得する、
請求項1から5のいずれか1項に記載の画像処理装置。
The display processing unit displays on the display unit that no marker is detected when the marker is not detected from the background image by the marker detection unit,
The operation accepting unit accepts an operation of reselecting an image file other than the image file in which the marker is not detected,
The background acquisition unit newly acquires an image of an image file newly selected by the operation as the background image.
The image processing apparatus according to claim 1.
前記操作受付部は、撮像部からのリアルタイム映像の取得を要求する操作を受け付け、
前記背景取得部は、前記操作受付部で受け付けられた前記操作に応じて、前記撮像部から得られる前記リアルタイム映像の画像フレームを前記背景画像として逐次取得し、
前記表示処理部は、前記コンテンツ画像が前記視認画像として重畳されたリアルタイム映像を前記表示部に表示させる、
請求項2から5のいずれか1項に記載の画像処理装置。
The operation accepting unit accepts an operation requesting acquisition of a real-time video from the imaging unit,
The background acquisition unit sequentially acquires an image frame of the real-time video obtained from the imaging unit as the background image in response to the operation received by the operation reception unit,
The display processing unit causes the display unit to display a real-time video in which the content image is superimposed as the visual image.
The image processing apparatus according to claim 2.
前記操作受付部は、前記視認画像が重畳されたリアルタイム映像が前記表示部に表示されている状態におけるスナップショット操作を受け付け、
前記背景取得部は、前記操作受付部による前記スナップショット操作の受け付けに応じて、前記画像フレームを前記背景画像として固定的に保持し、
前記表示処理部は、前記視認画像が重畳されたリアルタイム映像の表示に替え、前記固定的に保持される背景画像に前記コンテンツ画像が前記視認画像として重畳された前記合成画像を前記表示部に表示させる、
請求項7に記載の画像処理装置。
The operation accepting unit accepts a snapshot operation in a state where a real-time video on which the visual image is superimposed is displayed on the display unit,
The background acquisition unit fixedly holds the image frame as the background image in response to reception of the snapshot operation by the operation reception unit,
The display processing unit displays the composite image in which the content image is superimposed on the fixedly held background image as the visual image instead of displaying the real-time video on which the visual image is superimposed. Let
The image processing apparatus according to claim 7.
前記マーカ検出部は、形状情報及びサイズ情報をそれぞれ含む複数種のマーカの情報を保持するマーカ情報保持部から、1種のマーカの形状情報及びサイズ情報を取得し、該取得された形状情報及びサイズ情報を用いて、前記マーカを検出する、
請求項1から8のいずれか1項に記載の画像処理装置。
The marker detection unit acquires shape information and size information of one type of marker from a marker information holding unit that holds information of a plurality of types of markers each including shape information and size information, and the acquired shape information and Detecting the marker using size information;
The image processing apparatus according to claim 1.
少なくとも1つのコンピュータにより実行される画像処理方法において、
画像ファイルの選択操作を受け付け、
マーカが写る背景画像を保存する画像ファイルを保持する背景保持部から、前記受け付けられた選択操作で選択された画像ファイルの画像を背景画像として取得し、
前記取得された背景画像からマーカを検出し、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、3次元座標空間を設定し、
前記検出されたマーカに関する現実情報及び画像情報に基づいて、背景撮影位置及び背景撮影方向を算出し、
表示対象のAR(Augmented Reality)コンテンツを仮想的に配置する前記3次元座標空間上の位置を決定し、
前記3次元座標空間の前記決定された位置に配置される前記ARコンテンツの前記背景撮影位置及び前記背景撮影方向からの視認画像が前記背景画像に重畳された合成画像を表示部に表示させる、
ことを含む画像処理方法。
In an image processing method executed by at least one computer,
Accept image file selection operations,
An image of the image file selected by the accepted selection operation is acquired as a background image from a background holding unit that holds an image file that stores a background image showing a marker,
Detecting a marker from the acquired background image;
Based on real information and image information regarding the detected marker, a three-dimensional coordinate space is set,
Based on the actual information and image information about the detected marker, calculate a background shooting position and a background shooting direction,
Determining a position in the three-dimensional coordinate space where the AR (Augmented Reality) content to be displayed is virtually arranged;
Displaying a composite image in which a visual image from the background photographing position and the background photographing direction of the AR content arranged at the determined position in the three-dimensional coordinate space is superimposed on the background image on a display unit;
An image processing method.
請求項10に記載の画像処理方法を少なくとも1つのコンピュータに実行させるプログラム。   A program for causing at least one computer to execute the image processing method according to claim 10.
JP2013233805A 2013-11-12 2013-11-12 Image processing apparatus and image processing method Pending JP2017016166A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013233805A JP2017016166A (en) 2013-11-12 2013-11-12 Image processing apparatus and image processing method
PCT/JP2014/005387 WO2015072091A1 (en) 2013-11-12 2014-10-23 Image processing device, image processing method, and program storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013233805A JP2017016166A (en) 2013-11-12 2013-11-12 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2017016166A true JP2017016166A (en) 2017-01-19

Family

ID=53057044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013233805A Pending JP2017016166A (en) 2013-11-12 2013-11-12 Image processing apparatus and image processing method

Country Status (2)

Country Link
JP (1) JP2017016166A (en)
WO (1) WO2015072091A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020045092A1 (en) * 2018-08-28 2020-03-05 ソニー株式会社 Information processing device, information processing method, and program
JP2020095602A (en) * 2018-12-14 2020-06-18 ヤフー株式会社 Display program, display device, and display method
JP2020095645A (en) * 2018-12-14 2020-06-18 ヤフー株式会社 Display program, display device, and display method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112672057B (en) * 2020-12-25 2022-07-15 维沃移动通信有限公司 Shooting method and device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4537104B2 (en) * 2004-03-31 2010-09-01 キヤノン株式会社 Marker detection method, marker detection device, position and orientation estimation method, and mixed reality space presentation method
JP2006053694A (en) * 2004-08-10 2006-02-23 Riyuukoku Univ Space simulator, space simulation method, space simulation program and recording medium
JP2012084155A (en) * 2010-10-13 2012-04-26 Toshiba Corp Image processing system, image processing method and image processing program
JP2012108711A (en) * 2010-11-17 2012-06-07 Nec Casio Mobile Communications Ltd Terminal device, operation method of terminal device, and expanded reality system
JP5774524B2 (en) * 2012-03-02 2015-09-09 アルパイン株式会社 Augmented reality system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020045092A1 (en) * 2018-08-28 2020-03-05 ソニー株式会社 Information processing device, information processing method, and program
US20220122345A1 (en) * 2018-08-28 2022-04-21 Sony Corporation Information processing device, information processing method, and program
US11954804B2 (en) 2018-08-28 2024-04-09 Sony Corporation Information processing device and information processing method to display a virtual object
JP2020095602A (en) * 2018-12-14 2020-06-18 ヤフー株式会社 Display program, display device, and display method
JP2020095645A (en) * 2018-12-14 2020-06-18 ヤフー株式会社 Display program, display device, and display method

Also Published As

Publication number Publication date
WO2015072091A1 (en) 2015-05-21

Similar Documents

Publication Publication Date Title
US10460512B2 (en) 3D skeletonization using truncated epipolar lines
JP5936155B2 (en) 3D user interface device and 3D operation method
US9541997B2 (en) Three-dimensional user interface apparatus and three-dimensional operation method
JP6167703B2 (en) Display control device, program, and recording medium
JP6203406B2 (en) System and method for determining plane spread in an augmented reality environment
KR101227255B1 (en) Marker size based interaction method and augmented reality system for realizing the same
US9361731B2 (en) Method and apparatus for displaying video on 3D map
JP7026825B2 (en) Image processing methods and devices, electronic devices and storage media
CN107646109B (en) Managing feature data for environment mapping on an electronic device
KR101212636B1 (en) Method and apparatus for presenting location information on augmented reality
JP7353782B2 (en) Information processing device, information processing method, and program
EP3693925B1 (en) Information processing device, information processing method, and recording medium
US10748000B2 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
JP2013050883A (en) Information processing program, information processing system, information processor, and information processing method
JP2024026151A (en) Method of, system for, and medium for use in rendering immersive video content by using foveated mesh
WO2015072091A1 (en) Image processing device, image processing method, and program storage medium
JP6357412B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP6371547B2 (en) Image processing apparatus, method, and program
JP6443505B2 (en) Program, display control apparatus, and display control method
KR101741149B1 (en) Method and device for controlling a virtual camera's orientation
US11816785B2 (en) Image processing device and image processing method
CN110827411A (en) Self-adaptive environment augmented reality model display method, device, equipment and storage medium
JP7118383B1 (en) Display system, display method, and display program
JP5397245B2 (en) Information processing apparatus and information processing method
JP2018129785A (en) Determination device, image processing apparatus, determination method, and determination program