JP2016139199A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2016139199A
JP2016139199A JP2015012555A JP2015012555A JP2016139199A JP 2016139199 A JP2016139199 A JP 2016139199A JP 2015012555 A JP2015012555 A JP 2015012555A JP 2015012555 A JP2015012555 A JP 2015012555A JP 2016139199 A JP2016139199 A JP 2016139199A
Authority
JP
Japan
Prior art keywords
unit
display
image
change
reference plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015012555A
Other languages
Japanese (ja)
Inventor
祐貴 河田
Yuki Kawada
祐貴 河田
吉田 浩之
Hiroyuki Yoshida
浩之 吉田
里江子 石原
Rieko Ishihara
里江子 石原
岡本 拓也
Takuya Okamoto
拓也 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015012555A priority Critical patent/JP2016139199A/en
Publication of JP2016139199A publication Critical patent/JP2016139199A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily provide a real size of a virtual object in a real space, corresponding to a change in the display size of an object image.SOLUTION: A first reception unit 14C receives a real size in a real space of a virtual object. A first display control unit 14G performs control for displaying an overlapping image between a real space image photographed by a photographing unit 12 and an object image obtained by drawing the virtual object in a virtual space in a display unit 20. A second reception unit 14P receives a change instruction of the display size of the object image. A change unit 14W changes the object image to a display size indicated by the change instruction. A first calculation unit 14K calculates a first multiplication value between a first magnification ratio of the display size of the changed object image and the unchanged real size, to the display size of the unchanged object image as a changed real size. A second display control unit 14U displays the changed real size in the display unit 20.SELECTED DRAWING: Figure 5

Description

本発明は、画像処理装置、画像処理方法、およびプログラムに関する。   The present invention relates to an image processing device, an image processing method, and a program.

現実空間の事象に対してコンピュータによる情報を付加する拡張現実(AR:Augmented Reality)技術が知られている。   Augmented reality (AR) technology for adding information by a computer to an event in a real space is known.

例えば、実空間にARマーカを設置し、該ARマーカを含む実空間を撮影して撮影画像を得る。そして、この撮影画像に含まれるARマーカの位置に仮想オブジェクトを合成して表示する技術が開示されている(例えば、特許文献1参照)。また、特許文献2には、実世界の物体の三次元位置や物理的サイズを計算する方法が開示されている。   For example, an AR marker is installed in the real space, and a photographed image is obtained by photographing the real space including the AR marker. And the technique which synthesize | combines and displays a virtual object on the position of the AR marker contained in this picked-up image is disclosed (for example, refer patent document 1). Patent Document 2 discloses a method for calculating the three-dimensional position and physical size of a real-world object.

仮想オブジェクトを仮想空間に描画してオブジェクト画像を表示した後に、該オブジェクト画像の表示サイズが変更される場合がある。従来では、オブジェクト画像の表示サイズが変更された場合、変更後のオブジェクト画像の表示サイズに対応する、変更後の仮想オブジェクトの実サイズをユーザに対して提示することは出来なかった。   After the virtual object is drawn in the virtual space and the object image is displayed, the display size of the object image may be changed. Conventionally, when the display size of the object image is changed, the actual size of the virtual object after the change corresponding to the display size of the object image after the change cannot be presented to the user.

上述した課題を解決し、目的を達成するために、本発明の画像処理装置は、実空間を撮影する撮影部と、仮想オブジェクトの、実空間における実サイズを受け付ける第1受付部と、前記撮影部によって撮影された実空間画像と、前記仮想オブジェクトを仮想空間に描画したオブジェクト画像と、の重畳画像を、表示部に表示する制御を行う第1表示制御部と、前記オブジェクト画像の、表示サイズの変更指示を受付ける第2受付部と、前記オブジェクト画像を、前記変更指示によって示される前記表示サイズに変更する変更部と、変更前の前記オブジェクト画像の前記表示サイズに対する、変更後の前記オブジェクト画像の前記表示サイズの第1倍率と、変更前の前記実サイズと、の第1乗算値を、変更後の前記実サイズとして算出する第1算出部と、変更後の前記実サイズを、前記表示部に表示する第2表示制御部と、を備える。   In order to solve the above-described problems and achieve the object, an image processing apparatus of the present invention includes a photographing unit that photographs a real space, a first receiving unit that accepts a real size of a virtual object in the real space, and the photographing A first display control unit that performs control to display a superimposed image of a real space image photographed by the unit and an object image obtained by drawing the virtual object in the virtual space, and a display size of the object image A second receiving unit that receives the change instruction, a change unit that changes the object image to the display size indicated by the change instruction, and the object image after the change with respect to the display size of the object image before the change A first multiplication value of the first magnification of the display size and the actual size before the change is calculated as the actual size after the change. Comprising a detection section, the actual size of the changed second display control unit for displaying on the display unit.

本発明によれば、オブジェクト画像の表示サイズの変更に応じた、実空間における仮想オブジェクトの実サイズを容易に提供することができる、という効果を奏する。   According to the present invention, it is possible to easily provide the actual size of the virtual object in the real space according to the change in the display size of the object image.

図1は、本実施の形態の画像処理装置の模式図である。FIG. 1 is a schematic diagram of an image processing apparatus according to the present embodiment. 図2は、画像処理装置の外観の概略図である。FIG. 2 is a schematic view of the appearance of the image processing apparatus. 図3は、座標の説明図である。FIG. 3 is an explanatory diagram of coordinates. 図4は、第1姿勢情報の説明図である。FIG. 4 is an explanatory diagram of the first posture information. 図5は、画像処理装置の機能構成を示すブロック図である。FIG. 5 is a block diagram illustrating a functional configuration of the image processing apparatus. 図6は、光源情報テーブルのデータ構造の一例を示す図である。FIG. 6 is a diagram illustrating an example of a data structure of the light source information table. 図7は、撮影部の姿勢の一例を示す図である。FIG. 7 is a diagram illustrating an example of the posture of the photographing unit. 図8は、基準平面の設定の一例を示す説明図である。FIG. 8 is an explanatory diagram illustrating an example of setting a reference plane. 図9は、基準平面の設定の一例を示す説明図である。FIG. 9 is an explanatory diagram illustrating an example of setting a reference plane. 図10は、基準平面の設定の一例を示す説明図である。FIG. 10 is an explanatory diagram illustrating an example of setting a reference plane. 図11は、基準平面の再設定の説明図である。FIG. 11 is an explanatory diagram of resetting the reference plane. 図12は、基準平面の再設定の詳細な説明図である。FIG. 12 is a detailed explanatory diagram of resetting the reference plane. 図13は、第1距離に対する第2距離の倍率算出の説明図である。FIG. 13 is an explanatory diagram for calculating the magnification of the second distance with respect to the first distance. 図14は、重畳画像の表示の説明図である。FIG. 14 is an explanatory diagram of displaying a superimposed image. 図15は、オブジェクト画像の表示の説明図である。FIG. 15 is an explanatory diagram of object image display. 図16は、オブジェクト画像の表示サイズの変更の流れの説明図である。FIG. 16 is an explanatory diagram of the flow of changing the display size of an object image. 図17は、実サイズの表示の一例を示す模式図である。FIG. 17 is a schematic diagram illustrating an example of the actual size display. 図18は、表示処理の手順を示すシーケンス図である。FIG. 18 is a sequence diagram illustrating the procedure of the display process. 図19は、割り込み処理の手順を示すシーケンス図である。FIG. 19 is a sequence diagram illustrating a procedure of interrupt processing. 図20は、画像処理装置のハードウェア構成図である。FIG. 20 is a hardware configuration diagram of the image processing apparatus.

以下に添付図面を参照して、画像処理装置、画像処理方法、およびプログラムの実施の形態を詳細に説明する。   Hereinafter, embodiments of an image processing device, an image processing method, and a program will be described in detail with reference to the accompanying drawings.

図1は、本実施の形態の画像処理装置10の模式図である。   FIG. 1 is a schematic diagram of an image processing apparatus 10 according to the present embodiment.

画像処理装置10は、撮影部12、表示処理部14、記憶部16、入力部18、表示部20、および検出部25を備える。撮影部12、表示処理部14、記憶部16、入力部18、表示部20、および検出部25は、バス22により電気的に接続されている。   The image processing apparatus 10 includes a photographing unit 12, a display processing unit 14, a storage unit 16, an input unit 18, a display unit 20, and a detection unit 25. The imaging unit 12, the display processing unit 14, the storage unit 16, the input unit 18, the display unit 20, and the detection unit 25 are electrically connected by a bus 22.

画像処理装置10は、撮影部12、表示処理部14、および検出部25と、記憶部16、入力部18、および表示部20の少なくとも1つと、を別体として設けた構成であってもよい。   The image processing apparatus 10 may have a configuration in which the photographing unit 12, the display processing unit 14, and the detection unit 25 are provided separately from at least one of the storage unit 16, the input unit 18, and the display unit 20. .

画像処理装置10は、携帯可能な携帯端末であってもよいし、固定型の端末であってもよい。本実施の形態では、一例として、画像処理装置10は、撮影部12と、表示処理部14と、記憶部16と、入力部18と、表示部20と、検出部25と、を一体的に備えた携帯可能な携帯端末である場合を説明する。なお、画像処理装置10は、外部装置と通信するための通信部などの他の機能部を更に設けた構成であってもよい。   The image processing apparatus 10 may be a portable portable terminal or a fixed terminal. In the present embodiment, as an example, the image processing apparatus 10 integrally includes a photographing unit 12, a display processing unit 14, a storage unit 16, an input unit 18, a display unit 20, and a detection unit 25. A case where the portable terminal is provided will be described. Note that the image processing apparatus 10 may be configured to further include other functional units such as a communication unit for communicating with an external device.

撮影部12は、画像処理装置10の位置する実空間を撮影する。実空間は、例えば、室内である。更に、例えば、実空間は、複数の壁面で構成された室内であり、一例としては、床面、天井面、床面と天井面とに連続する4つの壁面で構成された立方体状の室内である。なお、実空間は、画像処理装置10の位置する現実の空間であればよく、室内に限定されない。例えば、実空間は、屋外であってもよい。撮影部12は、撮影によって画像データを得る公知の撮影装置である。   The imaging unit 12 images the real space where the image processing apparatus 10 is located. The real space is, for example, a room. Further, for example, the real space is a room composed of a plurality of wall surfaces. For example, the real space is a cubic room composed of a floor surface, a ceiling surface, and four wall surfaces continuous to the floor surface and the ceiling surface. is there. The real space may be an actual space where the image processing apparatus 10 is located, and is not limited to a room. For example, the real space may be outdoors. The photographing unit 12 is a known photographing device that obtains image data by photographing.

表示部20は、各種画像を表示する。表示部20は、LCD(Liquid Crystal Display)や、画像を投影するプロジェクタ等、公知の表示装置である。
本実施の形態では、表示部20には、後述する重畳画像が表示される。
The display unit 20 displays various images. The display unit 20 is a known display device such as an LCD (Liquid Crystal Display) or a projector that projects an image.
In the present embodiment, a superimposed image described later is displayed on the display unit 20.

また、本実施の形態では、一例として、表示部20と撮影部12は、画像処理装置10の筐体において、表示部20の表示方向と、撮影部12の撮影方向と、が、反対方向(180°の関係)である場合を説明する。   Moreover, in this Embodiment, as an example, the display part 20 and the imaging | photography part 12 in the housing | casing of the image processing apparatus 10 WHEREIN: The display direction of the display part 20 and the imaging | photography direction of the imaging | photography part 12 are opposite directions ( The case of 180 ° relationship) will be described.

図2は、画像処理装置10の外観の概略図である。画像処理装置10の筐体11には、撮影部12と表示部20が設けられている。なお、筐体11の内部には、検出部25や表示処理部14や記憶部16などが設けられている。図2(A)および図2(B)に示すように、本実施の形態では、撮影部12の撮影方向A2と、表示部20の表示方向A1とは、反対方向となるように設けられている。なお、撮影部12の撮影方向A2と表示部20の表示方向A1とは、180°の関係にある場合に限定されず、同じ方向(0°の関係)であってもよいし、0°以上180°以下の範囲の何れの角度の関係であってもよい。   FIG. 2 is a schematic view of the appearance of the image processing apparatus 10. The housing 11 of the image processing apparatus 10 is provided with a photographing unit 12 and a display unit 20. Note that a detection unit 25, a display processing unit 14, a storage unit 16, and the like are provided inside the housing 11. As shown in FIGS. 2A and 2B, in the present embodiment, the shooting direction A2 of the shooting unit 12 and the display direction A1 of the display unit 20 are provided in opposite directions. Yes. The shooting direction A2 of the shooting unit 12 and the display direction A1 of the display unit 20 are not limited to a 180 ° relationship, and may be in the same direction (0 ° relationship), or 0 ° or more. Any angle relationship within the range of 180 ° or less may be used.

一例として、本実施の形態では、撮影部12の撮影方向A2と、表示部20の表示方向A1とは、反対方向となるように設けられている場合を説明する。このため、例えば、画像処理装置10の位置を固定したまま、撮影部12で撮影した撮影画像を表示部20に表示した場合、表示部20に表示された撮影画像と、表示部20の背景(表示部20の表示方向A1の反対側)に位置する実空間の風景と、は略同じとなる。   As an example, in the present embodiment, a case will be described in which the photographing direction A2 of the photographing unit 12 and the display direction A1 of the display unit 20 are provided in opposite directions. For this reason, for example, when the captured image captured by the imaging unit 12 is displayed on the display unit 20 while the position of the image processing apparatus 10 is fixed, the captured image displayed on the display unit 20 and the background ( The scenery in the real space located on the opposite side of the display direction A1 of the display unit 20 is substantially the same.

図1に戻り、入力部18は、ユーザから各種操作を受け付ける。入力部18は、例えば、マウス、マイクによる音声認識、ボタン、リモコン、およびキーボード等である。   Returning to FIG. 1, the input unit 18 receives various operations from the user. The input unit 18 is, for example, voice recognition using a mouse or a microphone, buttons, a remote controller, a keyboard, and the like.

なお、入力部18と表示部20とを一体的に構成してもよい。本実施の形態では、入力部18と表示部20とを一体的に構成し、UI部19とする場合を説明する。UI部19は、例えば、表示機能と入力機能の双方を備えたタッチパネルである。このため、ユーザは、UI部19に表示された画像を確認しながら、UI部19の表示面上を操作することで、各種入力を行うことができる。   In addition, you may comprise the input part 18 and the display part 20 integrally. In the present embodiment, a case where the input unit 18 and the display unit 20 are integrally configured to form the UI unit 19 will be described. The UI unit 19 is, for example, a touch panel having both a display function and an input function. For this reason, the user can perform various inputs by operating the display surface of the UI unit 19 while confirming the image displayed on the UI unit 19.

記憶部16は、メモリやハードディスクドライブ装置(HDD)等の記憶媒体であり、後述する各処理を実行するための各種プログラムや、各種データを記憶する。   The storage unit 16 is a storage medium such as a memory or a hard disk drive (HDD), and stores various programs and various data for executing processes described later.

検出部25は、実空間における撮影部12の姿勢を示す第1姿勢情報を検出する。   The detection unit 25 detects first posture information indicating the posture of the photographing unit 12 in real space.

第1姿勢情報は、撮影部12の、実空間における姿勢を示す情報である。詳細には、第1姿勢情報は、実空間における、撮影部12の光軸の姿勢を示す情報である。なお、本実施の形態では、撮影部12の光軸方向と、撮影部12の撮影方向A2と、が一致するものとして説明する。   The first posture information is information indicating the posture of the photographing unit 12 in the real space. Specifically, the first posture information is information indicating the posture of the optical axis of the imaging unit 12 in real space. In the present embodiment, description will be made assuming that the optical axis direction of the imaging unit 12 and the imaging direction A2 of the imaging unit 12 match.

姿勢とは、実空間における撮影部12の、基準姿勢(詳細後述)に対する傾きを示す。本実施の形態では、第1姿勢情報は、基準姿勢に対する回転角(ロール角α、ピッチ角β、ヨー角γ)で表す。   The posture indicates an inclination of the photographing unit 12 in the real space with respect to a reference posture (details will be described later). In the present embodiment, the first posture information is represented by a rotation angle (roll angle α, pitch angle β, yaw angle γ) with respect to the reference posture.

本実施の形態では、基準姿勢は、撮影部12の撮影方向A2に直交する撮影面の左右方向をX軸、上下方向をY軸、該撮影面に垂直な方向をZ軸としたカメラ座標の、X軸が東西方向と一致し、Y軸が鉛直方向と一致し、Z軸が南北方向と一致するときの姿勢を示す。   In the present embodiment, the reference posture is a camera coordinate with the X-axis as the left-right direction of the imaging plane orthogonal to the imaging direction A2 of the imaging unit 12, the Y-axis as the vertical direction, and the Z-axis as the direction perpendicular to the imaging plane. The attitude when the X axis coincides with the east-west direction, the Y axis coincides with the vertical direction, and the Z axis coincides with the north-south direction.

そして、本実施の形態では、第1姿勢情報は、この基準姿勢に対する撮影部12の撮影方向A2の傾き(姿勢)を示し、該基準姿勢に対する回転角(ロール角α、ピッチ角β、ヨー角γ)で示すものとして説明する。なお、以下では、撮影部12の撮影方向A2の姿勢を、単に、撮影部12の姿勢と称して説明する場合がある。   In the present embodiment, the first posture information indicates the inclination (posture) of the photographing direction A2 of the photographing unit 12 with respect to the reference posture, and the rotation angle (roll angle α, pitch angle β, yaw angle with respect to the reference posture). The description will be made assuming that it is represented by γ). In the following description, the posture of the photographing unit 12 in the photographing direction A2 may be simply referred to as the posture of the photographing unit 12.

なお、カメラ座標におけるXY平面は、撮影方向A2に直交する撮影面と一致する。また、本実施の形態では、撮影方向A2に直交する撮影面は、表示部20の表示面と一致する場合を説明する。また、カメラ座標の原点(0の点)は、撮影部12の撮影面の中央である。   Note that the XY plane in the camera coordinates coincides with the imaging plane orthogonal to the imaging direction A2. Further, in the present embodiment, a case will be described in which the imaging surface orthogonal to the imaging direction A2 matches the display surface of the display unit 20. The origin of the camera coordinates (point 0) is the center of the imaging surface of the imaging unit 12.

上述したように、本実施の形態では、撮影部12は、画像処理装置10に一体的に設けられている。このため、撮影部12の第1姿勢情報は、画像処理装置10、表示部20、およびUI部19の姿勢をも示すものとなる。   As described above, in the present embodiment, the imaging unit 12 is provided integrally with the image processing apparatus 10. For this reason, the first posture information of the photographing unit 12 also indicates the postures of the image processing device 10, the display unit 20, and the UI unit 19.

図3は、座標の説明図である。図3(A)は、実空間の三次元座標(すなわち、ワールド座標)の説明図である。図3(B)は、撮影部12の撮影方向A2に直交する撮影面(本実施の形態では、表示部20の表示面と同一)を基準とする、カメラ座標の説明図である。図4は、第1姿勢情報の説明図である。   FIG. 3 is an explanatory diagram of coordinates. FIG. 3A is an explanatory diagram of three-dimensional coordinates (that is, world coordinates) in real space. FIG. 3B is an explanatory diagram of camera coordinates based on an imaging plane (in this embodiment, the same as the display plane of the display unit 20) orthogonal to the imaging direction A2 of the imaging unit 12. FIG. 4 is an explanatory diagram of the first posture information.

すなわち、本実施の形態では、カメラ座標のX軸(図3(B)参照)がワールド座標の東西方向(図3(A)X軸方向参照)と一致し、カメラ座標のY軸(図3(B)参照)がワールド座標の鉛直方向(図3(A)のY軸方向参照)と一致し、カメラ座標のZ軸(図3(B)参照)がワールド座標の南北方向(図3(A)のZ軸方向参照)と一致するときを基準姿勢としている。そして、第1姿勢情報は、本実施の形態では、基準姿勢に対する撮影部12の回転角(ロール角α、ピッチ角β、ヨー角γ)で表す(図4参照)。   That is, in this embodiment, the X axis of the camera coordinates (see FIG. 3B) coincides with the east-west direction of the world coordinates (see the X axis direction of FIG. 3A), and the Y axis of the camera coordinates (FIG. 3). (See (B)) coincides with the vertical direction of the world coordinates (see the Y-axis direction in FIG. 3A), and the Z-axis of the camera coordinates (see FIG. 3B) is in the north-south direction of the world coordinates (see FIG. The reference posture is the time when it coincides with the Z-axis direction reference in A). In the present embodiment, the first posture information is represented by the rotation angle (roll angle α, pitch angle β, yaw angle γ) of the photographing unit 12 with respect to the reference posture (see FIG. 4).

なお、図3および図4では、説明を簡略化するために、撮影部12の姿勢の説明として、撮影部12の姿勢と同等の、表示部20およびUI部19の姿勢を図示した。   In FIGS. 3 and 4, the orientation of the display unit 20 and the UI unit 19, which is equivalent to the orientation of the imaging unit 12, is illustrated as an explanation of the orientation of the imaging unit 12 for the sake of simplicity.

検出部25には、傾きや方角(角度)を検出可能な公知の検出装置を用いる。例えば、検出部25は、ジャイロセンサ(3軸加速度計)、電子コンパス、重力加速度計などである。   The detection unit 25 uses a known detection device that can detect an inclination and a direction (angle). For example, the detection unit 25 is a gyro sensor (3-axis accelerometer), an electronic compass, a gravitational accelerometer, or the like.

なお、検出部25は、実空間における位置(具体的には、上記ワールド座標における位置)を検出する公知の機器を更に含む構成であってもよい。例えば、検出部25は、GPS(Global Positioning System)を備えた構成であってもよい。この場合、検出部25は、上記第1姿勢情報に加えて、実空間における撮影部12の位置(緯度、経度、高度)を検出することができる。   The detection unit 25 may further include a known device that detects a position in real space (specifically, a position in the world coordinates). For example, the detection unit 25 may be configured to include a GPS (Global Positioning System). In this case, the detection unit 25 can detect the position (latitude, longitude, altitude) of the imaging unit 12 in real space in addition to the first posture information.

図1に戻り、表示処理部14は、CPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)などを含んで構成されるコンピュータである。なお、表示処理部14は、汎用のCPU以外の回路などであってもよい。表示処理部14は、画像処理装置10に設けられた装置各部を制御する。   Returning to FIG. 1, the display processing unit 14 is a computer including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The display processing unit 14 may be a circuit other than a general-purpose CPU. The display processing unit 14 controls each unit provided in the image processing apparatus 10.

表示処理部14は、重畳画像を表示部20へ表示する制御を行う。重畳画像は、実空間を撮影した実空間画像に、仮想オブジェクトのオブジェクト画像を、重畳した画像である。   The display processing unit 14 performs control to display the superimposed image on the display unit 20. The superimposed image is an image obtained by superimposing the object image of the virtual object on the real space image obtained by photographing the real space.

仮想オブジェクトは、仮想のオブジェクトである。仮想オブジェクトは、例えば、表示処理部14で扱う事の可能な画像である。仮想オブジェクトの画像は、例えば、外部装置や表示処理部14などで別途作成された画像や、実空間画像の撮影とは異なるタイミングで撮影された撮影画像などであるが、これらに限定されない。外部装置で別途作成された画像は、例えば、印刷物である。印刷物は、記録媒体に画像を形成したものである。   A virtual object is a virtual object. The virtual object is, for example, an image that can be handled by the display processing unit 14. The image of the virtual object is, for example, an image created separately by an external device or the display processing unit 14 or a captured image captured at a timing different from the capturing of the real space image, but is not limited thereto. The image separately created by the external device is, for example, a printed matter. The printed material is an image formed on a recording medium.

本実施の形態では、一例として、仮想オブジェクトが印刷物である場合を説明する。   In the present embodiment, as an example, a case where a virtual object is a printed material will be described.

表示処理部14による表示処理には、グラフィックス処理のためのプログラミングインターフェースを用いた3Dエンジンを用いる。例えば、表示処理部14は、OpenGL(Open Graphics Library)などの3Dエンジンにより、表示処理を実現する。   The display processing by the display processing unit 14 uses a 3D engine using a programming interface for graphics processing. For example, the display processing unit 14 realizes display processing by a 3D engine such as OpenGL (Open Graphics Library).

本実施の形態では、重畳画像は、仮想三次元空間に実空間画像を配置し、仮想三次元空間に仮想オブジェクトを描画してオブジェクト画像とし、これらの実空間画像およびオブジェクト画像の配置された三次元モデルを、二次元面に投影した画像である場合を説明する。   In the present embodiment, the superimposed image is obtained by arranging a real space image in a virtual three-dimensional space, drawing a virtual object in the virtual three-dimensional space to form an object image, and the real space image and the tertiary where the object image is arranged. A case where the original model is an image projected on a two-dimensional surface will be described.

なお、重畳画像は、実空間画像、およびオブジェクト画像を仮想二次元空間に配置した二次元モデルであってもよい。   Note that the superimposed image may be a real space image and a two-dimensional model in which an object image is arranged in a virtual two-dimensional space.

なお、以下では、仮想三次元空間および仮想二次元空間を総称して、単に、仮想空間と称して説明する場合がある。また、本実施の形態では、重畳画像は、仮想三次元空間に、実空間画像とオブジェクト画像とを配置し、二次元面に投影した画像である場合を説明する。   In the following description, the virtual three-dimensional space and the virtual two-dimensional space may be collectively referred to simply as a virtual space. In the present embodiment, a case will be described in which the superimposed image is an image in which a real space image and an object image are arranged in a virtual three-dimensional space and projected onto a two-dimensional surface.

図5は、画像処理装置10の機能構成を示すブロック図である。上述したように画像処理装置10は、検出部25、撮影部12、記憶部16、UI部19、および表示処理部14を備える。検出部25、撮影部12、記憶部16、およびUI部19は、表示処理部14に信号やデータ授受可能に接続されている。   FIG. 5 is a block diagram illustrating a functional configuration of the image processing apparatus 10. As described above, the image processing apparatus 10 includes the detection unit 25, the imaging unit 12, the storage unit 16, the UI unit 19, and the display processing unit 14. The detection unit 25, the imaging unit 12, the storage unit 16, and the UI unit 19 are connected to the display processing unit 14 so as to be able to exchange signals and data.

表示処理部14は、第1取得部14Aと、第2取得部14Bと、受付部14Oと、設定処理部14Dと、算出部14Eと、光源設定部14Fと、表示制御部14Tと、変更部14Wと、を含む。   The display processing unit 14 includes a first acquisition unit 14A, a second acquisition unit 14B, a reception unit 14O, a setting processing unit 14D, a calculation unit 14E, a light source setting unit 14F, a display control unit 14T, and a change unit. 14W.

第1取得部14A、第2取得部14B、受付部14O、設定処理部14D、算出部14E、光源設定部14F、表示制御部14T、および変更部14Wの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。   A part or all of the first acquisition unit 14A, the second acquisition unit 14B, the reception unit 14O, the setting processing unit 14D, the calculation unit 14E, the light source setting unit 14F, the display control unit 14T, and the changing unit 14W are, for example, a CPU or the like. The processing apparatus may execute a program, that is, may be realized by software, may be realized by hardware such as an IC (Integrated Circuit), or may be realized by using software and hardware in combination. Good.

第1取得部14Aは、検出部25から第1姿勢情報を取得する。検出部25は、連続して第1姿勢情報を検出するものとし、順次、第1取得部14Aへ出力するものとする。このため、第1取得部14Aは、最新の撮影部12の姿勢を示す第1姿勢情報を、連続して順次取得する。   The first acquisition unit 14A acquires the first posture information from the detection unit 25. The detection unit 25 continuously detects the first posture information, and sequentially outputs the first posture information to the first acquisition unit 14A. For this reason, the first acquisition unit 14A sequentially and sequentially acquires the first posture information indicating the latest posture of the photographing unit 12.

第2取得部14Bは、撮影部12で撮影された実空間画像を取得する。なお、本実施の形態では、ユーザによるUI部19の操作指示などによって表示処理アプリケーションの起動が指示されると、撮影部12は、実空間画像の連続撮影を開始し、撮影した実空間画像を順次第2取得部14Bへ出力する。第2取得部14Bは、撮影部12で撮影された実空間画像を取得する。このため、第2取得部14Bは、最新の実空間画像を、連続して順次取得する。   The second acquisition unit 14B acquires a real space image captured by the imaging unit 12. In the present embodiment, when the activation of the display processing application is instructed by the user operating the UI unit 19 or the like, the photographing unit 12 starts continuous photographing of the real space image, and the photographed real space image is displayed. The data is sequentially output to the second acquisition unit 14B. The second acquisition unit 14B acquires a real space image captured by the imaging unit 12. For this reason, the 2nd acquisition part 14B acquires the newest real space image sequentially sequentially.

受付部14Oは、ユーザによる各種指示をUI部19(入力部18)から受け付ける。   The receiving unit 14O receives various instructions from the user from the UI unit 19 (input unit 18).

受付部14Oは、第1受付部14Cと、第2受付部14Pと、第3受付部14Qと、第4受付部14Rと、を含む。   The receiving unit 14O includes a first receiving unit 14C, a second receiving unit 14P, a third receiving unit 14Q, and a fourth receiving unit 14R.

第1受付部14Cは、表示対象の仮想オブジェクトの指示を受け付ける。   14C of 1st reception parts receive the instruction | indication of the virtual object of a display target.

例えば、第1表示制御部14Gは、記憶部16に予め記憶された複数の画像データを選択するための選択画面をUI部19に表示する。ユーザは、例えば、UI部19(表示部20)に表示された選択画面を介して、表示対象の画像データを選択する。これにより、第1受付部14Cは、選択された画像データを、仮想オブジェクトとして受け付ける。   For example, the first display control unit 14 </ b> G displays a selection screen for selecting a plurality of image data stored in advance in the storage unit 16 on the UI unit 19. For example, the user selects image data to be displayed via a selection screen displayed on the UI unit 19 (display unit 20). Thereby, the first receiving unit 14C receives the selected image data as a virtual object.

また、第1受付部14Cは、仮想オブジェクトの、実空間における実サイズをユーザから受け付ける。仮想オブジェクトの実サイズは、例えば、仮想オブジェクトが印刷物である場合、該印刷物の実空間における実際のサイズを示す。具体的には、実サイズは、1200mm×800mmなどである。   The first receiving unit 14C receives the actual size of the virtual object in the real space from the user. For example, when the virtual object is a printed material, the actual size of the virtual object indicates the actual size of the printed material in the real space. Specifically, the actual size is 1200 mm × 800 mm or the like.

例えば、第1表示制御部14Gは、仮想オブジェクトの、実空間における実サイズを入力するための入力画面をUI部19に表示する。ユーザは、例えば、UI部19に表示された入力画面を介して、実サイズを入力する。これにより、第1受付部14Cは、入力された実サイズを受け付ける。   For example, the first display control unit 14G displays an input screen for inputting the actual size of the virtual object in the real space on the UI unit 19. For example, the user inputs the actual size via an input screen displayed on the UI unit 19. Thereby, the first receiving unit 14C receives the input actual size.

第2受付部14Pは、第1表示制御部14GによってUI部19に表示された重畳画像に含まれる、オブジェクト画像の表示サイズの変更指示を受付ける。表示サイズの変更指示は、変更後の表示サイズと、変更指示と、を含む。   The second reception unit 14P receives an instruction to change the display size of the object image included in the superimposed image displayed on the UI unit 19 by the first display control unit 14G. The display size change instruction includes a display size after change and a change instruction.

例えば、第1表示制御部14Gは、重畳画像をUI部19に表示する。ユーザは、UI部19に表示された重畳画像における、オブジェクト画像の表示領域を操作する。これにより、ユーザは、オブジェクト画像の表示サイズを変更する。UI部19は、変更後の表示サイズと、変更指示と、を含む表示サイズの変更指示を表示処理部14へ出力する。表示処理部14の第2受付部14Pは、ユーザによるUI部19の操作指示によって入力された変更指示を、UI部19から受け付ける。   For example, the first display control unit 14 </ b> G displays the superimposed image on the UI unit 19. The user operates the display area of the object image in the superimposed image displayed on the UI unit 19. As a result, the user changes the display size of the object image. The UI unit 19 outputs a display size change instruction including the display size after change and the change instruction to the display processing unit 14. The second receiving unit 14P of the display processing unit 14 receives from the UI unit 19 a change instruction input in accordance with an operation instruction of the UI unit 19 by the user.

第3受付部14Qは、後述する基準平面の設定指示を受け付ける。   The third receiving unit 14Q receives a reference plane setting instruction to be described later.

また、第3受付部14Qは、光源情報を受け付ける。光源情報は、仮想三次元空間に配置される仮想光源の反射特性を示す情報である。例えば、第3受付部14Qは、記憶部16に予め光源情報テーブルを記憶する。そして、第3受付部14Qは、ユーザによるUI部19(入力部18)の操作指示によって、光源情報テーブルから選択された光源情報を受け付ける。   The third receiving unit 14Q receives light source information. The light source information is information indicating the reflection characteristics of the virtual light source arranged in the virtual three-dimensional space. For example, the third reception unit 14Q stores a light source information table in the storage unit 16 in advance. The third receiving unit 14Q receives the light source information selected from the light source information table in accordance with an operation instruction from the UI unit 19 (input unit 18) by the user.

図6は、光源情報テーブルのデータ構造の一例を示す図である。光源情報テーブルは、光源の種類を識別する光源IDと、光源名と、光源情報と、を対応づけた情報である。なお、光源情報テーブルは、データベースであってもよく、データ形式は限定されない。   FIG. 6 is a diagram illustrating an example of a data structure of the light source information table. The light source information table is information in which a light source ID for identifying the type of light source, a light source name, and light source information are associated with each other. The light source information table may be a database, and the data format is not limited.

光源情報は、対応する光源IDによって特定される光源の、光属性を示す情報である。光属性は、重畳画像表示時の光を演出する反射量を特定するための情報である。光源情報は、光源の色温度に関する項目である鏡面光、拡散光、および環境光の各々における、RGBの色成分ごとの光量(輝度)で表される。RGBの各色成分の光の値は、最大値「1.0」であり、最小値「0」である。具体的には、図6中、鏡面光の値の一例として記載した“(1.00,0.95,0.95)”は、R成分、G成分、B成分の各々の鏡面光の光量が、各々、1.00,0.95,0.95であることを示す。   The light source information is information indicating the light attribute of the light source specified by the corresponding light source ID. The light attribute is information for specifying the amount of reflection that produces the light when displaying the superimposed image. The light source information is represented by the light amount (luminance) for each RGB color component in each of specular light, diffused light, and environmental light, which are items relating to the color temperature of the light source. The light value of each color component of RGB is a maximum value “1.0” and a minimum value “0”. Specifically, “(1.00, 0.95, 0.95)” described as an example of the value of the specular light in FIG. 6 is the amount of specular light of each of the R component, the G component, and the B component. Are 1.00, 0.95, and 0.95, respectively.

第1表示制御部14Gは、記憶部16に記憶されている光源情報テーブルを読取り、光源情報テーブルに登録されている光源情報の一覧を、選択可能にUI部19(表示部20)に表示する。ユーザは、表示された光源情報の一覧の中から、所望の光源名に対応する光源情報を入力部18の操作指示により入力する。これにより、第3受付部14Qは、光源情報を受け付ける。   The first display control unit 14G reads the light source information table stored in the storage unit 16, and displays a list of light source information registered in the light source information table on the UI unit 19 (display unit 20) in a selectable manner. . The user inputs light source information corresponding to a desired light source name from the displayed light source information list according to an operation instruction of the input unit 18. Thereby, the 3rd reception part 14Q receives light source information.

図5に戻り、第4受付部14Rは、実空間における、撮影部12に対する基準平面(詳細後述)の奥行きを受け付ける。奥行きは、実空間における、撮影部12と、基準平面と、の距離である。   Returning to FIG. 5, the fourth reception unit 14 </ b> R receives the depth of a reference plane (described later in detail) with respect to the imaging unit 12 in the real space. The depth is a distance between the imaging unit 12 and the reference plane in real space.

設定処理部14Dは、基準平面の設定、基準平面の撮影部12の撮影方向に対する第1相対方向の導出、基準平面の再設定などを行う。   The setting processing unit 14D performs setting of the reference plane, derivation of the first relative direction with respect to the shooting direction of the shooting unit 12 of the reference plane, resetting of the reference plane, and the like.

設定処理部14Dは、設定部14Hと、導出部14Nと、判定部14Iと、再設定部14Jと、を含む。   The setting processing unit 14D includes a setting unit 14H, a derivation unit 14N, a determination unit 14I, and a resetting unit 14J.

設定部14Hは、基準平面の設定指示を受け付けたときに、実空間における、仮想オブジェクトを配置する基準平面を、該設定指示を受け付けたときに取得した第1姿勢情報に応じて設定する。   When receiving the setting instruction for the reference plane, the setting unit 14H sets the reference plane in which the virtual object is arranged in the real space according to the first posture information acquired when the setting instruction is received.

基準平面は、実空間における平面状の領域である。例えば、実空間が、複数の壁面で構成された室内であるとする。この場合、基準平面は、この複数の壁面の内の1つの壁面である。また、実空間が、床面、天井面、床面と天井面とに連続する4つの壁面で構成された立方体状の室内であるとする。この場合、基準平面は、立方体状の室内を構成する6つの壁面の内の1つである。   The reference plane is a planar area in real space. For example, it is assumed that the real space is a room composed of a plurality of wall surfaces. In this case, the reference plane is one wall surface of the plurality of wall surfaces. Further, it is assumed that the real space is a cubic room composed of a floor surface, a ceiling surface, and four wall surfaces continuous to the floor surface and the ceiling surface. In this case, the reference plane is one of the six wall surfaces constituting the cubic room.

詳細には、設定部14Hは、設定指示を受け付けたときに検出された第1姿勢情報を、第1取得部14Aから受け付ける。そして、設定部14Hは、該第1姿勢情報を用いて、基準平面を設定する。   Specifically, the setting unit 14H receives the first posture information detected when the setting instruction is received from the first acquisition unit 14A. Then, the setting unit 14H sets a reference plane using the first posture information.

例えば、第1表示制御部14Gは、表示部20に実空間画像を表示し、基準平面の設定指示を促すメッセージを表示する。ユーザは、表示部20に表示されている実空間画像を確認しながら、仮想オブジェクトを配置したい平面(天井、床面、壁面など)の方向に撮影方向が向くように調整し、設定ボタン(図示省略)を押す。すると、第3受付部14Qは、設定指示を受け付け、設定処理部14Dの設定部14Hへ出力する。   For example, the first display control unit 14G displays a real space image on the display unit 20 and displays a message for prompting a reference plane setting instruction. While confirming the real space image displayed on the display unit 20, the user adjusts the shooting direction in the direction of the plane (ceiling, floor, wall surface, etc.) on which the virtual object is to be placed, and sets a button (illustrated). Press (Omitted). Then, the third receiving unit 14Q receives the setting instruction and outputs it to the setting unit 14H of the setting processing unit 14D.

設定部14Hは、この設定指示を受け付けたときに、該設定指示を受け付けたときの第1姿勢情報を用いて、基準平面を設定する。   When the setting unit 14H receives the setting instruction, the setting unit 14H sets the reference plane by using the first posture information when the setting instruction is received.

図7は、第1取得部14Aから受け付けた第1姿勢情報に応じた、撮影部12(画像処理装置10、表示部20)の姿勢の一例を示す図である。   FIG. 7 is a diagram illustrating an example of the posture of the photographing unit 12 (the image processing device 10 and the display unit 20) according to the first posture information received from the first acquisition unit 14A.

第1姿勢情報によって特定される姿勢は、例えば、ランドスケープ(図7(A)参照)、フェースアップ(図7(B)参照)、フェースダウン(図7(C)参照)、などがある。   The posture specified by the first posture information includes, for example, landscape (see FIG. 7A), face-up (see FIG. 7B), face-down (see FIG. 7C), and the like.

ランドスケープとは、撮影部12の撮影方向A2に直交する撮影面(表示部20の表示面と同一平面)が、ワールド座標における、鉛直方向に平行な平面と一致する場合である。フェースアップとは、撮影部12の撮影方向A2に直交する撮影面(表示部20の表示面と同一平面)が、鉛直方向に垂直な垂直平面と一致し、且つ、表示部20の表示方向A1が反鉛直方向(重力方向の反対方向)と一致する場合である。フェースダウンとは、撮影部12の撮影方向A2に直交する撮影面(表示部20の表示面と同一平面)が、鉛直方向に垂直な垂直平面と一致し、且つ、表示部20の表示方向A1が鉛直方向(重力方向)と一致する場合である。   A landscape is a case where an imaging plane orthogonal to the imaging direction A2 of the imaging unit 12 (the same plane as the display surface of the display unit 20) coincides with a plane parallel to the vertical direction in world coordinates. Face-up means that the image plane orthogonal to the image capturing direction A2 of the image capturing unit 12 (the same plane as the display surface of the display unit 20) coincides with the vertical plane perpendicular to the vertical direction, and the display direction A1 of the display unit 20 Corresponds to the anti-vertical direction (the direction opposite to the direction of gravity). Face-down means that an imaging plane (the same plane as the display plane of the display unit 20) orthogonal to the imaging direction A2 of the imaging unit 12 is coincident with a vertical plane perpendicular to the vertical direction, and the display direction A1 of the display unit 20 Corresponds to the vertical direction (the direction of gravity).

基準平面の設定指示時には、ユーザは、例えば、上記ランドスケープ、フェースアップ、フェースダウンなどの姿勢となるように、画像処理装置10を把持し、設定指示を入力することが好ましい。   When instructing the setting of the reference plane, it is preferable that the user holds the image processing apparatus 10 and inputs the setting instruction so that the posture is, for example, landscape, face up, face down, or the like.

図5に戻り、設定部14Hは、設定指示を受け付けたときに取得した第1姿勢情報を用いて、基準平面を設定する。   Returning to FIG. 5, the setting unit 14 </ b> H sets the reference plane using the first posture information acquired when the setting instruction is received.

基準平面の設定について、具体的に説明する。設定部14Hは、設定指示を受け付けたときに取得した第1姿勢情報を用いて、実空間における、撮影部12の位置する室内を構成する複数の壁面の内の1つの壁面を、基準平面として設定する。   The setting of the reference plane will be specifically described. Using the first posture information acquired when the setting instruction is received, the setting unit 14H uses, as a reference plane, one wall surface among a plurality of wall surfaces constituting the room where the photographing unit 12 is located in real space. Set.

詳細には、設定部14Hは、実空間における、撮影部12の撮影方向に対して交差する平面を、基準平面として設定する。   Specifically, the setting unit 14H sets a plane that intersects the shooting direction of the shooting unit 12 in the real space as a reference plane.

図8は、基準平面の設定の一例を示す説明図である。   FIG. 8 is an explanatory diagram illustrating an example of setting a reference plane.

例えば、画像処理装置10が、実空間として、床面S1、天井面S6、床面と天井面とに連続する4つの壁面(S2〜S5)で構成された立方体状の室内であるとする。そして、画像処理装置10が、撮影部12の撮影方向A2を床面S1側とし、表示方向A1を壁面S2として位置していたとする(図8(A)参照)。   For example, it is assumed that the image processing apparatus 10 is a cubic room composed of a floor surface S1, a ceiling surface S6, and four wall surfaces (S2 to S5) continuous to the floor surface and the ceiling surface as a real space. Then, it is assumed that the image processing apparatus 10 is positioned with the shooting direction A2 of the shooting unit 12 as the floor surface S1 side and the display direction A1 as the wall surface S2 (see FIG. 8A).

図8に示す状況の場合、実空間における、第1姿勢情報によって特定される撮影方向A2に対して交差する平面は、床面S1である(図8(B)参照)。すなわち、この場合、設定部14Hは、床面S1を基準平面として設定する。   In the situation shown in FIG. 8, the plane that intersects the shooting direction A2 specified by the first posture information in the real space is the floor surface S1 (see FIG. 8B). That is, in this case, the setting unit 14H sets the floor surface S1 as a reference plane.

ここで、設定部14Hは、設定指示を受け付けたときの、画像処理装置10における撮影部12の撮影方向A2と表示部20の表示方向A1との関係に応じて、基準平面を設定する。   Here, the setting unit 14H sets the reference plane according to the relationship between the shooting direction A2 of the shooting unit 12 and the display direction A1 of the display unit 20 in the image processing apparatus 10 when a setting instruction is received.

例えば、画像処理装置10における撮影部12の撮影方向A2と、画像処理装置10における表示部20の表示方向A1と、が反対方向(180°の関係)となるように、撮影部12および表示部20の配置が調整されていたとする。   For example, the photographing unit 12 and the display unit are arranged such that the photographing direction A2 of the photographing unit 12 in the image processing device 10 and the display direction A1 of the display unit 20 in the image processing device 10 are opposite directions (180 ° relationship). Assume that the arrangement of 20 has been adjusted.

図9は、基準平面の設定の一例を示す説明図である。なお、図9における壁面Sの配置は、図8(A)と同様であるとする。また、図9は、画像処理装置10における撮影部12の撮影方向A2と、画像処理装置10における表示部20の表示方向A1と、が反対方向(180°の関係)である場合を示す。   FIG. 9 is an explanatory diagram illustrating an example of setting a reference plane. Note that the arrangement of the wall surfaces S in FIG. 9 is the same as that in FIG. FIG. 9 shows a case where the shooting direction A2 of the shooting unit 12 in the image processing apparatus 10 and the display direction A1 of the display unit 20 in the image processing apparatus 10 are opposite directions (180 ° relationship).

撮影部12の撮影方向A2と、表示部20の表示方向A1とが反対方向である場合、設定部14Hは、実空間における、撮影部12の位置する室内を構成する複数の壁面の内、撮影部12の撮影方向A2または反撮影方向に交差する壁面であって、且つ該撮影方向A2に直交する撮影面との成す角度の最も小さい壁面を、基準平面として設定する。   When the shooting direction A2 of the shooting unit 12 and the display direction A1 of the display unit 20 are opposite to each other, the setting unit 14H takes a picture of a plurality of wall surfaces constituting a room where the shooting unit 12 is located in real space. A wall surface that intersects the shooting direction A2 or the counter shooting direction of the unit 12 and has the smallest angle with the shooting plane orthogonal to the shooting direction A2 is set as a reference plane.

図9に示す例では、設定部14Hは、複数の壁面Sの内、撮影方向A2および表示方向A1に交差する、床面S1と壁面S2を特定する。   In the example illustrated in FIG. 9, the setting unit 14H specifies the floor surface S1 and the wall surface S2 that intersect the shooting direction A2 and the display direction A1 among the plurality of wall surfaces S.

そして、設定部14Hは、特定した壁面の内、撮影方向A2に直交する撮影面との成す角度の最も小さい壁面を、基準平面として設定する。図9に示す例では、特定した床面S1および壁面S2の内、撮影方向A2に直交する撮影面との成す角度(図9中、角度φ1、角度φ2参照(φ1<φ2とする))の最も小さい壁面である床面S1を基準平面として設定する。なお、角度φ1と角度φ2とが同じである場合には、特定した床面S1および壁面S2の内、撮影部12より撮影方向A2の下流側の壁面Sである床面S1を、基準平面として設定する。   Then, the setting unit 14H sets, as the reference plane, the wall surface having the smallest angle formed with the shooting surface orthogonal to the shooting direction A2 among the specified wall surfaces. In the example shown in FIG. 9, the angle formed by the photographing surface orthogonal to the photographing direction A2 among the specified floor surface S1 and wall surface S2 (see angle φ1 and angle φ2 in FIG. 9 (assuming φ1 <φ2)). The floor surface S1, which is the smallest wall surface, is set as the reference plane. When the angle φ1 and the angle φ2 are the same, the floor surface S1, which is the wall surface S on the downstream side in the shooting direction A2 from the shooting unit 12 among the specified floor surface S1 and wall surface S2, is used as the reference plane. Set.

一方、画像処理装置10における撮影部12の撮影方向A2と、画像処理装置10における表示部20の表示方向A1と、が同一方向(0°の関係)となるように、撮影部12および表示部20の配置が調整されていたとする。   On the other hand, the photographing unit 12 and the display unit are arranged so that the photographing direction A2 of the photographing unit 12 in the image processing apparatus 10 and the display direction A1 of the display unit 20 in the image processing apparatus 10 are in the same direction (0 ° relationship). Assume that the arrangement of 20 has been adjusted.

図10は、基準平面の設定の一例を示す説明図である。なお、図10における壁面Sの配置は、図8(A)と同様であるとする。また、図10は、画像処理装置10における撮影部12の撮影方向A2と、画像処理装置10における表示部20の表示方向A1と、が同一方向(0°の関係)である場合を示す説明図である。   FIG. 10 is an explanatory diagram illustrating an example of setting a reference plane. Note that the arrangement of the wall surface S in FIG. 10 is the same as that in FIG. FIG. 10 is an explanatory diagram showing a case where the shooting direction A2 of the shooting unit 12 in the image processing apparatus 10 and the display direction A1 of the display unit 20 in the image processing apparatus 10 are the same direction (0 ° relationship). It is.

設定部14Hは、撮影部12の撮影方向A2と、表示部20の表示方向A1とが同一方向である場合、実空間における、撮影部12の位置する室内を構成する複数の壁面の内、撮影部12の撮影方向A2または反撮影方向に交差する壁面であって、且つ該撮影方向A2に直交する撮影面との成す角度の最も大きい壁面を、基準平面として設定する。   When the shooting direction A2 of the shooting unit 12 and the display direction A1 of the display unit 20 are the same direction, the setting unit 14H takes a picture of a plurality of wall surfaces constituting a room where the shooting unit 12 is located in real space. A wall surface that intersects the shooting direction A2 or the counter shooting direction of the unit 12 and has the largest angle with the shooting plane orthogonal to the shooting direction A2 is set as a reference plane.

図10に示す例では、設定部14Hは、複数の壁面Sの内、撮影方向A2、表示方向A1、これらの反対方向の各々に交差する、床面S1と壁面S2を特定する。   In the example illustrated in FIG. 10, the setting unit 14 </ b> H specifies the floor surface S <b> 1 and the wall surface S <b> 2 that intersect the imaging direction A <b> 2, the display direction A <b> 1, and the opposite directions among the plurality of wall surfaces S.

そして、設定部14Hは、特定した壁面の内、撮影方向A2に直交する撮影面との成す角度の最も大きい壁面を、基準平面として設定する。図10に示す例では、特定した床面S1および壁面S2の内、撮影方向A2に直交する撮影面との成す角度(図10中、角度φ1、角度φ2参照(φ1<φ2とする))の最も大きい壁面である壁面S2を、基準平面として設定する。なお、角度φ1と角度φ2とが同じである場合には、特定した床面S1および壁面S2の内、撮影部12より撮影方向A2の下流側の壁面Sである壁面S2を、基準平面として設定する。   Then, the setting unit 14H sets, as the reference plane, the wall surface having the largest angle formed with the imaging surface orthogonal to the imaging direction A2 among the identified wall surfaces. In the example shown in FIG. 10, of the specified floor surface S1 and wall surface S2, the angle formed with the photographing surface orthogonal to the photographing direction A2 (see angle φ1 and angle φ2 in FIG. 10 (refer to φ1 <φ2)). The wall surface S2 that is the largest wall surface is set as the reference plane. When the angle φ1 and the angle φ2 are the same, the wall surface S2 that is the wall surface S on the downstream side in the shooting direction A2 from the shooting unit 12 among the specified floor surface S1 and wall surface S2 is set as the reference plane. To do.

図5に戻り、導出部14Nは、現在の撮影部12の撮影方向A2に対する、設定された基準平面の第1相対方向を導出する。導出部14Nは、順次検出される第1姿勢情報を用いて、現在の撮影部12の撮影方向A2を特定する。そして、導出部14Nは、特定した撮影方向A2に対する、設定部14Hで設定された基準平面の相対的な方向である第1相対方向を導出する。   Returning to FIG. 5, the deriving unit 14N derives the first relative direction of the set reference plane with respect to the current shooting direction A2 of the shooting unit 12. The deriving unit 14N specifies the current shooting direction A2 of the shooting unit 12 using the first posture information that is sequentially detected. Then, the deriving unit 14N derives a first relative direction that is a relative direction of the reference plane set by the setting unit 14H with respect to the identified shooting direction A2.

このため、画像処理装置10の回転などに伴い、撮影部12の撮影方向A2が回転すると、回転に伴い、回転後の現在の撮影部12の撮影方向A2に対する基準平面の第1相対方向が、順次算出されることとなる。   For this reason, when the imaging direction A2 of the imaging unit 12 rotates along with the rotation of the image processing apparatus 10, the first relative direction of the reference plane with respect to the imaging direction A2 of the current imaging unit 12 after rotation becomes It will be calculated sequentially.

判定部14Iは、基準平面の設定時に用いた第1姿勢情報と、今回取得した第1姿勢情報と、の比較結果に基づいて、基準平面を設定したときから撮影方向A2が予め定めた第1相対角度以上回転したか否かを判定する。今回取得した第1姿勢情報とは、最新の第1姿勢情報であり、現在の撮影部12の姿勢を示す第1姿勢情報である。すなわち、判定部14Iは、基準平面の設定時の撮影方向A2からの回転角度が、第1相対角度以上であるか否かを判定する。   Based on the comparison result between the first posture information used at the time of setting the reference plane and the first posture information acquired this time, the determination unit 14I determines the first shooting direction A2 from the time when the reference plane is set. It is determined whether or not the rotation is greater than the relative angle. The first posture information acquired this time is the latest first posture information, and is first posture information indicating the current posture of the photographing unit 12. That is, the determination unit 14I determines whether or not the rotation angle from the shooting direction A2 when setting the reference plane is equal to or greater than the first relative angle.

例えば、設定部14Hは、基準平面の設定を行う度に、設定時に用いた第1姿勢情報を、基準平面の設定時の第1姿勢情報として、記憶部16に記憶する。なお、記憶部16に、基準平面の設定時の第1姿勢情報が既に記憶されている場合には、設定部14Hは、最新の基準平面の設定時に用いた第1姿勢情報が記憶されるように、既に記憶されている基準平面の設定時の第1姿勢情報に上書きする。また、後述する基準平面の再設定が行われた場合には、再設定時に用いた第1姿勢情報が、基準平面の設定時の第1姿勢情報として、記憶部16に上書きして記憶される。   For example, each time the setting unit 14H sets the reference plane, the setting unit 14H stores the first posture information used at the time of setting in the storage unit 16 as the first posture information at the time of setting the reference plane. When the first posture information at the time of setting the reference plane is already stored in the storage unit 16, the setting unit 14H stores the first posture information used at the time of setting the latest reference plane. In addition, the first orientation information at the time of setting the reference plane already stored is overwritten. Further, when a reference plane to be described later is reset, the first posture information used at the time of resetting is overwritten and stored in the storage unit 16 as first posture information at the time of setting the reference plane. .

例えば、設定部14Hは、基準平面の設定時に用いた第1姿勢情報(A0=(α,β,γ))を、記憶部16に記憶する。αは、基準平面設定時の、第1姿勢情報に示されるロール角αである。βは、基準平面設定時の、第1姿勢情報に示されるピッチ角βである。γは、基準平面設定時の、第1姿勢情報に示されるヨー角γである。 For example, the setting unit 14H stores the first posture information (A 0 = (α 0 , β 0 , γ 0 )) used when setting the reference plane in the storage unit 16. α 0 is a roll angle α indicated in the first posture information when the reference plane is set. β 0 is the pitch angle β indicated in the first posture information when the reference plane is set. γ 0 is the yaw angle γ indicated in the first posture information when the reference plane is set.

そして、現在の撮影部12の姿勢を示す、今回取得した第1姿勢情報を、例えば、A=(α,β,γ)とする。tは、基準平面の設定に用いた第1姿勢情報の取得からの経過時間を示す。すなわち、Aは、基準平面の設定時を時刻「0」とし、該時刻「0」から経過時間「t」経過したときの(すなわち現在の)、撮影部12の姿勢を示す第1姿勢情報である。 Then, the first posture information acquired this time indicating the current posture of the photographing unit 12 is, for example, A t = (α t , β t , γ t ). t indicates the elapsed time from the acquisition of the first attitude information used for setting the reference plane. That, A t is the setting of the reference plane and time "0", the time elapsed from the time "0", "t" elapsed time (i.e., current), the first posture information indicating the posture of the imaging unit 12 It is.

そして、判定部14Iは、現在の撮影部12の姿勢を示す第1姿勢情報Aから、基準平面の設定時に用いた第1姿勢情報Aを減算した減算値A−Aを、基準平面の設定時からの撮影部12の撮影方向A2の回転角度として算出する。 Then, the determination unit 14I includes a first orientation information A t indicating the orientation of the current imaging unit 12, the first posture information A 0 used at the time of setting of the reference plane subtraction value A t -A 0 which is obtained by subtracting the reference This is calculated as the rotation angle in the shooting direction A2 of the shooting unit 12 from the plane setting time.

そして、判定部14Iは、この減算値A−Aによって示される回転角度(具体的には、A−Aの絶対値)が、予め定めた第1相対角度以上であるか否かを判定する。 Then, the determination unit 14I (specifically, the absolute value of A t -A 0) rotation angle indicated by the subtraction value A t -A 0 is whether or not the first relative angle or a predetermined Determine.

第1相対角度は、予め任意の値を設定すればよい。また、この第1相対角度は、ユーザによる入力部18の操作指示などにより、適宜変更可能である。   An arbitrary value may be set in advance for the first relative angle. In addition, the first relative angle can be appropriately changed according to an operation instruction of the input unit 18 by the user.

第1相対角度は、後述する第2相対角度より小さい角度である。例えば、第2相対角度が90°である場合、第1相対角度は45°より大きく且つ90°未満の範囲であることが好ましく、80°であることが特に好ましい。   The first relative angle is an angle smaller than a second relative angle described later. For example, when the second relative angle is 90 °, the first relative angle is preferably in the range of more than 45 ° and less than 90 °, and particularly preferably 80 °.

また、例えば、第2相対角度が180°である場合、第1相対角度は、135°より大きく180°未満の範囲であることが好ましく、第1相対角度は170°であることが特に好ましい。   For example, when the second relative angle is 180 °, the first relative angle is preferably in the range of greater than 135 ° and less than 180 °, and the first relative angle is particularly preferably 170 °.

再設定部14Jは、判定部14Iによって第1相対角度以上回転したと判定されたときに、基準平面を第1相対角度より大きい第2相対角度回転した平面を、新たな基準平面として再設定する。なお、基準平面の回転方向は、判定された回転の回転方向と同じとする。   The resetting unit 14J resets the plane obtained by rotating the reference plane by the second relative angle larger than the first relative angle as a new reference plane when the determination unit 14I determines that the rotation is greater than the first relative angle. . Note that the rotation direction of the reference plane is the same as the rotation direction of the determined rotation.

例えば、第2相対角度を90°に設定し、第1相対角度を80°に設定したとする。そして、立方体状の室内などの実空間において、画像処理装置10を、鉛直方向を回転軸として回転させたとする。この場合、再設定部14Jは、撮影方向A2に交差する室内の各壁面Sを、回転に応じて順に基準平面として再設定することができる。   For example, assume that the second relative angle is set to 90 ° and the first relative angle is set to 80 °. Assume that the image processing apparatus 10 is rotated about the vertical direction as a rotation axis in a real space such as a cubic room. In this case, the resetting unit 14J can reset each wall surface S in the room that intersects the shooting direction A2 as a reference plane in order according to the rotation.

基準平面を再設定したときの、撮影部12の第1姿勢情報Aは、下記式(1)で表せる。 The first posture information A 0 of the photographing unit 12 when the reference plane is reset can be expressed by the following formula (1).

=(α+π/2×Sα,β+π/2×Sβ,γ+π/2×Sγ) ・・式(1) A 0 = (α 0 + π / 2 × S α , β 0 + π / 2 × S β , γ 0 + π / 2 × S γ ) Equation (1)

式(1)中、Sα,Sβ,Sγは、撮影部12の姿勢の変化を示す整数変数{0,1,2,3}である。αは、前回の(再設定前の)基準平面設定時の、第1姿勢情報に示されるロール角αである。βは、前回の(再設定前の)基準平面設定時の、第1姿勢情報に示されるピッチ角βである。γは、前回の(再設定前の)基準平面設定時の、第1姿勢情報に示されるヨー角γである。 In Expression (1), S α , S β , and S γ are integer variables {0, 1, 2, 3} that indicate changes in the posture of the imaging unit 12. α 0 is the roll angle α indicated in the first posture information at the time of the previous reference plane setting (before resetting). β 0 is the pitch angle β indicated in the first posture information at the time of the previous reference plane setting (before resetting). γ 0 is the yaw angle γ indicated in the first posture information at the time of the previous reference plane setting (before resetting).

そして、再設定部14Jは、再設定した基準平面の第1姿勢情報Aを、基準平面の設定時に用いた第1姿勢情報として、記憶部16に上書きして記憶する。 The resetting unit 14J includes a first posture information A 0 of a reference plane set again, as the first orientation information used in setting the reference plane is overwritten and stored in the storage unit 16.

図11は、基準平面の再設定の説明図である。図11(A)に示すように、基準平面の設定時の、第1姿勢情報によって特定される姿勢の撮影部12の撮影方向A2が、床面S1に連続する壁面S3に交差する方向であり、該壁面S3が基準平面として設定されていたとする。   FIG. 11 is an explanatory diagram of resetting the reference plane. As shown in FIG. 11A, the shooting direction A2 of the shooting unit 12 in the posture specified by the first posture information at the time of setting the reference plane is a direction that intersects the wall surface S3 continuous with the floor surface S1. Suppose that the wall surface S3 is set as a reference plane.

この状態から、例えば、画像処理装置10の回転により、撮影部12の撮影方向A2が、壁面S3に直交する方向から、壁面S3に対して90°右手側に配置された壁面S5に直交する方向に、回転されたとする(図11(B)中、矢印C方向参照)。また、第1相対角度が80°であり、第2相対角度が90°であったとする。   From this state, for example, due to the rotation of the image processing apparatus 10, the shooting direction A2 of the shooting unit 12 is orthogonal to the wall surface S5 disposed 90 ° to the right side of the wall surface S3 from the direction orthogonal to the wall surface S3. (See the direction of arrow C in FIG. 11B). Further, it is assumed that the first relative angle is 80 ° and the second relative angle is 90 °.

この場合、判定部14Iによって第1相対角度(例えば、80°)以上回転したと判定されたときに、再設定部14Jは、基準平面である壁面S3から第2相対角度(例えば、90°)回転した方向の壁面S5を、新たな基準平面として再設定する。   In this case, when the determination unit 14I determines that the rotation is greater than or equal to the first relative angle (for example, 80 °), the resetting unit 14J sets the second relative angle (for example, 90 °) from the wall surface S3 that is the reference plane. The wall surface S5 in the rotated direction is reset as a new reference plane.

図12は、基準平面の再設定の詳細な説明図である。   FIG. 12 is a detailed explanatory diagram of resetting the reference plane.

例えば、図12(A)に示すように、基準平面の設定時の、画像処理装置10の撮影部12の撮影方向A2が、ワールド座標における−Z軸方向に一致する方向であったとする。そして、実空間における、この撮影方向A2に交差する平面(壁面)が基準平面として設定されていたとする。   For example, as shown in FIG. 12A, it is assumed that the shooting direction A2 of the shooting unit 12 of the image processing apparatus 10 at the time of setting the reference plane is a direction that coincides with the −Z-axis direction in world coordinates. Then, it is assumed that a plane (wall surface) that intersects the shooting direction A2 in the real space is set as the reference plane.

そして、図12(B)に示すように、この状態から撮影部12の撮影方向A2を、Y軸を回転軸として右回り(図12(B)中、矢印R1方向)に角度θ回転させたとする。この場合、基準平面の位置は動かないことから、撮影部12の撮影方向A2に対する基準平面の第1相対方向は、撮影方向A2からY軸を回転軸として左回り(図12(B)中、矢印R1の反対方向)に角度−θ回転させた方向となる。   Then, as shown in FIG. 12B, from this state, the imaging direction A2 of the imaging unit 12 is rotated clockwise by the angle θ about the Y axis as the rotation axis (in the direction of arrow R1 in FIG. 12B). To do. In this case, since the position of the reference plane does not move, the first relative direction of the reference plane with respect to the imaging direction A2 of the imaging unit 12 is counterclockwise from the imaging direction A2 with the Y axis as the rotation axis (in FIG. 12B, The direction is rotated by an angle −θ in the direction opposite to the arrow R1.

そして、図12(C)に示すように、回転角度θが第1相対角度(例えば、80°)を超えたときに、上記処理により、基準平面を、Y軸を回転軸として右回り(図12(C)中、矢印R1方向)に第2相対角度(例えば、90°)回転させた方向が、新たな基準平面として再設定される。この場合、第1相対方向は、撮影方向A2からY軸を回転軸として左回り(図12(C)中、矢印R1の反対方向)に角度−θ回転させた方向となる。   Then, as shown in FIG. 12C, when the rotation angle θ exceeds the first relative angle (for example, 80 °), the reference plane is rotated clockwise about the Y axis as the rotation axis (see FIG. 12 (C), the direction rotated by the second relative angle (for example, 90 °) in the direction of arrow R1 is reset as a new reference plane. In this case, the first relative direction is the direction rotated counterclockwise by the angle −θ from the shooting direction A2 around the Y axis as the rotation axis (the direction opposite to the arrow R1 in FIG. 12C).

そして、図12(D)に示すように、新たな基準平面が再設定された後に、更に、撮影部12の撮影方向A2を、Y軸を回転軸として右回り(図12(D)中、矢印R1方向)に角度θ’回転させたとする。そして、回転角度θ’が第1相対角度(例えば、80°)を超えたときに、上記と同様に、基準平面を、Y軸を回転軸として右回り(図12(D)中、矢印R1方向)に第2相対角度(例えば、90°)回転させた方向が、新たな基準平面として再設定される。そして、撮影部12の撮影方向A2に対する新たな基準平面の方向が、第1相対方向となる。この場合、第1相対方向は、撮影方向A2からY軸を回転軸として左回り(図12(D)中、矢印R1の反対方向)に角度−θ’回転させた方向となる。   Then, as shown in FIG. 12D, after the new reference plane is reset, the shooting direction A2 of the shooting unit 12 is further rotated clockwise about the Y axis as the rotation axis (in FIG. 12D, It is assumed that the angle θ ′ is rotated in the direction of arrow R1. Then, when the rotation angle θ ′ exceeds the first relative angle (for example, 80 °), the reference plane is rotated clockwise about the Y axis as the rotation axis (in FIG. 12D, the arrow R1). The direction rotated by the second relative angle (for example, 90 °) in (direction) is reset as a new reference plane. The direction of the new reference plane with respect to the shooting direction A2 of the shooting unit 12 is the first relative direction. In this case, the first relative direction is a direction rotated counterclockwise by the angle −θ ′ from the shooting direction A2 around the Y axis as the rotation axis (the direction opposite to the arrow R1 in FIG. 12D).

すなわち、第1相対角度が80°である場合、図12(B)に示す状態では、−80<θ<80の範囲で、XY平面に平行な面が、基準平面として設定される。また、図12(C)に示すように基準平面が切り替えられて、新たな基準平面が再設定されると、図12(D)に示す状態では、−80<θ’<80の範囲で、YZ平面に平行な面が、基準平面として再設定されることとなる。   That is, when the first relative angle is 80 °, in the state shown in FIG. 12B, a plane parallel to the XY plane is set as the reference plane in the range of −80 <θ <80. Further, when the reference plane is switched as shown in FIG. 12C and a new reference plane is reset, in the state shown in FIG. 12D, in the range of −80 <θ ′ <80, A plane parallel to the YZ plane is reset as the reference plane.

図5に戻り、変更部14Wは、重畳画像に含まれるオブジェクト画像を、第2受付部14Pが受け付けた変更指示によって示される表示サイズに変更する。このため、ユーザによるUI部19(入力部18)の操作指示によって、UI部19(表示部20)に表示された重畳画像に含まれるオブジェクト画像の表示サイズが、容易に変更される。   Returning to FIG. 5, the changing unit 14 </ b> W changes the object image included in the superimposed image to the display size indicated by the change instruction received by the second receiving unit 14 </ b> P. For this reason, the display size of the object image included in the superimposed image displayed on the UI unit 19 (display unit 20) is easily changed by an operation instruction of the UI unit 19 (input unit 18) by the user.

算出部14Eは、各種情報の算出を行う。算出部14Eは、第1算出部14Kと、第2算出部14Lと、第3算出部14Mと、第4算出部14Sと、を含む。   The calculation unit 14E calculates various information. The calculation unit 14E includes a first calculation unit 14K, a second calculation unit 14L, a third calculation unit 14M, and a fourth calculation unit 14S.

第1算出部14Kは、変更前のオブジェクト画像の表示サイズに対する、変更後のオブジェクト画像の表示サイズの第1倍率と、変更前の実サイズと、の第1乗算値を、変更後の実サイズとして算出する。   The first calculation unit 14K obtains the first multiplication value of the first magnification of the display size of the object image after the change and the actual size before the change with respect to the display size of the object image before the change, and the actual size after the change. Calculate as

なお、記憶部16には、設定処理部14Dによって基準平面が新たに設定されたときのオブジェクト画像の表示サイズを示す、基準サイズが予め記憶されている。   Note that the storage unit 16 stores in advance a reference size indicating the display size of the object image when the reference plane is newly set by the setting processing unit 14D.

そして、第1算出部14Kは、変更後の実サイズを算出する度に、算出した実サイズを、前回算出した実サイズに上書きして記憶部16に記憶する。第1算出部14Kは、変更後の実サイズを新たに算出するときには、記憶部16に記憶されている実サイズを、「変更前の実サイズ」として用いる。また、第1算出部14Kは、記憶部16に実サイズが記憶されていない場合には、基準サイズを、「変更前の実サイズ」として用いる。   Each time the first calculation unit 14K calculates the changed actual size, the first calculation unit 14K overwrites the calculated actual size with the previously calculated actual size and stores it in the storage unit 16. When the first calculation unit 14K newly calculates the actual size after the change, the first calculation unit 14K uses the actual size stored in the storage unit 16 as the “actual size before the change”. In addition, when the actual size is not stored in the storage unit 16, the first calculation unit 14 </ b> K uses the reference size as “actual size before change”.

すなわち、第1算出部14Kは、ユーザによるUI部19の操作指示によってオブジェクト画像の表示サイズが変更されると、変更前のオブジェクト画像に対応する仮想オブジェクトの実サイズを、変更された表示サイズに合わせて変更する。具体的には、オブジェクト画像の表示サイズが2倍に変更されると、第1算出部14Kは、対応する仮想オブジェクトの変更前の実サイズの2倍を、変更後の実サイズとして算出する。   That is, when the display size of the object image is changed by a user operation instruction on the UI unit 19, the first calculation unit 14K changes the actual size of the virtual object corresponding to the object image before the change to the changed display size. Change to match. Specifically, when the display size of the object image is changed to twice, the first calculation unit 14K calculates twice the actual size of the corresponding virtual object before the change as the actual size after the change.

また、第1算出部14Kは、変更後のオブジェクト画像の表示サイズに対する、変更前のオブジェクト画像の表示サイズの第2倍率と、変更前の奥行きと、の第2乗算値を、変更後の奥行きとして算出する。   In addition, the first calculation unit 14K calculates the second multiplication value of the second magnification of the display size of the object image before the change and the depth before the change with respect to the display size of the object image after the change, and the depth after the change. Calculate as

変更前の奥行についても同様に、第1算出部14Kは、変更後の奥行きを算出する度に、算出した奥行きを、前回算出した奥行きに上書きして記憶部16に記憶する。第1算出部14Kは、変更後の奥行きを新たに算出するときには、記憶部16に記憶されている奥行きを、「変更前の奥行き」として用いる。また、第1算出部14Kは、記憶部16に奥行きが記憶されていない場合には、第4受付部14Rが受け付けた奥行きを、「変更前の奥行き」として用いればよい。   Similarly, for the depth before the change, the first calculation unit 14K stores the calculated depth over the previously calculated depth in the storage unit 16 every time the depth after the change is calculated. When the first calculation unit 14K newly calculates the changed depth, the first calculation unit 14K uses the depth stored in the storage unit 16 as the “depth before change”. In addition, when the depth is not stored in the storage unit 16, the first calculation unit 14K may use the depth received by the fourth reception unit 14R as the “depth before change”.

すなわち、第1算出部14Kは、ユーザによるUI部19の操作指示によってオブジェクト画像の表示サイズが変更されると、変更前の奥行き(撮影部12と基準平面との実空間における距離)を、変更された表示サイズに合わせて変更する。具体的には、オブジェクト画像の表示サイズが2倍に変更されると、第1算出部14Kは、変更前の奥行きの1/2倍を、変更後の奥行きとして算出する。   That is, when the display size of the object image is changed by an operation instruction of the UI unit 19 by the user, the first calculation unit 14K changes the depth (distance in real space between the imaging unit 12 and the reference plane) before the change. Change to fit the displayed size. Specifically, when the display size of the object image is changed to twice, the first calculation unit 14K calculates ½ times the depth before the change as the depth after the change.

ここで、後述する表示制御部14T(第1表示制御部14G)では、仮想空間における、実空間の基準平面に対応する領域に、仮想オブジェクトを描画する。このため、第1算出部14Kは、オブジェクト画像の表示サイズの変更に応じて、表示サイズが大きく変更されるほど奥行きが短く、表示サイズが小さく変更されるほど奥行きが長くなるように、変更後の奥行きを算出することとなる。   Here, the display control unit 14T (first display control unit 14G), which will be described later, draws a virtual object in an area corresponding to the reference plane of the real space in the virtual space. For this reason, the first calculation unit 14K changes the display so that the depth is shorter as the display size is largely changed and the depth is longer as the display size is changed according to the change in the display size of the object image. Will be calculated.

第2算出部14Lは、導出部14Eで導出された第1相対方向に位置する基準平面の、第2姿勢情報を算出する。第2姿勢情報は、現在の撮影部12の撮影方向A2に対する、設定された基準平面の姿勢を示す情報である。   The second calculation unit 14L calculates the second posture information of the reference plane located in the first relative direction derived by the deriving unit 14E. The second posture information is information indicating the set posture of the reference plane with respect to the current shooting direction A2 of the shooting unit 12.

第2姿勢情報は、第1姿勢情報と同様に、撮影部12の撮影方向A2に対する、回転角(ロール角α、ピッチ角β、ヨー角γ)で表される。   Similarly to the first posture information, the second posture information is represented by a rotation angle (roll angle α, pitch angle β, yaw angle γ) with respect to the shooting direction A2 of the shooting unit 12.

第2算出部14Lは、以下のようにして第2姿勢情報を算出する。第2算出部14Lは、基準平面の設定時の撮影方向A2から現在の撮影方向A2への回転角度(A−A)の逆方向の回転角度を算出することで、第2姿勢情報を算出する。第2姿勢情報は、下記式(2)で表せる。 The second calculation unit 14L calculates the second posture information as follows. The second calculation unit 14L calculates the second posture information by calculating a rotation angle in a direction opposite to the rotation angle (A t −A 0 ) from the shooting direction A2 at the time of setting the reference plane to the current shooting direction A2. calculate. The second posture information can be expressed by the following formula (2).

(A−A)=(α,β,γ)・・・式(2) (A 0 −A t ) = (α 0 −α t , β 0 −β t , γ 0 −γ t ) (2)

第3算出部14Mは、実空間における、基準平面の第1位置を算出する。第1位置は、実空間における、基準平面として設定された平面(壁面)における特定の位置を示す。この位置は、ユーザによって設定される。なお、第3算出部14Mは、基準平面における、基準平面の設定時の撮影方向A2との交点に相当する位置を、第1位置として算出してもよい。   The third calculation unit 14M calculates the first position of the reference plane in real space. The first position indicates a specific position on a plane (wall surface) set as a reference plane in real space. This position is set by the user. Note that the third calculation unit 14M may calculate a position on the reference plane that corresponds to the intersection with the shooting direction A2 when the reference plane is set as the first position.

また、第3算出部14Mは、現在の撮影部12の撮影方向A2を、基準平面の設定時の撮影方向A2から現在の撮影方向A2への回転角度(A−A)分、逆の回転方向に回転させた位置を、第1位置として算出してもよい。 Further, the third calculation unit 14M reverses the current shooting direction A2 of the shooting unit 12 by the rotation angle (A t −A 0 ) from the shooting direction A2 when the reference plane is set to the current shooting direction A2. The position rotated in the rotation direction may be calculated as the first position.

第4算出部14Sは、第1距離に対する、第2距離の倍率を算出する。第1距離は、基準平面の設定に用いた第1姿勢情報によって特定される姿勢の撮影部12と、基準平面と、の距離を示す。すなわち、第1距離は、変更前の奥行きに相当する。   The fourth calculation unit 14S calculates the magnification of the second distance with respect to the first distance. The first distance indicates the distance between the photographing unit 12 having the posture specified by the first posture information used for setting the reference plane and the reference plane. That is, the first distance corresponds to the depth before change.

第2距離は、撮影部12と、撮影部12を原点として撮影方向A2の回転角度に応じた角度、基準平面を回転させた仮平面と、の距離を示す。   The second distance indicates the distance between the photographing unit 12 and the provisional plane obtained by rotating the reference plane with an angle corresponding to the rotation angle in the photographing direction A2 with the photographing unit 12 as the origin.

図13は、第1距離に対する第2距離の倍率算出の説明図である。   FIG. 13 is an explanatory diagram for calculating the magnification of the second distance with respect to the first distance.

図13(A)および図13(B)に示すように、基準平面(図13(B)では、基準平面S’とする)の設定時には、撮影部12の撮影方向A2に交差する壁面(平面)が基準平面として設定される。このため、表示部20には、後述する第1表示制御部14Gによる処理によって、実空間画像42における該基準平面に対応する領域に仮想オブジェクトを描画したオブジェクト画像40が表示されることとなる。   As shown in FIGS. 13A and 13B, when a reference plane (reference plane S ′ in FIG. 13B) is set, a wall surface (plane that intersects the shooting direction A2 of the shooting unit 12 is set. ) Is set as the reference plane. For this reason, the object image 40 in which the virtual object is drawn in the region corresponding to the reference plane in the real space image 42 is displayed on the display unit 20 by processing by the first display control unit 14G described later.

図13(C)および図13(D)に示すように、図13(A)および図13(B)に示す状態から、画像処理装置10を回転させる。すなわち、画像処理装置10を回転させ、撮影部12の撮影方向A2を、Y軸を回転軸として右回り(図13(C)および図13(D)中、矢印R1方向)に角度θ回転させたとする。この場合、実空間における基準平面(図13(D)中、基準平面S’参照)の位置は動かないことから、基準平面の、撮影方向A2に対する第1相対方向は、撮影方向A2からY軸を回転軸として左回り(図13(E)および図13(F)中、矢印−R1方向)に角度−θ回転させた方向となる。   As shown in FIGS. 13C and 13D, the image processing apparatus 10 is rotated from the state shown in FIGS. 13A and 13B. That is, the image processing apparatus 10 is rotated, and the shooting direction A2 of the shooting unit 12 is rotated clockwise by the angle θ about the Y axis as a rotation axis (in the direction of arrow R1 in FIGS. 13C and 13D). Suppose. In this case, since the position of the reference plane in the real space (see the reference plane S ′ in FIG. 13D) does not move, the first relative direction of the reference plane with respect to the shooting direction A2 is the Y axis from the shooting direction A2. Is a direction rotated counterclockwise by an angle −θ in the counterclockwise direction (in the direction of the arrow −R1 in FIGS. 13E and 13F).

そして、第4算出部14Sは、撮影部12を原点として撮影方向A2の回転角度θに応じた角度、基準平面S’を回転させた仮平面31を設定する。   Then, the fourth calculation unit 14S sets the provisional plane 31 obtained by rotating the reference plane S 'by an angle corresponding to the rotation angle θ in the shooting direction A2 with the shooting unit 12 as the origin.

このとき、基準平面の設定時に用いた第1姿勢情報によって特定される姿勢の撮影部12と、基準平面S’と、の第1距離を「1」とする。すると、撮影部12と仮平面31との第2距離は、1/cosθで表せる。第4算出部14Sは、この1/cosθを、第1距離に対する第2距離の倍率(以下、第3倍率と称する)として算出する。   At this time, the first distance between the photographing unit 12 having the posture specified by the first posture information used at the time of setting the reference plane and the reference plane S ′ is set to “1”. Then, the second distance between the imaging unit 12 and the provisional plane 31 can be expressed by 1 / cos θ. The fourth calculator 14S calculates 1 / cos θ as a magnification of the second distance with respect to the first distance (hereinafter referred to as a third magnification).

詳細は後述するが、第1表示制御部14Gは、基準平面に描画する仮想オブジェクトを、基準平面の設定時に比べて該倍率に応じた距離、奥行き方向に配置する。具体的には、該倍率が1以上である場合、奥行き方向の手前側(視点位置側)に配置し、該倍率が1未満である場合、奥行き方向の奥側(視点位置から離れる側)に配置する。   Although the details will be described later, the first display control unit 14G arranges the virtual object to be drawn on the reference plane in the distance and depth directions according to the magnification compared to when the reference plane is set. Specifically, when the magnification is 1 or more, it is arranged on the near side in the depth direction (viewpoint position side), and when the magnification is less than 1, it is on the back side in the depth direction (side away from the viewpoint position). Deploy.

また、第1表示制御部14Gは、基準平面の設定時に対して、上記第3倍率に応じて拡大または縮小した大きさの仮想オブジェクトのオブジェクト画像を、基準平面に対応する領域に描画する(図13(E)、図13(F)参照)。具体的には、第1表示制御部14Gは、表示するオブジェクト画像の大きさを、cosθ倍した大きさとして、描画する。   Further, the first display control unit 14G draws the object image of the virtual object having a size enlarged or reduced according to the third magnification in the region corresponding to the reference plane when the reference plane is set (see FIG. 13 (E), FIG. 13 (F)). Specifically, the first display control unit 14G draws the object image to be displayed as a size obtained by multiplying the size of the object image by cos θ.

なお、基準平面の設定後に、変更部14Wによって表示サイズが変更された場合、第1表示制御部14Gは、変更部14Wによって変更された表示サイズに対して、上記第3倍率に応じて拡大または縮小した大きさの仮想オブジェクトのオブジェクト画像を、基準平面に対応する領域に描画する。   When the display size is changed by the changing unit 14W after the reference plane is set, the first display control unit 14G increases or decreases the display size changed by the changing unit 14W according to the third magnification. An object image of the reduced size virtual object is drawn in an area corresponding to the reference plane.

図5に戻り、光源設定部14Fは、光源の光源効果を示す光源情報を設定する。本実施の形態では、光源設定部14Fは、第3受付部14Qで受け付けた光源情報を設定する。   Returning to FIG. 5, the light source setting unit 14 </ b> F sets light source information indicating the light source effect of the light source. In the present embodiment, the light source setting unit 14F sets the light source information received by the third receiving unit 14Q.

表示制御部14Tは、各種画像を表示部20(UI部19)に表示する制御を行う。   The display control unit 14T performs control to display various images on the display unit 20 (UI unit 19).

表示制御部14Tは、第1表示制御部14Gと、第2表示制御部14Uと、を含む。   The display control unit 14T includes a first display control unit 14G and a second display control unit 14U.

第1表示制御部14Gは、撮影部12によって撮影された実空間画像と、仮想オブジェクトを仮想空間に描画したオブジェクト画像と、の重畳画像を、表示部20(UI部19)に表示する制御を行う。上述したように、第1表示制御部14Gは、OpenGLを用いて、重畳画像を表示する。   The first display control unit 14G performs control for displaying a superimposed image of the real space image photographed by the photographing unit 12 and the object image obtained by drawing the virtual object in the virtual space on the display unit 20 (UI unit 19). Do. As described above, the first display control unit 14G displays a superimposed image using OpenGL.

本実施の形態では、第1表示制御部14Gは、仮想空間(例えば、仮想三次元空間)に実空間画像を配置する。また、第1表示制御部14Gは、この実空間画像における基準平面に対応する領域に、第2姿勢情報の姿勢の仮想オブジェクトを描画してオブジェクト画像とする。そして、第1表示制御部14Gは、この実空間画像と、このオブジェクト画像と、の重畳画像を、表示部20(UI部19)に表示する制御を行う。   In the present embodiment, the first display control unit 14G arranges a real space image in a virtual space (for example, a virtual three-dimensional space). In addition, the first display control unit 14G draws a virtual object having the posture of the second posture information in an area corresponding to the reference plane in the real space image to obtain an object image. Then, the first display control unit 14G performs control to display a superimposed image of the real space image and the object image on the display unit 20 (UI unit 19).

図14は、重畳画像の表示の説明図である。図14(A)に示すように、重畳画像44は、実空間画像42に、オブジェクト画像40を重畳した画像である。   FIG. 14 is an explanatory diagram of displaying a superimposed image. As shown in FIG. 14A, the superimposed image 44 is an image in which the object image 40 is superimposed on the real space image 42.

まず、第1表示制御部14Gは、仮想三次元空間に実空間画像42を配置する。第1表示制御部14Gは、順次撮影される実空間画像42を順次取得し、最新の(現在の)実空間画像42を仮想三次元空間に配置する。   First, the first display control unit 14G arranges the real space image 42 in the virtual three-dimensional space. The first display control unit 14G sequentially acquires real space images 42 that are sequentially captured, and arranges the latest (current) real space image 42 in the virtual three-dimensional space.

そして、第1表示制御部14Gは、仮想三次元空間における、視点位置から実空間画像42の中央に向かう方向を現在の撮影方向A2とし、第1相対方向(撮影部12の撮影方向A2に対する基準平面の相対方向)に、第2姿勢情報の姿勢の仮想オブジェクトを描画して、オブジェクト画像40とする。仮想三次元空間における、第1相対方向に仮想オブジェクトを描画することで、実空間画像42における基準平面に対応する領域に、仮想オブジェクトを描画することができる。なお、このとき、第1表示制御部14Gは、オブジェクト画像40に、光源情報によって示される光源効果を付与することが好ましい。   Then, the first display control unit 14G sets the direction from the viewpoint position toward the center of the real space image 42 in the virtual three-dimensional space as the current shooting direction A2, and the first relative direction (reference to the shooting direction A2 of the shooting unit 12). A virtual object having the posture of the second posture information is drawn in the relative direction of the plane to obtain an object image 40. By drawing the virtual object in the first relative direction in the virtual three-dimensional space, the virtual object can be drawn in an area corresponding to the reference plane in the real space image 42. At this time, it is preferable that the first display control unit 14G provides the object image 40 with the light source effect indicated by the light source information.

そして、第1表示制御部14Gは、OpenGLを用いて、この仮想三次元空間を、撮影方向A2の上流側の視点位置から視認した二次元画像に投影することで、実空間画像42とオブジェクト画像40とを重畳した重畳画像44を生成し、表示部20に表示する。   Then, the first display control unit 14G uses the OpenGL to project the virtual three-dimensional space onto the two-dimensional image viewed from the viewpoint position on the upstream side in the shooting direction A2, so that the real space image 42 and the object image are displayed. 40 is generated and displayed on the display unit 20.

そして、第1表示制御部14Gは、この表示処理を、ユーザによる表示処理の終了を示す終了指示を第3受付部14Qから受け付けるまで、繰り返し実行する。   Then, the first display control unit 14G repeatedly executes this display process until an end instruction indicating the end of the display process by the user is received from the third reception unit 14Q.

このため、画像処理装置10が回転することで、撮影部12の撮影方向A2が回転すると、撮影方向A2に対する第1相対方向に、第2姿勢情報の姿勢でオブジェクト画像40が表示されることとなる。このため、図14(B)に示すように、表示部20に表示された重畳画像44に含まれるオブジェクト画像40は、撮影部12の撮影方向A2の回転方向(図14(B)中、矢印R方向参照)とは逆方向(図14(B)中、矢印−R方向参照)に、回転することとなる。   For this reason, when the image processing apparatus 10 rotates and the image capturing direction A2 of the image capturing unit 12 rotates, the object image 40 is displayed with the attitude of the second attitude information in the first relative direction with respect to the image capturing direction A2. Become. For this reason, as shown in FIG. 14B, the object image 40 included in the superimposed image 44 displayed on the display unit 20 is the rotation direction of the shooting direction A2 of the shooting unit 12 (in FIG. 14B, the arrow It rotates in the opposite direction (see R direction) (see arrow -R direction in FIG. 14B).

すなわち、設定部14Hで設定された基準平面に、オブジェクト画像40をあたかも貼り付けたかのような重畳画像44が、表示部20に表示されることとなる。また、撮影部12の回転に応じて、オブジェクト画像40は、基準平面に貼り付いたままの状態を維持したまま、表示部20の画面上において、撮影部12の回転方向とは逆方向に移動するように、表示されることとなる。   That is, the superimposed image 44 is displayed on the display unit 20 as if the object image 40 was pasted on the reference plane set by the setting unit 14H. Further, according to the rotation of the photographing unit 12, the object image 40 is moved in the direction opposite to the rotation direction of the photographing unit 12 on the screen of the display unit 20 while maintaining the state of being stuck to the reference plane. Will be displayed.

また、第1表示制御部14Gは、実空間画像42における、第1位置の基準平面に対応する領域に、第2姿勢情報の姿勢の仮想オブジェクトを描画したオブジェクト画像40を重畳した重畳画像44を、表示部20に表示する制御を行う。   In addition, the first display control unit 14G displays a superimposed image 44 in which an object image 40 in which a virtual object having a posture of the second posture information is drawn is superimposed on a region corresponding to the reference plane of the first position in the real space image 42. Then, control is performed to display on the display unit 20.

このため、画像処理装置10が回転された場合であっても、オブジェクト画像40は、設定部14Hで設定された基準平面にあたかも貼り付いたかのような状態で、表示部20に表示されることとなる。   For this reason, even when the image processing apparatus 10 is rotated, the object image 40 is displayed on the display unit 20 as if it was attached to the reference plane set by the setting unit 14H. Become.

図15は、オブジェクト画像40の表示の説明図である。   FIG. 15 is an explanatory diagram of the display of the object image 40.

図15(A)および図15(B)に示すように、基準平面(図15(B)では、基準平面S’とする)の設定時には、撮影部12の撮影方向A2に交差する壁面(平面)が基準平面S’として設定される。このため、第1表示制御部14Gによる処理によって、実空間画像42における該基準平面S’に対応する領域に仮想オブジェクトを描画したオブジェクト画像40が表示されることとなる。   As shown in FIGS. 15A and 15B, when a reference plane (referred to as reference plane S ′ in FIG. 15B) is set, a wall surface (plane that intersects the shooting direction A2 of the shooting unit 12 is set. ) Is set as the reference plane S ′. Therefore, the object image 40 in which the virtual object is drawn is displayed in the area corresponding to the reference plane S ′ in the real space image 42 by the processing by the first display control unit 14G.

図15(C)および図15(D)に示すように、図15(A)および図15(B)に示す状態から、画像処理装置10を矢印R1方向に回転させたとする。すなわち、画像処理装置10を回転させ、撮影部12の撮影方向A2を、Y軸を回転軸として右回り(図15(C)および図15(D)中、矢印R1方向)に角度θ回転させたとする。この場合、実空間における基準平面S’の位置は動かないことから、基準平面S’の第1相対方向は、撮影方向A2からY軸を回転軸として左回りに角度−θ回転させた方向となる。   As shown in FIGS. 15C and 15D, it is assumed that the image processing apparatus 10 is rotated in the direction of the arrow R1 from the state shown in FIGS. 15A and 15B. That is, the image processing apparatus 10 is rotated, and the shooting direction A2 of the shooting unit 12 is rotated clockwise by the angle θ about the Y axis as a rotation axis (in the direction of arrow R1 in FIGS. 15C and 15D). Suppose. In this case, since the position of the reference plane S ′ in the real space does not move, the first relative direction of the reference plane S ′ is the direction rotated counterclockwise by the angle −θ from the shooting direction A2 about the Y axis as the rotation axis. Become.

図15(E)および図15(F)に示すように、画像処理装置10を基準として考察すると、画像処理装置10を中心にして仮想オブジェクトを角度−θ回転させたことに等しい。   As shown in FIGS. 15E and 15F, considering the image processing apparatus 10 as a reference, this is equivalent to rotating the virtual object about the image processing apparatus 10 by an angle −θ.

そして、第1表示制御部14Gは、現在の実空間の実空間画像における、第1位置の基準平面に対応する領域に、第2姿勢情報の姿勢の仮想オブジェクトを描画する。   Then, the first display control unit 14G draws the virtual object having the posture of the second posture information in a region corresponding to the reference plane of the first position in the real space image of the current real space.

第1位置は、例えば、現在の撮影部12の撮影方向A2を、基準平面の設定時の撮影方向A2から現在の撮影方向A2への回転角度(A−A)分、逆の回転方向に回転させた位置である。このため、図15(E)および図15(F)に示すように、第1表示制御部14Gは、画像処理装置10(撮影部12)の回転方向とは逆方向に同じ回転角度回転させた位置である第1位置に、オブジェクト画像40が配置されるように、オブジェクト画像40を回転させる。そして、第1表示制御部14Gは、重畳画像を表示する。 The first position is, for example, the reverse rotation direction of the current shooting direction A2 of the shooting unit 12 by the rotation angle (A t −A 0 ) from the shooting direction A2 when setting the reference plane to the current shooting direction A2. This is the position rotated. For this reason, as shown in FIGS. 15E and 15F, the first display control unit 14G is rotated by the same rotation angle in the direction opposite to the rotation direction of the image processing apparatus 10 (imaging unit 12). The object image 40 is rotated so that the object image 40 is arranged at the first position that is the position. Then, the first display control unit 14G displays a superimposed image.

このため、オブジェクト画像40は、実空間上の設定された基準平面(壁面など)に固定された状態で、表示される。   For this reason, the object image 40 is displayed in a state of being fixed to a set reference plane (such as a wall surface) in the real space.

ここで、本実施の形態の画像処理装置10では、上述したように、第2受付部14Pが、重畳画像に含まれるオブジェクト画像の、表示サイズの変更指示を受付ける。すると、変更部14Wは、重畳画像に含まれるオブジェクト画像を、変更指示によって示される表示サイズに変更する。そして、第1算出部14Kは、変更前のオブジェクト画像の表示サイズに対する、変更後のオブジェクト画像の表示サイズの第1倍率と、変更前の実サイズと、の第1乗算値を、変更後の実サイズとして算出する。   Here, in the image processing apparatus 10 of the present embodiment, as described above, the second reception unit 14P receives an instruction to change the display size of the object image included in the superimposed image. Then, the changing unit 14W changes the object image included in the superimposed image to the display size indicated by the change instruction. Then, the first calculation unit 14K obtains the first multiplication value of the first magnification of the display size of the object image after the change and the actual size before the change with respect to the display size of the object image before the change, after the change. Calculate as the actual size.

第2表示制御部14Uは、第1算出部14Kによって算出された変更後の実サイズを、表示部20(UI部19)に表示する。   The second display control unit 14U displays the changed actual size calculated by the first calculation unit 14K on the display unit 20 (UI unit 19).

図16は、オブジェクト画像の表示サイズの変更の流れの説明図である。   FIG. 16 is an explanatory diagram of the flow of changing the display size of an object image.

まず、撮影部12が、実空間SAを撮影し、実空間画像42を得たとする(図16(A)、図16(B)参照)。この場合、第2取得部14Bは、実空間SAの実空間画像42を撮影部12から取得する。   First, it is assumed that the photographing unit 12 photographs the real space SA and obtains a real space image 42 (see FIGS. 16A and 16B). In this case, the second acquisition unit 14B acquires the real space image 42 of the real space SA from the imaging unit 12.

第1表示制御部14Gが実空間画像42をUI部19に表示すると、UI部19の表示部20には、実空間画像42が表示されることとなる(図16(B)参照)。   When the first display control unit 14G displays the real space image 42 on the UI unit 19, the real space image 42 is displayed on the display unit 20 of the UI unit 19 (see FIG. 16B).

そして、第1受付部14Cが、仮想オブジェクト50Aの実サイズをUI部19から受け付ける(図16(C)参照)。例えば、ユーザによるUI部19の操作により、第1受付部14Cは、縦1200mm×横800mmの実サイズを示すサイズ情報48Aと、奥行きと、をUI部19から受け付ける。   Then, the first receiving unit 14C receives the actual size of the virtual object 50A from the UI unit 19 (see FIG. 16C). For example, when the user operates the UI unit 19, the first receiving unit 14 </ b> C receives the size information 48 </ b> A indicating the actual size of 1200 mm in length × 800 mm in width and the depth from the UI unit 19.

第1表示制御部14Gは、仮想三次元空間に実空間画像42を配置する。また、第1表示制御部14Gは、実空間画像42の基準平面上に、仮想オブジェクト50Aを描画して、オブジェクト画像40Aとする。そして、第1表示制御部14Gは、実空間画像42とオブジェクト画像40Aとの重畳画像44Aを、UI部19に表示する(図16(D)参照)。   The first display control unit 14G arranges the real space image 42 in the virtual three-dimensional space. Further, the first display control unit 14G draws the virtual object 50A on the reference plane of the real space image 42 to obtain an object image 40A. Then, the first display control unit 14G displays a superimposed image 44A of the real space image 42 and the object image 40A on the UI unit 19 (see FIG. 16D).

そして、ユーザによるUI部19(入力部18)の操作により、重畳画像44におけるオブジェクト画像40Aの表示サイズの変更が指示されたとする。すると、変更部14Wは、重畳画像44に含まれるオブジェクト画像40Aを、変更指示によって示される表示サイズに変更する。このため、UI部19(表示部20)には、実空間画像42と、変更後の表示サイズのオブジェクト画像40Bと、の重畳画像44Bが表示される(図16(E)参照)。   Then, it is assumed that the user has instructed to change the display size of the object image 40A in the superimposed image 44 by operating the UI unit 19 (input unit 18). Then, the changing unit 14W changes the object image 40A included in the superimposed image 44 to the display size indicated by the change instruction. For this reason, the superimposed image 44B of the real space image 42 and the object image 40B having the changed display size is displayed on the UI unit 19 (display unit 20) (see FIG. 16E).

第1算出部14Kは、変更前のオブジェクト画像40Aの表示サイズに対する、変更後のオブジェクト画像40Bの表示サイズの第1倍率と、変更前の実サイズと、の第1乗算値を、変更後の実サイズとして算出する。図16に示す例では、例えば、第1算出部14Kは、変更後の実サイズとして、縦800mm×横600mmの実サイズを示すサイズ情報48Bを算出する(図16(F)参照)。   The first calculation unit 14K obtains the first multiplication value of the first magnification of the display size of the object image 40B after the change and the actual size before the change with respect to the display size of the object image 40A before the change, after the change. Calculate as the actual size. In the example illustrated in FIG. 16, for example, the first calculation unit 14K calculates the size information 48B indicating the actual size of 800 mm long × 600 mm wide as the actual size after the change (see FIG. 16F).

第2表示制御部14Uは、第1算出部14Kによって算出された、変更後の実サイズを示す情報52を、表示部20(UI部19)に表示する。   The second display control unit 14U displays, on the display unit 20 (UI unit 19), information 52 calculated by the first calculation unit 14K and indicating the changed actual size.

このため、図17に示すように、表示部20(UI部19)には、現在表示されているオブジェクト画像40Bの表示サイズに対応する、仮想オブジェクト50Bの実サイズを示す情報52が表示されることとなる。   For this reason, as shown in FIG. 17, information 52 indicating the actual size of the virtual object 50B corresponding to the display size of the currently displayed object image 40B is displayed on the display unit 20 (UI unit 19). It will be.

また、第1算出部14Kが、変更後の奥行きを算出した場合、第2表示制御部14Uは、変更後の奥行きを、表示部20(UI部19)に更に表示してもよい。この場合、図17に示すように、表示部20(UI部19)には、現在表示されているオブジェクト画像40Bの表示サイズに対応する、仮想オブジェクト50Bの実サイズと、奥行きと、を示す情報が表示されることとなる。   When the first calculation unit 14K calculates the changed depth, the second display control unit 14U may further display the changed depth on the display unit 20 (UI unit 19). In this case, as shown in FIG. 17, the display unit 20 (UI unit 19) has information indicating the actual size and depth of the virtual object 50B corresponding to the display size of the currently displayed object image 40B. Will be displayed.

次に、画像処理装置10で実行する表示処理の手順を説明する。図18は、画像処理装置10で実行する表示処理の手順を示すシーケンス図である。   Next, a display processing procedure executed by the image processing apparatus 10 will be described. FIG. 18 is a sequence diagram illustrating a procedure of display processing executed by the image processing apparatus 10.

まず、受付部14Oが、仮想オブジェクトの、実空間における実サイズと、実空間における撮影部12に対する仮想オブジェクト(基準平面)の奥行きと、を受け付ける(SEQ99)。SEQ99では、詳細には、受付部14Oの第1受付部14Cが実サイズを受け付ける。また、受付部14Oの第4受付部14Rが、奥行きを受け付ける。そして、表示制御部14Tへ出力する。   First, the receiving unit 14O receives the actual size of the virtual object in the real space and the depth of the virtual object (reference plane) with respect to the photographing unit 12 in the real space (SEQ99). In SEQ99, in detail, the first receiving unit 14C of the receiving unit 14O receives the actual size. Further, the fourth receiving unit 14R of the receiving unit 14O receives the depth. And it outputs to the display control part 14T.

次に、受付部14Oの第3受付部14Qが、ユーザから基準平面の設定指示を受け付け、設定処理部14Dへ出力する(SEQ100)。   Next, the third receiving unit 14Q of the receiving unit 14O receives a reference plane setting instruction from the user, and outputs it to the setting processing unit 14D (SEQ100).

設定処理部14Dの設定部14Hは、設定指示を受け付けたときに第1取得部14Aで取得した第1姿勢情報を読取る(SEQ101)。そして、設定部14Hは、SEQ101で読取った第1姿勢情報を用いて、基準平面を設定する(SEQ102)。   The setting unit 14H of the setting processing unit 14D reads the first posture information acquired by the first acquisition unit 14A when a setting instruction is received (SEQ101). Then, the setting unit 14H sets the reference plane using the first posture information read in SEQ101 (SEQ102).

なお、SEQ99の処理は、SEQ102とSEQ106との間の何れかのタイミングで行ってもよい。   Note that the processing of SEQ99 may be performed at any timing between SEQ102 and SEQ106.

導出部14Nは、検出部25で新たな第1姿勢情報が検出される度に、撮影部12の撮影方向A2に対する、設定された基準平面の第1相対方向を導出し(SEQ103)、算出部14Eおよび第1表示制御部14Gへ出力する(SEQ106)。また、算出部14Eの第2算出部14Lは、第1相対方向が導出される度に、第2姿勢情報を算出し(SEQ104)、算出部14Eおよび第1表示制御部14Gへ出力する(SEQ106)。   The deriving unit 14N derives the first relative direction of the set reference plane with respect to the photographing direction A2 of the photographing unit 12 every time new first posture information is detected by the detecting unit 25 (SEQ103), and the calculating unit 14E and the first display control unit 14G (SEQ106). Further, the second calculation unit 14L of the calculation unit 14E calculates the second posture information (SEQ104) each time the first relative direction is derived (SEQ104), and outputs the second posture information to the calculation unit 14E and the first display control unit 14G (SEQ106). ).

また、設定処理部14Dの判定部14Iが、基準平面を設定したときから撮影方向A2が予め定めた第1相対角度以上回転したか否かを判定する(SEQ105)。   Further, the determination unit 14I of the setting processing unit 14D determines whether or not the shooting direction A2 has been rotated by a predetermined first relative angle or more after setting the reference plane (SEQ105).

そして、第1相対角度未満回転したと判定されたときは、設定された基準平面を第1表示制御部14Gへ通知する(SEQ106)。一方、第1相対角度以上回転したと判定されたときは、再設定部14Jが、基準平面を再設定し、再設定した基準平面を、第1表示制御部14Gへ通知する(SEQ106)。   When it is determined that the rotation is less than the first relative angle, the set reference plane is notified to the first display control unit 14G (SEQ106). On the other hand, when it is determined that the rotation is greater than the first relative angle, the resetting unit 14J resets the reference plane and notifies the reset reference plane to the first display control unit 14G (SEQ106).

第1表示制御部14Gは、後述する表示処理によって、撮影部12で撮影された実空間画像42における、基準平面に対応する領域に、第2姿勢情報の姿勢の仮想オブジェクトを描画したオブジェクト画像40を重畳した重畳画像44を、表示部20に表示する制御を行う(SEQ107)。   The first display control unit 14G draws a virtual object having the posture of the second posture information in a region corresponding to the reference plane in the real space image 42 photographed by the photographing unit 12 by display processing described later. Is then displayed on the display unit 20 (SEQ107).

具体的には、画像処理装置10では、以下のSEQ108〜SEQ120の処理を繰り返し実行する。   Specifically, the image processing apparatus 10 repeatedly executes the following processing of SEQ108 to SEQ120.

まず、第1表示制御部14Gが算出部14Eに、第2姿勢情報と、第1位置と、第1距離に対する第2距離の倍率と、の算出指示を出力する(SEQ108)。   First, the first display control unit 14G outputs a calculation instruction of the second posture information, the first position, and the magnification of the second distance with respect to the first distance to the calculation unit 14E (SEQ108).

算出部14Eの第2算出部14L、第3算出部14M、および第4算出部14Sは、第2姿勢情報、第1位置、および第1距離に対する第2距離の倍率を算出する(SEQ110)。そして、算出部14Eは、算出した第2姿勢情報、第1位置、および第1距離に対する第2距離の倍率を、第1表示制御部14Gへ出力する(SEQ112)。   The second calculation unit 14L, the third calculation unit 14M, and the fourth calculation unit 14S of the calculation unit 14E calculate the second posture information, the first position, and the magnification of the second distance with respect to the first distance (SEQ110). Then, the calculation unit 14E outputs the calculated second attitude information, the first position, and the magnification of the second distance with respect to the first distance to the first display control unit 14G (SEQ112).

第1表示制御部14Gは、光源情報を光源設定部14Fから取得する(SEQ114)。次に、第1表示制御部14Gは、実空間画像42を第2取得部14Bから取得する(SEQ116)。   The first display control unit 14G acquires the light source information from the light source setting unit 14F (SEQ114). Next, the first display control unit 14G acquires the real space image 42 from the second acquisition unit 14B (SEQ116).

そして、第1表示制御部14Gは、実空間画像42における、第1位置の基準平面に対応する領域に、第2姿勢情報の姿勢の仮想オブジェクトを描画したオブジェクト画像40を重畳した重畳画像44を生成し(SEQ118)、表示部20に表示する制御を行う(SEQ120)。そして、本シーケンスを終了する。   Then, the first display control unit 14G displays a superimposed image 44 in which the object image 40 in which the virtual object having the posture of the second posture information is drawn is superimposed on the region corresponding to the reference plane of the first position in the real space image 42. It produces | generates (SEQ118) and performs control displayed on the display part 20 (SEQ120). Then, this sequence ends.

また、画像処理装置10の表示処理部14では、第2受付部14Pが表示サイズの変更指示を受付けると、図19に示す割り込み処理を実行する。   Further, in the display processing unit 14 of the image processing apparatus 10, when the second receiving unit 14P receives an instruction to change the display size, the interrupt processing shown in FIG. 19 is executed.

図19は、割り込み処理の手順を示すシーケンス図である。   FIG. 19 is a sequence diagram illustrating a procedure of interrupt processing.

まず、第2受付部14Pが、オブジェクト画像40の、表示サイズの変更指示を受付ける(SEQ200)。第2受付部14Pは、受付けた変更指示によって示される、変更後の表示サイズを変更部14Wへ出力する(SEQ202)。   First, the second receiving unit 14P receives an instruction to change the display size of the object image 40 (SEQ200). Second receiving unit 14P outputs the changed display size indicated by the received change instruction to changing unit 14W (SEQ202).

変更部14Wは、UI部19に表示されている重畳画像44に含まれるオブジェクト画像40を、SEQ202で受け付けた、変更指示によって示される表示サイズに変更する(SEQ204)。このため、UI部19(表示部20)には、実空間画像42と、変更後の表示サイズのオブジェクト画像40Bと、の重畳画像44Bが表示される(図16(E)参照)。   The changing unit 14W changes the object image 40 included in the superimposed image 44 displayed on the UI unit 19 to the display size indicated by the change instruction received in SEQ202 (SEQ204). For this reason, the superimposed image 44B of the real space image 42 and the object image 40B having the changed display size is displayed on the UI unit 19 (display unit 20) (see FIG. 16E).

次に、変更部14Wは、SEQ202で受け付けた変更指示を、第1算出部14Kへ出力する(SEQ206)。第1算出部14Kは、変更前のオブジェクト画像40Aの表示サイズに対する、変更後のオブジェクト画像40Bの表示サイズの第1倍率を算出する。そして、第1算出部14Kは、第1倍率と、変更前の実サイズと、の第1乗算値を、変更後の実サイズとして算出する(SEQ208)。   Next, the changing unit 14W outputs the change instruction received in SEQ202 to the first calculating unit 14K (SEQ206). The first calculation unit 14K calculates the first magnification of the display size of the object image 40B after the change with respect to the display size of the object image 40A before the change. Then, the first calculation unit 14K calculates the first multiplied value of the first magnification and the actual size before the change as the actual size after the change (SEQ208).

第1算出部14Kは、算出した変更後の実サイズを、記憶部16に記憶する。このとき、第1算出部14Kは、記憶部16に既に実サイズが記憶されている場合には、新たに算出した実サイズを上書きして記憶する。このため、第1算出部14Kは、変更後の実サイズの算出時には、記憶部16に記憶されている実サイズを読取ればよい。そして、読取った実サイズを、「変更前の実サイズ」として用いればよい。   The first calculation unit 14K stores the calculated actual size after the change in the storage unit 16. At this time, if the actual size is already stored in the storage unit 16, the first calculation unit 14K overwrites and stores the newly calculated actual size. For this reason, the first calculation unit 14K may read the actual size stored in the storage unit 16 when calculating the actual size after the change. The read actual size may be used as the “actual size before change”.

そして、第1算出部14Kは、算出した、変更後の実サイズを示す情報を、第2表示制御部14Uへ出力する(SEQ210)。第2表示制御部14Uは、第1算出部14Kによって算出された、変更後の実サイズを示す情報52を、表示部20(UI部19)に表示する(SEQ212)。そして、本割り込み処理を終了する。   Then, the first calculation unit 14K outputs information indicating the calculated actual size after the change to the second display control unit 14U (SEQ210). The second display control unit 14U displays, on the display unit 20 (UI unit 19), information 52 indicating the changed actual size calculated by the first calculation unit 14K (SEQ212). Then, this interrupt process is terminated.

このため、図17に示すように、表示部20(UI部19)には、現在表示されているオブジェクト画像40Bの表示サイズに対応する、仮想オブジェクト50Bの実サイズを示す情報52が表示されることとなる。また、上述したように、第2表示制御部14Uは、変更後の奥行きを更に表示してもよい。   For this reason, as shown in FIG. 17, information 52 indicating the actual size of the virtual object 50B corresponding to the display size of the currently displayed object image 40B is displayed on the display unit 20 (UI unit 19). It will be. Further, as described above, the second display control unit 14U may further display the changed depth.

以上説明したように、本実施の形態の画像処理装置10は、撮影部12と、第1受付部14Cと、第1表示制御部14Gと、第2受付部14Pと、変更部14Wと、第1算出部14Kと、第2表示制御部14Uと、を備える。撮影部12は、実空間を撮影する。第1受付部14Cは、仮想オブジェクトの、実空間における実サイズを受け付ける。第1表示制御部14Gは、撮影部12によって撮影された実空間画像42と、仮想オブジェクトを仮想空間に描画したオブジェクト画像40と、の重畳画像44を、表示部20に表示する制御を行う。第2受付部14Pは、オブジェクト画像40の、表示サイズの変更指示を受付ける。変更部14Wは、オブジェクト画像40を、変更指示によって示される表示サイズに変更する。第1算出部14Kは、変更前のオブジェクト画像40の表示サイズに対する、変更後のオブジェクト画像40の表示サイズの第1倍率と、変更前の実サイズと、の第1乗算値を、変更後の実サイズとして算出する。第2表示制御部14Uは、変更後の実サイズを、表示部20に表示する。   As described above, the image processing apparatus 10 according to the present embodiment includes the photographing unit 12, the first receiving unit 14C, the first display control unit 14G, the second receiving unit 14P, the changing unit 14W, 1 calculation part 14K and the 2nd display control part 14U are provided. The imaging unit 12 images a real space. The first receiving unit 14C receives the actual size of the virtual object in the real space. The first display control unit 14G performs control to display a superimposed image 44 of the real space image 42 photographed by the photographing unit 12 and the object image 40 in which the virtual object is drawn in the virtual space on the display unit 20. The second receiving unit 14P receives an instruction to change the display size of the object image 40. The changing unit 14W changes the object image 40 to the display size indicated by the change instruction. The first calculation unit 14K calculates a first multiplication value of the first magnification of the display size of the object image 40 after the change and the actual size before the change with respect to the display size of the object image 40 before the change, after the change. Calculate as the actual size. The second display control unit 14U displays the actual size after the change on the display unit 20.

このように、本実施の形態の画像処理装置10では、重畳画像44に含まれるオブジェクト画像40の表示サイズの変更指示を受付ける。そして、画像処理装置10では、オブジェクト画像40に対応する仮想オブジェクトの、実空間における実サイズを、変更指示に応じたサイズに変換し、変換後の実サイズを表示部20に表示する。   As described above, the image processing apparatus 10 according to the present embodiment accepts an instruction to change the display size of the object image 40 included in the superimposed image 44. Then, the image processing apparatus 10 converts the actual size of the virtual object corresponding to the object image 40 in the real space into a size corresponding to the change instruction, and displays the converted actual size on the display unit 20.

従って、本実施の形態の画像処理装置10では、オブジェクト画像40の表示サイズの変更に応じた、実空間における仮想オブジェクトの実サイズを、ユーザに対して容易に提供することができる。   Therefore, the image processing apparatus 10 according to the present embodiment can easily provide the user with the actual size of the virtual object in the real space according to the change in the display size of the object image 40.

すなわち、本実施の形態の画像処理装置10では、UI部19に表示されたオブジェクト画像40の表示サイズがユーザによる操作によって変更されたときに、対応する実サイズの大きさを、ユーザに対して容易に確認可能に提供することができる。   That is, in the image processing apparatus 10 according to the present embodiment, when the display size of the object image 40 displayed on the UI unit 19 is changed by an operation by the user, the corresponding actual size is given to the user. It can be provided in an easily identifiable manner.

また、本実施の形態の画像処理装置10は、検出部25と、第1取得部14Aと、第3受付部14Qと、設定部14Hと、導出部14Nと、第2算出部14Lと、を備える。検出部25は、撮影部12の第1姿勢情報を検出する。第1取得部14Aは、検出部24から第1姿勢情報を取得する。第3受付部14Qは、設定指示を受け付ける。設定部14Hは、設定指示を受け付けたときに、実空間における、仮想オブジェクトを配置する基準平面を、第1姿勢情報に応じて設定する。導出部14Nは、撮影部12の撮影方向に対する、基準平面の第1相対方向を導出する。第2算出部14Lは、第1相対方向に位置する基準平面の、第2姿勢情報を算出する。第1表示制御部14Gは、仮想空間に配置した実空間画像42と、実空間画像42における基準平面に対応する領域に、第2姿勢情報の姿勢の仮想オブジェクトを描画したオブジェクト画像40と、の重畳画像44を、表示部20に表示する制御を行う。   The image processing apparatus 10 according to the present embodiment includes the detection unit 25, the first acquisition unit 14A, the third reception unit 14Q, the setting unit 14H, the derivation unit 14N, and the second calculation unit 14L. Prepare. The detection unit 25 detects the first posture information of the photographing unit 12. The first acquisition unit 14A acquires the first posture information from the detection unit 24. The third receiving unit 14Q receives a setting instruction. When the setting unit 14H receives a setting instruction, the setting unit 14H sets a reference plane in which virtual objects are arranged in real space according to the first posture information. The deriving unit 14N derives the first relative direction of the reference plane with respect to the shooting direction of the shooting unit 12. The second calculation unit 14L calculates the second posture information of the reference plane located in the first relative direction. The first display control unit 14G includes a real space image 42 arranged in the virtual space, and an object image 40 in which a virtual object having the posture of the second posture information is drawn in an area corresponding to the reference plane in the real space image 42. Control to display the superimposed image 44 on the display unit 20 is performed.

このように、本実施の形態の画像処理装置10では、実空間における基準平面を設定し、実空間画像における、基準平面に対応する領域に、仮想オブジェクトを描画して表示部20に表示する。このため、本実施の形態の画像処理装置10では、ARマーカなどを実空間に設置する必要なく、AR技術を実現することができる。   As described above, in the image processing apparatus 10 according to the present embodiment, the reference plane in the real space is set, and the virtual object is drawn and displayed on the display unit 20 in the area corresponding to the reference plane in the real space image. For this reason, in the image processing apparatus 10 according to the present embodiment, it is possible to realize the AR technology without having to install an AR marker or the like in the real space.

このため、本実施の形態の画像処理装置10では、上記効果に加えて、実空間の環境に依存せず、容易に拡張現実による画像を提供することができる。   Therefore, in addition to the above effects, the image processing apparatus 10 according to the present embodiment can easily provide an augmented reality image without depending on the environment of the real space.

また、本実施の形態の画像処理装置10は、第4受付部14Rを備える。第4受付部14Rは、実空間における、撮影部12に対する基準平面の奥行きを受け付ける。この場合、第1算出部14Kは、変更後のオブジェクト画像40の表示サイズに対する、変更前のオブジェクト画像40の表示サイズの第2倍率と、変更前の奥行きと、の第2乗算値を、変更後の奥行きとして算出する。第2表示制御部14Uは、変更後の奥行きを、表示部20に更に表示する。   Further, the image processing apparatus 10 according to the present embodiment includes a fourth reception unit 14R. The fourth reception unit 14R receives the depth of the reference plane with respect to the imaging unit 12 in the real space. In this case, the first calculation unit 14K changes the second multiplication value of the second magnification of the display size of the object image 40 before the change and the depth before the change with respect to the display size of the object image 40 after the change. Calculated as the depth after. The second display control unit 14U further displays the changed depth on the display unit 20.

このため、本実施の形態の画像処理装置10は、UI部19に表示されたオブジェクト画像40のユーザによる操作によって表示サイズが変更されたときに、対応する実サイズの大きさ、および変更後の奥行きを、ユーザに対して容易に確認可能に提供することができる。   For this reason, when the display size is changed by the operation of the object image 40 displayed on the UI unit 19 by the user, the image processing apparatus 10 according to the present embodiment corresponds to the corresponding actual size and the changed size. The depth can be provided to the user so as to be easily confirmed.

また、仮想オブジェクトは、例えば、印刷物である。このため、本実施の形態の画像処理装置10では、印刷物を仮想空間に描画したオブジェクト画像40について、ユーザによる操作によって表示サイズが変更されたときに、対応する実サイズの大きさを、ユーザに対して容易に確認可能に提供することができる。   The virtual object is a printed material, for example. For this reason, in the image processing apparatus 10 according to the present embodiment, when the display size of the object image 40 in which the printed material is drawn in the virtual space is changed by the user's operation, the corresponding actual size is given to the user. On the other hand, it can be provided so that it can be easily confirmed.

また、設定部14Hは、実空間における、撮影方向に対して交差する平面を、基準平面として設定することが好ましい。   The setting unit 14H preferably sets a plane that intersects the shooting direction in the real space as a reference plane.

また、本実施の形態の画像処理装置10は、判定部14Iと、再設定部14Jと、を備える。判定部14Iは、基準平面の設定時に用いた第1姿勢情報と、今回取得した第1姿勢情報と、の比較結果に基づいて、基準平面を設定したときから撮影方向が予め定めた第1相対角度以上回転したか否かを判定する。再設定部14Jは、第1相対角度以上回転したと判定されたときに、基準平面を第1相対角度より大きい第2相対角度回転した平面を、新たな基準平面として再設定する。   In addition, the image processing apparatus 10 according to the present embodiment includes a determination unit 14I and a resetting unit 14J. Based on the comparison result between the first posture information used at the time of setting the reference plane and the first posture information acquired this time, the determination unit 14I has a first relative direction in which the shooting direction is determined from when the reference plane is set. It is determined whether it has rotated more than an angle. When it is determined that the resetting unit 14J has rotated more than the first relative angle, the resetting unit 14J resets the plane obtained by rotating the reference plane by a second relative angle larger than the first relative angle as a new reference plane.

次に、上述した画像処理装置10のハードウェア構成について説明する。   Next, the hardware configuration of the image processing apparatus 10 described above will be described.

図20は、画像処理装置10のハードウェア構成図である。画像処理装置10は、ハードウェア構成として、装置全体を制御するCPU2901と、各種データや各種プログラムを記憶するROM2902と、各種データや各種プログラムを記憶するRAM2903と、UI装置2904と、撮影装置2905と、検出器2906と、を主に備えており、通常のコンピュータを利用したハードウェア構成となっている。なお、UI装置2904は、図1のUI部19に相当し、撮影装置2905は、撮影部12に相当し、検出器2906は、検出部25に相当する。   FIG. 20 is a hardware configuration diagram of the image processing apparatus 10. The image processing apparatus 10 includes, as a hardware configuration, a CPU 2901 that controls the entire apparatus, a ROM 2902 that stores various data and various programs, a RAM 2903 that stores various data and various programs, a UI apparatus 2904, and a photographing apparatus 2905. The detector 2906 is mainly provided and has a hardware configuration using a normal computer. The UI device 2904 corresponds to the UI unit 19 in FIG. 1, the imaging device 2905 corresponds to the imaging unit 12, and the detector 2906 corresponds to the detection unit 25.

上記実施の形態の画像処理装置10で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。   The program executed by the image processing apparatus 10 of the above-described embodiment is an installable or executable file, such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), or the like. The program is recorded on a computer-readable recording medium and provided as a computer program product.

また、上記実施の形態の画像処理装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上記実施の形態の画像処理装置10で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。   The program executed by the image processing apparatus 10 according to the above-described embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Further, the program executed by the image processing apparatus 10 according to the above embodiment may be provided or distributed via a network such as the Internet.

また、上記実施の形態の画像処理装置10で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。   In addition, the program executed by the image processing apparatus 10 according to the above-described embodiment may be provided by being incorporated in advance in a ROM or the like.

上記実施の形態の画像処理装置10で実行されるプログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記録媒体からプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、上記各部が主記憶装置上に生成されるようになっている。   The program executed by the image processing apparatus 10 of the above embodiment has a module configuration including the above-described units, and as actual hardware, a CPU (processor) reads the program from the recording medium and executes it. Thus, each unit is loaded on the main memory, and each unit is generated on the main memory.

なお、本発明は上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせてもよい。また、種々の変形が可能である。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined. Various modifications are possible.

10 画像処理装置
12 撮影部
14A 第1取得部
14C 第1受付部
14G 第1表示制御部
14H 設定部
14J 再設定部
14K 第1算出部
14L 第2算出部
14M 第3算出部
14N 導出部
14P 第2受付部
14Q 第3受付部
14R 第4受付部
14S 第4算出部
14U 第2表示制御部
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 12 Imaging | photography part 14A 1st acquisition part 14C 1st reception part 14G 1st display control part 14H Setting part 14J Reset part 14K 1st calculation part 14L 2nd calculation part 14M 3rd calculation part 14N Deriving part 14P 1st 2 reception part 14Q 3rd reception part 14R 4th reception part 14S 4th calculation part 14U 2nd display control part

特開2013−186691号公報JP 2013-186691 A 特開2009−146406号公報JP 2009-146406 A

Claims (8)

実空間を撮影する撮影部と、
仮想オブジェクトの、実空間における実サイズを受け付ける第1受付部と、
前記撮影部によって撮影された実空間画像と、前記仮想オブジェクトを仮想空間に描画したオブジェクト画像と、の重畳画像を、表示部に表示する制御を行う第1表示制御部と、
前記オブジェクト画像の、表示サイズの変更指示を受付ける第2受付部と、
前記オブジェクト画像を、前記変更指示によって示される前記表示サイズに変更する変更部と、
変更前の前記オブジェクト画像の前記表示サイズに対する、変更後の前記オブジェクト画像の前記表示サイズの第1倍率と、変更前の前記実サイズと、の第1乗算値を、変更後の前記実サイズとして算出する第1算出部と、
変更後の前記実サイズを、前記表示部に表示する第2表示制御部と、
を備えた画像処理装置。
A shooting section for shooting a real space;
A first receiving unit that receives a real size of the virtual object in real space;
A first display control unit that performs control to display a superimposed image of a real space image captured by the imaging unit and an object image obtained by rendering the virtual object in a virtual space;
A second accepting unit for accepting an instruction to change the display size of the object image;
A change unit that changes the object image to the display size indicated by the change instruction;
The first multiplication value of the first magnification of the display size of the object image after the change and the actual size before the change with respect to the display size of the object image before the change is used as the actual size after the change. A first calculation unit for calculating;
A second display control unit for displaying the actual size after the change on the display unit;
An image processing apparatus.
前記撮影部の第1姿勢情報を検出する検出部と、
前記検出部から前記第1姿勢情報を取得する第1取得部と、
設定指示を受け付ける第3受付部と、
前記設定指示を受け付けたときに、実空間における、前記仮想オブジェクトを配置する基準平面を、前記第1姿勢情報に応じて設定する設定部と、
前記撮影部の撮影方向に対する、前記基準平面の第1相対方向を導出する導出部と、
前記第1相対方向に位置する前記基準平面の、第2姿勢情報を算出する第2算出部と、
を備え、
前記第1表示制御部は、
仮想空間に配置した前記実空間画像と、仮想空間に配置した前記実空間画像における前記基準平面に対応する領域に、前記第2姿勢情報の姿勢の前記仮想オブジェクトを描画した前記オブジェクト画像と、の前記重畳画像を、前記表示部に表示する制御を行う、
請求項1に記載の画像処理装置。
A detecting unit for detecting first posture information of the photographing unit;
A first acquisition unit that acquires the first posture information from the detection unit;
A third receiving unit for receiving setting instructions;
A setting unit that, when receiving the setting instruction, sets a reference plane in which real objects are arranged in real space according to the first posture information;
A deriving unit for deriving a first relative direction of the reference plane with respect to the shooting direction of the shooting unit;
A second calculation unit for calculating second posture information of the reference plane located in the first relative direction;
With
The first display control unit includes:
The real space image arranged in the virtual space, and the object image in which the virtual object having the posture of the second posture information is drawn in an area corresponding to the reference plane in the real space image arranged in the virtual space. Control to display the superimposed image on the display unit;
The image processing apparatus according to claim 1.
実空間における、前記撮影部に対する前記基準平面の奥行きを受け付ける第4受付部を備え、
前記第1算出部は、
変更後の前記オブジェクト画像の前記表示サイズに対する、変更前の前記オブジェクト画像の前記表示サイズの第2倍率と、変更前の前記奥行きと、の第2乗算値を、変更後の前記奥行きとして算出し、
前記第2表示制御部は、
変更後の前記奥行きを、前記表示部に更に表示する、
請求項2に記載の画像処理装置。
A fourth reception unit that receives the depth of the reference plane with respect to the imaging unit in real space;
The first calculation unit includes:
A second multiplication value of the second magnification of the display size of the object image before change and the depth before change with respect to the display size of the object image after change is calculated as the depth after change. ,
The second display controller is
The depth after the change is further displayed on the display unit.
The image processing apparatus according to claim 2.
前記仮想オブジェクトは、印刷物である、請求項1〜請求項3の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the virtual object is a printed matter. 前記設定部は、
実空間における、前記撮影方向に対して交差する平面を、前記基準平面として設定する、
請求項2に記載の画像処理装置。
The setting unit
A plane that intersects the shooting direction in real space is set as the reference plane.
The image processing apparatus according to claim 2.
前記基準平面の設定時に用いた前記第1姿勢情報と、今回取得した前記第1姿勢情報と、の比較結果に基づいて、前記基準平面を設定したときから前記撮影方向が予め定めた第1相対角度以上回転したか否かを判定する判定部と、
前記第1相対角度以上回転したと判定されたときに、前記基準平面を前記第1相対角度より大きい第2相対角度回転した平面を、新たな前記基準平面として再設定する再設定部と、を備えた、
請求項2に記載の画像処理装置。
Based on a comparison result between the first posture information used at the time of setting the reference plane and the first posture information acquired this time, the first relative direction in which the shooting direction is predetermined from when the reference plane is set. A determination unit for determining whether or not the rotation is greater than an angle;
A resetting unit that resets a plane obtained by rotating the reference plane by a second relative angle larger than the first relative angle as a new reference plane when it is determined that the rotation has been performed by the first relative angle or more. Prepared,
The image processing apparatus according to claim 2.
実空間を撮影する撮影部を備えた画像処理装置で実行する画像処理方法であって、
仮想オブジェクトの、実空間における実サイズを受け付けるステップと、
前記撮影部によって撮影された実空間画像と、前記仮想オブジェクトを仮想空間に描画したオブジェクト画像と、の重畳画像を、表示部に表示する制御を行うステップと、
前記オブジェクト画像の、表示サイズの変更指示を受付けるステップと、
前記オブジェクト画像を、前記変更指示によって示される前記表示サイズに変更するステップと、
変更前の前記オブジェクト画像の前記表示サイズに対する、変更後の前記オブジェクト画像の前記表示サイズの第1倍率と、変更前の前記実サイズと、の第1乗算値を、変更後の前記実サイズとして算出するステップと、
変更後の前記実サイズを、前記表示部に表示するステップと、
を含む、画像処理方法。
An image processing method that is executed by an image processing apparatus including a photographing unit that photographs a real space,
Accepting the actual size of the virtual object in real space;
Performing a control to display a superimposed image of a real space image photographed by the photographing unit and an object image obtained by drawing the virtual object in a virtual space on a display unit;
Receiving an instruction to change the display size of the object image;
Changing the object image to the display size indicated by the change instruction;
The first multiplication value of the first magnification of the display size of the object image after the change and the actual size before the change with respect to the display size of the object image before the change is used as the actual size after the change. A calculating step;
Displaying the actual size after the change on the display unit;
Including an image processing method.
実空間を撮影する撮影部を備えたコンピュータに、
仮想オブジェクトの、実空間における実サイズを受け付けるステップと、
前記撮影部によって撮影された実空間画像と、前記仮想オブジェクトを仮想空間に描画したオブジェクト画像と、の重畳画像を、表示部に表示する制御を行うステップと、
前記オブジェクト画像の、表示サイズの変更指示を受付けるステップと、
前記オブジェクト画像を、前記変更指示によって示される前記表示サイズに変更するステップと、
変更前の前記オブジェクト画像の前記表示サイズに対する、変更後の前記オブジェクト画像の前記表示サイズの第1倍率と、変更前の前記実サイズと、の第1乗算値を、変更後の前記実サイズとして算出するステップと、
変更後の前記実サイズを、前記表示部に表示するステップと、
を実行させるプログラム。
To a computer equipped with an imaging unit that captures real space,
Accepting the actual size of the virtual object in real space;
Performing a control to display a superimposed image of a real space image photographed by the photographing unit and an object image obtained by drawing the virtual object in a virtual space on a display unit;
Receiving an instruction to change the display size of the object image;
Changing the object image to the display size indicated by the change instruction;
The first multiplication value of the first magnification of the display size of the object image after the change and the actual size before the change with respect to the display size of the object image before the change is used as the actual size after the change. A calculating step;
Displaying the actual size after the change on the display unit;
A program that executes
JP2015012555A 2015-01-26 2015-01-26 Image processing device, image processing method, and program Pending JP2016139199A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015012555A JP2016139199A (en) 2015-01-26 2015-01-26 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015012555A JP2016139199A (en) 2015-01-26 2015-01-26 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2016139199A true JP2016139199A (en) 2016-08-04

Family

ID=56560192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015012555A Pending JP2016139199A (en) 2015-01-26 2015-01-26 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2016139199A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020509505A (en) * 2017-03-06 2020-03-26 Line株式会社 Method, apparatus and computer program for providing augmented reality
CN112422945A (en) * 2020-09-01 2021-02-26 华为技术有限公司 Image processing method, mobile terminal and storage medium
JP7417690B2 (en) 2019-06-28 2024-01-18 Lineヤフー株式会社 Programs, information processing methods, terminals

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020509505A (en) * 2017-03-06 2020-03-26 Line株式会社 Method, apparatus and computer program for providing augmented reality
JP7417690B2 (en) 2019-06-28 2024-01-18 Lineヤフー株式会社 Programs, information processing methods, terminals
CN112422945A (en) * 2020-09-01 2021-02-26 华为技术有限公司 Image processing method, mobile terminal and storage medium

Similar Documents

Publication Publication Date Title
JP6476657B2 (en) Image processing apparatus, image processing method, and program
TWI782332B (en) An augmented reality data presentation method, device and storage medium
US11217019B2 (en) Presenting image transition sequences between viewing locations
JP4508049B2 (en) 360 ° image capturing device
JP6077068B1 (en) Augmented reality system and augmented reality method
JP6748961B2 (en) Projection image adjustment system and projection image adjustment method
US20180286098A1 (en) Annotation Transfer for Panoramic Image
CN108573530B (en) Augmented reality AR interaction method and system
CN110427110B (en) Live broadcast method and device and live broadcast server
US20120120113A1 (en) Method and apparatus for visualizing 2D product images integrated in a real-world environment
JP2022537614A (en) Multi-virtual character control method, device, and computer program
CN111610998A (en) AR scene content generation method, display method, device and storage medium
KR20150082358A (en) Reference coordinate system determination
JP2011239361A (en) System and method for ar navigation and difference extraction for repeated photographing, and program thereof
WO2021238145A1 (en) Generation method and apparatus for ar scene content, display method and apparatus therefor, and storage medium
JP6488591B2 (en) Image processing apparatus, image processing method, and program
JP2019212225A (en) Terminal device and terminal device control method
US20190199992A1 (en) Information processing apparatus, method for controlling the same, and recording medium
CN110049246A (en) Video anti-fluttering method, device and the electronic equipment of electronic equipment
JP2017212510A (en) Image management device, program, image management system, and information terminal
JP2021034885A (en) Image generation device, image display device, and image processing method
JP2009251858A (en) Image conversion program and image conversion device
JP6852295B2 (en) Image processing equipment, image processing methods, and image processing programs
JP2016139199A (en) Image processing device, image processing method, and program
JP6314672B2 (en) Display processing apparatus, display processing method, and program