JP2016139199A - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP2016139199A JP2016139199A JP2015012555A JP2015012555A JP2016139199A JP 2016139199 A JP2016139199 A JP 2016139199A JP 2015012555 A JP2015012555 A JP 2015012555A JP 2015012555 A JP2015012555 A JP 2015012555A JP 2016139199 A JP2016139199 A JP 2016139199A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- display
- image
- change
- reference plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、およびプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.
現実空間の事象に対してコンピュータによる情報を付加する拡張現実(AR:Augmented Reality)技術が知られている。 Augmented reality (AR) technology for adding information by a computer to an event in a real space is known.
例えば、実空間にARマーカを設置し、該ARマーカを含む実空間を撮影して撮影画像を得る。そして、この撮影画像に含まれるARマーカの位置に仮想オブジェクトを合成して表示する技術が開示されている(例えば、特許文献1参照)。また、特許文献2には、実世界の物体の三次元位置や物理的サイズを計算する方法が開示されている。
For example, an AR marker is installed in the real space, and a photographed image is obtained by photographing the real space including the AR marker. And the technique which synthesize | combines and displays a virtual object on the position of the AR marker contained in this picked-up image is disclosed (for example, refer patent document 1).
仮想オブジェクトを仮想空間に描画してオブジェクト画像を表示した後に、該オブジェクト画像の表示サイズが変更される場合がある。従来では、オブジェクト画像の表示サイズが変更された場合、変更後のオブジェクト画像の表示サイズに対応する、変更後の仮想オブジェクトの実サイズをユーザに対して提示することは出来なかった。 After the virtual object is drawn in the virtual space and the object image is displayed, the display size of the object image may be changed. Conventionally, when the display size of the object image is changed, the actual size of the virtual object after the change corresponding to the display size of the object image after the change cannot be presented to the user.
上述した課題を解決し、目的を達成するために、本発明の画像処理装置は、実空間を撮影する撮影部と、仮想オブジェクトの、実空間における実サイズを受け付ける第1受付部と、前記撮影部によって撮影された実空間画像と、前記仮想オブジェクトを仮想空間に描画したオブジェクト画像と、の重畳画像を、表示部に表示する制御を行う第1表示制御部と、前記オブジェクト画像の、表示サイズの変更指示を受付ける第2受付部と、前記オブジェクト画像を、前記変更指示によって示される前記表示サイズに変更する変更部と、変更前の前記オブジェクト画像の前記表示サイズに対する、変更後の前記オブジェクト画像の前記表示サイズの第1倍率と、変更前の前記実サイズと、の第1乗算値を、変更後の前記実サイズとして算出する第1算出部と、変更後の前記実サイズを、前記表示部に表示する第2表示制御部と、を備える。 In order to solve the above-described problems and achieve the object, an image processing apparatus of the present invention includes a photographing unit that photographs a real space, a first receiving unit that accepts a real size of a virtual object in the real space, and the photographing A first display control unit that performs control to display a superimposed image of a real space image photographed by the unit and an object image obtained by drawing the virtual object in the virtual space, and a display size of the object image A second receiving unit that receives the change instruction, a change unit that changes the object image to the display size indicated by the change instruction, and the object image after the change with respect to the display size of the object image before the change A first multiplication value of the first magnification of the display size and the actual size before the change is calculated as the actual size after the change. Comprising a detection section, the actual size of the changed second display control unit for displaying on the display unit.
本発明によれば、オブジェクト画像の表示サイズの変更に応じた、実空間における仮想オブジェクトの実サイズを容易に提供することができる、という効果を奏する。 According to the present invention, it is possible to easily provide the actual size of the virtual object in the real space according to the change in the display size of the object image.
以下に添付図面を参照して、画像処理装置、画像処理方法、およびプログラムの実施の形態を詳細に説明する。 Hereinafter, embodiments of an image processing device, an image processing method, and a program will be described in detail with reference to the accompanying drawings.
図1は、本実施の形態の画像処理装置10の模式図である。
FIG. 1 is a schematic diagram of an
画像処理装置10は、撮影部12、表示処理部14、記憶部16、入力部18、表示部20、および検出部25を備える。撮影部12、表示処理部14、記憶部16、入力部18、表示部20、および検出部25は、バス22により電気的に接続されている。
The
画像処理装置10は、撮影部12、表示処理部14、および検出部25と、記憶部16、入力部18、および表示部20の少なくとも1つと、を別体として設けた構成であってもよい。
The
画像処理装置10は、携帯可能な携帯端末であってもよいし、固定型の端末であってもよい。本実施の形態では、一例として、画像処理装置10は、撮影部12と、表示処理部14と、記憶部16と、入力部18と、表示部20と、検出部25と、を一体的に備えた携帯可能な携帯端末である場合を説明する。なお、画像処理装置10は、外部装置と通信するための通信部などの他の機能部を更に設けた構成であってもよい。
The
撮影部12は、画像処理装置10の位置する実空間を撮影する。実空間は、例えば、室内である。更に、例えば、実空間は、複数の壁面で構成された室内であり、一例としては、床面、天井面、床面と天井面とに連続する4つの壁面で構成された立方体状の室内である。なお、実空間は、画像処理装置10の位置する現実の空間であればよく、室内に限定されない。例えば、実空間は、屋外であってもよい。撮影部12は、撮影によって画像データを得る公知の撮影装置である。
The
表示部20は、各種画像を表示する。表示部20は、LCD(Liquid Crystal Display)や、画像を投影するプロジェクタ等、公知の表示装置である。
本実施の形態では、表示部20には、後述する重畳画像が表示される。
The
In the present embodiment, a superimposed image described later is displayed on the
また、本実施の形態では、一例として、表示部20と撮影部12は、画像処理装置10の筐体において、表示部20の表示方向と、撮影部12の撮影方向と、が、反対方向(180°の関係)である場合を説明する。
Moreover, in this Embodiment, as an example, the
図2は、画像処理装置10の外観の概略図である。画像処理装置10の筐体11には、撮影部12と表示部20が設けられている。なお、筐体11の内部には、検出部25や表示処理部14や記憶部16などが設けられている。図2(A)および図2(B)に示すように、本実施の形態では、撮影部12の撮影方向A2と、表示部20の表示方向A1とは、反対方向となるように設けられている。なお、撮影部12の撮影方向A2と表示部20の表示方向A1とは、180°の関係にある場合に限定されず、同じ方向(0°の関係)であってもよいし、0°以上180°以下の範囲の何れの角度の関係であってもよい。
FIG. 2 is a schematic view of the appearance of the
一例として、本実施の形態では、撮影部12の撮影方向A2と、表示部20の表示方向A1とは、反対方向となるように設けられている場合を説明する。このため、例えば、画像処理装置10の位置を固定したまま、撮影部12で撮影した撮影画像を表示部20に表示した場合、表示部20に表示された撮影画像と、表示部20の背景(表示部20の表示方向A1の反対側)に位置する実空間の風景と、は略同じとなる。
As an example, in the present embodiment, a case will be described in which the photographing direction A2 of the photographing
図1に戻り、入力部18は、ユーザから各種操作を受け付ける。入力部18は、例えば、マウス、マイクによる音声認識、ボタン、リモコン、およびキーボード等である。
Returning to FIG. 1, the
なお、入力部18と表示部20とを一体的に構成してもよい。本実施の形態では、入力部18と表示部20とを一体的に構成し、UI部19とする場合を説明する。UI部19は、例えば、表示機能と入力機能の双方を備えたタッチパネルである。このため、ユーザは、UI部19に表示された画像を確認しながら、UI部19の表示面上を操作することで、各種入力を行うことができる。
In addition, you may comprise the
記憶部16は、メモリやハードディスクドライブ装置(HDD)等の記憶媒体であり、後述する各処理を実行するための各種プログラムや、各種データを記憶する。
The
検出部25は、実空間における撮影部12の姿勢を示す第1姿勢情報を検出する。
The
第1姿勢情報は、撮影部12の、実空間における姿勢を示す情報である。詳細には、第1姿勢情報は、実空間における、撮影部12の光軸の姿勢を示す情報である。なお、本実施の形態では、撮影部12の光軸方向と、撮影部12の撮影方向A2と、が一致するものとして説明する。
The first posture information is information indicating the posture of the photographing
姿勢とは、実空間における撮影部12の、基準姿勢(詳細後述)に対する傾きを示す。本実施の形態では、第1姿勢情報は、基準姿勢に対する回転角(ロール角α、ピッチ角β、ヨー角γ)で表す。
The posture indicates an inclination of the photographing
本実施の形態では、基準姿勢は、撮影部12の撮影方向A2に直交する撮影面の左右方向をX軸、上下方向をY軸、該撮影面に垂直な方向をZ軸としたカメラ座標の、X軸が東西方向と一致し、Y軸が鉛直方向と一致し、Z軸が南北方向と一致するときの姿勢を示す。
In the present embodiment, the reference posture is a camera coordinate with the X-axis as the left-right direction of the imaging plane orthogonal to the imaging direction A2 of the
そして、本実施の形態では、第1姿勢情報は、この基準姿勢に対する撮影部12の撮影方向A2の傾き(姿勢)を示し、該基準姿勢に対する回転角(ロール角α、ピッチ角β、ヨー角γ)で示すものとして説明する。なお、以下では、撮影部12の撮影方向A2の姿勢を、単に、撮影部12の姿勢と称して説明する場合がある。
In the present embodiment, the first posture information indicates the inclination (posture) of the photographing direction A2 of the photographing
なお、カメラ座標におけるXY平面は、撮影方向A2に直交する撮影面と一致する。また、本実施の形態では、撮影方向A2に直交する撮影面は、表示部20の表示面と一致する場合を説明する。また、カメラ座標の原点(0の点)は、撮影部12の撮影面の中央である。
Note that the XY plane in the camera coordinates coincides with the imaging plane orthogonal to the imaging direction A2. Further, in the present embodiment, a case will be described in which the imaging surface orthogonal to the imaging direction A2 matches the display surface of the
上述したように、本実施の形態では、撮影部12は、画像処理装置10に一体的に設けられている。このため、撮影部12の第1姿勢情報は、画像処理装置10、表示部20、およびUI部19の姿勢をも示すものとなる。
As described above, in the present embodiment, the
図3は、座標の説明図である。図3(A)は、実空間の三次元座標(すなわち、ワールド座標)の説明図である。図3(B)は、撮影部12の撮影方向A2に直交する撮影面(本実施の形態では、表示部20の表示面と同一)を基準とする、カメラ座標の説明図である。図4は、第1姿勢情報の説明図である。
FIG. 3 is an explanatory diagram of coordinates. FIG. 3A is an explanatory diagram of three-dimensional coordinates (that is, world coordinates) in real space. FIG. 3B is an explanatory diagram of camera coordinates based on an imaging plane (in this embodiment, the same as the display plane of the display unit 20) orthogonal to the imaging direction A2 of the
すなわち、本実施の形態では、カメラ座標のX軸(図3(B)参照)がワールド座標の東西方向(図3(A)X軸方向参照)と一致し、カメラ座標のY軸(図3(B)参照)がワールド座標の鉛直方向(図3(A)のY軸方向参照)と一致し、カメラ座標のZ軸(図3(B)参照)がワールド座標の南北方向(図3(A)のZ軸方向参照)と一致するときを基準姿勢としている。そして、第1姿勢情報は、本実施の形態では、基準姿勢に対する撮影部12の回転角(ロール角α、ピッチ角β、ヨー角γ)で表す(図4参照)。
That is, in this embodiment, the X axis of the camera coordinates (see FIG. 3B) coincides with the east-west direction of the world coordinates (see the X axis direction of FIG. 3A), and the Y axis of the camera coordinates (FIG. 3). (See (B)) coincides with the vertical direction of the world coordinates (see the Y-axis direction in FIG. 3A), and the Z-axis of the camera coordinates (see FIG. 3B) is in the north-south direction of the world coordinates (see FIG. The reference posture is the time when it coincides with the Z-axis direction reference in A). In the present embodiment, the first posture information is represented by the rotation angle (roll angle α, pitch angle β, yaw angle γ) of the photographing
なお、図3および図4では、説明を簡略化するために、撮影部12の姿勢の説明として、撮影部12の姿勢と同等の、表示部20およびUI部19の姿勢を図示した。
In FIGS. 3 and 4, the orientation of the
検出部25には、傾きや方角(角度)を検出可能な公知の検出装置を用いる。例えば、検出部25は、ジャイロセンサ(3軸加速度計)、電子コンパス、重力加速度計などである。
The
なお、検出部25は、実空間における位置(具体的には、上記ワールド座標における位置)を検出する公知の機器を更に含む構成であってもよい。例えば、検出部25は、GPS(Global Positioning System)を備えた構成であってもよい。この場合、検出部25は、上記第1姿勢情報に加えて、実空間における撮影部12の位置(緯度、経度、高度)を検出することができる。
The
図1に戻り、表示処理部14は、CPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)などを含んで構成されるコンピュータである。なお、表示処理部14は、汎用のCPU以外の回路などであってもよい。表示処理部14は、画像処理装置10に設けられた装置各部を制御する。
Returning to FIG. 1, the
表示処理部14は、重畳画像を表示部20へ表示する制御を行う。重畳画像は、実空間を撮影した実空間画像に、仮想オブジェクトのオブジェクト画像を、重畳した画像である。
The
仮想オブジェクトは、仮想のオブジェクトである。仮想オブジェクトは、例えば、表示処理部14で扱う事の可能な画像である。仮想オブジェクトの画像は、例えば、外部装置や表示処理部14などで別途作成された画像や、実空間画像の撮影とは異なるタイミングで撮影された撮影画像などであるが、これらに限定されない。外部装置で別途作成された画像は、例えば、印刷物である。印刷物は、記録媒体に画像を形成したものである。
A virtual object is a virtual object. The virtual object is, for example, an image that can be handled by the
本実施の形態では、一例として、仮想オブジェクトが印刷物である場合を説明する。 In the present embodiment, as an example, a case where a virtual object is a printed material will be described.
表示処理部14による表示処理には、グラフィックス処理のためのプログラミングインターフェースを用いた3Dエンジンを用いる。例えば、表示処理部14は、OpenGL(Open Graphics Library)などの3Dエンジンにより、表示処理を実現する。
The display processing by the
本実施の形態では、重畳画像は、仮想三次元空間に実空間画像を配置し、仮想三次元空間に仮想オブジェクトを描画してオブジェクト画像とし、これらの実空間画像およびオブジェクト画像の配置された三次元モデルを、二次元面に投影した画像である場合を説明する。 In the present embodiment, the superimposed image is obtained by arranging a real space image in a virtual three-dimensional space, drawing a virtual object in the virtual three-dimensional space to form an object image, and the real space image and the tertiary where the object image is arranged. A case where the original model is an image projected on a two-dimensional surface will be described.
なお、重畳画像は、実空間画像、およびオブジェクト画像を仮想二次元空間に配置した二次元モデルであってもよい。 Note that the superimposed image may be a real space image and a two-dimensional model in which an object image is arranged in a virtual two-dimensional space.
なお、以下では、仮想三次元空間および仮想二次元空間を総称して、単に、仮想空間と称して説明する場合がある。また、本実施の形態では、重畳画像は、仮想三次元空間に、実空間画像とオブジェクト画像とを配置し、二次元面に投影した画像である場合を説明する。 In the following description, the virtual three-dimensional space and the virtual two-dimensional space may be collectively referred to simply as a virtual space. In the present embodiment, a case will be described in which the superimposed image is an image in which a real space image and an object image are arranged in a virtual three-dimensional space and projected onto a two-dimensional surface.
図5は、画像処理装置10の機能構成を示すブロック図である。上述したように画像処理装置10は、検出部25、撮影部12、記憶部16、UI部19、および表示処理部14を備える。検出部25、撮影部12、記憶部16、およびUI部19は、表示処理部14に信号やデータ授受可能に接続されている。
FIG. 5 is a block diagram illustrating a functional configuration of the
表示処理部14は、第1取得部14Aと、第2取得部14Bと、受付部14Oと、設定処理部14Dと、算出部14Eと、光源設定部14Fと、表示制御部14Tと、変更部14Wと、を含む。
The
第1取得部14A、第2取得部14B、受付部14O、設定処理部14D、算出部14E、光源設定部14F、表示制御部14T、および変更部14Wの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
A part or all of the
第1取得部14Aは、検出部25から第1姿勢情報を取得する。検出部25は、連続して第1姿勢情報を検出するものとし、順次、第1取得部14Aへ出力するものとする。このため、第1取得部14Aは、最新の撮影部12の姿勢を示す第1姿勢情報を、連続して順次取得する。
The
第2取得部14Bは、撮影部12で撮影された実空間画像を取得する。なお、本実施の形態では、ユーザによるUI部19の操作指示などによって表示処理アプリケーションの起動が指示されると、撮影部12は、実空間画像の連続撮影を開始し、撮影した実空間画像を順次第2取得部14Bへ出力する。第2取得部14Bは、撮影部12で撮影された実空間画像を取得する。このため、第2取得部14Bは、最新の実空間画像を、連続して順次取得する。
The
受付部14Oは、ユーザによる各種指示をUI部19(入力部18)から受け付ける。 The receiving unit 14O receives various instructions from the user from the UI unit 19 (input unit 18).
受付部14Oは、第1受付部14Cと、第2受付部14Pと、第3受付部14Qと、第4受付部14Rと、を含む。
The receiving unit 14O includes a
第1受付部14Cは、表示対象の仮想オブジェクトの指示を受け付ける。 14C of 1st reception parts receive the instruction | indication of the virtual object of a display target.
例えば、第1表示制御部14Gは、記憶部16に予め記憶された複数の画像データを選択するための選択画面をUI部19に表示する。ユーザは、例えば、UI部19(表示部20)に表示された選択画面を介して、表示対象の画像データを選択する。これにより、第1受付部14Cは、選択された画像データを、仮想オブジェクトとして受け付ける。
For example, the first
また、第1受付部14Cは、仮想オブジェクトの、実空間における実サイズをユーザから受け付ける。仮想オブジェクトの実サイズは、例えば、仮想オブジェクトが印刷物である場合、該印刷物の実空間における実際のサイズを示す。具体的には、実サイズは、1200mm×800mmなどである。
The
例えば、第1表示制御部14Gは、仮想オブジェクトの、実空間における実サイズを入力するための入力画面をUI部19に表示する。ユーザは、例えば、UI部19に表示された入力画面を介して、実サイズを入力する。これにより、第1受付部14Cは、入力された実サイズを受け付ける。
For example, the first
第2受付部14Pは、第1表示制御部14GによってUI部19に表示された重畳画像に含まれる、オブジェクト画像の表示サイズの変更指示を受付ける。表示サイズの変更指示は、変更後の表示サイズと、変更指示と、を含む。
The
例えば、第1表示制御部14Gは、重畳画像をUI部19に表示する。ユーザは、UI部19に表示された重畳画像における、オブジェクト画像の表示領域を操作する。これにより、ユーザは、オブジェクト画像の表示サイズを変更する。UI部19は、変更後の表示サイズと、変更指示と、を含む表示サイズの変更指示を表示処理部14へ出力する。表示処理部14の第2受付部14Pは、ユーザによるUI部19の操作指示によって入力された変更指示を、UI部19から受け付ける。
For example, the first
第3受付部14Qは、後述する基準平面の設定指示を受け付ける。
The
また、第3受付部14Qは、光源情報を受け付ける。光源情報は、仮想三次元空間に配置される仮想光源の反射特性を示す情報である。例えば、第3受付部14Qは、記憶部16に予め光源情報テーブルを記憶する。そして、第3受付部14Qは、ユーザによるUI部19(入力部18)の操作指示によって、光源情報テーブルから選択された光源情報を受け付ける。
The
図6は、光源情報テーブルのデータ構造の一例を示す図である。光源情報テーブルは、光源の種類を識別する光源IDと、光源名と、光源情報と、を対応づけた情報である。なお、光源情報テーブルは、データベースであってもよく、データ形式は限定されない。 FIG. 6 is a diagram illustrating an example of a data structure of the light source information table. The light source information table is information in which a light source ID for identifying the type of light source, a light source name, and light source information are associated with each other. The light source information table may be a database, and the data format is not limited.
光源情報は、対応する光源IDによって特定される光源の、光属性を示す情報である。光属性は、重畳画像表示時の光を演出する反射量を特定するための情報である。光源情報は、光源の色温度に関する項目である鏡面光、拡散光、および環境光の各々における、RGBの色成分ごとの光量(輝度)で表される。RGBの各色成分の光の値は、最大値「1.0」であり、最小値「0」である。具体的には、図6中、鏡面光の値の一例として記載した“(1.00,0.95,0.95)”は、R成分、G成分、B成分の各々の鏡面光の光量が、各々、1.00,0.95,0.95であることを示す。 The light source information is information indicating the light attribute of the light source specified by the corresponding light source ID. The light attribute is information for specifying the amount of reflection that produces the light when displaying the superimposed image. The light source information is represented by the light amount (luminance) for each RGB color component in each of specular light, diffused light, and environmental light, which are items relating to the color temperature of the light source. The light value of each color component of RGB is a maximum value “1.0” and a minimum value “0”. Specifically, “(1.00, 0.95, 0.95)” described as an example of the value of the specular light in FIG. 6 is the amount of specular light of each of the R component, the G component, and the B component. Are 1.00, 0.95, and 0.95, respectively.
第1表示制御部14Gは、記憶部16に記憶されている光源情報テーブルを読取り、光源情報テーブルに登録されている光源情報の一覧を、選択可能にUI部19(表示部20)に表示する。ユーザは、表示された光源情報の一覧の中から、所望の光源名に対応する光源情報を入力部18の操作指示により入力する。これにより、第3受付部14Qは、光源情報を受け付ける。
The first
図5に戻り、第4受付部14Rは、実空間における、撮影部12に対する基準平面(詳細後述)の奥行きを受け付ける。奥行きは、実空間における、撮影部12と、基準平面と、の距離である。
Returning to FIG. 5, the
設定処理部14Dは、基準平面の設定、基準平面の撮影部12の撮影方向に対する第1相対方向の導出、基準平面の再設定などを行う。
The setting
設定処理部14Dは、設定部14Hと、導出部14Nと、判定部14Iと、再設定部14Jと、を含む。
The setting
設定部14Hは、基準平面の設定指示を受け付けたときに、実空間における、仮想オブジェクトを配置する基準平面を、該設定指示を受け付けたときに取得した第1姿勢情報に応じて設定する。
When receiving the setting instruction for the reference plane, the
基準平面は、実空間における平面状の領域である。例えば、実空間が、複数の壁面で構成された室内であるとする。この場合、基準平面は、この複数の壁面の内の1つの壁面である。また、実空間が、床面、天井面、床面と天井面とに連続する4つの壁面で構成された立方体状の室内であるとする。この場合、基準平面は、立方体状の室内を構成する6つの壁面の内の1つである。 The reference plane is a planar area in real space. For example, it is assumed that the real space is a room composed of a plurality of wall surfaces. In this case, the reference plane is one wall surface of the plurality of wall surfaces. Further, it is assumed that the real space is a cubic room composed of a floor surface, a ceiling surface, and four wall surfaces continuous to the floor surface and the ceiling surface. In this case, the reference plane is one of the six wall surfaces constituting the cubic room.
詳細には、設定部14Hは、設定指示を受け付けたときに検出された第1姿勢情報を、第1取得部14Aから受け付ける。そして、設定部14Hは、該第1姿勢情報を用いて、基準平面を設定する。
Specifically, the
例えば、第1表示制御部14Gは、表示部20に実空間画像を表示し、基準平面の設定指示を促すメッセージを表示する。ユーザは、表示部20に表示されている実空間画像を確認しながら、仮想オブジェクトを配置したい平面(天井、床面、壁面など)の方向に撮影方向が向くように調整し、設定ボタン(図示省略)を押す。すると、第3受付部14Qは、設定指示を受け付け、設定処理部14Dの設定部14Hへ出力する。
For example, the first
設定部14Hは、この設定指示を受け付けたときに、該設定指示を受け付けたときの第1姿勢情報を用いて、基準平面を設定する。
When the
図7は、第1取得部14Aから受け付けた第1姿勢情報に応じた、撮影部12(画像処理装置10、表示部20)の姿勢の一例を示す図である。
FIG. 7 is a diagram illustrating an example of the posture of the photographing unit 12 (the
第1姿勢情報によって特定される姿勢は、例えば、ランドスケープ(図7(A)参照)、フェースアップ(図7(B)参照)、フェースダウン(図7(C)参照)、などがある。 The posture specified by the first posture information includes, for example, landscape (see FIG. 7A), face-up (see FIG. 7B), face-down (see FIG. 7C), and the like.
ランドスケープとは、撮影部12の撮影方向A2に直交する撮影面(表示部20の表示面と同一平面)が、ワールド座標における、鉛直方向に平行な平面と一致する場合である。フェースアップとは、撮影部12の撮影方向A2に直交する撮影面(表示部20の表示面と同一平面)が、鉛直方向に垂直な垂直平面と一致し、且つ、表示部20の表示方向A1が反鉛直方向(重力方向の反対方向)と一致する場合である。フェースダウンとは、撮影部12の撮影方向A2に直交する撮影面(表示部20の表示面と同一平面)が、鉛直方向に垂直な垂直平面と一致し、且つ、表示部20の表示方向A1が鉛直方向(重力方向)と一致する場合である。
A landscape is a case where an imaging plane orthogonal to the imaging direction A2 of the imaging unit 12 (the same plane as the display surface of the display unit 20) coincides with a plane parallel to the vertical direction in world coordinates. Face-up means that the image plane orthogonal to the image capturing direction A2 of the image capturing unit 12 (the same plane as the display surface of the display unit 20) coincides with the vertical plane perpendicular to the vertical direction, and the display direction A1 of the
基準平面の設定指示時には、ユーザは、例えば、上記ランドスケープ、フェースアップ、フェースダウンなどの姿勢となるように、画像処理装置10を把持し、設定指示を入力することが好ましい。
When instructing the setting of the reference plane, it is preferable that the user holds the
図5に戻り、設定部14Hは、設定指示を受け付けたときに取得した第1姿勢情報を用いて、基準平面を設定する。
Returning to FIG. 5, the setting
基準平面の設定について、具体的に説明する。設定部14Hは、設定指示を受け付けたときに取得した第1姿勢情報を用いて、実空間における、撮影部12の位置する室内を構成する複数の壁面の内の1つの壁面を、基準平面として設定する。
The setting of the reference plane will be specifically described. Using the first posture information acquired when the setting instruction is received, the
詳細には、設定部14Hは、実空間における、撮影部12の撮影方向に対して交差する平面を、基準平面として設定する。
Specifically, the
図8は、基準平面の設定の一例を示す説明図である。 FIG. 8 is an explanatory diagram illustrating an example of setting a reference plane.
例えば、画像処理装置10が、実空間として、床面S1、天井面S6、床面と天井面とに連続する4つの壁面(S2〜S5)で構成された立方体状の室内であるとする。そして、画像処理装置10が、撮影部12の撮影方向A2を床面S1側とし、表示方向A1を壁面S2として位置していたとする(図8(A)参照)。
For example, it is assumed that the
図8に示す状況の場合、実空間における、第1姿勢情報によって特定される撮影方向A2に対して交差する平面は、床面S1である(図8(B)参照)。すなわち、この場合、設定部14Hは、床面S1を基準平面として設定する。
In the situation shown in FIG. 8, the plane that intersects the shooting direction A2 specified by the first posture information in the real space is the floor surface S1 (see FIG. 8B). That is, in this case, the
ここで、設定部14Hは、設定指示を受け付けたときの、画像処理装置10における撮影部12の撮影方向A2と表示部20の表示方向A1との関係に応じて、基準平面を設定する。
Here, the
例えば、画像処理装置10における撮影部12の撮影方向A2と、画像処理装置10における表示部20の表示方向A1と、が反対方向(180°の関係)となるように、撮影部12および表示部20の配置が調整されていたとする。
For example, the photographing
図9は、基準平面の設定の一例を示す説明図である。なお、図9における壁面Sの配置は、図8(A)と同様であるとする。また、図9は、画像処理装置10における撮影部12の撮影方向A2と、画像処理装置10における表示部20の表示方向A1と、が反対方向(180°の関係)である場合を示す。
FIG. 9 is an explanatory diagram illustrating an example of setting a reference plane. Note that the arrangement of the wall surfaces S in FIG. 9 is the same as that in FIG. FIG. 9 shows a case where the shooting direction A2 of the
撮影部12の撮影方向A2と、表示部20の表示方向A1とが反対方向である場合、設定部14Hは、実空間における、撮影部12の位置する室内を構成する複数の壁面の内、撮影部12の撮影方向A2または反撮影方向に交差する壁面であって、且つ該撮影方向A2に直交する撮影面との成す角度の最も小さい壁面を、基準平面として設定する。
When the shooting direction A2 of the
図9に示す例では、設定部14Hは、複数の壁面Sの内、撮影方向A2および表示方向A1に交差する、床面S1と壁面S2を特定する。
In the example illustrated in FIG. 9, the
そして、設定部14Hは、特定した壁面の内、撮影方向A2に直交する撮影面との成す角度の最も小さい壁面を、基準平面として設定する。図9に示す例では、特定した床面S1および壁面S2の内、撮影方向A2に直交する撮影面との成す角度(図9中、角度φ1、角度φ2参照(φ1<φ2とする))の最も小さい壁面である床面S1を基準平面として設定する。なお、角度φ1と角度φ2とが同じである場合には、特定した床面S1および壁面S2の内、撮影部12より撮影方向A2の下流側の壁面Sである床面S1を、基準平面として設定する。
Then, the
一方、画像処理装置10における撮影部12の撮影方向A2と、画像処理装置10における表示部20の表示方向A1と、が同一方向(0°の関係)となるように、撮影部12および表示部20の配置が調整されていたとする。
On the other hand, the photographing
図10は、基準平面の設定の一例を示す説明図である。なお、図10における壁面Sの配置は、図8(A)と同様であるとする。また、図10は、画像処理装置10における撮影部12の撮影方向A2と、画像処理装置10における表示部20の表示方向A1と、が同一方向(0°の関係)である場合を示す説明図である。
FIG. 10 is an explanatory diagram illustrating an example of setting a reference plane. Note that the arrangement of the wall surface S in FIG. 10 is the same as that in FIG. FIG. 10 is an explanatory diagram showing a case where the shooting direction A2 of the
設定部14Hは、撮影部12の撮影方向A2と、表示部20の表示方向A1とが同一方向である場合、実空間における、撮影部12の位置する室内を構成する複数の壁面の内、撮影部12の撮影方向A2または反撮影方向に交差する壁面であって、且つ該撮影方向A2に直交する撮影面との成す角度の最も大きい壁面を、基準平面として設定する。
When the shooting direction A2 of the
図10に示す例では、設定部14Hは、複数の壁面Sの内、撮影方向A2、表示方向A1、これらの反対方向の各々に交差する、床面S1と壁面S2を特定する。
In the example illustrated in FIG. 10, the setting
そして、設定部14Hは、特定した壁面の内、撮影方向A2に直交する撮影面との成す角度の最も大きい壁面を、基準平面として設定する。図10に示す例では、特定した床面S1および壁面S2の内、撮影方向A2に直交する撮影面との成す角度(図10中、角度φ1、角度φ2参照(φ1<φ2とする))の最も大きい壁面である壁面S2を、基準平面として設定する。なお、角度φ1と角度φ2とが同じである場合には、特定した床面S1および壁面S2の内、撮影部12より撮影方向A2の下流側の壁面Sである壁面S2を、基準平面として設定する。
Then, the
図5に戻り、導出部14Nは、現在の撮影部12の撮影方向A2に対する、設定された基準平面の第1相対方向を導出する。導出部14Nは、順次検出される第1姿勢情報を用いて、現在の撮影部12の撮影方向A2を特定する。そして、導出部14Nは、特定した撮影方向A2に対する、設定部14Hで設定された基準平面の相対的な方向である第1相対方向を導出する。
Returning to FIG. 5, the deriving
このため、画像処理装置10の回転などに伴い、撮影部12の撮影方向A2が回転すると、回転に伴い、回転後の現在の撮影部12の撮影方向A2に対する基準平面の第1相対方向が、順次算出されることとなる。
For this reason, when the imaging direction A2 of the
判定部14Iは、基準平面の設定時に用いた第1姿勢情報と、今回取得した第1姿勢情報と、の比較結果に基づいて、基準平面を設定したときから撮影方向A2が予め定めた第1相対角度以上回転したか否かを判定する。今回取得した第1姿勢情報とは、最新の第1姿勢情報であり、現在の撮影部12の姿勢を示す第1姿勢情報である。すなわち、判定部14Iは、基準平面の設定時の撮影方向A2からの回転角度が、第1相対角度以上であるか否かを判定する。
Based on the comparison result between the first posture information used at the time of setting the reference plane and the first posture information acquired this time, the determination unit 14I determines the first shooting direction A2 from the time when the reference plane is set. It is determined whether or not the rotation is greater than the relative angle. The first posture information acquired this time is the latest first posture information, and is first posture information indicating the current posture of the photographing
例えば、設定部14Hは、基準平面の設定を行う度に、設定時に用いた第1姿勢情報を、基準平面の設定時の第1姿勢情報として、記憶部16に記憶する。なお、記憶部16に、基準平面の設定時の第1姿勢情報が既に記憶されている場合には、設定部14Hは、最新の基準平面の設定時に用いた第1姿勢情報が記憶されるように、既に記憶されている基準平面の設定時の第1姿勢情報に上書きする。また、後述する基準平面の再設定が行われた場合には、再設定時に用いた第1姿勢情報が、基準平面の設定時の第1姿勢情報として、記憶部16に上書きして記憶される。
For example, each time the
例えば、設定部14Hは、基準平面の設定時に用いた第1姿勢情報(A0=(α0,β0,γ0))を、記憶部16に記憶する。α0は、基準平面設定時の、第1姿勢情報に示されるロール角αである。β0は、基準平面設定時の、第1姿勢情報に示されるピッチ角βである。γ0は、基準平面設定時の、第1姿勢情報に示されるヨー角γである。
For example, the
そして、現在の撮影部12の姿勢を示す、今回取得した第1姿勢情報を、例えば、At=(αt,βt,γt)とする。tは、基準平面の設定に用いた第1姿勢情報の取得からの経過時間を示す。すなわち、Atは、基準平面の設定時を時刻「0」とし、該時刻「0」から経過時間「t」経過したときの(すなわち現在の)、撮影部12の姿勢を示す第1姿勢情報である。
Then, the first posture information acquired this time indicating the current posture of the photographing
そして、判定部14Iは、現在の撮影部12の姿勢を示す第1姿勢情報Atから、基準平面の設定時に用いた第1姿勢情報A0を減算した減算値At−A0を、基準平面の設定時からの撮影部12の撮影方向A2の回転角度として算出する。
Then, the determination unit 14I includes a first orientation information A t indicating the orientation of the
そして、判定部14Iは、この減算値At−A0によって示される回転角度(具体的には、At−A0の絶対値)が、予め定めた第1相対角度以上であるか否かを判定する。 Then, the determination unit 14I (specifically, the absolute value of A t -A 0) rotation angle indicated by the subtraction value A t -A 0 is whether or not the first relative angle or a predetermined Determine.
第1相対角度は、予め任意の値を設定すればよい。また、この第1相対角度は、ユーザによる入力部18の操作指示などにより、適宜変更可能である。
An arbitrary value may be set in advance for the first relative angle. In addition, the first relative angle can be appropriately changed according to an operation instruction of the
第1相対角度は、後述する第2相対角度より小さい角度である。例えば、第2相対角度が90°である場合、第1相対角度は45°より大きく且つ90°未満の範囲であることが好ましく、80°であることが特に好ましい。 The first relative angle is an angle smaller than a second relative angle described later. For example, when the second relative angle is 90 °, the first relative angle is preferably in the range of more than 45 ° and less than 90 °, and particularly preferably 80 °.
また、例えば、第2相対角度が180°である場合、第1相対角度は、135°より大きく180°未満の範囲であることが好ましく、第1相対角度は170°であることが特に好ましい。 For example, when the second relative angle is 180 °, the first relative angle is preferably in the range of greater than 135 ° and less than 180 °, and the first relative angle is particularly preferably 170 °.
再設定部14Jは、判定部14Iによって第1相対角度以上回転したと判定されたときに、基準平面を第1相対角度より大きい第2相対角度回転した平面を、新たな基準平面として再設定する。なお、基準平面の回転方向は、判定された回転の回転方向と同じとする。 The resetting unit 14J resets the plane obtained by rotating the reference plane by the second relative angle larger than the first relative angle as a new reference plane when the determination unit 14I determines that the rotation is greater than the first relative angle. . Note that the rotation direction of the reference plane is the same as the rotation direction of the determined rotation.
例えば、第2相対角度を90°に設定し、第1相対角度を80°に設定したとする。そして、立方体状の室内などの実空間において、画像処理装置10を、鉛直方向を回転軸として回転させたとする。この場合、再設定部14Jは、撮影方向A2に交差する室内の各壁面Sを、回転に応じて順に基準平面として再設定することができる。
For example, assume that the second relative angle is set to 90 ° and the first relative angle is set to 80 °. Assume that the
基準平面を再設定したときの、撮影部12の第1姿勢情報A0は、下記式(1)で表せる。
The first posture information A 0 of the photographing
A0=(α0+π/2×Sα,β0+π/2×Sβ,γ0+π/2×Sγ) ・・式(1) A 0 = (α 0 + π / 2 × S α , β 0 + π / 2 × S β , γ 0 + π / 2 × S γ ) Equation (1)
式(1)中、Sα,Sβ,Sγは、撮影部12の姿勢の変化を示す整数変数{0,1,2,3}である。α0は、前回の(再設定前の)基準平面設定時の、第1姿勢情報に示されるロール角αである。β0は、前回の(再設定前の)基準平面設定時の、第1姿勢情報に示されるピッチ角βである。γ0は、前回の(再設定前の)基準平面設定時の、第1姿勢情報に示されるヨー角γである。
In Expression (1), S α , S β , and S γ are integer variables {0, 1, 2, 3} that indicate changes in the posture of the
そして、再設定部14Jは、再設定した基準平面の第1姿勢情報A0を、基準平面の設定時に用いた第1姿勢情報として、記憶部16に上書きして記憶する。
The resetting unit 14J includes a first posture information A 0 of a reference plane set again, as the first orientation information used in setting the reference plane is overwritten and stored in the
図11は、基準平面の再設定の説明図である。図11(A)に示すように、基準平面の設定時の、第1姿勢情報によって特定される姿勢の撮影部12の撮影方向A2が、床面S1に連続する壁面S3に交差する方向であり、該壁面S3が基準平面として設定されていたとする。
FIG. 11 is an explanatory diagram of resetting the reference plane. As shown in FIG. 11A, the shooting direction A2 of the
この状態から、例えば、画像処理装置10の回転により、撮影部12の撮影方向A2が、壁面S3に直交する方向から、壁面S3に対して90°右手側に配置された壁面S5に直交する方向に、回転されたとする(図11(B)中、矢印C方向参照)。また、第1相対角度が80°であり、第2相対角度が90°であったとする。
From this state, for example, due to the rotation of the
この場合、判定部14Iによって第1相対角度(例えば、80°)以上回転したと判定されたときに、再設定部14Jは、基準平面である壁面S3から第2相対角度(例えば、90°)回転した方向の壁面S5を、新たな基準平面として再設定する。 In this case, when the determination unit 14I determines that the rotation is greater than or equal to the first relative angle (for example, 80 °), the resetting unit 14J sets the second relative angle (for example, 90 °) from the wall surface S3 that is the reference plane. The wall surface S5 in the rotated direction is reset as a new reference plane.
図12は、基準平面の再設定の詳細な説明図である。 FIG. 12 is a detailed explanatory diagram of resetting the reference plane.
例えば、図12(A)に示すように、基準平面の設定時の、画像処理装置10の撮影部12の撮影方向A2が、ワールド座標における−Z軸方向に一致する方向であったとする。そして、実空間における、この撮影方向A2に交差する平面(壁面)が基準平面として設定されていたとする。
For example, as shown in FIG. 12A, it is assumed that the shooting direction A2 of the
そして、図12(B)に示すように、この状態から撮影部12の撮影方向A2を、Y軸を回転軸として右回り(図12(B)中、矢印R1方向)に角度θ回転させたとする。この場合、基準平面の位置は動かないことから、撮影部12の撮影方向A2に対する基準平面の第1相対方向は、撮影方向A2からY軸を回転軸として左回り(図12(B)中、矢印R1の反対方向)に角度−θ回転させた方向となる。
Then, as shown in FIG. 12B, from this state, the imaging direction A2 of the
そして、図12(C)に示すように、回転角度θが第1相対角度(例えば、80°)を超えたときに、上記処理により、基準平面を、Y軸を回転軸として右回り(図12(C)中、矢印R1方向)に第2相対角度(例えば、90°)回転させた方向が、新たな基準平面として再設定される。この場合、第1相対方向は、撮影方向A2からY軸を回転軸として左回り(図12(C)中、矢印R1の反対方向)に角度−θ回転させた方向となる。 Then, as shown in FIG. 12C, when the rotation angle θ exceeds the first relative angle (for example, 80 °), the reference plane is rotated clockwise about the Y axis as the rotation axis (see FIG. 12 (C), the direction rotated by the second relative angle (for example, 90 °) in the direction of arrow R1 is reset as a new reference plane. In this case, the first relative direction is the direction rotated counterclockwise by the angle −θ from the shooting direction A2 around the Y axis as the rotation axis (the direction opposite to the arrow R1 in FIG. 12C).
そして、図12(D)に示すように、新たな基準平面が再設定された後に、更に、撮影部12の撮影方向A2を、Y軸を回転軸として右回り(図12(D)中、矢印R1方向)に角度θ’回転させたとする。そして、回転角度θ’が第1相対角度(例えば、80°)を超えたときに、上記と同様に、基準平面を、Y軸を回転軸として右回り(図12(D)中、矢印R1方向)に第2相対角度(例えば、90°)回転させた方向が、新たな基準平面として再設定される。そして、撮影部12の撮影方向A2に対する新たな基準平面の方向が、第1相対方向となる。この場合、第1相対方向は、撮影方向A2からY軸を回転軸として左回り(図12(D)中、矢印R1の反対方向)に角度−θ’回転させた方向となる。
Then, as shown in FIG. 12D, after the new reference plane is reset, the shooting direction A2 of the
すなわち、第1相対角度が80°である場合、図12(B)に示す状態では、−80<θ<80の範囲で、XY平面に平行な面が、基準平面として設定される。また、図12(C)に示すように基準平面が切り替えられて、新たな基準平面が再設定されると、図12(D)に示す状態では、−80<θ’<80の範囲で、YZ平面に平行な面が、基準平面として再設定されることとなる。 That is, when the first relative angle is 80 °, in the state shown in FIG. 12B, a plane parallel to the XY plane is set as the reference plane in the range of −80 <θ <80. Further, when the reference plane is switched as shown in FIG. 12C and a new reference plane is reset, in the state shown in FIG. 12D, in the range of −80 <θ ′ <80, A plane parallel to the YZ plane is reset as the reference plane.
図5に戻り、変更部14Wは、重畳画像に含まれるオブジェクト画像を、第2受付部14Pが受け付けた変更指示によって示される表示サイズに変更する。このため、ユーザによるUI部19(入力部18)の操作指示によって、UI部19(表示部20)に表示された重畳画像に含まれるオブジェクト画像の表示サイズが、容易に変更される。
Returning to FIG. 5, the changing
算出部14Eは、各種情報の算出を行う。算出部14Eは、第1算出部14Kと、第2算出部14Lと、第3算出部14Mと、第4算出部14Sと、を含む。
The
第1算出部14Kは、変更前のオブジェクト画像の表示サイズに対する、変更後のオブジェクト画像の表示サイズの第1倍率と、変更前の実サイズと、の第1乗算値を、変更後の実サイズとして算出する。
The
なお、記憶部16には、設定処理部14Dによって基準平面が新たに設定されたときのオブジェクト画像の表示サイズを示す、基準サイズが予め記憶されている。
Note that the
そして、第1算出部14Kは、変更後の実サイズを算出する度に、算出した実サイズを、前回算出した実サイズに上書きして記憶部16に記憶する。第1算出部14Kは、変更後の実サイズを新たに算出するときには、記憶部16に記憶されている実サイズを、「変更前の実サイズ」として用いる。また、第1算出部14Kは、記憶部16に実サイズが記憶されていない場合には、基準サイズを、「変更前の実サイズ」として用いる。
Each time the
すなわち、第1算出部14Kは、ユーザによるUI部19の操作指示によってオブジェクト画像の表示サイズが変更されると、変更前のオブジェクト画像に対応する仮想オブジェクトの実サイズを、変更された表示サイズに合わせて変更する。具体的には、オブジェクト画像の表示サイズが2倍に変更されると、第1算出部14Kは、対応する仮想オブジェクトの変更前の実サイズの2倍を、変更後の実サイズとして算出する。
That is, when the display size of the object image is changed by a user operation instruction on the
また、第1算出部14Kは、変更後のオブジェクト画像の表示サイズに対する、変更前のオブジェクト画像の表示サイズの第2倍率と、変更前の奥行きと、の第2乗算値を、変更後の奥行きとして算出する。
In addition, the
変更前の奥行についても同様に、第1算出部14Kは、変更後の奥行きを算出する度に、算出した奥行きを、前回算出した奥行きに上書きして記憶部16に記憶する。第1算出部14Kは、変更後の奥行きを新たに算出するときには、記憶部16に記憶されている奥行きを、「変更前の奥行き」として用いる。また、第1算出部14Kは、記憶部16に奥行きが記憶されていない場合には、第4受付部14Rが受け付けた奥行きを、「変更前の奥行き」として用いればよい。
Similarly, for the depth before the change, the
すなわち、第1算出部14Kは、ユーザによるUI部19の操作指示によってオブジェクト画像の表示サイズが変更されると、変更前の奥行き(撮影部12と基準平面との実空間における距離)を、変更された表示サイズに合わせて変更する。具体的には、オブジェクト画像の表示サイズが2倍に変更されると、第1算出部14Kは、変更前の奥行きの1/2倍を、変更後の奥行きとして算出する。
That is, when the display size of the object image is changed by an operation instruction of the
ここで、後述する表示制御部14T(第1表示制御部14G)では、仮想空間における、実空間の基準平面に対応する領域に、仮想オブジェクトを描画する。このため、第1算出部14Kは、オブジェクト画像の表示サイズの変更に応じて、表示サイズが大きく変更されるほど奥行きが短く、表示サイズが小さく変更されるほど奥行きが長くなるように、変更後の奥行きを算出することとなる。
Here, the
第2算出部14Lは、導出部14Eで導出された第1相対方向に位置する基準平面の、第2姿勢情報を算出する。第2姿勢情報は、現在の撮影部12の撮影方向A2に対する、設定された基準平面の姿勢を示す情報である。
The
第2姿勢情報は、第1姿勢情報と同様に、撮影部12の撮影方向A2に対する、回転角(ロール角α、ピッチ角β、ヨー角γ)で表される。
Similarly to the first posture information, the second posture information is represented by a rotation angle (roll angle α, pitch angle β, yaw angle γ) with respect to the shooting direction A2 of the
第2算出部14Lは、以下のようにして第2姿勢情報を算出する。第2算出部14Lは、基準平面の設定時の撮影方向A2から現在の撮影方向A2への回転角度(At−A0)の逆方向の回転角度を算出することで、第2姿勢情報を算出する。第2姿勢情報は、下記式(2)で表せる。
The
(A0−At)=(α0-αt,β0-βt,γ0-γt)・・・式(2) (A 0 −A t ) = (α 0 −α t , β 0 −β t , γ 0 −γ t ) (2)
第3算出部14Mは、実空間における、基準平面の第1位置を算出する。第1位置は、実空間における、基準平面として設定された平面(壁面)における特定の位置を示す。この位置は、ユーザによって設定される。なお、第3算出部14Mは、基準平面における、基準平面の設定時の撮影方向A2との交点に相当する位置を、第1位置として算出してもよい。
The
また、第3算出部14Mは、現在の撮影部12の撮影方向A2を、基準平面の設定時の撮影方向A2から現在の撮影方向A2への回転角度(At−A0)分、逆の回転方向に回転させた位置を、第1位置として算出してもよい。
Further, the
第4算出部14Sは、第1距離に対する、第2距離の倍率を算出する。第1距離は、基準平面の設定に用いた第1姿勢情報によって特定される姿勢の撮影部12と、基準平面と、の距離を示す。すなわち、第1距離は、変更前の奥行きに相当する。
The
第2距離は、撮影部12と、撮影部12を原点として撮影方向A2の回転角度に応じた角度、基準平面を回転させた仮平面と、の距離を示す。
The second distance indicates the distance between the photographing
図13は、第1距離に対する第2距離の倍率算出の説明図である。 FIG. 13 is an explanatory diagram for calculating the magnification of the second distance with respect to the first distance.
図13(A)および図13(B)に示すように、基準平面(図13(B)では、基準平面S’とする)の設定時には、撮影部12の撮影方向A2に交差する壁面(平面)が基準平面として設定される。このため、表示部20には、後述する第1表示制御部14Gによる処理によって、実空間画像42における該基準平面に対応する領域に仮想オブジェクトを描画したオブジェクト画像40が表示されることとなる。
As shown in FIGS. 13A and 13B, when a reference plane (reference plane S ′ in FIG. 13B) is set, a wall surface (plane that intersects the shooting direction A2 of the
図13(C)および図13(D)に示すように、図13(A)および図13(B)に示す状態から、画像処理装置10を回転させる。すなわち、画像処理装置10を回転させ、撮影部12の撮影方向A2を、Y軸を回転軸として右回り(図13(C)および図13(D)中、矢印R1方向)に角度θ回転させたとする。この場合、実空間における基準平面(図13(D)中、基準平面S’参照)の位置は動かないことから、基準平面の、撮影方向A2に対する第1相対方向は、撮影方向A2からY軸を回転軸として左回り(図13(E)および図13(F)中、矢印−R1方向)に角度−θ回転させた方向となる。
As shown in FIGS. 13C and 13D, the
そして、第4算出部14Sは、撮影部12を原点として撮影方向A2の回転角度θに応じた角度、基準平面S’を回転させた仮平面31を設定する。
Then, the
このとき、基準平面の設定時に用いた第1姿勢情報によって特定される姿勢の撮影部12と、基準平面S’と、の第1距離を「1」とする。すると、撮影部12と仮平面31との第2距離は、1/cosθで表せる。第4算出部14Sは、この1/cosθを、第1距離に対する第2距離の倍率(以下、第3倍率と称する)として算出する。
At this time, the first distance between the photographing
詳細は後述するが、第1表示制御部14Gは、基準平面に描画する仮想オブジェクトを、基準平面の設定時に比べて該倍率に応じた距離、奥行き方向に配置する。具体的には、該倍率が1以上である場合、奥行き方向の手前側(視点位置側)に配置し、該倍率が1未満である場合、奥行き方向の奥側(視点位置から離れる側)に配置する。
Although the details will be described later, the first
また、第1表示制御部14Gは、基準平面の設定時に対して、上記第3倍率に応じて拡大または縮小した大きさの仮想オブジェクトのオブジェクト画像を、基準平面に対応する領域に描画する(図13(E)、図13(F)参照)。具体的には、第1表示制御部14Gは、表示するオブジェクト画像の大きさを、cosθ倍した大きさとして、描画する。
Further, the first
なお、基準平面の設定後に、変更部14Wによって表示サイズが変更された場合、第1表示制御部14Gは、変更部14Wによって変更された表示サイズに対して、上記第3倍率に応じて拡大または縮小した大きさの仮想オブジェクトのオブジェクト画像を、基準平面に対応する領域に描画する。
When the display size is changed by the changing
図5に戻り、光源設定部14Fは、光源の光源効果を示す光源情報を設定する。本実施の形態では、光源設定部14Fは、第3受付部14Qで受け付けた光源情報を設定する。
Returning to FIG. 5, the light
表示制御部14Tは、各種画像を表示部20(UI部19)に表示する制御を行う。
The
表示制御部14Tは、第1表示制御部14Gと、第2表示制御部14Uと、を含む。
The
第1表示制御部14Gは、撮影部12によって撮影された実空間画像と、仮想オブジェクトを仮想空間に描画したオブジェクト画像と、の重畳画像を、表示部20(UI部19)に表示する制御を行う。上述したように、第1表示制御部14Gは、OpenGLを用いて、重畳画像を表示する。
The first
本実施の形態では、第1表示制御部14Gは、仮想空間(例えば、仮想三次元空間)に実空間画像を配置する。また、第1表示制御部14Gは、この実空間画像における基準平面に対応する領域に、第2姿勢情報の姿勢の仮想オブジェクトを描画してオブジェクト画像とする。そして、第1表示制御部14Gは、この実空間画像と、このオブジェクト画像と、の重畳画像を、表示部20(UI部19)に表示する制御を行う。
In the present embodiment, the first
図14は、重畳画像の表示の説明図である。図14(A)に示すように、重畳画像44は、実空間画像42に、オブジェクト画像40を重畳した画像である。
FIG. 14 is an explanatory diagram of displaying a superimposed image. As shown in FIG. 14A, the
まず、第1表示制御部14Gは、仮想三次元空間に実空間画像42を配置する。第1表示制御部14Gは、順次撮影される実空間画像42を順次取得し、最新の(現在の)実空間画像42を仮想三次元空間に配置する。
First, the first
そして、第1表示制御部14Gは、仮想三次元空間における、視点位置から実空間画像42の中央に向かう方向を現在の撮影方向A2とし、第1相対方向(撮影部12の撮影方向A2に対する基準平面の相対方向)に、第2姿勢情報の姿勢の仮想オブジェクトを描画して、オブジェクト画像40とする。仮想三次元空間における、第1相対方向に仮想オブジェクトを描画することで、実空間画像42における基準平面に対応する領域に、仮想オブジェクトを描画することができる。なお、このとき、第1表示制御部14Gは、オブジェクト画像40に、光源情報によって示される光源効果を付与することが好ましい。
Then, the first
そして、第1表示制御部14Gは、OpenGLを用いて、この仮想三次元空間を、撮影方向A2の上流側の視点位置から視認した二次元画像に投影することで、実空間画像42とオブジェクト画像40とを重畳した重畳画像44を生成し、表示部20に表示する。
Then, the first
そして、第1表示制御部14Gは、この表示処理を、ユーザによる表示処理の終了を示す終了指示を第3受付部14Qから受け付けるまで、繰り返し実行する。
Then, the first
このため、画像処理装置10が回転することで、撮影部12の撮影方向A2が回転すると、撮影方向A2に対する第1相対方向に、第2姿勢情報の姿勢でオブジェクト画像40が表示されることとなる。このため、図14(B)に示すように、表示部20に表示された重畳画像44に含まれるオブジェクト画像40は、撮影部12の撮影方向A2の回転方向(図14(B)中、矢印R方向参照)とは逆方向(図14(B)中、矢印−R方向参照)に、回転することとなる。
For this reason, when the
すなわち、設定部14Hで設定された基準平面に、オブジェクト画像40をあたかも貼り付けたかのような重畳画像44が、表示部20に表示されることとなる。また、撮影部12の回転に応じて、オブジェクト画像40は、基準平面に貼り付いたままの状態を維持したまま、表示部20の画面上において、撮影部12の回転方向とは逆方向に移動するように、表示されることとなる。
That is, the
また、第1表示制御部14Gは、実空間画像42における、第1位置の基準平面に対応する領域に、第2姿勢情報の姿勢の仮想オブジェクトを描画したオブジェクト画像40を重畳した重畳画像44を、表示部20に表示する制御を行う。
In addition, the first
このため、画像処理装置10が回転された場合であっても、オブジェクト画像40は、設定部14Hで設定された基準平面にあたかも貼り付いたかのような状態で、表示部20に表示されることとなる。
For this reason, even when the
図15は、オブジェクト画像40の表示の説明図である。
FIG. 15 is an explanatory diagram of the display of the
図15(A)および図15(B)に示すように、基準平面(図15(B)では、基準平面S’とする)の設定時には、撮影部12の撮影方向A2に交差する壁面(平面)が基準平面S’として設定される。このため、第1表示制御部14Gによる処理によって、実空間画像42における該基準平面S’に対応する領域に仮想オブジェクトを描画したオブジェクト画像40が表示されることとなる。
As shown in FIGS. 15A and 15B, when a reference plane (referred to as reference plane S ′ in FIG. 15B) is set, a wall surface (plane that intersects the shooting direction A2 of the
図15(C)および図15(D)に示すように、図15(A)および図15(B)に示す状態から、画像処理装置10を矢印R1方向に回転させたとする。すなわち、画像処理装置10を回転させ、撮影部12の撮影方向A2を、Y軸を回転軸として右回り(図15(C)および図15(D)中、矢印R1方向)に角度θ回転させたとする。この場合、実空間における基準平面S’の位置は動かないことから、基準平面S’の第1相対方向は、撮影方向A2からY軸を回転軸として左回りに角度−θ回転させた方向となる。
As shown in FIGS. 15C and 15D, it is assumed that the
図15(E)および図15(F)に示すように、画像処理装置10を基準として考察すると、画像処理装置10を中心にして仮想オブジェクトを角度−θ回転させたことに等しい。
As shown in FIGS. 15E and 15F, considering the
そして、第1表示制御部14Gは、現在の実空間の実空間画像における、第1位置の基準平面に対応する領域に、第2姿勢情報の姿勢の仮想オブジェクトを描画する。
Then, the first
第1位置は、例えば、現在の撮影部12の撮影方向A2を、基準平面の設定時の撮影方向A2から現在の撮影方向A2への回転角度(At−A0)分、逆の回転方向に回転させた位置である。このため、図15(E)および図15(F)に示すように、第1表示制御部14Gは、画像処理装置10(撮影部12)の回転方向とは逆方向に同じ回転角度回転させた位置である第1位置に、オブジェクト画像40が配置されるように、オブジェクト画像40を回転させる。そして、第1表示制御部14Gは、重畳画像を表示する。
The first position is, for example, the reverse rotation direction of the current shooting direction A2 of the
このため、オブジェクト画像40は、実空間上の設定された基準平面(壁面など)に固定された状態で、表示される。
For this reason, the
ここで、本実施の形態の画像処理装置10では、上述したように、第2受付部14Pが、重畳画像に含まれるオブジェクト画像の、表示サイズの変更指示を受付ける。すると、変更部14Wは、重畳画像に含まれるオブジェクト画像を、変更指示によって示される表示サイズに変更する。そして、第1算出部14Kは、変更前のオブジェクト画像の表示サイズに対する、変更後のオブジェクト画像の表示サイズの第1倍率と、変更前の実サイズと、の第1乗算値を、変更後の実サイズとして算出する。
Here, in the
第2表示制御部14Uは、第1算出部14Kによって算出された変更後の実サイズを、表示部20(UI部19)に表示する。
The second
図16は、オブジェクト画像の表示サイズの変更の流れの説明図である。 FIG. 16 is an explanatory diagram of the flow of changing the display size of an object image.
まず、撮影部12が、実空間SAを撮影し、実空間画像42を得たとする(図16(A)、図16(B)参照)。この場合、第2取得部14Bは、実空間SAの実空間画像42を撮影部12から取得する。
First, it is assumed that the photographing
第1表示制御部14Gが実空間画像42をUI部19に表示すると、UI部19の表示部20には、実空間画像42が表示されることとなる(図16(B)参照)。
When the first
そして、第1受付部14Cが、仮想オブジェクト50Aの実サイズをUI部19から受け付ける(図16(C)参照)。例えば、ユーザによるUI部19の操作により、第1受付部14Cは、縦1200mm×横800mmの実サイズを示すサイズ情報48Aと、奥行きと、をUI部19から受け付ける。
Then, the
第1表示制御部14Gは、仮想三次元空間に実空間画像42を配置する。また、第1表示制御部14Gは、実空間画像42の基準平面上に、仮想オブジェクト50Aを描画して、オブジェクト画像40Aとする。そして、第1表示制御部14Gは、実空間画像42とオブジェクト画像40Aとの重畳画像44Aを、UI部19に表示する(図16(D)参照)。
The first
そして、ユーザによるUI部19(入力部18)の操作により、重畳画像44におけるオブジェクト画像40Aの表示サイズの変更が指示されたとする。すると、変更部14Wは、重畳画像44に含まれるオブジェクト画像40Aを、変更指示によって示される表示サイズに変更する。このため、UI部19(表示部20)には、実空間画像42と、変更後の表示サイズのオブジェクト画像40Bと、の重畳画像44Bが表示される(図16(E)参照)。
Then, it is assumed that the user has instructed to change the display size of the object image 40A in the superimposed
第1算出部14Kは、変更前のオブジェクト画像40Aの表示サイズに対する、変更後のオブジェクト画像40Bの表示サイズの第1倍率と、変更前の実サイズと、の第1乗算値を、変更後の実サイズとして算出する。図16に示す例では、例えば、第1算出部14Kは、変更後の実サイズとして、縦800mm×横600mmの実サイズを示すサイズ情報48Bを算出する(図16(F)参照)。
The
第2表示制御部14Uは、第1算出部14Kによって算出された、変更後の実サイズを示す情報52を、表示部20(UI部19)に表示する。
The second
このため、図17に示すように、表示部20(UI部19)には、現在表示されているオブジェクト画像40Bの表示サイズに対応する、仮想オブジェクト50Bの実サイズを示す情報52が表示されることとなる。
For this reason, as shown in FIG. 17,
また、第1算出部14Kが、変更後の奥行きを算出した場合、第2表示制御部14Uは、変更後の奥行きを、表示部20(UI部19)に更に表示してもよい。この場合、図17に示すように、表示部20(UI部19)には、現在表示されているオブジェクト画像40Bの表示サイズに対応する、仮想オブジェクト50Bの実サイズと、奥行きと、を示す情報が表示されることとなる。
When the
次に、画像処理装置10で実行する表示処理の手順を説明する。図18は、画像処理装置10で実行する表示処理の手順を示すシーケンス図である。
Next, a display processing procedure executed by the
まず、受付部14Oが、仮想オブジェクトの、実空間における実サイズと、実空間における撮影部12に対する仮想オブジェクト(基準平面)の奥行きと、を受け付ける(SEQ99)。SEQ99では、詳細には、受付部14Oの第1受付部14Cが実サイズを受け付ける。また、受付部14Oの第4受付部14Rが、奥行きを受け付ける。そして、表示制御部14Tへ出力する。
First, the receiving unit 14O receives the actual size of the virtual object in the real space and the depth of the virtual object (reference plane) with respect to the photographing
次に、受付部14Oの第3受付部14Qが、ユーザから基準平面の設定指示を受け付け、設定処理部14Dへ出力する(SEQ100)。
Next, the
設定処理部14Dの設定部14Hは、設定指示を受け付けたときに第1取得部14Aで取得した第1姿勢情報を読取る(SEQ101)。そして、設定部14Hは、SEQ101で読取った第1姿勢情報を用いて、基準平面を設定する(SEQ102)。
The
なお、SEQ99の処理は、SEQ102とSEQ106との間の何れかのタイミングで行ってもよい。 Note that the processing of SEQ99 may be performed at any timing between SEQ102 and SEQ106.
導出部14Nは、検出部25で新たな第1姿勢情報が検出される度に、撮影部12の撮影方向A2に対する、設定された基準平面の第1相対方向を導出し(SEQ103)、算出部14Eおよび第1表示制御部14Gへ出力する(SEQ106)。また、算出部14Eの第2算出部14Lは、第1相対方向が導出される度に、第2姿勢情報を算出し(SEQ104)、算出部14Eおよび第1表示制御部14Gへ出力する(SEQ106)。
The deriving
また、設定処理部14Dの判定部14Iが、基準平面を設定したときから撮影方向A2が予め定めた第1相対角度以上回転したか否かを判定する(SEQ105)。
Further, the determination unit 14I of the
そして、第1相対角度未満回転したと判定されたときは、設定された基準平面を第1表示制御部14Gへ通知する(SEQ106)。一方、第1相対角度以上回転したと判定されたときは、再設定部14Jが、基準平面を再設定し、再設定した基準平面を、第1表示制御部14Gへ通知する(SEQ106)。
When it is determined that the rotation is less than the first relative angle, the set reference plane is notified to the first
第1表示制御部14Gは、後述する表示処理によって、撮影部12で撮影された実空間画像42における、基準平面に対応する領域に、第2姿勢情報の姿勢の仮想オブジェクトを描画したオブジェクト画像40を重畳した重畳画像44を、表示部20に表示する制御を行う(SEQ107)。
The first
具体的には、画像処理装置10では、以下のSEQ108〜SEQ120の処理を繰り返し実行する。
Specifically, the
まず、第1表示制御部14Gが算出部14Eに、第2姿勢情報と、第1位置と、第1距離に対する第2距離の倍率と、の算出指示を出力する(SEQ108)。
First, the first
算出部14Eの第2算出部14L、第3算出部14M、および第4算出部14Sは、第2姿勢情報、第1位置、および第1距離に対する第2距離の倍率を算出する(SEQ110)。そして、算出部14Eは、算出した第2姿勢情報、第1位置、および第1距離に対する第2距離の倍率を、第1表示制御部14Gへ出力する(SEQ112)。
The
第1表示制御部14Gは、光源情報を光源設定部14Fから取得する(SEQ114)。次に、第1表示制御部14Gは、実空間画像42を第2取得部14Bから取得する(SEQ116)。
The first
そして、第1表示制御部14Gは、実空間画像42における、第1位置の基準平面に対応する領域に、第2姿勢情報の姿勢の仮想オブジェクトを描画したオブジェクト画像40を重畳した重畳画像44を生成し(SEQ118)、表示部20に表示する制御を行う(SEQ120)。そして、本シーケンスを終了する。
Then, the first
また、画像処理装置10の表示処理部14では、第2受付部14Pが表示サイズの変更指示を受付けると、図19に示す割り込み処理を実行する。
Further, in the
図19は、割り込み処理の手順を示すシーケンス図である。 FIG. 19 is a sequence diagram illustrating a procedure of interrupt processing.
まず、第2受付部14Pが、オブジェクト画像40の、表示サイズの変更指示を受付ける(SEQ200)。第2受付部14Pは、受付けた変更指示によって示される、変更後の表示サイズを変更部14Wへ出力する(SEQ202)。
First, the
変更部14Wは、UI部19に表示されている重畳画像44に含まれるオブジェクト画像40を、SEQ202で受け付けた、変更指示によって示される表示サイズに変更する(SEQ204)。このため、UI部19(表示部20)には、実空間画像42と、変更後の表示サイズのオブジェクト画像40Bと、の重畳画像44Bが表示される(図16(E)参照)。
The changing
次に、変更部14Wは、SEQ202で受け付けた変更指示を、第1算出部14Kへ出力する(SEQ206)。第1算出部14Kは、変更前のオブジェクト画像40Aの表示サイズに対する、変更後のオブジェクト画像40Bの表示サイズの第1倍率を算出する。そして、第1算出部14Kは、第1倍率と、変更前の実サイズと、の第1乗算値を、変更後の実サイズとして算出する(SEQ208)。
Next, the changing
第1算出部14Kは、算出した変更後の実サイズを、記憶部16に記憶する。このとき、第1算出部14Kは、記憶部16に既に実サイズが記憶されている場合には、新たに算出した実サイズを上書きして記憶する。このため、第1算出部14Kは、変更後の実サイズの算出時には、記憶部16に記憶されている実サイズを読取ればよい。そして、読取った実サイズを、「変更前の実サイズ」として用いればよい。
The
そして、第1算出部14Kは、算出した、変更後の実サイズを示す情報を、第2表示制御部14Uへ出力する(SEQ210)。第2表示制御部14Uは、第1算出部14Kによって算出された、変更後の実サイズを示す情報52を、表示部20(UI部19)に表示する(SEQ212)。そして、本割り込み処理を終了する。
Then, the
このため、図17に示すように、表示部20(UI部19)には、現在表示されているオブジェクト画像40Bの表示サイズに対応する、仮想オブジェクト50Bの実サイズを示す情報52が表示されることとなる。また、上述したように、第2表示制御部14Uは、変更後の奥行きを更に表示してもよい。
For this reason, as shown in FIG. 17,
以上説明したように、本実施の形態の画像処理装置10は、撮影部12と、第1受付部14Cと、第1表示制御部14Gと、第2受付部14Pと、変更部14Wと、第1算出部14Kと、第2表示制御部14Uと、を備える。撮影部12は、実空間を撮影する。第1受付部14Cは、仮想オブジェクトの、実空間における実サイズを受け付ける。第1表示制御部14Gは、撮影部12によって撮影された実空間画像42と、仮想オブジェクトを仮想空間に描画したオブジェクト画像40と、の重畳画像44を、表示部20に表示する制御を行う。第2受付部14Pは、オブジェクト画像40の、表示サイズの変更指示を受付ける。変更部14Wは、オブジェクト画像40を、変更指示によって示される表示サイズに変更する。第1算出部14Kは、変更前のオブジェクト画像40の表示サイズに対する、変更後のオブジェクト画像40の表示サイズの第1倍率と、変更前の実サイズと、の第1乗算値を、変更後の実サイズとして算出する。第2表示制御部14Uは、変更後の実サイズを、表示部20に表示する。
As described above, the
このように、本実施の形態の画像処理装置10では、重畳画像44に含まれるオブジェクト画像40の表示サイズの変更指示を受付ける。そして、画像処理装置10では、オブジェクト画像40に対応する仮想オブジェクトの、実空間における実サイズを、変更指示に応じたサイズに変換し、変換後の実サイズを表示部20に表示する。
As described above, the
従って、本実施の形態の画像処理装置10では、オブジェクト画像40の表示サイズの変更に応じた、実空間における仮想オブジェクトの実サイズを、ユーザに対して容易に提供することができる。
Therefore, the
すなわち、本実施の形態の画像処理装置10では、UI部19に表示されたオブジェクト画像40の表示サイズがユーザによる操作によって変更されたときに、対応する実サイズの大きさを、ユーザに対して容易に確認可能に提供することができる。
That is, in the
また、本実施の形態の画像処理装置10は、検出部25と、第1取得部14Aと、第3受付部14Qと、設定部14Hと、導出部14Nと、第2算出部14Lと、を備える。検出部25は、撮影部12の第1姿勢情報を検出する。第1取得部14Aは、検出部24から第1姿勢情報を取得する。第3受付部14Qは、設定指示を受け付ける。設定部14Hは、設定指示を受け付けたときに、実空間における、仮想オブジェクトを配置する基準平面を、第1姿勢情報に応じて設定する。導出部14Nは、撮影部12の撮影方向に対する、基準平面の第1相対方向を導出する。第2算出部14Lは、第1相対方向に位置する基準平面の、第2姿勢情報を算出する。第1表示制御部14Gは、仮想空間に配置した実空間画像42と、実空間画像42における基準平面に対応する領域に、第2姿勢情報の姿勢の仮想オブジェクトを描画したオブジェクト画像40と、の重畳画像44を、表示部20に表示する制御を行う。
The
このように、本実施の形態の画像処理装置10では、実空間における基準平面を設定し、実空間画像における、基準平面に対応する領域に、仮想オブジェクトを描画して表示部20に表示する。このため、本実施の形態の画像処理装置10では、ARマーカなどを実空間に設置する必要なく、AR技術を実現することができる。
As described above, in the
このため、本実施の形態の画像処理装置10では、上記効果に加えて、実空間の環境に依存せず、容易に拡張現実による画像を提供することができる。
Therefore, in addition to the above effects, the
また、本実施の形態の画像処理装置10は、第4受付部14Rを備える。第4受付部14Rは、実空間における、撮影部12に対する基準平面の奥行きを受け付ける。この場合、第1算出部14Kは、変更後のオブジェクト画像40の表示サイズに対する、変更前のオブジェクト画像40の表示サイズの第2倍率と、変更前の奥行きと、の第2乗算値を、変更後の奥行きとして算出する。第2表示制御部14Uは、変更後の奥行きを、表示部20に更に表示する。
Further, the
このため、本実施の形態の画像処理装置10は、UI部19に表示されたオブジェクト画像40のユーザによる操作によって表示サイズが変更されたときに、対応する実サイズの大きさ、および変更後の奥行きを、ユーザに対して容易に確認可能に提供することができる。
For this reason, when the display size is changed by the operation of the
また、仮想オブジェクトは、例えば、印刷物である。このため、本実施の形態の画像処理装置10では、印刷物を仮想空間に描画したオブジェクト画像40について、ユーザによる操作によって表示サイズが変更されたときに、対応する実サイズの大きさを、ユーザに対して容易に確認可能に提供することができる。
The virtual object is a printed material, for example. For this reason, in the
また、設定部14Hは、実空間における、撮影方向に対して交差する平面を、基準平面として設定することが好ましい。
The
また、本実施の形態の画像処理装置10は、判定部14Iと、再設定部14Jと、を備える。判定部14Iは、基準平面の設定時に用いた第1姿勢情報と、今回取得した第1姿勢情報と、の比較結果に基づいて、基準平面を設定したときから撮影方向が予め定めた第1相対角度以上回転したか否かを判定する。再設定部14Jは、第1相対角度以上回転したと判定されたときに、基準平面を第1相対角度より大きい第2相対角度回転した平面を、新たな基準平面として再設定する。
In addition, the
次に、上述した画像処理装置10のハードウェア構成について説明する。
Next, the hardware configuration of the
図20は、画像処理装置10のハードウェア構成図である。画像処理装置10は、ハードウェア構成として、装置全体を制御するCPU2901と、各種データや各種プログラムを記憶するROM2902と、各種データや各種プログラムを記憶するRAM2903と、UI装置2904と、撮影装置2905と、検出器2906と、を主に備えており、通常のコンピュータを利用したハードウェア構成となっている。なお、UI装置2904は、図1のUI部19に相当し、撮影装置2905は、撮影部12に相当し、検出器2906は、検出部25に相当する。
FIG. 20 is a hardware configuration diagram of the
上記実施の形態の画像処理装置10で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。
The program executed by the
また、上記実施の形態の画像処理装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上記実施の形態の画像処理装置10で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
The program executed by the
また、上記実施の形態の画像処理装置10で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
In addition, the program executed by the
上記実施の形態の画像処理装置10で実行されるプログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記録媒体からプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、上記各部が主記憶装置上に生成されるようになっている。
The program executed by the
なお、本発明は上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせてもよい。また、種々の変形が可能である。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined. Various modifications are possible.
10 画像処理装置
12 撮影部
14A 第1取得部
14C 第1受付部
14G 第1表示制御部
14H 設定部
14J 再設定部
14K 第1算出部
14L 第2算出部
14M 第3算出部
14N 導出部
14P 第2受付部
14Q 第3受付部
14R 第4受付部
14S 第4算出部
14U 第2表示制御部
DESCRIPTION OF
Claims (8)
仮想オブジェクトの、実空間における実サイズを受け付ける第1受付部と、
前記撮影部によって撮影された実空間画像と、前記仮想オブジェクトを仮想空間に描画したオブジェクト画像と、の重畳画像を、表示部に表示する制御を行う第1表示制御部と、
前記オブジェクト画像の、表示サイズの変更指示を受付ける第2受付部と、
前記オブジェクト画像を、前記変更指示によって示される前記表示サイズに変更する変更部と、
変更前の前記オブジェクト画像の前記表示サイズに対する、変更後の前記オブジェクト画像の前記表示サイズの第1倍率と、変更前の前記実サイズと、の第1乗算値を、変更後の前記実サイズとして算出する第1算出部と、
変更後の前記実サイズを、前記表示部に表示する第2表示制御部と、
を備えた画像処理装置。 A shooting section for shooting a real space;
A first receiving unit that receives a real size of the virtual object in real space;
A first display control unit that performs control to display a superimposed image of a real space image captured by the imaging unit and an object image obtained by rendering the virtual object in a virtual space;
A second accepting unit for accepting an instruction to change the display size of the object image;
A change unit that changes the object image to the display size indicated by the change instruction;
The first multiplication value of the first magnification of the display size of the object image after the change and the actual size before the change with respect to the display size of the object image before the change is used as the actual size after the change. A first calculation unit for calculating;
A second display control unit for displaying the actual size after the change on the display unit;
An image processing apparatus.
前記検出部から前記第1姿勢情報を取得する第1取得部と、
設定指示を受け付ける第3受付部と、
前記設定指示を受け付けたときに、実空間における、前記仮想オブジェクトを配置する基準平面を、前記第1姿勢情報に応じて設定する設定部と、
前記撮影部の撮影方向に対する、前記基準平面の第1相対方向を導出する導出部と、
前記第1相対方向に位置する前記基準平面の、第2姿勢情報を算出する第2算出部と、
を備え、
前記第1表示制御部は、
仮想空間に配置した前記実空間画像と、仮想空間に配置した前記実空間画像における前記基準平面に対応する領域に、前記第2姿勢情報の姿勢の前記仮想オブジェクトを描画した前記オブジェクト画像と、の前記重畳画像を、前記表示部に表示する制御を行う、
請求項1に記載の画像処理装置。 A detecting unit for detecting first posture information of the photographing unit;
A first acquisition unit that acquires the first posture information from the detection unit;
A third receiving unit for receiving setting instructions;
A setting unit that, when receiving the setting instruction, sets a reference plane in which real objects are arranged in real space according to the first posture information;
A deriving unit for deriving a first relative direction of the reference plane with respect to the shooting direction of the shooting unit;
A second calculation unit for calculating second posture information of the reference plane located in the first relative direction;
With
The first display control unit includes:
The real space image arranged in the virtual space, and the object image in which the virtual object having the posture of the second posture information is drawn in an area corresponding to the reference plane in the real space image arranged in the virtual space. Control to display the superimposed image on the display unit;
The image processing apparatus according to claim 1.
前記第1算出部は、
変更後の前記オブジェクト画像の前記表示サイズに対する、変更前の前記オブジェクト画像の前記表示サイズの第2倍率と、変更前の前記奥行きと、の第2乗算値を、変更後の前記奥行きとして算出し、
前記第2表示制御部は、
変更後の前記奥行きを、前記表示部に更に表示する、
請求項2に記載の画像処理装置。 A fourth reception unit that receives the depth of the reference plane with respect to the imaging unit in real space;
The first calculation unit includes:
A second multiplication value of the second magnification of the display size of the object image before change and the depth before change with respect to the display size of the object image after change is calculated as the depth after change. ,
The second display controller is
The depth after the change is further displayed on the display unit.
The image processing apparatus according to claim 2.
実空間における、前記撮影方向に対して交差する平面を、前記基準平面として設定する、
請求項2に記載の画像処理装置。 The setting unit
A plane that intersects the shooting direction in real space is set as the reference plane.
The image processing apparatus according to claim 2.
前記第1相対角度以上回転したと判定されたときに、前記基準平面を前記第1相対角度より大きい第2相対角度回転した平面を、新たな前記基準平面として再設定する再設定部と、を備えた、
請求項2に記載の画像処理装置。 Based on a comparison result between the first posture information used at the time of setting the reference plane and the first posture information acquired this time, the first relative direction in which the shooting direction is predetermined from when the reference plane is set. A determination unit for determining whether or not the rotation is greater than an angle;
A resetting unit that resets a plane obtained by rotating the reference plane by a second relative angle larger than the first relative angle as a new reference plane when it is determined that the rotation has been performed by the first relative angle or more. Prepared,
The image processing apparatus according to claim 2.
仮想オブジェクトの、実空間における実サイズを受け付けるステップと、
前記撮影部によって撮影された実空間画像と、前記仮想オブジェクトを仮想空間に描画したオブジェクト画像と、の重畳画像を、表示部に表示する制御を行うステップと、
前記オブジェクト画像の、表示サイズの変更指示を受付けるステップと、
前記オブジェクト画像を、前記変更指示によって示される前記表示サイズに変更するステップと、
変更前の前記オブジェクト画像の前記表示サイズに対する、変更後の前記オブジェクト画像の前記表示サイズの第1倍率と、変更前の前記実サイズと、の第1乗算値を、変更後の前記実サイズとして算出するステップと、
変更後の前記実サイズを、前記表示部に表示するステップと、
を含む、画像処理方法。 An image processing method that is executed by an image processing apparatus including a photographing unit that photographs a real space,
Accepting the actual size of the virtual object in real space;
Performing a control to display a superimposed image of a real space image photographed by the photographing unit and an object image obtained by drawing the virtual object in a virtual space on a display unit;
Receiving an instruction to change the display size of the object image;
Changing the object image to the display size indicated by the change instruction;
The first multiplication value of the first magnification of the display size of the object image after the change and the actual size before the change with respect to the display size of the object image before the change is used as the actual size after the change. A calculating step;
Displaying the actual size after the change on the display unit;
Including an image processing method.
仮想オブジェクトの、実空間における実サイズを受け付けるステップと、
前記撮影部によって撮影された実空間画像と、前記仮想オブジェクトを仮想空間に描画したオブジェクト画像と、の重畳画像を、表示部に表示する制御を行うステップと、
前記オブジェクト画像の、表示サイズの変更指示を受付けるステップと、
前記オブジェクト画像を、前記変更指示によって示される前記表示サイズに変更するステップと、
変更前の前記オブジェクト画像の前記表示サイズに対する、変更後の前記オブジェクト画像の前記表示サイズの第1倍率と、変更前の前記実サイズと、の第1乗算値を、変更後の前記実サイズとして算出するステップと、
変更後の前記実サイズを、前記表示部に表示するステップと、
を実行させるプログラム。 To a computer equipped with an imaging unit that captures real space,
Accepting the actual size of the virtual object in real space;
Performing a control to display a superimposed image of a real space image photographed by the photographing unit and an object image obtained by drawing the virtual object in a virtual space on a display unit;
Receiving an instruction to change the display size of the object image;
Changing the object image to the display size indicated by the change instruction;
The first multiplication value of the first magnification of the display size of the object image after the change and the actual size before the change with respect to the display size of the object image before the change is used as the actual size after the change. A calculating step;
Displaying the actual size after the change on the display unit;
A program that executes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015012555A JP2016139199A (en) | 2015-01-26 | 2015-01-26 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015012555A JP2016139199A (en) | 2015-01-26 | 2015-01-26 | Image processing device, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016139199A true JP2016139199A (en) | 2016-08-04 |
Family
ID=56560192
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015012555A Pending JP2016139199A (en) | 2015-01-26 | 2015-01-26 | Image processing device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016139199A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020509505A (en) * | 2017-03-06 | 2020-03-26 | Line株式会社 | Method, apparatus and computer program for providing augmented reality |
CN112422945A (en) * | 2020-09-01 | 2021-02-26 | 华为技术有限公司 | Image processing method, mobile terminal and storage medium |
JP7417690B2 (en) | 2019-06-28 | 2024-01-18 | Lineヤフー株式会社 | Programs, information processing methods, terminals |
-
2015
- 2015-01-26 JP JP2015012555A patent/JP2016139199A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020509505A (en) * | 2017-03-06 | 2020-03-26 | Line株式会社 | Method, apparatus and computer program for providing augmented reality |
JP7417690B2 (en) | 2019-06-28 | 2024-01-18 | Lineヤフー株式会社 | Programs, information processing methods, terminals |
CN112422945A (en) * | 2020-09-01 | 2021-02-26 | 华为技术有限公司 | Image processing method, mobile terminal and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6476657B2 (en) | Image processing apparatus, image processing method, and program | |
TWI782332B (en) | An augmented reality data presentation method, device and storage medium | |
US11217019B2 (en) | Presenting image transition sequences between viewing locations | |
JP4508049B2 (en) | 360 ° image capturing device | |
JP6077068B1 (en) | Augmented reality system and augmented reality method | |
JP6748961B2 (en) | Projection image adjustment system and projection image adjustment method | |
US20180286098A1 (en) | Annotation Transfer for Panoramic Image | |
CN108573530B (en) | Augmented reality AR interaction method and system | |
CN110427110B (en) | Live broadcast method and device and live broadcast server | |
US20120120113A1 (en) | Method and apparatus for visualizing 2D product images integrated in a real-world environment | |
JP2022537614A (en) | Multi-virtual character control method, device, and computer program | |
CN111610998A (en) | AR scene content generation method, display method, device and storage medium | |
KR20150082358A (en) | Reference coordinate system determination | |
JP2011239361A (en) | System and method for ar navigation and difference extraction for repeated photographing, and program thereof | |
WO2021238145A1 (en) | Generation method and apparatus for ar scene content, display method and apparatus therefor, and storage medium | |
JP6488591B2 (en) | Image processing apparatus, image processing method, and program | |
JP2019212225A (en) | Terminal device and terminal device control method | |
US20190199992A1 (en) | Information processing apparatus, method for controlling the same, and recording medium | |
JP2017212510A (en) | Image management device, program, image management system, and information terminal | |
JP2021034885A (en) | Image generation device, image display device, and image processing method | |
JP6852295B2 (en) | Image processing equipment, image processing methods, and image processing programs | |
JP2016139199A (en) | Image processing device, image processing method, and program | |
JP6314672B2 (en) | Display processing apparatus, display processing method, and program | |
CN110286906A (en) | Method for displaying user interface, device, storage medium and mobile terminal | |
JP2013008257A (en) | Image composition program |