JP2011227759A - Image display device and program - Google Patents

Image display device and program Download PDF

Info

Publication number
JP2011227759A
JP2011227759A JP2010097927A JP2010097927A JP2011227759A JP 2011227759 A JP2011227759 A JP 2011227759A JP 2010097927 A JP2010097927 A JP 2010097927A JP 2010097927 A JP2010097927 A JP 2010097927A JP 2011227759 A JP2011227759 A JP 2011227759A
Authority
JP
Japan
Prior art keywords
image
display
display device
acquisition unit
image acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010097927A
Other languages
Japanese (ja)
Inventor
Isao Takahashi
高橋  功
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010097927A priority Critical patent/JP2011227759A/en
Publication of JP2011227759A publication Critical patent/JP2011227759A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image display device capable of switching a view point position with more intuitive operation when observing an object in three-dimensional virtual space.SOLUTION: An image display device comprises an image acquisition section, an display control section and an attitude detection section for detecting an attitude change of the device. The image acquisition section acquires a display image corresponding to a three-dimensional object observed in a predetermined view point position. The display control section makes the display device display a display image. The image acquisition section, when an attitude change is detected, shifts its view point position toward the attitude changing direction in such a way as to follow the change to acquire a display image again.

Description

本発明は、画像表示装置およびプログラムに関する。   The present invention relates to an image display device and a program.

従来から、三次元の仮想空間のオブジェクトをモニタに表示する技術が種々提案されている(例えば特許文献1参照)。   Conventionally, various techniques for displaying an object in a three-dimensional virtual space on a monitor have been proposed (see, for example, Patent Document 1).

特開2009-211423JP2009-211423

三次元の仮想空間のオブジェクトを画像表示装置で観察するときに、視点位置をより直感的な操作で切り替えることのできるユーザインタフェースが要望されている。   When observing an object in a three-dimensional virtual space with an image display device, there is a demand for a user interface that can switch the viewpoint position with a more intuitive operation.

上記事情に鑑み、三次元の仮想空間のオブジェクトを観察するときに、視点位置をより直感的な操作で切り替えることができる画像表示装置を提供する。   In view of the above circumstances, an image display device capable of switching the viewpoint position with a more intuitive operation when observing an object in a three-dimensional virtual space is provided.

一の態様の画像表示装置は、画像取得部と、表示制御部と、装置の姿勢の変化を検出する姿勢検出部とを備える。画像取得部は、三次元のオブジェクトを所定の視点位置で観察した状態に対応する表示画像を取得する。表示制御部は、表示画像を表示装置に表示させる。そして、画像取得部は、姿勢の変化が検出されたときに、視点位置を姿勢の変化する方向に追従するようにシフトさせて表示画像を再取得する。   An image display apparatus according to one aspect includes an image acquisition unit, a display control unit, and a posture detection unit that detects a change in the posture of the device. The image acquisition unit acquires a display image corresponding to a state in which a three-dimensional object is observed at a predetermined viewpoint position. The display control unit displays the display image on the display device. Then, when a change in posture is detected, the image acquisition unit shifts the viewpoint position so as to follow the direction in which the posture changes, and re-acquires the display image.

上記の一の態様において、画像取得部は、三次元のオブジェクトを所定の視点位置で観察した状態に対応する二次元画像を表示画像として取得してもよい。   In the one aspect described above, the image acquisition unit may acquire a two-dimensional image corresponding to a state in which a three-dimensional object is observed at a predetermined viewpoint position as a display image.

上記の一の態様の画像表示装置は、撮影光学系を介して被写体の像を撮像する撮像部をさらに備えていてもよい。また、画像取得部は、撮影光学系の光軸を基準として視点位置を設定してもよい。さらに、画像取得部は、撮像部のズーム状態に応じて、表示画像でのオブジェクトの拡大倍率を変更してもよい。   The image display device according to the one aspect may further include an imaging unit that captures an image of the subject via the imaging optical system. Further, the image acquisition unit may set the viewpoint position with reference to the optical axis of the photographing optical system. Furthermore, the image acquisition unit may change the magnification of the object in the display image according to the zoom state of the imaging unit.

また、表示制御部は、表示画像の表示のときに、画面上の位置を指定するポインタを表示してもよい。そして、画像取得部は、表示画像上でポインタにより指定された位置を基準として、表示画像の拡大または回転を行うようにしてもよい。   Further, the display control unit may display a pointer for designating a position on the screen when displaying the display image. Then, the image acquisition unit may enlarge or rotate the display image with reference to the position designated by the pointer on the display image.

また、上記の一の態様の画像表示装置は、装置の現在位置の座標を取得する現在位置取得部と、観察対象の方位を検出する方位検出部と、観察対象との距離を求める距離取得部とをさらに備えていてもよい。そして、三次元のオブジェクトの情報が位置座標と対応付けされているときに、画像取得部は、現在位置の座標、観察対象の方位、観察対象との距離を用いて観察対象の位置座標を求め、観察対象の位置座標に対応する三次元のオブジェクトの情報から表示画像を取得してもよい。   The image display device according to the one aspect includes a current position acquisition unit that acquires the coordinates of the current position of the device, an orientation detection unit that detects the orientation of the observation target, and a distance acquisition unit that calculates a distance from the observation target. And may be further provided. Then, when the information of the three-dimensional object is associated with the position coordinates, the image acquisition unit obtains the position coordinates of the observation target using the coordinates of the current position, the orientation of the observation target, and the distance to the observation target. The display image may be acquired from information of a three-dimensional object corresponding to the position coordinates of the observation target.

また、上記した一の態様の画像表示装置での各動作をコンピュータによる画像表示方法として表現する態様や、コンピュータを一の態様の画像表示装置として機能させるプログラムや、このプログラムを記憶したプログラム記憶媒体の構成も、本発明の具体的態様として有効である。   Also, an aspect in which each operation in the image display apparatus according to one aspect described above is expressed as an image display method by a computer, a program that causes the computer to function as an image display apparatus according to one aspect, and a program storage medium storing the program This configuration is also effective as a specific embodiment of the present invention.

本発明によれば、装置の姿勢の変化を検出したときに、視点位置を姿勢の変化する方向に追従するようにシフトさせて表示画像を取得し、視点位置をより直感的な操作で切り替えることができる。   According to the present invention, when a change in the posture of the apparatus is detected, the display position is acquired by shifting the viewpoint position so as to follow the direction in which the posture changes, and the viewpoint position is switched by a more intuitive operation. Can do.

一実施形態の画像表示装置の構成例を示すブロック図1 is a block diagram illustrating a configuration example of an image display device according to an embodiment; 一実施形態での三次元オブジェクトの表示動作例を示す流れ図A flowchart showing an example of a display operation of a three-dimensional object in one embodiment 仮想空間上での三次元オブジェクトおよび視点位置の関係例を示す模式図Schematic diagram showing an example of the relationship between the 3D object and the viewpoint position in the virtual space (a)〜(c):電子カメラを左方向に振った場合の投影画像の変化例を示す図(A)-(c): The figure which shows the example of a change of a projection image at the time of shaking an electronic camera to the left direction (a)〜(c):電子カメラを下方向に振った場合の投影画像の変化例を示す図(A)-(c): The figure which shows the example of a change of a projection image at the time of shaking an electronic camera to a downward direction (a):投影画像上にフォーカスセレクタを重畳表示した例を示す図、(b):図6(a)のフォーカスセレクタを基準として投影画像を拡大表示した例を示す図、(c):図6(a)のフォーカスセレクタを基準として投影画像を回転させて表示した例を示す図(A): a diagram showing an example in which a focus selector is superimposed on a projected image, (b): a diagram showing an example in which a projected image is enlarged and displayed with reference to the focus selector in FIG. 6 (a), (c): a diagram The figure which shows the example which rotated and displayed the projection image on the basis of the focus selector of 6 (a)

<画像表示装置の構成例>
図1は、一実施形態の画像表示装置を含む電子カメラの構成例を示すブロック図である。ここで、一実施形態の画像表示装置は、コンピュータ等で予め生成された三次元のオブジェクトのモデリングデータを読み込んで、上記のオブジェクトの二次元の投影画像を表示する機能を有している。
<Configuration example of image display device>
FIG. 1 is a block diagram illustrating a configuration example of an electronic camera including an image display device according to an embodiment. Here, the image display apparatus according to an embodiment has a function of reading modeling data of a three-dimensional object generated in advance by a computer or the like and displaying a two-dimensional projection image of the object.

一実施形態の電子カメラ1は、撮影レンズ11と、撮像部12と、カメラマイコン13と、記録I/F14と、モニタ15と、姿勢検出部16と、メモリ17と、現在位置取得部18と、方位検出部19と、距離取得部20と、レリーズ釦21と、ズームスイッチ22と、選択釦23とを有している。ここで、撮像部12、記録I/F14、モニタ15、姿勢検出部16、メモリ17、現在位置取得部18、方位検出部19、距離取得部20、レリーズ釦21、ズームスイッチ22、選択釦23は、それぞれカメラマイコン13と接続されている。   An electronic camera 1 according to an embodiment includes a photographing lens 11, an imaging unit 12, a camera microcomputer 13, a recording I / F 14, a monitor 15, an attitude detection unit 16, a memory 17, and a current position acquisition unit 18. , An orientation detection unit 19, a distance acquisition unit 20, a release button 21, a zoom switch 22, and a selection button 23. Here, the imaging unit 12, recording I / F 14, monitor 15, posture detection unit 16, memory 17, current position acquisition unit 18, direction detection unit 19, distance acquisition unit 20, release button 21, zoom switch 22, selection button 23 Are respectively connected to the camera microcomputer 13.

撮影レンズ11は、ズームレンズ、フォーカシングレンズを含む複数のレンズで構成されている。撮影レンズ11の各レンズ位置は、レンズ駆動部(不図示)によって光軸方向に調整される。なお、簡単のため、図1では撮影レンズ11を1枚のレンズとして図示する。   The taking lens 11 is composed of a plurality of lenses including a zoom lens and a focusing lens. Each lens position of the photographing lens 11 is adjusted in the optical axis direction by a lens driving unit (not shown). For the sake of simplicity, FIG. 1 shows the photographing lens 11 as a single lens.

撮像部12は、撮影レンズ11によって結像された被写体の像を撮像(撮影)するモジュールである。例えば、撮像部12は、光電変換を行う撮像素子と、A/D変換および各種の画像処理を行う画像処理回路とを含んでいる。   The imaging unit 12 is a module that captures (captures) an image of a subject formed by the photographing lens 11. For example, the imaging unit 12 includes an imaging element that performs photoelectric conversion, and an image processing circuit that performs A / D conversion and various types of image processing.

カメラマイコン13は、電子カメラ1の動作を統括的に制御するプロセッサである。例えば、カメラマイコン13は、撮影の際に公知のオートフォーカス制御や自動露出制御を実行する。なお、カメラマイコン13は、後述のフォーカスセレクタで指定された被写体に合焦するように撮影時にオートフォーカス制御を行ってもよい。   The camera microcomputer 13 is a processor that comprehensively controls the operation of the electronic camera 1. For example, the camera microcomputer 13 executes well-known autofocus control and automatic exposure control at the time of shooting. The camera microcomputer 13 may perform autofocus control at the time of shooting so as to focus on a subject specified by a focus selector described later.

また、カメラマイコン13は、プログラムの実行により、画像取得部31、表示制御部32として機能する。   The camera microcomputer 13 functions as an image acquisition unit 31 and a display control unit 32 by executing a program.

画像取得部31は、上記の三次元のオブジェクトのモデリングデータを用いて、二次元の投影画像を取得する。この投影画像は、所定の視点位置(投影中心)を基準とする投影面に、仮想空間内の三次元のオブジェクトを投影して観察した画像である。なお、一実施形態では、撮影レンズ11の光軸を基準として、仮想空間のオブジェクトに対する視点位置が設定される。   The image acquisition unit 31 acquires a two-dimensional projection image using the modeling data of the three-dimensional object. This projection image is an image observed by projecting a three-dimensional object in the virtual space onto a projection plane based on a predetermined viewpoint position (projection center). In one embodiment, the viewpoint position with respect to the object in the virtual space is set based on the optical axis of the photographing lens 11.

表示制御部32は、モニタ15に対して表示対象の画像(投影画像など)のデータを出力するとともに、モニタ15での画像の表示状態を制御する。   The display control unit 32 outputs data of a display target image (such as a projection image) to the monitor 15 and controls the display state of the image on the monitor 15.

記録I/F14は、不揮発性の記憶媒体33を接続するためのコネクタを有している。そして、記録I/F14は、コネクタに接続された記憶媒体33に対してデータの書き込み/読み込みを実行する。上記の記憶媒体33は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。図1では記憶媒体33の一例としてメモリカードを図示する。なお、三次元のオブジェクトのモデリングデータは、記憶媒体33に記録されていてもよい。   The recording I / F 14 has a connector for connecting a nonvolatile storage medium 33. The recording I / F 14 executes data writing / reading with respect to the storage medium 33 connected to the connector. The storage medium 33 includes a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the storage medium 33. Note that the modeling data of the three-dimensional object may be recorded in the storage medium 33.

モニタ15は、表示制御部32の指示に応じて各種画像を表示する。なお、一実施形態でのモニタ15は、例えば、電子カメラ1の筐体背面に配置される液晶表示パネルで構成される(図3参照)。   The monitor 15 displays various images according to instructions from the display control unit 32. In addition, the monitor 15 in one embodiment is composed of, for example, a liquid crystal display panel disposed on the back of the casing of the electronic camera 1 (see FIG. 3).

姿勢検出部16は、電子カメラ1の姿勢(撮影レンズ11の光軸を基準とする電子カメラ1のヨー、ピッチ、ローリング方向の角度)の変化を検出する。例えば、姿勢検出部16は、重力加速度(静的加速度)の計測に対応した公知の3軸加速度センサで構成される。   The attitude detection unit 16 detects changes in the attitude of the electronic camera 1 (yaw, pitch, and angle in the rolling direction of the electronic camera 1 with respect to the optical axis of the photographing lens 11). For example, the posture detection unit 16 includes a known three-axis acceleration sensor that supports measurement of gravitational acceleration (static acceleration).

メモリ17は、フラッシュメモリ等の不揮発性の記憶媒体で構成される。このメモリ17には、カメラマイコン13によって実行されるプログラムや、三次元オブジェクトのデータが記憶される。このプログラムによる表示モードでの動作例については後述する。なお、三次元のオブジェクトのモデリングデータは、予めメモリ17に記録されていてもよい。   The memory 17 is composed of a nonvolatile storage medium such as a flash memory. The memory 17 stores a program executed by the camera microcomputer 13 and data of a three-dimensional object. An operation example in the display mode by this program will be described later. Note that the modeling data of the three-dimensional object may be recorded in the memory 17 in advance.

現在位置取得部18は、電子カメラ1の現在位置の緯度、経度、高度を含む座標情報を取得する。一例として、現在位置取得部18は、GPS(Global Positioning System:全地球測位システム)による公知の測位装置で構成される。   The current position acquisition unit 18 acquires coordinate information including the latitude, longitude, and altitude of the current position of the electronic camera 1. As an example, the current position acquisition unit 18 is configured by a known positioning device using GPS (Global Positioning System).

方位検出部19は、撮影レンズ11を向けている観察対象の方位を検出する。例えば、方位検出部19は、互いに直交する方向の地磁気成分を検出する3軸の磁気センサを有している。そして、方位検出部19は、各磁気センサによる磁界検出値から、撮影レンズ11の光軸の向きを検出する。   The azimuth detecting unit 19 detects the azimuth of the observation target facing the photographing lens 11. For example, the azimuth detector 19 includes a triaxial magnetic sensor that detects geomagnetic components in directions orthogonal to each other. Then, the azimuth detecting unit 19 detects the direction of the optical axis of the photographic lens 11 from the magnetic field detection value by each magnetic sensor.

距離取得部20は、観察対象との距離を求める。例えば、距離取得部20は、観察対象で反射したレーザ光を受光することで観察対象との距離を測定するレーザ距離計である。   The distance acquisition unit 20 obtains a distance from the observation target. For example, the distance acquisition unit 20 is a laser distance meter that measures the distance to the observation target by receiving laser light reflected by the observation target.

レリーズ釦21は、撮像部12に対して画像の撮像指示を受け付けるスイッチである。また、ズームスイッチ22は、ズームレンズの移動による光学的なズーム操作や、画像の解像度変更による電子的なズーム操作を受け付けるスイッチである。また、選択釦23は、例えば十字キーであって、ユーザの選択操作を受け付けるスイッチである。例えば、選択釦23は、撮影時に撮影画面内で合焦させるべき位置(フォーカスエリア)を示すポインタ(フォーカスセレクタ)を移動させる操作に用いられる。   The release button 21 is a switch that accepts an image capturing instruction to the imaging unit 12. The zoom switch 22 is a switch that accepts an optical zoom operation by moving the zoom lens and an electronic zoom operation by changing the resolution of the image. The selection button 23 is, for example, a cross key and is a switch that accepts a user's selection operation. For example, the selection button 23 is used for an operation of moving a pointer (focus selector) indicating a position (focus area) to be focused on the shooting screen during shooting.

次に、図2の流れ図を参照しつつ、一実施形態の電子カメラにおける三次元オブジェクトの表示動作例を説明する。ここで、図2の流れ図の処理は、ユーザからのプログラム起動指示に応じて開始される。   Next, a display operation example of a three-dimensional object in the electronic camera of one embodiment will be described with reference to the flowchart of FIG. Here, the process of the flowchart of FIG. 2 is started in response to a program start instruction from the user.

ステップ#101:画像取得部31は、三次元オブジェクトのモデリングデータを記憶媒体33またはメモリ17から読み込む。   Step # 101: The image acquisition unit 31 reads modeling data of a three-dimensional object from the storage medium 33 or the memory 17.

ここで、三次元のオブジェクトのモデリングデータが位置座標と対応付けされた状態で複数存在する場合(例えば、実在する建造物のモデリングデータと、その建造物の位置座標が対応付けされたデータベースがある場合)、#101での画像取得部31は、電子カメラ1が向けられている観察対象に対応するモデリングデータを読み込むようにしてもよい。   Here, when there are a plurality of modeling data of a three-dimensional object associated with position coordinates (for example, there is a database in which modeling data of an existing building is associated with position coordinates of the building) ), The image acquisition unit 31 in # 101 may read modeling data corresponding to the observation target to which the electronic camera 1 is directed.

このとき、画像取得部31は、電子カメラ1の現在位置の座標情報、観察対象の方位、観察対象との距離をそれぞれ取得する。次に、画像取得部31は、上記の各情報から観察対象の位置座標を求める。そして、画像取得部31は、モデリングデータ側の位置座標と演算で求めた位置座標とのマッチングを行い、両者の座標のズレが閾値の範囲内に収まるモデリングデータを観察対象として読み出せばよい。   At this time, the image acquisition unit 31 acquires the coordinate information of the current position of the electronic camera 1, the orientation of the observation target, and the distance from the observation target. Next, the image acquisition part 31 calculates | requires the position coordinate of observation object from each said information. Then, the image acquisition unit 31 performs matching between the position coordinates on the modeling data side and the position coordinates obtained by the calculation, and reads out modeling data in which the deviation between the coordinates falls within the threshold range as an observation target.

ステップ#102:画像取得部31は、初期状態の視点位置を設定する。   Step # 102: The image acquisition unit 31 sets the viewpoint position in the initial state.

一例として、画像取得部31は、姿勢検出部16から電子カメラ1の現時点での姿勢情報を取得する。そして、画像取得部31は、現時点での電子カメラ1のヨー角を、仮想空間における三次元モデルの正面に対応付けする。また、画像取得部31は、水平面に対する電子カメラ1のピッチ角に応じて、仮想空間での視点位置を上下方向にシフトさせる。また、画像取得部31は、電子カメラ1のローリング角に応じて、表示画像の投影面を回転させる。さらに、画像取得部31は、表示画像の表示倍率を拡大なしの状態に設定する。なお、画像取得部31は、電子カメラ1の姿勢の変化を検出するために、#102で検出した電子カメラ1の姿勢情報をメモリ17に記憶する。   As an example, the image acquisition unit 31 acquires the current posture information of the electronic camera 1 from the posture detection unit 16. Then, the image acquisition unit 31 associates the current yaw angle of the electronic camera 1 with the front of the three-dimensional model in the virtual space. Further, the image acquisition unit 31 shifts the viewpoint position in the virtual space in the vertical direction according to the pitch angle of the electronic camera 1 with respect to the horizontal plane. Further, the image acquisition unit 31 rotates the projection surface of the display image according to the rolling angle of the electronic camera 1. Further, the image acquisition unit 31 sets the display magnification of the display image to a state without enlargement. The image acquisition unit 31 stores the posture information of the electronic camera 1 detected in # 102 in the memory 17 in order to detect a change in the posture of the electronic camera 1.

ここで、図3は、仮想空間上での三次元オブジェクトおよび視点位置の関係例を模式的に示している。なお、以下の説明では、初期状態の視点位置は、仮想空間でのオブジェクトの正面に投影面が正対する位置である場合を説明する。   Here, FIG. 3 schematically shows a relationship example between the three-dimensional object and the viewpoint position in the virtual space. In the following description, the case where the viewpoint position in the initial state is a position where the projection plane faces the front of the object in the virtual space will be described.

ステップ#103:画像取得部31は、現時点の視点位置を基準して仮想空間上に投影面を設定し、この投影面に三次元オブジェクトを投影した投影画像を生成する。例えば、画像取得部31は、モデリングデータに公知の幾何学変換を施して投影画像を生成すればよい。   Step # 103: The image acquisition unit 31 sets a projection plane on the virtual space with reference to the current viewpoint position, and generates a projection image in which the three-dimensional object is projected on the projection plane. For example, the image acquisition unit 31 may generate a projection image by performing a known geometric transformation on the modeling data.

ステップ#104:表示制御部32は、#103の処理によって取得された投影画像をモニタ15に表示させる。なお、カメラマイコン13は、レリーズ釦21の押圧に応じて、現在表示されている投影画像の視点位置を示す注目情報を生成してもよい。この注目情報を用いれば、三次元オブジェクトを表示するときに、好ましいアングルで投影画像を生成することも可能となる。   Step # 104: The display control unit 32 displays the projection image acquired by the process of # 103 on the monitor 15. Note that the camera microcomputer 13 may generate attention information indicating the viewpoint position of the currently displayed projection image in response to pressing of the release button 21. By using this attention information, it is possible to generate a projection image at a preferred angle when displaying a three-dimensional object.

ステップ#105:画像取得部31は、電子カメラ1の姿勢(ヨー角、ピッチ角、ローリング角)に変化があるか否かを判定する。一例として、画像取得部31は、姿勢検出部16から取得した姿勢情報とメモリ17に記憶されていた姿勢情報とを比較して、両者に閾値より大きな差があれば電子カメラ1の姿勢に変化があると判定する。   Step # 105: The image acquisition unit 31 determines whether or not there is a change in the posture (yaw angle, pitch angle, rolling angle) of the electronic camera 1. As an example, the image acquisition unit 31 compares the posture information acquired from the posture detection unit 16 with the posture information stored in the memory 17, and changes to the posture of the electronic camera 1 if there is a difference larger than the threshold value. Judge that there is.

上記要件を満たす場合(YES側)には、#106に処理が移行する。一方、上記要件を満たさない場合(NO側)には、#107に処理が移行する。なお、画像取得部31は、#105のNO側において、電子カメラ1の姿勢情報をメモリ17に上書きしてもよい。   If the above requirement is satisfied (YES side), the process proceeds to # 106. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to # 107. Note that the image acquisition unit 31 may overwrite the attitude information of the electronic camera 1 in the memory 17 on the NO side of # 105.

ステップ#106:画像取得部31は、電子カメラ1の姿勢の変化する方向に追従するように視点位置をシフトさせる。その後、画像取得部31は電子カメラ1の姿勢情報をメモリ17に上書きするとともに、#103の処理に戻ってカメラマイコン13が上記動作を繰り返す。   Step # 106: The image acquisition unit 31 shifts the viewpoint position so as to follow the direction in which the posture of the electronic camera 1 changes. Thereafter, the image acquisition unit 31 overwrites the attitude information of the electronic camera 1 on the memory 17, and returns to the process of # 103, and the camera microcomputer 13 repeats the above operation.

一例として、図3を参照しつつ、ユーザが電子カメラ1を左方向に振ってヨー角が変化した場合を考える。このとき、#106での画像取得部31は、仮想空間内での基準点を中心として、ヨー角と同じ角度だけ視点位置を右方向に回転させる。また、他の例として、図3を参照しつつ、ユーザが電子カメラ1を下方向に振ってピッチ角が変化した場合を考える。このとき、#106での画像取得部31は、仮想空間内での基準点を中心として、ピッチ角と同じ角度だけ視点位置を上方向に回転させる。   As an example, consider a case where the yaw angle is changed by the user shaking the electronic camera 1 leftward with reference to FIG. At this time, the image acquisition unit 31 in # 106 rotates the viewpoint position to the right by the same angle as the yaw angle around the reference point in the virtual space. As another example, a case where the pitch angle is changed by the user shaking the electronic camera 1 downward will be considered with reference to FIG. At this time, the image acquisition unit 31 in # 106 rotates the viewpoint position upward by the same angle as the pitch angle around the reference point in the virtual space.

そして、#106からループした#103の処理では、画像取得部31は、新たな視点位置に合わせて投影画像を再び生成する。なお、電子カメラ1を左方向に振った場合の投影画像の変化例を図4に示す。また、電子カメラ1を下方向に振った場合の投影画像の変化例を図5に示す。   And in the process of # 103 looped from # 106, the image acquisition part 31 produces | generates a projection image again according to a new viewpoint position. FIG. 4 shows a change example of the projected image when the electronic camera 1 is shaken in the left direction. FIG. 5 shows an example of a change in the projected image when the electronic camera 1 is shaken downward.

これにより、電子カメラ1で被写体を撮影するときと同じ動きで仮想空間での視点位置が移動する。したがって、ユーザは、電子カメラ1の姿勢を変化させることで仮想空間での視点位置を直感的に変更できる。   Thus, the viewpoint position in the virtual space moves with the same movement as when the subject is photographed with the electronic camera 1. Therefore, the user can intuitively change the viewpoint position in the virtual space by changing the posture of the electronic camera 1.

ステップ#107:画像取得部31は、ズームスイッチ22によるズーム操作を受け付けたか否かを判定する。上記要件を満たす場合(YES側)には、#108に処理が移行する。一方、上記要件を満たさない場合(NO側)には、#109に処理が移行する。   Step # 107: The image acquisition unit 31 determines whether or not a zoom operation by the zoom switch 22 has been accepted. If the above requirement is satisfied (YES side), the process proceeds to # 108. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to # 109.

ステップ#108:画像取得部31は、ズーム操作に応じて、仮想空間におけるオブジェクトの拡大倍率を変更する。#108での画像取得部31は、望遠側へのズーム操作(ズームイン)がされたときには拡大倍率を大きく変更し、広角側へのズーム操作(ズームアウト)がされたときは拡大倍率を小さく変更する。その後、#103の処理に戻ってカメラマイコン13が上記動作を繰り返す。   Step # 108: The image acquisition unit 31 changes the magnification of the object in the virtual space according to the zoom operation. The image acquisition unit 31 in # 108 changes the enlargement magnification greatly when the zoom operation (zoom-in) to the telephoto side is performed, and decreases the enlargement magnification when the zoom operation (zoom-out) to the wide angle side is performed. To do. Thereafter, returning to the process of # 103, the camera microcomputer 13 repeats the above operation.

なお、#108からループした#103の処理では、画像取得部31は、拡大倍率に応じて仮想空間での投影面の範囲を調整し、この投影面の画像をモニタ15の解像度(画像サイズ)に合わせて変換すればよい。   In the process of # 103 looped from # 108, the image acquisition unit 31 adjusts the range of the projection plane in the virtual space in accordance with the enlargement magnification, and the resolution (image size) of the monitor 15 is changed to the image of the projection plane. You may convert according to.

また、表示制御部32は、投影画像の表示のときに、画面上の位置を指定するポインタを、フォーカスセレクタと同じ表示形式で表示してもよい(図6(a)参照)。そして、画像取得部32は、投影画像上でポインタ(フォーカスセレクタ)により指定された位置を基準として、投影画像の拡大(図6(b))または投影画像の回転(図6(c))を行うようにしてもよい。   Further, the display control unit 32 may display a pointer for designating a position on the screen in the same display format as the focus selector when displaying the projection image (see FIG. 6A). Then, the image acquisition unit 32 enlarges the projection image (FIG. 6B) or rotates the projection image (FIG. 6C) with reference to the position specified by the pointer (focus selector) on the projection image. You may make it perform.

ステップ#109:カメラマイコン13は、三次元オブジェクトの表示動作の終了指示を受け付けたか否かを判定する。上記要件を満たす場合(YES側)には、カメラマイコン13は表示動作を終了させる。一方、上記要件を満たさない場合(NO側)には、カメラマイコン13は#105に戻って上記動作を繰り返す。以上で、図2の流れ図の説明を終了する。   Step # 109: The camera microcomputer 13 determines whether an instruction to end the display operation of the three-dimensional object has been received. If the above requirement is satisfied (YES side), the camera microcomputer 13 ends the display operation. On the other hand, if the above requirement is not satisfied (NO side), the camera microcomputer 13 returns to # 105 and repeats the above operation. Above, description of the flowchart of FIG. 2 is complete | finished.

一実施形態での電子カメラ1は、装置の姿勢の変化を検出したとき(#105)に、視点位置を姿勢の変化する方向に追従するようにシフトさせる(#106)。また、電子カメラ1は、ズームスイッチ22によるズーム操作に応じてオブジェクトの拡大倍率を変更する(#108)。これにより、ユーザは電子カメラ1で被写体を撮影するときと同じ操作感で、モニタ15に表示される三次元オブジェクトの画像を変更できる。   When detecting a change in the attitude of the apparatus (# 105), the electronic camera 1 according to the embodiment shifts the viewpoint position so as to follow the direction in which the attitude changes (# 106). Further, the electronic camera 1 changes the magnification of the object in accordance with the zoom operation by the zoom switch 22 (# 108). Thereby, the user can change the image of the three-dimensional object displayed on the monitor 15 with the same operation feeling as when photographing the subject with the electronic camera 1.

<実施形態の補足事項>
(1)上記実施形態では、画像表示装置を電子カメラ1に組み込む例を説明した。しかし、本発明の画像表示装置は、画像表示機能を有する他の電子機器(フォトビューア、携帯電話、携帯ゲーム機、電子書籍のビューア、ヘッドマウントディスプレイ等)に広く応用できる。なお、これらの電子機器の場合、モニタの表示面を基準として視点位置を設定すればよい。
<Supplementary items of the embodiment>
(1) In the above embodiment, the example in which the image display device is incorporated in the electronic camera 1 has been described. However, the image display device of the present invention can be widely applied to other electronic devices having an image display function (such as a photo viewer, a mobile phone, a portable game machine, an electronic book viewer, and a head-mounted display). In the case of these electronic devices, the viewpoint position may be set with reference to the display surface of the monitor.

(2)上記実施形態では、モデリングされた三次元オブジェクトを表示対象とする例を説明した。しかし、本発明は、例えば、全方向のパノラマ画像の表示に応用することも可能である。   (2) In the above embodiment, the example in which the modeled three-dimensional object is a display target has been described. However, the present invention can also be applied to display of panoramic images in all directions, for example.

(3)上記実施形態では、オブジェクトの投影画像が二次元画像である例を説明した。しかし、本発明の画像表示装置は、オブジェクトの投影画像として立体視用のステレオペア画像をモニタに表示してもよい。なお、ステレオペアの形式は公知の手法によればよい。例えば、画像表示装置は、平行法または交差法で観察する左目用画像および右目用画像を並列表示してもよい。または、画像表示装置は、両眼の偏光板の角度が異なる偏光メガネを用いて、それぞれ偏光方向の異なる左目用画像および右目用画像を観察させてもよい。また、液晶シャッタを用いる場合には、画像表示装置は、左目用画像と右目用画像とを交互に表示してもよい。また、画像表示装置は、左目用画像および右目用画像を赤青で色の異なるアナグリフ画像としてもよい。さらに、画像表示装置は、左目用画像と右目用画像とが所定方向の縞状に交互に配置された立体テレビ用の画像を出力してもよい。   (3) In the above embodiment, the example in which the projection image of the object is a two-dimensional image has been described. However, the image display device of the present invention may display a stereo pair image for stereoscopic viewing on the monitor as the projected image of the object. The stereo pair format may be a known method. For example, the image display device may display in parallel a left-eye image and a right-eye image that are observed by the parallel method or the intersection method. Alternatively, the image display apparatus may cause the left-eye image and the right-eye image having different polarization directions to be observed using polarized glasses with different polarizing angles of both eyes. Further, when the liquid crystal shutter is used, the image display device may alternately display the left-eye image and the right-eye image. Further, the image display device may convert the left-eye image and the right-eye image into red-blue anaglyph images having different colors. Further, the image display device may output a stereoscopic television image in which left-eye images and right-eye images are alternately arranged in a predetermined stripe pattern.

(4)上記実施形態において、電子カメラ1のカメラマイコン13により実行されるプログラムは、バージョンアップなどで更新されるファームウエアプログラムであってもよい。すなわち、電子カメラ1のファームウエアプログラムを更新することで、本発明の画像表示装置の機能を提供してもよい。なお、画像表示装置が電子カメラ1以外のデバイス(フォトビューアや携帯電話など)である場合には、上記実施形態のプログラムを、別売りのアプリケーションプログラムとして提供してもよい。   (4) In the above embodiment, the program executed by the camera microcomputer 13 of the electronic camera 1 may be a firmware program that is updated by version upgrade or the like. That is, the function of the image display apparatus of the present invention may be provided by updating the firmware program of the electronic camera 1. When the image display device is a device other than the electronic camera 1 (such as a photo viewer or a mobile phone), the program of the above embodiment may be provided as an optional application program.

(5)上記実施形態において、距離取得部は、合焦時の撮影レンズの位置を用いて被写体距離を求めるものであってもよい。   (5) In the above embodiment, the distance acquisition unit may obtain the subject distance using the position of the photographing lens at the time of focusing.

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。   From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and modifications, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.

1…電子カメラ、11…撮影レンズ、12…撮像部、13…カメラマイコン、14…記録I/F、15…モニタ、16…姿勢検出部、17…メモリ、18…現在位置取得部、19…方位検出部、20…距離取得部、21…レリーズ釦、22…ズームスイッチ、23…選択釦、31…画像取得部、32…表示制御部、33…記憶媒体 DESCRIPTION OF SYMBOLS 1 ... Electronic camera, 11 ... Shooting lens, 12 ... Imaging part, 13 ... Camera microcomputer, 14 ... Recording I / F, 15 ... Monitor, 16 ... Attitude detection part, 17 ... Memory, 18 ... Current position acquisition part, 19 ... Direction detection unit, 20 ... distance acquisition unit, 21 ... release button, 22 ... zoom switch, 23 ... selection button, 31 ... image acquisition unit, 32 ... display control unit, 33 ... storage medium

Claims (7)

三次元のオブジェクトを所定の視点位置で観察した状態に対応する表示画像を取得する画像取得部と、
前記表示画像を表示装置に表示させる表示制御部と、
装置の姿勢の変化を検出する姿勢検出部と、を備え、
前記画像取得部は、前記姿勢の変化が検出されたときに、前記視点位置を前記姿勢の変化する方向に追従するようにシフトさせて前記表示画像を再取得する画像表示装置。
An image acquisition unit that acquires a display image corresponding to a state in which a three-dimensional object is observed at a predetermined viewpoint position;
A display control unit for displaying the display image on a display device;
An attitude detection unit that detects a change in the attitude of the device,
The image acquisition unit is configured to re-acquire the display image by shifting the viewpoint position so as to follow the direction in which the posture changes when the change in the posture is detected.
請求項1に記載の画像表示装置において、
前記画像取得部は、三次元のオブジェクトを所定の視点位置で観察した状態に対応する二次元画像を前記表示画像として取得する画像表示装置。
The image display device according to claim 1,
The image acquisition unit is an image display device that acquires, as the display image, a two-dimensional image corresponding to a state in which a three-dimensional object is observed at a predetermined viewpoint position.
請求項1または請求項2に記載の画像表示装置において、
撮影光学系を介して被写体の像を撮像する撮像部をさらに備え、
前記画像取得部は、前記撮影光学系の光軸を基準として前記視点位置を設定する画像表示装置。
The image display device according to claim 1 or 2,
An imaging unit that captures an image of the subject via the imaging optical system;
The image acquisition unit is an image display device that sets the viewpoint position with reference to an optical axis of the photographing optical system.
請求項3に記載の画像表示装置において、
前記画像取得部は、前記撮像部のズーム状態に応じて、前記表示画像での前記オブジェクトの拡大倍率を変更する画像表示装置。
The image display device according to claim 3,
The image acquisition unit is an image display device that changes an enlargement magnification of the object in the display image according to a zoom state of the imaging unit.
請求項3または請求項4に記載の画像表示装置において、
前記表示制御部は、前記表示画像の表示のときに、画面上の位置を指定するポインタを表示し、
前記画像取得部は、前記表示画像上で前記ポインタにより指定された位置を基準として、前記表示画像の拡大または回転を行う画像表示装置。
In the image display device according to claim 3 or 4,
The display control unit displays a pointer for designating a position on the screen when the display image is displayed,
The image acquisition unit is an image display device that enlarges or rotates the display image with reference to a position designated by the pointer on the display image.
請求項1から請求項5のいずれかに記載の画像表示装置において、
装置の現在位置の座標を取得する現在位置取得部と、
観察対象の方位を検出する方位検出部と、
前記観察対象との距離を求める距離取得部と、をさらに備え、
三次元のオブジェクトの情報が位置座標と対応付けされているときに、前記画像取得部は、前記現在位置の座標、前記方位、前記距離を用いて前記観察対象の位置座標を求め、前記観察対象の位置座標に対応する前記三次元のオブジェクトの情報から前記表示画像を取得する画像表示装置。
The image display device according to any one of claims 1 to 5,
A current position acquisition unit for acquiring coordinates of the current position of the device;
An azimuth detector that detects the azimuth of the observation target;
A distance acquisition unit for obtaining a distance to the observation target;
When the information of the three-dimensional object is associated with the position coordinates, the image acquisition unit obtains the position coordinates of the observation target using the coordinates of the current position, the azimuth, and the distance, and the observation target An image display device that acquires the display image from the information of the three-dimensional object corresponding to the position coordinates.
三次元のオブジェクトを所定の視点位置で観察した状態に対応する表示画像を取得する処理と、
前記表示画像を表示装置に表示させる処理と、
装置の姿勢の変化を検出する処理と、
前記姿勢の変化が検出されたときに、前記視点位置を前記姿勢の変化する方向に追従するようにシフトさせて前記表示画像を再取得する処理と、をコンピュータに実行させるプログラム。
Processing for obtaining a display image corresponding to a state in which a three-dimensional object is observed at a predetermined viewpoint position;
Processing for displaying the display image on a display device;
Processing to detect changes in the posture of the device;
A program for causing a computer to execute a process of re-acquiring the display image by shifting the viewpoint position so as to follow the direction in which the posture changes when the change in posture is detected.
JP2010097927A 2010-04-21 2010-04-21 Image display device and program Withdrawn JP2011227759A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010097927A JP2011227759A (en) 2010-04-21 2010-04-21 Image display device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010097927A JP2011227759A (en) 2010-04-21 2010-04-21 Image display device and program

Publications (1)

Publication Number Publication Date
JP2011227759A true JP2011227759A (en) 2011-11-10

Family

ID=45043017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010097927A Withdrawn JP2011227759A (en) 2010-04-21 2010-04-21 Image display device and program

Country Status (1)

Country Link
JP (1) JP2011227759A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018051592A1 (en) * 2016-09-14 2018-03-22 ソニー株式会社 Information processing device, information processing method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018051592A1 (en) * 2016-09-14 2018-03-22 ソニー株式会社 Information processing device, information processing method, and program
US20190172271A1 (en) * 2016-09-14 2019-06-06 Sony Corporation Information processing device, information processing method, and program
JPWO2018051592A1 (en) * 2016-09-14 2019-06-24 ソニー株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
US11151804B2 (en) * 2016-09-14 2021-10-19 Sony Corporation Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
KR101983543B1 (en) Display control apparatus and control method of the same
TW201743602A (en) Image processing device, image processing method, non-transitory computer readable recording medium and photographing assist equipment
JP5851766B2 (en) Portable device
CN104717429A (en) Image capture device having tilt and/or perspective correction
TW201110056A (en) Electronic apparatus, display controlling method and program
JP2013057601A (en) Electronic instrument and imaging apparatus
JP6659148B2 (en) Display control device, control method therefor, program, and storage medium
JP5007631B2 (en) Electronic camera
JP5448739B2 (en) Image reproducing apparatus, imaging apparatus, and image reproducing method
JP2014074838A (en) Imaging device
JP5917061B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP5003358B2 (en) Display device, electronic camera, and control program
JP2007259002A (en) Image reproducing apparatus, its control method, and its control program
US11849100B2 (en) Information processing apparatus, control method, and non-transitory computer readable medium
JP5622180B2 (en) Imaging apparatus, imaging control method, and program
JP2011227759A (en) Image display device and program
JP2010063076A (en) Image processing apparatus and image processing apparatus program
JP6836306B2 (en) Imaging control device, its control method, program and recording medium
US20230281768A1 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
US20220385830A1 (en) Electronic apparatus, control method, and non-transitory computer readable medium
JP6456093B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6218615B2 (en) Display device, display method, photographing apparatus, and photographing system
JP2012227717A (en) Display device, display program, and display method
JP7358938B2 (en) Communication terminal, image communication system, display method, and program
JP2011135374A (en) Three-dimensional digital camera

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130702