JP5896445B2 - Display device, display method, and program - Google Patents

Display device, display method, and program Download PDF

Info

Publication number
JP5896445B2
JP5896445B2 JP2011052840A JP2011052840A JP5896445B2 JP 5896445 B2 JP5896445 B2 JP 5896445B2 JP 2011052840 A JP2011052840 A JP 2011052840A JP 2011052840 A JP2011052840 A JP 2011052840A JP 5896445 B2 JP5896445 B2 JP 5896445B2
Authority
JP
Japan
Prior art keywords
image
viewer
display
line
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011052840A
Other languages
Japanese (ja)
Other versions
JP2012190230A (en
Inventor
成暁 三浦
成暁 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2011052840A priority Critical patent/JP5896445B2/en
Publication of JP2012190230A publication Critical patent/JP2012190230A/en
Application granted granted Critical
Publication of JP5896445B2 publication Critical patent/JP5896445B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像を表示する表示装置、表示方法及びプログラムに関する。   The present invention relates to a display device that displays an image, a display method, and a program.

従来、平面状の表示部に画像(静止画、動画)などの画像を3D(3次元)表示することによりユーザ(視認者)に立体視させるようにした技術としては、各種の技術があり、例えば、2次元(2D)画像の中のオブジェクトを立体的に見せるような視覚効果を施すようにした技術がある。なお、ポリゴンを利用した技術は、この技術の一例である。また、視認者の右目と左目の視差を利用した技術もある。すなわち、互いに少しずらした右目用の画像と左目用の画像を用意し、それら2つの画像を同時に表示させた際に、右目用の画像は右目で見えて左目では見えないように、左目用の画像は左目で見えて右目では見えないようにするために、光の経路を遮断する電子式の視差バリア(スイッチング液晶パネル)を適切な位置に配置することによって画像を立体に見せるようにした技術であるが、3D用の高価な液晶表示装置を必要とするほかに、視野角が制限されて非常に狭いという問題があった。   Conventionally, there are various techniques as a technique for causing a user (viewer) to stereoscopically view a 3D (three-dimensional) image such as an image (still image, moving image) on a flat display unit, For example, there is a technique for applying a visual effect that makes an object in a two-dimensional (2D) image appear three-dimensionally. The technique using polygons is an example of this technique. There is also a technology that uses the parallax of the right and left eyes of the viewer. That is, when a right-eye image and a left-eye image that are slightly shifted from each other are prepared and the two images are displayed at the same time, the right-eye image is visible to the right eye and not to the left eye. Technology that makes the image look three-dimensional by placing an electronic parallax barrier (switching liquid crystal panel) that blocks the light path in an appropriate position so that the image can be seen by the left eye but not the right eye However, in addition to the need for an expensive liquid crystal display device for 3D, there is a problem that the viewing angle is limited and it is very narrow.

また、上述のような3D専用の表示装置を使用せずに画像を立体視することができるようにした技術として、例えば、X軸、Y軸、Z軸の各軸回りにおける筐体の回転角度を検出し、各回転角度に応じた画像を3次元表示させるようにした技術(ゲーム装置)が知られている(特許文献1参照)。   In addition, as a technique that enables stereoscopic viewing of an image without using the 3D-dedicated display device as described above, for example, the rotation angle of the housing around each of the X, Y, and Z axes A technique (game device) is known in which an image corresponding to each rotation angle is displayed in a three-dimensional manner (see Patent Document 1).

特開2002−298160号公報JP 2002-298160 A

しかしながら、上述した関連する技術(特許文献1の技術)にあっては、操作者が筐体を傾かせるという操作が行われることにより表示部内の画像を変化させるようにしたもので、筐体を動かすことを前提とした技術であり、しかも、筐体をどの方向にどの程度、傾かせたらどのように画像が変化するかは、何回も操作してみなければ、把握することができず、使い慣れるまでに相当の時間を要することになる。更に、実際の物体を視線方向を変えて覗き込むという行為のように、表示されている画像を上下左右などの任意の方向から覗き込むように視線方向を変えて見たとしても、筐体を動かさなければ、その画像を変化させることはできなかった。   However, in the related technique (the technique of Patent Document 1) described above, an image in the display unit is changed by an operation in which the operator tilts the casing. This technology is based on the premise of moving the camera. In addition, it is impossible to figure out how many times and in what direction the image will change if the housing is tilted. It will take a considerable amount of time to get used to it. Furthermore, even if you look at the displayed image from any direction, such as up, down, left, or right, as if you were looking into a real object by changing the line of sight, Without moving it, the image could not be changed.

本発明の課題は、画面を見る視認者の視線方向に応じた画像を表示できるようにすることである。   The subject of this invention is enabling it to display the image according to the gaze direction of the viewer who looks at a screen.

上述した課題を解決するために本発明の一つの態様は、
画像を表示する表示手段と、
前記表示手段に対面する視認者を撮影する撮像手段と、
前記撮像手段によって撮影された画像内における前記視認者の位置に基づいて、前記表示手段に対面してその画面を見る前記視認者の視線方向を決定する視線方向決定手段と、
前記撮像手段の光軸位置と前記表示手段の中心位置とのずれに基づいて前記視認者の視線方向を補正し、当該補正された前記視認者の視線方向に基づいて3次元モデルの画像データを回転することにより、その視線方向から見られているような状態の画像を生成する画像生成手段と、
前記画像生成手段により生成された画像を前記表示手段に表示させる表示制御手段と、
を備えたことを特徴とする表示装置。
In order to solve the above-described problem, one aspect of the present invention is as follows.
Display means for displaying an image;
Imaging means for photographing a viewer facing the display means;
Based on the position of the viewer in the captured image by the imaging means, and the line-of-sight direction determining means for determining a viewing direction of the viewer to see the screen and facing said display means,
The gaze direction of the viewer is corrected based on the deviation between the optical axis position of the imaging means and the center position of the display means, and image data of a three-dimensional model is obtained based on the corrected gaze direction of the viewer. An image generating means for generating an image in a state as seen from the viewing direction by rotating ;
Display control means for causing the display means to display an image generated by the image generation means;
A display device comprising:

上述した課題を解決するために本発明の他の態様は、
コンピュータに対して、
画像を表示する表示手段に対面にその画面を見る視認者を撮像手段により撮像し、当該撮像された画像に基づいて前記視認者の視線方向を決定する機能と、
前記撮像手段の光軸位置と前記表示手段の中心位置とのずれに基づいて前記視認者の視線方向を補正する機能と、
前記補正された前記視認者の視線方向に基づいて3次元モデルの画像データを回転することにより、その視線方向から見られているような状態の画像を生成する機能と、
前記生成された画像を前記表示手段に表示させる機能と、
を実現させるためのプログラム。




In order to solve the above-described problem, another aspect of the present invention provides:
Against the computer,
A function of capturing a viewer who views the screen in a face-to-face manner on a display unit that displays an image by the imaging unit, and determining the line-of-sight direction of the viewer based on the captured image;
A function of correcting the visual line direction of the viewer based on the deviation between the optical axis position of the imaging means and the center position of the display means ;
A function of generating an image in a state as seen from the gaze direction by rotating the image data of the three-dimensional model based on the gaze direction of the corrected viewer;
A function of displaying the generated image on the display means;
A program to realize




本発明によれば、画面を見る視認者の視線方向に応じた画像を表示することができ、3D用の特別な表示装置を使用しなくても、リアリティに富んだ画像表示を実現することが可能となる。   According to the present invention, it is possible to display an image according to the line-of-sight direction of a viewer viewing the screen, and to realize an image display rich in reality without using a special 3D display device. It becomes possible.

表示装置として適用した携帯電話機の基本的な構成要素を示したブロック図。The block diagram which showed the fundamental component of the mobile telephone applied as a display apparatus. 携帯電話機の外観斜視図。FIG. (1)は、三次元モデルの画像データ(三次元モデル画像)を示した図、(2)は、表示部6に表示されている三次元モデル画像を水平方向から見ている場合を示した図。(1) is a diagram showing image data (three-dimensional model image) of a three-dimensional model, and (2) shows a case where the three-dimensional model image displayed on the display unit 6 is viewed from the horizontal direction. Figure. (1)は、表示部6に表示されている三次元モデル画像を斜め上方向(図中、斜め上30°方向)から見ている場合を示し(2)は、斜め下方向(図中、斜め下30°方向)から見ている場合を示した図。(1) shows a case where the three-dimensional model image displayed on the display unit 6 is viewed from an obliquely upward direction (in the figure, obliquely upward 30 ° direction). (2) is an obliquely downward direction (in the figure, The figure which showed the case where it sees from diagonally downward 30 degrees direction. 視認者の視線方向に応じて表示画像を変化させる視線表示制御処理を示したフローチャート。The flowchart which showed the gaze display control process which changes a display image according to a viewer's gaze direction. 図5に続く動作を示したフローチャート。The flowchart which showed the operation | movement following FIG. 視認者の目の位置がインカメラ8の光軸(水平)方向に対して上下方向(垂直方向)に“ズレ”ている場合を示した図。The figure which showed the case where the position of a viewer's eyes is "deviation" in the up-down direction (vertical direction) with respect to the optical axis (horizontal) direction of the in-camera 8. FIG. インカメラ8の光軸と表示部6の画面中心位置とが“ズレ”ている場合を示した図。The figure which showed the case where the optical axis of the in-camera 8 and the screen center position of the display part 6 have shifted | deviated. (1)は、視認者とインカメラ8との位置関係に応じて変化する座標値と角度を示した図、(2)は、視認者を撮影した撮影画像内での座標値を示した図。(1) is a diagram showing coordinate values and angles that change in accordance with the positional relationship between the viewer and the in-camera 8, and (2) is a diagram showing coordinate values in a captured image obtained by photographing the viewer. . 第2実施形態を説明するための図。The figure for demonstrating 2nd Embodiment. 本発明の機能を説明するための機能ブロック図。The functional block diagram for demonstrating the function of this invention.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。
(第1実施形態)
先ず、図1〜図9を参照して本発明の第1実施形態を説明する。
この実施形態は、表示装置として携帯電話機に適用した場合を例示したもので、図1は、この携帯電話機の基本的な構成要素を示したブロック図である。
この携帯電話機には、音声データを送受信して通話する音声通話機能のほか、音声以外にリアルタイム画像(相手画像、自分画像)を送受信して通話するTV(テレビ)電話機能を備え、相手側との間でTV電話による通話が可能となっている。更に、携帯電話機には、カメラ機能、電子メール機能、インターネット接続機能などが備えられている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
First, a first embodiment of the present invention will be described with reference to FIGS.
This embodiment exemplifies a case where the present invention is applied to a mobile phone as a display device, and FIG. 1 is a block diagram showing basic components of the mobile phone.
This mobile phone has a voice call function for sending and receiving voice data and calling, and a TV (telephone) phone function for sending and receiving real-time images (partner image and self-image) in addition to voice. A telephone call can be made between the two. Furthermore, the mobile phone is provided with a camera function, an e-mail function, an Internet connection function, and the like.

中央制御部1は、二次電池を備えた電源部2からの電力供給によって動作し、記憶部3内の各種のプログラムに応じてこの携帯電話機の全体動作を制御する中央演算処理装置やメモリなどを有している。この記憶部3には、プログラム記憶部M1、画像記憶部M2などが設けられている。なお、記憶部3は、内蔵型の記憶部に限らず、例えば、SDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しない所定の外部サーバ上の記憶領域を含むようにしてもよい。プログラム記憶部M1は、図5及び図6に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているほか、それに必要とする情報などが記憶されている。画像記憶部M2には、カメラ機能により撮影された画像やインターネットからダウンロードした画像などが記憶されている。   The central control unit 1 operates by supplying power from a power supply unit 2 having a secondary battery, and controls the overall operation of the mobile phone according to various programs in the storage unit 3. have. The storage unit 3 includes a program storage unit M1, an image storage unit M2, and the like. Note that the storage unit 3 is not limited to a built-in storage unit, and may be configured to include a removable portable memory (recording medium) such as an SD card or an IC card. The upper storage area may be included. The program storage unit M1 stores a program and various applications for realizing the present embodiment in accordance with the operation procedure shown in FIGS. 5 and 6, and stores information necessary for the program. Yes. The image storage unit M2 stores images taken by the camera function, images downloaded from the Internet, and the like.

無線通信部4は、通話機能、電子メール機能、インターネット接続機能などの動作時に、最寄りの基地局との間でデータの送受信を行うもので、通話機能の動作時にはベースバンド部の受信側から信号を取り込んで受信ベースバンド信号に復調したのち、音声信号処理部15を介して通話用スピーカSPから音声出力させ、また、通話用マイクMCからの入力音声データを音声信号処理部5から取り込み、送信ベースバンド信号に符号化したのち、ベースバンド部の送信側に与えてアンテナから発信出力させる。表示部6は、例えば、高精細液晶又は有機EL(Electro Luminescence)ディスプレイで、文字情報、待受画像、画像などを表示する。   The wireless communication unit 4 transmits and receives data to and from the nearest base station during a call function, an e-mail function, an Internet connection function, and the like. During the call function operation, a signal is received from the receiving side of the baseband unit. Is demodulated into a reception baseband signal, and then voice is output from the speaker SP for call via the voice signal processing unit 15, and input voice data from the microphone MC for call is received from the voice signal processing unit 5 and transmitted. After encoding into a baseband signal, it is given to the transmission side of the baseband part and transmitted from the antenna. The display unit 6 displays character information, a standby image, an image, and the like, for example, with a high-definition liquid crystal or an organic EL (Electro Luminescence) display.

操作部7は、ダイヤル入力、文字入力、コマンド入力などを入力するもので、中央制御部1は、この操作部7からの入力操作信号に応じた処理を実行する。インカメラ8は、携帯電話機を構成する筺体の表面側に配設されていて、ユーザ(視認者)己の顔などを撮影するTV電話用のカメラ撮像部であり、また、アウトカメラ9は、筺体の裏面側に配設されていて、外界を撮影するカメラ撮像部である。インカメラ8、アウトカメラ9は、撮影レンズ、ミラーなどのレンズ・ミラーブロック、撮像素子、その駆動系のほか、測距センサ、光量センサ、アナログ処理回路、信号処理回路、圧縮伸張回路などを備え、光学ズームを調整制御したり、オートフォーカス機能の駆動を制御したりする。   The operation unit 7 inputs dial input, character input, command input, and the like. The central control unit 1 executes processing according to an input operation signal from the operation unit 7. The in-camera 8 is disposed on the surface side of the casing constituting the mobile phone, and is a camera imaging unit for a TV phone that photographs a user's (viewer) 's own face, etc. It is a camera imaging part which is arrange | positioned at the back surface side of a housing and image | photographs the external world. The in-camera 8 and the out-camera 9 include a photographing lens, a lens / mirror block such as a mirror, an image sensor, and a driving system thereof, a distance measuring sensor, a light amount sensor, an analog processing circuit, a signal processing circuit, a compression / expansion circuit, and the like. Adjusting and controlling the optical zoom and controlling the driving of the autofocus function.

図2は、携帯電話機の外観斜視図である。
携帯電話機は、2つの筐体(操作部筐体11、表示部筐体12)が開閉可能(折り畳み可能)に取り付けられたもので、この2つの筐体11、12を開いた状態(オープンスタイル)において、操作部筐体11の表面側には操作部7が配設され、表示部筐体12の表面側には表示部6が配設されていると共にその近傍にはインカメラ8が配設されている。この場合、インカメラ8は、図示のように、表示部6が縦長となる縦画面の向きとした状態において、その長手方向一端側(図中、上側)の近傍に配設されており、表示部6に対面してその画面を見る視認者(ユーザ)の顔を撮影するようにしている。
FIG. 2 is an external perspective view of the mobile phone.
The cellular phone has two housings (an operation unit housing 11 and a display unit housing 12) attached to be openable and closable (foldable), and the two housings 11 and 12 are opened (open style). ), The operation unit 7 is disposed on the surface side of the operation unit housing 11, the display unit 6 is disposed on the surface side of the display unit housing 12, and the in-camera 8 is disposed in the vicinity thereof. It is installed. In this case, as shown in the drawing, the in-camera 8 is disposed in the vicinity of one end side in the longitudinal direction (upper side in the figure) in a state where the display unit 6 is oriented in a portrait screen with a portrait orientation. The face of the viewer (user) who faces the unit 6 and looks at the screen is photographed.

図3(1)は、三次元モデルの画像データ(三次元モデル画像)を例示した図で、図示の例では、直方体の図形を示しているが、キャラクタなどであってもよい。図3(2)は、表示部6の画面に表示されている三次元モデル画像を水平方向から見ている場合を示し、三次元モデル画像は、その正面部のみが見える状態で表示される。   FIG. 3A is a diagram illustrating image data (three-dimensional model image) of a three-dimensional model. In the illustrated example, a rectangular parallelepiped figure is shown, but a character or the like may be used. FIG. 3B shows a case where the three-dimensional model image displayed on the screen of the display unit 6 is viewed from the horizontal direction, and the three-dimensional model image is displayed in a state where only the front portion is visible.

これに対して図4(1)は、表示部6の画面に表示されている三次元モデル画像を斜め上方向(図中、斜め上30°方向)から見ている場合を示し、三次元モデル画像は、その正面部及び上面部が見える状態で表示される。図4(2)は、斜め下方向(図中、斜め下30°方向)から見ている場合を示し、三次元モデル画像は、その正面部及び下面部が見える状態で表示される。このように本実施形態では、表示部6に対面してその画面を見る視認者の視線方向に応じて三次元モデル画像の見え方を変化させるようにしている。   On the other hand, FIG. 4A shows a case where the three-dimensional model image displayed on the screen of the display unit 6 is viewed from an obliquely upward direction (an obliquely upward 30 ° direction in the figure). The image is displayed in a state where the front portion and the upper surface portion are visible. FIG. 4 (2) shows a case of viewing from an obliquely downward direction (in the figure, an obliquely downward 30 ° direction), and the three-dimensional model image is displayed in a state in which the front part and the bottom part are visible. As described above, in the present embodiment, the appearance of the three-dimensional model image is changed according to the line-of-sight direction of the viewer who faces the display unit 6 and views the screen.

中央制御部1は、2つの筐体11、12を開いた状態(オープンスタイル)において、所定のユーザ操作が行われた場合、つまり、視認者の視線方向に応じて表示画像を変化させる処理(視線表示制御処理)がユーザ操作により指示された場合に、表示部6を見る視認者をインカメラ8により撮影させた後、この撮影画像を解析して視認者の目の位置を特定するようにしている。そして、この目の位置に応じて視線方向を決定し、この視線方向から見られているような状態の画像を生成して、表示部6に表示させるようにしている。すなわち、実空間上において実際の物体を視線方向を変えて覗き込むという行為と同様に、表示されている画像を上下左右などの任意の方向から覗き込むように視線方向が変えられた場合に、その変えられた視線方向から見られているような状態の画像を生成して、表示させるようにしている。   The central control unit 1 performs a process of changing the display image according to a predetermined user operation in a state where the two casings 11 and 12 are opened (open style), that is, according to the viewing direction of the viewer ( When a visual line display control process is instructed by a user operation, a viewer who views the display unit 6 is photographed by the in-camera 8, and the captured image is analyzed to identify the position of the viewer's eyes. ing. Then, the line-of-sight direction is determined according to the position of the eyes, and an image as seen from the line-of-sight direction is generated and displayed on the display unit 6. That is, when the gaze direction is changed to look into the displayed image from any direction such as up, down, left, and right, similar to the act of looking into an actual object while changing the gaze direction in real space, An image in a state as seen from the changed line-of-sight direction is generated and displayed.

次に、第1実施形態における携帯電話機の動作概念を図5及び図6に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。図5及び図6は、携帯電話機の全体動作のうち第1実施形態の特徴的な動作を示したフローチャートで、この図5及び図6のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。   Next, the operation concept of the mobile phone in the first embodiment will be described with reference to the flowcharts shown in FIGS. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. 5 and 6 are flowcharts showing the characteristic operation of the first embodiment of the overall operation of the mobile phone. When the flow of FIG. 5 and FIG. Return to (not shown).

図5及び図6は、視認者の視線方向に応じて表示画像を変化させる視線表示制御処理を示したフローチャートである。
先ず、中央制御部1は、表示対象の画像(三次元モデル画像)を画像記憶部M2などから読み出すと共に(ステップS1)、インカメラ8を駆動して前方撮影を行わせる(ステップS2)。この場合、表示部6に対面してその画面を見ている視認者がインカメラ8により撮影されることになる。そして、中央制御部1は、この撮影画像を解析することにより視認者の目の位置を特定する画像認識を行う(ステップS3)。なお、撮影画像を解析しながら顔の輪郭や顔を形成するバーツ(目、口、鼻、額など)の形や位置関係などを総合的に判断して、顔及び目の位置を認識するようにしているが、この画像認識の機能は、カメラにおいて一般的に用いられている技術であり、本実施形態ではその周知技術を利用するようにしているため、その具体的な説明については省略するものとする。
5 and 6 are flowcharts showing a line-of-sight display control process for changing a display image according to the line-of-sight direction of the viewer.
First, the central control unit 1 reads an image to be displayed (three-dimensional model image) from the image storage unit M2 or the like (step S1), and drives the in-camera 8 to perform forward shooting (step S2). In this case, a viewer viewing the screen facing the display unit 6 is photographed by the in-camera 8. Then, the central control unit 1 performs image recognition that identifies the position of the viewer's eyes by analyzing the captured image (step S3). It should be noted that the face and eye positions are recognized by comprehensively judging the face outline and the shape and positional relationship of the baht (eyes, mouth, nose, forehead, etc.) forming the face while analyzing the captured image. However, since this image recognition function is a technique that is generally used in cameras, and this embodiment uses the well-known technique, a detailed description thereof will be omitted. Shall.

次に、視認者の視線方向を決定してその目の位置を三次元モデル画像と同じ空間の座標値に変換する処理をY軸及びX軸に対してそれぞれ実行する。先ず、図5及び図6のフローではY軸に対する処理(ステップS4〜S9)を行った後、X軸に対する処理(図6のステップS10〜S14)を行うようにしているが、このY軸に対する処理(ステップS4〜S9)とX軸に対する処理(図6のステップS10〜S14)とは、基本的に同様の処理である。   Next, the process of determining the viewing direction of the viewer and converting the position of the eyes into coordinate values in the same space as the three-dimensional model image is executed for the Y axis and the X axis, respectively. First, in the flow of FIG. 5 and FIG. 6, the process for the Y axis (steps S4 to S9) is performed, and then the process for the X axis (steps S10 to S14 in FIG. 6) is performed. The processing (steps S4 to S9) and the processing for the X axis (steps S10 to S14 in FIG. 6) are basically the same processing.

図7は、Y軸に対する処理を説明するための図で、視認者の目の位置がインカメラ8の光軸(水平)方向に対して上下方向(垂直方向)に“ズレ”ている場合を図示したもので、表示部6の画面に対して垂直な方向(インカメラ8の光軸方向)を3次元座標系のZ軸(第3軸)とした場合に、Y軸(第2軸)上の目の位置のZ軸に対する角度θが視認者の視線方向となることを示している。なお、3次元座標系のX軸を第1軸、Y軸を第2軸、Z軸を第3軸としているが、これらの関係に限るものではない(以下、同様)。図7(1)は、視認者とインカメラ8との位置関係に応じて変化する座標値y、z及び角度θ、θmaxを示した図であり、図7(2)は、視認者を撮影した撮影画像内での座標値y、ymaxを示した図である。なお、図7では図示省略したが、インカメラ8の撮影面(撮像素子)が表示部6の表示面と一致して同一の垂直面内にあるようにしている。   FIG. 7 is a diagram for explaining the processing with respect to the Y axis, and shows the case where the position of the viewer's eyes is “shifted” in the vertical direction (vertical direction) with respect to the optical axis (horizontal) direction of the in-camera 8. In the figure, when the direction perpendicular to the screen of the display unit 6 (the optical axis direction of the in-camera 8) is the Z axis (third axis) of the three-dimensional coordinate system, the Y axis (second axis) It is shown that the angle θ of the upper eye position with respect to the Z-axis is the viewing direction of the viewer. Although the X axis of the three-dimensional coordinate system is the first axis, the Y axis is the second axis, and the Z axis is the third axis, the relationship is not limited to these (the same applies hereinafter). FIG. 7A is a diagram showing coordinate values y and z and angles θ and θmax that change in accordance with the positional relationship between the viewer and the in-camera 8, and FIG. 7B is a photograph of the viewer. It is the figure which showed the coordinate values y and ymax within the picked-up image. Although not shown in FIG. 7, the photographing surface (imaging device) of the in-camera 8 is made to coincide with the display surface of the display unit 6 and be in the same vertical plane.

先ず、中央制御部11は、Y軸に対する処理を開始すると、y/ymaxの算出を行う(ステップS4)。ここで、yは、目の位置を相当するY軸上の座標値であり、ymaxは、インカメラ8の画角(θmax)に相当するY軸上の座標値である。この場合、y、ymaxの具体的な数値は不明であるが、y、ymaxの比(y/ymax)は既知の値として取り扱うことができるため、この既知の値とインカメラ8の固定値θmaxとを使用して、視認者の視線方向(目の位置の角度)θ、tanθを次式にしたがって算出する(ステップS5)。
tanθ=(y/ymax)tan(θmax)
なお、θ自体はアークタンジェントなどで求める。
First, when starting the process for the Y axis, the central control unit 11 calculates y / ymax (step S4). Here, y is a coordinate value on the Y axis corresponding to the eye position, and ymax is a coordinate value on the Y axis corresponding to the angle of view (θmax) of the in-camera 8. In this case, the specific numerical values of y and ymax are unknown, but the ratio of y and ymax (y / ymax) can be treated as a known value, so this known value and the fixed value θmax of the in-camera 8 Are used to calculate the viewing direction (angle of eye position) θ and tan θ of the viewer according to the following equation (step S5).
tan θ = (y / ymax) tan (θmax)
Note that θ itself is obtained by an arc tangent or the like.

次に、インカメラ8から視認者の顔までのZ軸上の距離zを取得する(ステップS6)。この場合、本実施形態ではインカメラ8のオートフォーカス機能を使用して距離zを取得するようにしているが、この機能はカメラにおいて一般的に用いられている周知技術であるため、その説明は省略する。なお、撮影画像内での左目と右目の間の距離から概算的にインカメラ8から視認者の顔までの距離zを算出するようにしてもよい。また、撮影画像内での顔の大きさから概算的にインカメラ8から視認者の顔までの距離zを算出するようにしてもよい。更には、距離zをユーザ操作により任意に設定された値、例えば、一律に30cmなどとして決めておいてもよい。このようにしてインカメラ8から視認者の顔までの実空間内での距離zが決まると、この距離zを使用して、実空間内での視認者の目の位置yを次式にしたがって算出する(ステップS7)。
y=z*tanθ
Next, the distance z on the Z axis from the in-camera 8 to the viewer's face is acquired (step S6). In this case, in the present embodiment, the distance z is obtained by using the autofocus function of the in-camera 8, but this function is a well-known technique that is generally used in the camera, and therefore the description thereof will be given. Omitted. Note that the distance z from the in-camera 8 to the face of the viewer may be calculated approximately from the distance between the left eye and the right eye in the captured image. Further, the distance z from the in-camera 8 to the viewer's face may be calculated approximately from the size of the face in the captured image. Furthermore, the distance z may be determined as a value arbitrarily set by a user operation, for example, 30 cm. When the distance z in the real space from the in-camera 8 to the viewer's face is thus determined, the distance z is used to determine the eye position y of the viewer in the real space according to the following equation. Calculate (step S7).
y = z * tan θ

図8は、インカメラ8の光軸と表示部6の画面中心位置とが“ズレ”ている場合を示した図である。このように表示部6の画面中心位置に対してインカメラ8の光軸が“ズレ”ている場合に、そのズレ量の値を“yズレ”とすると、視認者の目の位置yをこの“yズレ”分補正(加算)する(ステップS8)。このようにして実空間内における目の位置座標y、zを求めた後は、この位置座標y、zを三次元モデル画像と同じ空間上の座標値に変換する(ステップS9)。例えば、三次元モデル画像の作成時(デザイン時)に、その開発者が決めた比率を座標値y、zに乗じるようにするようにしてもよい。なお、表示部6の画面中心位置を三次元座標系の原点とした場合において、例えば、三次元モデル画像が画面から1cm奥に見えるように配置されているときのz座標値をマイナス1と決めておくと、その画像の奥行き(1cm)を考慮して、y、z(単位、cm)の値を求めるようにしてもよい。   FIG. 8 is a diagram illustrating a case where the optical axis of the in-camera 8 and the screen center position of the display unit 6 are “deviation”. In this way, when the optical axis of the in-camera 8 is “deviation” with respect to the screen center position of the display unit 6, if the value of the deviation amount is “y deviation”, the viewer's eye position y is Correction (addition) is made by “y deviation” (step S8). After obtaining the eye position coordinates y and z in the real space in this way, the position coordinates y and z are converted to coordinate values in the same space as the three-dimensional model image (step S9). For example, the coordinate values y and z may be multiplied by the ratio determined by the developer at the time of creating (designing) the 3D model image. When the screen center position of the display unit 6 is the origin of the three-dimensional coordinate system, for example, the z-coordinate value when the three-dimensional model image is arranged so as to be seen 1 cm behind the screen is determined to be minus one. In other words, the values of y and z (unit: cm) may be obtained in consideration of the depth (1 cm) of the image.

このようにしてY軸に対する処理(ステップS4〜S9)によって三次元モデル画像と同じ空間上の座標値y、zを求めた後は、X軸に対する処理(ステップS10〜S18)を実行する。図9は、視認者の目の位置がインカメラ8の光軸(水平)方向に対して左右方向(水平方向)に“ズレ”ている場合を図示したもので、表示部6の画面に対して垂直な方向(インカメラ8の光軸方向)を3次元座標系のZ軸とした場合に、X軸上の目の位置のZ軸に対する角度θが視認者の視線方向となることを示している。図9(1)は、視認者とインカメラ8との位置関係に応じて変化する座標値x、zと角度θ、θmaxを示した図であり、図9(2)は、視認者を撮影した撮影画像内での座標値x、xmaxを示した図である。なお、この場合においてもインカメラ8の撮影面(撮像素子)が表示部6の表示面とが一致して同一の垂直面内となっている。   After obtaining the coordinate values y and z in the same space as the three-dimensional model image by the process for the Y axis (steps S4 to S9) in this way, the process for the X axis (steps S10 to S18) is executed. FIG. 9 illustrates a case where the position of the viewer's eyes is “deviation” in the left-right direction (horizontal direction) with respect to the optical axis (horizontal) direction of the in-camera 8. When the vertical direction (the optical axis direction of the in-camera 8) is the Z-axis of the three-dimensional coordinate system, the angle θ of the eye position on the X-axis with respect to the Z-axis is the viewing direction of the viewer. ing. FIG. 9 (1) is a diagram showing coordinate values x and z and angles θ and θmax that change in accordance with the positional relationship between the viewer and the in-camera 8, and FIG. It is the figure which showed coordinate value x and xmax in the picked-up image. In this case as well, the photographing surface (imaging device) of the in-camera 8 is in the same vertical plane with the display surface of the display unit 6 being coincident.

先ず、中央制御部11は、x/xmaxを算出する(ステップS10)。ここで、xは、目の位置を相当するX軸上の座標値であり、xmaxは、インカメラ8の画角(θmax)に相当するX軸上の座標値である。そして、視認者の視線方向(目の位置の角度)θ、tanθを次式にしたがって算出する(ステップS11)。
tanθ=(x/xmax)tan(θmax)
なお、θ自体はアークタンジェントなどで求める。
First, the central control unit 11 calculates x / xmax (step S10). Here, x is a coordinate value on the X-axis corresponding to the eye position, and xmax is a coordinate value on the X-axis corresponding to the angle of view (θmax) of the in-camera 8. Then, the viewing direction (angle of the eye position) θ and tan θ of the viewer is calculated according to the following equation (step S11).
tan θ = (x / xmax) tan (θmax)
Note that θ itself is obtained by an arc tangent or the like.

次に、上述のステップS6で取得したインカメラ8から視認者の顔までのZ軸上の距離zに基づいて、実空間内での視認者の目の位置xを次式にしたがって算出する(ステップS12)。
x=z*tanθ
そして、表示部6の画面中心位置に対してインカメラ8の光軸が“ズレ”ている場合、そのズレ量を“xズレ”とすると、視認者の目の位置xを“xズレ”分補正(加算)する(ステップS13)。このようにして実空間内における目の位置座標x、zを求めた後は、この位置座標x、zを三次元モデル画像と同じ空間上の座標値に変換する(ステップS14)。
Next, based on the distance z on the Z axis from the in-camera 8 to the viewer's face acquired in step S6 described above, the viewer's eye position x in real space is calculated according to the following equation ( Step S12).
x = z * tan θ
When the optical axis of the in-camera 8 is “deviation” with respect to the screen center position of the display unit 6, if the deviation amount is “x deviation”, the eye position x of the viewer is set to “x deviation”. Correction (addition) is performed (step S13). After obtaining the eye position coordinates x and z in the real space in this way, the position coordinates x and z are converted into coordinate values in the same space as the three-dimensional model image (step S14).

このようにして三次元モデル画像と同じ空間上の座標値(目の位置)x、y、zを求めた後は、この目の位置から三次元モデル画像を見られているような状態となるように三次元モデル画像を三次元座標系上で回転させてその回転後の画像を表示部6に表示させる(ステップS15)。その後、画像の切り替えが指示されたかを調べたり(ステップS16)、視線表示制御の終了が指示されたかを調べたりする(ステップS18)。いま、例えば、ユーザ(視認者)操作による切替操作が行われたとき又はスライドショ表示時では一定時間の経過が検出されたときには(ステップS16でYES)、表示対象の画像(三次元モデル画像)を選択した後(ステップS17)、図5のステップS1に戻り、以下、上述の動作を繰り返す。また、ユーザ(視認者)操作による終了操作が行われたとき又はスライドショ表示時ではスライドショ終了時間の経過が検出されたときには(ステップS18でYES)、図5及び図6のフローから抜ける。   After obtaining the coordinate values (eye positions) x, y, z in the same space as the 3D model image in this way, the 3D model image is viewed from this eye position. In this manner, the three-dimensional model image is rotated on the three-dimensional coordinate system, and the rotated image is displayed on the display unit 6 (step S15). Thereafter, it is checked whether or not an instruction to switch images has been issued (step S16), or whether or not an instruction to end the line-of-sight display control has been given (step S18). Now, for example, when a switching operation by a user (viewer) operation is performed or when an elapse of a predetermined time is detected during slideshow display (YES in step S16), an image to be displayed (three-dimensional model image) After selecting (step S17), the process returns to step S1 in FIG. Further, when the end operation by the user (viewer) operation is performed or when the slide show end time has been detected at the time of slide show display (YES in step S18), the flow of FIG. 5 and FIG. 6 is exited.

以上のように、第1実施形態においては、表示部6に対面してその画面を見る視認者の視線方向から見られているような状態の画像を生成して表示するようにしたので、視線方向に応じた画像を表示することができ、3D用の特別な表示装置を使用しなくても、視認者にあっては3D表示のような画像を見ることができ、リアリティに富んだ画像表示を実現することが可能となる。   As described above, in the first embodiment, an image in a state as seen from the viewing direction of a viewer who faces the display unit 6 and looks at the screen is generated and displayed. An image corresponding to the direction can be displayed, and even if a special display device for 3D is not used, a viewer can see an image like a 3D display, and the image display is rich in reality. Can be realized.

また、実空間上で実際の物体を視線方向を変えて覗き込むという行為と同様に、表示されている画像を上下左右などの任意の方向から覗き込むように画面に対する視線方向が変えられた場合に、その覗き込まれた視線方向から見られているような状態の画像に変更するようにしたので、例えば、あるキャラクタが表示部6の全体に表示されている状態において、そのキャラクタを下から覗き込みたいと、視認者が画面に近付き、下からキャラクタを見るような行動を起こすと、その下から覗き込んだような状態の画像に変更することができる。   Also, when the gaze direction on the screen is changed so that you can look into the displayed image from any direction, such as up, down, left, or right, in the same way as the action of looking at an actual object in real space while changing the gaze direction In addition, since the image is changed to a state as seen from the direction of the line of sight, for example, when a certain character is displayed on the entire display unit 6, the character is displayed from below. If the viewer approaches the screen and wants to look into the screen and takes action to look at the character from below, the image can be changed to a state of looking into from below.

表示部6に対面する視認者を撮影するインカメラ8により撮影された画像に基づいて視認者の視線方向を決定するようにしたので、画像認識により視認者の視線方向を確実かつ容易に決定することができる。   Since the visual line direction of the viewer is determined based on the image captured by the in-camera 8 that captures the viewer facing the display unit 6, the visual line direction of the viewer is reliably and easily determined by image recognition. be able to.

インカメラ8により撮影された画像を解析することにより視認者の目の位置を特定すると共に、表示部6の画面に対して垂直な方向を3次元座標系のZ軸とした場合に、Y軸上の目の位置のZ軸に対する角度と、X軸上の目の位置のZ軸に対する角度を視認者の視線方向として決定し、この視線方向に基づいて3次元モデルの画像データを回転することにより、その視線方向から見られているような状態の画像を生成するようにしたので、3次元モデルの画像データを回転させるだけで、視線方向から見られているような状態の画像を得ることができる。   When the position of the viewer's eyes is specified by analyzing the image captured by the in-camera 8 and the direction perpendicular to the screen of the display unit 6 is the Z-axis of the three-dimensional coordinate system, the Y-axis The angle of the upper eye position with respect to the Z axis and the angle of the eye position on the X axis with respect to the Z axis are determined as the viewing direction of the viewer, and the image data of the three-dimensional model is rotated based on the viewing direction. As a result, an image in a state as seen from the line-of-sight direction is generated. Therefore, an image in a state as seen from the line-of-sight direction can be obtained simply by rotating the image data of the three-dimensional model. Can do.

また、視認者の視線方向と表示部6から視認者までの距離に基づいて視認者の目の位置を特定しその目の位置から物体を見られているような状態の画像を生成するようにしたので、視認者にあっては画像を見る距離を一定に保つ必要がなく、遠く又は近くから見ても、その位置から物体を見られているような状態の画像が表示されるので、表示部6からの距離を意識する必要がなくなる。   Further, the position of the viewer's eyes is specified based on the viewing direction of the viewer and the distance from the display unit 6 to the viewer, and an image in a state where the object is viewed from the position of the eyes is generated. Therefore, it is not necessary for the viewer to keep the image viewing distance constant, and even if viewed from a distance or near, an image is displayed as if the object is viewed from that position. There is no need to be aware of the distance from the section 6.

(実施形態2)
以下、この発明の第2実施形態について図10を参照して説明する。
なお、上述した第1実施形態においては、表示部6の画面から視認者の目の位置までの角度θ、tanθを求めようにしたが、この第2実施形態にあっては、表示部6の画面から表示画像の位置までの奥行きを画像毎に考慮して、奥行きを持った各画像から視認者の目の位置までの角度φ、tanφを求めようにしたものである。ここで、両実施形態において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第2実施形態の特徴部分を中心に説明するものとする。
(Embodiment 2)
A second embodiment of the present invention will be described below with reference to FIG.
In the first embodiment described above, the angles θ and tan θ from the screen of the display unit 6 to the position of the viewer's eyes are obtained, but in the second embodiment, the display unit 6 In consideration of the depth from the screen to the position of the display image for each image, the angles φ and tan φ from each image having a depth to the eye position of the viewer are obtained. Here, in both the embodiments, the same or the same names are denoted by the same reference numerals, the description thereof will be omitted, and the following description will focus on the features of the second embodiment. .

図10は、表示部6の画面から視認者の目の位置までの角度θと、奥行きを持った画像から視認者の目の位置までの角度φを説明するための図である。ここで、視認者の目の位置がインカメラ8の光軸(水平)方向に対して上下方向(垂直方向)に“ズレ”ている場合において、表示部6の画面に対して垂直な方向(インカメラ8の光軸方向)を3次元座標系のZ軸とすると共に、Y軸上の目の位置のZ軸に対する角度を視認者の視線方向としている。そして、表示部6の画面から視認者の目の位置までの角度θを求めた後、奥行きを持った画像から視認者の目の位置までの角度φを求めるようにしている。ここで、図中、Aは、表示部6の画面からの画像までの奥行き(既知の値)を示している。   FIG. 10 is a diagram for explaining an angle θ from the screen of the display unit 6 to the position of the viewer's eyes and an angle φ from the image having a depth to the position of the viewer's eyes. Here, when the position of the eyes of the viewer is “deviation” in the vertical direction (vertical direction) with respect to the optical axis (horizontal) direction of the in-camera 8, the direction perpendicular to the screen of the display unit 6 ( The optical axis direction of the in-camera 8) is the Z axis of the three-dimensional coordinate system, and the angle of the eye position on the Y axis with respect to the Z axis is the viewing direction of the viewer. Then, after obtaining the angle θ from the screen of the display unit 6 to the position of the viewer's eyes, the angle φ from the image having the depth to the position of the viewer's eyes is obtained. Here, in the figure, A indicates the depth (known value) from the screen of the display unit 6 to the image.

すなわち、
tanθ=y/z…(1)
tanφ=y/(z+A)…(2)
この両式(1)、(2)にyが共通しているため、ztanθ=(z+A)*tanφ
したがって、tanφ=(z/(z+A))*tanθ
That is,
tan θ = y / z (1)
tan φ = y / (z + A) (2)
Since y is common to both equations (1) and (2), ztanθ = (z + A) * tanφ.
Therefore, tan φ = (z / (z + A)) * tan θ

ここで、z、θは、上述した第1実施形態と同様にして求められるため、奥行きを持った画像から視認者の目の位置までの角度φが得られる。その際、表示部6の画面から奥行きを持った画像を複数表示させる場合には、各画像までの奥行きを画像毎に考慮して、奥行きを持った各画像から視認者の目の位置までの角度φを求めるようにしている。なお、図10は、Y軸上の目の位置のZ軸に対する角度を求める場合を示したが、X軸上の目の位置のZ軸に対する角度も基本的には同様に求めることができる。   Here, since z and θ are obtained in the same manner as in the first embodiment described above, an angle φ from an image having a depth to the eye position of the viewer is obtained. At that time, when a plurality of images with depth are displayed from the screen of the display unit 6, the depth from each image to the position of the eye of the viewer is taken into consideration for each image. The angle φ is obtained. Note that FIG. 10 shows a case where the angle of the eye position on the Y axis with respect to the Z axis is obtained, but the angle of the eye position on the X axis with respect to the Z axis can be basically obtained in the same manner.

以上のように、第2実施形態においては、表示部6の画面から画像までの奥行きを考慮して、奥行きを持った画像から視認者の目の位置までの角度を視線方向としたので、奥行きを持った画像であっても、角度(視線方向)を求めることができ、実空間上で実際の物体を視線方向を変えて覗き込むという行為と同様に、視認者の視線方向から見たような状態となるような画像に変更することが可能となる。   As described above, in the second embodiment, considering the depth from the screen of the display unit 6 to the image, the angle from the image having the depth to the position of the viewer's eyes is set as the line-of-sight direction. It is possible to determine the angle (gaze direction) even for images with the same angle as in the act of looking at an actual object in real space while changing the gaze direction. It is possible to change to an image that will be in a correct state.

また、表示部6の画面から奥行きを持った画像を複数表示させる場合には、各画像までの奥行きを画像毎に考慮して、奥行きを持った各画像から視認者の目の位置までの角度を求めるようにしたので、画像毎に見え方が変わり、更に、リアリティに富んだ画像表示が可能となる。   Further, when displaying a plurality of images having depth from the screen of the display unit 6, the angle from each image having the depth to the position of the eye of the viewer is considered for each image. Therefore, the appearance changes for each image, and more realistic image display is possible.

なお、上述した各実施形態においては、Y軸上の目の位置のZ軸に対する角度を求めると共に、X軸上の目の位置のZ軸に対する角度を求めるようにしたが、そのいずれか一方を求めるようにしてもよい。つまり、上下方向のみ覗き込めるようにしたり、左右方向のみ覗き込めるようにしたりするようにしてもよい。   In each of the above-described embodiments, the angle of the eye position on the Y axis with respect to the Z axis is obtained, and the angle of the eye position on the X axis with respect to the Z axis is obtained. You may make it ask. In other words, it may be possible to look only in the vertical direction or to look only in the horizontal direction.

また、目の位置の角度θ、φが所定角以上(例えば、70°以上)に達した場合には、直方体の裏側の画像を生成して表示させたり、直方体図形の中身、例えば、直方体が家の外観モデルであれば、家の中の画像を生成して表示させたりするようにしてもよい。   Further, when the angle θ, φ of the eye position reaches a predetermined angle or more (for example, 70 ° or more), an image on the back side of the cuboid is generated and displayed, or the contents of the cuboid figure, for example, the cuboid is displayed. In the case of a house appearance model, an image inside the house may be generated and displayed.

また、上述した各実施形態においては、インカメラ8を基準にして視認者の視線方向を特定して、この目の位置から三次元モデル画像を見られているような状態となるように三次元モデル画像を回転させて表示するようにしたが、例えば、仮想カメラを視認者の目の位置y、zに設定すると共に、仮想カメラの視野を表示部6の画面に向けた状態において、3D技術のレンダリング表示(例えば、OpenGL/Direct3Dなど)を使用して、物体の見え方を計算しながらその画像を作成するようにしてもよい。   Further, in each of the above-described embodiments, the viewer's line-of-sight direction is specified with reference to the in-camera 8, and the three-dimensional model image is viewed from the position of the eyes. The model image is rotated and displayed. For example, in the state where the virtual camera is set to the eye position y and z of the viewer and the visual field of the virtual camera is directed to the screen of the display unit 6, the 3D technology A rendering display (for example, OpenGL / Direct3D) may be used to generate the image while calculating how the object looks.

上述した各実施形態においては、折り畳み型の携帯電話機に適用した場合を示したが、2軸タイプの携帯電話機などに適用してもよく、そのタイプは問わない。また、インカメラ8に限らず、携帯電話機とは別のカメラ(例えば、外部機器)を使用して視認者を撮影するようにしてもよい。   In each of the above-described embodiments, the case where the present invention is applied to a foldable mobile phone has been described. However, the present invention may be applied to a two-axis type mobile phone, and the type is not limited. Moreover, you may make it image | photograph a viewer using not only the in camera 8 but a camera (for example, external apparatus) different from a mobile telephone.

また、上述した各実施形態においては、インカメラ8で視認者を撮影してその視線方向を特定するようにした場合を例示したが、例えば、角速度センサ、加速度センサなどを使用して筐体の回転角度を求めて、その方向から見られているような状態の画像を生成するようにしてもよい。   Moreover, in each embodiment mentioned above, although the case where a viewer was image | photographed with the in-camera 8 and the direction of the line of sight was specified was illustrated, for example, an angular velocity sensor, an acceleration sensor, etc. are used, for example. You may make it generate | occur | produce the image of the state which is calculated | required from the direction by calculating | requiring a rotation angle.

上述した各実施形態においては、表示装置として携帯電話機に適用した場合を示したが、デジタルカメラ(コンパクトカメラ)、PDA、音楽プレイヤ、ゲーム機などの携帯端末装置であってもよく、更に、携帯端末装置に限らず、テレビ受像機、パーソナルコンピュータ(例えば、ノートPC、タブレットPC、ディスクトップPC)などにも同様に適用することができる。   In each of the above-described embodiments, the case where the display device is applied to a mobile phone has been described. However, the display device may be a mobile terminal device such as a digital camera (compact camera), a PDA, a music player, or a game machine. The present invention is not limited to the terminal device, and can be similarly applied to a television receiver, a personal computer (for example, a notebook PC, a tablet PC, and a desktop PC).

その他、上述した第1及び第2実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。   In addition, the “apparatus” and “unit” shown in the first and second embodiments described above may be separated into a plurality of cases by function, and are not limited to a single case. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.

上記の各実施形態の一部又は全部は、以下の付記のように記載され得るが、これに限定されるものではない。
以下、本発明の諸態様を付記としてまとめて記載する。
(付記1)
図11は、付記1の構成図(本発明の機能ブロック図)である。
この図に示すように付記1に記載の発明は、
画像を表示する手段100(図1では表示部6)と、
前記表示手段100に対面してその画面を見る視認者の視線方向を決定する視線方向決定手段101(図1では中央制御部1、インカメラ8、プログラム記憶部M2)と、
前記視線方向決定手段101により決定された視線方向から見られているような状態の画像を生成する画像生成手段102(図1では中央制御部1、プログラム記憶部M2、画像記憶部M2)と、
前記画像生成手段102により生成された画像を前記表示手段100に表示させる表示制御手段103(図1では中央制御部1、プログラム記憶部M2、表示部6)と、
を備えたことを特徴とする表示装置。
付記1によれば、表示手段100に対面してその画面を見る視認者の視線方向から見られているような状態の画像を生成して表示するようにしたので、視線方向に応じた画像を表示することができ、3D用の高価な液晶表示装置を使用しなくても、視認者にあっては3D表示のような画像を見ることができ、リアリティに富んだ画像表示を実現することが可能となる。
A part or all of each of the above embodiments can be described as the following supplementary notes, but is not limited thereto.
Hereinafter, various aspects of the present invention will be collectively described as supplementary notes.
(Appendix 1)
FIG. 11 is a configuration diagram of the appendix 1 (functional block diagram of the present invention).
As shown in this figure, the invention described in appendix 1
Means 100 for displaying an image (display unit 6 in FIG. 1);
A line-of-sight direction determining unit 101 (in FIG. 1, the central control unit 1, the in-camera 8, and the program storage unit M2) that determines the line-of-sight direction of a viewer who faces the display unit 100 and views the screen;
An image generation unit 102 (in FIG. 1, the central control unit 1, the program storage unit M2, and the image storage unit M2) that generates an image in a state as seen from the line-of-sight direction determined by the line-of-sight direction determination unit 101;
Display control means 103 (in FIG. 1, the central control unit 1, the program storage unit M2, and the display unit 6) for displaying the image generated by the image generation unit 102 on the display unit 100;
A display device comprising:
According to Supplementary Note 1, since an image in a state as seen from the viewing direction of a viewer who faces the display unit 100 and looks at the screen is generated and displayed, an image corresponding to the viewing direction is displayed. Even if an expensive liquid crystal display device for 3D is not used, a viewer can see an image like a 3D display and can realize an image display rich in reality. It becomes possible.

(付記2)
前記画像生成手段は、表示されている画像に対する視線方向が変えられた場合に、その変えられた視線方向から見られているような状態の画像を生成する、
ようにしたことを特徴とする付記1に記載の表示装置。
(Appendix 2)
The image generation unit generates an image in a state as seen from the changed line-of-sight direction when the line-of-sight direction with respect to the displayed image is changed.
The display device according to attachment 1, wherein the display device is configured as described above.

(付記3)
前記表示手段に対面する視認者を撮影する撮像手段を更に備え、
前記視線方向決定手段は、前記撮像手段により撮影された画像に基づいて視認者の視線方向を決定する、
ようにしたことを特徴とする付記1あるいは付記2に記載の表示装置。
(Appendix 3)
It further comprises imaging means for photographing the viewer facing the display means,
The line-of-sight direction determining means determines the line-of-sight direction of the viewer based on the image taken by the imaging means.
The display device according to appendix 1 or appendix 2, wherein the display device is configured as described above.

(付記4)
前記視線方向決定手段は、前記撮像手段により撮影された画像を解析することにより視認者の目の位置を特定すると共に、前記表示手段の画面に対して垂直な方向を3次元座標系の第3軸とした場合に、第2軸上の目の位置の第3軸に対する角度を視認者の視線方向として決定する、
ようにしたことを特徴とする付記3に記載の表示装置。
(Appendix 4)
The line-of-sight direction determining means identifies the position of the viewer's eyes by analyzing the image taken by the imaging means, and sets the direction perpendicular to the screen of the display means to the third in the three-dimensional coordinate system. In the case of an axis, the angle of the eye position on the second axis with respect to the third axis is determined as the viewing direction of the viewer.
The display device according to attachment 3, wherein the display device is configured as described above.

(付記5)
前記視線方向決定手段は、前記撮像手段により撮影された画像を解析することにより視認者の目の位置を特定すると共に、前記表示手段の画面に対して垂直な方向を3次元座標系の第3軸とした場合に、第1軸上の目の位置の第3軸に対する角度を視認者の視線方向として決定する、
ようにしたことを特徴とする付記3あるいは付記3に記載の表示装置。
(付記6)
前記画像生成手段は、前記視線方向決定手段により決定された視線方向に基づいて3次元モデルの画像データを回転することにより、その視線方向から見られているような状態の画像を生成する、
ようにしたことを特徴とする付記1〜付記5のいずれかに記載の表示装置。
(Appendix 5)
The line-of-sight direction determining means identifies the position of the viewer's eyes by analyzing the image taken by the imaging means, and sets the direction perpendicular to the screen of the display means to the third in the three-dimensional coordinate system. In the case of an axis, the angle of the eye position on the first axis with respect to the third axis is determined as the viewing direction of the viewer.
The display device according to appendix 3 or appendix 3, wherein the display device is configured as described above.
(Appendix 6)
The image generation unit generates an image in a state as seen from the line-of-sight direction by rotating the image data of the three-dimensional model based on the line-of-sight direction determined by the line-of-sight direction determination unit.
The display device according to any one of appendix 1 to appendix 5, wherein the display device is configured as described above.

(付記7)
前記視線方向決定手段により決定された視認者の視線方向と前記表示手段から視認者までの距離に基づいて視認者の目の位置を特定する特定手段と、
を更に備え、
前記画像生成手段は、前記特定手段により特定された視認者の目の位置から見られているような状態の画像を生成する、
ようにしたことを特徴とする付記1〜付記6のいずれかに記載の表示装置。
(Appendix 7)
Identifying means for identifying the position of the viewer's eyes based on the viewing direction of the viewer determined by the viewing direction determining means and the distance from the display means to the viewer;
Further comprising
The image generating means generates an image in a state as seen from the position of the eye of the viewer specified by the specifying means;
The display device according to any one of supplementary notes 1 to 6, wherein the display device is configured as described above.

(付記8)
前記視線方向決定手段、前記表示手段の画面から画像の奥行きを考慮して視認者の視線方向を決定し、
前記画像生成手段は、前記視線方向決定手段により視線方向から見られているような状態の画像を生成する、
ようにしたことを特徴とする付記1〜付記7のいずれかに記載の表示装置。
(Appendix 8)
Determine the visual line direction of the viewer in consideration of the depth of the image from the screen of the visual line direction determination means and the display means,
The image generating means generates an image in a state as seen from the line-of-sight direction by the line-of-sight direction determining means;
The display device according to any one of appendix 1 to appendix 7, wherein the display device is configured as described above.

(付記9)
前記視線方向決定手段は、前記表示手段に複数の画像が表示されている場合に画像毎に画面からの奥行きを考慮して画像毎に視認者の視線方向をそれぞれ決定し、
前記画像生成手段は、前記視線方向決定手段により画像毎に決定された視線方向から見られているような状態の画像を画像毎にそれぞれ生成する、
ようにしたことを特徴とする付記8に記載の表示装置。
(Appendix 9)
The line-of-sight direction determining means determines the line-of-sight direction of the viewer for each image in consideration of the depth from the screen for each image when a plurality of images are displayed on the display means,
The image generation unit generates an image for each image as seen from the line-of-sight direction determined for each image by the line-of-sight direction determination unit.
The display device according to appendix 8, which is configured as described above.

(付記10)
画像を表示する表示手段に対面してその画面を見る視認者の視線方向を決定し、
前記決定した視線方向から見られているような状態の画像を生成し、
前記生成した画像を前記表示手段に表示する、
ようにしたことを特徴とする表示方法。
(Appendix 10)
Determine the line-of-sight direction of the viewer who sees the screen facing the display means for displaying the image,
Generate an image as seen from the determined gaze direction,
Displaying the generated image on the display means;
A display method characterized by that.

(付記11)
コンピュータに対して、
画像を表示する表示手段に対面にその画面を見る視認者の視線方向を決定する機能と、
前記決定された視線方向から見られているような状態の画像を生成する機能と、
前記生成された画像を前記表示手段に表示させる機能と、
を実現させるためのプログラム。
付記10によれば、付記1と同様の効果を有し、更に、付記1の機能をソフトウェア(プログラム)の形で提供することができる。
(Appendix 11)
Against the computer,
A function for determining the line-of-sight direction of the viewer who sees the screen facing the display means for displaying an image;
A function of generating an image in a state as seen from the determined gaze direction;
A function of displaying the generated image on the display means;
A program to realize
According to Supplementary Note 10, the same effect as Supplementary Note 1 can be obtained, and the function of Supplementary Note 1 can be provided in the form of software (program).

1 中央制御部
3 記憶部
6 表示部
7 操作部
8 インカメラ
11 操作部筐体
12 表示部筐体
M1 プログラム記憶部
M2 画像記憶部
DESCRIPTION OF SYMBOLS 1 Central control part 3 Memory | storage part 6 Display part 7 Operation part 8 In-camera 11 Operation part housing | casing 12 Display part housing | casing M1 Program storage part M2 Image storage part

Claims (9)

画像を表示する表示手段と、
前記表示手段に対面する視認者を撮影する撮像手段と、
前記撮像手段によって撮影された画像内における前記視認者の位置に基づいて、前記表示手段に対面してその画面を見る前記視認者の視線方向を決定する視線方向決定手段と、
前記撮像手段の光軸位置と前記表示手段の中心位置とのずれに基づいて前記視認者の視線方向を補正し、当該補正された前記視認者の視線方向に基づいて3次元モデルの画像データを回転することにより、その視線方向から見られているような状態の画像を生成する画像生成手段と、
前記画像生成手段により生成された画像を前記表示手段に表示させる表示制御手段と、
を備えたことを特徴とする表示装置。
Display means for displaying an image;
Imaging means for photographing a viewer facing the display means;
Based on the position of the viewer in the captured image by the imaging means, and the line-of-sight direction determining means for determining a viewing direction of the viewer to see the screen and facing said display means,
The gaze direction of the viewer is corrected based on the deviation between the optical axis position of the imaging means and the center position of the display means, and image data of a three-dimensional model is obtained based on the corrected gaze direction of the viewer. An image generating means for generating an image in a state as seen from the viewing direction by rotating ;
Display control means for causing the display means to display an image generated by the image generation means;
A display device comprising:
前記画像生成手段は、前記視認者の視線方向が変えられた場合に、その変えられた視線方向に応じて3次元モデルの画像データを回転することにより、その変えられた視線方向から見られているような状態の画像を生成する、
ようにしたことを特徴とする請求項1に記載の表示装置。
When the viewer's line-of-sight direction is changed, the image generating means rotates the image data of the three-dimensional model according to the changed line-of-sight direction so that the viewer can see the changed line-of-sight direction. To create an image that looks like
The display device according to claim 1, which is configured as described above.
前記視線方向決定手段は、前記撮像手段により撮影された画像を解析することにより視認者の目の位置を特定すると共に、前記表示手段の画面に対して垂直な方向を3次元座標系の第3軸とした場合に、第2軸上の目の位置の第3軸に対する角度を前記視認者の視線方向として決定する、
ようにしたことを特徴とする請求項1あるいは請求項2に記載の表示装置。
The line-of-sight direction determining means identifies the position of the viewer's eyes by analyzing the image taken by the imaging means, and sets the direction perpendicular to the screen of the display means to the third in the three-dimensional coordinate system. In the case of an axis, the angle of the eye position on the second axis with respect to the third axis is determined as the visual line direction of the viewer.
The display device according to claim 1 , wherein the display device is configured as described above.
前記視線方向決定手段は、前記撮像手段により撮影された画像を解析することにより視認者の目の位置を特定すると共に、前記表示手段の画面に対して垂直な方向を3次元座標系の第3軸とした場合に、第1軸上の目の位置の第3軸に対する角度を前記視認者の視線方向として決定する、
ようにしたことを特徴とする請求項1〜請求項3のいずれかに記載の表示装置。
The line-of-sight direction determining means identifies the position of the viewer's eyes by analyzing the image taken by the imaging means, and sets the direction perpendicular to the screen of the display means to the third in the three-dimensional coordinate system. In the case of an axis, the angle of the eye position on the first axis with respect to the third axis is determined as the visual line direction of the viewer.
The display device according to claim 1 , wherein the display device is configured as described above.
前記視線方向決定手段により決定された視認者の視線方向と前記表示手段から視認者までの距離に基づいて視認者の目の位置を特定する特定手段と、
を更に備え、
前記画像生成手段は、前記撮像手段の光軸位置と前記表示手段の中心位置とのずれに基づいて前記特定手段により特定された前記視認者の目の位置を補正し、当該補正された前記視認者の目の位置に基づいて3次元モデルの画像データを回転することにより、その目の位置から見られているような状態の画像を生成する、
ようにしたことを特徴とする請求項1〜請求項のいずれかに記載の表示装置。
Identifying means for identifying the position of the viewer's eyes based on the viewing direction of the viewer determined by the viewing direction determining means and the distance from the display means to the viewer;
Further comprising
The image generation means corrects the position of the eye of the viewer specified by the specifying means based on a deviation between the optical axis position of the imaging means and the center position of the display means, and the corrected visual recognition By rotating the image data of the three-dimensional model based on the position of the eyes of the person, an image in a state as seen from the position of the eyes is generated.
Display device according to any one of claims 1 to 4, characterized in that the the like.
前記視線方向決定手段は、前記表示手段の画面から画像の奥行きを考慮して前記視認者の視線方向を決定し、
前記画像生成手段は、前記撮像手段の光軸位置と前記表示手段の中心位置とのずれに基づいて前記視線方向決定手段により決定された前記視認者の視線方向を補正し、当該補正された前記視認者の視線方向に基づいて3次元モデルの画像データを回転することにより、その視線方向から見られているような状態の画像を生成する、
ようにしたことを特徴とする請求項1〜請求項のいずれかに記載の表示装置。
The line-of-sight direction determining means determines the line-of-sight direction of the viewer in consideration of the depth of the image from the screen of the display means;
The image generation unit corrects the visual line direction of the viewer determined by the visual line direction determination unit based on a deviation between the optical axis position of the imaging unit and the center position of the display unit, and the corrected By rotating the image data of the three-dimensional model based on the visual line direction of the viewer, an image in a state as seen from the visual line direction is generated.
Display device according to any one of claims 1 to 5, characterized in that the the like.
前記視線方向決定手段は、前記表示手段に複数の画像が表示されている場合に画像毎に画面からの奥行きを考慮して画像毎に前記視認者の視線方向をそれぞれ決定し、
前記画像生成手段は、前記撮像手段の光軸位置と前記表示手段の中心位置とのずれに基づいて前記視線方向決定手段により画像毎に決定された前記視認者の視線方向を補正し、当該補正された前記視認者の視線方向に基づいて3次元モデルの画像データを回転することにより、その視線方向から見られているような状態の画像を画像毎にそれぞれ生成する、
ようにしたことを特徴とする請求項に記載の表示装置。
The line-of-sight direction determining means determines the line-of-sight direction of the viewer for each image in consideration of the depth from the screen for each image when a plurality of images are displayed on the display means,
The image generation unit corrects the visual line direction of the viewer determined for each image by the visual line direction determination unit based on a deviation between the optical axis position of the imaging unit and the center position of the display unit, and the correction By rotating the image data of the three-dimensional model based on the visual line direction of the viewer that has been generated, for each image to generate an image as seen from the visual line direction ,
The display device according to claim 6, which is configured as described above.
画像を表示する表示手段に対面してその画面を見る視認者を撮像手段により撮像し、当該撮像された画像に基づいて前記視認者の視線方向を決定し、
前記撮像手段の光軸位置と前記表示手段の中心位置とずれに基づいて前記視認者の視線方向を補正し、
前記補正された前記視認者の視線方向に基づいて3次元モデルの画像データを回転することにより、その視線方向から見られているような状態の画像を生成し、
前記生成した画像を前記表示手段に表示する、
ようにしたことを特徴とする表示方法。
The viewer who faces the display unit that displays the image and views the screen is imaged by the imaging unit, and the line-of-sight direction of the viewer is determined based on the captured image.
Correcting the visual line direction of the viewer based on the deviation of the optical axis position of the imaging means and the center position of the display means ;
By rotating the image data of the three-dimensional model based on the corrected gaze direction of the viewer, an image in a state as seen from the gaze direction is generated,
Displaying the generated image on the display means;
A display method characterized by that.
コンピュータに対して、
画像を表示する表示手段に対面にその画面を見る視認者を撮像手段により撮像し、当該撮像された画像に基づいて前記視認者の視線方向を決定する機能と、
前記撮像手段の光軸位置と前記表示手段の中心位置とのずれに基づいて前記視認者の視線方向を補正する機能と、
前記補正された前記視認者の視線方向に基づいて3次元モデルの画像データを回転することにより、その視線方向から見られているような状態の画像を生成する機能と、
前記生成された画像を前記表示手段に表示させる機能と、
を実現させるためのプログラム。
Against the computer,
A function of capturing a viewer who views the screen in a face-to-face manner on a display unit that displays an image by the imaging unit, and determining the line-of-sight direction of the viewer based on the captured image;
A function of correcting the visual line direction of the viewer based on the deviation between the optical axis position of the imaging means and the center position of the display means ;
A function of generating an image in a state as seen from the gaze direction by rotating the image data of the three-dimensional model based on the gaze direction of the corrected viewer;
A function of displaying the generated image on the display means;
A program to realize
JP2011052840A 2011-03-10 2011-03-10 Display device, display method, and program Expired - Fee Related JP5896445B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011052840A JP5896445B2 (en) 2011-03-10 2011-03-10 Display device, display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011052840A JP5896445B2 (en) 2011-03-10 2011-03-10 Display device, display method, and program

Publications (2)

Publication Number Publication Date
JP2012190230A JP2012190230A (en) 2012-10-04
JP5896445B2 true JP5896445B2 (en) 2016-03-30

Family

ID=47083316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011052840A Expired - Fee Related JP5896445B2 (en) 2011-03-10 2011-03-10 Display device, display method, and program

Country Status (1)

Country Link
JP (1) JP5896445B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6570290B2 (en) 2015-03-31 2019-09-04 大和ハウス工業株式会社 Video display system and video display method
WO2016157523A1 (en) * 2015-04-03 2016-10-06 株式会社SR laboratories Display terminal and information recording medium
JP2016198124A (en) * 2015-04-07 2016-12-01 株式会社三洋物産 Game machine
CN113170077A (en) 2018-11-30 2021-07-23 麦克赛尔株式会社 Display device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276613A (en) * 1999-03-29 2000-10-06 Sony Corp Device and method for processing information
JP2008129775A (en) * 2006-11-20 2008-06-05 Ntt Docomo Inc Display control unit, display device and display control method
JP5222646B2 (en) * 2008-07-18 2013-06-26 ソニーモバイルコミュニケーションズ株式会社 Terminal device, display control method, and display control program

Also Published As

Publication number Publication date
JP2012190230A (en) 2012-10-04

Similar Documents

Publication Publication Date Title
WO2014037972A1 (en) Display device, display method, and program
US9595127B2 (en) Three-dimensional collaboration
US10019831B2 (en) Integrating real world conditions into virtual imagery
US10019849B2 (en) Personal electronic device with a display system
JP5739674B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP4869430B1 (en) Image processing program, image processing apparatus, image processing system, and image processing method
US9001192B2 (en) Storage medium having stored therein stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method
US20120162384A1 (en) Three-Dimensional Collaboration
JP2011090400A (en) Image display device, method, and program
US20120293549A1 (en) Computer-readable storage medium having information processing program stored therein, information processing apparatus, information processing system, and information processing method
JP2004040445A (en) Portable equipment having 3d display function and 3d transformation program
JP4144492B2 (en) Image display device
JP2012221259A (en) Information processing program, information processor, information processing system and information processing method
JP5896445B2 (en) Display device, display method, and program
US20150326847A1 (en) Method and system for capturing a 3d image using single camera
EP2471583B1 (en) Display control program, display control method, and display control system
JP5602702B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP2018056889A (en) Display terminal, display method, and program
US20120306855A1 (en) Storage medium having stored therein display control program, display control apparatus, display control method, and display control system
JP5739673B2 (en) Image display program, apparatus, system and method
JP2012199759A (en) Information processing device, program therefor, and information processing method
JP2012018665A (en) Image display program, apparatus, system and method
KR20160149945A (en) Mobile terminal
JPWO2015156128A1 (en) Display control apparatus, display control method, and program
JP2012129901A (en) Terminal device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140919

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150601

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150608

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150618

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20150626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160225

R150 Certificate of patent or registration of utility model

Ref document number: 5896445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees