JP2009250987A - Image display apparatus and program - Google Patents

Image display apparatus and program Download PDF

Info

Publication number
JP2009250987A
JP2009250987A JP2008094633A JP2008094633A JP2009250987A JP 2009250987 A JP2009250987 A JP 2009250987A JP 2008094633 A JP2008094633 A JP 2008094633A JP 2008094633 A JP2008094633 A JP 2008094633A JP 2009250987 A JP2009250987 A JP 2009250987A
Authority
JP
Japan
Prior art keywords
user
image
display
display screen
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008094633A
Other languages
Japanese (ja)
Other versions
JP5322264B2 (en
Inventor
Yutaka Matsunobu
豊 松延
Akio Shinagawa
明生 品川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Hitachi Mobile Communications Co Ltd
Original Assignee
Casio Hitachi Mobile Communications Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Hitachi Mobile Communications Co Ltd filed Critical Casio Hitachi Mobile Communications Co Ltd
Priority to JP2008094633A priority Critical patent/JP5322264B2/en
Publication of JP2009250987A publication Critical patent/JP2009250987A/en
Application granted granted Critical
Publication of JP5322264B2 publication Critical patent/JP5322264B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display apparatus capable setting the optimum position for browsing 3D display by a simple operation. <P>SOLUTION: A control part 100 carries out eye position checking processing when displaying a content data for the 3D display. A camera image of a user face taken by an in-camera 103 is displayed on a display screen 107a superposedly with an eye position guide screen EG for showing a proper range (optimum position range for browsing the 3D display), and a direction and a degree of deviation from the proper range are guided to the user, when a view point of a user detected based on the camera image comes out of the proper range of the eye position guide screen EG, in the eye position checking processing. The optimum position for browsing the 3D display is thereby set by the simple operation, because the user is only required to match positions of monitor-displayed own right and left eyes to the proper range. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、簡便な操作で3D表示(立体視表示)を見るのに最適な位置を設定したり、確実に3D表示を立体視させたりする画像表示装置およびプログラムに関する。   The present invention relates to an image display device and a program for setting an optimum position for viewing a 3D display (stereoscopic display) with a simple operation, or for reliably viewing a 3D display stereoscopically.

眼鏡を使用せずに両眼視差を利用して立体視させる3D表示の方式としてレンチキュラー方式や視差バリア(パララックスバリア)方式が知られている。ここで、図11を参照して視差バリア方式の3D表示について概説する。図11は視差バリア方式による表示手段として、液晶表示パネルを用いる場合の原理的構成を示す図である。この図において、液晶表示パネル20は、両眼視差を形成するための右眼用映像と左眼用映像とを短冊状に交互に表示する。視差バリア30は、液晶表示パネル20から所定距離を隔てた前方に配置される。視差バリア30には、所定ピッチで刻まれる複数のスリットが設けられる。   As a 3D display method for stereoscopic viewing using binocular parallax without using glasses, a lenticular method and a parallax barrier (parallax barrier) method are known. Here, the parallax barrier 3D display will be outlined with reference to FIG. FIG. 11 is a diagram showing a basic configuration in the case where a liquid crystal display panel is used as the display means by the parallax barrier method. In this figure, the liquid crystal display panel 20 alternately displays a right-eye image and a left-eye image for forming binocular parallax in a strip shape. The parallax barrier 30 is disposed in front of the liquid crystal display panel 20 at a predetermined distance. The parallax barrier 30 is provided with a plurality of slits cut at a predetermined pitch.

上記構成によれば、観察者の両眼が正視位置にあると、視差バリア30のスリットにより観察者の右眼が液晶表示パネル20上の右眼用映像を視覚し、一方、観察者の左眼が液晶表示パネル20上の左眼用映像を視覚する結果、両眼視差による立体感が得られるようになっている。 According to the above configuration, when both eyes of the observer are in the normal viewing position, the right eye of the observer visually sees the image for the right eye on the liquid crystal display panel 20 through the slit of the parallax barrier 30, while As a result of the eyes viewing the image for the left eye on the liquid crystal display panel 20, a stereoscopic effect due to binocular parallax can be obtained.

こうした表示原理に基づき3D表示する装置については、例えば特許文献1に開示されている。また、例えば特許文献2には、上述した視差バリア30のスリットを電気的に形成又は解消して2D表示/3D表示の切り替えを可能にした表示手段が開示されている。さらに、特許文献3には、立体視感を得る視点(図11に図示する正視位置)を探し出せるようにする為、ユーザの左眼に赤色画像を、右眼に青色画像を視覚させる視線補助画像を表示する技術が開示されている。 An apparatus for performing 3D display based on such a display principle is disclosed in, for example, Patent Document 1. Further, for example, Patent Document 2 discloses a display unit that can switch between 2D display and 3D display by electrically forming or eliminating the slit of the parallax barrier 30 described above. Further, Patent Document 3 discloses a line-of-sight auxiliary image for visualizing a red image on the user's left eye and a blue image on the right eye so that a viewpoint (a normal viewing position shown in FIG. 11) for obtaining stereoscopic vision can be found. A technique for displaying is disclosed.

特開2006−235332号公報JP 2006-235332 A 特開2004−153489号公報Japanese Patent Laid-Open No. 2004-153489 特開平10−28764号公報Japanese Patent Laid-Open No. 10-28764

ところで、両眼視差を利用した3D表示では、立体視感が得られる正視位置(図11参照)をユーザに認知させる必要がある。その為、上記特許文献3に開示の技術は、視線補助画像を表示しておき、左眼で赤色画像を視覚すると同時に、右眼で青色画像を視覚するようユーザ自らが顔の位置(眼の位置)を移動させて正視位置を探し出せるようにしているが、不慣れなユーザであると、その探し出す手間を煩わしく感じてしまう。   By the way, in the 3D display using binocular parallax, it is necessary to make the user recognize the normal viewing position (see FIG. 11) at which stereoscopic vision is obtained. For this reason, the technique disclosed in Patent Document 3 displays a line-of-sight auxiliary image and visually recognizes a red image with the left eye, and at the same time, the user himself / herself faces the position of the face (eye of the eye). However, if the user is not familiar with the position, the time and effort required to find it will be bothersome.

また、3D表示時の際に、例えば右眼で左眼用の表示を見てしまう等、ユーザの視点が立体視感を得る正視位置からずれていると、ぶれた画像として視認してしまい大きな違和感を覚える。こういった違和感を回避するには、上記特許文献2に開示の技術を用い、ユーザが3D表示を立体視することが出来ない時に2D表示へ切り替える態様を想定し得るが、そのような態様ではユーザに対して確実に3D表示を立体視させることができない。   Further, when the 3D display is performed, for example, when the user's viewpoint deviates from the normal viewing position where the stereoscopic vision is obtained, such as viewing the display for the left eye with the right eye, the image is visually recognized as a blurred image. I feel uncomfortable. In order to avoid such a sense of incongruity, it is possible to assume a mode of switching to 2D display when the user cannot stereoscopically view 3D display using the technology disclosed in Patent Document 2, but in such a mode, The user cannot reliably view the 3D display stereoscopically.

つまり、以上の内容を換言すると、従来の技術では、簡便な操作で3D表示を見るのに最適な位置を設定したり、確実に3D表示を立体視させたりすることができない、という問題がある。
そこで本発明は、上述した事情に鑑みてなされたもので、簡便な操作で3D表示を見るのに最適な位置を設定でき、しかも確実に3D表示を立体視させることもできる画像表示装置およびプログラムを提供することを目的としている。
In other words, in other words, with the conventional technology, there is a problem that it is impossible to set an optimal position for viewing the 3D display with a simple operation, or to reliably stereoscopically view the 3D display. .
Therefore, the present invention has been made in view of the above-described circumstances, and an image display apparatus and program capable of setting an optimum position for viewing a 3D display with a simple operation and reliably allowing a 3D display to be stereoscopically viewed. The purpose is to provide.

上記目的を達成するため、請求項1に記載の発明では、両眼視差を利用して立体視させる3D画像を表示画面に表示する画像表示装置において、前記表示画面に対向するユーザを撮像する撮像手段と、前記撮像手段により撮像されたユーザの映像を前記表示画面にモニタ表示するモニタ表示手段と、前記表示画面で3D画像をユーザに立体視させるための左右の眼の適正位置を示す眼位置ガイド像を、前記モニタ表示手段によりモニタ表示されるユーザの映像に重ね合わせて表示する合成表示手段とを具備することを特徴とする。   In order to achieve the above object, according to the first aspect of the present invention, in an image display device that displays a 3D image to be stereoscopically viewed using binocular parallax on a display screen, imaging that captures a user facing the display screen Means, monitor display means for monitoring and displaying the user's video imaged by the imaging means on the display screen, and an eye position indicating an appropriate position of the left and right eyes for allowing the user to stereoscopically view the 3D image on the display screen And a composite display means for displaying the guide image superimposed on the user's video displayed on the monitor by the monitor display means.

上記請求項1に従属する請求項2に記載の発明では、前記モニタ表示手段は、前記表示画面とは別の補助表示画面を備え、この補助表示画面あるいは前記表示画面のいずれかに前記撮像手段により撮像されたユーザの映像をモニタ表示することを特徴とする。   In the invention according to claim 2 subordinate to claim 1, the monitor display means includes an auxiliary display screen different from the display screen, and the imaging means is provided on either the auxiliary display screen or the display screen. The video of the user imaged by the above is displayed on a monitor.

上記請求項1に従属する請求項3に記載の発明では、前記撮像手段により撮像されたユーザの映像から当該ユーザの左右の眼の位置を検出する検出手段と、前記検出手段により検出されたユーザの左右の眼の位置が、前記眼位置ガイド像で示される適正位置に一致するか否かを判別する判別手段と、前記判別手段の判別結果を報知する報知手段とを更に備えることを特徴とする。   In the invention according to claim 3 subordinate to claim 1, detection means for detecting the positions of the left and right eyes of the user from the user's video imaged by the imaging means, and the user detected by the detection means And a discriminating means for discriminating whether or not the positions of the left and right eyes coincide with an appropriate position indicated by the eye position guide image, and an informing means for informing the discrimination result of the discriminating means. To do.

上記請求項3に従属する請求項4に記載の発明では、前記判別手段は、前記検出手段により検出されたユーザの左右の眼の位置が、前記眼位置ガイド像で示される適正位置に対して上下左右のいずれの方向にずれているか否かを判別し、前記報知手段は、前記判別手段が上下左右のいずれの方向にずれているかを判別した場合、その判別したずれの方向を報知することを特徴とする。   In the invention according to claim 4 that is dependent on the above-described claim 3, the determination unit is configured such that the positions of the left and right eyes of the user detected by the detection unit are relative to an appropriate position indicated by the eye position guide image. When the discriminating means discriminates whether the discriminating means is displaced in the up, down, left, or right direction, it discriminates the direction of the discriminated deviation. It is characterized by.

上記請求項3に従属する請求項5に記載の発明では、前記判別手段は、前記検出手段により検出されたユーザの左右の眼の位置の間隔が、眼位置ガイド像で示される左右の眼の適正位置の間隔に一致するか否かを判別し、前記報知手段は、前記判別手段が両間隔の不一致を判別した場合、その不一致の状態を報知することを特徴とする。   In the invention according to claim 5 that is dependent on claim 3, the determination means is configured such that the interval between the positions of the left and right eyes of the user detected by the detection means is determined between the left and right eyes indicated by an eye position guide image. It is determined whether or not the interval between the proper positions is matched, and the notifying unit notifies the mismatch state when the determining unit determines a mismatch between the two intervals.

上記請求項3に従属する請求項6に記載の発明では、前記判別手段は、不一致と判別した場合に、前記検出手段により検出されたユーザの左右の眼の位置と前記眼位置ガイド像で示される適正位置との差分方向を検出し、前記報知手段は、前記判別手段により検出された差分方向へずらすことを案内報知することを特徴とする。   In the invention according to claim 6, which is dependent on claim 3, the discriminating means indicates the position of the left and right eyes of the user detected by the detecting means and the eye position guide image when discriminating the discrepancy. The difference direction with respect to the appropriate position is detected, and the notifying unit notifies and informs the shift to the difference direction detected by the determination unit.

上記請求項3に従属する請求項7に記載の発明では、前記判別手段は、前記検出手段により検出されたユーザの左右の眼の位置が、前記眼位置ガイド像で示される適正位置に一致すると判別した場合に、前記モニタ表示手段によるモニタ表示と前記合成表示手段による眼位置ガイド像の表示とを終了させることを特徴とする。   In the invention according to claim 7, which is dependent on claim 3, the determination means determines that the positions of the left and right eyes of the user detected by the detection means coincide with an appropriate position indicated by the eye position guide image. When the determination is made, the monitor display by the monitor display means and the display of the eye position guide image by the composite display means are terminated.

上記請求項1に従属する請求項8に記載の発明では、前記モニタ表示手段は、前記表示画面に3D画像を表示するのに先立って前記撮像手段により撮像されたユーザの映像を前記表示画面にモニタ表示し、前記合成表示手段は、前記表示画面に3D画像を表示するのに先立って眼位置ガイド像を前記モニタ表示手段によりモニタ表示されるユーザの映像に重ね合わせて表示することを特徴とする。   In the invention according to claim 8, which is dependent on claim 1, the monitor display means displays, on the display screen, a video of the user imaged by the imaging means prior to displaying a 3D image on the display screen. Prior to displaying the 3D image on the display screen, the composite display means displays the eye position guide image superimposed on the user's video displayed on the monitor by the monitor display means. To do.

請求項9に記載の発明では、両眼視差を利用して立体視させる3D画像を表示画面に表示する画像表示装置において、前記表示画面に対向するユーザを撮像した映像から当該ユーザの位置を取得する位置取得手段と、前記位置取得手段により取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にあるか否かを判別する位置判別手段と、前記位置判別手段の判別結果に応じて、前記表示画面を見るユーザの位置の適否を報知する報知手段とを具備することを特徴とする。   According to the ninth aspect of the present invention, in an image display device that displays a 3D image to be stereoscopically viewed using binocular parallax on a display screen, the position of the user is acquired from a video obtained by imaging the user facing the display screen. Position determination means for determining whether or not the position of the user acquired by the position acquisition means is in a predetermined allowable range position with respect to the display screen, and the determination result of the position determination means And a notification unit for notifying whether or not the position of the user viewing the display screen is appropriate.

上記請求項9に従属する請求項10に記載の発明では、前記報知手段は、前記位置判別手段によりユーザの位置が前記表示画面に対して所定許容範囲内と判別された場合には立体視できる位置であることを報知し、一方、所定許容範囲外と判別された場合には立体視できない位置にあることを報知することを特徴とする。   In the invention according to claim 10, which is dependent on claim 9, the notification means can perform stereoscopic viewing when the position determination means determines that the user's position is within a predetermined allowable range with respect to the display screen. The position is notified, and on the other hand, if it is determined that the position is out of the predetermined allowable range, it is notified that the position is not stereoscopically visible.

上記請求項9に従属する請求項11に記載の発明では、前記位置取得手段は、前記表示画面に対向するユーザを撮像した映像から当該ユーザの左右の眼の位置を取得し、前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置が、立体視可能な許容範囲位置にあるか否かを判定することを特徴とする。   In the invention according to claim 11 that is dependent on claim 9, the position acquisition means acquires the positions of the left and right eyes of the user from a video image of the user facing the display screen, and the position determination means. Is characterized in that it is determined whether or not the positions of the left and right eyes of the user acquired by the position acquisition means are within a permissible range position where stereoscopic viewing is possible.

上記請求項11に従属する請求項12に記載の発明では、前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置が、立体視可能な許容範囲位置から横方向にずれているか否かを判定することを特徴とする。   In the invention according to claim 12, which is dependent on the above-mentioned claim 11, the position determining means is configured such that the positions of the left and right eyes of the user acquired by the position acquiring means are laterally shifted from an allowable range position where stereoscopic vision is possible. It is characterized by determining whether it has shifted | deviated.

上記請求項11に従属する請求項13に記載の発明では、前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置の間隔が、立体視可能な許容範囲間隔であるか否かを判定することを特徴とする。   In the invention according to claim 13, which is dependent on claim 11, the position discriminating means is configured such that the interval between the positions of the left and right eyes of the user acquired by the position acquiring means is an allowable range interval that allows stereoscopic viewing. It is characterized by determining whether or not.

上記請求項9に従属する請求項14に記載の発明では、前記位置判別手段は、前記位置取得手段により取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にないと判別した場合に、取得されたユーザの位置と所定許容範囲位置との差分方向を検出し、前記報知手段は、前記位置判別手段により検出された差分方向へずらすことを案内報知することを特徴とする。   In the invention according to claim 14, which is dependent on claim 9, the position determination means determines that the position of the user acquired by the position acquisition means is not within a predetermined allowable range position with respect to the display screen. In this case, a difference direction between the acquired position of the user and a predetermined allowable range position is detected, and the notifying unit notifies and informs that the difference direction detected by the position determining unit is shifted.

上記請求項9に従属する請求項15に記載の発明では、前記位置取得手段は、前記表示画面に3D画像を表示するのに先立って、前記表示画面に対向するユーザを撮像した映像から当該ユーザの位置を取得し、前記位置判別手段は、前記表示画面に3D画像を表示するのに先立って、前記位置取得手段により取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にあるか否かを判別することを特徴とする。   In the invention according to claim 15, which is dependent on claim 9, the position acquisition means, from displaying a 3D image on the display screen, an image of the user facing the display screen, the user The position determining means obtains the position of the user acquired by the position acquiring means at a predetermined allowable range position with respect to the display screen prior to displaying the 3D image on the display screen. It is characterized by determining whether or not there is.

上記請求項9に従属する請求項16に記載の発明では、前記位置判別手段は、取得されたユーザの位置が前記表示画面に対して所定許容範囲位置にないと判別した場合には前記表示画面での3D画像の表示を抑制し、一方、取得されたユーザの位置が前記表示画面に対して所定許容範囲位置にあると判別した場合には前記表示画面に3D画像を表示させることを特徴とする。   In the invention according to claim 16, which is dependent on claim 9, the position determining means determines that the position of the acquired user is not within a predetermined allowable range position with respect to the display screen. The display of the 3D image is suppressed, and on the other hand, when it is determined that the acquired user's position is in a predetermined allowable range position with respect to the display screen, the 3D image is displayed on the display screen. To do.

請求項17に記載の発明では、両眼視差を利用して立体視させる3D画像を表示画面に表示する画像表示装置において、前記表示画面に対向するユーザを撮像した映像から当該ユーザの位置を取得する位置取得手段と、前記位置取得手段により取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にあるか否かを判別する位置判別手段と、前記位置判別手段の判別結果に応じて、前記表示画面に3D画像を表示するか否かを制御する表示制御手段とを具備することを特徴とする。   In the invention according to claim 17, in an image display device that displays a 3D image to be stereoscopically viewed using binocular parallax on a display screen, the position of the user is acquired from a video obtained by capturing the user facing the display screen. Position determination means for determining whether or not the position of the user acquired by the position acquisition means is in a predetermined allowable range position with respect to the display screen, and the determination result of the position determination means And a display control means for controlling whether or not to display a 3D image on the display screen.

上記請求項17に従属する請求項18に記載の発明では、前記表示制御手段は、前記位置判別手段が所定許容範囲位置にあると判別した場合には前記表示画面に3D画像を表示し、所定許容範囲位置にないと判別した場合には3D画像を2D画像として前記表示画面に表示することを特徴とする。   In the invention according to claim 18, which is dependent on claim 17, the display control means displays a 3D image on the display screen when the position determination means determines that the position is within a predetermined allowable range, If it is determined that the position is not within the allowable range, a 3D image is displayed as a 2D image on the display screen.

上記請求項17に従属する請求項19に記載の発明では、前記表示制御手段は、前記位置判別手段が所定許容範囲位置にあると判別した場合には前記表示画面に3D画像を表示し、所定許容範囲位置にないと判別した場合には前記表示画面での3D画像の表示を抑制することを特徴とする。   In the invention according to claim 19 that is dependent on claim 17, the display control means displays a 3D image on the display screen when the position determination means determines that the position is within a predetermined allowable range, When it is determined that the position is not within the allowable range, the display of the 3D image on the display screen is suppressed.

上記請求項17に従属する請求項20に記載の発明では、前記表示制御手段は、前記位置判別手段が所定許容範囲位置にないと判別した場合に画像データ再生出力を停止して前記表示画面での3D画像の表示を抑制することを特徴とする。   In the invention according to claim 20, which is dependent on claim 17, the display control means stops the image data reproduction output when the position determination means determines that the position is not within a predetermined allowable range position, and displays on the display screen. The display of the 3D image is suppressed.

上記請求項17に従属する請求項21に記載の発明では、前記位置取得手段は、前記表示画面に対向するユーザを撮像した映像から当該ユーザの左右の眼の位置を取得し、前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置が、立体視可能な許容範囲位置にあるか否かを判定することを特徴とする。   In the invention according to claim 21, which is dependent on the above-mentioned claim 17, the position acquisition means acquires the positions of the left and right eyes of the user from a video image of the user facing the display screen, and the position determination means. Is characterized in that it is determined whether or not the positions of the left and right eyes of the user acquired by the position acquisition means are within a permissible range position where stereoscopic viewing is possible.

上記請求項17に従属する請求項22に記載の発明では、前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置が、立体視可能な許容範囲位置から横方向にずれているか否かを判定することを特徴とする。   In the invention according to claim 22, which is dependent on claim 17, the position determining means is configured to move the left and right eye positions of the user acquired by the position acquiring means laterally from an allowable range position where stereoscopic vision is possible. It is characterized by determining whether it has shifted | deviated.

上記請求項17に従属する請求項23に記載の発明では、前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置の間隔が、立体視可能な許容範囲間隔であるか否かを判定することを特徴とする。   In the invention according to claim 23 subordinate to claim 17, the position determining means is configured such that the interval between the positions of the left and right eyes of the user acquired by the position acquiring means is an allowable range interval that allows stereoscopic viewing. It is characterized by determining whether or not.

上記請求項17に従属する請求項24に記載の発明では、前記位置取得手段は、前記表示画面に対向するユーザの位置を光測位にて取得することを特徴とする。   The invention according to claim 24 dependent on claim 17 is characterized in that the position acquisition means acquires the position of the user facing the display screen by optical positioning.

請求項25に記載の発明では、両眼視差を利用して立体視させる3D画像を表示画面に表示する画像表示装置で実行されるプログラムであって、前記表示画面に対向するユーザを撮像する撮像ステップと、前記撮像ステップにより撮像されたユーザの映像を前記表示画面にモニタ表示するモニタ表示ステップと、前記表示画面で3D画像をユーザに立体視させるための左右の眼の適正位置を示す眼位置ガイド像を、前記モニタ表示ステップにてモニタ表示されるユーザの映像に重ね合わせて表示する合成表示ステップとをコンピュータで実行させることを特徴とする。 The invention according to claim 25 is a program that is executed by an image display device that displays a 3D image to be stereoscopically viewed using binocular parallax on a display screen, and that captures an image of a user facing the display screen A monitor display step for monitoring and displaying the user's video imaged in the imaging step on the display screen, and an eye position indicating an appropriate position of the left and right eyes for allowing the user to stereoscopically view a 3D image on the display screen A composite display step of displaying a guide image superimposed on a user image displayed on the monitor in the monitor display step is executed by a computer.

請求項26に記載の発明では、両眼視差を利用して立体視させる3D画像を表示画面に表示する画像表示装置で実行されるプログラムであって、前記表示画面に対向するユーザを撮像した映像から当該ユーザの位置を取得する位置取得ステップと、前記位置取得ステップにて取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にあるか否かを判別する位置判別ステップと、前記位置判別ステップでの判別結果に応じて、前記表示画面を見るユーザの位置の適否を報知する報知ステップとをコンピュータで実行させることを特徴とする。   In a twenty-sixth aspect of the invention, there is provided a program that is executed by an image display device that displays a 3D image to be stereoscopically viewed using binocular parallax on a display screen, and is an image that captures a user facing the display screen A position acquisition step of acquiring the position of the user from the position, a position determination step of determining whether or not the position of the user acquired in the position acquisition step is in a predetermined allowable range position with respect to the display screen; In accordance with the determination result in the position determination step, a notification step for notifying whether or not the position of the user viewing the display screen is appropriate is executed by a computer.

上記請求項26に従属する請求項27に記載の発明では、前記位置判別ステップでの判別結果に応じて、前記表示画面に3D画像を表示するか否かを制御する表示制御ステップを更に備えることを特徴とする。   The invention according to claim 27, which is dependent on claim 26, further comprises a display control step for controlling whether or not to display a 3D image on the display screen in accordance with the determination result in the position determination step. It is characterized by.

本発明によれば、簡便な操作で3D表示を見るのに最適な位置を設定でき、しかも確実に3D表示を立体視させることもできる。   According to the present invention, it is possible to set an optimal position for viewing a 3D display with a simple operation, and to reliably stereoscopically view the 3D display.

以下、図面を参照して本発明の実施の形態について説明する。
[第1実施形態]
A.構成
(1)携帯電話10の外観構成
図1は、第1実施形態による画像表示装置を備えた携帯電話10の外観構成を示す図である。携帯電話10は、受話部筐体と送話部筐体とを折り畳む周知の折り畳み開閉タイプの筐体構造を有し、図1は折り畳みが開かれた展開状態での正面外観を図示している。この図に示すように、携帯電話10の受話部筐体には、ユーザの顔を撮像するインカメラ103、2D表示/3D表示の切り替えが可能な表示画面107aおよび3D表示時にユーザの視点位置が適正範囲にあるか否かを報知するガイドLEDが配設される。なお、送話部筐体には、後述の操作部108を構成する各種操作キーや操作ボタン、送話口(マイクMIC)等が設けられる。
Embodiments of the present invention will be described below with reference to the drawings.
[First Embodiment]
A. Constitution
(1) External configuration of mobile phone 10 FIG. 1 is a diagram showing an external configuration of a mobile phone 10 including an image display device according to the first embodiment. The mobile phone 10 has a well-known folding open / close type housing structure that folds the receiver housing and the transmitter housing, and FIG. 1 illustrates a front appearance in an unfolded state in which the folding is opened. . As shown in this figure, the receiving unit housing of the mobile phone 10 has an in-camera 103 that captures the user's face, a display screen 107a capable of switching between 2D display and 3D display, and a user's viewpoint position during 3D display. A guide LED is provided to notify whether or not it is within the proper range. The transmitter section housing is provided with various operation keys, operation buttons, a mouthpiece (microphone MIC), and the like constituting the operation section 108 described later.

(2)携帯電話10の電気的構成
次に、図2を参照して携帯電話10の電気的構成について説明する。図2において、制御部100は、CPUおよび入出力回路などから構成され、操作部108(後述する)から供給されるイベントに応じて各部動作を制御する。具体的には、3D表示用の3Dイメージデータを3D表示する場合に、簡便な操作で3D表示を見るのに最適な位置を設定したり、確実に3D表示を立体視させたりする制御動作を実行する。こうした本発明の要旨に係わる制御部100の特徴的な処理動作については追って詳述する。
(2) Electrical configuration of mobile phone 10 Next, the electrical configuration of the mobile phone 10 will be described with reference to FIG. In FIG. 2, the control unit 100 includes a CPU, an input / output circuit, and the like, and controls the operation of each unit according to an event supplied from the operation unit 108 (described later). Specifically, when 3D image data for 3D display is displayed in 3D, a control operation for setting an optimal position for viewing the 3D display with a simple operation or for surely viewing the 3D display stereoscopically is performed. Execute. The characteristic processing operation of the control unit 100 according to the gist of the present invention will be described in detail later.

ROM101は、プログラムエリアおよびデータエリアを備える。ROM101のプログラムエリアには、制御部100により実行される各種プログラムが記憶される。ここで言う各種プログラムとは、追って詳述するコンテンツ表示処理および眼位置チェック処理を含む。ROM101のデータエリアには、所定のプログラムにより参照される制御データの他、例えば後述の眼位置ガイド画面EG(図5参照)や、待受画面(不図示)などの各種表示画面を形成する画面データが格納される。   The ROM 101 includes a program area and a data area. Various programs executed by the control unit 100 are stored in the program area of the ROM 101. The various programs referred to here include content display processing and eye position check processing, which will be described in detail later. In the data area of the ROM 101, in addition to control data referred to by a predetermined program, for example, a screen for forming various display screens such as an eye position guide screen EG (see FIG. 5) described later and a standby screen (not shown) Data is stored.

RAM102は、制御部100の処理に用いる各種レジスタ・フラグデータを一時記憶するワークエリア102aと、インカメラ103から撮像出力される撮像データ(画像データ)を一時記憶する撮像データエリア102bと、表示部107の表示画面107aに2D表示もしくは3D表示するコンテンツデータを記憶するコンテンツデータエリア102cとを備える。なお、ここで言うコンテンツデータとは、通常の2D表示用の画像データや、左眼用画像データと右眼用画像データとから構成され、視差バリア方式で3D表示するための3Dイメージデータを包含する総称である。   The RAM 102 has a work area 102a for temporarily storing various register / flag data used for processing of the control unit 100, an imaging data area 102b for temporarily storing imaging data (image data) output from the in-camera 103, and a display unit. The display screen 107a includes a content data area 102c for storing content data to be displayed in 2D or 3D. The content data referred to here includes normal 2D display image data, left eye image data and right eye image data, and includes 3D image data for 3D display using a parallax barrier method. It is a generic name.

インカメラ103は、所謂『自分撮り用』として、表示部107の表示画面107aに対向するユーザの顔を撮像するカメラであって、制御部100の指示に従って撮像を開始し、これにより得られる画像データを出力する。インカメラ103から出力される画像データは、制御部100の制御の下に、RAM102の撮像データエリア102bにストアされる。 The in-camera 103 is a camera that captures the face of the user facing the display screen 107a of the display unit 107 as so-called “for self-portrait”, starts imaging according to an instruction from the control unit 100, and an image obtained thereby Output data. Image data output from the in-camera 103 is stored in the imaging data area 102 b of the RAM 102 under the control of the control unit 100.

無線通信送受信部104は、データ通信時には制御部100の制御の下に、アンテナANT1を介して基地局(不図示)とデータ授受を行い、音声通話時にはアンテナANT1を介して受信復調した音声データを制御部100に出力する一方、制御部100から供給される音声データを変調して得た送信信号を高周波増幅してアンテナANT1から送出する。 The wireless communication transmitting / receiving unit 104 exchanges data with a base station (not shown) through the antenna ANT1 under the control of the control unit 100 during data communication, and receives and demodulates the voice data received and demodulated through the antenna ANT1 during voice communication. While outputting to the control part 100, the transmission signal obtained by modulating the audio | voice data supplied from the control part 100 is amplified by high frequency, and is sent out from antenna ANT1.

音声信号処理部105は、スピーカSPおよびマイクMICを備え、制御部100から供給される音声データを音声信号にD/A変換してスピーカSPに供給したり、マイクMICから出力される音声信号を音声データにA/D変換して制御部100に供給する。 The audio signal processing unit 105 includes a speaker SP and a microphone MIC, D / A converts audio data supplied from the control unit 100 into an audio signal, and supplies the audio signal to the speaker SP, or an audio signal output from the microphone MIC. The audio data is A / D converted and supplied to the control unit 100.

画像処理部106は、制御部100の指示に従い、RAM102の撮像データエリア102bにストアされる画像データを、ビューファインダ(表示画面107a)に表示する。また、画像処理部106は、制御部100の指示に従い、ビューファインダに表示した画像データに「人の顔」に相当する画像パターンが含まれているか否かを判定し、「人の顔」に相当する画像パターンが含まれている場合には、ビューファインダ中における顔の左右両眼の位置を検出して制御部100に出力する。さらに、画像処理部106は、前フレーム画像データに基づき検出した顔の左右両眼の位置と、次フレーム画像データに基づき検出した顔の左右両眼の位置との差分が所定閾値を超えた場合に、筐体の揺れを検出した旨を表す筐体揺れ検出イベントを発生して制御部100に供給する。 The image processing unit 106 displays the image data stored in the imaging data area 102b of the RAM 102 on the viewfinder (display screen 107a) in accordance with an instruction from the control unit 100. Further, the image processing unit 106 determines whether or not the image data displayed on the viewfinder includes an image pattern corresponding to “human face” in accordance with an instruction from the control unit 100, and sets “human face” as the “human face”. If the corresponding image pattern is included, the positions of the left and right eyes of the face in the viewfinder are detected and output to the control unit 100. Furthermore, the image processing unit 106, when the difference between the position of the left and right eyes of the face detected based on the previous frame image data and the position of the left and right eyes of the face detected based on the next frame image data exceeds a predetermined threshold In addition, a case shake detection event indicating that the case shake has been detected is generated and supplied to the control unit 100.

表示部107は、制御部100から2D表示用の画像データが供給された場合には視差バリアのスリットを電気的に解消して表示画面107aに2D表示し、一方、制御部100から3D表示用の3Dイメージデータが供給された場合には、視差バリアのスリットを電気的に形成して表示画面107aに3D表示する。また、表示部107では、制御部100が眼位置チェック処理(後述する)を実行する場合、図5に図示する眼位置ガイド画面EGを表示画面107aに表示する。眼位置ガイド画面EGが意図するところについては追って述べる。 When the image data for 2D display is supplied from the control unit 100, the display unit 107 electrically eliminates the slit of the parallax barrier and displays 2D on the display screen 107a, while the control unit 100 performs 3D display. When the 3D image data is supplied, the slit of the parallax barrier is electrically formed and displayed in 3D on the display screen 107a. Further, in the display unit 107, when the control unit 100 executes an eye position check process (described later), an eye position guide screen EG illustrated in FIG. 5 is displayed on the display screen 107a. The purpose of the eye position guide screen EG will be described later.

操作部108には、パワーオンオフする電源スイッチ、通話開始/終了時に操作されるオフフック/オンフックスイッチ、ダイヤルスイッチと兼用の文字入力スイッチ等の各種操作キーの他、RAM102のコンテンツデータエリア102cに格納される各種コンテンツデータのいずれかを選択して表示するコンテンツ表示処理の実行を指示するコンテンツ表示ボタンを有し、これらキーやボタンの操作に応じたイベントを発生して制御部100に出力する。 The operation unit 108 is stored in the content data area 102c of the RAM 102, in addition to various operation keys such as a power switch for turning on / off the power, an off-hook / on-hook switch operated at the start / end of a call, and a character input switch also serving as a dial switch. A content display button for instructing execution of content display processing for selecting and displaying any of the various content data to be displayed is generated, and an event corresponding to the operation of these keys and buttons is generated and output to the control unit 100.

B.動作
次に、図3〜図8を参照して携帯電話10の制御部100が実行するコンテンツ表示処理および眼位置チェック処理の各動作について説明する。なお、図3はコンテンツ表示処理の動作を示すフローチャート、図4は眼位置チェック処理の動作を示すフローチャートである。また、図5〜図8は眼位置チェック処理の動作を説明するための図である。
B. Action
Next, operations of content display processing and eye position check processing executed by the control unit 100 of the mobile phone 10 will be described with reference to FIGS. 3 is a flowchart showing the operation of the content display process, and FIG. 4 is a flowchart showing the operation of the eye position check process. 5 to 8 are diagrams for explaining the operation of the eye position check process.

(1)コンテンツ表示処理の動作
携帯電話10が着信を待ち受ける待ち受け状態下である時に、ユーザが操作部108のコンテンツ表示ボタンを操作すると、この操作イベントに基づき制御部100は図3に図示するコンテンツ表示処理を実行してステップSA1に進む。ステップSA1では、RAM102のコンテンツデータエリア102cに格納されている各種コンテンツデータの属性(例えばファイル名や2D表示用/3D表示用を識別するコンテンツ種別など)を、当該コンテンツデータエリア102cから読み出し、これをコンテンツリストとして表示画面107aに一覧表示する。
(1) Content display processing operation
When the user operates the content display button of the operation unit 108 while the mobile phone 10 is waiting for an incoming call, the control unit 100 executes the content display process shown in FIG. Proceed to In step SA1, attributes of various content data stored in the content data area 102c of the RAM 102 (for example, a file name and a content type for identifying 2D display / 3D display) are read from the content data area 102c. Are displayed as a content list on the display screen 107a.

次いで、ステップSA2では、上記ステップSA1にて表示されたコンテンツリストの中から2D表示もしくは3D表示したいコンテンツデータをユーザ操作に応じて選択する。そして、ステップSA3〜SA4では、選択したコンテンツデータの属性に含まれるコンテンツ種別に基づき、表示すべきコンテンツデータが2D表示用あるいは3D表示用のいずれであるかを判別する。以下、表示すべきコンテンツデータが2D表示用の場合と3D表示用の場合とに分けて動作の説明を進める。   Next, in step SA2, content data to be displayed in 2D or 3D is selected from the content list displayed in step SA1 in accordance with a user operation. In steps SA3 to SA4, it is determined whether the content data to be displayed is for 2D display or 3D display based on the content type included in the attribute of the selected content data. Hereinafter, the description of the operation will be made separately for the case where the content data to be displayed is for 2D display and the case for 3D display.

<表示すべきコンテンツデータが2D表示用の場合>
表示すべきコンテンツデータが2D表示用であると、ステップSA4の判断結果は「NO」になり、ステップSA5に進み、上記ステップSA2において選択されたコンテンツデータをRAM102のコンテンツデータエリア102cから読み出して表示画面107aに2D表示する。なお、この際、表示部107では、制御部100から2D表示用のコンテンツデータが供給されるのに伴い、視差バリアのスリットを電気的に解消して表示画面107aを2D表示用の状態に設定する。そして、ステップSA6では、コンテンツ表示終了操作が行われるまで待機し、その操作が行われると、判断結果が「YES」となり、本処理を終える。
<When content data to be displayed is for 2D display>
If the content data to be displayed is for 2D display, the determination result in step SA4 is “NO”, the process proceeds to step SA5, and the content data selected in step SA2 is read from the content data area 102c of the RAM 102 and displayed. 2D display is performed on the screen 107a. At this time, in the display unit 107, as the content data for 2D display is supplied from the control unit 100, the slit of the parallax barrier is electrically removed and the display screen 107a is set to the state for 2D display. To do. In step SA6, the process waits until a content display end operation is performed. When the operation is performed, the determination result is “YES”, and the process ends.

<表示すべきコンテンツデータが3D表示用の場合>
表示すべきコンテンツデータが3D表示用の3Dイメージデータであると、上記ステップSA4の判断結果は「YES」になり、ステップSA7を介して眼位置チェック処理を実行する。眼位置チェック処理では、後述するように、ユーザの顔をインカメラ103で撮像したカメラ映像を、立体視感を得る正視位置(以下、適正範囲と称す)を案内するための眼位置ガイド画面EGに重ね合わせて表示画面107aに表示する一方、カメラ映像から検出したユーザの左右両眼の位置が眼位置ガイド画面EG上に示される適正範囲から逸脱していれば、ユーザの視点位置が適正範囲からどの方向にどの程度ずれているのかを案内する。
<When content data to be displayed is for 3D display>
If the content data to be displayed is 3D image data for 3D display, the determination result in step SA4 is “YES”, and the eye position check process is executed via step SA7. In the eye position check process, as will be described later, an eye position guide screen EG for guiding a normal viewing position (hereinafter referred to as an appropriate range) for obtaining stereoscopic vision of a camera image obtained by capturing the user's face with the in-camera 103. If the position of the left and right eyes of the user detected from the camera image deviates from the appropriate range shown on the eye position guide screen EG, the user's viewpoint position is within the appropriate range. It will guide you how far and in what direction it is.

そして、上記ステップSA7を介して実行される眼位置チェック処理によりユーザの視点位置が適正範囲内に収まると、ステップSA8に進み、上記ステップSA2において選択された3D表示用のコンテンツデータをRAM102のコンテンツデータエリア102cから読み出して表示画面107aに3D表示する。なお、この際、表示部107では、制御部100から3D表示用のコンテンツデータが供給されるのに伴い、視差バリアのスリットを電気的に形成して表示画面107aに3D表示する。   When the user's viewpoint position falls within the appropriate range by the eye position check process executed through step SA7, the process proceeds to step SA8, and the content data for 3D display selected in step SA2 is stored in the content of the RAM 102. The data is read from the data area 102c and displayed in 3D on the display screen 107a. At this time, as the content data for 3D display is supplied from the control unit 100, the display unit 107 electrically forms a slit of the parallax barrier and displays the 3D on the display screen 107a.

次いで、ステップSA9では、着信割り込みを検出したか否かを判断する。着信割り込みを検出した場合には、判断結果が「YES」になり、ステップSA10に進み、コンテンツ表示を停止した後、上述のステップSA7に処理を戻す。一方、着信割り込みを検出していなければ、上記ステップSA9の判断結果は「NO」になり、ステップSA11に進む。ステップSA11では、画像処理部106から筐体揺れ検出イベントが供給されたか否か、つまり筐体の揺れを検出したかどうかを判断する。筐体の揺れを検出した場合には、判断結果が「YES」となり、ステップSA10に進み、コンテンツ表示を停止した後、上述のステップSA7に処理を戻す。   Next, in step SA9, it is determined whether an incoming call interrupt is detected. If an incoming call interrupt is detected, the determination result is “YES”, the process proceeds to step SA10, the content display is stopped, and then the process returns to step SA7. On the other hand, if an incoming call interrupt is not detected, the determination result in step SA9 is “NO”, and the flow proceeds to step SA11. In step SA11, it is determined whether a case shake detection event is supplied from the image processing unit 106, that is, whether a case shake is detected. When the shaking of the housing is detected, the determination result is “YES”, the process proceeds to step SA10, the content display is stopped, and the process returns to step SA7.

これに対し、筐体の揺れを検出していなければ、上記ステップSA11の判断結果は「NO」になり、ステップSA12に進み、コンテンツ表示終了操作の有無を判断する。コンテンツ表示終了操作が為されていなければ、判断結果は「NO」になり、上述したステップSA9に処理を戻す。一方、コンテンツ表示終了操作が行われると、上記ステップSA12の判断結果が「YES」となり、本処理を終える。 On the other hand, if the shaking of the casing is not detected, the determination result in step SA11 is “NO”, and the process proceeds to step SA12 to determine whether or not a content display end operation has been performed. If the content display end operation has not been performed, the determination result is “NO”, and the process returns to step SA9. On the other hand, when the content display end operation is performed, the determination result in step SA12 is “YES”, and the present process ends.

(2)眼位置チェック処理の動作
次に、図4〜図8を参照して眼位置チェック処理の動作を説明する。上述したコンテンツ表示処理のステップSA7(図3参照)を介して本処理が実行されると、制御部100は図4に図示するステップSB1に進み、インカメラ103を起動させる。これによりインカメラ103は、表示部107の表示画面107aに対向するユーザの顔を撮像し始める。次いで、ステップSB2では、インカメラ103から出力されるカメラ映像をビューファインダとなる表示画面107aにモニタ表示する。
(2) Operation of Eye Position Check Process Next, the operation of the eye position check process will be described with reference to FIGS. When this process is executed via step SA7 (see FIG. 3) of the content display process described above, the control unit 100 proceeds to step SB1 illustrated in FIG. 4 and activates the in-camera 103. As a result, the in-camera 103 starts imaging the face of the user facing the display screen 107a of the display unit 107. Next, in step SB2, the camera image output from the in-camera 103 is displayed on the display screen 107a serving as a viewfinder on a monitor.

続いて、ステップSB3では、カメラ映像をモニタ表示している表示画面107aに、眼位置ガイド画面EGをスーパーインポーズして合成表示する。眼位置ガイド画面EGとは、例えば図5に図示する一例のように、左眼位置ガイド枠LE、右眼位置ガイド枠REおよび案内表示部GMを有する画面である。この画面EGの左眼位置ガイド枠LEおよび右眼位置ガイド枠REは、ユーザに適正範囲(立体視感を得る正視位置)を案内するためのものである。したがって、このような眼位置ガイド画面EGを、ユーザの顔を撮影してなるカメラ映像にスーパーインポーズして合成表示すると、図6に図示する一例の表示形態となる。 Subsequently, in step SB3, the eye position guide screen EG is superimposed and displayed on the display screen 107a displaying the camera image on the monitor. The eye position guide screen EG is a screen having a left eye position guide frame LE, a right eye position guide frame RE, and a guidance display unit GM, for example, as in the example illustrated in FIG. The left eye position guide frame LE and the right eye position guide frame RE of the screen EG are for guiding the user to an appropriate range (a normal viewing position for obtaining a stereoscopic vision). Therefore, when such an eye position guide screen EG is superimposed and displayed on a camera image obtained by photographing the user's face, an example of the display form illustrated in FIG. 6 is obtained.

そして、ステップSB4では、制御部100の指示に従い、画像処理部106が、インカメラ103から出力されるカメラ映像に「人の顔」に相当する画像パターンが含まれているか否かを判定する顔認識を実行し、これにて「人の顔」に相当する画像パターンが含まれていると判定されると、認識した顔の左右両眼の位置を検出して制御部100に出力する。   In step SB4, in accordance with an instruction from the control unit 100, the image processing unit 106 determines whether or not the camera image output from the in-camera 103 includes an image pattern corresponding to “human face”. When recognition is performed and it is determined that an image pattern corresponding to “human face” is included, the positions of the left and right eyes of the recognized face are detected and output to the control unit 100.

こうして、ユーザの顔の左右両眼の位置が画像認識により検出されると、制御部100はステップSB5に進み、検出した左右の眼位置を適正位置と比較する。すなわち、検出した左右両眼の位置がそれぞれ左眼位置ガイド枠LEと右眼位置ガイド枠REとに収まっているかを比較する。次いで、ステップSB6では、上記ステップSB5の比較結果に基づき、左眼位置が左眼位置ガイド枠LE内に収まり、かつ右眼位置が右眼位置ガイド枠RE内に収まる適正範囲内であるか否かを判断する。 When the positions of the left and right eyes of the user's face are thus detected by image recognition, the control unit 100 proceeds to step SB5 and compares the detected left and right eye positions with the appropriate positions. That is, it is compared whether the detected positions of the left and right eyes are within the left eye position guide frame LE and the right eye position guide frame RE, respectively. Next, in step SB6, whether or not the left eye position is within the left eye position guide frame LE and the right eye position is within the appropriate range within the right eye position guide frame RE based on the comparison result of step SB5. Determine whether.

例えば図6に図示した一例のように、ユーザの左右両眼の位置が眼位置ガイド画面EGの左眼位置ガイド枠LEと右眼位置ガイド枠REとに収まる適正範囲内にある場合、つまり立体視感が得られる正視位置にユーザの左右両眼が位置していれば、上記ステップSB6の判断結果は「YES」となり、本処理を完了する。なお、この場合、眼位置チェック処理の完了に伴い、モニタ表示および眼位置ガイド画面EGの表示を終了させる。   For example, as in the example illustrated in FIG. 6, when the positions of the left and right eyes of the user are within an appropriate range within the left eye position guide frame LE and the right eye position guide frame RE of the eye position guide screen EG, If the left and right eyes of the user are positioned at the normal viewing position where the visual sensation is obtained, the determination result in Step SB6 is “YES”, and this processing is completed. In this case, with the completion of the eye position check process, the monitor display and the display of the eye position guide screen EG are terminated.

これに対し、図7(a)又は図8(a)に図示する一例のように、ユーザの左右両眼の位置が適正範囲を逸脱していると、上記ステップSB6の判断結果は「NO」になり、ステップSB7に進み、不一致音をスピーカSPから放音するよう音声信号処理部105に指示し、続くステップSB8では、受話部筐体に配設されるガイドLED(図1参照)を点滅させて適正範囲を逸脱している旨をユーザに報知する。   On the other hand, if the position of the left and right eyes of the user deviates from the appropriate range as in the example illustrated in FIG. 7A or FIG. 8A, the determination result in step SB6 is “NO”. In step SB7, the audio signal processing unit 105 is instructed to emit the unmatched sound from the speaker SP, and in the subsequent step SB8, the guide LED (see FIG. 1) disposed on the receiver housing is blinked. To notify the user that the vehicle is out of the proper range.

なお、本実施形態では、不一致音を放音させながらガイドLEDを点滅させて適正範囲の逸脱をユーザに報知する態様としたが、これに限らず、ユーザの左右両眼が適正範囲内に収まった時に一致音を放音してガイドLEDを消灯させ、これによりユーザに対して立体視感が得られる正視位置にある旨を報知する態様としても構わない。 In the present embodiment, the guide LED is blinked while emitting a disagreement sound to notify the user of the deviation of the appropriate range. However, the present invention is not limited to this, and the left and right eyes of the user are within the appropriate range. It is possible to emit a coincidence sound and turn off the guide LED, thereby notifying the user that the user is in the normal viewing position where stereoscopic vision is obtained.

次いで、ステップSB9では、左右の眼の間隔が適正か否か、すなわち上記ステップSB4において検出されたユーザの左右両眼の位置から得られる眼の間隔が、図7(a)に図示する左眼位置ガイド枠LE右端から右眼位置ガイド枠RE左端までの間隔K1と、左眼位置ガイド枠LE左端から右眼位置ガイド枠RE右端までの間隔K2との間に収まるかどうかを判断する。つまり言い換えると、ステップSB9では、ユーザの眼の位置が表示画面107aから遠過ぎたり近づき過ぎたりせずに適正に離間しているかどうかを判断する。以下、ユーザの眼の位置が表示画面107aから適正に離間している場合と、そうでない場合とに分けて動作説明を進める。   Next, in step SB9, whether or not the distance between the left and right eyes is appropriate, that is, the eye distance obtained from the position of the left and right eyes of the user detected in step SB4 is the left eye shown in FIG. It is determined whether or not the distance K1 from the right end of the position guide frame LE to the left end of the right eye position guide frame RE and the interval K2 from the left end of the left eye position guide frame LE to the right end of the right eye position guide frame RE are determined. In other words, in step SB9, it is determined whether the position of the user's eyes is properly separated without being too far or too close to the display screen 107a. Hereinafter, the description of the operation will be made separately for a case where the position of the user's eyes is appropriately separated from the display screen 107a and a case where the position is not so.

<ユーザの眼の位置が表示画面107aから適正に離間している場合>
この場合には、ユーザの左右両眼の位置から得られる眼の間隔が上述した間隔K1と間隔K2との間に収まるので、上記ステップSB9の判断結果は「YES」になり、ステップSB10に進む。ステップSB10では、眼位置ガイド画面EGの左眼位置ガイド枠LEと右眼位置ガイド枠REとで規定される適正範囲から逸脱するユーザの眼の位置のズレ方向(上下方向あるいは左右方向)およびそのズレ量を検出する。
<When the position of the user's eyes is appropriately separated from the display screen 107a>
In this case, since the eye interval obtained from the positions of the left and right eyes of the user falls within the interval K1 and the interval K2, the determination result in step SB9 is “YES”, and the flow proceeds to step SB10. . In step SB10, the shift direction (vertical direction or horizontal direction) of the user's eye position deviating from an appropriate range defined by the left eye position guide frame LE and the right eye position guide frame RE of the eye position guide screen EG and its The amount of deviation is detected.

例えば図7(a)に図示する一例のように、ユーザの眼の位置が適正範囲から逸脱している状況では、図7(b)に図示する関係に基づきズレの方向およびそのズレ量を検出する。すなわち、左右のズレは、ユーザの眼の間隔ESの中心ECが適正中心TCの右側にあれば右方向のズレとなり、適正中心TCの左側にあれば左方向のズレとなる。 For example, as in the example illustrated in FIG. 7A, in the situation where the position of the user's eyes deviates from the appropriate range, the direction of the shift and the amount of the shift are detected based on the relationship illustrated in FIG. 7B. To do. That is, the right and left shift is a right shift if the center EC of the user's eye interval ES is on the right side of the proper center TC, and a left shift if the center EC is on the left side of the proper center TC.

したがって、図7(b)に図示した一例は右方向のズレとなる。適正中心TCとは、図7(a)に図示した間隔K1(又は間隔K2)の中心を指す。また、左右方向のズレ量Lは、適正中心TCの位置とユーザの眼の間隔ESの中心ECの位置との差分(TC−EC)に係数C1を乗算して求める。係数C1は、表示画面107a上における差分(TC−EC)を実際の位置ズレの距離に換算する定数である。 Therefore, the example illustrated in FIG. 7B is shifted in the right direction. The appropriate center TC refers to the center of the interval K1 (or the interval K2) illustrated in FIG. Further, the amount of deviation L in the left-right direction is obtained by multiplying the difference (TC-EC) between the position of the appropriate center TC and the position of the center EC of the user's eye interval ES by the coefficient C1. The coefficient C1 is a constant for converting the difference (TC-EC) on the display screen 107a into an actual positional deviation distance.

一方、上下のズレは、ユーザの左眼/右眼位置のいずれかが左眼位置ガイド枠LE下端または右眼位置ガイド枠RE下端を超えた場合に下方向のズレとなり、左眼位置ガイド枠LE上端または右眼位置ガイド枠RE上端を超えた場合に上方向のズレとなる。また、図示していないが、上下方向のズレ量Lは、ガイド枠下端(もしくはガイド枠上端)とユーザの左眼位置(もしくは右眼位置)との上下ズレ差分に係数C2を乗算して求める。係数C2は、表示画面107a上における上下ズレ差分を実際の位置ズレの距離に換算する定数である。
で定義される。
On the other hand, the vertical shift is a downward shift when any of the left eye / right eye position of the user exceeds the lower end of the left eye position guide frame LE or the lower end of the right eye position guide frame RE. When the upper end of LE or the upper end of the right eye position guide frame RE is exceeded, an upward shift occurs. Although not shown, the vertical shift amount L is obtained by multiplying the vertical shift difference between the lower end of the guide frame (or the upper end of the guide frame) and the left eye position (or the right eye position) of the user by a coefficient C2. . The coefficient C2 is a constant for converting the vertical shift difference on the display screen 107a into the actual positional shift distance.
Defined by

上記ステップSB10において、適正範囲から逸脱するユーザの眼の位置のズレ方向(上下方向あるいは左右方向)およびそのズレ量が検出されると、制御部100はステップSB11に進み、検出したズレ方向とズレ量とを、眼位置ガイド画面EGの案内表示部GMにガイド表示する。例えば図7(a)に図示した一例の場合、同図(b)に図示する通り、眼位置ガイド画面EGの案内表示部GMに「右にずれています。:5cm」なるガイドメッセージを表示してユーザに報知する。   In step SB10, when the deviation direction (vertical direction or horizontal direction) of the user's eye position deviating from the appropriate range and the deviation amount thereof are detected, the control unit 100 proceeds to step SB11, and the detected deviation direction and deviation are detected. The amount is displayed as a guide on the guide display section GM of the eye position guide screen EG. For example, in the example shown in FIG. 7A, as shown in FIG. 7B, a guide message “shifted to the right: 5 cm” is displayed on the guidance display part GM of the eye position guide screen EG. To inform the user.

こうして、ユーザの視点位置が適正範囲からどの方向へどの程度ずれているのかを案内し終えると、制御部100は上述したステップSB4に処理を戻し、再びユーザの顔の左右両眼の位置を検出し、検出した左右両眼の位置が適正範囲内であるか否かを判断する。この時、上述したガイドメッセージに従ってユーザが視点の位置を移動させ、これによりユーザの左右両眼の位置が適正範囲内に収まるようになると、上述したステップSB6の判断結果が「YES」になり、本処理を終える。   When the guidance of the direction in which the user's viewpoint position is deviated from the appropriate range is completed in this way, the control unit 100 returns to the above-described step SB4 and again detects the positions of the left and right eyes of the user's face. Then, it is determined whether or not the detected positions of the left and right eyes are within an appropriate range. At this time, when the user moves the position of the viewpoint according to the above-described guide message, and the position of the left and right eyes of the user falls within the appropriate range, the determination result of the above-described step SB6 becomes “YES”, This process is finished.

<ユーザの眼の位置が表示画面107aから適正に離間していない場合>
この場合には、ユーザの左右両眼の位置から得られる眼の間隔が前述した間隔K1と間隔K2との間に収まらないので、上記ステップSB9の判断結果は「NO」になり、ステップSB12に進む。ステップSB12では、眼位置ガイド画面EGの左眼位置ガイド枠LEと右眼位置ガイド枠REとで規定される適正範囲から逸脱するユーザの眼の位置のズレ方向(前後方向)およびそのズレ量を検出する。
<When the position of the user's eyes is not properly separated from the display screen 107a>
In this case, since the eye interval obtained from the positions of the left and right eyes of the user does not fit between the interval K1 and the interval K2, the determination result in step SB9 is “NO”, and the process returns to step SB12. move on. In step SB12, the shift direction (front-rear direction) of the user's eye position deviating from an appropriate range defined by the left eye position guide frame LE and the right eye position guide frame RE of the eye position guide screen EG and the shift amount are determined. To detect.

例えば図8(a)に図示する一例のように、ユーザの眼の位置が適正範囲から逸脱している状況では、図8(b)に図示する関係に基づきズレの方向およびそのズレ量を検出する。すなわち、遠過ぎたり近づき過ぎたりする前後のズレは、ユーザの眼の間隔ESが間隔K1より小さければ後方向のズレとなり、間隔K2より大きければ前方向のズレとなる。したがって、図8(b)に図示した一例は後方向のズレとなる。 For example, as in the example illustrated in FIG. 8A, in a situation where the position of the user's eyes deviates from the appropriate range, the direction of the shift and the amount of the shift are detected based on the relationship illustrated in FIG. To do. In other words, the displacement before and after being too far or too close is a backward displacement if the user's eye interval ES is smaller than the interval K1, and a forward displacement if it is larger than the interval K2. Therefore, the example illustrated in FIG. 8B is a backward shift.

後方向のズレ量Lは、図8(b)に図示するように、間隔K1とユーザの眼の間隔ESとの差分(K1−ES)に係数C3を乗算して求める。係数C3は、表示画面107a上における差分(K1−ES)を実際の位置ズレの距離に換算する定数である。一方、前方向のズレ量Lは、図示していないが、ユーザの眼の間隔ESと間隔K2との差分(ES−K2)に係数C4を乗算して求める。係数C4は、表示画面107a上における差分(ES−K2)を実際の位置ズレの距離に換算する定数である。 As shown in FIG. 8B, the backward shift amount L is obtained by multiplying the difference (K1−ES) between the interval K1 and the user's eye interval ES by a coefficient C3. The coefficient C3 is a constant for converting the difference (K1-ES) on the display screen 107a into an actual positional deviation distance. On the other hand, although not shown, the forward displacement amount L is obtained by multiplying the difference (ES−K2) between the user's eye interval ES and the interval K2 by a coefficient C4. The coefficient C4 is a constant for converting the difference (ES−K2) on the display screen 107a into an actual positional deviation distance.

上記ステップSB12において、適正範囲から逸脱するユーザの眼の位置のズレ方向(前後のズレ)およびそのズレ量を検出すると、制御部100はステップSB13に進み、検出したズレ方向とズレ量とを、眼位置ガイド画面EGの案内表示部GMにガイド表示する。例えば、図8(a)に図示した一例の場合、同図(b)に図示する通り、眼位置ガイド画面EGの案内表示部GMに「遠すぎます。:10cm」なるガイドメッセージを表示してユーザに報知する。 In step SB12, when the shift direction (front / back shift) of the user's eye position deviating from the appropriate range and the shift amount thereof are detected, the control unit 100 proceeds to step SB13, and the detected shift direction and shift amount are determined. Guide display is performed on the guidance display section GM of the eye position guide screen EG. For example, in the example shown in FIG. 8A, as shown in FIG. 8B, a guide message “Too far: 10 cm” is displayed on the guidance display part GM of the eye position guide screen EG. Inform the user.

こうして、ユーザの視点位置が適正範囲からどの方向へどの程度ずれているのかを案内し終えると、制御部100は前述したステップSB4に処理を戻し、再びユーザの顔の左右両眼の位置を検出し、検出した左右両眼の位置が適正範囲内であるか否かを判断する。この時、ガイドメッセージに従ってユーザが視点の位置を移動させ、これによりユーザの左右両眼の位置が適正範囲内に収まるようになると、上述したステップSB6の判断結果が「YES」になり、本処理を終える。   Thus, when the guidance of how much the user's viewpoint position is deviated from the appropriate range and in which direction is completed, the control unit 100 returns to the above-described step SB4 and again detects the positions of the left and right eyes of the user's face. Then, it is determined whether or not the detected positions of the left and right eyes are within an appropriate range. At this time, when the user moves the position of the viewpoint in accordance with the guide message, and the position of the left and right eyes of the user falls within the appropriate range, the determination result in step SB6 described above becomes “YES”, and this processing Finish.

このように、眼位置チェック処理では、ユーザの顔をインカメラ103で撮像したカメラ映像を眼位置ガイド画面EGにスーパーインポーズして表示画面107aにモニタ表示する一方、カメラ映像に画像認識を施してユーザの左右両眼の位置を検出し、検出したユーザの左右両眼の位置が眼位置ガイド画面EGの左眼位置ガイド枠LEと右眼位置ガイド枠REとで規定され、立体視感を得る最適な正視位置の範囲を表す適正範囲にあるか否かを判断する。そして、適正範囲から逸脱していれば、正視位置からどの程度ずれているのかを案内する。以後、ユーザの左右両眼の位置が眼位置ガイド画面EGの適正範囲内に収まるようになるまで上記の案内動作を繰り返し、ユーザの左右両眼の位置が正視位置になると、本処理を完了するようになっている。   In this way, in the eye position check process, the camera image obtained by capturing the user's face with the in-camera 103 is superimposed on the eye position guide screen EG and displayed on the display screen 107a, while image recognition is performed on the camera image. The positions of the left and right eyes of the user are detected, and the detected positions of the left and right eyes of the user are defined by the left eye position guide frame LE and the right eye position guide frame RE of the eye position guide screen EG. It is determined whether or not it is within an appropriate range representing the range of the optimum normal vision position to be obtained. And if it deviates from an appropriate range, it will guide how much it has deviated from the normal viewing position. Thereafter, the above guiding operation is repeated until the position of the left and right eyes of the user falls within the appropriate range of the eye position guide screen EG, and when the position of the left and right eyes of the user reaches the normal viewing position, this processing is completed. It is like that.

以上のように、第1実施形態では、表示すべきコンテンツデータが3D表示用の3Dイメージデータであると、ユーザの顔をインカメラ103で撮像したカメラ映像を、立体視感を得る最適な正視位置(適正範囲)を案内する眼位置ガイド画面EGに重ね合わせて表示画面107aに表示する一方、カメラ映像から検出したユーザの左右両眼の位置が眼位置ガイド画面EGの適正範囲から逸脱していれば、どの方向へどの程度ずれているのかを案内する。   As described above, in the first embodiment, when the content data to be displayed is 3D image data for 3D display, an optimal normal view for obtaining stereoscopic vision is obtained from a camera image obtained by capturing the user's face with the in-camera 103. While superimposed on the eye position guide screen EG for guiding the position (appropriate range) and displayed on the display screen 107a, the positions of the left and right eyes of the user detected from the camera image deviate from the appropriate range of the eye position guide screen EG. If so, it is guided to which direction and how much it is displaced.

そして、ユーザの左右両眼の位置が眼位置ガイド画面EGの適正範囲内に収まるようになるまで案内動作を繰り返し、ユーザの左右両眼の位置が適正範囲に収まると、3D表示用のコンテンツデータをRAM102のコンテンツデータエリア102cから読み出して表示画面107aに3D表示する。したがって、ユーザはモニタ表示される自分の左右両眼の位置を、眼位置ガイド画面EGの左眼位置ガイド枠LEと右眼位置ガイド枠REとに合わせるだけで良い為、簡便な操作で3D表示を見るのに最適な位置を設定することができる。   Then, the guidance operation is repeated until the positions of the left and right eyes of the user are within the proper range of the eye position guide screen EG. When the positions of the left and right eyes of the user are within the proper range, the content data for 3D display Is read from the content data area 102c of the RAM 102 and displayed in 3D on the display screen 107a. Therefore, since the user only needs to match the positions of his / her left and right eyes displayed on the monitor with the left eye position guide frame LE and the right eye position guide frame RE of the eye position guide screen EG, the user can easily perform 3D display. It is possible to set an optimum position for viewing.

なお、上述した第1実施形態では、眼位置ガイド画面EG(図5参照)の左眼位置ガイド枠LEと右眼位置ガイド枠REとで規定される適正範囲から逸脱するユーザの眼の位置のズレ方向およびそのズレ量を画像処理に基づき検出するようにしたが、これに替えて、周知の赤外線測距するフォーカスセンサの出力に基づき適正範囲から逸脱するユーザの顔位置(眼の位置)のズレ方向およびそのズレ量を測距する態様としても構わない。   In the first embodiment described above, the position of the user's eye deviating from an appropriate range defined by the left eye position guide frame LE and the right eye position guide frame RE on the eye position guide screen EG (see FIG. 5). The shift direction and the shift amount are detected based on the image processing. Instead, the user's face position (eye position) deviating from the appropriate range based on the output of a well-known infrared focus sensor. It is possible to adopt a mode for measuring the distance and the amount of displacement.

また、上述した第1実施形態では、インカメラ103が撮像したカメラ映像をビューファインダとなる表示画面107aにモニタ表示し、このモニタ表示している表示画面107aに、適正範囲(立体視感を得る正視位置)を案内する眼位置ガイド画面EGをスーパーインポーズして合成表示するようにしたが、これに限らず、コンテンツデータを3D表示する表示画面107aとは別に補助表示画面を設け、この補助表示画面をビューファインダとしてカメラ映像をモニタ表示する一方、表示画面107a上で3D画像が最適に見えるようにするための適正範囲を示す眼位置ガイド画面EGを、当該補助表示画面に重ね合わせて表示する形態にすることも可能である。   Further, in the first embodiment described above, the camera image captured by the in-camera 103 is displayed on a display screen 107a serving as a viewfinder, and an appropriate range (stereoscopic sensation is obtained on the display screen 107a displayed on the monitor. Although the eye position guide screen EG for guiding the (normal viewing position) is superimposed and synthesized and displayed, the present invention is not limited to this, and an auxiliary display screen is provided separately from the display screen 107a for displaying the content data in 3D. While displaying the camera image on the monitor using the display screen as a viewfinder, an eye position guide screen EG showing an appropriate range for optimally viewing the 3D image on the display screen 107a is displayed superimposed on the auxiliary display screen. It is also possible to make it a form.

さらに、第1実施形態では、カメラ映像に画像認識を施してユーザの左右両眼の位置を検出し、検出したユーザの左右両眼の位置が眼位置ガイド画面EGで規定される適正範囲にあるか否かを判断し、適正範囲から逸脱した状態であれば、ユーザに正視位置からどの程度ずれているのかを案内/報知する態様としたが、これに限らず、ユーザの左右両眼の位置が眼位置ガイド画面EGの適正範囲内に収まると、ユーザに正視位置にあることを報知する態様としても構わない。   Furthermore, in the first embodiment, image recognition is performed on the camera image to detect the positions of the left and right eyes of the user, and the detected positions of the left and right eyes of the user are within an appropriate range defined on the eye position guide screen EG. If it is in a state of deviating from the appropriate range, the user is instructed / notified to what extent it is deviated from the normal viewing position. May fall within the appropriate range of the eye position guide screen EG, the user may be notified that the user is in the normal viewing position.

[第2実施形態]
次に、図9〜図10を参照して第2実施形態について説明する。第2実施形態の構成は上述した第1実施形態と共通するので、その説明を省略する。以下では、第1実施形態と相違する第2実施形態によるコンテンツ表示処理の動作を説明する。
[Second Embodiment]
Next, a second embodiment will be described with reference to FIGS. Since the configuration of the second embodiment is the same as that of the first embodiment described above, description thereof is omitted. Hereinafter, an operation of content display processing according to the second embodiment, which is different from the first embodiment, will be described.

上述した第1実施形態と同様、携帯電話10が着信を待ち受ける待ち受け状態下である時に、ユーザが操作部108のコンテンツ表示ボタンを操作すると、この操作イベントに基づき制御部100は図9に図示するコンテンツ表示処理を実行してステップSC1に進む。ステップSC1では、RAM102のコンテンツデータエリア102cに格納されている各種コンテンツデータの属性(例えばファイル名や2D表示用/3D表示用を識別するコンテンツ種別など)を、当該コンテンツデータエリア102cから読み出し、これをコンテンツリストとして表示画面107aに一覧表示する。 As in the first embodiment described above, when the user operates the content display button of the operation unit 108 while the mobile phone 10 is waiting for an incoming call, the control unit 100 is illustrated in FIG. 9 based on this operation event. The content display process is executed and the process proceeds to step SC1. In step SC1, attributes of various content data stored in the content data area 102c of the RAM 102 (for example, a file type and a content type for identifying 2D display / 3D display) are read from the content data area 102c. Are displayed as a content list on the display screen 107a.

続いて、ステップSC2では、上記ステップSC1にて表示されたコンテンツリストの中から2D表示もしくは3D表示したいコンテンツデータをユーザ操作に応じて選択する。そして、ステップSC3〜SC4では、選択したコンテンツデータの属性に含まれるコンテンツ種別に基づき、表示すべきコンテンツデータが2D表示用あるいは3D表示用のいずれであるかを判別する。以下、表示すべきコンテンツデータが2D表示用の場合と3D表示用の場合とに分けて動作の説明を進める。   Subsequently, in step SC2, content data desired to be displayed in 2D or 3D is selected from the content list displayed in step SC1 in accordance with a user operation. In Steps SC3 to SC4, it is determined whether the content data to be displayed is for 2D display or 3D display based on the content type included in the attribute of the selected content data. Hereinafter, the description of the operation will be made separately for the case where the content data to be displayed is for 2D display and the case for 3D display.

<表示すべきコンテンツデータが2D表示用の場合>
表示すべきコンテンツデータが2D表示用であると、ステップSC4の判断結果は「NO」になり、ステップSC5に進み、上記ステップSC2において選択されたコンテンツデータをRAM102のコンテンツデータエリア102cから読み出して表示画面107aに2D表示する。なお、この際、表示部107では、制御部100から2D表示用のコンテンツデータ(画像データ)が供給されるのに伴い、視差バリアのスリットを電気的に解消して表示画面107aを2D表示用の状態に設定する。そして、ステップSC6では、コンテンツ表示終了操作が行われるまで待機し、その操作が行われると、判断結果が「YES」となり、本処理を終える。
<When content data to be displayed is for 2D display>
If the content data to be displayed is for 2D display, the determination result in step SC4 is “NO”, the process proceeds to step SC5, and the content data selected in step SC2 is read from the content data area 102c of the RAM 102 and displayed. 2D display is performed on the screen 107a. At this time, in the display unit 107, as the content data (image data) for 2D display is supplied from the control unit 100, the slit of the parallax barrier is electrically removed and the display screen 107a is displayed for 2D display. Set to the state of. In step SC6, the process waits until a content display end operation is performed. When the operation is performed, the determination result is “YES”, and the present process ends.

<表示すべきコンテンツデータが3D表示用の場合>
表示すべきコンテンツデータが3D表示用の3Dイメージデータであると、上記ステップSC4の判断結果は「YES」になり、ステップSC7に進み、インカメラ103を起動させる。これによりインカメラ103は、表示部107の表示画面107aに対向するユーザの顔を撮影し始める。
<When content data to be displayed is for 3D display>
If the content data to be displayed is 3D image data for 3D display, the determination result in step SC4 is “YES”, the process proceeds to step SC7, and the in-camera 103 is activated. As a result, the in-camera 103 starts to capture the face of the user facing the display screen 107a of the display unit 107.

続いて、ステップSC8〜SC9では、制御部100の指示に従い、画像処理部106が、インカメラ103から出力されるカメラ映像に「人の顔」に相当する画像パターンが含まれているか否かを判定する顔認識を実行し、これにて「人の顔」に相当する画像パターンが含まれていれば、認識したユーザの顔から眼位置を検出可能かどうかを判断する。 Subsequently, in steps SC8 to SC9, according to an instruction from the control unit 100, the image processing unit 106 determines whether or not the camera image output from the in-camera 103 includes an image pattern corresponding to “human face”. The face recognition to be determined is executed, and if an image pattern corresponding to “human face” is included, it is determined whether or not the eye position can be detected from the recognized user face.

眼位置を検出することが出来なければ、ステップSC9の判断結果は「NO」になり、ステップSC10に進む。ステップSC10では、3D優先表示設定の有無を判断する。なお、3D優先表示設定とは、コンテンツデータを表示する際に3D表示を優先する表示態様に設定することを意味し、例えば操作部108に配設される3D優先表示設定スイッチの操作に応じて設定される。そして、3D優先表示設定が為されていれば、判断結果は「YES」になり、ステップSC11に進み、コンテンツ表示を停止した後、上記ステップSC8に処理を戻す。つまり、3D優先表示設定されている場合には、ユーザの左右両眼の位置を検出できる状態になるまでコンテンツ表示を停止する。   If the eye position cannot be detected, the determination result in step SC9 is “NO”, and the flow proceeds to step SC10. In step SC10, it is determined whether or not 3D priority display is set. The 3D priority display setting means setting a display mode in which 3D display is prioritized when displaying content data. For example, according to the operation of a 3D priority display setting switch provided on the operation unit 108. Is set. If the 3D priority display setting has been made, the determination result is “YES”, the process proceeds to step SC11, the content display is stopped, and the process returns to step SC8. That is, when 3D priority display is set, content display is stopped until the position of the user's left and right eyes can be detected.

これに対し、3D優先表示設定が為されていないと、上記ステップSC10の判断結果は「NO」になり、ステップSC12に進み、3D表示用の3Dイメージデータを2D表示用に変換してコンテンツを2D表示した後、上記ステップSC8に処理を戻す。つまり、3D優先表示設定されていない場合には、ユーザの左右両眼の位置を検出できる状態になるまで3D表示用の3Dイメージデータを2D表示用に変換してコンテンツを2D表示する。   On the other hand, if the 3D priority display setting is not made, the determination result in step SC10 is “NO”, and the process proceeds to step SC12. After 2D display, the process returns to step SC8. That is, when the 3D priority display is not set, the 3D image data for 3D display is converted to 2D display and the content is displayed in 2D until the position of the left and right eyes of the user can be detected.

そして、ユーザの左右両眼の位置が検出可能になると、上記ステップSC9の判断結果が「YES」になり、図10に図示するステップSC13に処理を進める。ステップSC13では、検出したユーザの左右両眼の位置を適正範囲と比較する。適正範囲とは、立体視感を得る正視位置の範囲を指す。続いて、ステップSC14では、上記ステップSC13の比較結果に基づき、ユーザの左右両眼の位置が適正範囲内であるか否かを判断する。ユーザの左右両眼の位置が適正範囲内であれば、判断結果は「YES」となり、ステップSC15に進む。   When the positions of the left and right eyes of the user can be detected, the determination result at step SC9 is “YES”, and the process proceeds to step SC13 shown in FIG. In step SC13, the detected positions of the left and right eyes of the user are compared with an appropriate range. The appropriate range refers to the range of the normal viewing position where the stereoscopic vision is obtained. Subsequently, in step SC14, based on the comparison result in step SC13, it is determined whether or not the position of the left and right eyes of the user is within an appropriate range. If the position of the left and right eyes of the user is within the appropriate range, the determination result is “YES”, and the flow proceeds to step SC15.

ステップSC15では、3D表示中であるか否かを判断する。3D表示中でなければ、判断結果は「NO」となり、ステップSC17に進む。一方、3D表示中であったならば、判断結果が「YES」になり、ステップSC16に進み、3D表示に切り替えた後、ステップSC17に進む。ステップSC17では、コンテンツ表示終了操作の有無を判断する。コンテンツ表示終了操作が行われなければ、判断結果は「NO」になり、上述したステップSC7(図9参照)に処理を戻すが、コンテンツ表示終了操作が行われると、上記ステップSC17の判断結果は「YES」になり、本処理を終える。 In step SC15, it is determined whether or not 3D display is being performed. If 3D display is not in progress, the determination result is “NO”, and the flow proceeds to step SC17. On the other hand, if the 3D display is being performed, the determination result is “YES”, the process proceeds to step SC16, and after switching to the 3D display, the process proceeds to step SC17. In step SC17, it is determined whether or not a content display end operation has been performed. If the content display end operation is not performed, the determination result is “NO”, and the process returns to step SC7 (see FIG. 9). However, if the content display end operation is performed, the determination result in step SC17 is "YES" is set, and this process is finished.

さて一方、検出したユーザの左右両眼の位置が適正範囲内でなければ、上記ステップSC14の判断結果が「NO」になり、ステップSC18に進み、3D表示中であるか否かを判断する。3D表示中でなければ、判断結果は「NO」となり、上述したステップSC17に進むが、3D表示中であると、判断結果が「YES」になり、ステップSC19に進む。   On the other hand, if the detected positions of the left and right eyes of the user are not within the proper range, the determination result in step SC14 is “NO”, and the process proceeds to step SC18 to determine whether or not 3D display is being performed. If the 3D display is not in progress, the determination result is “NO”, and the process proceeds to step SC17. If the 3D display is in progress, the determination result is “YES” and the process proceeds to step SC19.

ステップSC19では、3D優先表示設定の有無を判断する。3D表示を優先する表示態様となる3D優先表示設定が為されていれば、判断結果は「YES」になり、ステップSC20に進み、コンテンツ表示を停止した後、後述のステップSC22に処理を進める。これに対し、3D優先表示設定が為されていないと、上記ステップSC19の判断結果は「NO」になり、ステップSC21に進み、2D表示に切り替える。つまり、3D表示用の3Dイメージデータを2D表示用に変換してコンテンツを2D表示させた後、ステップSC22に進む。 In step SC19, it is determined whether or not 3D priority display is set. If the 3D priority display setting that gives priority to the 3D display is set, the determination result is “YES”, the process proceeds to step SC20, the content display is stopped, and the process proceeds to step SC22 described later. On the other hand, if the 3D priority display setting is not made, the determination result in step SC19 is “NO”, and the process proceeds to step SC21 to switch to 2D display. That is, after the 3D image data for 3D display is converted to 2D display and the content is displayed in 2D, the process proceeds to step SC22.

ステップSC22では、検出されたユーザの左右の眼の間隔が適正か否か、すなわちユーザの眼の位置が表示画面107aから遠過ぎたり近づき過ぎたりせずに適正に離間しているかどうかを判断する。ユーザの眼の位置が表示画面107aから適正に離間していると、判断結果は「YES」になり、ステップSC23に進み、適正範囲から逸脱するユーザの眼の位置のズレ方向(上下方向あるいは左右方向)およびそのズレ量を検出し、続くステップSC24では、検出したズレ方向とズレ量とを表示画面107aにガイド表示した後、上述のステップSC17に処理を戻す。 In step SC22, it is determined whether or not the detected distance between the left and right eyes of the user is appropriate, that is, whether or not the position of the user's eyes is properly separated without being too far or too close to the display screen 107a. . If the user's eye position is appropriately separated from the display screen 107a, the determination result is “YES”, and the process proceeds to step SC23, where the user's eye position deviates from the appropriate range (up and down or left and right). Direction) and the amount of deviation thereof are detected, and in the subsequent step SC24, the detected deviation direction and deviation amount are guided and displayed on the display screen 107a, and then the process returns to step SC17 described above.

一方、ユーザの眼の位置が表示画面107aから適正に離間していない場合、つまり表示画面107aから遠過ぎたり近づき過ぎたりしていると、上記ステップSC22の判断結果は「NO」になり、ステップSC25に進み、適正範囲から逸脱するユーザの眼の位置のズレ方向(前後方向)およびそのズレ量を検出し、続くステップSC26では、検出したズレ方向とズレ量とを表示画面107aにガイド表示した後、上述のステップSC17に処理を戻す。 On the other hand, if the position of the user's eyes is not properly separated from the display screen 107a, that is, if the user's eye position is too far or too close from the display screen 107a, the determination result in step SC22 is “NO”. Proceeding to SC25, the shift direction (front-rear direction) of the user's eye position deviating from the appropriate range and the shift amount thereof are detected, and in the subsequent step SC26, the detected shift direction and shift amount are displayed on the display screen 107a as a guide. Thereafter, the process returns to step SC17 described above.

以上のように、第2実施形態では、表示すべきコンテンツデータが3D表示用の3Dイメージデータであると、ユーザの顔を撮像するインカメラ103の出力に画像認識を施してユーザの左右両眼の位置を検出する。そして、検出したユーザの左右両眼の位置が適正範囲内になく、かつ3D優先表示設定が為されていると、コンテンツ表示を停止した後、ユーザの左右両眼の位置が適正範囲内に収まるようになるまで案内動作を繰り返し、この案内動作によってユーザの左右両眼の位置が適正範囲内になると、3D表示するので、ユーザに対して確実に3D表示を立体視させることができる。   As described above, in the second embodiment, when the content data to be displayed is 3D image data for 3D display, image recognition is performed on the output of the in-camera 103 that captures the face of the user, and the left and right eyes of the user The position of is detected. If the detected positions of the left and right eyes of the user are not within the proper range and the 3D priority display setting is made, after the content display is stopped, the positions of the left and right eyes of the user are within the proper range. The guidance operation is repeated until such a time is reached, and when the position of the left and right eyes of the user is within an appropriate range by this guidance operation, 3D display is performed, so that the user can reliably stereoscopically view the 3D display.

また、検出したユーザの左右両眼の位置が適正範囲内になく、かつ3D優先表示設定が為されていなければ、3D表示用の3Dイメージデータを2D表示用に変換してコンテンツを2D表示しながら、ユーザの左右両眼の位置が適正範囲内に収まるようになるまで案内動作を繰り返し、この案内動作によってユーザの左右両眼の位置が適正範囲内になると、3D表示に切り替えるので、ユーザに対して確実に3D表示を立体視させることができる。   If the detected positions of the left and right eyes of the user are not within the proper range and 3D priority display is not set, 3D image data for 3D display is converted to 2D display and the content is displayed in 2D. However, the guidance operation is repeated until the position of the left and right eyes of the user falls within the appropriate range, and when the position of the left and right eyes of the user falls within the appropriate range by this guidance operation, the user switches to 3D display. In contrast, the 3D display can be reliably stereoscopically viewed.

なお、上述した第1および第2実施形態では、それぞれ本発明による画像表示装置を備えた携帯電話10を一例として挙げたが、本発明の要旨は、これに限定されるものではなく、3D表示可能な表示手段を備える電子機器全般に適用可能であることは言うまでもない。   In the first and second embodiments described above, the mobile phone 10 provided with the image display device according to the present invention is given as an example. However, the gist of the present invention is not limited to this, and the 3D display is performed. Needless to say, the present invention can be applied to all electronic devices having possible display means.

第1実施形態による携帯電話10の外観構成を示す図である。It is a figure which shows the external appearance structure of the mobile telephone 10 by 1st Embodiment. 第1実施形態による携帯電話10の電気的構成を示すブロック図である。1 is a block diagram showing an electrical configuration of a mobile phone 10 according to a first embodiment. 第1実施形態のコンテンツ表示処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the content display process of 1st Embodiment. 第1実施形態の眼位置チェック処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the eye position check process of 1st Embodiment. 眼位置ガイド画面EGの一例を示す図である。It is a figure which shows an example of the eye position guide screen EG. 第1実施形態の眼位置チェック処理の動作を説明するための図である。It is a figure for demonstrating operation | movement of the eye position check process of 1st Embodiment. 第1実施形態の眼位置チェック処理の動作を説明するための図である。It is a figure for demonstrating operation | movement of the eye position check process of 1st Embodiment. 第1実施形態の眼位置チェック処理の動作を説明するための図である。It is a figure for demonstrating operation | movement of the eye position check process of 1st Embodiment. 第2実施形態のコンテンツ表示処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the content display process of 2nd Embodiment. 第2実施形態のコンテンツ表示処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the content display process of 2nd Embodiment. 背景技術を説明するための図である。It is a figure for demonstrating background art.

符号の説明Explanation of symbols

10 携帯電話
100 制御部
101 ROM
102 RAM
102a ワークエリア
102b 撮像データエリア
102c コンテンツデータエリア
103 インカメラ
104 無線通信送受信部
105 音声信号処理部
106 画像処理部
107 表示部
107a 表示画面
108 操作部
10 Mobile phone 100 Control unit 101 ROM
102 RAM
102a work area 102b imaging data area 102c content data area 103 in-camera 104 wireless communication transmission / reception unit 105 audio signal processing unit 106 image processing unit 107 display unit 107a display screen 108 operation unit

Claims (27)

両眼視差を利用して立体視させる3D画像を表示画面に表示する画像表示装置において、
前記表示画面に対向するユーザを撮像する撮像手段と、
前記撮像手段により撮像されたユーザの映像を前記表示画面にモニタ表示するモニタ表示手段と、
前記表示画面で3D画像をユーザに立体視させるための左右の眼の適正位置を示す眼位置ガイド像を、前記モニタ表示手段によりモニタ表示されるユーザの映像に重ね合わせて表示する合成表示手段と
を具備することを特徴とする画像表示装置。
In an image display device that displays a 3D image to be stereoscopically viewed using binocular parallax on a display screen,
Imaging means for imaging a user facing the display screen;
Monitor display means for displaying a video of the user imaged by the imaging means on the display screen;
Composite display means for displaying an eye position guide image indicating an appropriate position of left and right eyes for allowing a user to stereoscopically view a 3D image on the display screen, superimposed on a user image displayed on the monitor by the monitor display means; An image display device comprising:
前記モニタ表示手段は、前記表示画面とは別の補助表示画面を備え、この補助表示画面あるいは前記表示画面のいずれかに前記撮像手段により撮像されたユーザの映像をモニタ表示することを特徴とする請求項1記載の画像表示装置。 The monitor display means includes an auxiliary display screen different from the display screen, and displays the user's video imaged by the imaging means on either the auxiliary display screen or the display screen. The image display device according to claim 1. 前記撮像手段により撮像されたユーザの映像から当該ユーザの左右の眼の位置を検出する検出手段と、
前記検出手段により検出されたユーザの左右の眼の位置が、前記眼位置ガイド像で示される適正位置に一致するか否かを判別する判別手段と、
前記判別手段の判別結果を報知する報知手段と
を更に備えることを特徴とする請求項1記載の画像表示装置。
Detecting means for detecting positions of the right and left eyes of the user from the video of the user imaged by the imaging means;
A discriminating unit that discriminates whether or not the positions of the left and right eyes of the user detected by the detecting unit coincide with an appropriate position indicated by the eye position guide image;
The image display apparatus according to claim 1, further comprising: a notification unit that notifies a determination result of the determination unit.
前記判別手段は、前記検出手段により検出されたユーザの左右の眼の位置が、前記眼位置ガイド像で示される適正位置に対して上下左右のいずれの方向にずれているか否かを判別し、
前記報知手段は、前記判別手段が上下左右のいずれの方向にずれているかを判別した場合、その判別したずれの方向を報知することを特徴とする請求項3記載の画像表示装置。
The determination means determines whether the left and right eye positions of the user detected by the detection means are deviated in any of up, down, left and right directions with respect to an appropriate position indicated by the eye position guide image,
4. The image display device according to claim 3, wherein when the determining unit determines whether the determining unit is displaced in the up, down, left, or right direction, the notifying direction is notified.
前記判別手段は、前記検出手段により検出されたユーザの左右の眼の位置の間隔が、眼位置ガイド像で示される左右の眼の適正位置の間隔に一致するか否かを判別し、
前記報知手段は、前記判別手段が両間隔の不一致を判別した場合、その不一致の状態を報知することを特徴とする請求項3記載の画像表示装置。
The determination unit determines whether or not the interval between the positions of the left and right eyes of the user detected by the detection unit matches the interval between the appropriate positions of the left and right eyes indicated by the eye position guide image,
The image display device according to claim 3, wherein when the determination unit determines a mismatch between the intervals, the notification unit notifies the state of the mismatch.
前記判別手段は、不一致と判別した場合に、前記検出手段により検出されたユーザの左右の眼の位置と前記眼位置ガイド像で示される適正位置との差分方向を検出し、
前記報知手段は、前記判別手段により検出された差分方向へずらすことを案内報知することを特徴とする請求項3記載の画像表示装置。
The discriminating means detects the difference direction between the position of the left and right eyes of the user detected by the detecting means and the appropriate position indicated by the eye position guide image when it is discriminated as inconsistent;
The image display device according to claim 3, wherein the notification unit provides guidance and notification of shifting in the difference direction detected by the determination unit.
前記判別手段は、前記検出手段により検出されたユーザの左右の眼の位置が、前記眼位置ガイド像で示される適正位置に一致すると判別した場合に、前記モニタ表示手段によるモニタ表示と前記合成表示手段による眼位置ガイド像の表示とを終了させることを特徴とする請求項3記載の画像表示装置。 The determination means determines that the monitor display means and the composite display when the positions of the left and right eyes of the user detected by the detection means match the appropriate position indicated by the eye position guide image. 4. The image display device according to claim 3, wherein the display of the eye position guide image by the means is terminated. 前記モニタ表示手段は、前記表示画面に3D画像を表示するのに先立って前記撮像手段により撮像されたユーザの映像を前記表示画面にモニタ表示し、
前記合成表示手段は、前記表示画面に3D画像を表示するのに先立って眼位置ガイド像を前記モニタ表示手段によりモニタ表示されるユーザの映像に重ね合わせて表示することを特徴とする請求項1記載の画像表示装置。
The monitor display means displays on the display screen the video of the user imaged by the imaging means prior to displaying the 3D image on the display screen,
The composite display means displays an eye position guide image superimposed on a user's video displayed on the monitor by the monitor display means prior to displaying a 3D image on the display screen. The image display device described.
両眼視差を利用して立体視させる3D画像を表示画面に表示する画像表示装置において、
前記表示画面に対向するユーザを撮像した映像から当該ユーザの位置を取得する位置取得手段と、
前記位置取得手段により取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にあるか否かを判別する位置判別手段と、
前記位置判別手段の判別結果に応じて、前記表示画面を見るユーザの位置の適否を報知する報知手段と
を具備することを特徴とする画像表示装置。
In an image display device that displays a 3D image to be stereoscopically viewed using binocular parallax on a display screen,
Position acquisition means for acquiring the position of the user from a video obtained by imaging the user facing the display screen;
Position determining means for determining whether or not the position of the user acquired by the position acquiring means is in a predetermined allowable range position with respect to the display screen;
An image display apparatus comprising: an informing unit that informs whether the position of a user who views the display screen is appropriate according to a determination result of the position determining unit.
前記報知手段は、前記位置判別手段によりユーザの位置が前記表示画面に対して所定許容範囲内と判別された場合には立体視できる位置であることを報知し、一方、所定許容範囲外と判別された場合には立体視できない位置にあることを報知することを特徴とする請求項9記載の画像表示装置。 The informing means informs that the position of the user can be viewed stereoscopically when the position of the user is determined to be within a predetermined allowable range with respect to the display screen, and determines that the position is out of the predetermined allowable range. The image display device according to claim 9, wherein when it is performed, it is notified that it is in a position where stereoscopic viewing is not possible. 前記位置取得手段は、前記表示画面に対向するユーザを撮像した映像から当該ユーザの左右の眼の位置を取得し、
前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置が、立体視可能な許容範囲位置にあるか否かを判定することを特徴とする請求項9記載の画像表示装置。
The position acquisition means acquires the positions of the left and right eyes of the user from an image captured of the user facing the display screen,
The image display according to claim 9, wherein the position determination unit determines whether or not the positions of the left and right eyes of the user acquired by the position acquisition unit are in an allowable range position where stereoscopic vision is possible. apparatus.
前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置が、立体視可能な許容範囲位置から横方向にずれているか否かを判定することを特徴とする請求項11記載の画像表示装置。 12. The position determination unit determines whether or not the positions of the left and right eyes of the user acquired by the position acquisition unit are shifted laterally from an allowable range position where stereoscopic vision is possible. The image display device described. 前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置の間隔が、立体視可能な許容範囲間隔であるか否かを判定することを特徴とする請求項11記載の画像表示装置。 The said position determination means determines whether the space | interval of the position of the right and left eyes of the user acquired by the said position acquisition means is an allowable range space | interval which can be viewed stereoscopically. Image display device. 前記位置判別手段は、前記位置取得手段により取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にないと判別した場合に、取得されたユーザの位置と所定許容範囲位置との差分方向を検出し、
前記報知手段は、前記位置判別手段により検出された差分方向へずらすことを案内報知することを特徴とする請求項9記載の画像表示装置。
The position determination unit determines whether the acquired user position and the predetermined allowable range position are in a case where it is determined that the user position acquired by the position acquisition unit is not in the predetermined allowable range position with respect to the display screen. Detect the difference direction,
The image display device according to claim 9, wherein the notification unit provides guidance and notification of shifting in the difference direction detected by the position determination unit.
前記位置取得手段は、前記表示画面に3D画像を表示するのに先立って、前記表示画面に対向するユーザを撮像した映像から当該ユーザの位置を取得し、
前記位置判別手段は、前記表示画面に3D画像を表示するのに先立って、前記位置取得手段により取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にあるか否かを判別することを特徴とする請求項9記載の画像表示装置。
Prior to displaying a 3D image on the display screen, the position acquisition unit acquires the position of the user from a video obtained by capturing the user facing the display screen;
Prior to displaying a 3D image on the display screen, the position determining means determines whether or not the position of the user acquired by the position acquiring means is within a predetermined allowable range position with respect to the display screen. The image display device according to claim 9.
前記位置判別手段は、取得されたユーザの位置が前記表示画面に対して所定許容範囲位置にないと判別した場合には前記表示画面での3D画像の表示を抑制し、一方、取得されたユーザの位置が前記表示画面に対して所定許容範囲位置にあると判別した場合には前記表示画面に3D画像を表示させることを特徴とする請求項9記載の画像表示装置。 The position determination unit suppresses the display of the 3D image on the display screen when it is determined that the acquired user position is not in a predetermined allowable range position with respect to the display screen, while the acquired user The image display device according to claim 9, wherein a 3D image is displayed on the display screen when it is determined that the position is within a predetermined allowable range position with respect to the display screen. 両眼視差を利用して立体視させる3D画像を表示画面に表示する画像表示装置において、
前記表示画面に対向するユーザを撮像した映像から当該ユーザの位置を取得する位置取得手段と、
前記位置取得手段により取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にあるか否かを判別する位置判別手段と、
前記位置判別手段の判別結果に応じて、前記表示画面に3D画像を表示するか否かを制御する表示制御手段と
を具備することを特徴とする画像表示装置。
In an image display device that displays a 3D image to be stereoscopically viewed using binocular parallax on a display screen,
Position acquisition means for acquiring the position of the user from a video obtained by imaging the user facing the display screen;
Position determining means for determining whether or not the position of the user acquired by the position acquiring means is in a predetermined allowable range position with respect to the display screen;
An image display device comprising: a display control unit that controls whether or not to display a 3D image on the display screen according to a determination result of the position determination unit.
前記表示制御手段は、前記位置判別手段が所定許容範囲位置にあると判別した場合には前記表示画面に3D画像を表示し、所定許容範囲位置にないと判別した場合には3D画像を2D画像として前記表示画面に表示することを特徴とする請求項17記載の画像表示装置。 The display control means displays a 3D image on the display screen when the position determination means determines that the position is within a predetermined allowable range position, and displays the 3D image as a 2D image when it is determined that the position is not within the predetermined allowable range position. 18. The image display device according to claim 17, wherein the image display device is displayed on the display screen. 前記表示制御手段は、前記位置判別手段が所定許容範囲位置にあると判別した場合には前記表示画面に3D画像を表示し、所定許容範囲位置にないと判別した場合には前記表示画面での3D画像の表示を抑制することを特徴とする請求項17記載の画像表示装置。 The display control unit displays a 3D image on the display screen when the position determination unit determines that the position is within the predetermined allowable range position, and displays the 3D image on the display screen when the display control unit determines that the position is not within the predetermined allowable range position. The image display device according to claim 17, wherein display of a 3D image is suppressed. 前記表示制御手段は、前記位置判別手段が所定許容範囲位置にないと判別した場合に画像データ再生出力を停止して前記表示画面での3D画像の表示を抑制することを特徴とする請求項17記載の画像表示装置。 18. The display control unit, when the position determination unit determines that the position is not within a predetermined allowable range position, stops image data reproduction output and suppresses display of a 3D image on the display screen. The image display device described. 前記位置取得手段は、前記表示画面に対向するユーザを撮像した映像から当該ユーザの左右の眼の位置を取得し、
前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置が、立体視可能な許容範囲位置にあるか否かを判定することを特徴とする請求項17記載の画像表示装置。
The position acquisition means acquires the positions of the left and right eyes of the user from an image captured of the user facing the display screen,
The image display according to claim 17, wherein the position determination unit determines whether or not the positions of the left and right eyes of the user acquired by the position acquisition unit are within a permissible range position where stereoscopic vision is possible. apparatus.
前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置が、立体視可能な許容範囲位置から横方向にずれているか否かを判定することを特徴とする請求項17記載の画像表示装置。 The position determination means determines whether or not the positions of the left and right eyes of the user acquired by the position acquisition means are shifted laterally from an allowable range position where stereoscopic vision is possible. The image display device described. 前記位置判別手段は、前記位置取得手段により取得されたユーザの左右の眼の位置の間隔が、立体視可能な許容範囲間隔であるか否かを判定することを特徴とする請求項17記載の画像表示装置。 18. The position determination unit according to claim 17, wherein the position determination unit determines whether or not the interval between the positions of the left and right eyes of the user acquired by the position acquisition unit is an allowable range interval that allows stereoscopic viewing. Image display device. 前記位置取得手段は、前記表示画面に対向するユーザの位置を光測位にて取得することを特徴とする請求項17記載の画像表示装置。 The image display device according to claim 17, wherein the position acquisition unit acquires the position of the user facing the display screen by optical positioning. 両眼視差を利用して立体視させる3D画像を表示画面に表示する画像表示装置で実行されるプログラムであって、
前記表示画面に対向するユーザを撮像する撮像ステップと、
前記撮像ステップにより撮像されたユーザの映像を前記表示画面にモニタ表示するモニタ表示ステップと、
前記表示画面で3D画像をユーザに立体視させるための左右の眼の適正位置を示す眼位置ガイド像を、前記モニタ表示ステップにてモニタ表示されるユーザの映像に重ね合わせて表示する合成表示ステップと
をコンピュータで実行させることを特徴とするプログラム。
A program executed by an image display device that displays a 3D image to be stereoscopically viewed using binocular parallax on a display screen,
An imaging step of imaging a user facing the display screen;
A monitor display step for displaying the video of the user imaged in the imaging step on the display screen;
A composite display step of displaying an eye position guide image indicating an appropriate position of left and right eyes for allowing the user to stereoscopically view a 3D image on the display screen so as to be superimposed on the video of the user displayed on the monitor in the monitor display step. Is executed by a computer.
両眼視差を利用して立体視させる3D画像を表示画面に表示する画像表示装置で実行されるプログラムであって、
前記表示画面に対向するユーザを撮像した映像から当該ユーザの位置を取得する位置取得ステップと、
前記位置取得ステップにて取得されたユーザの位置が、前記表示画面に対して所定許容範囲位置にあるか否かを判別する位置判別ステップと、
前記位置判別ステップでの判別結果に応じて、前記表示画面を見るユーザの位置の適否を報知する報知ステップと
をコンピュータで実行させることを特徴とするプログラム。
A program executed by an image display device that displays a 3D image to be stereoscopically viewed using binocular parallax on a display screen,
A position acquisition step of acquiring the position of the user from a video obtained by imaging the user facing the display screen;
A position determination step of determining whether or not the position of the user acquired in the position acquisition step is in a predetermined allowable range position with respect to the display screen;
A program for causing a computer to execute a notifying step for notifying whether or not the position of a user viewing the display screen is appropriate according to the determination result in the position determining step.
前記位置判別ステップでの判別結果に応じて、前記表示画面に3D画像を表示するか否かを制御する表示制御ステップを更に備えることを特徴とする請求項26記載のプログラム。 27. The program according to claim 26, further comprising a display control step of controlling whether or not to display a 3D image on the display screen according to a determination result in the position determination step.
JP2008094633A 2008-04-01 2008-04-01 Image display apparatus and program Expired - Fee Related JP5322264B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008094633A JP5322264B2 (en) 2008-04-01 2008-04-01 Image display apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008094633A JP5322264B2 (en) 2008-04-01 2008-04-01 Image display apparatus and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013088068A Division JP2013210641A (en) 2013-04-19 2013-04-19 Image display apparatus and program

Publications (2)

Publication Number Publication Date
JP2009250987A true JP2009250987A (en) 2009-10-29
JP5322264B2 JP5322264B2 (en) 2013-10-23

Family

ID=41311824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008094633A Expired - Fee Related JP5322264B2 (en) 2008-04-01 2008-04-01 Image display apparatus and program

Country Status (1)

Country Link
JP (1) JP5322264B2 (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011049630A (en) * 2009-08-25 2011-03-10 Canon Inc 3d image processing apparatus and control method thereof
JP2011193314A (en) * 2010-03-16 2011-09-29 Sony Corp Display device and electronic device
JP2012008584A (en) * 2011-08-05 2012-01-12 Toshiba Corp Image display device, notification method and position judgement device
JP2012022289A (en) * 2010-06-11 2012-02-02 Nintendo Co Ltd Portable electronic equipment
JP2012039336A (en) * 2010-08-06 2012-02-23 Hitachi Consumer Electronics Co Ltd Video display system and playback device
JP2012039338A (en) * 2010-08-06 2012-02-23 Hitachi Consumer Electronics Co Ltd Video display system, display device and playback device
JP2012080348A (en) * 2010-10-01 2012-04-19 Toshiba Corp Multiple parallax image receiving apparatus
JP2012105229A (en) * 2010-11-15 2012-05-31 Hitachi Consumer Electronics Co Ltd Reproduction device
JP2012103539A (en) * 2010-11-11 2012-05-31 Sankyo Co Ltd Stereoscopic image display device
JP2012105876A (en) * 2010-11-18 2012-06-07 Kyoraku Sangyo Kk Game machine
JP2012170502A (en) * 2011-02-17 2012-09-10 Kyoraku Sangyo Kk Pachinko game machine
CN102710952A (en) * 2011-03-28 2012-10-03 索尼公司 Display control device, display control method, detection device, detection method, program, and display system
WO2012131862A1 (en) * 2011-03-28 2012-10-04 株式会社東芝 Image-processing device, method, and program
JP2012217195A (en) * 2012-06-20 2012-11-08 Toshiba Corp Stereoscopic image display device and method
CN102970559A (en) * 2011-08-31 2013-03-13 株式会社东芝 Stereoscopic image display apparatus
JP2013051469A (en) * 2011-08-30 2013-03-14 Toshiba Corp Three-dimensional image processing apparatus and three-dimensional image processing method
JP2013055645A (en) * 2012-07-13 2013-03-21 Toshiba Corp Stereoscopic image display device, display means, and test pattern
JP2013059094A (en) * 2012-11-09 2013-03-28 Toshiba Corp Three-dimensional image processing apparatus and three-dimensional image processing method
US20130113899A1 (en) * 2011-11-04 2013-05-09 Kabushiki Kaisha Toshiba Video processing device and video processing method
US20130141330A1 (en) * 2010-08-24 2013-06-06 Sharp Kabushiki Kaisha Stereoscopic display device
CN103167311A (en) * 2011-12-09 2013-06-19 株式会社东芝 Video processing device, video processing method and recording medium
US8477181B2 (en) 2011-08-31 2013-07-02 Kabushiki Kaisha Toshiba Video processing apparatus and video processing method
JP2013210641A (en) * 2013-04-19 2013-10-10 Nec Casio Mobile Communications Ltd Image display apparatus and program
EP2395762A3 (en) * 2010-06-10 2013-10-30 LG Electronics Inc. Mobile terminal and controlling method thereof
KR20140023523A (en) * 2012-08-16 2014-02-27 엘지디스플레이 주식회사 Stereoscopic image display device and driving method thereof
JP2014520417A (en) * 2011-04-20 2014-08-21 コーニンクレッカ フィリップス エヌ ヴェ Position indicator for 3D display
WO2015174051A1 (en) * 2014-05-12 2015-11-19 パナソニックIpマネジメント株式会社 Display device and display method
US9325983B2 (en) 2010-09-07 2016-04-26 Samsung Electronics Co., Ltd. Image processing apparatus and method using tracking of gaze of user
US9838667B2 (en) 2011-09-30 2017-12-05 Fujifilm Corporation Image pickup apparatus, image pickup method, and non-transitory computer-readable medium
WO2021132013A1 (en) * 2019-12-27 2021-07-01 ソニーグループ株式会社 Information processing device, information processing method, and information processing program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10174127A (en) * 1996-12-13 1998-06-26 Sanyo Electric Co Ltd Method and device for three-dimensional display
JP2000078612A (en) * 1998-08-31 2000-03-14 Toshiba Corp Stereoscopic video display device
JP2002300610A (en) * 2001-03-29 2002-10-11 Sanyo Electric Co Ltd Stereoscopic image display device
JP2003107392A (en) * 2001-09-28 2003-04-09 Sanyo Electric Co Ltd Stereoscopic video image display device of head position tacking type
JP2004048644A (en) * 2002-05-21 2004-02-12 Sony Corp Information processor, information processing system and interlocutor display method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10174127A (en) * 1996-12-13 1998-06-26 Sanyo Electric Co Ltd Method and device for three-dimensional display
JP2000078612A (en) * 1998-08-31 2000-03-14 Toshiba Corp Stereoscopic video display device
JP2002300610A (en) * 2001-03-29 2002-10-11 Sanyo Electric Co Ltd Stereoscopic image display device
JP2003107392A (en) * 2001-09-28 2003-04-09 Sanyo Electric Co Ltd Stereoscopic video image display device of head position tacking type
JP2004048644A (en) * 2002-05-21 2004-02-12 Sony Corp Information processor, information processing system and interlocutor display method

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011049630A (en) * 2009-08-25 2011-03-10 Canon Inc 3d image processing apparatus and control method thereof
JP2011193314A (en) * 2010-03-16 2011-09-29 Sony Corp Display device and electronic device
EP2395762A3 (en) * 2010-06-10 2013-10-30 LG Electronics Inc. Mobile terminal and controlling method thereof
JP2012022289A (en) * 2010-06-11 2012-02-02 Nintendo Co Ltd Portable electronic equipment
US9848185B2 (en) 2010-08-06 2017-12-19 Hitachi Maxell, Ltd. Video display system, display device and source device
JP2012039336A (en) * 2010-08-06 2012-02-23 Hitachi Consumer Electronics Co Ltd Video display system and playback device
JP2012039338A (en) * 2010-08-06 2012-02-23 Hitachi Consumer Electronics Co Ltd Video display system, display device and playback device
CN102378034A (en) * 2010-08-06 2012-03-14 日立民用电子株式会社 Video display system, display device and source device
CN102378034B (en) * 2010-08-06 2016-03-16 日立麦克赛尔株式会社 Video display system and display unit
US8928586B2 (en) * 2010-08-24 2015-01-06 Sharp Kabushiki Kaisha Stereoscopic display device
US20130141330A1 (en) * 2010-08-24 2013-06-06 Sharp Kabushiki Kaisha Stereoscopic display device
US9781410B2 (en) 2010-09-07 2017-10-03 Samsung Electronics Co., Ltd. Image processing apparatus and method using tracking of gaze of user
US9325983B2 (en) 2010-09-07 2016-04-26 Samsung Electronics Co., Ltd. Image processing apparatus and method using tracking of gaze of user
JP2012080348A (en) * 2010-10-01 2012-04-19 Toshiba Corp Multiple parallax image receiving apparatus
JP2012103539A (en) * 2010-11-11 2012-05-31 Sankyo Co Ltd Stereoscopic image display device
JP2012105229A (en) * 2010-11-15 2012-05-31 Hitachi Consumer Electronics Co Ltd Reproduction device
JP2012105876A (en) * 2010-11-18 2012-06-07 Kyoraku Sangyo Kk Game machine
JP2012170502A (en) * 2011-02-17 2012-09-10 Kyoraku Sangyo Kk Pachinko game machine
US20120249532A1 (en) * 2011-03-28 2012-10-04 Sony Corporation Display control device, display control method, detection device, detection method, program, and display system
CN102710952A (en) * 2011-03-28 2012-10-03 索尼公司 Display control device, display control method, detection device, detection method, program, and display system
TWI486054B (en) * 2011-03-28 2015-05-21 Toshiba Kk A portrait processing device, a three-dimensional image display device, a method and a program
JP2012205267A (en) * 2011-03-28 2012-10-22 Sony Corp Display control device, display control method, detection device, detection method, program, and display system
JPWO2012131862A1 (en) * 2011-03-28 2014-07-24 株式会社東芝 Image processing apparatus, stereoscopic image display apparatus, method, and program
WO2012131862A1 (en) * 2011-03-28 2012-10-04 株式会社東芝 Image-processing device, method, and program
JP2014520417A (en) * 2011-04-20 2014-08-21 コーニンクレッカ フィリップス エヌ ヴェ Position indicator for 3D display
JP2012008584A (en) * 2011-08-05 2012-01-12 Toshiba Corp Image display device, notification method and position judgement device
JP2013051469A (en) * 2011-08-30 2013-03-14 Toshiba Corp Three-dimensional image processing apparatus and three-dimensional image processing method
US8477181B2 (en) 2011-08-31 2013-07-02 Kabushiki Kaisha Toshiba Video processing apparatus and video processing method
CN102970559A (en) * 2011-08-31 2013-03-13 株式会社东芝 Stereoscopic image display apparatus
JP2013051629A (en) * 2011-08-31 2013-03-14 Toshiba Corp Stereoscopic image display device
US9838667B2 (en) 2011-09-30 2017-12-05 Fujifilm Corporation Image pickup apparatus, image pickup method, and non-transitory computer-readable medium
US20130113899A1 (en) * 2011-11-04 2013-05-09 Kabushiki Kaisha Toshiba Video processing device and video processing method
US8558877B2 (en) 2011-12-09 2013-10-15 Kabushiki Kaisha Toshiba Video processing device, video processing method and recording medium
JP2013123094A (en) * 2011-12-09 2013-06-20 Toshiba Corp Video processing device, video processing method, and storage medium
CN103167311A (en) * 2011-12-09 2013-06-19 株式会社东芝 Video processing device, video processing method and recording medium
JP2012217195A (en) * 2012-06-20 2012-11-08 Toshiba Corp Stereoscopic image display device and method
JP2013055645A (en) * 2012-07-13 2013-03-21 Toshiba Corp Stereoscopic image display device, display means, and test pattern
KR20140023523A (en) * 2012-08-16 2014-02-27 엘지디스플레이 주식회사 Stereoscopic image display device and driving method thereof
JP2013059094A (en) * 2012-11-09 2013-03-28 Toshiba Corp Three-dimensional image processing apparatus and three-dimensional image processing method
JP2013210641A (en) * 2013-04-19 2013-10-10 Nec Casio Mobile Communications Ltd Image display apparatus and program
JP2015215505A (en) * 2014-05-12 2015-12-03 パナソニックIpマネジメント株式会社 Display apparatus and display method
WO2015174051A1 (en) * 2014-05-12 2015-11-19 パナソニックIpマネジメント株式会社 Display device and display method
WO2021132013A1 (en) * 2019-12-27 2021-07-01 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
US11917118B2 (en) 2019-12-27 2024-02-27 Sony Group Corporation Information processing apparatus and information processing method

Also Published As

Publication number Publication date
JP5322264B2 (en) 2013-10-23

Similar Documents

Publication Publication Date Title
JP5322264B2 (en) Image display apparatus and program
JP5931206B2 (en) Image processing apparatus, imaging apparatus, program, and image processing method
CN104365089B (en) Photographic device and method for displaying image
JP4979136B2 (en) Broadcast receiving terminal device and program
JP5577931B2 (en) Image processing apparatus, image processing method, and program
JP5753323B2 (en) Imaging apparatus and image display method
JP6165681B2 (en) Image display device and image display method
JP5740045B2 (en) Image processing apparatus and method, and imaging apparatus
JP2017041887A (en) Image processing system, imaging apparatus, image processing method and program
JP5955417B2 (en) Image processing apparatus, imaging apparatus, program, and image processing method
KR20120054746A (en) Method and apparatus for generating three dimensional image in portable communication system
JP2013210641A (en) Image display apparatus and program
JP2011172093A (en) Imaging apparatus
JP2012053113A (en) Image pickup device, three-dimensional image generation system, and three-dimensional image generation program
JP5586788B2 (en) Image display device and image pickup device
JP5580486B2 (en) Image output apparatus, method and program
JP2008219744A (en) Terminal equipment with video telephone function and video telephone method
WO2012026372A1 (en) Stereoscopic display device
JP2013070153A (en) Imaging apparatus
TW201904276A (en) Interphone system, intercom slave, display terminal, control device and program capable of reducing the difficulty of viewing each image while displaying multiple types of images
KR20060010089A (en) Mobile communication terminal for displaying stereoscopic image
JP7214414B2 (en) Imaging device
JP5751472B2 (en) Photography equipment
JP2023117615A (en) Electronic apparatus, method for controlling electronic apparatus, program, and storage medium
JP2004242092A (en) Camera attached mobile phone

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100727

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130307

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130712

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees