JP2012244187A - Display control device and display control method - Google Patents

Display control device and display control method Download PDF

Info

Publication number
JP2012244187A
JP2012244187A JP2011108665A JP2011108665A JP2012244187A JP 2012244187 A JP2012244187 A JP 2012244187A JP 2011108665 A JP2011108665 A JP 2011108665A JP 2011108665 A JP2011108665 A JP 2011108665A JP 2012244187 A JP2012244187 A JP 2012244187A
Authority
JP
Japan
Prior art keywords
display
image
user
display surface
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011108665A
Other languages
Japanese (ja)
Other versions
JP5801604B2 (en
Inventor
Teppei Konishi
哲平 小西
Shinji Kimura
真治 木村
Michiko Itabashi
通子 板橋
Hitoshi Yamazaki
仁史 山崎
Hitotsugu Kawasaki
仁嗣 川崎
Takeshi Kamiyama
剛 神山
Yu Kikuchi
悠 菊地
Shinzo Okubo
信三 大久保
Hiroshi Inamura
浩 稲村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2011108665A priority Critical patent/JP5801604B2/en
Publication of JP2012244187A publication Critical patent/JP2012244187A/en
Application granted granted Critical
Publication of JP5801604B2 publication Critical patent/JP5801604B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable stereoscopic display to be limited so as not to impose excessive load on the user in a display device which, by detecting user operation on the display screen three-dimensionally, realizes stereoscopic display corresponding to the operation performed.SOLUTION: A display device is capable of stereoscopic display of images and incorporates a proximity sensor which detects proximate operation by an indication element. The proximity sensor has a predetermined region (detectable region) in which it can accept operation. The display device permits the user to set, separately from the detectable region, another region (control subject region) in which it can accept operations concerned with stereoscopic vision. When a position detected by the proximity sensor is included in the detectable region (Yes in S1) and also included in the control subject region (Yes in S2), the display device produces stereoscopic display according to the position. If the position detected by the proximity sensor is included in only the detectable region, it does not produce stereoscopic display.

Description

本発明は、表示面に立体画像を表示する場合の表示制御に関する。   The present invention relates to display control when a stereoscopic image is displayed on a display surface.

画像の立体視を可能にする表示装置において、立体的に見える画像の表示をユーザの操作に応じて制御する技術が知られている。例えば、特許文献1には、被検出体(ユーザの手等)の位置を検出し、被検出体の位置に追随させるように浮遊画像を表示させるための技術が記載されている。   In a display device that enables stereoscopic viewing of an image, a technique for controlling display of a stereoscopically visible image according to a user operation is known. For example, Patent Literature 1 describes a technique for detecting a position of a detected object (such as a user's hand) and displaying a floating image so as to follow the position of the detected object.

臨場感やエンタテインメント性を追求した場合、立体表現の程度は強くなりがちである。しかしながら、立体視の見え方の程度は、ユーザの両眼の間隔をはじめとする個人差に大きく依存する。したがって、過度な立体表現は、人によっては不快感を催したり、目や脳に必要以上の負担を与えることがある。そのため、関連する各種メーカーや業界団体等においては、快適な立体視を実現するための基準や指針が定められている(例えば、非特許文献1参照)。   When pursuing a sense of reality and entertainment, the degree of three-dimensional expression tends to be strong. However, the degree of stereoscopic vision greatly depends on individual differences including the distance between the eyes of the user. Therefore, excessive three-dimensional expression may cause discomfort in some people and may place an unnecessary burden on the eyes and brain. For this reason, various manufacturers and industry groups have established standards and guidelines for realizing comfortable stereoscopic vision (see, for example, Non-Patent Document 1).

特開2009−086395号公報JP 2009-086395 A

“人に優しい3D普及のための3DC安全ガイドライン” 、[online]、3Dコンソーシアム(3DC)、[平成23年4月22日検索]、インターネット〈URL:http://www.3dc.gr.jp/jp/scmt_wg_rep/3dc_guideJ_20100420.pdf〉“3DC Safety Guidelines for Popular 3D Promotion”, [online], 3D Consortium (3DC), [April 22, 2011 Search], Internet <URL: http://www.3dc.gr.jp /jp/scmt_wg_rep/3dc_guideJ_20100420.pdf>

立体表示をユーザの操作に連動して制御する場合には、一般に、立体感と操作の連動性に重きが置かれる。しかし、立体感と操作の連動性を重視すると、ユーザの快適さが犠牲になるおそれがある。
そこで、本発明は、ユーザに過大な負荷を与えないように立体表示を制限できるようにすることを目的とする。
When controlling stereoscopic display in conjunction with a user's operation, in general, emphasis is placed on the linkage between the stereoscopic effect and the operation. However, if importance is attached to the linkage between the three-dimensional effect and the operation, the user's comfort may be sacrificed.
SUMMARY OF THE INVENTION An object of the present invention is to make it possible to limit stereoscopic display so as not to give an excessive load to the user.

本発明の一態様に係る表示制御装置は、表示面上のあらかじめ決められた検出可能領域において、当該表示面を指し示す指示体の位置を検出してユーザの操作を受け付ける操作手段と、前記検出可能領域内の前記表示面寄りに設定され、前記表示面に垂直な方向の高さが前記検出可能領域よりも小さい制御対象領域に、前記操作手段により検出された位置が含まれるか否かを判断する判断手段と、前記判断手段による判断結果に応じて、ユーザに立体視される立体画像を含む画像を前記表示面に表示させる表示制御手段とを備え、前記表示制御手段は、前記操作手段により検出された位置が前記制御対象領域に含まれると判断された場合には、前記立体画像を当該検出された位置に応じた表示態様で表示させ、前記操作手段により検出された位置が前記制御対象領域に含まれないと判断された場合には、前記立体画像を表示させない構成を有する。   The display control device according to an aspect of the present invention includes an operation unit that detects a position of a pointer pointing to the display surface and receives a user operation in a predetermined detectable region on the display surface; It is determined whether or not the position detected by the operating means is included in a control target area that is set closer to the display surface in the area and whose height in the direction perpendicular to the display surface is smaller than the detectable area And a display control unit that displays an image including a stereoscopic image stereoscopically viewed by a user on the display surface in accordance with a determination result by the determination unit, and the display control unit is configured by the operation unit. When it is determined that the detected position is included in the control target region, the stereoscopic image is displayed in a display mode corresponding to the detected position, and is detected by the operation unit. If the location is determined not to be included in the control region has a structure in which the not displayed stereoscopic image.

好ましい態様において、前記表示制御装置は、前記指示体の位置と前記立体画像の表示態様の関連付けを記憶する記憶手段を備え、前記表示制御手段は、前記記憶手段に記憶された関連付けを用いて、前記操作手段により検出された位置に応じた表示態様で前記立体画像を表示させる。
別の好ましい態様において、前記判断手段は、当該装置のユーザ又は当該装置において実行されているアプリケーションに応じて前記制御対象領域の範囲を異ならせる。
さらに別の好ましい態様において、前記表示制御装置は、前記制御対象領域の範囲を設定する設定手段を備え、前記判断手段は、前記設定手段により設定された制御対象領域を用いて判断を行う。
さらに別の好ましい態様において、前記表示制御装置は、前記操作手段により検出された位置を表す座標情報に対してノイズを低減するフィルタ処理を実行するフィルタ手段を備え、前記表示制御手段は、前記フィルタ手段によりフィルタ処理が実行された座標情報に基づいて前記表示面の表示を制御する。
さらに別の好ましい態様において、前記表示制御手段は、前記操作手段により検出された位置に応じて、前記立体画像の表示位置を異ならせる。
さらに別の好ましい態様において、前記操作手段は、前記指示体を前記表示面に接触させる接触操作を検出する第1のセンサと、前記指示体を前記接触面に接触させずに近接させる近接操作を検出する第2のセンサとを備える。
さらに別の好ましい態様において、前記操作手段は、前記指示体を前記表示面に接触させる接触操作と前記指示体を前記接触面に接触させずに近接させる近接操作とを検出する単一のセンサを備える。
In a preferred aspect, the display control device includes storage means for storing an association between the position of the indicator and the display form of the stereoscopic image, and the display control means uses the association stored in the storage means, The stereoscopic image is displayed in a display mode corresponding to the position detected by the operation means.
In another preferable aspect, the determination unit varies the range of the control target area according to a user of the apparatus or an application being executed in the apparatus.
In still another preferred aspect, the display control device includes setting means for setting a range of the control target area, and the determination means makes a determination using the control target area set by the setting means.
In still another preferred aspect, the display control device includes a filter unit that performs a filter process for reducing noise with respect to coordinate information representing a position detected by the operation unit, and the display control unit includes the filter The display on the display surface is controlled based on the coordinate information that has been filtered by the means.
In still another preferred aspect, the display control means changes the display position of the stereoscopic image according to the position detected by the operation means.
In still another preferred embodiment, the operating means includes a first sensor that detects a contact operation in which the indicator is brought into contact with the display surface, and a proximity operation in which the indicator is brought into proximity without being brought into contact with the contact surface. And a second sensor for detection.
In still another preferred embodiment, the operation means includes a single sensor that detects a contact operation for bringing the indicator into contact with the display surface and a proximity operation for bringing the indicator in proximity without contacting the contact surface. Prepare.

本発明の他の態様に係る表示制御方法は、表示面上のあらかじめ決められた検出可能領域において、当該表示面を指し示す指示体の位置を検出してユーザの操作を受け付ける第1のステップと、前記検出可能領域内の前記表示面寄りに設定され、前記表示面に垂直な方向の高さが前記検出可能領域よりも小さい制御対象領域に、前記第1のステップにおいて検出された位置が含まれるか否かを判断する第2のステップと、前記第2のステップにおける判断結果に応じて、ユーザに立体視される立体画像を含む画像を前記表示面に表示させる第3のステップであって、前記第1のステップにおいて検出された位置が前記制御対象領域に含まれると判断された場合には、前記立体画像を当該検出された位置に応じた表示態様で表示させ、前記第1のステップにおいて検出された位置が前記制御対象領域に含まれないと判断された場合には、前記立体画像を表示させない第3のステップとを有する。   A display control method according to another aspect of the present invention includes a first step of receiving a user operation by detecting a position of an indicator pointing to the display surface in a predetermined detectable region on the display surface; The position detected in the first step is included in the control target region that is set closer to the display surface in the detectable region and whose height in the direction perpendicular to the display surface is smaller than the detectable region. A second step of determining whether or not, and a third step of displaying an image including a stereoscopic image stereoscopically viewed by the user on the display surface according to a determination result in the second step, When it is determined that the position detected in the first step is included in the control target region, the stereoscopic image is displayed in a display mode corresponding to the detected position, and the first When the detected position in step is determined to not be included in the control target region, and a third step of not displaying the stereoscopic image.

本発明によれば、ユーザに過大な負荷を与えないように立体表示を制限することが可能である。   According to the present invention, it is possible to limit stereoscopic display so as not to give an excessive load to the user.

表示装置の外観を示した図Figure showing the appearance of the display device 表示装置のハードウェア構成を示したブロック図Block diagram showing the hardware configuration of the display device 視差バリア方式を説明するための表示部の模式図Schematic diagram of the display unit for explaining the parallax barrier method 検出可能領域と制御対象領域の関係を示す図Diagram showing the relationship between the detectable area and the control target area 制御部の機能的構成を示した機能ブロック図(第1実施形態)Functional block diagram showing the functional configuration of the control unit (first embodiment) 表示制御テーブルの一例を示した図The figure which showed an example of the display control table 制御部が実現する表示制御を示したフローチャート(第1実施形態)Flow chart showing display control realized by control unit (first embodiment) 表示制御テーブルの一例を示した図(第2実施形態)The figure which showed an example of the display control table (2nd Embodiment). 制御部が実現する表示制御を示したフローチャート(第2実施形態)Flow chart showing display control realized by control unit (second embodiment) 第2実施形態における画像の表示例を示した図The figure which showed the example of a display of the image in 2nd Embodiment 表示装置の構成を示したブロック図(第3実施形態)Block diagram showing configuration of display device (third embodiment) 制御部の機能的構成を示した機能ブロック図(第4実施形態)Functional block diagram showing functional configuration of control unit (fourth embodiment) 制御対象領域の設定方法の一例を示したフローチャートA flowchart showing an example of a method for setting a control target area 画像中のオブジェクトの深度と視差との関係を説明するための模式図Schematic diagram for explaining the relationship between the depth of an object in an image and parallax

[発明の要旨]
本発明は、表示面に対するユーザの操作を3次元的に検出し、その操作に応じた立体表示を実現する表示装置において、立体視に係る操作を受け付けることができる領域(以下「制御対象領域」という。)の範囲を、表示装置が操作を受け付けることができる領域(以下「検出可能領域」という。)の範囲よりも表示面寄りに小さく設定できるようにし、立体表示を制限できるようにしたことを特徴とするものである。検出可能領域は、表示装置の固有の性能としてあらかじめハードウェア的に決められているものである。一方、制御対象領域は、ソフトウェア的に設定することができるものである。すなわち、本発明は、ハードウェア的に決められた検出可能領域に対して、制御対象領域によってソフトウェア的に制限を加えることを特徴とするものであるともいえる。
[Summary of the Invention]
The present invention detects a user's operation on a display surface three-dimensionally, and in a display device that realizes stereoscopic display according to the operation, an area (hereinafter referred to as “control target area”) that can accept an operation related to stereoscopic viewing. )) Can be set closer to the display surface than the area in which the display device can accept operations (hereinafter referred to as “detectable area”), and stereoscopic display can be restricted. It is characterized by. The detectable area is determined in advance as hardware as the inherent performance of the display device. On the other hand, the control target area can be set by software. That is, it can be said that the present invention is characterized in that the detectable area determined in hardware is limited in software by the control target area.

本発明の立体表示は、指示体を用いたユーザの操作に基づいて行われる。ここにおいて、指示体とは、ユーザが表示面を指し示す操作を行うための身体の部位又は器具をいい、例えば、ユーザの指やスタイラス(スタイラスペン)である。例えば、本発明の立体表示は、指示体と表示面との距離に応じて制御され、アイコン等の画像がユーザの指の近くにあるように表示される。この場合、画像の飛び出し量は、指が表示面から遠いと大きくなり、指が表示面に近いと小さくなる。つまり、ここでいう飛び出し量は、その値が大きいほど立体感があり、よりユーザの近くに知覚されることを意味する。   The three-dimensional display of the present invention is performed based on a user operation using an indicator. Here, the indicator refers to a body part or an instrument for the user to perform an operation pointing to the display surface, and is, for example, a user's finger or a stylus (stylus pen). For example, the stereoscopic display of the present invention is controlled according to the distance between the indicator and the display surface, and is displayed so that an image such as an icon is near the user's finger. In this case, the pop-out amount of the image increases when the finger is far from the display surface, and decreases when the finger is close to the display surface. In other words, the pop-out amount here means that the larger the value is, the more the stereoscopic effect is felt and the closer the user is perceived.

本発明の表示装置は、このような表示制御を、指示体を検出可能領域内で検出した場合に実行する一方、指示体を検出可能領域内で検出しなかった場合には実行しない。このようにすることで、過度な立体表示を抑制し、ユーザに過大な負荷を与えないようにすることが可能となる。   The display device of the present invention executes such display control when the indicator is detected in the detectable region, but does not execute when the indicator is not detected within the detectable region. By doing in this way, it becomes possible to suppress an excessive three-dimensional display and not to give an excessive load to a user.

しかし、立体表示が過剰であるか否かは、ユーザの主観にも依存し、個人差を含み得るものである。そこで、本発明の表示装置は、検出可能領域や画像の飛び出し量をユーザ毎に設定できるようにし、各ユーザにとって最適な立体表示が行えるように構成されてもよい。また、検出可能領域や画像の飛び出し量は、表示装置が実行するアプリケーション(立体表示の対象となる画像を表示させるアプリケーション)毎に設定されてもよい。   However, whether or not the stereoscopic display is excessive depends on the subjectivity of the user and may include individual differences. Therefore, the display device of the present invention may be configured so that the detectable region and the pop-out amount of the image can be set for each user so that the optimum stereoscopic display can be performed for each user. Further, the detectable area and the amount of popping out of the image may be set for each application executed by the display device (an application for displaying an image that is a target of stereoscopic display).

なお、検出可能領域をユーザ自身が設定できる場合には、必ずしも、制御対象領域は検出可能領域よりも小さくなくてもよい。つまり、制御対象領域は、検出可能領域と同じ大きさで設定可能であってもよい。なぜならば、そのような検出可能領域に基づいて立体表示がされたとしても、立体視することが負担にならないユーザも存在するからである。このようなユーザに対しては、ソフトウェア的な制限によらずに、ハードウェア的に可能な範囲で立体感を与えたとしても、当該ユーザの快適さを損なうことがない。   When the user can set the detectable area, the control target area is not necessarily smaller than the detectable area. That is, the control target area may be set with the same size as the detectable area. This is because there are some users who are not burdened with stereoscopic viewing even when stereoscopic display is performed based on such a detectable region. For such a user, even if a stereoscopic effect is given to the extent possible in hardware without being limited by software, the comfort of the user is not impaired.

また、本発明において、立体視を実現する具体的な方法は、特に限定されず、周知のさまざまな方法を用いることができる。立体視を実現する方法には、専用の眼鏡等の補助的な器具を装着するもの(アクティブシャッター方式、偏光方式など)と、かかる器具を要しないもの(視差バリア方式、レンチキュラー方式など)とがあるが、本発明はこれらのいずれの方法を用いても実施可能である。   In the present invention, a specific method for realizing stereoscopic vision is not particularly limited, and various known methods can be used. There are two methods for realizing stereoscopic vision: one that uses auxiliary equipment such as special glasses (active shutter method, polarization method, etc.) and one that does not require such equipment (parallax barrier method, lenticular method, etc.). However, the present invention can be implemented using any of these methods.

なお、制御対象領域は、例えば次のようにして決定することが可能である。
図14は、画像中のオブジェクトの深度と視差との関係を説明するための模式図であり、表示面に平行な方向から見たときの様子を示した図である。同図において、利用者の視点から見たときの表示面の左右方向のサイズをs[cm]、左右の目の間隔をe[cm]、表示面から左右の目を結んだ線分までの距離(視距離)をd[cm]とする。また、立体画像から特定し得る深度情報から、その立体画像に含まれるオブジェクトの表示面からの最大飛び出し量をp[cm]とし、最大奥行き量をq[cm]とする。また、この立体画像によって実現される仮想的な3次元空間において、飛び出し量が最も大きい(深度が浅い)点と、奥行き量が最も大きい(深度が深い)点と、表示面上の点とに対する輻輳角をそれぞれα、β、γとする。
The control target area can be determined as follows, for example.
FIG. 14 is a schematic diagram for explaining the relationship between the depth of an object in an image and parallax, and shows a state when viewed from a direction parallel to the display surface. In the figure, the horizontal size of the display surface when viewed from the user's viewpoint is s [cm], the distance between the left and right eyes is e [cm], and the line segment connecting the left and right eyes from the display surface. The distance (viewing distance) is d [cm]. Further, from the depth information that can be specified from the stereoscopic image, the maximum protrusion amount from the display surface of the object included in the stereoscopic image is p [cm], and the maximum depth amount is q [cm]. Further, in the virtual three-dimensional space realized by this stereoscopic image, the point with the largest pop-out amount (the shallow depth), the point with the largest depth amount (the deep depth), and the point on the display surface Let the convergence angles be α, β, and γ, respectively.

制御対象領域は、例えば、3Dコンソーシアムのガイドライン(非特許文献1)で定義される「快適な立体視」が可能となる視差量に基づいて求めることができる。図14において、輻輳角の差の絶対値|α−γ|及び|γ−β|を視差角と呼ぶ。上記ガイドラインにおいては、これらを各々1度以内にすることが推奨されている。また、同様に、輻輳角の差|α−β|も1度以内であることが推奨されている。ここで、図14において、輻輳角の差が1度以内という上記ガイドラインに基づくと、α=γ+1が限界条件であるから、制御対象領域は、pがp=d{tan(γ/2)/tan(γ+1/2)−1}を満たすような範囲に設定されればよい。   The control target area can be obtained based on the amount of parallax that enables “comfortable stereoscopic vision” defined by a 3D consortium guideline (Non-Patent Document 1), for example. In FIG. 14, the absolute values | α−γ | and | γ−β | of the difference in convergence angle are called parallax angles. In the above guidelines, it is recommended that these be within 1 degree each. Similarly, the convergence angle difference | α−β | is also recommended to be within 1 degree. Here, in FIG. 14, based on the above guideline that the difference in convergence angle is within 1 degree, since α = γ + 1 is a limit condition, the control target region has p = p {d (tan (γ / 2) / What is necessary is just to set to the range which satisfy | fills tan ((gamma) +1/2) -1}.

[第1実施形態]
図1は、本発明の一実施形態である表示装置100の外観を示した図である。表示装置100は、ユーザが表示面101に対して操作を行うことができる情報処理装置であり、例えば、携帯電話機、スマートフォン、PDA(Personal Digital Assistant)、タブレットPC(Personal Computer)又はスレートPC、ゲーム機、電子ブックリーダなどである。表示面101は、画像を表示する面であるとともに、ユーザの操作を受け付ける面でもある。また、表示装置100は、ユーザの手の指先の位置を検出できるように構成されている。すなわち、本実施形態の検出対象たる指示体は、ユーザの指である。なお、説明の便宜上、以下においては、図1に図示された面、すなわち表示面101を有する面のことを「正面」という。
[First Embodiment]
FIG. 1 is a diagram illustrating an appearance of a display device 100 according to an embodiment of the present invention. The display device 100 is an information processing device that allows a user to perform operations on the display surface 101. For example, a mobile phone, a smartphone, a PDA (Personal Digital Assistant), a tablet PC (Personal Computer) or a slate PC, a game Machine, electronic book reader, etc. The display surface 101 is a surface for displaying an image and a surface for receiving a user operation. The display device 100 is configured to detect the position of the fingertip of the user's hand. That is, the indicator that is the detection target of the present embodiment is the user's finger. For convenience of explanation, the surface shown in FIG. 1, that is, the surface having the display surface 101 will be referred to as “front” hereinafter.

図2は、表示装置100のハードウェア構成を示したブロック図である。表示装置100は、同図に示すように、制御部110と、記憶部120と、表示部130と、操作部140と、通信部150とを備える。なお、表示部130と操作部140は、一体的に構成されていてもよいし、分離されていてもよい。また、通信部150は、本発明に必須の構成要素ではない。   FIG. 2 is a block diagram illustrating a hardware configuration of the display device 100. As illustrated in FIG. 1, the display device 100 includes a control unit 110, a storage unit 120, a display unit 130, an operation unit 140, and a communication unit 150. The display unit 130 and the operation unit 140 may be configured integrally or may be separated. The communication unit 150 is not an essential component for the present invention.

制御部110は、表示装置100の各部の動作を制御する手段である。制御部110は、CPU(Central Processing Unit)等の演算処理装置や、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置を備え、ROM又は記憶部120に記憶されたプログラムを実行することによって表示部130の表示制御や通信部150の通信制御を実現する。また、制御部110は、画像を立体表示するための画像処理機能を有する。この画像処理機能は、例えば、元の画像から後述する右目用の画像と左目用の画像とをそれぞれ生成する機能である。   The control unit 110 is a unit that controls the operation of each unit of the display device 100. The control unit 110 includes an arithmetic processing device such as a CPU (Central Processing Unit) and a storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory), and executes a program stored in the ROM or the storage unit 120. Thus, display control of the display unit 130 and communication control of the communication unit 150 are realized. In addition, the control unit 110 has an image processing function for stereoscopically displaying an image. This image processing function is a function for generating, for example, a right-eye image and a left-eye image, which will be described later, from the original image, respectively.

記憶部120は、制御部110が制御に用いるデータを記憶する手段である。記憶部120は、ハードディスクやフラッシュメモリによって構成される。記憶部120は、いわゆるリムーバブルメディア、すなわち着脱可能な記憶手段を含んでもよい。また、記憶部120は、UIM(User Identity Module)カードのようなユーザを識別する情報が記憶された記憶手段を含んでもよい。記憶部120には、後述する表示制御テーブルが記憶されている。   The storage unit 120 is a unit that stores data used by the control unit 110 for control. The storage unit 120 is configured by a hard disk or a flash memory. The storage unit 120 may include so-called removable media, that is, removable storage means. Further, the storage unit 120 may include a storage unit that stores information for identifying a user, such as a UIM (User Identity Module) card. The storage unit 120 stores a display control table to be described later.

表示部130は、表示面101に画像を表示する手段である。表示部130は、液晶素子や有機EL(electroluminescence)素子により画像を表示する表示パネルと、この表示パネルを駆動する駆動回路等を備える。表示面101は、ここでは長方形であるとし、この長方形の短辺と長辺に沿って画素がマトリクス状に配置されているものとする。この表示面101に対しては、図1に示すように、適当な位置(ここでは左上端)を原点Oとした3次元直交座標系が定義されているものとする。ここでは、表示面101の長辺方向にX軸、表示面101の短辺方向にY軸をそれぞれ定義し、X軸及びY軸と直交する表示面101に垂直な方向にZ軸を定義する。なお、Z軸は、表示面101の表面を原点とし、ユーザに向かう方向(図1における上方)を正方向とする座標軸とする。   The display unit 130 is a means for displaying an image on the display surface 101. The display unit 130 includes a display panel that displays an image using a liquid crystal element or an organic EL (electroluminescence) element, a drive circuit that drives the display panel, and the like. Here, it is assumed that the display surface 101 is a rectangle, and pixels are arranged in a matrix along the short side and the long side of the rectangle. As shown in FIG. 1, it is assumed that a three-dimensional orthogonal coordinate system having an appropriate position (here, the upper left corner) as the origin O is defined for the display surface 101. Here, an X axis is defined in the long side direction of the display surface 101, a Y axis is defined in the short side direction of the display surface 101, and a Z axis is defined in a direction perpendicular to the X axis and the Y axis. . The Z-axis is a coordinate axis with the surface of the display surface 101 as the origin and the direction toward the user (upward in FIG. 1) as the positive direction.

表示部130は、平面画像と立体画像とを表示可能である。ここにおいて、平面画像とは、表示面101に平面的に表示される画像をいい、立体画像とは、表示面101に表示され、表示面101上に立体的に知覚される画像をいう。立体画像は、左目用の画像と右目用の画像とにより構成される。なお、表示部130は、ここでは視差バリア方式によって立体視を実現するものであるとする。   The display unit 130 can display a planar image and a stereoscopic image. Here, the planar image refers to an image displayed on the display surface 101 in a planar manner, and the stereoscopic image refers to an image displayed on the display surface 101 and perceived on the display surface 101 in a stereoscopic manner. The stereoscopic image is composed of a left-eye image and a right-eye image. Here, the display unit 130 is assumed to realize stereoscopic viewing by a parallax barrier method.

図3は、視差バリア方式を説明するための表示部130の模式図である。表示部130は、画像を表示するための第1の液晶層131と、視差バリアを形成するための第2の液晶層132とを有し、視差バリアの有無、すなわち第2の液晶層の光の透過率を切り替えることによって平面画像と立体画像とを切り替えて表示する。このとき、表示部130は、視差バリアの位置や幅を変えることによって、立体画像が見える方向を変え、飛び出し量を制御することが可能になる。ユーザは、このように表示された立体画像を、左目用の画像を左目で視認し、右目用の画像を右目で視認することにより、表示された画像を立体的に認識することが可能である。   FIG. 3 is a schematic diagram of the display unit 130 for explaining the parallax barrier method. The display unit 130 includes a first liquid crystal layer 131 for displaying an image and a second liquid crystal layer 132 for forming a parallax barrier, and the presence or absence of the parallax barrier, that is, the light of the second liquid crystal layer. The plane image and the three-dimensional image are switched and displayed by switching the transmittance. At this time, the display unit 130 can change the direction in which the stereoscopic image can be seen by changing the position and width of the parallax barrier, and can control the pop-out amount. The user can recognize the displayed image three-dimensionally by viewing the left-eye image with the left eye and the right-eye image with the right eye. .

なお、第2の液晶層132は、第1の液晶層131の背面側、すなわちユーザから見て第1の液晶層131よりも遠い側にあってもよい。また、表示部130は、図3に示した構成のみに限らず、バックライト等の他の構成を含み得る。   Note that the second liquid crystal layer 132 may be on the back side of the first liquid crystal layer 131, that is, on the side farther from the first liquid crystal layer 131 when viewed from the user. Further, the display unit 130 is not limited to the configuration illustrated in FIG. 3 and may include other configurations such as a backlight.

操作部140は、ユーザの操作を受け付ける手段である。操作部140は、表示面101に対するユーザの指先の位置を検出し、その位置を表す座標情報を制御部110に供給するためのセンサを備える。より詳細には、操作部140は、接触センサ141と近接センサ142とを備える。接触センサ141は、ユーザの指先が表示面101に接触した状態を検出するためのセンサである。接触センサ141は、例えば、周知のタッチスクリーン(タッチパネルともいう。)によって実現可能である。一方、近接センサ142は、ユーザの指先が表示面101に近接している状態を検出するためのセンサである。近接センサ142も、周知技術を用いたものであってよいが、例えば、指先の静電容量を検出したり、指先の位置を光学的に検出したりすることで実現される。   The operation unit 140 is a unit that receives a user operation. The operation unit 140 includes a sensor for detecting the position of the user's fingertip with respect to the display surface 101 and supplying coordinate information representing the position to the control unit 110. More specifically, the operation unit 140 includes a contact sensor 141 and a proximity sensor 142. The contact sensor 141 is a sensor for detecting a state in which the user's fingertip is in contact with the display surface 101. The contact sensor 141 can be realized by, for example, a known touch screen (also referred to as a touch panel). On the other hand, the proximity sensor 142 is a sensor for detecting a state in which the user's fingertip is close to the display surface 101. The proximity sensor 142 may also be a sensor using a well-known technique. For example, the proximity sensor 142 is realized by detecting the capacitance of the fingertip or optically detecting the position of the fingertip.

接触センサ141は、ユーザの指先が接触した表示面101の表面の位置を2次元的に検出する。ゆえに、接触センサ141が供給する座標情報は、X軸方向の座標(X座標)とY軸方向の座標(Y座標)とを表す座標情報である。一方、近接センサ142は、表示面101に触れることなく近接している状態のユーザの指先の位置を3次元的に検出する。ゆえに、近接センサ142が供給する座標情報は、X軸、Y軸及びZ軸のそれぞれの方向の座標を表す座標情報である。以下においては、接触センサ141が供給する座標情報によって特定される操作のことを「接触操作」といい、近接センサ142が供給する座標情報によって特定される操作のことを「近接操作」という。   The contact sensor 141 two-dimensionally detects the position of the surface of the display surface 101 where the user's fingertip has contacted. Therefore, the coordinate information supplied by the contact sensor 141 is coordinate information representing coordinates in the X-axis direction (X coordinate) and coordinates in the Y-axis direction (Y coordinate). On the other hand, the proximity sensor 142 three-dimensionally detects the position of the user's fingertip that is in close proximity without touching the display surface 101. Therefore, the coordinate information supplied by the proximity sensor 142 is coordinate information representing the coordinates in the respective directions of the X axis, the Y axis, and the Z axis. Hereinafter, the operation specified by the coordinate information supplied by the contact sensor 141 is referred to as “contact operation”, and the operation specified by the coordinate information supplied by the proximity sensor 142 is referred to as “proximity operation”.

なお、近接センサ142は、ユーザの指先を検出可能な範囲が有限であり、検出可能領域が決まっている。検出可能領域は、近接センサ142のハードウェア的な性能によって定まる。本実施形態でいう「近接」とは、指先の位置(特にZ軸方向の位置)がこの検出可能領域にある状態を指す。   The proximity sensor 142 has a finite range in which the user's fingertip can be detected, and a detectable area is determined. The detectable area is determined by the hardware performance of the proximity sensor 142. “Proximity” in the present embodiment refers to a state where the position of the fingertip (particularly the position in the Z-axis direction) is in this detectable region.

接触センサ141及び近接センサ142は、指示体の位置を所定のサンプリングレートで検出する。すなわち、接触センサ141及び近接センサ142は、指示体の位置を繰り返し連続的に検出する。なお、近接センサ142は、ユーザの指を継続して所定時間以上検出しなかった場合に、サンプリングレートを一時的に下げ、指を再び検出したらサンプリングレートを元に戻すようにしてもよい。また、接触センサ141は、近接センサ142が指を検知してから機能するようになっていてもよい。なぜならば、指が表示面101に接触するためには、事前に指が表示面101に必ず近接するからである。   The contact sensor 141 and the proximity sensor 142 detect the position of the indicator at a predetermined sampling rate. That is, the contact sensor 141 and the proximity sensor 142 repeatedly and continuously detect the position of the indicator. The proximity sensor 142 may temporarily lower the sampling rate when the user's finger is not detected for a predetermined time or longer, and return to the original sampling rate when the finger is detected again. The contact sensor 141 may function after the proximity sensor 142 detects a finger. This is because the finger always comes close to the display surface 101 in advance for the finger to contact the display surface 101.

また、操作部140は、物理キー143を備える。物理キー143は、表示装置100の表示面101以外の位置に設けられ、押下されることによってユーザの操作を受け付ける。物理キー143は、表示装置100の正面にあってもよいが、側面や背面にあってもよい。また、物理キー143は、複数あってもよく、いわゆるQWERTY配列のキーボードやテンキーであってもよい。
なお、物理キー143は、接触センサ141又は近接センサ142でも代用可能である。すなわち、物理キー143は、本発明に必須の構成要件ではない。
The operation unit 140 includes a physical key 143. The physical key 143 is provided at a position other than the display surface 101 of the display device 100 and receives a user operation when pressed. The physical key 143 may be on the front of the display device 100, but may be on the side or the back. Also, there may be a plurality of physical keys 143, and a so-called QWERTY keyboard or numeric keypad may be used.
The physical key 143 can be substituted by the contact sensor 141 or the proximity sensor 142. That is, the physical key 143 is not an essential component for the present invention.

通信部150は、外部装置と通信するための手段である。通信部150は、例えば、アンテナやネットワークアダプタを備える。通信部150は、インターネット、移動体通信網等のネットワークを介して外部装置と通信してもよいが、近距離無線通信のように、外部装置とネットワークを介さずに直接通信してもよい。また、通信部150による通信は、ここでは無線通信であるとするが、有線通信であってもよい。   The communication unit 150 is a means for communicating with an external device. The communication unit 150 includes, for example, an antenna and a network adapter. The communication unit 150 may communicate with an external device via a network such as the Internet or a mobile communication network, but may communicate directly with an external device without using a network, such as near field communication. The communication by the communication unit 150 is wireless communication here, but may be wired communication.

表示装置100のハードウェア構成は、以上のとおりである。この構成のもと、表示装置100は、外部装置と通信したり、実行中の処理に応じた画像を表示面101に表示したりする。このとき、表示装置100は、近接操作及び接触操作を検出し、ユーザの指先の位置を検出する。表示装置100は、近接操作を検出したら、近接操作が検出された位置に応じて表示面101の表示態様を制御する。   The hardware configuration of the display device 100 is as described above. Based on this configuration, the display device 100 communicates with an external device and displays an image corresponding to the process being executed on the display surface 101. At this time, the display device 100 detects the proximity operation and the contact operation, and detects the position of the user's fingertip. When detecting the proximity operation, the display device 100 controls the display mode of the display surface 101 according to the position where the proximity operation is detected.

本実施形態において、表示装置100は、検出可能領域において近接操作を検出可能であるが、立体画像を表示させるのは、近接操作を制御対象領域において検出した場合のみである。このとき、表示装置100は、表示面101に表示されていた画像の一部(例えば、指先の位置の近傍の画像)のみを立体表示させてもよいが、表示面101に表示されていた画像の全部を立体表示させてもよい。   In the present embodiment, the display device 100 can detect the proximity operation in the detectable region, but the stereoscopic image is displayed only when the proximity operation is detected in the control target region. At this time, the display device 100 may stereoscopically display only a part of the image displayed on the display surface 101 (for example, an image in the vicinity of the fingertip position), but the image displayed on the display surface 101 All of these may be displayed three-dimensionally.

図4は、検出可能領域と制御対象領域の関係を示す図である。同図において、縦方向の座標軸は、Z軸を表しているが、横方向の座標軸は、X軸とY軸のいずれであってもよい。なお、図示の便宜上、ここでは制御対象領域がZ軸方向だけでなくX軸方向(又はY軸方向)にも検出可能領域より小さい領域として示されているが、制御対象領域のX軸方向及びY軸方向のサイズ(ユーザが正面から見たときの面積)は、検出可能領域のそれと同一であってもよい。   FIG. 4 is a diagram illustrating the relationship between the detectable area and the control target area. In the figure, the vertical coordinate axis represents the Z axis, but the horizontal coordinate axis may be either the X axis or the Y axis. For convenience of illustration, the control target area is shown as an area smaller than the detectable area not only in the Z-axis direction but also in the X-axis direction (or Y-axis direction). The size in the Y-axis direction (area when viewed from the front by the user) may be the same as that of the detectable region.

図4に示すように、制御対象領域は、検出可能領域よりも小さくなるように設定されている。特に、制御対象領域は、表示面101に対する高さ、すなわちZ軸方向の範囲が、検出可能領域よりも小さくなっている。したがって、制御対象領域のユーザ側の境界は、検出可能領域のそれよりも表示面101に近い位置にある。なお、検出可能領域の範囲は、近接センサ142の性能に依存する。一方、制御対象領域の範囲は、本実施形態においては、あらかじめ設定されているものとする。制御対象領域の範囲の設定は、例えば、表示装置100の製造時等にメーカーによって行われる。   As shown in FIG. 4, the control target area is set to be smaller than the detectable area. In particular, the height of the control target area with respect to the display surface 101, that is, the range in the Z-axis direction is smaller than the detectable area. Therefore, the user-side boundary of the control target area is closer to the display surface 101 than that of the detectable area. Note that the range of the detectable region depends on the performance of the proximity sensor 142. On the other hand, the range of the control target area is set in advance in the present embodiment. The range of the control target area is set by a manufacturer at the time of manufacturing the display device 100, for example.

図5は、制御部110の機能的構成のうち、特に画像の表示制御に関する部分を示した機能ブロック図である。制御部110は、所定のプログラムを実行することにより、同図に示すデータ取得部111、判断部112及び表示制御部113の各部に相当する機能を実現する。これらの機能は、OS(Operating System)や、画像の表示を制御する特定のソフトウェアのいずれによって実現されてもよいし、複数のソフトウェアの協働によって実現されてもよい。   FIG. 5 is a functional block diagram showing a part related to image display control in the functional configuration of the control unit 110. The control unit 110 implements functions corresponding to the respective units of the data acquisition unit 111, the determination unit 112, and the display control unit 113 illustrated in FIG. These functions may be realized by either an OS (Operating System) or specific software that controls image display, or may be realized by cooperation of a plurality of software.

データ取得部111は、画像の表示に必要なデータを取得する手段である。データ取得部111が取得するデータは、具体的には、表示面101に表示されるべき画像を示す画像データと、操作部140により供給される座標情報である。画像データは、記憶部120にあらかじめ記憶されているもの(例えば、特定のアプリケーションの実行時に用いられる画像データ)であってもよいし、通信部150が外部装置から受信したもの(例えば、ブラウザによって表示されるウェブページのデータ)であってもよい。   The data acquisition unit 111 is means for acquiring data necessary for image display. The data acquired by the data acquisition unit 111 is specifically image data indicating an image to be displayed on the display surface 101 and coordinate information supplied by the operation unit 140. The image data may be stored in advance in the storage unit 120 (for example, image data used when executing a specific application) or received by the communication unit 150 from an external device (for example, by a browser). Web page data to be displayed).

判断部112は、近接センサ142から供給された座標情報、すなわち近接センサ142により検出された近接操作に基づいて、立体表示の可否を判断する手段である。具体的には、判断部112は、座標情報により特定される近接操作の位置とあらかじめ設定された制御対象領域の範囲とを比較し、当該位置が制御対象領域に含まれるか否かを判断する。   The determination unit 112 is a unit that determines whether or not stereoscopic display is possible based on the coordinate information supplied from the proximity sensor 142, that is, based on the proximity operation detected by the proximity sensor 142. Specifically, the determination unit 112 compares the position of the proximity operation specified by the coordinate information with a preset range of the control target area, and determines whether or not the position is included in the control target area. .

表示制御部113は、判断部112による判断結果に応じて、画像を表示面101に表示させる手段である。表示制御部113は、近接センサ142により検出された位置が制御対象領域に含まれていると判断された場合には、立体画像を表示させ、当該位置が制御対象領域に含まれていないと判断された場合には、立体画像を表示させない。表示制御部113は、近接センサ142により検出された位置が制御対象領域に含まれていないと判断された場合には、立体画像を表示させずに平面画像を表示させる。あるいは、表示制御部113は、かかる場合に、表示面101に何も表示させないようにしてもよい。   The display control unit 113 is a unit that displays an image on the display surface 101 according to the determination result by the determination unit 112. When it is determined that the position detected by the proximity sensor 142 is included in the control target area, the display control unit 113 displays a stereoscopic image and determines that the position is not included in the control target area. If it is, the stereoscopic image is not displayed. When it is determined that the position detected by the proximity sensor 142 is not included in the control target area, the display control unit 113 displays a planar image without displaying a stereoscopic image. Alternatively, the display control unit 113 may not display anything on the display surface 101 in such a case.

表示制御部113は、立体画像を表示する場合に、その表示態様を近接操作の位置に応じて異ならせる。このときの表示態様は、あらかじめ一律に決められていてもよいが、本実施形態においては、記憶部120に記憶された表示制御テーブルに基づいて決められる。つまり、表示制御部113は、表示制御テーブルを参照することによって立体画像の表示態様を特定することができる。表示制御テーブルは、指示体の位置と立体画像の表示態様の関連付けを記述したデータである。   When displaying a stereoscopic image, the display control unit 113 changes the display mode according to the position of the proximity operation. The display mode at this time may be determined uniformly in advance, but is determined based on the display control table stored in the storage unit 120 in the present embodiment. That is, the display control unit 113 can specify the display mode of the stereoscopic image by referring to the display control table. The display control table is data describing the association between the position of the indicator and the display mode of the stereoscopic image.

図6は、表示制御テーブルの一例を示した図である。同図に示す表示制御テーブルは、近接センサ142から供給された座標情報のZ軸方向の座標(Z座標)と立体画像の飛び出し量の関連付けを記述したものである。ここにおいて、Z1は座標情報のZ座標であり、Z2は立体画像の飛び出し量である。また、Th1〜Th4は、それぞれ適当に定められた閾値であり、Th4>Th3>Th2>Th1を満たす。なお、Z1=Th2を満たす平面(XY平面)は、制御対象領域と検出可能領域の境界であり、Z1=Th4を満たす平面(XY平面)は、検出可能領域とそうでない領域(操作を検出することができない領域)の境界である。 FIG. 6 is a diagram illustrating an example of the display control table. The display control table shown in the figure describes the association between the coordinate (Z coordinate) in the Z-axis direction of the coordinate information supplied from the proximity sensor 142 and the projection amount of the stereoscopic image. Here, Z 1 is the Z coordinate of the coordinate information, and Z 2 is the projection amount of the stereoscopic image. Further, Th1 to Th4 are thresholds appropriately determined, and satisfy Th4>Th3>Th2> Th1. The plane satisfying Z 1 = Th2 (XY plane) is the boundary between the control target area and the detectable area, and the plane satisfying Z 1 = Th4 (XY plane) is the detectable area and the other area (the operation is not performed). This is the boundary of the area that cannot be detected).

なお、飛び出し量とは、立体画像をどの程度浮き出ているように認識させるかを表す数値であり、その値が大きいほどユーザ側に飛び出させることを示している。例えば、飛び出し量がZ2=Z1で規定される場合の立体画像は、あたかも指示体の先端のすぐそばに存在するかのように、指示体の動きに追随するように表示される。 Note that the pop-out amount is a numerical value indicating how much the stereoscopic image is recognized as being raised, and indicates that the larger the value is, the popping out to the user side. For example, the stereoscopic image in the case where the pop-out amount is defined by Z 2 = Z 1 is displayed so as to follow the movement of the indicator as if it exists immediately next to the tip of the indicator.

テーブル1は、0<Z1≦Th2の場合には画像を立体表示させ、Z1>Th2の場合には画像を非表示とする表示態様を示すテーブルである。表示装置100がテーブル1を用いて画像を立体表示する場合、表示面101に表示される画像は、指示体の動きに連動するように飛び出し量が変化する。なお、nの値は、0より大きい適当な数であるが、飛び出し量が過剰にならないように、1を大きく超えないことが望ましい。 Table 1 is a table showing a display mode in which an image is stereoscopically displayed when 0 <Z 1 ≦ Th2, and is not displayed when Z 1 > Th2. When the display device 100 uses the table 1 to stereoscopically display an image, the amount of the image displayed on the display surface 101 changes so as to be interlocked with the movement of the indicator. Note that the value of n is an appropriate number larger than 0, but it is desirable not to greatly exceed 1 so that the pop-out amount does not become excessive.

一方、テーブル2は、テーブル1とは立体画像の表示態様(飛び出しの態様)を異ならせたテーブルである。表示装置100がテーブル1を用いて画像を立体表示する場合、表示面101に表示される画像は、テーブル1の場合のように飛び出し量が連続的には変化しないが、指示体と表示面101との距離がTh2以下であるか否かを境にして、飛び出し量が段階的に変化する。   On the other hand, the table 2 is a table that is different from the table 1 in the display mode (the pop-up mode) of the stereoscopic image. When the display device 100 uses the table 1 to stereoscopically display an image, the amount of the image displayed on the display surface 101 does not continuously change as in the case of the table 1, but the indicator and the display surface 101 are not changed. The jump-out amount changes step by step with whether or not the distance to is less than Th2.

なお、テーブル1、2のいずれにおいても、Z1=0、すなわち接触操作が検出された場合には、表示制御部113は接触操作に応じた表示制御を実行する。Z1=0の場合の表示態様は、必ずしも表示制御テーブルに記述されていなくてもよい。また、表示制御部113は、Z1=0の場合、画像の立体表示を行ってもよいし、行わなくてもよい。 In both tables 1 and 2, when Z 1 = 0, that is, when a contact operation is detected, the display control unit 113 executes display control according to the contact operation. The display mode in the case of Z 1 = 0 is not necessarily described in the display control table. Further, the display control unit 113 may or may not perform stereoscopic display of an image when Z 1 = 0.

表示制御部113は、記憶部120に複数の表示制御テーブルが記憶されている場合には、いずれか1つのテーブルを選択して用いる。表示制御部113は、ユーザによる事前の設定、そのとき実行されているアプリケーション、立体表示の対象となる画像などを判断基準として、そのときどきの状況に応じたテーブルを選択することができる。なお、記憶部120に記憶される表示制御テーブルは、もちろん3種類以上であってもよい。また、表示制御テーブルは、本実施形態の例では直方体状の制御対象領域を記述したものであるが、他の形状の制御対象領域を記述するものであってもよい。   When a plurality of display control tables are stored in the storage unit 120, the display control unit 113 selects and uses any one table. The display control unit 113 can select a table according to the situation at that time, using a user's prior settings, an application being executed at that time, an image to be stereoscopically displayed, and the like as determination criteria. Of course, three or more types of display control tables may be stored in the storage unit 120. In addition, the display control table describes a rectangular parallelepiped control target region in the example of the present embodiment, but may describe a control target region having another shape.

図7は、制御部110が上記の機能的構成によって実現する表示制御を示したフローチャートである。制御部110は、画像を立体表示するか否かを判断する必要がある場合に、同図に示す表示制御処理を実行する。すなわち、制御部110は、図7に示す表示制御処理を常に実行する必要はなく、例えば、立体表示を必要としない特定のアプリケーションを実行しているような場合には、かかる処理を実行しなくてもよい。   FIG. 7 is a flowchart showing display control realized by the control unit 110 with the above functional configuration. When it is necessary to determine whether or not to stereoscopically display an image, the control unit 110 executes a display control process shown in FIG. That is, the control unit 110 does not always have to execute the display control process illustrated in FIG. 7. For example, when a specific application that does not require stereoscopic display is being executed, the control unit 110 does not execute the process. May be.

制御部110による表示制御は、ユーザの指先が検出可能領域に入り、所定の条件が満たされることによって開始される。そこでまず、制御部110は、近接センサ142から供給される座標情報によって近接操作の位置(すなわち指先の位置)を特定し、当該位置が検出可能領域に含まれるか否かを判断する(ステップS11)。制御部110は、この判断が肯定的(YES)になるまで、同じ処理を繰り返す。   The display control by the control unit 110 is started when the user's fingertip enters the detectable region and a predetermined condition is satisfied. Therefore, first, the control unit 110 specifies the position of the proximity operation (that is, the position of the fingertip) based on the coordinate information supplied from the proximity sensor 142, and determines whether or not the position is included in the detectable region (step S11). ). Control unit 110 repeats the same processing until this determination becomes affirmative (YES).

指先の位置が検出可能領域に含まれるようになると、制御部110は、当該位置がさらに制御対象領域に含まれるか否かを判断する(ステップS12)。制御部110は、指先の位置が制御対象領域に含まれていれば、当該位置に応じた表示態様で表示面101に立体画像を表示させる(ステップS13)。一方、ステップS12の判断が否定的(NO)になる場合、すなわち、指先の位置が検知可能領域には含まれるが、制御対象領域には含まれない場合、制御部110は、実行する処理をステップS11の判断に戻す。   When the position of the fingertip is included in the detectable area, the control unit 110 determines whether or not the position is further included in the control target area (step S12). If the position of the fingertip is included in the control target area, the control unit 110 displays a stereoscopic image on the display surface 101 in a display mode corresponding to the position (step S13). On the other hand, when the determination in step S12 is negative (NO), that is, when the position of the fingertip is included in the detectable region but not included in the control target region, the control unit 110 performs a process to be executed. Return to the determination in step S11.

ステップS13の処理は、表示面101に表示される画像を全体的に立体表示させるものであってもよいが、特定の画像のみを立体表示させるものであってもよい。ここにおいて、特定の画像とは、例えば、ユーザが接触操作により選択することができる画像であり、ボタン、ソフトリンク(ショートカット、エイリアス、シンボリックリンクなどともいう。)、ウェブページのハイパーリンク(文字列やアイコン)が挙げられる。この場合、制御部110は、座標情報のZ座標のみを立体画像の表示制御のために参照し、X座標とY座標を考慮しなくてもよい。   The process of step S13 may be to display the image displayed on the display surface 101 as a whole in a stereoscopic manner, or to display only a specific image in a stereoscopic manner. Here, the specific image is, for example, an image that can be selected by a user through a touch operation, and includes a button, a soft link (also referred to as a shortcut, an alias, a symbolic link, etc.), a hyperlink (character string) of a web page. And icons). In this case, the control unit 110 refers to only the Z coordinate of the coordinate information for display control of the stereoscopic image, and does not need to consider the X coordinate and the Y coordinate.

あるいは、制御部110は、X座標とY座標、すなわち、指先の位置の表示面101に対する正射影の座標をあわせて参照し、X座標とY座標に応じて立体画像の表示態様を変化させてもよい。例えば、制御部110は、ユーザの指先が制御対象領域にある場合に、人間や動物を模したキャラクタの画像を指先の近傍に立体表示させ、その画像の位置を指の移動に追随するように移動させるようにしてもよい。   Alternatively, the control unit 110 refers to the X coordinate and the Y coordinate, that is, the coordinates of the orthogonal projection of the fingertip position on the display surface 101, and changes the display mode of the stereoscopic image according to the X coordinate and the Y coordinate. Also good. For example, when the fingertip of the user is in the control target region, the control unit 110 displays a three-dimensional image of a character imitating a human or animal in the vicinity of the fingertip, and follows the movement of the finger. You may make it move.

制御部110は、立体画像を表示させたら、ユーザの操作として接触操作が検出されたか否かを判断する(ステップS14)。ステップS14の判断は、座標情報の供給元が近接センサ142から接触センサ141に切り替わったか否かによって行われてもよいが、座標情報のうちのZ座標が「0」か否かによって行われてもよい。制御部110は、接触操作が検出された場合には、接触操作に応じた表示制御を行う(ステップS15)。なお、ステップS15の表示制御には、接触操作が検出される前と異なる画像を表示させるもののほか、接触操作が検出された後にそれまで表示されていた画像を非表示にするものも含まれる。   When the stereoscopic image is displayed, the control unit 110 determines whether or not a contact operation is detected as a user operation (step S14). The determination in step S14 may be performed based on whether or not the supply source of the coordinate information is switched from the proximity sensor 142 to the contact sensor 141, but is determined based on whether or not the Z coordinate in the coordinate information is “0”. Also good. When the contact operation is detected, the control unit 110 performs display control according to the contact operation (step S15). Note that the display control in step S15 includes not only the display of an image different from that before the contact operation is detected but also the non-display of the image that has been displayed until the contact operation is detected.

また、ステップS15の表示制御は、表示面101上のユーザが触れた位置や、そのとき実行しているアプリケーションなどによって異なり得る。例えば、制御部110は、ブラウザを実行している場合において、ユーザがウェブページのハイパーリンク(文字列やアイコン)を選択したときには、ハイパーリンクに記述されたデータを受信するとともに、これをレンダリングしてページの表示を切り替える、といった処理を実行することが可能である。このとき新たに表示されるページは、ユーザが選択したハイパーリンク次第である。また、制御部110は、ユーザが何らかのボタンを選択した場合であれば、当該ボタンに割り当てられた処理を実行する。かかる処理には、選択されたボタンの表示態様(色や凹凸感)を変える処理が含まれ得る。   Further, the display control in step S15 may vary depending on the position touched by the user on the display surface 101, the application being executed at that time, and the like. For example, when the browser is running and the user selects a hyperlink (character string or icon) of the web page, the control unit 110 receives the data described in the hyperlink and renders it. It is possible to execute processing such as switching the display of pages. The newly displayed page at this time depends on the hyperlink selected by the user. In addition, if the user selects any button, the control unit 110 executes processing assigned to the button. Such processing may include processing for changing the display mode (color or unevenness) of the selected button.

なお、制御部110は、接触操作が検出され、当該接触操作に応じた表示制御を行った場合と、接触操作が検出されなかった場合のいずれにおいても、その後、ステップS11以降の処理を繰り返す。そして、制御部110は、画像を立体表示する必要がなくなるまで、ステップS11〜S15の処理を繰り返し実行する。   In addition, control part 110 repeats the process after step S11 after that, even if contact operation is detected and display control according to the said contact operation is performed, and when contact operation is not detected. And the control part 110 repeatedly performs the process of step S11-S15 until it becomes unnecessary to display an image in three dimensions.

以上のように、本実施形態の表示装置100によれば、表示制御テーブルに従って立体画像の表示態様を制御することが可能であり、立体表示に係る操作を受け付ける表示面101上の領域を一定の範囲に制限することが可能である。また、表示装置100によれば、参照する表示制御テーブルを切り替えることによって立体画像の表示態様を異ならせることが可能である。   As described above, according to the display device 100 of the present embodiment, the display mode of a stereoscopic image can be controlled according to the display control table, and a region on the display surface 101 that receives an operation related to stereoscopic display is set to a certain level. It is possible to limit to a range. Moreover, according to the display apparatus 100, it is possible to change the display mode of a stereoscopic image by switching the display control table to refer.

[第2実施形態]
本実施形態は、上述した第1実施形態の構成及び動作の一部に対して変更を加えたものであり、具体的には、表示制御テーブル、すなわち近接操作時の表示態様を変更したものである。
なお、本実施形態以降の実施形態において、既に説明した実施形態と共通する部分の説明は、適宜省略される。また、本実施形態以降の実施形態において、既に説明した実施形態と共通する構成要素やフローチャート中の処理には、既に記載した符号と同一の符号を付すものとする。
[Second Embodiment]
In the present embodiment, a part of the configuration and operation of the first embodiment described above is modified. Specifically, the display control table, that is, the display mode during the proximity operation is modified. is there.
In addition, in embodiment after this embodiment, description of the part which is common in embodiment already demonstrated is abbreviate | omitted suitably. In addition, in the embodiments after this embodiment, the same reference numerals as those already described are attached to the components common to the already described embodiments and the processes in the flowchart.

図8は、本実施形態における表示制御テーブルを例示した図である。本実施形態の表示制御テーブルは、Th2<Z1≦Th4を満たす範囲において平面画像が表示されるように設定されている点が第1実施形態(図6参照)と異なり、その他の点においては第1実施形態と同様である。 FIG. 8 is a diagram illustrating a display control table in the present embodiment. The display control table of the present embodiment is different from the first embodiment (see FIG. 6) in that a planar image is set in a range satisfying Th2 <Z 1 ≦ Th4. This is the same as in the first embodiment.

図9は、本実施形態の表示制御を示したフローチャートである。このフローチャートは、ステップS16の処理が追加されている点において、第1実施形態のフローチャート(図7参照)と異なる。ステップS16において、制御部110は、指先の位置が制御対象領域に含まれていないとステップS12において判断された場合に、立体画像に代わる平面画像を表示させる。その後、制御部110は、指先の位置が制御対象領域に含まれるようになると、ステップS13当該平面画像を立体画像として表示させる。   FIG. 9 is a flowchart showing the display control of this embodiment. This flowchart differs from the flowchart of the first embodiment (see FIG. 7) in that the process of step S16 is added. In step S <b> 16, when it is determined in step S <b> 12 that the position of the fingertip is not included in the control target area, the control unit 110 displays a planar image instead of the stereoscopic image. Thereafter, when the position of the fingertip is included in the control target region, the control unit 110 displays the planar image as a stereoscopic image in step S13.

図10は、本実施形態における画像の表示例を示した図である。制御部110は、検出可能領域においてユーザの指を検出すると、図10(a)に示すように、接触操作により選択可能な平面画像を表示面101に表示させる。ここにおいて、画像Im1は、選択可能なアイコンを表している。その後、ユーザの指を制御対象領域において検出すると、制御部110は、表示面101に表示されていた平面画像を立体表示させる。図10(b)の例は、画像Im1を立体表示させた場合の画像Im2を示したものである。   FIG. 10 is a view showing a display example of an image in the present embodiment. When the control unit 110 detects the user's finger in the detectable region, the control unit 110 displays a planar image that can be selected by the contact operation on the display surface 101 as illustrated in FIG. Here, the image Im1 represents a selectable icon. Thereafter, when the user's finger is detected in the control target area, the control unit 110 displays the planar image displayed on the display surface 101 in a stereoscopic manner. The example of FIG. 10B shows an image Im2 when the image Im1 is stereoscopically displayed.

この例において、制御部110は、近接センサ142から供給された座標情報に基づいて画像Im1を表示させてもよい。例えば、制御部110は、近接センサ142から供給された座標情報のX座標とY座標を特定し、画像Im1の中心が当該座標にあるようにこれを表示させる。また、制御部110は、画像を平面画像から立体画像に切り替えたときには、X座標とY座標とに基づいて画像Im2の表示位置を決定し、Z座標に基づいて画像Im2の飛び出し量を決定してもよい。なお、制御部110は、例えば、あらかじめ決められた特定の位置に平面画像及び立体画像を表示させる、といったように、平面画像及び立体画像の表示位置を座標情報によらずに決定してもよい。   In this example, the control unit 110 may display the image Im1 based on the coordinate information supplied from the proximity sensor 142. For example, the control unit 110 specifies the X coordinate and the Y coordinate of the coordinate information supplied from the proximity sensor 142, and displays this so that the center of the image Im1 is at the coordinate. Further, when the image is switched from the planar image to the stereoscopic image, the control unit 110 determines the display position of the image Im2 based on the X coordinate and the Y coordinate, and determines the pop-out amount of the image Im2 based on the Z coordinate. May be. Note that the control unit 110 may determine the display position of the planar image and the stereoscopic image regardless of the coordinate information, for example, to display the planar image and the stereoscopic image at a predetermined specific position. .

本実施形態の表示態様によれば、視覚効果を平面画像から立体画像へと段階的に変化させることが可能である。そのため、ユーザは、表示面101に指を近づけていったときに突然立体画像を認識するのではなく、最初に平面画像を認識し、その後さらに指を近づけた結果として立体画像を認識することが可能となる。なお、本実施形態の表示態様と第1実施形態の表示態様のいずれを採用するかは、表示する画像の性質やアプリケーションに応じて定めらてもよいし、ユーザが選択可能であってもよい。   According to the display mode of the present embodiment, the visual effect can be changed stepwise from a planar image to a stereoscopic image. Therefore, instead of suddenly recognizing the stereoscopic image when the user brings the finger close to the display surface 101, the user may first recognize the planar image and then recognize the stereoscopic image as a result of further bringing the finger closer. It becomes possible. Note that which of the display mode of the present embodiment and the display mode of the first embodiment is adopted may be determined according to the nature of the image to be displayed and the application, or may be selectable by the user. .

[第3実施形態] [Third Embodiment]

図11は、本実施形態の表示装置100aの構成を示したブロック図である。同図に示すように、表示装置100aは、フィルタ部160を備える点が表示装置100(図2参照)と異なる。フィルタ部160は、座標情報に対してノイズを低減させるためのフィルタ処理を実行する手段である。なお、フィルタ部160は、他の構成要素とは独立したハードウェアであってもよいが、制御部110や操作部140の一機能として実現されてもよい。   FIG. 11 is a block diagram illustrating a configuration of the display device 100a according to the present embodiment. As shown in the figure, the display device 100a is different from the display device 100 (see FIG. 2) in that a filter unit 160 is provided. The filter unit 160 is means for executing a filter process for reducing noise on the coordinate information. Note that the filter unit 160 may be hardware independent of other components, but may be realized as a function of the control unit 110 or the operation unit 140.

フィルタ部160により用いられるフィルタは、具体的には、平滑化フィルタ、メディアンフィルタ、ガウシアンフィルタ、移動平均フィルタなどである。つまり、フィルタ部160は、座標情報により表される座標が短時間に細かく変動する場合に、その変動を抑制するように座標情報を変換する。したがって、ここでいうノイズとは、繰り返し連続的に検出される座標情報を時系列的に表した場合の高周波成分のことである。   Specifically, the filter used by the filter unit 160 is a smoothing filter, a median filter, a Gaussian filter, a moving average filter, or the like. That is, when the coordinates represented by the coordinate information fluctuate finely in a short time, the filter unit 160 converts the coordinate information so as to suppress the fluctuation. Therefore, the noise referred to here is a high-frequency component when coordinate information repeatedly and continuously detected is expressed in time series.

本実施形態の表示装置100aによれば、制御部110が表示制御に用いる場合の指の軌跡を実際の軌跡よりも滑らか(すなわち、位置変動が緩やか)にすることが可能である。これにより、制御部110は、表示面101の画像が立体表示される場合の飛び出し量や位置を急激に(又は頻繁に)変えないようにすることが可能となり、画像がぶれたりしてユーザに見づらくなることを抑えることができるようになる。このような表示制御は、特に、図6のテーブル1の場合のように飛び出し量が連続的に変化する場合に有効である。   According to the display device 100a of the present embodiment, it is possible to make the finger trajectory smoother than the actual trajectory when the control unit 110 is used for display control (that is, the positional variation is gentle). Thus, the control unit 110 can prevent the amount and position of the pop-up when the image on the display surface 101 is stereoscopically displayed from being changed suddenly (or frequently). It becomes possible to suppress being difficult to see. Such display control is particularly effective when the pop-out amount changes continuously as in the case of the table 1 in FIG.

なお、フィルタ部160は、X座標、Y座標、Z座標のそれぞれに対してフィルタ処理を実行してもよいが、Z座標のみに対してフィルタ処理を実行してもよい。また、フィルタ部160は、それぞれの座標に対して実行するフィルタ処理の態様(より具体的には、ノイズを低減させる程度)を座標軸毎に異ならせてもよい。   Note that the filter unit 160 may perform the filtering process on each of the X coordinate, the Y coordinate, and the Z coordinate, but may perform the filtering process only on the Z coordinate. In addition, the filter unit 160 may change the mode of filter processing (more specifically, the degree of noise reduction) to be executed for each coordinate for each coordinate axis.

[第4実施形態]
図12は、本実施形態の制御部110aの機能的構成を示した機能ブロック図である。同図に示すように、制御部110aは、設定部114を備える点において第1実施形態の制御部110(図5参照)と異なる。設定部114は、制御対象領域の範囲を設定する手段である。設定部114は、ユーザの操作を受け付けたり、あるいはあらかじめユーザと対応付けられた設定データを読み出したりすることによって、制御対象領域の範囲を設定することができる。また、本実施形態の判断部112は、設定部114により設定された制御対象領域を用いて指示体の位置の判断を行う。
[Fourth Embodiment]
FIG. 12 is a functional block diagram showing a functional configuration of the control unit 110a of the present embodiment. As shown in the figure, the control unit 110a differs from the control unit 110 (see FIG. 5) of the first embodiment in that it includes a setting unit 114. The setting unit 114 is a means for setting the range of the control target area. The setting unit 114 can set the range of the control target area by receiving a user operation or reading setting data associated with the user in advance. In addition, the determination unit 112 of the present embodiment determines the position of the indicator using the control target region set by the setting unit 114.

図13は、制御対象領域の設定方法の一例を示したフローチャートである。制御部110aは、ユーザの操作によって制御対象領域の範囲を設定する場合、まず、近接操作を検出する。すなわち、制御部110aは、近接センサ142から供給される座標情報により特定される近接操作の位置が検出可能領域に含まれるか否かを判断する(ステップS21)。制御部110aは、指先の位置が検出可能領域に含まれると、その位置に応じた立体画像を表示させる(ステップS22)。このとき、ユーザが指を表示面101に近づけたり遠ざけたりすると、制御部110aは、指と表示面101との距離に応じて立体画像の飛び出し量を変化させる。   FIG. 13 is a flowchart illustrating an example of a method for setting a control target area. When the range of the control target area is set by a user operation, the control unit 110a first detects a proximity operation. That is, the control unit 110a determines whether or not the position of the proximity operation specified by the coordinate information supplied from the proximity sensor 142 is included in the detectable region (step S21). When the position of the fingertip is included in the detectable area, the control unit 110a displays a stereoscopic image corresponding to the position (step S22). At this time, when the user moves his / her finger close to or away from the display surface 101, the control unit 110 a changes the amount of projection of the stereoscopic image according to the distance between the finger and the display surface 101.

ここで、ユーザは、自身が許容できる限界の飛び出し量で立体画像が表示されたときに指を止め、別の指で所定の物理キー143を押下する。制御部110aは、物理キー143が押下されたか否かを判断し(ステップS23)、物理キー143を押下する操作を検出すると、そのとき検出された座標情報を登録データとして記憶部120に一時的に記憶する(ステップS24)。なお、登録データは、制御部110aのRAMに記憶されてもよい。   Here, the user stops his / her finger when the stereoscopic image is displayed with a limit pop-out amount that he can accept, and presses a predetermined physical key 143 with another finger. The control unit 110a determines whether or not the physical key 143 has been pressed (step S23). When the control unit 110a detects an operation of pressing the physical key 143, the control unit 110a temporarily stores the detected coordinate information as registration data in the storage unit 120. (Step S24). Note that the registration data may be stored in the RAM of the control unit 110a.

ユーザは、このような動作を複数回実行することができる。例えば、ユーザは、表示面101の中央付近で登録データを1回登録し、その後、表示面101の四隅付近でそれぞれ登録データを登録する。この場合、登録データは、表示面101上の5点について得られる。制御対象領域の設定に何点の登録データを要するかは、制御部110aによってあらかじめ決められていてもよいが、ユーザが所定の操作を行った時点までとしてもよい。後者の場合には、ユーザは、ステップS23において押下した物理キー143とは異なるキーを押下してもよいし、ステップS23において押下した物理キー143と同じキーを2回押下(いわゆるダブルクリック)してもよい。   The user can execute such an operation a plurality of times. For example, the user registers the registration data once near the center of the display surface 101, and then registers the registration data near the four corners of the display surface 101. In this case, registration data is obtained for five points on the display surface 101. The number of pieces of registration data required for setting the control target area may be determined in advance by the control unit 110a, but may be up to the point when the user performs a predetermined operation. In the latter case, the user may press a key different from the physical key 143 pressed in step S23, or press the same key as the physical key 143 pressed in step S23 twice (so-called double click). May be.

ステップS25において、制御部110aは、必要な数の登録データが登録されたか否かを判断する。上述したように、制御部110aは、登録データが所定の回数登録されたか、あるいはユーザによって所定の操作が行われたかを判断することによってこの処理を行う。制御部110aは、必要な数の登録データが登録されていなければ、ステップS21以降の処理を繰り返す。   In step S25, the control unit 110a determines whether a necessary number of registration data has been registered. As described above, the control unit 110a performs this process by determining whether the registration data has been registered a predetermined number of times or whether a predetermined operation has been performed by the user. If the necessary number of registration data is not registered, the control unit 110a repeats the processing from step S21.

必要な数の登録データが登録されていれば、制御部110aは、登録データの座標情報に基づいて適当な補間処理を実行し、制御対象領域を決定する(ステップS26)。制御部110aは、このようにして決定された制御対象領域を設定データとして記憶部120に記録する(ステップS27)。制御部110aは、設定データを記録したら、登録データを消去してもよい。   If the necessary number of registration data has been registered, the control unit 110a performs an appropriate interpolation process based on the coordinate information of the registration data, and determines a control target area (step S26). The control unit 110a records the control target area determined in this way as setting data in the storage unit 120 (step S27). The controller 110a may delete the registered data after recording the setting data.

複数の登録データを用いることで、制御対象領域をさまざまな形状とすることが可能である。例えば、上述した設定方法によれば、表示面101の中央のZ座標が大きく、四隅のZ座標が小さい制御対象領域、すなわち、中央部分がユーザ側に膨らんだような制御対象領域を設定することが可能である。このような制御対象領域によれば、より自然な立体視を実現することが可能である。
なお、登録データは、1回のみ登録されてもよい。この場合、制御対象領域は、表示面101の全体についてZ座標が一定となり、その形状が直方体となる。
By using a plurality of registered data, it is possible to make the control target area have various shapes. For example, according to the setting method described above, a control target region having a large Z coordinate at the center of the display surface 101 and a small Z coordinate at the four corners, that is, a control target region in which the central portion swells toward the user side is set. Is possible. According to such a control target area, it is possible to realize more natural stereoscopic vision.
Note that the registration data may be registered only once. In this case, the control target area has a constant Z coordinate for the entire display surface 101, and the shape thereof is a rectangular parallelepiped.

本実施形態によれば、ユーザ毎に制御対象領域を設定することが可能であり、例えば、同一の表示装置100を複数のユーザが使用する場合であっても、それぞれのユーザに応じた制御対象領域を用いて立体表示を行うことが可能である。また、設定データをUIMカードに記録したり、あるいは通信部150を介して外部のサーバ装置に記録したりすることによって、同一のユーザが複数の表示装置100で同様の制御対象領域を使用することも可能である。なお、ユーザの識別は、周知の認証方法によって行えばよい。   According to the present embodiment, it is possible to set a control target area for each user. For example, even when a plurality of users use the same display device 100, a control target corresponding to each user is used. It is possible to perform stereoscopic display using the region. In addition, the same user uses the same control target area on the plurality of display devices 100 by recording the setting data on the UIM card or on the external server device via the communication unit 150. Is also possible. In addition, what is necessary is just to perform a user identification by the known authentication method.

なお、制御対象領域の設定方法は、この例に限らず、例えば、ユーザがテンキー等によってZ座標を直接入力するものであってもよい。また、制御部110aは、上述したテーブル1のnの値についてもユーザに設定可能にしてもよい。   Note that the method for setting the control target area is not limited to this example. For example, the user may directly input the Z coordinate using a numeric keypad. The control unit 110a may also allow the user to set the value of n in the table 1 described above.

[変形例]
本発明は、上述した各実施形態の態様に限らず、他の態様でも実施することができる。本発明は、例えば、以下の変形例に示す態様によっても実施可能である。なお、本発明は、これら複数の変形例を組み合わせた態様で実施されてもよいし、上述した各実施形態の特徴を複数組み合わせた態様で実施されてもよい。
[Modification]
The present invention is not limited to the aspect of each embodiment described above, and can be implemented in other aspects. The present invention can also be implemented, for example, by the modes shown in the following modifications. In addition, this invention may be implemented in the aspect which combined these some modified examples, and may be implemented in the aspect which combined multiple characteristics of each embodiment mentioned above.

(1)本発明の指示体は、上述したように、スタイラス等のユーザが手に持って動かす指示用の器具であってもよい。このような指示体を用いる場合の操作手段は、指示体の位置を赤外線や超音波によって検出するものであってもよい。また、先端に磁性体を備える指示体を用いた場合には、指示体の位置を磁気的に検出することも可能である。 (1) As described above, the indicator of the present invention may be an instruction device such as a stylus that the user holds and moves. The operating means in the case of using such an indicator may detect the position of the indicator with infrared rays or ultrasonic waves. In addition, when an indicator having a magnetic body at the tip is used, the position of the indicator can be detected magnetically.

(2)本発明の操作手段は、接触操作を検出するセンサと近接操作を検出するセンサとを別個に備える構成ではなく、接触操作と近接操作を単一のセンサによって検出する構成であってもよい。 (2) The operation means of the present invention is not configured to separately include a sensor for detecting the contact operation and a sensor for detecting the proximity operation, but may be configured to detect the contact operation and the proximity operation with a single sensor. Good.

(3)本発明の表示制御装置は、上述した実施形態のように表示装置100の構成の一部であってもよいが、表示装置と、表示装置とは独立に設けられた他の装置との協働によって実現されてもよい。例えば、本発明は、いわゆるデスクトップPCのように本体と表示装置とが分かれた構成の場合には、操作手段を表示装置側に備え、他の手段(判別手段、特定手段、表示制御手段など)を本体側に備えるようにしてもよい。 (3) The display control device of the present invention may be a part of the configuration of the display device 100 as in the above-described embodiment, but the display device and other devices provided independently of the display device It may be realized by cooperation. For example, in the case of a configuration in which the main body and the display device are separated as in a so-called desktop PC, the present invention is provided with operation means on the display device side and other means (discriminating means, specifying means, display control means, etc.) May be provided on the main body side.

あるいは、本発明の表示制御装置は、操作手段に代えて、操作手段から供給された座標情報を取得する手段(データ取得部111)を備えるものであってもよい。すなわち、本発明の表示制御装置は、上述した制御部110のみによって構成することも可能である。また、このような表示制御装置は、これをコンピュータに実現させるためのプログラムや、かかるプログラムを記録した記録媒体の形態でも実施され得る。   Or the display control apparatus of this invention may be provided with the means (data acquisition part 111) which replaces with an operation means and acquires the coordinate information supplied from the operation means. That is, the display control apparatus of the present invention can be configured only by the control unit 110 described above. Further, such a display control apparatus can be implemented in the form of a program for causing a computer to realize this and a recording medium on which such a program is recorded.

100、100a…表示装置、101…表示面、110、110a…制御部、111…データ取得部、112…判断部、113…表示制御部、114…設定部、120…記憶部、130…表示部、140…操作部、141…接触センサ、142…近接センサ、143…物理キー、150…通信部、160…フィルタ部 DESCRIPTION OF SYMBOLS 100, 100a ... Display apparatus, 101 ... Display surface, 110, 110a ... Control part, 111 ... Data acquisition part, 112 ... Judgment part, 113 ... Display control part, 114 ... Setting part, 120 ... Storage part, 130 ... Display part , 140 ... operation part, 141 ... contact sensor, 142 ... proximity sensor, 143 ... physical key, 150 ... communication part, 160 ... filter part

Claims (9)

表示面上のあらかじめ決められた検出可能領域において、当該表示面を指し示す指示体の位置を検出してユーザの操作を受け付ける操作手段と、
前記検出可能領域内の前記表示面寄りに設定され、前記表示面に垂直な方向の高さが前記検出可能領域よりも小さい制御対象領域に、前記操作手段により検出された位置が含まれるか否かを判断する判断手段と、
前記判断手段による判断結果に応じて、ユーザに立体視される立体画像を含む画像を前記表示面に表示させる表示制御手段とを備え、
前記表示制御手段は、
前記操作手段により検出された位置が前記制御対象領域に含まれると判断された場合には、前記立体画像を当該検出された位置に応じた表示態様で表示させ、前記操作手段により検出された位置が前記制御対象領域に含まれないと判断された場合には、前記立体画像を表示させない
ことを特徴とする表示制御装置。
An operation means for detecting a position of an indicator pointing to the display surface and receiving a user operation in a predetermined detectable region on the display surface;
Whether or not the position detected by the operation means is included in a control target area that is set closer to the display surface in the detectable area and whose height in the direction perpendicular to the display surface is smaller than the detectable area A judging means for judging whether or not
Display control means for displaying an image including a stereoscopic image stereoscopically viewed by the user on the display surface according to a determination result by the determination means;
The display control means includes
When it is determined that the position detected by the operation means is included in the control target area, the stereoscopic image is displayed in a display mode corresponding to the detected position, and the position detected by the operation means The display control device is characterized in that the stereoscopic image is not displayed when it is determined that is not included in the control target area.
前記指示体の位置と前記立体画像の表示態様の関連付けを記憶する記憶手段を備え、
前記表示制御手段は、
前記記憶手段に記憶された関連付けを用いて、前記操作手段により検出された位置に応じた表示態様で前記立体画像を表示させる
ことを特徴とする請求項1に記載の表示制御装置。
Storage means for storing the association between the position of the indicator and the display mode of the stereoscopic image;
The display control means includes
The display control apparatus according to claim 1, wherein the stereoscopic image is displayed in a display mode corresponding to the position detected by the operation unit, using the association stored in the storage unit.
前記判断手段は、
当該装置のユーザ又は当該装置において実行されているアプリケーションに応じて前記制御対象領域の範囲を異ならせる
ことを特徴とする請求項1又は2に記載の表示制御装置。
The determination means includes
The display control apparatus according to claim 1, wherein the range of the control target area is made different depending on a user of the apparatus or an application being executed on the apparatus.
前記制御対象領域の範囲を設定する設定手段を備え、
前記判断手段は、
前記設定手段により設定された制御対象領域を用いて判断を行う
ことを特徴とする請求項1ないし3のいずれかに記載の表示制御装置。
Comprising setting means for setting a range of the control target area;
The determination means includes
The display control apparatus according to claim 1, wherein the determination is performed using the control target area set by the setting unit.
前記操作手段により検出された位置を表す座標情報に対してノイズを低減するフィルタ処理を実行するフィルタ手段を備え、
前記表示制御手段は、
前記フィルタ手段によりフィルタ処理が実行された座標情報に基づいて前記表示面の表示を制御する
ことを特徴とする請求項1ないし4のいずれかに記載の表示制御装置。
Filter means for performing a filter process for reducing noise on the coordinate information representing the position detected by the operation means,
The display control means includes
The display control apparatus according to any one of claims 1 to 4, wherein display of the display surface is controlled based on coordinate information on which filtering processing has been performed by the filter means.
前記表示制御手段は、
前記操作手段により検出された位置に応じて、前記立体画像の表示位置を異ならせる
ことを特徴とする請求項1ないし5のいずれかに記載の表示制御装置。
The display control means includes
The display control apparatus according to claim 1, wherein a display position of the stereoscopic image is varied according to a position detected by the operation unit.
前記操作手段は、前記指示体を前記表示面に接触させる接触操作を検出する第1のセンサと、前記指示体を前記接触面に接触させずに近接させる近接操作を検出する第2のセンサとを備える
ことを特徴とする請求項1ないし6のいずれかに記載の表示制御装置。
The operation means includes: a first sensor that detects a contact operation that causes the indicator to contact the display surface; and a second sensor that detects a proximity operation that causes the indicator to approach without contacting the contact surface. The display control apparatus according to claim 1, further comprising:
前記操作手段は、前記指示体を前記表示面に接触させる接触操作と前記指示体を前記接触面に接触させずに近接させる近接操作とを検出する単一のセンサを備える
ことを特徴とする請求項1ないし6のいずれかに記載の表示制御装置。
The operation means includes a single sensor that detects a contact operation in which the indicator is brought into contact with the display surface and a proximity operation in which the indicator is brought into proximity without being brought into contact with the contact surface. Item 7. The display control device according to any one of Items 1 to 6.
表示面上のあらかじめ決められた検出可能領域において、当該表示面を指し示す指示体の位置を検出してユーザの操作を受け付ける第1のステップと、
前記検出可能領域内の前記表示面寄りに設定され、前記表示面に垂直な方向の高さが前記検出可能領域よりも小さい制御対象領域に、前記第1のステップにおいて検出された位置が含まれるか否かを判断する第2のステップと、
前記第2のステップにおける判断結果に応じて、ユーザに立体視される立体画像を含む画像を前記表示面に表示させる第3のステップであって、前記第1のステップにおいて検出された位置が前記制御対象領域に含まれると判断された場合には、前記立体画像を当該検出された位置に応じた表示態様で表示させ、前記第1のステップにおいて検出された位置が前記制御対象領域に含まれないと判断された場合には、前記立体画像を表示させない第3のステップと
を有することを特徴とする表示制御方法。
A first step of receiving a user operation by detecting a position of an indicator pointing to the display surface in a predetermined detectable region on the display surface;
The position detected in the first step is included in the control target region that is set closer to the display surface in the detectable region and whose height in the direction perpendicular to the display surface is smaller than the detectable region. A second step of determining whether or not
According to the determination result in the second step, a third step of displaying an image including a stereoscopic image stereoscopically viewed by the user on the display surface, wherein the position detected in the first step is the When it is determined that the image is included in the control target area, the stereoscopic image is displayed in a display mode corresponding to the detected position, and the position detected in the first step is included in the control target area. A display control method, comprising: a third step of not displaying the stereoscopic image when it is determined that the stereoscopic image is not displayed.
JP2011108665A 2011-05-13 2011-05-13 Display control apparatus and display control method Expired - Fee Related JP5801604B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011108665A JP5801604B2 (en) 2011-05-13 2011-05-13 Display control apparatus and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011108665A JP5801604B2 (en) 2011-05-13 2011-05-13 Display control apparatus and display control method

Publications (2)

Publication Number Publication Date
JP2012244187A true JP2012244187A (en) 2012-12-10
JP5801604B2 JP5801604B2 (en) 2015-10-28

Family

ID=47465479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011108665A Expired - Fee Related JP5801604B2 (en) 2011-05-13 2011-05-13 Display control apparatus and display control method

Country Status (1)

Country Link
JP (1) JP5801604B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014222848A (en) * 2013-05-14 2014-11-27 株式会社東芝 Image processing apparatus, method, and program
JP2017056933A (en) * 2015-09-18 2017-03-23 株式会社リコー Information display device, information providing system, mobile device, information display method, and program
US10884243B2 (en) 2016-07-14 2021-01-05 Ricoh Company, Ltd. Display apparatus, movable body apparatus, producing method of the display apparatus, and display method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003005912A (en) * 2001-06-20 2003-01-10 Hitachi Ltd Display device with touch panel and display method
JP2004280496A (en) * 2003-03-17 2004-10-07 Kyocera Mita Corp Operation panel device
JP2007052497A (en) * 2005-08-15 2007-03-01 Sony Corp Display device
JP2009116769A (en) * 2007-11-09 2009-05-28 Sony Corp Input device, control method for input device and program
WO2010113397A1 (en) * 2009-03-31 2010-10-07 三菱電機株式会社 Display input device
JP2011013778A (en) * 2009-06-30 2011-01-20 Sony Corp Stereoscopic image display device, object proximity detection device and electronic apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003005912A (en) * 2001-06-20 2003-01-10 Hitachi Ltd Display device with touch panel and display method
JP2004280496A (en) * 2003-03-17 2004-10-07 Kyocera Mita Corp Operation panel device
JP2007052497A (en) * 2005-08-15 2007-03-01 Sony Corp Display device
JP2009116769A (en) * 2007-11-09 2009-05-28 Sony Corp Input device, control method for input device and program
WO2010113397A1 (en) * 2009-03-31 2010-10-07 三菱電機株式会社 Display input device
JP2011013778A (en) * 2009-06-30 2011-01-20 Sony Corp Stereoscopic image display device, object proximity detection device and electronic apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014222848A (en) * 2013-05-14 2014-11-27 株式会社東芝 Image processing apparatus, method, and program
JP2017056933A (en) * 2015-09-18 2017-03-23 株式会社リコー Information display device, information providing system, mobile device, information display method, and program
WO2017047079A1 (en) * 2015-09-18 2017-03-23 Ricoh Company, Ltd. Information display apparatus, information provision system, moving object device, information display method, and recording medium
US10549638B2 (en) 2015-09-18 2020-02-04 Ricoh Company, Ltd. Information display apparatus, information provision system, moving object device, information display method, and recording medium
US10884243B2 (en) 2016-07-14 2021-01-05 Ricoh Company, Ltd. Display apparatus, movable body apparatus, producing method of the display apparatus, and display method

Also Published As

Publication number Publication date
JP5801604B2 (en) 2015-10-28

Similar Documents

Publication Publication Date Title
US11360558B2 (en) Computer systems with finger devices
US9651989B2 (en) Mobile terminal
CN104915136B (en) Mobile terminal and its control method
US9746928B2 (en) Display device and control method thereof
US10776618B2 (en) Mobile terminal and control method therefor
EP2783472B1 (en) Apparatus and method for providing dynamic fiducial markers for devices
KR101784328B1 (en) Augmented reality surface displaying
KR102304082B1 (en) Apparatus and method for controlling displays
US8780076B2 (en) Mobile terminal and method for controlling the same
CN115720651A (en) Augmented reality experience with object manipulation
JP2019175510A (en) Head mounted display, information processing method, and program
JP6547741B2 (en) INFORMATION PROCESSING SYSTEM AND INFORMATION PROCESSING METHOD
KR20100027976A (en) Gesture and motion-based navigation and interaction with three-dimensional virtual content on a mobile device
US8797317B2 (en) Mobile terminal and control method thereof
US20160266652A1 (en) Mobile terminal and method of controlling the same
KR102099834B1 (en) Electric device and operation method thereof
US20160132189A1 (en) Method of controlling the display of images and electronic device adapted to the same
WO2012144559A1 (en) Display control device and display control method
JP6012068B2 (en) Electronic device, control method thereof, and program
JP2012108723A (en) Instruction reception device
CN105824531A (en) Method and device for adjusting numbers
KR20150130808A (en) Method and apparatus of identifying spatial gesture of user
CN105808015A (en) Peep-proof user interaction device and peep-proof user interaction method
CN117916777A (en) Hand-made augmented reality endeavor evidence
JP5801604B2 (en) Display control apparatus and display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150827

R150 Certificate of patent or registration of utility model

Ref document number: 5801604

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees