JP2012244187A - Display control device and display control method - Google Patents
Display control device and display control method Download PDFInfo
- Publication number
- JP2012244187A JP2012244187A JP2011108665A JP2011108665A JP2012244187A JP 2012244187 A JP2012244187 A JP 2012244187A JP 2011108665 A JP2011108665 A JP 2011108665A JP 2011108665 A JP2011108665 A JP 2011108665A JP 2012244187 A JP2012244187 A JP 2012244187A
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- user
- display surface
- display control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、表示面に立体画像を表示する場合の表示制御に関する。 The present invention relates to display control when a stereoscopic image is displayed on a display surface.
画像の立体視を可能にする表示装置において、立体的に見える画像の表示をユーザの操作に応じて制御する技術が知られている。例えば、特許文献1には、被検出体(ユーザの手等)の位置を検出し、被検出体の位置に追随させるように浮遊画像を表示させるための技術が記載されている。
In a display device that enables stereoscopic viewing of an image, a technique for controlling display of a stereoscopically visible image according to a user operation is known. For example,
臨場感やエンタテインメント性を追求した場合、立体表現の程度は強くなりがちである。しかしながら、立体視の見え方の程度は、ユーザの両眼の間隔をはじめとする個人差に大きく依存する。したがって、過度な立体表現は、人によっては不快感を催したり、目や脳に必要以上の負担を与えることがある。そのため、関連する各種メーカーや業界団体等においては、快適な立体視を実現するための基準や指針が定められている(例えば、非特許文献1参照)。 When pursuing a sense of reality and entertainment, the degree of three-dimensional expression tends to be strong. However, the degree of stereoscopic vision greatly depends on individual differences including the distance between the eyes of the user. Therefore, excessive three-dimensional expression may cause discomfort in some people and may place an unnecessary burden on the eyes and brain. For this reason, various manufacturers and industry groups have established standards and guidelines for realizing comfortable stereoscopic vision (see, for example, Non-Patent Document 1).
立体表示をユーザの操作に連動して制御する場合には、一般に、立体感と操作の連動性に重きが置かれる。しかし、立体感と操作の連動性を重視すると、ユーザの快適さが犠牲になるおそれがある。
そこで、本発明は、ユーザに過大な負荷を与えないように立体表示を制限できるようにすることを目的とする。
When controlling stereoscopic display in conjunction with a user's operation, in general, emphasis is placed on the linkage between the stereoscopic effect and the operation. However, if importance is attached to the linkage between the three-dimensional effect and the operation, the user's comfort may be sacrificed.
SUMMARY OF THE INVENTION An object of the present invention is to make it possible to limit stereoscopic display so as not to give an excessive load to the user.
本発明の一態様に係る表示制御装置は、表示面上のあらかじめ決められた検出可能領域において、当該表示面を指し示す指示体の位置を検出してユーザの操作を受け付ける操作手段と、前記検出可能領域内の前記表示面寄りに設定され、前記表示面に垂直な方向の高さが前記検出可能領域よりも小さい制御対象領域に、前記操作手段により検出された位置が含まれるか否かを判断する判断手段と、前記判断手段による判断結果に応じて、ユーザに立体視される立体画像を含む画像を前記表示面に表示させる表示制御手段とを備え、前記表示制御手段は、前記操作手段により検出された位置が前記制御対象領域に含まれると判断された場合には、前記立体画像を当該検出された位置に応じた表示態様で表示させ、前記操作手段により検出された位置が前記制御対象領域に含まれないと判断された場合には、前記立体画像を表示させない構成を有する。 The display control device according to an aspect of the present invention includes an operation unit that detects a position of a pointer pointing to the display surface and receives a user operation in a predetermined detectable region on the display surface; It is determined whether or not the position detected by the operating means is included in a control target area that is set closer to the display surface in the area and whose height in the direction perpendicular to the display surface is smaller than the detectable area And a display control unit that displays an image including a stereoscopic image stereoscopically viewed by a user on the display surface in accordance with a determination result by the determination unit, and the display control unit is configured by the operation unit. When it is determined that the detected position is included in the control target region, the stereoscopic image is displayed in a display mode corresponding to the detected position, and is detected by the operation unit. If the location is determined not to be included in the control region has a structure in which the not displayed stereoscopic image.
好ましい態様において、前記表示制御装置は、前記指示体の位置と前記立体画像の表示態様の関連付けを記憶する記憶手段を備え、前記表示制御手段は、前記記憶手段に記憶された関連付けを用いて、前記操作手段により検出された位置に応じた表示態様で前記立体画像を表示させる。
別の好ましい態様において、前記判断手段は、当該装置のユーザ又は当該装置において実行されているアプリケーションに応じて前記制御対象領域の範囲を異ならせる。
さらに別の好ましい態様において、前記表示制御装置は、前記制御対象領域の範囲を設定する設定手段を備え、前記判断手段は、前記設定手段により設定された制御対象領域を用いて判断を行う。
さらに別の好ましい態様において、前記表示制御装置は、前記操作手段により検出された位置を表す座標情報に対してノイズを低減するフィルタ処理を実行するフィルタ手段を備え、前記表示制御手段は、前記フィルタ手段によりフィルタ処理が実行された座標情報に基づいて前記表示面の表示を制御する。
さらに別の好ましい態様において、前記表示制御手段は、前記操作手段により検出された位置に応じて、前記立体画像の表示位置を異ならせる。
さらに別の好ましい態様において、前記操作手段は、前記指示体を前記表示面に接触させる接触操作を検出する第1のセンサと、前記指示体を前記接触面に接触させずに近接させる近接操作を検出する第2のセンサとを備える。
さらに別の好ましい態様において、前記操作手段は、前記指示体を前記表示面に接触させる接触操作と前記指示体を前記接触面に接触させずに近接させる近接操作とを検出する単一のセンサを備える。
In a preferred aspect, the display control device includes storage means for storing an association between the position of the indicator and the display form of the stereoscopic image, and the display control means uses the association stored in the storage means, The stereoscopic image is displayed in a display mode corresponding to the position detected by the operation means.
In another preferable aspect, the determination unit varies the range of the control target area according to a user of the apparatus or an application being executed in the apparatus.
In still another preferred aspect, the display control device includes setting means for setting a range of the control target area, and the determination means makes a determination using the control target area set by the setting means.
In still another preferred aspect, the display control device includes a filter unit that performs a filter process for reducing noise with respect to coordinate information representing a position detected by the operation unit, and the display control unit includes the filter The display on the display surface is controlled based on the coordinate information that has been filtered by the means.
In still another preferred aspect, the display control means changes the display position of the stereoscopic image according to the position detected by the operation means.
In still another preferred embodiment, the operating means includes a first sensor that detects a contact operation in which the indicator is brought into contact with the display surface, and a proximity operation in which the indicator is brought into proximity without being brought into contact with the contact surface. And a second sensor for detection.
In still another preferred embodiment, the operation means includes a single sensor that detects a contact operation for bringing the indicator into contact with the display surface and a proximity operation for bringing the indicator in proximity without contacting the contact surface. Prepare.
本発明の他の態様に係る表示制御方法は、表示面上のあらかじめ決められた検出可能領域において、当該表示面を指し示す指示体の位置を検出してユーザの操作を受け付ける第1のステップと、前記検出可能領域内の前記表示面寄りに設定され、前記表示面に垂直な方向の高さが前記検出可能領域よりも小さい制御対象領域に、前記第1のステップにおいて検出された位置が含まれるか否かを判断する第2のステップと、前記第2のステップにおける判断結果に応じて、ユーザに立体視される立体画像を含む画像を前記表示面に表示させる第3のステップであって、前記第1のステップにおいて検出された位置が前記制御対象領域に含まれると判断された場合には、前記立体画像を当該検出された位置に応じた表示態様で表示させ、前記第1のステップにおいて検出された位置が前記制御対象領域に含まれないと判断された場合には、前記立体画像を表示させない第3のステップとを有する。 A display control method according to another aspect of the present invention includes a first step of receiving a user operation by detecting a position of an indicator pointing to the display surface in a predetermined detectable region on the display surface; The position detected in the first step is included in the control target region that is set closer to the display surface in the detectable region and whose height in the direction perpendicular to the display surface is smaller than the detectable region. A second step of determining whether or not, and a third step of displaying an image including a stereoscopic image stereoscopically viewed by the user on the display surface according to a determination result in the second step, When it is determined that the position detected in the first step is included in the control target region, the stereoscopic image is displayed in a display mode corresponding to the detected position, and the first When the detected position in step is determined to not be included in the control target region, and a third step of not displaying the stereoscopic image.
本発明によれば、ユーザに過大な負荷を与えないように立体表示を制限することが可能である。 According to the present invention, it is possible to limit stereoscopic display so as not to give an excessive load to the user.
[発明の要旨]
本発明は、表示面に対するユーザの操作を3次元的に検出し、その操作に応じた立体表示を実現する表示装置において、立体視に係る操作を受け付けることができる領域(以下「制御対象領域」という。)の範囲を、表示装置が操作を受け付けることができる領域(以下「検出可能領域」という。)の範囲よりも表示面寄りに小さく設定できるようにし、立体表示を制限できるようにしたことを特徴とするものである。検出可能領域は、表示装置の固有の性能としてあらかじめハードウェア的に決められているものである。一方、制御対象領域は、ソフトウェア的に設定することができるものである。すなわち、本発明は、ハードウェア的に決められた検出可能領域に対して、制御対象領域によってソフトウェア的に制限を加えることを特徴とするものであるともいえる。
[Summary of the Invention]
The present invention detects a user's operation on a display surface three-dimensionally, and in a display device that realizes stereoscopic display according to the operation, an area (hereinafter referred to as “control target area”) that can accept an operation related to stereoscopic viewing. )) Can be set closer to the display surface than the area in which the display device can accept operations (hereinafter referred to as “detectable area”), and stereoscopic display can be restricted. It is characterized by. The detectable area is determined in advance as hardware as the inherent performance of the display device. On the other hand, the control target area can be set by software. That is, it can be said that the present invention is characterized in that the detectable area determined in hardware is limited in software by the control target area.
本発明の立体表示は、指示体を用いたユーザの操作に基づいて行われる。ここにおいて、指示体とは、ユーザが表示面を指し示す操作を行うための身体の部位又は器具をいい、例えば、ユーザの指やスタイラス(スタイラスペン)である。例えば、本発明の立体表示は、指示体と表示面との距離に応じて制御され、アイコン等の画像がユーザの指の近くにあるように表示される。この場合、画像の飛び出し量は、指が表示面から遠いと大きくなり、指が表示面に近いと小さくなる。つまり、ここでいう飛び出し量は、その値が大きいほど立体感があり、よりユーザの近くに知覚されることを意味する。 The three-dimensional display of the present invention is performed based on a user operation using an indicator. Here, the indicator refers to a body part or an instrument for the user to perform an operation pointing to the display surface, and is, for example, a user's finger or a stylus (stylus pen). For example, the stereoscopic display of the present invention is controlled according to the distance between the indicator and the display surface, and is displayed so that an image such as an icon is near the user's finger. In this case, the pop-out amount of the image increases when the finger is far from the display surface, and decreases when the finger is close to the display surface. In other words, the pop-out amount here means that the larger the value is, the more the stereoscopic effect is felt and the closer the user is perceived.
本発明の表示装置は、このような表示制御を、指示体を検出可能領域内で検出した場合に実行する一方、指示体を検出可能領域内で検出しなかった場合には実行しない。このようにすることで、過度な立体表示を抑制し、ユーザに過大な負荷を与えないようにすることが可能となる。 The display device of the present invention executes such display control when the indicator is detected in the detectable region, but does not execute when the indicator is not detected within the detectable region. By doing in this way, it becomes possible to suppress an excessive three-dimensional display and not to give an excessive load to a user.
しかし、立体表示が過剰であるか否かは、ユーザの主観にも依存し、個人差を含み得るものである。そこで、本発明の表示装置は、検出可能領域や画像の飛び出し量をユーザ毎に設定できるようにし、各ユーザにとって最適な立体表示が行えるように構成されてもよい。また、検出可能領域や画像の飛び出し量は、表示装置が実行するアプリケーション(立体表示の対象となる画像を表示させるアプリケーション)毎に設定されてもよい。 However, whether or not the stereoscopic display is excessive depends on the subjectivity of the user and may include individual differences. Therefore, the display device of the present invention may be configured so that the detectable region and the pop-out amount of the image can be set for each user so that the optimum stereoscopic display can be performed for each user. Further, the detectable area and the amount of popping out of the image may be set for each application executed by the display device (an application for displaying an image that is a target of stereoscopic display).
なお、検出可能領域をユーザ自身が設定できる場合には、必ずしも、制御対象領域は検出可能領域よりも小さくなくてもよい。つまり、制御対象領域は、検出可能領域と同じ大きさで設定可能であってもよい。なぜならば、そのような検出可能領域に基づいて立体表示がされたとしても、立体視することが負担にならないユーザも存在するからである。このようなユーザに対しては、ソフトウェア的な制限によらずに、ハードウェア的に可能な範囲で立体感を与えたとしても、当該ユーザの快適さを損なうことがない。 When the user can set the detectable area, the control target area is not necessarily smaller than the detectable area. That is, the control target area may be set with the same size as the detectable area. This is because there are some users who are not burdened with stereoscopic viewing even when stereoscopic display is performed based on such a detectable region. For such a user, even if a stereoscopic effect is given to the extent possible in hardware without being limited by software, the comfort of the user is not impaired.
また、本発明において、立体視を実現する具体的な方法は、特に限定されず、周知のさまざまな方法を用いることができる。立体視を実現する方法には、専用の眼鏡等の補助的な器具を装着するもの(アクティブシャッター方式、偏光方式など)と、かかる器具を要しないもの(視差バリア方式、レンチキュラー方式など)とがあるが、本発明はこれらのいずれの方法を用いても実施可能である。 In the present invention, a specific method for realizing stereoscopic vision is not particularly limited, and various known methods can be used. There are two methods for realizing stereoscopic vision: one that uses auxiliary equipment such as special glasses (active shutter method, polarization method, etc.) and one that does not require such equipment (parallax barrier method, lenticular method, etc.). However, the present invention can be implemented using any of these methods.
なお、制御対象領域は、例えば次のようにして決定することが可能である。
図14は、画像中のオブジェクトの深度と視差との関係を説明するための模式図であり、表示面に平行な方向から見たときの様子を示した図である。同図において、利用者の視点から見たときの表示面の左右方向のサイズをs[cm]、左右の目の間隔をe[cm]、表示面から左右の目を結んだ線分までの距離(視距離)をd[cm]とする。また、立体画像から特定し得る深度情報から、その立体画像に含まれるオブジェクトの表示面からの最大飛び出し量をp[cm]とし、最大奥行き量をq[cm]とする。また、この立体画像によって実現される仮想的な3次元空間において、飛び出し量が最も大きい(深度が浅い)点と、奥行き量が最も大きい(深度が深い)点と、表示面上の点とに対する輻輳角をそれぞれα、β、γとする。
The control target area can be determined as follows, for example.
FIG. 14 is a schematic diagram for explaining the relationship between the depth of an object in an image and parallax, and shows a state when viewed from a direction parallel to the display surface. In the figure, the horizontal size of the display surface when viewed from the user's viewpoint is s [cm], the distance between the left and right eyes is e [cm], and the line segment connecting the left and right eyes from the display surface. The distance (viewing distance) is d [cm]. Further, from the depth information that can be specified from the stereoscopic image, the maximum protrusion amount from the display surface of the object included in the stereoscopic image is p [cm], and the maximum depth amount is q [cm]. Further, in the virtual three-dimensional space realized by this stereoscopic image, the point with the largest pop-out amount (the shallow depth), the point with the largest depth amount (the deep depth), and the point on the display surface Let the convergence angles be α, β, and γ, respectively.
制御対象領域は、例えば、3Dコンソーシアムのガイドライン(非特許文献1)で定義される「快適な立体視」が可能となる視差量に基づいて求めることができる。図14において、輻輳角の差の絶対値|α−γ|及び|γ−β|を視差角と呼ぶ。上記ガイドラインにおいては、これらを各々1度以内にすることが推奨されている。また、同様に、輻輳角の差|α−β|も1度以内であることが推奨されている。ここで、図14において、輻輳角の差が1度以内という上記ガイドラインに基づくと、α=γ+1が限界条件であるから、制御対象領域は、pがp=d{tan(γ/2)/tan(γ+1/2)−1}を満たすような範囲に設定されればよい。 The control target area can be obtained based on the amount of parallax that enables “comfortable stereoscopic vision” defined by a 3D consortium guideline (Non-Patent Document 1), for example. In FIG. 14, the absolute values | α−γ | and | γ−β | of the difference in convergence angle are called parallax angles. In the above guidelines, it is recommended that these be within 1 degree each. Similarly, the convergence angle difference | α−β | is also recommended to be within 1 degree. Here, in FIG. 14, based on the above guideline that the difference in convergence angle is within 1 degree, since α = γ + 1 is a limit condition, the control target region has p = p {d (tan (γ / 2) / What is necessary is just to set to the range which satisfy | fills tan ((gamma) +1/2) -1}.
[第1実施形態]
図1は、本発明の一実施形態である表示装置100の外観を示した図である。表示装置100は、ユーザが表示面101に対して操作を行うことができる情報処理装置であり、例えば、携帯電話機、スマートフォン、PDA(Personal Digital Assistant)、タブレットPC(Personal Computer)又はスレートPC、ゲーム機、電子ブックリーダなどである。表示面101は、画像を表示する面であるとともに、ユーザの操作を受け付ける面でもある。また、表示装置100は、ユーザの手の指先の位置を検出できるように構成されている。すなわち、本実施形態の検出対象たる指示体は、ユーザの指である。なお、説明の便宜上、以下においては、図1に図示された面、すなわち表示面101を有する面のことを「正面」という。
[First Embodiment]
FIG. 1 is a diagram illustrating an appearance of a
図2は、表示装置100のハードウェア構成を示したブロック図である。表示装置100は、同図に示すように、制御部110と、記憶部120と、表示部130と、操作部140と、通信部150とを備える。なお、表示部130と操作部140は、一体的に構成されていてもよいし、分離されていてもよい。また、通信部150は、本発明に必須の構成要素ではない。
FIG. 2 is a block diagram illustrating a hardware configuration of the
制御部110は、表示装置100の各部の動作を制御する手段である。制御部110は、CPU(Central Processing Unit)等の演算処理装置や、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置を備え、ROM又は記憶部120に記憶されたプログラムを実行することによって表示部130の表示制御や通信部150の通信制御を実現する。また、制御部110は、画像を立体表示するための画像処理機能を有する。この画像処理機能は、例えば、元の画像から後述する右目用の画像と左目用の画像とをそれぞれ生成する機能である。
The
記憶部120は、制御部110が制御に用いるデータを記憶する手段である。記憶部120は、ハードディスクやフラッシュメモリによって構成される。記憶部120は、いわゆるリムーバブルメディア、すなわち着脱可能な記憶手段を含んでもよい。また、記憶部120は、UIM(User Identity Module)カードのようなユーザを識別する情報が記憶された記憶手段を含んでもよい。記憶部120には、後述する表示制御テーブルが記憶されている。
The
表示部130は、表示面101に画像を表示する手段である。表示部130は、液晶素子や有機EL(electroluminescence)素子により画像を表示する表示パネルと、この表示パネルを駆動する駆動回路等を備える。表示面101は、ここでは長方形であるとし、この長方形の短辺と長辺に沿って画素がマトリクス状に配置されているものとする。この表示面101に対しては、図1に示すように、適当な位置(ここでは左上端)を原点Oとした3次元直交座標系が定義されているものとする。ここでは、表示面101の長辺方向にX軸、表示面101の短辺方向にY軸をそれぞれ定義し、X軸及びY軸と直交する表示面101に垂直な方向にZ軸を定義する。なお、Z軸は、表示面101の表面を原点とし、ユーザに向かう方向(図1における上方)を正方向とする座標軸とする。
The
表示部130は、平面画像と立体画像とを表示可能である。ここにおいて、平面画像とは、表示面101に平面的に表示される画像をいい、立体画像とは、表示面101に表示され、表示面101上に立体的に知覚される画像をいう。立体画像は、左目用の画像と右目用の画像とにより構成される。なお、表示部130は、ここでは視差バリア方式によって立体視を実現するものであるとする。
The
図3は、視差バリア方式を説明するための表示部130の模式図である。表示部130は、画像を表示するための第1の液晶層131と、視差バリアを形成するための第2の液晶層132とを有し、視差バリアの有無、すなわち第2の液晶層の光の透過率を切り替えることによって平面画像と立体画像とを切り替えて表示する。このとき、表示部130は、視差バリアの位置や幅を変えることによって、立体画像が見える方向を変え、飛び出し量を制御することが可能になる。ユーザは、このように表示された立体画像を、左目用の画像を左目で視認し、右目用の画像を右目で視認することにより、表示された画像を立体的に認識することが可能である。
FIG. 3 is a schematic diagram of the
なお、第2の液晶層132は、第1の液晶層131の背面側、すなわちユーザから見て第1の液晶層131よりも遠い側にあってもよい。また、表示部130は、図3に示した構成のみに限らず、バックライト等の他の構成を含み得る。
Note that the second
操作部140は、ユーザの操作を受け付ける手段である。操作部140は、表示面101に対するユーザの指先の位置を検出し、その位置を表す座標情報を制御部110に供給するためのセンサを備える。より詳細には、操作部140は、接触センサ141と近接センサ142とを備える。接触センサ141は、ユーザの指先が表示面101に接触した状態を検出するためのセンサである。接触センサ141は、例えば、周知のタッチスクリーン(タッチパネルともいう。)によって実現可能である。一方、近接センサ142は、ユーザの指先が表示面101に近接している状態を検出するためのセンサである。近接センサ142も、周知技術を用いたものであってよいが、例えば、指先の静電容量を検出したり、指先の位置を光学的に検出したりすることで実現される。
The
接触センサ141は、ユーザの指先が接触した表示面101の表面の位置を2次元的に検出する。ゆえに、接触センサ141が供給する座標情報は、X軸方向の座標(X座標)とY軸方向の座標(Y座標)とを表す座標情報である。一方、近接センサ142は、表示面101に触れることなく近接している状態のユーザの指先の位置を3次元的に検出する。ゆえに、近接センサ142が供給する座標情報は、X軸、Y軸及びZ軸のそれぞれの方向の座標を表す座標情報である。以下においては、接触センサ141が供給する座標情報によって特定される操作のことを「接触操作」といい、近接センサ142が供給する座標情報によって特定される操作のことを「近接操作」という。
The
なお、近接センサ142は、ユーザの指先を検出可能な範囲が有限であり、検出可能領域が決まっている。検出可能領域は、近接センサ142のハードウェア的な性能によって定まる。本実施形態でいう「近接」とは、指先の位置(特にZ軸方向の位置)がこの検出可能領域にある状態を指す。
The
接触センサ141及び近接センサ142は、指示体の位置を所定のサンプリングレートで検出する。すなわち、接触センサ141及び近接センサ142は、指示体の位置を繰り返し連続的に検出する。なお、近接センサ142は、ユーザの指を継続して所定時間以上検出しなかった場合に、サンプリングレートを一時的に下げ、指を再び検出したらサンプリングレートを元に戻すようにしてもよい。また、接触センサ141は、近接センサ142が指を検知してから機能するようになっていてもよい。なぜならば、指が表示面101に接触するためには、事前に指が表示面101に必ず近接するからである。
The
また、操作部140は、物理キー143を備える。物理キー143は、表示装置100の表示面101以外の位置に設けられ、押下されることによってユーザの操作を受け付ける。物理キー143は、表示装置100の正面にあってもよいが、側面や背面にあってもよい。また、物理キー143は、複数あってもよく、いわゆるQWERTY配列のキーボードやテンキーであってもよい。
なお、物理キー143は、接触センサ141又は近接センサ142でも代用可能である。すなわち、物理キー143は、本発明に必須の構成要件ではない。
The
The
通信部150は、外部装置と通信するための手段である。通信部150は、例えば、アンテナやネットワークアダプタを備える。通信部150は、インターネット、移動体通信網等のネットワークを介して外部装置と通信してもよいが、近距離無線通信のように、外部装置とネットワークを介さずに直接通信してもよい。また、通信部150による通信は、ここでは無線通信であるとするが、有線通信であってもよい。
The
表示装置100のハードウェア構成は、以上のとおりである。この構成のもと、表示装置100は、外部装置と通信したり、実行中の処理に応じた画像を表示面101に表示したりする。このとき、表示装置100は、近接操作及び接触操作を検出し、ユーザの指先の位置を検出する。表示装置100は、近接操作を検出したら、近接操作が検出された位置に応じて表示面101の表示態様を制御する。
The hardware configuration of the
本実施形態において、表示装置100は、検出可能領域において近接操作を検出可能であるが、立体画像を表示させるのは、近接操作を制御対象領域において検出した場合のみである。このとき、表示装置100は、表示面101に表示されていた画像の一部(例えば、指先の位置の近傍の画像)のみを立体表示させてもよいが、表示面101に表示されていた画像の全部を立体表示させてもよい。
In the present embodiment, the
図4は、検出可能領域と制御対象領域の関係を示す図である。同図において、縦方向の座標軸は、Z軸を表しているが、横方向の座標軸は、X軸とY軸のいずれであってもよい。なお、図示の便宜上、ここでは制御対象領域がZ軸方向だけでなくX軸方向(又はY軸方向)にも検出可能領域より小さい領域として示されているが、制御対象領域のX軸方向及びY軸方向のサイズ(ユーザが正面から見たときの面積)は、検出可能領域のそれと同一であってもよい。 FIG. 4 is a diagram illustrating the relationship between the detectable area and the control target area. In the figure, the vertical coordinate axis represents the Z axis, but the horizontal coordinate axis may be either the X axis or the Y axis. For convenience of illustration, the control target area is shown as an area smaller than the detectable area not only in the Z-axis direction but also in the X-axis direction (or Y-axis direction). The size in the Y-axis direction (area when viewed from the front by the user) may be the same as that of the detectable region.
図4に示すように、制御対象領域は、検出可能領域よりも小さくなるように設定されている。特に、制御対象領域は、表示面101に対する高さ、すなわちZ軸方向の範囲が、検出可能領域よりも小さくなっている。したがって、制御対象領域のユーザ側の境界は、検出可能領域のそれよりも表示面101に近い位置にある。なお、検出可能領域の範囲は、近接センサ142の性能に依存する。一方、制御対象領域の範囲は、本実施形態においては、あらかじめ設定されているものとする。制御対象領域の範囲の設定は、例えば、表示装置100の製造時等にメーカーによって行われる。
As shown in FIG. 4, the control target area is set to be smaller than the detectable area. In particular, the height of the control target area with respect to the
図5は、制御部110の機能的構成のうち、特に画像の表示制御に関する部分を示した機能ブロック図である。制御部110は、所定のプログラムを実行することにより、同図に示すデータ取得部111、判断部112及び表示制御部113の各部に相当する機能を実現する。これらの機能は、OS(Operating System)や、画像の表示を制御する特定のソフトウェアのいずれによって実現されてもよいし、複数のソフトウェアの協働によって実現されてもよい。
FIG. 5 is a functional block diagram showing a part related to image display control in the functional configuration of the
データ取得部111は、画像の表示に必要なデータを取得する手段である。データ取得部111が取得するデータは、具体的には、表示面101に表示されるべき画像を示す画像データと、操作部140により供給される座標情報である。画像データは、記憶部120にあらかじめ記憶されているもの(例えば、特定のアプリケーションの実行時に用いられる画像データ)であってもよいし、通信部150が外部装置から受信したもの(例えば、ブラウザによって表示されるウェブページのデータ)であってもよい。
The
判断部112は、近接センサ142から供給された座標情報、すなわち近接センサ142により検出された近接操作に基づいて、立体表示の可否を判断する手段である。具体的には、判断部112は、座標情報により特定される近接操作の位置とあらかじめ設定された制御対象領域の範囲とを比較し、当該位置が制御対象領域に含まれるか否かを判断する。
The
表示制御部113は、判断部112による判断結果に応じて、画像を表示面101に表示させる手段である。表示制御部113は、近接センサ142により検出された位置が制御対象領域に含まれていると判断された場合には、立体画像を表示させ、当該位置が制御対象領域に含まれていないと判断された場合には、立体画像を表示させない。表示制御部113は、近接センサ142により検出された位置が制御対象領域に含まれていないと判断された場合には、立体画像を表示させずに平面画像を表示させる。あるいは、表示制御部113は、かかる場合に、表示面101に何も表示させないようにしてもよい。
The
表示制御部113は、立体画像を表示する場合に、その表示態様を近接操作の位置に応じて異ならせる。このときの表示態様は、あらかじめ一律に決められていてもよいが、本実施形態においては、記憶部120に記憶された表示制御テーブルに基づいて決められる。つまり、表示制御部113は、表示制御テーブルを参照することによって立体画像の表示態様を特定することができる。表示制御テーブルは、指示体の位置と立体画像の表示態様の関連付けを記述したデータである。
When displaying a stereoscopic image, the
図6は、表示制御テーブルの一例を示した図である。同図に示す表示制御テーブルは、近接センサ142から供給された座標情報のZ軸方向の座標(Z座標)と立体画像の飛び出し量の関連付けを記述したものである。ここにおいて、Z1は座標情報のZ座標であり、Z2は立体画像の飛び出し量である。また、Th1〜Th4は、それぞれ適当に定められた閾値であり、Th4>Th3>Th2>Th1を満たす。なお、Z1=Th2を満たす平面(XY平面)は、制御対象領域と検出可能領域の境界であり、Z1=Th4を満たす平面(XY平面)は、検出可能領域とそうでない領域(操作を検出することができない領域)の境界である。
FIG. 6 is a diagram illustrating an example of the display control table. The display control table shown in the figure describes the association between the coordinate (Z coordinate) in the Z-axis direction of the coordinate information supplied from the
なお、飛び出し量とは、立体画像をどの程度浮き出ているように認識させるかを表す数値であり、その値が大きいほどユーザ側に飛び出させることを示している。例えば、飛び出し量がZ2=Z1で規定される場合の立体画像は、あたかも指示体の先端のすぐそばに存在するかのように、指示体の動きに追随するように表示される。 Note that the pop-out amount is a numerical value indicating how much the stereoscopic image is recognized as being raised, and indicates that the larger the value is, the popping out to the user side. For example, the stereoscopic image in the case where the pop-out amount is defined by Z 2 = Z 1 is displayed so as to follow the movement of the indicator as if it exists immediately next to the tip of the indicator.
テーブル1は、0<Z1≦Th2の場合には画像を立体表示させ、Z1>Th2の場合には画像を非表示とする表示態様を示すテーブルである。表示装置100がテーブル1を用いて画像を立体表示する場合、表示面101に表示される画像は、指示体の動きに連動するように飛び出し量が変化する。なお、nの値は、0より大きい適当な数であるが、飛び出し量が過剰にならないように、1を大きく超えないことが望ましい。
Table 1 is a table showing a display mode in which an image is stereoscopically displayed when 0 <Z 1 ≦ Th2, and is not displayed when Z 1 > Th2. When the
一方、テーブル2は、テーブル1とは立体画像の表示態様(飛び出しの態様)を異ならせたテーブルである。表示装置100がテーブル1を用いて画像を立体表示する場合、表示面101に表示される画像は、テーブル1の場合のように飛び出し量が連続的には変化しないが、指示体と表示面101との距離がTh2以下であるか否かを境にして、飛び出し量が段階的に変化する。
On the other hand, the table 2 is a table that is different from the table 1 in the display mode (the pop-up mode) of the stereoscopic image. When the
なお、テーブル1、2のいずれにおいても、Z1=0、すなわち接触操作が検出された場合には、表示制御部113は接触操作に応じた表示制御を実行する。Z1=0の場合の表示態様は、必ずしも表示制御テーブルに記述されていなくてもよい。また、表示制御部113は、Z1=0の場合、画像の立体表示を行ってもよいし、行わなくてもよい。
In both tables 1 and 2, when Z 1 = 0, that is, when a contact operation is detected, the
表示制御部113は、記憶部120に複数の表示制御テーブルが記憶されている場合には、いずれか1つのテーブルを選択して用いる。表示制御部113は、ユーザによる事前の設定、そのとき実行されているアプリケーション、立体表示の対象となる画像などを判断基準として、そのときどきの状況に応じたテーブルを選択することができる。なお、記憶部120に記憶される表示制御テーブルは、もちろん3種類以上であってもよい。また、表示制御テーブルは、本実施形態の例では直方体状の制御対象領域を記述したものであるが、他の形状の制御対象領域を記述するものであってもよい。
When a plurality of display control tables are stored in the
図7は、制御部110が上記の機能的構成によって実現する表示制御を示したフローチャートである。制御部110は、画像を立体表示するか否かを判断する必要がある場合に、同図に示す表示制御処理を実行する。すなわち、制御部110は、図7に示す表示制御処理を常に実行する必要はなく、例えば、立体表示を必要としない特定のアプリケーションを実行しているような場合には、かかる処理を実行しなくてもよい。
FIG. 7 is a flowchart showing display control realized by the
制御部110による表示制御は、ユーザの指先が検出可能領域に入り、所定の条件が満たされることによって開始される。そこでまず、制御部110は、近接センサ142から供給される座標情報によって近接操作の位置(すなわち指先の位置)を特定し、当該位置が検出可能領域に含まれるか否かを判断する(ステップS11)。制御部110は、この判断が肯定的(YES)になるまで、同じ処理を繰り返す。
The display control by the
指先の位置が検出可能領域に含まれるようになると、制御部110は、当該位置がさらに制御対象領域に含まれるか否かを判断する(ステップS12)。制御部110は、指先の位置が制御対象領域に含まれていれば、当該位置に応じた表示態様で表示面101に立体画像を表示させる(ステップS13)。一方、ステップS12の判断が否定的(NO)になる場合、すなわち、指先の位置が検知可能領域には含まれるが、制御対象領域には含まれない場合、制御部110は、実行する処理をステップS11の判断に戻す。
When the position of the fingertip is included in the detectable area, the
ステップS13の処理は、表示面101に表示される画像を全体的に立体表示させるものであってもよいが、特定の画像のみを立体表示させるものであってもよい。ここにおいて、特定の画像とは、例えば、ユーザが接触操作により選択することができる画像であり、ボタン、ソフトリンク(ショートカット、エイリアス、シンボリックリンクなどともいう。)、ウェブページのハイパーリンク(文字列やアイコン)が挙げられる。この場合、制御部110は、座標情報のZ座標のみを立体画像の表示制御のために参照し、X座標とY座標を考慮しなくてもよい。
The process of step S13 may be to display the image displayed on the
あるいは、制御部110は、X座標とY座標、すなわち、指先の位置の表示面101に対する正射影の座標をあわせて参照し、X座標とY座標に応じて立体画像の表示態様を変化させてもよい。例えば、制御部110は、ユーザの指先が制御対象領域にある場合に、人間や動物を模したキャラクタの画像を指先の近傍に立体表示させ、その画像の位置を指の移動に追随するように移動させるようにしてもよい。
Alternatively, the
制御部110は、立体画像を表示させたら、ユーザの操作として接触操作が検出されたか否かを判断する(ステップS14)。ステップS14の判断は、座標情報の供給元が近接センサ142から接触センサ141に切り替わったか否かによって行われてもよいが、座標情報のうちのZ座標が「0」か否かによって行われてもよい。制御部110は、接触操作が検出された場合には、接触操作に応じた表示制御を行う(ステップS15)。なお、ステップS15の表示制御には、接触操作が検出される前と異なる画像を表示させるもののほか、接触操作が検出された後にそれまで表示されていた画像を非表示にするものも含まれる。
When the stereoscopic image is displayed, the
また、ステップS15の表示制御は、表示面101上のユーザが触れた位置や、そのとき実行しているアプリケーションなどによって異なり得る。例えば、制御部110は、ブラウザを実行している場合において、ユーザがウェブページのハイパーリンク(文字列やアイコン)を選択したときには、ハイパーリンクに記述されたデータを受信するとともに、これをレンダリングしてページの表示を切り替える、といった処理を実行することが可能である。このとき新たに表示されるページは、ユーザが選択したハイパーリンク次第である。また、制御部110は、ユーザが何らかのボタンを選択した場合であれば、当該ボタンに割り当てられた処理を実行する。かかる処理には、選択されたボタンの表示態様(色や凹凸感)を変える処理が含まれ得る。
Further, the display control in step S15 may vary depending on the position touched by the user on the
なお、制御部110は、接触操作が検出され、当該接触操作に応じた表示制御を行った場合と、接触操作が検出されなかった場合のいずれにおいても、その後、ステップS11以降の処理を繰り返す。そして、制御部110は、画像を立体表示する必要がなくなるまで、ステップS11〜S15の処理を繰り返し実行する。
In addition,
以上のように、本実施形態の表示装置100によれば、表示制御テーブルに従って立体画像の表示態様を制御することが可能であり、立体表示に係る操作を受け付ける表示面101上の領域を一定の範囲に制限することが可能である。また、表示装置100によれば、参照する表示制御テーブルを切り替えることによって立体画像の表示態様を異ならせることが可能である。
As described above, according to the
[第2実施形態]
本実施形態は、上述した第1実施形態の構成及び動作の一部に対して変更を加えたものであり、具体的には、表示制御テーブル、すなわち近接操作時の表示態様を変更したものである。
なお、本実施形態以降の実施形態において、既に説明した実施形態と共通する部分の説明は、適宜省略される。また、本実施形態以降の実施形態において、既に説明した実施形態と共通する構成要素やフローチャート中の処理には、既に記載した符号と同一の符号を付すものとする。
[Second Embodiment]
In the present embodiment, a part of the configuration and operation of the first embodiment described above is modified. Specifically, the display control table, that is, the display mode during the proximity operation is modified. is there.
In addition, in embodiment after this embodiment, description of the part which is common in embodiment already demonstrated is abbreviate | omitted suitably. In addition, in the embodiments after this embodiment, the same reference numerals as those already described are attached to the components common to the already described embodiments and the processes in the flowchart.
図8は、本実施形態における表示制御テーブルを例示した図である。本実施形態の表示制御テーブルは、Th2<Z1≦Th4を満たす範囲において平面画像が表示されるように設定されている点が第1実施形態(図6参照)と異なり、その他の点においては第1実施形態と同様である。 FIG. 8 is a diagram illustrating a display control table in the present embodiment. The display control table of the present embodiment is different from the first embodiment (see FIG. 6) in that a planar image is set in a range satisfying Th2 <Z 1 ≦ Th4. This is the same as in the first embodiment.
図9は、本実施形態の表示制御を示したフローチャートである。このフローチャートは、ステップS16の処理が追加されている点において、第1実施形態のフローチャート(図7参照)と異なる。ステップS16において、制御部110は、指先の位置が制御対象領域に含まれていないとステップS12において判断された場合に、立体画像に代わる平面画像を表示させる。その後、制御部110は、指先の位置が制御対象領域に含まれるようになると、ステップS13当該平面画像を立体画像として表示させる。
FIG. 9 is a flowchart showing the display control of this embodiment. This flowchart differs from the flowchart of the first embodiment (see FIG. 7) in that the process of step S16 is added. In step S <b> 16, when it is determined in step S <b> 12 that the position of the fingertip is not included in the control target area, the
図10は、本実施形態における画像の表示例を示した図である。制御部110は、検出可能領域においてユーザの指を検出すると、図10(a)に示すように、接触操作により選択可能な平面画像を表示面101に表示させる。ここにおいて、画像Im1は、選択可能なアイコンを表している。その後、ユーザの指を制御対象領域において検出すると、制御部110は、表示面101に表示されていた平面画像を立体表示させる。図10(b)の例は、画像Im1を立体表示させた場合の画像Im2を示したものである。
FIG. 10 is a view showing a display example of an image in the present embodiment. When the
この例において、制御部110は、近接センサ142から供給された座標情報に基づいて画像Im1を表示させてもよい。例えば、制御部110は、近接センサ142から供給された座標情報のX座標とY座標を特定し、画像Im1の中心が当該座標にあるようにこれを表示させる。また、制御部110は、画像を平面画像から立体画像に切り替えたときには、X座標とY座標とに基づいて画像Im2の表示位置を決定し、Z座標に基づいて画像Im2の飛び出し量を決定してもよい。なお、制御部110は、例えば、あらかじめ決められた特定の位置に平面画像及び立体画像を表示させる、といったように、平面画像及び立体画像の表示位置を座標情報によらずに決定してもよい。
In this example, the
本実施形態の表示態様によれば、視覚効果を平面画像から立体画像へと段階的に変化させることが可能である。そのため、ユーザは、表示面101に指を近づけていったときに突然立体画像を認識するのではなく、最初に平面画像を認識し、その後さらに指を近づけた結果として立体画像を認識することが可能となる。なお、本実施形態の表示態様と第1実施形態の表示態様のいずれを採用するかは、表示する画像の性質やアプリケーションに応じて定めらてもよいし、ユーザが選択可能であってもよい。
According to the display mode of the present embodiment, the visual effect can be changed stepwise from a planar image to a stereoscopic image. Therefore, instead of suddenly recognizing the stereoscopic image when the user brings the finger close to the
[第3実施形態] [Third Embodiment]
図11は、本実施形態の表示装置100aの構成を示したブロック図である。同図に示すように、表示装置100aは、フィルタ部160を備える点が表示装置100(図2参照)と異なる。フィルタ部160は、座標情報に対してノイズを低減させるためのフィルタ処理を実行する手段である。なお、フィルタ部160は、他の構成要素とは独立したハードウェアであってもよいが、制御部110や操作部140の一機能として実現されてもよい。
FIG. 11 is a block diagram illustrating a configuration of the
フィルタ部160により用いられるフィルタは、具体的には、平滑化フィルタ、メディアンフィルタ、ガウシアンフィルタ、移動平均フィルタなどである。つまり、フィルタ部160は、座標情報により表される座標が短時間に細かく変動する場合に、その変動を抑制するように座標情報を変換する。したがって、ここでいうノイズとは、繰り返し連続的に検出される座標情報を時系列的に表した場合の高周波成分のことである。
Specifically, the filter used by the
本実施形態の表示装置100aによれば、制御部110が表示制御に用いる場合の指の軌跡を実際の軌跡よりも滑らか(すなわち、位置変動が緩やか)にすることが可能である。これにより、制御部110は、表示面101の画像が立体表示される場合の飛び出し量や位置を急激に(又は頻繁に)変えないようにすることが可能となり、画像がぶれたりしてユーザに見づらくなることを抑えることができるようになる。このような表示制御は、特に、図6のテーブル1の場合のように飛び出し量が連続的に変化する場合に有効である。
According to the
なお、フィルタ部160は、X座標、Y座標、Z座標のそれぞれに対してフィルタ処理を実行してもよいが、Z座標のみに対してフィルタ処理を実行してもよい。また、フィルタ部160は、それぞれの座標に対して実行するフィルタ処理の態様(より具体的には、ノイズを低減させる程度)を座標軸毎に異ならせてもよい。
Note that the
[第4実施形態]
図12は、本実施形態の制御部110aの機能的構成を示した機能ブロック図である。同図に示すように、制御部110aは、設定部114を備える点において第1実施形態の制御部110(図5参照)と異なる。設定部114は、制御対象領域の範囲を設定する手段である。設定部114は、ユーザの操作を受け付けたり、あるいはあらかじめユーザと対応付けられた設定データを読み出したりすることによって、制御対象領域の範囲を設定することができる。また、本実施形態の判断部112は、設定部114により設定された制御対象領域を用いて指示体の位置の判断を行う。
[Fourth Embodiment]
FIG. 12 is a functional block diagram showing a functional configuration of the
図13は、制御対象領域の設定方法の一例を示したフローチャートである。制御部110aは、ユーザの操作によって制御対象領域の範囲を設定する場合、まず、近接操作を検出する。すなわち、制御部110aは、近接センサ142から供給される座標情報により特定される近接操作の位置が検出可能領域に含まれるか否かを判断する(ステップS21)。制御部110aは、指先の位置が検出可能領域に含まれると、その位置に応じた立体画像を表示させる(ステップS22)。このとき、ユーザが指を表示面101に近づけたり遠ざけたりすると、制御部110aは、指と表示面101との距離に応じて立体画像の飛び出し量を変化させる。
FIG. 13 is a flowchart illustrating an example of a method for setting a control target area. When the range of the control target area is set by a user operation, the
ここで、ユーザは、自身が許容できる限界の飛び出し量で立体画像が表示されたときに指を止め、別の指で所定の物理キー143を押下する。制御部110aは、物理キー143が押下されたか否かを判断し(ステップS23)、物理キー143を押下する操作を検出すると、そのとき検出された座標情報を登録データとして記憶部120に一時的に記憶する(ステップS24)。なお、登録データは、制御部110aのRAMに記憶されてもよい。
Here, the user stops his / her finger when the stereoscopic image is displayed with a limit pop-out amount that he can accept, and presses a predetermined physical key 143 with another finger. The
ユーザは、このような動作を複数回実行することができる。例えば、ユーザは、表示面101の中央付近で登録データを1回登録し、その後、表示面101の四隅付近でそれぞれ登録データを登録する。この場合、登録データは、表示面101上の5点について得られる。制御対象領域の設定に何点の登録データを要するかは、制御部110aによってあらかじめ決められていてもよいが、ユーザが所定の操作を行った時点までとしてもよい。後者の場合には、ユーザは、ステップS23において押下した物理キー143とは異なるキーを押下してもよいし、ステップS23において押下した物理キー143と同じキーを2回押下(いわゆるダブルクリック)してもよい。
The user can execute such an operation a plurality of times. For example, the user registers the registration data once near the center of the
ステップS25において、制御部110aは、必要な数の登録データが登録されたか否かを判断する。上述したように、制御部110aは、登録データが所定の回数登録されたか、あるいはユーザによって所定の操作が行われたかを判断することによってこの処理を行う。制御部110aは、必要な数の登録データが登録されていなければ、ステップS21以降の処理を繰り返す。
In step S25, the
必要な数の登録データが登録されていれば、制御部110aは、登録データの座標情報に基づいて適当な補間処理を実行し、制御対象領域を決定する(ステップS26)。制御部110aは、このようにして決定された制御対象領域を設定データとして記憶部120に記録する(ステップS27)。制御部110aは、設定データを記録したら、登録データを消去してもよい。
If the necessary number of registration data has been registered, the
複数の登録データを用いることで、制御対象領域をさまざまな形状とすることが可能である。例えば、上述した設定方法によれば、表示面101の中央のZ座標が大きく、四隅のZ座標が小さい制御対象領域、すなわち、中央部分がユーザ側に膨らんだような制御対象領域を設定することが可能である。このような制御対象領域によれば、より自然な立体視を実現することが可能である。
なお、登録データは、1回のみ登録されてもよい。この場合、制御対象領域は、表示面101の全体についてZ座標が一定となり、その形状が直方体となる。
By using a plurality of registered data, it is possible to make the control target area have various shapes. For example, according to the setting method described above, a control target region having a large Z coordinate at the center of the
Note that the registration data may be registered only once. In this case, the control target area has a constant Z coordinate for the
本実施形態によれば、ユーザ毎に制御対象領域を設定することが可能であり、例えば、同一の表示装置100を複数のユーザが使用する場合であっても、それぞれのユーザに応じた制御対象領域を用いて立体表示を行うことが可能である。また、設定データをUIMカードに記録したり、あるいは通信部150を介して外部のサーバ装置に記録したりすることによって、同一のユーザが複数の表示装置100で同様の制御対象領域を使用することも可能である。なお、ユーザの識別は、周知の認証方法によって行えばよい。
According to the present embodiment, it is possible to set a control target area for each user. For example, even when a plurality of users use the
なお、制御対象領域の設定方法は、この例に限らず、例えば、ユーザがテンキー等によってZ座標を直接入力するものであってもよい。また、制御部110aは、上述したテーブル1のnの値についてもユーザに設定可能にしてもよい。
Note that the method for setting the control target area is not limited to this example. For example, the user may directly input the Z coordinate using a numeric keypad. The
[変形例]
本発明は、上述した各実施形態の態様に限らず、他の態様でも実施することができる。本発明は、例えば、以下の変形例に示す態様によっても実施可能である。なお、本発明は、これら複数の変形例を組み合わせた態様で実施されてもよいし、上述した各実施形態の特徴を複数組み合わせた態様で実施されてもよい。
[Modification]
The present invention is not limited to the aspect of each embodiment described above, and can be implemented in other aspects. The present invention can also be implemented, for example, by the modes shown in the following modifications. In addition, this invention may be implemented in the aspect which combined these some modified examples, and may be implemented in the aspect which combined multiple characteristics of each embodiment mentioned above.
(1)本発明の指示体は、上述したように、スタイラス等のユーザが手に持って動かす指示用の器具であってもよい。このような指示体を用いる場合の操作手段は、指示体の位置を赤外線や超音波によって検出するものであってもよい。また、先端に磁性体を備える指示体を用いた場合には、指示体の位置を磁気的に検出することも可能である。 (1) As described above, the indicator of the present invention may be an instruction device such as a stylus that the user holds and moves. The operating means in the case of using such an indicator may detect the position of the indicator with infrared rays or ultrasonic waves. In addition, when an indicator having a magnetic body at the tip is used, the position of the indicator can be detected magnetically.
(2)本発明の操作手段は、接触操作を検出するセンサと近接操作を検出するセンサとを別個に備える構成ではなく、接触操作と近接操作を単一のセンサによって検出する構成であってもよい。 (2) The operation means of the present invention is not configured to separately include a sensor for detecting the contact operation and a sensor for detecting the proximity operation, but may be configured to detect the contact operation and the proximity operation with a single sensor. Good.
(3)本発明の表示制御装置は、上述した実施形態のように表示装置100の構成の一部であってもよいが、表示装置と、表示装置とは独立に設けられた他の装置との協働によって実現されてもよい。例えば、本発明は、いわゆるデスクトップPCのように本体と表示装置とが分かれた構成の場合には、操作手段を表示装置側に備え、他の手段(判別手段、特定手段、表示制御手段など)を本体側に備えるようにしてもよい。
(3) The display control device of the present invention may be a part of the configuration of the
あるいは、本発明の表示制御装置は、操作手段に代えて、操作手段から供給された座標情報を取得する手段(データ取得部111)を備えるものであってもよい。すなわち、本発明の表示制御装置は、上述した制御部110のみによって構成することも可能である。また、このような表示制御装置は、これをコンピュータに実現させるためのプログラムや、かかるプログラムを記録した記録媒体の形態でも実施され得る。
Or the display control apparatus of this invention may be provided with the means (data acquisition part 111) which replaces with an operation means and acquires the coordinate information supplied from the operation means. That is, the display control apparatus of the present invention can be configured only by the
100、100a…表示装置、101…表示面、110、110a…制御部、111…データ取得部、112…判断部、113…表示制御部、114…設定部、120…記憶部、130…表示部、140…操作部、141…接触センサ、142…近接センサ、143…物理キー、150…通信部、160…フィルタ部
DESCRIPTION OF
Claims (9)
前記検出可能領域内の前記表示面寄りに設定され、前記表示面に垂直な方向の高さが前記検出可能領域よりも小さい制御対象領域に、前記操作手段により検出された位置が含まれるか否かを判断する判断手段と、
前記判断手段による判断結果に応じて、ユーザに立体視される立体画像を含む画像を前記表示面に表示させる表示制御手段とを備え、
前記表示制御手段は、
前記操作手段により検出された位置が前記制御対象領域に含まれると判断された場合には、前記立体画像を当該検出された位置に応じた表示態様で表示させ、前記操作手段により検出された位置が前記制御対象領域に含まれないと判断された場合には、前記立体画像を表示させない
ことを特徴とする表示制御装置。 An operation means for detecting a position of an indicator pointing to the display surface and receiving a user operation in a predetermined detectable region on the display surface;
Whether or not the position detected by the operation means is included in a control target area that is set closer to the display surface in the detectable area and whose height in the direction perpendicular to the display surface is smaller than the detectable area A judging means for judging whether or not
Display control means for displaying an image including a stereoscopic image stereoscopically viewed by the user on the display surface according to a determination result by the determination means;
The display control means includes
When it is determined that the position detected by the operation means is included in the control target area, the stereoscopic image is displayed in a display mode corresponding to the detected position, and the position detected by the operation means The display control device is characterized in that the stereoscopic image is not displayed when it is determined that is not included in the control target area.
前記表示制御手段は、
前記記憶手段に記憶された関連付けを用いて、前記操作手段により検出された位置に応じた表示態様で前記立体画像を表示させる
ことを特徴とする請求項1に記載の表示制御装置。 Storage means for storing the association between the position of the indicator and the display mode of the stereoscopic image;
The display control means includes
The display control apparatus according to claim 1, wherein the stereoscopic image is displayed in a display mode corresponding to the position detected by the operation unit, using the association stored in the storage unit.
当該装置のユーザ又は当該装置において実行されているアプリケーションに応じて前記制御対象領域の範囲を異ならせる
ことを特徴とする請求項1又は2に記載の表示制御装置。 The determination means includes
The display control apparatus according to claim 1, wherein the range of the control target area is made different depending on a user of the apparatus or an application being executed on the apparatus.
前記判断手段は、
前記設定手段により設定された制御対象領域を用いて判断を行う
ことを特徴とする請求項1ないし3のいずれかに記載の表示制御装置。 Comprising setting means for setting a range of the control target area;
The determination means includes
The display control apparatus according to claim 1, wherein the determination is performed using the control target area set by the setting unit.
前記表示制御手段は、
前記フィルタ手段によりフィルタ処理が実行された座標情報に基づいて前記表示面の表示を制御する
ことを特徴とする請求項1ないし4のいずれかに記載の表示制御装置。 Filter means for performing a filter process for reducing noise on the coordinate information representing the position detected by the operation means,
The display control means includes
The display control apparatus according to any one of claims 1 to 4, wherein display of the display surface is controlled based on coordinate information on which filtering processing has been performed by the filter means.
前記操作手段により検出された位置に応じて、前記立体画像の表示位置を異ならせる
ことを特徴とする請求項1ないし5のいずれかに記載の表示制御装置。 The display control means includes
The display control apparatus according to claim 1, wherein a display position of the stereoscopic image is varied according to a position detected by the operation unit.
ことを特徴とする請求項1ないし6のいずれかに記載の表示制御装置。 The operation means includes: a first sensor that detects a contact operation that causes the indicator to contact the display surface; and a second sensor that detects a proximity operation that causes the indicator to approach without contacting the contact surface. The display control apparatus according to claim 1, further comprising:
ことを特徴とする請求項1ないし6のいずれかに記載の表示制御装置。 The operation means includes a single sensor that detects a contact operation in which the indicator is brought into contact with the display surface and a proximity operation in which the indicator is brought into proximity without being brought into contact with the contact surface. Item 7. The display control device according to any one of Items 1 to 6.
前記検出可能領域内の前記表示面寄りに設定され、前記表示面に垂直な方向の高さが前記検出可能領域よりも小さい制御対象領域に、前記第1のステップにおいて検出された位置が含まれるか否かを判断する第2のステップと、
前記第2のステップにおける判断結果に応じて、ユーザに立体視される立体画像を含む画像を前記表示面に表示させる第3のステップであって、前記第1のステップにおいて検出された位置が前記制御対象領域に含まれると判断された場合には、前記立体画像を当該検出された位置に応じた表示態様で表示させ、前記第1のステップにおいて検出された位置が前記制御対象領域に含まれないと判断された場合には、前記立体画像を表示させない第3のステップと
を有することを特徴とする表示制御方法。 A first step of receiving a user operation by detecting a position of an indicator pointing to the display surface in a predetermined detectable region on the display surface;
The position detected in the first step is included in the control target region that is set closer to the display surface in the detectable region and whose height in the direction perpendicular to the display surface is smaller than the detectable region. A second step of determining whether or not
According to the determination result in the second step, a third step of displaying an image including a stereoscopic image stereoscopically viewed by the user on the display surface, wherein the position detected in the first step is the When it is determined that the image is included in the control target area, the stereoscopic image is displayed in a display mode corresponding to the detected position, and the position detected in the first step is included in the control target area. A display control method, comprising: a third step of not displaying the stereoscopic image when it is determined that the stereoscopic image is not displayed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011108665A JP5801604B2 (en) | 2011-05-13 | 2011-05-13 | Display control apparatus and display control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011108665A JP5801604B2 (en) | 2011-05-13 | 2011-05-13 | Display control apparatus and display control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012244187A true JP2012244187A (en) | 2012-12-10 |
JP5801604B2 JP5801604B2 (en) | 2015-10-28 |
Family
ID=47465479
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011108665A Expired - Fee Related JP5801604B2 (en) | 2011-05-13 | 2011-05-13 | Display control apparatus and display control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5801604B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014222848A (en) * | 2013-05-14 | 2014-11-27 | 株式会社東芝 | Image processing apparatus, method, and program |
JP2017056933A (en) * | 2015-09-18 | 2017-03-23 | 株式会社リコー | Information display device, information providing system, mobile device, information display method, and program |
US10884243B2 (en) | 2016-07-14 | 2021-01-05 | Ricoh Company, Ltd. | Display apparatus, movable body apparatus, producing method of the display apparatus, and display method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003005912A (en) * | 2001-06-20 | 2003-01-10 | Hitachi Ltd | Display device with touch panel and display method |
JP2004280496A (en) * | 2003-03-17 | 2004-10-07 | Kyocera Mita Corp | Operation panel device |
JP2007052497A (en) * | 2005-08-15 | 2007-03-01 | Sony Corp | Display device |
JP2009116769A (en) * | 2007-11-09 | 2009-05-28 | Sony Corp | Input device, control method for input device and program |
WO2010113397A1 (en) * | 2009-03-31 | 2010-10-07 | 三菱電機株式会社 | Display input device |
JP2011013778A (en) * | 2009-06-30 | 2011-01-20 | Sony Corp | Stereoscopic image display device, object proximity detection device and electronic apparatus |
-
2011
- 2011-05-13 JP JP2011108665A patent/JP5801604B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003005912A (en) * | 2001-06-20 | 2003-01-10 | Hitachi Ltd | Display device with touch panel and display method |
JP2004280496A (en) * | 2003-03-17 | 2004-10-07 | Kyocera Mita Corp | Operation panel device |
JP2007052497A (en) * | 2005-08-15 | 2007-03-01 | Sony Corp | Display device |
JP2009116769A (en) * | 2007-11-09 | 2009-05-28 | Sony Corp | Input device, control method for input device and program |
WO2010113397A1 (en) * | 2009-03-31 | 2010-10-07 | 三菱電機株式会社 | Display input device |
JP2011013778A (en) * | 2009-06-30 | 2011-01-20 | Sony Corp | Stereoscopic image display device, object proximity detection device and electronic apparatus |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014222848A (en) * | 2013-05-14 | 2014-11-27 | 株式会社東芝 | Image processing apparatus, method, and program |
JP2017056933A (en) * | 2015-09-18 | 2017-03-23 | 株式会社リコー | Information display device, information providing system, mobile device, information display method, and program |
WO2017047079A1 (en) * | 2015-09-18 | 2017-03-23 | Ricoh Company, Ltd. | Information display apparatus, information provision system, moving object device, information display method, and recording medium |
US10549638B2 (en) | 2015-09-18 | 2020-02-04 | Ricoh Company, Ltd. | Information display apparatus, information provision system, moving object device, information display method, and recording medium |
US10884243B2 (en) | 2016-07-14 | 2021-01-05 | Ricoh Company, Ltd. | Display apparatus, movable body apparatus, producing method of the display apparatus, and display method |
Also Published As
Publication number | Publication date |
---|---|
JP5801604B2 (en) | 2015-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11360558B2 (en) | Computer systems with finger devices | |
US9651989B2 (en) | Mobile terminal | |
CN104915136B (en) | Mobile terminal and its control method | |
US9746928B2 (en) | Display device and control method thereof | |
US10776618B2 (en) | Mobile terminal and control method therefor | |
EP2783472B1 (en) | Apparatus and method for providing dynamic fiducial markers for devices | |
KR101784328B1 (en) | Augmented reality surface displaying | |
KR102304082B1 (en) | Apparatus and method for controlling displays | |
US8780076B2 (en) | Mobile terminal and method for controlling the same | |
CN115720651A (en) | Augmented reality experience with object manipulation | |
JP2019175510A (en) | Head mounted display, information processing method, and program | |
JP6547741B2 (en) | INFORMATION PROCESSING SYSTEM AND INFORMATION PROCESSING METHOD | |
KR20100027976A (en) | Gesture and motion-based navigation and interaction with three-dimensional virtual content on a mobile device | |
US8797317B2 (en) | Mobile terminal and control method thereof | |
US20160266652A1 (en) | Mobile terminal and method of controlling the same | |
KR102099834B1 (en) | Electric device and operation method thereof | |
US20160132189A1 (en) | Method of controlling the display of images and electronic device adapted to the same | |
WO2012144559A1 (en) | Display control device and display control method | |
JP6012068B2 (en) | Electronic device, control method thereof, and program | |
JP2012108723A (en) | Instruction reception device | |
CN105824531A (en) | Method and device for adjusting numbers | |
KR20150130808A (en) | Method and apparatus of identifying spatial gesture of user | |
CN105808015A (en) | Peep-proof user interaction device and peep-proof user interaction method | |
CN117916777A (en) | Hand-made augmented reality endeavor evidence | |
JP5801604B2 (en) | Display control apparatus and display control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140919 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140930 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150818 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150827 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5801604 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |