JP2016071558A - Display control device, control method, control program, and recording medium - Google Patents
Display control device, control method, control program, and recording medium Download PDFInfo
- Publication number
- JP2016071558A JP2016071558A JP2014199350A JP2014199350A JP2016071558A JP 2016071558 A JP2016071558 A JP 2016071558A JP 2014199350 A JP2014199350 A JP 2014199350A JP 2014199350 A JP2014199350 A JP 2014199350A JP 2016071558 A JP2016071558 A JP 2016071558A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- user
- display
- image
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、表示部および該表示部と一体に形成されたタッチパネルを備えた表示装置にタッチ操作可能な画像を表示させる表示制御装置などに関する。 The present invention relates to a display control device that displays a touch-operable image on a display device including a display unit and a touch panel formed integrally with the display unit.
近年、タッチ操作によって操作可能な(タッチインターフェースを備えた)テレビなどの表示装置が普及している。タッチインターフェースは直感的なユーザインターフェースであり、自宅以外の場所にてテレビなどの表示装置を利用する場合に、商品知識が無くても操作が容易であることが普及の理由の1つである。自宅以外の場所での表示装置の利用の例としては、ホテルの部屋での利用、病院(病室または待合室など)での利用、スポーツジムにおいてランニングマシンなどに備え付けられたテレビの利用などが挙げられる。 In recent years, a display device such as a television (having a touch interface) that can be operated by a touch operation has become widespread. The touch interface is an intuitive user interface, and when using a display device such as a television in a place other than home, one of the reasons for the widespread use is that it is easy to operate without knowledge of products. Examples of using the display device in places other than home include use in a hotel room, use in a hospital (such as a hospital room or waiting room), and use of a television set in a running machine or the like in a sports gym. .
タッチインターフェースを備えた表示装置においては、選局やメニュー選択を行うための画像をタッチ操作で表示し、表示した画像に対してさらに操作を行うことで、テレビの場合チャンネルを変えたり、設定を変えたりする処理を実行することができる。しかしながら、このような処理を実行するまでには2回のタッチ操作が必要であり、利便性の高いタッチインターフェースが実現されているとは言い難い。 In a display device equipped with a touch interface, an image for selecting a channel or selecting a menu is displayed by a touch operation, and further operations are performed on the displayed image, thereby changing the channel or setting for a television. The process to change can be performed. However, two touch operations are required until such processing is executed, and it is difficult to say that a highly convenient touch interface is realized.
この問題の解決策として、特許文献1〜3に記載の技術が提案されている。特許文献1および2には、ジェスチャによってタッチ操作無しで画像表示を制御する技術が記載されている。また特許文献3には、指が近づいたことを検知して画像を表示する技術が記載されている。
As a solution to this problem, techniques described in
また、ユーザにとって使用しやすいタッチインターフェースを実現するために、様々な技術が提案されている。例えば特許文献4には、近づいた指の位置に表示されている画像移動させる技術が記載されている。また特許文献5には、ユーザの手の情報をあらかじめ登録しておき、操作する手が右手の場合と左手の場合とで、それぞれにおいて適切な画像を表示する技術が記載されている。
Various techniques have been proposed to realize a touch interface that is easy for the user to use. For example,
しかしながら、特許文献1および2の技術では、実施するジェスチャを予め覚えておかなくてはならず、自宅以外の場所で一時的にテレビを利用する場合には適さないという問題がある。また、周囲に人がいる状態でジェスチャを実施することは恥ずかしいと感じるユーザもいる。
However, the techniques disclosed in
また、特許文献3や4の技術では、指が画面近くに近づいたことを検知して画像を指の近くに表示するため、ユーザが画面にタッチする直前になるまで画像が表示されない。そのため、タッチ操作の直前にタッチする位置(例えば、画像内においてユーザがタッチしたいボタンの位置)を確認しなければならず、ユーザにとって不便であるという問題がある。
Further, in the techniques of
その他の解決策としては、例えば音声入力によって画像を表示するなどが考えられるが、ジェスチャと同様に周囲に人がいる状態で音声入力を行うことは恥ずかしいと感じるユーザもいる。 As another solution, for example, an image can be displayed by voice input, but there are also users who feel embarrassed to perform voice input in the state where there are people around like a gesture.
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ユーザにとって使いやすいタッチインターフェースを実現する表示制御装置などを提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a display control device or the like that realizes a touch interface that is easy for the user to use.
上記の課題を解決するために、本発明の一態様に係る表示制御装置は、表示部および該表示部と一体に形成されたタッチパネルを備えた表示装置に、上記タッチパネルに対するタッチ操作によって操作可能な操作画像を上記表示部に表示させる表示制御装置であって、上記タッチパネルに触れようと体を動かしたユーザの体の動きを検出する検出部と、上記検出部によって上記体の動きが検出されたとき、上記表示部に上記操作画像を表示する表示制御部と、を備える。 In order to solve the above problems, a display control device according to one embodiment of the present invention can be operated by a touch operation on the touch panel on a display device including a display unit and a touch panel formed integrally with the display unit. A display control device that displays an operation image on the display unit, the detection unit detecting a body movement of a user who moves the body to touch the touch panel, and the body movement detected by the detection unit A display control unit that displays the operation image on the display unit.
また、上記の課題を解決するために、本発明の一態様に係る表示制御装置の制御方法は、表示部および該表示部と一体に形成されたタッチパネルを備えた表示装置に、上記タッチパネルに対するタッチ操作によって操作可能な操作画像を上記表示部に表示させる表示制御装置の制御方法であって、上記タッチパネルに触れようと体を動かしたユーザの体の動きを検出する検出ステップと、上記検出ステップにて上記体の動きを検出したとき、上記表示部に上記操作画像を表示する表示ステップと、を含む。 In order to solve the above problems, a method for controlling a display control device according to one embodiment of the present invention includes a display device including a display unit and a touch panel formed integrally with the display unit. A control method of a display control device for displaying an operation image operable by an operation on the display unit, wherein a detection step of detecting a movement of a body of a user who moves the body to touch the touch panel, and a detection step And displaying the operation image on the display unit when the movement of the body is detected.
本発明の一態様によれば、ユーザにとって使いやすいタッチインターフェースを実現するという効果を奏する。 According to one aspect of the present invention, there is an effect of realizing a touch interface that is easy for a user to use.
以下、本発明の実施の形態について、詳細に説明する。以下で説明する実施形態では、本発明の表示制御装置と一体となっているテレビ(表示装置)を例に挙げて説明する。なお、表示制御装置と表示装置とは別体であってもよい。また、表示制御装置は、表示装置と有線または無線によって通信可能に接続され、当該表示装置に画像を表示させるものであればよく、例えば、テレビと別体のチューナ、HDDレコーダなどの録画装置、ゲーム機、ディスプレイに接続されたパソコンなどに本発明を適用することもできる。 Hereinafter, embodiments of the present invention will be described in detail. In the embodiments described below, a television (display device) integrated with the display control device of the present invention will be described as an example. The display control device and the display device may be separate. The display control device may be any device that is connected to the display device in a wired or wireless manner so as to be able to display an image on the display device. For example, a tuner separate from the TV, a recording device such as an HDD recorder, The present invention can also be applied to game machines, personal computers connected to displays, and the like.
なお、図面における長さ、大きさおよび幅などの寸法関係ならびに形状は、図面の明瞭化と簡略化のために適宜に変更されており、実際の寸法および形状と異なる場合がある。 Note that dimensional relationships such as length, size, and width and shapes in the drawings are appropriately changed for clarity and simplification of the drawings, and may differ from actual dimensions and shapes.
〔実施形態1〕
本発明の一実施形態について、図1〜図7に基づいて説明すれば、以下のとおりである。
An embodiment of the present invention will be described below with reference to FIGS.
(テレビ10のハードウェア構成)
まず、図2を参照してテレビ10(表示装置)のハードウェア構成について説明する。図2は、テレビ10のハードウェア構成の一例を示す図である。図2に示すとおり、テレビ10は、動作取得部11、タッチパネル12、表示部13、制御部14、チューナ21、ストリーム分離部22、グラフィックス処理部23、ビデオデコード部24、音声デコード部25、スケーリング部26、スケーリング部27、ミキシング部28、ブレンド部29、DAC31、およびスピーカ32を備えている。
(Hardware configuration of TV 10)
First, the hardware configuration of the television 10 (display device) will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of a hardware configuration of the
動作取得部11は、ユーザの動作に関する動作情報を取得するデバイスである。動作取得部11の詳細については後述する。
The
タッチパネル12は、ユーザがテレビ10に対して指示を入力するためのものである。タッチパネル12は、指示体(指またはペンなど)の接触(接近)を受け付けるタッチ面と、指示体とタッチ面との接触/非接触(接近/非接近)、および、その接触(接近)位置を検知するためのタッチセンサとで構成されている。上記タッチセンサは、指示体とタッチ面との接触/非接触(接近/非接近)を検知できれば、どのようなセンサで実現されていても構わない。上記タッチセンサは、例えば圧力センサ、静電容量センサ、光センサなどで実現される。また、タッチセンサはタッチ面に接近する指示体を撮影するカメラであってもよい。タッチパネル12は、検知した指示体が接触(接近)した位置(座標)の情報(以下、タッチ情報)を、後述する処理指示部43に出力する。
The
表示部13は、テレビ10が処理する情報を画像または映像として表示領域に表示する表示デバイスである。例えば表示部13には、テレビジョン放送信号に応じた映像や、制御部14によって生成された操作パネル(操作画像)などが表示される。例えば、表示部13はLCD(液晶ディスプレイ)などの表示デバイスで実現される。
The
なお、本実施形態では、タッチパネル12と表示部13とは一体に形成されている。
In the present embodiment, the
制御部14は、テレビ10が備える各部を統括制御するものである。なお、制御部14の詳細については後述する。
The
チューナ21は、選局を実施し、デジタル放送波から予め指定されたチャンネルのストリームを抽出する。なお、チューナ21によって抽出されたストリームは、データ放送を表示するためのBML(Broadcast Markup Language)情報を含んでいてもよい。
The
ストリーム分離部22は、チューナ21から抽出されたトランスポートストリーム(TS)を、映像信号、音声信号、およびデータ信号(字幕情報、BML情報など)へとストリーム分離(DEMUX)する。
The
グラフィックス処理部23は、分離されたデータ信号、および制御部14から出力された操作パネルなどの画像信号をグラフィックに変換する。グラフィックス処理部23によって生成されたグラフィックは、スケーリング部26に出力される。
The
ビデオデコード部24は、分離された映像信号をデコードする。ビデオデコード部に24によってデコードされた映像信号は、スケーリング部27に出力される。
The
音声デコード部25は、分離された音声信号をデコードする。音声デコード部25によってデコードされた音声信号は、ミキシング部28に出力される。
The
スケーリング部26は、グラフィックス処理部23によって生成されたグラフィックのサイズ調節を実施する。このときスケーリング部26は、グラフィックス処理部23から供給されたスケーリング情報に従ってグラフィック(操作パネルなど)のサイズ調節を実施する。サイズ調節がなされたグラフィックの画像信号は、ブレンド部29に出力される。
The scaling
スケーリング部27は、ビデオデコード部24から出力された映像信号のサイズ調節を実施する。スケーリング部27は、ブレンド部29から取得した表示部13の表示領域の大きさを示す情報、および、スケーリング部26によってサイズ調節されたグラフィック(操作パネルなど)の大きさを示す情報を参照して、映像信号のサイズ調節を実施する。サイズが調節された映像信号は、ブレンド部29に出力される。
The scaling
ミキシング部28は、音声デコード部25によってデコードされた音声信号を出力する。
The mixing
ブレンド部29は、制御部14からの指示に応じて、映像信号とグラフィックとを配置して合成を行う。そして、合成した映像信号とグラフィックとを表示部13に表示する。
In accordance with an instruction from the
DAC(Digital-Analog Converter)31は、音声信号についてデジタル信号をアナログ信号に変更する。 A DAC (Digital-Analog Converter) 31 changes a digital signal to an analog signal for an audio signal.
スピーカ32は、DAC31によって変換されたアナログ信号を音声として出力する。
The
(テレビ10の要部構成)
次に、図1を参照して、テレビ10の要部構成について説明する。図1は、テレビ10の要部構成の一例を示すブロック図である。
(Main components of the television 10)
Next, with reference to FIG. 1, the main part structure of the
図1に示すとおり、テレビ10は、動作取得部11、タッチパネル12、表示部13、制御部14、および記憶部15を備えている。なお、タッチパネル12および表示部13の詳細については既に説明しているため、ここでの説明を省略する。
As shown in FIG. 1, the
また、上述したように、テレビ10は表示制御装置1と一体となっている構成である。図1に示す破線で囲まれた部分が表示制御装置1である。
In addition, as described above, the
動作取得部11はカメラ111(撮影部)を含む。カメラ111は、テレビ10を利用している(テレビ10に表示された番組を視聴している)ユーザを連続して撮影する撮影デバイスである。カメラ111は、テレビ10を利用しているユーザを撮影可能な位置に備えられていればよい。動作取得部11は、カメラ111によって撮影された映像を、動作情報として後述する操作予測部41(検出部)に出力する。具体的には、カメラ111は、テレビ10が起動している限り継続して映像を撮影し、動作取得部11は、撮影した映像を操作予測部41に継続して出力し続ける。なお、本実施形態ではカメラ111が映像(動画)を撮影するものとして説明しているが、カメラ111は画像(静止画)を所定時間(例えば、1秒)ごとに連続して撮影するものであってもよい。なお以降、カメラ111が撮影した映像を撮影映像と呼称する。
The
制御部14は、操作予測部41、表示制御部42、および処理指示部43を含む。
The
処理指示部43は、タッチ情報に応じて制御部14の各部に処理を指示するものである。具体的には、処理指示部43は、タッチパネル12からタッチ情報を取得すると、当該タッチ操作に応じた処理を特定する。そして、処理指示部43は、制御部14の各部に特定した処理を実行するよう指示する。例えば処理指示部43は、操作パネル中のボタンに対するタッチ操作を示すタッチ情報を取得して、タッチされたボタンが示す画像を表示するよう、表示制御部42に指示する。
The
操作予測部41は、動作情報(詳細には、撮影映像)に応じて、ユーザがタッチパネル12に対してタッチ操作を実行しようとしているか否かを判定するものである。操作予測部41は、顔領域判定部411および左右領域判定部412を含む。操作予測部41は、動作取得部11から供給された撮影映像を顔領域判定部411に供給する。
The
顔領域判定部411は、撮影映像からユーザの顔が表示されている領域である顔領域を特定し、特定した顔領域に関する判定を行うものである。ここで、顔領域判定部411が実行する処理の詳細について、図3を参照して説明する。図3は、カメラ111が撮影する撮影映像の一例を示す図である。なお、以下の説明において、撮影映像を総称して「撮影映像141」と称する場合がある。また、撮影映像141a〜141eは、撮影映像における一部分を画像として示したものである。
The face
顔領域判定部411は、撮影映像141を取得すると、まず顔領域を特定する。顔領域の特定は既存の技術を利用可能であるため、ここでの説明を省略する。次に顔領域判定部411は、特定した顔領域143が、取得した撮影映像141に予め設定された中心領域142において、後述する顔領域閾値511以上の範囲を占めるか否かを判定する。ここで図3の(a)では、撮影映像141aにおいて、顔領域143が顔領域閾値511以上となっているとする。図3の(a)の例のように、顔領域閾値511以上の範囲を占めると判定した場合、顔領域判定部411は、当該判定結果を表示制御部42に供給する。なお、本実施形態における中心領域142は、図3の(a)に示すように、撮影映像141に境界線を2本引くことによって特定される領域である。具体的には、中心領域142は、ユーザの顔が映り込むと想定される領域であり、当該領域を特定するように上記2本の境界線が引かれる。ただし、中心領域142はこの例に限定されるものではない。また、撮影映像141において、顔領域143が占める割合を判定してもよい。
When the face
これに対して、顔領域閾値511以上の範囲を占めないと判定した場合、顔領域判定部411は、撮影映像141の変化を特定し、特定した変化を判定する処理を行う。具体的には、撮影映像141に予め設定された中心領域142において、顔領域143の変化量(詳細には、顔領域の拡大率)が後述する顔変化閾値512以上であるか否かを判定する。ここで図3の(b)では、テレビ10に近接していない位置にてテレビ10を利用している(番組を視聴している)ユーザがテレビ10に近づいたことにより、撮影映像141cにおける顔領域143が、撮影映像141bの顔領域143に比べて大きくなっている。顔領域判定部411は、この変化が顔変化閾値512以上であると判定した場合、当該判定結果を表示制御部42に供給する。
On the other hand, when it is determined that the range does not occupy the face
これに対して、顔変化閾値512を超えないと判定した場合、顔領域143の位置情報を左右領域判定部412に供給する。
On the other hand, when it is determined that the
なお、顔領域判定部411は、撮影映像141の中心領域142において、顔領域143が顔領域閾値511以上の範囲を占めるか否か、および、撮影映像141の中心領域142において、顔領域143の変化量(顔領域143の拡大率)が顔変化閾値512以上となったか否かのいずれか一方のみを判定する構成であってもよい。
Note that the face
また、顔領域判定部411は、上述した判定の前に、動作取得部11から取得した撮影映像を用いてテレビ10とユーザとの距離を判定してもよい。具体的には、顔領域判定部411が、特定した顔領域143の大きさが所定の閾値未満であると判定したとき、テレビ10とユーザとが十分離れていると判定する。そして、十分離れていると判定したとき、顔領域判定部411は処理を終了する。換言すれば、顔領域判定部411は、テレビ10とユーザとの距離がある程度近いときのみ、操作パネル132を表示するか否かの判定を実行する。
Further, the face
左右領域判定部412は、右側領域および左側領域に関する判定を行うものである。ここで、左右領域判定部412が実行する処理の詳細について、図4を参照して説明する。図4は、カメラ111が撮影する撮影画像の一例を示す図である。
The left and right
図4に示すように、左右領域判定部412は、顔領域判定部411から供給された顔領域143の位置情報に従って、撮影映像141を左側領域144と右側領域145に分割する。具体的には、顔領域143の中心に境界線を引くことで、撮影映像141を左側領域144と右側領域145に分割する。そして、撮影映像141の変化を特定し、特定した変化を判定する処理を行う。具体的には、撮影映像141の左側領域144または右側領域145において、所定の変化がおこったか否かを判定する。なお、撮影映像141の分割は、上記のように顔領域143の中心に境界線を引く例に限定されるものではない。例えば、ユーザの右腕および左腕の上腕部を特定して、右(左)腕の上腕部が含まれる領域を左側領域144(右側領域145)としてまず特定し、撮影映像141における左側領域144(右側領域145)以外の領域を右側領域145(左側領域144)としてもよい。
As illustrated in FIG. 4, the left and right
ここで、上述した所定の変化の例について詳細に説明する。なお所定の変化は以下に説明するものに限定されず、左側領域144または右側領域145において、ユーザがタッチパネル12に対するタッチ操作を実行しようとすることにより発生する変化であればよい。
Here, the example of the predetermined change described above will be described in detail. The predetermined change is not limited to the one described below, and may be a change that occurs when the user tries to perform a touch operation on the
例えば、左右領域判定部412は、左側領域144または右側領域145における変化率が、後述する左右変化閾値513以上であるか否かを判定してもよい。
For example, the left / right
また、左右領域判定部412は、左側領域144または右側領域145において左手または右手を認識した場合において、認識した左手または右手の変化率が、閾値(不図示)以上であるか否かを判定してもよい。
Further, when the left or right
また、左右領域判定部412は、左側領域144または右側領域145において棒状の物体(例えば、人差し指、ペンなど)が出現したか否かを判定してもよい。
Further, the left / right
また、左右領域判定部412は、左側領域144または右側領域145において前腕(人間の腕のうち、手の付け根から肘までの部分)が出現したか否かを判定してもよい。
In addition, the left and right
また、左右領域判定部412は、左側領域144の左端または右側領域145の右端から、動くものが出現したか否かを判定してもよい。
Further, the left / right
なお、左右領域判定部412は、上述した5つの判定のすべてを実行するものであってもよいし、少なくとも1つを実行するものであってもよい。なお以降、本実施形態の左右領域判定部412は、左側領域144または右側領域145における変化率が、後述する左右変化閾値513以上であるか否かのみを判定する構成であるとして説明する。ここで「変化率」とは、撮影映像141においてある瞬間を切り取った画像と、その所定時間後(例えば1秒後)の瞬間を切り取った画像との違いを割合として数値化したものである。また、上述した棒状の物体、前腕、および左側領域144の左端または右側領域145の右端から出現する動くものの検知については、既存の技術を利用可能であるため、ここでの詳細な説明を省略する。
Note that the left and right
ここで図4の(a)では、撮影映像141dにおいて、テレビ10に近接していない位置にてテレビ10を利用しているユーザがタッチパネル12にタッチしようと右手を前に伸ばす動作を行っている。その結果、撮影映像141dにおける左側領域144が、撮影映像141bの左側領域144から大きく変化している。この変化における変化率が左右変化閾値513以上であると判定した場合、左右領域判定部412は、当該判定結果を表示制御部42に供給する。
Here, in FIG. 4A, in the captured
また、図4の(b)では、撮影映像141eにおいて、テレビ10に近接していない位置にてテレビ10を利用しているユーザがタッチパネル12にタッチしようと左手を前に伸ばす動作を行っている。その結果、撮影映像141eにおける右側領域145が、撮影映像141bの右側領域145から大きく変化している。この変化における変化率が左右変化閾値513以上であると判定した場合、左右領域判定部412は、当該判定結果を表示制御部42に供給する。
4B, in the captured
これに対して、変化率が左右変化閾値513を超えないと判定した場合、左右領域判定部412は、撮影映像141において変化がないことを示す情報を、顔領域判定部411に供給する。顔領域判定部411は、当該情報を供給されると、撮影映像141に対して上述した処理を再び実行する。
On the other hand, when it is determined that the rate of change does not exceed the left / right
表示制御部42は、表示部13に画像(映像)を表示させるものである。表示制御部42は、画像生成部421および画像位置決定部422を含む。表示制御部42は、操作予測部41(詳細には、顔領域判定部411または左右領域判定部412)から判定結果を供給されると、当該判定結果を画像生成部421および画像位置決定部422に供給する。
The
画像生成部421は、表示部13に表示する画像を生成するものである。具体的には、画像生成部421は判定結果を供給されると、グラフィックス処理部23を制御して、ユーザのタッチ操作によって操作可能な操作パネル(操作画像)を生成させる。具体的には、画像生成部421は判定結果を供給されると、当該判定結果に応じた、後述する画像データ514を読み出して、読み出した画像データ514が示す操作パネルをグラフィックス処理部23に生成させる。
The
さらに具体的には、画像生成部421は、撮影映像141の左側領域144または右側領域145における変化率が左右変化閾値513以上であるという判定結果を供給された場合、ユーザが手(指先)でタッチ操作を行うための操作パネルを表示するための画像データ514を読み出し、当該画像データ514が示す操作パネルをグラフィックス処理部23に生成させる。
More specifically, when the
ここで、画像生成部421によって生成される操作パネルの詳細について、図5を参照して説明する。図5は、テレビ10における、操作パネルおよびメニュー画像の例を示す画面図である。
Details of the operation panel generated by the
撮影映像141の左側領域144または右側領域145における変化率が左右変化閾値513以上であるという判定結果を供給された場合、画像生成部421は、読み出した画像データ514に従って、グラフィックス処理部23に図5の(a)に示す操作パネル132aを生成させる。
When the determination result that the rate of change in the
また、画像生成部421は、顔領域143が中心領域142において顔領域閾値511以上の範囲を占めるという判定結果、または撮影映像141の中心領域142において顔領域143の変化量が顔変化閾値512以上であるという判定結果を供給された場合、ユーザが口にくわえたペンなどでタッチ操作を行うための操作パネルを表示するための画像データ514を読み出し、当該画像データ514が示す操作パネルをグラフィックス処理部23に生成させる。
In addition, the
具体的には、顔領域143が中心領域142において顔領域閾値511以上の範囲を占めるという判定結果、または撮影映像141の中心領域142において顔領域143の変化量が顔変化閾値512以上であるという判定結果を供給された場合、画像生成部421は、読み出した画像データ514に従って、グラフィックス処理部23に図5の(c)に示す操作パネル132bを生成させる。
Specifically, the determination result that the
操作パネル132bは、各ボタン(操作パネル132b中に含まれるボタンを模したタッチインターフェース)が、図5の(a)に示す操作パネル132aに比べて大きくなっている。つまり操作パネル132bは、ユーザが口にくわえたペンなどでタッチ操作を行う場合に、各ボタンをタッチしやすいようなデザインとなっている。
In the
「ユーザが口にくわえたペンなどでタッチ操作を行う」という状況は、例えば病院などで両手を使用できないユーザがテレビ10を操作する場合に起こり得る状況である。口にくわえたペンなどで操作する場合、手によって操作する場合と比べて操作がしづらいという問題がある。そこで、このような場合に操作パネル132を図5の(c)に示す操作パネル132bのようなデザインとすることで、ユーザにとって操作しやすいタッチインターフェースを実現することができる。
The situation “a user performs a touch operation with a pen or the like held in his / her mouth” is a situation that may occur when a user who cannot use both hands in a hospital or the like operates the
なお、図5の(c)に示す操作パネル132bにおいては、「カーソル」と記載されたボタンにタッチすることで、図5の(a)に示す操作パネル132aに含まれる十字キー(「決定」と記載されたボタンおよび当該ボタンの周りの4つの矢印ボタン)が表示される。また、操作パネル132bにおいては、「数字」と記載されたボタンにタッチすることで、操作パネル132aに含まれるテンキーが表示される。
On the
また、画像生成部421は、グラフィックス処理部23を制御することにより、操作パネルの画像信号と、供給された判定結果に応じたスケーリング情報をスケーリング部26に出力させる。ここでスケーリング情報とは、操作パネルを表示部13に表示するときの大きさを示す情報である。これにより、画像生成部421は、スケーリング部26に操作パネルのサイズ調節を実施させることができる。
Further, the
この操作パネルのサイズ調節について、図6を参照して説明する。図6は、図1に示すテレビにおける、操作パネルの表示例を示す画面図である。図6の(b)〜(d)は、ユーザが、図6の(a)に示すように表示部13の表示領域全体にテレビ画面131を表示させてテレビを視聴しているときに、何らかの動作によってタッチパネル12に対するタッチ操作を実行しようとした結果、表示される画像を示す図である。
Adjustment of the size of the operation panel will be described with reference to FIG. FIG. 6 is a screen diagram showing a display example of the operation panel on the television shown in FIG. 6 (b) to 6 (d) show some cases when the user is viewing the television with the
画像生成部421は、顔領域143が中心領域142において顔領域閾値511以上の範囲を占めるという判定結果、または撮影映像141の中心領域142において顔領域143の変化量が顔変化閾値512以上であるという判定結果を供給された場合、図6の(b)に示すような大きさを示すスケーリング情報を、グラフィックス処理部23を制御してスケーリング部26に出力させる。これにより、スケーリング部26は、図6の(b)に示すような大きさとなるように、操作パネル132のサイズを調節する。
The
また画像生成部421は、撮影映像141の左側領域144または右側領域145における変化率が左右変化閾値513以上であるという判定結果を供給された場合、図6の(c)または(d)に示すような大きさを示すスケーリング情報、グラフィックス処理部23を制御してスケーリング部26に出力させる。これにより、スケーリング部26は図6の(c)または(d)に示すような大きさとなるように、操作パネル132のサイズを調節する。
When the
そしてスケーリング部26は、スケーリング後の操作パネル132の画像信号をブレンド部29に出力する。一方、画像生成部421は、画像位置決定部422に対して、画像位置を決定するよう指示する。
Then, the scaling
なお、テレビ画面131のサイズ調節については、上述したように、スケーリング部27が、ブレンド部29から取得した表示部13の表示領域の大きさを示す情報、および、スケーリング部26によってサイズ調節された操作パネル132の大きさを示す情報を参照して実施する。スケーリング部27は、サイズ調節されたテレビ画面131の映像信号を、ブレンド部29に出力する。
Regarding the size adjustment of the
また画像生成部421は、処理指示部43からの指示に応じて、グラフィックス処理部23を制御することにより、操作パネル132と異なる画像を生成させる。この処理の詳細について、再度図5を参照して説明する。
Further, the
図5の(a)は、図6の(c)または(d)における操作パネル132の一例を示す図面である。換言すれば、撮影映像141の左側領域144または右側領域145における変化率が左右変化閾値513以上であるという判定結果を供給された場合に表示される操作パネル132の一例である。処理指示部43は、図5の(a)に示す操作パネル132aのツールボタン151の位置がタッチされたことを示すタッチ情報を取得すると、画像生成部421に対して、ツール画像133を表示するよう指示する。画像生成部421は当該指示を受けると、グラフィックス処理部23を制御して、図5の(b)に示すようなツール画像133を生成する。具体的には、画像生成部421は、処理指示部43からの指示に応じて、ツール画像133の画像データ514を読み出して、ツール画像133をグラフィックス処理部23に生成させる。
FIG. 5A shows an example of the
そして画像生成部421は、グラフィックス処理部23を制御してスケーリング部26に生成したツール画像133の画像信号を出力させる。このとき画像生成部421は、操作パネル132aのサイズ調整結果、すなわち図5の(a)に示す操作パネル132aのスケーリング情報を、グラフィックス処理部23を制御してスケーリング部26に出力させる。これによりツール画像133は、図5の(a)に示す操作パネル132aと同じ大きさに調整される。
Then, the
これに対して、図5の(c)は、図6の(b)における操作パネル132の一例を示す図面である。換言すれば、顔領域143が中心領域142において顔領域閾値511以上の範囲を占めるという判定結果、または撮影映像141の中心領域142において顔領域143の変化量が顔変化閾値512以上であるという判定結果を供給された場合に表示される操作パネル132bの一例である。処理指示部43は、図5の(c)に示す操作パネル132bのツールボタン151の位置がタッチされたことを示すタッチ情報を取得すると、画像生成部421に対して、ツール画像134を表示するよう指示する。画像生成部421は当該指示を受けると、グラフィックス処理部23を制御して、図5の(d)に示すようなツール画像134を生成する。具体的には、画像生成部421は、処理指示部43からの指示に応じて、ツール画像134の画像データ514を読み出して、ツール画像134をグラフィックス処理部23に生成させる。
On the other hand, FIG. 5C shows an example of the
そして画像生成部421は、グラフィックス処理部23を制御してスケーリング部26に生成したツール画像134の画像信号を出力させる。このとき画像生成部421は、操作パネル132bのサイズ調整結果、すなわち図5の(c)に示す操作パネル132bのスケーリング情報を、グラフィックス処理部23を制御してスケーリング部26に出力させる。これによりツール画像134は、図5の(c)に示す操作パネル132bと同じ大きさに調整される。
Then, the
その後、表示制御部42は、操作パネル132a(または操作パネル132b)が表示されていた位置に、ツール画像133(またはツール画像134)を表示する。
Thereafter, the
画像位置決定部422は、表示部13に表示する画像(映像)の位置を決定するものである。具体的には、画像位置決定部422は、画像生成部421からの指示を受けると、表示制御部42から供給された判定結果に従って、操作パネル132の位置を決定する。
The image
画像位置決定部422は、撮影映像141の右側領域145における変化率が左右変化閾値513以上であるという判定結果を供給された場合、図6の(c)に示すように、操作パネル132の位置を、表示部13におけるユーザの左手側端部から所定距離の領域とする。なお、「ユーザの左(右)手側端部」とは、表示部13などにおいて、テレビ10と相対しているユーザの左(右)手側の端部という意味である。つまり、図5に示すテレビ10の場合、左(右)手側端部は左(右)端となる。これ以降にて使用する「ユーザの左(右)手側端部」についても同様の意味である。
When the image
また画像位置決定部422は、撮影映像141の左側領域144における変化率が左右変化閾値513以上であるという判定結果を供給された場合、図6の(d)に示すように、操作パネル132の位置を、表示部13におけるユーザの右手側端部から所定距離の領域とする。
When the image
さらに画像位置決定部422は、顔領域143が中心領域142において顔領域閾値511以上の範囲を占めるという判定結果、または撮影映像141の中心領域142において顔領域143の変化量が顔変化閾値512以上であるという判定結果を供給された場合、図6の(b)に示すように、操作パネル132の位置を表示部13の中心を含む領域とする。
Further, the image
また、画像位置決定部422は、決定した操作パネル132の位置に応じて、テレビ画面131の位置を決定する。具体的には、画像位置決定部422は、撮影映像141の左側領域144または右側領域145における変化率が左右変化閾値513以上であるという判定結果を供給された場合、図6の(c)または(d)に示すように、表示部13の表示領域のうち、操作パネル132が表示されない領域を、テレビ画面131を表示する領域とする。
Further, the image
これに対して、画像位置決定部422は、顔領域143が中心領域142において顔領域閾値511以上の範囲を占めるという判定結果、または撮影映像141の中心領域142において顔領域143の変化量が顔変化閾値512以上であるという判定結果を供給された場合、図6の(b)に示すように、テレビ画面131を表示する領域を表示部13の表示領域全体のままとする。このとき、画像位置決定部422は、操作パネル132をテレビ画面131に重畳させて表示すると決定する。
On the other hand, the image
そして画像位置決定部422は、決定した操作パネル132およびテレビ画面131の位置情報を、グラフィックス処理部23を制御してブレンド部29に出力する。ブレンド部29は、取得した位置情報に応じて、サイズ調整されたテレビ画面131および操作パネル132を合成する。そしてブレンド部29は、合成した操作パネル132およびテレビ画面131を表示部13に表示させる。
Then, the image
なお、表示制御部42に、顔領域143が中心領域142において顔領域閾値511以上の範囲を占めるという判定結果、または撮影映像141の中心領域142において顔領域143の変化量が顔変化閾値512以上であるという判定結果を供給された場合、操作パネル132を表示部13の全表示領域(全領域)に表示してもよい。これにより、操作パネル132が最大化されることとなるので、口にくわえたペンなどでタッチ操作を行うユーザにとってより操作しやすいタッチインターフェースを実現することができる。
Note that the
記憶部15は、テレビ10(表示制御装置1)にて使用される各種データを記憶する記憶デバイスである。記憶部15は、顔領域閾値511、顔変化閾値512、および左右変化閾値513を少なくとも格納している。
The
顔領域閾値511は、ユーザがタッチパネル12に対するタッチ操作を実行しようとして、テレビ10に顔を近づけていると判定するための数値(閾値)であり、詳細には、中心領域142において顔領域が占める割合の閾値である。この数値は、ユーザが自身の指先でタッチ操作を実行しようとしている場合の、中心領域142に対する顔領域143の占める割合を示す数値であればよく、その数値は特に限定されない。つまり、上述したような数値以上の場合、ユーザは指先でタッチ操作をする場合より顔をテレビ10に近づけていることとなる。よって、ユーザが口にくわえたペンなどでタッチパネル12に対するタッチ操作を実行しようとしている可能性が高いということとなる。なお、顔領域判定部411が、撮影映像141全体に対して顔領域143が占める割合を判定する場合、顔領域閾値511は、ユーザが自身の指先でタッチ操作を実行しようとしている場合の、撮影映像141に対する顔領域143の占める割合を示す数値となる。
The face
顔変化閾値512は、ユーザがタッチパネル12に対するタッチ操作を実行しようとして、テレビ10に顔を近づけていると判定するための数値(閾値)であり、詳細には、撮影映像における顔領域143の拡大率の閾値である。この数値は、ユーザが通常通りテレビ10を用いて番組などを視聴している状態から、ユーザが自身の指先でタッチ操作を実行しようとしている状態となったときの、顔領域143の拡大率を示す数値であればよく、その数値は特に限定されない。つまり、顔領域143の拡大率が、指先でタッチ操作を実行しようとするユーザが顔を近づけたとき以上の拡大率となった場合、ユーザは顔を近づけることにより(詳細には、口にくわえたペンなどを用いることにより)タッチ操作を実行しようとしていると判定できる。
The
左右変化閾値513は、ユーザがタッチパネル12に対するタッチ操作を実行しようとして、右腕または左腕を動かしたと判定するための数値(閾値)であり、詳細には、撮影映像における、左側領域144または右側領域145における変化率の閾値である。この数値は、ユーザが通常どおりテレビ10を用いて番組などを視聴している状態から、タッチパネル12に対するタッチ操作を実行するために、テレビ10(詳細には、表示部13)に右腕または左腕を動かした状態となったときの、左側領域144または右側領域145における変化率より十分低い数値であればよく、その数値は特に限定されない。つまり、タッチ操作を実行するためにユーザが右腕または左腕を動かした状態となったとき、その変化率は左右変化閾値513以上となるので、ユーザが自身の指先でタッチ操作を実行しようとしていると判定できる。
The left-right
なお、左右変化閾値513は、左右領域判定部412が、左側領域144または右側領域145が判定する所定の変化の内容に応じて変わったり、別の左右変化閾値513が追加されたりする。例えば、左右領域判定部412が、左側領域144または右側領域145において左手または右手を認識したときに、認識した左手または右手の変化率が、閾値以上であるか否かを判定する場合、左右変化閾値513は例えば、手を開いた状態から人差し指のみを伸ばした状態となったときの、左手または右手の変化率を示す値であればよい。
Note that the left /
画像データ514は、操作パネル132やツール画像133を生成するための情報である。例えば、画像データ514は操作パネル132やツール画像133を生成するためのスクリプトであってもよい。
The
(画像表示処理の流れ)
次に、図7を参照して、本実施形態における画像表示処理の流れについて説明する。図7は、テレビ10における画像表示処理の流れの一例を示すフローチャートである。なおここでの説明においては、手による操作用の操作パネルを、操作パネル132a(図5の(a)に示す操作パネル)と記載し、口にくわえたペンなどによる操作用の操作パネルを、図5の(c)に示す操作パネル132b(図5の(c)に示す操作パネル)と記載することで、両者を区別して説明する。
(Flow of image display processing)
Next, a flow of image display processing in the present embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of the flow of image display processing in the
まず、操作予測部41は動作取得部11から撮影映像141を供給されると、顔領域判定部411に当該撮影映像141を供給する。
First, when the
顔領域判定部411は、撮影映像141を取得すると(S1)、当該撮影映像141からユーザの顔が表示されている領域である顔領域143を特定する(S2)。そして、顔領域判定部411は、特定した顔領域143が、中心領域142にて顔領域閾値511以上を占めているかを判定する(S3、検出ステップ)。具体的には、顔領域判定部411は、記憶部15から顔領域閾値511を読み出し、中心領域142のうち、特定した顔領域143が占める領域の割合を示す数値が、顔領域閾値511以上となるか否かを判定する。
When acquiring the captured image 141 (S1), the face
顔領域閾値511以上となると判定した場合(S3でYES)、顔領域判定部411は、当該判定結果を表示制御部42に供給する。表示制御部42は、供給された判定結果に応じて、顔操作用の操作パネル132bを表示する(S9、表示ステップ)。具体的には、表示制御部42は、顔操作用の操作パネル132bを、テレビ画面131に重畳させて表示させる。さらに具体的には、まず表示制御部42は、供給された判定結果を画像生成部421に供給する。画像生成部421は顔領域143が中心領域142において顔領域閾値511以上の範囲を占めるという判定結果を供給されると、グラフィックス処理部23を制御して、読み出した画像データ514に応じた操作パネル132b(詳細には、図5の(c)に示す操作パネル132b)を生成させる。そして画像生成部421は、グラフィックス処理部23を制御することにより、操作パネル132bの画像信号と、供給された判定結果に応じたスケーリング情報をスケーリング部26に出力させる。これにより、スケーリング部26は、図6の(b)に示すような大きさとなるように、操作パネル132bのサイズを調節する。
When it is determined that the face
そしてスケーリング部26は、スケーリング後の操作パネル132bの画像信号をブレンド部29に出力する。一方、画像生成部421は、画像位置決定部422に対して、画像位置を決定するよう指示する。
Then, the scaling
画像位置決定部422は、上記指示を受けると、表示制御部42から供給された判定結果に応じて、図6の(b)に示すように、操作パネル132bの位置を表示部13の中心を含む領域とする。また画像位置決定部422は、テレビ画面131を表示する領域を、表示部13の表示領域全体のままとする。このとき、画像位置決定部422は、操作パネル132bをテレビ画面131に重畳させて表示すると決定する。そして画像位置決定部422は、決定した操作パネル132bおよびテレビ画面131の位置情報を、グラフィックス処理部23を制御してブレンド部29に出力する。
Upon receiving the above instruction, the image
ブレンド部29は、取得した位置情報に応じて、図6の(b)に示すように、サイズ調整されたテレビ画面131および操作パネル132bを合成する。そしてブレンド部29は、合成した操作パネル132bおよびテレビ画面131を表示部13に表示させる。
The blending
これに対して、特定した顔領域143が、顔領域閾値511未満であると判定した場合(S3でNO)、顔領域判定部411は、特定した顔領域143の変化量が中心領域142にて顔変化閾値512以上であるか否かを判定する(S4、検出ステップ)。具体的には、顔領域判定部411は、記憶部15から顔変化閾値512を読み出し、中心領域142において、顔領域143の変化量(詳細には、顔領域143の拡大率)を算出し、当該拡大率が顔変化閾値512以上であるか否かを判定する。顔変化閾値512以上であると判定した場合(S4でYES)、顔領域判定部411は、当該判定の判定結果を表示制御部42に供給する。表示制御部42は、上述したステップS9の処理を実行する。
On the other hand, when it is determined that the identified
これに対して、顔領域143の拡大率が、顔変化閾値512未満であると判定した場合(S4でNO)、顔領域判定部411は、顔領域143の位置情報を左右領域判定部412に供給する。
On the other hand, when it is determined that the enlargement ratio of the
左右領域判定部412は、供給された顔領域143の位置情報に従って、顔領域143を中心として、撮影映像141を左側領域144と右側領域145に分割する(S5)。そして、左右領域判定部412は、撮影映像141において左右変化閾値513以上の変化率を示す変化があるか否かを判定する(S6、検出ステップ)。具体的には、左右領域判定部412は、記憶部15から左右変化閾値513を読み出し、左側領域144および右側領域145において発生した変化の変化率を算出し、当該変化率が左右変化閾値513以上であるか否かを判定する。
The left and right
まず、左右変化閾値513以上の変化が、左側領域144にて発生したと判定した場合(S6で「左側領域にてあり」)、左右領域判定部412は、当該判定結果を表示制御部42に供給する。
First, when it is determined that a change greater than or equal to the left /
そして表示制御部42は、供給された判定結果に応じて、右手操作用の操作パネル132aを表示する(S7、表示ステップ)。具体的には、表示制御部42は、表示部13におけるユーザの右手側の端部から所定距離までの領域に操作パネル132aを表示し、操作パネル132の左端から表示部13においてユーザの左手側の端部までの領域にテレビ画面131を表示させる。さらに具体的には、まず表示制御部42は、供給された判定結果を画像生成部421に供給する。画像生成部421は、撮影映像141の左側領域144における変化率が左右変化閾値513以上であるという判定結果を供給されると、グラフィックス処理部23を制御して、読み出した画像データ514に応じた操作パネル132a(詳細には、図5の(a)に示す操作パネル132a)を生成させる。そして、画像生成部421は、グラフィックス処理部23を制御することにより、操作パネル132aの画像信号と、供給された判定結果に応じたスケーリング情報をスケーリング部26に出力させる。これにより、スケーリング部26は、図6の(d)に示すような大きさとなるように、操作パネル132aのサイズを調節する。
Then, the
そしてスケーリング部26は、スケーリング後の操作パネル132aの画像信号をブレンド部29に出力する。一方、画像生成部421は、画像位置決定部422に対して、画像位置を決定するよう指示する。
Then, the scaling
画像位置決定部422は、上記指示を受けると、表示制御部42から供給された判定結果に応じて、図6の(d)に示すように、操作パネル132aの位置を、表示部13におけるユーザの右手側の端部から所定距離までの領域とする。また画像位置決定部422は、テレビ画面131の位置を、操作パネル132aの左端から表示部13においてユーザの左手側の端部までの領域とする。そして画像位置決定部422は、決定した操作パネル132aおよびテレビ画面131の位置情報を、グラフィックス処理部23を制御してブレンド部29に出力する。
Upon receiving the instruction, the image
ブレンド部29は、取得した位置情報に応じて、図6の(d)に示すように、サイズ調整されたテレビ画面131および操作パネル132aを合成する。そしてブレンド部29は、合成した操作パネル132aおよびテレビ画面131を表示部13に表示させる。
The blending
これに対して、左右変化閾値513以上の変化が、右側領域145にて発生したと判定した場合(S6で「右側領域にてあり」)、左右領域判定部412は、当該判定結果を表示制御部42に供給する。
On the other hand, when it is determined that a change greater than or equal to the left /
そして表示制御部42は、供給された判定結果に応じて、左手操作用の操作パネル132aを表示する(S8、表示ステップ)。具体的には、表示制御部42は、表示部13におけるユーザの左手側の端部から所定距離までの領域に操作パネル132aを表示し、操作パネル132aの右端から表示部13においてユーザの右手側の端部までの領域にテレビ画面131を表示させる。さらに具体的には、まず表示制御部42は、供給された判定結果を画像生成部421に供給する。画像生成部421は、撮影映像141の右側領域145における変化率が左右変化閾値513以上であるという判定結果を供給されると、グラフィックス処理部23を制御して、読み出した画像データ514に応じた操作パネル132aを生成させる。そして、画像生成部421は、グラフィックス処理部23を制御することにより、操作パネル132aの画像信号と、供給された判定結果に応じたスケーリング情報をスケーリング部26に出力させる。これにより、スケーリング部26は、図6の(c)に示すような大きさとなるように、操作パネル132aのサイズを調節する。
Then, the
そしてスケーリング部26は、スケーリング後の操作パネル132aの画像信号をブレンド部29に出力する。一方、画像生成部421は、画像位置決定部422に対して、画像位置を決定するよう指示する。
Then, the scaling
画像位置決定部422は、上記指示を受けると、表示制御部42から供給された判定結果に応じて、図6の(c)に示すように、操作パネル132aの位置を、表示部13におけるユーザの左手側の端部から所定距離までの領域とする。また画像位置決定部422は、テレビ画面131の位置を、操作パネル132aの右端から表示部13においてユーザの右手側の端部までの領域とする。そして画像位置決定部422は、決定した操作パネル132aおよびテレビ画面131の位置情報を、グラフィックス処理部23を制御してブレンド部29に出力する。
Upon receiving the instruction, the image
ブレンド部29は、取得した位置情報に応じて、図6の(c)に示すように、サイズ調整されたテレビ画面131および操作パネル132aを合成する。そしてブレンド部29は、合成した操作パネル132aおよびテレビ画面131を表示部13に表示させる。
The blending
これに対して、左右変化閾値513以上の変化が、いずれの領域でも発生していないと判定した場合(S6で「なし」)、すなわち、左側領域144および右側領域145の両方における変化率が左右変化閾値513未満であると判定した場合、左右領域判定部412は、撮影映像141において変化がないことを示す情報を、顔領域判定部411に供給する。顔領域判定部411は、当該情報を供給されると、ステップS1の処理から再度画像表示処理を実行する。
On the other hand, when it is determined that no change of the left /
(実施形態1に係るテレビ10の作用効果)
以上のように、本実施形態に係るテレビ10(詳細には、表示制御装置1)は、カメラ111を用いてユーザを撮影した映像を取得し、当該映像においてユーザがタッチパネル12に対してタッチ操作を実行しようとする動作を特定すると、ユーザがタッチ操作を実行しやすい位置に操作パネル132を表示する。
(Operational effect of the
As described above, the television 10 (specifically, the display control device 1) according to the present embodiment acquires a video image of the user using the
例えば、ユーザが右手でタッチ操作を実行しようとする動作を特定した場合は、表示部13におけるユーザの右手側端部から所定距離の領域に操作パネル132aを表示する。また逆に、ユーザが左手でタッチ操作を実行しようとする動作を特定した場合は、表示部13におけるユーザの左手側端部から所定距離の領域に操作パネル132aを表示する。また、ユーザが表示部13に対して顔を近づける(口にくわえた指示体でタッチ操作を実行しようとする)動作を特定した場合は、表示部13に操作パネル132bを表示する。
For example, when the user specifies an action to perform a touch operation with the right hand, the
これにより、ユーザの動きを予測して操作パネル132を表示することができるので、ユーザは操作パネル132を表示するためのタッチ操作を行う必要が無い。つまり、従来は、操作パネル132を表示するためのタッチ操作と、操作パネル132に対するタッチ操作との2回のタッチ操作で実現していた、テレビ10に対する処理の実行指示(例えば、チャンネルを変えたり、設定を変更したりする処理の実行指示)を、1回のタッチ操作のみで実現することができる。よって、病院などで体の不自由なユーザがテレビ10を使用する場合、必要最小限のタッチ操作でテレビ10に対する処理の実行指示を行うことができる。
As a result, the
また、カメラ111で撮影した映像を用いて、タッチ操作を実行しようとする動作を特定するので、ユーザがタッチ操作を実行しようとするための動作における、比較的早いタイミングで操作パネル132を表示することができる。これにより、ユーザはタッチすべき位置を早い段階で認識することができるので、戸惑うことなく操作パネル132に対するタッチ操作を実行することができる。
In addition, since the operation to perform the touch operation is specified using the video captured by the
また、ユーザの動作に応じて、操作パネル132の表示位置、大きさ、ボタン配置などを変えて表示するので、ユーザにとって使用しやすいタッチインターフェースを実現することができる。
In addition, since the display position, size, button layout, and the like of the
〔実施形態2〕
本発明の他の実施形態について、図8および図9に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
The following will describe another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.
(テレビ20の要部構成)
まず、図8を参照して、テレビ20(表示装置)の要部構成について説明する。図8は、テレビ20の要部構成の一例を示すブロック図である。図8に示すように、テレビ20は表示制御装置2と一体となっている構成である。図8に示す破線で囲まれた部分が表示制御装置2である。なお、テレビ20のハードウェア構成については、実施形態1にて説明したテレビ10のハードウェア構成と同様であるため、説明を省略する。
(Main components of the television 20)
First, with reference to FIG. 8, the structure of the main part of the television 20 (display device) will be described. FIG. 8 is a block diagram illustrating an example of a main configuration of the
図8に示すとおり、テレビ20は、実施形態1で説明した動作取得部11、制御部14、記憶部15に代えて動作取得部17、制御部18、記憶部19をそれぞれ備えている。
As illustrated in FIG. 8, the
動作取得部17は、実施形態1で説明した動作取得部11と異なり、カメラ111の他に距離センサ112(距離測定部)を含む。
Unlike the
距離センサ112は、テレビ20と物体との距離を測定する測距センサである。具体的には、距離センサ112は、カメラ111が撮影する撮影映像における所定位置(例えば、撮影映像の中央の位置)にある物体と、テレビ20における表示部13が備えられた面(前面)との距離を測定する。動作取得部17は、撮影映像とともに距離センサ112による測定結果である距離値(距離情報)を、後述する操作予測部44に出力する。具体的には、カメラ111は、テレビ20が起動している限り継続して映像を撮影する。また、距離センサ112は、テレビ20が起動している限り継続して距離の測定を行う。そして動作取得部11は、撮影した映像および測定した距離値を操作予測部41に継続して出力し続ける。なお、距離センサ112が備えられる位置は、カメラ111が撮影する撮影映像における所定位置(例えば、撮影映像の中央の位置)にある物体と、テレビ20における表示部13が備えられた面(前面)との距離を測定することができる位置であれば、特に限定されない。
The
制御部18は、実施形態1で説明した制御部14と異なり、操作予測部41に代えて操作予測部44を含む。
Unlike the
操作予測部44は、実施形態1で説明した操作予測部41と異なり、顔領域判定部411、左右領域判定部412に加え、距離判定部413を含む。操作予測部44は、動作取得部17から取得した距離値を距離判定部413に供給する。
Unlike the
距離判定部413は、距離センサ112が測定した距離値に関する判定を行うものである。具体的には、距離判定部413は、記憶部19から後述する距離閾値515を読み出し、距離値が距離閾値515未満であるか否かを判定する。そして、距離閾値515未満であると判定した場合、操作予測部44に指示して、撮影映像141を顔領域判定部411に供給させる。
The
これに対して、取得した距離値が距離閾値515以上であると判定した場合、取得した距離値が距離閾値515未満となるまで取得した距離値と距離閾値515との比較を継続する。
On the other hand, when it is determined that the acquired distance value is equal to or greater than the
記憶部19は、実施形態1で説明した記憶部15と異なり、距離閾値515をさらに格納している。
Unlike the
距離閾値515は、ユーザがタッチパネル12に対するタッチ操作を実行しようとしているか否かを判定するための数値(閾値)であり、詳細には、距離センサ112が測定する距離値の閾値である。この数値は、ユーザがタッチパネル12に対して腕を伸ばして指先によるタッチ操作を実行可能である最遠の位置にいるときの、テレビ20の前面とユーザの胴体部分との距離を示す数値であればよい。つまり、取得した距離値が距離閾値515未満であるということは、ユーザはタッチパネル12に対するタッチ操作を実行可能な位置にいるということであり、タッチ操作によって操作パネル132を表示しようとする可能性があるということである。
The
(画像表示処理の流れ)
次に、図9を参照して、本実施形態における画像表示処理の流れについて説明する。図9は、テレビ20における画像表示処理の流れの一例を示すフローチャートである。
(Flow of image display processing)
Next, the flow of image display processing in the present embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of the flow of image display processing in the
まず、操作予測部44は動作取得部11から撮影映像141および距離値を供給されると、距離判定部413に距離値を供給する。
First, when the
距離判定部413は、距離値を取得すると(S11)、取得した距離値が距離閾値515未満であるか否かを判定する(S12)。具体的には、記憶部19から距離閾値515を読み出し、取得した距離値が距離閾値515未満となるか否かを比較する。
When the
距離閾値515以上となると判定した場合(S12でNO)、ステップS11の処理に戻る。これに対して、距離閾値515未満となると判定した場合(S12でYES)、距離判定部413は、操作予測部44に指示して、撮影映像141を顔領域判定部411に供給させる。
If it is determined that the distance threshold is 515 or more (NO in S12), the process returns to step S11. On the other hand, when it is determined that the distance is less than the threshold 515 (YES in S12), the
これ以降のステップS13からステップS21までの処理は、実施形態1で説明した、図7のステップS1からS9までの処理と同様であるため、ここでの説明を省略する。 The subsequent processing from step S13 to step S21 is the same as the processing from step S1 to S9 in FIG. 7 described in the first embodiment, and thus description thereof is omitted here.
(実施形態2に係るテレビ20の作用効果)
以上のように、本実施形態に係るテレビ20(詳細には、表示制御装置2)は、ユーザとテレビ20とが所定の距離より近づいている場合に、カメラ111を用いてユーザを撮影した映像を取得し、ユーザがタッチパネル12に対してタッチ操作を実行しようとする動作を特定する。
(Operational effect of the
As described above, the television 20 (specifically, the display control device 2) according to the present embodiment captures images of the user using the
これにより、ユーザが所定の距離より離れている位置(ユーザが手を伸ばしてもタッチパネル12に届かない位置)で何かしらの動作を行ったとしても、操作パネル132は表示されない。よって、操作パネル132の誤表示を防ぐことができる。
As a result, even if the user performs any operation at a position away from the predetermined distance (a position where the user does not reach the
〔実施形態3〕
本発明のさらに別の実施形態について、図10〜図12に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 3]
The following will describe still another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.
(テレビ30の要部構成)
まず、図10を参照して、テレビ30(表示装置)の要部構成について説明する。図10は、テレビ30の要部構成の一例を示すブロック図である。図10に示すように、テレビ30は表示制御装置3と一体となっている構成である。図10に示す破線で囲まれた部分が表示制御装置3である。なお、テレビ30のハードウェア構成については、実施形態1にて説明したテレビ10のハードウェア構成と同様であるため、説明を省略する。
(Main components of the television 30)
First, with reference to FIG. 10, a configuration of main parts of the television 30 (display device) will be described. FIG. 10 is a block diagram illustrating an example of a main configuration of the
図10に示すとおり、テレビ30は、実施形態1で説明した動作取得部11、制御部14、記憶部15に代えて動作取得部51、制御部52、記憶部53をそれぞれ備えている。
As illustrated in FIG. 10, the
動作取得部51は、実施形態1で説明した動作取得部11と異なり、カメラ111に代えて第1の距離センサ113(距離測定部)および第2の距離センサ114(距離測定部)を含む。
Unlike the
第1の距離センサ113は、テレビ30と物体との距離を測定する測距センサである。具体的には、第1の距離センサ113は、テレビ30における、ユーザの左手側端部に設けられる。そして、第1の距離センサ113は、設けられた位置から、テレビ30に最も近い物体までの距離を測定する。これについて、図11の(a)を参照して説明する。図11の(a)は、テレビ30とユーザとの最短距離の算出方法を示す模式図である。図11の(a)に示すように、ユーザUは、タッチパネル12に対するタッチ操作を実行するために、指先Fをタッチパネル12に近づけている。このとき第1の距離センサ113は、設けられた位置から、テレビ30に最も近い物体までの距離を測定する。つまり図11の(a)の例では指先Fまでの距離を測定する。これに対して、例えばユーザが両腕を降ろして番組を視聴している場合、第1の距離センサ113は、設けられた位置から、ユーザの鼻先までの距離を測定することとなる。
The
第2の距離センサ114は、設けられた位置以外は第1の距離センサ113と同様である。第2の距離センサ114は、テレビ30における、ユーザの右手側端部に設けられる。例えば図11の(a)に示すように、第2の距離センサ114も第1の距離センサ113と同様に、設けられた位置からテレビ30に最も近い指先Fまでの距離を測定する。
The
動作取得部51は、第1の距離センサ113および第2の距離センサ114による測定結果である2つの距離値(第1の距離値laおよび第2の距離値lb)を、後述する操作予測部45に出力する。具体的には、第1の距離センサ113および第2の距離センサ114は、テレビ30が起動している限り継続して距離の測定を行う。そして動作取得部51は、第1の距離センサ113が測定した第1の距離値la(距離情報)および第2の距離センサ114が測定した第2の距離値lb(距離情報)を操作予測部45に継続して出力し続ける。
The
制御部52は、実施形態1で説明した制御部14と異なり、操作予測部41に代えて操作予測部45を含む。
Unlike the
操作予測部44は、実施形態1で説明した操作予測部41と異なり、顔領域判定部411、左右領域判定部412に代えて、距離判定部414、算出部415、および領域特定部416を含む。操作予測部44は、動作取得部51から第1の距離値および第2の距離値を取得すると、当該第1の距離値および第2の距離値を距離判定部414に供給する。
Unlike the
距離判定部414は、第1の距離センサ113および第2の距離センサ114が測定した距離値を用いて、物体とテレビ30との最短距離を算出し、当該最短距離が後述する距離閾値516未満であるか否かを判定するものである。ここで、距離判定部414による最短距離の算出および最短距離に関する判定について、図11の(a)を参照して説明する。距離判定部414は、第1の距離値laおよび第2の距離値lbを用いて、テレビ30とユーザとの最短距離lyを算出する。
The
具体的には、第1の距離センサ113および第2の距離センサ114は、同じ物体(図11の(a)の例では指先F)までの距離を測定する。ある物体から第1の距離センサ113までの距離値(第1の距離値)がlaであり、当該物体から第2の距離センサ114までの距離値(第2の距離値)がlbである場合、第1の距離センサ113および第2の距離センサ114おける距離の測定可能範囲がテレビ30の前面側のみであるとすれば、物体(指先F)の位置は1カ所に定まる。より詳細には、第1の距離センサ113の位置を中心とする半径がlaの円と、第2の距離センサ114の位置を中心とする半径がlbの円とが交わる位置が、物体(指先F)の位置となる。
Specifically, the
このように物体(指先F)の位置が特定できるので、距離判定部414は、テレビ30から物体までの最短距離lyを算出することができる。具体的には、距離判定部414は、第1の距離値laおよび第2の距離値lbを取得すると、図11の(a)に示す、第2の距離センサ114の位置から指先FまでのX軸方向の長さlxを特定する。そして、三平方の定理を用いて、第2の距離値lbと特定した長さlxとから最短距離lyを算出する。
Since the position of the object (fingertip F) can be specified in this way, the
なお、図11の(a)の例では、第2の距離センサ114の位置から指先FまでのX軸方向の長さをlxとしたが、第1の距離センサ113の位置から指先FまでのX軸方向の長さをlxとしてもよい。この場合、距離判定部414は、第1の距離値laと特定した長さlxとから最短距離lyを算出する。
In the example of FIG. 11A, the length in the X-axis direction from the position of the
なおこの計算において、正確に計算するのであれば、図11における紙面に垂直方向の成分(指先Fと、第1の距離センサ113および第2の距離センサ114との紙面に垂直方向の距離など)を考慮する必要がある。しかし、紙面に垂直方向の成分を考慮した場合に測定すべき距離と、上述した最短距離lyとの差は小さく、許容範囲内であるため、本実施形態では考慮しないものとして説明している。
In this calculation, if accurate calculation is performed, a component perpendicular to the paper surface in FIG. 11 (distance perpendicular to the paper surface between the fingertip F and the
具体的には、紙面に垂直方向の成分を考慮した場合、測定すべき距離は、「第1の距離センサ113と第2の距離センサ114とを結ぶ直線と物体(指先F)との距離」となる。以降この距離を距離lcとする。ここで、第1の距離センサ113および第2の距離センサ114の紙面に垂直方向における測定範囲(第1の距離センサ113および第2の距離センサ114によって検出可能な位置にある物体から第1の距離センサ113と第2の距離センサ114とを結ぶ直線に垂直に下した直線と、タッチパネル12の法線方向とがなす角度の範囲)は、−30°〜+30°であるとする。そして、上記測定範囲の上限(または下限)となる位置に物体(指先F)があり、距離lcが30cmであったとする。このとき最短距離lyは、ly=lc×cos(30°)=30cm×cos(30°)≒26cmとなる。つまり、最短距離lyと距離lcとの誤差は最大でも4cm程度であり、この差は許容範囲内である(距離lcを最短距離lyに近似することができる)ため、本実施形態では考慮しないものとして説明している。
Specifically, when considering a component perpendicular to the paper surface, the distance to be measured is “the distance between the straight line connecting the
そして、距離判定部414は、算出した最短距離lyと、記憶部53から読み出した距離閾値516とを比較して、最短距離lyが距離閾値516未満であるか否かを判定する。そして、距離閾値516未満であると判定した場合、第1の距離値laおよび第2の距離値lbを算出部415に供給するとともに、算出部415に、領域を決定するために使用する領域判定値を算出するよう指示する。
Then, the
これに対して、最短距離lyが距離閾値516以上であると判定した場合、最短距離lyが距離閾値516未満となるまで最短距離lyの算出および判定を継続する。
On the other hand, when it is determined that the shortest distance ly is greater than or equal to the
なお、距離判定部414による距離の判定は、この例に限定されない。例えば距離判定部414は、第1の距離値1aおよび第2の距離値lbが閾値以下(または閾値未満)であるか否かを判定し、第1の距離値1aおよび第2の距離値lbが閾値以下(または閾値未満)であると判定した場合、第1の距離値laおよび第2の距離値lbを算出部415に供給するとともに、算出部415に、領域を決定するために使用する領域判定値を算出するよう指示してもよい。上記閾値は例えば、人間の一般的な腕の長さを示す数値である。これにより、第1の距離値1aおよび第2の距離値lbが閾値以下(または閾値未満)であると判定された場合はつまり、ユーザがタッチパネル12に対して腕を伸ばして指先によるタッチ操作を実行可能であるということである。
The distance determination by the
算出部415は、領域判定値を算出するものである。具体的には、算出部415は、距離判定部414から領域判定値を算出するよう指示されると、供給された第1の距離値laと第2の距離値lbとを用いて、領域判定値を算出する。そして、算出した領域判定値を領域特定部416に供給する。
The
ここで、図11の(b)を参照して、領域判定値の算出について詳細に説明する。図11の(b)は、指示体(指)がタッチする領域を特定するための方法を示す模式図である。図11の(b)に示すように、算出部415は、テレビ30の幅(X軸方向の長さ)を予め等分しておく。なお、本実施形態では、図11の(b)に示すように、当該幅を6等分する例を説明するが、何等分するかは特に限定されるものではない。なお以降、6等分した幅のそれぞれを「単位」と称する。そして、算出部415は1単位の長さrxを特定し、第1の距離値laおよび第2の距離値lbを特定した長さrxで除算することで、無次元化した第1の距離値raおよび第2の距離値rbを算出する。
Here, the calculation of the region determination value will be described in detail with reference to FIG. FIG. 11B is a schematic diagram illustrating a method for specifying an area touched by an indicator (finger). As shown in FIG. 11B, the
なお、上記の例では算出部415はテレビ30の幅を等分、すなわち、各単位の長さが等しくなるように分割していたが、この例に限定されるものではない。例えば算出部415は、各単位の長さが等しくならないように分割してもよい。
In the above example, the
そして算出部415は、無次元化した第1の距離値raの2乗から、無次元化した第2の距離値rbの2乗を減算することで、領域判定値を算出する。つまり領域判定値はra2−rb2を計算することによって算出される数値である。算出部415は、算出した領域判定値を領域特定部416に供給する。また、算出部415はテレビ30の幅を何等分したかを示す等分情報を、予め領域特定部416に供給している。
Then, the
領域特定部416は、タッチパネル12において、ユーザがタッチ操作を実行しようとしている位置が含まれる領域を特定するものである。具体的には、領域特定部416は、供給された領域判定値(ra2−rb2)と後述する領域決定閾値517とを比較することで、ユーザがタッチ操作を実行しようとしている位置が含まれる領域を特定する。
The
ここで、領域の特定方法について図11を参照して説明する。 Here, a method for specifying a region will be described with reference to FIG.
まず、図11の(a)に示すように、領域特定部416は、タッチパネル12を予め複数の領域に等分している。本実施形態では、タッチパネル12を領域A、領域B、および領域Cに3等分しているが、上述したテレビ30の幅における、隣接する2つの単位の境界と、隣接する2つの境界とが一致するように等分するのであれば、この例に限定されるものではない。
First, as illustrated in FIG. 11A, the
さらに領域特定部416は、算出部415から供給された等分情報を用いて、各単位の境界に座標を設定する。なお本実施形態では、説明の分かりやすさを重視して、上述したように図11における紙面に垂直方向の成分はないものとして扱う(2次元座標として扱う)ものとするが、実際は図11における紙面に垂直方向の成分を含む3次元座標となる。
Further, the
本実施形態では、でテレビ30の前面におけるテレビ30の中心を原点O(0,0)とする。そして、各単位の境界に図11の(b)に示すように座標を設定する。図11の(b)の例では6等分しているので、テレビ30の右手側端部に設定される座標は(3,0)であり、テレビ30の左手側端部に設定される座標は(−3,0)となる。またこのとき、2つの領域の境界と、2つの単位の境界の一部とが一致することとなるので、2つの領域の境界に座標が設定されることとなる。具体的には、領域Aと領域Bとの境界における座標は(−1,0)となり、領域Bと領域Cとの境界における座標は(1,0)となる。
In the present embodiment, the center of the
ここで、指先Fが領域Bと領域Cとの境界にあるものとする。指先Fの座標を(xt,yt)としたときxt=1となる。ここで三平方の定理を用いると、ra2={1−(−3)}2+yt2であり、rb2=(3−1)2+yt2である。この2式から領域判定値は、ra2−rb2=42−22=16−4=12となる。 Here, it is assumed that the fingertip F is at the boundary between the region B and the region C. When the coordinate of the fingertip F is (xt, yt), xt = 1. Here, using the three-square theorem, ra 2 = {1-(− 3)} 2 + yt 2 and rb 2 = (3-1) 2 + yt 2 . From these two formulas, the region determination value is ra 2 −rb 2 = 4 2 −2 2 = 16−4 = 12.
また同様にして、指先Fが領域Aと領域Bとの境界にある場合、領域判定値は、ra2−rb2=−12となる。 Similarly, when the fingertip F is at the boundary between the region A and the region B, the region determination value is ra 2 −rb 2 = −12.
つまり、図11の(b)の例において、領域判定値が−12以下である場合、指先Fは領域Aに含まれる位置をタッチしようとしていると特定できる。また、領域判定値が−12より大きく、12より小さい場合、指先Fは領域Bに含まれる位置をタッチしようとしていると特定できる。さらに、領域判定値が12より大きい場合、指先Fは領域Cに含まれる位置をタッチしようとしていると特定できる。 That is, in the example of FIG. 11B, when the region determination value is −12 or less, it can be specified that the fingertip F is about to touch a position included in the region A. Further, when the region determination value is larger than −12 and smaller than 12, it can be specified that the fingertip F is about to touch a position included in the region B. Furthermore, when the region determination value is larger than 12, it can be specified that the fingertip F is about to touch a position included in the region C.
以上より、領域特定部416は、供給された領域判定値と、本実施形態では−12および12である領域決定閾値517との大小関係を比較することで、タッチパネル12において、ユーザがタッチ操作を実行しようとしている位置が含まれる領域を特定する。領域特定部416は、特定した領域を示す情報を表示制御部42に供給する。
As described above, the
記憶部53は、実施形態1で説明した記憶部15と異なり、顔領域閾値511、顔変化閾値512、および左右変化閾値513を格納していない。記憶部53は、これらに代えて距離閾値516および領域決定閾値517を格納している。
Unlike the
距離閾値516は、ユーザがタッチパネル12に対するタッチ操作を実行しようとしているか否かを判定するための数値(閾値)であり、詳細には、第1の距離センサ113が測定した第1の距離値laおよび第2の距離センサ114が測定した第2の距離値lbから求められる最短距離lyの閾値である。この数値は、ユーザがタッチパネル12に対して腕を伸ばして指先によるタッチ操作を実行可能である最遠の位置にいるときの、ユーザの鼻先とテレビ30の前面との距離を示す数値であればよい。
The
領域決定閾値517は、ユーザがタッチ操作を実行しようとしている位置が含まれる領域を特定するための数値(閾値)である。上述したように、本実施形態では当該数値は−12および12であるが、この数値に限定されるものではない。
The area
ここで、領域決定閾値517として格納される数値を一般化する。指先Fが領域Bと領域Cとの境界にあるものとし、テレビ30の左手側端部に設定される座標を(x0,y0)とし、テレビ30の右手側端部に設定される座標を(x1,y1)とする。このとき、ra2=(xt−x0)2+(yt−y0)2であり、rb2=(xt−x1)2+(yt−y0)2である。ここで、y0=y1=0であるので、ra2=(xt−x0)2+yt2となり、rb2=(xt−x1)2+yt2となる。
Here, the numerical value stored as the
領域決定閾値517の値をdとすると、d=ra2−rb2=−2×xt×x0+x02+2×xt×x1−x12となる。ここで、図11の(b)に示すように、x0=−x1となるように原点Oを定めると、指先Fが領域Bと領域Cとの境界にある場合の領域決定閾値の値は、d=2×xt×x1+x12+2×xt×x1−x12=4×xt×x1となる。一方、指先Fが領域Aと領域Bとの境界にあるものとしたときの領域決定閾値517の値は−dとなる。以上より、領域決定閾値517の値は、d=4×xt×x1および−dと一般化することができる。
When the value of the
なお、本実施形態において複数の距離センサが設けられる位置は、領域特定部416が、ユーザが触れようとしている領域を特定可能なように、それぞれ異なる位置に設けられていれば、その数および設けられる位置は特に限定されるものではない。つまり、本実施形態における複数の距離センサは、タッチパネル12をどのように複数の領域に分割するかによって、その数および設けられる位置が決まる。例えば、タッチパネル12を上下(図11における紙面に垂直方向)に分割する場合は、第1の距離センサ113および第2の距離センサ114を、テレビ30の例えば上側端部および下側端部にそれぞれ配置すればよい。
In the present embodiment, the position where the plurality of distance sensors are provided is the number and the positions provided if the
(画像表示処理の流れ)
次に、図12を参照して、本実施形態における画像表示処理の流れについて説明する。図12は、テレビ30における画像表示処理の流れの一例を示すフローチャートである。
(Flow of image display processing)
Next, a flow of image display processing in the present embodiment will be described with reference to FIG. FIG. 12 is a flowchart illustrating an example of the flow of image display processing in the
まず、操作予測部45は動作取得部11から第1の距離値laおよびlbを供給されると、距離判定部414に第1の距離値laおよび第2の距離値lbを供給する。
First, when the
距離判定部414は、各距離センサが検出した距離値(第1の距離値laおよび第2の距離値lb)を取得すると(S31)、第1の距離値laおよび第2の距離値lbから求めた最短距離lyが距離閾値未満であるか否かを判定する(S32)。具体的には、第1の距離値laおよび第2の距離値lbから物体(例えば指先F)の位置を特定し、第2の距離センサ114の位置から指先FまでのX軸方向の長さlxを特定する。そして、三平方の定理を用いて、第2の距離値lbと特定した長さlxとから最短距離lyを算出する。そして、算出した最短距離lyと、記憶部53から読み出した距離閾値516とを比較する。
When the
距離判定部414は、距離閾値516以上となると判定した場合(S32でNO)、ステップS31の処理に戻る。これに対して、距離閾値516未満となると判定した場合(S32でYES)、距離判定部414は、第1の距離値laおよび第2の距離値lbを算出部415に供給するとともに、算出部415に領域判定値を算出するよう指示する。
If the
算出部415は、距離判定部414からの指示を受けて、領域判定値(ra2−rb2)を算出する(S32)。具体的には、算出部415は、予め等分しておいたテレビ30の幅の各単位の長さrxによって、供給された第1の距離値laおよび第2の距離値lbを除算することで、無次元化した第1の距離値raおよび第2の距離値rbを算出する。そして、ra2−rb2を計算することで領域判定値を算出する。算出部415は、算出した領域判定値を領域特定部416に供給する。
In response to the instruction from the
領域特定部416は、算出された領域判定値と領域決定閾値517の値dおよび−dとの大小関係を判定する(S34)。具体的には、領域特定部416は、記憶部53から領域決定閾値517を読み出し、供給された領域判定値と比較し、2つの値の大小関係を判定する。
The
領域特定部416は、領域判定値が領域決定閾値517の値d以上であると判定した場合(S34で「d≦(ra2−rb2)」)、図11に示す領域Cをユーザがタッチ操作を実行しようとしている位置を含む領域であると特定する。そして、領域Cを示す情報を表示制御部42に供給する。表示制御部42は、領域Cを示す情報を供給されると、右手操作用の操作パネル132を表示する(S35)。なお、表示制御部42が右手操作用の操作パネル132を表示するために実行する具体的な処理については、実施形態1にて説明した処理と同様であるので、ここでの説明を省略する。
When the
これに対して、領域特定部416は、領域判定値が領域決定閾値517の値−d以下であると判定した場合(S34で「(ra2−rb2)≦−d」)、図11に示す領域Aをユーザがタッチ操作を実行しようとしている位置を含む領域であると特定する。そして、領域Aを示す情報を表示制御部42に供給する。表示制御部42は、領域Aを示す情報を供給されると、左手操作用の操作パネル132を表示する(S36)。なお、表示制御部42が左手操作用の操作パネル132を表示するために実行する具体的な処理については、実施形態1にて説明した処理と同様であるので、ここでの説明を省略する。
On the other hand, when the
また、領域特定部416は、領域判定値が領域決定閾値517の値−dより大きく、dより小さいと判定した場合(S34で「−d<(ra2−rb2)<d」)、図11に示す領域Bをユーザがタッチ操作を実行しようとしている位置を含む領域であると特定する。そして、領域Bを示す情報を表示制御部42に供給する。表示制御部42は、領域Bを示す情報を供給されると、顔操作用の操作パネル132を表示する(S37)。なお、表示制御部42が顔操作用の操作パネル132を表示するために実行する具体的な処理については、実施形態1にて説明した処理と同様であるので、ここでの説明を省略する。
Further, when the
(実施形態3に係るテレビ30の作用効果)
以上のように、本実施形態に係るテレビ30(詳細には、表示制御装置3)は、カメラ111を用いずにユーザがタッチパネル12に対してタッチ操作を実行しようとする動作、および当該タッチ操作が実行されると予想されるタッチパネル12の位置を含む領域を特定することができる。
(Operational effect of the
As described above, the television 30 (specifically, the display control device 3) according to the present embodiment performs an operation in which a user tries to perform a touch operation on the
これにより、映像や画像といった、容量の大きいデータを用いることなく、ユーザにとって使用しやすいタッチインターフェースを実現することができる。よって、テレビ30(詳細には、表示制御装置3)の処理負荷を抑えることができる。 Accordingly, it is possible to realize a touch interface that is easy for the user to use without using large-capacity data such as video and images. Therefore, the processing load of the television 30 (specifically, the display control device 3) can be suppressed.
〔ソフトウェアによる実現例〕
テレビ10〜30(詳細には、表示制御装置1〜3)の制御ブロック(特に操作予測部41、表示制御部42、処理指示部43、操作予測部44、および操作予測部45)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
The control blocks (in particular, the
後者の場合、表示制御装置1〜3は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the
〔まとめ〕
本発明の態様1に係る表示制御装置(1)は、表示部(13)および該表示部と一体に形成されたタッチパネル(12)を備えた表示装置(テレビ10)に、上記タッチパネルに対するタッチ操作によって操作可能な操作画像を上記表示部に表示させる表示制御装置であって、上記タッチパネルに触れようと体を動かしたユーザの体の動きを検出する検出部(操作予測部41)と、上記検出部によって上記体の動きが検出されたとき、上記表示部に上記操作画像を表示する表示制御部(42)と、を備える。
[Summary]
A display control device (1) according to an
上記の構成によれば、タッチパネルに触れようと体を動かしたユーザの体の動きが検出されたとき、表示部に操作画像を表示する。これにより、ユーザがタッチパネルにタッチする前に表示装置の表示部には操作画像が表示されることとなる。そのためユーザは、操作画像を表示するためのタッチ操作を行う必要が無い。それゆえ、ユーザが実行するタッチ操作を減らすことができるので、ユーザにとって使用しやすいタッチインターフェースを実現することができる。 According to said structure, when the motion of the user's body who moved the body trying to touch a touch panel is detected, an operation image is displayed on a display part. As a result, the operation image is displayed on the display unit of the display device before the user touches the touch panel. Therefore, the user does not need to perform a touch operation for displaying the operation image. Therefore, touch operations performed by the user can be reduced, and a touch interface that is easy for the user to use can be realized.
また、タッチパネルに触れようと体を動かしたユーザの体の動きを検出するので、ユーザは操作画像を表示するために特別な動作(例えばジェスチャや音声入力)などをする必要が無い。つまり、ユーザは周囲に人がいたとしても、何ら恥ずかしがることなく操作画像を表示するための動作(タッチ操作を実行しようとする動作)を行うことができる。 In addition, since the movement of the body of the user who moves his body to touch the touch panel is detected, the user does not need to perform a special operation (for example, gesture or voice input) to display the operation image. That is, even if there are people around the user, the user can perform an operation for displaying the operation image (an operation for performing a touch operation) without any embarrassment.
また、タッチパネルに触れようと体を動かしたユーザの体の動きを検出するので、操作画像を表示するタイミングが、ユーザがタッチパネルにタッチする直前よりも前となる。よって、ユーザは操作画像においてタッチすべき位置を早い段階で認識することができるので、戸惑うことなくタッチ操作を実行することができる。 In addition, since the movement of the user's body that has moved to touch the touch panel is detected, the operation image is displayed before the user touches the touch panel. Therefore, since the user can recognize the position to be touched in the operation image at an early stage, the user can execute the touch operation without being confused.
本発明の態様2に係る表示制御装置は、上記態様1において、上記検出部は、上記ユーザの体の動きとして、上記ユーザの右手の動きおよび左手の動きを区別して検出し、上記表示制御部は、上記検出部によって上記右手の動きが検出されたとき、上記操作画像を上記表示部における上記ユーザの右手側の領域に表示する一方、上記左手の動きが検出されたとき、上記操作画像を上記表示部における上記ユーザの左手側の領域に表示してもよい。
In the display control device according to
上記の構成によれば、ユーザが右手でタッチパネルに触れようとしている場合は、操作画像を表示部におけるユーザの右手側の領域に表示し、ユーザが左手でタッチパネルに触れようとしている場合は、操作画像を表示部におけるユーザの左手側の領域に表示する。 According to the above configuration, when the user is about to touch the touch panel with the right hand, the operation image is displayed in the area on the right hand side of the user in the display unit, and when the user is about to touch the touch panel with the left hand, The image is displayed in an area on the left hand side of the user in the display unit.
これにより、ユーザが手を動かす距離が必要最小限となるので、ユーザにとって使いやすいタッチインターフェースを実現することができる。 As a result, the distance by which the user moves his / her hand is minimized, and a touch interface that is easy to use for the user can be realized.
また、ユーザが動かした手と逆側に操作パネルを表示してしまうと、ユーザ自身の腕が表示装置に表示された画像または映像の視認の邪魔になってしまう。例えば表示装置がテレビである場合、ユーザ自身の腕が番組視聴の邪魔になってしまう。 Also, if the operation panel is displayed on the opposite side of the hand moved by the user, the user's own arm will interfere with the viewing of the image or video displayed on the display device. For example, when the display device is a television, the user's own arm is in the way of watching the program.
これに対して、上記の構成によれば、ユーザが動かした手の側の領域に操作パネルを表示するので、ユーザの腕が画像または映像の視認の邪魔にならない。 On the other hand, according to the above configuration, since the operation panel is displayed in the region of the hand moved by the user, the user's arm does not interfere with the visual recognition of the image or video.
本発明の態様3に係る表示制御装置は、上記態様1または2において、上記検出部は、上記ユーザの体の動きとして、上記ユーザの顔が上記タッチパネルに近づく動きを検出し、上記表示制御部は、上記検出部によって上記ユーザの顔が上記タッチパネルに近づく動きが検出されたとき、上記表示部の中心を含む領域または上記表示部の全領域に上記操作画像を表示してもよい。
In the
上記の構成によれば、ユーザの顔がタッチパネルに近づく動きを検出したとき、操作画像を表示部の中心を含む領域または全領域に表示する。 According to the above configuration, when the movement of the user's face approaching the touch panel is detected, the operation image is displayed in an area including the center of the display unit or in the entire area.
これにより、ユーザが口にペンなどの指示体をくわえてタッチ操作を実行しようとした場合にも、操作画像を表示することができる。 Thereby, even when the user tries to execute a touch operation with an indicator such as a pen in his mouth, an operation image can be displayed.
ここで、ユーザが口にペンなどの指示体をくわえてタッチ操作を実行するという状況は、例えば、病院などで両手が不自由なユーザがテレビを視聴しているときに操作画像を表示しようとする状況である。このときユーザの顔は、ほとんどの場合表示部の中心の正面にあると考えられる。よって、操作画像を表示部の中心を含む領域に表示することで、ユーザが口にペンなどの指示体をくわえてタッチ操作を実行しようとするときに、顔を動かす距離を必要最小限とすることができる。これにより、ユーザが口にペンなどの指示体をくわえてタッチ操作を実行するような状況、換言すれば指先でタッチ操作を行う場合よりもユーザが望む位置へのタッチ操作が難しい状況であっても、ユーザが望む位置へのタッチ操作を行いやすい状態とすることができる。 Here, a situation in which the user performs a touch operation with an indicator such as a pen in his mouth is, for example, an attempt to display an operation image when a user with both hands is viewing a TV in a hospital or the like. It is a situation to do. At this time, the user's face is considered to be in front of the center of the display unit in most cases. Therefore, by displaying the operation image in an area including the center of the display unit, when the user tries to perform a touch operation with an indicator such as a pen in his mouth, the distance to move the face is minimized. be able to. As a result, a situation where the user performs a touch operation with an indicator such as a pen in his mouth, in other words, a situation where it is more difficult to perform a touch operation at a position desired by the user than when performing a touch operation with a fingertip. In addition, it is possible to make it easy to perform a touch operation at a position desired by the user.
また、操作画像を表示部の全領域に表示すれば、操作画像が最大化されることになるので、操作画像に含まれる各項目も拡大されることとなるため、ユーザが望む位置へのタッチ操作を、より行いやすい状態とすることができる。 In addition, if the operation image is displayed in the entire area of the display unit, the operation image is maximized, so that each item included in the operation image is enlarged. The operation can be made easier.
本発明の態様4に係る表示制御装置は、上記態様1から3のいずれかにおいて、上記ユーザを連続して撮影する撮影部(カメラ111)をさらに備え、上記検出部は、上記撮影部によって撮影された映像または画像から上記ユーザの上記体の動きを検出してもよい。
The display control apparatus according to
上記の構成によれば、ユーザを連続して撮影した映像または画像からタッチパネルに触れようとしているユーザの体の動きを検出する。これにより、ユーザがタッチパネルに触れようとしているか否かを、ユーザの動作における早い段階で特定することができる。よって、ユーザがタッチ操作を実行しようとする動作における早い段階で操作画像を表示することができるので、ユーザは操作画像においてタッチすべき位置を早い段階で認識することができ、戸惑うことなくタッチ操作を実行することができる。 According to said structure, the motion of the user's body who is going to touch a touch panel from the image | video or image which image | photographed the user continuously is detected. Thereby, it is possible to specify whether or not the user is about to touch the touch panel at an early stage in the user's operation. Therefore, since the operation image can be displayed at an early stage in the operation of the user trying to perform the touch operation, the user can recognize the position to be touched in the operation image at an early stage, and the touch operation can be performed without confusion. Can be executed.
本発明の態様5に係る表示制御装置は、上記態様4において、上記検出部は、上記撮影部によって撮影された映像または画像における、上記ユーザの体の動きの変化率が所定の変化率以上であるか否かを判定し、上記表示制御部は、上記検出部によって上記所定の変化率以上であると判定されたとき、上記表示部に上記操作画像を表示してもよい。
The display control apparatus according to
上記の構成によれば、撮影された映像または画像におけるユーザの体の動きの変化率が、所定の変化率以上であるとき、表示部に操作画像を表示する。これにより、ユーザがタッチパネルに触れようと体を動かしたことを特定することができるので、表示部に操作画像を表示することができる。また、変化率が所定の変化率未満である、すなわちユーザの体の動きがタッチパネルに触れようとする動きではない小さな動きである場合に、操作画像を表示しない。よって、ユーザがタッチパネルに触れるつもりが無いのに、表示部に操作画像が表示されてしまうといった誤表示を防ぐことができる。 According to the above configuration, the operation image is displayed on the display unit when the change rate of the movement of the user's body in the captured video or image is equal to or higher than the predetermined change rate. Thereby, since it can be specified that the user has moved the body to touch the touch panel, the operation image can be displayed on the display unit. Further, when the rate of change is less than a predetermined rate of change, that is, when the user's body movement is a small movement that is not a movement to touch the touch panel, the operation image is not displayed. Therefore, it is possible to prevent erroneous display such that an operation image is displayed on the display unit even though the user does not intend to touch the touch panel.
具体的には、ユーザがタッチパネルに触れようと体を動かすとき、撮影された映像または画像におけるユーザは、体を動かす前の状態から大きく変化する。その結果映像または画像におけるユーザの体の動きの変化率が大きくなる。つまり変化率が大きいときは、ユーザがタッチパネルに触れようとしている状況である。 Specifically, when the user moves the body to touch the touch panel, the user in the captured video or image changes greatly from the state before the body is moved. As a result, the rate of change of the user's body movement in the video or image increases. That is, when the rate of change is large, the user is trying to touch the touch panel.
そして、所定の変化率を、ユーザが体を動かす前の状態から、タッチパネルに触れようとする動きを行った状態になったときの変化率より、十分低い値に設定すれば、当該所定の変化率と、映像または画像におけるユーザの体の動きの変化率とを比較することにより、ユーザがタッチパネルに触れようとしているか否かを特定することができる。これにより、ユーザがタッチパネルに触れようと体を動かしたときに、表示部に操作画像を表示することができる。 Then, if the predetermined change rate is set to a value sufficiently lower than the change rate when the user moves to touch the touch panel from the state before moving the body, the predetermined change By comparing the rate and the rate of change of the user's body movement in the video or image, it can be determined whether or not the user is touching the touch panel. Thereby, when the user moves his body to touch the touch panel, the operation image can be displayed on the display unit.
本発明の態様6に係る表示制御装置は、上記態様5において、上記検出部は、上記撮影部によって撮影された映像または画像を、上記ユーザの顔を中心として左右に分割し、上記表示制御部は、上記検出部によって分割された上記映像または画像の左側の領域における上記変化率が上記所定の変化率以上であると判定されたとき、上記操作画像を上記表示部における上記ユーザの右手側の領域に表示する一方、右側の領域における上記変化率が上記所定の変化率以上であると判定されたとき、上記操作画像を上記表示部における上記ユーザの左手側の領域に表示してもよい。
In the display control device according to
上記の構成によれば、撮影された映像または画像を、ユーザの顔を中心として左側の領域と右側の領域とに分割する。そして、左側の領域における変化率が所定の変化率である場合に、操作画像を表示部における右手側の領域に表示する。また、右側の領域における変化率が所定の変化率である場合に、操作画像を表示部における左手側の領域に表示する。 According to the above configuration, the captured video or image is divided into a left region and a right region with the user's face as the center. When the rate of change in the left region is a predetermined rate of change, the operation image is displayed in the region on the right hand side of the display unit. Further, when the rate of change in the right region is a predetermined rate of change, the operation image is displayed in the region on the left hand side of the display unit.
これにより、ユーザの顔が撮影された映像または画像において、ユーザの顔が当該映像または画像の中心にない場合であっても、ユーザの右手が動いたか、または左手が動いたかについて正確に判定することができる。 As a result, in the video or image in which the user's face is captured, it is accurately determined whether the user's right hand or left hand has moved even when the user's face is not at the center of the video or image. be able to.
本発明の態様7に係る表示制御装置(2)は、上記態様4から6のいずれかにおいて、上記表示装置と上記ユーザとの距離を測定する距離測定部(距離センサ112)をさらに備え、上記検出部は、上記距離測定部によって測定された距離が所定の閾値未満であるとき、上記撮影部によって撮影された映像または画像から上記ユーザの上記体の動きを検出してもよい。
The display control device (2) according to
上記の構成によれば、表示装置とユーザとの距離が所定の閾値未満であるとき、撮影された映像または画像からユーザの動きを検出する。換言すれば、表示装置とユーザとの距離が所定の閾値以上であるときは、ユーザの動きがあっても、ユーザの動きの検出を行わないので、操作画像を表示しないこととなる。つまり、ユーザがタッチパネルに触れようとする可能性があるときのみ、ユーザの動きの検出を行うようにすることができる。 According to said structure, when a distance of a display apparatus and a user is less than a predetermined threshold value, a user's motion is detected from the image | photographed image | video or image. In other words, when the distance between the display device and the user is equal to or greater than the predetermined threshold, even if the user moves, the user's movement is not detected, and thus the operation image is not displayed. That is, it is possible to detect the user's movement only when there is a possibility that the user is going to touch the touch panel.
具体的には、ユーザがタッチパネルに対して腕を伸ばすことで、指先にてタッチパネルに触れることができる最遠の位置にいるときの、表示装置とユーザの胴体部分との距離を示す数値を閾値に設定すれば、距離測定部が測定した距離が当該閾値以上である場合、ユーザはタッチパネルに触れることができない位置にいることとなる。つまり、そのような位置にいるときにユーザが体を動かしたとしても、その動きはタッチパネルに触れようとする動きではない。このような場合、本態様に係る表示制御装置はユーザの動きの検出を行わない。つまり本態様に係る表示制御装置は、ユーザがタッチパネルに触れることのできる位置にいるときのみ、ユーザの動きの検出を行う。よって操作画像の誤表示を防ぐことができる。 Specifically, a numerical value indicating a distance between the display device and the user's trunk when the user is at the farthest position where the user can touch the touch panel with a fingertip by extending the arm with respect to the touch panel is a threshold value If the distance measured by the distance measuring unit is equal to or greater than the threshold, the user is in a position where the user cannot touch the touch panel. That is, even if the user moves his / her body at such a position, the movement is not a movement to touch the touch panel. In such a case, the display control apparatus according to this aspect does not detect the user's movement. That is, the display control apparatus according to this aspect detects the user's movement only when the user is at a position where the user can touch the touch panel. Therefore, erroneous display of the operation image can be prevented.
本発明の態様8に係る表示制御装置(3)は、上記態様1において、上記検出部は、上記タッチパネルを予め分割した複数の領域のうち、上記ユーザの体の動きによって触れようとしている領域を特定し、上記表示制御部は、上記検出部によって特定された上記領域と重なる上記表示部の表示領域に上記操作画像を表示してもよい。
In the display control device (3) according to
上記の構成によれば、タッチパネルを予め分割した複数の領域のうち、ユーザが触れようとしている領域を特定し、ユーザが触れようとしている領域に操作画像を表示する。換言すれば、ユーザが触れようとしている位置から大きく外れた位置に操作画像が表示されることは無い。これにより、ユーザが手を動かす距離が必要最小限となるので、ユーザにとって使いやすいタッチインターフェースを実現することができる。 According to said structure, the area | region which the user is going to touch is specified among the several area | regions which divided the touch panel previously, and an operation image is displayed on the area | region which the user is going to touch. In other words, the operation image is not displayed at a position greatly deviated from the position that the user is trying to touch. As a result, the distance by which the user moves his / her hand is minimized, and a touch interface that is easy to use for the user can be realized.
本発明の態様9に係る表示制御装置は、上記態様8において、上記触れようとしている領域を特定可能なようにそれぞれ異なる位置に設けられた、上記表示装置と上記ユーザとの距離を測定する複数の距離測定部をさらに備え、上記検出部は、上記複数の距離測定部によってそれぞれ測定された距離に基づいて、上記触れようとしている領域を特定してもよい。
The display control device according to
上記の構成によれば、複数の距離測定部がそれぞれ測定した距離に基づいて、ユーザが触れようとしている領域を特定する。 According to said structure, the area | region which a user is going to touch is pinpointed based on the distance which the some distance measurement part each measured.
これにより、複数の距離センサによる距離の測定のみで、ユーザがタッチ操作を実行しようとしている領域を特定することができる。つまり、ユーザを撮影した映像や画像などを用いなくとも、ユーザがタッチパネルに触れようとしているか否か、および触れようとしている場合の位置を判定することができる。よって、表示制御装置に映像や画像に対する処理といった負荷の大きい処理を実行させることなく、ユーザにとって操作しやすい位置に操作画像を表示することができる。 Thereby, the area | region where a user is going to perform touch operation can be pinpointed only by the measurement of the distance by a some distance sensor. That is, it is possible to determine whether or not the user is about to touch the touch panel and the position when the user is about to touch without using a video or an image of the user. Therefore, it is possible to display the operation image at a position that is easy for the user to operate without causing the display control apparatus to execute a process with a large load such as a process for video or an image.
なお、複数の距離測定部の位置は、タッチパネルをどのように分割するかによって決定される。つまり、複数の距離測定部が測定したそれぞれの距離を用いて、触れようとしている領域を識別可能であるように、複数の距離測定部の位置は決定される。例えば、タッチパネルを左右に分割する場合は、2つの距離測定部を、表示装置の右端部と左端部とにそれぞれ設ければよく、タッチパネルを上下に分割する場合は、2つの距離測定部を表示装置の上端部と下端部とにそれぞれ設ければよい。 Note that the positions of the plurality of distance measuring units are determined depending on how the touch panel is divided. That is, using the respective distances measured by the plurality of distance measuring units, the positions of the plurality of distance measuring units are determined so that the region to be touched can be identified. For example, when the touch panel is divided into left and right, two distance measurement units may be provided at the right end and the left end of the display device, respectively, and when the touch panel is divided up and down, two distance measurement units are displayed. What is necessary is just to provide in the upper end part and lower end part of an apparatus, respectively.
本発明の態様10に係る表示制御装置の制御方法は、表示部および該表示部と一体に形成されたタッチパネルを備えた表示装置に、上記タッチパネルに対するタッチ操作によって操作可能な操作画像を上記表示部に表示させる表示制御装置の制御方法であって、上記タッチパネルに触れようと体を動かしたユーザの体の動きを検出する検出ステップ(S3、S4、S6)と、上記検出ステップにて上記体の動きを検出したとき、上記表示部に上記操作画像を表示する表示ステップ(S7、S8、S9)と、を含む。 The display control device control method according to the tenth aspect of the present invention provides a display device including a display unit and a touch panel integrally formed with the display unit, and displays an operation image operable by a touch operation on the touch panel. The display control device is displayed on the touch panel with a detection step (S3, S4, S6) for detecting the movement of the body of the user who moved the body to touch the touch panel, and the detection step A display step (S7, S8, S9) for displaying the operation image on the display unit when motion is detected.
この制御方法によれば、態様1に係る表示制御装置と同様の作用効果を有する。
According to this control method, the same function and effect as those of the display control apparatus according to
本発明の各態様に係る表示制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記表示制御装置が備える各部(ソフトウェア要素に限る)として動作させることにより上記表示制御装置をコンピュータにて実現させる表示制御装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The display control apparatus according to each aspect of the present invention may be realized by a computer. In this case, the display control apparatus is operated by causing the computer to operate as each unit (limited to software elements) included in the display control apparatus. A control program for a display control apparatus realized by a computer and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.
本発明は、表示部および該表示部と一体に形成されたタッチパネルを備えたテレビなどの表示装置にタッチ操作可能な画像を表示させる表示制御装置に利用することができる。 INDUSTRIAL APPLICABILITY The present invention can be used for a display control device that displays a touch-operable image on a display device such as a television provided with a display unit and a touch panel formed integrally with the display unit.
1 表示制御装置
2 表示制御装置
3 表示制御装置
10 テレビ(表示装置)
12 タッチパネル
13 表示部
20 テレビ(表示装置)
30 テレビ(表示装置)
41 操作予測部(検出部)
42 表示制御部
44 操作予測部(検出部)
45 操作予測部(検出部)
111 カメラ(撮影部)
112 距離センサ(距離測定部)
113 第1の距離センサ(距離測定部)
114 第2の距離センサ(距離測定部)
S3 検出ステップ
S4 検出ステップ
S6 検出ステップ
S7 表示ステップ
S8 表示ステップ
S9 表示ステップ
DESCRIPTION OF
12
30 Television (display device)
41 Operation prediction unit (detection unit)
42
45 Operation prediction unit (detection unit)
111 Camera (shooting unit)
112 Distance sensor (distance measuring unit)
113 1st distance sensor (distance measurement part)
114 Second distance sensor (distance measuring unit)
S3 detection step S4 detection step S6 detection step S7 display step S8 display step S9 display step
Claims (12)
上記タッチパネルに触れようと体を動かしたユーザの体の動きを検出する検出部と、
上記検出部によって上記体の動きが検出されたとき、上記表示部に上記操作画像を表示する表示制御部と、を備えることを特徴とする表示制御装置。 A display control device that causes a display device including a display unit and a touch panel formed integrally with the display unit to display an operation image operable by a touch operation on the touch panel on the display unit,
A detection unit that detects the movement of the body of the user who moved the body to touch the touch panel;
A display control device, comprising: a display control unit that displays the operation image on the display unit when movement of the body is detected by the detection unit.
上記表示制御部は、上記検出部によって上記右手の動きが検出されたとき、上記操作画像を上記表示部における上記ユーザの右手側の領域に表示する一方、上記左手の動きが検出されたとき、上記操作画像を上記表示部における上記ユーザの左手側の領域に表示することを特徴とする請求項1に記載の表示制御装置。 The detection unit distinguishes and detects the movement of the user's right hand and the left hand as the movement of the user's body,
The display control unit displays the operation image in a region on the right hand side of the user in the display unit when the movement of the right hand is detected by the detection unit, while when the movement of the left hand is detected, The display control apparatus according to claim 1, wherein the operation image is displayed in an area on the left hand side of the user in the display unit.
上記表示制御部は、上記検出部によって上記ユーザの顔が上記タッチパネルに近づく動きが検出されたとき、上記表示部の中心を含む領域または上記表示部の全領域に上記操作画像を表示することを特徴とする請求項1または2に記載の表示制御装置。 The detection unit detects a movement of the user's face approaching the touch panel as a movement of the user's body,
The display control unit displays the operation image in a region including the center of the display unit or the entire region of the display unit when the detection unit detects a movement of the user's face approaching the touch panel. The display control device according to claim 1, wherein the display control device is a display control device.
上記検出部は、上記撮影部によって撮影された映像または画像から上記ユーザの上記体の動きを検出することを特徴とする請求項1から3のいずれか1項に記載の表示制御装置。 It further includes a photographing unit that continuously photographs the user,
The display control apparatus according to claim 1, wherein the detection unit detects a movement of the body of the user from a video or an image captured by the imaging unit.
上記表示制御部は、上記検出部によって上記所定の変化率以上であると判定されたとき、上記表示部に上記操作画像を表示することを特徴とする請求項4に記載の表示制御装置。 The detection unit determines whether the change rate of the movement of the user's body in the video or image shot by the shooting unit is equal to or higher than a predetermined change rate,
The display control apparatus according to claim 4, wherein the display control unit displays the operation image on the display unit when the detection unit determines that the rate of change is equal to or greater than the predetermined change rate.
上記表示制御部は、上記検出部によって分割された上記映像または画像の左側の領域における上記変化率が上記所定の変化率以上であると判定されたとき、上記操作画像を上記表示部における上記ユーザの右手側の領域に表示する一方、右側の領域における上記変化率が上記所定の変化率以上であると判定されたとき、上記操作画像を上記表示部における上記ユーザの左手側の領域に表示することを特徴とする請求項5に記載の表示制御装置。 The detection unit divides the video or image captured by the imaging unit into left and right with the user's face as the center,
The display control unit displays the operation image on the display unit when the change rate in the left region of the video or image divided by the detection unit is equal to or higher than the predetermined change rate. When the change rate in the right region is determined to be greater than or equal to the predetermined change rate, the operation image is displayed in the left hand region of the user in the display unit. The display control apparatus according to claim 5.
上記検出部は、上記距離測定部によって測定された距離が所定の閾値未満であるとき、上記撮影部によって撮影された映像または画像から上記体の動きを検出することを特徴とする請求項4から6のいずれか1項に記載の表示制御装置。 A distance measuring unit for measuring a distance between the display device and the user;
The detection unit detects movement of the body from an image or an image captured by the imaging unit when the distance measured by the distance measurement unit is less than a predetermined threshold. 7. The display control device according to any one of 6.
上記表示制御部は、上記検出部によって特定された上記領域と重なる上記表示部の表示領域に上記操作画像を表示することを特徴とする請求項1に記載の表示制御装置。 The detection unit identifies an area to be touched by a movement of the user's body among a plurality of areas obtained by dividing the touch panel in advance.
The display control apparatus according to claim 1, wherein the display control unit displays the operation image in a display region of the display unit that overlaps the region specified by the detection unit.
上記検出部は、上記複数の距離測定部によってそれぞれ測定された距離に基づいて、上記触れようとしている領域を特定することを特徴とする請求項8に記載の表示制御装置。 A plurality of distance measuring units that measure the distance between the display device and the user, which are provided at different positions so that the region to be touched can be specified;
The display control apparatus according to claim 8, wherein the detection unit specifies the region to be touched based on the distances measured by the plurality of distance measurement units.
上記タッチパネルに触れようと体を動かしたユーザの体の動きを検出する検出ステップと、
上記検出ステップにて上記体の動きを検出したとき、上記表示部に上記操作画像を表示する表示ステップと、を含むことを特徴とする表示制御装置の制御方法。 A control method of a display control device for causing a display device including a display unit and a touch panel integrally formed with the display unit to display an operation image operable by a touch operation on the touch panel on the display unit,
A detection step of detecting the movement of the body of the user who moved the body to touch the touch panel;
And a display step of displaying the operation image on the display unit when the body movement is detected in the detection step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014199350A JP2016071558A (en) | 2014-09-29 | 2014-09-29 | Display control device, control method, control program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014199350A JP2016071558A (en) | 2014-09-29 | 2014-09-29 | Display control device, control method, control program, and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016071558A true JP2016071558A (en) | 2016-05-09 |
Family
ID=55864642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014199350A Pending JP2016071558A (en) | 2014-09-29 | 2014-09-29 | Display control device, control method, control program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016071558A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109947236A (en) * | 2017-12-21 | 2019-06-28 | 艾力普提实验室公司 | The method and apparatus of content on the display of controlling electronic devices |
CN111752445A (en) * | 2019-06-12 | 2020-10-09 | 广东小天才科技有限公司 | Page control method of wearable device and wearable device |
WO2024080135A1 (en) * | 2022-10-13 | 2024-04-18 | ソニーグループ株式会社 | Display control device, display control method, and display control program |
-
2014
- 2014-09-29 JP JP2014199350A patent/JP2016071558A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109947236A (en) * | 2017-12-21 | 2019-06-28 | 艾力普提实验室公司 | The method and apparatus of content on the display of controlling electronic devices |
CN109947236B (en) * | 2017-12-21 | 2024-05-28 | 艾力普提实验室公司 | Method and device for controlling content on a display of an electronic device |
CN111752445A (en) * | 2019-06-12 | 2020-10-09 | 广东小天才科技有限公司 | Page control method of wearable device and wearable device |
WO2024080135A1 (en) * | 2022-10-13 | 2024-04-18 | ソニーグループ株式会社 | Display control device, display control method, and display control program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8711182B2 (en) | Information processing apparatus and display control method | |
US8350822B2 (en) | Touch pad operable with multi-objects and method of operating same | |
JP6215534B2 (en) | Information processing apparatus, information processing method, and computer program | |
JP6132644B2 (en) | Information processing apparatus, display control method, computer program, and storage medium | |
US9582096B2 (en) | Information processing apparatus, information processing method, and program | |
US8830273B2 (en) | Display control apparatus and display control method, display control program, and recording medium | |
JP6062416B2 (en) | Information input device and information display method | |
US9544556B2 (en) | Projection control apparatus and projection control method | |
US10095384B2 (en) | Method of receiving user input by detecting movement of user and apparatus therefor | |
US20150339026A1 (en) | User terminal device, method for controlling user terminal device, and multimedia system thereof | |
JP2015508539A (en) | Display device and control method thereof | |
KR20140133034A (en) | Portable device and controlling method thereof | |
KR102297473B1 (en) | Apparatus and method for providing touch inputs by using human body | |
KR20150031986A (en) | Display apparatus and control method thereof | |
US20130132889A1 (en) | Information processing apparatus and information processing method to achieve efficient screen scrolling | |
US20150002433A1 (en) | Method and apparatus for performing a zooming action | |
US20160147294A1 (en) | Apparatus and Method for Recognizing Motion in Spatial Interaction | |
JP2016071558A (en) | Display control device, control method, control program, and recording medium | |
KR101890140B1 (en) | A method for controlling a display apparatus using a camera device and mobile device, display apparatus, and system thereof | |
KR20150000278A (en) | Display apparatus and control method thereof | |
JP6232694B2 (en) | Information processing apparatus, control method thereof, and program | |
JP6971573B2 (en) | Electronic devices, their control methods and programs | |
KR20150017832A (en) | Method for controlling 3D object and device thereof | |
KR101165388B1 (en) | Method for controlling screen using different kind of input devices and terminal unit thereof | |
TWI483175B (en) | Data sharing system and data sharing method thereof |