JP2016071558A - Display control device, control method, control program, and recording medium - Google Patents

Display control device, control method, control program, and recording medium Download PDF

Info

Publication number
JP2016071558A
JP2016071558A JP2014199350A JP2014199350A JP2016071558A JP 2016071558 A JP2016071558 A JP 2016071558A JP 2014199350 A JP2014199350 A JP 2014199350A JP 2014199350 A JP2014199350 A JP 2014199350A JP 2016071558 A JP2016071558 A JP 2016071558A
Authority
JP
Japan
Prior art keywords
unit
user
display
image
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014199350A
Other languages
Japanese (ja)
Inventor
玲人 森
Akito Mori
玲人 森
仁志 吉谷
Hitoshi Yoshitani
仁志 吉谷
直人 上垣
Naoto Kamigaki
直人 上垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014199350A priority Critical patent/JP2016071558A/en
Publication of JP2016071558A publication Critical patent/JP2016071558A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To achieve a touch interface easy to use for a user.SOLUTION: A display control device includes: an operation prediction section (41) for detecting movement of a body of a user who moves the body in order to contact to a touch panel (12); and a display control part (42) for displaying an operation image on a display part (13) when the movement of the body is detected by the operation prediction section (41).SELECTED DRAWING: Figure 1

Description

本発明は、表示部および該表示部と一体に形成されたタッチパネルを備えた表示装置にタッチ操作可能な画像を表示させる表示制御装置などに関する。   The present invention relates to a display control device that displays a touch-operable image on a display device including a display unit and a touch panel formed integrally with the display unit.

近年、タッチ操作によって操作可能な(タッチインターフェースを備えた)テレビなどの表示装置が普及している。タッチインターフェースは直感的なユーザインターフェースであり、自宅以外の場所にてテレビなどの表示装置を利用する場合に、商品知識が無くても操作が容易であることが普及の理由の1つである。自宅以外の場所での表示装置の利用の例としては、ホテルの部屋での利用、病院(病室または待合室など)での利用、スポーツジムにおいてランニングマシンなどに備え付けられたテレビの利用などが挙げられる。   In recent years, a display device such as a television (having a touch interface) that can be operated by a touch operation has become widespread. The touch interface is an intuitive user interface, and when using a display device such as a television in a place other than home, one of the reasons for the widespread use is that it is easy to operate without knowledge of products. Examples of using the display device in places other than home include use in a hotel room, use in a hospital (such as a hospital room or waiting room), and use of a television set in a running machine or the like in a sports gym. .

タッチインターフェースを備えた表示装置においては、選局やメニュー選択を行うための画像をタッチ操作で表示し、表示した画像に対してさらに操作を行うことで、テレビの場合チャンネルを変えたり、設定を変えたりする処理を実行することができる。しかしながら、このような処理を実行するまでには2回のタッチ操作が必要であり、利便性の高いタッチインターフェースが実現されているとは言い難い。   In a display device equipped with a touch interface, an image for selecting a channel or selecting a menu is displayed by a touch operation, and further operations are performed on the displayed image, thereby changing the channel or setting for a television. The process to change can be performed. However, two touch operations are required until such processing is executed, and it is difficult to say that a highly convenient touch interface is realized.

この問題の解決策として、特許文献1〜3に記載の技術が提案されている。特許文献1および2には、ジェスチャによってタッチ操作無しで画像表示を制御する技術が記載されている。また特許文献3には、指が近づいたことを検知して画像を表示する技術が記載されている。   As a solution to this problem, techniques described in Patent Documents 1 to 3 have been proposed. Patent Documents 1 and 2 describe techniques for controlling image display without a touch operation by a gesture. Patent Document 3 describes a technique for displaying an image by detecting that a finger is approaching.

また、ユーザにとって使用しやすいタッチインターフェースを実現するために、様々な技術が提案されている。例えば特許文献4には、近づいた指の位置に表示されている画像移動させる技術が記載されている。また特許文献5には、ユーザの手の情報をあらかじめ登録しておき、操作する手が右手の場合と左手の場合とで、それぞれにおいて適切な画像を表示する技術が記載されている。   Various techniques have been proposed to realize a touch interface that is easy for the user to use. For example, Patent Document 4 describes a technique for moving an image displayed at the position of a finger approaching. Japanese Patent Application Laid-Open No. 2004-228688 describes a technique for registering user hand information in advance and displaying an appropriate image for each of the right hand and the left hand.

特開2011−100396号公報(2011年5月19日公開)JP 2011-1000039 A (published May 19, 2011) 特開2013−016060号公報(2013年1月24日公開)JP2013-016060A (published January 24, 2013) 特開2002−358162号公報(2002年12月13日公開)JP 2002-358162 A (released on December 13, 2002) 特開2014−102851号公報(2014年6月5日公開)JP 2014-102851 A (released June 5, 2014) 特開2011−150672号公報(2011年8月4日公開)JP 2011-150672 A (released on August 4, 2011)

しかしながら、特許文献1および2の技術では、実施するジェスチャを予め覚えておかなくてはならず、自宅以外の場所で一時的にテレビを利用する場合には適さないという問題がある。また、周囲に人がいる状態でジェスチャを実施することは恥ずかしいと感じるユーザもいる。   However, the techniques disclosed in Patent Documents 1 and 2 have a problem in that gestures to be performed must be remembered in advance and are not suitable for temporarily using a television in a place other than home. In addition, there are users who feel embarrassed to perform gestures in the presence of people around them.

また、特許文献3や4の技術では、指が画面近くに近づいたことを検知して画像を指の近くに表示するため、ユーザが画面にタッチする直前になるまで画像が表示されない。そのため、タッチ操作の直前にタッチする位置(例えば、画像内においてユーザがタッチしたいボタンの位置)を確認しなければならず、ユーザにとって不便であるという問題がある。   Further, in the techniques of Patent Documents 3 and 4, since the image is displayed near the finger by detecting that the finger is close to the screen, the image is not displayed until just before the user touches the screen. Therefore, there is a problem that it is inconvenient for the user because it is necessary to confirm the position touched immediately before the touch operation (for example, the position of the button that the user wants to touch in the image).

その他の解決策としては、例えば音声入力によって画像を表示するなどが考えられるが、ジェスチャと同様に周囲に人がいる状態で音声入力を行うことは恥ずかしいと感じるユーザもいる。   As another solution, for example, an image can be displayed by voice input, but there are also users who feel embarrassed to perform voice input in the state where there are people around like a gesture.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ユーザにとって使いやすいタッチインターフェースを実現する表示制御装置などを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a display control device or the like that realizes a touch interface that is easy for the user to use.

上記の課題を解決するために、本発明の一態様に係る表示制御装置は、表示部および該表示部と一体に形成されたタッチパネルを備えた表示装置に、上記タッチパネルに対するタッチ操作によって操作可能な操作画像を上記表示部に表示させる表示制御装置であって、上記タッチパネルに触れようと体を動かしたユーザの体の動きを検出する検出部と、上記検出部によって上記体の動きが検出されたとき、上記表示部に上記操作画像を表示する表示制御部と、を備える。   In order to solve the above problems, a display control device according to one embodiment of the present invention can be operated by a touch operation on the touch panel on a display device including a display unit and a touch panel formed integrally with the display unit. A display control device that displays an operation image on the display unit, the detection unit detecting a body movement of a user who moves the body to touch the touch panel, and the body movement detected by the detection unit A display control unit that displays the operation image on the display unit.

また、上記の課題を解決するために、本発明の一態様に係る表示制御装置の制御方法は、表示部および該表示部と一体に形成されたタッチパネルを備えた表示装置に、上記タッチパネルに対するタッチ操作によって操作可能な操作画像を上記表示部に表示させる表示制御装置の制御方法であって、上記タッチパネルに触れようと体を動かしたユーザの体の動きを検出する検出ステップと、上記検出ステップにて上記体の動きを検出したとき、上記表示部に上記操作画像を表示する表示ステップと、を含む。   In order to solve the above problems, a method for controlling a display control device according to one embodiment of the present invention includes a display device including a display unit and a touch panel formed integrally with the display unit. A control method of a display control device for displaying an operation image operable by an operation on the display unit, wherein a detection step of detecting a movement of a body of a user who moves the body to touch the touch panel, and a detection step And displaying the operation image on the display unit when the movement of the body is detected.

本発明の一態様によれば、ユーザにとって使いやすいタッチインターフェースを実現するという効果を奏する。   According to one aspect of the present invention, there is an effect of realizing a touch interface that is easy for a user to use.

本発明の実施形態1に係るテレビの要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the principal part structure of the television which concerns on Embodiment 1 of this invention. 図1に示すテレビのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the television shown in FIG. 図1に示すテレビにおいて撮影される撮影映像の一例を示す図である。It is a figure which shows an example of the picked-up image image | photographed with the television shown in FIG. 図1に示すテレビにおいて撮影される撮影映像の一例を示す図である。It is a figure which shows an example of the picked-up image image | photographed with the television shown in FIG. 図1に示すテレビにおける、操作パネルおよびメニュー画像の例を示す画面図である。FIG. 2 is a screen diagram showing an example of an operation panel and menu images in the television shown in FIG. 1. 図1に示すテレビにおける、操作パネルの表示例を示す画面図である。FIG. 3 is a screen diagram illustrating a display example of an operation panel in the television illustrated in FIG. 1. 図1に示すテレビにおける、画像表示処理の流れの一例を示すフローチャートである。3 is a flowchart illustrating an example of a flow of image display processing in the television illustrated in FIG. 1. 本発明の実施形態2に係るテレビの要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the principal part structure of the television which concerns on Embodiment 2 of this invention. 図8に示すテレビにおける、画像表示処理の流れの一例を示すフローチャートである。9 is a flowchart illustrating an example of a flow of image display processing in the television illustrated in FIG. 8. 本発明の実施形態3に係るテレビの要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the principal part structure of the television which concerns on Embodiment 3 of this invention. (a)は、図10に示すテレビとユーザとの最短距離の算出方法を示す模式図であり、(b)は、指示体(指)がタッチする領域を特定する方法を示す模式図である。(A) is a schematic diagram which shows the calculation method of the shortest distance of the television shown in FIG. 10, and a user, (b) is a schematic diagram which shows the method of specifying the area | region which a pointer (finger) touches. . 図10に示すテレビにおける、画像表示処理の流れの一例を示すフローチャートである。11 is a flowchart illustrating an example of a flow of image display processing in the television illustrated in FIG. 10.

以下、本発明の実施の形態について、詳細に説明する。以下で説明する実施形態では、本発明の表示制御装置と一体となっているテレビ(表示装置)を例に挙げて説明する。なお、表示制御装置と表示装置とは別体であってもよい。また、表示制御装置は、表示装置と有線または無線によって通信可能に接続され、当該表示装置に画像を表示させるものであればよく、例えば、テレビと別体のチューナ、HDDレコーダなどの録画装置、ゲーム機、ディスプレイに接続されたパソコンなどに本発明を適用することもできる。   Hereinafter, embodiments of the present invention will be described in detail. In the embodiments described below, a television (display device) integrated with the display control device of the present invention will be described as an example. The display control device and the display device may be separate. The display control device may be any device that is connected to the display device in a wired or wireless manner so as to be able to display an image on the display device. For example, a tuner separate from the TV, a recording device such as an HDD recorder, The present invention can also be applied to game machines, personal computers connected to displays, and the like.

なお、図面における長さ、大きさおよび幅などの寸法関係ならびに形状は、図面の明瞭化と簡略化のために適宜に変更されており、実際の寸法および形状と異なる場合がある。   Note that dimensional relationships such as length, size, and width and shapes in the drawings are appropriately changed for clarity and simplification of the drawings, and may differ from actual dimensions and shapes.

〔実施形態1〕
本発明の一実施形態について、図1〜図7に基づいて説明すれば、以下のとおりである。
Embodiment 1
An embodiment of the present invention will be described below with reference to FIGS.

(テレビ10のハードウェア構成)
まず、図2を参照してテレビ10(表示装置)のハードウェア構成について説明する。図2は、テレビ10のハードウェア構成の一例を示す図である。図2に示すとおり、テレビ10は、動作取得部11、タッチパネル12、表示部13、制御部14、チューナ21、ストリーム分離部22、グラフィックス処理部23、ビデオデコード部24、音声デコード部25、スケーリング部26、スケーリング部27、ミキシング部28、ブレンド部29、DAC31、およびスピーカ32を備えている。
(Hardware configuration of TV 10)
First, the hardware configuration of the television 10 (display device) will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of a hardware configuration of the television 10. As shown in FIG. 2, the television 10 includes an operation acquisition unit 11, a touch panel 12, a display unit 13, a control unit 14, a tuner 21, a stream separation unit 22, a graphics processing unit 23, a video decoding unit 24, an audio decoding unit 25, A scaling unit 26, a scaling unit 27, a mixing unit 28, a blend unit 29, a DAC 31, and a speaker 32 are provided.

動作取得部11は、ユーザの動作に関する動作情報を取得するデバイスである。動作取得部11の詳細については後述する。   The operation acquisition unit 11 is a device that acquires operation information related to a user's operation. Details of the operation acquisition unit 11 will be described later.

タッチパネル12は、ユーザがテレビ10に対して指示を入力するためのものである。タッチパネル12は、指示体(指またはペンなど)の接触(接近)を受け付けるタッチ面と、指示体とタッチ面との接触/非接触(接近/非接近)、および、その接触(接近)位置を検知するためのタッチセンサとで構成されている。上記タッチセンサは、指示体とタッチ面との接触/非接触(接近/非接近)を検知できれば、どのようなセンサで実現されていても構わない。上記タッチセンサは、例えば圧力センサ、静電容量センサ、光センサなどで実現される。また、タッチセンサはタッチ面に接近する指示体を撮影するカメラであってもよい。タッチパネル12は、検知した指示体が接触(接近)した位置(座標)の情報(以下、タッチ情報)を、後述する処理指示部43に出力する。   The touch panel 12 is for a user to input an instruction to the television 10. The touch panel 12 displays a touch surface that receives contact (approach) of an indicator (such as a finger or a pen), contact / non-contact (approach / non-approach) between the indicator and the touch surface, and a contact (approach) position thereof. It is comprised with the touch sensor for detecting. The touch sensor may be realized by any sensor as long as it can detect contact / non-contact (approach / non-approach) between the indicator and the touch surface. The touch sensor is realized by, for example, a pressure sensor, a capacitance sensor, an optical sensor, or the like. The touch sensor may be a camera that captures an indicator approaching the touch surface. The touch panel 12 outputs information (hereinafter referred to as touch information) on the position (coordinates) at which the detected indicator has contacted (approached) to the processing instruction unit 43 described later.

表示部13は、テレビ10が処理する情報を画像または映像として表示領域に表示する表示デバイスである。例えば表示部13には、テレビジョン放送信号に応じた映像や、制御部14によって生成された操作パネル(操作画像)などが表示される。例えば、表示部13はLCD(液晶ディスプレイ)などの表示デバイスで実現される。   The display unit 13 is a display device that displays information processed by the television 10 as an image or video in a display area. For example, the display unit 13 displays a video corresponding to a television broadcast signal, an operation panel (operation image) generated by the control unit 14, and the like. For example, the display unit 13 is realized by a display device such as an LCD (liquid crystal display).

なお、本実施形態では、タッチパネル12と表示部13とは一体に形成されている。   In the present embodiment, the touch panel 12 and the display unit 13 are integrally formed.

制御部14は、テレビ10が備える各部を統括制御するものである。なお、制御部14の詳細については後述する。   The control unit 14 performs overall control of each unit included in the television 10. Details of the control unit 14 will be described later.

チューナ21は、選局を実施し、デジタル放送波から予め指定されたチャンネルのストリームを抽出する。なお、チューナ21によって抽出されたストリームは、データ放送を表示するためのBML(Broadcast Markup Language)情報を含んでいてもよい。   The tuner 21 selects a channel and extracts a stream of a channel designated in advance from a digital broadcast wave. The stream extracted by the tuner 21 may include BML (Broadcast Markup Language) information for displaying data broadcasting.

ストリーム分離部22は、チューナ21から抽出されたトランスポートストリーム(TS)を、映像信号、音声信号、およびデータ信号(字幕情報、BML情報など)へとストリーム分離(DEMUX)する。   The stream separation unit 22 separates (DEMUX) the transport stream (TS) extracted from the tuner 21 into a video signal, an audio signal, and a data signal (caption information, BML information, etc.).

グラフィックス処理部23は、分離されたデータ信号、および制御部14から出力された操作パネルなどの画像信号をグラフィックに変換する。グラフィックス処理部23によって生成されたグラフィックは、スケーリング部26に出力される。   The graphics processing unit 23 converts the separated data signal and an image signal such as an operation panel output from the control unit 14 into graphics. The graphic generated by the graphics processing unit 23 is output to the scaling unit 26.

ビデオデコード部24は、分離された映像信号をデコードする。ビデオデコード部に24によってデコードされた映像信号は、スケーリング部27に出力される。   The video decoding unit 24 decodes the separated video signal. The video signal decoded by the video decoding unit 24 is output to the scaling unit 27.

音声デコード部25は、分離された音声信号をデコードする。音声デコード部25によってデコードされた音声信号は、ミキシング部28に出力される。   The audio decoding unit 25 decodes the separated audio signal. The audio signal decoded by the audio decoding unit 25 is output to the mixing unit 28.

スケーリング部26は、グラフィックス処理部23によって生成されたグラフィックのサイズ調節を実施する。このときスケーリング部26は、グラフィックス処理部23から供給されたスケーリング情報に従ってグラフィック(操作パネルなど)のサイズ調節を実施する。サイズ調節がなされたグラフィックの画像信号は、ブレンド部29に出力される。   The scaling unit 26 adjusts the size of the graphic generated by the graphics processing unit 23. At this time, the scaling unit 26 adjusts the size of the graphic (operation panel or the like) according to the scaling information supplied from the graphics processing unit 23. The graphic image signal whose size has been adjusted is output to the blend unit 29.

スケーリング部27は、ビデオデコード部24から出力された映像信号のサイズ調節を実施する。スケーリング部27は、ブレンド部29から取得した表示部13の表示領域の大きさを示す情報、および、スケーリング部26によってサイズ調節されたグラフィック(操作パネルなど)の大きさを示す情報を参照して、映像信号のサイズ調節を実施する。サイズが調節された映像信号は、ブレンド部29に出力される。   The scaling unit 27 adjusts the size of the video signal output from the video decoding unit 24. The scaling unit 27 refers to information indicating the size of the display area of the display unit 13 acquired from the blend unit 29 and information indicating the size of the graphic (such as an operation panel) whose size is adjusted by the scaling unit 26. Adjust the size of the video signal. The video signal whose size has been adjusted is output to the blend unit 29.

ミキシング部28は、音声デコード部25によってデコードされた音声信号を出力する。   The mixing unit 28 outputs the audio signal decoded by the audio decoding unit 25.

ブレンド部29は、制御部14からの指示に応じて、映像信号とグラフィックとを配置して合成を行う。そして、合成した映像信号とグラフィックとを表示部13に表示する。   In accordance with an instruction from the control unit 14, the blend unit 29 arranges the video signal and the graphic and performs synthesis. Then, the synthesized video signal and graphic are displayed on the display unit 13.

DAC(Digital-Analog Converter)31は、音声信号についてデジタル信号をアナログ信号に変更する。   A DAC (Digital-Analog Converter) 31 changes a digital signal to an analog signal for an audio signal.

スピーカ32は、DAC31によって変換されたアナログ信号を音声として出力する。   The speaker 32 outputs the analog signal converted by the DAC 31 as sound.

(テレビ10の要部構成)
次に、図1を参照して、テレビ10の要部構成について説明する。図1は、テレビ10の要部構成の一例を示すブロック図である。
(Main components of the television 10)
Next, with reference to FIG. 1, the main part structure of the television 10 is demonstrated. FIG. 1 is a block diagram illustrating an example of a main configuration of the television 10.

図1に示すとおり、テレビ10は、動作取得部11、タッチパネル12、表示部13、制御部14、および記憶部15を備えている。なお、タッチパネル12および表示部13の詳細については既に説明しているため、ここでの説明を省略する。   As shown in FIG. 1, the television 10 includes an operation acquisition unit 11, a touch panel 12, a display unit 13, a control unit 14, and a storage unit 15. Note that the details of the touch panel 12 and the display unit 13 have already been described, and a description thereof will be omitted here.

また、上述したように、テレビ10は表示制御装置1と一体となっている構成である。図1に示す破線で囲まれた部分が表示制御装置1である。   In addition, as described above, the television 10 is configured to be integrated with the display control device 1. A portion surrounded by a broken line shown in FIG.

動作取得部11はカメラ111(撮影部)を含む。カメラ111は、テレビ10を利用している(テレビ10に表示された番組を視聴している)ユーザを連続して撮影する撮影デバイスである。カメラ111は、テレビ10を利用しているユーザを撮影可能な位置に備えられていればよい。動作取得部11は、カメラ111によって撮影された映像を、動作情報として後述する操作予測部41(検出部)に出力する。具体的には、カメラ111は、テレビ10が起動している限り継続して映像を撮影し、動作取得部11は、撮影した映像を操作予測部41に継続して出力し続ける。なお、本実施形態ではカメラ111が映像(動画)を撮影するものとして説明しているが、カメラ111は画像(静止画)を所定時間(例えば、1秒)ごとに連続して撮影するものであってもよい。なお以降、カメラ111が撮影した映像を撮影映像と呼称する。   The operation acquisition unit 11 includes a camera 111 (imaging unit). The camera 111 is a photographing device that continuously photographs a user who is using the television 10 (viewing a program displayed on the television 10). The camera 111 should just be provided in the position which can image | photograph the user using the television 10. FIG. The motion acquisition unit 11 outputs video captured by the camera 111 to the operation prediction unit 41 (detection unit) described later as motion information. Specifically, the camera 111 continuously captures video as long as the television 10 is activated, and the operation acquisition unit 11 continues to output the captured video to the operation prediction unit 41. In the present embodiment, the camera 111 is described as capturing video (moving images). However, the camera 111 continuously captures images (still images) every predetermined time (for example, 1 second). There may be. Hereinafter, an image captured by the camera 111 is referred to as a captured image.

制御部14は、操作予測部41、表示制御部42、および処理指示部43を含む。   The control unit 14 includes an operation prediction unit 41, a display control unit 42, and a processing instruction unit 43.

処理指示部43は、タッチ情報に応じて制御部14の各部に処理を指示するものである。具体的には、処理指示部43は、タッチパネル12からタッチ情報を取得すると、当該タッチ操作に応じた処理を特定する。そして、処理指示部43は、制御部14の各部に特定した処理を実行するよう指示する。例えば処理指示部43は、操作パネル中のボタンに対するタッチ操作を示すタッチ情報を取得して、タッチされたボタンが示す画像を表示するよう、表示制御部42に指示する。   The processing instruction unit 43 instructs each unit of the control unit 14 to perform processing according to touch information. Specifically, when the process instruction unit 43 acquires touch information from the touch panel 12, the process instruction unit 43 specifies a process corresponding to the touch operation. Then, the process instruction unit 43 instructs each unit of the control unit 14 to execute the specified process. For example, the processing instruction unit 43 acquires touch information indicating a touch operation on a button on the operation panel, and instructs the display control unit 42 to display an image indicated by the touched button.

操作予測部41は、動作情報(詳細には、撮影映像)に応じて、ユーザがタッチパネル12に対してタッチ操作を実行しようとしているか否かを判定するものである。操作予測部41は、顔領域判定部411および左右領域判定部412を含む。操作予測部41は、動作取得部11から供給された撮影映像を顔領域判定部411に供給する。   The operation prediction unit 41 determines whether or not the user is about to perform a touch operation on the touch panel 12 according to operation information (specifically, a captured video). The operation prediction unit 41 includes a face area determination unit 411 and a left and right area determination unit 412. The operation prediction unit 41 supplies the captured image supplied from the operation acquisition unit 11 to the face area determination unit 411.

顔領域判定部411は、撮影映像からユーザの顔が表示されている領域である顔領域を特定し、特定した顔領域に関する判定を行うものである。ここで、顔領域判定部411が実行する処理の詳細について、図3を参照して説明する。図3は、カメラ111が撮影する撮影映像の一例を示す図である。なお、以下の説明において、撮影映像を総称して「撮影映像141」と称する場合がある。また、撮影映像141a〜141eは、撮影映像における一部分を画像として示したものである。   The face area determination unit 411 identifies a face area that is an area where the user's face is displayed from the captured video, and performs a determination regarding the identified face area. Here, the detail of the process which the face area | region determination part 411 performs is demonstrated with reference to FIG. FIG. 3 is a diagram illustrating an example of a captured image captured by the camera 111. In the following description, captured images may be collectively referred to as “captured images 141”. The captured images 141a to 141e show a part of the captured images as images.

顔領域判定部411は、撮影映像141を取得すると、まず顔領域を特定する。顔領域の特定は既存の技術を利用可能であるため、ここでの説明を省略する。次に顔領域判定部411は、特定した顔領域143が、取得した撮影映像141に予め設定された中心領域142において、後述する顔領域閾値511以上の範囲を占めるか否かを判定する。ここで図3の(a)では、撮影映像141aにおいて、顔領域143が顔領域閾値511以上となっているとする。図3の(a)の例のように、顔領域閾値511以上の範囲を占めると判定した場合、顔領域判定部411は、当該判定結果を表示制御部42に供給する。なお、本実施形態における中心領域142は、図3の(a)に示すように、撮影映像141に境界線を2本引くことによって特定される領域である。具体的には、中心領域142は、ユーザの顔が映り込むと想定される領域であり、当該領域を特定するように上記2本の境界線が引かれる。ただし、中心領域142はこの例に限定されるものではない。また、撮影映像141において、顔領域143が占める割合を判定してもよい。   When the face area determination unit 411 acquires the captured image 141, the face area determination unit 411 first specifies the face area. Since the existing technology can be used to specify the face area, the description thereof is omitted here. Next, the face area determination unit 411 determines whether or not the specified face area 143 occupies a range equal to or greater than a face area threshold 511 described later in the center area 142 set in advance in the acquired captured video 141. Here, in FIG. 3A, it is assumed that the face area 143 is equal to or greater than the face area threshold 511 in the captured video 141a. As determined in the example of FIG. 3A, when it is determined that the range of the face area threshold 511 or more is occupied, the face area determination unit 411 supplies the determination result to the display control unit 42. Note that the center area 142 in this embodiment is an area specified by drawing two boundary lines on the captured image 141, as shown in FIG. Specifically, the center area 142 is an area where the user's face is assumed to be reflected, and the two boundary lines are drawn so as to specify the area. However, the center region 142 is not limited to this example. Further, the ratio of the face area 143 in the captured video 141 may be determined.

これに対して、顔領域閾値511以上の範囲を占めないと判定した場合、顔領域判定部411は、撮影映像141の変化を特定し、特定した変化を判定する処理を行う。具体的には、撮影映像141に予め設定された中心領域142において、顔領域143の変化量(詳細には、顔領域の拡大率)が後述する顔変化閾値512以上であるか否かを判定する。ここで図3の(b)では、テレビ10に近接していない位置にてテレビ10を利用している(番組を視聴している)ユーザがテレビ10に近づいたことにより、撮影映像141cにおける顔領域143が、撮影映像141bの顔領域143に比べて大きくなっている。顔領域判定部411は、この変化が顔変化閾値512以上であると判定した場合、当該判定結果を表示制御部42に供給する。   On the other hand, when it is determined that the range does not occupy the face area threshold value 511 or more, the face area determination unit 411 specifies a change in the captured video 141 and performs a process of determining the specified change. Specifically, it is determined whether or not the amount of change in the face area 143 (specifically, the enlargement ratio of the face area) is greater than or equal to a face change threshold 512, which will be described later, in the center area 142 set in advance in the captured image 141. To do. Here, in (b) of FIG. 3, when a user who uses the television 10 (views a program) in a position not close to the television 10 approaches the television 10, the face in the captured image 141 c is displayed. The area 143 is larger than the face area 143 of the captured video 141b. If the face area determination unit 411 determines that this change is greater than or equal to the face change threshold 512, the face region determination unit 411 supplies the determination result to the display control unit 42.

これに対して、顔変化閾値512を超えないと判定した場合、顔領域143の位置情報を左右領域判定部412に供給する。   On the other hand, when it is determined that the face change threshold 512 is not exceeded, the position information of the face area 143 is supplied to the left and right area determination unit 412.

なお、顔領域判定部411は、撮影映像141の中心領域142において、顔領域143が顔領域閾値511以上の範囲を占めるか否か、および、撮影映像141の中心領域142において、顔領域143の変化量(顔領域143の拡大率)が顔変化閾値512以上となったか否かのいずれか一方のみを判定する構成であってもよい。   Note that the face area determination unit 411 determines whether or not the face area 143 occupies a range of the face area threshold value 511 or more in the center area 142 of the photographed video 141, and the face area 143 in the center area 142 of the photographed video 141. The configuration may be such that only one of whether or not the change amount (magnification rate of the face region 143) is equal to or greater than the face change threshold 512 may be determined.

また、顔領域判定部411は、上述した判定の前に、動作取得部11から取得した撮影映像を用いてテレビ10とユーザとの距離を判定してもよい。具体的には、顔領域判定部411が、特定した顔領域143の大きさが所定の閾値未満であると判定したとき、テレビ10とユーザとが十分離れていると判定する。そして、十分離れていると判定したとき、顔領域判定部411は処理を終了する。換言すれば、顔領域判定部411は、テレビ10とユーザとの距離がある程度近いときのみ、操作パネル132を表示するか否かの判定を実行する。   Further, the face area determination unit 411 may determine the distance between the television 10 and the user using the captured video acquired from the motion acquisition unit 11 before the above-described determination. Specifically, when the face area determination unit 411 determines that the size of the specified face area 143 is less than a predetermined threshold, the face area determination unit 411 determines that the television 10 and the user are sufficiently separated. When it is determined that the face is sufficiently separated, the face area determination unit 411 ends the process. In other words, the face area determination unit 411 determines whether to display the operation panel 132 only when the distance between the television 10 and the user is close to some extent.

左右領域判定部412は、右側領域および左側領域に関する判定を行うものである。ここで、左右領域判定部412が実行する処理の詳細について、図4を参照して説明する。図4は、カメラ111が撮影する撮影画像の一例を示す図である。   The left and right region determination unit 412 performs determination regarding the right region and the left region. Here, the detail of the process which the left-right area determination part 412 performs is demonstrated with reference to FIG. FIG. 4 is a diagram illustrating an example of a captured image captured by the camera 111.

図4に示すように、左右領域判定部412は、顔領域判定部411から供給された顔領域143の位置情報に従って、撮影映像141を左側領域144と右側領域145に分割する。具体的には、顔領域143の中心に境界線を引くことで、撮影映像141を左側領域144と右側領域145に分割する。そして、撮影映像141の変化を特定し、特定した変化を判定する処理を行う。具体的には、撮影映像141の左側領域144または右側領域145において、所定の変化がおこったか否かを判定する。なお、撮影映像141の分割は、上記のように顔領域143の中心に境界線を引く例に限定されるものではない。例えば、ユーザの右腕および左腕の上腕部を特定して、右(左)腕の上腕部が含まれる領域を左側領域144(右側領域145)としてまず特定し、撮影映像141における左側領域144(右側領域145)以外の領域を右側領域145(左側領域144)としてもよい。   As illustrated in FIG. 4, the left and right area determination unit 412 divides the captured image 141 into a left area 144 and a right area 145 according to the position information of the face area 143 supplied from the face area determination unit 411. Specifically, the captured image 141 is divided into a left region 144 and a right region 145 by drawing a boundary line at the center of the face region 143. And the process which identifies the change of the picked-up image 141 and determines the specified change is performed. Specifically, it is determined whether or not a predetermined change has occurred in the left region 144 or the right region 145 of the captured video 141. Note that the division of the captured video 141 is not limited to the example in which the boundary line is drawn at the center of the face region 143 as described above. For example, the user's right arm and the upper arm of the left arm are identified, and the region including the upper arm of the right (left) arm is first identified as the left region 144 (right region 145), and the left region 144 (right side) in the captured image 141 is identified. The region other than the region 145) may be the right region 145 (left region 144).

ここで、上述した所定の変化の例について詳細に説明する。なお所定の変化は以下に説明するものに限定されず、左側領域144または右側領域145において、ユーザがタッチパネル12に対するタッチ操作を実行しようとすることにより発生する変化であればよい。   Here, the example of the predetermined change described above will be described in detail. The predetermined change is not limited to the one described below, and may be a change that occurs when the user tries to perform a touch operation on the touch panel 12 in the left region 144 or the right region 145.

例えば、左右領域判定部412は、左側領域144または右側領域145における変化率が、後述する左右変化閾値513以上であるか否かを判定してもよい。   For example, the left / right region determination unit 412 may determine whether the rate of change in the left region 144 or the right region 145 is equal to or greater than a left / right change threshold value 513 described below.

また、左右領域判定部412は、左側領域144または右側領域145において左手または右手を認識した場合において、認識した左手または右手の変化率が、閾値(不図示)以上であるか否かを判定してもよい。   Further, when the left or right region determination unit 412 recognizes the left hand or the right hand in the left region 144 or the right region 145, the left / right region determination unit 412 determines whether the recognized rate of change of the left hand or the right hand is equal to or greater than a threshold value (not shown). May be.

また、左右領域判定部412は、左側領域144または右側領域145において棒状の物体(例えば、人差し指、ペンなど)が出現したか否かを判定してもよい。   Further, the left / right area determination unit 412 may determine whether or not a rod-like object (for example, an index finger or a pen) has appeared in the left area 144 or the right area 145.

また、左右領域判定部412は、左側領域144または右側領域145において前腕(人間の腕のうち、手の付け根から肘までの部分)が出現したか否かを判定してもよい。   In addition, the left and right area determination unit 412 may determine whether or not the forearm (the part of the human arm from the base of the hand to the elbow) has appeared in the left area 144 or the right area 145.

また、左右領域判定部412は、左側領域144の左端または右側領域145の右端から、動くものが出現したか否かを判定してもよい。   Further, the left / right region determination unit 412 may determine whether a moving object has appeared from the left end of the left region 144 or the right end of the right region 145.

なお、左右領域判定部412は、上述した5つの判定のすべてを実行するものであってもよいし、少なくとも1つを実行するものであってもよい。なお以降、本実施形態の左右領域判定部412は、左側領域144または右側領域145における変化率が、後述する左右変化閾値513以上であるか否かのみを判定する構成であるとして説明する。ここで「変化率」とは、撮影映像141においてある瞬間を切り取った画像と、その所定時間後(例えば1秒後)の瞬間を切り取った画像との違いを割合として数値化したものである。また、上述した棒状の物体、前腕、および左側領域144の左端または右側領域145の右端から出現する動くものの検知については、既存の技術を利用可能であるため、ここでの詳細な説明を省略する。   Note that the left and right region determination unit 412 may execute all of the five determinations described above, or may execute at least one of them. Hereinafter, the left and right area determination unit 412 according to the present embodiment will be described as a configuration that determines only whether the rate of change in the left area 144 or the right area 145 is equal to or greater than a left and right change threshold value 513 described later. Here, the “change rate” is obtained by quantifying the difference between an image obtained by cutting a certain moment in the captured image 141 and an image obtained by cutting a moment after a predetermined time (for example, one second). In addition, since the existing technique can be used for the above-described detection of the rod-like object, the forearm, and the moving object appearing from the left end of the left region 144 or the right end of the right region 145, detailed description thereof is omitted here. .

ここで図4の(a)では、撮影映像141dにおいて、テレビ10に近接していない位置にてテレビ10を利用しているユーザがタッチパネル12にタッチしようと右手を前に伸ばす動作を行っている。その結果、撮影映像141dにおける左側領域144が、撮影映像141bの左側領域144から大きく変化している。この変化における変化率が左右変化閾値513以上であると判定した場合、左右領域判定部412は、当該判定結果を表示制御部42に供給する。   Here, in FIG. 4A, in the captured image 141 d, a user using the television 10 is performing an operation of extending the right hand forward to touch the touch panel 12 at a position not close to the television 10. . As a result, the left region 144 in the photographed video 141d is greatly changed from the left region 144 in the photographed video 141b. When it is determined that the change rate in this change is equal to or greater than the left / right change threshold 513, the left / right area determination unit 412 supplies the determination result to the display control unit 42.

また、図4の(b)では、撮影映像141eにおいて、テレビ10に近接していない位置にてテレビ10を利用しているユーザがタッチパネル12にタッチしようと左手を前に伸ばす動作を行っている。その結果、撮影映像141eにおける右側領域145が、撮影映像141bの右側領域145から大きく変化している。この変化における変化率が左右変化閾値513以上であると判定した場合、左右領域判定部412は、当該判定結果を表示制御部42に供給する。   4B, in the captured image 141e, the user who uses the television 10 at a position not close to the television 10 performs an operation of extending the left hand to touch the touch panel 12. . As a result, the right area 145 in the photographed video 141e is greatly changed from the right area 145 in the photographed video 141b. When it is determined that the change rate in this change is equal to or greater than the left / right change threshold 513, the left / right area determination unit 412 supplies the determination result to the display control unit 42.

これに対して、変化率が左右変化閾値513を超えないと判定した場合、左右領域判定部412は、撮影映像141において変化がないことを示す情報を、顔領域判定部411に供給する。顔領域判定部411は、当該情報を供給されると、撮影映像141に対して上述した処理を再び実行する。   On the other hand, when it is determined that the rate of change does not exceed the left / right change threshold value 513, the left / right area determination unit 412 supplies information indicating that there is no change in the captured image 141 to the face area determination unit 411. When the face area determination unit 411 is supplied with the information, the face area determination unit 411 performs the above-described process again on the captured video 141.

表示制御部42は、表示部13に画像(映像)を表示させるものである。表示制御部42は、画像生成部421および画像位置決定部422を含む。表示制御部42は、操作予測部41(詳細には、顔領域判定部411または左右領域判定部412)から判定結果を供給されると、当該判定結果を画像生成部421および画像位置決定部422に供給する。   The display control unit 42 displays an image (video) on the display unit 13. The display control unit 42 includes an image generation unit 421 and an image position determination unit 422. When the display control unit 42 is supplied with a determination result from the operation prediction unit 41 (specifically, the face region determination unit 411 or the left and right region determination unit 412), the display control unit 42 outputs the determination result to the image generation unit 421 and the image position determination unit 422. To supply.

画像生成部421は、表示部13に表示する画像を生成するものである。具体的には、画像生成部421は判定結果を供給されると、グラフィックス処理部23を制御して、ユーザのタッチ操作によって操作可能な操作パネル(操作画像)を生成させる。具体的には、画像生成部421は判定結果を供給されると、当該判定結果に応じた、後述する画像データ514を読み出して、読み出した画像データ514が示す操作パネルをグラフィックス処理部23に生成させる。   The image generation unit 421 generates an image to be displayed on the display unit 13. Specifically, when the determination result is supplied, the image generation unit 421 controls the graphics processing unit 23 to generate an operation panel (operation image) that can be operated by a user's touch operation. Specifically, when the image generation unit 421 is supplied with the determination result, the image generation unit 421 reads out image data 514 (to be described later) according to the determination result, and displays the operation panel indicated by the read image data 514 in the graphics processing unit 23. Generate.

さらに具体的には、画像生成部421は、撮影映像141の左側領域144または右側領域145における変化率が左右変化閾値513以上であるという判定結果を供給された場合、ユーザが手(指先)でタッチ操作を行うための操作パネルを表示するための画像データ514を読み出し、当該画像データ514が示す操作パネルをグラフィックス処理部23に生成させる。   More specifically, when the image generation unit 421 is supplied with a determination result that the rate of change in the left region 144 or the right region 145 of the captured video 141 is equal to or greater than the left / right change threshold 513, the user is using his / her hand (fingertip). Image data 514 for displaying an operation panel for performing a touch operation is read, and the operation panel indicated by the image data 514 is generated by the graphics processing unit 23.

ここで、画像生成部421によって生成される操作パネルの詳細について、図5を参照して説明する。図5は、テレビ10における、操作パネルおよびメニュー画像の例を示す画面図である。   Details of the operation panel generated by the image generation unit 421 will be described with reference to FIG. FIG. 5 is a screen diagram showing an example of the operation panel and menu image on the television 10.

撮影映像141の左側領域144または右側領域145における変化率が左右変化閾値513以上であるという判定結果を供給された場合、画像生成部421は、読み出した画像データ514に従って、グラフィックス処理部23に図5の(a)に示す操作パネル132aを生成させる。   When the determination result that the rate of change in the left region 144 or the right region 145 of the captured image 141 is greater than or equal to the left / right change threshold 513 is supplied, the image generation unit 421 sends the graphics processing unit 23 the graphics processing unit 23 according to the read image data 514. An operation panel 132a shown in FIG. 5A is generated.

また、画像生成部421は、顔領域143が中心領域142において顔領域閾値511以上の範囲を占めるという判定結果、または撮影映像141の中心領域142において顔領域143の変化量が顔変化閾値512以上であるという判定結果を供給された場合、ユーザが口にくわえたペンなどでタッチ操作を行うための操作パネルを表示するための画像データ514を読み出し、当該画像データ514が示す操作パネルをグラフィックス処理部23に生成させる。   In addition, the image generation unit 421 determines that the face area 143 occupies a range equal to or greater than the face area threshold 511 in the center area 142 or the amount of change in the face area 143 in the center area 142 of the captured image 141 is greater than or equal to the face change threshold 512. When the determination result is supplied, image data 514 for displaying an operation panel for performing a touch operation with a pen or the like held by the user is read, and the operation panel indicated by the image data 514 is displayed as graphics. The data is generated by the processing unit 23.

具体的には、顔領域143が中心領域142において顔領域閾値511以上の範囲を占めるという判定結果、または撮影映像141の中心領域142において顔領域143の変化量が顔変化閾値512以上であるという判定結果を供給された場合、画像生成部421は、読み出した画像データ514に従って、グラフィックス処理部23に図5の(c)に示す操作パネル132bを生成させる。   Specifically, the determination result that the face area 143 occupies the range of the face area threshold 511 or more in the center area 142, or the change amount of the face area 143 in the center area 142 of the photographed video 141 is the face change threshold 512 or more. When the determination result is supplied, the image generation unit 421 causes the graphics processing unit 23 to generate the operation panel 132b shown in FIG. 5C according to the read image data 514.

操作パネル132bは、各ボタン(操作パネル132b中に含まれるボタンを模したタッチインターフェース)が、図5の(a)に示す操作パネル132aに比べて大きくなっている。つまり操作パネル132bは、ユーザが口にくわえたペンなどでタッチ操作を行う場合に、各ボタンをタッチしやすいようなデザインとなっている。   In the operation panel 132b, each button (a touch interface simulating buttons included in the operation panel 132b) is larger than the operation panel 132a shown in FIG. That is, the operation panel 132b is designed to make it easy to touch each button when the user performs a touch operation with a pen or the like held in the mouth.

「ユーザが口にくわえたペンなどでタッチ操作を行う」という状況は、例えば病院などで両手を使用できないユーザがテレビ10を操作する場合に起こり得る状況である。口にくわえたペンなどで操作する場合、手によって操作する場合と比べて操作がしづらいという問題がある。そこで、このような場合に操作パネル132を図5の(c)に示す操作パネル132bのようなデザインとすることで、ユーザにとって操作しやすいタッチインターフェースを実現することができる。   The situation “a user performs a touch operation with a pen or the like held in his / her mouth” is a situation that may occur when a user who cannot use both hands in a hospital or the like operates the television 10. When operating with a pen or the like in the mouth, there is a problem that the operation is more difficult than when operating with a hand. In such a case, the operation panel 132 is designed like the operation panel 132b shown in FIG. 5C, thereby realizing a touch interface that is easy for the user to operate.

なお、図5の(c)に示す操作パネル132bにおいては、「カーソル」と記載されたボタンにタッチすることで、図5の(a)に示す操作パネル132aに含まれる十字キー(「決定」と記載されたボタンおよび当該ボタンの周りの4つの矢印ボタン)が表示される。また、操作パネル132bにおいては、「数字」と記載されたボタンにタッチすることで、操作パネル132aに含まれるテンキーが表示される。   On the operation panel 132b shown in FIG. 5C, a cross key (“OK”) included in the operation panel 132a shown in FIG. 5A is touched by touching a button labeled “cursor”. And four arrow buttons around the button) are displayed. Further, on the operation panel 132b, a numeric keypad included in the operation panel 132a is displayed by touching a button described as “number”.

また、画像生成部421は、グラフィックス処理部23を制御することにより、操作パネルの画像信号と、供給された判定結果に応じたスケーリング情報をスケーリング部26に出力させる。ここでスケーリング情報とは、操作パネルを表示部13に表示するときの大きさを示す情報である。これにより、画像生成部421は、スケーリング部26に操作パネルのサイズ調節を実施させることができる。   Further, the image generation unit 421 controls the graphics processing unit 23 to cause the scaling unit 26 to output an image signal of the operation panel and scaling information corresponding to the supplied determination result. Here, the scaling information is information indicating the size when the operation panel is displayed on the display unit 13. Accordingly, the image generation unit 421 can cause the scaling unit 26 to adjust the size of the operation panel.

この操作パネルのサイズ調節について、図6を参照して説明する。図6は、図1に示すテレビにおける、操作パネルの表示例を示す画面図である。図6の(b)〜(d)は、ユーザが、図6の(a)に示すように表示部13の表示領域全体にテレビ画面131を表示させてテレビを視聴しているときに、何らかの動作によってタッチパネル12に対するタッチ操作を実行しようとした結果、表示される画像を示す図である。   Adjustment of the size of the operation panel will be described with reference to FIG. FIG. 6 is a screen diagram showing a display example of the operation panel on the television shown in FIG. 6 (b) to 6 (d) show some cases when the user is viewing the television with the television screen 131 displayed on the entire display area of the display unit 13 as shown in FIG. 6 (a). It is a figure which shows the image displayed as a result of trying to perform touch operation with respect to the touch panel 12 by operation | movement.

画像生成部421は、顔領域143が中心領域142において顔領域閾値511以上の範囲を占めるという判定結果、または撮影映像141の中心領域142において顔領域143の変化量が顔変化閾値512以上であるという判定結果を供給された場合、図6の(b)に示すような大きさを示すスケーリング情報を、グラフィックス処理部23を制御してスケーリング部26に出力させる。これにより、スケーリング部26は、図6の(b)に示すような大きさとなるように、操作パネル132のサイズを調節する。   The image generation unit 421 determines that the face area 143 occupies a range of the face area threshold 511 or more in the center area 142, or the amount of change of the face area 143 in the center area 142 of the captured image 141 is the face change threshold 512 or more. When the determination result is supplied, scaling information indicating the size as shown in FIG. 6B is controlled by the graphics processing unit 23 and output to the scaling unit 26. As a result, the scaling unit 26 adjusts the size of the operation panel 132 so that the size is as shown in FIG.

また画像生成部421は、撮影映像141の左側領域144または右側領域145における変化率が左右変化閾値513以上であるという判定結果を供給された場合、図6の(c)または(d)に示すような大きさを示すスケーリング情報、グラフィックス処理部23を制御してスケーリング部26に出力させる。これにより、スケーリング部26は図6の(c)または(d)に示すような大きさとなるように、操作パネル132のサイズを調節する。   When the image generation unit 421 is supplied with a determination result that the rate of change in the left region 144 or the right region 145 of the captured video 141 is equal to or greater than the left / right change threshold 513, the image generation unit 421 is illustrated in (c) or (d) of FIG. The scaling information indicating the size and the graphics processing unit 23 are controlled and output to the scaling unit 26. As a result, the scaling unit 26 adjusts the size of the operation panel 132 so as to have a size as shown in (c) or (d) of FIG.

そしてスケーリング部26は、スケーリング後の操作パネル132の画像信号をブレンド部29に出力する。一方、画像生成部421は、画像位置決定部422に対して、画像位置を決定するよう指示する。   Then, the scaling unit 26 outputs the scaled image signal of the operation panel 132 to the blend unit 29. On the other hand, the image generation unit 421 instructs the image position determination unit 422 to determine the image position.

なお、テレビ画面131のサイズ調節については、上述したように、スケーリング部27が、ブレンド部29から取得した表示部13の表示領域の大きさを示す情報、および、スケーリング部26によってサイズ調節された操作パネル132の大きさを示す情報を参照して実施する。スケーリング部27は、サイズ調節されたテレビ画面131の映像信号を、ブレンド部29に出力する。   Regarding the size adjustment of the television screen 131, as described above, the scaling unit 27 has been adjusted by the scaling unit 26 and the information indicating the size of the display area of the display unit 13 acquired from the blend unit 29. This is performed with reference to information indicating the size of the operation panel 132. The scaling unit 27 outputs the size-adjusted video signal of the television screen 131 to the blending unit 29.

また画像生成部421は、処理指示部43からの指示に応じて、グラフィックス処理部23を制御することにより、操作パネル132と異なる画像を生成させる。この処理の詳細について、再度図5を参照して説明する。   Further, the image generation unit 421 generates an image different from that of the operation panel 132 by controlling the graphics processing unit 23 in accordance with an instruction from the processing instruction unit 43. Details of this processing will be described with reference to FIG. 5 again.

図5の(a)は、図6の(c)または(d)における操作パネル132の一例を示す図面である。換言すれば、撮影映像141の左側領域144または右側領域145における変化率が左右変化閾値513以上であるという判定結果を供給された場合に表示される操作パネル132の一例である。処理指示部43は、図5の(a)に示す操作パネル132aのツールボタン151の位置がタッチされたことを示すタッチ情報を取得すると、画像生成部421に対して、ツール画像133を表示するよう指示する。画像生成部421は当該指示を受けると、グラフィックス処理部23を制御して、図5の(b)に示すようなツール画像133を生成する。具体的には、画像生成部421は、処理指示部43からの指示に応じて、ツール画像133の画像データ514を読み出して、ツール画像133をグラフィックス処理部23に生成させる。   FIG. 5A shows an example of the operation panel 132 in FIG. 6C or 6D. In other words, it is an example of the operation panel 132 that is displayed when a determination result that the rate of change in the left region 144 or the right region 145 of the captured image 141 is equal to or greater than the left-right change threshold 513 is supplied. When the processing instruction unit 43 acquires touch information indicating that the position of the tool button 151 on the operation panel 132a illustrated in FIG. 5A is touched, the processing instruction unit 43 displays a tool image 133 on the image generation unit 421. Instruct. Upon receiving the instruction, the image generation unit 421 controls the graphics processing unit 23 to generate a tool image 133 as shown in FIG. Specifically, the image generation unit 421 reads the image data 514 of the tool image 133 in response to an instruction from the processing instruction unit 43 and causes the graphics processing unit 23 to generate the tool image 133.

そして画像生成部421は、グラフィックス処理部23を制御してスケーリング部26に生成したツール画像133の画像信号を出力させる。このとき画像生成部421は、操作パネル132aのサイズ調整結果、すなわち図5の(a)に示す操作パネル132aのスケーリング情報を、グラフィックス処理部23を制御してスケーリング部26に出力させる。これによりツール画像133は、図5の(a)に示す操作パネル132aと同じ大きさに調整される。   Then, the image generation unit 421 controls the graphics processing unit 23 to output the image signal of the tool image 133 generated by the scaling unit 26. At this time, the image generation unit 421 controls the graphics processing unit 23 to output the size adjustment result of the operation panel 132a, that is, the scaling information of the operation panel 132a shown in FIG. As a result, the tool image 133 is adjusted to the same size as the operation panel 132a shown in FIG.

これに対して、図5の(c)は、図6の(b)における操作パネル132の一例を示す図面である。換言すれば、顔領域143が中心領域142において顔領域閾値511以上の範囲を占めるという判定結果、または撮影映像141の中心領域142において顔領域143の変化量が顔変化閾値512以上であるという判定結果を供給された場合に表示される操作パネル132bの一例である。処理指示部43は、図5の(c)に示す操作パネル132bのツールボタン151の位置がタッチされたことを示すタッチ情報を取得すると、画像生成部421に対して、ツール画像134を表示するよう指示する。画像生成部421は当該指示を受けると、グラフィックス処理部23を制御して、図5の(d)に示すようなツール画像134を生成する。具体的には、画像生成部421は、処理指示部43からの指示に応じて、ツール画像134の画像データ514を読み出して、ツール画像134をグラフィックス処理部23に生成させる。   On the other hand, FIG. 5C shows an example of the operation panel 132 in FIG. 6B. In other words, the determination result that the face area 143 occupies the range of the face area threshold 511 or more in the center area 142, or the determination that the amount of change of the face area 143 in the center area 142 of the captured video 141 is the face change threshold 512 or more. It is an example of the operation panel 132b displayed when a result is supplied. When the processing instruction unit 43 acquires touch information indicating that the position of the tool button 151 on the operation panel 132b illustrated in FIG. 5C is touched, the processing instruction unit 43 displays a tool image 134 on the image generation unit 421. Instruct. Upon receiving the instruction, the image generation unit 421 controls the graphics processing unit 23 to generate a tool image 134 as shown in FIG. Specifically, the image generation unit 421 reads the image data 514 of the tool image 134 in response to an instruction from the processing instruction unit 43 and causes the graphics processing unit 23 to generate the tool image 134.

そして画像生成部421は、グラフィックス処理部23を制御してスケーリング部26に生成したツール画像134の画像信号を出力させる。このとき画像生成部421は、操作パネル132bのサイズ調整結果、すなわち図5の(c)に示す操作パネル132bのスケーリング情報を、グラフィックス処理部23を制御してスケーリング部26に出力させる。これによりツール画像134は、図5の(c)に示す操作パネル132bと同じ大きさに調整される。   Then, the image generation unit 421 controls the graphics processing unit 23 to output the image signal of the tool image 134 generated by the scaling unit 26. At this time, the image generation unit 421 controls the graphics processing unit 23 to output the size adjustment result of the operation panel 132b, that is, the scaling information of the operation panel 132b shown in FIG. As a result, the tool image 134 is adjusted to the same size as the operation panel 132b shown in FIG.

その後、表示制御部42は、操作パネル132a(または操作パネル132b)が表示されていた位置に、ツール画像133(またはツール画像134)を表示する。   Thereafter, the display control unit 42 displays the tool image 133 (or tool image 134) at the position where the operation panel 132a (or operation panel 132b) was displayed.

画像位置決定部422は、表示部13に表示する画像(映像)の位置を決定するものである。具体的には、画像位置決定部422は、画像生成部421からの指示を受けると、表示制御部42から供給された判定結果に従って、操作パネル132の位置を決定する。   The image position determination unit 422 determines the position of the image (video) displayed on the display unit 13. Specifically, upon receiving an instruction from the image generation unit 421, the image position determination unit 422 determines the position of the operation panel 132 according to the determination result supplied from the display control unit 42.

画像位置決定部422は、撮影映像141の右側領域145における変化率が左右変化閾値513以上であるという判定結果を供給された場合、図6の(c)に示すように、操作パネル132の位置を、表示部13におけるユーザの左手側端部から所定距離の領域とする。なお、「ユーザの左(右)手側端部」とは、表示部13などにおいて、テレビ10と相対しているユーザの左(右)手側の端部という意味である。つまり、図5に示すテレビ10の場合、左(右)手側端部は左(右)端となる。これ以降にて使用する「ユーザの左(右)手側端部」についても同様の意味である。   When the image position determination unit 422 is supplied with the determination result that the rate of change in the right region 145 of the captured video 141 is equal to or greater than the left-right change threshold 513, the position of the operation panel 132 is displayed as illustrated in FIG. Is a region at a predetermined distance from the left-hand side end of the user in the display unit 13. The “user's left (right) hand side end” means the end of the user's left (right) hand side facing the television 10 in the display unit 13 or the like. That is, in the case of the television 10 shown in FIG. 5, the left (right) hand side end is the left (right) end. The same applies to “the left (right) hand side end of the user” used thereafter.

また画像位置決定部422は、撮影映像141の左側領域144における変化率が左右変化閾値513以上であるという判定結果を供給された場合、図6の(d)に示すように、操作パネル132の位置を、表示部13におけるユーザの右手側端部から所定距離の領域とする。   When the image position determination unit 422 is supplied with the determination result that the rate of change in the left region 144 of the captured video 141 is equal to or greater than the left-right change threshold 513, as illustrated in FIG. The position is set to a region at a predetermined distance from the user's right-hand side end on the display unit 13.

さらに画像位置決定部422は、顔領域143が中心領域142において顔領域閾値511以上の範囲を占めるという判定結果、または撮影映像141の中心領域142において顔領域143の変化量が顔変化閾値512以上であるという判定結果を供給された場合、図6の(b)に示すように、操作パネル132の位置を表示部13の中心を含む領域とする。   Further, the image position determination unit 422 determines that the face area 143 occupies a range of the face area threshold 511 or more in the center area 142 or the amount of change of the face area 143 in the center area 142 of the photographed video 141 is the face change threshold 512 or more. When the determination result is supplied, the position of the operation panel 132 is set as an area including the center of the display unit 13 as shown in FIG.

また、画像位置決定部422は、決定した操作パネル132の位置に応じて、テレビ画面131の位置を決定する。具体的には、画像位置決定部422は、撮影映像141の左側領域144または右側領域145における変化率が左右変化閾値513以上であるという判定結果を供給された場合、図6の(c)または(d)に示すように、表示部13の表示領域のうち、操作パネル132が表示されない領域を、テレビ画面131を表示する領域とする。   Further, the image position determining unit 422 determines the position of the television screen 131 according to the determined position of the operation panel 132. Specifically, when the image position determination unit 422 is supplied with the determination result that the rate of change in the left region 144 or the right region 145 of the captured video 141 is equal to or greater than the left / right change threshold 513, (c) in FIG. As shown in (d), an area where the operation panel 132 is not displayed in the display area of the display unit 13 is an area where the television screen 131 is displayed.

これに対して、画像位置決定部422は、顔領域143が中心領域142において顔領域閾値511以上の範囲を占めるという判定結果、または撮影映像141の中心領域142において顔領域143の変化量が顔変化閾値512以上であるという判定結果を供給された場合、図6の(b)に示すように、テレビ画面131を表示する領域を表示部13の表示領域全体のままとする。このとき、画像位置決定部422は、操作パネル132をテレビ画面131に重畳させて表示すると決定する。   On the other hand, the image position determination unit 422 determines that the face area 143 occupies a range of the face area threshold 511 or more in the center area 142 or the amount of change in the face area 143 in the center area 142 of the captured image 141 is a face. When the determination result that the change threshold value is 512 or more is supplied, the area for displaying the television screen 131 remains the entire display area of the display unit 13 as shown in FIG. At this time, the image position determination unit 422 determines to display the operation panel 132 superimposed on the television screen 131.

そして画像位置決定部422は、決定した操作パネル132およびテレビ画面131の位置情報を、グラフィックス処理部23を制御してブレンド部29に出力する。ブレンド部29は、取得した位置情報に応じて、サイズ調整されたテレビ画面131および操作パネル132を合成する。そしてブレンド部29は、合成した操作パネル132およびテレビ画面131を表示部13に表示させる。   Then, the image position determination unit 422 outputs the determined position information of the operation panel 132 and the television screen 131 to the blend unit 29 by controlling the graphics processing unit 23. The blend unit 29 combines the size-adjusted television screen 131 and the operation panel 132 according to the acquired position information. The blend unit 29 displays the combined operation panel 132 and television screen 131 on the display unit 13.

なお、表示制御部42に、顔領域143が中心領域142において顔領域閾値511以上の範囲を占めるという判定結果、または撮影映像141の中心領域142において顔領域143の変化量が顔変化閾値512以上であるという判定結果を供給された場合、操作パネル132を表示部13の全表示領域(全領域)に表示してもよい。これにより、操作パネル132が最大化されることとなるので、口にくわえたペンなどでタッチ操作を行うユーザにとってより操作しやすいタッチインターフェースを実現することができる。   Note that the display control unit 42 determines that the face area 143 occupies the face area threshold 511 or more in the center area 142, or the amount of change in the face area 143 in the center area 142 of the captured image 141 is greater than or equal to the face change threshold 512. When the determination result is supplied, the operation panel 132 may be displayed in the entire display area (all areas) of the display unit 13. As a result, the operation panel 132 is maximized, so that it is possible to realize a touch interface that is easier for a user who performs a touch operation with a pen or the like held in the mouth.

記憶部15は、テレビ10(表示制御装置1)にて使用される各種データを記憶する記憶デバイスである。記憶部15は、顔領域閾値511、顔変化閾値512、および左右変化閾値513を少なくとも格納している。   The storage unit 15 is a storage device that stores various data used in the television 10 (display control device 1). The storage unit 15 stores at least a face area threshold 511, a face change threshold 512, and a left / right change threshold 513.

顔領域閾値511は、ユーザがタッチパネル12に対するタッチ操作を実行しようとして、テレビ10に顔を近づけていると判定するための数値(閾値)であり、詳細には、中心領域142において顔領域が占める割合の閾値である。この数値は、ユーザが自身の指先でタッチ操作を実行しようとしている場合の、中心領域142に対する顔領域143の占める割合を示す数値であればよく、その数値は特に限定されない。つまり、上述したような数値以上の場合、ユーザは指先でタッチ操作をする場合より顔をテレビ10に近づけていることとなる。よって、ユーザが口にくわえたペンなどでタッチパネル12に対するタッチ操作を実行しようとしている可能性が高いということとなる。なお、顔領域判定部411が、撮影映像141全体に対して顔領域143が占める割合を判定する場合、顔領域閾値511は、ユーザが自身の指先でタッチ操作を実行しようとしている場合の、撮影映像141に対する顔領域143の占める割合を示す数値となる。   The face area threshold value 511 is a numerical value (threshold value) for determining that the user is approaching the television 10 in an attempt to perform a touch operation on the touch panel 12. Specifically, the face area occupies the central area 142. It is a threshold value of the ratio. This numerical value may be a numerical value indicating the ratio of the face area 143 to the central area 142 when the user is about to perform a touch operation with his / her fingertip, and the numerical value is not particularly limited. That is, when the number is greater than or equal to the above, the user is closer to the television 10 than when the user performs a touch operation with the fingertip. Therefore, it is highly likely that the user is about to perform a touch operation on the touch panel 12 with a pen or the like held in the mouth. Note that when the face area determination unit 411 determines the ratio of the face area 143 to the entire captured image 141, the face area threshold 511 is the shooting when the user is about to perform a touch operation with his / her fingertip. This is a numerical value indicating the ratio of the face area 143 to the image 141.

顔変化閾値512は、ユーザがタッチパネル12に対するタッチ操作を実行しようとして、テレビ10に顔を近づけていると判定するための数値(閾値)であり、詳細には、撮影映像における顔領域143の拡大率の閾値である。この数値は、ユーザが通常通りテレビ10を用いて番組などを視聴している状態から、ユーザが自身の指先でタッチ操作を実行しようとしている状態となったときの、顔領域143の拡大率を示す数値であればよく、その数値は特に限定されない。つまり、顔領域143の拡大率が、指先でタッチ操作を実行しようとするユーザが顔を近づけたとき以上の拡大率となった場合、ユーザは顔を近づけることにより(詳細には、口にくわえたペンなどを用いることにより)タッチ操作を実行しようとしていると判定できる。   The face change threshold 512 is a numerical value (threshold) for determining that the user is approaching the television 10 in an attempt to perform a touch operation on the touch panel 12, and more specifically, enlargement of the face region 143 in the captured video The rate threshold. This numerical value indicates the enlargement ratio of the face area 143 when the user is going to perform a touch operation with his / her fingertip from the state where the user is watching a program or the like using the television 10 as usual. Any numerical value may be used, and the numerical value is not particularly limited. In other words, when the enlargement ratio of the face area 143 is equal to or larger than that when the user who wants to perform the touch operation with the fingertip brings the face closer, the user brings the face closer (in detail, in addition to the mouth). It can be determined that a touch operation is being performed (by using a pen or the like).

左右変化閾値513は、ユーザがタッチパネル12に対するタッチ操作を実行しようとして、右腕または左腕を動かしたと判定するための数値(閾値)であり、詳細には、撮影映像における、左側領域144または右側領域145における変化率の閾値である。この数値は、ユーザが通常どおりテレビ10を用いて番組などを視聴している状態から、タッチパネル12に対するタッチ操作を実行するために、テレビ10(詳細には、表示部13)に右腕または左腕を動かした状態となったときの、左側領域144または右側領域145における変化率より十分低い数値であればよく、その数値は特に限定されない。つまり、タッチ操作を実行するためにユーザが右腕または左腕を動かした状態となったとき、その変化率は左右変化閾値513以上となるので、ユーザが自身の指先でタッチ操作を実行しようとしていると判定できる。   The left-right change threshold value 513 is a numerical value (threshold value) for determining that the user has moved the right arm or the left arm in an attempt to perform a touch operation on the touch panel 12, and more specifically, the left region 144 or the right region 145 in the captured video. Is the threshold of the rate of change at. This numerical value indicates that the right arm or the left arm is applied to the television 10 (specifically, the display unit 13) in order to perform a touch operation on the touch panel 12 from a state in which the user is viewing a program or the like using the television 10 as usual. Any numerical value that is sufficiently lower than the rate of change in the left region 144 or the right region 145 when it is moved is not particularly limited. That is, when the user moves the right arm or the left arm in order to perform the touch operation, the rate of change is equal to or greater than the left / right change threshold 513, and therefore the user is about to perform the touch operation with his / her fingertip. Can be judged.

なお、左右変化閾値513は、左右領域判定部412が、左側領域144または右側領域145が判定する所定の変化の内容に応じて変わったり、別の左右変化閾値513が追加されたりする。例えば、左右領域判定部412が、左側領域144または右側領域145において左手または右手を認識したときに、認識した左手または右手の変化率が、閾値以上であるか否かを判定する場合、左右変化閾値513は例えば、手を開いた状態から人差し指のみを伸ばした状態となったときの、左手または右手の変化率を示す値であればよい。   Note that the left / right change threshold 513 is changed according to the content of a predetermined change that the left / right region determination unit 412 determines, or another left / right change threshold 513 is added. For example, when the left / right region determination unit 412 recognizes the left hand or the right hand in the left region 144 or the right region 145 and determines whether the recognized change rate of the left hand or right hand is equal to or greater than a threshold value, the left / right change The threshold value 513 may be a value indicating the rate of change of the left hand or the right hand when only the index finger is extended from the open hand state.

画像データ514は、操作パネル132やツール画像133を生成するための情報である。例えば、画像データ514は操作パネル132やツール画像133を生成するためのスクリプトであってもよい。   The image data 514 is information for generating the operation panel 132 and the tool image 133. For example, the image data 514 may be a script for generating the operation panel 132 or the tool image 133.

(画像表示処理の流れ)
次に、図7を参照して、本実施形態における画像表示処理の流れについて説明する。図7は、テレビ10における画像表示処理の流れの一例を示すフローチャートである。なおここでの説明においては、手による操作用の操作パネルを、操作パネル132a(図5の(a)に示す操作パネル)と記載し、口にくわえたペンなどによる操作用の操作パネルを、図5の(c)に示す操作パネル132b(図5の(c)に示す操作パネル)と記載することで、両者を区別して説明する。
(Flow of image display processing)
Next, a flow of image display processing in the present embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of the flow of image display processing in the television 10. In the description here, the operation panel for manual operation is described as the operation panel 132a (the operation panel shown in FIG. 5A), and the operation panel for operation with a pen or the like in the mouth is By describing the operation panel 132b shown in FIG. 5C (the operation panel shown in FIG. 5C), the two will be described separately.

まず、操作予測部41は動作取得部11から撮影映像141を供給されると、顔領域判定部411に当該撮影映像141を供給する。   First, when the operation prediction unit 41 is supplied with the captured video 141 from the motion acquisition unit 11, the operation prediction unit 41 supplies the captured video 141 to the face area determination unit 411.

顔領域判定部411は、撮影映像141を取得すると(S1)、当該撮影映像141からユーザの顔が表示されている領域である顔領域143を特定する(S2)。そして、顔領域判定部411は、特定した顔領域143が、中心領域142にて顔領域閾値511以上を占めているかを判定する(S3、検出ステップ)。具体的には、顔領域判定部411は、記憶部15から顔領域閾値511を読み出し、中心領域142のうち、特定した顔領域143が占める領域の割合を示す数値が、顔領域閾値511以上となるか否かを判定する。   When acquiring the captured image 141 (S1), the face region determining unit 411 specifies a face region 143 that is a region where the user's face is displayed from the captured image 141 (S2). Then, the face area determination unit 411 determines whether the specified face area 143 occupies the face area threshold 511 or more in the center area 142 (S3, detection step). Specifically, the face area determination unit 411 reads the face area threshold value 511 from the storage unit 15, and the numerical value indicating the ratio of the area occupied by the identified face area 143 in the central area 142 is equal to or greater than the face area threshold value 511. It is determined whether or not.

顔領域閾値511以上となると判定した場合(S3でYES)、顔領域判定部411は、当該判定結果を表示制御部42に供給する。表示制御部42は、供給された判定結果に応じて、顔操作用の操作パネル132bを表示する(S9、表示ステップ)。具体的には、表示制御部42は、顔操作用の操作パネル132bを、テレビ画面131に重畳させて表示させる。さらに具体的には、まず表示制御部42は、供給された判定結果を画像生成部421に供給する。画像生成部421は顔領域143が中心領域142において顔領域閾値511以上の範囲を占めるという判定結果を供給されると、グラフィックス処理部23を制御して、読み出した画像データ514に応じた操作パネル132b(詳細には、図5の(c)に示す操作パネル132b)を生成させる。そして画像生成部421は、グラフィックス処理部23を制御することにより、操作パネル132bの画像信号と、供給された判定結果に応じたスケーリング情報をスケーリング部26に出力させる。これにより、スケーリング部26は、図6の(b)に示すような大きさとなるように、操作パネル132bのサイズを調節する。   When it is determined that the face area threshold value 511 is reached (YES in S3), the face area determination unit 411 supplies the determination result to the display control unit 42. The display control unit 42 displays the operation panel 132b for face operation according to the supplied determination result (S9, display step). Specifically, the display control unit 42 causes the operation panel 132b for face operation to be superimposed on the television screen 131 and displayed. More specifically, first, the display control unit 42 supplies the supplied determination result to the image generation unit 421. When the image generation unit 421 is supplied with a determination result that the face region 143 occupies the range of the face region threshold 511 or more in the central region 142, the image generation unit 421 controls the graphics processing unit 23 to perform an operation according to the read image data 514. The panel 132b (specifically, the operation panel 132b shown in FIG. 5C) is generated. Then, the image generation unit 421 controls the graphics processing unit 23 to cause the scaling unit 26 to output the image signal of the operation panel 132b and scaling information corresponding to the supplied determination result. Thereby, the scaling part 26 adjusts the size of the operation panel 132b so that it may become a magnitude | size as shown to (b) of FIG.

そしてスケーリング部26は、スケーリング後の操作パネル132bの画像信号をブレンド部29に出力する。一方、画像生成部421は、画像位置決定部422に対して、画像位置を決定するよう指示する。   Then, the scaling unit 26 outputs the scaled image signal of the operation panel 132 b to the blend unit 29. On the other hand, the image generation unit 421 instructs the image position determination unit 422 to determine the image position.

画像位置決定部422は、上記指示を受けると、表示制御部42から供給された判定結果に応じて、図6の(b)に示すように、操作パネル132bの位置を表示部13の中心を含む領域とする。また画像位置決定部422は、テレビ画面131を表示する領域を、表示部13の表示領域全体のままとする。このとき、画像位置決定部422は、操作パネル132bをテレビ画面131に重畳させて表示すると決定する。そして画像位置決定部422は、決定した操作パネル132bおよびテレビ画面131の位置情報を、グラフィックス処理部23を制御してブレンド部29に出力する。   Upon receiving the above instruction, the image position determination unit 422 determines the position of the operation panel 132b at the center of the display unit 13 as shown in FIG. 6B according to the determination result supplied from the display control unit 42. Include area. Further, the image position determination unit 422 leaves the area for displaying the television screen 131 as the entire display area of the display unit 13. At this time, the image position determination unit 422 determines to display the operation panel 132 b superimposed on the television screen 131. Then, the image position determination unit 422 outputs the determined position information of the operation panel 132 b and the television screen 131 to the blend unit 29 by controlling the graphics processing unit 23.

ブレンド部29は、取得した位置情報に応じて、図6の(b)に示すように、サイズ調整されたテレビ画面131および操作パネル132bを合成する。そしてブレンド部29は、合成した操作パネル132bおよびテレビ画面131を表示部13に表示させる。   The blending unit 29 combines the size-adjusted television screen 131 and the operation panel 132b as shown in FIG. 6B according to the acquired position information. Then, the blend unit 29 causes the display unit 13 to display the synthesized operation panel 132b and the television screen 131.

これに対して、特定した顔領域143が、顔領域閾値511未満であると判定した場合(S3でNO)、顔領域判定部411は、特定した顔領域143の変化量が中心領域142にて顔変化閾値512以上であるか否かを判定する(S4、検出ステップ)。具体的には、顔領域判定部411は、記憶部15から顔変化閾値512を読み出し、中心領域142において、顔領域143の変化量(詳細には、顔領域143の拡大率)を算出し、当該拡大率が顔変化閾値512以上であるか否かを判定する。顔変化閾値512以上であると判定した場合(S4でYES)、顔領域判定部411は、当該判定の判定結果を表示制御部42に供給する。表示制御部42は、上述したステップS9の処理を実行する。   On the other hand, when it is determined that the identified face area 143 is less than the face area threshold 511 (NO in S3), the face area determination unit 411 determines that the amount of change in the identified face area 143 is the center area 142. It is determined whether or not the face change threshold is 512 or more (S4, detection step). Specifically, the face area determination unit 411 reads the face change threshold value 512 from the storage unit 15, calculates the change amount of the face area 143 (specifically, the enlargement ratio of the face area 143) in the center area 142, It is determined whether or not the enlargement ratio is greater than or equal to the face change threshold 512. If it is determined that the face change threshold value 512 is greater than or equal to 512 (YES in S4), the face area determination unit 411 supplies the determination result of the determination to the display control unit 42. The display control unit 42 executes the process of step S9 described above.

これに対して、顔領域143の拡大率が、顔変化閾値512未満であると判定した場合(S4でNO)、顔領域判定部411は、顔領域143の位置情報を左右領域判定部412に供給する。   On the other hand, when it is determined that the enlargement ratio of the face area 143 is less than the face change threshold 512 (NO in S4), the face area determination unit 411 sends the position information of the face area 143 to the left and right area determination unit 412. Supply.

左右領域判定部412は、供給された顔領域143の位置情報に従って、顔領域143を中心として、撮影映像141を左側領域144と右側領域145に分割する(S5)。そして、左右領域判定部412は、撮影映像141において左右変化閾値513以上の変化率を示す変化があるか否かを判定する(S6、検出ステップ)。具体的には、左右領域判定部412は、記憶部15から左右変化閾値513を読み出し、左側領域144および右側領域145において発生した変化の変化率を算出し、当該変化率が左右変化閾値513以上であるか否かを判定する。   The left and right area determination unit 412 divides the captured image 141 into a left area 144 and a right area 145 around the face area 143 according to the supplied position information of the face area 143 (S5). Then, the left / right area determination unit 412 determines whether or not there is a change indicating a change rate of the left / right change threshold 513 or more in the captured video 141 (S6, detection step). Specifically, the left / right region determination unit 412 reads the left / right change threshold value 513 from the storage unit 15, calculates the change rate of the change occurring in the left region 144 and the right region 145, and the change rate is equal to or greater than the left / right change threshold value 513. It is determined whether or not.

まず、左右変化閾値513以上の変化が、左側領域144にて発生したと判定した場合(S6で「左側領域にてあり」)、左右領域判定部412は、当該判定結果を表示制御部42に供給する。   First, when it is determined that a change greater than or equal to the left / right change threshold 513 occurs in the left region 144 (“is left region” in S6), the left / right region determination unit 412 sends the determination result to the display control unit 42. Supply.

そして表示制御部42は、供給された判定結果に応じて、右手操作用の操作パネル132aを表示する(S7、表示ステップ)。具体的には、表示制御部42は、表示部13におけるユーザの右手側の端部から所定距離までの領域に操作パネル132aを表示し、操作パネル132の左端から表示部13においてユーザの左手側の端部までの領域にテレビ画面131を表示させる。さらに具体的には、まず表示制御部42は、供給された判定結果を画像生成部421に供給する。画像生成部421は、撮影映像141の左側領域144における変化率が左右変化閾値513以上であるという判定結果を供給されると、グラフィックス処理部23を制御して、読み出した画像データ514に応じた操作パネル132a(詳細には、図5の(a)に示す操作パネル132a)を生成させる。そして、画像生成部421は、グラフィックス処理部23を制御することにより、操作パネル132aの画像信号と、供給された判定結果に応じたスケーリング情報をスケーリング部26に出力させる。これにより、スケーリング部26は、図6の(d)に示すような大きさとなるように、操作パネル132aのサイズを調節する。   Then, the display control unit 42 displays the operation panel 132a for the right hand operation according to the supplied determination result (S7, display step). Specifically, the display control unit 42 displays the operation panel 132a in an area from the end on the right hand side of the user on the display unit 13 to a predetermined distance, and from the left end of the operation panel 132 on the display unit 13 on the left hand side of the user. The TV screen 131 is displayed in the area up to the end of the screen. More specifically, first, the display control unit 42 supplies the supplied determination result to the image generation unit 421. When the image generation unit 421 is supplied with the determination result that the rate of change in the left region 144 of the captured video 141 is equal to or greater than the left-right change threshold 513, the image generation unit 421 controls the graphics processing unit 23 to respond to the read image data 514. The operation panel 132a (specifically, the operation panel 132a shown in FIG. 5A) is generated. Then, the image generation unit 421 controls the graphics processing unit 23 to cause the scaling unit 26 to output an image signal of the operation panel 132a and scaling information corresponding to the supplied determination result. Thereby, the scaling unit 26 adjusts the size of the operation panel 132a so as to have a size as shown in FIG.

そしてスケーリング部26は、スケーリング後の操作パネル132aの画像信号をブレンド部29に出力する。一方、画像生成部421は、画像位置決定部422に対して、画像位置を決定するよう指示する。   Then, the scaling unit 26 outputs the scaled image signal of the operation panel 132a to the blend unit 29. On the other hand, the image generation unit 421 instructs the image position determination unit 422 to determine the image position.

画像位置決定部422は、上記指示を受けると、表示制御部42から供給された判定結果に応じて、図6の(d)に示すように、操作パネル132aの位置を、表示部13におけるユーザの右手側の端部から所定距離までの領域とする。また画像位置決定部422は、テレビ画面131の位置を、操作パネル132aの左端から表示部13においてユーザの左手側の端部までの領域とする。そして画像位置決定部422は、決定した操作パネル132aおよびテレビ画面131の位置情報を、グラフィックス処理部23を制御してブレンド部29に出力する。   Upon receiving the instruction, the image position determination unit 422 determines the position of the operation panel 132a on the display unit 13 according to the determination result supplied from the display control unit 42, as shown in FIG. The region from the right-hand end of the to the predetermined distance. The image position determination unit 422 sets the position of the television screen 131 as an area from the left end of the operation panel 132a to the end of the display unit 13 on the left hand side of the user. Then, the image position determination unit 422 outputs the determined position information of the operation panel 132 a and the television screen 131 to the blend unit 29 by controlling the graphics processing unit 23.

ブレンド部29は、取得した位置情報に応じて、図6の(d)に示すように、サイズ調整されたテレビ画面131および操作パネル132aを合成する。そしてブレンド部29は、合成した操作パネル132aおよびテレビ画面131を表示部13に表示させる。   The blending unit 29 combines the size-adjusted television screen 131 and the operation panel 132a as shown in FIG. 6D in accordance with the acquired position information. Then, the blend unit 29 causes the display unit 13 to display the synthesized operation panel 132a and the television screen 131.

これに対して、左右変化閾値513以上の変化が、右側領域145にて発生したと判定した場合(S6で「右側領域にてあり」)、左右領域判定部412は、当該判定結果を表示制御部42に供給する。   On the other hand, when it is determined that a change greater than or equal to the left / right change threshold 513 has occurred in the right region 145 (“is right region” in S6), the left / right region determination unit 412 performs display control of the determination result. To the unit 42.

そして表示制御部42は、供給された判定結果に応じて、左手操作用の操作パネル132aを表示する(S8、表示ステップ)。具体的には、表示制御部42は、表示部13におけるユーザの左手側の端部から所定距離までの領域に操作パネル132aを表示し、操作パネル132aの右端から表示部13においてユーザの右手側の端部までの領域にテレビ画面131を表示させる。さらに具体的には、まず表示制御部42は、供給された判定結果を画像生成部421に供給する。画像生成部421は、撮影映像141の右側領域145における変化率が左右変化閾値513以上であるという判定結果を供給されると、グラフィックス処理部23を制御して、読み出した画像データ514に応じた操作パネル132aを生成させる。そして、画像生成部421は、グラフィックス処理部23を制御することにより、操作パネル132aの画像信号と、供給された判定結果に応じたスケーリング情報をスケーリング部26に出力させる。これにより、スケーリング部26は、図6の(c)に示すような大きさとなるように、操作パネル132aのサイズを調節する。   Then, the display control unit 42 displays the left-hand operation panel 132a according to the supplied determination result (S8, display step). Specifically, the display control unit 42 displays the operation panel 132a in a region from the end on the left hand side of the user on the display unit 13 to a predetermined distance, and the right side of the user on the display unit 13 from the right end of the operation panel 132a. The TV screen 131 is displayed in the area up to the end of the screen. More specifically, first, the display control unit 42 supplies the supplied determination result to the image generation unit 421. When the image generation unit 421 is supplied with the determination result that the rate of change in the right region 145 of the captured video 141 is greater than or equal to the left / right change threshold 513, the image generation unit 421 controls the graphics processing unit 23 to respond to the read image data 514. The operation panel 132a is generated. Then, the image generation unit 421 controls the graphics processing unit 23 to cause the scaling unit 26 to output an image signal of the operation panel 132a and scaling information corresponding to the supplied determination result. As a result, the scaling unit 26 adjusts the size of the operation panel 132a so as to have a size as shown in FIG.

そしてスケーリング部26は、スケーリング後の操作パネル132aの画像信号をブレンド部29に出力する。一方、画像生成部421は、画像位置決定部422に対して、画像位置を決定するよう指示する。   Then, the scaling unit 26 outputs the scaled image signal of the operation panel 132a to the blend unit 29. On the other hand, the image generation unit 421 instructs the image position determination unit 422 to determine the image position.

画像位置決定部422は、上記指示を受けると、表示制御部42から供給された判定結果に応じて、図6の(c)に示すように、操作パネル132aの位置を、表示部13におけるユーザの左手側の端部から所定距離までの領域とする。また画像位置決定部422は、テレビ画面131の位置を、操作パネル132aの右端から表示部13においてユーザの右手側の端部までの領域とする。そして画像位置決定部422は、決定した操作パネル132aおよびテレビ画面131の位置情報を、グラフィックス処理部23を制御してブレンド部29に出力する。   Upon receiving the instruction, the image position determination unit 422 determines the position of the operation panel 132a on the display unit 13 according to the determination result supplied from the display control unit 42, as shown in FIG. The region from the left-hand side end to a predetermined distance. In addition, the image position determination unit 422 sets the position of the television screen 131 as an area from the right end of the operation panel 132a to the end of the display unit 13 on the right hand side of the user. Then, the image position determination unit 422 outputs the determined position information of the operation panel 132 a and the television screen 131 to the blend unit 29 by controlling the graphics processing unit 23.

ブレンド部29は、取得した位置情報に応じて、図6の(c)に示すように、サイズ調整されたテレビ画面131および操作パネル132aを合成する。そしてブレンド部29は、合成した操作パネル132aおよびテレビ画面131を表示部13に表示させる。   The blending unit 29 combines the size-adjusted television screen 131 and the operation panel 132a as shown in FIG. 6C according to the acquired position information. Then, the blend unit 29 causes the display unit 13 to display the synthesized operation panel 132a and the television screen 131.

これに対して、左右変化閾値513以上の変化が、いずれの領域でも発生していないと判定した場合(S6で「なし」)、すなわち、左側領域144および右側領域145の両方における変化率が左右変化閾値513未満であると判定した場合、左右領域判定部412は、撮影映像141において変化がないことを示す情報を、顔領域判定部411に供給する。顔領域判定部411は、当該情報を供給されると、ステップS1の処理から再度画像表示処理を実行する。   On the other hand, when it is determined that no change of the left / right change threshold 513 or more has occurred in any region (“None” in S6), that is, the change rate in both the left region 144 and the right region 145 is left and right. If it is determined that the change threshold value is less than 513, the left and right area determination unit 412 supplies information indicating that there is no change in the captured image 141 to the face area determination unit 411. When the information is supplied, the face area determination unit 411 executes the image display process again from the process of step S1.

(実施形態1に係るテレビ10の作用効果)
以上のように、本実施形態に係るテレビ10(詳細には、表示制御装置1)は、カメラ111を用いてユーザを撮影した映像を取得し、当該映像においてユーザがタッチパネル12に対してタッチ操作を実行しようとする動作を特定すると、ユーザがタッチ操作を実行しやすい位置に操作パネル132を表示する。
(Operational effect of the television 10 according to the first embodiment)
As described above, the television 10 (specifically, the display control device 1) according to the present embodiment acquires a video image of the user using the camera 111, and the user performs a touch operation on the touch panel 12 in the video image. When the action to be executed is specified, the operation panel 132 is displayed at a position where the user can easily perform the touch operation.

例えば、ユーザが右手でタッチ操作を実行しようとする動作を特定した場合は、表示部13におけるユーザの右手側端部から所定距離の領域に操作パネル132aを表示する。また逆に、ユーザが左手でタッチ操作を実行しようとする動作を特定した場合は、表示部13におけるユーザの左手側端部から所定距離の領域に操作パネル132aを表示する。また、ユーザが表示部13に対して顔を近づける(口にくわえた指示体でタッチ操作を実行しようとする)動作を特定した場合は、表示部13に操作パネル132bを表示する。   For example, when the user specifies an action to perform a touch operation with the right hand, the operation panel 132a is displayed in an area of a predetermined distance from the user's right hand side end on the display unit 13. Conversely, when the user specifies an action to perform a touch operation with the left hand, the operation panel 132a is displayed in an area at a predetermined distance from the end portion of the display unit 13 on the left hand side of the user. In addition, when the user specifies an action of bringing a face closer to the display unit 13 (to try to perform a touch operation with an indicator in the mouth), the operation panel 132 b is displayed on the display unit 13.

これにより、ユーザの動きを予測して操作パネル132を表示することができるので、ユーザは操作パネル132を表示するためのタッチ操作を行う必要が無い。つまり、従来は、操作パネル132を表示するためのタッチ操作と、操作パネル132に対するタッチ操作との2回のタッチ操作で実現していた、テレビ10に対する処理の実行指示(例えば、チャンネルを変えたり、設定を変更したりする処理の実行指示)を、1回のタッチ操作のみで実現することができる。よって、病院などで体の不自由なユーザがテレビ10を使用する場合、必要最小限のタッチ操作でテレビ10に対する処理の実行指示を行うことができる。   As a result, the operation panel 132 can be displayed by predicting the movement of the user, so that the user does not need to perform a touch operation for displaying the operation panel 132. That is, conventionally, a process execution instruction for the television 10 (for example, changing a channel, which has been realized by two touch operations, that is, a touch operation for displaying the operation panel 132 and a touch operation on the operation panel 132) , An execution instruction for changing the setting) can be realized by a single touch operation. Therefore, when a user with a physical disability uses the television 10 in a hospital or the like, it is possible to instruct the television 10 to execute a process with a minimum necessary touch operation.

また、カメラ111で撮影した映像を用いて、タッチ操作を実行しようとする動作を特定するので、ユーザがタッチ操作を実行しようとするための動作における、比較的早いタイミングで操作パネル132を表示することができる。これにより、ユーザはタッチすべき位置を早い段階で認識することができるので、戸惑うことなく操作パネル132に対するタッチ操作を実行することができる。   In addition, since the operation to perform the touch operation is specified using the video captured by the camera 111, the operation panel 132 is displayed at a relatively early timing in the operation for the user to perform the touch operation. be able to. As a result, the user can recognize the position to be touched at an early stage, and thus can perform a touch operation on the operation panel 132 without being confused.

また、ユーザの動作に応じて、操作パネル132の表示位置、大きさ、ボタン配置などを変えて表示するので、ユーザにとって使用しやすいタッチインターフェースを実現することができる。   In addition, since the display position, size, button layout, and the like of the operation panel 132 are changed according to the user's operation, the touch interface that is easy for the user to use can be realized.

〔実施形態2〕
本発明の他の実施形態について、図8および図9に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
The following will describe another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

(テレビ20の要部構成)
まず、図8を参照して、テレビ20(表示装置)の要部構成について説明する。図8は、テレビ20の要部構成の一例を示すブロック図である。図8に示すように、テレビ20は表示制御装置2と一体となっている構成である。図8に示す破線で囲まれた部分が表示制御装置2である。なお、テレビ20のハードウェア構成については、実施形態1にて説明したテレビ10のハードウェア構成と同様であるため、説明を省略する。
(Main components of the television 20)
First, with reference to FIG. 8, the structure of the main part of the television 20 (display device) will be described. FIG. 8 is a block diagram illustrating an example of a main configuration of the television 20. As shown in FIG. 8, the television 20 is configured to be integrated with the display control device 2. A portion surrounded by a broken line shown in FIG. Note that the hardware configuration of the television 20 is the same as the hardware configuration of the television 10 described in the first embodiment, and a description thereof will be omitted.

図8に示すとおり、テレビ20は、実施形態1で説明した動作取得部11、制御部14、記憶部15に代えて動作取得部17、制御部18、記憶部19をそれぞれ備えている。   As illustrated in FIG. 8, the television 20 includes an operation acquisition unit 17, a control unit 18, and a storage unit 19 instead of the operation acquisition unit 11, the control unit 14, and the storage unit 15 described in the first embodiment.

動作取得部17は、実施形態1で説明した動作取得部11と異なり、カメラ111の他に距離センサ112(距離測定部)を含む。   Unlike the motion acquisition unit 11 described in the first embodiment, the motion acquisition unit 17 includes a distance sensor 112 (distance measurement unit) in addition to the camera 111.

距離センサ112は、テレビ20と物体との距離を測定する測距センサである。具体的には、距離センサ112は、カメラ111が撮影する撮影映像における所定位置(例えば、撮影映像の中央の位置)にある物体と、テレビ20における表示部13が備えられた面(前面)との距離を測定する。動作取得部17は、撮影映像とともに距離センサ112による測定結果である距離値(距離情報)を、後述する操作予測部44に出力する。具体的には、カメラ111は、テレビ20が起動している限り継続して映像を撮影する。また、距離センサ112は、テレビ20が起動している限り継続して距離の測定を行う。そして動作取得部11は、撮影した映像および測定した距離値を操作予測部41に継続して出力し続ける。なお、距離センサ112が備えられる位置は、カメラ111が撮影する撮影映像における所定位置(例えば、撮影映像の中央の位置)にある物体と、テレビ20における表示部13が備えられた面(前面)との距離を測定することができる位置であれば、特に限定されない。   The distance sensor 112 is a distance measuring sensor that measures the distance between the television 20 and an object. Specifically, the distance sensor 112 includes an object at a predetermined position (for example, the center position of the captured image) in a captured image captured by the camera 111, and a surface (front surface) provided with the display unit 13 in the television 20. Measure the distance. The action acquisition unit 17 outputs a distance value (distance information) that is a measurement result by the distance sensor 112 together with the captured image to the operation prediction unit 44 described later. Specifically, the camera 111 continuously captures images as long as the television 20 is activated. The distance sensor 112 continuously measures the distance as long as the television 20 is activated. Then, the operation acquisition unit 11 continues to output the captured video and the measured distance value to the operation prediction unit 41. It should be noted that the position where the distance sensor 112 is provided is the surface (front surface) provided with the object at a predetermined position (for example, the center position of the captured image) in the captured image captured by the camera 111 and the display unit 13 in the television 20. The position is not particularly limited as long as the distance can be measured.

制御部18は、実施形態1で説明した制御部14と異なり、操作予測部41に代えて操作予測部44を含む。   Unlike the control unit 14 described in the first embodiment, the control unit 18 includes an operation prediction unit 44 instead of the operation prediction unit 41.

操作予測部44は、実施形態1で説明した操作予測部41と異なり、顔領域判定部411、左右領域判定部412に加え、距離判定部413を含む。操作予測部44は、動作取得部17から取得した距離値を距離判定部413に供給する。   Unlike the operation prediction unit 41 described in the first embodiment, the operation prediction unit 44 includes a distance determination unit 413 in addition to the face region determination unit 411 and the left and right region determination unit 412. The operation prediction unit 44 supplies the distance value acquired from the operation acquisition unit 17 to the distance determination unit 413.

距離判定部413は、距離センサ112が測定した距離値に関する判定を行うものである。具体的には、距離判定部413は、記憶部19から後述する距離閾値515を読み出し、距離値が距離閾値515未満であるか否かを判定する。そして、距離閾値515未満であると判定した場合、操作予測部44に指示して、撮影映像141を顔領域判定部411に供給させる。   The distance determination unit 413 performs determination regarding the distance value measured by the distance sensor 112. Specifically, the distance determination unit 413 reads a distance threshold 515 described later from the storage unit 19 and determines whether the distance value is less than the distance threshold 515. If it is determined that the distance is less than the threshold value 515, the operation prediction unit 44 is instructed to cause the captured image 141 to be supplied to the face area determination unit 411.

これに対して、取得した距離値が距離閾値515以上であると判定した場合、取得した距離値が距離閾値515未満となるまで取得した距離値と距離閾値515との比較を継続する。   On the other hand, when it is determined that the acquired distance value is equal to or greater than the distance threshold 515, the comparison between the acquired distance value and the distance threshold 515 is continued until the acquired distance value is less than the distance threshold 515.

記憶部19は、実施形態1で説明した記憶部15と異なり、距離閾値515をさらに格納している。   Unlike the storage unit 15 described in the first embodiment, the storage unit 19 further stores a distance threshold 515.

距離閾値515は、ユーザがタッチパネル12に対するタッチ操作を実行しようとしているか否かを判定するための数値(閾値)であり、詳細には、距離センサ112が測定する距離値の閾値である。この数値は、ユーザがタッチパネル12に対して腕を伸ばして指先によるタッチ操作を実行可能である最遠の位置にいるときの、テレビ20の前面とユーザの胴体部分との距離を示す数値であればよい。つまり、取得した距離値が距離閾値515未満であるということは、ユーザはタッチパネル12に対するタッチ操作を実行可能な位置にいるということであり、タッチ操作によって操作パネル132を表示しようとする可能性があるということである。   The distance threshold value 515 is a numerical value (threshold value) for determining whether or not the user is about to perform a touch operation on the touch panel 12, and in detail, is a threshold value of a distance value measured by the distance sensor 112. This numerical value may be a numerical value indicating the distance between the front surface of the television 20 and the user's trunk when the user is at the farthest position where the user can extend the arm with respect to the touch panel 12 and perform the touch operation with the fingertip. That's fine. That is, the acquired distance value being less than the distance threshold 515 means that the user is at a position where the touch operation on the touch panel 12 can be performed, and the operation panel 132 may be displayed by the touch operation. That is.

(画像表示処理の流れ)
次に、図9を参照して、本実施形態における画像表示処理の流れについて説明する。図9は、テレビ20における画像表示処理の流れの一例を示すフローチャートである。
(Flow of image display processing)
Next, the flow of image display processing in the present embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of the flow of image display processing in the television 20.

まず、操作予測部44は動作取得部11から撮影映像141および距離値を供給されると、距離判定部413に距離値を供給する。   First, when the operation prediction unit 44 is supplied with the captured image 141 and the distance value from the operation acquisition unit 11, the operation prediction unit 44 supplies the distance determination unit 413 with the distance value.

距離判定部413は、距離値を取得すると(S11)、取得した距離値が距離閾値515未満であるか否かを判定する(S12)。具体的には、記憶部19から距離閾値515を読み出し、取得した距離値が距離閾値515未満となるか否かを比較する。   When the distance determination unit 413 acquires the distance value (S11), the distance determination unit 413 determines whether the acquired distance value is less than the distance threshold 515 (S12). Specifically, the distance threshold value 515 is read from the storage unit 19, and whether or not the acquired distance value is less than the distance threshold value 515 is compared.

距離閾値515以上となると判定した場合(S12でNO)、ステップS11の処理に戻る。これに対して、距離閾値515未満となると判定した場合(S12でYES)、距離判定部413は、操作予測部44に指示して、撮影映像141を顔領域判定部411に供給させる。   If it is determined that the distance threshold is 515 or more (NO in S12), the process returns to step S11. On the other hand, when it is determined that the distance is less than the threshold 515 (YES in S12), the distance determination unit 413 instructs the operation prediction unit 44 to supply the captured image 141 to the face area determination unit 411.

これ以降のステップS13からステップS21までの処理は、実施形態1で説明した、図7のステップS1からS9までの処理と同様であるため、ここでの説明を省略する。   The subsequent processing from step S13 to step S21 is the same as the processing from step S1 to S9 in FIG. 7 described in the first embodiment, and thus description thereof is omitted here.

(実施形態2に係るテレビ20の作用効果)
以上のように、本実施形態に係るテレビ20(詳細には、表示制御装置2)は、ユーザとテレビ20とが所定の距離より近づいている場合に、カメラ111を用いてユーザを撮影した映像を取得し、ユーザがタッチパネル12に対してタッチ操作を実行しようとする動作を特定する。
(Operational effect of the television 20 according to the second embodiment)
As described above, the television 20 (specifically, the display control device 2) according to the present embodiment captures images of the user using the camera 111 when the user and the television 20 are closer than a predetermined distance. , And an action for the user to perform a touch operation on the touch panel 12 is specified.

これにより、ユーザが所定の距離より離れている位置(ユーザが手を伸ばしてもタッチパネル12に届かない位置)で何かしらの動作を行ったとしても、操作パネル132は表示されない。よって、操作パネル132の誤表示を防ぐことができる。   As a result, even if the user performs any operation at a position away from the predetermined distance (a position where the user does not reach the touch panel 12 even if the user reaches out), the operation panel 132 is not displayed. Therefore, erroneous display of the operation panel 132 can be prevented.

〔実施形態3〕
本発明のさらに別の実施形態について、図10〜図12に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 3]
The following will describe still another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

(テレビ30の要部構成)
まず、図10を参照して、テレビ30(表示装置)の要部構成について説明する。図10は、テレビ30の要部構成の一例を示すブロック図である。図10に示すように、テレビ30は表示制御装置3と一体となっている構成である。図10に示す破線で囲まれた部分が表示制御装置3である。なお、テレビ30のハードウェア構成については、実施形態1にて説明したテレビ10のハードウェア構成と同様であるため、説明を省略する。
(Main components of the television 30)
First, with reference to FIG. 10, a configuration of main parts of the television 30 (display device) will be described. FIG. 10 is a block diagram illustrating an example of a main configuration of the television 30. As shown in FIG. 10, the television 30 has a configuration integrated with the display control device 3. A portion surrounded by a broken line shown in FIG. Note that the hardware configuration of the television 30 is the same as the hardware configuration of the television 10 described in the first embodiment, and thus the description thereof is omitted.

図10に示すとおり、テレビ30は、実施形態1で説明した動作取得部11、制御部14、記憶部15に代えて動作取得部51、制御部52、記憶部53をそれぞれ備えている。   As illustrated in FIG. 10, the television 30 includes an operation acquisition unit 51, a control unit 52, and a storage unit 53 instead of the operation acquisition unit 11, the control unit 14, and the storage unit 15 described in the first embodiment.

動作取得部51は、実施形態1で説明した動作取得部11と異なり、カメラ111に代えて第1の距離センサ113(距離測定部)および第2の距離センサ114(距離測定部)を含む。   Unlike the motion acquisition unit 11 described in the first embodiment, the motion acquisition unit 51 includes a first distance sensor 113 (distance measurement unit) and a second distance sensor 114 (distance measurement unit) instead of the camera 111.

第1の距離センサ113は、テレビ30と物体との距離を測定する測距センサである。具体的には、第1の距離センサ113は、テレビ30における、ユーザの左手側端部に設けられる。そして、第1の距離センサ113は、設けられた位置から、テレビ30に最も近い物体までの距離を測定する。これについて、図11の(a)を参照して説明する。図11の(a)は、テレビ30とユーザとの最短距離の算出方法を示す模式図である。図11の(a)に示すように、ユーザUは、タッチパネル12に対するタッチ操作を実行するために、指先Fをタッチパネル12に近づけている。このとき第1の距離センサ113は、設けられた位置から、テレビ30に最も近い物体までの距離を測定する。つまり図11の(a)の例では指先Fまでの距離を測定する。これに対して、例えばユーザが両腕を降ろして番組を視聴している場合、第1の距離センサ113は、設けられた位置から、ユーザの鼻先までの距離を測定することとなる。   The first distance sensor 113 is a distance measuring sensor that measures the distance between the television 30 and an object. Specifically, the first distance sensor 113 is provided at the left hand side end of the user in the television 30. Then, the first distance sensor 113 measures the distance from the provided position to the object closest to the television 30. This will be described with reference to FIG. FIG. 11A is a schematic diagram illustrating a method of calculating the shortest distance between the television 30 and the user. As illustrated in FIG. 11A, the user U brings the fingertip F close to the touch panel 12 in order to perform a touch operation on the touch panel 12. At this time, the first distance sensor 113 measures the distance from the provided position to the object closest to the television 30. That is, in the example of FIG. 11A, the distance to the fingertip F is measured. On the other hand, for example, when the user is watching the program with both arms lowered, the first distance sensor 113 measures the distance from the provided position to the user's nose.

第2の距離センサ114は、設けられた位置以外は第1の距離センサ113と同様である。第2の距離センサ114は、テレビ30における、ユーザの右手側端部に設けられる。例えば図11の(a)に示すように、第2の距離センサ114も第1の距離センサ113と同様に、設けられた位置からテレビ30に最も近い指先Fまでの距離を測定する。   The second distance sensor 114 is the same as the first distance sensor 113 except for the position where it is provided. The second distance sensor 114 is provided at the right hand side end of the user in the television 30. For example, as shown in FIG. 11A, the second distance sensor 114 also measures the distance from the provided position to the fingertip F closest to the television 30 in the same manner as the first distance sensor 113.

動作取得部51は、第1の距離センサ113および第2の距離センサ114による測定結果である2つの距離値(第1の距離値laおよび第2の距離値lb)を、後述する操作予測部45に出力する。具体的には、第1の距離センサ113および第2の距離センサ114は、テレビ30が起動している限り継続して距離の測定を行う。そして動作取得部51は、第1の距離センサ113が測定した第1の距離値la(距離情報)および第2の距離センサ114が測定した第2の距離値lb(距離情報)を操作予測部45に継続して出力し続ける。   The action acquisition unit 51 uses two distance values (a first distance value la and a second distance value lb), which are measurement results obtained by the first distance sensor 113 and the second distance sensor 114, as an operation prediction unit described later. Output to 45. Specifically, the first distance sensor 113 and the second distance sensor 114 continuously measure the distance as long as the television 30 is activated. Then, the operation acquisition unit 51 operates the first distance value la (distance information) measured by the first distance sensor 113 and the second distance value lb (distance information) measured by the second distance sensor 114 as an operation prediction unit. Continue to output to 45.

制御部52は、実施形態1で説明した制御部14と異なり、操作予測部41に代えて操作予測部45を含む。   Unlike the control unit 14 described in the first embodiment, the control unit 52 includes an operation prediction unit 45 instead of the operation prediction unit 41.

操作予測部44は、実施形態1で説明した操作予測部41と異なり、顔領域判定部411、左右領域判定部412に代えて、距離判定部414、算出部415、および領域特定部416を含む。操作予測部44は、動作取得部51から第1の距離値および第2の距離値を取得すると、当該第1の距離値および第2の距離値を距離判定部414に供給する。   Unlike the operation prediction unit 41 described in the first embodiment, the operation prediction unit 44 includes a distance determination unit 414, a calculation unit 415, and a region specification unit 416 instead of the face region determination unit 411 and the left and right region determination unit 412. . When the operation prediction unit 44 acquires the first distance value and the second distance value from the operation acquisition unit 51, the operation prediction unit 44 supplies the first distance value and the second distance value to the distance determination unit 414.

距離判定部414は、第1の距離センサ113および第2の距離センサ114が測定した距離値を用いて、物体とテレビ30との最短距離を算出し、当該最短距離が後述する距離閾値516未満であるか否かを判定するものである。ここで、距離判定部414による最短距離の算出および最短距離に関する判定について、図11の(a)を参照して説明する。距離判定部414は、第1の距離値laおよび第2の距離値lbを用いて、テレビ30とユーザとの最短距離lyを算出する。   The distance determination unit 414 calculates the shortest distance between the object and the television 30 using the distance values measured by the first distance sensor 113 and the second distance sensor 114, and the shortest distance is less than a distance threshold 516 described later. It is determined whether or not. Here, calculation of the shortest distance by the distance determination unit 414 and determination regarding the shortest distance will be described with reference to FIG. The distance determination unit 414 calculates the shortest distance ly between the television 30 and the user using the first distance value la and the second distance value lb.

具体的には、第1の距離センサ113および第2の距離センサ114は、同じ物体(図11の(a)の例では指先F)までの距離を測定する。ある物体から第1の距離センサ113までの距離値(第1の距離値)がlaであり、当該物体から第2の距離センサ114までの距離値(第2の距離値)がlbである場合、第1の距離センサ113および第2の距離センサ114おける距離の測定可能範囲がテレビ30の前面側のみであるとすれば、物体(指先F)の位置は1カ所に定まる。より詳細には、第1の距離センサ113の位置を中心とする半径がlaの円と、第2の距離センサ114の位置を中心とする半径がlbの円とが交わる位置が、物体(指先F)の位置となる。   Specifically, the first distance sensor 113 and the second distance sensor 114 measure the distance to the same object (fingertip F in the example of FIG. 11A). When the distance value (first distance value) from a certain object to the first distance sensor 113 is la, and the distance value (second distance value) from the object to the second distance sensor 114 is lb If the measurable range of the distance in the first distance sensor 113 and the second distance sensor 114 is only on the front side of the television 30, the position of the object (fingertip F) is determined at one location. More specifically, the position at which the circle with the radius la centering on the position of the first distance sensor 113 and the circle with the radius lb centering on the position of the second distance sensor 114 intersect is the object (fingertip). F).

このように物体(指先F)の位置が特定できるので、距離判定部414は、テレビ30から物体までの最短距離lyを算出することができる。具体的には、距離判定部414は、第1の距離値laおよび第2の距離値lbを取得すると、図11の(a)に示す、第2の距離センサ114の位置から指先FまでのX軸方向の長さlxを特定する。そして、三平方の定理を用いて、第2の距離値lbと特定した長さlxとから最短距離lyを算出する。   Since the position of the object (fingertip F) can be specified in this way, the distance determination unit 414 can calculate the shortest distance ly from the television 30 to the object. Specifically, when the distance determination unit 414 obtains the first distance value la and the second distance value lb, the distance from the position of the second distance sensor 114 to the fingertip F shown in FIG. The length lx in the X-axis direction is specified. Then, the shortest distance ly is calculated from the second distance value lb and the specified length lx using the three-square theorem.

なお、図11の(a)の例では、第2の距離センサ114の位置から指先FまでのX軸方向の長さをlxとしたが、第1の距離センサ113の位置から指先FまでのX軸方向の長さをlxとしてもよい。この場合、距離判定部414は、第1の距離値laと特定した長さlxとから最短距離lyを算出する。   In the example of FIG. 11A, the length in the X-axis direction from the position of the second distance sensor 114 to the fingertip F is set to lx, but from the position of the first distance sensor 113 to the fingertip F. The length in the X-axis direction may be lx. In this case, the distance determination unit 414 calculates the shortest distance ly from the first distance value la and the specified length lx.

なおこの計算において、正確に計算するのであれば、図11における紙面に垂直方向の成分(指先Fと、第1の距離センサ113および第2の距離センサ114との紙面に垂直方向の距離など)を考慮する必要がある。しかし、紙面に垂直方向の成分を考慮した場合に測定すべき距離と、上述した最短距離lyとの差は小さく、許容範囲内であるため、本実施形態では考慮しないものとして説明している。   In this calculation, if accurate calculation is performed, a component perpendicular to the paper surface in FIG. 11 (distance perpendicular to the paper surface between the fingertip F and the first distance sensor 113 and the second distance sensor 114). Need to be considered. However, since the difference between the distance to be measured in consideration of the component perpendicular to the paper surface and the shortest distance ly described above is small and within an allowable range, it is described as not considered in the present embodiment.

具体的には、紙面に垂直方向の成分を考慮した場合、測定すべき距離は、「第1の距離センサ113と第2の距離センサ114とを結ぶ直線と物体(指先F)との距離」となる。以降この距離を距離lcとする。ここで、第1の距離センサ113および第2の距離センサ114の紙面に垂直方向における測定範囲(第1の距離センサ113および第2の距離センサ114によって検出可能な位置にある物体から第1の距離センサ113と第2の距離センサ114とを結ぶ直線に垂直に下した直線と、タッチパネル12の法線方向とがなす角度の範囲)は、−30°〜+30°であるとする。そして、上記測定範囲の上限(または下限)となる位置に物体(指先F)があり、距離lcが30cmであったとする。このとき最短距離lyは、ly=lc×cos(30°)=30cm×cos(30°)≒26cmとなる。つまり、最短距離lyと距離lcとの誤差は最大でも4cm程度であり、この差は許容範囲内である(距離lcを最短距離lyに近似することができる)ため、本実施形態では考慮しないものとして説明している。   Specifically, when considering a component perpendicular to the paper surface, the distance to be measured is “the distance between the straight line connecting the first distance sensor 113 and the second distance sensor 114 and the object (fingertip F)”. It becomes. This distance is hereinafter referred to as distance lc. Here, the measurement range in the direction perpendicular to the paper surface of the first distance sensor 113 and the second distance sensor 114 (from the object at a position detectable by the first distance sensor 113 and the second distance sensor 114 from the first It is assumed that a range of angles formed between a straight line perpendicular to a straight line connecting the distance sensor 113 and the second distance sensor 114 and a normal direction of the touch panel 12 is −30 ° to + 30 °. Then, it is assumed that there is an object (fingertip F) at a position that is the upper limit (or lower limit) of the measurement range, and the distance lc is 30 cm. At this time, the shortest distance ly is ly = lc × cos (30 °) = 30 cm × cos (30 °) ≈26 cm. That is, the error between the shortest distance ly and the distance lc is about 4 cm at the maximum, and this difference is within an allowable range (the distance lc can be approximated to the shortest distance ly), and thus is not considered in this embodiment. As described.

そして、距離判定部414は、算出した最短距離lyと、記憶部53から読み出した距離閾値516とを比較して、最短距離lyが距離閾値516未満であるか否かを判定する。そして、距離閾値516未満であると判定した場合、第1の距離値laおよび第2の距離値lbを算出部415に供給するとともに、算出部415に、領域を決定するために使用する領域判定値を算出するよう指示する。   Then, the distance determination unit 414 compares the calculated shortest distance ly with the distance threshold 516 read from the storage unit 53 and determines whether or not the shortest distance ly is less than the distance threshold 516. When it is determined that the distance is less than the threshold 516, the first distance value la and the second distance value lb are supplied to the calculation unit 415, and the calculation unit 415 uses the region determination to determine the region. Instructs the value to be calculated.

これに対して、最短距離lyが距離閾値516以上であると判定した場合、最短距離lyが距離閾値516未満となるまで最短距離lyの算出および判定を継続する。   On the other hand, when it is determined that the shortest distance ly is greater than or equal to the distance threshold 516, the calculation and determination of the shortest distance ly is continued until the shortest distance ly becomes less than the distance threshold 516.

なお、距離判定部414による距離の判定は、この例に限定されない。例えば距離判定部414は、第1の距離値1aおよび第2の距離値lbが閾値以下(または閾値未満)であるか否かを判定し、第1の距離値1aおよび第2の距離値lbが閾値以下(または閾値未満)であると判定した場合、第1の距離値laおよび第2の距離値lbを算出部415に供給するとともに、算出部415に、領域を決定するために使用する領域判定値を算出するよう指示してもよい。上記閾値は例えば、人間の一般的な腕の長さを示す数値である。これにより、第1の距離値1aおよび第2の距離値lbが閾値以下(または閾値未満)であると判定された場合はつまり、ユーザがタッチパネル12に対して腕を伸ばして指先によるタッチ操作を実行可能であるということである。   The distance determination by the distance determination unit 414 is not limited to this example. For example, the distance determination unit 414 determines whether or not the first distance value 1a and the second distance value lb are equal to or smaller than a threshold value (or less than the threshold value), and the first distance value 1a and the second distance value lb. Is determined to be less than or equal to the threshold value (or less than the threshold value), the first distance value la and the second distance value lb are supplied to the calculation unit 415 and are used by the calculation unit 415 to determine the region. It may be instructed to calculate the region determination value. The threshold value is, for example, a numerical value indicating the length of a general human arm. Thereby, when it is determined that the first distance value 1a and the second distance value lb are equal to or smaller than the threshold value (or less than the threshold value), that is, the user extends the arm with respect to the touch panel 12 and performs the touch operation with the fingertip. It is feasible.

算出部415は、領域判定値を算出するものである。具体的には、算出部415は、距離判定部414から領域判定値を算出するよう指示されると、供給された第1の距離値laと第2の距離値lbとを用いて、領域判定値を算出する。そして、算出した領域判定値を領域特定部416に供給する。   The calculation unit 415 calculates an area determination value. Specifically, when the calculation unit 415 is instructed to calculate the region determination value from the distance determination unit 414, the calculation unit 415 uses the supplied first distance value la and second distance value lb to determine the region determination value. Calculate the value. Then, the calculated area determination value is supplied to the area specifying unit 416.

ここで、図11の(b)を参照して、領域判定値の算出について詳細に説明する。図11の(b)は、指示体(指)がタッチする領域を特定するための方法を示す模式図である。図11の(b)に示すように、算出部415は、テレビ30の幅(X軸方向の長さ)を予め等分しておく。なお、本実施形態では、図11の(b)に示すように、当該幅を6等分する例を説明するが、何等分するかは特に限定されるものではない。なお以降、6等分した幅のそれぞれを「単位」と称する。そして、算出部415は1単位の長さrxを特定し、第1の距離値laおよび第2の距離値lbを特定した長さrxで除算することで、無次元化した第1の距離値raおよび第2の距離値rbを算出する。   Here, the calculation of the region determination value will be described in detail with reference to FIG. FIG. 11B is a schematic diagram illustrating a method for specifying an area touched by an indicator (finger). As shown in FIG. 11B, the calculation unit 415 equally divides the width of the television 30 (the length in the X-axis direction) in advance. In the present embodiment, as shown in FIG. 11B, an example in which the width is divided into six parts will be described. However, there is no particular limitation on how to divide the width. Hereinafter, each of the six divided widths is referred to as a “unit”. Then, the calculation unit 415 specifies the length rx of one unit, and divides the first distance value la and the second distance value lb by the specified length rx, thereby making the first distance value made dimensionless. Ra and the second distance value rb are calculated.

なお、上記の例では算出部415はテレビ30の幅を等分、すなわち、各単位の長さが等しくなるように分割していたが、この例に限定されるものではない。例えば算出部415は、各単位の長さが等しくならないように分割してもよい。   In the above example, the calculation unit 415 divides the width of the television 30 into equal parts, that is, the lengths of the respective units are equal. However, the present invention is not limited to this example. For example, the calculation unit 415 may divide each unit so that the lengths of the units are not equal.

そして算出部415は、無次元化した第1の距離値raの2乗から、無次元化した第2の距離値rbの2乗を減算することで、領域判定値を算出する。つまり領域判定値はra−rbを計算することによって算出される数値である。算出部415は、算出した領域判定値を領域特定部416に供給する。また、算出部415はテレビ30の幅を何等分したかを示す等分情報を、予め領域特定部416に供給している。 Then, the calculation unit 415 calculates the region determination value by subtracting the square of the dimensionless second distance value rb from the square of the dimensionless first distance value ra. That is, the region determination value is a numerical value calculated by calculating ra 2 −rb 2 . The calculation unit 415 supplies the calculated region determination value to the region specifying unit 416. In addition, the calculation unit 415 supplies the area specifying unit 416 in advance with equal information indicating how much the width of the television 30 is divided.

領域特定部416は、タッチパネル12において、ユーザがタッチ操作を実行しようとしている位置が含まれる領域を特定するものである。具体的には、領域特定部416は、供給された領域判定値(ra−rb)と後述する領域決定閾値517とを比較することで、ユーザがタッチ操作を実行しようとしている位置が含まれる領域を特定する。 The area specifying unit 416 specifies an area on the touch panel 12 that includes a position where the user is about to perform a touch operation. Specifically, the region specifying unit 416 includes a position where the user is about to perform a touch operation by comparing the supplied region determination value (ra 2 −rb 2 ) with a region determination threshold 517 described later. Identify the areas that will be

ここで、領域の特定方法について図11を参照して説明する。   Here, a method for specifying a region will be described with reference to FIG.

まず、図11の(a)に示すように、領域特定部416は、タッチパネル12を予め複数の領域に等分している。本実施形態では、タッチパネル12を領域A、領域B、および領域Cに3等分しているが、上述したテレビ30の幅における、隣接する2つの単位の境界と、隣接する2つの境界とが一致するように等分するのであれば、この例に限定されるものではない。   First, as illustrated in FIG. 11A, the area specifying unit 416 divides the touch panel 12 into a plurality of areas in advance. In the present embodiment, the touch panel 12 is equally divided into the area A, the area B, and the area C, but the boundary between two adjacent units and the two adjacent boundaries in the width of the television 30 described above. It is not limited to this example as long as it is equally divided so as to match.

さらに領域特定部416は、算出部415から供給された等分情報を用いて、各単位の境界に座標を設定する。なお本実施形態では、説明の分かりやすさを重視して、上述したように図11における紙面に垂直方向の成分はないものとして扱う(2次元座標として扱う)ものとするが、実際は図11における紙面に垂直方向の成分を含む3次元座標となる。   Further, the area specifying unit 416 sets coordinates at the boundaries of each unit using the equalization information supplied from the calculation unit 415. In the present embodiment, with the emphasis on ease of explanation, as described above, it is assumed that there is no component in the vertical direction on the paper surface in FIG. 11 (handled as two-dimensional coordinates). The three-dimensional coordinates include a component in the direction perpendicular to the paper surface.

本実施形態では、でテレビ30の前面におけるテレビ30の中心を原点O(0,0)とする。そして、各単位の境界に図11の(b)に示すように座標を設定する。図11の(b)の例では6等分しているので、テレビ30の右手側端部に設定される座標は(3,0)であり、テレビ30の左手側端部に設定される座標は(−3,0)となる。またこのとき、2つの領域の境界と、2つの単位の境界の一部とが一致することとなるので、2つの領域の境界に座標が設定されることとなる。具体的には、領域Aと領域Bとの境界における座標は(−1,0)となり、領域Bと領域Cとの境界における座標は(1,0)となる。   In the present embodiment, the center of the television 30 in front of the television 30 is defined as an origin O (0, 0). Then, coordinates are set at the boundary of each unit as shown in FIG. In the example of FIG. 11B, since it is divided into six equal parts, the coordinates set at the right-hand side end of the television 30 are (3, 0), and the coordinates set at the left-hand side end of the television 30 Becomes (−3,0). At this time, since the boundary between the two areas coincides with a part of the boundary between the two units, coordinates are set at the boundary between the two areas. Specifically, the coordinate at the boundary between the region A and the region B is (−1, 0), and the coordinate at the boundary between the region B and the region C is (1, 0).

ここで、指先Fが領域Bと領域Cとの境界にあるものとする。指先Fの座標を(xt,yt)としたときxt=1となる。ここで三平方の定理を用いると、ra={1−(−3)}+ytであり、rb=(3−1)+ytである。この2式から領域判定値は、ra−rb=4−2=16−4=12となる。 Here, it is assumed that the fingertip F is at the boundary between the region B and the region C. When the coordinate of the fingertip F is (xt, yt), xt = 1. Here, using the three-square theorem, ra 2 = {1-(− 3)} 2 + yt 2 and rb 2 = (3-1) 2 + yt 2 . From these two formulas, the region determination value is ra 2 −rb 2 = 4 2 −2 2 = 16−4 = 12.

また同様にして、指先Fが領域Aと領域Bとの境界にある場合、領域判定値は、ra−rb=−12となる。 Similarly, when the fingertip F is at the boundary between the region A and the region B, the region determination value is ra 2 −rb 2 = −12.

つまり、図11の(b)の例において、領域判定値が−12以下である場合、指先Fは領域Aに含まれる位置をタッチしようとしていると特定できる。また、領域判定値が−12より大きく、12より小さい場合、指先Fは領域Bに含まれる位置をタッチしようとしていると特定できる。さらに、領域判定値が12より大きい場合、指先Fは領域Cに含まれる位置をタッチしようとしていると特定できる。   That is, in the example of FIG. 11B, when the region determination value is −12 or less, it can be specified that the fingertip F is about to touch a position included in the region A. Further, when the region determination value is larger than −12 and smaller than 12, it can be specified that the fingertip F is about to touch a position included in the region B. Furthermore, when the region determination value is larger than 12, it can be specified that the fingertip F is about to touch a position included in the region C.

以上より、領域特定部416は、供給された領域判定値と、本実施形態では−12および12である領域決定閾値517との大小関係を比較することで、タッチパネル12において、ユーザがタッチ操作を実行しようとしている位置が含まれる領域を特定する。領域特定部416は、特定した領域を示す情報を表示制御部42に供給する。   As described above, the region specifying unit 416 compares the supplied region determination value with the region determination threshold value 517 that is −12 and 12 in this embodiment, so that the user performs a touch operation on the touch panel 12. Identify the area that contains the position you are trying to execute. The area specifying unit 416 supplies information indicating the specified area to the display control unit 42.

記憶部53は、実施形態1で説明した記憶部15と異なり、顔領域閾値511、顔変化閾値512、および左右変化閾値513を格納していない。記憶部53は、これらに代えて距離閾値516および領域決定閾値517を格納している。   Unlike the storage unit 15 described in the first embodiment, the storage unit 53 does not store the face area threshold value 511, the face change threshold value 512, and the left / right change threshold value 513. The storage unit 53 stores a distance threshold value 516 and a region determination threshold value 517 instead of these.

距離閾値516は、ユーザがタッチパネル12に対するタッチ操作を実行しようとしているか否かを判定するための数値(閾値)であり、詳細には、第1の距離センサ113が測定した第1の距離値laおよび第2の距離センサ114が測定した第2の距離値lbから求められる最短距離lyの閾値である。この数値は、ユーザがタッチパネル12に対して腕を伸ばして指先によるタッチ操作を実行可能である最遠の位置にいるときの、ユーザの鼻先とテレビ30の前面との距離を示す数値であればよい。   The distance threshold value 516 is a numerical value (threshold value) for determining whether or not the user is about to perform a touch operation on the touch panel 12, and more specifically, the first distance value la measured by the first distance sensor 113. And the threshold of the shortest distance ly obtained from the second distance value lb measured by the second distance sensor 114. This numerical value is a numerical value indicating the distance between the user's nose tip and the front surface of the television 30 when the user is at the farthest position where the user can extend the arm with respect to the touch panel 12 and perform the touch operation with the fingertip. Good.

領域決定閾値517は、ユーザがタッチ操作を実行しようとしている位置が含まれる領域を特定するための数値(閾値)である。上述したように、本実施形態では当該数値は−12および12であるが、この数値に限定されるものではない。   The area determination threshold value 517 is a numerical value (threshold value) for specifying an area including a position where the user is about to perform a touch operation. As described above, in the present embodiment, the numerical values are −12 and 12, but are not limited to these numerical values.

ここで、領域決定閾値517として格納される数値を一般化する。指先Fが領域Bと領域Cとの境界にあるものとし、テレビ30の左手側端部に設定される座標を(x0,y0)とし、テレビ30の右手側端部に設定される座標を(x1,y1)とする。このとき、ra=(xt−x0)+(yt−y0)であり、rb=(xt−x1)+(yt−y0)である。ここで、y0=y1=0であるので、ra=(xt−x0)+ytとなり、rb=(xt−x1)+ytとなる。 Here, the numerical value stored as the region determination threshold 517 is generalized. Assume that the fingertip F is at the boundary between the region B and the region C, the coordinates set at the left-hand side end of the television 30 are (x0, y0), and the coordinates set at the right-hand side end of the television 30 are ( x1, y1). At this time, ra 2 = (xt−x0) 2 + (yt−y0) 2 and rb 2 = (xt−x1) 2 + (yt−y0) 2 . Here, since y0 = y1 = 0, ra 2 = (xt−x0) 2 + yt 2 and rb 2 = (xt−x1) 2 + yt 2 .

領域決定閾値517の値をdとすると、d=ra−rb=−2×xt×x0+x0+2×xt×x1−x1となる。ここで、図11の(b)に示すように、x0=−x1となるように原点Oを定めると、指先Fが領域Bと領域Cとの境界にある場合の領域決定閾値の値は、d=2×xt×x1+x1+2×xt×x1−x1=4×xt×x1となる。一方、指先Fが領域Aと領域Bとの境界にあるものとしたときの領域決定閾値517の値は−dとなる。以上より、領域決定閾値517の値は、d=4×xt×x1および−dと一般化することができる。 When the value of the region determination threshold 517 is d, a d = ra 2 -rb 2 = -2 × xt × x0 + x0 2 + 2 × xt × x1-x1 2. Here, as shown in FIG. 11B, when the origin O is determined so that x0 = −x1, the value of the region determination threshold when the fingertip F is at the boundary between the region B and the region C is d = 2 × xt × x1 + x1 2 + 2 × xt × x1−x1 2 = 4 × xt × x1. On the other hand, the value of the region determination threshold 517 when the fingertip F is at the boundary between the region A and the region B is −d. As described above, the value of the region determination threshold 517 can be generalized as d = 4 × xt × x1 and −d.

なお、本実施形態において複数の距離センサが設けられる位置は、領域特定部416が、ユーザが触れようとしている領域を特定可能なように、それぞれ異なる位置に設けられていれば、その数および設けられる位置は特に限定されるものではない。つまり、本実施形態における複数の距離センサは、タッチパネル12をどのように複数の領域に分割するかによって、その数および設けられる位置が決まる。例えば、タッチパネル12を上下(図11における紙面に垂直方向)に分割する場合は、第1の距離センサ113および第2の距離センサ114を、テレビ30の例えば上側端部および下側端部にそれぞれ配置すればよい。   In the present embodiment, the position where the plurality of distance sensors are provided is the number and the positions provided if the area specifying unit 416 is provided at different positions so that the area that the user is trying to touch can be specified. There are no particular restrictions on the positions. That is, the number and positions of the plurality of distance sensors in the present embodiment are determined depending on how the touch panel 12 is divided into a plurality of regions. For example, when the touch panel 12 is divided vertically (in the direction perpendicular to the paper surface in FIG. 11), the first distance sensor 113 and the second distance sensor 114 are respectively provided at the upper end portion and the lower end portion of the television 30, for example. What is necessary is just to arrange.

(画像表示処理の流れ)
次に、図12を参照して、本実施形態における画像表示処理の流れについて説明する。図12は、テレビ30における画像表示処理の流れの一例を示すフローチャートである。
(Flow of image display processing)
Next, a flow of image display processing in the present embodiment will be described with reference to FIG. FIG. 12 is a flowchart illustrating an example of the flow of image display processing in the television 30.

まず、操作予測部45は動作取得部11から第1の距離値laおよびlbを供給されると、距離判定部414に第1の距離値laおよび第2の距離値lbを供給する。   First, when the operation prediction unit 45 is supplied with the first distance values la and lb from the motion acquisition unit 11, the operation prediction unit 45 supplies the first distance value la and the second distance value lb to the distance determination unit 414.

距離判定部414は、各距離センサが検出した距離値(第1の距離値laおよび第2の距離値lb)を取得すると(S31)、第1の距離値laおよび第2の距離値lbから求めた最短距離lyが距離閾値未満であるか否かを判定する(S32)。具体的には、第1の距離値laおよび第2の距離値lbから物体(例えば指先F)の位置を特定し、第2の距離センサ114の位置から指先FまでのX軸方向の長さlxを特定する。そして、三平方の定理を用いて、第2の距離値lbと特定した長さlxとから最短距離lyを算出する。そして、算出した最短距離lyと、記憶部53から読み出した距離閾値516とを比較する。   When the distance determination unit 414 obtains the distance values (first distance value la and second distance value lb) detected by each distance sensor (S31), the distance determination unit 414 obtains the distance values from the first distance value la and second distance value lb. It is determined whether or not the obtained shortest distance ly is less than a distance threshold (S32). Specifically, the position of the object (for example, the fingertip F) is specified from the first distance value la and the second distance value lb, and the length in the X-axis direction from the position of the second distance sensor 114 to the fingertip F is determined. Specify lx. Then, the shortest distance ly is calculated from the second distance value lb and the specified length lx using the three-square theorem. Then, the calculated shortest distance ly is compared with the distance threshold 516 read from the storage unit 53.

距離判定部414は、距離閾値516以上となると判定した場合(S32でNO)、ステップS31の処理に戻る。これに対して、距離閾値516未満となると判定した場合(S32でYES)、距離判定部414は、第1の距離値laおよび第2の距離値lbを算出部415に供給するとともに、算出部415に領域判定値を算出するよう指示する。   If the distance determination unit 414 determines that the distance threshold value 516 or more is reached (NO in S32), the process returns to step S31. On the other hand, when it is determined that the distance is less than the threshold 516 (YES in S32), the distance determination unit 414 supplies the first distance value la and the second distance value lb to the calculation unit 415 and calculates the calculation unit. Instruct 415 to calculate the region determination value.

算出部415は、距離判定部414からの指示を受けて、領域判定値(ra−rb)を算出する(S32)。具体的には、算出部415は、予め等分しておいたテレビ30の幅の各単位の長さrxによって、供給された第1の距離値laおよび第2の距離値lbを除算することで、無次元化した第1の距離値raおよび第2の距離値rbを算出する。そして、ra−rbを計算することで領域判定値を算出する。算出部415は、算出した領域判定値を領域特定部416に供給する。 In response to the instruction from the distance determination unit 414, the calculation unit 415 calculates the region determination value (ra 2 −rb 2 ) (S32). Specifically, the calculation unit 415 divides the supplied first distance value la and second distance value lb by the length rx of each unit of the width of the television 30 that is divided in advance. Then, the first distance value ra and the second distance value rb which are made dimensionless are calculated. Then, the region determination value is calculated by calculating ra 2 −rb 2 . The calculation unit 415 supplies the calculated region determination value to the region specifying unit 416.

領域特定部416は、算出された領域判定値と領域決定閾値517の値dおよび−dとの大小関係を判定する(S34)。具体的には、領域特定部416は、記憶部53から領域決定閾値517を読み出し、供給された領域判定値と比較し、2つの値の大小関係を判定する。   The region specifying unit 416 determines the magnitude relationship between the calculated region determination value and the values d and -d of the region determination threshold value 517 (S34). Specifically, the region specifying unit 416 reads the region determination threshold 517 from the storage unit 53, compares it with the supplied region determination value, and determines the magnitude relationship between the two values.

領域特定部416は、領域判定値が領域決定閾値517の値d以上であると判定した場合(S34で「d≦(ra−rb)」)、図11に示す領域Cをユーザがタッチ操作を実行しようとしている位置を含む領域であると特定する。そして、領域Cを示す情報を表示制御部42に供給する。表示制御部42は、領域Cを示す情報を供給されると、右手操作用の操作パネル132を表示する(S35)。なお、表示制御部42が右手操作用の操作パネル132を表示するために実行する具体的な処理については、実施形態1にて説明した処理と同様であるので、ここでの説明を省略する。 When the region specifying unit 416 determines that the region determination value is equal to or greater than the value d of the region determination threshold 517 (“d ≦ (ra 2 −rb 2 )” in S34), the user touches the region C illustrated in FIG. Identify the region that contains the location where the operation is to be performed. Then, information indicating the region C is supplied to the display control unit 42. When the display control unit 42 is supplied with the information indicating the region C, the display control unit 42 displays the operation panel 132 for the right hand operation (S35). In addition, since the specific process which the display control part 42 performs in order to display the operation panel 132 for right-hand operation is the same as the process demonstrated in Embodiment 1, description here is abbreviate | omitted.

これに対して、領域特定部416は、領域判定値が領域決定閾値517の値−d以下であると判定した場合(S34で「(ra−rb)≦−d」)、図11に示す領域Aをユーザがタッチ操作を実行しようとしている位置を含む領域であると特定する。そして、領域Aを示す情報を表示制御部42に供給する。表示制御部42は、領域Aを示す情報を供給されると、左手操作用の操作パネル132を表示する(S36)。なお、表示制御部42が左手操作用の操作パネル132を表示するために実行する具体的な処理については、実施形態1にて説明した処理と同様であるので、ここでの説明を省略する。 On the other hand, when the region specifying unit 416 determines that the region determination value is equal to or smaller than the value −d of the region determination threshold value 517 (“(ra 2 −rb 2 ) ≦ −d” in S34), FIG. A region A to be shown is specified as a region including a position where the user is about to perform a touch operation. Then, information indicating the region A is supplied to the display control unit 42. When the information indicating the area A is supplied, the display control unit 42 displays the left-hand operation panel 132 (S36). In addition, since the specific process which the display control part 42 performs in order to display the operation panel 132 for left-hand operation is the same as the process demonstrated in Embodiment 1, description here is abbreviate | omitted.

また、領域特定部416は、領域判定値が領域決定閾値517の値−dより大きく、dより小さいと判定した場合(S34で「−d<(ra−rb)<d」)、図11に示す領域Bをユーザがタッチ操作を実行しようとしている位置を含む領域であると特定する。そして、領域Bを示す情報を表示制御部42に供給する。表示制御部42は、領域Bを示す情報を供給されると、顔操作用の操作パネル132を表示する(S37)。なお、表示制御部42が顔操作用の操作パネル132を表示するために実行する具体的な処理については、実施形態1にて説明した処理と同様であるので、ここでの説明を省略する。 Further, when the region specifying unit 416 determines that the region determination value is larger than the value −d of the region determination threshold value 517 and smaller than d (“−d <(ra 2 −rb 2 ) <d” in S34), FIG. A region B shown in FIG. 11 is specified as a region including a position where the user is about to perform a touch operation. Then, information indicating the region B is supplied to the display control unit 42. When the information indicating the region B is supplied, the display control unit 42 displays the operation panel 132 for face operation (S37). The specific process executed by the display control unit 42 to display the operation panel 132 for face operation is the same as the process described in the first embodiment, and thus the description thereof is omitted here.

(実施形態3に係るテレビ30の作用効果)
以上のように、本実施形態に係るテレビ30(詳細には、表示制御装置3)は、カメラ111を用いずにユーザがタッチパネル12に対してタッチ操作を実行しようとする動作、および当該タッチ操作が実行されると予想されるタッチパネル12の位置を含む領域を特定することができる。
(Operational effect of the television 30 according to the third embodiment)
As described above, the television 30 (specifically, the display control device 3) according to the present embodiment performs an operation in which a user tries to perform a touch operation on the touch panel 12 without using the camera 111, and the touch operation. An area including the position of the touch panel 12 that is expected to be executed can be specified.

これにより、映像や画像といった、容量の大きいデータを用いることなく、ユーザにとって使用しやすいタッチインターフェースを実現することができる。よって、テレビ30(詳細には、表示制御装置3)の処理負荷を抑えることができる。   Accordingly, it is possible to realize a touch interface that is easy for the user to use without using large-capacity data such as video and images. Therefore, the processing load of the television 30 (specifically, the display control device 3) can be suppressed.

〔ソフトウェアによる実現例〕
テレビ10〜30(詳細には、表示制御装置1〜3)の制御ブロック(特に操作予測部41、表示制御部42、処理指示部43、操作予測部44、および操作予測部45)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
The control blocks (in particular, the operation prediction unit 41, the display control unit 42, the processing instruction unit 43, the operation prediction unit 44, and the operation prediction unit 45) of the televisions 10 to 30 (specifically, the display control devices 1 to 3) are integrated. It may be realized by a logic circuit (hardware) formed on a circuit (IC chip) or the like, or may be realized by software using a CPU (Central Processing Unit).

後者の場合、表示制御装置1〜3は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the display control devices 1 to 3 include a CPU that executes instructions of a program that is software that realizes each function, and a ROM (Read Only) in which the program and various data are recorded so as to be readable by a computer (or CPU). Memory) or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る表示制御装置(1)は、表示部(13)および該表示部と一体に形成されたタッチパネル(12)を備えた表示装置(テレビ10)に、上記タッチパネルに対するタッチ操作によって操作可能な操作画像を上記表示部に表示させる表示制御装置であって、上記タッチパネルに触れようと体を動かしたユーザの体の動きを検出する検出部(操作予測部41)と、上記検出部によって上記体の動きが検出されたとき、上記表示部に上記操作画像を表示する表示制御部(42)と、を備える。
[Summary]
A display control device (1) according to an aspect 1 of the present invention is configured to perform a touch operation on the touch panel on a display device (television 10) including a display unit (13) and a touch panel (12) formed integrally with the display unit. A display control device that displays an operation image that can be operated by the display unit, the detection unit (operation prediction unit 41) detecting the movement of the user's body moving the body to touch the touch panel, and the detection A display control unit (42) for displaying the operation image on the display unit when the movement of the body is detected by the unit.

上記の構成によれば、タッチパネルに触れようと体を動かしたユーザの体の動きが検出されたとき、表示部に操作画像を表示する。これにより、ユーザがタッチパネルにタッチする前に表示装置の表示部には操作画像が表示されることとなる。そのためユーザは、操作画像を表示するためのタッチ操作を行う必要が無い。それゆえ、ユーザが実行するタッチ操作を減らすことができるので、ユーザにとって使用しやすいタッチインターフェースを実現することができる。   According to said structure, when the motion of the user's body who moved the body trying to touch a touch panel is detected, an operation image is displayed on a display part. As a result, the operation image is displayed on the display unit of the display device before the user touches the touch panel. Therefore, the user does not need to perform a touch operation for displaying the operation image. Therefore, touch operations performed by the user can be reduced, and a touch interface that is easy for the user to use can be realized.

また、タッチパネルに触れようと体を動かしたユーザの体の動きを検出するので、ユーザは操作画像を表示するために特別な動作(例えばジェスチャや音声入力)などをする必要が無い。つまり、ユーザは周囲に人がいたとしても、何ら恥ずかしがることなく操作画像を表示するための動作(タッチ操作を実行しようとする動作)を行うことができる。   In addition, since the movement of the body of the user who moves his body to touch the touch panel is detected, the user does not need to perform a special operation (for example, gesture or voice input) to display the operation image. That is, even if there are people around the user, the user can perform an operation for displaying the operation image (an operation for performing a touch operation) without any embarrassment.

また、タッチパネルに触れようと体を動かしたユーザの体の動きを検出するので、操作画像を表示するタイミングが、ユーザがタッチパネルにタッチする直前よりも前となる。よって、ユーザは操作画像においてタッチすべき位置を早い段階で認識することができるので、戸惑うことなくタッチ操作を実行することができる。   In addition, since the movement of the user's body that has moved to touch the touch panel is detected, the operation image is displayed before the user touches the touch panel. Therefore, since the user can recognize the position to be touched in the operation image at an early stage, the user can execute the touch operation without being confused.

本発明の態様2に係る表示制御装置は、上記態様1において、上記検出部は、上記ユーザの体の動きとして、上記ユーザの右手の動きおよび左手の動きを区別して検出し、上記表示制御部は、上記検出部によって上記右手の動きが検出されたとき、上記操作画像を上記表示部における上記ユーザの右手側の領域に表示する一方、上記左手の動きが検出されたとき、上記操作画像を上記表示部における上記ユーザの左手側の領域に表示してもよい。   In the display control device according to aspect 2 of the present invention, in the aspect 1, the detection unit detects the movement of the user's right hand and the movement of the left hand as the movement of the user's body, and the display control unit When the movement of the right hand is detected by the detection unit, the operation image is displayed in an area on the right hand side of the user in the display unit, while when the movement of the left hand is detected, the operation image is displayed. You may display on the area | region of the said user's left hand side in the said display part.

上記の構成によれば、ユーザが右手でタッチパネルに触れようとしている場合は、操作画像を表示部におけるユーザの右手側の領域に表示し、ユーザが左手でタッチパネルに触れようとしている場合は、操作画像を表示部におけるユーザの左手側の領域に表示する。   According to the above configuration, when the user is about to touch the touch panel with the right hand, the operation image is displayed in the area on the right hand side of the user in the display unit, and when the user is about to touch the touch panel with the left hand, The image is displayed in an area on the left hand side of the user in the display unit.

これにより、ユーザが手を動かす距離が必要最小限となるので、ユーザにとって使いやすいタッチインターフェースを実現することができる。   As a result, the distance by which the user moves his / her hand is minimized, and a touch interface that is easy to use for the user can be realized.

また、ユーザが動かした手と逆側に操作パネルを表示してしまうと、ユーザ自身の腕が表示装置に表示された画像または映像の視認の邪魔になってしまう。例えば表示装置がテレビである場合、ユーザ自身の腕が番組視聴の邪魔になってしまう。   Also, if the operation panel is displayed on the opposite side of the hand moved by the user, the user's own arm will interfere with the viewing of the image or video displayed on the display device. For example, when the display device is a television, the user's own arm is in the way of watching the program.

これに対して、上記の構成によれば、ユーザが動かした手の側の領域に操作パネルを表示するので、ユーザの腕が画像または映像の視認の邪魔にならない。   On the other hand, according to the above configuration, since the operation panel is displayed in the region of the hand moved by the user, the user's arm does not interfere with the visual recognition of the image or video.

本発明の態様3に係る表示制御装置は、上記態様1または2において、上記検出部は、上記ユーザの体の動きとして、上記ユーザの顔が上記タッチパネルに近づく動きを検出し、上記表示制御部は、上記検出部によって上記ユーザの顔が上記タッチパネルに近づく動きが検出されたとき、上記表示部の中心を含む領域または上記表示部の全領域に上記操作画像を表示してもよい。   In the aspect 1 or 2, the display control device according to aspect 3 of the present invention detects the movement of the user's face approaching the touch panel as the movement of the user's body, and the display control unit When the movement of the user's face approaching the touch panel is detected by the detection unit, the operation image may be displayed in a region including the center of the display unit or in the entire region of the display unit.

上記の構成によれば、ユーザの顔がタッチパネルに近づく動きを検出したとき、操作画像を表示部の中心を含む領域または全領域に表示する。   According to the above configuration, when the movement of the user's face approaching the touch panel is detected, the operation image is displayed in an area including the center of the display unit or in the entire area.

これにより、ユーザが口にペンなどの指示体をくわえてタッチ操作を実行しようとした場合にも、操作画像を表示することができる。   Thereby, even when the user tries to execute a touch operation with an indicator such as a pen in his mouth, an operation image can be displayed.

ここで、ユーザが口にペンなどの指示体をくわえてタッチ操作を実行するという状況は、例えば、病院などで両手が不自由なユーザがテレビを視聴しているときに操作画像を表示しようとする状況である。このときユーザの顔は、ほとんどの場合表示部の中心の正面にあると考えられる。よって、操作画像を表示部の中心を含む領域に表示することで、ユーザが口にペンなどの指示体をくわえてタッチ操作を実行しようとするときに、顔を動かす距離を必要最小限とすることができる。これにより、ユーザが口にペンなどの指示体をくわえてタッチ操作を実行するような状況、換言すれば指先でタッチ操作を行う場合よりもユーザが望む位置へのタッチ操作が難しい状況であっても、ユーザが望む位置へのタッチ操作を行いやすい状態とすることができる。   Here, a situation in which the user performs a touch operation with an indicator such as a pen in his mouth is, for example, an attempt to display an operation image when a user with both hands is viewing a TV in a hospital or the like. It is a situation to do. At this time, the user's face is considered to be in front of the center of the display unit in most cases. Therefore, by displaying the operation image in an area including the center of the display unit, when the user tries to perform a touch operation with an indicator such as a pen in his mouth, the distance to move the face is minimized. be able to. As a result, a situation where the user performs a touch operation with an indicator such as a pen in his mouth, in other words, a situation where it is more difficult to perform a touch operation at a position desired by the user than when performing a touch operation with a fingertip. In addition, it is possible to make it easy to perform a touch operation at a position desired by the user.

また、操作画像を表示部の全領域に表示すれば、操作画像が最大化されることになるので、操作画像に含まれる各項目も拡大されることとなるため、ユーザが望む位置へのタッチ操作を、より行いやすい状態とすることができる。   In addition, if the operation image is displayed in the entire area of the display unit, the operation image is maximized, so that each item included in the operation image is enlarged. The operation can be made easier.

本発明の態様4に係る表示制御装置は、上記態様1から3のいずれかにおいて、上記ユーザを連続して撮影する撮影部(カメラ111)をさらに備え、上記検出部は、上記撮影部によって撮影された映像または画像から上記ユーザの上記体の動きを検出してもよい。   The display control apparatus according to aspect 4 of the present invention further includes a photographing unit (camera 111) that continuously photographs the user in any one of the above aspects 1 to 3, and the detection unit photographs by the photographing unit. The motion of the user's body may be detected from the recorded video or image.

上記の構成によれば、ユーザを連続して撮影した映像または画像からタッチパネルに触れようとしているユーザの体の動きを検出する。これにより、ユーザがタッチパネルに触れようとしているか否かを、ユーザの動作における早い段階で特定することができる。よって、ユーザがタッチ操作を実行しようとする動作における早い段階で操作画像を表示することができるので、ユーザは操作画像においてタッチすべき位置を早い段階で認識することができ、戸惑うことなくタッチ操作を実行することができる。   According to said structure, the motion of the user's body who is going to touch a touch panel from the image | video or image which image | photographed the user continuously is detected. Thereby, it is possible to specify whether or not the user is about to touch the touch panel at an early stage in the user's operation. Therefore, since the operation image can be displayed at an early stage in the operation of the user trying to perform the touch operation, the user can recognize the position to be touched in the operation image at an early stage, and the touch operation can be performed without confusion. Can be executed.

本発明の態様5に係る表示制御装置は、上記態様4において、上記検出部は、上記撮影部によって撮影された映像または画像における、上記ユーザの体の動きの変化率が所定の変化率以上であるか否かを判定し、上記表示制御部は、上記検出部によって上記所定の変化率以上であると判定されたとき、上記表示部に上記操作画像を表示してもよい。   The display control apparatus according to aspect 5 of the present invention is the display control apparatus according to aspect 4, wherein the detection unit has a rate of change of the user's body motion in the video or image captured by the imaging unit equal to or greater than a predetermined rate of change. The display control unit may display the operation image on the display unit when the detection unit determines that the change rate is equal to or higher than the predetermined change rate.

上記の構成によれば、撮影された映像または画像におけるユーザの体の動きの変化率が、所定の変化率以上であるとき、表示部に操作画像を表示する。これにより、ユーザがタッチパネルに触れようと体を動かしたことを特定することができるので、表示部に操作画像を表示することができる。また、変化率が所定の変化率未満である、すなわちユーザの体の動きがタッチパネルに触れようとする動きではない小さな動きである場合に、操作画像を表示しない。よって、ユーザがタッチパネルに触れるつもりが無いのに、表示部に操作画像が表示されてしまうといった誤表示を防ぐことができる。   According to the above configuration, the operation image is displayed on the display unit when the change rate of the movement of the user's body in the captured video or image is equal to or higher than the predetermined change rate. Thereby, since it can be specified that the user has moved the body to touch the touch panel, the operation image can be displayed on the display unit. Further, when the rate of change is less than a predetermined rate of change, that is, when the user's body movement is a small movement that is not a movement to touch the touch panel, the operation image is not displayed. Therefore, it is possible to prevent erroneous display such that an operation image is displayed on the display unit even though the user does not intend to touch the touch panel.

具体的には、ユーザがタッチパネルに触れようと体を動かすとき、撮影された映像または画像におけるユーザは、体を動かす前の状態から大きく変化する。その結果映像または画像におけるユーザの体の動きの変化率が大きくなる。つまり変化率が大きいときは、ユーザがタッチパネルに触れようとしている状況である。   Specifically, when the user moves the body to touch the touch panel, the user in the captured video or image changes greatly from the state before the body is moved. As a result, the rate of change of the user's body movement in the video or image increases. That is, when the rate of change is large, the user is trying to touch the touch panel.

そして、所定の変化率を、ユーザが体を動かす前の状態から、タッチパネルに触れようとする動きを行った状態になったときの変化率より、十分低い値に設定すれば、当該所定の変化率と、映像または画像におけるユーザの体の動きの変化率とを比較することにより、ユーザがタッチパネルに触れようとしているか否かを特定することができる。これにより、ユーザがタッチパネルに触れようと体を動かしたときに、表示部に操作画像を表示することができる。   Then, if the predetermined change rate is set to a value sufficiently lower than the change rate when the user moves to touch the touch panel from the state before moving the body, the predetermined change By comparing the rate and the rate of change of the user's body movement in the video or image, it can be determined whether or not the user is touching the touch panel. Thereby, when the user moves his body to touch the touch panel, the operation image can be displayed on the display unit.

本発明の態様6に係る表示制御装置は、上記態様5において、上記検出部は、上記撮影部によって撮影された映像または画像を、上記ユーザの顔を中心として左右に分割し、上記表示制御部は、上記検出部によって分割された上記映像または画像の左側の領域における上記変化率が上記所定の変化率以上であると判定されたとき、上記操作画像を上記表示部における上記ユーザの右手側の領域に表示する一方、右側の領域における上記変化率が上記所定の変化率以上であると判定されたとき、上記操作画像を上記表示部における上記ユーザの左手側の領域に表示してもよい。   In the display control device according to aspect 6 of the present invention, in the aspect 5, the detection unit divides the video or image captured by the imaging unit into left and right with the user's face as the center, and the display control unit When the change rate in the left area of the video or image divided by the detection unit is determined to be greater than or equal to the predetermined change rate, the operation image is displayed on the display unit on the right hand side of the user. On the other hand, when it is determined that the change rate in the right region is equal to or higher than the predetermined change rate, the operation image may be displayed in the left hand side region of the user in the display unit.

上記の構成によれば、撮影された映像または画像を、ユーザの顔を中心として左側の領域と右側の領域とに分割する。そして、左側の領域における変化率が所定の変化率である場合に、操作画像を表示部における右手側の領域に表示する。また、右側の領域における変化率が所定の変化率である場合に、操作画像を表示部における左手側の領域に表示する。   According to the above configuration, the captured video or image is divided into a left region and a right region with the user's face as the center. When the rate of change in the left region is a predetermined rate of change, the operation image is displayed in the region on the right hand side of the display unit. Further, when the rate of change in the right region is a predetermined rate of change, the operation image is displayed in the region on the left hand side of the display unit.

これにより、ユーザの顔が撮影された映像または画像において、ユーザの顔が当該映像または画像の中心にない場合であっても、ユーザの右手が動いたか、または左手が動いたかについて正確に判定することができる。   As a result, in the video or image in which the user's face is captured, it is accurately determined whether the user's right hand or left hand has moved even when the user's face is not at the center of the video or image. be able to.

本発明の態様7に係る表示制御装置(2)は、上記態様4から6のいずれかにおいて、上記表示装置と上記ユーザとの距離を測定する距離測定部(距離センサ112)をさらに備え、上記検出部は、上記距離測定部によって測定された距離が所定の閾値未満であるとき、上記撮影部によって撮影された映像または画像から上記ユーザの上記体の動きを検出してもよい。   The display control device (2) according to aspect 7 of the present invention further includes a distance measuring unit (distance sensor 112) that measures the distance between the display device and the user according to any one of the aspects 4 to 6. When the distance measured by the distance measurement unit is less than a predetermined threshold, the detection unit may detect the movement of the user's body from the video or image captured by the imaging unit.

上記の構成によれば、表示装置とユーザとの距離が所定の閾値未満であるとき、撮影された映像または画像からユーザの動きを検出する。換言すれば、表示装置とユーザとの距離が所定の閾値以上であるときは、ユーザの動きがあっても、ユーザの動きの検出を行わないので、操作画像を表示しないこととなる。つまり、ユーザがタッチパネルに触れようとする可能性があるときのみ、ユーザの動きの検出を行うようにすることができる。   According to said structure, when a distance of a display apparatus and a user is less than a predetermined threshold value, a user's motion is detected from the image | photographed image | video or image. In other words, when the distance between the display device and the user is equal to or greater than the predetermined threshold, even if the user moves, the user's movement is not detected, and thus the operation image is not displayed. That is, it is possible to detect the user's movement only when there is a possibility that the user is going to touch the touch panel.

具体的には、ユーザがタッチパネルに対して腕を伸ばすことで、指先にてタッチパネルに触れることができる最遠の位置にいるときの、表示装置とユーザの胴体部分との距離を示す数値を閾値に設定すれば、距離測定部が測定した距離が当該閾値以上である場合、ユーザはタッチパネルに触れることができない位置にいることとなる。つまり、そのような位置にいるときにユーザが体を動かしたとしても、その動きはタッチパネルに触れようとする動きではない。このような場合、本態様に係る表示制御装置はユーザの動きの検出を行わない。つまり本態様に係る表示制御装置は、ユーザがタッチパネルに触れることのできる位置にいるときのみ、ユーザの動きの検出を行う。よって操作画像の誤表示を防ぐことができる。   Specifically, a numerical value indicating a distance between the display device and the user's trunk when the user is at the farthest position where the user can touch the touch panel with a fingertip by extending the arm with respect to the touch panel is a threshold value If the distance measured by the distance measuring unit is equal to or greater than the threshold, the user is in a position where the user cannot touch the touch panel. That is, even if the user moves his / her body at such a position, the movement is not a movement to touch the touch panel. In such a case, the display control apparatus according to this aspect does not detect the user's movement. That is, the display control apparatus according to this aspect detects the user's movement only when the user is at a position where the user can touch the touch panel. Therefore, erroneous display of the operation image can be prevented.

本発明の態様8に係る表示制御装置(3)は、上記態様1において、上記検出部は、上記タッチパネルを予め分割した複数の領域のうち、上記ユーザの体の動きによって触れようとしている領域を特定し、上記表示制御部は、上記検出部によって特定された上記領域と重なる上記表示部の表示領域に上記操作画像を表示してもよい。   In the display control device (3) according to aspect 8 of the present invention, in the aspect 1, the detection unit is configured to select an area to be touched by movement of the user's body among a plurality of areas obtained by dividing the touch panel in advance. In particular, the display control unit may display the operation image in a display region of the display unit that overlaps the region specified by the detection unit.

上記の構成によれば、タッチパネルを予め分割した複数の領域のうち、ユーザが触れようとしている領域を特定し、ユーザが触れようとしている領域に操作画像を表示する。換言すれば、ユーザが触れようとしている位置から大きく外れた位置に操作画像が表示されることは無い。これにより、ユーザが手を動かす距離が必要最小限となるので、ユーザにとって使いやすいタッチインターフェースを実現することができる。   According to said structure, the area | region which the user is going to touch is specified among the several area | regions which divided the touch panel previously, and an operation image is displayed on the area | region which the user is going to touch. In other words, the operation image is not displayed at a position greatly deviated from the position that the user is trying to touch. As a result, the distance by which the user moves his / her hand is minimized, and a touch interface that is easy to use for the user can be realized.

本発明の態様9に係る表示制御装置は、上記態様8において、上記触れようとしている領域を特定可能なようにそれぞれ異なる位置に設けられた、上記表示装置と上記ユーザとの距離を測定する複数の距離測定部をさらに備え、上記検出部は、上記複数の距離測定部によってそれぞれ測定された距離に基づいて、上記触れようとしている領域を特定してもよい。   The display control device according to aspect 9 of the present invention is the display control device according to aspect 8, in which a plurality of distances between the display device and the user, which are provided at different positions so as to identify the region to be touched, are measured. The distance measurement unit may be further included, and the detection unit may specify the region to be touched based on the distances respectively measured by the plurality of distance measurement units.

上記の構成によれば、複数の距離測定部がそれぞれ測定した距離に基づいて、ユーザが触れようとしている領域を特定する。   According to said structure, the area | region which a user is going to touch is pinpointed based on the distance which the some distance measurement part each measured.

これにより、複数の距離センサによる距離の測定のみで、ユーザがタッチ操作を実行しようとしている領域を特定することができる。つまり、ユーザを撮影した映像や画像などを用いなくとも、ユーザがタッチパネルに触れようとしているか否か、および触れようとしている場合の位置を判定することができる。よって、表示制御装置に映像や画像に対する処理といった負荷の大きい処理を実行させることなく、ユーザにとって操作しやすい位置に操作画像を表示することができる。   Thereby, the area | region where a user is going to perform touch operation can be pinpointed only by the measurement of the distance by a some distance sensor. That is, it is possible to determine whether or not the user is about to touch the touch panel and the position when the user is about to touch without using a video or an image of the user. Therefore, it is possible to display the operation image at a position that is easy for the user to operate without causing the display control apparatus to execute a process with a large load such as a process for video or an image.

なお、複数の距離測定部の位置は、タッチパネルをどのように分割するかによって決定される。つまり、複数の距離測定部が測定したそれぞれの距離を用いて、触れようとしている領域を識別可能であるように、複数の距離測定部の位置は決定される。例えば、タッチパネルを左右に分割する場合は、2つの距離測定部を、表示装置の右端部と左端部とにそれぞれ設ければよく、タッチパネルを上下に分割する場合は、2つの距離測定部を表示装置の上端部と下端部とにそれぞれ設ければよい。   Note that the positions of the plurality of distance measuring units are determined depending on how the touch panel is divided. That is, using the respective distances measured by the plurality of distance measuring units, the positions of the plurality of distance measuring units are determined so that the region to be touched can be identified. For example, when the touch panel is divided into left and right, two distance measurement units may be provided at the right end and the left end of the display device, respectively, and when the touch panel is divided up and down, two distance measurement units are displayed. What is necessary is just to provide in the upper end part and lower end part of an apparatus, respectively.

本発明の態様10に係る表示制御装置の制御方法は、表示部および該表示部と一体に形成されたタッチパネルを備えた表示装置に、上記タッチパネルに対するタッチ操作によって操作可能な操作画像を上記表示部に表示させる表示制御装置の制御方法であって、上記タッチパネルに触れようと体を動かしたユーザの体の動きを検出する検出ステップ(S3、S4、S6)と、上記検出ステップにて上記体の動きを検出したとき、上記表示部に上記操作画像を表示する表示ステップ(S7、S8、S9)と、を含む。   The display control device control method according to the tenth aspect of the present invention provides a display device including a display unit and a touch panel integrally formed with the display unit, and displays an operation image operable by a touch operation on the touch panel. The display control device is displayed on the touch panel with a detection step (S3, S4, S6) for detecting the movement of the body of the user who moved the body to touch the touch panel, and the detection step A display step (S7, S8, S9) for displaying the operation image on the display unit when motion is detected.

この制御方法によれば、態様1に係る表示制御装置と同様の作用効果を有する。   According to this control method, the same function and effect as those of the display control apparatus according to aspect 1 are obtained.

本発明の各態様に係る表示制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記表示制御装置が備える各部(ソフトウェア要素に限る)として動作させることにより上記表示制御装置をコンピュータにて実現させる表示制御装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The display control apparatus according to each aspect of the present invention may be realized by a computer. In this case, the display control apparatus is operated by causing the computer to operate as each unit (limited to software elements) included in the display control apparatus. A control program for a display control apparatus realized by a computer and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

本発明は、表示部および該表示部と一体に形成されたタッチパネルを備えたテレビなどの表示装置にタッチ操作可能な画像を表示させる表示制御装置に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for a display control device that displays a touch-operable image on a display device such as a television provided with a display unit and a touch panel formed integrally with the display unit.

1 表示制御装置
2 表示制御装置
3 表示制御装置
10 テレビ(表示装置)
12 タッチパネル
13 表示部
20 テレビ(表示装置)
30 テレビ(表示装置)
41 操作予測部(検出部)
42 表示制御部
44 操作予測部(検出部)
45 操作予測部(検出部)
111 カメラ(撮影部)
112 距離センサ(距離測定部)
113 第1の距離センサ(距離測定部)
114 第2の距離センサ(距離測定部)
S3 検出ステップ
S4 検出ステップ
S6 検出ステップ
S7 表示ステップ
S8 表示ステップ
S9 表示ステップ
DESCRIPTION OF SYMBOLS 1 Display control apparatus 2 Display control apparatus 3 Display control apparatus 10 Television (display apparatus)
12 Touch Panel 13 Display Unit 20 Television (Display Device)
30 Television (display device)
41 Operation prediction unit (detection unit)
42 display control unit 44 operation prediction unit (detection unit)
45 Operation prediction unit (detection unit)
111 Camera (shooting unit)
112 Distance sensor (distance measuring unit)
113 1st distance sensor (distance measurement part)
114 Second distance sensor (distance measuring unit)
S3 detection step S4 detection step S6 detection step S7 display step S8 display step S9 display step

Claims (12)

表示部および該表示部と一体に形成されたタッチパネルを備えた表示装置に、上記タッチパネルに対するタッチ操作によって操作可能な操作画像を上記表示部に表示させる表示制御装置であって、
上記タッチパネルに触れようと体を動かしたユーザの体の動きを検出する検出部と、
上記検出部によって上記体の動きが検出されたとき、上記表示部に上記操作画像を表示する表示制御部と、を備えることを特徴とする表示制御装置。
A display control device that causes a display device including a display unit and a touch panel formed integrally with the display unit to display an operation image operable by a touch operation on the touch panel on the display unit,
A detection unit that detects the movement of the body of the user who moved the body to touch the touch panel;
A display control device, comprising: a display control unit that displays the operation image on the display unit when movement of the body is detected by the detection unit.
上記検出部は、上記ユーザの体の動きとして、上記ユーザの右手の動きおよび左手の動きを区別して検出し、
上記表示制御部は、上記検出部によって上記右手の動きが検出されたとき、上記操作画像を上記表示部における上記ユーザの右手側の領域に表示する一方、上記左手の動きが検出されたとき、上記操作画像を上記表示部における上記ユーザの左手側の領域に表示することを特徴とする請求項1に記載の表示制御装置。
The detection unit distinguishes and detects the movement of the user's right hand and the left hand as the movement of the user's body,
The display control unit displays the operation image in a region on the right hand side of the user in the display unit when the movement of the right hand is detected by the detection unit, while when the movement of the left hand is detected, The display control apparatus according to claim 1, wherein the operation image is displayed in an area on the left hand side of the user in the display unit.
上記検出部は、上記ユーザの体の動きとして、上記ユーザの顔が上記タッチパネルに近づく動きを検出し、
上記表示制御部は、上記検出部によって上記ユーザの顔が上記タッチパネルに近づく動きが検出されたとき、上記表示部の中心を含む領域または上記表示部の全領域に上記操作画像を表示することを特徴とする請求項1または2に記載の表示制御装置。
The detection unit detects a movement of the user's face approaching the touch panel as a movement of the user's body,
The display control unit displays the operation image in a region including the center of the display unit or the entire region of the display unit when the detection unit detects a movement of the user's face approaching the touch panel. The display control device according to claim 1, wherein the display control device is a display control device.
上記ユーザを連続して撮影する撮影部をさらに備え、
上記検出部は、上記撮影部によって撮影された映像または画像から上記ユーザの上記体の動きを検出することを特徴とする請求項1から3のいずれか1項に記載の表示制御装置。
It further includes a photographing unit that continuously photographs the user,
The display control apparatus according to claim 1, wherein the detection unit detects a movement of the body of the user from a video or an image captured by the imaging unit.
上記検出部は、上記撮影部によって撮影された映像または画像における、上記ユーザの体の動きの変化率が所定の変化率以上であるか否かを判定し、
上記表示制御部は、上記検出部によって上記所定の変化率以上であると判定されたとき、上記表示部に上記操作画像を表示することを特徴とする請求項4に記載の表示制御装置。
The detection unit determines whether the change rate of the movement of the user's body in the video or image shot by the shooting unit is equal to or higher than a predetermined change rate,
The display control apparatus according to claim 4, wherein the display control unit displays the operation image on the display unit when the detection unit determines that the rate of change is equal to or greater than the predetermined change rate.
上記検出部は、上記撮影部によって撮影された映像または画像を、上記ユーザの顔を中心として左右に分割し、
上記表示制御部は、上記検出部によって分割された上記映像または画像の左側の領域における上記変化率が上記所定の変化率以上であると判定されたとき、上記操作画像を上記表示部における上記ユーザの右手側の領域に表示する一方、右側の領域における上記変化率が上記所定の変化率以上であると判定されたとき、上記操作画像を上記表示部における上記ユーザの左手側の領域に表示することを特徴とする請求項5に記載の表示制御装置。
The detection unit divides the video or image captured by the imaging unit into left and right with the user's face as the center,
The display control unit displays the operation image on the display unit when the change rate in the left region of the video or image divided by the detection unit is equal to or higher than the predetermined change rate. When the change rate in the right region is determined to be greater than or equal to the predetermined change rate, the operation image is displayed in the left hand region of the user in the display unit. The display control apparatus according to claim 5.
上記表示装置と上記ユーザとの距離を測定する距離測定部をさらに備え、
上記検出部は、上記距離測定部によって測定された距離が所定の閾値未満であるとき、上記撮影部によって撮影された映像または画像から上記体の動きを検出することを特徴とする請求項4から6のいずれか1項に記載の表示制御装置。
A distance measuring unit for measuring a distance between the display device and the user;
The detection unit detects movement of the body from an image or an image captured by the imaging unit when the distance measured by the distance measurement unit is less than a predetermined threshold. 7. The display control device according to any one of 6.
上記検出部は、上記タッチパネルを予め分割した複数の領域のうち、上記ユーザの体の動きによって触れようとしている領域を特定し、
上記表示制御部は、上記検出部によって特定された上記領域と重なる上記表示部の表示領域に上記操作画像を表示することを特徴とする請求項1に記載の表示制御装置。
The detection unit identifies an area to be touched by a movement of the user's body among a plurality of areas obtained by dividing the touch panel in advance.
The display control apparatus according to claim 1, wherein the display control unit displays the operation image in a display region of the display unit that overlaps the region specified by the detection unit.
上記触れようとしている領域を特定可能なようにそれぞれ異なる位置に設けられた、上記表示装置と上記ユーザとの距離を測定する複数の距離測定部をさらに備え、
上記検出部は、上記複数の距離測定部によってそれぞれ測定された距離に基づいて、上記触れようとしている領域を特定することを特徴とする請求項8に記載の表示制御装置。
A plurality of distance measuring units that measure the distance between the display device and the user, which are provided at different positions so that the region to be touched can be specified;
The display control apparatus according to claim 8, wherein the detection unit specifies the region to be touched based on the distances measured by the plurality of distance measurement units.
表示部および該表示部と一体に形成されたタッチパネルを備えた表示装置に、上記タッチパネルに対するタッチ操作によって操作可能な操作画像を上記表示部に表示させる表示制御装置の制御方法であって、
上記タッチパネルに触れようと体を動かしたユーザの体の動きを検出する検出ステップと、
上記検出ステップにて上記体の動きを検出したとき、上記表示部に上記操作画像を表示する表示ステップと、を含むことを特徴とする表示制御装置の制御方法。
A control method of a display control device for causing a display device including a display unit and a touch panel integrally formed with the display unit to display an operation image operable by a touch operation on the touch panel on the display unit,
A detection step of detecting the movement of the body of the user who moved the body to touch the touch panel;
And a display step of displaying the operation image on the display unit when the body movement is detected in the detection step.
請求項1に記載の表示制御装置としてコンピュータを機能させるための制御プログラムであって、上記検出部および上記表示制御部としてコンピュータを機能させるための制御プログラム。   A control program for causing a computer to function as the display control device according to claim 1, wherein the control program causes the computer to function as the detection unit and the display control unit. 請求項11に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。   The computer-readable recording medium which recorded the control program of Claim 11.
JP2014199350A 2014-09-29 2014-09-29 Display control device, control method, control program, and recording medium Pending JP2016071558A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014199350A JP2016071558A (en) 2014-09-29 2014-09-29 Display control device, control method, control program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014199350A JP2016071558A (en) 2014-09-29 2014-09-29 Display control device, control method, control program, and recording medium

Publications (1)

Publication Number Publication Date
JP2016071558A true JP2016071558A (en) 2016-05-09

Family

ID=55864642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014199350A Pending JP2016071558A (en) 2014-09-29 2014-09-29 Display control device, control method, control program, and recording medium

Country Status (1)

Country Link
JP (1) JP2016071558A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109947236A (en) * 2017-12-21 2019-06-28 艾力普提实验室公司 The method and apparatus of content on the display of controlling electronic devices
CN111752445A (en) * 2019-06-12 2020-10-09 广东小天才科技有限公司 Page control method of wearable device and wearable device
WO2024080135A1 (en) * 2022-10-13 2024-04-18 ソニーグループ株式会社 Display control device, display control method, and display control program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109947236A (en) * 2017-12-21 2019-06-28 艾力普提实验室公司 The method and apparatus of content on the display of controlling electronic devices
CN109947236B (en) * 2017-12-21 2024-05-28 艾力普提实验室公司 Method and device for controlling content on a display of an electronic device
CN111752445A (en) * 2019-06-12 2020-10-09 广东小天才科技有限公司 Page control method of wearable device and wearable device
WO2024080135A1 (en) * 2022-10-13 2024-04-18 ソニーグループ株式会社 Display control device, display control method, and display control program

Similar Documents

Publication Publication Date Title
US8711182B2 (en) Information processing apparatus and display control method
US8350822B2 (en) Touch pad operable with multi-objects and method of operating same
JP6215534B2 (en) Information processing apparatus, information processing method, and computer program
JP6132644B2 (en) Information processing apparatus, display control method, computer program, and storage medium
US9582096B2 (en) Information processing apparatus, information processing method, and program
US8830273B2 (en) Display control apparatus and display control method, display control program, and recording medium
JP6062416B2 (en) Information input device and information display method
US9544556B2 (en) Projection control apparatus and projection control method
US10095384B2 (en) Method of receiving user input by detecting movement of user and apparatus therefor
US20150339026A1 (en) User terminal device, method for controlling user terminal device, and multimedia system thereof
JP2015508539A (en) Display device and control method thereof
KR20140133034A (en) Portable device and controlling method thereof
KR102297473B1 (en) Apparatus and method for providing touch inputs by using human body
KR20150031986A (en) Display apparatus and control method thereof
US20130132889A1 (en) Information processing apparatus and information processing method to achieve efficient screen scrolling
US20150002433A1 (en) Method and apparatus for performing a zooming action
US20160147294A1 (en) Apparatus and Method for Recognizing Motion in Spatial Interaction
JP2016071558A (en) Display control device, control method, control program, and recording medium
KR101890140B1 (en) A method for controlling a display apparatus using a camera device and mobile device, display apparatus, and system thereof
KR20150000278A (en) Display apparatus and control method thereof
JP6232694B2 (en) Information processing apparatus, control method thereof, and program
JP6971573B2 (en) Electronic devices, their control methods and programs
KR20150017832A (en) Method for controlling 3D object and device thereof
KR101165388B1 (en) Method for controlling screen using different kind of input devices and terminal unit thereof
TWI483175B (en) Data sharing system and data sharing method thereof