JP2015230496A - Electronic equipment - Google Patents

Electronic equipment Download PDF

Info

Publication number
JP2015230496A
JP2015230496A JP2014114851A JP2014114851A JP2015230496A JP 2015230496 A JP2015230496 A JP 2015230496A JP 2014114851 A JP2014114851 A JP 2014114851A JP 2014114851 A JP2014114851 A JP 2014114851A JP 2015230496 A JP2015230496 A JP 2015230496A
Authority
JP
Japan
Prior art keywords
hand
user
finger
image
smartphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014114851A
Other languages
Japanese (ja)
Inventor
石井 康史
Yasushi Ishii
康史 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014114851A priority Critical patent/JP2015230496A/en
Publication of JP2015230496A publication Critical patent/JP2015230496A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide electronic equipment capable of reducing improper operations by a user without changing a layout of a screen.SOLUTION: A process that a CPU of electronic equipment executes includes: a step S520 of detecting a hand of a user in an input image obtained from a camera; a step S522 of generating a hand image showing a shape of the detected hand of the user; a step S524 of displaying the hand image over an operation screen of a touch panel, and displaying the hand image on a touch panel associatively with a movement of the hand of the user; and a step S532 of executing an instruction corresponding to a touch operation at the position of the hand image on the touch panel.

Description

本開示は、電子機器の制御に関し、特に、カメラを有する電子機器の制御に関する。   The present disclosure relates to control of an electronic device, and more particularly to control of an electronic device having a camera.

近年、アイコンなどに対するユーザの誤操作を軽減するための様々な技術が開発されている。たとえば、特許文献1は、表示部に表示されたアイコンの誤操作を軽減するためのカーナビゲーションシステムを開示している。当該カーナビゲーションシステムは、自身の指が画面上のどこに位置するかをユーザに認識させることで誤操作を軽減することを目的としている。この目的を達成するための具体的な手段として、当該カーナビゲーションシステムは、操作部を操作する手を上からカメラで撮影して得られた画像を表示部に表示する。その際、当該カーナビゲーションシステムは、表示部に表示される指の位置に合わせてアイコンの表示位置を変える。   In recent years, various techniques have been developed to reduce user's erroneous operations on icons and the like. For example, Patent Document 1 discloses a car navigation system for reducing erroneous operations of icons displayed on a display unit. The car navigation system is intended to reduce erroneous operations by allowing the user to recognize where his / her finger is located on the screen. As a specific means for achieving this object, the car navigation system displays an image obtained by photographing a hand operating the operation unit with a camera from above on the display unit. At that time, the car navigation system changes the display position of the icon in accordance with the position of the finger displayed on the display unit.

特開2007−286696号公報JP 2007-286696 A

しかしながら、ユーザの手の位置が変わる度に、アイコンの表示位置が変わると、ユーザは、その都度、画面の内容を把握する必要があり、却って、ユーザの誤操作が増加する可能性がある。このため、特許文献1が開示する方法とは異なる方法で電子機器の誤操作を軽減することが望まれている。   However, every time the position of the user's hand changes, if the display position of the icon changes, the user needs to grasp the contents of the screen each time. On the contrary, there is a possibility that the user's erroneous operations increase. For this reason, it is desired to reduce the erroneous operation of the electronic device by a method different from the method disclosed in Patent Document 1.

本開示は上述のような問題点を解決するためになされたものであって、その目的は、画面のレイアウトを変えずに、ユーザの誤操作を軽減することが可能な電子機器を提供することである。   The present disclosure has been made to solve the above-described problems, and an object of the present disclosure is to provide an electronic device that can reduce a user's erroneous operation without changing the screen layout. is there.

一実施の形態に従う電子機器は、タッチパネルと、タッチパネルの表示画面の反対の面に設けられたカメラと、電子機器を制御するための制御装置とを備える。制御装置は、カメラから得られる入力画像からユーザの手を検出するための手検出部と、手検出部によって検出されたユーザの手の形を有する手画像を生成するための生成部と、タッチパネルの操作画面に重ねて手画像を表示し、ユーザの手の動きに連動させて手画像をタッチパネルに表示するための表示制御部と、タッチパネル内の手画像の位置におけるタッチ操作に応じた命令を実行するための実行部とを含む。   An electronic device according to an embodiment includes a touch panel, a camera provided on a surface opposite to the display screen of the touch panel, and a control device for controlling the electronic device. The control device includes a hand detection unit for detecting a user's hand from an input image obtained from the camera, a generation unit for generating a hand image having a shape of the user's hand detected by the hand detection unit, and a touch panel A display control unit for displaying a hand image on the operation screen and displaying the hand image on the touch panel in conjunction with the movement of the user's hand, and a command corresponding to the touch operation at the position of the hand image in the touch panel And an execution unit for executing.

ある局面において、画面のレイアウトを変えずに、電子機器に対するユーザの誤操作を軽減することができる。   In one aspect, it is possible to reduce a user's erroneous operation on the electronic device without changing the screen layout.

本発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解される本発明に関する次の詳細な説明から明らかとなるであろう。   The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.

第1の実施の形態に従うスマートフォンの外観を模式的に示した図である。It is the figure which showed typically the external appearance of the smart phone according to 1st Embodiment. 第1の実施の形態に従うスマートフォンをユーザが操作している様子を示している図である。It is a figure which shows a mode that the user is operating the smart phone according to 1st Embodiment. 第1の実施の形態に従うスマートフォンの主要なハードウェア構成を示すブロック図である。It is a block diagram which shows the main hardware constitutions of the smart phone according to 1st Embodiment. 第1の実施の形態に従うスマートフォンの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the smart phone according to 1st Embodiment. 第1の実施の形態に従うスマートフォンが実行する処理の一部を表わすフローチャートである。It is a flowchart showing a part of process which the smart phone according to 1st Embodiment performs. 第2の実施の形態に従うスマートフォンをユーザが操作している様子を示している図である。It is a figure which shows a mode that the user is operating the smart phone according to 2nd Embodiment. 第2の実施の形態に従うスマートフォンの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the smart phone according to 2nd Embodiment.

以下、図面を参照しつつ、本実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。   Hereinafter, the present embodiment will be described with reference to the drawings. In the following description, the same parts and components are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

なお、以下では、電子機器の一例として機能するスマートフォンの詳細について説明するが、電子機器は、スマートフォンに限定されるものではない。たとえば、電子機器は、タブレット端末、デジタルカメラ、電子辞書、PDA(Personal Digital Assistant)、ゲーム機、その他のカメラを有する装置も含み得る。また、以下で説明される各実施の形態は、選択的に組み合わされてもよい。   In addition, below, the detail of the smart phone which functions as an example of an electronic device is demonstrated, However, An electronic device is not limited to a smart phone. For example, the electronic device may include a device having a tablet terminal, a digital camera, an electronic dictionary, a PDA (Personal Digital Assistant), a game machine, and other cameras. Moreover, each embodiment described below may be selectively combined.

<導入>
まず、以下で説明する各実施の形態の理解を容易にするために、近年のスマートフォンの問題点について説明する。
<Introduction>
First, in order to facilitate understanding of each embodiment described below, problems of recent smartphones will be described.

近年では、タッチパネルを備えたスマートフォンが普及している。これに伴い、タッチパネルの表示画面が高精細化しており、ユーザがタッチ操作を行なう対象となる、アイコン、リンクなどのオブジェクトの表示サイズが、タッチパネルの表示画面の大きさに対して非常に小さくなっている。これに伴い、ユーザが意図するオブジェクトとは異なるオブジェクトをタッチしてしまう誤操作が生じる。   In recent years, smartphones equipped with a touch panel have become widespread. Along with this, the display screen of the touch panel has become high-definition, and the display size of objects such as icons and links that the user can perform touch operations becomes very small compared to the size of the display screen of the touch panel. ing. Along with this, an erroneous operation occurs in which an object different from the object intended by the user is touched.

このような誤操作を防ぐための方法の一例として、タッチパネルの表示画面の一部を拡大して表示する方法が挙げられる。しかしながら、この方法では、ユーザが画面を拡大するための操作を行なわなければならず、タッチパネルの操作性が良くない。他にも、タッチパネルの誤操作を防ぐための方法として、ユーザがタッチペンを用いてペン先でオブジェクトにタッチする方法が挙げられる。しかしながら、この方法では、ユーザがタッチペンを別途携帯する必要があり、スマートフォンの携帯性が損なわれる。以下で説明する各実施の形態に従うスマートフォンは、これらの問題を解決することができる。   As an example of a method for preventing such an erroneous operation, there is a method of enlarging and displaying a part of the display screen of the touch panel. However, in this method, the user has to perform an operation for enlarging the screen, and the operability of the touch panel is not good. In addition, as a method for preventing an erroneous operation of the touch panel, there is a method in which a user touches an object with a pen tip using a touch pen. However, with this method, the user needs to carry the touch pen separately, and the portability of the smartphone is impaired. The smartphone according to each embodiment described below can solve these problems.

<第1の実施の形態>
[概要]
図1および図2を参照して、第1の実施の形態に従うスマートフォン100の概要について説明する。図1は、スマートフォン100の外観を模式的に示した図である。図2は、ユーザがスマートフォン100を操作している様子を示している図である。
<First Embodiment>
[Overview]
With reference to FIG. 1 and FIG. 2, the outline | summary of the smart phone 100 according to 1st Embodiment is demonstrated. FIG. 1 is a diagram schematically illustrating the appearance of the smartphone 100. FIG. 2 is a diagram illustrating a state in which the user is operating the smartphone 100.

図1(A)および図1(B)に示されるように、スマートフォン100は、タッチパネル4と、カメラ5とを含む。カメラ5は、タッチパネル4の表示画面の反対の面に設けられる。タッチパネル4には、スマートフォン100の機能に関連付けられたオブジェクトが表示されている。オブジェクトは、アイコン、ボタン、リンク、スマートフォン100の機能に関連付けられたその他の画像などを含む。   As shown in FIG. 1A and FIG. 1B, the smartphone 100 includes a touch panel 4 and a camera 5. The camera 5 is provided on the opposite surface of the display screen of the touch panel 4. On the touch panel 4, an object associated with the function of the smartphone 100 is displayed. The object includes an icon, a button, a link, other images associated with the function of the smartphone 100, and the like.

図2(A)に示されるように、ユーザがカメラ5の前に手を動かすと、スマートフォン100は、カメラ5から得られた画像(以下、「入力画像」ともいう。)においてユーザの手を検出する。スマートフォン100は、検出したユーザの手の形を有する手画像30を生成する。手画像30は、ユーザの手を入力画像から切り出した画像そのものであってもよいし、検出した手と同様の形を有する加工した画像であってもよい。スマートフォン100は、生成した手画像30を操作画面32に重ねて表示する。このとき、スマートフォン100は、ユーザの実際の手の大きさよりも小さくなるように手画像30を表示する。   As shown in FIG. 2A, when the user moves his / her hand in front of the camera 5, the smartphone 100 moves the user's hand in an image obtained from the camera 5 (hereinafter also referred to as “input image”). To detect. The smartphone 100 generates a hand image 30 having the shape of the detected user's hand. The hand image 30 may be an image itself obtained by cutting the user's hand from the input image, or may be a processed image having the same shape as the detected hand. The smartphone 100 displays the generated hand image 30 so as to overlap the operation screen 32. At this time, the smartphone 100 displays the hand image 30 so as to be smaller than the size of the actual hand of the user.

スマートフォン100は、繰り返し得られた入力画像から手画像30を順次生成して、手画像30の表示を更新することで、ユーザの手の動きに連動させて手画像30を表示する。このため、ユーザは、自身の手の動きに合わせて手画像30を操作することが可能になる。ユーザは、目的のオブジェクトの位置に手画像30を重ね、予め定められた動作をスマートフォン100に対して行うことで、スマートフォン100は、手画像30の位置に表示されているオブジェクトに関連付けられている機能を実行する。すなわち、スマートフォン100は、タッチ操作の代わりとなるユーザ操作(以下、「代替操作」ともいう。)を行なうことで、タッチ操作を検出したときに実行する処理と同じ処理(以下、「タッチ処理」ともいう。)を実行する。代替操作の一例として、図2(B)に示されるように、親指と人差し指とを接触させる動作が挙げられる。   The smartphone 100 sequentially generates the hand image 30 from the repeatedly obtained input image and updates the display of the hand image 30 to display the hand image 30 in conjunction with the movement of the user's hand. For this reason, the user can operate the hand image 30 in accordance with the movement of his / her hand. The user superimposes the hand image 30 on the position of the target object, and performs a predetermined operation on the smartphone 100, whereby the smartphone 100 is associated with the object displayed at the position of the hand image 30. Perform the function. That is, the smartphone 100 performs the same process (hereinafter, “touch process”) as that performed when a touch operation is detected by performing a user operation (hereinafter, also referred to as “alternative operation”) instead of the touch operation. (Also called). As an example of the alternative operation, as shown in FIG. 2B, there is an operation of bringing the thumb and index finger into contact with each other.

このように、ユーザが、自身の手よりも小さいサイズで表示された手画像30を意図した通りに操作することで、オブジェクトが密集して表示されている場合であっても、スマートフォン100は、ユーザによるタッチパネル4の誤操作を軽減することが可能になる。   Thus, even if the user operates the hand image 30 displayed in a size smaller than his / her hand as intended and the objects are displayed densely, the smartphone 100 It becomes possible to reduce erroneous operation of the touch panel 4 by the user.

[ハードウェア構成]
図3を参照して、第1の実施の形態に従うスマートフォン100のハードウェア構成の一例について説明する。図3は、スマートフォン100の主要なハードウェア構成を示すブロック図である。図3に示されるように、スマートフォン100は、ROM(Read Only Memory)1と、CPU(Central Processing Unit)2と、RAM(Random Access Memory)3と、タッチパネル4と、カメラ5と、距離センサ9と、ネットワークインタフェース(I/F)10と、記憶装置20とを含む。
[Hardware configuration]
With reference to FIG. 3, an example of a hardware configuration of smartphone 100 according to the first embodiment will be described. FIG. 3 is a block diagram illustrating a main hardware configuration of the smartphone 100. As shown in FIG. 3, the smartphone 100 includes a ROM (Read Only Memory) 1, a CPU (Central Processing Unit) 2, a RAM (Random Access Memory) 3, a touch panel 4, a camera 5, and a distance sensor 9. A network interface (I / F) 10 and a storage device 20.

ROM1は、オペレーティングシステム(OS:Operating System)、スマートフォン100の起動時に実行される初期プログラム(ブートプログラム)などを格納する。CPU2は、ROM1や記憶装置20などに格納された、オペレーティングシステムやスマートフォン100の制御プログラムなどの各種プログラムを実行することで、スマートフォン100の動作を制御する。RAM3は、CPU2でプログラムを実行するためのワーキングメモリとして機能し、プログラムの実行に必要な各種データを一時的に格納する。   The ROM 1 stores an operating system (OS), an initial program (boot program) executed when the smartphone 100 is activated, and the like. The CPU 2 controls the operation of the smartphone 100 by executing various programs such as an operating system and a control program for the smartphone 100 stored in the ROM 1 and the storage device 20. The RAM 3 functions as a working memory for executing the program by the CPU 2 and temporarily stores various data necessary for executing the program.

タッチパネル4は、モニタ4Aと、タッチセンサ4Bとを含む。タッチセンサ4Bは、モニタ4Aに重ねられて設けられる。これにより、タッチパネル4は、モニタ4Aに対するタッチ位置を検出することができる。タッチ位置は、たとえば、タッチパネル4上の座標として検出される。タッチパネル4は、たとえば、抵抗膜方式、静電容量方式、その他のタッチパネル4に対する接触を検出することが可能な方式で実現される。   Touch panel 4 includes a monitor 4A and a touch sensor 4B. The touch sensor 4B is provided so as to overlap the monitor 4A. Thereby, the touch panel 4 can detect the touch position with respect to the monitor 4A. The touch position is detected as coordinates on the touch panel 4, for example. The touch panel 4 is realized by, for example, a resistance film method, a capacitance method, or other methods capable of detecting contact with the touch panel 4.

カメラ5は、タッチパネル4の表示画面の反対の面に設けられる。カメラ5は、レンズと、CMOS(Complementary Metal-Oxide Semiconductor)その他の撮像素子と、オートフォーカス機構とを含む。カメラ5は、ユーザ操作に応じて、視野に含まれる被写体を撮影し、入力画像を生成する。生成した入力画像は、CPU2に出力される。   The camera 5 is provided on the opposite surface of the display screen of the touch panel 4. The camera 5 includes a lens, a complementary metal-oxide semiconductor (CMOS) or other imaging element, and an autofocus mechanism. The camera 5 captures a subject included in the field of view and generates an input image in response to a user operation. The generated input image is output to the CPU 2.

距離センサ9は、スマートフォン100とユーザの手との間の距離(以下、「ユーザ距離」ともいう。)を検出する。距離センサ9は、タッチパネル4の表示面とは反対の面に設けられる。すなわち、距離センサ9は、カメラ5が設けられる面と同一の面に設けられる。距離センサ9は、たとえば、超音波センサ、赤外線センサ、ユーザ距離を検出することが可能なその他のセンサを含む。ある局面において、距離センサ9は、カメラ5に内蔵される。これを実現するための技術として、像面位相差AF(Auto Focus)技術が挙げられる。なお、距離センサ9は、本実施の形態に従うスマートフォン100においては必須の構成ではない。距離センサ9は、たとえば、以下で説明する第2の実施の形態に従うスマートフォン100Aに用いられる。   The distance sensor 9 detects a distance between the smartphone 100 and the user's hand (hereinafter also referred to as “user distance”). The distance sensor 9 is provided on the surface opposite to the display surface of the touch panel 4. That is, the distance sensor 9 is provided on the same surface as the surface on which the camera 5 is provided. The distance sensor 9 includes, for example, an ultrasonic sensor, an infrared sensor, and other sensors that can detect a user distance. In one aspect, the distance sensor 9 is built in the camera 5. As a technique for realizing this, there is an image plane phase difference AF (Auto Focus) technique. Distance sensor 9 is not an essential component in smartphone 100 according to the present embodiment. The distance sensor 9 is used for the smart phone 100A according to 2nd Embodiment demonstrated below, for example.

ネットワークI/F10は、アンテナ10Aを介して、他の通信機器との間でデータを送受信する。他の通信機器は、たとえば、スマートフォン、パソコン、サーバ装置、その他通信機能を有する電子機器などである。スマートフォン100は、アンテナ10Aを介して、本実施の形態に従う各種の処理を実現するためのプログラムをダウンロードできるように構成されてもよい。   The network I / F 10 transmits and receives data to and from other communication devices via the antenna 10A. Other communication devices are, for example, smart phones, personal computers, server devices, and other electronic devices having communication functions. Smartphone 100 may be configured to download a program for realizing various processes according to the present embodiment via antenna 10A.

記憶装置20は、たとえば、eMMC(Embedded MultiMediaCard)などの記憶媒体を含む。eMMCは、NANDフラッシュメモリと、制御回路とを含む。記憶装置20は、本実施の形態に従う各種の処理を実現するためのプログラムなどを格納する。また、記憶装置20は、オペレーティングシステムなどのプログラムを格納していてもよい。   The storage device 20 includes, for example, a storage medium such as eMMC (Embedded MultiMediaCard). The eMMC includes a NAND flash memory and a control circuit. Storage device 20 stores a program and the like for realizing various processes according to the present embodiment. Further, the storage device 20 may store a program such as an operating system.

[機能構成]
図4を参照して、スマートフォン100の機能の一例について説明する。図4は、スマートフォン100の機能構成を示すブロック図である。CPU2は、手検出部210と、生成部220と、表示制御部230と、接触検出部240と、実行部250とを含む。
[Function configuration]
An example of the function of the smartphone 100 will be described with reference to FIG. FIG. 4 is a block diagram illustrating a functional configuration of the smartphone 100. The CPU 2 includes a hand detection unit 210, a generation unit 220, a display control unit 230, a contact detection unit 240, and an execution unit 250.

手検出部210は、カメラ5から得られた入力画像からユーザの手を検出する。入力画像からユーザの手を検出するための手法として、たとえば、テンプレートマッチングなどの画像処理技術が用いられる。本実施の形態におけるテンプレートマッチングとは、記憶装置20などに予め登録された手画像30を基準として、入力画像から手画像30を探索することにより入力画像内の手の位置を取得する手法である。一例として、入力画像内のユーザの手の位置は、入力画像中の座標値として検出される。手検出部210は、検出したユーザの手の位置を生成部220に出力する。   The hand detection unit 210 detects the user's hand from the input image obtained from the camera 5. As a method for detecting the user's hand from the input image, for example, an image processing technique such as template matching is used. The template matching in the present embodiment is a method of acquiring the position of the hand in the input image by searching for the hand image 30 from the input image with reference to the hand image 30 registered in advance in the storage device 20 or the like. . As an example, the position of the user's hand in the input image is detected as a coordinate value in the input image. The hand detection unit 210 outputs the detected position of the user's hand to the generation unit 220.

生成部220は、手検出部210によって検出されたユーザの手の形を有する手画像30を生成する。一例として、生成部220は、手検出部210によって検出された入力画像内の手の位置(たとえば、座標)から所定の範囲内においてエッジを抽出し、抽出したエッジ部分に沿って入力画像を切り出して手画像30を生成する。手画像30は、ユーザの手を入力画像から切り出した画像そのものであってもよいし、入力画像におけるユーザの手の輪郭を有する加工した画像であってもよい。生成部220は、生成した手画像30を、表示制御部230および接触検出部240に出力する。   The generation unit 220 generates the hand image 30 having the shape of the user's hand detected by the hand detection unit 210. As an example, the generation unit 220 extracts an edge within a predetermined range from the hand position (for example, coordinates) in the input image detected by the hand detection unit 210, and cuts out the input image along the extracted edge portion. The hand image 30 is generated. The hand image 30 may be an image itself obtained by cutting the user's hand from the input image, or may be a processed image having the contour of the user's hand in the input image. The generation unit 220 outputs the generated hand image 30 to the display control unit 230 and the contact detection unit 240.

ある局面において、生成部220は、入力画像が得られた順番に手画像30を順次生成する。これにより、生成部220は、カメラ5が撮影しているユーザの手と同じ形を有する手画像30をリアルタイムに生成することができる。他の局面において、生成部220は、タッチパネル4の表示画面のサイズに応じたサイズで手画像30を生成する。これにより、手画像30が、表示画面を操作するのに適したサイズで表示され、タッチパネル4の誤操作を軽減することができる。さらに他の局面において、生成部220は、タッチパネル4の表示画面に表示されるオブジェクトのサイズに応じたサイズで手画像30を生成する。これにより、手画像30が、表示画面に表示されるオブジェクトを操作するのに適したサイズで表示され、タッチパネル4の誤操作を軽減することができる。   In one aspect, the generation unit 220 sequentially generates the hand images 30 in the order in which the input images are obtained. Thereby, the production | generation part 220 can produce | generate the hand image 30 which has the same shape as the user's hand which the camera 5 image | photographs in real time. In another aspect, the generation unit 220 generates the hand image 30 with a size corresponding to the size of the display screen of the touch panel 4. Thereby, the hand image 30 is displayed in a size suitable for operating the display screen, and erroneous operation of the touch panel 4 can be reduced. In still another aspect, the generation unit 220 generates the hand image 30 with a size corresponding to the size of the object displayed on the display screen of the touch panel 4. Thereby, the hand image 30 is displayed in a size suitable for operating the object displayed on the display screen, and erroneous operation of the touch panel 4 can be reduced.

表示制御部230は、生成部220によって生成された手画像30を、タッチパネル4の操作画面32に重ねて表示する。操作画面32における手画像30の表示位置は、入力画像内の手画像30の位置によって決定される。すなわち、手画像30の表示位置は、カメラ5に対するユーザの手の位置によって決定される。ある局面において、表示制御部230は、手画像30の表示位置を更新する。これにより、表示制御部230は、ユーザの手の動きと手画像30の表示とを連動させることができる。すなわち、ユーザがカメラ5の視野の範囲内で自身の手を上下左右に動かすと、その動きに合わせて手画像30の表示位置も上下左右に変化する。   The display control unit 230 displays the hand image 30 generated by the generation unit 220 so as to overlap the operation screen 32 of the touch panel 4. The display position of the hand image 30 on the operation screen 32 is determined by the position of the hand image 30 in the input image. That is, the display position of the hand image 30 is determined by the position of the user's hand with respect to the camera 5. In a certain situation, the display control unit 230 updates the display position of the hand image 30. Thereby, the display control unit 230 can link the movement of the user's hand with the display of the hand image 30. That is, when the user moves his / her hand up / down / left / right within the field of view of the camera 5, the display position of the hand image 30 also changes up / down / left / right according to the movement.

接触検出部240は、手画像30に含まれる第1の指(たとえば、人差し指)と、第1の指とは異なる第2の指(たとえば、親指)とが近接または接触したことを検出する。より具体的な処理として、まず、接触検出部240は、手画像30に含まれるユーザの各指を検出する。手画像30からユーザの指を検出するための手法として、たとえば、テンプレートマッチングなどの画像処理技術が用いられる。この場合、接触検出部240は、記憶装置20などに予め登録された各指画像を基準として、手画像30から各指画像を探索する。この結果、接触検出部240は、手画像30内の各指の位置を取得できる。一例として、手画像30内のユーザの指の位置は、入力画像中の座標値として検出される。接触検出部240は、各指の座標値から算出された指間の距離が予め定められた距離以内になったことに基づいて、指同士の近接または接触を検出する。   The contact detection unit 240 detects that a first finger (for example, an index finger) included in the hand image 30 and a second finger (for example, a thumb) different from the first finger have approached or contacted each other. As a more specific process, first, the contact detection unit 240 detects each finger of the user included in the hand image 30. As a technique for detecting the user's finger from the hand image 30, for example, an image processing technique such as template matching is used. In this case, the contact detection unit 240 searches each finger image from the hand image 30 based on each finger image registered in advance in the storage device 20 or the like. As a result, the contact detection unit 240 can acquire the position of each finger in the hand image 30. As an example, the position of the user's finger in the hand image 30 is detected as a coordinate value in the input image. The contact detection unit 240 detects the proximity or contact between fingers based on the fact that the distance between fingers calculated from the coordinate value of each finger is within a predetermined distance.

実行部250は、タッチパネル4内の手画像30の位置におけるタッチ操作に応じた命令を実行する。すなわち、実行部250は、CPU2がタッチ操作を検出したときに実行する処理と同じ処理(すなわち、タッチ処理)を実行する。タッチ処理は、タッチ操作の代わりとなるユーザ操作(すなわち、代替操作)がスマートフォン100によって検出されると実行される。   The execution unit 250 executes a command corresponding to the touch operation at the position of the hand image 30 in the touch panel 4. That is, the execution unit 250 executes the same process (that is, touch process) as the process executed when the CPU 2 detects a touch operation. The touch process is executed when the smartphone 100 detects a user operation (that is, an alternative operation) that takes the place of the touch operation.

[代替操作]
実行部250がタッチ処理を実行するトリガとなる代替操作には、様々なものが考えられる。以下、代替操作の例を挙げる。
[Alternative operation]
Various alternative operations can be considered as triggers for the execution unit 250 to perform touch processing. Examples of alternative operations are given below.

(代替操作の例1)
代替操作は、たとえば、ユーザの第1の指(たとえば、人差し指)と第2の指(たとえば、親指)とがカメラの前で予め定められた動きをすることを含む。すなわち、第1の指と第2の指との動作が予め定められた動作に一致した場合に、実行部250は、タッチ処理を実行する。予め定められた動作は、たとえば、第1の指と第2の指とを近接または接触させることを含む。より具体的には、ユーザは、スマートフォン100にタッチ処理を実行させたくない場合には、カメラの前で、第1の指と第2の指との間を空けておく。また、ユーザは、スマートフォン100にタッチ処理を実行させたい場合には、カメラの前で、第1の指および第2の指を接触または近接させる。第1の指および第2の指が接触または近接したか否かは、上述したように、接触検出部240によって検出される。
(Example of alternative operation 1)
An alternative operation includes, for example, the user's first finger (eg, forefinger) and second finger (eg, thumb) making a predetermined movement in front of the camera. That is, when the movements of the first finger and the second finger coincide with a predetermined movement, the execution unit 250 executes a touch process. The predetermined action includes, for example, bringing the first finger and the second finger into close proximity or contact with each other. More specifically, when the user does not want the smartphone 100 to perform the touch process, the user leaves a space between the first finger and the second finger in front of the camera. In addition, when the user wants the smartphone 100 to perform touch processing, the user touches or approaches the first finger and the second finger in front of the camera. As described above, whether or not the first finger and the second finger are in contact with each other is detected by the contact detection unit 240.

第1の指と第2の指とは、ユーザによって5本の指から任意に選択される。第1の指と第2の指との選択方法については、特に限定しない。たとえば、スマートフォン100は、5本の指から任意の指を選択するユーザインタフェースにおいて、第1の指および第2の指をユーザが選択できるように構成されてもよい。ある局面において、ユーザは、タッチしたい場所を指し示す指を第1の指として選択し、タッチ動作を指示する指を第2の指として選択する。この場合、ユーザが代替操作を行なった場合に、実行部250は、手画像30に含まれる第1の指が指している位置におけるタッチ処理を実行する。   The first finger and the second finger are arbitrarily selected from five fingers by the user. A method for selecting the first finger and the second finger is not particularly limited. For example, the smartphone 100 may be configured such that the user can select the first finger and the second finger in a user interface that selects an arbitrary finger from five fingers. In one aspect, the user selects a finger indicating a place to be touched as a first finger, and selects a finger instructing a touch operation as a second finger. In this case, when the user performs an alternative operation, the execution unit 250 executes a touch process at a position where the first finger included in the hand image 30 is pointing.

なお、上記では、第1の指および第2の指の2本の指の動作を例に挙げて代替操作の説明を行なったが、代替操作は、ユーザの1本の指の予め定められた動作を含んでもよい。あるいは、代替操作は、ユーザの3本以上の指の予め定められた動作を含んでもよい。   In the above description, the alternative operation has been described by taking the operation of the two fingers of the first finger and the second finger as an example. However, the alternative operation is predetermined for one finger of the user. Operations may be included. Alternatively, the alternative operation may include a predetermined action of the user's three or more fingers.

(代替操作の例2)
他の例として、代替操作は、ユーザが自身の手をカメラ5の前で回転させることを含む。一例として、実行部250は、タッチ位置を示す第1の指の指先の位置が変化せず、手の甲の回転を検出したときに、タッチ処理を実行する。このとき、ユーザは、スマートフォン100にタッチ処理を実行させたくない場合に、カメラ5に対して手の甲を向ける。この状態から、ユーザが手の甲を回転させた場合に、実行部250は、タッチ処理を実行する。
(Example 2 of alternative operation)
As another example, the alternative operation includes the user rotating his / her hand in front of the camera 5. As an example, the execution unit 250 executes the touch process when the position of the fingertip of the first finger indicating the touch position does not change and rotation of the back of the hand is detected. At this time, the user turns the back of the hand toward the camera 5 when the smartphone 100 does not want to execute the touch process. From this state, when the user rotates the back of the hand, the execution unit 250 executes the touch process.

なお、上記では、ユーザが手の甲をカメラ5の前で回転させる動作を、タッチ処理の実行を意図する動作として説明を行なったが、タッチ処理の実行を意図する動作は、これに限定されない。たとえば、タッチ処理の実行を意図する動作は、カメラ5に手の甲を向ける動作、その他のユーザの手の動作を含む。   In the above description, the operation in which the user rotates the back of the hand in front of the camera 5 has been described as the operation intended to execute the touch process. However, the operation intended to execute the touch process is not limited to this. For example, the operation intended to execute the touch process includes an operation of turning the back of the hand toward the camera 5 and other user's hand.

(代替操作の例3)
他の例として、代替操作は、スマートフォン100を把持している側の手を用いてタッチパネル4の画面上の特定の場所をユーザがタッチすること、スマートフォン100の特定の場所をユーザがタッチすること、および、ユーザがスマートフォン100に設けられた操作ボタン(図示しない)を押下することを含み得る。
(Example 3 of alternative operation)
As another example, in the alternative operation, the user touches a specific place on the screen of the touch panel 4 using the hand on the side holding the smartphone 100, and the user touches a specific place of the smartphone 100. And the user may press an operation button (not shown) provided on the smartphone 100.

(代替操作の例4)
他の例として、代替操作は、ユーザ自身の手をカメラ5の前で予め定められた形にすることを含む。すなわち、スマートフォン100には、様々な手の形を有する手画像が予め登録されており、カメラ5から得られた画像が、予め登録されている手画像の形状と一致した場合に、実行部250は、タッチ処理を実行する。上述の代替操作の例1は、本例(代替操作の例4)の一例とみなすこともできる。本例に従う代替操作の具体例として、以下の(a)〜(d)が挙げられるが、代替操作は、これらに限定されるものではない。
(Example 4 of alternative operation)
As another example, the alternative operation includes placing the user's own hand in a predetermined shape in front of the camera 5. That is, when the hand image having various hand shapes is registered in the smartphone 100 in advance, and the image obtained from the camera 5 matches the shape of the hand image registered in advance, the execution unit 250. Performs the touch process. The above-described alternative operation example 1 can also be regarded as an example of this example (alternative operation example 4). Specific examples of the alternative operation according to this example include the following (a) to (d), but the alternative operation is not limited to these.

(a)本例に従う代替操作は、タッチしたい場所を示す第1の指を1本だけ立てている状態から、親指などの異なる指(第2の指)を立てる動作を含む。スマートフォン100は、この動作を検出したときに、タッチ処理を実行する。   (A) The alternative operation according to this example includes an operation of raising a different finger (second finger) such as a thumb from a state where only one first finger indicating a place to be touched is raised. When the smartphone 100 detects this operation, the smartphone 100 performs a touch process.

(b)他にも、本例に従う代替操作は、第1の指とは異なる指(第2の指)を予め立てている状態から、第2の指を曲げる動作を含む。スマートフォン100は、この動作を検出したときに、タッチ処理を実行する。   (B) In addition, the alternative operation according to the present example includes an operation of bending the second finger from a state where a finger (second finger) different from the first finger is raised in advance. When the smartphone 100 detects this operation, the smartphone 100 performs a touch process.

(c)他にも、本例に従う代替操作は、上記(a),(b)において、第1とは異なる第2の指を複数本使うような動作を含む。たとえば、手を開いた状態から、第1の指以外の指をすべて曲げて、第1の指だけを1本立てる動作が挙げられる。また、人差し指(第1の指)とは別に親指と中指とを立てた状態から、1本以上の指を曲げる動作が挙げられる。スマートフォン100は、これらの動作を検出したときに、タッチ処理を実行する。   (C) In addition, the alternative operation according to the present example includes an operation of using a plurality of second fingers different from the first in (a) and (b). For example, an operation in which all fingers other than the first finger are bent and only one first finger is raised from a state where the hand is opened can be cited. Moreover, the operation | movement which bends one or more fingers from the state which stood the thumb and the middle finger apart from the index finger (1st finger) is mentioned. The smartphone 100 executes the touch process when detecting these operations.

(d)他にも、第1の指とは異なる指を複数本使用した動作が端末に予め登録されている手画像に一致したときに、スマートフォン100は、タッチ処理を実行する。たとえば、ユーザが、カメラ5の前で、人差し指(第1の指)とは別に、親指と中指との2本の指を使用し、2本の指で輪を作った(すなわち、2本の指先を接触させた)とき、スマートフォン100は、タッチ処理を実行する。   (D) In addition, when an operation using a plurality of fingers different from the first finger matches a hand image registered in advance in the terminal, the smartphone 100 performs a touch process. For example, in front of the camera 5, the user uses two fingers of the thumb and middle finger separately from the index finger (first finger) to form a ring with two fingers (that is, two fingers) When the fingertip is brought into contact), the smartphone 100 executes a touch process.

[制御構造]
図5を参照して、スマートフォン100の制御構造について説明する。図5は、スマートフォン100が実行する処理の一部を表わすフローチャートである。図5の処理は、CPU2がプログラムを実行することにより実現される。他の局面において、処理の一部又は全部が、回路素子その他のハードウェアによって実行されてもよい。
[Control structure]
The control structure of the smartphone 100 will be described with reference to FIG. FIG. 5 is a flowchart showing a part of the process executed by smartphone 100. The processing in FIG. 5 is realized by the CPU 2 executing a program. In other aspects, some or all of the processing may be performed by circuit elements or other hardware.

ステップS510において、CPU2は、カメラ5から入力画像を取得する。ステップS520において、CPU2は、手検出部210として、入力画像にユーザの手が含まれるか否かを判断する。CPU2は、入力画像にユーザの手が含まれていると判断した場合には(ステップS520においてYES)、制御をステップS522に切り替える。そうでない場合には(ステップS520においてNO)、CPU2は、制御をステップS510に戻す。   In step S <b> 510, the CPU 2 acquires an input image from the camera 5. In step S520, the CPU 2 determines, as the hand detection unit 210, whether or not the user's hand is included in the input image. When CPU 2 determines that the user's hand is included in the input image (YES in step S520), CPU 2 switches control to step S522. If not (NO in step S520), CPU 2 returns control to step S510.

ステップS522において、CPU2は、生成部220として、ステップS520において検出されたユーザの手の形を有する手画像を生成する。好ましくは、CPU2は、タッチパネル4の画面内で適切な大きさになるよう縮小して手画像30を表示する。たとえば、CPU2は、タッチパネル4の画面のサイズに合わせて手画像30を表示する。あるいは、CPU2は、オブジェクトのサイズに合わせて手画像30を表示する。ステップS524において、CPU2は、表示制御部230として、タッチパネル4の操作画面に重ねて手画像30を表示し、ユーザの手の動きに連動させて手画像30をタッチパネル4に表示する。   In step S522, the CPU 2 generates a hand image having the shape of the user's hand detected in step S520 as the generation unit 220. Preferably, the CPU 2 displays the hand image 30 by reducing it to an appropriate size within the screen of the touch panel 4. For example, the CPU 2 displays the hand image 30 in accordance with the screen size of the touch panel 4. Alternatively, the CPU 2 displays the hand image 30 according to the size of the object. In step S524, the CPU 2 displays the hand image 30 on the operation screen of the touch panel 4 as the display control unit 230, and displays the hand image 30 on the touch panel 4 in conjunction with the movement of the user's hand.

ステップS530において、CPU2は、上述の代替操作を検出したか否かを判断する。CPU2は、代替操作を検出したと判断した場合には(ステップS530においてYES)、制御をステップS532に切り替える。そうでない場合には(ステップS530においてNO)、CPU2は、制御をステップS510に戻す。   In step S530, the CPU 2 determines whether or not the above-described alternative operation has been detected. If CPU 2 determines that an alternative operation has been detected (YES in step S530), it switches control to step S532. If not (NO in step S530), CPU 2 returns control to step S510.

ステップS532において、CPU2は、実行部250として、タッチ処理を実行する。より具体的な処理として、まず、CPU2は、ユーザがタッチ操作に用いることを意図している指を手画像30から検出する。たとえば、手画像30における手の形が人差し指のみを立てたものであれば、CPU2は、ユーザが人差し指をタッチ操作に使用することを意図していると判断する。CPU2は、検出した指の先端の位置におけるタッチ操作があったものとしてタッチ処理を実行する。   In step S532, the CPU 2 executes touch processing as the execution unit 250. As a more specific process, first, the CPU 2 detects from the hand image 30 a finger that the user intends to use for the touch operation. For example, if the hand shape in the hand image 30 is an index finger only, the CPU 2 determines that the user intends to use the index finger for a touch operation. The CPU 2 executes the touch process on the assumption that there is a touch operation at the detected tip position of the finger.

[小括]
以上のようにして、ユーザは、自身の手の動きに連動する手画像30を操作することで、タッチ操作と同様の操作を行なうことができる。手画像30は、ユーザの手の動きに連動するため、ユーザは、自然な感覚で手画像30を操作することができる。また、カメラ5は、表示画面の反対の面に設けられているため、ユーザが通常のタッチ操作を行なうときと同様に、手の甲側の手画像30がそのままの形で表示される。このため、ユーザは、自身の指を使ってタッチパネル4を直接操作しているような自然な感覚でスマートフォン100を操作することができる。
[Brief Summary]
As described above, the user can perform the same operation as the touch operation by operating the hand image 30 interlocked with the movement of his / her hand. Since the hand image 30 is linked to the movement of the user's hand, the user can operate the hand image 30 with a natural feeling. Further, since the camera 5 is provided on the opposite surface of the display screen, the hand image 30 on the back side of the hand is displayed as it is, as when the user performs a normal touch operation. For this reason, the user can operate the smartphone 100 with a natural feeling as if the touch panel 4 was directly operated using his / her finger.

また、スマートフォン100は、タッチパネル4の表示画面上でアイコンなどのオブジェクトをユーザが選択するのに適した大きさで手画像30を表示する。このため、多数のオブジェクトが密集して表示されているような場合であっても、ユーザは、画面の一部分を拡大する操作を行うなどの画面のレイアウトを変更する操作を行なう必要がない。ユーザは、画面レイアウトを変えずに画面操作を行なうことができるので、スマートフォン100の誤操作を軽減することができる。   Further, the smartphone 100 displays the hand image 30 in a size suitable for the user to select an object such as an icon on the display screen of the touch panel 4. Therefore, even when a large number of objects are displayed densely, the user does not need to perform an operation for changing the screen layout such as an operation for enlarging a part of the screen. Since the user can perform the screen operation without changing the screen layout, it is possible to reduce the erroneous operation of the smartphone 100.

また、スマートフォン100の製造者は、一般的な携帯端末に標準的に搭載されている機能および部品を利用して上述の処理を実現できるので、スマートフォン100の製造コストを抑えることができる。また、スマートフォン100の製造者は、操作性を改善するためにタッチペンなどの他の部品を設ける必要が無いので、スマートフォン100の携帯性が損なわれることもない。   Moreover, since the manufacturer of the smart phone 100 can implement | achieve the above-mentioned process using the function and components normally mounted in the general portable terminal, the manufacturing cost of the smart phone 100 can be held down. Moreover, since the manufacturer of the smart phone 100 does not need to provide other parts, such as a touch pen, in order to improve operativity, the portability of the smart phone 100 is not impaired.

<第2の実施の形態>
[概要]
以下、図6を参照して、第2の実施の形態に従うスマートフォン100Aの概要について説明する。図6は、ユーザがスマートフォン100Aを操作している様子を示している図である。第2の実施の形態に従うスマートフォン100Aは、ユーザの手までの距離の変化をトリガにタッチ処理を実行する点で、第1の実施の形態に従うスマートフォン100とは異なる。ハードウェア構成などのその他の点については第1の実施の形態に従うスマートフォン100と同じであるので、それらの説明は繰り返さない。
<Second Embodiment>
[Overview]
Hereinafter, with reference to FIG. 6, the outline | summary of the smart phone 100A according to 2nd Embodiment is demonstrated. FIG. 6 is a diagram illustrating a state in which the user is operating the smartphone 100A. The smartphone 100A according to the second embodiment is different from the smartphone 100 according to the first embodiment in that the touch process is executed using a change in the distance to the user's hand as a trigger. Since other points such as the hardware configuration are the same as those of the smartphone 100 according to the first embodiment, description thereof will not be repeated.

図6(A)に示されるように、スマートフォン100Aは、タッチパネル4を含む。タッチパネル4には、カメラ5がユーザの手を撮影して得られた手画像30が表示されている。この状態において、図6(B)に示されるように、ユーザが自身の手をスマートフォン100Aから遠ざける方向に動かすことで、スマートフォン100Aは、タッチ処理を実行する。すなわち、自身の手をスマートフォン100Aから遠ざける動作は、タッチ操作の代わりとなるユーザ操作(すなわち、代替操作)となる。   As illustrated in FIG. 6A, the smartphone 100 </ b> A includes the touch panel 4. On the touch panel 4, a hand image 30 obtained by photographing the user's hand with the camera 5 is displayed. In this state, as shown in FIG. 6B, the user moves his / her hand in a direction away from the smartphone 100A, so that the smartphone 100A performs a touch process. That is, the operation of moving his / her hand away from the smartphone 100 </ b> A becomes a user operation (that is, an alternative operation) instead of the touch operation.

より具体的な処理として、スマートフォン100Aは、生成部220(図4参照)により生成される手画像のサイズに応じて、ユーザの手までの距離(すなわち、ユーザ距離)を算出する。生成部220が生成する手画像のサイズは、ユーザの手の動きと連動している。すなわち、図6(B)に示されるように、ユーザがカメラ5から自身の手を遠ざけると、生成部220により生成される手画像のサイズは小さくなる。また、ユーザがカメラ5に自身の手を近付けると、生成部220により生成される手画像のサイズは大きくなる。この点に着目して、スマートフォン100Aは、生成部220により生成される手画像のサイズからユーザ距離を算出する。スマートフォン100Aは、ユーザ距離の変化量が予め定められた変化量よりも大きくなった場合に、タッチ処理を実行する。   As a more specific process, the smartphone 100A calculates the distance to the user's hand (that is, the user distance) according to the size of the hand image generated by the generation unit 220 (see FIG. 4). The size of the hand image generated by the generation unit 220 is linked to the movement of the user's hand. That is, as shown in FIG. 6B, when the user moves his / her hand away from the camera 5, the size of the hand image generated by the generation unit 220 is reduced. Further, when the user brings his / her hand close to the camera 5, the size of the hand image generated by the generation unit 220 increases. Focusing on this point, the smartphone 100A calculates the user distance from the size of the hand image generated by the generation unit 220. The smartphone 100A executes the touch process when the change amount of the user distance becomes larger than a predetermined change amount.

なお、図6(A)および図6(B)に示されるように、実際に表示される手画像30の表示サイズは、ユーザ距離によって変わらないように調整される。すなわち、表示制御部230は、生成部220によって生成された手画像を、画面サイズに応じて縮小または拡大して一定のサイズの手画像30を生成し、当該手画像30をタッチパネル4に表示する。あるいは、表示制御部230は、ユーザ距離に応じて、手画像30の表示サイズを変えてもよい。この場合、表示制御部230は、ユーザ距離が遠いほど手画像30の表示を大きくし、ユーザ距離が近いほど手画像30の表示を小さくする。   6A and 6B, the display size of the hand image 30 that is actually displayed is adjusted so as not to change depending on the user distance. That is, the display control unit 230 reduces or enlarges the hand image generated by the generation unit 220 according to the screen size, generates the hand image 30 having a certain size, and displays the hand image 30 on the touch panel 4. . Alternatively, the display control unit 230 may change the display size of the hand image 30 according to the user distance. In this case, the display control unit 230 increases the display of the hand image 30 as the user distance increases, and decreases the display of the hand image 30 as the user distance decreases.

[機能構成]
図7を参照して、スマートフォン100Aの機能の一例について説明する。図7は、スマートフォン100Aの機能構成を示すブロック図である。CPU2は、手検出部210と、生成部220と、表示制御部230と、接触検出部240と、実行部250と、距離検出部260とを含む。手検出部210と、生成部220と、表示制御部230と、接触検出部240とについては上述した通りであるので説明を繰り返さない。
[Function configuration]
With reference to FIG. 7, an example of the function of the smartphone 100A will be described. FIG. 7 is a block diagram illustrating a functional configuration of the smartphone 100A. The CPU 2 includes a hand detection unit 210, a generation unit 220, a display control unit 230, a contact detection unit 240, an execution unit 250, and a distance detection unit 260. Since hand detection unit 210, generation unit 220, display control unit 230, and contact detection unit 240 are as described above, description thereof will not be repeated.

距離検出部260は、ユーザの手とスマートフォン100Aと間の距離(すなわち、ユーザ距離)を検出する。より具体的には、距離検出部260は、生成部220によって生成される手画像30のサイズからユーザ距離を検出する。この場合、手画像30のサイズが大きいほど、ユーザ距離が近くなる。手画像30のサイズが小さいほど、ユーザ距離は遠くなる。距離検出部260は、検出したユーザ距離を実行部250に出力する。なお、距離検出部260は、他の方法を用いてユーザ距離を検出してもよい。ある局面において、距離検出部260は、上述の距離センサ9(図3参照)からユーザ距離を取得してもよい。あるいは、距離検出部260は、手画像30のサイズとユーザ距離との関係を規定したテーブルを参照してユーザ距離を取得する。   The distance detection unit 260 detects the distance between the user's hand and the smartphone 100A (that is, the user distance). More specifically, the distance detection unit 260 detects the user distance from the size of the hand image 30 generated by the generation unit 220. In this case, the user distance is closer as the size of the hand image 30 is larger. The smaller the size of the hand image 30, the longer the user distance. The distance detection unit 260 outputs the detected user distance to the execution unit 250. The distance detection unit 260 may detect the user distance using another method. In a certain aspect, the distance detection unit 260 may acquire the user distance from the above-described distance sensor 9 (see FIG. 3). Alternatively, the distance detection unit 260 refers to a table that defines the relationship between the size of the hand image 30 and the user distance, and acquires the user distance.

実行部250は、ユーザ距離の変化量が予め定められた変化量よりも大きくなった場合に、タッチパネル4上の手画像の位置におけるタッチ処理を実行する。あるいは、ユーザ距離が予め定められた距離よりも大きくなった場合に、実行部250は、タッチパネル4上の手画像の位置におけるタッチ処理を実行するように構成されてもよい。   The execution unit 250 executes a touch process at the position of the hand image on the touch panel 4 when the change amount of the user distance becomes larger than a predetermined change amount. Alternatively, the execution unit 250 may be configured to execute the touch process at the position of the hand image on the touch panel 4 when the user distance becomes larger than a predetermined distance.

ある局面において、実行部250は、カメラ5のピントを調整するための調整値(コントラストの情報)をカメラ5から取得し、調整値の変化によってタッチ処理を実行してもよい。ユーザがカメラ5に対して自身の手を前後に動かした場合には、カメラ5は、手にピントを合わせるため、調整値を変化する。スマートフォン100Aは、この調整値の変化を検出することで、ユーザがカメラ5の前で自身の手を前後に動かしたか否かを判断することができる。   In one aspect, the execution unit 250 may acquire an adjustment value (contrast information) for adjusting the focus of the camera 5 from the camera 5 and execute the touch process according to a change in the adjustment value. When the user moves his / her hand back and forth with respect to the camera 5, the camera 5 changes the adjustment value to focus on the hand. The smartphone 100 </ b> A can determine whether or not the user has moved his / her hand back and forth in front of the camera 5 by detecting the change in the adjustment value.

[小括]
以上のようにして、第2の実施の形態に従うスマートフォン100Aは、カメラ5から手を遠ざけるユーザ操作でタッチ処理を実行する。タッチ操作を行ったときにタッチパネルに力を加える方向と手を動かす方向とが一致するので、ユーザは、タッチ操作を行った時と同じような感覚でスマートフォン100Aを操作することができる。これにより、ユーザは、より直感的な操作を行なうことができ、この結果、スマートフォン100Aの操作性が向上する。
[Brief Summary]
As described above, the smartphone 100 </ b> A according to the second embodiment executes the touch process by the user operation of moving the hand away from the camera 5. Since the direction in which force is applied to the touch panel when the touch operation is performed matches the direction in which the hand is moved, the user can operate the smartphone 100A with the same feeling as when the touch operation is performed. Thereby, the user can perform a more intuitive operation, and as a result, the operability of the smartphone 100A is improved.

<第3の実施の形態>
[概要]
第3の実施の形態に従うスマートフォン100Bは、予め定められたユーザ動作を検出した場合に、タッチ処理とは異なる処理を実行する点で、第2の実施の形態に従うスマートフォン100Aとは異なる。ハードウェア構成などのその他の点については第2の実施の形態に従うスマートフォン100Aと同じであるので、それらの説明は繰り返さない。
<Third Embodiment>
[Overview]
Smartphone 100B according to the third embodiment is different from smartphone 100A according to the second embodiment in that a process different from the touch process is executed when a predetermined user action is detected. Since other points such as the hardware configuration are the same as those of smartphone 100A according to the second embodiment, description thereof will not be repeated.

スマートフォン100Bは、当該スマートフォン100Bで実行される処理とユーザの手の動作との対応関係をユーザが任意に設定できるように構成される。すなわち、スマートフォン100Bは、タッチ処理以外にも様々な処理を代替操作に対応付けることができる。より具体的な処理として、ユーザがスマートフォン100Bの処理と代替操作との対応付けを設定すると、スマートフォン100Bは、これらの対応関係を規定した情報を記憶装置20などに格納する。スマートフォン100Bは、代替操作を検出した場合には、検出した代替操作に対応する処理を実行する。代替操作と、その代替操作によって実行される処理との対応関係として様々なものが考えられる。以下、その例について説明する。   The smartphone 100B is configured such that the user can arbitrarily set the correspondence between the process executed by the smartphone 100B and the operation of the user's hand. That is, the smartphone 100B can associate various processes other than the touch process with alternative operations. As a more specific process, when the user sets the association between the process of the smartphone 100B and the alternative operation, the smartphone 100B stores information defining these correspondences in the storage device 20 or the like. When the smartphone 100B detects an alternative operation, the smartphone 100B executes a process corresponding to the detected alternative operation. There are various possible correspondences between an alternative operation and a process executed by the alternative operation. Examples thereof will be described below.

[代替操作と、その代替操作によって実行される処理との対応関係]
一例として、ユーザが、カメラ5の前で自身の手を前後に動かす動作と、タッチパネル4の表示画面を拡大または縮小する処理とを対応付ける設定を行なったとする。この場合、ユーザが自身の手をカメラ5から遠ざける動作を行なった場合には、スマートフォン100Bは、表示画面を拡大する。また、ユーザが自身の手をカメラ5に近付ける動作を行なった場合には、スマートフォン100Bは、表示画面を縮小する。
[Correspondence between alternative operation and processing executed by the alternative operation]
As an example, it is assumed that the user performs a setting for associating an operation of moving his / her hand back and forth in front of the camera 5 with a process of enlarging or reducing the display screen of the touch panel 4. In this case, when the user performs an operation of moving his / her hand away from the camera 5, the smartphone 100B enlarges the display screen. When the user performs an operation of bringing his / her hand close to the camera 5, the smartphone 100B reduces the display screen.

他の例として、ユーザが、カメラ5の前で自身の手を前後に動かす動作と、タッチパネル4の表示画面をスクロールする処理とを対応付ける設定を行なったとする。この場合、ユーザが自身の手をカメラ5から遠ざける動作を行なった場合には、スマートフォン100Bは、表示画面を下方向にスクロールする。また、ユーザが自身の手をカメラ5に近付ける動作を行なった場合には、スマートフォン100Bは、表示画面を上方向にスクロールする。   As another example, it is assumed that the user performs a setting for associating an operation of moving his / her hand back and forth in front of the camera 5 with a process of scrolling the display screen of the touch panel 4. In this case, when the user performs an operation of moving his / her hand away from the camera 5, the smartphone 100B scrolls the display screen downward. Further, when the user performs an operation of bringing his / her hand close to the camera 5, the smartphone 100 </ b> B scrolls the display screen upward.

[小括]
以上のようにして、ユーザは、自身の手の動作と、スマートフォン100Bの処理とを任意に対応付けることができる。これにより、ユーザは、自身が使いやすいように、スマートフォン100Bの処理と、その処理を実行するための操作との対応付けの設定をカスタマイズすることができるので、スマートフォン100Bの操作性がさらに向上する。
[Brief Summary]
As described above, the user can arbitrarily associate the operation of his / her hand with the process of the smartphone 100B. Thereby, since the user can customize the setting of the association between the process of the smartphone 100B and the operation for executing the process so that the user can easily use it, the operability of the smartphone 100B is further improved. .

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 ROM、2 CPU、3 RAM、4 タッチパネル、4A モニタ、4B タッチセンサ、5 カメラ、9 距離センサ、10 ネットワークI/F、10A アンテナ、20 記憶装置、30 手画像、32 操作画面、100,100A,100B スマートフォン、210 手検出部、220 生成部、230 表示制御部、240 接触検出部、250 実行部、260 距離検出部。   1 ROM, 2 CPU, 3 RAM, 4 touch panel, 4A monitor, 4B touch sensor, 5 camera, 9 distance sensor, 10 network I / F, 10A antenna, 20 storage device, 30 hand image, 32 operation screen, 100, 100A , 100B smartphone, 210 hand detection unit, 220 generation unit, 230 display control unit, 240 contact detection unit, 250 execution unit, 260 distance detection unit.

Claims (5)

電子機器であって、
タッチパネルと、
前記タッチパネルの表示画面の反対の面に設けられたカメラと、
前記電子機器を制御するための制御装置とを備え、
前記制御装置は、
前記カメラから得られる入力画像からユーザの手を検出するための手検出部と、
前記手検出部によって検出された前記ユーザの手の形を有する手画像を生成するための生成部と、
前記タッチパネルの操作画面に重ねて前記手画像を表示し、前記ユーザの手の動きに連動させて前記手画像を前記タッチパネルに表示するための表示制御部と、
前記タッチパネル内の前記手画像の位置におけるタッチ操作に応じた命令を実行するための実行部とを含む、電子機器。
Electronic equipment,
A touch panel;
A camera provided on the opposite surface of the display screen of the touch panel;
A control device for controlling the electronic device,
The controller is
A hand detection unit for detecting a user's hand from an input image obtained from the camera;
A generating unit for generating a hand image having the shape of the user's hand detected by the hand detecting unit;
A display control unit for displaying the hand image on the operation screen of the touch panel, and displaying the hand image on the touch panel in conjunction with movement of the user's hand;
And an execution unit for executing a command corresponding to a touch operation at the position of the hand image in the touch panel.
前記制御装置は、前記ユーザの手と前記電子機器と間の距離を検出するための距離検出部をさらに含み、
前記実行部は、前記距離検出部によって検出された距離の変化量が予め定められた変化量よりも大きくなると、前記命令を実行する、請求項1に記載の電子機器。
The control device further includes a distance detection unit for detecting a distance between the user's hand and the electronic device,
The electronic device according to claim 1, wherein the execution unit executes the command when a change amount of the distance detected by the distance detection unit is larger than a predetermined change amount.
前記距離検出部は、前記生成部によって生成される手画像のサイズから、前記ユーザの手と前記電子機器との間の距離を検出する、請求項2に記載の電子機器。   The electronic device according to claim 2, wherein the distance detection unit detects a distance between the user's hand and the electronic device from a size of a hand image generated by the generation unit. 前記生成部は、前記表示画面のサイズに応じたサイズで前記手画像を生成する、請求項1〜3のいずれか1項に記載の電子機器。   The electronic device according to claim 1, wherein the generation unit generates the hand image with a size corresponding to a size of the display screen. 前記制御装置は、前記手画像に含まれる第1の指と、前記第1の指とは異なる第2の指とが近接または接触したことを検出するための接触検出部をさらに含み、
前記実行部は、前記接触検出部が前記第1の指と前記第2の指との近接または接触を検出すると、前記命令を実行する、請求項1〜4のいずれか1項に記載の電子機器。
The control device further includes a contact detection unit for detecting that the first finger included in the hand image and a second finger different from the first finger are close to or in contact with each other,
5. The electron according to claim 1, wherein the execution unit executes the command when the contact detection unit detects proximity or contact between the first finger and the second finger. machine.
JP2014114851A 2014-06-03 2014-06-03 Electronic equipment Pending JP2015230496A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014114851A JP2015230496A (en) 2014-06-03 2014-06-03 Electronic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014114851A JP2015230496A (en) 2014-06-03 2014-06-03 Electronic equipment

Publications (1)

Publication Number Publication Date
JP2015230496A true JP2015230496A (en) 2015-12-21

Family

ID=54887263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014114851A Pending JP2015230496A (en) 2014-06-03 2014-06-03 Electronic equipment

Country Status (1)

Country Link
JP (1) JP2015230496A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018008096A1 (en) * 2016-07-05 2018-01-11 マクセル株式会社 Information display device and program
US10824237B2 (en) 2017-11-09 2020-11-03 Sharp Kabushiki Kaisha Screen display control method and screen display control system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0519957A (en) * 1991-07-15 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> Information inputting method
JP2007116270A (en) * 2005-10-18 2007-05-10 Hitachi Ltd Terminal and apparatus control system
JP2010526391A (en) * 2007-05-04 2010-07-29 ジェスチャー テック,インコーポレイテッド Camera-based user input for compact devices
JP2011044160A (en) * 2005-12-12 2011-03-03 Sony Computer Entertainment Inc Method and system for enabling depth and direction detection when interfacing with computer program
US20120062558A1 (en) * 2010-09-15 2012-03-15 Lg Electronics Inc. Mobile terminal and method for controlling operation of the mobile terminal
JP2012079138A (en) * 2010-10-04 2012-04-19 Olympus Corp Gesture recognition device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0519957A (en) * 1991-07-15 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> Information inputting method
JP2007116270A (en) * 2005-10-18 2007-05-10 Hitachi Ltd Terminal and apparatus control system
JP2011044160A (en) * 2005-12-12 2011-03-03 Sony Computer Entertainment Inc Method and system for enabling depth and direction detection when interfacing with computer program
JP2010526391A (en) * 2007-05-04 2010-07-29 ジェスチャー テック,インコーポレイテッド Camera-based user input for compact devices
US20120062558A1 (en) * 2010-09-15 2012-03-15 Lg Electronics Inc. Mobile terminal and method for controlling operation of the mobile terminal
JP2012079138A (en) * 2010-10-04 2012-04-19 Olympus Corp Gesture recognition device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018008096A1 (en) * 2016-07-05 2018-01-11 マクセル株式会社 Information display device and program
US10824237B2 (en) 2017-11-09 2020-11-03 Sharp Kabushiki Kaisha Screen display control method and screen display control system

Similar Documents

Publication Publication Date Title
US9626104B2 (en) Thumb access area for one-handed touchscreen use
US8866781B2 (en) Contactless gesture-based control method and apparatus
JP5721662B2 (en) Input receiving method, input receiving program, and input device
US10079972B2 (en) Method for controlling graphical user interface of camera application
CN107179865B (en) Page switching method and terminal
JP2009140368A (en) Input device, display device, input method, display method, and program
CN106527693A (en) Application control method and mobile terminal
US20110199387A1 (en) Activating Features on an Imaging Device Based on Manipulations
JPWO2013094371A1 (en) Display control apparatus, display control method, and computer program
JP2010530578A5 (en)
CN107172347B (en) Photographing method and terminal
JP2010205050A (en) User interface device with touch panel, method, and program for controlling user interface
JP2014035562A (en) Information processing apparatus, information processing method, and computer program
JP2017204115A (en) Operation input device, portable terminal, and operation input method
CN104508605A (en) Improvements in devices for use with computers
JP2020017215A (en) Electronic device, control program, and display control method
JP2015230496A (en) Electronic equipment
KR101503159B1 (en) Method of controlling touch-screen detecting eyesight
JP2014153916A (en) Electronic apparatus, control method, and program
JP6329373B2 (en) Electronic device and program for controlling electronic device
WO2013189215A2 (en) Method and apparatus for adjusting a graphical object according to operator preference
JP7034856B2 (en) Electronic devices, control programs and display control methods
JP2006140700A (en) Digital camera
KR20200107274A (en) Electronic device and method of controlling application thereof
JP6079418B2 (en) Input device and input program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180626