JP2015230496A - Electronic equipment - Google Patents
Electronic equipment Download PDFInfo
- Publication number
- JP2015230496A JP2015230496A JP2014114851A JP2014114851A JP2015230496A JP 2015230496 A JP2015230496 A JP 2015230496A JP 2014114851 A JP2014114851 A JP 2014114851A JP 2014114851 A JP2014114851 A JP 2014114851A JP 2015230496 A JP2015230496 A JP 2015230496A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- user
- finger
- image
- smartphone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本開示は、電子機器の制御に関し、特に、カメラを有する電子機器の制御に関する。 The present disclosure relates to control of an electronic device, and more particularly to control of an electronic device having a camera.
近年、アイコンなどに対するユーザの誤操作を軽減するための様々な技術が開発されている。たとえば、特許文献1は、表示部に表示されたアイコンの誤操作を軽減するためのカーナビゲーションシステムを開示している。当該カーナビゲーションシステムは、自身の指が画面上のどこに位置するかをユーザに認識させることで誤操作を軽減することを目的としている。この目的を達成するための具体的な手段として、当該カーナビゲーションシステムは、操作部を操作する手を上からカメラで撮影して得られた画像を表示部に表示する。その際、当該カーナビゲーションシステムは、表示部に表示される指の位置に合わせてアイコンの表示位置を変える。 In recent years, various techniques have been developed to reduce user's erroneous operations on icons and the like. For example, Patent Document 1 discloses a car navigation system for reducing erroneous operations of icons displayed on a display unit. The car navigation system is intended to reduce erroneous operations by allowing the user to recognize where his / her finger is located on the screen. As a specific means for achieving this object, the car navigation system displays an image obtained by photographing a hand operating the operation unit with a camera from above on the display unit. At that time, the car navigation system changes the display position of the icon in accordance with the position of the finger displayed on the display unit.
しかしながら、ユーザの手の位置が変わる度に、アイコンの表示位置が変わると、ユーザは、その都度、画面の内容を把握する必要があり、却って、ユーザの誤操作が増加する可能性がある。このため、特許文献1が開示する方法とは異なる方法で電子機器の誤操作を軽減することが望まれている。 However, every time the position of the user's hand changes, if the display position of the icon changes, the user needs to grasp the contents of the screen each time. On the contrary, there is a possibility that the user's erroneous operations increase. For this reason, it is desired to reduce the erroneous operation of the electronic device by a method different from the method disclosed in Patent Document 1.
本開示は上述のような問題点を解決するためになされたものであって、その目的は、画面のレイアウトを変えずに、ユーザの誤操作を軽減することが可能な電子機器を提供することである。 The present disclosure has been made to solve the above-described problems, and an object of the present disclosure is to provide an electronic device that can reduce a user's erroneous operation without changing the screen layout. is there.
一実施の形態に従う電子機器は、タッチパネルと、タッチパネルの表示画面の反対の面に設けられたカメラと、電子機器を制御するための制御装置とを備える。制御装置は、カメラから得られる入力画像からユーザの手を検出するための手検出部と、手検出部によって検出されたユーザの手の形を有する手画像を生成するための生成部と、タッチパネルの操作画面に重ねて手画像を表示し、ユーザの手の動きに連動させて手画像をタッチパネルに表示するための表示制御部と、タッチパネル内の手画像の位置におけるタッチ操作に応じた命令を実行するための実行部とを含む。 An electronic device according to an embodiment includes a touch panel, a camera provided on a surface opposite to the display screen of the touch panel, and a control device for controlling the electronic device. The control device includes a hand detection unit for detecting a user's hand from an input image obtained from the camera, a generation unit for generating a hand image having a shape of the user's hand detected by the hand detection unit, and a touch panel A display control unit for displaying a hand image on the operation screen and displaying the hand image on the touch panel in conjunction with the movement of the user's hand, and a command corresponding to the touch operation at the position of the hand image in the touch panel And an execution unit for executing.
ある局面において、画面のレイアウトを変えずに、電子機器に対するユーザの誤操作を軽減することができる。 In one aspect, it is possible to reduce a user's erroneous operation on the electronic device without changing the screen layout.
本発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解される本発明に関する次の詳細な説明から明らかとなるであろう。 The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.
以下、図面を参照しつつ、本実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。 Hereinafter, the present embodiment will be described with reference to the drawings. In the following description, the same parts and components are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
なお、以下では、電子機器の一例として機能するスマートフォンの詳細について説明するが、電子機器は、スマートフォンに限定されるものではない。たとえば、電子機器は、タブレット端末、デジタルカメラ、電子辞書、PDA(Personal Digital Assistant)、ゲーム機、その他のカメラを有する装置も含み得る。また、以下で説明される各実施の形態は、選択的に組み合わされてもよい。 In addition, below, the detail of the smart phone which functions as an example of an electronic device is demonstrated, However, An electronic device is not limited to a smart phone. For example, the electronic device may include a device having a tablet terminal, a digital camera, an electronic dictionary, a PDA (Personal Digital Assistant), a game machine, and other cameras. Moreover, each embodiment described below may be selectively combined.
<導入>
まず、以下で説明する各実施の形態の理解を容易にするために、近年のスマートフォンの問題点について説明する。
<Introduction>
First, in order to facilitate understanding of each embodiment described below, problems of recent smartphones will be described.
近年では、タッチパネルを備えたスマートフォンが普及している。これに伴い、タッチパネルの表示画面が高精細化しており、ユーザがタッチ操作を行なう対象となる、アイコン、リンクなどのオブジェクトの表示サイズが、タッチパネルの表示画面の大きさに対して非常に小さくなっている。これに伴い、ユーザが意図するオブジェクトとは異なるオブジェクトをタッチしてしまう誤操作が生じる。 In recent years, smartphones equipped with a touch panel have become widespread. Along with this, the display screen of the touch panel has become high-definition, and the display size of objects such as icons and links that the user can perform touch operations becomes very small compared to the size of the display screen of the touch panel. ing. Along with this, an erroneous operation occurs in which an object different from the object intended by the user is touched.
このような誤操作を防ぐための方法の一例として、タッチパネルの表示画面の一部を拡大して表示する方法が挙げられる。しかしながら、この方法では、ユーザが画面を拡大するための操作を行なわなければならず、タッチパネルの操作性が良くない。他にも、タッチパネルの誤操作を防ぐための方法として、ユーザがタッチペンを用いてペン先でオブジェクトにタッチする方法が挙げられる。しかしながら、この方法では、ユーザがタッチペンを別途携帯する必要があり、スマートフォンの携帯性が損なわれる。以下で説明する各実施の形態に従うスマートフォンは、これらの問題を解決することができる。 As an example of a method for preventing such an erroneous operation, there is a method of enlarging and displaying a part of the display screen of the touch panel. However, in this method, the user has to perform an operation for enlarging the screen, and the operability of the touch panel is not good. In addition, as a method for preventing an erroneous operation of the touch panel, there is a method in which a user touches an object with a pen tip using a touch pen. However, with this method, the user needs to carry the touch pen separately, and the portability of the smartphone is impaired. The smartphone according to each embodiment described below can solve these problems.
<第1の実施の形態>
[概要]
図1および図2を参照して、第1の実施の形態に従うスマートフォン100の概要について説明する。図1は、スマートフォン100の外観を模式的に示した図である。図2は、ユーザがスマートフォン100を操作している様子を示している図である。
<First Embodiment>
[Overview]
With reference to FIG. 1 and FIG. 2, the outline | summary of the
図1(A)および図1(B)に示されるように、スマートフォン100は、タッチパネル4と、カメラ5とを含む。カメラ5は、タッチパネル4の表示画面の反対の面に設けられる。タッチパネル4には、スマートフォン100の機能に関連付けられたオブジェクトが表示されている。オブジェクトは、アイコン、ボタン、リンク、スマートフォン100の機能に関連付けられたその他の画像などを含む。
As shown in FIG. 1A and FIG. 1B, the
図2(A)に示されるように、ユーザがカメラ5の前に手を動かすと、スマートフォン100は、カメラ5から得られた画像(以下、「入力画像」ともいう。)においてユーザの手を検出する。スマートフォン100は、検出したユーザの手の形を有する手画像30を生成する。手画像30は、ユーザの手を入力画像から切り出した画像そのものであってもよいし、検出した手と同様の形を有する加工した画像であってもよい。スマートフォン100は、生成した手画像30を操作画面32に重ねて表示する。このとき、スマートフォン100は、ユーザの実際の手の大きさよりも小さくなるように手画像30を表示する。
As shown in FIG. 2A, when the user moves his / her hand in front of the
スマートフォン100は、繰り返し得られた入力画像から手画像30を順次生成して、手画像30の表示を更新することで、ユーザの手の動きに連動させて手画像30を表示する。このため、ユーザは、自身の手の動きに合わせて手画像30を操作することが可能になる。ユーザは、目的のオブジェクトの位置に手画像30を重ね、予め定められた動作をスマートフォン100に対して行うことで、スマートフォン100は、手画像30の位置に表示されているオブジェクトに関連付けられている機能を実行する。すなわち、スマートフォン100は、タッチ操作の代わりとなるユーザ操作(以下、「代替操作」ともいう。)を行なうことで、タッチ操作を検出したときに実行する処理と同じ処理(以下、「タッチ処理」ともいう。)を実行する。代替操作の一例として、図2(B)に示されるように、親指と人差し指とを接触させる動作が挙げられる。
The
このように、ユーザが、自身の手よりも小さいサイズで表示された手画像30を意図した通りに操作することで、オブジェクトが密集して表示されている場合であっても、スマートフォン100は、ユーザによるタッチパネル4の誤操作を軽減することが可能になる。
Thus, even if the user operates the
[ハードウェア構成]
図3を参照して、第1の実施の形態に従うスマートフォン100のハードウェア構成の一例について説明する。図3は、スマートフォン100の主要なハードウェア構成を示すブロック図である。図3に示されるように、スマートフォン100は、ROM(Read Only Memory)1と、CPU(Central Processing Unit)2と、RAM(Random Access Memory)3と、タッチパネル4と、カメラ5と、距離センサ9と、ネットワークインタフェース(I/F)10と、記憶装置20とを含む。
[Hardware configuration]
With reference to FIG. 3, an example of a hardware configuration of
ROM1は、オペレーティングシステム(OS:Operating System)、スマートフォン100の起動時に実行される初期プログラム(ブートプログラム)などを格納する。CPU2は、ROM1や記憶装置20などに格納された、オペレーティングシステムやスマートフォン100の制御プログラムなどの各種プログラムを実行することで、スマートフォン100の動作を制御する。RAM3は、CPU2でプログラムを実行するためのワーキングメモリとして機能し、プログラムの実行に必要な各種データを一時的に格納する。
The ROM 1 stores an operating system (OS), an initial program (boot program) executed when the
タッチパネル4は、モニタ4Aと、タッチセンサ4Bとを含む。タッチセンサ4Bは、モニタ4Aに重ねられて設けられる。これにより、タッチパネル4は、モニタ4Aに対するタッチ位置を検出することができる。タッチ位置は、たとえば、タッチパネル4上の座標として検出される。タッチパネル4は、たとえば、抵抗膜方式、静電容量方式、その他のタッチパネル4に対する接触を検出することが可能な方式で実現される。
Touch panel 4 includes a
カメラ5は、タッチパネル4の表示画面の反対の面に設けられる。カメラ5は、レンズと、CMOS(Complementary Metal-Oxide Semiconductor)その他の撮像素子と、オートフォーカス機構とを含む。カメラ5は、ユーザ操作に応じて、視野に含まれる被写体を撮影し、入力画像を生成する。生成した入力画像は、CPU2に出力される。
The
距離センサ9は、スマートフォン100とユーザの手との間の距離(以下、「ユーザ距離」ともいう。)を検出する。距離センサ9は、タッチパネル4の表示面とは反対の面に設けられる。すなわち、距離センサ9は、カメラ5が設けられる面と同一の面に設けられる。距離センサ9は、たとえば、超音波センサ、赤外線センサ、ユーザ距離を検出することが可能なその他のセンサを含む。ある局面において、距離センサ9は、カメラ5に内蔵される。これを実現するための技術として、像面位相差AF(Auto Focus)技術が挙げられる。なお、距離センサ9は、本実施の形態に従うスマートフォン100においては必須の構成ではない。距離センサ9は、たとえば、以下で説明する第2の実施の形態に従うスマートフォン100Aに用いられる。
The
ネットワークI/F10は、アンテナ10Aを介して、他の通信機器との間でデータを送受信する。他の通信機器は、たとえば、スマートフォン、パソコン、サーバ装置、その他通信機能を有する電子機器などである。スマートフォン100は、アンテナ10Aを介して、本実施の形態に従う各種の処理を実現するためのプログラムをダウンロードできるように構成されてもよい。
The network I /
記憶装置20は、たとえば、eMMC(Embedded MultiMediaCard)などの記憶媒体を含む。eMMCは、NANDフラッシュメモリと、制御回路とを含む。記憶装置20は、本実施の形態に従う各種の処理を実現するためのプログラムなどを格納する。また、記憶装置20は、オペレーティングシステムなどのプログラムを格納していてもよい。
The
[機能構成]
図4を参照して、スマートフォン100の機能の一例について説明する。図4は、スマートフォン100の機能構成を示すブロック図である。CPU2は、手検出部210と、生成部220と、表示制御部230と、接触検出部240と、実行部250とを含む。
[Function configuration]
An example of the function of the
手検出部210は、カメラ5から得られた入力画像からユーザの手を検出する。入力画像からユーザの手を検出するための手法として、たとえば、テンプレートマッチングなどの画像処理技術が用いられる。本実施の形態におけるテンプレートマッチングとは、記憶装置20などに予め登録された手画像30を基準として、入力画像から手画像30を探索することにより入力画像内の手の位置を取得する手法である。一例として、入力画像内のユーザの手の位置は、入力画像中の座標値として検出される。手検出部210は、検出したユーザの手の位置を生成部220に出力する。
The hand detection unit 210 detects the user's hand from the input image obtained from the
生成部220は、手検出部210によって検出されたユーザの手の形を有する手画像30を生成する。一例として、生成部220は、手検出部210によって検出された入力画像内の手の位置(たとえば、座標)から所定の範囲内においてエッジを抽出し、抽出したエッジ部分に沿って入力画像を切り出して手画像30を生成する。手画像30は、ユーザの手を入力画像から切り出した画像そのものであってもよいし、入力画像におけるユーザの手の輪郭を有する加工した画像であってもよい。生成部220は、生成した手画像30を、表示制御部230および接触検出部240に出力する。
The
ある局面において、生成部220は、入力画像が得られた順番に手画像30を順次生成する。これにより、生成部220は、カメラ5が撮影しているユーザの手と同じ形を有する手画像30をリアルタイムに生成することができる。他の局面において、生成部220は、タッチパネル4の表示画面のサイズに応じたサイズで手画像30を生成する。これにより、手画像30が、表示画面を操作するのに適したサイズで表示され、タッチパネル4の誤操作を軽減することができる。さらに他の局面において、生成部220は、タッチパネル4の表示画面に表示されるオブジェクトのサイズに応じたサイズで手画像30を生成する。これにより、手画像30が、表示画面に表示されるオブジェクトを操作するのに適したサイズで表示され、タッチパネル4の誤操作を軽減することができる。
In one aspect, the
表示制御部230は、生成部220によって生成された手画像30を、タッチパネル4の操作画面32に重ねて表示する。操作画面32における手画像30の表示位置は、入力画像内の手画像30の位置によって決定される。すなわち、手画像30の表示位置は、カメラ5に対するユーザの手の位置によって決定される。ある局面において、表示制御部230は、手画像30の表示位置を更新する。これにより、表示制御部230は、ユーザの手の動きと手画像30の表示とを連動させることができる。すなわち、ユーザがカメラ5の視野の範囲内で自身の手を上下左右に動かすと、その動きに合わせて手画像30の表示位置も上下左右に変化する。
The
接触検出部240は、手画像30に含まれる第1の指(たとえば、人差し指)と、第1の指とは異なる第2の指(たとえば、親指)とが近接または接触したことを検出する。より具体的な処理として、まず、接触検出部240は、手画像30に含まれるユーザの各指を検出する。手画像30からユーザの指を検出するための手法として、たとえば、テンプレートマッチングなどの画像処理技術が用いられる。この場合、接触検出部240は、記憶装置20などに予め登録された各指画像を基準として、手画像30から各指画像を探索する。この結果、接触検出部240は、手画像30内の各指の位置を取得できる。一例として、手画像30内のユーザの指の位置は、入力画像中の座標値として検出される。接触検出部240は、各指の座標値から算出された指間の距離が予め定められた距離以内になったことに基づいて、指同士の近接または接触を検出する。
The
実行部250は、タッチパネル4内の手画像30の位置におけるタッチ操作に応じた命令を実行する。すなわち、実行部250は、CPU2がタッチ操作を検出したときに実行する処理と同じ処理(すなわち、タッチ処理)を実行する。タッチ処理は、タッチ操作の代わりとなるユーザ操作(すなわち、代替操作)がスマートフォン100によって検出されると実行される。
The
[代替操作]
実行部250がタッチ処理を実行するトリガとなる代替操作には、様々なものが考えられる。以下、代替操作の例を挙げる。
[Alternative operation]
Various alternative operations can be considered as triggers for the
(代替操作の例1)
代替操作は、たとえば、ユーザの第1の指(たとえば、人差し指)と第2の指(たとえば、親指)とがカメラの前で予め定められた動きをすることを含む。すなわち、第1の指と第2の指との動作が予め定められた動作に一致した場合に、実行部250は、タッチ処理を実行する。予め定められた動作は、たとえば、第1の指と第2の指とを近接または接触させることを含む。より具体的には、ユーザは、スマートフォン100にタッチ処理を実行させたくない場合には、カメラの前で、第1の指と第2の指との間を空けておく。また、ユーザは、スマートフォン100にタッチ処理を実行させたい場合には、カメラの前で、第1の指および第2の指を接触または近接させる。第1の指および第2の指が接触または近接したか否かは、上述したように、接触検出部240によって検出される。
(Example of alternative operation 1)
An alternative operation includes, for example, the user's first finger (eg, forefinger) and second finger (eg, thumb) making a predetermined movement in front of the camera. That is, when the movements of the first finger and the second finger coincide with a predetermined movement, the
第1の指と第2の指とは、ユーザによって5本の指から任意に選択される。第1の指と第2の指との選択方法については、特に限定しない。たとえば、スマートフォン100は、5本の指から任意の指を選択するユーザインタフェースにおいて、第1の指および第2の指をユーザが選択できるように構成されてもよい。ある局面において、ユーザは、タッチしたい場所を指し示す指を第1の指として選択し、タッチ動作を指示する指を第2の指として選択する。この場合、ユーザが代替操作を行なった場合に、実行部250は、手画像30に含まれる第1の指が指している位置におけるタッチ処理を実行する。
The first finger and the second finger are arbitrarily selected from five fingers by the user. A method for selecting the first finger and the second finger is not particularly limited. For example, the
なお、上記では、第1の指および第2の指の2本の指の動作を例に挙げて代替操作の説明を行なったが、代替操作は、ユーザの1本の指の予め定められた動作を含んでもよい。あるいは、代替操作は、ユーザの3本以上の指の予め定められた動作を含んでもよい。 In the above description, the alternative operation has been described by taking the operation of the two fingers of the first finger and the second finger as an example. However, the alternative operation is predetermined for one finger of the user. Operations may be included. Alternatively, the alternative operation may include a predetermined action of the user's three or more fingers.
(代替操作の例2)
他の例として、代替操作は、ユーザが自身の手をカメラ5の前で回転させることを含む。一例として、実行部250は、タッチ位置を示す第1の指の指先の位置が変化せず、手の甲の回転を検出したときに、タッチ処理を実行する。このとき、ユーザは、スマートフォン100にタッチ処理を実行させたくない場合に、カメラ5に対して手の甲を向ける。この状態から、ユーザが手の甲を回転させた場合に、実行部250は、タッチ処理を実行する。
(Example 2 of alternative operation)
As another example, the alternative operation includes the user rotating his / her hand in front of the
なお、上記では、ユーザが手の甲をカメラ5の前で回転させる動作を、タッチ処理の実行を意図する動作として説明を行なったが、タッチ処理の実行を意図する動作は、これに限定されない。たとえば、タッチ処理の実行を意図する動作は、カメラ5に手の甲を向ける動作、その他のユーザの手の動作を含む。
In the above description, the operation in which the user rotates the back of the hand in front of the
(代替操作の例3)
他の例として、代替操作は、スマートフォン100を把持している側の手を用いてタッチパネル4の画面上の特定の場所をユーザがタッチすること、スマートフォン100の特定の場所をユーザがタッチすること、および、ユーザがスマートフォン100に設けられた操作ボタン(図示しない)を押下することを含み得る。
(Example 3 of alternative operation)
As another example, in the alternative operation, the user touches a specific place on the screen of the touch panel 4 using the hand on the side holding the
(代替操作の例4)
他の例として、代替操作は、ユーザ自身の手をカメラ5の前で予め定められた形にすることを含む。すなわち、スマートフォン100には、様々な手の形を有する手画像が予め登録されており、カメラ5から得られた画像が、予め登録されている手画像の形状と一致した場合に、実行部250は、タッチ処理を実行する。上述の代替操作の例1は、本例(代替操作の例4)の一例とみなすこともできる。本例に従う代替操作の具体例として、以下の(a)〜(d)が挙げられるが、代替操作は、これらに限定されるものではない。
(Example 4 of alternative operation)
As another example, the alternative operation includes placing the user's own hand in a predetermined shape in front of the
(a)本例に従う代替操作は、タッチしたい場所を示す第1の指を1本だけ立てている状態から、親指などの異なる指(第2の指)を立てる動作を含む。スマートフォン100は、この動作を検出したときに、タッチ処理を実行する。
(A) The alternative operation according to this example includes an operation of raising a different finger (second finger) such as a thumb from a state where only one first finger indicating a place to be touched is raised. When the
(b)他にも、本例に従う代替操作は、第1の指とは異なる指(第2の指)を予め立てている状態から、第2の指を曲げる動作を含む。スマートフォン100は、この動作を検出したときに、タッチ処理を実行する。
(B) In addition, the alternative operation according to the present example includes an operation of bending the second finger from a state where a finger (second finger) different from the first finger is raised in advance. When the
(c)他にも、本例に従う代替操作は、上記(a),(b)において、第1とは異なる第2の指を複数本使うような動作を含む。たとえば、手を開いた状態から、第1の指以外の指をすべて曲げて、第1の指だけを1本立てる動作が挙げられる。また、人差し指(第1の指)とは別に親指と中指とを立てた状態から、1本以上の指を曲げる動作が挙げられる。スマートフォン100は、これらの動作を検出したときに、タッチ処理を実行する。
(C) In addition, the alternative operation according to the present example includes an operation of using a plurality of second fingers different from the first in (a) and (b). For example, an operation in which all fingers other than the first finger are bent and only one first finger is raised from a state where the hand is opened can be cited. Moreover, the operation | movement which bends one or more fingers from the state which stood the thumb and the middle finger apart from the index finger (1st finger) is mentioned. The
(d)他にも、第1の指とは異なる指を複数本使用した動作が端末に予め登録されている手画像に一致したときに、スマートフォン100は、タッチ処理を実行する。たとえば、ユーザが、カメラ5の前で、人差し指(第1の指)とは別に、親指と中指との2本の指を使用し、2本の指で輪を作った(すなわち、2本の指先を接触させた)とき、スマートフォン100は、タッチ処理を実行する。
(D) In addition, when an operation using a plurality of fingers different from the first finger matches a hand image registered in advance in the terminal, the
[制御構造]
図5を参照して、スマートフォン100の制御構造について説明する。図5は、スマートフォン100が実行する処理の一部を表わすフローチャートである。図5の処理は、CPU2がプログラムを実行することにより実現される。他の局面において、処理の一部又は全部が、回路素子その他のハードウェアによって実行されてもよい。
[Control structure]
The control structure of the
ステップS510において、CPU2は、カメラ5から入力画像を取得する。ステップS520において、CPU2は、手検出部210として、入力画像にユーザの手が含まれるか否かを判断する。CPU2は、入力画像にユーザの手が含まれていると判断した場合には(ステップS520においてYES)、制御をステップS522に切り替える。そうでない場合には(ステップS520においてNO)、CPU2は、制御をステップS510に戻す。
In step S <b> 510, the CPU 2 acquires an input image from the
ステップS522において、CPU2は、生成部220として、ステップS520において検出されたユーザの手の形を有する手画像を生成する。好ましくは、CPU2は、タッチパネル4の画面内で適切な大きさになるよう縮小して手画像30を表示する。たとえば、CPU2は、タッチパネル4の画面のサイズに合わせて手画像30を表示する。あるいは、CPU2は、オブジェクトのサイズに合わせて手画像30を表示する。ステップS524において、CPU2は、表示制御部230として、タッチパネル4の操作画面に重ねて手画像30を表示し、ユーザの手の動きに連動させて手画像30をタッチパネル4に表示する。
In step S522, the CPU 2 generates a hand image having the shape of the user's hand detected in step S520 as the
ステップS530において、CPU2は、上述の代替操作を検出したか否かを判断する。CPU2は、代替操作を検出したと判断した場合には(ステップS530においてYES)、制御をステップS532に切り替える。そうでない場合には(ステップS530においてNO)、CPU2は、制御をステップS510に戻す。 In step S530, the CPU 2 determines whether or not the above-described alternative operation has been detected. If CPU 2 determines that an alternative operation has been detected (YES in step S530), it switches control to step S532. If not (NO in step S530), CPU 2 returns control to step S510.
ステップS532において、CPU2は、実行部250として、タッチ処理を実行する。より具体的な処理として、まず、CPU2は、ユーザがタッチ操作に用いることを意図している指を手画像30から検出する。たとえば、手画像30における手の形が人差し指のみを立てたものであれば、CPU2は、ユーザが人差し指をタッチ操作に使用することを意図していると判断する。CPU2は、検出した指の先端の位置におけるタッチ操作があったものとしてタッチ処理を実行する。
In step S532, the CPU 2 executes touch processing as the
[小括]
以上のようにして、ユーザは、自身の手の動きに連動する手画像30を操作することで、タッチ操作と同様の操作を行なうことができる。手画像30は、ユーザの手の動きに連動するため、ユーザは、自然な感覚で手画像30を操作することができる。また、カメラ5は、表示画面の反対の面に設けられているため、ユーザが通常のタッチ操作を行なうときと同様に、手の甲側の手画像30がそのままの形で表示される。このため、ユーザは、自身の指を使ってタッチパネル4を直接操作しているような自然な感覚でスマートフォン100を操作することができる。
[Brief Summary]
As described above, the user can perform the same operation as the touch operation by operating the
また、スマートフォン100は、タッチパネル4の表示画面上でアイコンなどのオブジェクトをユーザが選択するのに適した大きさで手画像30を表示する。このため、多数のオブジェクトが密集して表示されているような場合であっても、ユーザは、画面の一部分を拡大する操作を行うなどの画面のレイアウトを変更する操作を行なう必要がない。ユーザは、画面レイアウトを変えずに画面操作を行なうことができるので、スマートフォン100の誤操作を軽減することができる。
Further, the
また、スマートフォン100の製造者は、一般的な携帯端末に標準的に搭載されている機能および部品を利用して上述の処理を実現できるので、スマートフォン100の製造コストを抑えることができる。また、スマートフォン100の製造者は、操作性を改善するためにタッチペンなどの他の部品を設ける必要が無いので、スマートフォン100の携帯性が損なわれることもない。
Moreover, since the manufacturer of the
<第2の実施の形態>
[概要]
以下、図6を参照して、第2の実施の形態に従うスマートフォン100Aの概要について説明する。図6は、ユーザがスマートフォン100Aを操作している様子を示している図である。第2の実施の形態に従うスマートフォン100Aは、ユーザの手までの距離の変化をトリガにタッチ処理を実行する点で、第1の実施の形態に従うスマートフォン100とは異なる。ハードウェア構成などのその他の点については第1の実施の形態に従うスマートフォン100と同じであるので、それらの説明は繰り返さない。
<Second Embodiment>
[Overview]
Hereinafter, with reference to FIG. 6, the outline | summary of the
図6(A)に示されるように、スマートフォン100Aは、タッチパネル4を含む。タッチパネル4には、カメラ5がユーザの手を撮影して得られた手画像30が表示されている。この状態において、図6(B)に示されるように、ユーザが自身の手をスマートフォン100Aから遠ざける方向に動かすことで、スマートフォン100Aは、タッチ処理を実行する。すなわち、自身の手をスマートフォン100Aから遠ざける動作は、タッチ操作の代わりとなるユーザ操作(すなわち、代替操作)となる。
As illustrated in FIG. 6A, the
より具体的な処理として、スマートフォン100Aは、生成部220(図4参照)により生成される手画像のサイズに応じて、ユーザの手までの距離(すなわち、ユーザ距離)を算出する。生成部220が生成する手画像のサイズは、ユーザの手の動きと連動している。すなわち、図6(B)に示されるように、ユーザがカメラ5から自身の手を遠ざけると、生成部220により生成される手画像のサイズは小さくなる。また、ユーザがカメラ5に自身の手を近付けると、生成部220により生成される手画像のサイズは大きくなる。この点に着目して、スマートフォン100Aは、生成部220により生成される手画像のサイズからユーザ距離を算出する。スマートフォン100Aは、ユーザ距離の変化量が予め定められた変化量よりも大きくなった場合に、タッチ処理を実行する。
As a more specific process, the
なお、図6(A)および図6(B)に示されるように、実際に表示される手画像30の表示サイズは、ユーザ距離によって変わらないように調整される。すなわち、表示制御部230は、生成部220によって生成された手画像を、画面サイズに応じて縮小または拡大して一定のサイズの手画像30を生成し、当該手画像30をタッチパネル4に表示する。あるいは、表示制御部230は、ユーザ距離に応じて、手画像30の表示サイズを変えてもよい。この場合、表示制御部230は、ユーザ距離が遠いほど手画像30の表示を大きくし、ユーザ距離が近いほど手画像30の表示を小さくする。
6A and 6B, the display size of the
[機能構成]
図7を参照して、スマートフォン100Aの機能の一例について説明する。図7は、スマートフォン100Aの機能構成を示すブロック図である。CPU2は、手検出部210と、生成部220と、表示制御部230と、接触検出部240と、実行部250と、距離検出部260とを含む。手検出部210と、生成部220と、表示制御部230と、接触検出部240とについては上述した通りであるので説明を繰り返さない。
[Function configuration]
With reference to FIG. 7, an example of the function of the
距離検出部260は、ユーザの手とスマートフォン100Aと間の距離(すなわち、ユーザ距離)を検出する。より具体的には、距離検出部260は、生成部220によって生成される手画像30のサイズからユーザ距離を検出する。この場合、手画像30のサイズが大きいほど、ユーザ距離が近くなる。手画像30のサイズが小さいほど、ユーザ距離は遠くなる。距離検出部260は、検出したユーザ距離を実行部250に出力する。なお、距離検出部260は、他の方法を用いてユーザ距離を検出してもよい。ある局面において、距離検出部260は、上述の距離センサ9(図3参照)からユーザ距離を取得してもよい。あるいは、距離検出部260は、手画像30のサイズとユーザ距離との関係を規定したテーブルを参照してユーザ距離を取得する。
The
実行部250は、ユーザ距離の変化量が予め定められた変化量よりも大きくなった場合に、タッチパネル4上の手画像の位置におけるタッチ処理を実行する。あるいは、ユーザ距離が予め定められた距離よりも大きくなった場合に、実行部250は、タッチパネル4上の手画像の位置におけるタッチ処理を実行するように構成されてもよい。
The
ある局面において、実行部250は、カメラ5のピントを調整するための調整値(コントラストの情報)をカメラ5から取得し、調整値の変化によってタッチ処理を実行してもよい。ユーザがカメラ5に対して自身の手を前後に動かした場合には、カメラ5は、手にピントを合わせるため、調整値を変化する。スマートフォン100Aは、この調整値の変化を検出することで、ユーザがカメラ5の前で自身の手を前後に動かしたか否かを判断することができる。
In one aspect, the
[小括]
以上のようにして、第2の実施の形態に従うスマートフォン100Aは、カメラ5から手を遠ざけるユーザ操作でタッチ処理を実行する。タッチ操作を行ったときにタッチパネルに力を加える方向と手を動かす方向とが一致するので、ユーザは、タッチ操作を行った時と同じような感覚でスマートフォン100Aを操作することができる。これにより、ユーザは、より直感的な操作を行なうことができ、この結果、スマートフォン100Aの操作性が向上する。
[Brief Summary]
As described above, the
<第3の実施の形態>
[概要]
第3の実施の形態に従うスマートフォン100Bは、予め定められたユーザ動作を検出した場合に、タッチ処理とは異なる処理を実行する点で、第2の実施の形態に従うスマートフォン100Aとは異なる。ハードウェア構成などのその他の点については第2の実施の形態に従うスマートフォン100Aと同じであるので、それらの説明は繰り返さない。
<Third Embodiment>
[Overview]
Smartphone 100B according to the third embodiment is different from
スマートフォン100Bは、当該スマートフォン100Bで実行される処理とユーザの手の動作との対応関係をユーザが任意に設定できるように構成される。すなわち、スマートフォン100Bは、タッチ処理以外にも様々な処理を代替操作に対応付けることができる。より具体的な処理として、ユーザがスマートフォン100Bの処理と代替操作との対応付けを設定すると、スマートフォン100Bは、これらの対応関係を規定した情報を記憶装置20などに格納する。スマートフォン100Bは、代替操作を検出した場合には、検出した代替操作に対応する処理を実行する。代替操作と、その代替操作によって実行される処理との対応関係として様々なものが考えられる。以下、その例について説明する。
The smartphone 100B is configured such that the user can arbitrarily set the correspondence between the process executed by the smartphone 100B and the operation of the user's hand. That is, the smartphone 100B can associate various processes other than the touch process with alternative operations. As a more specific process, when the user sets the association between the process of the smartphone 100B and the alternative operation, the smartphone 100B stores information defining these correspondences in the
[代替操作と、その代替操作によって実行される処理との対応関係]
一例として、ユーザが、カメラ5の前で自身の手を前後に動かす動作と、タッチパネル4の表示画面を拡大または縮小する処理とを対応付ける設定を行なったとする。この場合、ユーザが自身の手をカメラ5から遠ざける動作を行なった場合には、スマートフォン100Bは、表示画面を拡大する。また、ユーザが自身の手をカメラ5に近付ける動作を行なった場合には、スマートフォン100Bは、表示画面を縮小する。
[Correspondence between alternative operation and processing executed by the alternative operation]
As an example, it is assumed that the user performs a setting for associating an operation of moving his / her hand back and forth in front of the
他の例として、ユーザが、カメラ5の前で自身の手を前後に動かす動作と、タッチパネル4の表示画面をスクロールする処理とを対応付ける設定を行なったとする。この場合、ユーザが自身の手をカメラ5から遠ざける動作を行なった場合には、スマートフォン100Bは、表示画面を下方向にスクロールする。また、ユーザが自身の手をカメラ5に近付ける動作を行なった場合には、スマートフォン100Bは、表示画面を上方向にスクロールする。
As another example, it is assumed that the user performs a setting for associating an operation of moving his / her hand back and forth in front of the
[小括]
以上のようにして、ユーザは、自身の手の動作と、スマートフォン100Bの処理とを任意に対応付けることができる。これにより、ユーザは、自身が使いやすいように、スマートフォン100Bの処理と、その処理を実行するための操作との対応付けの設定をカスタマイズすることができるので、スマートフォン100Bの操作性がさらに向上する。
[Brief Summary]
As described above, the user can arbitrarily associate the operation of his / her hand with the process of the smartphone 100B. Thereby, since the user can customize the setting of the association between the process of the smartphone 100B and the operation for executing the process so that the user can easily use it, the operability of the smartphone 100B is further improved. .
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
1 ROM、2 CPU、3 RAM、4 タッチパネル、4A モニタ、4B タッチセンサ、5 カメラ、9 距離センサ、10 ネットワークI/F、10A アンテナ、20 記憶装置、30 手画像、32 操作画面、100,100A,100B スマートフォン、210 手検出部、220 生成部、230 表示制御部、240 接触検出部、250 実行部、260 距離検出部。 1 ROM, 2 CPU, 3 RAM, 4 touch panel, 4A monitor, 4B touch sensor, 5 camera, 9 distance sensor, 10 network I / F, 10A antenna, 20 storage device, 30 hand image, 32 operation screen, 100, 100A , 100B smartphone, 210 hand detection unit, 220 generation unit, 230 display control unit, 240 contact detection unit, 250 execution unit, 260 distance detection unit.
Claims (5)
タッチパネルと、
前記タッチパネルの表示画面の反対の面に設けられたカメラと、
前記電子機器を制御するための制御装置とを備え、
前記制御装置は、
前記カメラから得られる入力画像からユーザの手を検出するための手検出部と、
前記手検出部によって検出された前記ユーザの手の形を有する手画像を生成するための生成部と、
前記タッチパネルの操作画面に重ねて前記手画像を表示し、前記ユーザの手の動きに連動させて前記手画像を前記タッチパネルに表示するための表示制御部と、
前記タッチパネル内の前記手画像の位置におけるタッチ操作に応じた命令を実行するための実行部とを含む、電子機器。 Electronic equipment,
A touch panel;
A camera provided on the opposite surface of the display screen of the touch panel;
A control device for controlling the electronic device,
The controller is
A hand detection unit for detecting a user's hand from an input image obtained from the camera;
A generating unit for generating a hand image having the shape of the user's hand detected by the hand detecting unit;
A display control unit for displaying the hand image on the operation screen of the touch panel, and displaying the hand image on the touch panel in conjunction with movement of the user's hand;
And an execution unit for executing a command corresponding to a touch operation at the position of the hand image in the touch panel.
前記実行部は、前記距離検出部によって検出された距離の変化量が予め定められた変化量よりも大きくなると、前記命令を実行する、請求項1に記載の電子機器。 The control device further includes a distance detection unit for detecting a distance between the user's hand and the electronic device,
The electronic device according to claim 1, wherein the execution unit executes the command when a change amount of the distance detected by the distance detection unit is larger than a predetermined change amount.
前記実行部は、前記接触検出部が前記第1の指と前記第2の指との近接または接触を検出すると、前記命令を実行する、請求項1〜4のいずれか1項に記載の電子機器。 The control device further includes a contact detection unit for detecting that the first finger included in the hand image and a second finger different from the first finger are close to or in contact with each other,
5. The electron according to claim 1, wherein the execution unit executes the command when the contact detection unit detects proximity or contact between the first finger and the second finger. machine.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014114851A JP2015230496A (en) | 2014-06-03 | 2014-06-03 | Electronic equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014114851A JP2015230496A (en) | 2014-06-03 | 2014-06-03 | Electronic equipment |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015230496A true JP2015230496A (en) | 2015-12-21 |
Family
ID=54887263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014114851A Pending JP2015230496A (en) | 2014-06-03 | 2014-06-03 | Electronic equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015230496A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018008096A1 (en) * | 2016-07-05 | 2018-01-11 | マクセル株式会社 | Information display device and program |
US10824237B2 (en) | 2017-11-09 | 2020-11-03 | Sharp Kabushiki Kaisha | Screen display control method and screen display control system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0519957A (en) * | 1991-07-15 | 1993-01-29 | Nippon Telegr & Teleph Corp <Ntt> | Information inputting method |
JP2007116270A (en) * | 2005-10-18 | 2007-05-10 | Hitachi Ltd | Terminal and apparatus control system |
JP2010526391A (en) * | 2007-05-04 | 2010-07-29 | ジェスチャー テック,インコーポレイテッド | Camera-based user input for compact devices |
JP2011044160A (en) * | 2005-12-12 | 2011-03-03 | Sony Computer Entertainment Inc | Method and system for enabling depth and direction detection when interfacing with computer program |
US20120062558A1 (en) * | 2010-09-15 | 2012-03-15 | Lg Electronics Inc. | Mobile terminal and method for controlling operation of the mobile terminal |
JP2012079138A (en) * | 2010-10-04 | 2012-04-19 | Olympus Corp | Gesture recognition device |
-
2014
- 2014-06-03 JP JP2014114851A patent/JP2015230496A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0519957A (en) * | 1991-07-15 | 1993-01-29 | Nippon Telegr & Teleph Corp <Ntt> | Information inputting method |
JP2007116270A (en) * | 2005-10-18 | 2007-05-10 | Hitachi Ltd | Terminal and apparatus control system |
JP2011044160A (en) * | 2005-12-12 | 2011-03-03 | Sony Computer Entertainment Inc | Method and system for enabling depth and direction detection when interfacing with computer program |
JP2010526391A (en) * | 2007-05-04 | 2010-07-29 | ジェスチャー テック,インコーポレイテッド | Camera-based user input for compact devices |
US20120062558A1 (en) * | 2010-09-15 | 2012-03-15 | Lg Electronics Inc. | Mobile terminal and method for controlling operation of the mobile terminal |
JP2012079138A (en) * | 2010-10-04 | 2012-04-19 | Olympus Corp | Gesture recognition device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018008096A1 (en) * | 2016-07-05 | 2018-01-11 | マクセル株式会社 | Information display device and program |
US10824237B2 (en) | 2017-11-09 | 2020-11-03 | Sharp Kabushiki Kaisha | Screen display control method and screen display control system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9626104B2 (en) | Thumb access area for one-handed touchscreen use | |
US8866781B2 (en) | Contactless gesture-based control method and apparatus | |
JP5721662B2 (en) | Input receiving method, input receiving program, and input device | |
US10079972B2 (en) | Method for controlling graphical user interface of camera application | |
CN107179865B (en) | Page switching method and terminal | |
JP2009140368A (en) | Input device, display device, input method, display method, and program | |
CN106527693A (en) | Application control method and mobile terminal | |
US20110199387A1 (en) | Activating Features on an Imaging Device Based on Manipulations | |
JPWO2013094371A1 (en) | Display control apparatus, display control method, and computer program | |
JP2010530578A5 (en) | ||
CN107172347B (en) | Photographing method and terminal | |
JP2010205050A (en) | User interface device with touch panel, method, and program for controlling user interface | |
JP2014035562A (en) | Information processing apparatus, information processing method, and computer program | |
JP2017204115A (en) | Operation input device, portable terminal, and operation input method | |
CN104508605A (en) | Improvements in devices for use with computers | |
JP2020017215A (en) | Electronic device, control program, and display control method | |
JP2015230496A (en) | Electronic equipment | |
KR101503159B1 (en) | Method of controlling touch-screen detecting eyesight | |
JP2014153916A (en) | Electronic apparatus, control method, and program | |
JP6329373B2 (en) | Electronic device and program for controlling electronic device | |
WO2013189215A2 (en) | Method and apparatus for adjusting a graphical object according to operator preference | |
JP7034856B2 (en) | Electronic devices, control programs and display control methods | |
JP2006140700A (en) | Digital camera | |
KR20200107274A (en) | Electronic device and method of controlling application thereof | |
JP6079418B2 (en) | Input device and input program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171219 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180626 |