JP2023001310A - mobile terminal - Google Patents

mobile terminal Download PDF

Info

Publication number
JP2023001310A
JP2023001310A JP2022179830A JP2022179830A JP2023001310A JP 2023001310 A JP2023001310 A JP 2023001310A JP 2022179830 A JP2022179830 A JP 2022179830A JP 2022179830 A JP2022179830 A JP 2022179830A JP 2023001310 A JP2023001310 A JP 2023001310A
Authority
JP
Japan
Prior art keywords
icon
viewpoint
camera
user
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022179830A
Other languages
Japanese (ja)
Other versions
JP7416894B2 (en
Inventor
和彦 吉澤
Kazuhiko Yoshizawa
康宣 橋本
Yasunobu Hashimoto
宏 清水
Hiroshi Shimizu
周幸 岡本
Chikayuki Okamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2022179830A priority Critical patent/JP7416894B2/en
Publication of JP2023001310A publication Critical patent/JP2023001310A/en
Application granted granted Critical
Publication of JP7416894B2 publication Critical patent/JP7416894B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a mobile terminal, such as smartphone, configured to prevent operation error without impairing operability.
SOLUTION: A mobile terminal includes: a touch panel which displays an icon and detects a touch, the touch panel displaying a first region for displaying an icon to start an application and a second region different from the first region, the first region and the second region being displayed in predetermined positions on the touch panel; a camera for imaging the surroundings of the touch panel; and a processor. The processor detects a point of sight of eyes captured by the camera, outputs a position of the detected point of sight on the first region, controls a cursor to be displayed on the first region, determines whether a preset input condition is satisfied or not, for a touch input to the second region and an input of the point of sight on the first region, and starts an application program corresponding to the icon when a determination is made that the preset input condition is satisfied.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、携帯端末に関するものである。 The present invention relates to mobile terminals.

近年のスマートフォンに代表される通信と情報処理技術、カメラ撮像技術と半導体技術の進歩は目覚しく、こうした環境の整備・拡大に伴って、従来の携帯電話での操作よりも円滑に操作するための技術が開発されている。 In recent years, communication and information processing technology represented by smartphones, camera imaging technology, and semiconductor technology have made remarkable progress. is being developed.

例えば音声認識機能をスマートフォンに搭載し、音声でスマートフォンを操作するなどの高度なマンマシーンインターフェイスシステムも導入されてきている。また、アイコンによる直観的な操作を可能にするタッチパッドは、スマートフォンで一般的に搭載されている。タッチパッドによる操作が一般的である理由は、その安定した動作と廉価な部品により製造が可能であるところもある。 For example, an advanced man-machine interface system has been introduced, such as installing a voice recognition function in a smartphone and operating the smartphone by voice. In addition, touch pads that enable intuitive operation using icons are commonly installed in smartphones. The reason why touchpad operation is common is that it can be manufactured due to its stable operation and inexpensive parts.

しかし、これらは操作性に優れているとしても、音声では周囲の雑音や他の人の音声の影響を受ける可能性があり、タッチパッドでは手が滑って近くの別のアイコンを操作してしまう可能性もある。 However, even if these are excellent in operability, the voice may be affected by ambient noise and other people's voices, and the touchpad may slip and operate a different icon nearby. It is possible.

誤操作の防止に関する技術として、例えば特許文献1には、ユーザの視線検出により、操作に有効な視線範囲にあるか否かを検出する視線有効範囲を設け、キーが操作された場合に、ユーザ視線が有効範囲にない場合に操作を無効とし、誤操作を防止する技術が記載されている。 As a technique for preventing erroneous operations, for example, Patent Document 1 discloses a line-of-sight effective range for detecting whether or not the user's line-of-sight is within the effective line-of-sight range for operation. is not within the effective range, and a technique for preventing erroneous operations is described.

特開2015-28734号公報JP 2015-28734 A

特許文献1に記載された技術を用いれば、キーの誤操作を防止できる。しかしながら、このような技術は、スマートフォンの操作性を損なう可能性があり、スマートフォンへの適用は難しい。 By using the technique described in Patent Document 1, it is possible to prevent erroneous key operations. However, such technology may impair the operability of smartphones, and is difficult to apply to smartphones.

本発明の目的は、スマートフォンなどの携帯端末で、操作性を損なうことなく、誤操作を防止する技術を提供することにある。 An object of the present invention is to provide a technique for preventing erroneous operations without impairing operability in mobile terminals such as smartphones.

本発明に係る代表的な携帯端末は、携帯端末において、アイコンを表示し、タッチを検出するタッチパネルと、前記タッチパネルの周囲を撮像するカメラと、前記カメラが撮像した手の、第1の指と第2の指を含む指の種類を検出する検出部と、前記検出部で検出した指の種類と、前記タッチパネルのタッチ位置を出力する情報管理部と、前記情報管理部から出力された第1の指による前記タッチパネルのタッチ位置に従って前記タッチパネルにカーソルを表示するよう制御するカーソル表示部と、前記情報管理部から出力された、第1の指による前記タッチパネルのタッチ位置の入力と、第2の指による前記タッチパネルのタッチ位置の入力とに対して、予め設定された入力条件を満たすかを判定する条件管理部と、前記条件管理部の判定に応じて、前記第1の指によるタッチ位置に基づいたアイコンに対応するアプリケーションプログラムを起動するアプリケーションプログラム実行部と、を備える。 A representative mobile terminal according to the present invention includes a mobile terminal that includes a touch panel that displays icons and detects touches, a camera that captures an image of the surroundings of the touch panel, and a first finger of a hand captured by the camera. a detection unit that detects the type of the finger including the second finger; an information management unit that outputs the type of the finger detected by the detection unit and the touch position of the touch panel; a cursor display unit for controlling to display a cursor on the touch panel according to the touch position on the touch panel by the first finger; an input of the touch position on the touch panel by the first finger output from the information management unit; a condition management unit for determining whether a preset input condition is satisfied for an input of a touch position on the touch panel by a finger; and an application program execution unit that launches an application program corresponding to the icon based on the icon.

本発明によれば、スマートフォンなどの携帯端末で、操作性を損なうことなく、誤操作を防止する技術を提供することができる。 Advantageous Effects of Invention According to the present invention, it is possible to provide a technique for preventing erroneous operations without impairing operability of a mobile terminal such as a smartphone.

スマートフォンとその操作の例を示す図である。It is a figure which shows the example of a smart phone and its operation. スマートフォンにアイコンを表示した例を示す図である。It is a figure which shows the example which displayed the icon on the smart phone. スマートフォンにテキストを表示した例を示す図である。FIG. 10 is a diagram showing an example of text displayed on a smartphone; タブレット端末の表示の例を示す図である。It is a figure which shows the example of a display of a tablet terminal. タブレット端末に地図を表示した例を示す図である。It is a figure which shows the example which displayed the map on the tablet terminal. タブレット端末に地図を拡大表示した例を示す図である。It is a figure which shows the example which enlargedly displayed the map on the tablet terminal. タブレット端末に地図の詳細情報を表示した例を示す図である。It is a figure which shows the example which displayed the detailed information of the map on the tablet terminal. タブレット端末に地図を表示した例を示す図である。It is a figure which shows the example which displayed the map on the tablet terminal. タブレット端末に地図の詳細情報を表示した例を示す図である。It is a figure which shows the example which displayed the detailed information of the map on the tablet terminal. キャリブレーションの例を示す図である。FIG. 4 is a diagram showing an example of calibration; 2つのカメラによる距離測定の例を示す図である。FIG. 4 is a diagram showing an example of distance measurement with two cameras; めがね型装置と携帯端末の例を示す図である。1 is a diagram showing an example of a glasses-type device and a mobile terminal; FIG. カメラを使用しない操作の例を示す図である。FIG. 10 is a diagram showing an example of an operation without using a camera; 複数の指のタッチを検出するタブレット端末の例を示す図である。FIG. 10 is a diagram illustrating an example of a tablet terminal that detects touches of multiple fingers; タブレット端末の画面の例を示す図である。It is a figure which shows the example of the screen of a tablet terminal. タッチパッドに特別な領域を含むスマートフォンの例を示す図である。FIG. 3 shows an example of a smart phone that includes a special area on its touchpad; スマートフォンの特別な領域の操作の例を示す図である。FIG. 10 is a diagram showing an example of operating a special area of a smart phone; 携帯端末のハードウェア構成の例を示す図である。2 is a diagram illustrating an example of a hardware configuration of a mobile terminal; FIG. 携帯端末のハードウェア構成の例を示す図である。2 is a diagram illustrating an example of a hardware configuration of a mobile terminal; FIG. 携帯端末の処理の例を示す図である。FIG. 4 is a diagram showing an example of processing of a mobile terminal;

以下、本発明の実施形態の例を、図面を用いて説明する。 Hereinafter, examples of embodiments of the present invention will be described with reference to the drawings.

図1は、スマートフォン100とその操作の例を示す図である。図1の例では、スマートフォン100を操作するユーザ160が、電車またはバスなどの交通機関において、つり革170につかまって、片手をふさがれた状況であり、片手163でスマートフォン100を保持している。 FIG. 1 is a diagram showing an example of a smartphone 100 and its operation. In the example of FIG. 1 , a user 160 who operates a smartphone 100 is in a situation where one hand is blocked by a strap 170 in a transportation system such as a train or a bus, and the smartphone 100 is held with one hand 163. .

ユーザ160は、スマートフォン100を操作するために、顔をスマートフォン100に向けて、目161によりスマートフォン100を見ている。スマートフォン100は、タッチパッド(表示画面)110、カメラ120、カメラ130、サイドボタン140、及びマイク150が設けられており、ユーザ160はタッチパッド110を見ることになる。 User 160 faces smartphone 100 and looks at smartphone 100 with eyes 161 in order to operate smartphone 100 . The smartphone 100 is provided with a touchpad (display screen) 110 , a camera 120 , a camera 130 , a side button 140 and a microphone 150 , and the user 160 looks at the touchpad 110 .

カメラ120とカメラ130は、ユーザ160の顔を撮像するものであり、特にユーザ160の目161を撮像する。そして、2個のカメラでの撮像により顔とタッチパッド110との距離を算出し、目161の白目と瞳の位置関係から視線を特定して、タッチパッド110での視点を得るが、これらについては後で更に説明する。 The camera 120 and the camera 130 capture images of the face of the user 160 , particularly the eyes 161 of the user 160 . Then, the distance between the face and the touch pad 110 is calculated by imaging with the two cameras, the line of sight is specified from the positional relationship between the white of the eye and the pupil of the eye 161, and the viewpoint on the touch pad 110 is obtained. will be further explained later.

図1に示したスマートフォン100の例では、カメラを2個設けたが、顔とタッチパッド110との距離を他のセンサにより検出できるのであれば、1個であっても良い。例えば、タッチパッド110と同一面のカメラ120の代わりにカメラ120の位置に赤外線または超音波の距離センサを設けて、ユーザ160の顔との距離を測定しても良い。 Although two cameras are provided in the example of the smartphone 100 shown in FIG. 1, one camera may be provided as long as the distance between the face and the touch pad 110 can be detected by another sensor. For example, instead of the camera 120 on the same plane as the touch pad 110, an infrared or ultrasonic distance sensor may be provided at the position of the camera 120 to measure the distance to the face of the user 160. FIG.

また、ユーザ160がサングラスを着用しているなど目161の白目と瞳の位置関係を識別しにくく視点を特定しにくい場合は、その代わりに他の入力が利用されてもよい。ただし、ユーザ160の顔そのものがタッチパッド110へ向いているかを判定するために、顔の輪郭、例えば髪の毛と耳で構成される輪郭162が識別されても良い。 In addition, when it is difficult to identify the positional relationship between the white of the eye 161 and the pupil, such as when the user 160 is wearing sunglasses, and it is difficult to specify the viewpoint, another input may be used instead. However, to determine if the user's 160 face itself is oriented toward the touchpad 110, the outline of the face, such as the hair and ear outline 162, may be identified.

図2は、スマートフォン100にアイコン220を表示した例を示す図である。図2の例は、ホーム画面或いは待ち受け画面と呼ばれる表示であり、タッチパッド110にアイコン220が表示されている。なお、アイコン220-1からアイコン220-9までを、いずれのアイコンであるかを特定せずに表す場合、アイコン220と表現し、以下では他の符号も同じ表現とする。 FIG. 2 is a diagram showing an example of icons 220 displayed on the smartphone 100. As shown in FIG. The example in FIG. 2 is a display called a home screen or a standby screen, and icons 220 are displayed on the touch pad 110 . Note that when the icons 220-1 to 220-9 are represented without specifying which icon they are, they are represented as the icon 220, and the other symbols are hereinafter the same representation.

アイコン220-1からアイコン220-9までのそれぞれは、アプリケーションプログラムに対応して予め設定されたアイコンであり、それらの中で選択されたアイコン220に対応するアプリケーションプログラムが実行される。カーソル210は、ユーザ160の視点の位置に表示される。即ち視点をユーザにフィードバックするカーソル位置を示す。 Each of icons 220-1 to 220-9 is an icon preset corresponding to an application program, and the application program corresponding to icon 220 selected among them is executed. A cursor 210 is displayed at the point of view of the user 160 . That is, it indicates the cursor position that feeds back the viewpoint to the user.

先ずユーザ160の視線は、漠然とタッチパッド110上の一点を捉える。スマートフォン100に着信があり、現在受話状態に移行できない旨を自動的に応答するアプリケーションプログラムの起動アイコンがアイコン220-8であった場合、ユーザ160はカーソル210をアイコン220-8上に合致させるべく視線を移動させる。 First, the line of sight of the user 160 vaguely captures a point on the touchpad 110 . When the smartphone 100 receives an incoming call and the icon 220-8 is the startup icon for the application program that automatically responds to the fact that the smartphone 100 cannot move to the receiving state, the user 160 moves the cursor 210 over the icon 220-8. move your gaze.

そして、スマートフォン100は、アイコン220-8上に視点があることを特定し、サイドボタン140のスイッチオン動作、いわゆる「決定」動作を検出すると、アイコン220-8に対応するアプリケーションプログラムを起動する。これにより、片手操作でのアプリケーション選択及び起動が可能となる。 When the smartphone 100 identifies that the viewpoint is on the icon 220-8 and detects a switch-on operation of the side button 140, that is, a so-called “determine” operation, the application program corresponding to the icon 220-8 is activated. This makes it possible to select and start an application with one hand.

図1では、つり革170につかまるというユーザ160の行為を例にとったが、荷物を持っている場合、資料を手に持っている場合、或いは子供と手をつないで歩いている場合、片手を怪我している場合など、片手のみによる操作が求められる場面は多く存在し、これらの場合に、以上で説明した操作は有効である。 In FIG. 1, the action of the user 160 holding the strap 170 is taken as an example. There are many situations where operation with only one hand is required, such as when a person has an injury, and in these cases, the operation described above is effective.

なお、スマートフォン100は、視点がアイコン220-8上へ移動したことを特定すると、アイコン220-8上へカーソル210を移動するだけではなく、アイコン220-8の表示の色を変更したり、表示のサイズを変更したり、表示の形状を変更したりして、ハイライト表示しても良い。これにより、更に確実にアイコン220-8が選択されていることを、ユーザ160は確認できる。 When smartphone 100 identifies that the viewpoint has moved onto icon 220-8, smartphone 100 not only moves cursor 210 onto icon 220-8, but also changes the color of the display of icon 220-8. You may change the size of or change the shape of the display to highlight it. This allows the user 160 to more reliably confirm that the icon 220-8 has been selected.

また、スマートフォン100は、カーソル210を表示せず、視点がいずれかのアイコン220上へ移動したことを特定すると、そのアイコン220の表示の色を変更したり、表示のサイズを変更したり、表示の形状を変更したりしても良い。 Further, when the smartphone 100 identifies that the viewpoint has moved onto one of the icons 220 without displaying the cursor 210, the smartphone 100 changes the display color of the icon 220, changes the display size, or changes the display. You may change the shape of .

また、図2の例では、カーソル210の形状を矢印としたが、視線の狙っている部分を示すという意味を強調するために、丸と十字を組み合わせたターゲットマークなどであっても良い。 Also, in the example of FIG. 2, the shape of the cursor 210 is an arrow, but it may be a target mark combining a circle and a cross in order to emphasize the meaning of indicating the part that the line of sight is aimed at.

以上の説明では、待ち受け画面におけるアプリケーションプログラムの起動の例を説明したが、アプリケーションプログラム実行中の操作についても、以上で説明した操作の処理は利用可能である。例えば、図2に示したアイコン220は電話番号を入力する数字キーであり、電話関係のアプリケーションプログラムを実行中にアイコン220の選択により数字が入力されても良い。 In the above description, an example of starting an application program on a standby screen has been described, but the processing of operations described above can also be used for operations during execution of an application program. For example, the icons 220 shown in FIG. 2 are numeric keys for entering a telephone number, and numbers may be entered by selecting the icons 220 while executing a telephone-related application program.

また、例えば留守電機能の利用では、合成音声のメッセージにしたがって数字の入力が求められる場合がある。即ち、タッチパッドから数字が入力可能になる状態と、スマートフォンから発せられる合成音声のメッセージを聞く状態とが重なる場合がある。 Further, for example, when using an answering machine function, there is a case where the input of numbers is requested according to a synthetic voice message. In other words, the state in which numbers can be input from the touch pad and the state in which a synthetic voice message emitted from the smartphone is heard may overlap.

これに対して、スマートフォン100はカメラ120、130によりユーザ160の視点により数字キーであるアイコン220が選択されるので、メッセージを聞くために耳がタッチパッド110に接触しても、数字キーであるアイコン220は選択されず、意図しないタッチパッド入力が受け付けられるようなことはない。 On the other hand, in smartphone 100, icons 220, which are numeric keys, are selected from the viewpoint of user 160 through cameras 120 and 130, so even if an ear touches touch pad 110 to listen to a message, the icons are numeric keys. Icon 220 is not selected and no unintended touchpad input is accepted.

また、待ち受け画面またはアプリケーションプログラムを実行中において、スマートフォン100を懐にしまう動作の途中で、タッチパッド110への無意識の接触による意図しない入力が受け付けられることはない。なぜならば、視点によるアイコン220の選択がなく、更にサイドボタン140のスイッチオン動作もなく、ユーザの決定(実行)の意図条件が満たされていないためである。 In addition, during execution of the standby screen or application program, unintended input due to unintentional contact with touch pad 110 is not accepted while smart phone 100 is being put into the pocket. This is because there is no selection of the icon 220 by the viewpoint and no switch-on operation of the side button 140, and the user's decision (execution) intention condition is not satisfied.

以上で説明したように、アプリケーションプログラム或いは数字キーの決定という1つの指示を2種類の操作の組み合わせで入力することにより、誤って1種類の操作が発生してしまっても、誤った指示にまでは至らない。 As described above, by inputting one instruction such as application program or determination of numeric keys by a combination of two types of operations, even if one type of operation is erroneously generated, it will still be an erroneous instruction. not reach.

ここでのポイントは、ユーザの顔認識及び視線や視点検知というスマートフォン内蔵の標準となりつつあるカメラ機能さえ備えていれば、比較的容易なソフトウェア処理により誤入力認識防止及び片手操作のみによる使い勝手向上という大きな効果を得ることができる点である。 The point here is that as long as it has camera functions that are becoming standard built-in smartphones, such as user face recognition and line-of-sight and viewpoint detection, relatively easy software processing prevents erroneous input recognition and improves usability with only one-handed operation. It is a point that a big effect can be obtained.

スマートフォン100で他のアプリケーションプログラムを実行する例を説明する。図3は、スマートフォン100にテキストを表示した例を示す図である。テキストは単語の並びで構成され、例えば単語320-1、単語320-2、単語320-3、単語320-4と順番に、ユーザ160は視点を移動しながら単語320を読み進む。 An example of executing another application program on the smartphone 100 will be described. FIG. 3 is a diagram showing an example of text displayed on the smartphone 100. As shown in FIG. The text is composed of a sequence of words, and the user 160 reads the words 320 in order, for example, word 320-1, word 320-2, word 320-3, and word 320-4 while moving the viewpoint.

ここで、ユーザ160が単語320-4をコピーしたい場合、ユーザ160の視点は単語320-4にあり、この視点をスマートフォン100は特定する。そこで、サイドボタン140がスイッチオン動作されながら、マイク150が音声による操作を受け付ける。この音声による操作は、例えば「コピー」である。 Here, when user 160 wants to copy word 320-4, the viewpoint of user 160 is at word 320-4, and smartphone 100 identifies this viewpoint. Therefore, while the side button 140 is being switched on, the microphone 150 accepts voice operations. This voice operation is, for example, "copy".

これに対して、スマートフォン100は、単語320-4をコピーしてクリップボードに貼り付ける。また、音声による操作は、他の種類の操作であっても良く、テキスト編集のための操作であっても良い。 In response, smartphone 100 copies word 320-4 and pastes it to the clipboard. Also, the voice operation may be another type of operation, or may be an operation for text editing.

以上で説明したように、単語320-4の選択とコピーという2つの指示を3種類の操作の組み合わせで入力することにより、誤って1種類の操作が発生してしまっても、誤った指示にまでは至らない。 As described above, by inputting the two instructions of selecting and copying the word 320-4 in a combination of three types of operations, even if one type of operation is erroneously generated, the erroneous instruction I can't reach it.

次に、タブレット端末の例を説明する。図4は、タブレット端末400の表示の例を示す図である。タブレット端末400は、タッチパッド(表示画面)410、カメラ420、カメラ430、決定ボタン440、及びマイク490が設けられており、ユーザはタッチパッド410を見ることになる。 Next, an example of a tablet terminal will be described. FIG. 4 is a diagram showing an example of display on the tablet terminal 400. As shown in FIG. The tablet terminal 400 is provided with a touch pad (display screen) 410, a camera 420, a camera 430, an enter button 440, and a microphone 490, and the user looks at the touch pad 410. FIG.

これらは、既に説明したスマートフォン100のタッチパッド110、カメラ120、カメラ130、サイドボタン140、及びマイク150に相当し、カーソル470はカーソル210に相当し、アイコン220を表示してのアプリケーションプログラムの起動や、アプリケーションプログラム実行中の数字の入力は既に説明したとおりであり、テキストを表示しての単語の処理も既に説明したとおりである。 These correspond to the touch pad 110, the camera 120, the camera 130, the side button 140, and the microphone 150 of the smartphone 100 already described, and the cursor 470 corresponds to the cursor 210, and the icon 220 is displayed to start the application program. Also, the input of numbers during execution of the application program has already been explained, and the processing of words by displaying the text has already been explained.

ただし、アイコン220を表示してのアプリケーションプログラムの起動において、決定ボタン440が押し込まれる代わりに、マイク490が音声による操作として「実行」を受け付けても良い。 However, in activating the application program with the icon 220 displayed, the microphone 490 may accept “execute” as a voice operation instead of pressing the enter button 440 .

このような操作による指示は、情報検索でも利用できる。図4の例では、人480-1、人480-2、及び人480-3の3名が被写体となった写真情報において、ユーザが人480-2の人物の情報を知りたい場合、ユーザが視線を人480-2の表示に向けて、カーソル470が人480-2の表示に移動したとき、決定ボタン440を押し込むか、マイク490に向けて「情報検索せよ」と発声する。 Instructions by such operations can also be used in information retrieval. In the example of FIG. 4, when the user wants to know the information about the person 480-2 in the photograph information in which three persons 480-1, 480-2, and 480-3 are subjects, the user When the cursor 470 moves to the display of the person 480-2 with the line of sight directed to the display of the person 480-2, the decision button 440 is pushed or the microphone 490 is uttered "Search for information."

これに対して、タブレット端末400は、ユーザの視点を特定してカーソル470を移動し、決定ボタン440が押し込まれるか、マイク490で「情報検索せよ」という音声の操作を受け付けると、視点を特定した位置、即ちカーソル470を表示している位置の画像を顔認識し、タブレット端末400内に記憶された情報或いはインターネット上の情報を検索して、見つかった結果を音声合成で出力するか、タッチパッド410に表示する。 On the other hand, tablet terminal 400 identifies the viewpoint of the user, moves cursor 470, and either presses decision button 440 or accepts a voice operation "Search for information" through microphone 490 to identify the viewpoint. Face recognition is performed on the image of the position where the cursor 470 is displayed, information stored in the tablet terminal 400 or information on the Internet is searched, and the found result is output by speech synthesis or touched. Displayed on pad 410 .

タブレット端末400は、ユーザの視点を特定してカーソル470を移動し、決定ボタン440が押し込まれる操作を受け付けると共に、マイク490で「情報検索せよ」という音声の操作を受け付けると、顔認識しても良い。 The tablet terminal 400 identifies the user's viewpoint, moves the cursor 470, accepts an operation of pressing the enter button 440, and accepts a voice operation of "Search for information" with the microphone 490. good.

情報検索の対象は地図情報であっても良い。図5Aは、タブレット端末400に地図情報を表示する例を示す図である。図5Aに示すタブレット端末400は、図4に示したタブレット端末400に、ダウンボタン450とアップボタン460が追加されている。ダウンボタン450とアップボタン460は、音出力のボリュームの調整に使用されるものであるが、画像のズームの調整にも兼用される。 The target of information retrieval may be map information. FIG. 5A is a diagram showing an example of displaying map information on the tablet terminal 400. As shown in FIG. A tablet terminal 400 shown in FIG. 5A has a down button 450 and an up button 460 added to the tablet terminal 400 shown in FIG. The down button 450 and the up button 460 are used for adjusting the volume of the sound output, but are also used for adjusting the zoom of the image.

ユーザが、先ず「アフリカ地図」を表示するよう操作し、図5Aではタッチパッド410にアフリカの地図が表示されている。「アフリカ地図」を表示するための操作は、マイク490へ「アフリカ地図」という音声が入力されても良く、この音声と共に決定ボタン440が押し込まれるか、タッチパッド410の特定領域がタッチされても良い。 The user first operates to display “Map of Africa”, and the map of Africa is displayed on the touch pad 410 in FIG. 5A. The operation for displaying the "Africa map" may be performed by inputting the voice "Africa map" into the microphone 490, and pressing the decision button 440 along with this voice or touching a specific area of the touch pad 410. good.

そして、ユーザが、アフリカの地図の一部に視点をあわせて、アップボタン460を押すと、これらのユーザの操作に対して、タブレット端末400は、カメラ420とカメラ430で得られたユーザの画像から視点を特定し、視点位置にあわせてカーソル470を表示し、アップボタン460が押されたことを検出すると、図5Bに示すように、視点位置であるカーソル470を中心に地図をズームアップする。 Then, when the user presses the up button 460 while adjusting the viewpoint to a part of the map of Africa, the tablet device 400 responds to the user's operation by displaying the user's image obtained by the camera 420 and the camera 430. 5B, the map is zoomed up centering on the cursor 470, which is the viewpoint position, when it is detected that the up button 460 has been pressed. .

これにより、ユーザは、更に詳細な位置を確認するために見たい部分がズームアップされ、知りたい部分を詳細に観察することができる。 As a result, the user can zoom in on the part that the user wants to see in order to confirm a more detailed position, and can observe the part that the user wants to know in detail.

なお、タブレット端末400は、アップボタン460の代わりにダウンボタン450が押されたことを検出すると、視点位置であるカーソル470を中心に地図をズームダウンする。また、アップボタン460或いはダウンボタン450が押されたことを検出すると共に、マイク490で「ズームアップ」或いは「ズームダウン」という音声の操作を受け付けて、地図のズームアップ或いはズームダウンの処理を実行しても良い。 When the tablet terminal 400 detects that the down button 450 has been pressed instead of the up button 460, it zooms down the map centering on the cursor 470, which is the viewpoint position. Also, it detects that the up button 460 or the down button 450 has been pressed, and also accepts a voice operation of "zoom up" or "zoom down" through the microphone 490, and executes processing to zoom up or zoom down the map. You can

更に、図5Bに示した表示において、タブレット端末400は、決定ボタン440が押されたことを検出すると、視点位置であるカーソル470の地図上で指し示す国を特定し、その特定された国に関する情報を、タブレット端末400内の記憶装置またはインター
ネットから検索して、図5Cに示すようにタッチパッド410に表示する。
Furthermore, in the display shown in FIG. 5B, when tablet terminal 400 detects that decision button 440 has been pressed, tablet terminal 400 identifies the country indicated on the map by cursor 470, which is the viewpoint position, and displays information about the identified country. is retrieved from the storage device in tablet terminal 400 or the Internet, and displayed on touch pad 410 as shown in FIG. 5C.

ここで、タブレット端末400は、決定ボタン440が押されたことを検出すると共に、マイク490で「詳細情報」という音声の操作を受け付けて、検索の処理と表示の処理を実行しても良い。 Here, the tablet terminal 400 may detect that the enter button 440 has been pressed, and may also accept a voice operation of "detailed information" through the microphone 490 to execute search processing and display processing.

地図情報に基づく情報検索では、GPS(Global Positioning System)に基づき、タブレット端末400の位置に応じた地図の表示と周辺情報の検索を可能にしても良い。タブレット端末400は、地図アプリケーションプログラムが起動されると、GPSに基づき現在位置を中心とした地図を表示する。 In information retrieval based on map information, display of a map and retrieval of peripheral information according to the position of tablet terminal 400 may be enabled based on GPS (Global Positioning System). When the map application program is activated, tablet terminal 400 displays a map centered on the current position based on GPS.

図6Aは、タブレット端末400に地図情報を表示する例を示す図である。タッチパッド410、カメラ420、カメラ430、決定ボタン440、ダウンボタン450、アップボタン460、カーソル470、及びマイク490は既に説明したとおりである。タッチパッド410には地図をスクロールするための四方向の矢印と現在位置マーク620も表示される。 FIG. 6A is a diagram showing an example of displaying map information on the tablet terminal 400. FIG. The touch pad 410, camera 420, camera 430, enter button 440, down button 450, up button 460, cursor 470, and microphone 490 have already been described. The touchpad 410 also displays a four-way arrow for scrolling the map and a current location mark 620 .

現在位置マーク620が地図の中心に表示されている状態において、上矢印610に視点があわされて、決定ボタン440が押されると、地図が下へスクロールし、図6Aに示す表示画面が得られる。図6Aでは、地図の下へのスクロールに応じて、現在位置マーク620も下へ移動している。 With the current position mark 620 displayed in the center of the map, when the viewpoint is aligned with the up arrow 610 and the decision button 440 is pressed, the map scrolls downward, and the display screen shown in FIG. 6A is obtained. . In FIG. 6A, as the map scrolls down, the current location mark 620 also moves down.

図6Aに示した表示画面において、ユーザの視点が百貨店630にあわされると、カーソル470が百貨店630を指し示すように表示され、決定ボタン440が押されると、図6Bに示した表示画面となる。これにより、ユーザは、これから行こうとする百貨店の各階の情報を事前に得ることが可能となる。 In the display screen shown in FIG. 6A, when the user's viewpoint is aligned with the department store 630, the cursor 470 is displayed to point to the department store 630, and when the enter button 440 is pressed, the display screen shown in FIG. 6B is displayed. This enables the user to obtain in advance information on each floor of the department store that the user intends to visit.

以下に、視点を特定するためのキャリブレーションと距離測定について、図7と図8を用いて説明する。キャリブレーションが開始されると、図7に示すように、タッチパッド110またはタッチパッド410の表示画面710の中で、先ず表示画面710-1のように中央に点滅するマーク711-1が表示される。 Calibration and distance measurement for specifying a viewpoint will be described below with reference to FIGS. 7 and 8. FIG. When the calibration is started, as shown in FIG. 7, in the display screen 710 of the touch pad 110 or the touch pad 410, first, a blinking mark 711-1 is displayed in the center like the display screen 710-1. be.

表示画面710-1の表示に対して、カメラ120、カメラ130、カメラ420、或いはカメラ430による撮像画像720-1が取得される。ここで、図8を用いて後で説明するように、2つのカメラ120、130或いはカメラ420、430の視差を利用した、被写体712即ちユーザまでの距離を測定しても良い。撮像画像720-1でのカメラの倍率は、被写体712の上半身が収まる程度で良い。 An image 720-1 captured by the camera 120, the camera 130, the camera 420, or the camera 430 is acquired for the display on the display screen 710-1. Here, as will be described later with reference to FIG. 8, the distance to the subject 712, ie, the user, may be measured using the parallax of the two cameras 120, 130 or the cameras 420, 430. FIG. The magnification of the camera in the captured image 720-1 may be such that the upper body of the subject 712 can be accommodated.

次に、表示画面710-2のように左下に点滅するマーク711-2が表示される。このとき、「点滅する図形に注目してください」などのメッセージが合成音声で出力されても良い。また、カメラの倍率が上げられて、被写体712の目の部分713がクローズアップされ、撮像画像720-2が取得される。 Next, like the display screen 710-2, a blinking mark 711-2 is displayed at the lower left. At this time, a message such as "Pay attention to the blinking figure" may be output as synthesized voice. Also, the magnification of the camera is increased, the eye portion 713 of the subject 712 is taken in close-up, and the captured image 720-2 is acquired.

次に、表示画面710-3のように右上に点滅するマーク711-3が表示される。撮像画像720-2が取得されたカメラの倍率と同じ倍率で、被写体712の目の部分713がクローズアップされた撮像画像720-3が取得され、撮像画像720-2と撮像画像720-3の目のパターンの相関を求める。 Next, like the display screen 710-3, a mark 711-3 blinking on the upper right is displayed. A captured image 720-3 in which the eye portion 713 of the subject 712 is taken in close-up is acquired at the same magnification as the camera that acquired the captured image 720-2, and the captured image 720-2 and the captured image 720-3 are obtained. Determine the correlation of eye patterns.

即ち、表示画面710の中央から遠い位置へ視線が向う従い、目の輪郭714における黒目や虹彩の位置715は、目の輪郭714の中央から離れるように変位する。表示画面
710の端点(マーク711-2とマーク711-3)を見たときの、目の輪郭714-2に対する黒目や虹彩の位置715-2と、目の輪郭714-3に対する黒目や虹彩の位置715-3との変位を基準として、キャリブレーション後の実際に視点を特定するために新たに得られた撮像画像の変位量の、変位の基準に対する割合から、表示画面の端点からの割合が、視点の位置として算出されても良い。
That is, as the line of sight moves away from the center of the display screen 710 , the positions 715 of the iris and the iris on the eye contour 714 are displaced away from the center of the eye contour 714 . A position 715-2 of the black eye and iris with respect to the eye contour 714-2 and a black eye and iris position 715-2 with respect to the eye contour 714-3 when the end points (marks 711-2 and 711-3) of the display screen 710 are viewed. Using the displacement from the position 715-3 as a reference, the ratio of the displacement amount of the captured image newly obtained for actually specifying the viewpoint after calibration to the displacement reference is calculated as the ratio from the end point of the display screen. , may be calculated as the position of the viewpoint.

また、マーク711-2とマーク711-3の間の距離と、撮像画像720-1が取得されたときに測定されたスマートフォン100(或いはタブレット端末400)とユーザ(被写体712)との距離とから、撮像画像720-2と撮像画像720-3の視線の角度が算出され、新たに得られた撮像画像の変位量の、変位の基準に対する割合から、視線の角度の割合が算出され、視線の角度と新たに得られた撮像画像が取得されたときの距離とから視点の位置が算出されても良い。 Also, from the distance between mark 711-2 and mark 711-3 and the distance between smartphone 100 (or tablet terminal 400) and the user (subject 712) measured when captured image 720-1 was acquired, , the line-of-sight angle of the captured image 720-2 and the captured image 720-3 is calculated, and the ratio of the line-of-sight angle is calculated from the ratio of the displacement amount of the newly obtained captured image to the displacement reference. The position of the viewpoint may be calculated from the angle and the distance when the newly obtained captured image was obtained.

なお、図7を用いた説明では、片目についての処理を説明したが、両目それぞれに対して処理を行い、平均化するなどしても良い。また、マーク711-1が表示されることなく、マーク711-2とマーク711-3が表示されても良い。更に、マーク711-2とマーク711-3の表示と撮像画像720-2と撮像画像720-3の取得に加えて、表示画面710の左上と右下にもマークが表示され、それぞれの撮像画像が取得されても良い。 In the explanation using FIG. 7, the processing for one eye has been explained, but the processing may be performed for each eye and averaged. Alternatively, the mark 711-2 and the mark 711-3 may be displayed without displaying the mark 711-1. Furthermore, in addition to the display of marks 711-2 and 711-3 and the acquisition of captured images 720-2 and 720-3, marks are also displayed on the upper left and lower right of the display screen 710, and the respective captured images are displayed. may be obtained.

図8は、2つのカメラによる距離測定の例を示す図である。顔認識により被写体712の両眼の中心位置である点821が検出され、検出された点821を用いた距離測定について説明する。また、説明を簡単にするために、2つのカメラの中で一方の正面に被写体712であるユーザが正対した状態での距離測定を説明する。 FIG. 8 is a diagram showing an example of distance measurement using two cameras. A point 821 that is the center position of both eyes of the subject 712 is detected by face recognition, and distance measurement using the detected point 821 will be described. In order to simplify the explanation, the distance measurement will be explained in a state in which the user, who is the subject 712, faces the front of one of the two cameras.

図8では、携帯端末810が被写体712を撮像する位置関係を、z軸の上方向から見たxy平面で示している。携帯端末810は、スマートフォン100或いはタブレット端末400であり、レンズ811、レンズ812、撮像素子813、及び撮像素子814が設けられている。 In FIG. 8, the positional relationship in which the mobile terminal 810 images the subject 712 is shown on the xy plane viewed from above the z axis. A mobile terminal 810 is the smartphone 100 or the tablet terminal 400 and is provided with a lens 811 , a lens 812 , an image sensor 813 , and an image sensor 814 .

撮像素子813には、レンズ811を通して、点821を含む被写体712が結像する。ここで、点821は撮像素子813上の点824となる。撮像素子814にも、レンズ812を通して、点821を含む被写体712が結像する。ここで、点821は撮像素子814上の点825となる。 An image of an object 712 including a point 821 is formed on the imaging element 813 through the lens 811 . Here, the point 821 becomes a point 824 on the image sensor 813 . An image of the subject 712 including the point 821 is also formed on the imaging element 814 through the lens 812 . Here, the point 821 becomes a point 825 on the image sensor 814 .

そして、撮像素子813における点824に相当する位置である撮像素子814における点826と、点825の位置の差が視差834に相当する。このように、1つの被写体712を2つのカメラで撮像すると、各カメラの撮像素子813と撮像素子814とでは画像に違いが生じる。 A difference between a point 826 on the image sensor 814 corresponding to the point 824 on the image sensor 813 and a point 825 corresponds to a parallax 834 . In this way, when one subject 712 is imaged by two cameras, the images are different between the imaging elements 813 and 814 of each camera.

また、点821と点822と点823が形成する大きな三角形と、点823と点826と点825が形成する小さな三角形とには、光学的性質上、相似関係がある。そこで、携帯端末810から被写体712までの長さ831を距離Lとし、レンズ間の長さ832を距離Dとし、焦点距離833を距離Fとし、視差834を距離Sとすると、これらの距離の間には、L:D=F:Sという関係が成立する。 A large triangle formed by points 821, 822, and 823 and a small triangle formed by points 823, 826, and 825 are similar in optical properties. Therefore, if the length 831 from the mobile terminal 810 to the object 712 is the distance L, the length 832 between the lenses is the distance D, the focal length 833 is the distance F, and the parallax 834 is the distance S, the distance between these distances is , the relationship L:D=F:S is established.

この関係から、距離Lは、L=D×F/Sで表され、例えばD=5cm、F=3mm、S=0.5mmとすると、L=30cmが得られる。携帯端末810であるスマートフォン100或いはタブレット端末400では、2つのカメラそれぞれのレンズの位置と撮像素子の位置との関係は固定であるため、以上のように被写体712と携帯端末810の距
離を算出することが可能となる。
From this relationship, the distance L is represented by L=D×F/S. For example, if D=5 cm, F=3 mm, and S=0.5 mm, L=30 cm is obtained. In the smart phone 100 or the tablet terminal 400, which is the mobile terminal 810, since the relationship between the positions of the lenses of the two cameras and the positions of the imaging elements is fixed, the distance between the subject 712 and the mobile terminal 810 is calculated as described above. becomes possible.

以上で説明したように、被写体であるユーザの目が撮像可能であれば、視点と距離を算出可能であるが、ユーザの個人差により目の開き方や、ユーザと携帯端末との距離のとり方には大きな違いが出る可能性もあるため、目の輪郭と黒目では視点と距離を算出しにくい場合もある。そこで、以下では、めがね型の装置を用いる例を説明する。 As described above, if the eyes of the user, who is the subject, can be imaged, the viewpoint and the distance can be calculated. Since there may be a large difference in , it may be difficult to calculate the viewpoint and distance from the outline of the eye and the iris. Therefore, an example using a glasses-type device will be described below.

図9は、めがね型装置900と携帯端末940の例を示す図である。めがね型装置900は、めがねの形状をしており、鼻と耳が接触してユーザの顔に固定され、カメラ920-1とカメラ920-2を有する。カメラ920は、ユーザの目の近距離に位置するため、目の輪郭と黒目を撮像しやすい。なお、カメラ920は1つであっても良い。 FIG. 9 is a diagram showing an example of a glasses-type device 900 and a mobile terminal 940. As shown in FIG. Glasses-type device 900 has the shape of glasses, is fixed to the user's face with the nose and ears in contact, and has cameras 920-1 and 920-2. Since the camera 920 is positioned at a short distance from the user's eyes, it is easy to capture the contours of the eyes and the iris. Note that the number of cameras 920 may be one.

カメラ920とユーザの目との距離は、ユーザの顔の形状の個人差はあるものの、めがね型装置900の形状に応じて、ほぼ一定となり、めがね型装置900の形状が設計されるときに固定値として設定されても良い。 The distance between the camera 920 and the user's eyes is substantially constant according to the shape of the spectacles-type device 900, although there are individual differences in the shape of the user's face, and is fixed when the shape of the spectacles-type device 900 is designed. It may be set as a value.

携帯端末940は、スマートフォン100或いはタブレット端末400であり、めがね型装置900と接続コード930で接続され、カメラ920での撮像画像のデータをめがね型装置900から得る。図9では、接続コード930による有線接続の例を示したが、接続コード930が無く、携帯端末940とめがね型装置900とが無線接続されても良い。 The mobile terminal 940 is the smartphone 100 or the tablet terminal 400 , is connected to the spectacles-type device 900 by a connection cord 930 , and obtains image data captured by the camera 920 from the spectacles-type device 900 . Although FIG. 9 shows an example of wired connection using the connection cord 930 , the portable terminal 940 and the glasses-type device 900 may be wirelessly connected without the connection cord 930 .

携帯端末940は、タッチパッド(表示画面)950、アップボタン960、ダウンボタン970、及び決定ボタン980が設けられ、これらの動作は既に説明したとおりであるが、2つのカメラは設けられなくても良い。ユーザがタッチパッド950を見るために、めがね型装置900のリム910には透明または着色されたレンズがはめ込まれる。 The mobile terminal 940 is provided with a touch pad (display screen) 950, an up button 960, a down button 970, and an enter button 980, and the operations of these are as already described. good. In order for the user to see the touchpad 950, the rim 910 of the glasses-type device 900 is fitted with a transparent or tinted lens.

めがね型装置900のリム910-1とリム910-2の一方または両方に液晶スクリーンがはめ込まれても良い。液晶スクリーンにアイコンなどを映し出すために、携帯端末940は接続コード930を介してめがね型装置900へ画像データを出力しても良い。 One or both of the rims 910-1 and 910-2 of the glasses-type device 900 may be fitted with a liquid crystal screen. The portable terminal 940 may output image data to the spectacles-type device 900 via the connection cord 930 in order to project an icon or the like on the liquid crystal screen.

めがね型装置900に液晶スクリーンがはめ込まれた場合の携帯端末940は、液晶スクリーンに映し出されたアイコンなどへのユーザの視点を算出する。また、この場合の携帯端末940は、タッチパッド950を備えなくても良いし、タッチパッド950に対して小さい或いは解像度の低いタッチパッドであっても良い。 The portable terminal 940 in which the liquid crystal screen is fitted in the spectacles type device 900 calculates the user's point of view to the icon or the like displayed on the liquid crystal screen. In this case, the mobile terminal 940 may not have the touchpad 950, or may have a touchpad that is smaller than the touchpad 950 or has a lower resolution.

めがね型装置900のツル990-1とツル990-2の一方または両方にイヤフォンを備えても良い。イヤフォンを用いて音で情報をユーザへ伝えるために、携帯端末940は接続コード930を介してめがね型装置900へ合成音声データを出力しても良い。このイヤフォンの代わりに、めがね型装置900はヘッドフォンを備えても良い。ヘッドフォンを備えるために、ユーザの頭上で接触するヘッドバンドを備えても良い。 One or both of the temples 990-1 and 990-2 of the glasses-type device 900 may be provided with earphones. Portable terminal 940 may output synthesized speech data to glasses-type device 900 via connection cord 930 in order to convey information to the user by sound using earphones. Instead of these earphones, the glasses-type device 900 may be equipped with headphones. A headband may be provided that contacts over the user's head to provide headphones.

また、ハンズフリーフォンのようにツル990がマイクを備えても良い。マイクからの音声データを得るために、携帯端末940は接続コード930を介してめがね型装置900から音声データを入力しても良い。 Also, the temple 990 may be equipped with a microphone like a hands-free phone. In order to obtain audio data from the microphone, the mobile terminal 940 may input audio data from the glasses-type device 900 via the connection cord 930 .

更に、めがね型装置900は、液晶スクリーンがはめ込まれ、アップボタン960、ダウンボタン970、及び決定ボタン980が設けられても良く、携帯端末940の処理をめがね型装置900が実行しても良い。この場合のめがね型装置900は、独立して動作可能であるため、接続コード930が無くても良い。 Furthermore, the spectacles-type device 900 may be fitted with a liquid crystal screen, provided with an up button 960 , a down button 970 , and an enter button 980 , and the spectacles-type device 900 may execute the processing of the mobile terminal 940 . Since the glasses-type device 900 in this case can operate independently, the connection cord 930 may be omitted.

以上の説明では、カメラを使用してユーザの視点を特定したが、カメラを使用しなくても良い。例えば、スマートフォンが鷲掴みにされた場合、ユーザの手の指が無意識にタッチパッドに接触し、ユーザの意図せぬ入力がなされる場合もあるが、これに対して、カメラを使用せず、図10に示すような操作を検出しても良い。 In the above description, the camera is used to identify the user's viewpoint, but the camera may not be used. For example, when a smartphone is grabbed, the fingers of the user's hand may unconsciously come into contact with the touch pad, causing unintended input by the user. 10 may be detected.

図10はカメラを使用しない操作の例を示す図である。スマートフォン100は、タッチパッド110、サイドボタン140、及びマイク150が設けられている。カメラは設けられていても良いが、使用されない。視点位置の代わりに、片手164によるタッチパッド110への接触位置を検出し、片手163によるサイドボタン140の押し込まれる動作を検出して、スマートフォン100は、検出された操作に対応する処理を実行する。 FIG. 10 is a diagram showing an example of operation without using a camera. A smartphone 100 is provided with a touch pad 110 , a side button 140 and a microphone 150 . A camera may be provided, but is not used. Instead of the position of the viewpoint, the smartphone 100 detects the contact position of the one hand 164 on the touch pad 110, detects the action of pressing the side button 140 with the one hand 163, and executes processing corresponding to the detected operation. .

また、スマートフォン100は、片手164によるタッチパッド110への接触位置を検出し、サイドボタン140の押し込まれる動作の検出の代わりに、マイク150での音声による操作を検出しても良い。これらにより、タッチパッド110の操作の検出に加えて別の操作の検出も行うことにより、ユーザの意図しない操作を誤検出する可能性を減らすことができる。 Further, the smartphone 100 may detect the contact position of the touch pad 110 with the one hand 164 , and instead of detecting the operation of pressing the side button 140 , detect the voice operation of the microphone 150 . By detecting other operations in addition to detecting the operation of the touch pad 110, the possibility of erroneously detecting an operation not intended by the user can be reduced.

以上の説明では、タッチパッド以外の操作を検出したが、タッチパッドの操作の検出で、ユーザの意図しない操作を誤検出する可能性を減らす例を説明する。図11Aは複数の指のタッチを検出するタブレット端末1100の例を示す図である。タブレット端末1100は、タッチパッド(表示画面)1110及びカメラ1120が設けられている。 In the above description, an operation other than the touchpad operation is detected, but an example of detecting an operation on the touchpad to reduce the possibility of erroneously detecting an operation not intended by the user will be described. FIG. 11A is a diagram showing an example of a tablet terminal 1100 that detects touches of multiple fingers. A tablet terminal 1100 is provided with a touch pad (display screen) 1110 and a camera 1120 .

カメラ1120は、タッチパッド1110を操作する手1140を指まで撮像するようタッチパッド1110側に傾けられて設置され、カメラ1120の撮像光軸はタッチパッド1110の方向に傾き、撮像範囲は画角1130のようにタッチパッド1110の周辺を含む。 The camera 1120 is installed tilted toward the touch pad 1110 so as to capture an image of a hand 1140 that operates the touch pad 1110, including the fingers. , including the periphery of the touch pad 1110 .

タブレット端末1100では、手1140の1本目の指(例えば人差し指)のタッチを検出し、その状態でタッチした指の移動を検出すると、カーソルを移動させる。そして、手1140の2本目の指(例えば親指)により、タッチパッド1110内の実行(決定)ボタンの範囲のタッチを検出すると、1本目の指を検出している位置であるカーソルの位置に対応する動作を実行あるいは決定する。 The tablet terminal 1100 detects the touch of the first finger (for example, the index finger) of the hand 1140, and when detecting the movement of the touched finger in that state, moves the cursor. When the second finger (for example, the thumb) of the hand 1140 detects a touch within the range of the execution (decision) button in the touch pad 1110, the position of the cursor, which is the position where the first finger is detected, is detected. perform or determine the action to take.

図11Bは、タブレット端末1100の画面の例を示す図である。アイコン1150-1、アイコン1150-2、アイコン1150-3が、タッチパッド1110に表示されており、アイコン1150それぞれは、アプリケーションプログラム或いはアプリケーションプログラムに対する指示に対応している。 FIG. 11B is a diagram showing an example of the screen of the tablet terminal 1100. As shown in FIG. Icons 1150-1, 1150-2, and 1150-3 are displayed on touchpad 1110, each icon 1150 corresponding to an application program or an instruction to an application program.

アイコン1160は、実行(決定)ボタンである。例えば、1本目の指でのアイコン1150-1へのタッチを検出している状態で、2本目の指でのアイコン1160へのタッチを検出すると、タブレット端末1100は、アイコン1150-1に対応するアプリケーションプログラムを起動したり、指示に基づく動作を実行したりする。 Icon 1160 is an execution (decision) button. For example, when a touch on icon 1150-1 with a first finger is detected and a touch on icon 1160 with a second finger is detected, tablet terminal 1100 detects icon 1150-1. Launch application programs and perform actions based on instructions.

アイコン1160は、タッチパッド1110に表示されなくても良い。この場合の実行(決定)ボタンの範囲は、アイコン1150以外の領域となる。また、アイコン1160が表示されていない状態で、1本目の指がいずれかのアイコン1150を予め設定された時間以上タッチし続けていることを検出すると、アイコン1160が表示され、アイコン1160への2本目の指のタッチが検出されても良い。 Icon 1160 need not be displayed on touchpad 1110 . The range of the execution (decision) button in this case is an area other than the icon 1150 . Further, when it is detected that the first finger continues to touch any of the icons 1150 for a preset time or longer while the icon 1160 is not displayed, the icon 1160 is displayed and the second finger to the icon 1160 is displayed. A touch of the second finger may be detected.

カメラ1120が撮像した画像を分析することにより、タッチパッド1110にタッチしている指の種類が認識される。この指の種類の認識により、2本目の指のタッチが、親指のタッチであると認識した場合は、いわゆるマウスの左クリックとして検出されて、アイコン1150に対応するアプリケーションプログラムが起動されても良い。 By analyzing the image captured by the camera 1120, the type of finger touching the touch pad 1110 is recognized. By recognizing the type of finger, when the touch of the second finger is recognized as the touch of the thumb, it may be detected as a so-called left click of the mouse and the application program corresponding to the icon 1150 may be started. .

また、2本目の指のタッチが、中指のタッチであると認識した場合は、いわゆるマウスの右クリックとして検出されて、アイコン1150に対応するアプリケーションプログラムのメニューが表示されたり、アプリケーションプログラムの情報が表示されたりしても良い。また、1本目の指のタッチが中指で行われた場合には、2本目の指のタッチが人差し指で行われた場合にマウスの左クリックとして検出され、2本目のタッチが薬指で行われた場合にマウスの右クリックとして検出されても良い。 Further, when the touch of the second finger is recognized as the touch of the middle finger, it is detected as a so-called right click of the mouse, and the menu of the application program corresponding to the icon 1150 is displayed, or the information of the application program is displayed. It may be displayed. Also, when the first finger is touched with the middle finger, it is detected as a left click of the mouse when the second finger is touched with the index finger, and the second finger is touched with the ring finger. May be detected as a right mouse click.

指の種類の認識の結果が、ユーザにわかるようにするため、タッチパッド1110のタッチ部分の周囲を、認識した指の種類に応じた特定の色とする表示にしてもよい。そして、タッチ部分の周囲の色の表示が、カーソルとみなされても良い。これにより、指の種類の認識の誤りにより、誤った指示となる可能性を減らすことができる。 In order to allow the user to understand the recognition result of the type of finger, the periphery of the touched portion of the touch pad 1110 may be displayed in a specific color according to the type of the recognized finger. Then, the color display around the touched portion may be regarded as a cursor. As a result, it is possible to reduce the possibility of erroneous indication due to erroneous recognition of the type of finger.

更に、カメラ1120で撮像された手1140の画像が、アイコン1150及びアイコン1160と重畳されてタッチパッド1110に表示されても良い。 Furthermore, an image of hand 1140 captured by camera 1120 may be displayed on touch pad 1110 while being superimposed on icon 1150 and icon 1160 .

次に、カメラにより視点を検出するが、図1などに示したサイドボタン140及び図4に示した決定ボタン440の代わりにタッチパッドを使用する例を説明する。図12Aは、タッチパッド110の一部を特別な領域とするスマートフォン100の例を示す図である。 Next, an example of using a touch pad instead of the side button 140 shown in FIG. 1 and the enter button 440 shown in FIG. 4 will be described, although the viewpoint is detected by the camera. FIG. 12A is a diagram showing an example of smartphone 100 in which part of touchpad 110 is a special area.

スマートフォン100は、タッチパッド110、カメラ120、及びカメラ130が設けられている。カメラ120及びカメラ130については既に説明したとおりである。スマートフォン100は、サイドボタンとマイクが設けられていても良いが、ここでは使用されない。スマートフォン100は、タブレット端末400であっても良い。 A smartphone 100 is provided with a touch pad 110 , a camera 120 and a camera 130 . Camera 120 and camera 130 have already been described. The smartphone 100 may be provided with side buttons and a microphone, but they are not used here. Smartphone 100 may be tablet terminal 400 .

サイドボタン140及び決定ボタン440の代わりにタッチパッド110を使用するために、サイドボタン140及び決定ボタン440の代わりとなる特別領域1210がタッチパッド110に設定される。特別領域1210は、スマートフォン100が片手で保持された場合に、例えば親指でタッチされる領域である。 In order to use the touchpad 110 instead of the side button 140 and the enter button 440 , a special area 1210 that replaces the side button 140 and the enter button 440 is set on the touchpad 110 . Special area 1210 is an area that is touched, for example, with a thumb when smartphone 100 is held with one hand.

ユーザが、スマートフォン100を片手で把持する場合、そのユーザの癖によってその把持する位置が異なり、そのユーザが右利きか左利きかによってもその把持する位置が異なる。そこで、図12Aに示すような特別領域1210-1から特別領域1210-6までに対して、1つの特別領域1210が選択される設定を、スマートフォン100の電源がオンされた後またはリセットされた後に受け付ける。 When the user grips smartphone 100 with one hand, the gripping position differs depending on the user's habits, and the gripping position also differs depending on whether the user is right-handed or left-handed. Therefore, one special area 1210 is selected from special areas 1210-1 to 1210-6 as shown in FIG. 12A after the smartphone 100 is powered on or reset. accept.

図12Aにおいて、例えば、特別領域1210-1、1210-3、1210-5は左手で把持された場合用であり、特別領域1210-2、1210-4、1210-6は右手で把持された場合用である。スマートフォン100を把持する手でタッチされる特別領域1210は、タッチパッド110の縁に接する領域であることが望ましい。 In FIG. 12A, for example, special regions 1210-1, 1210-3, 1210-5 are for left-handed grasping, and special regions 1210-2, 1210-4, 1210-6 are for right-handed grasping. is for The special area 1210 touched by the hand holding the smartphone 100 is preferably an area in contact with the edge of the touchpad 110 .

図12Bは、特別領域1210-3が選択される設定を受け付けた例である。視点による位置指定は、特別領域1210-3を除くタッチパッド110で有効とし、特別領域1210-3はタッチ専用とする。このため、特別領域1210-3にはアイコン1230は配置されない。 FIG. 12B is an example of receiving a setting that selects the special area 1210-3. Point-of-view position specification is enabled on the touchpad 110 except for the special area 1210-3, which is dedicated to touch. Therefore, no icon 1230 is placed in the special area 1210-3.

そして、既に説明したように、カメラ120とカメラ130の撮像画像に基づいてユーザの視点が特定され、カーソル210が表示される。視点位置であるカーソル210の位置は、アイコン1230-1からアイコン1230-8の上を移動可能である。 Then, as already described, the user's viewpoint is specified based on the images captured by the cameras 120 and 130, and the cursor 210 is displayed. The position of cursor 210, which is the position of the viewpoint, can be moved from icon 1230-1 to icon 1230-8.

カーソル210が、アイコン1230-6の上に位置したところで、片手1220の親指により特別領域1210-3のタッチされたことが検出されると、アイコン1230-6に対応するアプリケーションが起動されたり、アプリケーションに指示が送られたりする。 When the cursor 210 is positioned on the icon 1230-6 and it is detected that the special area 1210-3 has been touched by the thumb of one hand 1220, the application corresponding to the icon 1230-6 is started or the application instructions are sent to

なお、特別領域1210-3に「決定」や「タッチ」などを表す文字列または特別なアイコンが表示され、ユーザが特別領域であることを理解できるようにしても良い。 Note that a character string or a special icon representing "determine" or "touch" may be displayed in special area 1210-3 so that the user can understand that it is a special area.

以上で説明した視点または1本目の指による第1の操作と、ボタンや音声による第2の操作などの複数の操作を検出することにより、操作の妥当性を確認し、ユーザの意図に即した動作を実現する。妥当性を確認するための操作は、以上で説明した操作に限定されるものではない。 By detecting a plurality of operations such as the first operation with the viewpoint or the first finger and the second operation with a button or voice as described above, the validity of the operation is confirmed, and the user's intention is met. implement the action. The operation for confirming validity is not limited to the operations described above.

例えば、カメラを使用しての操作の検出として、視点によるアイコン選択状態が数秒間継続したら、実行または決定にあたり、「よろしければ右目のみを3秒間閉じてください」といったメッセージをユーザに投げかけ、そのとおりの動作が検出されれば、実行または決定の動作に移行するようにしても良い。 For example, to detect an operation using the camera, if the icon selection state by the viewpoint continues for several seconds, when executing or deciding, throw a message to the user such as "If you are okay, please close only your right eye for 3 seconds" and follow the instructions. If the action of is detected, the action of execution or determination may be performed.

また、ユーザがサングラスを装着しており、目以外の入力が必要な場合、例えば口唇の形で確認するため、「よろしければ、『お』を発音するときの口の形にしてください」といったメッセージをユーザに投げかけ、そのとおりの動作が検出されるか判定されても良い。 In addition, if the user is wearing sunglasses and requires input other than the eyes, for example, in order to check the shape of the lips, a message such as "If you like, please make the shape of your mouth when pronouncing "o"". may be presented to the user, and it may be determined whether the exact action is detected.

操作を検出するためのスマートフォン100或いはタブレット端末400のセンサとしては既に説明したとおりであるが、検出される操作は、入力条件として優先度を持たせても良い。例えば、
(1)視線、視点、或いは目の状況
(2)口唇の形
(3)音声
(4)スイッチ入力
(5)タッチパッドへのタッチ情報
に対して、予め優先度が設定され、任意に組み合わされても良い。
As has already been described as a sensor of the smartphone 100 or the tablet terminal 400 for detecting an operation, an operation to be detected may be prioritized as an input condition. for example,
(1) Line of sight, viewpoint, or eye condition (2) Lip shape (3) Voice (4) Switch input (5) Priorities are set in advance for touch information on the touch pad, and arbitrarily combined. can be

周辺環境に応じて優先度の高い入力条件または優先度の低い入力条件を、後で説明する入力条件管理部が選択する。例えば、周辺環境として暗い環境であると判定されると、カメラが使用される入力条件は選択されず、優先度の低いスイッチ入力とタッチパッドへのタッチ情報が選択されても良い。 An input condition management unit, which will be described later, selects an input condition with a high priority or an input condition with a low priority according to the surrounding environment. For example, when it is determined that the surrounding environment is dark, the input condition for using the camera may not be selected, and low priority switch input and touch information on the touch pad may be selected.

図13は携帯端末810の第1のハードウェア構成の例を示す図である。携帯端末810は既に説明したとおりスマートフォン100或いはタブレット端末400である。カメラ部1301は、カメラ120、130かカメラ420、430などに対応し、タッチパッド表示部1308とタッチパッドセンス部1316は、タッチパッド110かタッチパッド410などに対応する。 FIG. 13 is a diagram showing an example of a first hardware configuration of the mobile terminal 810. As shown in FIG. The mobile terminal 810 is the smart phone 100 or the tablet terminal 400 as already described. The camera unit 1301 corresponds to the cameras 120, 130 or the cameras 420, 430, etc., and the touch pad display unit 1308 and the touch pad sense unit 1316 correspond to the touch pad 110, the touch pad 410, or the like.

マイク部1313は、マイク150かマイク490に対応し、スイッチ入力部1315
は、サイドボタン140か決定ボタン440などに対応する。なお、スマートフォン100本来の電話機能などのハードウェアは、本実施例の説明とは関係ないので省略している。また、アプリケーションプログラムの起動について特に説明する。
A microphone unit 1313 corresponds to the microphone 150 or the microphone 490, and a switch input unit 1315
corresponds to the side button 140, enter button 440, or the like. Hardware such as the original telephone function of the smartphone 100 is omitted because it is irrelevant to the description of this embodiment. Also, the activation of the application program will be particularly described.

カメラ部1301は、2つ以上のカメラの撮像により得た画像情報を顔認識部1302へ出力する。顔認識部1302は、顔認識して、顔部分の特徴を抽出する。また、顔認識部1302は、顔までの距離を算出し、顔を正面に認識できない場合や目を認識できない場合、ユーザへメッセージを出すための動作をしても良い。 Camera section 1301 outputs image information obtained by imaging with two or more cameras to face recognition section 1302 . A face recognition unit 1302 recognizes the face and extracts features of the face. Further, the face recognition unit 1302 may calculate the distance to the face, and perform an operation to issue a message to the user if the face cannot be recognized from the front or the eyes cannot be recognized.

視点検出部1303は、目の部分の情報と顔までの距離を顔認識部1302から入力し、視点の位置を算出する。ここで、視点がタッチパッド表示部1308に向けられているかを判定しても良い。そして、視点は絶えず細かな動きを生じる性質があるため、ローパスフィルタ部1304は、細動情報をカットし、視点の情報を視点情報管理部1305へ出力する。 A viewpoint detection unit 1303 receives the information on the eye part and the distance to the face from the face recognition unit 1302, and calculates the position of the viewpoint. Here, it may be determined whether the viewpoint is directed to the touch pad display unit 1308 . Since the viewpoint has the property of constantly causing fine movements, the low-pass filter unit 1304 cuts the fibrillation information and outputs the viewpoint information to the viewpoint information management unit 1305 .

視点情報管理部1305は、タッチパッド表示部1308の画面上のどこに視点があるかを、カーソル表示1307へ出力し、タッチパッド表示部1308を介してユーザにカーソルを表示する。なお、既に説明したようにカーソルの代わりにアイコンのハイライト表示などであっても良い。 The viewpoint information management unit 1305 outputs where the viewpoint is on the screen of the touchpad display unit 1308 to the cursor display unit 1307 and displays the cursor to the user via the touchpad display unit 1308 . Note that, as already explained, an icon may be highlighted instead of the cursor.

一方、視点情報と組みあわされる少なくとも1つ以上の入力としては、マイク部1313から入力され、音声認識部1314を経て解読される音声入力、サイドボタンなどのスイッチ入力部1315からのスイッチ入力、或いはタッチパッドセンス部1316から入力される手指のタッチ入力などがある。 On the other hand, at least one or more inputs to be combined with viewpoint information include voice input input from the microphone unit 1313 and decoded through the voice recognition unit 1314, switch input from the switch input unit 1315 such as a side button, or For example, there is finger touch input from the touch pad sensing unit 1316 .

これらの入力と、視点情報管理部1305からの視点入力とがそろうことで、入力条件管理部1309は、アプリケーションプログラム実行部1310へ、入力により特定されるアプリケーションプログラムを起動させる。入力条件管理部1309は、既に説明したとおり、複数の入力が、予め定められた条件を満たすと判定すると、アプリケーションプログラム実行部1310へ指示を出力する。 When these inputs match the viewpoint input from the viewpoint information management unit 1305, the input condition management unit 1309 causes the application program execution unit 1310 to start the application program specified by the input. As already explained, the input condition management unit 1309 outputs an instruction to the application program execution unit 1310 when it determines that a plurality of inputs satisfy a predetermined condition.

入力条件管理部1309は、アイコンの表示位置と、アイコンに対応するアプリケーションプログラムの識別情報との対応情報を有し、視点情報管理部1305からの視点入力に応じた識別情報をアプリケーションプログラム実行部1310へ出力しても良い。 The input condition management unit 1309 has correspondence information between the display position of the icon and the identification information of the application program corresponding to the icon. You can output to

あるいは、アプリケーションプログラム実行部1310が、アイコンの表示位置と、アイコンに対応するアプリケーションプログラムの識別情報との対応情報を有し、入力条件管理部1309は、予め定められた条件を満たすと判定すると、視点情報管理部1305からの視点の入力を、アプリケーションプログラム実行部1310へ転送しても良い。 Alternatively, when the application program execution unit 1310 has correspondence information between the display position of the icon and the identification information of the application program corresponding to the icon, and the input condition management unit 1309 determines that the predetermined condition is satisfied, The viewpoint input from the viewpoint information management unit 1305 may be transferred to the application program execution unit 1310 .

入力条件管理部1309は、タッチパッド110かタッチパッド410などの領域と、アプリケーションプログラムへの指示との対応情報を有し、タッチパッドセンス部1316からのタッチ位置の入力に応じた指示をアプリケーションプログラム実行部1310へ出力しても良い。 Input condition management unit 1309 has correspondence information between areas such as touch pad 110 or touch pad 410 and instructions to application programs, and provides instructions to application programs according to touch position input from touch pad sense unit 1316 . You may output to the execution part 1310. FIG.

入力条件管理部1309は、タッチパッド110かタッチパッド410などの領域として、特別領域1210の情報を複数有し、選択された特別領域1210-3の情報を有しても良く、アイコン1160の決定ボタンの領域を有しても良い。 The input condition management unit 1309 has a plurality of information on the special area 1210 as the area of the touch pad 110 or the touch pad 410, and may have information on the selected special area 1210-3. It may have an area for buttons.

以上の説明では、入力条件管理部1309を独立した制御部として表したが、アプリケ
ーションプログラム実行部1310の一部であっても良い。最終的にアプリケーションプログラム実行部1310によって、スピーカー部1311がユーザに音声で情報を伝達するか、或いは通信制御部1312に指令を送り通信させても良い。
Although the input condition management unit 1309 is described as an independent control unit in the above description, it may be a part of the application program execution unit 1310 . Finally, the application program execution unit 1310 may cause the speaker unit 1311 to transmit information to the user by voice, or may send a command to the communication control unit 1312 for communication.

なお、図7を用いて既に説明したように、カメラで撮像した目の情報と視点とには個人差があることから、キャリブレーション管理部1306は、カメラで撮像した目の情報と視点との関係を管理して、視点情報管理部1305へ出力し、視点情報管理部1305は、その関係に基づいて視点を特定する。 As already described with reference to FIG. 7, eye information captured by a camera and viewpoints differ from person to person. The relationship is managed and output to the viewpoint information management unit 1305, and the viewpoint information management unit 1305 identifies the viewpoint based on the relationship.

カメラ部1301から視点情報管理部1305までは、顔の代わりに指を認識し、指の位置と種類を特定しても良い。入力条件管理部1309は、視点情報管理部1305からの指の位置と種類の情報を入力としても良く、タッチパッドセンス部1316からの入力を視点情報管理部1305へ転送し、視点情報管理部1305にタッチ位置へカーソルを表示させても良い。 From the camera unit 1301 to the viewpoint information management unit 1305, fingers may be recognized instead of faces, and the positions and types of fingers may be specified. The input condition management unit 1309 may receive the finger position and type information from the viewpoint information management unit 1305 as an input, and transfer the input from the touch pad sense unit 1316 to the viewpoint information management unit 1305 . , the cursor may be displayed at the touch position.

図14は携帯端末810の第2のハードウェア構成の例を示す図である。図13を用いて説明したハードウェアの各部はソフトウェアで実現してもよい。図14に示したハードウェア構成の例は、そのソフトウェアでの実現のためのハードウェア構成の例である。なお、図14に示した携帯端末810のハードウェア構成は、一般的なスマートフォンやタブレット端末のハードウェア構成であっても良い。 FIG. 14 is a diagram showing an example of a second hardware configuration of the mobile terminal 810. As shown in FIG. Each part of the hardware described using FIG. 13 may be realized by software. The example of the hardware configuration shown in FIG. 14 is an example of the hardware configuration for its realization by software. Note that the hardware configuration of the mobile terminal 810 shown in FIG. 14 may be the hardware configuration of a general smart phone or tablet terminal.

プロセッサ1401はメモリ1402に格納されたプログラムを実行し、図14に示した各部とデータをやり取りして、データを処理する。メモリ1402は例えばRAM(Random Access Memory)であり、プログラムとデータが格納される。 A processor 1401 executes a program stored in a memory 1402, exchanges data with each unit shown in FIG. 14, and processes the data. A memory 1402 is, for example, a RAM (Random Access Memory), and stores programs and data.

ストレージ1403は例えばフラッシュメモリであり、プログラムとデータが格納される。メモリ1402とストレージ1403との間で、プログラムとデータが転送されても良い。通信部1404は接続コード930による有線接続、或いは無線電話回線や無線LAN(Local Area Network)で通信する。 A storage 1403 is, for example, a flash memory, and stores programs and data. Programs and data may be transferred between memory 1402 and storage 1403 . The communication unit 1404 communicates via a wired connection using the connection cord 930, a wireless telephone line, or a wireless LAN (Local Area Network).

メモリ1402に格納されたアプリケーションプログラムを実行するプロセッサ1401の制御により、通信部1404は送受信する。また、メモリ1402あるいはストレージ1403に格納されるプログラムとデータは、通信部1404により受信されても良い。 The communication unit 1404 transmits and receives under the control of the processor 1401 that executes the application program stored in the memory 1402 . Also, the programs and data stored in memory 1402 or storage 1403 may be received by communication unit 1404 .

入力部1405は、マイク1407などからの入力信号をデータとしてメモリ1402或いはストレージ1403へ格納する。マイク1407は、図1に示したマイク150或いは図4に示したマイク490であり、音声信号を入力する。カメラ1408とカメラ1409のそれぞれは、図1に示したカメラ120とカメラ130或いは図4に示したカメラ420とカメラ430であり、撮像した映像信号を入力する。 The input unit 1405 stores an input signal from the microphone 1407 or the like as data in the memory 1402 or the storage 1403 . A microphone 1407 is the microphone 150 shown in FIG. 1 or the microphone 490 shown in FIG. 4, and inputs an audio signal. Cameras 1408 and 1409 are the cameras 120 and 130 shown in FIG. 1 or the cameras 420 and 430 shown in FIG. 4, respectively, and receive captured video signals.

出力部1406は、メモリ1402或いはストレージ1403に格納されたデータを信号に変換し、スピーカー1411などへ出力する。タッチパッド1410は、図1に示したタッチパッド110或いは図4に示したタッチパッド410などであり、タッチを検出すると、そのタッチの情報を入力部1405へ出力し、出力部から入力した映像信号にしたがって画面を表示する。 The output unit 1406 converts data stored in the memory 1402 or storage 1403 into a signal and outputs the signal to the speaker 1411 or the like. The touch pad 1410 is, for example, the touch pad 110 shown in FIG. 1 or the touch pad 410 shown in FIG. to display the screen.

図15は、図14に示した携帯端末810の処理の例を示す図であり、メモリ1402に格納されてプロセッサ1401が実行するプログラムのフローチャートの例である。携帯端末810の電源がオンされる、或いはスリープから解除されると、プロセッサ140
1は処理を開始する。
FIG. 15 is a diagram showing an example of processing of the mobile terminal 810 shown in FIG. 14, and is an example of a flowchart of a program stored in the memory 1402 and executed by the processor 1401. FIG. When the mobile terminal 810 is powered on or wakes from sleep, the processor 140
1 starts processing.

まず、プロセッサ1401はキャリブレーションが未済であるかを判定する(ステップ1501)。この判定には、例えば、ストレージ1403にキャリブレーションが未済であるか否かのフラグが格納され、そのフラグをプロセッサ1401が読み出して判定しても良い。携帯端末810が製造されたとき、及びリセットされたときには、フラグが未済に設定される。 First, processor 1401 determines whether calibration has not been completed (step 1501). For this determination, for example, a flag indicating whether or not calibration has not been completed may be stored in the storage 1403, and the processor 1401 may read the flag for determination. The flag is set to pending when the mobile terminal 810 is manufactured and reset.

プロセッサ1401は、ステップ1501において未済である判定した場合、キャリブレーションを実行し(ステップ1502)、未済でないと判定した場合、ステップ1502をスキップする。ステップ1502におけるキャリブレーションの処理内容は、図7と図8を用いて説明したとおりであり、携帯端末810のカメラ1408、1409が有効にされてユーザが撮像される。更にフラグが済に設定される。 If the processor 1401 determines that it has not been completed in step 1501 , it executes calibration (step 1502 ), and if it determines that it has not been completed yet, it skips step 1502 . The details of the calibration processing in step 1502 are as described with reference to FIGS. 7 and 8, and the cameras 1408 and 1409 of the mobile terminal 810 are enabled to capture an image of the user. Additionally, the flag is set to done.

プロセッサ1401は、待ち受け画面などとも呼ばれるホーム画面を表示する(ステップ1503)。ホーム画面は、図2に示したように、複数のアプリケーションプログラムそれぞれに対応したアイコンを含み、アイコンが操作されることにより、アプリケーションプログラムが起動される。この時点で、携帯端末810のカメラ部1301或いはカメラ1408、1409が有効にされていない場合は、有効にされる。 Processor 1401 displays a home screen, also called a standby screen (step 1503). As shown in FIG. 2, the home screen includes icons corresponding to a plurality of application programs, and the application programs are activated by operating the icons. At this point, if the camera unit 1301 or cameras 1408 and 1409 of the mobile terminal 810 are not enabled, they are enabled.

プロセッサ1401は、カメラ1408、1409を制御して撮像し、顔認識する(ステップ1504)。この顔認識では、カメラ1408、1409に向いた顔を認識するための処理を実行し、顔を認識した場合は、目の輪郭における黒目や虹彩の位置を認識する。 Processor 1401 controls cameras 1408 and 1409 to capture images and recognize faces (step 1504). In this face recognition, processing for recognizing a face facing the cameras 1408 and 1409 is executed, and when the face is recognized, the position of the black eye and iris in the outline of the eye is recognized.

ステップ1504の顔を認識するための処理を実行した結果として、顔を正面に認識できた場合、顔が携帯端末810に向いているとみなして、プロセッサ1401はステップ1506へ進み、顔を認識できない場合または顔が横を向いていると認識できた場合、顔が携帯端末810に向いていないとみなして、プロセッサ1401は、ステップ1512へ進む。 As a result of executing the processing for recognizing the face in step 1504, if the face can be recognized from the front, it is assumed that the face is facing the mobile terminal 810, and the processor 1401 proceeds to step 1506, and the face cannot be recognized. If so, or if it can be recognized that the face is facing sideways, it is assumed that the face is not facing the mobile terminal 810 and the processor 1401 proceeds to step 1512 .

ステップ1512でプロセッサ1401は、ユーザの注意を促すメッセージ或いはユーザに顔を向けさせるメッセージを出力する。このメッセージはスピーカー1411から出力されても良い。 At step 1512, processor 1401 outputs a message that calls for the user's attention or causes the user to turn his head. This message may be output from speaker 1411 .

ステップ1506でプロセッサ1401は、ステップ1504で認識された目の輪郭における黒目や虹彩の位置と、ステップ1502のキャリブレーションで記録された目の輪郭における黒目や虹彩の位置との関係から視点を算出する。カメラ1408とカメラ1409との視差から顔までの距離を算出し、視点の算出に利用しても良い。 At step 1506, the processor 1401 calculates the viewpoint from the relationship between the positions of the black eye and iris on the eye contour recognized at step 1504 and the positions of the black eye and iris on the eye contour recorded in the calibration at step 1502. . The distance to the face may be calculated from the parallax between the cameras 1408 and 1409 and used to calculate the viewpoint.

プロセッサ1401は、算出された視点の細かな変動により誤検出しないように、ローパスフィルタを適用する(ステップ1507)。例えば、予め設定された時間間隔で撮像された画像から視点が算出され、予め設定された個数の視点が算出されると、それらの視点の位置が平均化されても良い。 The processor 1401 applies a low-pass filter to prevent erroneous detection due to the calculated minute changes in viewpoint (step 1507). For example, viewpoints may be calculated from images captured at preset time intervals, and when a preset number of viewpoints are calculated, the positions of those viewpoints may be averaged.

プロセッサ1401は、ローパスフィルタの適用された視点に対応する位置へカーソルを表示する(ステップ1508)。視点に対応する位置が、ステップ1503で表示されたホーム画面のアイコンの位置と一致する場合、位置が一致したアイコンは、ハイライト表示されても良い。 The processor 1401 displays a cursor at the position corresponding to the low-pass filtered viewpoint (step 1508). If the position corresponding to the viewpoint matches the position of the icon on the home screen displayed in step 1503, the icon with the matching position may be highlighted.

プロセッサ1401は、視点により指定されたアイコンを選択する入力があるかを判定する(ステップ1509)。この選択の入力は、例えば図1ではサイドボタン140による入力である。入力が無いと判定されると、視点により指定されたアイコンは、ユーザが単に見ただけの可能性もあるため、プロセッサ1401はステップ1504へ戻る。 Processor 1401 determines whether there is an input to select the icon specified by the viewpoint (step 1509). This selection input is, for example, input by the side button 140 in FIG. If it is determined that there is no input, the processor 1401 returns to step 1504 since the icon specified by the viewpoint may have just been seen by the user.

選択の入力が有ると判定されると、プロセッサ1401は、その選択の入力が入力条件を満たすかを判定する(ステップ1510)。この入力条件は、優先度のある入力条件として既に説明したとおりであり、予め設定される。例えばサイドボタン140による入力であっても、入力条件を満たさないと判定されると、プロセッサ1401はステップ1512へ進む。 If it is determined that there is a selection input, processor 1401 determines whether the selection input satisfies the input conditions (step 1510). This input condition is as already described as an input condition with priority, and is set in advance. For example, if it is determined that the input condition is not satisfied even if the input is by the side button 140 , the processor 1401 proceeds to step 1512 .

ステップ1512でプロセッサ1401は、入力条件を満たしていない旨のメッセージ或いは入力が妥当でない旨のメッセージを出力する。このメッセージはスピーカー1411から出力されても良い。なお、ステップ1512は、ステップ1505の判定結果で実行しているか、ステップ1510の判定結果で実行しているかを判定しても良い。 At step 1512, the processor 1401 outputs a message that the input condition is not satisfied or that the input is invalid. This message may be output from speaker 1411 . It should be noted that step 1512 may be executed based on the determination result of step 1505 or based on the determination result of step 1510 .

ステップ1510で入力条件を満たすと判定されると、プロセッサ1401は、視点により指定されたアイコンに対応するアプリケーションプログラムを実行する(ステップ1511)。アプリケーションプログラムの実行結果としてのメッセージが、スピーカー1411から出力されても良いし、実行によるエラーのメッセージがスピーカー1411から出力されても良い。 If it is determined in step 1510 that the input condition is satisfied, processor 1401 executes the application program corresponding to the icon designated by the viewpoint (step 1511). A message as an execution result of the application program may be output from the speaker 1411 , or an execution error message may be output from the speaker 1411 .

プロセッサ1401は、ステップ1511でアプリケーションプログラムが実行された後、またはステップ1512でメッセージが出力された後、未操作が、予め設定された時間経過したかを判定する。予め設定された時間経過したと判定すると、プロセッサ1401は、携帯端末810を例えばスリープ状態に移行させ、フローチャートの処理を終了する。 After the application program is executed in step 1511 or the message is output in step 1512, the processor 1401 determines whether a preset time has elapsed without any operation. When determining that the preset time has passed, the processor 1401 puts the mobile terminal 810 into a sleep state, for example, and ends the processing of the flowchart.

予め設定された時間が経過する前に操作されたと判定すると、プロセッサ1401はステップ1504へ戻る。なお、ステップ1513の未操作の判定は、独立した判定に限定されるものではなく、ステップ1506或いはステップ1509と連携しても良い。 The processor 1401 returns to step 1504 when determining that the operation has been performed before the preset time elapses. It should be noted that determination of non-operation in step 1513 is not limited to independent determination, and may be performed in cooperation with step 1506 or step 1509 .

なお、図15を用いた以上の説明では、視点を使用する例を説明したが、既に説明したように他の入力条件であっても良く、図13を用いて説明した各部の動作をプログラムで実現しても良い。 In the above explanation using FIG. 15, an example using a viewpoint has been explained. It can be realized.

以上で説明したように、携帯端末は、ユーザの操作による入力に対して、複数の入力条件を判定して動作するため、ユーザの誤操作により誤って動作する可能性を低減できる。 As described above, the mobile terminal operates by judging a plurality of input conditions in response to input by user's operation. Therefore, it is possible to reduce the possibility of erroneous operation due to user's erroneous operation.

スマートフォンやタブレット端末などの携帯端末に適用でき、ユーザに操作されるコンピュータにも適用できる。 It can be applied to portable terminals such as smart phones and tablet terminals, and it can also be applied to computers operated by users.

100 スマートフォン
110 タッチパッド
120 カメラ
130 カメラ
140 サイドボタン
150 マイク
100 smartphone 110 touch pad 120 camera 130 camera 140 side button 150 microphone

Claims (1)

携帯端末において、
アイコンを表示し、タッチを検出するタッチパネルと、
前記タッチパネルは、アプリケーションを起動するアイコンを表示する第1の領域と、前記第1の領域と異なる第2の領域とを表示し、前記第1の領域と前記第2の領域は、前記タッチパネルの所定の位置に表示されるものであり、
前記タッチパネルの周囲を撮像するカメラと、
プロセッサと、を有し、
前記プロセッサは、
前記カメラにより撮影された目の視点を検出し、
検出された視点の前記第1の領域上の位置を出力し、
前記第1の領域上にカーソルを表示するよう制御し、
前記第2の領域へのタッチによる入力と、前記第1の領域上の視点の位置の入力の両方について、予め設定された入力条件を満たすか否かを判定し、
前記判定により、予め設定された入力条件が満たされた場合に、前記アイコンに対応するアプリケーションプログラムを起動させる
ことを特徴とする携帯端末。
On your mobile device,
a touch panel that displays icons and detects touches;
The touch panel displays a first area that displays an icon for starting an application, and a second area that is different from the first area, and the first area and the second area are the touch panel. It is displayed at a predetermined position,
a camera that captures an image of the surroundings of the touch panel;
a processor;
The processor
detecting the viewpoint of the eye captured by the camera;
outputting the position of the detected viewpoint on the first region;
controlling to display a cursor over the first area;
determining whether or not a preset input condition is satisfied for both an input by touching the second area and an input of the viewpoint position on the first area;
A portable terminal characterized by activating an application program corresponding to the icon when a preset input condition is satisfied by the determination.
JP2022179830A 2021-02-03 2022-11-09 Mobile device Active JP7416894B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022179830A JP7416894B2 (en) 2021-02-03 2022-11-09 Mobile device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021015515A JP7176020B2 (en) 2021-02-03 2021-02-03 Mobile device control method
JP2022179830A JP7416894B2 (en) 2021-02-03 2022-11-09 Mobile device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021015515A Division JP7176020B2 (en) 2021-02-03 2021-02-03 Mobile device control method

Publications (2)

Publication Number Publication Date
JP2023001310A true JP2023001310A (en) 2023-01-04
JP7416894B2 JP7416894B2 (en) 2024-01-17

Family

ID=75637381

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021015515A Active JP7176020B2 (en) 2021-02-03 2021-02-03 Mobile device control method
JP2022179830A Active JP7416894B2 (en) 2021-02-03 2022-11-09 Mobile device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021015515A Active JP7176020B2 (en) 2021-02-03 2021-02-03 Mobile device control method

Country Status (1)

Country Link
JP (2) JP7176020B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7176020B2 (en) * 2021-02-03 2022-11-21 マクセル株式会社 Mobile device control method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015060279A1 (en) * 2013-10-25 2015-04-30 株式会社村田製作所 Display device for portable terminal
JP2015122064A (en) * 2013-12-20 2015-07-02 レノボ・シンガポール・プライベート・リミテッド Providing last known browsing location cue using movement-oriented biometric data
US20150261295A1 (en) * 2014-03-17 2015-09-17 Samsung Electronics Co., Ltd. Method for processing input and electronic device thereof
JP2016523420A (en) * 2013-06-27 2016-08-08 アイサイト モバイル テクノロジーズ リミテッド System and method for direct pointing detection for interaction with digital devices
WO2017022031A1 (en) * 2015-07-31 2017-02-09 日立マクセル株式会社 Information terminal device
JP2021068482A (en) * 2021-02-03 2021-04-30 マクセル株式会社 Method for controlling portable terminal

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5942586B2 (en) 2012-05-18 2016-06-29 富士通株式会社 Tablet terminal and operation reception program
JP2015191241A (en) 2014-03-27 2015-11-02 京セラドキュメントソリューションズ株式会社 Electronic apparatus and operation support program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016523420A (en) * 2013-06-27 2016-08-08 アイサイト モバイル テクノロジーズ リミテッド System and method for direct pointing detection for interaction with digital devices
WO2015060279A1 (en) * 2013-10-25 2015-04-30 株式会社村田製作所 Display device for portable terminal
JP2015122064A (en) * 2013-12-20 2015-07-02 レノボ・シンガポール・プライベート・リミテッド Providing last known browsing location cue using movement-oriented biometric data
US20150261295A1 (en) * 2014-03-17 2015-09-17 Samsung Electronics Co., Ltd. Method for processing input and electronic device thereof
WO2017022031A1 (en) * 2015-07-31 2017-02-09 日立マクセル株式会社 Information terminal device
JP2021068482A (en) * 2021-02-03 2021-04-30 マクセル株式会社 Method for controlling portable terminal

Also Published As

Publication number Publication date
JP7416894B2 (en) 2024-01-17
JP2021068482A (en) 2021-04-30
JP7176020B2 (en) 2022-11-21

Similar Documents

Publication Publication Date Title
KR101876655B1 (en) Screen control method and device
US8988519B2 (en) Automatic magnification of data on display screen based on eye characteristics of user
KR20130081117A (en) Mobile terminal and control method therof
KR20160133414A (en) Information processing device, control method, and program
EP3754422A1 (en) Electronic apparatus, method and storage medium for controlling the position of a frame based on eye tracking and manual inputs
JP6833997B2 (en) Mobile terminal
CN113301247B (en) Image pickup apparatus, control method thereof, and storage medium
KR20180004112A (en) Eyeglass type terminal and control method thereof
JP7416894B2 (en) Mobile device
CN111708479B (en) Touch operation response method and device, terminal and storage medium
US11429200B2 (en) Glasses-type terminal
KR102187843B1 (en) Method for changing screen in a user device terminal having pen
KR20210100020A (en) Voice input apparatus, control method thereof, and storage medium for executing processing corresponding to voice instruction
JP2020047062A (en) Electronic device and control method
JP2021073611A (en) Mobile terminal
JP7031112B1 (en) Glasses type terminal
US20230328354A1 (en) Electronic device, control method therefor, program, and storage medium
JP7080448B1 (en) Terminal device
WO2024020899A1 (en) Grip gesture recognition method and apparatus, device, storage medium, and chip
JP2023160103A (en) Electronic apparatus
JP2015226210A (en) Portable terminal, camera control program and camera control method
KR20160027813A (en) Glass type terminal
CN116893734A (en) Selecting User Interface (UI) elements based on target positioning criteria based on eye tracking
JP2014238750A (en) Input device, program therefor, and image display system
CN115136109A (en) Gesture detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240104

R150 Certificate of patent or registration of utility model

Ref document number: 7416894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150