JPWO2019003387A1 - 携帯端末 - Google Patents

携帯端末 Download PDF

Info

Publication number
JPWO2019003387A1
JPWO2019003387A1 JP2019526068A JP2019526068A JPWO2019003387A1 JP WO2019003387 A1 JPWO2019003387 A1 JP WO2019003387A1 JP 2019526068 A JP2019526068 A JP 2019526068A JP 2019526068 A JP2019526068 A JP 2019526068A JP WO2019003387 A1 JPWO2019003387 A1 JP WO2019003387A1
Authority
JP
Japan
Prior art keywords
input
management unit
unit
viewpoint
touchpad
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019526068A
Other languages
English (en)
Other versions
JP6833997B2 (ja
Inventor
吉澤 和彦
和彦 吉澤
橋本 康宣
康宣 橋本
清水 宏
宏 清水
岡本 周幸
周幸 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Publication of JPWO2019003387A1 publication Critical patent/JPWO2019003387A1/ja
Application granted granted Critical
Publication of JP6833997B2 publication Critical patent/JP6833997B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Abstract

携帯端末において、アイコンを表示し、タッチを検出するタッチバッドと、前記タッチパッドの表示の光が進行する方向を撮像するカメラと、前記カメラが撮像した顔の目が向けられた視点を検出する検出部と、前記検出部で検出した視点の、前記タッチパッド上の位置を出力する情報管理部と、前記情報管理部から出力された前記タッチパッド上の視点の位置に従って前記タッチパッドにカーソルを表示するよう制御するカーソル表示部と、前記タッチパッドの予め設定された特別領域へのタッチによる入力と、前記情報管理部から出力された前記タッチパッド上の視点の位置の入力とに対して、予め設定された入力条件を満たすか判定する入力条件管理部と、前記入力条件管理部の判定に応じて、アイコンに対応するアプリケーションプログラムを起動するアプリケーションプログラム実行部と、を備える。

Description

本発明は、携帯端末に関するものである。
近年のスマートフォンに代表される通信と情報処理技術、カメラ撮像技術と半導体技術の進歩は目覚しく、こうした環境の整備・拡大に伴って、従来の携帯電話での操作よりも円滑に操作するための技術が開発されている。
例えば音声認識機能をスマートフォンに搭載し、音声でスマートフォンを操作するなどの高度なマンマシーンインターフェイスシステムも導入されてきている。また、アイコンによる直観的な操作を可能にするタッチパッドは、スマートフォンで一般的に搭載されている。タッチパッドによる操作が一般的である理由は、その安定した動作と廉価な部品により製造が可能であるところもある。
しかし、これらは操作性に優れているとしても、音声では周囲の雑音や他の人の音声の影響を受ける可能性があり、タッチパッドでは手が滑って近くの別のアイコンを操作してしまう可能性もある。
誤操作の防止に関する技術として、例えば特許文献1には、ユーザの視線検出により、操作に有効な視線範囲にあるか否かを検出する視線有効範囲を設け、キーが操作された場合に、ユーザ視線が有効範囲にない場合に操作を無効とし、誤操作を防止する技術が記載されている。
特開2015―28734号公報
特許文献1に記載された技術を用いれば、キーの誤操作を防止できる。しかしながら、このような技術は、スマートフォンの操作性を損なう可能性があり、スマートフォンへの適用は難しい。
本発明の目的は、スマートフォンなどの携帯端末で、操作性を損なうことなく、誤操作を防止する技術を提供することにある。
本発明に係る代表的な携帯端末は、アイコンを表示し、タッチを検出するタッチバッドと、前記タッチパッドの表示の光が進行する方向を撮像するカメラと、前記カメラが撮像した顔の目が向けられた視点を検出する検出部と、前記検出部で検出した視点の、前記タッチパッド上の位置を出力する情報管理部と、前記情報管理部から出力された前記タッチパッド上の視点の位置に従って前記タッチパッドにカーソルを表示するよう制御するカーソル表示部と、前記タッチパッドの予め設定された特別領域へのタッチによる入力と、前記情報管理部から出力された前記タッチパッド上の視点の位置の入力とに対して、予め設定された入力条件を満たすか判定する入力条件管理部と、前記入力条件管理部の判定に応じて、アイコンに対応するアプリケーションプログラムを起動するアプリケーションプログラム実行部と、を備えたことを特徴とする。
本発明によれば、スマートフォンなどの携帯端末で、操作性を損なうことなく、誤操作を防止する技術を提供することができる。
スマートフォンとその操作の例を示す図である。 スマートフォンにアイコンを表示した例を示す図である。 スマートフォンにテキストを表示した例を示す図である。 タブレット端末の表示の例を示す図である。 タブレット端末に地図を表示した例を示す図である。 タブレット端末に地図を拡大表示した例を示す図である。 タブレット端末に地図の詳細情報を表示した例を示す図である。 タブレット端末に地図を表示した例を示す図である。 タブレット端末に地図の詳細情報を表示した例を示す図である。 キャリブレーションの例を示す図である。 2つのカメラによる距離測定の例を示す図である。 めがね型装置と携帯端末の例を示す図である。 カメラを使用しない操作の例を示す図である。 複数の指のタッチを検出するタブレット端末の例を示す図である。 タブレット端末の画面の例を示す図である。 タッチパッドに特別な領域を含むスマートフォンの例を示す図である。 スマートフォンの特別な領域の操作の例を示す図である。 携帯端末のハードウェア構成の例を示す図である。 携帯端末のハードウェア構成の例を示す図である。 携帯端末の処理の例を示す図である。
以下、本発明の実施形態の例を、図面を用いて説明する。
図1は、スマートフォン100とその操作の例を示す図である。図1の例では、スマートフォン100を操作するユーザ160が、電車またはバスなどの交通機関において、つり革170につかまって、片手をふさがれた状況であり、片手163でスマートフォン100を保持している。
ユーザ160は、スマートフォン100を操作するために、顔をスマートフォン100に向けて、目161によりスマートフォン100を見ている。スマートフォン100は、タッチパッド(表示画面)110、カメラ120、カメラ130、サイドボタン140、及びマイク150が設けられており、ユーザ160はタッチパッド110を見ることになる。
カメラ120とカメラ130は、ユーザ160の顔を撮像するものであり、特にユーザ160の目161を撮像する。そして、2個のカメラでの撮像により顔とタッチパッド110との距離を算出し、目161の白目と瞳の位置関係から視線を特定して、タッチパッド110での視点を得るが、これらについては後で更に説明する。
図1に示したスマートフォン100の例では、カメラを2個設けたが、顔とタッチパッド110との距離を他のセンサにより検出できるのであれば、1個であっても良い。例えば、タッチパッド110と同一面のカメラ120の代わりにカメラ120の位置に赤外線または超音波の距離センサを設けて、ユーザ160の顔との距離を測定しても良い。
また、ユーザ160がサングラスを着用しているなど目161の白目と瞳の位置関係を識別しにくく視点を特定しにくい場合は、その代わりに他の入力が利用されてもよい。ただし、ユーザ160の顔そのものがタッチパッド110へ向いているかを判定するために、顔の輪郭、例えば髪の毛と耳で構成される輪郭162が識別されても良い。
図2は、スマートフォン100にアイコン220を表示した例を示す図である。図2の例は、ホーム画面或いは待ち受け画面と呼ばれる表示であり、タッチパッド110にアイコン220が表示されている。なお、アイコン220−1からアイコン220−9までを、いずれのアイコンであるかを特定せずに表す場合、アイコン220と表現し、以下では他の符号も同じ表現とする。
アイコン220−1からアイコン220−9までのそれぞれは、アプリケーションプログラムに対応して予め設定されたアイコンであり、それらの中で選択されたアイコン220に対応するアプリケーションプログラムが実行される。カーソル210は、ユーザ160の視点の位置に表示される。即ち視点をユーザにフィードバックするカーソル位置を示す。
先ずユーザ160の視線は、漠然とタッチパッド110上の一点を捉える。スマートフォン100に着信があり、現在受話状態に移行できない旨を自動的に応答するアプリケーションプログラムの起動アイコンがアイコン220−8であった場合、ユーザ160はカーソル210をアイコン220−8上に合致させるべく視線を移動させる。
そして、スマートフォン100は、アイコン220−8上に視点があることを特定し、サイドボタン140のスイッチオン動作、いわゆる「決定」動作を検出すると、アイコン220−8に対応するアプリケーションプログラムを起動する。これにより、片手操作でのアプリケーション選択及び起動が可能となる。
図1では、つり革170につかまるというユーザ160の行為を例にとったが、荷物を持っている場合、資料を手に持っている場合、或いは子供と手をつないで歩いている場合、片手を怪我している場合など、片手のみによる操作が求められる場面は多く存在し、これらの場合に、以上で説明した操作は有効である。
なお、スマートフォン100は、視点がアイコン220−8上へ移動したことを特定すると、アイコン220−8上へカーソル210を移動するだけではなく、アイコン220−8の表示の色を変更したり、表示のサイズを変更したり、表示の形状を変更したりして、ハイライト表示しても良い。これにより、更に確実にアイコン220−8が選択されていることを、ユーザ160は確認できる。
また、スマートフォン100は、カーソル210を表示せず、視点がいずれかのアイコン220上へ移動したことを特定すると、そのアイコン220の表示の色を変更したり、表示のサイズを変更したり、表示の形状を変更したりしても良い。
また、図2の例では、カーソル210の形状を矢印としたが、視線の狙っている部分を示すという意味を強調するために、丸と十字を組み合わせたターゲットマークなどであっても良い。
以上の説明では、待ち受け画面におけるアプリケーションプログラムの起動の例を説明したが、アプリケーションプログラム実行中の操作についても、以上で説明した操作の処理は利用可能である。例えば、図2に示したアイコン220は電話番号を入力する数字キーであり、電話関係のアプリケーションプログラムを実行中にアイコン220の選択により数字が入力されても良い。
また、例えば留守電機能の利用では、合成音声のメッセージにしたがって数字の入力が求められる場合がある。即ち、タッチパッドから数字が入力可能になる状態と、スマートフォンから発せられる合成音声のメッセージを聞く状態とが重なる場合がある。
これに対して、スマートフォン100はカメラ120、130によりユーザ160の視点により数字キーであるアイコン220が選択されるので、メッセージを聞くために耳がタッチパッド110に接触しても、数字キーであるアイコン220は選択されず、意図しないタッチパッド入力が受け付けられるようなことはない。
また、待ち受け画面またはアプリケーションプログラムを実行中において、スマートフォン100を懐にしまう動作の途中で、タッチパッド110への無意識の接触による意図しない入力が受け付けられることはない。なぜならば、視点によるアイコン220の選択がなく、更にサイドボタン140のスイッチオン動作もなく、ユーザの決定(実行)の意図条件が満たされていないためである。
以上で説明したように、アプリケーションプログラム或いは数字キーの決定という1つの指示を2種類の操作の組み合わせで入力することにより、誤って1種類の操作が発生してしまっても、誤った指示にまでは至らない。
ここでのポイントは、ユーザの顔認識及び視線や視点検知というスマートフォン内蔵の標準となりつつあるカメラ機能さえ備えていれば、比較的容易なソフトウェア処理により誤入力認識防止及び片手操作のみによる使い勝手向上という大きな効果を得ることができる点である。
スマートフォン100で他のアプリケーションプログラムを実行する例を説明する。図3は、スマートフォン100にテキストを表示した例を示す図である。テキストは単語の並びで構成され、例えば単語320−1、単語320−2、単語320−3、単語320−4と順番に、ユーザ160は視点を移動しながら単語320を読み進む。
ここで、ユーザ160が単語320−4をコピーしたい場合、ユーザ160の視点は単語320−4にあり、この視点をスマートフォン100は特定する。そこで、サイドボタン140がスイッチオン動作されながら、マイク150が音声による操作を受け付ける。この音声による操作は、例えば「コピー」である。
これに対して、スマートフォン100は、単語320−4をコピーしてクリップボードに貼り付ける。また、音声による操作は、他の種類の操作であっても良く、テキスト編集のための操作であっても良い。
以上で説明したように、単語320−4の選択とコピーという2つの指示を3種類の操作の組み合わせで入力することにより、誤って1種類の操作が発生してしまっても、誤った指示にまでは至らない。
次に、タブレット端末の例を説明する。図4は、タブレット端末400の表示の例を示す図である。タブレット端末400は、タッチパッド(表示画面)410、カメラ420、カメラ430、決定ボタン440、及びマイク490が設けられており、ユーザはタッチパッド410を見ることになる。
これらは、既に説明したスマートフォン100のタッチパッド110、カメラ120、カメラ130、サイドボタン140、及びマイク150に相当し、カーソル470はカーソル210に相当し、アイコン220を表示してのアプリケーションプログラムの起動や、アプリケーションプログラム実行中の数字の入力は既に説明したとおりであり、テキストを表示しての単語の処理も既に説明したとおりである。
ただし、アイコン220を表示してのアプリケーションプログラムの起動において、決定ボタン440が押し込まれる代わりに、マイク490が音声による操作として「実行」を受け付けても良い。
このような操作による指示は、情報検索でも利用できる。図4の例では、人480−1、人480−2、及び人480−3の3名が被写体となった写真情報において、ユーザが人480−2の人物の情報を知りたい場合、ユーザが視線を人480−2の表示に向けて、カーソル470が人480−2の表示に移動したとき、決定ボタン440を押し込むか、マイク490に向けて「情報検索せよ」と発声する。
これに対して、タブレット端末400は、ユーザの視点を特定してカーソル470を移動し、決定ボタン440が押し込まれるか、マイク490で「情報検索せよ」という音声の操作を受け付けると、視点を特定した位置、即ちカーソル470を表示している位置の画像を顔認識し、タブレット端末400内に記憶された情報或いはインターネット上の情報を検索して、見つかった結果を音声合成で出力するか、タッチパッド410に表示する。
タブレット端末400は、ユーザの視点を特定してカーソル470を移動し、決定ボタン440が押し込まれる操作を受け付けると共に、マイク490で「情報検索せよ」という音声の操作を受け付けると、顔認識しても良い。
情報検索の対象は地図情報であっても良い。図5Aは、タブレット端末400に地図情報を表示する例を示す図である。図5Aに示すタブレット端末400は、図4に示したタブレット端末400に、ダウンボタン450とアップボタン460が追加されている。ダウンボタン450とアップボタン460は、音出力のボリュームの調整に使用されるものであるが、画像のズームの調整にも兼用される。
ユーザが、先ず「アフリカ地図」を表示するよう操作し、図5Aではタッチパッド410にアフリカの地図が表示されている。「アフリカ地図」を表示するための操作は、マイク490へ「アフリカ地図」という音声が入力されても良く、この音声と共に決定ボタン440が押し込まれるか、タッチパッド410の特定領域がタッチされても良い。
そして、ユーザが、アフリカの地図の一部に視点をあわせて、アップボタン460を押すと、これらのユーザの操作に対して、タブレット端末400は、カメラ420とカメラ430で得られたユーザの画像から視点を特定し、視点位置にあわせてカーソル470を表示し、アップボタン460が押されたことを検出すると、図5Bに示すように、視点位置であるカーソル470を中心に地図をズームアップする。
これにより、ユーザは、更に詳細な位置を確認するために見たい部分がズームアップされ、知りたい部分を詳細に観察することができる。
なお、タブレット端末400は、アップボタン460の代わりにダウンボタン450が押されたことを検出すると、視点位置であるカーソル470を中心に地図をズームダウンする。また、アップボタン460或いはダウンボタン450が押されたことを検出すると共に、マイク490で「ズームアップ」或いは「ズームダウン」という音声の操作を受け付けて、地図のズームアップ或いはズームダウンの処理を実行しても良い。
更に、図5Bに示した表示において、タブレット端末400は、決定ボタン440が押されたことを検出すると、視点位置であるカーソル470の地図上で指し示す国を特定し、その特定された国に関する情報を、タブレット端末400内の記憶装置またはインターネットから検索して、図5Cに示すようにタッチパッド410に表示する。
ここで、タブレット端末400は、決定ボタン440が押されたことを検出すると共に、マイク490で「詳細情報」という音声の操作を受け付けて、検索の処理と表示の処理を実行しても良い。
地図情報に基づく情報検索では、GPS(Global Positioning System)に基づき、タブレット端末400の位置に応じた地図の表示と周辺情報の検索を可能にしても良い。タブレット端末400は、地図アプリケーションプログラムが起動されると、GPSに基づき現在位置を中心とした地図を表示する。
図6Aは、タブレット端末400に地図情報を表示する例を示す図である。タッチパッド410、カメラ420、カメラ430、決定ボタン440、ダウンボタン450、アップボタン460、カーソル470、及びマイク490は既に説明したとおりである。タッチパッド410には地図をスクロールするための四方向の矢印と現在位置マーク620も表示される。
現在位置マーク620が地図の中心に表示されている状態において、上矢印610に視点があわされて、決定ボタン440が押されると、地図が下へスクロールし、図6Aに示す表示画面が得られる。図6Aでは、地図の下へのスクロールに応じて、現在位置マーク620も下へ移動している。
図6Aに示した表示画面において、ユーザの視点が百貨店630にあわされると、カーソル470が百貨店630を指し示すように表示され、決定ボタン440が押されると、図6Bに示した表示画面となる。これにより、ユーザは、これから行こうとする百貨店の各階の情報を事前に得ることが可能となる。
以下に、視点を特定するためのキャリブレーションと距離測定について、図7と図8を用いて説明する。キャリブレーションが開始されると、図7に示すように、タッチパッド110またはタッチパッド410の表示画面710の中で、先ず表示画面710−1のように中央に点滅するマーク711−1が表示される。
表示画面710−1の表示に対して、カメラ120、カメラ130、カメラ420、或いはカメラ430による撮像画像720−1が取得される。ここで、図8を用いて後で説明するように、2つのカメラ120、130或いはカメラ420、430の視差を利用した、被写体712即ちユーザまでの距離を測定しても良い。撮像画像720−1でのカメラの倍率は、被写体712の上半身が収まる程度で良い。
次に、表示画面710−2のように左下に点滅するマーク711−2が表示される。このとき、「点滅する図形に注目してください」などのメッセージが合成音声で出力されても良い。また、カメラの倍率が上げられて、被写体712の目の部分713がクローズアップされ、撮像画像720−2が取得される。
次に、表示画面710−3のように右上に点滅するマーク711−3が表示される。撮像画像720−2が取得されたカメラの倍率と同じ倍率で、被写体712の目の部分713がクローズアップされた撮像画像720−3が取得され、撮像画像720−2と撮像画像720−3の目のパターンの相関を求める。
即ち、表示画面710の中央から遠い位置へ視線が向う従い、目の輪郭714における黒目や虹彩の位置715は、目の輪郭714の中央から離れるように変位する。表示画面710の端点(マーク711−2とマーク711−3)を見たときの、目の輪郭714−2に対する黒目や虹彩の位置715−2と、目の輪郭714−3に対する黒目や虹彩の位置715−3との変位を基準として、キャリブレーション後の実際に視点を特定するために新たに得られた撮像画像の変位量の、変位の基準に対する割合から、表示画面の端点からの割合が、視点の位置として算出されても良い。
また、マーク711−2とマーク711−3の間の距離と、撮像画像720−1が取得されたときに測定されたスマートフォン100(或いはタブレット端末400)とユーザ(被写体712)との距離とから、撮像画像720−2と撮像画像720−3の視線の角度が算出され、新たに得られた撮像画像の変位量の、変位の基準に対する割合から、視線の角度の割合が算出され、視線の角度と新たに得られた撮像画像が取得されたときの距離とから視点の位置が算出されても良い。
なお、図7を用いた説明では、片目についての処理を説明したが、両目それぞれに対して処理を行い、平均化するなどしても良い。また、マーク711−1が表示されることなく、マーク711−2とマーク711−3が表示されても良い。更に、マーク711−2とマーク711−3の表示と撮像画像720−2と撮像画像720−3の取得に加えて、表示画面710の左上と右下にもマークが表示され、それぞれの撮像画像が取得されても良い。
図8は、2つのカメラによる距離測定の例を示す図である。顔認識により被写体712の両眼の中心位置である点821が検出され、検出された点821を用いた距離測定について説明する。また、説明を簡単にするために、2つのカメラの中で一方の正面に被写体712であるユーザが正対した状態での距離測定を説明する。
図8では、携帯端末810が被写体712を撮像する位置関係を、z軸の上方向から見たxy平面で示している。携帯端末810は、スマートフォン100或いはタブレット端末400であり、レンズ811、レンズ812、撮像素子813、及び撮像素子814が設けられている。
撮像素子813には、レンズ811を通して、点821を含む被写体712が結像する。ここで、点821は撮像素子813上の点824となる。撮像素子814にも、レンズ812を通して、点821を含む被写体712が結像する。ここで、点821は撮像素子814上の点825となる。
そして、撮像素子813における点824に相当する位置である撮像素子814における点826と、点825の位置の差が視差834に相当する。このように、1つの被写体712を2つのカメラで撮像すると、各カメラの撮像素子813と撮像素子814とでは画像に違いが生じる。
また、点821と点822と点823が形成する大きな三角形と、点823と点826と点825が形成する小さな三角形とには、光学的性質上、相似関係がある。そこで、携帯端末810から被写体712までの長さ831を距離Lとし、レンズ間の長さ832を距離Dとし、焦点距離833を距離Fとし、視差834を距離Sとすると、これらの距離の間には、L:D=F:Sという関係が成立する。
この関係から、距離Lは、L=D×F/Sで表され、例えばD=5cm、F=3mm、S=0.5mmとすると、L=30cmが得られる。携帯端末810であるスマートフォン100或いはタブレット端末400では、2つのカメラそれぞれのレンズの位置と撮像素子の位置との関係は固定であるため、以上のように被写体712と携帯端末810の距離を算出することが可能となる。
以上で説明したように、被写体であるユーザの目が撮像可能であれば、視点と距離を算出可能であるが、ユーザの個人差により目の開き方や、ユーザと携帯端末との距離のとり方には大きな違いが出る可能性もあるため、目の輪郭と黒目では視点と距離を算出しにくい場合もある。そこで、以下では、めがね型の装置を用いる例を説明する。
図9は、めがね型装置900と携帯端末940の例を示す図である。めがね型装置900は、めがねの形状をしており、鼻と耳が接触してユーザの顔に固定され、カメラ920−1とカメラ920−2を有する。カメラ920は、ユーザの目の近距離に位置するため、目の輪郭と黒目を撮像しやすい。なお、カメラ920は1つであっても良い。
カメラ920とユーザの目との距離は、ユーザの顔の形状の個人差はあるものの、めがね型装置900の形状に応じて、ほぼ一定となり、めがね型装置900の形状が設計されるときに固定値として設定されても良い。
携帯端末940は、スマートフォン100或いはタブレット端末400であり、めがね型装置900と接続コード930で接続され、カメラ920での撮像画像のデータをめがね型装置900から得る。図9では、接続コード930による有線接続の例を示したが、接続コード930が無く、携帯端末940とめがね型装置900とが無線接続されても良い。
携帯端末940は、タッチパッド(表示画面)950、アップボタン960、ダウンボタン970、及び決定ボタン980が設けられ、これらの動作は既に説明したとおりであるが、2つのカメラは設けられなくても良い。ユーザがタッチパッド950を見るために、めがね型装置900のリム910には透明または着色されたレンズがはめ込まれる。
めがね型装置900のリム910−1とリム910−2の一方または両方に液晶スクリーンがはめ込まれても良い。液晶スクリーンにアイコンなどを映し出すために、携帯端末940は接続コード930を介してめがね型装置900へ画像データを出力しても良い。
めがね型装置900に液晶スクリーンがはめ込まれた場合の携帯端末940は、液晶スクリーンに映し出されたアイコンなどへのユーザの視点を算出する。また、この場合の携帯端末940は、タッチパッド950を備えなくても良いし、タッチパッド950に対して小さい或いは解像度の低いタッチパッドであっても良い。
めがね型装置900のツル990−1とツル990−2の一方または両方にイヤフォンを備えても良い。イヤフォンを用いて音で情報をユーザへ伝えるために、携帯端末940は接続コード930を介してめがね型装置900へ合成音声データを出力しても良い。このイヤフォンの代わりに、めがね型装置900はヘッドフォンを備えても良い。ヘッドフォンを備えるために、ユーザの頭上で接触するヘッドバンドを備えても良い。
また、ハンズフリーフォンのようにツル990がマイクを備えても良い。マイクからの音声データを得るために、携帯端末940は接続コード930を介してめがね型装置900から音声データを入力しても良い。
更に、めがね型装置900は、液晶スクリーンがはめ込まれ、アップボタン960、ダウンボタン970、及び決定ボタン980が設けられても良く、携帯端末940の処理をめがね型装置900が実行しても良い。この場合のめがね型装置900は、独立して動作可能であるため、接続コード930が無くても良い。
以上の説明では、カメラを使用してユーザの視点を特定したが、カメラを使用しなくても良い。例えば、スマートフォンが鷲掴みにされた場合、ユーザの手の指が無意識にタッチパッドに接触し、ユーザの意図せぬ入力がなされる場合もあるが、これに対して、カメラを使用せず、図10に示すような操作を検出しても良い。
図10はカメラを使用しない操作の例を示す図である。スマートフォン100は、タッチパッド110、サイドボタン140、及びマイク150が設けられている。カメラは設けられていても良いが、使用されない。視点位置の代わりに、片手164によるタッチパッド110への接触位置を検出し、片手163によるサイドボタン140の押し込まれる動作を検出して、スマートフォン100は、検出された操作に対応する処理を実行する。
また、スマートフォン100は、片手164によるタッチパッド110への接触位置を検出し、サイドボタン140の押し込まれる動作の検出の代わりに、マイク150での音声による操作を検出しても良い。これらにより、タッチパッド110の操作の検出に加えて別の操作の検出も行うことにより、ユーザの意図しない操作を誤検出する可能性を減らすことができる。
以上の説明では、タッチパッド以外の操作を検出したが、タッチパッドの操作の検出で、ユーザの意図しない操作を誤検出する可能性を減らす例を説明する。図11Aは複数の指のタッチを検出するタブレット端末1100の例を示す図である。タブレット端末1100は、タッチパッド(表示画面)1110及びカメラ1120が設けられている。
カメラ1120は、タッチパッド1110を操作する手1140を指まで撮像するようタッチパッド1110側に傾けられて設置され、カメラ1120の撮像光軸はタッチパッド1110の方向に傾き、撮像範囲は画角1130のようにタッチパッド1110の周辺を含む。
タブレット端末1100では、手1140の1本目の指(例えば人差し指)のタッチを検出し、その状態でタッチした指の移動を検出すると、カーソルを移動させる。そして、手1140の2本目の指(例えば親指)により、タッチパッド1110内の実行(決定)ボタンの範囲のタッチを検出すると、1本目の指を検出している位置であるカーソルの位置に対応する動作を実行あるいは決定する。
図11Bは、タブレット端末1100の画面の例を示す図である。アイコン1150−1、アイコン1150−2、アイコン1150−3が、タッチパッド1110に表示されており、アイコン1150それぞれは、アプリケーションプログラム或いはアプリケーションプログラムに対する指示に対応している。
アイコン1160は、実行(決定)ボタンである。例えば、1本目の指でのアイコン1150−1へのタッチを検出している状態で、2本目の指でのアイコン1160へのタッチを検出すると、タブレット端末1100は、アイコン1150−1に対応するアプリケーションプログラムを起動したり、指示に基づく動作を実行したりする。
アイコン1160は、タッチパッド1110に表示されなくても良い。この場合の実行(決定)ボタンの範囲は、アイコン1150以外の領域となる。また、アイコン1160が表示されていない状態で、1本目の指がいずれかのアイコン1150を予め設定された時間以上タッチし続けていることを検出すると、アイコン1160が表示され、アイコン1160への2本目の指のタッチが検出されても良い。
カメラ1120が撮像した画像を分析することにより、タッチパッド1110にタッチしている指の種類が認識される。この指の種類の認識により、2本目の指のタッチが、親指のタッチであると認識した場合は、いわゆるマウスの左クリックとして検出されて、アイコン1150に対応するアプリケーションプログラムが起動されても良い。
また、2本目の指のタッチが、中指のタッチであると認識した場合は、いわゆるマウスの右クリックとして検出されて、アイコン1150に対応するアプリケーションプログラムのメニューが表示されたり、アプリケーションプログラムの情報が表示されたりしても良い。また、1本目の指のタッチが中指で行われた場合には、2本目の指のタッチが人差し指で行われた場合にマウスの左クリックとして検出され、2本目のタッチが薬指で行われた場合にマウスの右クリックとして検出されても良い。
指の種類の認識の結果が、ユーザにわかるようにするため、タッチパッド1110のタッチ部分の周囲を、認識した指の種類に応じた特定の色とする表示にしてもよい。そして、タッチ部分の周囲の色の表示が、カーソルとみなされても良い。これにより、指の種類の認識の誤りにより、誤った指示となる可能性を減らすことができる。
更に、カメラ1120で撮像された手1140の画像が、アイコン1150及びアイコン1160と重畳されてタッチパッド1110に表示されても良い。
次に、カメラにより視点を検出するが、図1などに示したサイドボタン140及び図4に示した決定ボタン440の代わりにタッチパッドを使用する例を説明する。図12Aは、タッチパッド110の一部を特別な領域とするスマートフォン100の例を示す図である。
スマートフォン100は、タッチパッド110、カメラ120、及びカメラ130が設けられている。カメラ120及びカメラ130については既に説明したとおりである。スマートフォン100は、サイドボタンとマイクが設けられていても良いが、ここでは使用されない。スマートフォン100は、タブレット端末400であっても良い。
サイドボタン140及び決定ボタン440の代わりにタッチパッド110を使用するために、サイドボタン140及び決定ボタン440の代わりとなる特別領域1210がタッチパッド110に設定される。特別領域1210は、スマートフォン100が片手で保持された場合に、例えば親指でタッチされる領域である。
ユーザが、スマートフォン100を片手で把持する場合、そのユーザの癖によってその把持する位置が異なり、そのユーザが右利きか左利きかによってもその把持する位置が異なる。そこで、図12Aに示すような特別領域1210−1から特別領域1210−6までに対して、1つの特別領域1210が選択される設定を、スマートフォン100の電源がオンされた後またはリセットされた後に受け付ける。
図12Aにおいて、例えば、特別領域1210−1、1210−3、1210−5は左手で把持された場合用であり、特別領域1210−2、1210−4、1210−6は右手で把持された場合用である。スマートフォン100を把持する手でタッチされる特別領域1210は、タッチパッド110の縁に接する領域であることが望ましい。
図12Bは、特別領域1210−3が選択される設定を受け付けた例である。視点による位置指定は、特別領域1210−3を除くタッチパッド110で有効とし、特別領域1210−3はタッチ専用とする。このため、特別領域1210−3にはアイコン1230は配置されない。
そして、既に説明したように、カメラ120とカメラ130の撮像画像に基づいてユーザの視点が特定され、カーソル210が表示される。視点位置であるカーソル210の位置は、アイコン1230−1からアイコン1230−8の上を移動可能である。
カーソル210が、アイコン1230−6の上に位置したところで、片手1220の親指により特別領域1210−3のタッチされたことが検出されると、アイコン1230−6に対応するアプリケーションが起動されたり、アプリケーションに指示が送られたりする。
なお、特別領域1210−3に「決定」や「タッチ」などを表す文字列または特別なアイコンが表示され、ユーザが特別領域であることを理解できるようにしても良い。
以上で説明した視点または1本目の指による第1の操作と、ボタンや音声による第2の操作などの複数の操作を検出することにより、操作の妥当性を確認し、ユーザの意図に即した動作を実現する。妥当性を確認するための操作は、以上で説明した操作に限定されるものではない。
例えば、カメラを使用しての操作の検出として、視点によるアイコン選択状態が数秒間継続したら、実行または決定にあたり、「よろしければ右目のみを3秒間閉じてください」といったメッセージをユーザに投げかけ、そのとおりの動作が検出されれば、実行または決定の動作に移行するようにしても良い。
また、ユーザがサングラスを装着しており、目以外の入力が必要な場合、例えば口唇の形で確認するため、「よろしければ、『お』を発音するときの口の形にしてください」といったメッセージをユーザに投げかけ、そのとおりの動作が検出されるか判定されても良い。
操作を検出するためのスマートフォン100或いはタブレット端末400のセンサとしては既に説明したとおりであるが、検出される操作は、入力条件として優先度を持たせても良い。例えば、
(1)視線、視点、或いは目の状況
(2)口唇の形
(3)音声
(4)スイッチ入力
(5)タッチパッドへのタッチ情報
に対して、予め優先度が設定され、任意に組み合わされても良い。
周辺環境に応じて優先度の高い入力条件または優先度の低い入力条件を、後で説明する入力条件管理部が選択する。例えば、周辺環境として暗い環境であると判定されると、カメラが使用される入力条件は選択されず、優先度の低いスイッチ入力とタッチパッドへのタッチ情報が選択されても良い。
図13は携帯端末810の第1のハードウェア構成の例を示す図である。携帯端末810は既に説明したとおりスマートフォン100或いはタブレット端末400である。カメラ部1301は、カメラ120、130かカメラ420、430などに対応し、タッチパッド表示部1308とタッチパッドセンス部1316は、タッチパッド110かタッチパッド410などに対応する。
マイク部1313は、マイク150かマイク490に対応し、スイッチ入力部1315は、サイドボタン140か決定ボタン440などに対応する。なお、スマートフォン100本来の電話機能などのハードウェアは、本実施例の説明とは関係ないので省略している。また、アプリケーションプログラムの起動について特に説明する。
カメラ部1301は、2つ以上のカメラの撮像により得た画像情報を顔認識部1302へ出力する。顔認識部1302は、顔認識して、顔部分の特徴を抽出する。また、顔認識部1302は、顔までの距離を算出し、顔を正面に認識できない場合や目を認識できない場合、ユーザへメッセージを出すための動作をしても良い。
視点検出部1303は、目の部分の情報と顔までの距離を顔認識部1302から入力し、視点の位置を算出する。ここで、視点がタッチパッド表示部1308に向けられているかを判定しても良い。そして、視点は絶えず細かな動きを生じる性質があるため、ローパスフィルタ部1304は、細動情報をカットし、視点の情報を視点情報管理部1305へ出力する。
視点情報管理部1305は、タッチパッド表示部1308の画面上のどこに視点があるかを、カーソル表示1307へ出力し、タッチパッド表示部1308を介してユーザにカーソルを表示する。なお、既に説明したようにカーソルの代わりにアイコンのハイライト表示などであっても良い。
一方、視点情報と組みあわされる少なくとも1つ以上の入力としては、マイク部1313から入力され、音声認識部1314を経て解読される音声入力、サイドボタンなどのスイッチ入力部1315からのスイッチ入力、或いはタッチパッドセンス部1316から入力される手指のタッチ入力などがある。
これらの入力と、視点情報管理部1305からの視点入力とがそろうことで、入力条件管理部1309は、アプリケーションプログラム実行部1310へ、入力により特定されるアプリケーションプログラムを起動させる。入力条件管理部1309は、既に説明したとおり、複数の入力が、予め定められた条件を満たすと判定すると、アプリケーションプログラム実行部1310へ指示を出力する。
入力条件管理部1309は、アイコンの表示位置と、アイコンに対応するアプリケーションプログラムの識別情報との対応情報を有し、視点情報管理部1305からの視点入力に応じた識別情報をアプリケーションプログラム実行部1310へ出力しても良い。
あるいは、アプリケーションプログラム実行部1310が、アイコンの表示位置と、アイコンに対応するアプリケーションプログラムの識別情報との対応情報を有し、入力条件管理部1309は、予め定められた条件を満たすと判定すると、視点情報管理部1305からの視点の入力を、アプリケーションプログラム実行部1310へ転送しても良い。
入力条件管理部1309は、タッチパッド110かタッチパッド410などの領域と、アプリケーションプログラムへの指示との対応情報を有し、タッチパッドセンス部1316からのタッチ位置の入力に応じた指示をアプリケーションプログラム実行部1310へ出力しても良い。
入力条件管理部1309は、タッチパッド110かタッチパッド410などの領域として、特別領域1210の情報を複数有し、選択された特別領域1210−3の情報を有しても良く、アイコン1160の決定ボタンの領域を有しても良い。
以上の説明では、入力条件管理部1309を独立した制御部として表したが、アプリケーションプログラム実行部1310の一部であっても良い。最終的にアプリケーションプログラム実行部1310によって、スピーカー部1311がユーザに音声で情報を伝達するか、或いは通信制御部1312に指令を送り通信させても良い。
なお、図7を用いて既に説明したように、カメラで撮像した目の情報と視点とには個人差があることから、キャリブレーション管理部1306は、カメラで撮像した目の情報と視点との関係を管理して、視点情報管理部1305へ出力し、視点情報管理部1305は、その関係に基づいて視点を特定する。
カメラ部1301から視点情報管理部1305までは、顔の代わりに指を認識し、指の位置と種類を特定しても良い。入力条件管理部1309は、視点情報管理部1305からの指の位置と種類の情報を入力としても良く、タッチパッドセンス部1316からの入力を視点情報管理部1305へ転送し、視点情報管理部1305にタッチ位置へカーソルを表示させても良い。
図14は携帯端末810の第2のハードウェア構成の例を示す図である。図13を用いて説明したハードウェアの各部はソフトウェアで実現してもよい。図14に示したハードウェア構成の例は、そのソフトウェアでの実現のためのハードウェア構成の例である。なお、図14に示した携帯端末810のハードウェア構成は、一般的なスマートフォンやタブレット端末のハードウェア構成であっても良い。
プロセッサ1401はメモリ1402に格納されたプログラムを実行し、図14に示した各部とデータをやり取りして、データを処理する。メモリ1402は例えばRAM(Random Access Memory)であり、プログラムとデータが格納される。
ストレージ1403は例えばフラッシュメモリであり、プログラムとデータが格納される。メモリ1402とストレージ1403との間で、プログラムとデータが転送されても良い。通信部1404は接続コード930による有線接続、或いは無線電話回線や無線LAN(Local Area Network)で通信する。
メモリ1402に格納されたアプリケーションプログラムを実行するプロセッサ1401の制御により、通信部1404は送受信する。また、メモリ1402あるいはストレージ1403に格納されるプログラムとデータは、通信部1404により受信されても良い。
入力部1405は、マイク1407などからの入力信号をデータとしてメモリ1402或いはストレージ1403へ格納する。マイク1407は、図1に示したマイク150或いは図4に示したマイク490であり、音声信号を入力する。カメラ1408とカメラ1409のそれぞれは、図1に示したカメラ120とカメラ130或いは図4に示したカメラ420とカメラ430であり、撮像した映像信号を入力する。
出力部1406は、メモリ1402或いはストレージ1403に格納されたデータを信号に変換し、スピーカー1411などへ出力する。タッチパッド1410は、図1に示したタッチパッド110或いは図4に示したタッチパッド410などであり、タッチを検出すると、そのタッチの情報を入力部1405へ出力し、出力部から入力した映像信号にしたがって画面を表示する。
図15は、図14に示した携帯端末810の処理の例を示す図であり、メモリ1402に格納されてプロセッサ1401が実行するプログラムのフローチャートの例である。携帯端末810の電源がオンされる、或いはスリープから解除されると、プロセッサ1401は処理を開始する。
まず、プロセッサ1401はキャリブレーションが未済であるかを判定する(ステップ1501)。この判定には、例えば、ストレージ1403にキャリブレーションが未済であるか否かのフラグが格納され、そのフラグをプロセッサ1401が読み出して判定しても良い。携帯端末810が製造されたとき、及びリセットされたときには、フラグが未済に設定される。
プロセッサ1401は、ステップ1501において未済である判定した場合、キャリブレーションを実行し(ステップ1502)、未済でないと判定した場合、ステップ1502をスキップする。ステップ1502におけるキャリブレーションの処理内容は、図7と図8を用いて説明したとおりであり、携帯端末810のカメラ1408、1409が有効にされてユーザが撮像される。更にフラグが済に設定される。
プロセッサ1401は、待ち受け画面などとも呼ばれるホーム画面を表示する(ステップ1503)。ホーム画面は、図2に示したように、複数のアプリケーションプログラムそれぞれに対応したアイコンを含み、アイコンが操作されることにより、アプリケーションプログラムが起動される。この時点で、携帯端末810のカメラ部1301或いはカメラ1408、1409が有効にされていない場合は、有効にされる。
プロセッサ1401は、カメラ1408、1409を制御して撮像し、顔認識する(ステップ1504)。この顔認識では、カメラ1408、1409に向いた顔を認識するための処理を実行し、顔を認識した場合は、目の輪郭における黒目や虹彩の位置を認識する。
ステップ1504の顔を認識するための処理を実行した結果として、顔を正面に認識できた場合、顔が携帯端末810に向いているとみなして、プロセッサ1401はステップ1506へ進み、顔を認識できない場合または顔が横を向いていると認識できた場合、顔が携帯端末810に向いていないとみなして、プロセッサ1401は、ステップ1512へ進む。
ステップ1512でプロセッサ1401は、ユーザの注意を促すメッセージ或いはユーザに顔を向けさせるメッセージを出力する。このメッセージはスピーカー1411から出力されても良い。
ステップ1506でプロセッサ1401は、ステップ1504で認識された目の輪郭における黒目や虹彩の位置と、ステップ1502のキャリブレーションで記録された目の輪郭における黒目や虹彩の位置との関係から視点を算出する。カメラ1408とカメラ1409との視差から顔までの距離を算出し、視点の算出に利用しても良い。
プロセッサ1401は、算出された視点の細かな変動により誤検出しないように、ローパスフィルタを適用する(ステップ1507)。例えば、予め設定された時間間隔で撮像された画像から視点が算出され、予め設定された個数の視点が算出されると、それらの視点の位置が平均化されても良い。
プロセッサ1401は、ローパスフィルタの適用された視点に対応する位置へカーソルを表示する(ステップ1508)。視点に対応する位置が、ステップ1503で表示されたホーム画面のアイコンの位置と一致する場合、位置が一致したアイコンは、ハイライト表示されても良い。
プロセッサ1401は、視点により指定されたアイコンを選択する入力があるかを判定する(ステップ1509)。この選択の入力は、例えば図1ではサイドボタン140による入力である。入力が無いと判定されると、視点により指定されたアイコンは、ユーザが単に見ただけの可能性もあるため、プロセッサ1401はステップ1504へ戻る。
選択の入力が有ると判定されると、プロセッサ1401は、その選択の入力が入力条件を満たすかを判定する(ステップ1510)。この入力条件は、優先度のある入力条件として既に説明したとおりであり、予め設定される。例えばサイドボタン140による入力であっても、入力条件を満たさないと判定されると、プロセッサ1401はステップ1512へ進む。
ステップ1512でプロセッサ1401は、入力条件を満たしていない旨のメッセージ或いは入力が妥当でない旨のメッセージを出力する。このメッセージはスピーカー1411から出力されても良い。なお、ステップ1512は、ステップ1505の判定結果で実行しているか、ステップ1510の判定結果で実行しているかを判定しても良い。
ステップ1510で入力条件を満たすと判定されると、プロセッサ1401は、視点により指定されたアイコンに対応するアプリケーションプログラムを実行する(ステップ1511)。アプリケーションプログラムの実行結果としてのメッセージが、スピーカー1411から出力されても良いし、実行によるエラーのメッセージがスピーカー1411から出力されても良い。
プロセッサ1401は、ステップ1511でアプリケーションプログラムが実行された後、またはステップ1512でメッセージが出力された後、未操作が、予め設定された時間経過したかを判定する。予め設定された時間経過したと判定すると、プロセッサ1401は、携帯端末810を例えばスリープ状態に移行させ、フローチャートの処理を終了する。
予め設定された時間が経過する前に操作されたと判定すると、プロセッサ1401はステップ1504へ戻る。なお、ステップ1513の未操作の判定は、独立した判定に限定されるものではなく、ステップ1506或いはステップ1509と連携しても良い。
なお、図15を用いた以上の説明では、視点を使用する例を説明したが、既に説明したように他の入力条件であっても良く、図13を用いて説明した各部の動作をプログラムで実現しても良い。
以上で説明したように、携帯端末は、ユーザの操作による入力に対して、複数の入力条件を判定して動作するため、ユーザの誤操作により誤って動作する可能性を低減できる。
スマートフォンやタブレット端末などの携帯端末に適用でき、ユーザに操作されるコンピュータにも適用できる。
100 スマートフォン
110 タッチパッド
120 カメラ
130 カメラ
140 サイドボタン
150 マイク

Claims (10)

  1. 携帯端末において、
    アイコンを表示し、タッチを検出するタッチパッドと、
    前記タッチパッドの表示の光が進行する方向を撮像するカメラと、
    前記カメラが撮像した顔の目が向けられた視点を検出する検出部と、
    前記検出部で検出した視点の、前記タッチパッド上の位置を出力する情報管理部と、
    前記情報管理部から出力された前記タッチパッド上の視点の位置に従って前記タッチパッドにカーソルを表示するよう制御するカーソル表示部と、
    前記タッチパッドの予め設定された特別領域へのタッチによる入力と、前記情報管理部から出力された前記タッチパッド上の視点の位置の入力とに対して、予め設定された入力条件を満たすか判定する入力条件管理部と、
    前記入力条件管理部の判定に応じて、アイコンに対応するアプリケーションプログラムを起動するアプリケーションプログラム実行部と、を備えたこと
    を特徴とする携帯端末。
  2. 請求項1に記載の携帯端末において、
    前記タッチパッドの予め設定された特別領域には、アイコンが表示されないこと
    を特徴とする携帯端末。
  3. 請求項2に記載の携帯端末において、
    前記タッチパッドの予め設定された特別領域では、視点が検出されないこと
    を特徴とする携帯端末。
  4. 請求項3に記載の携帯端末において、
    前記タッチパッドの予め設定された特別領域は、前記タッチパッドの縁に接する複数の領域の中から選択されて設定されること
    を特徴とする携帯端末。
  5. 携帯端末において、
    アイコンを表示し、タッチを検出するタッチパッドと、
    前記タッチパッドの周囲を撮像するカメラと、
    前記カメラが撮像した手の、第1の指と第2の指を含む指の種類を検出する検出部と、
    前記検出部で検出した指の種類と、前記タッチパッドのタッチ位置を出力する情報管理部と、
    前記情報管理部から出力された第1の指による前記タッチパッドのタッチ位置に従って前記タッチパッドにカーソルを表示するよう制御するカーソル表示部と、
    前記情報管理部から出力された、第1の指による前記タッチパッドのタッチ位置の入力と、第2の指による前記タッチパッドのタッチ位置の入力とに対して、予め設定された入力条件を満たすかを判定する条件管理部と、
    前記条件管理部の判定に応じて、アイコンに対応するアプリケーションプログラムを起動するアプリケーションプログラム実行部と、を備えたこと
    を特徴とする携帯端末。
  6. 請求項5に記載の携帯端末において、
    前記タッチパッドの周囲を撮像するために、前記カメラの撮像光軸が前記タッチパッドの方向に傾くように、前記カメラが前記携帯端末に設置されていること
    を特徴とする携帯端末。
  7. 請求項6に記載の携帯端末において、
    前記検出部は、
    前記カメラが撮像した手の、第1の指と第2の指と第3の指を含む指の種類を検出し、
    前記条件管理部は、
    前記情報管理部から出力された、第1の指による前記タッチパッドのタッチ位置の入力と、第2の指または第3の指による前記タッチパッドのタッチ位置の入力とに対して、予め設定された入力条件を満たすかを判定し、
    前記アプリケーションプログラム実行部は、
    前記条件管理部の判定に応じて、アイコンに対応するアプリケーションプログラムを起動する、またはアイコンに対応するアプリケーションプログラムのメニューを表示すること
    を特徴とする携帯端末。
  8. 携帯端末において、
    アイコンを表示し、タッチを検出するタッチパッドと、
    前記タッチパッドの表示の光が進行する方向を撮像するカメラと、
    前記カメラが撮像した顔の目が向けられた視点を検出する検出部と、
    前記検出部で検出した視点の、前記タッチパッド上の位置を出力する情報管理部と、
    前記情報管理部から出力された前記タッチパッド上の視点の位置に従って前記タッチパッドにカーソルを表示するよう制御するカーソル表示部と、
    スイッチ入力部と、
    前記スイッチ入力部による入力と、前記情報管理部から出力された前記タッチパッド上の視点の位置の入力とに対して、予め設定された入力条件を満たすか判定する入力条件管理部と、
    前記入力条件管理部の判定に応じて、アイコンに対応するアプリケーションプログラムを起動するアプリケーションプログラム実行部と、を備えたこと
    を特徴とする携帯端末。
  9. 請求項8に記載の携帯端末において、
    マイク部と、
    前記マイク部で入力された音声信号を認識する音声認識部と、
    を更に備え、
    前記入力条件管理部は、
    前記音声認識部による認識結果の入力と、前記スイッチ入力部による入力と、前記情報管理部から出力された前記タッチパッド上の視点の位置の入力とに対して、予め設定された入力条件を満たすか判定し、
    前記アプリケーションプログラム実行部は、
    前記入力条件管理部の判定に応じて、アイコンに対応し、かつ実行中のアプリケーションプログラムに指示を与えること
    を特徴とする携帯端末。
  10. 請求項9に記載の携帯端末において、
    前記カメラは2個のカメラであり、
    前記2個のカメラが撮像した2個の画像それぞれから顔を認識し、認識した顔までの距離を2個の画像の差から算出し、認識した顔の目を抽出する画像認識部を更に備えたこと
    を特徴とする携帯端末。
JP2019526068A 2017-06-29 2017-06-29 携帯端末 Active JP6833997B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/023973 WO2019003387A1 (ja) 2017-06-29 2017-06-29 携帯端末

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2021015515A Division JP7176020B2 (ja) 2021-02-03 2021-02-03 携帯端末の制御方法
JP2021015516A Division JP2021073611A (ja) 2021-02-03 2021-02-03 携帯端末

Publications (2)

Publication Number Publication Date
JPWO2019003387A1 true JPWO2019003387A1 (ja) 2019-12-26
JP6833997B2 JP6833997B2 (ja) 2021-02-24

Family

ID=64741216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019526068A Active JP6833997B2 (ja) 2017-06-29 2017-06-29 携帯端末

Country Status (5)

Country Link
US (1) US20200174562A1 (ja)
EP (2) EP3647925B1 (ja)
JP (1) JP6833997B2 (ja)
CN (1) CN110799932A (ja)
WO (1) WO2019003387A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7380365B2 (ja) * 2020-03-19 2023-11-15 マツダ株式会社 状態推定装置
JP7409184B2 (ja) * 2020-03-19 2024-01-09 マツダ株式会社 状態推定装置
JP7296069B2 (ja) * 2021-01-28 2023-06-22 独立行政法人国立高等専門学校機構 視線入力装置、および視線入力方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011243108A (ja) * 2010-05-20 2011-12-01 Nec Corp 電子ブック装置及び電子ブック操作方法
WO2014064862A1 (ja) * 2012-10-22 2014-05-01 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、情報提示方法、及びプログラム
JP2015170175A (ja) * 2014-03-07 2015-09-28 ソニー株式会社 情報処理装置、および情報処理方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012099005A (ja) * 2010-11-04 2012-05-24 Alpine Electronics Inc 入力装置、入力方法および入力プログラム
KR101773845B1 (ko) * 2011-05-16 2017-09-01 삼성전자주식회사 휴대용 단말기에서 입력 처리 방법 및 장치
JP2013005405A (ja) * 2011-06-21 2013-01-07 Sanyo Electric Co Ltd 電子カメラ
US10013053B2 (en) * 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
KR101850034B1 (ko) * 2012-01-06 2018-04-20 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR20130102298A (ko) * 2012-03-07 2013-09-17 주식회사 팬택 휴대용 단말기 및 휴대용 단말기의 디스플레이 제어 방법
CN102662510B (zh) * 2012-03-24 2016-08-03 上海量明科技发展有限公司 通过多点触摸实现截图的方法
US9195310B2 (en) * 2012-07-09 2015-11-24 Samsung Electronics Co., Ltd. Camera cursor system
CN103984495B (zh) * 2013-02-07 2016-12-28 纬创资通股份有限公司 操作方法以及电子装置
JP6046562B2 (ja) * 2013-06-26 2016-12-14 京セラ株式会社 携帯機器、携帯機器の制御方法およびプログラム
JP5831715B2 (ja) 2013-07-30 2015-12-09 コニカミノルタ株式会社 操作装置および画像処理装置
CN103716528A (zh) * 2013-08-30 2014-04-09 程治永 一种基于触控终端的ptz摄像机远程控制的系统和方法
US10073493B2 (en) * 2014-03-19 2018-09-11 Sony Corporation Device and method for controlling a display panel
JP2016062314A (ja) * 2014-09-18 2016-04-25 京セラドキュメントソリューションズ株式会社 電子機器及び方法
JP2016122334A (ja) * 2014-12-25 2016-07-07 シャープ株式会社 画像表示装置
JP2017129898A (ja) * 2016-01-18 2017-07-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011243108A (ja) * 2010-05-20 2011-12-01 Nec Corp 電子ブック装置及び電子ブック操作方法
WO2014064862A1 (ja) * 2012-10-22 2014-05-01 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、情報提示方法、及びプログラム
JP2015170175A (ja) * 2014-03-07 2015-09-28 ソニー株式会社 情報処理装置、および情報処理方法

Also Published As

Publication number Publication date
EP3647925A4 (en) 2021-05-19
EP4242817A3 (en) 2023-10-25
CN110799932A (zh) 2020-02-14
US20200174562A1 (en) 2020-06-04
JP6833997B2 (ja) 2021-02-24
EP3647925A1 (en) 2020-05-06
EP4242817A2 (en) 2023-09-13
WO2019003387A1 (ja) 2019-01-03
EP3647925B1 (en) 2023-05-24

Similar Documents

Publication Publication Date Title
US10375219B2 (en) Mobile terminal releasing a locked state and method for controlling the same
KR101876655B1 (ko) 스크린 제어 방법 및 장치
EP3046017B1 (en) Unlocking method, device and terminal
KR101832959B1 (ko) 휴대 전자기기 및 이의 제어방법
US20150054730A1 (en) Wristband type information processing apparatus and storage medium
KR20130081117A (ko) 이동 단말기 및 그 제어방법
KR20160133414A (ko) 정보 처리 장치, 제어 방법 및 프로그램
KR20150049977A (ko) 디지털 디바이스 및 그 제어 방법
KR20140113118A (ko) 이동단말기 및 그 제어방법
US20130250086A1 (en) Automatic magnification of data on display screen based on eye characteristics of user
US20150207920A1 (en) Mobile terminal and method of controlling the mobile terminal
JP6833997B2 (ja) 携帯端末
US10061497B2 (en) Method, device and storage medium for interchanging icon positions
KR20180004112A (ko) 안경형 단말기 및 이의 제어방법
JP7416894B2 (ja) 携帯端末
KR102187843B1 (ko) 펜을 갖는 사용자 기기의 화면 제공 방법
KR101824988B1 (ko) 이동 단말기 및 그 제어 방법
KR20150011246A (ko) 이동 단말기 및 그것의 제어 방법
CN111158575B (zh) 终端执行处理的方法、装置、设备以及存储介质
JP2021073611A (ja) 携帯端末
JP7080448B1 (ja) 端末装置
JP7031112B1 (ja) 眼鏡型端末
KR20160027813A (ko) 글래스형 단말기
JP2015226210A (ja) 携帯端末、カメラ制御プログラムおよびカメラ制御方法
KR20130131091A (ko) 이동 단말기 및 이동 단말기의 제어 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210203

R150 Certificate of patent or registration of utility model

Ref document number: 6833997

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250