JP2011209928A - Mobile terminal - Google Patents

Mobile terminal Download PDF

Info

Publication number
JP2011209928A
JP2011209928A JP2010075956A JP2010075956A JP2011209928A JP 2011209928 A JP2011209928 A JP 2011209928A JP 2010075956 A JP2010075956 A JP 2010075956A JP 2010075956 A JP2010075956 A JP 2010075956A JP 2011209928 A JP2011209928 A JP 2011209928A
Authority
JP
Japan
Prior art keywords
command
movement
user
selection
cursor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010075956A
Other languages
Japanese (ja)
Inventor
Noriko Oi
紀子 大井
Naoya Noguchi
尚哉 野口
Masahito Takimoto
雅人 滝本
Ayanori Yoshii
礼徳 吉井
Satoshi Miura
智 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2010075956A priority Critical patent/JP2011209928A/en
Publication of JP2011209928A publication Critical patent/JP2011209928A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a mobile terminal excellent in the operability of a user, and enabled in control which is reduced in erroneous operation by the user even in a situation that the user cannot move a hand.SOLUTION: The mobile terminal 1 includes: a movement detection part 3 detecting the movement of a pupil and a face of the user; an operation command storage part 6 storing an operation command related to the movement of a cursor displayed on a display part 2 in association with the movement of the pupil of the user; a selection command storage part 7 storing a selection command related to the selection of execution/stopping of processing in association with the movement of the face of the user; a movement decision part 4 deciding whether or not the detected movement accords with the operation command or the selection command when the movement of the user is detected by the movement detection part 3; and a processing control part 5 controlling the selection of the execution/stopping of the processing or the movement of the cursor corresponding to the according command when it is decided by the movement decision part 4 that the movement accords with the operation command or the selection command.

Description

本発明は、ユーザの瞳及び顔の動作に対応した制御を行う携帯端末に関する。   The present invention relates to a portable terminal that performs control corresponding to the actions of a user's pupil and face.

近年、ユーザが手を動かせない状況でも、ユーザの目の動きで端末の操作を行える技術がある。例えば、特許文献1では、ユーザの眼球の黒目の動きと瞬きの有無に基づいて、表示画面中の項目選択手段を移動し、選択する携帯端末が開示されている。   In recent years, there is a technology that allows a user to operate a terminal with a user's eye movement even in a situation where the user cannot move his / her hand. For example, Patent Literature 1 discloses a portable terminal that moves and selects an item selection unit in a display screen based on the movement of a user's eyeball with black eyes and the presence or absence of blinking.

特開2007−102415号公報JP 2007-102415 A

しかしながら、上述した携帯端末では黒目の動きと瞬きの有無のみに基づいた端末操作しか行えず、ユーザの操作性は悪く、それゆえにユーザによる誤動作も多いという問題があった。   However, the above-described mobile terminal can only perform terminal operations based only on the movement of the black eyes and the presence or absence of blinks, so that the user's operability is poor, and therefore there are problems that the user has many malfunctions.

本発明は、上記課題の解決のためになされたものであり、ユーザが手を動かせない状況でも、ユーザの操作性に優れ、ユーザによる誤動作が少ない制御が可能な携帯端末を提供することを目的とする。   The present invention has been made to solve the above problems, and an object of the present invention is to provide a portable terminal that is excellent in user operability and can be controlled with few malfunctions by the user even when the user cannot move his / her hand. And

上記課題の解決のため、本発明に係る携帯端末は、ユーザの瞳及び顔の動作を検出する動作検出手段と、ユーザの瞳の動作に関連付けて、表示手段に表示されるカーソルの移動に関する操作コマンドを格納する操作コマンド格納手段と、ユーザの顔の動作に関連付けて、処理の実行・停止の選択に関する選択コマンドを格納する選択コマンド格納手段と、動作検出手段によってユーザの動作が検出された場合に、検出された動作が操作コマンド又は選択コマンドに一致するか否かを判断する動作判断手段と、動作判断手段によって動作が操作コマンド又は選択コマンドに一致すると判断された場合に、一致したコマンドに対応するカーソルの移動又は処理の実行・停止の選択を制御する処理制御手段と、を備えていることを特徴としている。   In order to solve the above-described problem, a mobile terminal according to the present invention includes an operation detection unit that detects the movement of the user's pupil and face, and an operation related to the movement of the cursor displayed on the display unit in association with the movement of the user's pupil. When an operation command storage means for storing a command, a selection command storage means for storing a selection command related to selection of execution / stop of processing in association with a motion of the user's face, and a user motion detected by the motion detection means In addition, an operation determination unit that determines whether or not the detected operation matches the operation command or the selection command, and the operation determination unit determines that the operation matches the operation command or the selection command. And a process control means for controlling selection of movement of the corresponding cursor or execution / stop of the process.

この携帯端末では、ユーザの瞳及び顔の動作が検出された場合に、検出された動作が操作コマンド又は選択コマンドに一致するか否かが判断され、一致すると判断された場合に、一致したコマンドに対応するカーソルの移動又は処理の実行・停止の選択が制御される。この携帯端末では、ボタン等の操作がなされずとも、ユーザによる瞳及び顔の動作を検出してカーソルの移動や処理の実行・停止の選択がなされるので、ユーザは画面を見たままの状態で簡便に携帯端末を操作できる。また、この携帯端末では、瞳の動作による操作コマンドと、顔の動作による選択コマンドとを切り分けているので、ユーザの操作性を確保でき、かつ誤動作を防止できる。   In this portable terminal, when the movement of the user's pupil and face is detected, it is determined whether or not the detected movement matches the operation command or the selection command. The movement of the cursor corresponding to or selection of execution / stop of the process is controlled. In this portable terminal, even if the buttons are not operated, the movement of the cursor and the selection of execution / stop of the process are performed by detecting the movement of the pupil and the face by the user, so that the user remains looking at the screen Can easily operate a portable terminal. Further, in this portable terminal, since the operation command based on the pupil motion and the selection command based on the face motion are separated, the operability for the user can be ensured and the malfunction can be prevented.

また、操作コマンド格納手段には、優先順位が付された複数の操作コマンドが格納され、選択コマンド格納手段には、優先順位が付された複数の選択コマンドが格納され、動作判断手段は、優先順位の高い順から動作が操作コマンド又は選択コマンドに一致するか否かを判断することが好ましい。   The operation command storage means stores a plurality of operation commands with priorities, the selection command storage means stores a plurality of selection commands with priorities, and the operation determination means has priority It is preferable to determine whether or not the operation matches the operation command or the selection command in descending order.

この携帯端末では、優先順位の高い順から動作が操作コマンド又は選択コマンドに一致するか否かが判断される。これにより、ユーザは、操作コマンド又は選択コマンドの優先順位を高くすることで、ユーザが意図した制御を優先的に実行させることができる。よって、この携帯端末は、ユーザの操作性に優れており、それゆえに、ユーザによる誤動作をより少なくすることができる。   In this portable terminal, it is determined whether or not the operation matches the operation command or the selection command in descending order of priority. Accordingly, the user can preferentially execute the control intended by the user by increasing the priority of the operation command or the selection command. Therefore, this portable terminal is excellent in user operability, and therefore, malfunctions by the user can be further reduced.

また、操作コマンドには、ユーザの瞳の動作によるカーソルの移動を開始する開始コマンドと、ユーザの瞳の動作によるカーソルの移動を終了する終了コマンドとが含まれていることが好ましい。   The operation commands preferably include a start command for starting the movement of the cursor by the movement of the user's pupil and an end command for ending the movement of the cursor by the movement of the user's pupil.

この場合、ユーザは開始コマンドと終了コマンドを用いてカーソルの移動の開始と終了を区切ることで、カーソルの移動を制御したい状況においてのみ、携帯端末にカーソルの移動を制御させることができる。したがって誤動作をより確実に防止できる。   In this case, the user can cause the mobile terminal to control the movement of the cursor only in a situation where it is desired to control the movement of the cursor by separating the start and end of the movement of the cursor using the start command and the end command. Therefore, malfunction can be prevented more reliably.

また、操作コマンドには、カーソルの位置を開始コマンドによってカーソルの移動が開始された際のカーソルの位置に復帰させる位置復帰コマンドが含まれていることが好ましい。   Further, the operation command preferably includes a position return command for returning the cursor position to the cursor position when the cursor movement is started by the start command.

この場合、ユーザが誤ってカーソルの位置を意図しない位置に移動した場合でも、すぐにカーソル位置を開始コマンドによってカーソルの移動が開始された際のカーソルの位置に復帰させることができる。   In this case, even if the user accidentally moves the cursor position to an unintended position, the cursor position can be immediately restored to the cursor position when the cursor movement is started by the start command.

また、選択コマンドには、ユーザの顔の動作による処理の実行・停止の選択を開始する開始コマンドと、ユーザの顔の動作による処理の実行・停止の選択を終了する終了コマンドとが含まれていることが好ましい。   The selection command includes a start command for starting selection of execution / stop of processing based on the user's face motion and an end command for ending selection of execution / stop of processing based on the user's face motion. Preferably it is.

この場合、ユーザは開始コマンドと終了コマンドを用いて処理の実行・停止の選択の開始と終了を区切ることで、処理の実行・停止の選択を制御したい状況においてのみ、携帯端末に処理の実行・停止の選択を制御させることができる。したがって誤動作をより確実に防止できる。   In this case, the user uses the start command and end command to separate the start and end of the selection of execution / stop of the process, so that the user can execute the process / The stop selection can be controlled. Therefore, malfunction can be prevented more reliably.

本発明によれば、ユーザが手を動かせない状況でも、ユーザの操作性に優れ、ユーザによる誤動作が少ない制御が可能な携帯端末を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, even in the situation where a user cannot move a hand, the portable terminal which is excellent in a user's operativity and can perform control with few malfunctions by a user can be provided.

本発明の一実施形態に係る携帯端末の機能的な構成要素を示すブロック図である。It is a block diagram which shows the functional component of the portable terminal which concerns on one Embodiment of this invention. 携帯端末1のハードウェア構成図である。2 is a hardware configuration diagram of the mobile terminal 1. FIG. 操作コマンド格納部6が保持するデータの例を示すテーブルである。It is a table which shows the example of the data which the operation command storage part 6 hold | maintains. 選択コマンド格納部7が保持するデータの例を示すテーブルである。It is a table which shows the example of the data which the selection command storage part 7 hold | maintains. 携帯端末1において、ユーザの瞳及び顔の動作に対応した制御を行う際の表示部2に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display part 2 at the time of performing control corresponding to a user's pupil and face operation | movement in the portable terminal 1. FIG. 携帯端末1において、ユーザの瞳及び顔の動作に対応した制御を行う際の表示部2に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display part 2 at the time of performing control corresponding to a user's pupil and face operation | movement in the portable terminal 1. FIG. 携帯端末1において、ユーザの瞳及び顔の動作に対応した制御を行う際の表示部2に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display part 2 at the time of performing control corresponding to a user's pupil and face operation | movement in the portable terminal 1. FIG. 携帯端末1において、ユーザの瞳及び顔の動作に対応した制御を行う際の表示部2に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display part 2 at the time of performing control corresponding to a user's pupil and face operation | movement in the portable terminal 1. FIG. 携帯端末1の動作を示すフローチャート図である。FIG. 6 is a flowchart showing the operation of the mobile terminal 1. 携帯端末1の動作を示すフローチャート図である。FIG. 6 is a flowchart showing the operation of the mobile terminal 1.

図1は、本発明に係る携帯端末の一実施形態を示す概要図である。携帯端末1は、図1に示すように、機能的な構成要素として、動作検出部3(動作検出手段)、動作判断部4(動作判断手段)、処理制御部5(処理制御手段)、操作コマンド格納部6(操作コマンド格納手段)、及び選択コマンド格納部7(選択コマンド格納手段)を備えている。また、携帯端末1は、図1に示すように、物理的な構成要素の一つとして表示部2(表示手段)を備えている。   FIG. 1 is a schematic diagram showing an embodiment of a mobile terminal according to the present invention. As shown in FIG. 1, the mobile terminal 1 includes, as functional components, an operation detection unit 3 (operation detection unit), an operation determination unit 4 (operation determination unit), a process control unit 5 (process control unit), an operation A command storage unit 6 (operation command storage unit) and a selection command storage unit 7 (selection command storage unit) are provided. Moreover, the portable terminal 1 is provided with the display part 2 (display means) as one of the physical components as shown in FIG.

携帯端末1は、CPU等のハードウェアから構成されているものである。図2は、携帯端末1のハードウェア構成図である。図1に示される携帯端末1は、物理的には、図2に示すように、CPU51、主記憶装置であるRAM52及びROM53、入力デバイスである数字キーやカメラ等の入力装置54、ディスプレイ等の出力装置55、ネットワークカード等のデータ送受信デバイスである通信モジュール56、ハードディスク等の補助記憶装置57等を含むコンピュータシステムとして構成されている。図1に示す各構成要素の機能は、図2に示すCPU51、RAM52等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU51の制御のもとで入力装置54、出力装置55、通信モジュール56を動作させるとともに、RAM52や補助記憶装置57におけるデータの読み出し及び書き込みを行うことで実現される。   The portable terminal 1 is composed of hardware such as a CPU. FIG. 2 is a hardware configuration diagram of the mobile terminal 1. As shown in FIG. 2, the portable terminal 1 shown in FIG. 1 physically includes a CPU 51, a RAM 52 and a ROM 53 that are main storage devices, input devices 54 such as numeric keys and cameras that are input devices, a display, and the like. The computer system includes an output device 55, a communication module 56 that is a data transmission / reception device such as a network card, and an auxiliary storage device 57 such as a hard disk. The functions of the constituent elements shown in FIG. 1 are such that predetermined computer software is loaded on hardware such as the CPU 51 and RAM 52 shown in FIG. 2 to control the input device 54, output device 55, and communication under the control of the CPU 51. This is realized by operating the module 56 and reading and writing data in the RAM 52 and the auxiliary storage device 57.

以下、図1に示す構成要素に基づいて、携帯端末1の各構成要素を説明する。   Hereinafter, each component of the portable terminal 1 is demonstrated based on the component shown in FIG.

携帯端末1はユーザインタフェースとしてグラフィカルユーザインタフェースを採用しており、表示部2は、グラフィカルユーザインタフェースにおけるグラフィックを表示する。グラフィカルユーザインタフェースにおけるグラフィックの一例としては、アイコン、カーソル、ダイアログボックス、及びボタンなどが挙げられる。   The portable terminal 1 employs a graphical user interface as a user interface, and the display unit 2 displays a graphic in the graphical user interface. Examples of graphics in a graphical user interface include icons, cursors, dialog boxes, buttons, and the like.

動作検出部3は、ユーザの瞳及び顔の動作を検出する。例えば、入力装置54であるカメラが一定時間間隔で撮像したユーザの瞳及び顔の画像を基に、動作検出部3は、撮像した画像の差分情報からユーザの瞳及び顔の動作を検出する。   The motion detection unit 3 detects the motion of the user's pupil and face. For example, based on the user's pupil and face images captured by the camera that is the input device 54 at regular time intervals, the motion detection unit 3 detects the user's pupil and face motions from the difference information of the captured images.

操作コマンド格納部6は、ユーザの瞳の動作に関連付けて、表示部2に表示されるカーソルの移動に関する操作コマンドを格納する。   The operation command storage unit 6 stores an operation command related to the movement of the cursor displayed on the display unit 2 in association with the movement of the user's pupil.

操作コマンド格納部6には、優先順位が付された複数の操作コマンドが格納されてもよい。後述の動作判断部4は、優先順位が付された複数の操作コマンドのうち、優先順位の高い順からユーザの瞳の動作が操作コマンドに一致するか否かを判断し、後述の処理制御部5は、一致した操作コマンドに対応するカーソルの移動を制御する。つまり、ユーザが意図した制御を優先的に実行させたい場合は、ユーザがその制御に関する操作コマンドの優先順位を高くすることにより、処理制御部5によってその制御が優先的に制御されることになる。   The operation command storage unit 6 may store a plurality of operation commands with priorities. The operation determination unit 4 to be described later determines whether or not the operation of the user's pupil matches the operation command from the highest priority among the plurality of operation commands to which priority is given, and a process control unit to be described later 5 controls the movement of the cursor corresponding to the matched operation command. That is, when the user intends to preferentially execute the control intended by the user, the control is preferentially controlled by the processing control unit 5 when the user increases the priority of the operation command related to the control. .

また、操作コマンドには、ユーザの瞳の動作によるカーソルの移動を開始する開始コマンドと、ユーザの瞳の動作によるカーソルの移動を終了する終了コマンドとが含まれていてもよい。開始コマンドと終了コマンドを用いることで、カーソルの移動の開始と終了を区切ることができ、カーソルの移動を制御したい状況においてのみ、携帯端末1にカーソルの移動を制御させることができる。   The operation command may include a start command for starting the movement of the cursor by the user's pupil movement and an end command for ending the movement of the cursor by the user's pupil movement. By using the start command and the end command, the start and end of the movement of the cursor can be separated, and the mobile terminal 1 can control the movement of the cursor only in a situation where it is desired to control the movement of the cursor.

また、操作コマンドには、カーソルの位置を開始コマンドによってカーソルの移動が開始された際のカーソルの位置に復帰させる位置復帰コマンドが含まれていてもよい。これにより、ユーザが誤ってカーソルの位置を意図しない位置に移動した場合でも、すぐにカーソル位置を開始コマンドによってカーソルの移動が開始された際のカーソルの位置に復帰させることができる。   The operation command may include a position return command for returning the cursor position to the cursor position when the cursor movement is started by the start command. Thus, even when the user accidentally moves the cursor position to an unintended position, the cursor position can be immediately restored to the cursor position when the cursor movement is started by the start command.

操作コマンド格納部6により格納される操作コマンドの一例を図3に示す。図3の操作コマンドには、各操作コマンドを識別する「コマンドNo.(コマンド番号)」、操作コマンドに関連付けられたユーザの瞳の動作である「動作内容」、上述の「優先順位」、後述の動作判断部4が検出された瞳の動作が操作コマンドに一致するか否かを判断する際の判断基準である「判断基準」、後述の動作判断部4により検出された瞳の動作が操作コマンドに一致すると判断した際に後述の処理制御部5により制御されるカーソルの移動に関する処理内容である「処理内容」が含まれる。なお、優先順位は、数字が小さいほど優先順位が高いことを示す。   An example of the operation command stored by the operation command storage unit 6 is shown in FIG. 3 includes a “command No. (command number)” for identifying each operation command, a “motion content” that is a motion of the user's pupil associated with the operation command, the “priority order” described above, The “judgment criterion”, which is a criterion for determining whether or not the motion of the pupil detected by the motion determination unit 4 matches the operation command, and the motion of the pupil detected by the motion determination unit 4 described later is an operation. “Processing content” that is processing content related to movement of a cursor controlled by the processing control unit 5 described later when it is determined to match the command is included. The priority indicates that the smaller the number, the higher the priority.

図3の操作コマンドのうち、コマンドNo.が1の操作コマンドが上述の開始コマンドに対応し、コマンドNo.が2の操作コマンドが上述の終了コマンドに対応し、コマンドNo.が4の操作コマンドが上述の位置復帰コマンドに対応する。   Of the operation commands shown in FIG. Corresponds to the start command described above, and the command No. Corresponds to the above-mentioned end command, and the command No. 4 corresponds to the position return command described above.

選択コマンド格納部7は、ユーザの顔の動作に関連付けて、処理の実行・停止の選択に関する選択コマンドを格納する。   The selection command storage unit 7 stores a selection command related to selection of execution / stop of processing in association with the movement of the user's face.

選択コマンド格納部7には、優先順位が付された複数の選択コマンドが格納されてもよい。後述の動作判断部4は、優先順位が付された複数の選択コマンドのうち、優先順位の高い順からユーザの顔の動作が選択コマンドに一致するか否かを判断し、後述の処理制御部5は、一致した選択コマンドに対応する処理の実行・停止の選択を制御する。つまり、ユーザが意図した制御を優先的に実行させたい場合は、ユーザがその制御に関する選択コマンドの優先順位を高くすることにより、処理制御部5によってその制御が優先的に制御されることになる。   The selection command storage unit 7 may store a plurality of selection commands with priorities. The operation determination unit 4 described later determines whether or not the user's face operation matches the selection command in descending order of priority among the plurality of selection commands assigned priority, and a processing control unit described later 5 controls selection of execution / stop of processing corresponding to the matched selection command. That is, when the user wants to preferentially execute the control intended by the user, the control is preferentially controlled by the processing control unit 5 when the user increases the priority of the selection command related to the control. .

また、選択コマンドには、ユーザの顔の動作による処理の実行・停止の選択を開始する開始コマンドと、ユーザの顔の動作による処理の実行・停止の選択を終了する終了コマンドとが含まれていてもよい。開始コマンドと終了コマンドを用いることで、処理の実行・停止の選択の開始と終了を区切ることができ、処理の実行・停止の選択を制御したい状況においてのみ、携帯端末1に処理の実行・停止の選択を制御させることができる。   The selection command includes a start command for starting selection of execution / stop of processing based on the user's face motion and an end command for ending selection of execution / stop of processing based on the user's face motion. May be. By using the start command and end command, the start and end of the selection of execution / stop of the process can be separated, and the execution / stop of the process is performed on the portable terminal 1 only in a situation where it is desired to control the selection of execution / stop of the process. The selection can be controlled.

選択コマンド格納部7により格納される選択コマンドの一例を図4に示す。図4の選択コマンドには、各選択コマンドを識別する「コマンドNo.(コマンド番号)」、選択コマンドに関連付けられたユーザの顔の動作である「動作内容」、上述の「優先順位」、後述の動作判断部4が検出された顔の動作が選択コマンドに一致するか否かを判断する際の判断基準である「判断基準」、後述の動作判断部4により検出された顔の動作が選択コマンドに一致すると判断した際に後述の処理制御部5により制御される処理の実行・停止の選択に関する処理内容である「処理内容」が含まれる。なお、優先順位は、数字が小さいほど優先順位が高いことを示す。   An example of the selection command stored by the selection command storage unit 7 is shown in FIG. 4 includes a “command No. (command number)” for identifying each selected command, a “motion content” that is a motion of the user's face associated with the selected command, the “priority order” described above, The “judgment criterion”, which is a criterion for determining whether the motion of the face detected by the motion determination unit 4 coincides with the selection command, the motion of the face detected by the motion determination unit 4 described later is selected. “Processing content” that is processing content related to selection of execution / stop of processing controlled by the processing control unit 5 described later when it is determined that the command matches is included. The priority indicates that the smaller the number, the higher the priority.

動作判断部4は、動作検出部3によってユーザの動作が検出された場合に、検出された動作が操作コマンド又は選択コマンドに一致するか否かを判断する。動作判断部4は、優先順位の高い順から動作が操作コマンド又は選択コマンドに一致するか否かを判断してもよい。   When the motion detection unit 3 detects a user motion, the motion determination unit 4 determines whether the detected motion matches an operation command or a selection command. The operation determination unit 4 may determine whether the operation matches the operation command or the selection command from the highest priority order.

処理制御部5は、動作判断部4によって動作が操作コマンド又は選択コマンドに一致すると判断された場合に、一致したコマンドに対応するカーソルの移動又は処理の実行・停止の選択を制御する。   When the operation determination unit 4 determines that the operation matches the operation command or the selection command, the process control unit 5 controls the movement of the cursor corresponding to the matched command or the selection of execution / stop of the process.

以下では、図3を用いて、動作判断部4による操作コマンドの一致判断、及び処理制御部5による操作コマンドの制御の具体例を示す。まず、動作検出部3によりユーザの瞳の動作として、両目を開く動作が検出されたとする。また、その際、動作検出部3は、両目を開く動作が例えば1.2秒継続されたことを検出する。次に動作判断部4は、検出された両目を開く動作が操作コマンド格納部6により格納された操作コマンドに一致するか否かを判断する。動作判断部4は、操作コマンド格納部6により格納された図3の操作コマンドのうち、コマンドNo.が1の操作コマンドの動作内容が該当すると判断する。さらに、両目を開く動作が、当該操作コマンドの判断基準である「0.5秒以上継続」を満たしていることを判断し、コマンドNo.が1の操作コマンドが一致していると判断する。そして、処理制御部5は、コマンドNo.が1の操作コマンドの処理内容である「カーソルの移動の開始」に対応する制御を行う。   Hereinafter, a specific example of the operation command coincidence determination by the operation determination unit 4 and the operation command control by the processing control unit 5 will be described with reference to FIG. First, it is assumed that the motion detection unit 3 detects a motion of opening both eyes as the motion of the user's pupil. At that time, the operation detection unit 3 detects that the operation of opening both eyes is continued for, for example, 1.2 seconds. Next, the operation determination unit 4 determines whether or not the detected operation of opening both eyes matches the operation command stored by the operation command storage unit 6. The operation determination unit 4 includes a command No. among the operation commands in FIG. 3 stored by the operation command storage unit 6. It is determined that the operation content of the operation command with 1 corresponds. Further, it is determined that the operation of opening both eyes satisfies the “continuation of 0.5 seconds or more” which is the determination criterion of the operation command, and the command No. Is determined to match the operation command of 1. Then, the process control unit 5 receives the command No. The control corresponding to “start of cursor movement”, which is the processing content of the operation command 1 is performed.

続いて、以下では、図4を用いて、動作判断部4による選択コマンドの一致判断、及び処理制御部5による選択コマンドの制御の具体例を示す。まず、動作検出部3によりユーザの顔の動作として、右目を閉じる動作が検出されたとする。また、その際、動作検出部3は、右目を閉じる動作が例えば0.7秒継続されたことを検出する。次に動作判断部4は、検出された右目を閉じる動作が選択コマンド格納部7により格納された選択コマンドに一致するか否かを判断する。動作判断部4は、選択コマンド格納部7により格納された図3の選択コマンドのうち、コマンドNo.が3の選択コマンドの動作内容が該当すると判断する。さらに、右目を閉じる動作が、当該選択コマンドの判断基準である「0.5秒以上継続」を満たしていることを判断し、コマンドNo.が3の選択コマンドが一致していると判断する。そして、処理制御部5は、コマンドNo.が3の選択コマンドの処理内容である「Yesを選択する」に対応する制御を行う。なお、この「Yesを選択する」とは、例えば、表示部2に表示されたダイアログボックスに含まれる「Yes」ボタンを選択することを意味する。   Next, a specific example of selection command matching determination by the operation determination unit 4 and selection command control by the processing control unit 5 will be described with reference to FIG. First, it is assumed that the motion detection unit 3 detects the motion of closing the right eye as the motion of the user's face. At that time, the operation detection unit 3 detects that the operation of closing the right eye is continued for, for example, 0.7 seconds. Next, the operation determination unit 4 determines whether or not the detected operation of closing the right eye matches the selection command stored by the selection command storage unit 7. The operation determination unit 4 includes a command No. of the selection commands stored in the selection command storage unit 7 in FIG. Is determined to correspond to the operation content of the selection command of No. 3. Further, it is determined that the operation of closing the right eye satisfies the “continuation of 0.5 seconds or more” which is the determination criterion of the selected command. It is determined that the selection commands of 3 match. Then, the process control unit 5 receives the command No. Performs the control corresponding to “Select Yes” which is the processing content of the selection command 3. Note that “selecting Yes” means, for example, selecting the “Yes” button included in the dialog box displayed on the display unit 2.

なお、上記の選択コマンドの具体例において、動作検出部3が、「両目を閉じ、かつ、顔を前に倒す」動作が0.7秒継続されたことを検出したとする。この場合、図3の選択コマンドのうち、コマンドNo.が3の選択コマンドと共に、コマンドNo.が7の選択コマンドも一致する条件を満たすことになる。ただし、コマンドNo.が3の選択コマンドの優先順位が3で、コマンドNo.が7の選択コマンドの優先順位が7であり、コマンドNo.が3の選択コマンドの優先順位の方が高いので、この場合、動作判断部4はコマンドNo.が3の選択コマンドが一致していると判断する。   In the specific example of the selection command, it is assumed that the motion detection unit 3 detects that the operation of “closing both eyes and tilting the face forward” is continued for 0.7 seconds. In this case, of the selection commands in FIG. Is a command No. The selection command of 7 also satisfies the matching condition. However, the command No. The priority of the selection command of 3 is 3, and the command No. 7 has a priority of 7, and the command No. In this case, the operation determination unit 4 determines whether the command No. 3 has a higher command priority. It is determined that the selection commands of 3 match.

なお、上述の動作内容の具体例である「両目を閉じ、かつ、顔を前に倒す」のように、選択コマンドに関連付けられたユーザの顔の動作を、複数の顔の動作としてもよい。その場合、動作判断部4は、複数の顔の動作が全て一致したか否かにより、該当する選択コマンドが一致するか否かを判断する。   Note that the action of the user's face associated with the selection command, such as “close both eyes and tilt the face forward”, which is a specific example of the action content described above, may be a plurality of face actions. In that case, the motion determination unit 4 determines whether or not the corresponding selection commands match depending on whether or not the motions of the plurality of faces all match.

次に、図5〜図8を用いて、携帯端末1において、ユーザの瞳及び顔の動作に対応した制御を行う際の表示部2に表示される画面の一例を示す。図5は、表示部2上にアイコンA1〜A5、及びカーソルBが表示されている状態を示した図である。次に、動作検出部3によりユーザの両目を見開く動作が検出され、動作判断部4により図3のコマンドNo.が1の操作コマンド(開始コマンド)が一致していると判断され、処理制御部5により当該開始コマンドの処理内容である「カーソルの移動を開始」の制御が実行される。   Next, an example of a screen displayed on the display unit 2 when performing control corresponding to the movement of the user's pupil and face in the mobile terminal 1 will be described with reference to FIGS. FIG. 5 is a diagram showing a state in which icons A1 to A5 and a cursor B are displayed on the display unit 2. Next, the motion detection unit 3 detects an operation of opening both eyes of the user, and the motion determination unit 4 detects the command No. 1 in FIG. Are determined to match the operation command (start command), and the process control unit 5 executes control of “start movement of cursor” which is the processing content of the start command.

次に、動作検出部3によりユーザの黒目の移動が検出され、動作判断部4により図3のコマンドNo.が3の操作コマンドが一致していると判断され、処理制御部5により当該操作コマンドの処理内容である「カーソルを黒目の移動に合わせて移動」の制御が実行される。図6は、黒目の移動にあわせてカーソルBが軌跡Cを辿ってアイコンA2の上に移動したことを示す図である。   Next, the movement detection unit 3 detects the movement of the user's black eye, and the operation determination unit 4 detects the command number of FIG. Are determined to match, and the processing control unit 5 executes control of “move the cursor in accordance with the movement of the black eye”, which is the processing content of the operation command. FIG. 6 is a diagram showing that the cursor B has moved along the locus C and moved onto the icon A2 in accordance with the movement of the black eye.

次に、動作検出部3によりユーザの両目を2回閉じる動作が検出され、動作判断部4により図3のコマンドNo.が2の操作コマンド(終了コマンド)が一致していると判断され、処理制御部5により当該終了コマンドの処理内容である「カーソルの移動を終了」の制御が実行される。それに伴い、アイコンA2に対応する電子メールソフトの起動確認を行うダイアログボックスDが表示されたとする。図7は、ダイアログボックスDが表示された状態を示す図である。   Next, the operation detecting unit 3 detects an operation of closing both eyes of the user twice, and the operation determining unit 4 detects the command No. 2 in FIG. Are determined to match the operation command (end command) 2, and the process control unit 5 executes control of “end cursor movement” which is the processing content of the end command. Accordingly, it is assumed that a dialog box D for confirming activation of the electronic mail software corresponding to the icon A2 is displayed. FIG. 7 is a diagram showing a state in which the dialog box D is displayed.

次に、動作検出部3によりユーザの顔を左右に順番に傾ける動作が検出され、動作判断部4により図4のコマンドNo.が1の選択コマンド(開始コマンド)が一致していると判断され、処理制御部5により当該開始コマンドの処理内容である「処理の実行・停止の選択を開始」の制御が実行される。次に、動作検出部3によりユーザの唇の口角が一定の角度以上上がり、「Ye」の形をしている動作が検出され、動作判断部4により図4のコマンドNo.が5の選択コマンドが一致していると判断され、処理制御部5により当該選択コマンドの処理内容である「Yesを選択する」の制御が実行される。図8は、ダイアログボックスD上のYesボタンが選択された状態(選択状態E)を示す。   Next, the motion detection unit 3 detects the motion of tilting the user's face in the left and right order. Is determined to match the 1 selection command (start command), and the process control unit 5 executes control of “start selection of execution / stop of process” which is the process content of the start command. Next, the motion detection unit 3 detects the motion of the shape of “Ye” by raising the mouth angle of the user's lips by a certain angle or more. Are selected, and the process control unit 5 executes the control of “select Yes” which is the processing content of the selected command. FIG. 8 shows a state where the Yes button on the dialog box D is selected (selected state E).

続いて、このように構成された携帯端末1の動作について説明する。図9及び図10は、携帯端末1の動作を示すフローチャートである。なお、図9のS6の次はMとなっているが、これは図10のMに続くことを意味している。つまり、図9のS6の次は図10のS7に続く。   Next, the operation of the mobile terminal 1 configured as described above will be described. 9 and 10 are flowcharts showing the operation of the mobile terminal 1. In addition, although the next to S6 in FIG. 9 is M, this means that it follows M in FIG. That is, S6 in FIG. 9 follows S7 in FIG.

まず、動作検出部3は、ユーザの瞳の動作を検出し(S1)、動作判断部4は、検出した瞳の動作が開始コマンドに一致すると判断し、処理制御部5は、カーソルの移動を開始する制御を行う(S2)。次に、動作検出部3は、ユーザの瞳の動作を検出し(S3)、動作判断部4は、検出した瞳の動作が瞳の動作に合わせたカーソルの移動に関する操作コマンドに一致すると判断し、処理制御部5は、瞳の動作に合わせてカーソルの移動を行う(S4)。次に、動作検出部3は、ユーザの瞳の動作を検出し(S5)、動作判断部4は、検出した瞳の動作が終了コマンドに一致すると判断し、処理制御部5は、カーソルの移動を終了する制御を行う(S6)。   First, the motion detection unit 3 detects the user's pupil motion (S1), the motion determination unit 4 determines that the detected pupil motion matches the start command, and the processing control unit 5 moves the cursor. Control to start is performed (S2). Next, the motion detection unit 3 detects the movement of the user's pupil (S3), and the motion determination unit 4 determines that the detected pupil motion matches the operation command related to the movement of the cursor in accordance with the pupil motion. The process control unit 5 moves the cursor in accordance with the movement of the pupil (S4). Next, the motion detection unit 3 detects the motion of the user's pupil (S5), the motion determination unit 4 determines that the detected pupil motion matches the end command, and the processing control unit 5 moves the cursor. Control to end is performed (S6).

次に、動作検出部3は、ユーザの顔の動作を検出し(S7)、動作判断部4は、検出した顔の動作が開始コマンドに一致すると判断し、処理制御部5は、処理の実行・停止の選択を開始する制御を行う(S8)。次に、動作検出部3は、ユーザの顔の動作を検出し(S9)、動作判断部4は、検出した顔の動作が処理の実行・停止の選択に関する選択コマンドに一致すると判断し、処理制御部5は、処理の実行・停止の選択を行う(S10)。次に、動作検出部3は、ユーザの顔の動作を検出し(S11)、動作判断部4は、検出した顔の動作が終了コマンドに一致すると判断し、処理制御部5は、処理の実行・停止の選択を終了する制御を行う(S12)。   Next, the motion detection unit 3 detects the motion of the user's face (S7), the motion determination unit 4 determines that the detected facial motion matches the start command, and the process control unit 5 executes the process. Control for starting selection of stop is performed (S8). Next, the motion detection unit 3 detects the motion of the user's face (S9), and the motion determination unit 4 determines that the detected face motion matches the selection command related to selection of execution / stop of processing, and processing The control unit 5 selects whether to execute or stop the process (S10). Next, the motion detection unit 3 detects the motion of the user's face (S11), the motion determination unit 4 determines that the detected face motion matches the end command, and the process control unit 5 executes the process. -Control which complete | finishes selection of a stop is performed (S12).

以上説明したように、この携帯端末1では、ユーザの瞳及び顔の動作が検出された場合に、検出された動作が操作コマンド又は選択コマンドに一致するか否かが判断され、一致すると判断された場合に、一致したコマンドに対応するカーソルの移動又は処理の実行・停止の選択が制御される。この携帯端末1では、ボタン等の操作がなされずとも、ユーザによる瞳及び顔の動作を検出してカーソルの移動や処理の実行・停止の選択がなされるので、ユーザは画面を見たままの状態で簡便に携帯端末1を操作できる。また、この携帯端末1では、瞳の動作による操作コマンドと、顔の動作による選択コマンドとを切り分けているので、ユーザの操作性を確保でき、かつ誤動作を防止できる。   As described above, in the portable terminal 1, when the movement of the user's pupil and face is detected, it is determined whether or not the detected movement matches the operation command or the selection command. In this case, the movement of the cursor corresponding to the matched command or the selection of execution / stop of the process is controlled. In this portable terminal 1, even if the operation of buttons or the like is not performed, the movement of the cursor and the selection of execution / stop of the process are performed by detecting the movement of the pupil and the face by the user. The portable terminal 1 can be easily operated in the state. Further, in the portable terminal 1, since the operation command based on the pupil motion and the selection command based on the face motion are separated, the operability for the user can be ensured and the malfunction can be prevented.

また、この携帯端末1では、優先順位の高い順から動作が操作コマンド又は選択コマンドに一致するか否かが判断される。これにより、ユーザは、操作コマンド又は選択コマンドの優先順位を高くすることで、ユーザが意図した制御を優先的に実行させることができる。よって、この携帯端末1は、ユーザの操作性に優れており、それゆえに、ユーザによる誤動作をより少なくすることができる。   Moreover, in this portable terminal 1, it is judged whether operation | movement corresponds to an operation command or a selection command from an order with a high priority. Accordingly, the user can preferentially execute the control intended by the user by increasing the priority of the operation command or the selection command. Therefore, this portable terminal 1 is excellent in user operability, and therefore, malfunctions by the user can be reduced.

また、この携帯端末1では、ユーザは開始コマンドと終了コマンドを用いてカーソルの移動の開始と終了を区切ることで、カーソルの移動を制御したい状況においてのみ、携帯端末1にカーソルの移動を制御させることができる。したがって誤動作をより確実に防止できる。   In the portable terminal 1, the user uses the start command and the end command to separate the start and end of the cursor movement, so that the portable terminal 1 controls the movement of the cursor only in a situation where the cursor movement is desired to be controlled. be able to. Therefore, malfunction can be prevented more reliably.

また、この携帯端末1では、ユーザが誤ってカーソルの位置を意図しない位置に移動した場合でも、すぐにカーソル位置を開始コマンドによってカーソルの移動が開始された際のカーソルの位置に復帰させることができる。   Further, even if the user accidentally moves the cursor position to an unintended position, the mobile terminal 1 can immediately return the cursor position to the cursor position when the cursor movement is started by the start command. it can.

この携帯端末1では、ユーザは開始コマンドと終了コマンドを用いて処理の実行・停止の選択の開始と終了を区切ることで、処理の実行・停止の選択を制御したい状況においてのみ、携帯端末1に処理の実行・停止の選択を制御させることができる。したがって誤動作をより確実に防止できる。   In this portable terminal 1, the user uses the start command and the end command to separate the start and end of the process execution / stop selection, and only in the situation where the user wants to control the process execution / stop selection. The selection of execution / stop of processing can be controlled. Therefore, malfunction can be prevented more reliably.

1…携帯端末、2…表示部、3…動作検出部、4…動作判断部、5…処理制御部、6…操作コマンド格納部、7…選択コマンド格納部。   DESCRIPTION OF SYMBOLS 1 ... Portable terminal, 2 ... Display part, 3 ... Motion detection part, 4 ... Motion judgment part, 5 ... Process control part, 6 ... Operation command storage part, 7 ... Selection command storage part.

Claims (5)

ユーザの瞳及び顔の動作を検出する動作検出手段と、
ユーザの瞳の動作に関連付けて、表示手段に表示されるカーソルの移動に関する操作コマンドを格納する操作コマンド格納手段と、
ユーザの顔の動作に関連付けて、処理の実行・停止の選択に関する選択コマンドを格納する選択コマンド格納手段と、
前記動作検出手段によってユーザの動作が検出された場合に、検出された動作が前記操作コマンド又は前記選択コマンドに一致するか否かを判断する動作判断手段と、
前記動作判断手段によって前記動作が前記操作コマンド又は前記選択コマンドに一致すると判断された場合に、一致したコマンドに対応するカーソルの移動又は処理の実行・停止の選択を制御する処理制御手段と、
を備えたことを特徴とする携帯端末。
Motion detection means for detecting the motion of the user's eyes and face;
Operation command storage means for storing an operation command related to movement of the cursor displayed on the display means in association with the movement of the user's pupil;
A selection command storage means for storing a selection command related to selection of execution / stop of processing in association with the movement of the user's face;
An operation determination unit that determines whether the detected operation matches the operation command or the selection command when a user operation is detected by the operation detection unit;
A process control means for controlling selection of movement of the cursor corresponding to the matched command or execution / stop of the process when the action determination means determines that the action matches the operation command or the selection command;
A portable terminal characterized by comprising:
前記操作コマンド格納手段には、優先順位が付された複数の操作コマンドが格納され、
前記選択コマンド格納手段には、優先順位が付された複数の選択コマンドが格納され、
前記動作判断手段は、前記優先順位の高い順から前記動作が前記操作コマンド又は前記選択コマンドに一致するか否かを判断することを特徴とする請求項1記載の携帯端末。
The operation command storage means stores a plurality of operation commands with priorities,
The selection command storage means stores a plurality of selection commands with priorities,
2. The mobile terminal according to claim 1, wherein the operation determining unit determines whether the operation matches the operation command or the selection command in descending order of priority.
前記操作コマンドには、ユーザの瞳の動作による前記カーソルの移動を開始する開始コマンドと、ユーザの瞳の動作による前記カーソルの移動を終了する終了コマンドとが含まれていることを特徴とする請求項1又は2記載の携帯端末。   The operation command includes a start command for starting movement of the cursor by a user's pupil movement and an end command for ending movement of the cursor by a user's pupil movement. Item 3. A portable terminal according to item 1 or 2. 前記操作コマンドには、前記カーソルの位置を前記開始コマンドによって前記カーソルの移動が開始された際の前記カーソルの位置に復帰させる位置復帰コマンドが含まれていることを特徴とする請求項3記載の携帯端末。   4. The operation command includes a position return command for returning the position of the cursor to the position of the cursor when the movement of the cursor is started by the start command. Mobile device. 前記選択コマンドには、前記ユーザの顔の動作による前記処理の実行・停止の選択を開始する開始コマンドと、前記ユーザの顔の動作による前記処理の実行・停止の選択を終了する終了コマンドとが含まれていることを特徴とする請求項1〜4のいずれか一項記載の携帯端末。   The selection command includes a start command for starting selection of execution / stop of the process based on the user's face motion, and an end command for ending selection of execution / stop of the processing based on the user's face motion. It is contained, The portable terminal as described in any one of Claims 1-4 characterized by the above-mentioned.
JP2010075956A 2010-03-29 2010-03-29 Mobile terminal Pending JP2011209928A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010075956A JP2011209928A (en) 2010-03-29 2010-03-29 Mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010075956A JP2011209928A (en) 2010-03-29 2010-03-29 Mobile terminal

Publications (1)

Publication Number Publication Date
JP2011209928A true JP2011209928A (en) 2011-10-20

Family

ID=44940930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010075956A Pending JP2011209928A (en) 2010-03-29 2010-03-29 Mobile terminal

Country Status (1)

Country Link
JP (1) JP2011209928A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014103217A1 (en) * 2012-12-26 2014-07-03 株式会社デンソー Operation device and operation detection method
CN105929954A (en) * 2016-04-19 2016-09-07 京东方科技集团股份有限公司 Cursor control method and apparatus as well as display device
DE102018123114A1 (en) 2017-11-20 2019-05-23 Toyota Jidosha Kabushiki Kaisha control unit

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100903A (en) * 1999-09-28 2001-04-13 Sanyo Electric Co Ltd Device with line of sight detecting function
JP2005047331A (en) * 2003-07-31 2005-02-24 Nissan Motor Co Ltd Control device
JP2007249595A (en) * 2006-03-15 2007-09-27 Omron Corp Display, projector, display system, display method, display program, and recording medium
JP2007316882A (en) * 2006-05-25 2007-12-06 Mitsubishi Electric Corp Remotely-controlled device and method
JP2009020691A (en) * 2007-07-11 2009-01-29 Kyocera Mita Corp User authentication method, user authentication apparatus and image forming apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100903A (en) * 1999-09-28 2001-04-13 Sanyo Electric Co Ltd Device with line of sight detecting function
JP2005047331A (en) * 2003-07-31 2005-02-24 Nissan Motor Co Ltd Control device
JP2007249595A (en) * 2006-03-15 2007-09-27 Omron Corp Display, projector, display system, display method, display program, and recording medium
JP2007316882A (en) * 2006-05-25 2007-12-06 Mitsubishi Electric Corp Remotely-controlled device and method
JP2009020691A (en) * 2007-07-11 2009-01-29 Kyocera Mita Corp User authentication method, user authentication apparatus and image forming apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014103217A1 (en) * 2012-12-26 2014-07-03 株式会社デンソー Operation device and operation detection method
JP2014126997A (en) * 2012-12-26 2014-07-07 Denso Corp Operation device, and operation detection method
CN105929954A (en) * 2016-04-19 2016-09-07 京东方科技集团股份有限公司 Cursor control method and apparatus as well as display device
CN105929954B (en) * 2016-04-19 2019-10-18 京东方科技集团股份有限公司 It is a kind of control cursor method and device, display equipment
DE102018123114A1 (en) 2017-11-20 2019-05-23 Toyota Jidosha Kabushiki Kaisha control unit
US10890980B2 (en) 2017-11-20 2021-01-12 Toyota Jidosha Kabushiki Kaisha Operating apparatus for estimating an operation intention intended by a face direction

Similar Documents

Publication Publication Date Title
US20230229293A1 (en) Method, apparatus, and terminal for processing notification information
US20180165003A1 (en) Text input method in touch screen terminal and apparatus therefor
EP2525271B1 (en) Method and apparatus for processing input in mobile terminal
KR101838031B1 (en) Method and apparatus for managing icon in portable terminal
US9001046B2 (en) Mobile terminal with touch screen
US20160381287A1 (en) System and methods for controlling device operation and image capture
US20170090566A1 (en) System for gaze interaction
CN107124508B (en) Position adjusting method and device of suspension control, terminal and readable storage medium
CN106066537B (en) Head-mounted display and control method of head-mounted display
EP2884376A1 (en) Portable electronic device, and control method and program therefor
US11546457B2 (en) Electronic device and method of operating electronic device in virtual reality
KR20130080179A (en) Method and apparatus for managing icon in portable terminal
TW201224917A (en) Mode switching
EP3144775A1 (en) Information processing system and information processing method
CN109308160B (en) Operational order triggering method, device, electronic equipment and storage medium
JP5865615B2 (en) Electronic apparatus and control method
US10802620B2 (en) Information processing apparatus and information processing method
US11061565B2 (en) Electronic device and control method
JP2011209928A (en) Mobile terminal
CN108139848B (en) Electronic device and method for providing fluid-type user interface
US9536526B2 (en) Electronic device with speaker identification, method and storage medium
CN108141500B (en) Apparatus and method for rejecting or accepting a telephone call
JP2012141696A (en) Portable information terminal and display control method for the same
KR101777565B1 (en) Method for providing user interface of mobile terminal
KR20220002310A (en) User interface systems, methods and devices

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120427

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121120