JP2011243141A - Operation information processor, method and program - Google Patents
Operation information processor, method and program Download PDFInfo
- Publication number
- JP2011243141A JP2011243141A JP2010117121A JP2010117121A JP2011243141A JP 2011243141 A JP2011243141 A JP 2011243141A JP 2010117121 A JP2010117121 A JP 2010117121A JP 2010117121 A JP2010117121 A JP 2010117121A JP 2011243141 A JP2011243141 A JP 2011243141A
- Authority
- JP
- Japan
- Prior art keywords
- user
- movement
- unit
- information
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、操作情報処理装置、方法及びプログラムに関する。 The present invention relates to an operation information processing apparatus, method, and program.
マウスなどのポインティングデバイスは、PC(Personal computer)などコンピュータの入力装置として、主に画面上に表示されるポインタやアイコンなどを操作するために用いられている。 A pointing device such as a mouse is used as an input device of a computer such as a PC (Personal computer) mainly for operating a pointer or an icon displayed on a screen.
また、ポインティングデバイスは、ディスプレイに映し出されるポインタやアイコン、ボタン等に対して直感的な入力操作を提供するGUI(Graphical User Interface)環境において、ポインタの移動やボタンの押下といった操作を要求するために用いられている。 In addition, the pointing device requests an operation such as moving the pointer or pressing a button in a GUI (Graphical User Interface) environment that provides an intuitive input operation for a pointer, icon, button, or the like displayed on the display. It is used.
しかし、ポインティングデバイスは、ユーザが直接自らの手を用いて操作する必要があるため、身体的障害、怪我等により手が不自由な操作者が操作するのに不便であるという問題があった。 However, since the pointing device needs to be directly operated by the user using his / her hand, there is a problem that it is inconvenient for an operator who has difficulty in hand operation due to physical injury or injury.
このような問題点を解決する技術の一例が特許文献1に記載されている。特許文献1に記載のポインティングデバイスを実現する動体検出装置は、動体の動きに対応する物理量を時系列的に受け付ける受付手段と、該受付手段が所定時間にわたって受け付けた物理量を所定の座標系における座標に変換する変換手段と、該変換手段が変換した前記座標の変動に基づいて前記動体の動きを検出する手段とを備え、前記変換手段が変換した複数の座標を記憶する手段と、前記複数の座標が包含される前記座標系上の空間を算出する算出手段と、前記空間が算出された後に前記受付手段が受け付けた物理量を変換した座標が、前記空間に包含されるか否かを判断する手段と、前記空間に包含されると判断した場合、前記動体は停止していると判断する手段とを備える。
An example of a technique for solving such a problem is described in
また、別の一例が特許文献2に記載されている。特許文献2記載のポインタ制御信号発生方法は、ポインティングデバイスからの信号によりディスプレイに表示されるポインタの位置制御インタフェース及びポインタ位置と関連づけられたユーザの押しボタンによる動作指示をソフトウエアに伝達するインタフェースを有するシステムに対し制御信号を発生する方法であって、頭部の移動を検知し移動量情報を作成するステップと、左眼及び右眼の開閉を検出し開閉情報を作成するステップと、左右の眼の開閉情報をポインティングデバイスの左右の押しボタンスイッチの押下状態情報に対応づけるステップと、前記移動量情報及び押下状態情報を制御信号として出力するステップとからなる。 Another example is described in Patent Document 2. The pointer control signal generation method described in Patent Document 2 includes a pointer position control interface displayed on a display by a signal from a pointing device and an interface for transmitting an operation instruction by a user push button associated with the pointer position to software. A method of generating a control signal for a system having a step of detecting movement of the head and generating movement amount information, a step of detecting opening and closing of the left eye and the right eye and generating opening and closing information, The step includes associating eye opening / closing information with the pressing state information of the left and right push button switches of the pointing device and outputting the movement amount information and the pressing state information as control signals.
上述の特許文献記載の技術は、表示画面に表示されるコンテンツ等表示物に関わらず、専らユーザの顔または目の動きのみによって、ポインティングデバイス等に関する操作内容を決定する。したがって、装置が、ユーザの意図を正しく反映しない操作を実行してしまうという問題がある。 The technology described in the above-described patent document determines the operation content related to the pointing device or the like only by the movement of the user's face or eyes, regardless of the display object such as the content displayed on the display screen. Therefore, there is a problem that the apparatus executes an operation that does not correctly reflect the user's intention.
このため、本発明の目的は、ユーザの意図を正しく反映した操作を実行する操作情報処理装置、方法及びプログラムを提供することである。 Therefore, an object of the present invention is to provide an operation information processing apparatus, method, and program for executing an operation that correctly reflects the user's intention.
かかる目的を達成するため、本発明の一形態は、操作情報処理装置であって、表示手段に表示される表示物である文章が縦書きか横書きかの区別情報の取得と、前記文章をユーザが見ることができる位置に存在する前記ユーザの顔または目を撮像する撮像手段によって撮像された画像入力と、前記画像からの前記ユーザの顔または目の動作の検出と、を行ない、前記区別情報が縦書きの場合は前記動作のうち横方向の動きを抽出し、前記区別情報が横書きの場合は前記動作のうち縦方向の動きを抽出して出力する検出手段と、前記検出手段が出力した動きによって決定される所定の操作指示を、前記操作指示を実行する操作手段に送信する処理手段と、を備える。 In order to achieve such an object, an embodiment of the present invention is an operation information processing apparatus that obtains distinction information about whether a sentence, which is a display object displayed on a display means, is vertical writing or horizontal writing, and uses the sentence as a user. The image information input by the imaging means for capturing the user's face or eyes existing at a position where the user can see the image, and the detection of the user's face or eye movement from the image, and the discrimination information When the vertical direction is written, the horizontal movement of the movement is extracted. When the discrimination information is horizontal writing, the vertical movement of the movement is extracted and output, and the detection section outputs the movement. And processing means for transmitting a predetermined operation instruction determined by movement to an operation means for executing the operation instruction.
また、本発明によれば、表示手段に表示される表示物である文章が縦書きか横書きかの区別情報の取得と、前記文章をユーザが見ることができる位置に存在する前記ユーザの顔または目を撮像する撮像手段によって撮像された画像入力と、前記画像からの前記ユーザの顔または目の動作の検出と、を行ない、前記区別情報が縦書きの場合は前記動作のうち横方向の動きを抽出し、前記区別情報が横書きの場合は前記動作のうち縦方向の動きを抽出して出力する検出ステップと、前記検出手段が出力した動きによって決定される所定の操作指示を、前記操作指示を実行する操作手段に送信する処理ステップと、をコンピュータに実行させる操作情報処理プログラムが提供される。 In addition, according to the present invention, it is possible to acquire the discrimination information whether the text that is the display object displayed on the display means is vertical writing or horizontal writing, and the user's face or the user existing at a position where the user can see the text or The image input picked up by the imaging means for picking up the eyes and the detection of the user's face or eye movement from the image are performed, and when the distinction information is vertical writing, the horizontal movement of the movement is performed. When the distinction information is horizontal writing, a detection step of extracting and outputting a vertical movement of the movement, and a predetermined operation instruction determined by the movement output by the detection means, the operation instruction There is provided an operation information processing program for causing a computer to execute processing steps to be transmitted to an operating means for executing.
また、本発明によれば、表示手段に表示される表示物である文章が縦書きか横書きかの区別情報の取得と、前記文章をユーザが見ることができる位置に存在する前記ユーザの顔または目を撮像する撮像手段によって撮像された画像入力と、前記画像からの前記ユーザの顔または目の動作の検出と、を行ない、前記区別情報が縦書きの場合は前記動作のうち横方向の動きを抽出し、前記区別情報が横書きの場合は前記動作のうち縦方向の動きを抽出して出力する検出ステップと、前記検出手段が出力した動きによって決定される所定の操作指示を、前記操作指示を実行する操作手段に送信する処理ステップと、を行なう操作情報処理方法が提供される。 In addition, according to the present invention, it is possible to acquire the discrimination information whether the text that is the display object displayed on the display means is vertical writing or horizontal writing, and the user's face or the user existing at a position where the user can see the text or The image input picked up by the imaging means for picking up the eyes and the detection of the user's face or eye movement from the image are performed, and when the distinction information is vertical writing, the horizontal movement of the movement is performed. When the distinction information is horizontal writing, a detection step of extracting and outputting a vertical movement of the movement, and a predetermined operation instruction determined by the movement output by the detection means, the operation instruction And an operation information processing method for performing processing steps to be transmitted to the operating means for executing.
本発明によれば、ユーザの意図を正しく反映した操作を実行する操作情報処理装置、方法及びプログラムが提供される。 According to the present invention, an operation information processing apparatus, method, and program for executing an operation that correctly reflects the user's intention are provided.
まず、図1を用いて、本発明の概要の一例について説明する。 First, an example of the outline of the present invention will be described with reference to FIG.
図1の操作情報処理装置80には、カメラ等の撮像部40とディスプレイ等の表示部50とが接続される。ユーザに使用されている表示部50には文章、アイコンなどコンテンツが表示される。撮像部40はユーザの顔全体または目の部分のみあるいはその両方を撮像し、操作情報処理装置80へ撮像画像を送信する。表示部50に文章が表示されている場合、操作情報処理装置80はユーザの顔全体または目の部分のみあるいはその両方の動きの検出制御を行う。具体的には、操作情報処理装置80は、文章が縦(横)書きである場合には、ユーザの顔または目の動きのうち横(縦)方向のみを抽出する。操作情報処理装置80は、抽出した動きによって決定される所定の操作指示を操作実行部70に送信する。 1 is connected to an imaging unit 40 such as a camera and a display unit 50 such as a display. Content such as text and icons is displayed on the display unit 50 used by the user. The imaging unit 40 images the entire user's face and / or eyes, and transmits the captured image to the operation information processing apparatus 80. When a sentence is displayed on the display unit 50, the operation information processing apparatus 80 performs control to detect the movement of the entire face and / or the eyes of the user. Specifically, the operation information processing apparatus 80 extracts only the horizontal (vertical) direction from the movement of the user's face or eyes when the sentence is written vertically (horizontal). The operation information processing apparatus 80 transmits a predetermined operation instruction determined by the extracted movement to the operation execution unit 70.
このような構成によれば、本発明にかかる操作情報処理装置80はユーザの意図を正しく反映した操作を実行することができる。本発明は、文章が横(縦)書きである場合にはユーザの目は横(縦)方向に頻繁に動くため、横(縦)方向の動きを無視して縦(横)方向の動きのみを検出して所定操作と対応付けることにより、ユーザの意図を正しく反映しやすい操作情報処理装置、方法、及びプログラムを提供することができる。 According to such a configuration, the operation information processing apparatus 80 according to the present invention can execute an operation that correctly reflects the user's intention. According to the present invention, when the sentence is written horizontally (vertically), the user's eyes frequently move in the horizontal (vertical) direction. Therefore, the movement in the horizontal (vertical) direction is ignored and only the movement in the vertical (horizontal) direction is ignored. By detecting this and associating it with a predetermined operation, it is possible to provide an operation information processing apparatus, method, and program that easily reflects the user's intention.
以下、本発明の実施の形態について、図面を用いて説明する。
すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
In all the drawings, the same components are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
なお、各実施形態の操作情報処理装置80を構成する各部は、制御部、メモリ、メモリにロードされたプログラム、プログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェースなどからなり、ハードウェアとソフトウェアの任意の組合せによって実現される。そして特に断りのない限り、その実現方法、装置は限定されない。 Each unit constituting the operation information processing apparatus 80 of each embodiment includes a control unit, a memory, a program loaded in the memory, a storage unit such as a hard disk for storing the program, a network connection interface, and the like. Realized by any combination of software. And unless there is particular notice, the realization method and apparatus are not limited.
制御部はCPU(Central Processing Unit)などからなり、オペレーティングシステムを動作させて操作情報処理装置80の全体を制御するとともに、例えばドライブ装置などに装着された記録媒体からメモリにプログラムやデータを読み出し、これにしたがって各種の処理を実行する。 The control unit includes a CPU (Central Processing Unit) and the like, operates an operating system to control the entire operation information processing apparatus 80, and reads a program and data into a memory from a recording medium mounted on, for example, a drive device, Various processes are executed according to this.
記録媒体は、例えば光ディスク、フレキシブルディスク、磁気光ディスク、外付けハードディスク、半導体メモリ等であって、コンピュータプログラムをコンピュータ読み取り可能に記録する。また、コンピュータプログラムは、通信網に接続されている図示しない外部コンピュータからダウンロードされても良い。 The recording medium is, for example, an optical disk, a flexible disk, a magnetic optical disk, an external hard disk, a semiconductor memory, etc., and records a computer program so that it can be read by a computer. The computer program may be downloaded from an external computer (not shown) connected to the communication network.
また、各実施形態の説明において利用するブロック図は、ハードウェア単位の構成ではなく、機能単位のブロックを示している。これらの機能ブロックはハードウェア、ソフトウェアの任意の組み合わせによって実現される。また、これらの図においては、各実施形態の構成部は物理的に結合した一つの装置により実現されるよう記載されている場合もあるが、その実現手段はこれに限定されない。すなわち、二つ以上の物理的に分離した装置を有線または無線で接続し、これら複数の装置により、各実施形態のシステムを実現してもよい。 In addition, the block diagram used in the description of each embodiment shows a functional unit block, not a hardware unit configuration. These functional blocks are realized by any combination of hardware and software. Further, in these drawings, the components of each embodiment may be described as being realized by one physically coupled device, but the means for realizing the same is not limited thereto. That is, two or more physically separated devices may be connected by wire or wirelessly, and the system of each embodiment may be realized by the plurality of devices.
<実施形態1>以下、第一の実施の形態の構成例について説明する。
図2に、本実施の形態の操作情報処理装置80のブロック図の一例を示す。
<
FIG. 2 shows an example of a block diagram of the operation information processing apparatus 80 of the present embodiment.
操作情報処理装置80は、検出部10、処理部20を備える。さらに、操作条件記憶部30、表示制御部60、操作実行部70、撮像部40、表示部50を備えても良い。
The operation information processing apparatus 80 includes a detection unit 10 and a processing unit 20. Furthermore, an operation condition storage unit 30, a
表示部50は、液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ、CRT(Cathode Ray Tube)等の表示装置である。表示部50には、マウスポインタやブラウザ、各種コンテンツなどの表示物が表示される。 The display unit 50 is a display device such as a liquid crystal display, an organic EL (Electro-Luminescence) display, or a CRT (Cathode Ray Tube). On the display unit 50, display objects such as a mouse pointer, a browser, and various contents are displayed.
表示制御部60は、表示部50に表示されるコンテンツなどの表示物が文章である場合、その文章が縦書きか横書きかを区別し、検出部10に当該区別情報を送信する機能を有する。表示制御部60は、例えば、ブラウザに表示されるHTML(Hyper Text Markup Language)文章の書式タグを定期的に取得することで、表示されている文章が縦書きか横書きかを判定することができる。表示制御部60は、表示部50に複数のウィンドウが表示されている場合には、トップのウィンドウに表示される文章の書式のみを取得するようにしても良い。表示制御部60は、表示部50に表示される文章が縦書きであるか横書きであるかの区別情報を検出部10に受け渡す。なお、区別情報は後述する検出部10が生成するように構成されていても良い。
When the display object such as the content displayed on the display unit 50 is a sentence, the
検出部10は、図示しない検出制御部100、顔検出部101、顔動作検出部102、目検出部103、目動作検出部104を備える。 The detection unit 10 includes a detection control unit 100, a face detection unit 101, a face motion detection unit 102, an eye detection unit 103, and an eye motion detection unit 104 (not shown).
顔検出部101は、撮像部40によって撮影されたユーザの顔を検出する。顔検出部101の行なう顔検出は種々の方法で行なうことができる。例えば、顔検出部101は、撮像部40で撮像されたエリアの中で、予め用意した人物の顔の向きに関する輪郭情報、まゆげ、目、鼻、口などのパーツ情報、色情報等のモデルパターンを用い、これらと特徴が近い領域をテンプレートマッチングを用いて検出することで顔および顔の向きを検出することができる。あるいは、顔検出部101は、肌の色に近い領域を検出し、その領域を顔として検出する手法、または、ニューラルネットワークを使って教師信号による学習を行い、顔らしい領域を顔として検出する手法を用いても良い。あるいは、顔検出部101は、顔や額にマーカを取り付け、撮像部40にてマーカの位置を検出しても良い。 The face detection unit 101 detects the user's face photographed by the imaging unit 40. Face detection performed by the face detection unit 101 can be performed by various methods. For example, the face detection unit 101 includes model information such as contour information relating to the face orientation of a person prepared in advance in the area imaged by the imaging unit 40, part information such as eyebrows, eyes, nose, and mouth, and color information. , And the face and face orientation can be detected by detecting a region having features close to these using template matching. Alternatively, the face detection unit 101 detects a region close to the color of the skin and detects the region as a face, or a method of learning by a teacher signal using a neural network and detecting a region likely to be a face as a face May be used. Alternatively, the face detection unit 101 may attach a marker to the face or forehead and detect the position of the marker with the imaging unit 40.
顔動作検出部102は、顔検出部101によって検出された顔の動きを判定する機能を有する。顔動作検出部102の行なう顔の動き検出は種々の方法で行なうことができる。例えば顔動作検出部102は、顔検出部101によって検出された顔の向きに関するデータを連続して取得し、顔の向きが上下や左右に変化していることを検出する。この際、顔動作検出部102は、両目の位置、大きさなどの情報を合わせて用いることで顔の向きを判定しても良い。例えば、顔動作検出部102は両目の位置が略平行で大きさも略同一である場合には、ユーザが正面を向いていると判定し、片方の目が小さい場合には顔が左右の一方を向いていると判定しても良い。あるいは、顔動作検出部102は鼻パーツ等の向きが変化していることを検出して、顔の動きを判定しても良い。あるいは、顔動作検出部102は前述した顔や額に取り付けたマーカの変化量を検出して、顔の動きを判定しても良い。顔動作検出部102は、一定時間ユーザの顔の動きを撮影し、上記のマッチングを連続してあるいは一定時間毎に行ない時系列データを得ることで、顔が上下左右、斜めに動いている状態を判定することができる。 The face motion detection unit 102 has a function of determining the movement of the face detected by the face detection unit 101. Face motion detection performed by the face motion detection unit 102 can be performed by various methods. For example, the face motion detection unit 102 continuously acquires data related to the face orientation detected by the face detection unit 101, and detects that the face orientation has changed vertically or horizontally. At this time, the face motion detection unit 102 may determine the orientation of the face by using information such as the position and size of both eyes together. For example, when the positions of both eyes are approximately parallel and approximately the same size, the face motion detection unit 102 determines that the user is facing the front, and when one eye is small, the face is either left or right. It may be determined that it is suitable. Alternatively, the face motion detection unit 102 may determine the movement of the face by detecting that the direction of the nose part or the like has changed. Alternatively, the face motion detection unit 102 may determine the movement of the face by detecting the amount of change of the marker attached to the face or forehead described above. The face motion detection unit 102 captures the movement of the user's face for a certain period of time, obtains time-series data by performing the above matching continuously or at regular intervals, and the face is moving up, down, left, right, or diagonally Can be determined.
目検出部103は、撮像部40によって撮影された操作情報処理装置80のユーザの目を検出する。目検出部103の行なう目検出は種々の方法で行なうことができる。例えば、目検出部103は、撮像部40で撮像された眼球画像からテンプレートマッチング等により虹彩あるいは瞳孔のエッジ部を抽出して円近似を行ない、当該円の中心点を算出して目の位置として検出しても良い。 The eye detection unit 103 detects the eyes of the user of the operation information processing apparatus 80 photographed by the imaging unit 40. The eye detection performed by the eye detection unit 103 can be performed by various methods. For example, the eye detection unit 103 extracts the iris or the edge of the pupil from the eyeball image captured by the imaging unit 40 by template matching or the like, performs circle approximation, calculates the center point of the circle, and uses it as the eye position. It may be detected.
目動作検出部104は、目検出部103によって検出された目の動きを判定する機能を有する。目動作検出部104の行なう目の動き検出は種々の方法で行なうことができる。例えば、目動作検出部104は、前述のように虹彩あるいは瞳孔のエッジ部を抽出して円近似を行ない、当該円の中心点を算出して目の位置として検出された目の位置データを取得し、その中心点の変位量から視線方向を検出しても良い。この際、目動作検出部104は、目の調整微動を無視するために、一定以上の変位量を検知した場合にのみ視線方向が変化したと判定してもよい。また、目動作検出部104は、一定時間ユーザの目の動きを撮影し、上記のマッチングを連続してあるいは一定時間毎に行ない時系列データを得ることで、視線が上下左右、斜め方向に動いている状態を判定することができる。 The eye movement detection unit 104 has a function of determining the eye movement detected by the eye detection unit 103. The eye movement detection performed by the eye movement detection unit 104 can be performed by various methods. For example, the eye movement detection unit 104 extracts the iris or pupil edge as described above, performs circle approximation, calculates the center point of the circle, and acquires eye position data detected as the eye position. The line-of-sight direction may be detected from the amount of displacement of the center point. At this time, the eye movement detection unit 104 may determine that the line-of-sight direction has changed only when a certain amount of displacement is detected in order to ignore the fine adjustment of the eyes. The eye movement detection unit 104 captures the eye movement of the user for a certain period of time, and performs the above matching continuously or at regular intervals to obtain time-series data. Can be determined.
検出制御部100は、表示制御部60によって取得される文章の書式に関する区別情報を基に、上述の顔動作検出部102、目動作検出部104の検出を制御する。具体的には、区別情報が縦書きである場合、検出制御部100は、顔動作検出部102、目動作検出部104が縦方向の動き検出を中止し、横方向の動きのみを検出するよう制御する。また、区別情報が横書きである場合、検出制御部100は、顔動作検出部102、目動作検出部104が横方向の動き検出を中止し、縦方向の動きのみを検出するよう制御する。なお、区別情報は検出制御部100が表示制御部60から表示データを入力して生成し、当該区別情報を基に上述の顔動作検出部102、目動作検出部104の検出制御を行なっても良い。
The detection control unit 100 controls the detection of the face motion detection unit 102 and the eye motion detection unit 104 described above based on the distinction information regarding the text format acquired by the
図3を用いて検出制御部100の機能を説明する。図3は、表示部50を見ているユーザの目が向いているあるいは顔の正面が向いている、表示部50内の点が座標(x1、y1)から座標(x2、y2)に移動したことを示している。ここで、座標系の取り方は特段限定されるものではないが、ここでは通常のユークリッド座標系を用い、横方向をx軸、縦方向をy軸として説明する。 The function of the detection control unit 100 will be described with reference to FIG. FIG. 3 shows that a point in the display unit 50 is moved from the coordinates (x1, y1) to the coordinates (x2, y2) where the eyes of the user looking at the display unit 50 are facing or the front of the face is facing. It is shown that. Here, the method of taking the coordinate system is not particularly limited, but here, a normal Euclidean coordinate system will be used, and the horizontal direction will be described as the x axis and the vertical direction as the y axis.
検出制御部100は、表示部50に表示されている文章が横書きであることを表示制御部60から取得した場合、顔動作検出部102、目動作検出部104が横方向の動きを検出しないよう制御する。すなわち、検出制御部100は、横方向の動きx2−x1(x座標の始点x1から終点x2への動きを示す。以下同様。)と縦方向の動きy2−y1(y座標の始点y1から終点y2への動きを示す。以下同様。)のうち、y方向の動きy2−y1のみを検出する。そして、検出制御部100は、縦方向の動きy2−y1を検出結果として後述の処理部20に受け渡す。
When the detection control unit 100 acquires from the
また、検出制御部100は、表示部50に表示されている文章が縦書きであることを表示制御部60から取得した場合、顔動作検出部102、目動作検出部104が縦方向の動きを検出しないよう制御する。すなわち、検出制御部100は、横方向の動きx2−x1と縦方向の動きy2−y1のうち、縦方向の動きx2−x1のみを検出する。そして、検出制御部100は横方向の動きx2−x1を検出結果として後述の処理部20に受け渡す。
In addition, when the detection control unit 100 acquires from the
なお、上記検出の制御はあくまでもユーザの顔または目の移動に対し行なわれるものであって、検出制御部100は、ユーザの目の開閉に関する動作に関してはフィルタをかけることなく動作をそのまま検出することとしても良い。 Note that the detection control described above is performed only for the movement of the user's face or eyes, and the detection control unit 100 detects the operation as it is without applying a filter with respect to the operation related to the opening and closing of the user's eyes. It is also good.
また、検出制御部100は、所定時間に所定距離以上顔や目が移動した場合のみ検出部10の検出対象としても良い。例えば所定時間内(600ミリ秒など。特段制限はない。)に所定の距離(1cmなど。特段制限はない。)以上、顔や目の移動が行われた場合のみ検出対象となるように検出制御部100が顔動作検出部102、目動作検出部104を制御しても良い。これにより、検出部10は、ユーザによって顔や目の意図しない微動や動作を検出することを防止することができる。 In addition, the detection control unit 100 may be a detection target of the detection unit 10 only when the face or eyes move more than a predetermined distance at a predetermined time. For example, a predetermined distance (such as 1 cm; there is no special restriction) within a predetermined time (such as 600 milliseconds, which is not particularly limited) or more is detected so as to be a detection target only when a face or eye is moved. The control unit 100 may control the face motion detection unit 102 and the eye motion detection unit 104. Thereby, the detection part 10 can prevent detecting the fine movement and operation | movement which the face and eyes do not intend by the user.
処理部20は、検出部10によって検出された顔または目の動作の種類(動作が動きである場合には大きさ、方向、時間等を含む。)に応じて後述の操作条件記憶部30を参照し、動作に応じた所定操作指示を操作実行部70に送信する機能を有する。所定操作とは、例えば後述の表示部50に表示される表示物であるマウスポインタの移動やクリック、画面のスクロール、モード切替、その他コンピュータへの各種操作である。処理部20は、検出部10によって検出された顔または目の動作の種類を検出部10から取得し、操作条件記憶部30を参照する。そして、処理部20は、操作条件記憶部30で定義されている条件が満たされたと判定したとき、当該条件に対応する所定の処理操作指示を操作実行部70に送信する。なお、操作条件は操作条件記憶部30の代わりに処理部20が有していても良い。また、処理部20が、検出部10から得たユーザの顔または目の動作から演算して操作指示を生成し、操作実行部70に出力することにしても良い。 The processing unit 20 stores an operation condition storage unit 30 to be described later according to the type of face or eye motion detected by the detection unit 10 (including the size, direction, time, and the like when the motion is a motion). It has a function of referring to and transmitting a predetermined operation instruction corresponding to the operation to the operation execution unit 70. The predetermined operation is, for example, movement or click of a mouse pointer that is a display object displayed on the display unit 50 described later, screen scrolling, mode switching, or other various operations on the computer. The processing unit 20 acquires the type of face or eye movement detected by the detection unit 10 from the detection unit 10 and refers to the operation condition storage unit 30. When the processing unit 20 determines that the condition defined in the operation condition storage unit 30 is satisfied, the processing unit 20 transmits a predetermined processing operation instruction corresponding to the condition to the operation execution unit 70. The operation condition may be included in the processing unit 20 instead of the operation condition storage unit 30. The processing unit 20 may generate an operation instruction by calculating from the user's face or eye movement obtained from the detection unit 10 and output the operation instruction to the operation execution unit 70.
操作条件記憶部30は、顔または目の動作と所定操作とを対応付けて記憶する。ここで、顔または目の動作とは、ユーザの顔全体または目の部分のみあるいはその両方の動き、その他動作である。ここで、動きとは、始点と終点とが定まる顔全体または目の部分のみあるいはその両方の、一定距離以上の移動等である。例えば、顔の正面または目の視点が一定時間ある位置に留まる場合に、その位置が始点または終点である。具体的には、顔検出部101や目検出部103がユーザの顔の正面の位置または目の視点の位置と、その位置に留まる時間とを検出することでユーザの動きの始点と終点とを検出しても良い。また、その他動作とは、目の瞬きやテンプレートマッチングによって判定される顔の左右動等である。操作条件記憶部30は、例えば、上述した目の向いているあるいは顔の正面が向いている、表示部50内の点の座標位置の変化が所定時間以内に行われた場合を動作として記憶するとともに、当該動作に対する所定操作を対応付けて記憶している。 The operation condition storage unit 30 stores a face or eye movement and a predetermined operation in association with each other. Here, the action of the face or eyes refers to the movement of the entire face of the user, only the eye part or both, or other actions. Here, the movement is a movement of a certain distance or more of the entire face and / or the eyes where the starting point and the ending point are determined. For example, when the front of the face or the viewpoint of the eyes stays at a certain position for a certain time, the position is the start point or the end point. Specifically, the face detection unit 101 and the eye detection unit 103 detect the front position of the user's face or the position of the eye viewpoint and the time that the user stays at the position, thereby determining the start and end points of the user's movement. It may be detected. In addition, the other motions include a left-right movement of the face determined by blinking eyes or template matching. For example, the operation condition storage unit 30 stores, as an operation, a case where the coordinate position of the point in the display unit 50 where the eyes are facing or the front of the face is facing is changed within a predetermined time. In addition, a predetermined operation for the operation is stored in association with the operation.
図4は、操作条件記憶部30の一例を示す図である。ここでは操作条件記憶部30は、「目の動作」列、「操作」列を有する。なお、後述のとおり操作条件記憶部30は、「目の動作」列の代わりに「顔の動作」列を設けてもよいし、「目の動作」列とともに「顔の動作」列を設けてもよい。以下では、図4の操作条件記憶部30を例に説明する。 FIG. 4 is a diagram illustrating an example of the operation condition storage unit 30. Here, the operation condition storage unit 30 has an “eye movement” column and an “operation” column. As will be described later, the operation condition storage unit 30 may include a “face motion” column instead of the “eye motion” column, or a “face motion” column in addition to the “eye motion” column. Also good. Hereinafter, the operation condition storage unit 30 in FIG. 4 will be described as an example.
「目の動作」列は、横あるいは縦方向の目の位置の移動が所定時間内に行われた場合や目の開閉状態を目の動作として格納する。例えば、「y2−y1:5cm以上:600ミリ秒以内」は、ユーザの目が600ミリ秒以内に1cm以上縦方向に移動した状態を示す。また、「x2−x1:5cm以上:600ミリ秒以内」は、ユーザの目が600ミリ秒以内に5cm以上横方向に移動した状態を示す。また、「左目を一秒間閉じて開く」はユーザが左目を一秒間閉じて開くことを示す。 The “eye movement” column stores the movement of the eye position in the horizontal or vertical direction within a predetermined time or the open / closed state of the eye as the eye movement. For example, “y2−y1: 5 cm or more: within 600 milliseconds” indicates a state in which the user's eyes have moved in the vertical direction by 1 cm or more within 600 milliseconds. “X2−x1: 5 cm or more: within 600 milliseconds” indicates a state where the user's eyes have moved laterally by 5 cm or more within 600 milliseconds. Further, “close and open left eye for one second” indicates that the user closes and opens the left eye for one second.
「操作」列は、「目の動作」列の動作がユーザによって行なわれた場合に、それに対応して処理部20が操作実行部70に出力する操作指示の内容を格納する。例えば、図4を参照すると、「目の動作」列が「y2−y1:5cm以上:600ミリ秒以内」である場合、それに対応する「操作」列は「c*(y2−y1):画面をスクロール」である。これは、ユーザの目の動作が600ミリ秒以内に縦方向に5cm以上y2−y1だけ動いた場合に、c*(y2−y1)だけ画面を縦方向にスクロールするための操作指示を、処理部20が操作実行部70に出力することを示す。ここでcは定数である。また、ユーザがパラメータとしてcを任意に設定可能である。 The “operation” column stores the contents of the operation instruction that the processing unit 20 outputs to the operation execution unit 70 in response to the operation of the “eye movement” column performed by the user. For example, referring to FIG. 4, when the “eye movement” column is “y2−y1: 5 cm or more: within 600 milliseconds”, the corresponding “operation” column is “c * (y2−y1): screen”. Scroll. " This is an operation instruction for scrolling the screen vertically by c * (y2-y1) when the user's eye movement moves 5 cm or more y2-y1 within 600 milliseconds in the vertical direction. It shows that the unit 20 outputs to the operation execution unit 70. Here, c is a constant. In addition, the user can arbitrarily set c as a parameter.
また、図4において「目の動作」列の「左目を一秒間閉じて開く」に対応する「操作」列は「マウス左クリック」である。これは、ユーザの目の動作が1秒間左目を閉じてから開くものである場合にマウスの左クリックを意味する操作指示を処理部20が操作実行部70に出力することを示す。また、「目の動作」列の「両目を5秒間閉じる」に対応する「操作」列は「検出機能中止」である。これは、ユーザが両目を5秒間閉じた場合に検出部10の検出機能の中止を意味する操作指示を処理部20が操作実行部70に出力することを意味する。同様に、処理部20は、「目の動作」列が「両目瞬きを三回繰り返す」である場合、それに対応するマウスとペンタブレットのモードの切替えを意味する操作指示を操作実行部70に出力する。処理部20は、「目の動作」列が「ペンタブレット状態で右目を2秒閉じる」である場合、それに対応するペンタブレットの筆圧の変更を意味する操作指示を操作実行部70に出力する。処理部20は、「目の動作」列が「ペンタブレット状態で右目を閉じながら左目を移動」である場合にはそれに対応するポインティング先への描画操作指示を操作実行部70に出力する。 In FIG. 4, the “operation” column corresponding to “the left eye is closed and opened for one second” in the “eye movement” column is “mouse left click”. This indicates that the processing unit 20 outputs an operation instruction meaning a left click of the mouse to the operation execution unit 70 when the user's eye movement is to close and open the left eye for 1 second. The “operation” column corresponding to “close both eyes for 5 seconds” in the “eye movement” column is “discontinuation of detection function”. This means that when the user closes both eyes for 5 seconds, the processing unit 20 outputs to the operation execution unit 70 an operation instruction that means to cancel the detection function of the detection unit 10. Similarly, when the “eye movement” column is “repeats blinking of both eyes three times”, the processing unit 20 outputs an operation instruction meaning switching between the mouse and pen tablet mode corresponding thereto to the operation execution unit 70. To do. When the “eye movement” column is “close the right eye for 2 seconds in the pen tablet state”, the processing unit 20 outputs to the operation execution unit 70 an operation instruction that means changing the pen pressure of the corresponding pen tablet. . If the “eye movement” column is “move left eye while closing right eye in pen tablet state”, processing unit 20 outputs a corresponding drawing operation instruction to the pointing destination to operation execution unit 70.
なお、「目の動作」列の内容について、上述の目の動作の内容、目の移動距離、動作を行う所定時間、それらに対応する操作等はユーザが適宜設定可能としても良い。例えば、操作条件記憶部30は、「目の動作」列「y2−y1:5cm以上:600ミリ秒以内」に対応する「操作」列を「c*(x2−x1):マウスポインタを動かす」とし、マウスのポインタ移動を所定操作として記憶できるようにしても良い。 Note that, regarding the contents of the “eye movement” column, the contents of the above-described eye movement, the movement distance of the eye, the predetermined time during which the movement is performed, the operation corresponding thereto, and the like may be appropriately set by the user. For example, the operation condition storage unit 30 sets “c * (x2−x1): move the mouse pointer” to the “operation” column corresponding to the “eye movement” column “y2−y1: 5 cm or more: within 600 milliseconds”. The mouse pointer movement may be stored as a predetermined operation.
また、ユーザは、図示しない入力手段を介して、あるいは予め、操作条件記憶部30の「目の動作」列を複数設けても良いし、それら複数の動作に対応する「操作」列の内容も適宜変更可能としても良い。例えば、ユーザは、操作条件記憶部30の「目の動作」列を2列設け、そのうちの1つを「左目を閉じる」とし、それに対応する他の1つを「右目の視線を動かす:1cm以上」とし、それに対応する「操作」列の1つを「ドラッグ」とすることができる。これにより、ユーザが左目を閉じて右目の視線を1cm以上動かした場合には、マウスのドラッグを意味する操作指示を処理部20が操作実行部70に出力するようにしても良い。 In addition, the user may provide a plurality of “eye movement” columns in the operation condition storage unit 30 through an input unit (not shown) or the contents of the “operation” columns corresponding to the plurality of movements. It may be changed as appropriate. For example, the user provides two “eye movement” columns in the operation condition storage unit 30, one of which is set to “close the left eye” and the other one corresponding to “moves the line of sight of the right eye: 1 cm It is possible to set “drag” in one of the “operation” columns corresponding thereto. Thus, when the user closes the left eye and moves the line of sight of the right eye by 1 cm or more, the processing unit 20 may output an operation instruction that means mouse dragging to the operation execution unit 70.
なお、ユーザは、図示しない入力手段を介して、あるいは予め、操作条件記憶部30の「目の動作」列の代わりに顔の動作を格納する「顔の動作」列を設けても良い。この場合には上述の「目の動作」列の場合と同様に、「顔の動作」列にはユーザの顔動作が格納され、「操作」列には顔の動作に対応する所定操作が格納される。この場合には、処理部20が、顔の動作に対応する所定操作指示を操作実行部70に出力する。 It should be noted that the user may provide a “face motion” column for storing the face motion via an input unit (not shown) or in advance, instead of the “eye motion” column of the operation condition storage unit 30. In this case, the user's face motion is stored in the “face motion” column, and a predetermined operation corresponding to the face motion is stored in the “operation” column, as in the case of the “eye motion” column described above. Is done. In this case, the processing unit 20 outputs a predetermined operation instruction corresponding to the facial motion to the operation execution unit 70.
図5は操作条件記憶部30の他の一例を示す図である。図5のように操作条件記憶部30は、「目の動作」列とともに顔の動作を格納する「顔の動作」列を設けても良い。この場合には、操作条件記憶部30は、目の動作と顔の動作の両方の検出結果と所定操作とを対応付けることが可能である。例えば、操作条件記憶部30は、「目の動作」列の一つを「左目を閉じる」とし、それに対応する「顔の動作」列の一つを「顔を左右に動かす」とし、それらの条件を「and」とし、それに対応する「操作」列の一つを「ブラウザの戻る」とすることができる。これにより、ユーザが左目を閉じながら顔を左右に振ればブラウザの戻る機能が操作実行部70により実行されるようにすることが可能である。また、図5の2行目のように、操作条件記憶部30は、「目の動作」列と「顔の動作」列をともに「x2−x1:1cm以上:600ミリ秒以内」とし、条件列を「or」とすることもできる。この場合、目の動作と顔の動作のどちらか一方で600ミリ秒以内に1cm以上の顔の動きが検出された場合に条件が満たされたと処理部20が判定し、これに対応する所定操作指示を操作実行部70に出力するようにしても良い。 FIG. 5 is a diagram illustrating another example of the operation condition storage unit 30. As illustrated in FIG. 5, the operation condition storage unit 30 may include a “face motion” column that stores a face motion together with an “eye motion” column. In this case, the operation condition storage unit 30 can associate the detection result of both the eye movement and the face movement with a predetermined operation. For example, the operation condition storage unit 30 sets one of the “eye motion” columns to “close the left eye”, and one of the corresponding “face motion” columns to “move the face left and right”, The condition can be “and” and one of the “operation” columns corresponding to the condition can be “browser return”. As a result, if the user swings his / her face left and right while closing his left eye, the operation execution unit 70 can execute the function of returning the browser. Further, as shown in the second row of FIG. 5, the operation condition storage unit 30 sets both the “eye motion” column and the “face motion” column to “x2−x1: 1 cm or more: within 600 milliseconds” The column can also be “or”. In this case, the processing unit 20 determines that the condition is satisfied when the movement of the face of 1 cm or more is detected within 600 milliseconds in either the eye movement or the face movement, and a predetermined operation corresponding to the condition is satisfied. The instruction may be output to the operation execution unit 70.
撮像部40は、CCD(Charge Coupled Device)カメラ、アナログまたはデジタルのビデオカメラ等であって、ユーザの顔の全体または目の部分のみ、あるいはその両方を撮影する機能を有するよう構成される。なお、操作情報処理装置80は、顔検出用撮像装置と目検出用撮像装置とを別個に備えても良い。また、撮像部40は、後述の表示部50の上部などのユーザを撮影しやすい位置に設置されることが望ましいが、表示部50上の文章を見ることができる位置にいるユーザを撮像できるならばその設置箇所は制限されない。また、撮像部40はユーザ位置検出機能をさらに備えており、撮像部40がユーザの位置を検出してユーザ方向を自動的に向くように構成されてもよい。 The imaging unit 40 is a CCD (Charge Coupled Device) camera, an analog or digital video camera, and the like, and is configured to have a function of photographing the entire face of the user, only the eye part, or both. The operation information processing apparatus 80 may include a face detection imaging device and an eye detection imaging device separately. In addition, the imaging unit 40 is preferably installed at a position where it is easy to photograph the user, such as an upper part of the display unit 50 described later. However, if the user is in a position where the text on the display unit 50 can be viewed, The installation location is not limited. The imaging unit 40 may further include a user position detection function, and the imaging unit 40 may be configured to detect the user's position and automatically face the user direction.
操作実行部70は、処理部20の操作指示を受け、当該操作指示に対応する所定の操作を実行する。例えば、操作実行部70は、OS(Operating System)が一般的にマウス等からユーザの操作指示(アイコン、ボタン等の選択、スクロールバーのドラッグ、コマンド等)を入力する代わりに、操作指示を処理部20から取得し、当該操作指示に対応する所定操作を実行する。すなわち、操作実行部70は処理部20から操作指示を受け付けるように拡張されたOSが一般的に備える操作コマンド実行部あるいはユーザインタフェース部等である。 The operation execution unit 70 receives an operation instruction from the processing unit 20 and executes a predetermined operation corresponding to the operation instruction. For example, the operation execution unit 70 processes an operation instruction instead of an OS (Operating System) generally inputting a user operation instruction (selection of an icon, a button, dragging a scroll bar, a command, etc.) from a mouse or the like. The predetermined operation corresponding to the operation instruction acquired from the unit 20 is executed. That is, the operation execution unit 70 is an operation command execution unit or a user interface unit that is generally provided in an OS extended to accept an operation instruction from the processing unit 20.
次に、本実施の形態における発明の動作について図6を用いて説明する。まず、表示部50に表示される文章を見ることが可能な位置にいるユーザを撮像する撮像部40がユーザの顔全体または目の部分のみあるいはそれら両方を撮像し、撮像画像を検出部10へ送信する(図6のS1)。表示部50に文章が表示されているとき、表示制御部60は表示部50に表示されている文章が縦書きか横書きであるかの区別情報を検出部10へ送信する(図6のS2)。次に検出部10は当該区別情報を基に、検出方法を変更する(図6のS3)。具体的には、区別情報が縦書きである場合には、上述の方法によって顔動作検出部102または目動作検出部104は横方向の動きのみを抽出し、区別情報が横書きである場合には縦方向の動きのみを抽出する。次に、検出部10は検出した結果を処理部20へ送信する(図6のS4)。処理部20は操作条件記憶部30に格納された条件を参照し、受信した検出結果に対応する所定操作指示を操作実行部70に送信する(図6のS5)。
Next, the operation of the invention in this embodiment will be described with reference to FIG. First, the imaging unit 40 that captures a user at a position where the text displayed on the display unit 50 can be viewed captures the entire user's face and / or eyes, and the captured image is sent to the detection unit 10. Transmit (S1 in FIG. 6). When the text is displayed on the display unit 50, the
次に図6を用いて具体例を基に動作を説明する。ここでは、操作条件記憶部30が図4に示すものである場合であって、ユーザがブラウザに表示された文章を閲覧している場合を例に説明する。まず、撮像部40は表示部50に表示された文章を読んでいるユーザを撮像し、撮像画像を検出部10へ送信する(図6のS1)。ここで、文章が横書きである場合、表示制御部60は表示されている文章が横書きであることを示す区別情報を検出部10に送信する(図6のS2)。検出部10は、区別情報が横書きであることを取得した場合、ユーザの縦方向の動きのみを検出する(図6のS3)。したがって、ユーザが目を左右横方向に動かした場合、検出部10は縦方向の動きのみを検出するため、当該ユーザの目の動きは検出されずに無視される。これに対し、ユーザが目を上下縦方向に、例えば600ミリ秒以内に10cm動かした場合、検出部10は縦方向の動きのみを検出するため、当該ユーザの目の上下動は検出部10によって検出される。そして、検出部10はこの検出結果を処理部20へ送信する(図6のS4)。処理部20は操作条件記憶部30を参照する。ここでは、操作条件記憶部30が図4に記載されたものであるため、ユーザが目を600ミリ秒以内に10cm縦方向に動かした場合には「目の動作」列の「y2−y1:5cm以上:600ミリ秒以内」の条件を満たすことになる。そこで、処理部20はこれに対応する「C*(y2−y1):画面スクロール」(例えばCを1とすれば、画面を10cmスクロール)を操作指示として操作実行部70に送信する(図6のS5)。
Next, the operation will be described based on a specific example with reference to FIG. Here, a case where the operation condition storage unit 30 is as shown in FIG. 4 and the user is browsing the text displayed on the browser will be described as an example. First, the imaging unit 40 images the user who is reading the text displayed on the display unit 50, and transmits the captured image to the detection unit 10 (S1 in FIG. 6). Here, when the sentence is horizontally written, the
本実施の形態では、ユーザの意図を正しく反映した操作を実行する操作情報処理装置80、方法、及びプログラムが提供される。特に、文章が横(縦)書きである場合にはユーザの顔や目は横(縦)方向に頻繁に動くため、横(縦)方向の動きを無視し縦(横)方向の動きのみを検出して所定操作と対応付けることにより、ユーザの意図を正しく反映した操作を実行することができる。 In the present embodiment, an operation information processing apparatus 80, a method, and a program that execute an operation that correctly reflects the user's intention are provided. In particular, when the text is written horizontally (vertically), the user's face and eyes move frequently in the horizontal (vertical) direction, so the movement in the horizontal (vertical) direction is ignored and only the movement in the vertical (horizontal) direction is ignored. By detecting and associating with a predetermined operation, an operation that correctly reflects the user's intention can be executed.
<実施形態2>本実施の形態の操作情報処理装置80は実施形態1を基本とし、以下の点で相違する。まず、本実施形態の概要の一例について説明する。
<Embodiment 2> The operation information processing apparatus 80 of the present embodiment is based on
本実施形態の操作情報処理装置80は、ユーザの注目する表示物が文章であるか否かを判定し、文章である場合にはその文章が縦書きか横書きかに応じて、ユーザの顔または目の動作の検出を制御する。 The operation information processing apparatus 80 according to the present embodiment determines whether or not the display object that the user is interested in is a sentence. If the display object is a sentence, the operation information processing apparatus 80 determines whether the sentence is a vertical writing or a horizontal writing. Controls eye movement detection.
これによれば、ユーザの注目する文章の書式に応じてユーザの顔または目の検出制御を行うことが可能である。 According to this, it is possible to perform detection control of the user's face or eyes according to the format of the text that the user pays attention to.
以下に、本実施形態の操作情報処理装置80の構成について説明する。 Below, the structure of the operation information processing apparatus 80 of this embodiment is demonstrated.
図7に、本実施形態のブロック図の一例を示す。操作情報処理装置80は、検出部10、判定部200、処理部20、を備える。操作情報処理装置80は、さらに、操作条件記憶部30、表示制御部60、操作実行部70、撮像部40、表示部50を備えても良い。処理部20、操作条件記憶部30、表示制御部60、操作実行部70、撮像部40、表示部50については第一の実施の形態と概略同様であるから詳細説明は省略する。
FIG. 7 shows an example of a block diagram of the present embodiment. The operation information processing apparatus 80 includes a detection unit 10, a determination unit 200, and a processing unit 20. The operation information processing apparatus 80 may further include an operation condition storage unit 30, a
判定部200は、図示しない目検出部103、目動作検出部104、検出制御部100を備える。目検出部103、目動作検出部104の構成、動作は第一の実施の形態と同様であるから詳細説明は省略する。本実施の形態における判定部200は、ユーザが表示部50上のどの位置に注目しているかを示す注目点を検出するよう構成される。ここで、注目点の算出は種々の公知の方法で行なうことができるので説明を省略する。検出制御部100は、例えば、一定時間間隔毎に目検出部103を起動させ、目検出部103はユーザの注目点がどこにあるかの位置情報を取得する。あるいは、検出制御部100は、目動作検出部104によりユーザの目の移動が所定距離以上行なわれたことを契機にして目検出部103を起動させ、目検出部103はユーザの注目点がどこにあるかの位置情報を取得する。 The determination unit 200 includes an eye detection unit 103, an eye movement detection unit 104, and a detection control unit 100 (not shown). Since the configurations and operations of the eye detection unit 103 and the eye movement detection unit 104 are the same as those in the first embodiment, detailed description thereof is omitted. The determination unit 200 in the present embodiment is configured to detect a point of interest indicating which position on the display unit 50 the user is paying attention to. Here, since the calculation of the attention point can be performed by various known methods, the description is omitted. For example, the detection control unit 100 activates the eye detection unit 103 at regular time intervals, and the eye detection unit 103 acquires position information indicating where the user's attention point is. Alternatively, the detection control unit 100 activates the eye detection unit 103 when the eye movement detection unit 104 moves the user's eyes over a predetermined distance, and the eye detection unit 103 determines where the user's attention point is located. Get some location information.
判定部200は、ユーザの注目点の位置情報を取得するとともに、表示制御部60から表示部50に表示されている1以上の表示物の情報をあわせて取得するよう構成される。ここで表示物の情報とは、例えば、表示物の種類が文章であるか否かを示す種類情報、表示物の種類が文章である場合には文章が縦書きか横書きかを示す区別情報、表示部50上の表示物が存在する位置情報などである。なお、表示物の情報は判定部200が表示制御部60から表示データを入力して直接生成しても良い。
The determination unit 200 is configured to acquire position information of a user's attention point and also acquire information on one or more display objects displayed on the display unit 50 from the
判定部200は、ユーザの注目点の位置情報と当該注目点位置にある表示物の情報とを比較し、ユーザの注目点位置にある表示物の種類を判定する。判定方法は特段制限されるものではないが、図8を用いて一例を説明する。図8は表示部50の画面例であり、座標(a1、b1)と(a2、b2)で規定される矩形内には表示物1である文章が表示されており、座標(c1、d1)と(c2、d2)で規定される矩形内には表示物2である文章以外の表示物が表示されていることを示している。また、座標(x1、y1)はある時点におけるユーザの注目点であり、(x2、y2)は別の時点におけるユーザの注目点を示している。
The determination unit 200 compares the position information of the user's attention point and the information of the display object at the attention point position, and determines the type of the display object at the user's attention point position. Although the determination method is not particularly limited, an example will be described with reference to FIG. FIG. 8 shows an example of the screen of the display unit 50. In the rectangle defined by the coordinates (a1, b1) and (a2, b2), the text as the
ユーザの注目点が座標(x1、y1)にある場合を説明する。判定部200は、ユーザの注目点が座標(x1、y1)にあることを取得するとともに、座標(a1、b1)と(a2、b2)で規定される矩形内には文章が表示されていることを表示制御部60から取得する。
A case where the user's attention point is at coordinates (x1, y1) will be described. The determination unit 200 acquires that the user's attention point is at the coordinates (x1, y1), and a sentence is displayed in the rectangle defined by the coordinates (a1, b1) and (a2, b2). This is acquired from the
判定部200は、a1<x1<a2、b1<y1<b2であることを算出し、ユーザの注目点である座標(x1、y1)が座標(a1、b1)と(a2、b2)で規定される矩形内にあることから、ユーザの注目点が表示物1である文章上にあることを判定する。この場合、ユーザは文章に注目していることになるので、判定部200はさらに表示物1の文章が縦書きか横書きであるかの区別情報を表示制御部60からあわせて取得して、当該区別情報を検出部10に送信する。
The determination unit 200 calculates that a1 <x1 <a2 and b1 <y1 <b2, and coordinates (x1, y1) that are the user's attention points are defined by coordinates (a1, b1) and (a2, b2). Therefore, it is determined that the user's attention point is on the sentence that is the
ユーザの注目点が座標(x2、y2)にある場合には同様のステップにより判定部200はユーザの注目点が文章以外の表示物2の上にあることを判定する。この場合、当該判定結果は検出部10に送信しない。 When the user's attention point is at the coordinates (x2, y2), the determination unit 200 determines that the user's attention point is on the display object 2 other than the sentence by the same steps. In this case, the determination result is not transmitted to the detection unit 10.
検出部10は、図示しない検出制御部100、顔検出部101、顔動作検出部102、目検出部103、目動作検出部104を備える。これら各々の検出部の構成、動作については第一の実施の形態と概略同様であるため詳細を省略する。本実施の形態における検出部10は、判定部200から区別情報を取得し、当該区別情報に応じて検出方法を変更するように構成される。具体的には、ユーザの注目点が文章上にあり、文章が縦(横)書きである旨の区別情報を取得した場合には、ユーザの顔または目の動きのうち横(縦)方向の動きのみを検出部10が検出する。一方、検出部10は、判定部200から区別情報を受信しない場合にはフィルタをかけることなくユーザの動作をそのまま検出する。したがって、検出部10はユーザが文章を見ている場合だけ検出の制御を行うことが可能である。また、検出部10は、表示部50上に複数の文章が表示されている場合には、文章の書式に応じた制御が可能である。例えば、検出部10は、表示部50上に縦書きの文章と横書きの文章とが同時に表示されている場合、ユーザが縦書きの文章に注目しているときにはユーザの顔全体または目の部分のみの動きのうち横方向の動きのみを検出する。検出部10は、ユーザが横書きの文章に注目しているときにはユーザの顔全体または目の部分のみの動きのうち縦方向の動きのみを検出する。 The detection unit 10 includes a detection control unit 100, a face detection unit 101, a face motion detection unit 102, an eye detection unit 103, and an eye motion detection unit 104 (not shown). Since the configuration and operation of each detection unit are substantially the same as those in the first embodiment, the details are omitted. The detection unit 10 in the present embodiment is configured to acquire the discrimination information from the determination unit 200 and change the detection method according to the discrimination information. Specifically, when the user's attention point is on the sentence and the discrimination information that the sentence is written vertically (horizontal) is acquired, the horizontal (vertical) direction of the user's face or eye movement is acquired. Only the movement is detected by the detection unit 10. On the other hand, the detection part 10 detects a user's operation | movement as it is, without applying a filter, when discriminating information is not received from the determination part 200. FIG. Therefore, the detection unit 10 can control the detection only when the user is looking at the sentence. Further, when a plurality of sentences are displayed on the display unit 50, the detection unit 10 can perform control according to the sentence format. For example, when a vertically written sentence and a horizontally written sentence are displayed on the display unit 50 at the same time, the detecting unit 10 only focuses on the entire face or eye part of the user when the user is paying attention to the vertically written sentence. Only the horizontal movement is detected. When the user is paying attention to the horizontally written sentence, the detection unit 10 detects only the vertical movement among the movements of the entire face or only the eyes of the user.
以降は、実施形態1と同様に処理部20が操作条件記憶部30を参照し、操作実行部70に操作指示を送信するので詳細説明を省略する。 Thereafter, as in the first embodiment, the processing unit 20 refers to the operation condition storage unit 30 and transmits an operation instruction to the operation execution unit 70, and thus detailed description thereof is omitted.
図9は、本実施の形態における操作情報処理装置80の動作フローを示す。判定部200は、撮像部40から得たユーザの目の画像から、表示部50上の注目点座標を検出する(図9のS1)。具体的には、検出制御部100は、一定時間間隔毎に目検出部103を起動させ、目検出部103はユーザの注目点がどこにあるかの位置情報を取得する。あるいは、検出制御部100は、目動作検出部104によりユーザの目の移動が所定距離以上行なわれたことを契機にして、目検出部103を起動させ、目検出部103がユーザの注目点がどこにあるかの位置情報を取得しても良い。判定部200は、当該検出結果と表示制御部60からの表示物の情報とを基に、注目点にある表示物が文章か文章以外の表示物であるかを判定する。判定部200は、注目点にある表示物が文章以外である場合には、区別情報を検出部10に送信しない(図9のS2)。一方、判定部200は、注目点にある表示物が文章である場合には、文章が縦書きか横書きであるかの区別情報を表示制御部60から取得するとともに検出部10へその区別情報を送信する(図9のS3)。検出部10は判定部200から区別情報を取得したか否かを判定する。検出部10は判定部200から区別情報を取得した場合(図9のS4のY)であって、文章が縦(横)書きであるとの区別情報を受けた場合にはユーザの顔全体または目の部分の動きのうち横(縦)方向の動きのみを検出し、処理部へ検出結果を送信する(図9のS5)。一方、検出部10は、判定部200から区別情報を取得しない場合(図9のS4のN)検出部10はフィルタをかけることなくユーザの動作をそのまま検出して、処理部へ検出結果を送信する(図9のS6)。処理部20は、検出部10からの検出内容を取得し、操作条件記憶部30の内容を参照して操作実行部70に操作実行指示を行なう(図9のS7)。
FIG. 9 shows an operation flow of the operation information processing apparatus 80 in the present embodiment. The determination unit 200 detects the point-of-interest coordinates on the display unit 50 from the image of the user's eyes obtained from the imaging unit 40 (S1 in FIG. 9). Specifically, the detection control unit 100 activates the eye detection unit 103 at regular time intervals, and the eye detection unit 103 acquires position information indicating where the user's attention point is. Alternatively, the detection control unit 100 activates the eye detection unit 103 when the eye movement detection unit 104 moves the user's eyes for a predetermined distance or more, and the eye detection unit 103 detects the user's attention point. You may acquire the positional information on where. The determination unit 200 determines whether the display object at the attention point is a sentence or a display object other than a sentence based on the detection result and the information of the display object from the
本実施の形態では、ユーザの意図を正しく反映した操作を実行する操作情報処理装置、方法、及びプログラムが提供される。特に表示部50上のユーザの注目している位置にある表示物に応じて検出部10がユーザの顔や目の動作検出を決定するため、ユーザの意図を正しく反映した操作を実行することができる。 In the present embodiment, an operation information processing apparatus, method, and program for executing an operation that correctly reflects the user's intention are provided. In particular, since the detection unit 10 determines the detection of the user's face and eyes according to the display object at the position of the user's attention on the display unit 50, it is possible to execute an operation that correctly reflects the user's intention. it can.
<実施形態3>本実施の形態の操作情報処理装置80は実施形態2を基本とし、以下の点で相違する。まず、本実施形態の概要の一例について説明する。 <Third Embodiment> An operation information processing apparatus 80 according to the present embodiment is based on the second embodiment and is different in the following points. First, an example of the outline of the present embodiment will be described.
本実施形態の操作情報処理装置80は、ユーザの注目する表示物が文章であるか否かを判定し、文章である場合にはその文章が縦書きか横書きかに応じてユーザの顔または目の動きの検出を検出部10が制御する。この際、検出部10は、ユーザの注目する表示物が文章である場合にはユーザの目の部分の動き検出を中止し、顔全体の動き検出のみを行う。その際、文章が縦書きである場合には顔全体の動きのうち横方向の動きのみを抽出し、文章が横書きである場合には顔全体の動きのうち縦方向の動きのみを抽出する。 The operation information processing apparatus 80 according to the present embodiment determines whether or not the display object that the user is interested in is a sentence. If the display object is a sentence, the user's face or eyes are determined according to whether the sentence is written vertically or horizontally. The detection unit 10 controls the detection of the movements. At this time, when the display object that the user is interested in is a sentence, the detection unit 10 stops detecting the movement of the eyes of the user and only detects the movement of the entire face. At that time, if the sentence is written vertically, only the horizontal movement is extracted from the movement of the entire face. If the sentence is written horizontally, only the vertical movement is extracted from the movement of the entire face.
本実施形態の操作情報処理装置80の構成については、検出部10の機能を除き実施形態2と概略同様であるから検出部10の機能のみを説明する。 Since the configuration of the operation information processing apparatus 80 of the present embodiment is substantially the same as that of the second embodiment except for the function of the detection unit 10, only the function of the detection unit 10 will be described.
検出部10は、検出制御部100、顔検出部101、顔動作検出部102、目検出部103、目動作検出部104を備える。これら各々の検出部の機能・構成については第一の実施の形態と概略同様であるため詳細説明は省略する。本実施の形態において検出制御部100は、ユーザの注目点が文章である旨の判定結果を判定部200から取得すると、目動作検出部104の検出機能を中止するよう制御する。これにより、ユーザが文章に注目している場合、検出部10は目の部分の動き検出を行わず、顔全体の動き検出を行う。ここで、検出部10は目検出部103の検出を必ずしも中止する必要はない。つまり、目の動作のうち、目の動きのみを検出せず、その他動作(目が瞬きしているかどうかなどの目の開閉状態)は検出し続けることにしても良い。この場合、例えば、検出部10は両目を5秒間閉じることを検出し、当該結果を処理部20に送ることが可能である。したがって図4の操作条件記憶部30を例にとれば、「両目を5秒間閉じる」に対応する「検出機能中止」を処理部20が操作実行部70に送信することによって、操作実行部70が検出部10自体の機能を中止する操作を行なうことも可能である。 The detection unit 10 includes a detection control unit 100, a face detection unit 101, a face motion detection unit 102, an eye detection unit 103, and an eye motion detection unit 104. Since the functions and configurations of each of these detection units are substantially the same as those in the first embodiment, detailed description thereof is omitted. In the present embodiment, the detection control unit 100 controls to stop the detection function of the eye movement detection unit 104 when the determination result that the user's attention point is a sentence is acquired from the determination unit 200. Thereby, when the user is paying attention to the sentence, the detection unit 10 does not detect the movement of the eye part, but detects the movement of the entire face. Here, the detection unit 10 does not necessarily have to stop the detection of the eye detection unit 103. That is, of the eye movements, only the eye movement may not be detected, and other movements (open / closed state of the eye such as whether the eyes are blinking) may be continuously detected. In this case, for example, the detection unit 10 can detect that both eyes are closed for 5 seconds and send the result to the processing unit 20. Therefore, taking the operation condition storage unit 30 in FIG. 4 as an example, the processing unit 20 transmits “discontinuation of detection function” corresponding to “close both eyes for 5 seconds” to the operation execution unit 70 so that the operation execution unit 70 It is also possible to perform an operation to stop the function of the detection unit 10 itself.
図10は、本実施の形態における操作情報処理装置80の動作フローを示す。図10の動作フローにおいて、S4までは実施形態2と同様であるから詳細説明を省略する。S4以降について説明する。検出部10は判定部200から区別情報を取得したか否かを判定する。検出部10は、判定部200から区別情報を取得した場合(図10のS4のY)であって、文章が縦(横)書きであるとの区別情報を判定部200から取得した場合には、ユーザの目の部分の動きの検出を中止し、顔全体の動きのうち横(縦)方向の動きのみを検出して処理部20に送信する(図10のS5)。一方、検出部10は、判定部200から区別情報を取得しない場合(図10のS4のN)、検出部10はフィルタをかけることなくユーザの動作をそのまま検出して、処理部へ検出結果を送信する(図10のS6)。処理部20は、検出部10からの検出内容を取得し、操作条件記憶部30の内容を参照して操作実行部70に操作実行指示を行なう(図10のS7)。 FIG. 10 shows an operation flow of the operation information processing apparatus 80 in the present embodiment. In the operation flow of FIG. 10, the steps up to S4 are the same as those in the second embodiment, and thus detailed description thereof is omitted. S4 and subsequent steps will be described. The detection unit 10 determines whether or not the identification information is acquired from the determination unit 200. When the detection unit 10 acquires the discrimination information from the determination unit 200 (Y in S4 in FIG. 10), and when the discrimination unit 200 acquires the discrimination information that the sentence is vertical (horizontal) writing, Then, the detection of the movement of the user's eyes is stopped, and only the movement in the horizontal (vertical) direction is detected from the movement of the entire face and transmitted to the processing unit 20 (S5 in FIG. 10). On the other hand, when the detection unit 10 does not acquire the discrimination information from the determination unit 200 (N in S4 in FIG. 10), the detection unit 10 detects the user's operation as it is without applying a filter and sends the detection result to the processing unit. Transmit (S6 in FIG. 10). The processing unit 20 acquires the detection content from the detection unit 10, and refers to the content of the operation condition storage unit 30 to give an operation execution instruction to the operation execution unit 70 (S7 in FIG. 10).
次に図10を用いて具体例をもとに動作を説明する。ここでは、操作条件記憶部30が図5に示すものである場合について、ユーザがブラウザに表示された横書き文章を閲覧している場合を例に説明する。まず、撮像部40は表示部50に表示されたコンテンツを見ているユーザを撮像し、撮像画像を判定部200へ配信する。判定部200は、表示部50上のユーザの注目点情報を取得するとともに、表示制御部60から表示物の情報を取得し、表示部50上のユーザの注目点にある表示物が文章か否かを判定して検出部10に送信する。本例の場合、ユーザの注目しているコンテンツが文章であって横書きであると判定部200が判定するため、判定部200はその区別情報を検出部10に送信する(図10のS3)。検出部10は、文章の区別情報が横書きであることを取得した場合、ユーザの目の部分の動き検出を中止して顔全体の縦方向の動きのみを検出し、検出結果を処理部20へ送信する(図10のS4、S5)。したがって、ユーザが目のみを上下左右等に動かした場合、検出部10はユーザの目の動きは検出しない。これに対しユーザが顔全体を上下縦方向に、例えば600ミリ秒以内に10cm動かした場合、ユーザの顔の上下の動きが検出部10によって検出される。そして、検出部10はこの検出結果を処理部20へ送信する(図10のS5)。処理部20は操作条件記憶部30を参照する。ここでは、操作条件記憶部30が図5に記載されたものであるため、ユーザが顔を600ミリ秒以内に10cm縦方向に動かした場合には「顔の動作」列の「y2−y1:5cm以上:600ミリ秒以内」の条件を満たすことになる。そこで、処理部20はこれに対応する「C*(y2−y1):画面スクロール」(例えばCを1とすれば、画面を10cmスクロール)を操作指示として操作実行部70に送信する(図10のS7)。
Next, the operation will be described based on a specific example with reference to FIG. Here, the case where the operation condition storage unit 30 is as shown in FIG. 5 will be described by taking as an example the case where the user is browsing the horizontally written text displayed on the browser. First, the imaging unit 40 images a user who is viewing the content displayed on the display unit 50 and distributes the captured image to the determination unit 200. The determination unit 200 acquires the user's attention point information on the display unit 50, acquires information on the display object from the
本実施の形態では、ユーザの意図を正しく反映した操作を実行する操作情報処理装置、方法、及びプログラムが提供される。特に、表示部50上のユーザの注目する表示物が文章である場合、検出部10はユーザの目の部分の動き検出を中止して顔全体の動き検出のみを行い、文章が縦(横)書きである場合には顔全体の動きのうち横(縦)方向の動きのみを抽出する。このように、ユーザが文章を読む場合に頻繁に動く目の部分の動きを検出することなく、顔全体の横(縦)方向の動きのみを検出して所定操作と対応付けるため、ユーザの意図を正しく反映した操作を実行することができる。 In the present embodiment, an operation information processing apparatus, method, and program for executing an operation that correctly reflects the user's intention are provided. In particular, when the display object on which the user pays attention on the display unit 50 is a sentence, the detection unit 10 stops detecting the movement of the eyes of the user and only detects the movement of the entire face, and the sentence is vertically (horizontal). In the case of writing, only the movement in the horizontal (vertical) direction is extracted from the movement of the entire face. In this way, the user's intention is to detect only the movement in the horizontal (vertical) direction of the entire face and associate it with a predetermined operation without detecting the movement of the eye part that frequently moves when the user reads a sentence. Operations that reflect correctly can be executed.
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解しうる様々な変更をすることができる。 While the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.
10 検出部
20 処理部
30 操作条件記憶部
40 撮像部
50 表示部
60 表示制御部
70 操作実行部
80 操作情報処理装置
100 検出制御部
101 顔検出部
102 顔動作検出部
103 目検出部
104 目動作検出部
200 判定部
DESCRIPTION OF SYMBOLS 10 Detection part 20 Processing part 30 Operation condition memory | storage part 40 Imaging part 50
Claims (10)
前記検出手段が出力した動きによって決定される所定の操作指示を、前記操作指示を実行する操作手段に送信する処理手段と、を備える操作情報処理装置。 Acquisition of distinction information on whether a sentence as a display object displayed on the display means is vertical writing or horizontal writing, and imaging by the imaging means for imaging the face or eyes of the user existing at a position where the user can see the text Image input and detection of the user's face or eye movement from the image. When the discrimination information is vertical writing, a horizontal movement is extracted from the movement, and the discrimination information is In the case of horizontal writing, detection means for extracting and outputting the vertical movement of the above operation,
An operation information processing apparatus comprising: a processing unit that transmits a predetermined operation instruction determined by the movement output by the detection unit to an operation unit that executes the operation instruction.
前記検出手段は、前記区別情報を前記判定手段から受信した場合に、前記区別情報が縦書きの場合は前記動作のうち横方向の動きを抽出し、前記区別情報が横書きの場合は前記動作のうち縦方向の動きを抽出して出力し、前記区別情報を受信しない場合は、前記動作を出力する請求項1に記載の操作情報処理装置。 An attention point within the display surface of the display means of the user's line of sight is detected from the image, and when the display object displayed at the attention point is a sentence, the distinction information is acquired and the distinction information is A determination unit that transmits to the detection unit and does not transmit the distinction information when the display object displayed at the point of interest is not a sentence;
When the discrimination information is received from the determination unit, the detection unit extracts a movement in the horizontal direction from the operation when the discrimination information is vertical writing, and when the discrimination information is horizontal writing, The operation information processing apparatus according to claim 1, wherein a motion in the vertical direction is extracted and output, and the operation is output when the distinction information is not received.
前記表示手段と、
前記表示手段の表示面近傍に備え付けられた前記撮像手段と、
前記表示手段に前記表示物を表示し、前記表示物が文章である場合に前記区別情報を出力する表示制御手段と、
前記操作手段と、
前記検出手段が出力した動きに対応付けられて前記操作条件記憶手段に格納されている所定の操作指示を、前記操作手段に送信する前記処理手段と、を備える、請求項1乃至3の何れかの操作情報処理装置。 Operation condition storage means for storing the operation output by the detection means and a predetermined operation instruction in association with each other;
The display means;
The imaging means provided near the display surface of the display means;
Display control means for displaying the display object on the display means and outputting the distinction information when the display object is a sentence;
The operating means;
The processing means for transmitting a predetermined operation instruction stored in the operation condition storage means in association with the movement output by the detection means to the operation means. Operation information processing device.
前記検出ステップにおいて出力した動きによって決定される所定の操作指示を、前記操作指示を実行する操作手段に送信する処理ステップと、をコンピュータに実行させる操作情報処理プログラム。 Acquisition of distinction information on whether a sentence as a display object displayed on the display means is vertical writing or horizontal writing, and imaging by the imaging means for imaging the face or eyes of the user existing at a position where the user can see the text Image input and detection of the user's face or eye movement from the image. When the discrimination information is vertical writing, a horizontal movement is extracted from the movement, and the discrimination information is In the case of horizontal writing, a detection step of extracting and outputting a vertical movement out of the operations,
An operation information processing program that causes a computer to execute a processing step of transmitting a predetermined operation instruction determined by the movement output in the detection step to an operation means that executes the operation instruction.
前記判定ステップにおいて、前記区別情報を取得した場合に、前記区別情報が縦書きの場合は前記動作のうち横方向の動きを抽出し、前記区別情報が横書きの場合は前記動作のうち縦方向の動きを抽出して出力し、前記区別情報を取得しない場合は、前記動作を出力する前記検出ステップと、
を前記コンピュータに実行させる請求項5に記載の操作情報処理プログラム。 An attention point within the display surface of the display means of the user's line of sight is detected from the image, and the distinction information is acquired when the display object displayed at the attention point is a sentence, and is displayed at the attention point A determination step of not acquiring the distinction information when the displayed object is not a sentence;
In the determination step, when the discrimination information is acquired, if the discrimination information is vertical writing, a horizontal motion is extracted from the operation, and if the discrimination information is horizontal writing, a vertical motion of the operation is extracted. In the case of extracting and outputting a motion and not obtaining the distinction information, the detection step of outputting the motion;
6. The operation information processing program according to claim 5, which causes the computer to execute.
前記検出ステップにおいて出力した動きによって決定される所定の操作指示を、前記操作指示を実行する操作手段に送信する処理ステップと、を有する操作情報処理方法。 Acquisition of distinction information on whether a sentence as a display object displayed on the display means is vertical writing or horizontal writing, and imaging by the imaging means for imaging the face or eyes of the user existing at a position where the user can see the text Image input and detection of the user's face or eye movement from the image. When the discrimination information is vertical writing, a horizontal movement is extracted from the movement, and the discrimination information is In the case of horizontal writing, a detection step of extracting and outputting a vertical movement out of the operations,
An operation information processing method comprising: a processing step of transmitting a predetermined operation instruction determined by the movement output in the detection step to an operation unit that executes the operation instruction.
前記判定ステップにおいて、前記区別情報を取得した場合に、前記区別情報が縦書きの場合は前記動作のうち横方向の動きを抽出し、前記区別情報が横書きの場合は前記動作のうち縦方向の動きを抽出して出力し、前記区別情報を取得しない場合は、前記動作を出力する前記検出ステップと、
を有する請求項8に記載の操作情報処理方法。 An attention point within the display surface of the display means of the user's line of sight is detected from the image, and the distinction information is acquired when the display object displayed at the attention point is a sentence, and is displayed at the attention point A determination step of not acquiring the distinction information when the displayed object is not a sentence;
In the determination step, when the discrimination information is acquired, if the discrimination information is vertical writing, a horizontal motion is extracted from the operation, and if the discrimination information is horizontal writing, a vertical motion of the operation is extracted. In the case of extracting and outputting a motion and not obtaining the distinction information, the detection step of outputting the motion;
The operation information processing method according to claim 8.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010117121A JP2011243141A (en) | 2010-05-21 | 2010-05-21 | Operation information processor, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010117121A JP2011243141A (en) | 2010-05-21 | 2010-05-21 | Operation information processor, method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011243141A true JP2011243141A (en) | 2011-12-01 |
Family
ID=45409695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010117121A Pending JP2011243141A (en) | 2010-05-21 | 2010-05-21 | Operation information processor, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011243141A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015087824A (en) * | 2013-10-28 | 2015-05-07 | オムロン株式会社 | Screen operation device and screen operation method |
JP2015125782A (en) * | 2013-12-26 | 2015-07-06 | ビステオン グローバル テクノロジーズ インコーポレイテッド | System and method for switching between gaze tracking and head tracking |
JP2018023001A (en) * | 2016-08-03 | 2018-02-08 | ソフトバンク株式会社 | Apparatus control device |
CN109804407A (en) * | 2016-09-29 | 2019-05-24 | 株式会社东芝 | It is concerned about maintenance system and server |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000010722A (en) * | 1998-06-18 | 2000-01-14 | Mr System Kenkyusho:Kk | Sight line/user interface device and its interface method, computer device and its control method, and program storage medium |
JP2003015816A (en) * | 2001-06-29 | 2003-01-17 | Honda Motor Co Ltd | Face/visual line recognizing device using stereo camera |
WO2007105792A1 (en) * | 2006-03-15 | 2007-09-20 | Omron Corporation | Monitor and monitoring method, controller and control method, and program |
-
2010
- 2010-05-21 JP JP2010117121A patent/JP2011243141A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000010722A (en) * | 1998-06-18 | 2000-01-14 | Mr System Kenkyusho:Kk | Sight line/user interface device and its interface method, computer device and its control method, and program storage medium |
JP2003015816A (en) * | 2001-06-29 | 2003-01-17 | Honda Motor Co Ltd | Face/visual line recognizing device using stereo camera |
WO2007105792A1 (en) * | 2006-03-15 | 2007-09-20 | Omron Corporation | Monitor and monitoring method, controller and control method, and program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015087824A (en) * | 2013-10-28 | 2015-05-07 | オムロン株式会社 | Screen operation device and screen operation method |
JP2015125782A (en) * | 2013-12-26 | 2015-07-06 | ビステオン グローバル テクノロジーズ インコーポレイテッド | System and method for switching between gaze tracking and head tracking |
JP2018023001A (en) * | 2016-08-03 | 2018-02-08 | ソフトバンク株式会社 | Apparatus control device |
CN109804407A (en) * | 2016-09-29 | 2019-05-24 | 株式会社东芝 | It is concerned about maintenance system and server |
CN109804407B (en) * | 2016-09-29 | 2023-07-18 | 株式会社东芝 | Care maintenance system and server |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12045394B2 (en) | Cursor mode switching | |
US10095033B2 (en) | Multimodal interaction with near-to-eye display | |
US8732623B2 (en) | Web cam based user interaction | |
US10477090B2 (en) | Wearable device, control method and non-transitory storage medium | |
KR101631011B1 (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
US10607340B2 (en) | Remote image transmission system, display apparatus, and guide displaying method thereof | |
JP5964603B2 (en) | Data input device and display device | |
JP2011243141A (en) | Operation information processor, method and program | |
JP2018005663A (en) | Information processing unit, display system, and program | |
JPH0648458B2 (en) | Information input device | |
JP4088282B2 (en) | Computer input method and apparatus | |
JP6230666B2 (en) | Data input device, data input method, and data input program | |
JP2007310914A (en) | Mouse alternating method, mouse alternating program and recording medium | |
TW201351308A (en) | Non-contact medical navigation system and control method therefof | |
JP6699406B2 (en) | Information processing device, program, position information creation method, information processing system | |
CN113703564B (en) | Human-computer interaction equipment and system based on facial features | |
KR101499044B1 (en) | Wearable computer obtaining text based on gesture and voice of user and method of obtaining the text | |
JP2013257830A (en) | Information processor | |
TWI554910B (en) | Medical image imaging interactive control method and system | |
TW201112220A (en) | Image adjusting system | |
EP2919096B1 (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
KR20210125465A (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
CN116301835A (en) | UI interface design and man-machine interaction method based on eye movement and gestures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120801 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130219 |