JP2015084221A - 電子文書にマーキングするための方法および装置 - Google Patents
電子文書にマーキングするための方法および装置 Download PDFInfo
- Publication number
- JP2015084221A JP2015084221A JP2014213733A JP2014213733A JP2015084221A JP 2015084221 A JP2015084221 A JP 2015084221A JP 2014213733 A JP2014213733 A JP 2014213733A JP 2014213733 A JP2014213733 A JP 2014213733A JP 2015084221 A JP2015084221 A JP 2015084221A
- Authority
- JP
- Japan
- Prior art keywords
- marking
- electronic document
- user
- eye
- specific action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Abstract
【課題】電子文書にマーキングするための方法と装置を提供する。【解決手段】画像取得ユニットにより使用者の画像シーケンスが取得しS510、画像シーケンスを分析する眼球追跡処理、頷き検知処理、瞬き検知処理を実行するS515。使用者が第1の特定動作を行ったときS520、使用者の現在の視線が注がれる電子文書上の第1の位置を取得しS525、使用者の眼球の運動軌跡に伴い第1の位置から電子文書にマーキングするマーキング動作が実行されるS530。使用者が第2の特定動作を行ったときS535、使用者の現在の視線が注がれる電子文書上の第2の位置を取得しS540、マーキング動作を第2の位置で終了するS545。【選択図】図5
Description
本発明は、電子文書を閲覧するための方法および装置に関するものであり、特に、電子文書にマーキングするための方法および装置に関するものである。
情報のデジタル化に伴い、ますます多くの従来の情報インタフェースが電子製品に置き換えられている。例えば、デジタルフォトフレームとデジタルカメラが従来の写真とフィルムを置き換え、パーソナルデジタルアシスタント(personal digital assistant, PDA)、スマートフォン(smart phone)、電子ブックリーダー(electronic book reader)等といった電子製品が、新世代の文書閲覧ブラットフォームとなっている。使用者は、従来の紙の本を複数持ち運ぶ不便さを避けるため、複数の電子書籍といった電子文書を同一の携帯型電子製品に格納することができる。さらに、使用者は携帯型電子製品に格納した電子書籍をいつでも読むことができる。
電子書籍を制御するための複数の方法が開発されている。例えば、米国特許第7,429,108号は、使用者が前回読んだ段落を探す手助けをする、視線追跡アプリケーション(gaze-tracking application)を用いた電子閲読記録装置を提供している。
PDA、スマートフォン、電子ブックリーダーといった一般的な電気製品は手により操作できるのみであり、使用者にとって不便である。
本発明は、頷き動作または瞬き動作を介し使用者の眼球の運動軌跡に伴い電子文書がマーキングされる、電子書類にマーキングするための方法と装置を対象とする。
本発明は以下のステップを含む電子文書にマーキングする方法を提供する。表示ユニットに電子文書が表示される。使用者の画像シーケンスが画像取得ユニットにより取得される。画像シーケンスを分析するため、眼球追跡処理、頷き検知処理、瞬き検知処理が実行され、眼球追跡処理は使用者の眼球の運動軌跡を追跡するために設けられ、頷き検知処理と瞬き検知処理は使用者が第1の特定動作または第2の特定動作を行ったかどうかを検知するために設けられる。使用者の現在の視線が注がれる電子文書上の第1の位置は、使用者が第1の特定動作を行ったことを検知したとき、眼球追跡処理により得られる。第1の位置から開始した使用者の眼球の運動軌跡に伴い電子文書にマーキングするため、マーキング動作が実行される。使用者の現在の視線が注がれる電子文書上の第2の位置は、使用者が第2の特定動作を行ったことを検知したとき、眼球追跡処理により得られ、マーキング動作は第2の位置で終了される。
本発明は、表示ユニット、画像取得ユニット、記憶ユニット、処理ユニットを含む、電子文書にマーキングするための装置を提供する。表示ユニットは電子文書を表示するために設けられる。画像取得ユニットは使用者の画像シーケンスを取得するために設けられる。記憶ユニットは電子文書と画像シーケンスを記憶するために設けられる。処理ユニットは、表示ユニットと、画像取得ユニットと、記憶ユニットとに連結され、画像シーケンスを分析するため、眼球追跡モジュール、頷き検知モジュール、瞬き検知モジュールを実行するために設けられ、眼球追跡モジュールは使用者の眼球の運動軌跡を追跡するために設けられ、頷き検知モジュールと瞬き検知モジュールは使用者が第1の特定動作または第2の特定動作を行ったかどうかを検知するために設けられる。眼球追跡モジュールは使用者が第1の特定動作を行ったことを検知したとき、使用者の現在の視線が注がれる電子文書上の第1の位置を取得し、処理ユニットは第1の位置から開始した使用者の眼球の運動軌跡に伴い電子文書にマーキングするためのマーキング動作を実行するため、マーキングモジュールを起動する。眼球追跡モジュールは使用者が第2の特定動作を行ったことを検知したとき、使用者の現在の視線が注がれる電子文書上の第2の位置を取得し、マーキングモジュールは第2の位置でマーキング動作を終了する。
本発明の1つの実施形態において、前記装置は補正モジュールをさらに含む。補正モジュールは複数の補正画像を連続的に受け取り、この補正画像はそれぞれ、使用者が表示ユニットの複数の補正ポイントを見ることにより得られる。さらに、補正モジュールは各補正画像の眼部領域の2つの輝点位置に基づき基準補正パラメータを取得し、2つの輝点位置は画像取得ユニットが各補正画像を取得するときに形成される。補正モジュールは、補正画像に基づく透視変換法(perspective transformation method)により座標変換行列を生成し、座標変換行列は眼部領域の座標位置を画像ユニットの座標位置へと変換するために用いられる。
本発明の1つの実施形態において、眼球追跡モジュールは、現在の瞳位置を取得するため、画像シーケンスのうちの現在の画像の眼部領域を検知し、現在の画像の眼部領域の2つの輝点位置に基づき比較補正パラメータを取得し、基準補正パラメータと比較補正パラメータとに基づき動的補償パラメータを取得し、現在の画像の瞳位置、動的補償パラメータ、そして2つの輝点位置のうちの1つに基づき眼球運動座標を計算し、座標変換行列を用いて眼球運動座標を表示ユニットに対応する注視点座標へと変換する。
本発明の1つの実施形態において、第1の特定動作と第2の特定動作は少なくとも1つの頷き動作と瞬き動作をそれぞれ含み、第2の特定動作は第1の特定動作と同一であるか、または異なる。マーキング動作は、輝度の調整、下線の追加、および背景色の追加の動作の少なくとも1つを含む。
本発明の1つの実施形態において、電子文書は複数のセグメントを含み、マーキングモジュールは各セグメントの視認頻度に基づき、各セグメントへ対応するマーキング動作を実行する。
上述に基づき、頷き動作または瞬き動作を介し使用者の眼球の運動軌跡に伴い電子文書がマーキングされる。これにより、眼の追跡に基づき、使用者は手を用いることなく対応する操作を行うことができ、大変便利である。
本発明の上述とその他の特徴と利点をさらに理解し易くするため、図面を伴ういくつかの例示的な実施形態が以下にさらに詳細に説明される。
図1は本発明の1つの実施形態による電子文書にマーキングするための装置のブロック図である。図1を参照し、電子文書にマーキングするための装置100は、画像取得ユニット110と、表示ユニット120と、記憶ユニット130と、処理ユニット140とを含む。処理ユニット140は画像取得ユニット110、表示ユニット120および記憶ユニット130と連結される。
画像取得ユニット110は、例えば、電荷結合素子(CCD)レンズ、相補性金属酸化膜半導体(CMOS)レンズ、または赤外線レンズを有するビデオカメラまたはカメラである。画像取得ユニット110は使用者の画像シーケンスを取得するために用いられる。
表示ユニット120は、例えば、液晶ディスプレイ(LCD)、プラズマディスプレイ(plasma display)、真空蛍光ディスプレイ(vacuum fluorescent display)、LED(light-emitting diode)ディスプレイ、電界放出ディスプレイ(field emission display、FED)と/またはその他の適切なディスプレイであり、本発明はこれに限定されない。
記憶ユニット130は、例えば、固定式または着脱可能なRAM(random access memory)、ROM(read-only memory)、フラッシュメモリ、ハードディスク、またはその他の類似の装置または上述の装置の組み合わせである。記憶ユニット130は複数の電子文書を含み、画像取得ユニット110により取得された画像シーケンスを一時的に記憶することができる。
処理ユニット140は、例えば、中央処理装置(CPU)、またはその他のプログラマブル汎用または専用マイクロプロセッサ、デジタルシグナルプロセッサ(DSP)、プログラマブルコントローラ、特定用途向け集積回路(AICP)、プログラマブルロジックデバイス(PLD)、またはその他の類似の装置または上述の装置の組み合わせである。
電子文書にマーキングするための装置100は、例えば、スマートフォン、電子ブックリーダー、タブレットPC、パーソナルコンピュータ等といった電子装置である。画像取得ユニット110(例えば、フロントカメラ)は、例えば、表示ユニット120(例えば、タッチスクリーン)の側方に配置され、表示ユニット120が電子文書を表示すると、画像取得ユニット110はその電子文書を読む使用者の画像シーケンスを取得する。その後、処理ユニット140は、取得された画像シーケンスを分析するため、眼球追跡処理、頷き検知処理、瞬き検知処理を実行する。
例えば、記憶ユニット130は電子文書にマーキングするためのコンピュータプログラム製品を含む。コンピュータプログラム製品は複数のプログラム命令(例えば、組織図確立プログラム命令(organization chart establishing program instruction)、テーブル承認プログラム命令、設定プログラム命令、デプロイメントプログラム命令等)を含み、これらブログラム命令は電子文書にマーキングするための装置100等といった電子装置に読み込まれ、電子文書にマーキングする機能を達成するため電子装置により実行される。
図2は本発明の1つの実施形態による記憶ユニットのブロック図である。図2を参照し、記憶ユニット130は、眼球追跡モジュール201、頷き検知モジュール202、瞬き検知モジュール203、マーキングモジュール204、補正モジュール205を含む。上述のモジュールは、例えば、コンピュータプログラミング言語で記述されたプログラム命令であり、プログラム命令は複数のコマンドを含み、処理ユニット140は電子文書にマーキングする機能を達成するためプログラム命令を実行するのに用いられる。その他の実施形態において、前述のモジュールは1つまたは複数のトランジスタまたは論理ゲート等からなるハードウェアであってもよく、処理ユニット140に連結され、処理ユニット140により駆動される。
眼球追跡モジュール201は、使用者の眼球の運動軌跡を追跡するため、画像シーケンスに対する眼球追跡処理を実行する。補正モジュール205は、眼球追跡処理を実行する前に補正処理を行うために用いられる。例えば、眼球位置が検知される前に、補正モジュール205は複数の補正画像を連続的に受け取り、補正画像に基づき座標変換行列を生成する、補正画像は使用者が表示ユニット120の複数の補正ポイントを見ることにより、それぞれ取得される。例えば、表示ユニット120の左上点、右上点、左下点、右下点の4つのポイントが補正ポイントとされる。補正処理が行われると、表示ユニット120は使用者に前述の4つのポイントを見るよう促すことで、4つの補正画像を得る。補正モジュール205は各補正画像内の眼部領域の2つの輝点位置に基づき基準補正パラメータを取得する。
図3は本発明の1つの実施形態による眼部領域の概略図である。図3の眼部領域は2つの輝点位置G1とG2を含む。2つの輝点位置G1とG2は、画像取得ユニット110の発光モジュールにより放射された光が眼球により反射されたとき形成される。基準補正パラメータは各補正画像内の眼部領域の2つの輝点位置G1とG2に基づき得られる。基準補正パラメータは、例えば、2つの輝点位置G1とG2に基づくベクター(vector)である。その後、補正モジュール205は補正画像に基づき透視変換法により座標変換行列を生成し、座標変換行列は、眼部領域の座標位置を表示ユニット120の座標位置へと変換するために用いられる。
眼球追跡モジュール201は、画像シーケンスのうちの現在の画像内の瞳孔位置と2つの輝点位置(輝点位置G1’およびG2’と称す)を取得するため、その現在の画像の眼部領域を検知する。さらに、眼球追跡モジュール201は現在の画像の2つの輝点位置G1’およびG2’に基づき比較補正パラメータを取得することで、基準補正パラメータ(C1)と比較補正パラメータ(C2)に基づき動的補償パラメータ(C3)を得る。例えば、動的補償パラメータは、基準補正パラメータと比較補正パラメータとの間の比率、つまりC3=C2/C1である。その後、眼球追跡モジュール201は、現在の画像内の輝点位置G1’(または輝点位置G2’)と瞳孔位置(例えば、瞳孔の中心の座標)と動的補償パラメータとに基づき眼球運動座標を計算する。例えば、眼球運動座標は(X’,Y’)である。眼球追跡モジュール201は、座標変換マトリックスを用いて、眼球運動座標(X’,Y’)を表示ユニット120に対応する注視点座標(例えば、注視点座標(Xs,Ys))へと変換し、注視点座標(Xs,Ys)を記録する。このようにして、複数の記録された注視点座標に基づき、使用者の眼球の運動軌跡が得られる。
頷き検知モジュール202は、使用者が頷き動作を行ったかどうかを検知するため画像シーケンスに対し頷き検知処理を実行するために用いられる。瞬き検知モジュール203は、使用者が瞬き動作を行ったかどうかを検知するため画像シーケンスに対し瞬き検知処理を実行するために用いられる。頷き検知モジュール202と瞬き検知モジュール203は使用者が第1の特定動作または第2の特定動作を行ったかどうかを検知できる。第1の特定動作は瞬き動作と頷き動作のうちの1つまたは両方を含む。
例えば、頷き検知モジュール202は、鼻孔位置情報を取得するため画像内の使用者の顔の鼻孔領域を検知し、2つの隣接した画像(または3つ以上の画像)の鼻孔位置情報を比較することにより、使用者が頷き動作を行ったかどうか判断する。さらに、瞬き検知モジュール203は画像内の眼部物体を検知し、例えば、瞬き検知モジュール203は鼻孔位置に基づき眼部物体を上方に向かって探す。眼部物体が得られたのち、瞬き検知モジュール203は眼部物体のサイズに基づき使用者の眼が閉じられたかどうか判断する。
例えば、図4は本発明の1つの実施形態による眼部物体の概略図であり、図4は眼部物体の閉じられた状態を表している。例えば、図4に示される眼部物体410は、眼部領域の画像のノイズ除去、エッジ鮮鋭化、二値化処理、再度のエッジ鮮鋭化等の処理を介し得られる。もし、眼部物体410の高さが高さ閾値(例えば、高さ閾値の範囲は5〜7ピクセルの間)よりも小さく、眼部物体410の幅が幅閾値(例えば、幅閾値の範囲は60〜80ピクセルの間)よりも大きい場合、眼部物体410は閉じられた状態であると判断される。もし、上述の条件に符合しない場合、眼部物体410は開いた状態であると判断される。このようにして、瞬き検知モジュール203は使用者が瞬き動作を行ったかどうか検知できる。
マーキングモジュール204はマーキング動作を実行するために用いられる。マーキング動作は、例えば、輝度の調整、下線の追加、または背景色の追加等である。マーキングモジュール204が起動されたのち、マーキングモジュール204は眼球の運動軌跡に伴いマーキング動作を実行する。
電子文書にマーキングするための方法の詳細なステップを、電子文書にマーキングするための装置100を参照し、以下に説明する。
図5は本発明の1つの実施形態による電子文書にマーキングするための方法を表すフロー図である。ステップS505において、図6に示されるように、電子文書が表示ユニット120に表示される。図6は本発明の1つの実施形態による電子文書にマーキングするための装置の概略図である。本実施形態において、電子文書にマーキングするための装置100はタブレットPCであり、画像取得ユニット110は表示ユニット120の側方に配置される。表示ユニット120は電子文書610を表示する。
そして、ステップS510において、使用者の画像シーケンスを取得するため画像取得ユニット110が使用される。すなわち、画像取得ユニット110は電子文書610を見る使用者の画像を取得する。そして、ステップS515において、画像シーケンスに対し眼球追跡処理、頷き検知処理、瞬き検知処理が実行される。すなわち、眼球追跡モジュール201、頷き検知モジュール202、瞬き検知モジュール203がそれぞれ画像シーケンスを分析するために用いられ、眼球追跡モジュール201は使用者の眼球の運動軌跡を追跡するために用いられ、頷き検知モジュール202と瞬き検知モジュール203は使用者が第1の特定動作または第2の特定動作を行ったかどうか検知するために用いられる。
第1の特定動作は、例えば、頷き動作1回と瞬き動作2回を2秒以内に順に実行することで、第2の特定動作は、例えば、瞬き動作1回と頷き動作1回を2秒以内に順に実行することである。しかし、上述のパターンは単に例であり、本発明はこれに限定されない。さらに、第1の特定動作と第2の特定動作は同一の動作を設定でき、異なる動作に限定されない。
そして、ステップS520において、処理ユニット140は使用者が第1の特定動作を行ったかどうか判断する。もし第1の特定動作が行われていない場合、後続のステップは行われず、もし第1の特定動作が行われた場合、ステップS525が実行される。
ステップS525において、眼球追跡モジュールは、使用者の現在の視線が注がれている電子文書610上の第1の位置601を取得する。すなわち、第1の位置601は使用者が第1の特定動作を行ったときの使用者の注視位置である。そして、ステップS530において、処理ユニット140は、第1の位置601から開始した使用者の眼球の運動軌跡に伴い電子文書610にマーキングする(例えば、図6の斜線で示したマーキング範囲620)ためのマーキング動作を実行するため、マーキングモジュール204を起動する。
そして、ステップS535において、処理ユニット140は使用者が第2の特定動作を行ったかどうか判断する。もし第2の特定動作が行われていない場合、後続のステップは行われず、マーキングモジュール204は使用者の眼球の運動軌跡に伴い電子文書610にマーキングするためマーキング動作の実行を継続し、もし第2の特定動作が行われた場合、ステップS540が実行される。
ステップS540において、眼球追跡モジュール201は、使用者の現在の視線が注がれている電子文書610上の第2の位置602を取得する。すなわち、第2の位置602は使用者が第2の特定動作を行ったときの使用者の注視位置である。最後に、ステップS545において、マーキングモジュール204は第2の位置602においてマーキング動作を終了する。図6に示されるように、マーキング範囲620は第1の位置601から始まり、第2の位置602で終わる。
例えば、使用者が特定の興味のある内容を読み終えたとき、電子文書にマーキングするための装置100がマーキング動作を起動するよう、使用者は画像取得ユニット110の前で視線を興味のある内容が開始するポイントへと動かし、頷き動作1回と瞬き動作2回を2秒以内に順に行う(第1の特定動作)ことができる。そして、使用者は興味のある内容を閲覧するため視線を動かし、使用者が最後のポイントまで閲覧したとき、電子文書にマーキングするための装置100がマーキング動作を終了するよう、使用者は瞬き動作1回と頷き動作1回を2秒以内に行う(第2の特定動作)。このようにして、興味のある内容のマーキングが達成される。
その他の実施形態において、もし第1の特定動作と第2の特定動作が同一、例えば、どちらも素早く瞬き動作2回を行うことである場合、第1回目に検知された2つの瞬き動作が第1の特定動作と解釈され、第2回目に検知された2つの瞬き動作が第2の特定動作と解釈される。
さらに、電子文書610の内容は、複数のセグメントに分けられ(例えば、電子文書610は章または段落に基づき区分される)、使用者が電子文書610を閲覧するとき、各セグメントの視認頻度が記録され、各セグメントの認頻度に基づき、各セグメントへの対応するマーキング動作が実行される。例えば、ある1つのセグメントの視認頻度が第1の所定頻度(3回)を超えると、そのセグメントの背景色が黄色に設定される。ある1つのセグメントの視認頻度が第2の所定頻度(5回)を超えると、そのセグメントの背景色が青色に設定される。上記パターンは単に例であり、本発明はこれに限定されない。
まとめると、電子文書は、頷き動作または瞬き動作に基づく眼球追跡を介し、使用者の眼球の運動軌跡に伴い自動的にマーキングされ、使用者は手を用いることなく対応する処理を行うことができ、興味のある内容にマーキングすることができ、これにより閲覧補助における利便性が向上する。
本発明の技術思想から離れることなく、本発明の構造への多様な改変や変形がされうることは、当業者にとって明白である。上述から、本発明の改変や変形が後述の請求項の範囲およびその同等に含まれるならば、本発明はこれらを包含することを意図する。
本開示を介し、電子文書閲覧の補助における利便性が向上される。
100:電子文書にマーキングするための装置
110:画像取得ユニット
120:表示ユニット
130:記憶ユニット
140:処理ユニット
201:眼球追跡モジュール
202:頷き検知モジュール
203:瞬き検知モジュール
204:マーキングモジュール
205:補正モジュール
410:眼部物体
601:第1の位置
602:第2の位置
610:電子文書
620:マーキング範囲
G1、G2:輝点位置
S505〜S545:ステップ
110:画像取得ユニット
120:表示ユニット
130:記憶ユニット
140:処理ユニット
201:眼球追跡モジュール
202:頷き検知モジュール
203:瞬き検知モジュール
204:マーキングモジュール
205:補正モジュール
410:眼部物体
601:第1の位置
602:第2の位置
610:電子文書
620:マーキング範囲
G1、G2:輝点位置
S505〜S545:ステップ
Claims (12)
- 表示ユニットに電子文書を表示するステップと、
画像取得ユニットにより使用者の画像シーケンスを取得するステップと、
前記画像シーケンスを分析するため、前記使用者の眼球の運動軌跡を追跡するために設けられた眼球追跡処理と、前記使用者が第1の特定動作または第2の特定動作を行ったかどうか検知するために設けられた頷き検知処理と瞬き検知処理とを実行するステップと、
前記使用者が前記第1の特定動作を行ったことを検知したとき、前記眼球追跡処理を介し、前記使用者の現在の視線が注がれる前記電子文書上の第1の位置を取得するステップと、
前記第1の位置から開始した前記使用者の前記眼球の運動軌跡に伴い前記電子文書にマーキングするため、マーキング動作を実行するステップと、
前記使用者が前記第2の特定動作を行ったことを検知したとき、前記眼球追跡処理を介し、前記使用者の現在の視線が注がれる前記電子文書上の前記第2の位置を取得するステップと、
前記第2の位置でマーキング動作を終了するステップと
を含む、電子文書にマーキングするための方法。 - 前記眼球追跡処理が補正処理を含み、
前記補正処理が、
前記使用者が前記表示ユニットの複数の補正ポイントを見るとそれぞれ取得される複数の補正画像を連続して受け取るステップと、
各前記補正画像内の眼部領域の、前記画像取得ユニットが各前記補正画像を取得するときに形成される2つの輝点位置に基づき、基準補正パラメータを取得するステップと、
前記補正画像に基づき、前記眼部領域の座標位置を前記表示ユニットの座標位置へと変換するために用いられる座標変換行列を透視変換法により生成するステップと
を含む、
請求項1に記載の電子文書にマーキングするための方法。 - 前記使用者の前記眼球の運動軌跡を追跡するステップが、
前記画像シーケンスのうちの現在の画像内の瞳孔位置を取得するため、前記現在の画像の前記眼部領域を取得するステップと、
前記現在の画像の前記眼部領域の前記2つの輝点位置に基づき、比較補正パラメータを取得するステップと、
前記基準補正パラメータと前記比較補正パラメータに基づき、動的補償パラメータを取得するステップと、
前記現在の画像内の前記瞳孔位置と、前記動的補償パラメータと、前記2つの輝点位置のうちの1つとに基づき、眼球運動座標を計算するステップと
を含む
請求項2に記載の電子文書にマーキングするための方法。 - 前記第1の特定動作と前記第2の特定動作が、頷き動作と瞬き動作のうち少なくとも1つをそれぞれ含み、前記第2の特定動作が前記第1の特定動作と同一か、または異なる、
請求項1から3のいずれか1項に記載の電子文書にマーキングするための方法。 - 前記マーキング動作が、輝度調整、下線追加、背景色追加のうち少なくとも1つの動作を含む、
請求項1から4のいずれか1項に記載の電子文書にマーキングするための方法。 - 前記電子文書が複数のセグメントを含み、
各前記セグメントの視認頻度に基づき、各前記セグメントへ対応する前記マーキング動作を実行することをさらに含む、
請求項1から5のいずれか1項に記載の電子文書にマーキングするための方法。 - 電子文書を表示する表示ユニットと、
使用者の画像シーケンスを取得する画像取得ユニットと
前記電子文書と前記画像シーケンスを記憶する記憶ユニットと、
前記表示ユニットと前記画像取得ユニットとに連結され、前記画像シーケンスを分析するため、前記使用者の眼球の運動軌跡を追跡するために設けられた眼球追跡モジュールと、前記使用者が第1の特定動作または第2の特定動作を行ったかどうか検知するために設けられた頷き検知モジュールと瞬き検知モジュールとを実行する処理ユニットと
を含み、
前記使用者が前記第1の特定動作を行ったとき、前記眼球追跡モジュールが前記使用者の現在の視線が注がれる前記電子文書上の第1の位置を取得し、前記処理ユニットが前記使用者の前記眼球の運動軌跡に伴い前記第1の位置から前記電子文書にマーキングするためのマーキング動作を実行するためマーキングモジュールを起動し、
前記使用者が前記第2の特定動作を行ったとき、前記眼球追跡モジュールが前記使用者の現在の視線が注がれる前記電子文書上の第2の位置を取得し、前記マーキングモジュールが前記第2の位置で前記マーキング動作を終了する、
電子文書にマーキングするための装置。 - 複数の補正画像を連続して受け取る補正モジュールをさらに含み、
前記補正画像はそれぞれ前記使用者が前記表示ユニットの複数の補正スポットを見ると取得され、各前記補正画像内の眼部領域の、前記画像取得ユニットが各前記補正画像を取得するとき形成される2つの輝点位置に基づき、前記補正モジュールが基準補正パラメータを取得し、
前記補正モジュールが前記補正画像に基づき、前記眼部領域の座標位置を前記表示ユニットの座標位置へと変換するために用いられる座標変換行列を、透視変換法により生成する、
請求項7に記載の電子文書にマーキングするための装置。 - 前記眼球追跡モジュールが、
前記画像シーケンスのうちの現在の画像内の瞳孔位置を取得するため前記現在の画像の前記眼部領域を検知し、
前記現在の画像の前記眼部領域の前記2つの輝点位置に基づき比較補正パラメータを取得し、
前記基準補正パラメータと前記比較補正パラメータに基づき動的補償パラメータを取得し、
前記現在の画像内の前記瞳孔位置と、前記動的補償パラメータと、前記2つの輝点位置のうちの1つとに基づき、眼球運動座標を計算し、
前記座標変換行列を用いることにより前記眼球運動座標を前記表示ユニットに対応する注視点座標へと変換し、
前記注視点座標を記録する、
請求項8に記載の電子文書にマーキングするための装置。 - 前記第1の特定動作と前記第2の特定動作が、頷き動作と瞬き動作のうち少なくとも1つをそれぞれ含み、前記第2の特定動作が前記第1の特定動作と同一か、または異なる、
請求項7から9のうちいずれか1項に記載の電子文書にマーキングするための装置。 - 前記マーキング動作が、輝度調整、下線追加、背景色追加のうち少なくとも1つの動作を含む、
請求項7から10のうちいずれか1項に記載の電子文書にマーキングするための装置。 - 前記電子文書が複数のセグメントを含み、
各前記セグメントの視認頻度に基づき、前記マーキングモジュールが各前記セグメントへ対応する前記マーキング動作を実行する、
請求項7から11のうちいずれか1項に記載の電子文書にマーキングするための装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW102138755 | 2013-10-25 | ||
TW102138755A TWI489320B (zh) | 2013-10-25 | 2013-10-25 | 電子文件標記方法及裝置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015084221A true JP2015084221A (ja) | 2015-04-30 |
Family
ID=52994802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014213733A Pending JP2015084221A (ja) | 2013-10-25 | 2014-10-20 | 電子文書にマーキングするための方法および装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9207762B2 (ja) |
JP (1) | JP2015084221A (ja) |
CN (1) | CN104571488B (ja) |
TW (1) | TWI489320B (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016163150A (ja) * | 2015-02-27 | 2016-09-05 | 株式会社リコー | 通信端末、面談システム、通信方法及びプログラム |
TWI617948B (zh) * | 2015-07-24 | 2018-03-11 | 由田新技股份有限公司 | 用於眼部追蹤的校正模組及其方法及電腦可讀取紀錄媒體 |
US10444972B2 (en) | 2015-11-28 | 2019-10-15 | International Business Machines Corporation | Assisting a user with efficient navigation between a selection of entries with elements of interest to the user within a stream of entries |
CN106991649A (zh) * | 2016-01-20 | 2017-07-28 | 富士通株式会社 | 对摄像装置所捕获的文档图像进行校正的方法和装置 |
US10929478B2 (en) * | 2017-06-29 | 2021-02-23 | International Business Machines Corporation | Filtering document search results using contextual metadata |
CN107357430A (zh) * | 2017-07-13 | 2017-11-17 | 湖南海翼电子商务股份有限公司 | 自动记录阅读位置的方法与装置 |
US10782776B2 (en) * | 2017-09-28 | 2020-09-22 | Nissan North America, Inc. | Vehicle display configuration system and method |
CN110017520B (zh) * | 2019-04-15 | 2020-04-10 | 宁波奥克斯厨电制造有限公司 | 一种抽油烟机眼球追踪控制方法、装置及抽油烟机 |
CN110333779B (zh) * | 2019-06-04 | 2022-06-21 | Oppo广东移动通信有限公司 | 控制方法、终端和存储介质 |
CN110244848B (zh) * | 2019-06-17 | 2021-10-19 | Oppo广东移动通信有限公司 | 阅读控制方法及相关设备 |
TWI802216B (zh) * | 2022-01-11 | 2023-05-11 | 崑山科技大學 | 以眼球追蹤凸顯授課重點的方法、電腦程式產品及電腦可讀取媒體 |
CN114898749A (zh) * | 2022-05-30 | 2022-08-12 | 中国第一汽车股份有限公司 | 一种汽车电子手册交互方法、装置及车辆 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060256083A1 (en) * | 2005-11-05 | 2006-11-16 | Outland Research | Gaze-responsive interface to enhance on-screen user reading tasks |
JP2007102360A (ja) * | 2005-09-30 | 2007-04-19 | Sharp Corp | 電子書籍装置 |
JP2007136000A (ja) * | 2005-11-21 | 2007-06-07 | Nippon Telegr & Teleph Corp <Ntt> | 視線検出装置、視線検出方法、および視線検出プログラム |
JP2007141059A (ja) * | 2005-11-21 | 2007-06-07 | National Institute Of Information & Communication Technology | 読書支援システム及びプログラム |
JP2009251658A (ja) * | 2008-04-01 | 2009-10-29 | Fujifilm Corp | 携帯型電子装置及びその制御方法 |
JP2012515986A (ja) * | 2009-01-22 | 2012-07-12 | アルカテル−ルーセント ユーエスエー インコーポレーテッド | 電子データ入力システム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0655203B2 (ja) * | 1992-07-09 | 1994-07-27 | 株式会社エイ・ティ・アール視聴覚機構研究所 | 視線検出を用いた医療診断装置 |
US6954193B1 (en) * | 2000-09-08 | 2005-10-11 | Apple Computer, Inc. | Method and apparatus for correcting pixel level intensity variation |
US7483532B2 (en) * | 2003-07-03 | 2009-01-27 | Microsoft Corporation | RTP payload format |
US9274598B2 (en) * | 2003-08-25 | 2016-03-01 | International Business Machines Corporation | System and method for selecting and activating a target object using a combination of eye gaze and key presses |
US7365738B2 (en) * | 2003-12-02 | 2008-04-29 | International Business Machines Corporation | Guides and indicators for eye movement monitoring systems |
CN103823556B (zh) * | 2006-07-28 | 2017-07-04 | 飞利浦灯具控股公司 | 用于被凝视物品的信息显示的凝视交互 |
US9507418B2 (en) * | 2010-01-21 | 2016-11-29 | Tobii Ab | Eye tracker based contextual action |
TW201201087A (en) * | 2010-06-23 | 2012-01-01 | Acer Inc | Method for controlling cursor |
KR20120053803A (ko) * | 2010-11-18 | 2012-05-29 | 삼성전자주식회사 | 시선 궤적을 이용한 컨텐츠 표시 장치 및 방법 |
JP2014077814A (ja) * | 2011-02-14 | 2014-05-01 | Panasonic Corp | 表示制御装置および表示制御方法 |
KR101773845B1 (ko) * | 2011-05-16 | 2017-09-01 | 삼성전자주식회사 | 휴대용 단말기에서 입력 처리 방법 및 장치 |
KR101850035B1 (ko) * | 2012-05-02 | 2018-04-20 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US20140009395A1 (en) * | 2012-07-05 | 2014-01-09 | Asustek Computer Inc. | Method and system for controlling eye tracking |
-
2013
- 2013-10-25 TW TW102138755A patent/TWI489320B/zh active
-
2014
- 2014-02-18 CN CN201410054574.7A patent/CN104571488B/zh active Active
- 2014-04-14 US US14/251,648 patent/US9207762B2/en active Active
- 2014-10-20 JP JP2014213733A patent/JP2015084221A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007102360A (ja) * | 2005-09-30 | 2007-04-19 | Sharp Corp | 電子書籍装置 |
US20060256083A1 (en) * | 2005-11-05 | 2006-11-16 | Outland Research | Gaze-responsive interface to enhance on-screen user reading tasks |
JP2007136000A (ja) * | 2005-11-21 | 2007-06-07 | Nippon Telegr & Teleph Corp <Ntt> | 視線検出装置、視線検出方法、および視線検出プログラム |
JP2007141059A (ja) * | 2005-11-21 | 2007-06-07 | National Institute Of Information & Communication Technology | 読書支援システム及びプログラム |
JP2009251658A (ja) * | 2008-04-01 | 2009-10-29 | Fujifilm Corp | 携帯型電子装置及びその制御方法 |
JP2012515986A (ja) * | 2009-01-22 | 2012-07-12 | アルカテル−ルーセント ユーエスエー インコーポレーテッド | 電子データ入力システム |
Also Published As
Publication number | Publication date |
---|---|
US9207762B2 (en) | 2015-12-08 |
TW201516755A (zh) | 2015-05-01 |
TWI489320B (zh) | 2015-06-21 |
CN104571488A (zh) | 2015-04-29 |
CN104571488B (zh) | 2018-03-23 |
US20150116201A1 (en) | 2015-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015084221A (ja) | 電子文書にマーキングするための方法および装置 | |
US11727695B2 (en) | Language element vision augmentation methods and devices | |
US9672421B2 (en) | Method and apparatus for recording reading behavior | |
JP5949319B2 (ja) | 視線検出装置及び視線検出方法 | |
TWI545947B (zh) | 具有影像擷取及分析模組之顯示裝置 | |
EP2515526A2 (en) | Display device with image capture and analysis module | |
KR102172988B1 (ko) | 아이라이너-착용 가이드 장치 및 방법 | |
US10342317B2 (en) | Eyebrow shape guide device and method thereof | |
US20140015778A1 (en) | Tablet device, and operation receiving method | |
CN107066085B (zh) | 一种基于眼球追踪控制终端的方法及装置 | |
TW202009786A (zh) | 可由頭部操控的電子裝置與其操作方法 | |
CN105068646A (zh) | 终端的控制方法和系统 | |
TW201445457A (zh) | 虛擬眼鏡試戴方法及其裝置 | |
US20160037056A1 (en) | Information processing apparatus, information processing method, and program | |
JP2017220158A (ja) | バーチャルメイク装置、バーチャルメイク方法、およびバーチャルメイクプログラム | |
US20180004287A1 (en) | Method for providing user interface through head mounted display using eye recognition and bio-signal, apparatus using same, and computer readable recording medium | |
KR102181897B1 (ko) | 눈동자 추적을 이용한 모바일 툴팁 방법 및 장치 | |
JP2014059869A (ja) | 眼探索方法及び該方法を使用した眼状態検出装置と眼探索装置 | |
TWI630507B (zh) | 目光偵測、辨識與控制方法 | |
JP2013228490A (ja) | 表示装置、その制御方法及びプログラム | |
CN104092935B (zh) | 一种图像拍摄的处理方法和装置 | |
CN110858095A (zh) | 可由头部操控的电子装置与其操作方法 | |
JP2013239089A (ja) | 表示制御装置、表示制御方法、情報表示システム、およびプログラム。 | |
Kurdziel et al. | VCOP--The System of Visual Communication with Computers for Paralyzed Users |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151208 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160302 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160712 |