JP7435774B2 - 情報入力装置 - Google Patents

情報入力装置 Download PDF

Info

Publication number
JP7435774B2
JP7435774B2 JP2022531306A JP2022531306A JP7435774B2 JP 7435774 B2 JP7435774 B2 JP 7435774B2 JP 2022531306 A JP2022531306 A JP 2022531306A JP 2022531306 A JP2022531306 A JP 2022531306A JP 7435774 B2 JP7435774 B2 JP 7435774B2
Authority
JP
Japan
Prior art keywords
wearer
electrode
input device
information input
eyeglass frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022531306A
Other languages
English (en)
Other versions
JPWO2021260831A1 (ja
Inventor
一善 小野
新 豊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2021260831A1 publication Critical patent/JPWO2021260831A1/ja
Application granted granted Critical
Publication of JP7435774B2 publication Critical patent/JP7435774B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Neurology (AREA)
  • Dermatology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、情報を入力するための情報入力装置に関する。
重度の四肢障害を抱えた人が、コンピュータなどの情報処理機器へ情報を入力する装置として、視線入力インターフェースが実用化されている(非特許文献1)。 健常者が日常用いている情報へアクセスするためには、健常者が通常用いるような、マウスなどのユーザインターフェースが備えるようなポインティングデバイスの機能が必要である。つまり、情報へのアクセスのためには、コンピュータの画面上に表示されるポインタやアイコンを操作するための機能として、ポインタの移動操作、クリック相当の動作(クリック、プレス、ドラッグ、ドロップ)を備えることが必要である(非特許文献2)。
下り藤菜穂子 著、「特集B 障がい者支援と映像、2章 重度障がい者のための視線入力インタフフェース」、映像情報メディア学会誌 Vol. 69, No. 6, pp. 530-534、2015年。 今野 秀威 他、「両眼の位置検出を利用した多次元操作インターフェースの検討」、映像情報メディア学会誌、Vol. 61、No. 4、pp. 518~525、2007年。
従来の技術では、アイトラッカーを用いた視線の注視により、ポインタの移動操作を実現し、まばたきによって、クリック相当の動作を実現するなどの例がある。しかしながら、従来の技術では、ユーザの意図とは異なる不随意性運動によって、ポインティング機能に誤作動が生じる場合がある。例えば、ユーザが、意図と異なりまばたきをした場合、装置は、クリック相当の動作を認識してしまう。このため、ユーザは、不随意性運動が起こらないよう注意して装置を使用することが必要となる。従来の技術では、ユーザは、装置の使用中、意図と異なるまばたきを制限せざるを得ないような状況となり、疲労感などユーザの負担が大きいものであった。
本発明は、以上のような問題点を解消するためになされたものであり、ユーザの負担を低減して、ユーザにとって自然な形態で情報が入力できるようにすることを目的とする。
本発明に係る情報入力装置は、メガネフレームと、メガネフレームの鼻あておよびリムの少なくとも1つに設けられ、被着者のまぶたまたは眉の動きによる電気信号を測定するための測定電極と、メガネフレームに設けられ、メガネフレームのたわみを検出するたわみ検出部と、測定電極で測定した電気信号を元に、被着者のまぶたまたは眉の動きの発生を判定する第1判定部と、たわみ検出部がメガネフレームのたわみを検出すると、被着者の顔面の動きの発生を判定する第2判定部と、第1判定部が被着者のまぶたまたは眉の動きの発生を判定し、同時に、第2判定部が被着者の顔面の動きの発生を判定すると、被着者のメガネフレームの操作によるコマンドを出力する出力部とを備える。
以上説明したように、本発明によれば、第1判定部で、メガネフレームの被着者のまぶたまたは眉の動きの発生を判定し、第2判定部で、メガネフレームの被着者の顔面の動きの発生を判定するので、ユーザの負担を低減して、ユーザにとって自然な形態で情報が入力できるようになる。
図1Aは、本発明の実施の形態1に係る情報入力装置の構成を示す構成図である。 図1Bは、本発明の実施の形態1に係る他の情報入力装置の構成を示す構成図である。 図2は、本発明の実施の形態2に係る情報入力装置の構成を示す構成図である。
以下、本発明の実施の形態に係る情報入力装置について説明する。
[実施の形態1]
はじめに、本発明の実施の形態1に係る情報入力装置について、図1A、図1Bを参照して説明する。この情報入力装置は、メガネフレーム101、測定電極102、たわみ検出部104、第1判定部121、第2判定部122、および出力部123を備える。また、この情報入力装置は、メガネフレーム101のモダンに設けられ、モダンの部分で、メガネフレーム101の被着者の皮膚に接触する共通電極105を備える。共通電極105は、2つのモダンの少なくとも一方に設けることもできる。
測定電極102は、メガネフレーム101の鼻あてに設けられ、被着者のまぶたまたは眉の動きによる電気信号の測定に用いられる。測定電極102は、メガネフレーム101の鼻あてにおいて被着者の皮膚に接し、接している箇所の電位を測定するために用いられる。また、図1Bに示すように、メガネフレーム101のリムに、測定電極103を設けることもできる。この場合、測定電極103は、メガネフレーム101のリムにおいて被着者の皮膚に接し、接している箇所の電位を測定するために用いられる。
たわみ検出部104は、メガネフレーム101に設けられ、メガネフレーム101のたわみを検出する。たわみ検出部104は、例えば、メガネフレーム101のブリッジに設けることができる。一般に人間が顔面を動かす場合、例えば、耳を動かす際、前頭筋、耳介筋、側頭筋、後頭筋へ意識を向けることで随意性運動となることが知られている。これらの筋肉が動いた際、側頭部と眉間との間に変位が生ずる。この変位に対応してメガネフレーム101がたわむので、たわみ検出部104このたわみを検出する。例えば、「SpectraSymbol」社製の薄膜型変位センサ(曲げセンサ)からたわみ検出部104を構成することができる。
主に、前頭筋、耳介筋、側頭筋、後頭筋へ動作するよう意識を向けることにより、耳を随意的に前後へ動かすことが可能である。例えば、被着者が耳を前後に動かした場合、これに対応してメガネフレーム101には耳の前後の変位により応力が発生する。この応力をたわみ検出部104により検出することで、被着者の耳の前後運動が検出できる。
また、主に、皺眉筋、前頭筋、鼻根筋、眼輪筋、側頭筋、鼻筋に意識を向けることにより、随意性運動として眉を上下に動かすことが可能である。例えば、被着者が眉を意識して動かしたことによる変位により、メガネフレーム101に応力が発生する。この応力をたわみ検出部104により検出することで、被着者が眉を上下に動かす所作が検出できる。
第1判定部121は、共通電極105をグランド電位として、測定電極102で測定した電気信号を元に、被着者のまぶたまたは眉の動きの発生を判定する。第1判定部121は、測定電極102から得られた電位信号を増幅し、増幅された信号からノイズなどを除去した後、例えば眼電図信号を取り出し、取り出した眼電図信号と、記憶している基準信号とを比較することで、被着者のまぶた、または眉の動きの発生を判定する。
ここで、表情筋の筋電信号は、同一の被験筋でも動作毎に振幅が異なるので、各被験筋の特徴抽出を行うことが重要となる(参考文献1参照)。特徴抽出では、例えば、測定されて処理の処理がなされた信号波形から整流平滑信号を得、得られた整流平滑信号の波形から時間変化を求め、上述した特徴抽出を行う。
第2判定部122は、たわみ検出部104がメガネフレーム101のたわみを検出すると、被着者の顔面の動きの発生を判定する。第2判定部122は、たわみ検出部104から得られた電位信号を増幅し、増幅された信号からノイズなどを除去した後、ノイズなどを除去した信号と、記憶している基準信号とを比較することで、メガネフレーム101におけるたわみの発生を判定する。
ところで、前述した、たわみ検出部104で検出される被着者が眉を上下に動かす所作と、測定電極102で測定された電気信号で判定される眉の動きとは、各々異なる動きとなる。例えば、たわみ検出部104で検出される被着者が眉を上下に動かす所作は、この所作において同時に発生する顔面の他の動きを伴い、この結果、メガネフレーム101に応力を発生させるものとなる。一方、測定電極102で測定された電気信号で判定される眉の動きは、顔面の他の動きを伴うことがなく、メガネフレーム101に応力を発生させることがない。
なお、各判定部においては、測定された信号のデジタル化処理を実施することもできる。また、各判定部においては、取得した信号の加減処理を実施することもできる。また、各判定部は、必要に応じて、被着者の識別管理を行うこともできる。
出力部123は、第1判定部121が被着者のまぶたまたは眉の動きの発生を判定し、同時に、第2判定部122が被着者の顔面の動きの発生を判定すると、被着者のメガネフレーム101の操作によるコマンドを出力する。また、出力部123は、測定している信号の有無や、出力されて外部装置にて処理された信号を、音声や振動などにより被着者にフィードバックする機能を有する。
また、出力部123は、各判定部により処理された信号を、スマートフォンやタブレット端末、パーソナルコンピュータなどの外部装置に送信することもできる。例えば、出力部123は、Bluetooth(登録商標)、無線LANなどの無線通信、あるいは、有線通信によって、各信号を外部装置に送信する。また、出力部123は、外部装置にて処理され送信された信号を受信する機能を備えることもできる。
各判定部および出力部123は、CPU(Central Processing Unit;中央演算処理装置)と主記憶装置と外部記憶装置とネットワーク接続装置となどを備えたコンピュータ機器から構成することができる。主記憶装置に展開されたプログラムによりCPUが動作する(プログラムを実行する)ことで、上述した各機能が実現されるようにすることができる。
上述した実施の形態1によれば、被着者のまぶたまたは眉の動きと、被着者の顔面の動きとの、独立した2種類の異なる随意性運動を測定し、これらが同時に測定(検出)された場合に、ポインティング機能をアクティブにするなどのコマンドを出力する。この結果、ユーザのジェスチャの一方が不随意性運動となってしまった場合には、装置が反応せず、誤作動が発生しないようにすることが可能となる。顔の筋肉は、骨と皮膚を結んでおり、複雑な表情を作り出すことができる。一方で、2つの動作で複数の筋が連動するという特徴を持つ。このような顔面の筋と骨格構造に対して、被着者が、2種類の異なる随意運動を機能解剖学的に独立かつ自然に発生させることができる。
[実施の形態2]
次に、本発明の実施の形態2に係る情報入力装置について、図2を参照して説明する。この情報入力装置は、メガネフレーム101、第1鼻あて電極102a、第2鼻あて電極102b、第1リム電極103a、第2リム電極103b、たわみ検出部104、第1判定部121a、第2判定部122、および出力部123を備える。また、この情報入力装置は、共通電極105を備える。たわみ検出部104、第2判定部122、および共通電極105は、前述した実施の形態1と同様である。
第1鼻あて電極102a、第2鼻あて電極102bは、メガネフレーム101の2つの鼻あての各々に設けられ、各々の鼻当ての部分で被着者の皮膚に接触する。第1リム電極103a、第2リム電極103bは、各々のリムの部分で被着者の皮膚に接触する。実施の形態2では、第1鼻あて電極102a、第2鼻あて電極102b、第1リム電極103a、第2リム電極103bにより、測定電極を構成している。これら電極は、被着者のまぶたまたは眉の動きによる電気信号の測定に用いられる。上述した各電極は、アクティブ電極を用いることができる(参考文献2)。
第1判定部121aは、第1鼻あて電極102a、第2鼻あて電極102b、第1リム電極103a、第2リム電極103bで測定した電気信号を元に、被着者のまぶたまたは眉の動きの発生を判定する。第1判定部121は、上述した構成の第1測定電極の各々から得られた電位信号を増幅し、増幅された信号からノイズなどを除去した後、例えば眼電図信号を取り出し、取り出した眼電図信号と、記憶している基準信号とを比較することで、被着者のまぶた、または眉の動きの発生を判定する。
具体的には、共通電極105をグランド電位とし、第1鼻あて電極102aと第1リム電極103aとの差動電位により、右目周辺の表情筋あるいは眼電位を測定(検出)する。また、共通電極105をグランド電位とし、第2鼻あて電極102bと第2リム電極103bとの差動電位により、左目周辺の表情筋あるいは眼電位を測定(検出)する。また、共通電極105をグランド電位とし、第1鼻あて電極102aと第2鼻あて電極102bとの差動電位、あるいは第1リム電極103aと第2リム電極103bとの差動電位により、表情筋あるいは眼電位を検出することもできる。
第2判定部122は、前述した実施の形態1と同様であり、たわみ検出部104がメガネフレーム101のたわみを検出すると、被着者の顔面の動きの発生を判定する。
出力部123は、第1判定部121が被着者のまぶたまたは眉の動きの発生を判定し、同時に、第2判定部122が被着者の顔面の動きの発生を判定すると、被着者のメガネフレーム101の操作によるコマンドを出力する。また、出力部123は、測定している信号の有無や、出力されて外部装置にて処理された信号を、音声や振動などにより被着者にフィードバックする機能を有する。
上述した実施の形態2においても、被着者のまぶたまたは眉の動きと、被着者の顔面の動きとの、独立した2種類の異なる随意性運動を測定し、これらが同時に測定(検出)された場合に、ポインティング機能をアクティブにするなどのコマンドを出力する。この結果、ユーザのジェスチャの一方が不随意性運動となってしまった場合には、装置が反応せず、誤作動が発生しないようにすることが可能となる。
以上に説明したように、本発明によれば、第1判定部で、メガネフレームの被着者のまぶたまたは眉の動きの発生を判定し、第2判定部で、メガネフレームの被着者の顔面の動きの発生を判定するので、ユーザの負担を低減して、ユーザにとって自然な形態で情報が入力できるようになる。
なお、本発明は以上に説明した実施の形態に限定されるものではなく、本発明の技術的思想内で、当分野において通常の知識を有する者により、多くの変形および組み合わせが実施可能であることは明白である。
[参考文献1]市川 かおる、堀 潤一、「筋電信号を用いた顔の動作識別インターフェースシステムの開発」第10回情報科学技術フォーラム、第2分冊、G-018、559-560頁、2011年。
[参考文献2]BIOPAC SYSTEMS社、「アクティブ電極:TSD150シリーズ」、[令和02年5月22日検索]、(http://biopac-sys.jp/products/tsd150a/)。
[参考文献3]山下 利佳 他、「歯の衝撃によって生じる高周波数成分の伝播」、日本補綴歯科学会雑誌、第43巻、489-494頁、1999年。
101…メガネフレーム、102…測定電極、103…測定電極、104…たわみ検出部、105…共通電極、121…第1判定部、122…第2判定部、123…出力部。

Claims (4)

  1. メガネフレームと、
    前記メガネフレームの鼻あておよびリムの少なくとも1つに設けられ、被着者のまぶたまたは眉の動きによる電気信号を測定するための測定電極と、
    前記メガネフレームに設けられ、前記メガネフレームのたわみを検出するたわみ検出部と、
    前記測定電極で測定した電気信号を元に、前記被着者のまぶたまたは眉の動きの発生を判定する第1判定部と、
    前記たわみ検出部が前記メガネフレームのたわみを検出すると、前記被着者の顔面の動きの発生を判定する第2判定部と、
    前記第1判定部が前記被着者のまぶたまたは眉の動きの発生を判定し、同時に、前記第2判定部が前記被着者の顔面の動きの発生を判定すると、前記被着者の前記メガネフレームの操作によるコマンドを出力する出力部と
    を備える情報入力装置。
  2. 請求項1記載の情報入力装置において、
    前記測定電極は、
    前記メガネフレームの鼻あての各々に設けられ、鼻当ての部分で前記被着者の皮膚に接触する第1鼻あて電極および第2鼻あて電極を有することを特徴とする情報入力装置。
  3. 請求項1または2記載の情報入力装置において、
    前記測定電極は、
    前記メガネフレームの両眼のリムの各々に設けられ、リムの部分で前記被着者の皮膚に接触する第1リム電極および第2リム電極を有することを特徴とする情報入力装置。
  4. 請求項1~3のいずれか1項に記載の情報入力装置において、
    前記メガネフレームのモダンに設けられ、モダンの部分で前記被着者の皮膚に接触する共通電極を備えることを特徴とする情報入力装置。
JP2022531306A 2020-06-24 2020-06-24 情報入力装置 Active JP7435774B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/024781 WO2021260831A1 (ja) 2020-06-24 2020-06-24 情報入力装置

Publications (2)

Publication Number Publication Date
JPWO2021260831A1 JPWO2021260831A1 (ja) 2021-12-30
JP7435774B2 true JP7435774B2 (ja) 2024-02-21

Family

ID=79282699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022531306A Active JP7435774B2 (ja) 2020-06-24 2020-06-24 情報入力装置

Country Status (4)

Country Link
US (1) US11874962B2 (ja)
JP (1) JP7435774B2 (ja)
CN (1) CN115917406A (ja)
WO (1) WO2021260831A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11953695B2 (en) * 2021-03-08 2024-04-09 Samsung Electronics Co., Ltd. Wearable electronic device with display

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008304451A (ja) 2007-05-07 2008-12-18 Osaka Industrial Promotion Organization 入力装置
KR102125055B1 (ko) 2019-03-26 2020-06-19 박태수 사용자의 측두근을 모니터링하는 안경 및 컴퓨터 프로그램

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE50109521D1 (de) * 2001-02-19 2006-05-24 Fraunhofer Ges Forschung Vorrichtung und verfahren zur blickrichtungsbestimmung bezüglich eines festen referenzkoordinatensystems
JP2002358149A (ja) * 2001-06-01 2002-12-13 Sony Corp ユーザ入力装置
JP4206053B2 (ja) * 2004-03-31 2009-01-07 株式会社国際電気通信基礎技術研究所 ユーザインタフェース装置およびユーザインタフェースプログラム
US11428955B1 (en) * 2013-03-15 2022-08-30 Percept Technologies Personalized optics
US10884493B2 (en) * 2013-06-20 2021-01-05 Uday Parshionikar Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions
WO2016165052A1 (en) * 2015-04-13 2016-10-20 Empire Technology Development Llc Detecting facial expressions
JP6765352B2 (ja) * 2017-07-21 2020-10-07 Kddi株式会社 本体と電極部とを弾性をもって接続した生体信号取得装置
US10635179B2 (en) * 2018-05-09 2020-04-28 Facebook Technologies, Llc Apparatus, systems, and methods for facilitating user interaction with electronic devices
US11792500B2 (en) * 2020-03-18 2023-10-17 Snap Inc. Eyewear determining facial expressions using muscle sensors
WO2021260830A1 (ja) * 2020-06-24 2021-12-30 日本電信電話株式会社 情報入力装置
NL2029031B1 (en) * 2021-08-24 2023-03-13 Norwegian Univ Sci & Tech Ntnu Nose-operated head-mounted device
US11874958B2 (en) * 2021-09-24 2024-01-16 Apple Inc. Eye detection methods and devices

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008304451A (ja) 2007-05-07 2008-12-18 Osaka Industrial Promotion Organization 入力装置
KR102125055B1 (ko) 2019-03-26 2020-06-19 박태수 사용자의 측두근을 모니터링하는 안경 및 컴퓨터 프로그램

Also Published As

Publication number Publication date
WO2021260831A1 (ja) 2021-12-30
CN115917406A (zh) 2023-04-04
JPWO2021260831A1 (ja) 2021-12-30
US20230273677A1 (en) 2023-08-31
US11874962B2 (en) 2024-01-16

Similar Documents

Publication Publication Date Title
Ando et al. Canalsense: Face-related movement recognition system based on sensing air pressure in ear canals
Chang Electrooculograms for human–computer interaction: A review
TW200844797A (en) Interface to convert mental states and facial expressions to application input
Barbara et al. EOG-based eye movement detection and gaze estimation for an asynchronous virtual keyboard
Ang et al. A user-friendly wearable single-channel EOG-based human-computer interface for cursor control
WO2020186915A1 (zh) 一种注意力检测方法及系统
WO2021260830A1 (ja) 情報入力装置
Nathan et al. An electrooculogram based assistive communication system with improved speed and accuracy using multi-directional eye movements
Matthies et al. Capglasses: Untethered capacitive sensing with smart glasses
JP7435774B2 (ja) 情報入力装置
CN208573730U (zh) 睡眠状态检测装置和睡眠状态评估系统
Raheel et al. Real time text speller based on eye movement classification using wearable EEG sensors
Ha et al. Novel hybrid brain-computer interface for virtual reality applications using steady-state visual-evoked potential-based brain–computer interface and electrooculogram-based eye tracking for increased information transfer rate
EP3586733B1 (en) Information processing method, information processing device, and program
JP7409502B2 (ja) 情報入力装置
Matthies et al. Prototyping Smart Eyewear with Capacitive Sensing for Facial and Head Gesture Detection
JP7172705B2 (ja) 感情推定装置、感情推定方法、プログラム、及び感情推定システム
US20220293241A1 (en) Systems and methods for signaling cognitive-state transitions
Gherman et al. VErGE: A system for collecting voice, eye gaze, gesture, and EEG data for experimental studies
Barbara et al. Comparative performance analysis of a commercial wearable EOG glasses for an asynchronous virtual keyboard
Koch Fager Alternative access for adults who rely on augmentative and alternative communication
Rostaminia et al. W! NCE: eyewear solution for upper face action units monitoring
KR20210016790A (ko) 장시간 안구 움직임 검출을 위한 기준선 드리프트 제거 알고리즘을 이용한 eog 기반 안구 추적 프로토콜의 방법 및 장치
US10966651B2 (en) Analytics and processing of biological signals from sensors
US20220236795A1 (en) Systems and methods for signaling the onset of a user's intent to interact

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240122

R150 Certificate of patent or registration of utility model

Ref document number: 7435774

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150