JP4868360B2 - 興味傾向情報出力装置、興味傾向情報出力方法、及びプログラム - Google Patents
興味傾向情報出力装置、興味傾向情報出力方法、及びプログラム Download PDFInfo
- Publication number
- JP4868360B2 JP4868360B2 JP2006220969A JP2006220969A JP4868360B2 JP 4868360 B2 JP4868360 B2 JP 4868360B2 JP 2006220969 A JP2006220969 A JP 2006220969A JP 2006220969 A JP2006220969 A JP 2006220969A JP 4868360 B2 JP4868360 B2 JP 4868360B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- interest
- acquirer
- interest tendency
- tendency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 63
- 230000033001 locomotion Effects 0.000 claims abstract description 130
- 230000009471 action Effects 0.000 claims description 157
- 238000004891 communication Methods 0.000 claims description 15
- 230000009133 cooperative interaction Effects 0.000 claims description 2
- 230000003993 interaction Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 125
- 230000006399 behavior Effects 0.000 description 88
- 230000008569 process Effects 0.000 description 27
- 230000008859 change Effects 0.000 description 24
- 239000003550 marker Substances 0.000 description 23
- 210000003128 head Anatomy 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 238000001514 detection method Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 210000000707 wrist Anatomy 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 8
- 239000004065 semiconductor Substances 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 6
- 230000035508 accumulation Effects 0.000 description 6
- 238000009825 accumulation Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 210000001747 pupil Anatomy 0.000 description 6
- 230000004424 eye movement Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000000556 factor analysis Methods 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000004886 head movement Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 238000001028 reflection method Methods 0.000 description 3
- 208000008918 voyeurism Diseases 0.000 description 3
- 235000002673 Dioscorea communis Nutrition 0.000 description 2
- 241000544230 Dioscorea communis Species 0.000 description 2
- 241001469893 Oxyzygonectes dovii Species 0.000 description 2
- 208000035753 Periorbital contusion Diseases 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 244000144985 peep Species 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 240000007320 Pinus strobus Species 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009534 blood test Methods 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- QBWCMBCROVPCKQ-UHFFFAOYSA-N chlorous acid Chemical compound OCl=O QBWCMBCROVPCKQ-UHFFFAOYSA-N 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000001839 endoscopy Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
Chiu,P.,Kapuskar,A.,Wilcox,L.,「Meeting Capture in a Media Enriched Conference Room」、Proceedings of CoBuild 1999、Springer−Verlag LNCS 1670、1999年、p.79−88 Cutler,R.,Rui,Y.,Gupta,A.,Cadiz,JJ,Tashev,I.,He,L.,Colburn,A.,Zhang,Z.,Liu,Z.,Silverberg,S.,「Distributed meetings: a meeting capture and broadcasting system」、Proceedings of the tenth ACM international conference on Multimedia(MULTIMEDIA2002)、ACM Press、2002年、p.503−512 中西泰人、辻貴孝、大山実、箱崎勝也、「Context Aware Messaging Service:位置情報とスケジュール情報を用いたコミュニケーションシステムの構築および運用実験」、情報処理学会論文誌、Vol.42、No.7、2001年、p.1847−1857 角康之、江谷為之、Sidney Fels、Nicolas Simonet、小林薫、間瀬健二「C−MAP:Context−awareな展示ガイドシステムの試作」、情報処理学会論文誌、Vol.39、No.10、1998年10月、p.2866−2878
このような構成により、出力された興味傾向情報によって、情報取得者の興味傾向の種類がどのようなものであるのかについて知ることができる。
このような構成により、出力された興味傾向情報によって、情報取得者の所定の種類の興味傾向の程度がどれぐらいであるのかについて知ることができる。
本発明の実施の形態1による興味傾向情報出力装置について、図面を参照しながら説明する。
図1は、本実施の形態による興味傾向情報出力装置1の構成を示すブロック図である。図1において、本実施の形態による興味傾向情報出力装置1は、モーション情報受付部11と、モーション情報蓄積部12と、音声情報受付部13と、音声情報蓄積部14と、興味傾向情報生成部15と、興味傾向情報出力部16とを備える。
[発話]
被験者の発した音声情報のレベル、すなわち、音声情報の示す音声の大きさが所定のしきい値以上であることが、発話の発生条件となる。ここで、音声情報のレベルが所定のしきい値以上となってからしきい値以下となるまでが1つの発話であり、その間の時間が1つの発話の時間である。
視線情報や行動情報によって示される、被験者の視線方向の変化や被験者の頭の向きの変化が所定の時間以上、ある一定の範囲内であることが、被験者が何かに注視している条件となる。例えば、被験者の視線方向の変化が5度未満である状態が0.5秒以上継続したことが、注視の発生条件となる。ここで、被験者の視線方向の変化や頭の向きの変化の変化が、所定の時間以上、ある一定の範囲内であることが継続している一続きの状態が1つの注視であり、その状態の時間が1つの注視の時間である。
前述のように、検出された被験者の注視と注視との間が、視線移動となる。したがって、被験者の注視の回数が増えるごとに、被験者の視線移動の回数も増えることになる。
被験者の視線情報をアイカメラによって取得している場合には、一定時間以内(例えば、0.4秒以内等)の瞳孔径の未検出のあることが、瞬目の発生条件となる。また、被験者の垂直眼電図を測定している場合には、従来から知られている方法を用いることにより、瞬目の発生を検出できる。被験者の目の領域をカメラによって撮影している場合には、一定時間以内の白目と黒目の領域の未検出のあることが、瞬目の発生条件となる。
被験者の姿勢をモーションキャプチャシステム等によって取得している場合には、被験者の頭部の前後方向の角度が、一定時間以内に所定の角度以上変化したことが、うなずきの発生条件となる。また、被験者がウェアラブルカメラを装着しており、被験者の視線方向の画像を撮影している場合には、そのウェアラブルカメラによって撮影された画像の変化を解析し、一定時間以内に、被験者が頭を前方に倒す方向に画像が変化したことが、うなずきの発生条件となる。
被験者の体の各位置をモーションキャプチャシステム等によって取得している場合には、被験者の腕が一定以上伸びたことが、指差しの発生条件となる。また、被験者が手首の付近に加速度センサを付けている場合には、その加速度センサによって腕が伸びる方向に手首が移動したことが検出されたことが、指差しの発生条件となる。
被験者の体の各位置をモーションキャプチャシステム等によって取得している場合には、被験者の顔の位置が、あらかじめ設定されている物等の位置からの一定の距離以内となったことが、覗き込みの発生条件となる。また、腰を曲げて前かがみで下方を見ている姿勢によって覗き込みが発生したと見なす場合には、被験者が腰を曲げて前かがみで下方を見ている姿勢を一定の時間以上していることを、覗き込みの発生条件としてもよい。
(ステップS104)興味傾向情報出力部16は、興味傾向情報生成部15が生成した興味傾向情報を出力する。そして、ステップS101に戻る。
(ステップS108)音声情報蓄積部14は、音声情報受付部13が受け付けた音声情報を所定の記録媒体に蓄積する。そして、ステップS101に戻る。
なお、図2のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
(ステップS201)情報取得行動情報生成手段22は、カウンタiを1に設定する。
(ステップS203)情報取得行動情報生成手段22は、モーション情報蓄積部12が蓄積したモーション情報と、音声情報蓄積部14が蓄積した音声情報とを適宜参照し、ステップS202で読み出した条件情報が満たされるかどうか判断する。そして、満たされる場合にはステップS204に進み、そうでない場合には、ステップS206に進む。
(ステップS205)情報取得行動情報生成手段22は、生成した情報取得行動情報を図示しない記録媒体に一時記憶する。
(ステップS207)情報取得行動情報生成手段22は、条件情報記憶手段21にi番目の条件情報が存在するかどうか判断する。そして、存在する場合には、ステップS202に戻り、存在しない場合には、情報取得行動情報を生成する一連の処理は終了となり、図1のフローチャートのステップS103に進む。
(ステップS301)興味傾向情報生成手段24は、カウンタiを1に設定する。
(ステップS303)興味傾向情報生成手段24は、情報取得行動情報生成手段22が生成した情報取得行動情報の示す値を、ステップS302で読み出した関数情報の示す関数に代入することにより、その関数の値を算出する。
(ステップS305)興味傾向情報生成手段24は、カウンタiを1だけインクリメントする。
積極型興味傾向とは、情報取得者(顧客)が説明対象物に関する情報取得のために積極的に働きかけている興味傾向である。情報取得者の指差しが頻繁である場合に、積極型興味傾向である可能性の高いことが発明者らの分析によってわかっている。
また、本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
11 モーション情報受付部
12 モーション情報蓄積部
13 音声情報受付部
14 音声情報蓄積部
15 興味傾向情報生成部
16 興味傾向情報出力部
21 条件情報記憶手段
22 情報取得行動情報生成手段
23 関数情報記憶手段
24 興味傾向情報生成手段
Claims (5)
- 情報提供者が情報取得者に対面して説明対象物に関連する情報を提供している状況であり、かつ、前記情報取得者が前記説明対象物に直接アクセス可能な状況における、前記情報取得者の動きを示す情報であり、前記情報取得者の視線に関する情報と、前記情報取得者のうなずきを検出可能な情報とを少なくとも含む情報であるモーション情報を受け付けるモーション情報受付部と、
前記情報取得者の発した音声に関する情報である音声情報を受け付ける音声情報受付部と、
前記モーション情報受付部が受け付けたモーション情報と、前記音声情報受付部が受け付けた音声情報とから、前記情報取得者の情報取得における興味傾向に関する情報である興味傾向情報を生成する興味傾向情報生成部と、
前記興味傾向情報生成部が生成した興味傾向情報を出力する興味傾向情報出力部と、を具備し、
前記興味傾向情報生成部は、
情報取得者が情報の取得時に行う行動である情報取得行動の発生の条件を示す情報である条件情報が記憶される条件情報記憶手段と、
前記条件情報記憶手段で記憶されている条件情報を用いて、前記モーション情報及び前記音声情報から情報取得行動の発生を検出し、検出した情報取得行動に関する情報であり、情報取得行動の発生回数及び情報取得行動の発生時間を含む情報である情報取得行動情報を生成する情報取得行動情報生成手段と、
情報取得行動情報の示す値を引数とする関数を示す情報である関数情報が、興味傾向の種類ごとに2以上記憶される関数情報記憶手段と、
前記関数情報記憶手段で記憶されている2以上の関数情報の示す関数に、前記情報取得行動情報生成手段で生成された情報取得行動情報の示す値を代入することにより得られた値である興味傾向の程度を興味傾向の種類ごとに示す情報を含む興味傾向情報を生成する興味傾向情報生成手段と、を具備する、興味傾向情報出力装置。 - 前記関数情報記憶手段では、情報取得者が説明対象物に関する情報取得のために積極的に働きかけている興味傾向である積極型興味傾向、情報取得者と情報提供者との協調的なインタラクションによって情報取得が行われる興味傾向である協調コミュニケーション型興味傾向、情報取得者が情報提供者とのインタラクションを重視しておらず、両者間のコミュニケーションが適切に行われていない状況で情報取得が行われる興味傾向である情報取得優先型興味傾向、情報提供者が情報取得者に強く働きかけている情報取得の興味傾向である消極型興味傾向のそれぞれに対応する関数情報が記憶されており、
前記興味傾向情報生成手段は、積極型興味傾向、協調コミュニケーション型興味傾向、情報取得優先型興味傾向、消極型興味傾向のそれぞれに対応する興味傾向の程度を示す興味傾向情報を生成する、請求項1記載の興味傾向情報出力装置。 - 前記情報取得行動情報は、前記情報取得者の指差しの発生回数、発話回数、発話時間、注視の発生回数、うなずき回数を含み、
前記積極型興味傾向に対応する関数情報は、前記情報取得者の指差しが頻繁である場合に高い値となるものであり、
前記協調コミュニケーション型興味傾向に対応する関数情報は、前記情報取得者の発話時間が長く、発話回数が多い場合に高い値となるものであり、
前記情報取得優先型興味傾向に対応する関数情報は、前記情報取得者の注視が頻繁である場合に高い値となるものであり、
前記消極型興味傾向に対応する関数情報は、前記情報取得者のうなずき回数が多い場合に高い値となるものである、請求項2記載の興味傾向情報出力装置。 - モーション情報受付部と、音声情報受付部と、情報取得者が情報の取得時に行う行動である情報取得行動の発生の条件を示す情報である条件情報が記憶される条件情報記憶手段、情報取得行動情報生成手段、関数情報記憶手段、興味傾向情報生成手段を具備する興味傾向情報生成部と、興味傾向情報出力部とが処理する興味傾向情報出力方法であって、
前記モーション情報受付部が、情報提供者が情報取得者に対面して説明対象物に関連する情報を提供している状況であり、かつ、前記情報取得者が前記説明対象物に直接アクセス可能な状況における、前記情報取得者の動きを示す情報であり、前記情報取得者の視線に関する情報と、前記情報取得者のうなずきを検出可能な情報とを少なくとも含む情報であるモーション情報を受け付けるモーション情報受付ステップと、
前記音声情報受付部が、前記情報取得者の発した音声に関する情報である音声情報を受け付ける音声情報受付ステップと、
前記興味傾向情報生成部が、前記モーション情報受付ステップで受け付けたモーション情報と、前記音声情報受付ステップで受け付けた音声情報とから、前記情報取得者の情報取得における興味傾向に関する情報である興味傾向情報を生成する興味傾向情報生成ステップと、
前記興味傾向情報出力部が、前記興味傾向情報生成ステップで生成した興味傾向情報を出力する興味傾向情報出力ステップと、を具備し、
前記興味傾向情報生成ステップは、
前記情報取得行動情報生成手段が、前記条件情報記憶手段で記憶されている条件情報を用いて、前記モーション情報及び前記音声情報から情報取得行動の発生を検出し、検出した情報取得行動に関する情報であり、情報取得行動の発生回数及び情報取得行動の発生時間を含む情報である情報取得行動情報を生成するステップと、
前記興味傾向情報生成手段が、前記関数情報記憶手段で興味傾向の種類ごとに記憶されている、情報取得行動情報の示す値を引数とする関数を示す情報である2以上の関数情報の示す関数に、前記情報取得行動情報を生成するステップで生成された情報取得行動情報の示す値を代入することにより得られた値である興味傾向の程度を興味傾向の種類ごとに示す情報を含む興味傾向情報を生成するステップと、を具備する、興味傾向情報出力方法。 - コンピュータに、
情報提供者が情報取得者に対面して説明対象物に関連する情報を提供している状況であり、かつ、前記情報取得者が前記説明対象物に直接アクセス可能な状況における、前記情報取得者の動きを示す情報であり、前記情報取得者の視線に関する情報と、前記情報取得者のうなずきを検出可能な情報とを少なくとも含む情報であるモーション情報を受け付けるモーション情報受付ステップと、
前記情報取得者の発した音声に関する情報である音声情報を受け付ける音声情報受付ステップと、
前記モーション情報受付ステップで受け付けたモーション情報と、前記音声情報受付ステップで受け付けた音声情報とから、前記情報取得者の情報取得における興味傾向に関する情報である興味傾向情報を生成する興味傾向情報生成ステップと、
前記興味傾向情報生成ステップで生成した興味傾向情報を出力する興味傾向情報出力ステップと、を実行させ、
前記興味傾向情報生成ステップは、
条件情報記憶手段で記憶されている、情報取得者が情報の取得時に行う行動である情報取得行動の発生の条件を示す情報である条件情報を用いて、前記モーション情報及び前記音声情報から情報取得行動の発生を検出し、検出した情報取得行動に関する情報であり、情報取得行動の発生回数及び情報取得行動の発生時間を含む情報である情報取得行動情報を生成するステップと、
関数情報記憶手段で興味傾向の種類ごとに記憶されている、情報取得行動情報の示す値を引数とする関数を示す情報である2以上の関数情報の示す関数に、前記情報取得行動情報を生成するステップで生成された情報取得行動情報の示す値を代入することにより得られた値である興味傾向の程度を興味傾向の種類ごとに示す情報を含む興味傾向情報を生成するステップと、を具備する、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006220969A JP4868360B2 (ja) | 2006-08-14 | 2006-08-14 | 興味傾向情報出力装置、興味傾向情報出力方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006220969A JP4868360B2 (ja) | 2006-08-14 | 2006-08-14 | 興味傾向情報出力装置、興味傾向情報出力方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008046801A JP2008046801A (ja) | 2008-02-28 |
JP4868360B2 true JP4868360B2 (ja) | 2012-02-01 |
Family
ID=39180503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006220969A Expired - Fee Related JP4868360B2 (ja) | 2006-08-14 | 2006-08-14 | 興味傾向情報出力装置、興味傾向情報出力方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4868360B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5284179B2 (ja) * | 2009-05-21 | 2013-09-11 | トヨタ自動車東日本株式会社 | 作業判定システム及び作業判定方法並びに該作業判定方法を記録した記録媒体 |
JP5937829B2 (ja) * | 2012-01-25 | 2016-06-22 | 日本放送協会 | 視聴状況認識装置及び視聴状況認識プログラム |
JP2012230705A (ja) * | 2012-07-21 | 2012-11-22 | Keiko Takeda | デジタルアートの販売システム及びデジタルフォトフレーム等を利用して提供する販売システム |
KR101724999B1 (ko) * | 2016-04-01 | 2017-04-07 | 주식회사 포켓메모리 | 가상 쇼핑 방문자 단말기와 가상 쇼핑 서버를 포함하는 가상 쇼핑 시스템 |
KR102118336B1 (ko) * | 2016-05-20 | 2020-06-04 | 전자부품연구원 | 공간 행동 의미 분석 시스템 및 공간 행동 의미 분석 방법 |
US20210406526A1 (en) * | 2018-03-01 | 2021-12-30 | Tamagawa Academy & University | Information processing device, information processing method, and program |
CN109065035A (zh) * | 2018-09-06 | 2018-12-21 | 珠海格力电器股份有限公司 | 信息交互方法及装置 |
WO2022004567A1 (ja) * | 2020-07-02 | 2022-01-06 | パナソニックIpマネジメント株式会社 | コミュニケーション解析システム、及び、コミュニケーション解析方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000315259A (ja) * | 1999-05-06 | 2000-11-14 | Sharp Corp | データベース作成装置及びデータベース作成プログラムを記録した記録媒体 |
JP2001350904A (ja) * | 2000-06-07 | 2001-12-21 | Canon Inc | 電子機器及び営業用電子機器システム |
JP2004280673A (ja) * | 2003-03-18 | 2004-10-07 | Takenaka Komuten Co Ltd | 情報提供装置 |
JP4335642B2 (ja) * | 2003-11-10 | 2009-09-30 | 日本電信電話株式会社 | 視聴者反応情報収集方法と、視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム |
-
2006
- 2006-08-14 JP JP2006220969A patent/JP4868360B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008046801A (ja) | 2008-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4868360B2 (ja) | 興味傾向情報出力装置、興味傾向情報出力方法、及びプログラム | |
Valtakari et al. | Eye tracking in human interaction: Possibilities and limitations | |
US9311527B1 (en) | Real time eye tracking for human computer interaction | |
JP7233927B2 (ja) | バイオメトリック情報を交換するように構成された頭部搭載型ディスプレイシステム | |
JP4716119B2 (ja) | インタラクション情報出力装置、インタラクション情報出力方法、及びプログラム | |
EP1691670B1 (en) | Method and apparatus for calibration-free eye tracking | |
US20170097679A1 (en) | System and method for content provision using gaze analysis | |
Poppe et al. | AMAB: Automated measurement and analysis of body motion | |
US20170115742A1 (en) | Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command | |
US20100060713A1 (en) | System and Method for Enhancing Noverbal Aspects of Communication | |
US7760910B2 (en) | Evaluation of visual stimuli using existing viewing data | |
US20140099623A1 (en) | Social graphs based on user bioresponse data | |
CN109643152B (zh) | 使用头戴式显示器内的面部传感器的面部和眼睛跟踪以及面部动画 | |
JP2007006427A (ja) | 映像監視装置 | |
WO2018127782A1 (en) | Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command | |
Sundstedt et al. | Visual attention and gaze behavior in games: An object-based approach | |
KR20190030140A (ko) | 시선 추적 방법 및 이를 수행하기 위한 사용자 단말 | |
US10824223B2 (en) | Determination apparatus and determination method | |
US20170365084A1 (en) | Image generating apparatus and image generating method | |
Orlosky et al. | Using eye tracked virtual reality to classify understanding of vocabulary in recall tasks | |
JP2008046802A (ja) | インタラクション情報出力装置、インタラクション情報出力方法、及びプログラム | |
Burlingham et al. | Motor “laziness” constrains fixation selection in real-world tasks | |
Lenart et al. | Gaze Analysis System for Immersive 360 Video for Preservice Teacher Education | |
US20220409110A1 (en) | Inferring cognitive load based on gait | |
Hwang et al. | A rapport and gait monitoring system using a single head-worn IMU during walk and talk |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090511 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110608 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111028 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111108 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141125 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |