JP7094759B2 - システム、情報処理方法及びプログラム - Google Patents
システム、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7094759B2 JP7094759B2 JP2018075584A JP2018075584A JP7094759B2 JP 7094759 B2 JP7094759 B2 JP 7094759B2 JP 2018075584 A JP2018075584 A JP 2018075584A JP 2018075584 A JP2018075584 A JP 2018075584A JP 7094759 B2 JP7094759 B2 JP 7094759B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- unit
- user
- selection
- summary information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 166
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000001514 detection method Methods 0.000 claims description 213
- 238000000034 method Methods 0.000 claims description 136
- 230000008569 process Effects 0.000 claims description 123
- 238000012545 processing Methods 0.000 claims description 78
- 230000007704 transition Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 56
- 230000000694 effects Effects 0.000 description 34
- 238000004891 communication Methods 0.000 description 27
- 238000010191 image analysis Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 6
- 230000005856 abnormality Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010494 dissociation reaction Methods 0.000 description 2
- 230000005593 dissociations Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 244000005700 microbiome Species 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Description
例えば、監視カメラの分野では、不審な動きをしている人物がいることを検出して、異常を通報したり、不審人物を色の付いた枠で示したりすることがある。
また、人の顔を認識して提示するシステムもある。例えば、カジノではカードカウンティング等の不正を防止するため、ブラックリストに載っている人物を識別するシステムが用いられている。
また、自動車の分野では、車載カメラの映像から走行可能領域、歩行者、車両等を識別し、危険を事前に察知し、運転者に通知したり危険回避の対応を行ったりするシステムも開発されてきている。
このように、撮像装置で撮像した静止画像や動画像等の画像から何らかの対象を識別し、識別した対象に関する情報を提示するシステムには様々なものがある。
情報を提示する方法として、アノテーションやノーティフィケーションといった方法がある。
アノテーションは、拡張現実(AR)で、用いられる方法である。画像上の事物に関連した名称等の概要の情報を、その事物の付近に重畳表示する方法である。
ノーティフィケーションは、ユーザに何らかの事象を伝えるのに用いられる方法である。例えば、電話機の呼び出し音や発信者番号表示、スマートフォンでの電子メールやSNS(Social Networking Service)通知等が、ノーティフィケーションの一例である。
アノテーションとして提示された情報を選択して、選択した情報に関連する詳細情報を表示する方法には、特許文献1がある。
また、プラント監視システムにおいて、個別の機器に異常があった場合に、監視画面にノーティフィケーションを出し、その監視画面とは異なる装置の画面に個別異常を表示する方法には、特許文献2がある。
そのため、画面に多量の情報が表示され、画面が見づらくなってしまい、詳細情報の閲覧や関連する操作がやりづらい等、ユーザの利便性が低かった。特に、HMD(Head Mounted Display:頭部装着型ディスプレイ)においては、詳細情報の表示箇所によってユーザの視線方向が拘束されてしまい、利便性が低かった。
また、特許文献2では、予め定められた監視対象の異常に関する情報しか提示できず、ユーザが視認している対象に応じた情報を提示できず、利便性が低かった。
図1は、本実施形態の情報処理システム1のシステム構成の一例を示す図である。
情報処理システム1は、概要情報表示装置2と詳細情報表示装置3とを含む。概要情報表示装置2と詳細情報表示装置3とは、通信可能に接続されている。本実施形態では、概要情報表示装置2と詳細情報表示装置3とは、無線で通信可能に接続されているとするが、有線で接続されているとしてもよい。
概要情報表示装置2は、ユーザが視認している画像や現実風景に関する情報をユーザに提示する。概要情報表示装置2は、スマートグラス等のメガネ型の端末装置、ヘッドマウントディスプレイ(HMD、頭部装着型ディスプレイ)等の頭部装着型の端末装置、スマートフォン、タブレット装置等の端末装置で構成される。また、概要情報表示装置2は、パーソナルコンピュータ(PC)、サーバ装置等により構成されることとしてもよい。本実施形態では、概要情報表示装置2は、ユーザに対して、ユーザが視認している画像や現実風景内のオブジェクト(例えば、建物等)や事象(例えば、天気等)についての名称等のそのオブジェクトや事象についての概要を示す情報を提示する。名称等のように、そのオブジェクトや事象についての概要を示す情報を、概要情報とする。即ち、概要情報表示装置2は、ユーザに対して、概要情報を提示する。また、概要情報は、例えば、監視カメラにより撮影された画像から人物が検出された場合の検出結果を示す情報等であってもよい。概要情報は、監視カメラにより撮影された画像から人物が検出された場合の検出結果を示す情報である場合、例えば、検出枠、人物名、人物ID等となる。
本実施形態では、情報処理システム1は、概要情報表示装置2を介してユーザに提示された概要情報に関する詳細情報を、詳細情報表示装置3を介して、ユーザに提示する。概要情報表示装置2、詳細情報表示装置3は、情報処理装置の一例である。
図2(a)は、概要情報表示装置2のハードウェア構成の一例を示す図である。概要情報表示装置2は、CPU121、主記憶装置122、補助記憶装置123、入力部124、表示部125、撮像部126、通信I/F127を含む。各要素は、システムバス128を介して、相互に接続されている。
CPU121は、概要情報表示装置2を制御する中央演算装置である。主記憶装置122は、CPU121のワークエリアや情報の一時的な記憶場所として機能するRAM等の記憶装置である。補助記憶装置123は、各種プログラム、各種設定情報、各種画像、各種提示情報の候補情報等を記憶するROM、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)等の記憶装置である。
また、撮像部126は、遠隔地に設置されたカメラ、録画映像を配信する録画装置等でもよい。この場合、撮像部126は、通信I/F127を介して、概要情報表示装置2の各要素と接続されることとなる。
CPU121が、補助記憶装置123に記憶されるプログラムに基づき処理を実行することで、図3、6、8、11、13、16、21、23、26、29、33、35、36で後述する概要情報表示装置2の機能が実現される。また、CPU121が、補助記憶装置123に記憶されるプログラムに基づき処理を実行することで、図7、10、15、25、27、28、31、32、34、37、38、39で後述するアクティビティ図の処理等の概要情報表示装置2の処理が実現される。また、CPU121が、補助記憶装置123に記憶されるプログラムに基づき処理を実行することで、図30で後述するステートマシン図の処理も実現される。
CPU131は、詳細情報表示装置3を制御する中央演算装置である。主記憶装置132は、CPU131のワークエリアや情報の一時的な記憶場所として機能するRAM等の記憶装置である。補助記憶装置133は、各種プログラム、各種設定情報、各種画像、各種提示情報の候補情報等を記憶するROM、HDD、SSD等の記憶装置である。
CPU131が、補助記憶装置133に記憶されるプログラムに基づき処理を実行することで、図3、6、8、11、13、16、21、23、26、29、33、35、36で後述する詳細情報表示装置3の機能が実現される。また、CPU131が、補助記憶装置133に記憶されるプログラムに基づき処理を実行することで、図19、22、24で後述するアクティビティ図の処理等の詳細情報表示装置3の処理が実現される。
概要情報表示装置2は、概要情報表示制御部21、通信制御部A22、概要情報生成部23を含む。概要情報表示制御部21は、第1の表示制御手段の一例である。
概要情報表示制御部21は、概要情報生成部23により生成された概要情報を、表示部125に表示する。通信制御部A22は、詳細情報表示装置3等の外部の装置を通信先とした通信を行う。概要情報生成部23は、表示部125に表示される画像や現実風景等のユーザの視認対象に基づいて、ユーザに提示する概要情報を生成する。本実施形態では、表示部125に表示される画像やユーザが視認する現実風景は、撮像部126を介して撮像される。そこで、本実施形態の概要情報生成部23は、撮像部126を介して撮像された画像に基づいて、ユーザに提示する概要情報を生成する。
詳細情報表示制御部31は、詳細情報検索部33により検索された詳細情報を、表示部135に表示する。通信制御部B32は、概要情報表示装置2等の外部の装置との通信を行う。詳細情報検索部33は、概要情報表示制御部21により表示部125に表示された概要情報に基づいて、ユーザに提示する詳細情報を検索する。
概要情報表示装置2と詳細情報表示装置3とは、通信制御部A22と通信制御部B32とにより、通信I/F127と通信I/F137とを介して、通信する。
概要情報生成部23は、概要情報表示装置2に含まれるとしたが、詳細情報表示装置3に含まれるとしてもよい。また、詳細情報検索部33は、詳細情報表示装置3に含まれるとしたが、概要情報表示装置2に含まれるとしてもよい。
図4(a)の状況は、概要情報表示装置2がデジタルカメラ(以下では、デジタルカメラ2a)である場合の情報処理システム1の利用状況の一例である。図4(a)の例では、表示部125は、デジタルカメラ2aの表示画面である。また、詳細情報表示装置3は、スマートフォンであり、表示部135は、スマートフォンである詳細情報表示装置3の画面である。
図4(a)の例における情報処理システム1のユーザ体験の一例を説明する。
デジタルカメラ2aの撮像部126により撮像された画像は、表示部125に表示される。このとき、概要情報表示制御部21は、この画像内に写っているオブジェクトや事象に関連した概要情報を、その画像に重畳して、表示部125に表示する。
図5(b)の例では、概要情報表示制御部21は、画像内のエッフェル塔から、概要情報である吹き出し状の「エッフェル塔」といメッセージを、アノテーション212として、画像と重畳して表示する。
図5(a)、(b)の何れの場合でも、詳細情報表示制御部31は、表示部125に表示されている概要情報が示すオブジェクトである「エッフェル塔」の詳細情報を、スマートフォンである詳細情報表示装置の表示部135に表示する。本実施形態では、情報処理システム1は、概要情報表示装置2の表示部125に概要情報が、ノーティフィケーションとして表示されているか、アノテーションとして表示されているか、に関わらず、以下の処理を行う。即ち、情報処理システム1は、概要情報に関する詳細情報を詳細情報表示装置の表示部135に表示する。
図4(b)の例では、概要情報表示装置2は、メガネ型端末装置(以下では、メガネ型端末装置2b)であるとする。本実施形態では、メガネ型端末装置2bは、シースルー型HMD(シースルー型頭部装着型ディスプレイ、以下では、HMD)であるとする。HMDは、装着者の視界の上に画像情報を重畳表示する。HMDは、視界と重畳表示する画像の合成方法によって光学シースルー型と、ビデオシースルー型に分類できる。概要情報表示装置2は、何れのタイプのHMDでもよい。
メガネ型端末装置2bを装着したユーザがエッフェル塔を視認できる場所まで来たとする。その際、概要情報表示制御部21は、図5のように表示部125に「エッフェル塔」というメッセージを、概要情報として、現実風景に重畳して表示する。そして、スマートフォンである詳細情報表示装置3の詳細情報表示制御部31は、表示部135に「エッフェル塔」に関する詳細情報を表示する。ユーザは、手元に持っているスマートフォンである詳細情報表示装置3の表示部135に表示されている「エッフェル塔」の詳細情報を視認できることとなる。
以上、本実施形態の情報処理システム1のユーザ体験の一例である。
ユーザが携帯する概要情報表示装置2の撮像部126が、エッフェル塔を含む現実風景を撮像したとする。
概要情報生成部23は、撮像部126により撮像された画像に基づいて、ユーザに提示する概要情報を生成する。本実施形態では、概要情報生成部23は、撮像部126により撮像された画像から、異常検知や物体認識等の画像認識を行い、エッフェル塔を検出する。そして、概要情報生成部23は、検出したエッフェル塔の名称を示すメッセージを、ノーティフィケーション、アノテーション212等として生成する。また、概要情報生成部23は、例えば、GPS等を介して取得された概要情報表示装置2の位置情報と、方位センサ等を介して取得された概要情報生成部23の向きと、に基づいて、エッフェル塔が撮像されていることを検出してもよい。即ち、概要情報生成部23は、取得された概要情報表示装置2の位置情報から、取得された向きを向くとエッフェル塔が撮像部126の撮像範囲に入るか否かに基づいて、エッフェル塔が撮像されていることを検出してもよい。
また、概要情報生成部23は、例えば、撮像部126により撮像された画像から複数のオブジェクトや事象を検出し、検出したオブジェクトや事象それぞれについての概要情報を生成してもよい。即ち、概要情報生成部23は、複数の概要情報を生成してもよい。
概要情報表示制御部21は、概要情報生成部23により生成された概要情報を、表示部125に、ノーティフィケーションやアノテーション212等として、撮像部126により撮像された画像、又は現実風景と重畳して、表示する。
このように、概要情報表示制御部21は、ユーザの視認する現実風景、撮像部126により撮像された画像等に対して重畳するように、概要情報を表示部125に表示する。
概要情報生成部23は、生成した概要情報を、通信制御部A22及び通信制御部B32を介して、詳細情報表示装置3の詳細情報検索部33に送信する。
このように、通信制御部A22と通信制御部B32とは、概要情報表示装置2と詳細情報表示装置3との間で情報の受け渡しを制御する。通信制御部A22と通信制御部B32とは、任意の通信方式、プロトコルで通信可能である。
また、詳細情報検索部33は、例えば、各種概要情報の候補となる情報に関する詳細情報を記憶するKey-Value型のデータベースから、受信した概要情報に関する詳細情報を検索することとしてもよい。また、詳細情報検索部33は、インターネットを介して、検索用のWebサービス、アプリケーション等を用いることで、受信した概要情報に関する詳細情報を検索してもよい。
詳細情報検索部33は、検索した詳細情報を、詳細情報表示制御部31に送信する。そして、詳細情報表示制御部31は、受信した詳細情報を、表示部135に表示する。
これにより、情報処理システム1は、概要情報と詳細情報とを別々の装置に表示することで、概要情報と詳細情報とを別々の画面で視認可能とすることで、概要情報、詳細情報の視認性を向上させることができる。また、情報処理システム1は、画像や現実風景からオブジェクトや事象を検出して、検出したオブジェクトや事象についての概要情報を生成するため、予め定められたオブジェクトや事象以外のオブジェクトや事象についての情報をユーザに提示できる。これにより、情報処理システム1は、ユーザの利便性を向上できる。
また、概要情報の表示と、詳細情報の閲覧や関連する操作と、を異なる装置で行うようにすることで、各々の目的に沿ったシステムを作りやすくなる。そのため、概要情報の視認と、詳細情報の閲覧や関連する操作と、が行いやすいシステムを作りやすい。
本実施形態では、情報処理システム1は、ユーザによる表示部135に表示されている詳細情報の注視動作を検知し、検知できた場合、表示部125への概要情報の表示を抑制する。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
図6の機能構成は、実施形態1と比べて、概要情報表示装置2が、詳細情報注視検知部24、表示情報制御部25を更に含む点で異なる。詳細情報注視検知部24は、第2の検知手段の一例である。
詳細情報注視検知部24は、ユーザが表示部135に表示された詳細情報を注視しているか否かを判定することで、ユーザによる詳細情報の注視動作を検知する検知処理を行う。詳細情報注視検知部24によりユーザによる詳細情報の注視が検知された場合、表示情報制御部25は、概要情報生成部23により生成された概要情報の概要情報表示制御部21への送信を全てブロックする。これにより、概要情報表示制御部21は、概要情報生成部23により生成された概要情報の表示部125への表示を禁止することとなる。
S51において、表示情報制御部25は、概要情報生成部23から、概要情報生成部23により生成された概要情報を受信する。
S52において、表示情報制御部25は、詳細情報注視検知部24によりユーザによる詳細情報の注視が検知されたか否かを判定する。表示情報制御部25は、詳細情報注視検知部24から、ユーザによる詳細情報の注視が検知されたか否かを示す詳細情報注視中情報を受信する。そして、表示情報制御部25は、受信した詳細情報注視中情報に基づいて、詳細情報注視検知部24によりユーザによる詳細情報の注視が検知されたか否かを判定する。
表示情報制御部25は、詳細情報注視検知部24によりユーザによる詳細情報の注視が検知されたと判定した場合、S51で受信した概要情報を概要情報表示制御部21に送信することなく、図7の処理を終了する。これにより、表示情報制御部25は、S51で受信した概要情報について、表示部125への表示を禁止する。
また、表示情報制御部25は、詳細情報注視検知部24によりユーザによる詳細情報の注視が検知されていないと判定した場合、S53の処理に進む。
以上、図7の処理により、情報処理システム1は、ユーザが詳細情報を注視している場合には、概要情報の重畳表示を抑制することができる。これにより、情報処理システム1は、表示部135に表示された詳細情報の閲覧の妨害になりうる表示部125に表示された概要情報の表示を抑制することで、詳細情報の視認性を向上させることができるという効果を奏する。特に、概要情報表示装置2がHMDである場合、上記の効果が大きい。
図8は、情報処理システム1の各構成要素の機能構成の一例を示す図である。図8の機能構成は、図6の機能構成と比べて、概要情報表示装置2が、姿勢検出部26を更に含む点で異なる。
姿勢検出部26は、概要情報表示装置2の姿勢を検出する。姿勢検出部26は、検出する姿勢情報を、例えば、ピッチング方向の傾斜角や、3軸の加速度等の形式で出力する。
姿勢検出部26は、例えば、概要情報表示装置2の傾斜センサや3軸加速度センサ等を用いて、傾斜角や3軸の加速度を検出する。
図8の例では、概要情報表示装置2がHMDであり、姿勢検出部26が傾斜センサを用いて姿勢情報を検知するとする。
水平方向を0(deg)(0(rad))、鉛直方向真上向きを+90(deg)(+π/2(rad))、鉛直方向真下向きを-90(deg)(-π/2(rad))とする。そして、姿勢検出部26は、概要情報表示装置の姿勢情報を、ユーザの正視方向の鉛直方向における傾きを検出する。図9の例では、下向きであるので、αはマイナスの値となる。
ここで、姿勢検出部26により検出される角度αと、ユーザが詳細情報を注視しているか否かと、の関係を説明する。
ユーザが詳細情報表示装置3の詳細情報表示制御部31を注視している状況は、角度αが設定された角度θ(<0)よりも小さい場合であると仮定する。
α<θ (式1)
この場合の、詳細情報注視検知部24の処理の一例を、図10を用いて説明する。
S81において、詳細情報注視検知部24は、姿勢検出部26から、姿勢検出部26により検出された概要情報表示装置2の姿勢の情報(傾き角度α)を受信する。
S82において、詳細情報注視検知部24は、S81で受信した角度αが設定された角度θよりも小さいか否かを判定する。即ち、詳細情報注視検知部24は、S81で受信した角度αが式1を満たすか否かを判定する。詳細情報注視検知部24は、S81で受信した角度αが設定された角度θよりも小さいと判定した場合、S83の処理に進む。また、詳細情報注視検知部24は、S81で受信した角度αが設定された角度θ以上であると判定した場合、S84の処理に進む。
S83において、詳細情報注視検知部24は、ユーザが表示部135に表示された詳細情報を注視しているとして、ユーザによる詳細情報の注視動作を検知したとする。
S84において、詳細情報注視検知部24は、ユーザが表示部135に表示された詳細情報を注視していないとして、ユーザによる詳細情報の注視動作を検知していないとする。
S85において、詳細情報注視検知部24は、S83またはステップS84の処理の結果を、ユーザによる詳細情報の注視動作を検知したか否かを示す情報である詳細情報注視中情報として、表示情報制御部25に送信する。
スマートフォン等を注視する場合、そのスマートフォン等のユーザの視線は、自然と下向きになる。そのため、以上の処理により、概要情報表示装置2のユーザがスマートフォン等である詳細情報表示装置3の表示部135に表示された詳細情報を注視した場合、情報処理システム1は、詳細情報の閲覧に邪魔となる概要情報の重畳表示を抑制することができる。
姿勢検出部26は、概要情報表示装置2の傾斜センサを用いて、概要情報表示装置2の姿勢を検出したが、概要情報表示装置2の3軸加速度センサ等の他のセンサ等を用いて、姿勢を検出してもよい。
実施形態2では、情報処理システム1は、概要情報表示装置2の姿勢を検出し、検出した姿勢に基づいて、ユーザによる詳細情報の注視動作を検知した。本実施形態では、情報処理システム1は、詳細情報表示装置3の姿勢を検出し、検出した姿勢に基づいて、ユーザによる詳細情報の注視動作を検知する。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
本実施形態では、詳細情報表示装置3は、スマートフォンであるとする。姿勢検出部26は、詳細情報表示装置3の表示部135の法線と鉛直軸のなす角度を、詳細情報表示装置3の姿勢情報として検出する。検出される角度は、表示部135が鉛直方向真上向きに向いているときに0(deg)(0(rad))、表示部135がユーザに対して手前に傾いているときにプラスの値、ユーザに対して向こう側に傾いているときにマイナスの値となる。姿勢検出部26は、詳細情報表示装置3の傾斜センサや3軸加速度センサ等を介して、詳細情報表示装置3の姿勢情報を取得する。
姿勢検出部26により検出される角度と、概要情報表示装置2のユーザが詳細情報を注視しているか否かと、の関係を、図12を用いて説明する。
ユーザが詳細情報表示装置3の詳細情報表示制御部31を注視している状況は、角度αが以下の式2を満たしている場合であると仮定する。
θ―γ<α<θ+γ (式2)
式2におけるθ(>0)及びγ(>0)は、予め設定された値である。θ及びγは、ユーザの閲覧姿勢からの生体負担が少なくなるよう、生体力学手法により求められる。また、θ及びγは、官能評価等で実験的に求めることもできる値であり、例えばθ=40[deg]、γ=15[deg]となる。
S82において、詳細情報注視検知部24は、S81で受信した角度αが式2を満たすか否かを判定する。詳細情報注視検知部24は、S81で受信した角度αが式2を満たすと判定した場合、S83の処理に進む。また、詳細情報注視検知部24は、S81で受信した角度αが式2を満たさないと判定した場合、S84の処理に進む。
ユーザがスマートフォン等を注視する場合、スマートフォン等の画面は自然とユーザの側に傾く。そのため、以上の処理により、情報処理システムは、ユーザによるスマートフォンである詳細情報表示装置3の注視により、詳細情報の閲覧に邪魔となる概要情報の表示を抑制することができる。これにより、情報処理システムは、詳細情報の視認性を向上させることができる。
本実施形態では、スマートフォンを注視している状況を、式2を満たす状況であると仮定した。しかし、例えば、スマートフォンを注視している状況を、詳細情報表示装置3の3軸加速度センサの軸毎の出力値が、設定された範囲内にある状況であると仮定してもよい。
実施形態2、3では、情報処理システム1は、概要情報表示装置2又は詳細情報表示装置3の姿勢情報を用いて、ユーザによる詳細情報の注視動作を検知した。本実施形態では、情報処理システム1は、概要情報表示装置2と詳細情報表示装置3の相対的な位置関係に基づいて、ユーザによる詳細情報の注視動作を検知する。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
本実施形態では、詳細情報表示制御部31は、表示部135に詳細情報を表示するが、併せて、標識312も表示部135に表示する。この様子を図14に示す。図14の例では、標識312は、「詳細情報」というメッセージと、2次元コードと、である。また、標識312は、詳細情報表示認識部28により認識可能なものであれば、任意のものでよく、例えば、文字列、図案、点滅する文字列や図案、動画等でもよく、必ずしもユーザが認識できるものでなくてもよい。標識312は、例えば、印刷媒体に用いられる電子透かしや、可視領域外の波長の標識等であってもよい。
詳細情報表示部撮像制御部27は、撮像部126を介して撮像した画像を、詳細情報表示認識部28に送信する。
詳細情報表示認識部28は、詳細情報表示部撮像制御部27により撮像された画像から、標識312を検出する。概要情報表示装置2と詳細情報表示装置3とが、撮像部126により表示部135が撮像できるような位置関係である場合、詳細情報表示部撮像制御部27により撮像された画像から、標識312が検出されることとなる。そして、詳細情報表示認識部28は、検出結果を、詳細情報表示認識情報として詳細情報注視検知部24に送信する。
S86において、詳細情報注視検知部24は、詳細情報表示認識部28から、標識312の検出処理の結果を示す詳細情報表示認識情報を受信する。
S87において、詳細情報注視検知部24は、S86で受信した詳細情報表示認識情報に基づいて、詳細情報表示部撮像制御部27により撮像された画像中に標識312が存在するか否かを判定する。詳細情報注視検知部24は、詳細情報表示部撮像制御部27により撮像された画像中に標識312が存在すると判定した場合、S83の処理に進む。また、詳細情報注視検知部24は、詳細情報表示部撮像制御部27により撮像された画像中に標識312が存在しないと判定した場合、S84の処理に進む。
スマートフォン等を注視する場合、ユーザの視界の中にはスマートフォンの画面が写る。そのため、以上の処理により、情報処理システム1は、ユーザによるスマートフォンを注視するという自然な行動により、詳細情報の閲覧に邪魔となる概要情報の表示を抑制することができる。これにより、情報処理システム1は、詳細情報の視認性を向上させることができる。
本実施形態では、詳細情報表示認識部28は、標識312を認識することで、画像中に表示部135が存在するか否かを判定した。しかし、例えば詳細情報表示制御部31が標識312を表示しない場合でも、詳細情報表示認識部28は、表示部135そのものを認識することで、画像中に表示部135が存在するか否かを判定してもよい。
詳細情報表示認識部28は、例えば、詳細情報表示装置3の表示部135周辺のボタンやデザイン等を認識することで、表示部135を認識できる。
実施形態4では、情報処理システム1は、撮像部126により表示部135が撮像されたか否かに基づいて、ユーザによる詳細情報の注視動作を検知した。本実施形態では、情報処理システム1は、撮像部136により概要情報表示装置2が撮像されたか否かに基づいて、ユーザによる詳細情報の注視動作を検知する。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
概要情報表示装置撮像制御部34は、撮像部136を介して、概要情報表示装置2を撮像する。
撮像部136は、ユーザが表示部135に表示された詳細情報を注視している場合に、ユーザが装着する概要情報表示装置2を撮像できるように配置されている。本実施形態の撮像部136は、詳細情報表示装置3の表示部135側に設けられたカメラである。また、本実施形態では、ユーザは、HMDである概要情報表示装置2を装着している。この場合にユーザが「詳細情報を注視している」様子を図17に示す。
概要情報表示装置撮像制御部34は、撮像部136を介して撮像した画像を、概要情報表示装置認識部35に送信する。概要情報表示装置認識部35は、送信された画像から、概要情報表示装置2を検出する。概要情報表示装置2と詳細情報表示装置3とが、撮像部136により概要情報表示装置2が撮像できるような位置関係である場合、概要情報表示装置撮像制御部34により撮像された画像から、概要情報表示装置2が検出されることとなる。概要情報表示装置認識部35は、行った検出処理の結果を、概要情報表示装置2が検出されたか否かを示す概要情報表示装置認識情報として詳細情報注視検知部24に送信する。
S861において、詳細情報注視検知部24は、概要情報表示装置認識部35から概要情報表示装置認識情報を受信する。
S871において、詳細情報注視検知部24は、S861で受信した概要情報表示装置認識情報に基づいて、撮像部136により撮像された画像中に概要情報表示装置2が存在するか否かを判定する。詳細情報注視検知部24は、撮像部136により撮像された画像中に概要情報表示装置2が存在すると判定した場合、S83の処理に進む。詳細情報注視検知部24は、撮像部136により撮像された画像中に概要情報表示装置2が存在しないと判定した場合、S84の処理に進む。
図17のような状況で、ユーザが詳細情報表示装置3を注視する場合、詳細情報表示装置3の撮像部136により撮像された画像には、概要情報表示装置2が写る。そのため、以上の処理により、情報処理システム1は、ユーザがスマートフォンを注視するという自然な行動により、詳細情報の閲覧に邪魔となる概要情報の重畳表示を抑制することができる。これにより、情報処理システムは、詳細情報の視認性を向上させることができる。
本実施形態では、情報処理システム1は、ユーザが詳細情報を注視しているか否かを判定するのに、概要情報表示装置撮像制御部34が撮像した画像中に概要情報表示装置2が写っているか否かの情報を用いた。しかし、情報処理システム1は、更に、詳細な情報を用いてもよい。例えば、情報処理システム1は、概要情報表示装置2上の複数の点(部位)の、画像中での座標を用いてもよい。情報処理システム1は、これらの各点がそれぞれ設定された座標範囲内にあるか否かに基づいて、概要情報表示装置2と詳細情報表示装置3との相対的な位置関係をより厳密にチェックすることができる。
実施形態5では、情報処理システム1は、撮像部136により概要情報表示装置2が撮影されたか否かに基づいて、ユーザによる詳細情報の注視動作を検知した。本実施形態では、情報処理システム1は、撮像部136によりユーザの顔が撮影されたか否かに基づいて、ユーザによる詳細情報の注視動作を検知する。即ち、情報処理システム1は、ユーザの顔と詳細情報表示装置3との相対的な位置関係に基づいて、ユーザによる詳細情報の注視動作を検知する。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
そこで、本実施形態では、情報処理システム1は、ユーザが詳細情報を注視しているか否かを、撮像部136を介して撮像された画像内にユーザの顔4が存在するか否かに基づいて、判定する。
顔撮像制御部341は、撮像部136を介して、画像を撮像し、撮像した画像を、顔認識部351に送信する。撮像部136は、ユーザが表示部135に表示された詳細情報を注視している場合に、ユーザの顔4を撮像できるように配置されている。撮像部136は、詳細情報表示装置3の表示部135側に設けられたカメラである。
顔認識部351は、顔撮像制御部341により撮像された画像からユーザの顔4を検出する。撮像部136により顔4が撮像できるような位置関係である場合、顔撮像制御部341により撮像された画像から、顔4が検出されることとなる。顔認識部351は、行った検出処理の結果を、顔4が検出されたか否かを示す顔認識情報として、詳細情報注視検知部24に送信する。
S862において、詳細情報注視検知部24は、顔認識部351から顔認識情報を受信する。
S872において、詳細情報注視検知部24は、S862で受信した顔認識情報に基づいて、顔撮像制御部341により撮像された画像中に顔4が存在するか否かを判定する。詳細情報注視検知部24は、顔撮像制御部341により撮像された画像中に顔4が存在すると判定した場合、S83の処理に進み、顔撮像制御部341により撮像された画像中に顔4が存在しないと判定した場合、S84の処理に進む。
図17のような状況で、詳細情報表示装置3を注視する場合、詳細情報表示装置3の撮像部136を介して撮像された画像には、ユーザの顔4が写る。そのため、以上の処理により、情報処理システム1は、ユーザがスマートフォンを注視するという自然な行動により、詳細情報の閲覧に邪魔となる概要情報の重畳表示を抑制することができる。これにより、情報処理システムは、詳細情報の視認性を向上させることができる。
本実施形態では、顔認識部351は、ユーザの顔4を認識するとしたが、必ずしも顔4でなくてもよく、目、鼻、口等の顔4を構成する器官を認識してもよい。
情報処理システム1は、画像中の顔の大きさや向きの情報を直接的に推定してもよいが、例えば、顔4上の複数の点(部位)の、画像中での座標を用いて、推定してもよい。情報処理システム1は、各点がそれぞれ設定された座標範囲内にあるか否かに基づいて、顔4と詳細情報表示装置3との相対位置姿勢をより厳密にチェックすることができる。
情報処理システム1は、更に、画像中に写っている顔4から推定されるユーザの視線方向を用いて、ユーザが詳細情報を注視しているか否かを判定してもよい。情報処理システム1は、例えば、顔4上の「目」という器官を認識した上で、「目」中の虹彩や瞳孔の位置からユーザの視線方向を推定することができる。情報処理システム1は、推定した視線方向が表示部135に向かっていると判定した場合、ユーザが詳細情報を注視していると判定できる。
本実施形態では、情報処理システム1は、詳細情報表示装置3に対して行われる操作を検出することで、ユーザによる詳細情報の注視動作を検知する。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
入力部134へのユーザの操作に即座に反応を返すような操作方式を、対話操作(対話型操作、双方向操作、双方向型操作、インタラクティブ操作)とする。
情報処理システム1が表示部135に表示された詳細情報を介して、ユーザへの対話操作を行っている場合、ユーザが詳細情報を注視している、と仮定することができる。そこで、本実施形態では、情報処理システム1は、表示部135に表示された詳細情報への操作を検知して、検知できた場合、ユーザが詳細情報を注視していると判定する。
詳細情報操作制御部36は、入力部134を介して、ユーザへの対話操作を行う。
詳細情報操作制御部36は、ユーザによる入力部134を介した操作(例えば、ハードボタンの押下、タッチパネルへのジェスチャ操作等)のユーザによる操作を検知する。
詳細情報操作制御部36は、入力部134を介して、受け付けた操作に応じた操作情報を、詳細情報検索部33に送信する。操作情報とは、何らかの操作が行われた際に、続く処理が開始されるトリガとなる情報である。操作情報は、操作に応じて、呼び出されるものである。詳細情報検索部33は、送信された操作情報に基づいて、ユーザが操作中か否かを推定する。以下では、この処理の流れを、図24を用いて説明する。
図24(a)の処理は、「操作中」であると推定する処理の一例である。図24(b)の処理は、「操作中ではない」と推定する処理の一例である。
本実施形態では、ユーザが操作を行った際に、詳細情報検索部33は、図24(a)の処理を行い、ユーザによる「操作中」であることを、詳細情報注視検知部24に通知する。そして、ユーザによる一連の操作が完了した際に、詳細情報検索部33は、図24(b)の処理を行い、「非操作中」であることを、詳細情報注視検知部24に通知することとなる。
S221において、詳細情報検索部33は、詳細情報操作制御部36から、詳細情報操作制御部36により受付けられた入力部134を介したユーザによる操作に応じた操作情報を受付ける。詳細情報検索部33は、S221では、予め設定された操作のみに対応する操作情報を受信することとしてもよい。詳細情報検索部33は、例えば、タッチパネルである入力部134への「タップ」操作、「スワイプ」操作に応じた操作情報のみを受信することとして、「スワイプ」操作や「フリック」操作等の他の操作に応じた操作情報を受信しないこととしてもよい。
S222において、詳細情報検索部33は、現在の状況を、ユーザによる入力部134を介した操作中であると推定する。
S223において、詳細情報検索部33は、「操作中」である旨を示す情報を、操作中か否かを示す操作中情報として詳細情報注視検知部24に送信する。
ユーザが操作中である期間とは、個々の操作を行った瞬間のみではなく、一連の操作を行っている間や、操作の結果を確認する時間も含むものと仮定する。そこで、本実施形態では、一連の操作を行った後、設定された時間T経過するまでに続く操作が行われなかった場合、操作中の期間が終了するものとする。即ち、ある操作が行われた後、時間Tの経過前に次の操作が行われた場合は、操作中の期間が継続していることとなる。
S224において、詳細情報検索部33は、S221と同様に詳細情報操作制御部36から、操作情報を受信する。
S225において、詳細情報検索部33は、S224で最後に受信された操作情報を受信した時刻から設定された時間Tの経過を待機する。詳細情報検索部33は、S224で最後に受信された操作情報を受信した時刻から設定された時間Tが経過するまで、新たな操作情報を受信することなく、待機した場合、S226の処理に進む。また、詳細情報検索部33は、待機中に、新たな操作情報を、詳細情報操作制御部36から受信した場合、受信した時刻から時間Tの待機を開始する。即ち、詳細情報検索部33は、S225の処理を最初からやり直すことになる。
S227において、詳細情報検索部33は、現在の状況が「非操作中」であることを示す情報を、操作中情報として詳細情報注視検知部24に送信する。
以上、図24(a)の処理により、詳細情報検索部33は、ユーザによる表示部135、入力部134を介した操作が行われるたびに「操作中」である旨の操作中情報を、詳細情報注視検知部24に送信する。また、図24(b)の処理により、詳細情報検索部33は、一連の操作が終了した際には、「非操作中」である旨の操作中情報を、詳細情報注視検知部24に送信する。
S88において、詳細情報注視検知部24は、詳細情報検索部33から操作中情報を受信する。
S89において、詳細情報注視検知部24は、S88で受信した操作中情報に基づいて、ユーザが操作中か否かを判定する。詳細情報注視検知部24は、ユーザが操作中であると判定した場合、S83の処理に進み、ユーザが操作中でないと判定した場合、S84の処理に進む。
以上の処理により、情報処理システム1は、ユーザによる詳細情報表示装置の操作という自然な行動により、詳細情報の閲覧や関連する操作を行う際に邪魔となる概要情報の表示部125への表示を抑制できる。これにより、情報処理システム1は、詳細情報の視認性を向上させることができる。
実施形態1~7では、概要情報生成部23は、生成した概要情報をそのまま、詳細情報検索部33に送信することとした。詳細情報検索部33は、複数の概要情報が送信された場合、詳細情報を検索する対象となる概要情報を選択する必要が生じる。そこで、本実施形態では、情報処理システム1は、複数の概要情報から、詳細情報を検索する対象となる概要情報を選択する。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
本実施形態では、情報処理システム1は、選択した概要情報が、ユーザの所望するものではなかった場合、概要情報を再度選択し直すこととする。
図26を用いて、本実施形態の処理を説明する。
概要情報生成部23は、生成した概要情報は、概要情報フィルタ部293を経由して概要情報表示制御部21に送信する。そして、概要情報表示制御部21は、表示部125に送信された概要情報を表示する。概要情報フィルタ部293の処理については、図27で後述する。
概要情報フィルタ部293は、概要情報を、概要情報表示制御部21だけでなく、概要情報選択部291にも送信する。概要情報選択部291は、概要情報が複数送信された場合、一つを選択する。概要情報選択部291により選択された概要情報は、選択情報の一例である。
概要情報選択部291は、選択した概要情報を、詳細情報検索部33に送信する。そして、詳細情報検索部33は、送信された概要情報に関する詳細情報を検索する。詳細情報表示制御部31は、詳細情報検索部33により検索された詳細情報を、表示部135に表示する。
概要情報選択部291は、選択した概要情報を、選択ミス検出部292にも送信する。選択ミス検出部292は、送信された概要情報が、ユーザが所望したものではないことを検出する。選択ミス検出部292は、送信された概要情報が、ユーザが所望したものではないことを検出できた場合、概要情報の選択ミスがあったことを示す選択ミス情報として、概要情報選択部291から送信された概要情報を概要情報フィルタ部293に送信する。選択ミス検出部292の処理については、図28で後述する。
まず、図27(a)の処理を説明する。
S251において、概要情報フィルタ部293は、概要情報生成部23から概要情報を受信する。
S252において、概要情報フィルタ部293は、選択ミス検出部292から送られた選択ミス情報を受信する。
254において、概要情報フィルタ部293は、S252で受信した選択ミス情報を主記憶装置122、補助記憶装置123等に記憶する。
S251~S254の処理により、概要情報フィルタ部293は、最新の概要情報、及び選択ミス情報を、主記憶装置122、補助記憶装置123等から取得できるようになる。
S2551において、概要情報フィルタ部293は、S253で記憶された概要情報のそれぞれについて、S254で記憶された選択ミス情報と一致するか否かを判定する。概要情報フィルタ部293は、S253で記憶された概要情報に含まれる概要情報が、S254で記憶された選択ミス情報と一致すると判定した場合、その概要情報を表示部125に表示されない概要情報として決定する。そして、概要情報フィルタ部293は、S253で記憶された概要情報に含まれる概要情報が、S254で記憶された選択ミス情報と一致しないと判定した場合、その概要情報を表示部125に表示される概要情報として決定する。概要情報フィルタ部293は、例えば、表示部125に表示される概要情報として決定した概要情報を、リストとして、主記憶装置122、補助記憶装置123等に記憶する。概要情報フィルタ部293は、S253で記憶された概要情報全てについて、以上の処理を行い、完了したら、S256の処理に進む。
S257において、概要情報フィルタ部293は、S256で取得した概要情報を、概要情報表示制御部21に送信する。
図27(a)では、概要情報フィルタ部293は、S254で最新の選択ミス情報を一つ記憶することとした。しかし、概要情報フィルタ部293は、S254で最新の選択ミス情報を複数記憶することとしてもよい。概要情報フィルタ部293は、例えば、既に記憶されている選択ミス情報を保持するリストに対して、新たな選択ミス情報を追加していってもよい。これにより、一度選択ミスとして検出された概要情報は、新たな概要情報が選択ミスとして検出された場合でも、概要情報表示制御部21により表示部125に表示されない。
また、概要情報フィルタ部293は、最新の設定された個数の選択ミス情報のみを、主記憶装置122、補助記憶装置123等に記憶し続けてもよい。また、概要情報フィルタ部293は、選択ミスとして検出されてから設定された時間経過した選択ミス情報を、記憶しないようにしてもよい。
S2551において、概要情報フィルタ部293は、図27(a)の場合と同様に、S253で記憶された概要情報のそれぞれについて、S254で記憶された選択ミス情報と一致するか否かを判定する。概要情報フィルタ部293は、一致しないと判定した場合、図27(a)の場合と同様に、その概要情報を表示部125に表示される概要情報として決定する。概要情報フィルタ部293は、一致すると判定した場合、S2552の処理に進む。
概要情報選択部291は、選択不可情報が付加された概要情報を選択しないこととなる。
これにより、表示部125に選択ミスを検出された概要情報が表示されるが、再度、選択されることはなくなる。概要情報表示制御部21は、選択不可情報が付加された概要情報を、グレーアウト表示で、表示部125に表示させてもよい。これにより、ユーザは、その概要情報を選択できないことを把握できる。
所望しない概要情報に関する詳細情報が表示部135に表示された場合、ユーザは、まず、表示された詳細情報を注視し、概要情報の選択ミスが生じたと判断し、詳細情報から目を離すと仮定できる。
そこで、本実施形態では、情報処理システム1は、ユーザによる詳細情報の注視動作を検知し、その後、ユーザによる詳細情報の非注視を検知した場合、概要情報選択部291による概要情報の選択ミスが発生したとする。
図28(a)の処理は、概要情報選択部291により新たに概要情報が選択された際の選択ミス検出部292の処理の一例を示す。
S262において、選択ミス検出部292は、既注視フラグをFalseとする。既注視フラグとは、ユーザが詳細情報を注視したか否かを示す情報であり、主記憶装置122、補助記憶装置123等に記憶される。選択ミス検出部292は、選択された概要情報に対応する詳細情報が一度もユーザにより注視されていない間は、既注視フラグの値を、Falseとする。そして、選択ミス検出部292は、選択された概要情報に対応する詳細情報が一度でもユーザにより注視された場合は、既注視フラグの値を、Trueとする。S262では、概要情報が新たに選択されたので、選択ミス検出部292は、既注視フラグをFalseとする。
S264において、選択ミス検出部292は、詳細情報注視検知部24から詳細情報注視中情報を受信する。
S265において、選択ミス検出部292は、S264で受信した詳細情報注視中情報に基づいて、ユーザが表示部135に表示されている詳細情報を注視しているか否かを判定する。選択ミス検出部292は、ユーザが表示部135に表示されている詳細情報を注視していると判定した場合、S266の処理に進む。また、選択ミス検出部292は、ユーザが表示部135に表示されている詳細情報を注視していないと判定した場合、S267の処理に進む。
S266において、選択ミス検出部292は、既注視フラグをTrueにする。S266の処理により、ユーザが詳細情報を一度でも注視した場合に、既注視フラグは、Trueとなる。
S268において、選択ミス検出部292は、ユーザが詳細情報を注視した後に目を離したとして、概要情報選択部291による概要情報の選択ミスを検出する。
S269において、選択ミス検出部292は、S268で選択ミスを検出した概要情報を、選択ミス情報として、概要情報フィルタ部293に送信する。
本実施形態では、選択ミス検出部292は、詳細情報注視検知部24からの詳細情報注視中情報に基づいて、概要情報の選択がミスか否かを判定したが、他の情報に基づいて判定してもよい。選択ミス検出部292は、例えば、顔認識部351を備えた表示システムであって、顔認識部351がユーザの視線推定を行う場合、「選択ミス」である場合の視線の動きを予め機械学習し、その学習結果を元に選択ミスか否かを判断してもよい。
本実施形態では、選択ミス検出部292は、ユーザが詳細情報を注視した後に、詳細情報から目を離した場合に、概要情報の選択ミスが発生したと判定した。しかし、ユーザは、所望の概要情報の詳細情報が表示部135に表示された場合でも、詳細情報を十分に閲覧した後で、詳細情報から目を離すと仮定できる。そこで、選択ミス検出部292は、ユーザが詳細情報を注視した後に、設定された期間内(例えば、3秒等)に詳細情報から目を離した場合に、概要情報の選択ミスが発生したと判定してもよい。
実施形態8では、情報処理システム1は、概要情報の選択ミスを検出した際に、ユーザによる入力部124を介した指定に基づいて、再度概要情報の選択を行った。本実施形態では、情報処理システム1は、ユーザによる操作を介さずに、再度の概要情報の選択を行う。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
(1)表示部125上で所望の概要情報と物理的に近い場所に表示された概要情報を、誤って選択してしまった場合。
(2)似通ったカテゴリの概要情報を誤って選択してしまった場合。
(3)似通ったカテゴリの詳細情報をパラパラと見ていくことで、目的の詳細情報に辿り着きたい場合。
このような場合について、本実施形態の情報処理システム1の処理を説明する。
また、本実施形態の情報処理システム1は、概要情報の選択ミスを検出して、別の概要情報を、ユーザの操作に依らずに選択する。選択ミスの概要情報に関する詳細情報を注視したユーザは、一度目を離した後、再度、新たな詳細情報を期待して、表示部135を注視すると仮定する。
そこで、本実施形態の情報処理システム1は、ユーザによる詳細情報の「注視→非注視→注視」を設定された期間内に検知した場合、概要情報選択部291により選択された概要情報を選択ミスとして決定する。
以下では、本実施形態の処理のうち、実施形態8と異なる点について説明する。
図30は、選択ミス検出部292の処理の一例を示すステートマシン図である。
S281において、選択ミス検出部292は、ユーザによる詳細情報の注視が行われていないことを示す非注視中状態となる。そして、選択ミス検出部292は、概要情報選択部291から、概要情報選択部291により選択された概要情報を受信すると、受信した概要情報を主記憶装置122、補助記憶装置123等に記憶する。そして、選択ミス検出部292は、詳細情報注視検知部24から詳細情報注視中情報を受信し、受信した詳細情報注視中情報が、ユーザが詳細情報を注視中であることを示す場合、S282の処理に進む。選択ミス検出部292は、詳細情報注視検知部24から詳細情報注視中情報を受信し、受信した詳細情報注視中情報が、ユーザが詳細情報を注視中でないことを示す場合、非注視中状態のままとなる。
S283において、選択ミス検出部292は、ユーザによる詳細情報の注視が行われておらず、経過時間を計測中である非注視中(時間計測)状態とする。選択ミス検出部292は、非注視中(時間計測)状態である間、概要情報表示装置2のタイマ等を介して、経過する時間を計測する。選択ミス検出部292は、ユーザによる詳細情報の「注視→非注視→注視」の遷移が設定された期間内に行われるか否かを判定するために、時間を計測する。選択ミス検出部292は、非注視中(時間計測)状態に遷移した際の時刻を主記憶装置122、補助記憶装置123等に記憶する。そして、選択ミス検出部292は、非注視中(時間計測)状態から他の状態に遷移する際の時刻と、記憶した時刻との差分から、ユーザが詳細情報を注視していなかった時間である被注視時間を取得する。
選択ミス検出部292は、取得した非注視時間が設定された閾値よりも小さい場合、ユーザによる詳細情報の「注視→非注視→注視」の遷移が設定された時間内に起きたということなので、概要情報選択部291により選択された概要情報を、選択ミスと判定する。そして、選択ミス検出部292は、選択ミスと判定した概要情報を、選択ミス情報として概要情報選択部291に送信する。選択ミス検出部292は、取得した非注視時間が設定された閾値よりも小さい場合でも、設定された閾値以上である場合でも、S282に進み、再度、注視中状態となる。
また、選択ミス検出部292は、S283で非注視中(時間計測)状態となった後で、詳細情報注視検知部24から詳細情報注視中情報を受信し、受信した詳細情報注視中情報が非注視中であることを示す場合は、非注視中(時間計測)状態のままとなる。
また、選択ミス検出部292は、S283で非注視中(時間計測)状態となった後で、概要情報選択部291から概要情報を受信した場合、受信した概要情報を主記憶装置122、補助記憶装置123等に記憶し、S281の処理に進み、非注視中状態となる。
まず、概要情報選択部291は、概要情報生成部23にから概要情報を受信した場合、受信した概要情報を、主記憶装置122、補助記憶装置123等に記憶する。
S291において、概要情報選択部291は、選択ミス検出部292から、選択ミス情報を受信する。
S292において、概要情報選択部291は、主記憶装置122、補助記憶装置123等に記憶した概要情報の中から、一つを選択する。
S293において、概要情報選択部291は、S292で選択した概要情報を選択ミス検出部292と詳細情報検索部33とに送信する。
概要情報選択部291は、例えば、「最小距離」という変数を、主記憶装置122上に、用意する。「最小距離」は、選択ミス検出部292から概要情報選択部291へ送信された選択ミス情報が示す概要情報と、概要情報選択部291による選択候補である概要情報それぞれと、の距離のうち、最小のものを格納する変数である。ここで、距離とは、選択ミス情報が示す概要情報と、概要情報それぞれと、がどの程度乖離しているかを示す指標である。ここでの距離は、ユークリッド距離等の物理的な距離における乖離を示すこととしてもよいし、意味合いの乖離の程度を示すこととしてもよい。
S301において、概要情報選択部291は、「最小距離」の値を∞(無限大)にする。
S3021において、概要情報選択部291は、主記憶装置122、補助記憶装置123等に記憶した概要情報のうち、1つを選択し、選択した概要情報と選択ミス情報が示す概要情報との距離を取得する。上記(1)の場合、概要情報選択部291は、例えば、アノテーションである概要情報同士の表示部125の表示位置間のユークリッド距離を取得する。
上記(2)、(3)では、概要情報選択部291は、別途定義されたカテゴリ間の距離を取得する。本実施形態では、概要情報生成部23が生成する概要情報には、カテゴリ情報が付与されることになる。ここで、カテゴリ情報とは、概要情報がどのカテゴリに属するかを示す情報であり、「橋」、「建物」、「飲食店」、「駅」といったものがある。概要情報には、複数のカテゴリ情報が付与されることとしてもよい。その場合、概要情報選択部291は、任意のカテゴリ情報を用いて距離を取得できる。概要情報選択部291は、例えば、全てのカテゴリの組み合わせで距離を計算し、最も小さいものを、最終結果としてもよい。
S3023において、概要情報選択部291は、「最小距離」の値を、S3021で取得した距離で更新する。
S3024において、概要情報選択部291は、S3021で選択した概要情報を、選択候補とする。
以上、S302の処理により、概要情報選択部291は、選択ミス情報が示す概要情報との距離が最小となる概要情報を選択候補とすることができる。
S303において、概要情報選択部291は、S302で決定された選択候補の概要情報を、S292の処理の結果として出力する。
図33は、この場合の情報処理システム1の各構成要素の機能構成の一例を示す図である。概要情報フィルタ部293の処理は、実施形態8と同様である。概要情報フィルタ部293が図27(b)のような処理を行う場合の、S292の処理の詳細を、図32を用いて説明する。
図34は、概要情報選択部291の処理の一例を示すアクティビティ図である。図34は、図32と比べて、S3025の処理がある点で異なる。
S3025において、概要情報選択部291は、主記憶装置122、補助記憶装置123等に記憶した概要情報それぞれについて、選択不可情報が付与されているか否かに基づいて、選択不可にするか否かを決定する。概要情報選択部291は、S3021で、S3025で、選択不可にすることを決定された概要情報を除く概要情報から1つを選択することになる。
本実施形態では、選択ミス検出部292は、詳細情報注視検知部24からの詳細情報注視中情報に基づいて、概要情報の選択がミスか否かを判定したが、他の情報を元に判定してもよい。
選択ミス検出部292は、例えば、情報処理システム1が顔認識部351を含む場合、顔認識部351を介してユーザの視線推定を行い、推定したユーザの視線に基づいて、概要情報の選択ミスを検出してもよい。選択ミス検出部292は、例えば、予め学習された選択ミスの概要情報に係る詳細情報が表示部135に表示された場合のユーザの視線のモデルに基づいて、概要情報が選択ミスか否かを判定してもよい。
実施形態1では、概要情報生成部23は、表示部125に表示される画像や現実風景等の概要情報表示装置2と詳細情報表示装置3とを携帯するユーザの視認対象に基づいて、ユーザに提示する概要情報を生成した。本実施形態では、概要情報生成部23は、ユーザの視認対象に関連した情報に基づいて、ユーザに提示する概要情報を生成する。本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
図35は、本実施形態の情報処理システム1の機能構成の一例を示す図である。図3と比べて、概要情報表示装置2が画像解析部231を更に含む点で異なる。以下、本実施形態の処理の詳細について、実施形態1との差分を中心に説明する。
概要情報表示装置2は、コンピュータ、及びこのコンピュータと接続されたディスプレイモニタを含み、撮像部126が撮像した映像を、画像解析部231を介して処理して、このディスプレイに表示する。
撮像部126は、例えば、監視カメラであり、1つ、又は複数設置されている。画像解析部231は、撮像部126を介して撮像された映像を解析し、映っている人物を特定する。そして、画像解析部231は、映像とともに解析結果を、概要情報生成部23に出力する。また、画像解析部231は、録画再生機能を有することとしてもよい。この場合、画像解析部231は、過去の映像とその過去の映像に映っている人物の解析結果とを出力することができる。
また、本実施形態では画像解析部231は、映像内に写っている人物を同定する処理を行うこととするが、組立て部品、病巣、天体、微生物等、目的に応じた事物を同定する処理を行うこととしてもよい。ここで同定する処理とは、オブジェクトがあるオブジェクトと同一であるか否かを決定する処理、目的に応じて個体を識別する処理、オブジェクトをカテゴリ(例えば、微生物の名前等)に分類する処理等の処理である。
また、画像解析部231に複数の撮像部126が接続されている場合、画像解析部231は、これらの複数の撮像部126のうち何れか1つの映像を出力してもよいし、複数の撮像部126の複数の映像を例えばタイル上に並べて出力してもよい。また、画像解析部231は、概要情報表示装置2の外部の装置に実装されることとしてもよい。その場合、画像解析部231は、概要情報表示装置2の各機能構成要素と、通信制御部A22を介して通信する。
画像解析部231は、何れか1台の撮像部126の映像及び、その映像に映っている人物の人物IDをその関連画面内情報とともに、概要情報生成部23に出力する。関連画面内情報とは、ある人物の頭部の座標、人物全体を囲むバウンディングボックスの対角座標や、人物領域のマスク画像とその座標といったその人物の属性の情報であり、概要情報表示制御部21により概要情報を重畳表示する際に用いられる。
概要情報表示制御部21は、画像解析部231から出力された映像を、概要情報生成部23により生成された概要情報を重畳して、表示部125に表示する。概要情報表示制御部21は、表示部125に表示する映像が画像解析部231によって加工されない場合、表示部125に表示する映像を撮像部126から取得することとしてもよい。
一方、詳細情報検索部33は、概要情報生成部23から受信した概要情報に基づいて、受信した概要情報に関する詳細情報を検索する。詳細情報検索部33は、例えば、受信した人物IDに基づいて、データベースを参照して、人物の氏名、住所、過去の検出履歴、その他人物に関連する詳細情報を検索する。
本実施形態では、撮像部126及び画像解析部231は、概要情報表示装置2に含まれるものとした。しかし、撮像部126、画像解析部231の一部又は全部は、概要情報表示装置2とは異なる装置に含まれることとしてもよい。
実施形態8では、概要情報の選択は、以下のようにして行われることとした。即ち、概要情報の選択は、メガネ型端末装置である概要情報表示装置2のつるの部分に仕込まれた入力部124であるタッチパッドを介したユーザによる指定や、入力部124であるマイクを介したユーザの発声に対する音声認識に基づき、行われることとした。本実施形態では、入力部124が、表示部125と一体になったタッチパネル、タッチペン、マウス等のポインティングデバイス、キーボード等である場合の例を示す。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各種構成要素のハードウェア構成についても、実施形態1と同様である。図36は、本実施形態の情報処理システム1の各構成要素の機能構成の一例を示す図である。図26と比べ、概要情報表示装置2が画像解析部231を更に含む点で異なる。以下、本実施形態の処理の詳細について、実施形態8及び実施形態10との差分を中心に説明する。
概要情報表示制御部21は、入力部124がキーボードの場合、例えば「スペース」や矢印のキーの選択を検知することで、複数の概要情報の中から1つの概要情報を、選択候補となる概要情報として決定する。そして、概要情報表示制御部21は、決定した概要情報を他の概要情報よりも強調して表示(色を濃く表示する等)する。ユーザは、「スペース」や矢印のキーの選択を繰り返すことで、複数の概要情報の中から選択候補となる概要情報が順に選択され、強調表示されることで、提示されることとなる。そして、ユーザは、選択したい概要情報が選択候補となっている状態で、例えば、「エンター」キーを選択する。概要情報選択部291は、「エンター」キーの選択を検知することで、現在選択候補となっている概要情報を、選択する。また、概要情報選択部291は、「エンター」キーの選択の検知を行わずに、概要情報の何れかが選択候補となった際に、選択候補となった概要情報を選択することとしてもよい。
図37は、概要情報選択部291の処理の一例を示すアクティビティ図である。図37を用いて、概要情報選択部291の処理を説明する。
S2901において、概要情報選択部291は、入力部124のポインティングデバイスからポインティング情報を得る。ポインティング情報とは、入力部124によってポイントされた、表示部125内の位置(ポインティング位置)である。
S2902において、概要情報選択部291は、ポインティング位置に最も近い概要情報を特定する。概要情報選択部291は、特定した概要情報と、このポインティング位置の情報とを対応付けて補助記憶装置123等に保存する。
S2903において、概要情報選択部291は、S2902で特定した概要情報を選択する。
S391において、選択ミス検出部292は、概要情報選択部291が概要情報を選択する前に再度行われた入力部124を介したポインティングが行われた位置に最も近い概要情報を特定する。
S392において、選択ミス検出部292は、S2902で特定した概要情報と、この概要情報に対応するポインティング位置の情報と、を、補助記憶装置123等から取り出す。取り出されたポインティング情報は、予め、ポインティング情報が取りうる何れの位置とも所定値以上の距離がある位置に初期化されているものとする。
S393において、選択ミス検出部292は、S391で特定した概要情報と、この概要情報に対応するポインティング位置の情報とを対応付けて、補助記憶装置123等に保存する。
S395において、選択ミス検出部292は、S392で取り出した概要情報を選択ミスとして決定する。
S396において、選択ミス検出部292は、選択ミスが発生したことを示す選択ミス情報を、概要情報フィルタ部293に送信する。
その後、図40(b)のように、また、左側のディスプレイ(表示部125)のある1点がポインティングされると、選択ミス検出部292は、そのポインティング位置に最も近い人物の概要情報を特定する(S391)。そして、また、選択ミス検出部292は、前回保存した概要情報を取り出す(S392)。そして、選択ミス検出部292は、取り出した概要情報に対応するポインティング情報と受信した概要情報に対応するポインティング位置との距離が所定値よりも小さいか否かを判定する(S394)。図40(b)の例では、選択ミス検出部292は、所定値よりも小さいと判断し、取り出した概要情報を選択ミスとして(S395)、選択ミス情報を送信する(S396)。図40(b)の例では、選択ミス検出部292により選択ミスが発生したと判断されたため、ポインティング位置から次に近い人物の詳細情報が右側のディスプレイ(表示部135)に表示されることとなる。
また、情報処理システム1は、選択した概要情報が、ユーザの所望の概要情報ではなかった場合、その概要情報を選択した付近で再度選択することにより、その概要情報を除いた他の概要情報のうち、最も選択した位置に近い概要情報を選択することとした。これにより、情報処理システム1は、ユーザの所望の概要情報をより短時間に選択することができる。
実施形態11では、情報処理システム1は、選択した位置(ポインティング位置)に最も近い概要情報を候補としたが、選択した位置から遠い概要情報を候補から外すことはしなかった。そのため、誤って再選択をした場合、選択位置から、想定よりも離れた位置にある概要情報が選択される場合が生じうる。そこで、本実施形態では、選択位置から明らかに離れた位置にある概要情報は選択対象から外す処理について説明する。
本実施形態の概要情報選択部291の処理の一例を、図39に示す。図39の処理は、図37の処理に対して、S2904の処理が追加されている点で異なる。
S2902において、概要情報選択部291は、ポインティング位置に最も近い概要情報を特定し、S2904の処理に進む。
S2904において、概要情報選択部291は、S2902で特定した概要情報の位置とポインティング位置との距離が、所定の距離以下か否かを判定する。概要情報選択部291は、所定の距離以下と判定した場合、S2903の処理に進む。概要情報選択部291は、所定の距離より大きいと判定した場合、図39の処理を終了し、選択処理を行わない。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。上述した各実施形態を任意に組み合わせてもよい。
2 概要情報表示装置
3 詳細情報表示装置
Claims (20)
- ユーザの観察対象に基づいて、前記ユーザへの提示情報を生成する生成手段と、
ウエアラブルデバイスである第1の情報処理装置を前記ユーザが身に着けた場合、前記ユーザの視界に入るように前記生成手段により生成された前記提示情報を第1の情報処理装置の第1の表示部に表示させる、もしくは、前記第1の情報処理装置が撮影した画像と前記提示情報とを前記第1の表示部に表示させる第1の表示制御手段と、
前記第1の表示制御手段により前記第1の表示部に表示された前記提示情報に基づいて決定手段により決定され、前記第1の情報処理装置と異なる第2の情報処理装置の第2の表示部に第2の表示制御手段によって表示された、前記提示情報に関する詳細情報が、前記ユーザによって注視されたことを検出手段により検出した場合に、前記第1の表示部に表示される前記提示情報の表示を制御する制御手段と、
を有することを特徴とするシステム。 - 前記制御手段は、前記検出手段により前記詳細情報に対する前記ユーザの注視が検出された場合、前記第1の表示部に表示される前記提示情報の表示を抑制することで、前記詳細情報の視認性を向上できる
ことを特徴とする請求項1に記載のシステム。 - 前記第1の表示制御手段により前記第1の表示部に表示された複数の前記提示情報の中から、前記ユーザからの指定に応じた前記提示情報を、選択情報として、選択する選択手段と、
前記選択手段による前記選択情報の選択が、前記選択手段による選択ミスであることを検知する検知処理を行う第1の検知手段と、を更に有する請求項1に記載のシステム。 - 前記選択手段は、前記第1の検知手段により前記選択手段による選択ミスであることが検知された前記選択情報を、再度、選択できないように制御する請求項3に記載のシステム。
- 前記選択手段は、前記第1の検知手段により前記選択情報が前記選択手段による選択ミスであることが検知された場合、前記第1の表示部に表示された複数の前記提示情報のうち、前記選択情報を除いたものの中から、再度、前記選択情報となる提示情報を選択する請求項3に記載のシステム。
- 前記選択手段は、前記第1の表示制御手段により前記第1の表示部に表示された複数の前記提示情報の中から、ポインティングデバイスを介して前記ユーザにより選択された位置に最も近い前記提示情報を、前記選択情報として選択し、
前記第1の検知手段は、前記選択手段による前記選択情報の選択の際に前記ポインティングデバイスを介して前記ユーザにより選択された位置と、前記位置が選択される前に前記ポインティングデバイスを介して前記ユーザにより選択された位置と、の距離が予め定められた値よりも小さい場合に、前記選択手段による前記選択情報の選択が、前記選択手段による選択ミスであることを検知する請求項3に記載のシステム。 - 前記選択手段は、更に、前記ポインティングデバイスを介して前記ユーザにより選択された位置と、前記ユーザにより選択された位置に最も近い前記提示情報の位置と、の距離が前記予め定められた値よりも大きい場合に、前記提示情報の選択を行わない請求項6に記載のシステム。
- 前記第2の表示制御手段により前記第2の表示部に表示された前記詳細情報に対する前記ユーザによる注視動作を検知する検知処理を行う第2の検知手段を更に有し、
前記第1の検知手段は、前記第2の検知手段による検知処理の結果の遷移に基づいて、前記選択手段による前記選択情報の選択が、前記選択手段による選択ミスであることを検知する検知処理を行う請求項3に記載のシステム。 - 前記第1の情報処理装置は、
前記ユーザの観察対象に関連した情報を出力する出力手段を更に有し、
前記生成手段は、前記出力手段により出力された情報に基づいて、前記提示情報を生成する請求項1から8のいずれか1項に記載のシステム。 - 前記検出手段により前記注視が検出された場合、前記制御手段は、前記第1の表示部への前記提示情報の表示を禁止する請求項2に記載のシステム。
- 前記検出手段は、前記第1の情報処理装置の姿勢に基づいて、前記注視を検出する請求項2または10に記載のシステム。
- 前記検出手段は、前記第2の情報処理装置の姿勢に基づいて、前記注視を検出する請求項2または10に記載のシステム。
- 前記検出手段は、前記第1の情報処理装置の撮像部により撮像された画像に、前記第2の表示部が含まれるか否かに基づいて、前記注視を検出する請求項2または10に記載のシステム。
- 前記検出手段は、前記第1の情報処理装置の撮像部により撮像された画像に、前記第2の表示部に表示された前記詳細情報が含まれるか否かに基づいて、前記注視を検出する請求項2または10に記載のシステム。
- 前記検出手段は、前記第2の情報処理装置の撮像部により撮像された画像に、前記第1の情報処理装置が含まれるか否かに基づいて、前記注視を検出する請求項2または10に記載のシステム。
- 前記検出手段は、前記第2の情報処理装置の撮像部により撮像された画像に、前記ユーザが含まれるか否かに基づいて、前記注視を検出する請求項2または10に記載のシステム。
- 前記検出手段は、前記第2の表示制御手段により前記第2の表示部に表示された前記詳細情報に対する操作中であるか否かに基づいて、前記注視を検出する請求項2または10に記載のシステム。
- 前記第1の情報処理装置は、頭部装着型のウエアラブルデバイスである請求項1から17のいずれか1項に記載のシステム。
- システムが実行する情報処理方法であって、
ユーザの観察対象に基づいて、前記ユーザへの提示情報を生成する生成ステップと、
ウエアラブルデバイスである第1の情報処理装置を前記ユーザが身に着けた場合、前記ユーザの視界に入るように前記生成ステップにおいて生成された前記提示情報を第1の情報処理装置の第1の表示部に表示させる、もしくは、前記第1の情報処理装置が撮影した画像と前記提示情報とを前記第1の表示部に表示させる第1の表示制御ステップと、
前記第1の表示制御ステップで前記第1の表示部に表示された前記提示情報に基づいて決定ステップで決定され、前記第1の情報処理装置と異なる第2の情報処理装置の第2の表示部に第2の表示制御ステップで表示された、前記提示情報に関する詳細情報が、前記ユーザによって注視されたことを検出ステップで検出した場合に、前記第1の表示部に表示される前記提示情報の表示を制御する制御ステップと、
を含むことを特徴とする情報処理方法。 - コンピュータに、
ユーザの観察対象に基づいて、前記ユーザへの提示情報を生成する生成ステップと、
ウエアラブルデバイスである第1の情報処理装置を前記ユーザが身に着けた場合、前記ユーザの視界に入るように前記生成ステップにおいて生成された前記提示情報を第1の情報処理装置の第1の表示部に表示させる、もしくは、前記第1の情報処理装置が撮影した画像と前記提示情報とを前記第1の表示部に表示させる第1の表示制御ステップと、
前記第1の表示制御ステップで前記第1の表示部に表示された前記提示情報に基づいて決定ステップで決定され、前記第1の情報処理装置と異なる第2の情報処理装置の第2の表示部に第2の表示制御ステップで表示された、前記提示情報に関する詳細情報が、前記ユーザによって注視されたことを検出ステップで検出した場合に、前記第1の表示部に表示される前記提示情報の表示を制御する制御ステップと、
を実行させるためのプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017077659 | 2017-04-10 | ||
JP2017077659 | 2017-04-10 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018181339A JP2018181339A (ja) | 2018-11-15 |
JP2018181339A5 JP2018181339A5 (ja) | 2021-05-13 |
JP7094759B2 true JP7094759B2 (ja) | 2022-07-04 |
Family
ID=63710925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018075584A Active JP7094759B2 (ja) | 2017-04-10 | 2018-04-10 | システム、情報処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20180292980A1 (ja) |
JP (1) | JP7094759B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2020329148A1 (en) * | 2019-08-09 | 2022-03-17 | Clearview Ai, Inc. | Methods for providing information about a person based on facial recognition |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003114747A (ja) | 1996-07-31 | 2003-04-18 | Aisin Aw Co Ltd | タッチパネルを併設した情報表示装置及び記録媒体 |
JP2013134657A (ja) | 2011-12-27 | 2013-07-08 | Nippon Telegr & Teleph Corp <Ntt> | 情報処理装置、情報処理方法および情報処理プログラム |
JP2013235413A (ja) | 2012-05-09 | 2013-11-21 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
-
2018
- 2018-03-29 US US15/940,530 patent/US20180292980A1/en not_active Abandoned
- 2018-04-10 JP JP2018075584A patent/JP7094759B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003114747A (ja) | 1996-07-31 | 2003-04-18 | Aisin Aw Co Ltd | タッチパネルを併設した情報表示装置及び記録媒体 |
JP2013134657A (ja) | 2011-12-27 | 2013-07-08 | Nippon Telegr & Teleph Corp <Ntt> | 情報処理装置、情報処理方法および情報処理プログラム |
JP2013235413A (ja) | 2012-05-09 | 2013-11-21 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
Non-Patent Citations (1)
Title |
---|
斧 麻衣 他3名,"ウェアラブル機器を用いた学内学習システムの定量評価に関する検討",電子情報通信学会2005年総合大会講演論文集 基礎・境界,2005年03月07日,第293頁 |
Also Published As
Publication number | Publication date |
---|---|
JP2018181339A (ja) | 2018-11-15 |
US20180292980A1 (en) | 2018-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6747504B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US10474411B2 (en) | System and method for alerting VR headset user to real-world objects | |
US20130179303A1 (en) | Method and apparatus for enabling real-time product and vendor identification | |
US20190227694A1 (en) | Device for providing augmented reality service, and method of operating the same | |
CN106327584B (zh) | 一种用于虚拟现实设备的图像处理方法及装置 | |
JP2011128220A (ja) | 情報提示装置、情報提示方法及びプログラム | |
WO2017187708A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20180315246A1 (en) | Information processing device, information processing method, and program | |
US20240144611A1 (en) | Augmented reality eyewear with speech bubbles and translation | |
US20210004081A1 (en) | Information processing apparatus, information processing method, and program | |
US11553009B2 (en) | Information processing device, information processing method, and computer program for switching between communications performed in real space and virtual space | |
WO2017169273A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
EP3617851B1 (en) | Information processing device, information processing method, and recording medium | |
EP3582068A1 (en) | Information processing device, information processing method, and program | |
JP7094759B2 (ja) | システム、情報処理方法及びプログラム | |
US11474595B2 (en) | Display device and display device control method | |
US11137600B2 (en) | Display device, display control method, and display system | |
JP6858007B2 (ja) | 画像処理システム、画像処理方法 | |
US10409464B2 (en) | Providing a context related view with a wearable apparatus | |
WO2019138682A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11863860B2 (en) | Image capture eyewear with context-based sending | |
US20240119643A1 (en) | Image processing device, image processing method, and computer-readable storage medium | |
KR20160027813A (ko) | 글래스형 단말기 | |
JP2022083918A (ja) | 眼鏡型デバイス、管理サーバ及びプログラム | |
CN115834858A (zh) | 显示方法、装置、头戴显示设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210402 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210402 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220420 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220524 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220622 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7094759 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |