JP7094759B2 - システム、情報処理方法及びプログラム - Google Patents

システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7094759B2
JP7094759B2 JP2018075584A JP2018075584A JP7094759B2 JP 7094759 B2 JP7094759 B2 JP 7094759B2 JP 2018075584 A JP2018075584 A JP 2018075584A JP 2018075584 A JP2018075584 A JP 2018075584A JP 7094759 B2 JP7094759 B2 JP 7094759B2
Authority
JP
Japan
Prior art keywords
information
unit
user
selection
summary information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018075584A
Other languages
English (en)
Other versions
JP2018181339A (ja
JP2018181339A5 (ja
Inventor
英生 野呂
優和 真継
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2018181339A publication Critical patent/JP2018181339A/ja
Publication of JP2018181339A5 publication Critical patent/JP2018181339A5/ja
Application granted granted Critical
Publication of JP7094759B2 publication Critical patent/JP7094759B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Description

本発明は、システム、情報処理方法及びプログラムに関する。
カメラ等の撮像装置で撮像した静止画像や動画像から、特定の対象を検出して提示する方法がある。
例えば、監視カメラの分野では、不審な動きをしている人物がいることを検出して、異常を通報したり、不審人物を色の付いた枠で示したりすることがある。
また、人の顔を認識して提示するシステムもある。例えば、カジノではカードカウンティング等の不正を防止するため、ブラックリストに載っている人物を識別するシステムが用いられている。
また、自動車の分野では、車載カメラの映像から走行可能領域、歩行者、車両等を識別し、危険を事前に察知し、運転者に通知したり危険回避の対応を行ったりするシステムも開発されてきている。
このように、撮像装置で撮像した静止画像や動画像等の画像から何らかの対象を識別し、識別した対象に関する情報を提示するシステムには様々なものがある。
提示する情報には、識別した対象の名称等の簡易な情報や、その対象に関するより詳細な情報等がある。
情報を提示する方法として、アノテーションやノーティフィケーションといった方法がある。
アノテーションは、拡張現実(AR)で、用いられる方法である。画像上の事物に関連した名称等の概要の情報を、その事物の付近に重畳表示する方法である。
ノーティフィケーションは、ユーザに何らかの事象を伝えるのに用いられる方法である。例えば、電話機の呼び出し音や発信者番号表示、スマートフォンでの電子メールやSNS(Social Networking Service)通知等が、ノーティフィケーションの一例である。
アノテーションやノーティフィケーションは、ユーザに情報を提示するのに有効であるが、ユーザが更に詳細な情報を知りたい場合もある。
アノテーションとして提示された情報を選択して、選択した情報に関連する詳細情報を表示する方法には、特許文献1がある。
また、プラント監視システムにおいて、個別の機器に異常があった場合に、監視画面にノーティフィケーションを出し、その監視画面とは異なる装置の画面に個別異常を表示する方法には、特許文献2がある。
特開2012-69065号公報 特開平05-342487号公報
しかしながら、特許文献1では、アノテーション等の提示されている情報と同じ画面(表示デバイス)上に詳細情報が表示されてしまっていた。
そのため、画面に多量の情報が表示され、画面が見づらくなってしまい、詳細情報の閲覧や関連する操作がやりづらい等、ユーザの利便性が低かった。特に、HMD(Head Mounted Display:頭部装着型ディスプレイ)においては、詳細情報の表示箇所によってユーザの視線方向が拘束されてしまい、利便性が低かった。
また、特許文献2では、予め定められた監視対象の異常に関する情報しか提示できず、ユーザが視認している対象に応じた情報を提示できず、利便性が低かった。
本発明のシステムは、ユーザの観察対象に基づいて、前記ユーザへの提示情報を生成する生成手段と、ウエアラブルデバイスである第1の情報処理装置を前記ユーザが身に着けた場合、前記ユーザの視界に入るように前記生成手段により生成された前記提示情報を第1の情報処理装置の第1の表示部に表示させる、もしくは、前記第1の情報処理装置が撮影した画像と前記提示情報とを前記第1の表示部に表示させる第1の表示制御手段と、前記第1の表示制御手段により前記第1の表示部に表示された前記提示情報に基づいて決定手段により決定され、前記第1の情報処理装置と異なる第2の情報処理装置の第2の表示部に第2の表示制御手段によって表示された、前記提示情報に関する詳細情報が、前記ユーザによって注視されたことを検出手段により検出した場合に、前記第1の表示部に表示される前記提示情報の表示を制御する制御手段と、を有することを特徴とする。
本発明によれば、利便性を向上させることができる。
情報処理システムのシステム構成の一例を示す図である。 情報処理システムの各構成要素のハードウェア構成の一例を示す図である。 情報処理システムの各構成要素の機能構成の一例を示す図である。 情報処理システムの処理の一例の概要を説明する図である。 情報の提示の一例の概要を説明する図である。 情報処理システムの各構成要素の機能構成の一例を示す図である。 表示情報制御部の処理の一例を示すアクティビティ図である。 情報処理システムの各構成要素の機能構成の一例を示す図である。 概要情報表示装置の姿勢の検出処理の一例を説明する図である。 詳細情報注視検知部の処理の一例を示すアクティビティ図である。 情報処理システムの各構成要素の機能構成の一例を示す図である。 詳細情報表示装置の姿勢の検出処理の一例を説明する図である。 情報処理システムの各構成要素の機能構成の一例を示す図である。 詳細情報の表示態様の一例を示す図である。 詳細情報注視検知部の処理の一例を示すアクティビティ図である。 情報処理システムの各構成要素の機能構成の一例を示す図である。 情報処理システムの利用態様の一例を示す図である。 撮像された画像の一例を示す図である。 詳細情報注視検知部の処理の一例を示すアクティビティ図である。 撮像された画像の一例を示す図である。 情報処理システムの各構成要素の機能構成の一例を示す図である。 詳細情報注視検知部の処理の一例を示すアクティビティ図である。 情報処理システムの各構成要素の機能構成の一例を示す図である。 操作中推定処理の一例を示すアクティビティ図である。 詳細情報注視検知部の処理の一例を示すアクティビティ図である。 情報処理システムの各構成要素の機能構成の一例を示す図である。 概要情報フィルタ部の処理の一例を示すアクティビティ図である。 選択ミス検出部の処理の一例を示すアクティビティ図である。 情報処理システムの各構成要素の機能構成の一例を示す図である。 選択ミス検出部の処理の一例を示すステートマシン図である。 概要情報選択部の処理の一例を示すアクティビティ図である。 概要情報選択部の処理の一例を示すアクティビティ図である。 情報処理システムの各構成要素の機能構成の一例を示す図である。 概要情報選択部の処理の一例を示すアクティビティ図である。 情報処理システムの各構成要素の機能構成の一例を示す図である。 情報処理システムの各構成要素の機能構成の一例を示す図である。 概要情報選択部の処理の一例を示すアクティビティ図である。 選択ミス検出部の処理の一例を示すアクティビティ図である。 概要情報選択部の処理の一例を示すアクティビティ図である。 選択ミス検出部の処理の一例の概要を説明する図である。
以下に、本発明の好ましい実施の形態を、図面に基づいて詳細に説明する。
<実施形態1>
図1は、本実施形態の情報処理システム1のシステム構成の一例を示す図である。
情報処理システム1は、概要情報表示装置2と詳細情報表示装置3とを含む。概要情報表示装置2と詳細情報表示装置3とは、通信可能に接続されている。本実施形態では、概要情報表示装置2と詳細情報表示装置3とは、無線で通信可能に接続されているとするが、有線で接続されているとしてもよい。
概要情報表示装置2は、ユーザが視認している画像や現実風景に関する情報をユーザに提示する。概要情報表示装置2は、スマートグラス等のメガネ型の端末装置、ヘッドマウントディスプレイ(HMD、頭部装着型ディスプレイ)等の頭部装着型の端末装置、スマートフォン、タブレット装置等の端末装置で構成される。また、概要情報表示装置2は、パーソナルコンピュータ(PC)、サーバ装置等により構成されることとしてもよい。本実施形態では、概要情報表示装置2は、ユーザに対して、ユーザが視認している画像や現実風景内のオブジェクト(例えば、建物等)や事象(例えば、天気等)についての名称等のそのオブジェクトや事象についての概要を示す情報を提示する。名称等のように、そのオブジェクトや事象についての概要を示す情報を、概要情報とする。即ち、概要情報表示装置2は、ユーザに対して、概要情報を提示する。また、概要情報は、例えば、監視カメラにより撮影された画像から人物が検出された場合の検出結果を示す情報等であってもよい。概要情報は、監視カメラにより撮影された画像から人物が検出された場合の検出結果を示す情報である場合、例えば、検出枠、人物名、人物ID等となる。
詳細情報表示装置3は、概要情報表示装置2により提示された概要情報に関する詳細な情報をユーザに提示する。あるオブジェクトや事象に関する詳細を示す情報を、詳細情報とする。即ち、詳細情報表示装置3は、詳細情報をユーザに提示する。詳細情報表示装置3は、スマートフォン、タブレット装置等の端末装置で構成される。しかし、詳細情報表示装置3は、パーソナルコンピュータ(PC)、サーバ装置等により構成されることとしてもよい。また、詳細情報表示装置3は、例えば、カーエンタテイメントシステムにおける車載ディスプレイ、多機能テレビ等であってもよい。
本実施形態では、情報処理システム1は、概要情報表示装置2を介してユーザに提示された概要情報に関する詳細情報を、詳細情報表示装置3を介して、ユーザに提示する。概要情報表示装置2、詳細情報表示装置3は、情報処理装置の一例である。
図2は、情報処理システム1の各構成要素のハードウェア構成の一例を示す図である。
図2(a)は、概要情報表示装置2のハードウェア構成の一例を示す図である。概要情報表示装置2は、CPU121、主記憶装置122、補助記憶装置123、入力部124、表示部125、撮像部126、通信I/F127を含む。各要素は、システムバス128を介して、相互に接続されている。
CPU121は、概要情報表示装置2を制御する中央演算装置である。主記憶装置122は、CPU121のワークエリアや情報の一時的な記憶場所として機能するRAM等の記憶装置である。補助記憶装置123は、各種プログラム、各種設定情報、各種画像、各種提示情報の候補情報等を記憶するROM、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)等の記憶装置である。
入力部124は、ユーザからの入力を受付けるハードボタン、ダイヤルデバイス、タッチパネル、キーボード、マウス、タッチペン等の入力装置である。表示部125は、情報を表示するディスプレイ、透過型ディスプレイ等の表示装置である。撮像部126は、カメラ等の撮像装置である。通信I/F127は、詳細情報表示装置3等の外部の装置との通信に利用されるインターフェースである。
また、撮像部126は、遠隔地に設置されたカメラ、録画映像を配信する録画装置等でもよい。この場合、撮像部126は、通信I/F127を介して、概要情報表示装置2の各要素と接続されることとなる。
CPU121が、補助記憶装置123に記憶されるプログラムに基づき処理を実行することで、図3、6、8、11、13、16、21、23、26、29、33、35、36で後述する概要情報表示装置2の機能が実現される。また、CPU121が、補助記憶装置123に記憶されるプログラムに基づき処理を実行することで、図7、10、15、25、27、28、31、32、34、37、38、39で後述するアクティビティ図の処理等の概要情報表示装置2の処理が実現される。また、CPU121が、補助記憶装置123に記憶されるプログラムに基づき処理を実行することで、図30で後述するステートマシン図の処理も実現される。
図2(b)は、詳細情報表示装置3のハードウェア構成の一例を示す図である。詳細情報表示装置3は、CPU131、主記憶装置132、補助記憶装置133、入力部134、表示部135、撮像部136、通信I/F137を含む。各要素は、システムバス138を介して、相互に接続されている。
CPU131は、詳細情報表示装置3を制御する中央演算装置である。主記憶装置132は、CPU131のワークエリアや情報の一時的な記憶場所として機能するRAM等の記憶装置である。補助記憶装置133は、各種プログラム、各種設定情報、各種画像、各種提示情報の候補情報等を記憶するROM、HDD、SSD等の記憶装置である。
入力部134は、ユーザからの入力を受付けるハードボタン、ダイヤルデバイス、タッチパネル、キーボード、マウス、タッチペン等の入力装置である。表示部135は、情報を表示するタッチパネルの表示装置、ディスプレイ等の表示装置である。撮像部136は、カメラ等の撮像装置である。通信I/F137は、概要情報表示装置2、不図示のデータベース装置、インターネット上の情報処理装置等の外部の装置を通信先とした通信に利用されるインターフェースである。
CPU131が、補助記憶装置133に記憶されるプログラムに基づき処理を実行することで、図3、6、8、11、13、16、21、23、26、29、33、35、36で後述する詳細情報表示装置3の機能が実現される。また、CPU131が、補助記憶装置133に記憶されるプログラムに基づき処理を実行することで、図19、22、24で後述するアクティビティ図の処理等の詳細情報表示装置3の処理が実現される。
図3は、情報処理システム1の各構成要素の機能構成の一例を示す図である。
概要情報表示装置2は、概要情報表示制御部21、通信制御部A22、概要情報生成部23を含む。概要情報表示制御部21は、第1の表示制御手段の一例である。
概要情報表示制御部21は、概要情報生成部23により生成された概要情報を、表示部125に表示する。通信制御部A22は、詳細情報表示装置3等の外部の装置を通信先とした通信を行う。概要情報生成部23は、表示部125に表示される画像や現実風景等のユーザの視認対象に基づいて、ユーザに提示する概要情報を生成する。本実施形態では、表示部125に表示される画像やユーザが視認する現実風景は、撮像部126を介して撮像される。そこで、本実施形態の概要情報生成部23は、撮像部126を介して撮像された画像に基づいて、ユーザに提示する概要情報を生成する。
詳細情報表示装置3は、詳細情報表示制御部31、通信制御部B32、詳細情報検索部33を含む。詳細情報表示制御部31は、第2の表示制御手段の一例である。
詳細情報表示制御部31は、詳細情報検索部33により検索された詳細情報を、表示部135に表示する。通信制御部B32は、概要情報表示装置2等の外部の装置との通信を行う。詳細情報検索部33は、概要情報表示制御部21により表示部125に表示された概要情報に基づいて、ユーザに提示する詳細情報を検索する。
概要情報表示装置2と詳細情報表示装置3とは、通信制御部A22と通信制御部B32とにより、通信I/F127と通信I/F137とを介して、通信する。
概要情報生成部23は、概要情報表示装置2に含まれるとしたが、詳細情報表示装置3に含まれるとしてもよい。また、詳細情報検索部33は、詳細情報表示装置3に含まれるとしたが、概要情報表示装置2に含まれるとしてもよい。
図4は、情報処理システム1の処理の一例の概要を説明する図である。図4の例では、単一のユーザが、概要情報表示装置2と、詳細情報表示装置3と、を携帯しているものとする。
図4(a)の状況は、概要情報表示装置2がデジタルカメラ(以下では、デジタルカメラ2a)である場合の情報処理システム1の利用状況の一例である。図4(a)の例では、表示部125は、デジタルカメラ2aの表示画面である。また、詳細情報表示装置3は、スマートフォンであり、表示部135は、スマートフォンである詳細情報表示装置3の画面である。
図4(a)の例における情報処理システム1のユーザ体験の一例を説明する。
デジタルカメラ2aの撮像部126により撮像された画像は、表示部125に表示される。このとき、概要情報表示制御部21は、この画像内に写っているオブジェクトや事象に関連した概要情報を、その画像に重畳して、表示部125に表示する。
図5は、図4(a)の例における表示部125に概要情報が重畳表示されている様子の一例を示す図である。図5(a)の例では、表示部125に表示されている画像には、エッフェル塔が写っている。概要情報表示制御部21は、表示部125内の設定された位置に、概要情報である「エッフェル塔」というメッセージを、ノーティフィケーション211として、画像に重畳して、表示部125に表示する。
図5(b)の例では、概要情報表示制御部21は、画像内のエッフェル塔から、概要情報である吹き出し状の「エッフェル塔」といメッセージを、アノテーション212として、画像と重畳して表示する。
図5(a)、(b)の何れの場合でも、詳細情報表示制御部31は、表示部125に表示されている概要情報が示すオブジェクトである「エッフェル塔」の詳細情報を、スマートフォンである詳細情報表示装置の表示部135に表示する。本実施形態では、情報処理システム1は、概要情報表示装置2の表示部125に概要情報が、ノーティフィケーションとして表示されているか、アノテーションとして表示されているか、に関わらず、以下の処理を行う。即ち、情報処理システム1は、概要情報に関する詳細情報を詳細情報表示装置の表示部135に表示する。
図4(b)の例における情報処理システム1のユーザ体験の一例を説明する。
図4(b)の例では、概要情報表示装置2は、メガネ型端末装置(以下では、メガネ型端末装置2b)であるとする。本実施形態では、メガネ型端末装置2bは、シースルー型HMD(シースルー型頭部装着型ディスプレイ、以下では、HMD)であるとする。HMDは、装着者の視界の上に画像情報を重畳表示する。HMDは、視界と重畳表示する画像の合成方法によって光学シースルー型と、ビデオシースルー型に分類できる。概要情報表示装置2は、何れのタイプのHMDでもよい。
メガネ型端末装置2bを装着したユーザがエッフェル塔を視認できる場所まで来たとする。その際、概要情報表示制御部21は、図5のように表示部125に「エッフェル塔」というメッセージを、概要情報として、現実風景に重畳して表示する。そして、スマートフォンである詳細情報表示装置3の詳細情報表示制御部31は、表示部135に「エッフェル塔」に関する詳細情報を表示する。ユーザは、手元に持っているスマートフォンである詳細情報表示装置3の表示部135に表示されている「エッフェル塔」の詳細情報を視認できることとなる。
以上、本実施形態の情報処理システム1のユーザ体験の一例である。
以下では、図4、図5で説明したような機能を実現するための情報処理システム1の処理を説明する。
ユーザが携帯する概要情報表示装置2の撮像部126が、エッフェル塔を含む現実風景を撮像したとする。
概要情報生成部23は、撮像部126により撮像された画像に基づいて、ユーザに提示する概要情報を生成する。本実施形態では、概要情報生成部23は、撮像部126により撮像された画像から、異常検知や物体認識等の画像認識を行い、エッフェル塔を検出する。そして、概要情報生成部23は、検出したエッフェル塔の名称を示すメッセージを、ノーティフィケーション、アノテーション212等として生成する。また、概要情報生成部23は、例えば、GPS等を介して取得された概要情報表示装置2の位置情報と、方位センサ等を介して取得された概要情報生成部23の向きと、に基づいて、エッフェル塔が撮像されていることを検出してもよい。即ち、概要情報生成部23は、取得された概要情報表示装置2の位置情報から、取得された向きを向くとエッフェル塔が撮像部126の撮像範囲に入るか否かに基づいて、エッフェル塔が撮像されていることを検出してもよい。
概要情報生成部23は、概要情報として、図や文字列等のオブジェクト(例えば、「エッフェル塔」というテキストメッセージ、メッセージ画像等)を生成する。また、概要情報生成部23は、アノテーションとして概要情報を生成する場合、概要情報の表示位置(例えば、表示部125における中心位置と吹き出しの始点位置等)を決定する。概要情報生成部23は、例えば、撮像部126により撮像された画像から検出されたエッフェル塔の位置に吹き出しの始点位置がくるように、概要情報の表示位置を決定する。
また、概要情報生成部23は、例えば、撮像部126により撮像された画像から複数のオブジェクトや事象を検出し、検出したオブジェクトや事象それぞれについての概要情報を生成してもよい。即ち、概要情報生成部23は、複数の概要情報を生成してもよい。
概要情報表示制御部21は、概要情報生成部23により生成された概要情報を、表示部125に、ノーティフィケーションやアノテーション212等として、撮像部126により撮像された画像、又は現実風景と重畳して、表示する。
概要情報表示制御部21は、例えば、表示部125が、デジタルカメラの画面やビデオシースルー型HMDの画面であれば、画面に表示された画像に概要情報の画像を合成した合成画像を生成し、それを表示部125に表示する。また、概要情報表示制御部21は、概要情報表示制御部21が、光学シースルー型HMDの画面であれば、概要情報画像のみを表示デバイスに表示することにより、概要情報の画像を、光学的に現実風景に重畳して表示する。
このように、概要情報表示制御部21は、ユーザの視認する現実風景、撮像部126により撮像された画像等に対して重畳するように、概要情報を表示部125に表示する。
概要情報生成部23は、生成した概要情報を、通信制御部A22及び通信制御部B32を介して、詳細情報表示装置3の詳細情報検索部33に送信する。
このように、通信制御部A22と通信制御部B32とは、概要情報表示装置2と詳細情報表示装置3との間で情報の受け渡しを制御する。通信制御部A22と通信制御部B32とは、任意の通信方式、プロトコルで通信可能である。
詳細情報検索部33では、概要情報表示装置2から受信した概要情報に基づいて、受信した概要情報に関する詳細情報を検索する。例えば、補助記憶装置133が、各種概要情報の候補となる情報に関する詳細情報の一覧を予め記憶していることとする。その場合、詳細情報検索部33は、補助記憶装置133に記憶されている詳細情報の一覧の情報から、受信した概要情報に対応する詳細情報を検索する。
また、詳細情報検索部33は、例えば、各種概要情報の候補となる情報に関する詳細情報を記憶するKey-Value型のデータベースから、受信した概要情報に関する詳細情報を検索することとしてもよい。また、詳細情報検索部33は、インターネットを介して、検索用のWebサービス、アプリケーション等を用いることで、受信した概要情報に関する詳細情報を検索してもよい。
詳細情報検索部33は、検索した詳細情報を、詳細情報表示制御部31に送信する。そして、詳細情報表示制御部31は、受信した詳細情報を、表示部135に表示する。
以上、本実施形態では、概要情報表示装置2は、撮像部126により撮像された画像やユーザの視界の現実風景等のユーザの視認対象に基づいて、ユーザに提示する概要情報を生成し、生成した概要情報を、表示部125に表示することでユーザに提示した。そして、詳細情報表示装置3は、概要情報表示装置2に表示された概要情報に基づいて、その概要情報に関する詳細情報を決定し、決定した詳細情報を表示部135に表示することでユーザに提示した。
これにより、情報処理システム1は、概要情報と詳細情報とを別々の装置に表示することで、概要情報と詳細情報とを別々の画面で視認可能とすることで、概要情報、詳細情報の視認性を向上させることができる。また、情報処理システム1は、画像や現実風景からオブジェクトや事象を検出して、検出したオブジェクトや事象についての概要情報を生成するため、予め定められたオブジェクトや事象以外のオブジェクトや事象についての情報をユーザに提示できる。これにより、情報処理システム1は、ユーザの利便性を向上できる。
また、概要情報の表示と、詳細情報の閲覧や関連する操作と、を異なる装置で行うようにすることで、各々の目的に沿ったシステムを作りやすくなる。そのため、概要情報の視認と、詳細情報の閲覧や関連する操作と、が行いやすいシステムを作りやすい。
<実施形態2>
本実施形態では、情報処理システム1は、ユーザによる表示部135に表示されている詳細情報の注視動作を検知し、検知できた場合、表示部125への概要情報の表示を抑制する。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
図6は、本実施形態の情報処理システム1の各構成要素の機能構成の一例である。
図6の機能構成は、実施形態1と比べて、概要情報表示装置2が、詳細情報注視検知部24、表示情報制御部25を更に含む点で異なる。詳細情報注視検知部24は、第2の検知手段の一例である。
詳細情報注視検知部24は、ユーザが表示部135に表示された詳細情報を注視しているか否かを判定することで、ユーザによる詳細情報の注視動作を検知する検知処理を行う。詳細情報注視検知部24によりユーザによる詳細情報の注視が検知された場合、表示情報制御部25は、概要情報生成部23により生成された概要情報の概要情報表示制御部21への送信を全てブロックする。これにより、概要情報表示制御部21は、概要情報生成部23により生成された概要情報の表示部125への表示を禁止することとなる。
図7は、表示情報制御部25の処理の一例を示すアクティビティ図である。
S51において、表示情報制御部25は、概要情報生成部23から、概要情報生成部23により生成された概要情報を受信する。
S52において、表示情報制御部25は、詳細情報注視検知部24によりユーザによる詳細情報の注視が検知されたか否かを判定する。表示情報制御部25は、詳細情報注視検知部24から、ユーザによる詳細情報の注視が検知されたか否かを示す詳細情報注視中情報を受信する。そして、表示情報制御部25は、受信した詳細情報注視中情報に基づいて、詳細情報注視検知部24によりユーザによる詳細情報の注視が検知されたか否かを判定する。
表示情報制御部25は、詳細情報注視検知部24によりユーザによる詳細情報の注視が検知されたと判定した場合、S51で受信した概要情報を概要情報表示制御部21に送信することなく、図7の処理を終了する。これにより、表示情報制御部25は、S51で受信した概要情報について、表示部125への表示を禁止する。
また、表示情報制御部25は、詳細情報注視検知部24によりユーザによる詳細情報の注視が検知されていないと判定した場合、S53の処理に進む。
S53において、表示情報制御部25は、S51で受信した概要情報を、概要情報表示制御部21に送信する。そして、概要情報表示制御部21は、受信した概要情報を表示部125に、表示部125に表示されている画像や現実風景と重畳して表示する。
以上、図7の処理により、情報処理システム1は、ユーザが詳細情報を注視している場合には、概要情報の重畳表示を抑制することができる。これにより、情報処理システム1は、表示部135に表示された詳細情報の閲覧の妨害になりうる表示部125に表示された概要情報の表示を抑制することで、詳細情報の視認性を向上させることができるという効果を奏する。特に、概要情報表示装置2がHMDである場合、上記の効果が大きい。
詳細情報注視検知部24は、ユーザが詳細情報表示制御部31に表示された詳細情報を注視しているか否かを判定するが、その判定方法の一例を、図8を用いて説明する。
図8は、情報処理システム1の各構成要素の機能構成の一例を示す図である。図8の機能構成は、図6の機能構成と比べて、概要情報表示装置2が、姿勢検出部26を更に含む点で異なる。
姿勢検出部26は、概要情報表示装置2の姿勢を検出する。姿勢検出部26は、検出する姿勢情報を、例えば、ピッチング方向の傾斜角や、3軸の加速度等の形式で出力する。
姿勢検出部26は、例えば、概要情報表示装置2の傾斜センサや3軸加速度センサ等を用いて、傾斜角や3軸の加速度を検出する。
図8の例では、概要情報表示装置2がHMDであり、姿勢検出部26が傾斜センサを用いて姿勢情報を検知するとする。
図9は、概要情報表示装置2の姿勢の検出処理の一例を説明する図である。図9の状況は、HMDである概要情報表示装置2を横から見た状況を示す。図9の例では、概要情報表示装置2を装着したユーザは、図9における右方向を見ている。図9の概要情報表示装置2から出ている矢印は、ユーザの正視の向きを示す。
水平方向を0(deg)(0(rad))、鉛直方向真上向きを+90(deg)(+π/2(rad))、鉛直方向真下向きを-90(deg)(-π/2(rad))とする。そして、姿勢検出部26は、概要情報表示装置の姿勢情報を、ユーザの正視方向の鉛直方向における傾きを検出する。図9の例では、下向きであるので、αはマイナスの値となる。
ここで、姿勢検出部26により検出される角度αと、ユーザが詳細情報を注視しているか否かと、の関係を説明する。
ユーザが詳細情報表示装置3の詳細情報表示制御部31を注視している状況は、角度αが設定された角度θ(<0)よりも小さい場合であると仮定する。
α<θ (式1)
この場合の、詳細情報注視検知部24の処理の一例を、図10を用いて説明する。
図10は、詳細情報注視検知部24の処理の一例を示すアクティビティ図である。
S81において、詳細情報注視検知部24は、姿勢検出部26から、姿勢検出部26により検出された概要情報表示装置2の姿勢の情報(傾き角度α)を受信する。
S82において、詳細情報注視検知部24は、S81で受信した角度αが設定された角度θよりも小さいか否かを判定する。即ち、詳細情報注視検知部24は、S81で受信した角度αが式1を満たすか否かを判定する。詳細情報注視検知部24は、S81で受信した角度αが設定された角度θよりも小さいと判定した場合、S83の処理に進む。また、詳細情報注視検知部24は、S81で受信した角度αが設定された角度θ以上であると判定した場合、S84の処理に進む。
S83において、詳細情報注視検知部24は、ユーザが表示部135に表示された詳細情報を注視しているとして、ユーザによる詳細情報の注視動作を検知したとする。
S84において、詳細情報注視検知部24は、ユーザが表示部135に表示された詳細情報を注視していないとして、ユーザによる詳細情報の注視動作を検知していないとする。
S85において、詳細情報注視検知部24は、S83またはステップS84の処理の結果を、ユーザによる詳細情報の注視動作を検知したか否かを示す情報である詳細情報注視中情報として、表示情報制御部25に送信する。
以上、本実施形態では、姿勢検出部26が詳細情報を注視している状況を推定できる姿勢情報を検出し、その姿勢情報から、概要情報表示装置2のユーザが表示部135に表示されている詳細情報を注視しているか否かを判定することとした。
スマートフォン等を注視する場合、そのスマートフォン等のユーザの視線は、自然と下向きになる。そのため、以上の処理により、概要情報表示装置2のユーザがスマートフォン等である詳細情報表示装置3の表示部135に表示された詳細情報を注視した場合、情報処理システム1は、詳細情報の閲覧に邪魔となる概要情報の重畳表示を抑制することができる。
姿勢検出部26は、概要情報表示装置2の傾斜センサを用いて、概要情報表示装置2の姿勢を検出したが、概要情報表示装置2の3軸加速度センサ等の他のセンサ等を用いて、姿勢を検出してもよい。
<実施形態3>
実施形態2では、情報処理システム1は、概要情報表示装置2の姿勢を検出し、検出した姿勢に基づいて、ユーザによる詳細情報の注視動作を検知した。本実施形態では、情報処理システム1は、詳細情報表示装置3の姿勢を検出し、検出した姿勢に基づいて、ユーザによる詳細情報の注視動作を検知する。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
図11は、本実施形態の情報処理システムの各構成要素の機能構成の一例を示す図である。図8では、詳細情報注視検知部24、姿勢検出部26は、概要情報表示装置2に含まれることとした。図11の例では、詳細情報注視検知部24、姿勢検出部26は、詳細情報表示装置3に含まれることとする。本実施形態の姿勢検出部26は、概要情報表示装置2の姿勢でなく、詳細情報表示装置3の姿勢を検出する。詳細情報注視検知部24は、概要情報表示装置2に含まれることとしてもよい。
本実施形態では、詳細情報表示装置3は、スマートフォンであるとする。姿勢検出部26は、詳細情報表示装置3の表示部135の法線と鉛直軸のなす角度を、詳細情報表示装置3の姿勢情報として検出する。検出される角度は、表示部135が鉛直方向真上向きに向いているときに0(deg)(0(rad))、表示部135がユーザに対して手前に傾いているときにプラスの値、ユーザに対して向こう側に傾いているときにマイナスの値となる。姿勢検出部26は、詳細情報表示装置3の傾斜センサや3軸加速度センサ等を介して、詳細情報表示装置3の姿勢情報を取得する。
姿勢検出部26により検出される角度と、概要情報表示装置2のユーザが詳細情報を注視しているか否かと、の関係を、図12を用いて説明する。
図12は、詳細情報表示装置の姿勢の検出処理の一例を説明する図である。図12の状況は、スマートフォンである詳細情報表示装置3を横から見た状況を示す。表示部135が鉛直方向の上方にある。図12の例では、ユーザは、画面の左側に存在し、詳細情報表示装置3は、表示部135がユーザに対して手前方向に傾くような姿勢となっている。また、図12の表示部135から出ている矢印は、表示部135の法線を示す。表示部135の法線と鉛直軸とのなす角度を、αとする。
ユーザが詳細情報表示装置3の詳細情報表示制御部31を注視している状況は、角度αが以下の式2を満たしている場合であると仮定する。
θ―γ<α<θ+γ (式2)
式2におけるθ(>0)及びγ(>0)は、予め設定された値である。θ及びγは、ユーザの閲覧姿勢からの生体負担が少なくなるよう、生体力学手法により求められる。また、θ及びγは、官能評価等で実験的に求めることもできる値であり、例えばθ=40[deg]、γ=15[deg]となる。
この場合の詳細情報注視検知部24の処理を、図10を用いて説明する。実施形態2と比べて、図10のS82の処理が異なる。
S82において、詳細情報注視検知部24は、S81で受信した角度αが式2を満たすか否かを判定する。詳細情報注視検知部24は、S81で受信した角度αが式2を満たすと判定した場合、S83の処理に進む。また、詳細情報注視検知部24は、S81で受信した角度αが式2を満たさないと判定した場合、S84の処理に進む。
以上、本実施形態では、姿勢検出部26が、ユーザが詳細情報を注視している場合の詳細情報表示装置3の姿勢情報を検出し、検出した姿勢情報から、ユーザが詳細情報を注視しているか否かを判定した。
ユーザがスマートフォン等を注視する場合、スマートフォン等の画面は自然とユーザの側に傾く。そのため、以上の処理により、情報処理システムは、ユーザによるスマートフォンである詳細情報表示装置3の注視により、詳細情報の閲覧に邪魔となる概要情報の表示を抑制することができる。これにより、情報処理システムは、詳細情報の視認性を向上させることができる。
本実施形態では、スマートフォンを注視している状況を、式2を満たす状況であると仮定した。しかし、例えば、スマートフォンを注視している状況を、詳細情報表示装置3の3軸加速度センサの軸毎の出力値が、設定された範囲内にある状況であると仮定してもよい。
<実施形態4>
実施形態2、3では、情報処理システム1は、概要情報表示装置2又は詳細情報表示装置3の姿勢情報を用いて、ユーザによる詳細情報の注視動作を検知した。本実施形態では、情報処理システム1は、概要情報表示装置2と詳細情報表示装置3の相対的な位置関係に基づいて、ユーザによる詳細情報の注視動作を検知する。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
図13は、本実施形態の情報処理システム1の各構成要素の機能構成の一例を示す図である。図13の例では、概要情報表示装置2は、図6の場合と比べて、更に、詳細情報表示部撮像制御部27、及び、詳細情報表示認識部28を含む。
本実施形態では、詳細情報表示制御部31は、表示部135に詳細情報を表示するが、併せて、標識312も表示部135に表示する。この様子を図14に示す。図14の例では、標識312は、「詳細情報」というメッセージと、2次元コードと、である。また、標識312は、詳細情報表示認識部28により認識可能なものであれば、任意のものでよく、例えば、文字列、図案、点滅する文字列や図案、動画等でもよく、必ずしもユーザが認識できるものでなくてもよい。標識312は、例えば、印刷媒体に用いられる電子透かしや、可視領域外の波長の標識等であってもよい。
撮像部126は、ユーザが表示部135に表示された詳細情報を注視している場合に、表示部135が撮像できるように配置される。本実施形態の撮像部126は、例えば、HMDである概要情報表示装置2が有するユーザの視界を撮像するカメラ等である。
詳細情報表示部撮像制御部27は、撮像部126を介して撮像した画像を、詳細情報表示認識部28に送信する。
詳細情報表示認識部28は、詳細情報表示部撮像制御部27により撮像された画像から、標識312を検出する。概要情報表示装置2と詳細情報表示装置3とが、撮像部126により表示部135が撮像できるような位置関係である場合、詳細情報表示部撮像制御部27により撮像された画像から、標識312が検出されることとなる。そして、詳細情報表示認識部28は、検出結果を、詳細情報表示認識情報として詳細情報注視検知部24に送信する。
図15は、本実施形態の詳細情報注視検知部24の処理の一例を示すアクティビティ図である。図15の処理は、図8と比べて、S81の処理の代わりにS86の処理があり、S82の処理の代わりにS87の処理がある点で異なる。
S86において、詳細情報注視検知部24は、詳細情報表示認識部28から、標識312の検出処理の結果を示す詳細情報表示認識情報を受信する。
S87において、詳細情報注視検知部24は、S86で受信した詳細情報表示認識情報に基づいて、詳細情報表示部撮像制御部27により撮像された画像中に標識312が存在するか否かを判定する。詳細情報注視検知部24は、詳細情報表示部撮像制御部27により撮像された画像中に標識312が存在すると判定した場合、S83の処理に進む。また、詳細情報注視検知部24は、詳細情報表示部撮像制御部27により撮像された画像中に標識312が存在しないと判定した場合、S84の処理に進む。
以上、本実施形態では、情報処理システムは、概要情報表示装置2の撮像部126により撮像された画像中に詳細情報を表示する表示部135が存在するか否かに基づいて、ユーザが詳細情報を注視しているか否かを判定した。
スマートフォン等を注視する場合、ユーザの視界の中にはスマートフォンの画面が写る。そのため、以上の処理により、情報処理システム1は、ユーザによるスマートフォンを注視するという自然な行動により、詳細情報の閲覧に邪魔となる概要情報の表示を抑制することができる。これにより、情報処理システム1は、詳細情報の視認性を向上させることができる。
本実施形態では、詳細情報表示認識部28は、標識312を認識することで、画像中に表示部135が存在するか否かを判定した。しかし、例えば詳細情報表示制御部31が標識312を表示しない場合でも、詳細情報表示認識部28は、表示部135そのものを認識することで、画像中に表示部135が存在するか否かを判定してもよい。
詳細情報表示認識部28は、例えば、詳細情報表示装置3の表示部135周辺のボタンやデザイン等を認識することで、表示部135を認識できる。
<実施形態5>
実施形態4では、情報処理システム1は、撮像部126により表示部135が撮像されたか否かに基づいて、ユーザによる詳細情報の注視動作を検知した。本実施形態では、情報処理システム1は、撮像部136により概要情報表示装置2が撮像されたか否かに基づいて、ユーザによる詳細情報の注視動作を検知する。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
図16は、情報処理システム1の各構成要素の機能構成の一例を示す図である。図16の例は、図13と比べて、詳細情報注視検知部24が、概要情報表示装置2ではなく、詳細情報表示装置3に含まれる点で異なる。また、概要情報表示装置2に、詳細情報表示部撮像制御部27、詳細情報表示認識部28が含まれない代わりに、詳細情報表示装置3に、概要情報表示装置撮像制御部34、概要情報表示装置認識部35が含まれる。概要情報表示装置認識部35は、概要情報表示装置2に含まれることとしてもよい。
概要情報表示装置撮像制御部34は、撮像部136を介して、概要情報表示装置2を撮像する。
撮像部136は、ユーザが表示部135に表示された詳細情報を注視している場合に、ユーザが装着する概要情報表示装置2を撮像できるように配置されている。本実施形態の撮像部136は、詳細情報表示装置3の表示部135側に設けられたカメラである。また、本実施形態では、ユーザは、HMDである概要情報表示装置2を装着している。この場合にユーザが「詳細情報を注視している」様子を図17に示す。
図17は、本実施形態の情報処理システム1の利用態様の一例を示す図である。図17において、ユーザが詳細情報を注視している場合、撮像部136を介して撮像される画像は、例えば、図18に示すような画像となる。そこで、本実施形態では、情報処理システム1は、撮像部136により撮像された画像から概要情報表示装置2を認識することで、ユーザが詳細情報を注視しているか否かを判定する。
概要情報表示装置撮像制御部34は、撮像部136を介して撮像した画像を、概要情報表示装置認識部35に送信する。概要情報表示装置認識部35は、送信された画像から、概要情報表示装置2を検出する。概要情報表示装置2と詳細情報表示装置3とが、撮像部136により概要情報表示装置2が撮像できるような位置関係である場合、概要情報表示装置撮像制御部34により撮像された画像から、概要情報表示装置2が検出されることとなる。概要情報表示装置認識部35は、行った検出処理の結果を、概要情報表示装置2が検出されたか否かを示す概要情報表示装置認識情報として詳細情報注視検知部24に送信する。
図19は、詳細情報注視検知部24の処理の一例を示すアクティビティ図である。図19の処理は、図15と比べて、S86の処理の代わりにS861の処理があり、S87の処理の代わりにS871がある点で異なる。
S861において、詳細情報注視検知部24は、概要情報表示装置認識部35から概要情報表示装置認識情報を受信する。
S871において、詳細情報注視検知部24は、S861で受信した概要情報表示装置認識情報に基づいて、撮像部136により撮像された画像中に概要情報表示装置2が存在するか否かを判定する。詳細情報注視検知部24は、撮像部136により撮像された画像中に概要情報表示装置2が存在すると判定した場合、S83の処理に進む。詳細情報注視検知部24は、撮像部136により撮像された画像中に概要情報表示装置2が存在しないと判定した場合、S84の処理に進む。
以上、本実施形態では、情報処理システム1は、詳細情報表示装置3の撮像部136により撮像された画像中に概要情報表示装置2が存在するか否かに基づいて、ユーザが詳細情報を注視しているか否かを判定した。
図17のような状況で、ユーザが詳細情報表示装置3を注視する場合、詳細情報表示装置3の撮像部136により撮像された画像には、概要情報表示装置2が写る。そのため、以上の処理により、情報処理システム1は、ユーザがスマートフォンを注視するという自然な行動により、詳細情報の閲覧に邪魔となる概要情報の重畳表示を抑制することができる。これにより、情報処理システムは、詳細情報の視認性を向上させることができる。
本実施形態では、情報処理システム1は、ユーザが詳細情報を注視しているか否かを判定するのに、概要情報表示装置撮像制御部34が撮像した画像中に概要情報表示装置2が写っているか否かの情報を用いた。しかし、情報処理システム1は、更に、詳細な情報を用いてもよい。例えば、情報処理システム1は、概要情報表示装置2上の複数の点(部位)の、画像中での座標を用いてもよい。情報処理システム1は、これらの各点がそれぞれ設定された座標範囲内にあるか否かに基づいて、概要情報表示装置2と詳細情報表示装置3との相対的な位置関係をより厳密にチェックすることができる。
<実施形態6>
実施形態5では、情報処理システム1は、撮像部136により概要情報表示装置2が撮影されたか否かに基づいて、ユーザによる詳細情報の注視動作を検知した。本実施形態では、情報処理システム1は、撮像部136によりユーザの顔が撮影されたか否かに基づいて、ユーザによる詳細情報の注視動作を検知する。即ち、情報処理システム1は、ユーザの顔と詳細情報表示装置3との相対的な位置関係に基づいて、ユーザによる詳細情報の注視動作を検知する。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
概要情報表示装置2がHMDでない場合等では、ユーザは、必ずしも概要情報表示装置2を装着しているわけではない。図4(a)に示すように、概要情報表示装置2がデジタルカメラである場合等もある。このような場合、撮像部136を介して撮像される画像は、例えば、図20のようになる。
そこで、本実施形態では、情報処理システム1は、ユーザが詳細情報を注視しているか否かを、撮像部136を介して撮像された画像内にユーザの顔4が存在するか否かに基づいて、判定する。
図21は、本実施形態の情報処理システム1の各構成要素の機能構成の一例を示す図である。図21の機能構成は、図16と比べて、詳細情報表示装置3が、概要情報表示装置撮像制御部34の代わりに顔撮像制御部341を含み、概要情報表示装置認識部35の代わりに顔認識部351を含む点で異なる。
顔撮像制御部341は、撮像部136を介して、画像を撮像し、撮像した画像を、顔認識部351に送信する。撮像部136は、ユーザが表示部135に表示された詳細情報を注視している場合に、ユーザの顔4を撮像できるように配置されている。撮像部136は、詳細情報表示装置3の表示部135側に設けられたカメラである。
顔認識部351は、顔撮像制御部341により撮像された画像からユーザの顔4を検出する。撮像部136により顔4が撮像できるような位置関係である場合、顔撮像制御部341により撮像された画像から、顔4が検出されることとなる。顔認識部351は、行った検出処理の結果を、顔4が検出されたか否かを示す顔認識情報として、詳細情報注視検知部24に送信する。
図22は、詳細情報注視検知部24の処理の一例を示すアクティビティ図である。図24の処理は、図19と比べて、S861の代わりにS862の処理があり、S871の処理の代わりにS872の処理がある点で異なる。
S862において、詳細情報注視検知部24は、顔認識部351から顔認識情報を受信する。
S872において、詳細情報注視検知部24は、S862で受信した顔認識情報に基づいて、顔撮像制御部341により撮像された画像中に顔4が存在するか否かを判定する。詳細情報注視検知部24は、顔撮像制御部341により撮像された画像中に顔4が存在すると判定した場合、S83の処理に進み、顔撮像制御部341により撮像された画像中に顔4が存在しないと判定した場合、S84の処理に進む。
以上、本実施形態では、情報処理システム1は、撮像部136によりユーザの顔が撮影されたか否かに基づいて、ユーザによる詳細情報の注視動作を検知することとした。
図17のような状況で、詳細情報表示装置3を注視する場合、詳細情報表示装置3の撮像部136を介して撮像された画像には、ユーザの顔4が写る。そのため、以上の処理により、情報処理システム1は、ユーザがスマートフォンを注視するという自然な行動により、詳細情報の閲覧に邪魔となる概要情報の重畳表示を抑制することができる。これにより、情報処理システムは、詳細情報の視認性を向上させることができる。
本実施形態では、顔認識部351は、ユーザの顔4を認識するとしたが、必ずしも顔4でなくてもよく、目、鼻、口等の顔4を構成する器官を認識してもよい。
本実施形態では、情報処理システム1は、ユーザが詳細情報を注視しているか否かを判定するのに、撮像部136を介して撮像された画像中に顔4が写っているか否かの情報を用いたが、更に詳細な情報を用いてもよい。情報処理システム1は、例えば、撮像部136により撮像された画像におけるユーザの顔4の大きさや向きといった情報を用いて、ユーザが詳細情報を注視しているか否かを判定してもよい。
情報処理システム1は、画像中の顔の大きさや向きの情報を直接的に推定してもよいが、例えば、顔4上の複数の点(部位)の、画像中での座標を用いて、推定してもよい。情報処理システム1は、各点がそれぞれ設定された座標範囲内にあるか否かに基づいて、顔4と詳細情報表示装置3との相対位置姿勢をより厳密にチェックすることができる。
情報処理システム1は、更に、画像中に写っている顔4から推定されるユーザの視線方向を用いて、ユーザが詳細情報を注視しているか否かを判定してもよい。情報処理システム1は、例えば、顔4上の「目」という器官を認識した上で、「目」中の虹彩や瞳孔の位置からユーザの視線方向を推定することができる。情報処理システム1は、推定した視線方向が表示部135に向かっていると判定した場合、ユーザが詳細情報を注視していると判定できる。
<実施形態7>
本実施形態では、情報処理システム1は、詳細情報表示装置3に対して行われる操作を検出することで、ユーザによる詳細情報の注視動作を検知する。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
ユーザが表示部135を介して見る詳細情報は、詳細情報表示制御部31が出力している詳細情報である。しかし、表示部135の物理的な大きさは限られているため、詳細情報の一部しか表示できないことがある。このような場合、ユーザは、入力部134を介した表示部135に表示された詳細情報への操作を行うことで、表示部135に表示される画面をスクロールさせることがある。また、複数の詳細情報が表示部135に表示されている場合、ユーザが、画面を見ながら表示させる詳細情報を一つ選択したいと望む場合がある。
入力部134へのユーザの操作に即座に反応を返すような操作方式を、対話操作(対話型操作、双方向操作、双方向型操作、インタラクティブ操作)とする。
情報処理システム1が表示部135に表示された詳細情報を介して、ユーザへの対話操作を行っている場合、ユーザが詳細情報を注視している、と仮定することができる。そこで、本実施形態では、情報処理システム1は、表示部135に表示された詳細情報への操作を検知して、検知できた場合、ユーザが詳細情報を注視していると判定する。
図23は、本実施形態の情報処理システム1の各構成要素の機能構成の一例を示す図である。図23の機能構成は、図6と比べて、詳細情報表示装置3が詳細情報操作制御部36を更に含む点で異なる。
詳細情報操作制御部36は、入力部134を介して、ユーザへの対話操作を行う。
詳細情報操作制御部36は、ユーザによる入力部134を介した操作(例えば、ハードボタンの押下、タッチパネルへのジェスチャ操作等)のユーザによる操作を検知する。
詳細情報操作制御部36は、入力部134を介して、受け付けた操作に応じた操作情報を、詳細情報検索部33に送信する。操作情報とは、何らかの操作が行われた際に、続く処理が開始されるトリガとなる情報である。操作情報は、操作に応じて、呼び出されるものである。詳細情報検索部33は、送信された操作情報に基づいて、ユーザが操作中か否かを推定する。以下では、この処理の流れを、図24を用いて説明する。
図24は、操作中推定処理の一例を示すアクティビティ図である。本実施形態では、図24の処理は、詳細情報検索部33により実行されるとするが、詳細情報操作制御部36等の他の要素により実行されるとしてもよい。詳細情報検索部33は、図24の処理を実行後、処理の結果を詳細情報注視検知部24に送信する。
図24(a)の処理は、「操作中」であると推定する処理の一例である。図24(b)の処理は、「操作中ではない」と推定する処理の一例である。
本実施形態では、ユーザが操作を行った際に、詳細情報検索部33は、図24(a)の処理を行い、ユーザによる「操作中」であることを、詳細情報注視検知部24に通知する。そして、ユーザによる一連の操作が完了した際に、詳細情報検索部33は、図24(b)の処理を行い、「非操作中」であることを、詳細情報注視検知部24に通知することとなる。
図24(a)の処理について説明する。
S221において、詳細情報検索部33は、詳細情報操作制御部36から、詳細情報操作制御部36により受付けられた入力部134を介したユーザによる操作に応じた操作情報を受付ける。詳細情報検索部33は、S221では、予め設定された操作のみに対応する操作情報を受信することとしてもよい。詳細情報検索部33は、例えば、タッチパネルである入力部134への「タップ」操作、「スワイプ」操作に応じた操作情報のみを受信することとして、「スワイプ」操作や「フリック」操作等の他の操作に応じた操作情報を受信しないこととしてもよい。
S222において、詳細情報検索部33は、現在の状況を、ユーザによる入力部134を介した操作中であると推定する。
S223において、詳細情報検索部33は、「操作中」である旨を示す情報を、操作中か否かを示す操作中情報として詳細情報注視検知部24に送信する。
図24(b)の処理について説明する。
ユーザが操作中である期間とは、個々の操作を行った瞬間のみではなく、一連の操作を行っている間や、操作の結果を確認する時間も含むものと仮定する。そこで、本実施形態では、一連の操作を行った後、設定された時間T経過するまでに続く操作が行われなかった場合、操作中の期間が終了するものとする。即ち、ある操作が行われた後、時間Tの経過前に次の操作が行われた場合は、操作中の期間が継続していることとなる。
S224において、詳細情報検索部33は、S221と同様に詳細情報操作制御部36から、操作情報を受信する。
S225において、詳細情報検索部33は、S224で最後に受信された操作情報を受信した時刻から設定された時間Tの経過を待機する。詳細情報検索部33は、S224で最後に受信された操作情報を受信した時刻から設定された時間Tが経過するまで、新たな操作情報を受信することなく、待機した場合、S226の処理に進む。また、詳細情報検索部33は、待機中に、新たな操作情報を、詳細情報操作制御部36から受信した場合、受信した時刻から時間Tの待機を開始する。即ち、詳細情報検索部33は、S225の処理を最初からやり直すことになる。
S226において、詳細情報検索部33は、現在の状況がユーザによる操作が行われていない「非操作中」であると推定する。
S227において、詳細情報検索部33は、現在の状況が「非操作中」であることを示す情報を、操作中情報として詳細情報注視検知部24に送信する。
以上、図24(a)の処理により、詳細情報検索部33は、ユーザによる表示部135、入力部134を介した操作が行われるたびに「操作中」である旨の操作中情報を、詳細情報注視検知部24に送信する。また、図24(b)の処理により、詳細情報検索部33は、一連の操作が終了した際には、「非操作中」である旨の操作中情報を、詳細情報注視検知部24に送信する。
図25は、本実施形態の詳細情報注視検知部24の処理の一例を示すアクティビティ図である。図25の処理は、図10と比べて、S81の処理の代わりにS88の処理があり、S82の処理の代わりにS89の処理がある点で異なる。
S88において、詳細情報注視検知部24は、詳細情報検索部33から操作中情報を受信する。
S89において、詳細情報注視検知部24は、S88で受信した操作中情報に基づいて、ユーザが操作中か否かを判定する。詳細情報注視検知部24は、ユーザが操作中であると判定した場合、S83の処理に進み、ユーザが操作中でないと判定した場合、S84の処理に進む。
以上、本実施形態では、情報処理システム1は、詳細情報表示装置3に対して行われるユーザによる操作を検出することで、ユーザによる詳細情報の注視動作を検知することとした。
以上の処理により、情報処理システム1は、ユーザによる詳細情報表示装置の操作という自然な行動により、詳細情報の閲覧や関連する操作を行う際に邪魔となる概要情報の表示部125への表示を抑制できる。これにより、情報処理システム1は、詳細情報の視認性を向上させることができる。
<実施形態8>
実施形態1~7では、概要情報生成部23は、生成した概要情報をそのまま、詳細情報検索部33に送信することとした。詳細情報検索部33は、複数の概要情報が送信された場合、詳細情報を検索する対象となる概要情報を選択する必要が生じる。そこで、本実施形態では、情報処理システム1は、複数の概要情報から、詳細情報を検索する対象となる概要情報を選択する。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
本実施形態では、情報処理システム1は、選択した概要情報が、ユーザの所望するものではなかった場合、概要情報を再度選択し直すこととする。
図26は、本実施形態の情報処理システム1の各構成要素の機能構成の一例を示す図である。図26の機能構成は、図1と比べて、概要情報表示装置2が概要情報選択部291、選択ミス検出部292、概要情報フィルタ部293、詳細情報注視検知部24を含む点で異なる。選択ミス検出部292は、第1の検知手段の一例である。
図26を用いて、本実施形態の処理を説明する。
概要情報生成部23は、生成した概要情報は、概要情報フィルタ部293を経由して概要情報表示制御部21に送信する。そして、概要情報表示制御部21は、表示部125に送信された概要情報を表示する。概要情報フィルタ部293の処理については、図27で後述する。
概要情報フィルタ部293は、概要情報を、概要情報表示制御部21だけでなく、概要情報選択部291にも送信する。概要情報選択部291は、概要情報が複数送信された場合、一つを選択する。概要情報選択部291により選択された概要情報は、選択情報の一例である。
概要情報選択部291は、任意の方法で、概要情報を選択してよい。概要情報選択部291は、例えば、メガネ型端末装置である概要情報表示装置2のつるの部分に仕込まれた入力部124であるタッチパッドを介したユーザによる指定や、入力部124であるマイクを介したユーザによる発生に対する音声認識に基づいて、選択できる。本実施形態では、概要情報表示装置2の入力部124を介したユーザによる指定に基づいて、表示部125に表示された概要情報から1つの概要情報を選択する。
概要情報選択部291は、選択した概要情報を、詳細情報検索部33に送信する。そして、詳細情報検索部33は、送信された概要情報に関する詳細情報を検索する。詳細情報表示制御部31は、詳細情報検索部33により検索された詳細情報を、表示部135に表示する。
概要情報選択部291は、選択した概要情報を、選択ミス検出部292にも送信する。選択ミス検出部292は、送信された概要情報が、ユーザが所望したものではないことを検出する。選択ミス検出部292は、送信された概要情報が、ユーザが所望したものではないことを検出できた場合、概要情報の選択ミスがあったことを示す選択ミス情報として、概要情報選択部291から送信された概要情報を概要情報フィルタ部293に送信する。選択ミス検出部292の処理については、図28で後述する。
図27は、概要情報フィルタ部293の処理の一例を示すアクティビティ図である。図27(a)の処理は、選択ミスとして検出された概要情報を表示部125に表示させないようにする処理である。図27(b)の処理は、選択ミスとして検出された概要情報を表示部125に表示させ、選択できないようにする処理である。
まず、図27(a)の処理を説明する。
S251において、概要情報フィルタ部293は、概要情報生成部23から概要情報を受信する。
S252において、概要情報フィルタ部293は、選択ミス検出部292から送られた選択ミス情報を受信する。
S253において、概要情報フィルタ部293は、S251で受信した概要情報を主記憶装置122、補助記憶装置123等に記憶する。
254において、概要情報フィルタ部293は、S252で受信した選択ミス情報を主記憶装置122、補助記憶装置123等に記憶する。
S251~S254の処理により、概要情報フィルタ部293は、最新の概要情報、及び選択ミス情報を、主記憶装置122、補助記憶装置123等から取得できるようになる。
S255において、概要情報フィルタ部293は、表示部125に表示される概要情報を決定する。以下のS2551で、S255の処理の詳細を説明する。
S2551において、概要情報フィルタ部293は、S253で記憶された概要情報のそれぞれについて、S254で記憶された選択ミス情報と一致するか否かを判定する。概要情報フィルタ部293は、S253で記憶された概要情報に含まれる概要情報が、S254で記憶された選択ミス情報と一致すると判定した場合、その概要情報を表示部125に表示されない概要情報として決定する。そして、概要情報フィルタ部293は、S253で記憶された概要情報に含まれる概要情報が、S254で記憶された選択ミス情報と一致しないと判定した場合、その概要情報を表示部125に表示される概要情報として決定する。概要情報フィルタ部293は、例えば、表示部125に表示される概要情報として決定した概要情報を、リストとして、主記憶装置122、補助記憶装置123等に記憶する。概要情報フィルタ部293は、S253で記憶された概要情報全てについて、以上の処理を行い、完了したら、S256の処理に進む。
S256において、概要情報フィルタ部293は、S255(S2551)で決定された概要情報を、主記憶装置122、補助記憶装置123等に記憶されているリストから取得する。
S257において、概要情報フィルタ部293は、S256で取得した概要情報を、概要情報表示制御部21に送信する。
図27(a)では、概要情報フィルタ部293は、S254で最新の選択ミス情報を一つ記憶することとした。しかし、概要情報フィルタ部293は、S254で最新の選択ミス情報を複数記憶することとしてもよい。概要情報フィルタ部293は、例えば、既に記憶されている選択ミス情報を保持するリストに対して、新たな選択ミス情報を追加していってもよい。これにより、一度選択ミスとして検出された概要情報は、新たな概要情報が選択ミスとして検出された場合でも、概要情報表示制御部21により表示部125に表示されない。
また、概要情報フィルタ部293は、最新の設定された個数の選択ミス情報のみを、主記憶装置122、補助記憶装置123等に記憶し続けてもよい。また、概要情報フィルタ部293は、選択ミスとして検出されてから設定された時間経過した選択ミス情報を、記憶しないようにしてもよい。
続いて、図27(b)の処理の説明をする。図27(b)の処理は、図27(a)と比べて、S255の処理の内部にS2552の処理がある点で異なる。
S2551において、概要情報フィルタ部293は、図27(a)の場合と同様に、S253で記憶された概要情報のそれぞれについて、S254で記憶された選択ミス情報と一致するか否かを判定する。概要情報フィルタ部293は、一致しないと判定した場合、図27(a)の場合と同様に、その概要情報を表示部125に表示される概要情報として決定する。概要情報フィルタ部293は、一致すると判定した場合、S2552の処理に進む。
S2552において、概要情報フィルタ部293は、S254で記憶された選択ミス情報と一致すると判定した概要情報に対して、概要情報選択部291による選択を許可しないことを示す選択不可情報を付加する。概要情報フィルタ部293は、例えば、主記憶装置122、補助記憶装置123等に、選択ミス情報と一致すると判定した概要情報と対応付けて、選択不可情報を記憶する。
概要情報選択部291は、選択不可情報が付加された概要情報を選択しないこととなる。
これにより、表示部125に選択ミスを検出された概要情報が表示されるが、再度、選択されることはなくなる。概要情報表示制御部21は、選択不可情報が付加された概要情報を、グレーアウト表示で、表示部125に表示させてもよい。これにより、ユーザは、その概要情報を選択できないことを把握できる。
図28は、選択ミス検出部292の処理の一例を示すアクティビティ図である。
所望しない概要情報に関する詳細情報が表示部135に表示された場合、ユーザは、まず、表示された詳細情報を注視し、概要情報の選択ミスが生じたと判断し、詳細情報から目を離すと仮定できる。
そこで、本実施形態では、情報処理システム1は、ユーザによる詳細情報の注視動作を検知し、その後、ユーザによる詳細情報の非注視を検知した場合、概要情報選択部291による概要情報の選択ミスが発生したとする。
図28(a)の処理は、概要情報選択部291により新たに概要情報が選択された際の選択ミス検出部292の処理の一例を示す。
S261において、選択ミス検出部292は、概要情報選択部291から、概要情報選択部291により選択された概要情報を受信し、主記憶装置122、補助記憶装置123等に記憶する。
S262において、選択ミス検出部292は、既注視フラグをFalseとする。既注視フラグとは、ユーザが詳細情報を注視したか否かを示す情報であり、主記憶装置122、補助記憶装置123等に記憶される。選択ミス検出部292は、選択された概要情報に対応する詳細情報が一度もユーザにより注視されていない間は、既注視フラグの値を、Falseとする。そして、選択ミス検出部292は、選択された概要情報に対応する詳細情報が一度でもユーザにより注視された場合は、既注視フラグの値を、Trueとする。S262では、概要情報が新たに選択されたので、選択ミス検出部292は、既注視フラグをFalseとする。
次に、図28(b)を用いて、詳細情報注視検知部24から詳細情報注視中情報を受信した場合の選択ミス検出部292の処理の一例を説明する。
S264において、選択ミス検出部292は、詳細情報注視検知部24から詳細情報注視中情報を受信する。
S265において、選択ミス検出部292は、S264で受信した詳細情報注視中情報に基づいて、ユーザが表示部135に表示されている詳細情報を注視しているか否かを判定する。選択ミス検出部292は、ユーザが表示部135に表示されている詳細情報を注視していると判定した場合、S266の処理に進む。また、選択ミス検出部292は、ユーザが表示部135に表示されている詳細情報を注視していないと判定した場合、S267の処理に進む。
S266において、選択ミス検出部292は、既注視フラグをTrueにする。S266の処理により、ユーザが詳細情報を一度でも注視した場合に、既注視フラグは、Trueとなる。
S267において、選択ミス検出部292は、既注視フラグがTrueかFalseかを判定する。選択ミス検出部292は、既注視フラグがFalseであると判定した場合、ユーザがまだ一度も詳細情報を注視していないとして、図28(b)の処理を終了する。選択ミス検出部292は、既注視フラグがTrueであると判定した場合、S268の処理に進む。
S268において、選択ミス検出部292は、ユーザが詳細情報を注視した後に目を離したとして、概要情報選択部291による概要情報の選択ミスを検出する。
S269において、選択ミス検出部292は、S268で選択ミスを検出した概要情報を、選択ミス情報として、概要情報フィルタ部293に送信する。
以上、本実施形態の処理により、情報処理システム1は、概要情報の選択ミスが発生した場合、ユーザが詳細情報を注視して、目を離すという自然な操作を行うことで、再度同じ概要情報を選択しないようにすることができる。これにより、情報処理システム1は、概要情報の選択ミスが発生した場合に、再度同じ概要情報を選択することを防止できる。
本実施形態では、選択ミス検出部292は、詳細情報注視検知部24からの詳細情報注視中情報に基づいて、概要情報の選択がミスか否かを判定したが、他の情報に基づいて判定してもよい。選択ミス検出部292は、例えば、顔認識部351を備えた表示システムであって、顔認識部351がユーザの視線推定を行う場合、「選択ミス」である場合の視線の動きを予め機械学習し、その学習結果を元に選択ミスか否かを判断してもよい。
本実施形態では、選択ミス検出部292は、ユーザが詳細情報を注視した後に、詳細情報から目を離した場合に、概要情報の選択ミスが発生したと判定した。しかし、ユーザは、所望の概要情報の詳細情報が表示部135に表示された場合でも、詳細情報を十分に閲覧した後で、詳細情報から目を離すと仮定できる。そこで、選択ミス検出部292は、ユーザが詳細情報を注視した後に、設定された期間内(例えば、3秒等)に詳細情報から目を離した場合に、概要情報の選択ミスが発生したと判定してもよい。
<実施形態9>
実施形態8では、情報処理システム1は、概要情報の選択ミスを検出した際に、ユーザによる入力部124を介した指定に基づいて、再度概要情報の選択を行った。本実施形態では、情報処理システム1は、ユーザによる操作を介さずに、再度の概要情報の選択を行う。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
ユーザが概要情報の選択ミスを行う場合として、次のようなものが挙げられる。
(1)表示部125上で所望の概要情報と物理的に近い場所に表示された概要情報を、誤って選択してしまった場合。
(2)似通ったカテゴリの概要情報を誤って選択してしまった場合。
(3)似通ったカテゴリの詳細情報をパラパラと見ていくことで、目的の詳細情報に辿り着きたい場合。
このような場合について、本実施形態の情報処理システム1の処理を説明する。
概要情報の選択ミスとユーザが判断する直前のユーザの行動は、「詳細情報の注視」である。ユーザは、表示部135に表示される詳細情報を見た上で、概要情報の選択ミスと判断すると仮定できる。
また、本実施形態の情報処理システム1は、概要情報の選択ミスを検出して、別の概要情報を、ユーザの操作に依らずに選択する。選択ミスの概要情報に関する詳細情報を注視したユーザは、一度目を離した後、再度、新たな詳細情報を期待して、表示部135を注視すると仮定する。
そこで、本実施形態の情報処理システム1は、ユーザによる詳細情報の「注視→非注視→注視」を設定された期間内に検知した場合、概要情報選択部291により選択された概要情報を選択ミスとして決定する。
図29は、本実施形態の情報処理システム1の各構成要素の機能構成の一例を示す図である。図29の機能構成は、図26と比べて、概要情報表示装置2が概要情報フィルタ部293を含まない点で異なる。また、本実施形態の概要情報選択部291、選択ミス検出部292は、実施形態8の場合と比べて処理が異なる。
以下では、本実施形態の処理のうち、実施形態8と異なる点について説明する。
図30は、選択ミス検出部292の処理の一例を示すステートマシン図である。
S281において、選択ミス検出部292は、ユーザによる詳細情報の注視が行われていないことを示す非注視中状態となる。そして、選択ミス検出部292は、概要情報選択部291から、概要情報選択部291により選択された概要情報を受信すると、受信した概要情報を主記憶装置122、補助記憶装置123等に記憶する。そして、選択ミス検出部292は、詳細情報注視検知部24から詳細情報注視中情報を受信し、受信した詳細情報注視中情報が、ユーザが詳細情報を注視中であることを示す場合、S282の処理に進む。選択ミス検出部292は、詳細情報注視検知部24から詳細情報注視中情報を受信し、受信した詳細情報注視中情報が、ユーザが詳細情報を注視中でないことを示す場合、非注視中状態のままとなる。
S282において、選択ミス検出部292は、ユーザによる詳細情報の注視が行われていることを示す注視中状態となる。そして、選択ミス検出部292は、詳細情報注視検知部24から詳細情報注視中情報を受信し、受信した詳細情報注視中情報が、ユーザが詳細情報を注視中でないことを示す場合、S283の処理に進む。選択ミス検出部292は、受信した詳細情報注視中情報が、ユーザが詳細情報を注視中であることを示す場合、注視中状態のままとなる。また、選択ミス検出部292は、概要情報選択部291から概要情報を受信した場合、受信した概要情報を主記憶装置122、補助記憶装置123等に記憶し、注視中状態のままとなる。
S283において、選択ミス検出部292は、ユーザによる詳細情報の注視が行われておらず、経過時間を計測中である非注視中(時間計測)状態とする。選択ミス検出部292は、非注視中(時間計測)状態である間、概要情報表示装置2のタイマ等を介して、経過する時間を計測する。選択ミス検出部292は、ユーザによる詳細情報の「注視→非注視→注視」の遷移が設定された期間内に行われるか否かを判定するために、時間を計測する。選択ミス検出部292は、非注視中(時間計測)状態に遷移した際の時刻を主記憶装置122、補助記憶装置123等に記憶する。そして、選択ミス検出部292は、非注視中(時間計測)状態から他の状態に遷移する際の時刻と、記憶した時刻との差分から、ユーザが詳細情報を注視していなかった時間である被注視時間を取得する。
選択ミス検出部292は、非注視中(時間計測)状態で、詳細情報注視検知部24から詳細情報注視中情報を受信し、受信した詳細情報注視中情報が、ユーザが詳細情報を注視中であることを示す場合、以下の処理を行う。即ち、選択ミス検出部292は、非注視時間を取得し、取得した非注視時間が設定された閾値よりも小さいか否かを判定する。
選択ミス検出部292は、取得した非注視時間が設定された閾値よりも小さい場合、ユーザによる詳細情報の「注視→非注視→注視」の遷移が設定された時間内に起きたということなので、概要情報選択部291により選択された概要情報を、選択ミスと判定する。そして、選択ミス検出部292は、選択ミスと判定した概要情報を、選択ミス情報として概要情報選択部291に送信する。選択ミス検出部292は、取得した非注視時間が設定された閾値よりも小さい場合でも、設定された閾値以上である場合でも、S282に進み、再度、注視中状態となる。
また、選択ミス検出部292は、S283で非注視中(時間計測)状態となった後で、詳細情報注視検知部24から詳細情報注視中情報を受信し、受信した詳細情報注視中情報が非注視中であることを示す場合は、非注視中(時間計測)状態のままとなる。
また、選択ミス検出部292は、S283で非注視中(時間計測)状態となった後で、概要情報選択部291から概要情報を受信した場合、受信した概要情報を主記憶装置122、補助記憶装置123等に記憶し、S281の処理に進み、非注視中状態となる。
図31は、本実施形態の概要情報選択部291の処理の一例をアクティビティ図である。概要情報選択部291は、図31の処理の他にも、実施形態8と同様に、ユーザによる入力部124を介した指定に基づく概要情報の選択を行うこととしてもよい。
まず、概要情報選択部291は、概要情報生成部23にから概要情報を受信した場合、受信した概要情報を、主記憶装置122、補助記憶装置123等に記憶する。
S291において、概要情報選択部291は、選択ミス検出部292から、選択ミス情報を受信する。
S292において、概要情報選択部291は、主記憶装置122、補助記憶装置123等に記憶した概要情報の中から、一つを選択する。
S293において、概要情報選択部291は、S292で選択した概要情報を選択ミス検出部292と詳細情報検索部33とに送信する。
図32は、概要情報選択部291の処理の一例を示すアクティビティ図である。図32を用いて、S292の処理の詳細を説明する。
概要情報選択部291は、例えば、「最小距離」という変数を、主記憶装置122上に、用意する。「最小距離」は、選択ミス検出部292から概要情報選択部291へ送信された選択ミス情報が示す概要情報と、概要情報選択部291による選択候補である概要情報それぞれと、の距離のうち、最小のものを格納する変数である。ここで、距離とは、選択ミス情報が示す概要情報と、概要情報それぞれと、がどの程度乖離しているかを示す指標である。ここでの距離は、ユークリッド距離等の物理的な距離における乖離を示すこととしてもよいし、意味合いの乖離の程度を示すこととしてもよい。
S301において、概要情報選択部291は、「最小距離」の値を∞(無限大)にする。
S302において、概要情報選択部291は、概要情報の各々について選択ミス情報との距離を算出し、距離が最小のものを選択候補として決定する。以下のS3021~S3024では、S302の処理の詳細を説明する。
S3021において、概要情報選択部291は、主記憶装置122、補助記憶装置123等に記憶した概要情報のうち、1つを選択し、選択した概要情報と選択ミス情報が示す概要情報との距離を取得する。上記(1)の場合、概要情報選択部291は、例えば、アノテーションである概要情報同士の表示部125の表示位置間のユークリッド距離を取得する。
上記(2)、(3)では、概要情報選択部291は、別途定義されたカテゴリ間の距離を取得する。本実施形態では、概要情報生成部23が生成する概要情報には、カテゴリ情報が付与されることになる。ここで、カテゴリ情報とは、概要情報がどのカテゴリに属するかを示す情報であり、「橋」、「建物」、「飲食店」、「駅」といったものがある。概要情報には、複数のカテゴリ情報が付与されることとしてもよい。その場合、概要情報選択部291は、任意のカテゴリ情報を用いて距離を取得できる。概要情報選択部291は、例えば、全てのカテゴリの組み合わせで距離を計算し、最も小さいものを、最終結果としてもよい。
S3022において、概要情報選択部291は、S3021で取得した距離が、「最小距離」よりも小さいか否かを判定する。概要情報選択部291は、S3021で取得した距離が、「最小距離」よりも小さいと判定した場合、S3023の処理に進む。また、概要情報選択部291は、S3021で取得した距離が、「最小距離」以上であると判定した場合、S3021で、主記憶装置122、補助記憶装置123等に記憶した概要情報全てを選択済みであるなら、S303の処理に進む。また、概要情報選択部291は、S3021で取得した距離が、「最小距離」以上であると判定した場合、S3021で、主記憶装置122、補助記憶装置123等に記憶した概要情報全てを選択済みでないなら、S3021の処理に進む。
S3023において、概要情報選択部291は、「最小距離」の値を、S3021で取得した距離で更新する。
S3024において、概要情報選択部291は、S3021で選択した概要情報を、選択候補とする。
以上、S302の処理により、概要情報選択部291は、選択ミス情報が示す概要情報との距離が最小となる概要情報を選択候補とすることができる。
S303において、概要情報選択部291は、S302で決定された選択候補の概要情報を、S292の処理の結果として出力する。
図29の機能構成では、一度選択ミスと判断された概要情報も、再度の選択ミスの際には、概要情報選択部291によって選択されてしまう。そこで、実施形態8と同様に、概要情報表示装置2が概要情報フィルタ部293を備えることとしてもよい。これにより、情報処理システム1は、一度選択ミスと判断された概要情報が再選択されてしまうことを防止できる。
図33は、この場合の情報処理システム1の各構成要素の機能構成の一例を示す図である。概要情報フィルタ部293の処理は、実施形態8と同様である。概要情報フィルタ部293が図27(b)のような処理を行う場合の、S292の処理の詳細を、図32を用いて説明する。
図34は、概要情報選択部291の処理の一例を示すアクティビティ図である。図34は、図32と比べて、S3025の処理がある点で異なる。
S3025において、概要情報選択部291は、主記憶装置122、補助記憶装置123等に記憶した概要情報それぞれについて、選択不可情報が付与されているか否かに基づいて、選択不可にするか否かを決定する。概要情報選択部291は、S3021で、S3025で、選択不可にすることを決定された概要情報を除く概要情報から1つを選択することになる。
以上、本実施形態の処理により、情報処理システム1は、概要情報の選択ミスを犯した場合、ユーザが詳細情報を「注視→非注視→注視」するという自然な操作で、新たな概要情報を自動的に選択することができる。これにより、情報処理システム1は、概要情報の選択をより簡易にできる。
本実施形態では、選択ミス検出部292は、詳細情報注視検知部24からの詳細情報注視中情報に基づいて、概要情報の選択がミスか否かを判定したが、他の情報を元に判定してもよい。
選択ミス検出部292は、例えば、情報処理システム1が顔認識部351を含む場合、顔認識部351を介してユーザの視線推定を行い、推定したユーザの視線に基づいて、概要情報の選択ミスを検出してもよい。選択ミス検出部292は、例えば、予め学習された選択ミスの概要情報に係る詳細情報が表示部135に表示された場合のユーザの視線のモデルに基づいて、概要情報が選択ミスか否かを判定してもよい。
<実施形態10>
実施形態1では、概要情報生成部23は、表示部125に表示される画像や現実風景等の概要情報表示装置2と詳細情報表示装置3とを携帯するユーザの視認対象に基づいて、ユーザに提示する概要情報を生成した。本実施形態では、概要情報生成部23は、ユーザの視認対象に関連した情報に基づいて、ユーザに提示する概要情報を生成する。本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各構成要素のハードウェア構成についても、実施形態1と同様である。
図35は、本実施形態の情報処理システム1の機能構成の一例を示す図である。図3と比べて、概要情報表示装置2が画像解析部231を更に含む点で異なる。以下、本実施形態の処理の詳細について、実施形態1との差分を中心に説明する。
概要情報表示装置2は、コンピュータ、及びこのコンピュータと接続されたディスプレイモニタを含み、撮像部126が撮像した映像を、画像解析部231を介して処理して、このディスプレイに表示する。
撮像部126は、例えば、監視カメラであり、1つ、又は複数設置されている。画像解析部231は、撮像部126を介して撮像された映像を解析し、映っている人物を特定する。そして、画像解析部231は、映像とともに解析結果を、概要情報生成部23に出力する。また、画像解析部231は、録画再生機能を有することとしてもよい。この場合、画像解析部231は、過去の映像とその過去の映像に映っている人物の解析結果とを出力することができる。
本実施形態では、撮像部126は監視カメラであるとして説明する。しかし、撮像部126は、工場の組み立てラインに設置されたカメラや、産業用ロボットに組み込まれたカメラ、X線撮像装置等の医用画像撮像装置、撮像装置付き天体望遠鏡、テレビ顕微鏡等いかなる撮像装置であってもよい。
また、本実施形態では画像解析部231は、映像内に写っている人物を同定する処理を行うこととするが、組立て部品、病巣、天体、微生物等、目的に応じた事物を同定する処理を行うこととしてもよい。ここで同定する処理とは、オブジェクトがあるオブジェクトと同一であるか否かを決定する処理、目的に応じて個体を識別する処理、オブジェクトをカテゴリ(例えば、微生物の名前等)に分類する処理等の処理である。
また、画像解析部231に複数の撮像部126が接続されている場合、画像解析部231は、これらの複数の撮像部126のうち何れか1つの映像を出力してもよいし、複数の撮像部126の複数の映像を例えばタイル上に並べて出力してもよい。また、画像解析部231は、概要情報表示装置2の外部の装置に実装されることとしてもよい。その場合、画像解析部231は、概要情報表示装置2の各機能構成要素と、通信制御部A22を介して通信する。
撮像部126を介して撮像された映像は、画像解析部231に送られる。画像解析部231は、撮像部126を介して撮像された映像を受信し、受信した映像に写っている人物を同定することで、映像を解析する。画像解析部231は、同定した人物の識別情報(人物ID)に基づいて、補助記憶装置123等に記憶されている人物IDと人物の属性情報との対応情報であるデータベースを参照することで、同定した人物に関する情報を検索することができる。画像解析部231は、このデータベースの内容(例えば、同定した人物の最新位置、過去の位置等の属性情報)を、解析結果に基づいて、随時更新する。
画像解析部231は、何れか1台の撮像部126の映像及び、その映像に映っている人物の人物IDをその関連画面内情報とともに、概要情報生成部23に出力する。関連画面内情報とは、ある人物の頭部の座標、人物全体を囲むバウンディングボックスの対角座標や、人物領域のマスク画像とその座標といったその人物の属性の情報であり、概要情報表示制御部21により概要情報を重畳表示する際に用いられる。
画像解析部231の出力は、概要情報生成部23に伝えられる。概要情報生成部23では、画像解析部231から受け取った関連画面内情報に基づいて、ユーザに提示する概要情報を生成する。概要情報生成部23が生成する概要情報とは、人物の近辺に表示する図や文字列等のオブジェクトである。概要情報生成部23が生成する概要情報は、例えば、人物ID、人物IDに基づいてデータベースから検索された人物名、その人物の頭部近辺に表示するマーク、人物全体を囲むバウンディングボックス、人物領域を示す半透明のマスク画像等である。また、画像解析部231は、人物IDから検索された人物名の情報を、概要情報生成部23に出力することとしてもよい。概要情報生成部23は、複数のオブジェクトを、概要情報として生成してもよい。
概要情報表示制御部21は、画像解析部231から出力された映像を、概要情報生成部23により生成された概要情報を重畳して、表示部125に表示する。概要情報表示制御部21は、表示部125に表示する映像が画像解析部231によって加工されない場合、表示部125に表示する映像を撮像部126から取得することとしてもよい。
概要情報生成部23は、生成した概要情報を、通信制御部A22及び通信制御部B32を介して、詳細情報表示装置3の詳細情報検索部33に送信する。ここで、概要情報生成部23は、生成した概要情報の全てを詳細情報検索部33に送信してもよいし、生成した概要情報の一部を詳細情報検索部33に送信してもよいし、画像解析部231から受け取った人物IDのみを詳細情報検索部33に送信してもよい。
一方、詳細情報検索部33は、概要情報生成部23から受信した概要情報に基づいて、受信した概要情報に関する詳細情報を検索する。詳細情報検索部33は、例えば、受信した人物IDに基づいて、データベースを参照して、人物の氏名、住所、過去の検出履歴、その他人物に関連する詳細情報を検索する。
以上、本実施形態では、概要情報表示装置2は、ユーザの視認対象に関連した情報に基づいて、ユーザに提示する概要情報を生成した。
本実施形態では、撮像部126及び画像解析部231は、概要情報表示装置2に含まれるものとした。しかし、撮像部126、画像解析部231の一部又は全部は、概要情報表示装置2とは異なる装置に含まれることとしてもよい。
<実施形態11>
実施形態8では、概要情報の選択は、以下のようにして行われることとした。即ち、概要情報の選択は、メガネ型端末装置である概要情報表示装置2のつるの部分に仕込まれた入力部124であるタッチパッドを介したユーザによる指定や、入力部124であるマイクを介したユーザの発声に対する音声認識に基づき、行われることとした。本実施形態では、入力部124が、表示部125と一体になったタッチパネル、タッチペン、マウス等のポインティングデバイス、キーボード等である場合の例を示す。
本実施形態の情報処理システム1のシステム構成は、実施形態1と同様である。また、情報処理システム1の各種構成要素のハードウェア構成についても、実施形態1と同様である。図36は、本実施形態の情報処理システム1の各構成要素の機能構成の一例を示す図である。図26と比べ、概要情報表示装置2が画像解析部231を更に含む点で異なる。以下、本実施形態の処理の詳細について、実施形態8及び実施形態10との差分を中心に説明する。
概要情報表示制御部21は、1つ又は複数の概要情報を表示部125に重畳表示する。概要情報選択部291は、これらの概要情報から、入力部124を介したユーザによる指定により、概要情報を1つ選択する。
概要情報表示制御部21は、入力部124がキーボードの場合、例えば「スペース」や矢印のキーの選択を検知することで、複数の概要情報の中から1つの概要情報を、選択候補となる概要情報として決定する。そして、概要情報表示制御部21は、決定した概要情報を他の概要情報よりも強調して表示(色を濃く表示する等)する。ユーザは、「スペース」や矢印のキーの選択を繰り返すことで、複数の概要情報の中から選択候補となる概要情報が順に選択され、強調表示されることで、提示されることとなる。そして、ユーザは、選択したい概要情報が選択候補となっている状態で、例えば、「エンター」キーを選択する。概要情報選択部291は、「エンター」キーの選択を検知することで、現在選択候補となっている概要情報を、選択する。また、概要情報選択部291は、「エンター」キーの選択の検知を行わずに、概要情報の何れかが選択候補となった際に、選択候補となった概要情報を選択することとしてもよい。
以下では、入力部124がキーボードではなく、表示部125と一体になったタッチパネルやタッチペン、マウス等のポインティングデバイスの場合について説明する。
図37は、概要情報選択部291の処理の一例を示すアクティビティ図である。図37を用いて、概要情報選択部291の処理を説明する。
S2901において、概要情報選択部291は、入力部124のポインティングデバイスからポインティング情報を得る。ポインティング情報とは、入力部124によってポイントされた、表示部125内の位置(ポインティング位置)である。
S2902において、概要情報選択部291は、ポインティング位置に最も近い概要情報を特定する。概要情報選択部291は、特定した概要情報と、このポインティング位置の情報とを対応付けて補助記憶装置123等に保存する。
S2903において、概要情報選択部291は、S2902で特定した概要情報を選択する。
S2903で概要情報選択部291が概要情報を選択する前に再度、入力部124を介したポインティングが行われた場合、選択ミス検出部292は、概要情報の選択ミスが発生したか否かを判断する。図38は、選択ミス検出部292の処理の一例を示すアクティビティ図である。図38を用いて、S2903で概要情報選択部291が概要情報を選択する前に再度、入力部124を介したポインティングが行われた場合、選択ミス検出部292の処理について説明する。
S391において、選択ミス検出部292は、概要情報選択部291が概要情報を選択する前に再度行われた入力部124を介したポインティングが行われた位置に最も近い概要情報を特定する。
S392において、選択ミス検出部292は、S2902で特定した概要情報と、この概要情報に対応するポインティング位置の情報と、を、補助記憶装置123等から取り出す。取り出されたポインティング情報は、予め、ポインティング情報が取りうる何れの位置とも所定値以上の距離がある位置に初期化されているものとする。
S393において、選択ミス検出部292は、S391で特定した概要情報と、この概要情報に対応するポインティング位置の情報とを対応付けて、補助記憶装置123等に保存する。
S394において、選択ミス検出部292は、S392で取り出した概要情報に対応するポインティング情報が示す位置と、S391で特定した概要情報に対応するポインティング位置と、の距離が、所定値よりも小さいか否かを判定する。選択ミス検出部292は、所定値以上であれば、図38の処理を終了する。選択ミス検出部292は、所定値よりも小さければ、S395の処理に進む。
S395において、選択ミス検出部292は、S392で取り出した概要情報を選択ミスとして決定する。
S396において、選択ミス検出部292は、選択ミスが発生したことを示す選択ミス情報を、概要情報フィルタ部293に送信する。
図40は、本実施形態の選択ミス検出部292による処理の概要を説明する図である。図40(a)に示される状況では、左側のディスプレイ(表示部125)には、人物IDが1134、1234、1242の3人の人物が映っている。そして、表示部125の左側のある1点がポインティングされることによって、そのポインティング位置から最も近くにいる人物の氏名、住所、過去の検出履歴、その他人物に関連する詳細情報等が右側のディスプレイ(表示部135)に表示される。
その後、図40(b)のように、また、左側のディスプレイ(表示部125)のある1点がポインティングされると、選択ミス検出部292は、そのポインティング位置に最も近い人物の概要情報を特定する(S391)。そして、また、選択ミス検出部292は、前回保存した概要情報を取り出す(S392)。そして、選択ミス検出部292は、取り出した概要情報に対応するポインティング情報と受信した概要情報に対応するポインティング位置との距離が所定値よりも小さいか否かを判定する(S394)。図40(b)の例では、選択ミス検出部292は、所定値よりも小さいと判断し、取り出した概要情報を選択ミスとして(S395)、選択ミス情報を送信する(S396)。図40(b)の例では、選択ミス検出部292により選択ミスが発生したと判断されたため、ポインティング位置から次に近い人物の詳細情報が右側のディスプレイ(表示部135)に表示されることとなる。
以上、本実施形態の処理により、情報処理システム1は、概要情報の選択にポインティングデバイスを用いることができ、ユーザの所望の概要情報をより短時間に選択することができる。
また、情報処理システム1は、選択した概要情報が、ユーザの所望の概要情報ではなかった場合、その概要情報を選択した付近で再度選択することにより、その概要情報を除いた他の概要情報のうち、最も選択した位置に近い概要情報を選択することとした。これにより、情報処理システム1は、ユーザの所望の概要情報をより短時間に選択することができる。
<実施形態12>
実施形態11では、情報処理システム1は、選択した位置(ポインティング位置)に最も近い概要情報を候補としたが、選択した位置から遠い概要情報を候補から外すことはしなかった。そのため、誤って再選択をした場合、選択位置から、想定よりも離れた位置にある概要情報が選択される場合が生じうる。そこで、本実施形態では、選択位置から明らかに離れた位置にある概要情報は選択対象から外す処理について説明する。
本実施形態の概要情報選択部291の処理の一例を、図39に示す。図39の処理は、図37の処理に対して、S2904の処理が追加されている点で異なる。
S2902において、概要情報選択部291は、ポインティング位置に最も近い概要情報を特定し、S2904の処理に進む。
S2904において、概要情報選択部291は、S2902で特定した概要情報の位置とポインティング位置との距離が、所定の距離以下か否かを判定する。概要情報選択部291は、所定の距離以下と判定した場合、S2903の処理に進む。概要情報選択部291は、所定の距離より大きいと判定した場合、図39の処理を終了し、選択処理を行わない。
以上、本実施形態の処理により、情報処理システム1は、ポインティング位置から所定の距離よりも離れた位置にある概要情報は選択対象から外すことにより、誤って概要情報を再選択した際に、誤った概要情報が選択されてしまうことを防ぐことができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
例えば、上述した情報処理システム1の機能構成の一部又は全てをハードウェアとして概要情報表示装置2又は詳細情報表示装置3に実装してもよい。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。上述した各実施形態を任意に組み合わせてもよい。
1 情報処理システム
2 概要情報表示装置
3 詳細情報表示装置

Claims (20)

  1. ユーザの観察対象に基づいて、前記ユーザへの提示情報を生成する生成手段と、
    ウエアラブルデバイスである第1の情報処理装置を前記ユーザが身に着けた場合、前記ユーザの視界に入るように前記生成手段により生成された前記提示情報を第1の情報処理装置の第1の表示部に表示させる、もしくは、前記第1の情報処理装置が撮影した画像と前記提示情報とを前記第1の表示部に表示させる第1の表示制御手段と、
    前記第1の表示制御手段により前記第1の表示部に表示された前記提示情報に基づいて決定手段により決定され、前記第1の情報処理装置と異なる第2の情報処理装置の第2の表示部に第2の表示制御手段によって表示された、前記提示情報に関する詳細情報が、前記ユーザによって注視されたことを検出手段により検出した場合に、前記第1の表示部に表示される前記提示情報の表示を制御する制御手段と、
    を有することを特徴とするシステム。
  2. 前記制御手段は、前記検出手段により前記詳細情報に対する前記ユーザの注視が検出された場合、前記第1の表示部に表示される前記提示情報の表示を抑制することで、前記詳細情報の視認性を向上できる
    ことを特徴とする請求項1に記載のシステム。
  3. 前記第1の表示制御手段により前記第1の表示部に表示された複数の前記提示情報の中から、前記ユーザからの指定に応じた前記提示情報を、選択情報として、選択する選択手段と、
    前記選択手段による前記選択情報の選択が、前記選択手段による選択ミスであることを検知する検知処理を行う第1の検知手段と、を更に有する請求項1に記載のシステム。
  4. 前記選択手段は、前記第1の検知手段により前記選択手段による選択ミスであることが検知された前記選択情報を、再度、選択できないように制御する請求項3に記載のシステム。
  5. 前記選択手段は、前記第1の検知手段により前記選択情報が前記選択手段による選択ミスであることが検知された場合、前記第1の表示部に表示された複数の前記提示情報のうち、前記選択情報を除いたものの中から、再度、前記選択情報となる提示情報を選択する請求項3に記載のシステム。
  6. 前記選択手段は、前記第1の表示制御手段により前記第1の表示部に表示された複数の前記提示情報の中から、ポインティングデバイスを介して前記ユーザにより選択された位置に最も近い前記提示情報を、前記選択情報として選択し、
    前記第1の検知手段は、前記選択手段による前記選択情報の選択の際に前記ポインティングデバイスを介して前記ユーザにより選択された位置と、前記位置が選択される前に前記ポインティングデバイスを介して前記ユーザにより選択された位置と、の距離が予め定められた値よりも小さい場合に、前記選択手段による前記選択情報の選択が、前記選択手段による選択ミスであることを検知する請求項3に記載のシステム。
  7. 前記選択手段は、更に、前記ポインティングデバイスを介して前記ユーザにより選択された位置と、前記ユーザにより選択された位置に最も近い前記提示情報の位置と、の距離が前記予め定められた値よりも大きい場合に、前記提示情報の選択を行わない請求項6に記載のシステム。
  8. 前記第2の表示制御手段により前記第2の表示部に表示された前記詳細情報に対する前記ユーザによる注視動作を検知する検知処理を行う第2の検知手段を更に有し、
    前記第1の検知手段は、前記第2の検知手段による検知処理の結果の遷移に基づいて、前記選択手段による前記選択情報の選択が、前記選択手段による選択ミスであることを検知する検知処理を行う請求項3に記載のシステム。
  9. 前記第1の情報処理装置は、
    前記ユーザの観察対象に関連した情報を出力する出力手段を更に有し、
    前記生成手段は、前記出力手段により出力された情報に基づいて、前記提示情報を生成する請求項1から8のいずれか1項に記載のシステム。
  10. 前記検出手段により前記注視が検出された場合、前記制御手段は、前記第1の表示部への前記提示情報の表示を禁止する請求項2に記載のシステム。
  11. 前記検出手段は、前記第1の情報処理装置の姿勢に基づいて、前記注視を検出する請求項2または10に記載のシステム。
  12. 前記検出手段は、前記第2の情報処理装置の姿勢に基づいて、前記注視を検出する請求項2または10に記載のシステム。
  13. 前記検出手段は、前記第1の情報処理装置の撮像部により撮像された画像に、前記第2の表示部が含まれるか否かに基づいて、前記注視を検出する請求項2または10に記載のシステム。
  14. 前記検出手段は、前記第1の情報処理装置の撮像部により撮像された画像に、前記第2の表示部に表示された前記詳細情報が含まれるか否かに基づいて、前記注視を検出する請求項2または10に記載のシステム。
  15. 前記検出手段は、前記第2の情報処理装置の撮像部により撮像された画像に、前記第1の情報処理装置が含まれるか否かに基づいて、前記注視を検出する請求項2または10に記載のシステム。
  16. 前記検出手段は、前記第2の情報処理装置の撮像部により撮像された画像に、前記ユーザが含まれるか否かに基づいて、前記注視を検出する請求項2または10に記載のシステム。
  17. 前記検出手段は、前記第2の表示制御手段により前記第2の表示部に表示された前記詳細情報に対する操作中であるか否かに基づいて、前記注視を検出する請求項2または10に記載のシステム。
  18. 前記第1の情報処理装置は、頭部装着型のウエアラブルデバイスである請求項1から17のいずれか1項に記載のシステム。
  19. システムが実行する情報処理方法であって、
    ユーザの観察対象に基づいて、前記ユーザへの提示情報を生成する生成ステップと、
    ウエアラブルデバイスである第1の情報処理装置を前記ユーザが身に着けた場合、前記ユーザの視界に入るように前記生成ステップにおいて生成された前記提示情報を第1の情報処理装置の第1の表示部に表示させる、もしくは、前記第1の情報処理装置が撮影した画像と前記提示情報とを前記第1の表示部に表示させる第1の表示制御ステップと、
    前記第1の表示制御ステップで前記第1の表示部に表示された前記提示情報に基づいて決定ステップで決定され、前記第1の情報処理装置と異なる第2の情報処理装置の第2の表示部に第2の表示制御ステップで表示された、前記提示情報に関する詳細情報が、前記ユーザによって注視されたことを検出ステップで検出した場合に、前記第1の表示部に表示される前記提示情報の表示を制御する制御ステップと、
    を含むことを特徴とする情報処理方法。
  20. コンピュータに、
    ユーザの観察対象に基づいて、前記ユーザへの提示情報を生成する生成ステップと、
    ウエアラブルデバイスである第1の情報処理装置を前記ユーザが身に着けた場合、前記ユーザの視界に入るように前記生成ステップにおいて生成された前記提示情報を第1の情報処理装置の第1の表示部に表示させる、もしくは、前記第1の情報処理装置が撮影した画像と前記提示情報とを前記第1の表示部に表示させる第1の表示制御ステップと、
    前記第1の表示制御ステップで前記第1の表示部に表示された前記提示情報に基づいて決定ステップで決定され、前記第1の情報処理装置と異なる第2の情報処理装置の第2の表示部に第2の表示制御ステップで表示された、前記提示情報に関する詳細情報が、前記ユーザによって注視されたことを検出ステップで検出した場合に、前記第1の表示部に表示される前記提示情報の表示を制御する制御ステップと、
    を実行させるためのプログラム。
JP2018075584A 2017-04-10 2018-04-10 システム、情報処理方法及びプログラム Active JP7094759B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017077659 2017-04-10
JP2017077659 2017-04-10

Publications (3)

Publication Number Publication Date
JP2018181339A JP2018181339A (ja) 2018-11-15
JP2018181339A5 JP2018181339A5 (ja) 2021-05-13
JP7094759B2 true JP7094759B2 (ja) 2022-07-04

Family

ID=63710925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018075584A Active JP7094759B2 (ja) 2017-04-10 2018-04-10 システム、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US20180292980A1 (ja)
JP (1) JP7094759B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2020329148A1 (en) * 2019-08-09 2022-03-17 Clearview Ai, Inc. Methods for providing information about a person based on facial recognition

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003114747A (ja) 1996-07-31 2003-04-18 Aisin Aw Co Ltd タッチパネルを併設した情報表示装置及び記録媒体
JP2013134657A (ja) 2011-12-27 2013-07-08 Nippon Telegr & Teleph Corp <Ntt> 情報処理装置、情報処理方法および情報処理プログラム
JP2013235413A (ja) 2012-05-09 2013-11-21 Sony Corp 情報処理装置、情報処理方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003114747A (ja) 1996-07-31 2003-04-18 Aisin Aw Co Ltd タッチパネルを併設した情報表示装置及び記録媒体
JP2013134657A (ja) 2011-12-27 2013-07-08 Nippon Telegr & Teleph Corp <Ntt> 情報処理装置、情報処理方法および情報処理プログラム
JP2013235413A (ja) 2012-05-09 2013-11-21 Sony Corp 情報処理装置、情報処理方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
斧 麻衣 他3名,"ウェアラブル機器を用いた学内学習システムの定量評価に関する検討",電子情報通信学会2005年総合大会講演論文集 基礎・境界,2005年03月07日,第293頁

Also Published As

Publication number Publication date
JP2018181339A (ja) 2018-11-15
US20180292980A1 (en) 2018-10-11

Similar Documents

Publication Publication Date Title
JP6747504B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10474411B2 (en) System and method for alerting VR headset user to real-world objects
US20130179303A1 (en) Method and apparatus for enabling real-time product and vendor identification
US20190227694A1 (en) Device for providing augmented reality service, and method of operating the same
CN106327584B (zh) 一种用于虚拟现实设备的图像处理方法及装置
JP2011128220A (ja) 情報提示装置、情報提示方法及びプログラム
WO2017187708A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20180315246A1 (en) Information processing device, information processing method, and program
US20240144611A1 (en) Augmented reality eyewear with speech bubbles and translation
US20210004081A1 (en) Information processing apparatus, information processing method, and program
US11553009B2 (en) Information processing device, information processing method, and computer program for switching between communications performed in real space and virtual space
WO2017169273A1 (ja) 情報処理装置、情報処理方法、及びプログラム
EP3617851B1 (en) Information processing device, information processing method, and recording medium
EP3582068A1 (en) Information processing device, information processing method, and program
JP7094759B2 (ja) システム、情報処理方法及びプログラム
US11474595B2 (en) Display device and display device control method
US11137600B2 (en) Display device, display control method, and display system
JP6858007B2 (ja) 画像処理システム、画像処理方法
US10409464B2 (en) Providing a context related view with a wearable apparatus
WO2019138682A1 (ja) 情報処理装置、情報処理方法及びプログラム
US11863860B2 (en) Image capture eyewear with context-based sending
US20240119643A1 (en) Image processing device, image processing method, and computer-readable storage medium
KR20160027813A (ko) 글래스형 단말기
JP2022083918A (ja) 眼鏡型デバイス、管理サーバ及びプログラム
CN115834858A (zh) 显示方法、装置、头戴显示设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210402

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220622

R151 Written notification of patent or utility model registration

Ref document number: 7094759

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151