JP2009211506A - 情報処理装置及び情報処理プログラム - Google Patents
情報処理装置及び情報処理プログラム Download PDFInfo
- Publication number
- JP2009211506A JP2009211506A JP2008054956A JP2008054956A JP2009211506A JP 2009211506 A JP2009211506 A JP 2009211506A JP 2008054956 A JP2008054956 A JP 2008054956A JP 2008054956 A JP2008054956 A JP 2008054956A JP 2009211506 A JP2009211506 A JP 2009211506A
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- area
- image
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【課題】複数人が表示された画像を見る場合、その画像の特定箇所に視線が集中してしまうことを防ぐようにした情報処理装置を提供する。
【解決手段】情報処理装置の視線位置受付手段は、画像に対する複数の利用者の視線の位置を受け付け、隠蔽領域設定手段は、前記視線位置受付手段によって受け付けられた対象者以外の視線の位置に基づいて、前記画像の一部を隠蔽すべき領域を設定する。
【選択図】図1
【解決手段】情報処理装置の視線位置受付手段は、画像に対する複数の利用者の視線の位置を受け付け、隠蔽領域設定手段は、前記視線位置受付手段によって受け付けられた対象者以外の視線の位置に基づいて、前記画像の一部を隠蔽すべき領域を設定する。
【選択図】図1
Description
本発明は、情報処理装置及び情報処理プログラムに関する。
例えばある作業者の作業を、ビデオカメラ等で撮影し、その画像をモニタ等に表示して観察・監視等(以下、「観察」ともいう)する場合がある。
これに関連する技術として、例えば、特許文献1には、個人の特性に合わせて画面上に表示される画像のうち見落としやすい視覚情報について注意を喚起することができる注意喚起装置を提供することを課題とし、画像入力部は画面上に表示される画像を入力し、注意分布作成部は入力された画像において各領域の特徴を抽出し、注意分布を誘目テーブルに基づいて作成し、不注意領域解析部は注意分布から不注意領域を抽出して解析し、その不注意領域について注意を喚起すべきか否かを判定し、注意喚起部は注意を喚起すべきと判定された不注意領域について注意を喚起することが開示されている。
また、例えば、特許文献2には、保全作業者間での情報の共有を向上させ得る保全システムを提供することを課題とし、設備の制御を行うプロセス制御機能及びオペレータの操作に基づくプロセス監視機能を有するプロセス制御システムと、設備を巡回する複数の保全作業者が利用する保全用携帯端末とがデータ通信可能に構成された保全システムであって、プロセス制御システムの保全用サーバーは、保全用携帯端末からの要求に応じたデータを当該要求をした保全用携帯端末へ送信する機能及び保全用携帯端末ごとに要求してきた内容を保持しておく機能を有し、保全用携帯端末は、そのモニタにプロセス監視画面を表示可能であり、さらに指定した他の保全作業者の保全用携帯端末にプロセス制御システムが送信しているデータを要求するとともに当該受信したデータに基づき他の保全作業者に与えられているプロセス監視画面を表示するようにしたものが開示されている。
特開2001−134359号公報
特開2005−107758号公報
ところで、複数人がモニタ等に表示された画像を観察する共同作業を実施する場合、その画像の特定箇所に視線が集中してしまうことがあり、複数人であるにもかかわらず、満遍なく対象をとらえるには非効率的となってしまうことがある。
本発明は、かかる課題を解決するようにした情報処理装置及び情報処理プログラムを提供することを目的としている。
本発明は、かかる課題を解決するようにした情報処理装置及び情報処理プログラムを提供することを目的としている。
かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。
請求項1の発明は、画像に対する複数の利用者の視線の位置を受け付ける視線位置受付手段と、前記視線位置受付手段によって受け付けられた第1の利用者以外の第2の利用者の視線の位置に基づいて、前記画像の一部を隠蔽すべき領域を設定する隠蔽領域設定手段を具備することを特徴とする情報処理装置である。
請求項1の発明は、画像に対する複数の利用者の視線の位置を受け付ける視線位置受付手段と、前記視線位置受付手段によって受け付けられた第1の利用者以外の第2の利用者の視線の位置に基づいて、前記画像の一部を隠蔽すべき領域を設定する隠蔽領域設定手段を具備することを特徴とする情報処理装置である。
請求項2の発明は、前記画像内に領域を設定する領域設定手段と、前記視線位置受付手段によって受け付けられた視線の位置と前記領域設定手段によって設定された領域とを照合して視対象領域を決定する視対象領域決定手段をさらに具備し、前記隠蔽領域設定手段は、前記隠蔽すべき領域を前記視対象領域決定手段によって決定された前記第2の利用者の視線の位置による視対象領域とすることを特徴とする請求項1に記載の情報処理装置である。
請求項3の発明は、前記利用者に対して既に隠蔽すべきと決定された視対象領域に、前記視線位置受付手段によって受け付けられた該利用者の視線の位置がある場合は、該視対象領域を表示すべき領域として設定する表示領域設定手段をさらに具備することを特徴とする請求項2に記載の情報処理装置である。
請求項4の発明は、前記利用者に対して既に隠蔽すべきと決定された視対象領域に、前記視線位置受付手段によって受け付けられた該利用者の視線の位置がある場合は、該利用者と該視対象領域に視線の位置がある前記第2の利用者との優先度を比較した結果に基づいて、該視対象領域を表示すべき領域とするか否かを設定する表示領域設定手段をさらに具備することを特徴とする請求項2に記載の情報処理装置である。
請求項5の発明は、画像を表示する複数の表示手段と、前記表示手段によって表示されている画像に対する利用者の視線の位置を計測する複数の視線計測手段と、前記隠蔽領域設定手段によって設定された領域に基づいて、前記表示手段によって表示される画像の一部を隠蔽する隠蔽手段をさらに具備し、前記視線位置受付手段は、前記複数の視線計測手段によって計測された視線の位置を受け付けることを特徴とする請求項1から4のいずれか1項に記載の情報処理装置である。
請求項6の発明は、コンピュータを、画像に対する複数の利用者の視線の位置を受け付ける視線位置受付手段と、前記視線位置受付手段によって受け付けられた第1の利用者以外の第2の利用者の視線の位置に基づいて、前記画像の一部を隠蔽すべき領域を設定する隠蔽領域設定手段として機能させることを特徴とする情報処理プログラムである。
請求項1の情報処理装置によれば、複数人が表示された画像を見る場合、その画像の特定箇所に視線が集中してしまうことを防ぐことができる。
請求項2の情報処理装置によれば、決定された領域ごとに隠蔽すべき領域を設定することができる。
請求項3の情報処理装置によれば、視線の位置に応じて、隠蔽すべき領域を表示すべき領域にすることができる。
請求項4の情報処理装置によれば、利用者間の優先度に応じて、隠蔽すべき領域を表示すべき領域にすることができる。
請求項5の情報処理装置によれば、複数人それぞれの視線の位置に応じて、隠蔽すべき領域を設定することができる。
請求項6の情報処理プログラムによれば、複数人が表示された画像を見る場合、その画像の特定箇所に視線が集中してしまうことを防ぐことができる。
以下、図面に基づき本発明を実現するにあたっての好適な一実施の形態の例を説明する。
図1は、本実施の形態の構成例についての概念的なモジュール構成図を示している。
なお、モジュールとは、一般的に論理的に分離可能なソフトウェア(コンピュータ・プログラム)、ハードウェア等の部品を指す。したがって、本実施の形態におけるモジュールはコンピュータ・プログラムにおけるモジュールのことだけでなく、ハードウェア構成におけるモジュールも指す。それゆえ、本実施の形態は、コンピュータ・プログラム、システム及び方法の説明をも兼ねている。ただし、説明の都合上、「記憶する」、「記憶させる」、これらと同等の文言を用いるが、これらの文言は、実施の形態がコンピュータ・プログラムの場合は、記憶装置に記憶させる、又は記憶装置に記憶させるように制御するの意である。また、モジュールは機能にほぼ一対一に対応しているが、実装においては、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよく、逆に1モジュールを複数プログラムで構成してもよい。また、複数モジュールは1コンピュータによって実行されてもよいし、分散又は並列環境におけるコンピュータによって1モジュールが複数コンピュータで実行されてもよい。なお、1つのモジュールに他のモジュールが含まれていてもよい。また、以下、「接続」とは物理的な接続の他、論理的な接続(データの授受、指示、データ間の参照関係等)を含む。
また、システム又は装置とは、複数のコンピュータ、ハードウェア、装置等がネットワーク(一対一対応の通信接続を含む)等の通信手段で接続されて構成されるほか、1つのコンピュータ、ハードウェア、装置等によって実現される場合も含まれる。「装置」と「システム」とは、互いに同義の用語として用いる。
所定という用語は、予め定められたの意の他に、そのときの状況・状態に応じて、又はそれまでの状況・状態に応じての意を含めて用いる。
図1は、本実施の形態の構成例についての概念的なモジュール構成図を示している。
なお、モジュールとは、一般的に論理的に分離可能なソフトウェア(コンピュータ・プログラム)、ハードウェア等の部品を指す。したがって、本実施の形態におけるモジュールはコンピュータ・プログラムにおけるモジュールのことだけでなく、ハードウェア構成におけるモジュールも指す。それゆえ、本実施の形態は、コンピュータ・プログラム、システム及び方法の説明をも兼ねている。ただし、説明の都合上、「記憶する」、「記憶させる」、これらと同等の文言を用いるが、これらの文言は、実施の形態がコンピュータ・プログラムの場合は、記憶装置に記憶させる、又は記憶装置に記憶させるように制御するの意である。また、モジュールは機能にほぼ一対一に対応しているが、実装においては、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよく、逆に1モジュールを複数プログラムで構成してもよい。また、複数モジュールは1コンピュータによって実行されてもよいし、分散又は並列環境におけるコンピュータによって1モジュールが複数コンピュータで実行されてもよい。なお、1つのモジュールに他のモジュールが含まれていてもよい。また、以下、「接続」とは物理的な接続の他、論理的な接続(データの授受、指示、データ間の参照関係等)を含む。
また、システム又は装置とは、複数のコンピュータ、ハードウェア、装置等がネットワーク(一対一対応の通信接続を含む)等の通信手段で接続されて構成されるほか、1つのコンピュータ、ハードウェア、装置等によって実現される場合も含まれる。「装置」と「システム」とは、互いに同義の用語として用いる。
所定という用語は、予め定められたの意の他に、そのときの状況・状態に応じて、又はそれまでの状況・状態に応じての意を含めて用いる。
本実施の形態は、複数人で観察の共同作業を実施する場合に用いられるものであり、各人が注意を向けた表示装置(以下、「モニタ」ともいい、表示装置の表示画面の意で用いる場合もある)上のある領域に対して、他の人からはその領域が見えないように処理する。各人のモニタには、他人が注意を向けていない領域が表示され、他人が注意を向けている領域は表示されない。他人の注視情報を知ることで、自分が注意を向けるべき領域を知るための手掛かりを得るのに適している。
また、他の人が注意を向けている対象は、消えて見えなくなるため、見えている対象におのずと視線が向けられる。その結果として、複数人で共同の対象を満遍なく観察することができ、効果的に視対象をとらえるのに適している。
また、他の人が注意を向けている対象は、消えて見えなくなるため、見えている対象におのずと視線が向けられる。その結果として、複数人で共同の対象を満遍なく観察することができ、効果的に視対象をとらえるのに適している。
本実施の形態は、図1に示すように、画像取得モジュール110、画像処理装置120、観察装置130A、130B、130Cを有している。画像処理装置120は、視線領域設定処理モジュール121、視対象マッチング処理モジュール122、視線領域集計処理モジュール123、表示領域算定処理モジュール124を有している。観察装置130Aは、視線計測モジュール131A、表示モジュール132A、マスク処理モジュール133Aを有している。観察装置130B、130Cは、観察装置130Aと同様の構成を有している。また、観察装置130は複数あればよい。したがって、観察装置130A、130Bだけであってもよいし、4つ以上の観察装置130であってもよい。以下、「観察装置130A等」とした場合は、観察装置130A、130B、130Cの1つ又は複数(全部を含む)の意で用いる。
観察対象101A、101Bが観察対象(物であっても人であってもよい)であり、観察者102A、102B、102Cがそれを観察する観察員(本実施の形態の利用者でもある)である。
観察対象101A、101Bが観察対象(物であっても人であってもよい)であり、観察者102A、102B、102Cがそれを観察する観察員(本実施の形態の利用者でもある)である。
画像取得モジュール110は、画像処理装置120と接続されており、観察対象101A、101Bを撮影し、その画像(動画像、静止画像を含む)を取得して、その画像を画像処理装置120へ渡す。具体的には、例えば、デジタルビデオカメラ等が該当する。
画像処理装置120は、画像取得モジュール110、観察装置130A内の視線計測モジュール131A、マスク処理モジュール133Aと接続されており、観察装置130B、130Cとも同様に接続されている。画像取得モジュール110から観察対象の画像を得て、観察装置130Aの視線計測モジュール131A等から観察者102A等の複数の視線の位置を受け付け、例えば、観察者102A以外の観察者102B、102Cの視線の位置に基づいて、観察装置130Aの表示モジュール132Aに表示させる画像(観察者102Aが見るもの)の一部を隠蔽すべき領域又は表示すべき領域を設定する。その設定に関する情報を、画像取得モジュール110からの画像とともに観察装置130Aのマスク処理モジュール133Aへ渡す。
なお、隠蔽とは、表示対象の全体又は部分に関する利用者のビューを、別の表示対象でさえぎることをいう。別の表示対象としては、例えば黒い領域である。また、隠蔽のことを「マスク」ともいう。また、部分的に表示するとはマスクしていることであるので、「マスクする領域」とは、明示しない限り「表示する領域」の意でも用いる。
なお、隠蔽とは、表示対象の全体又は部分に関する利用者のビューを、別の表示対象でさえぎることをいう。別の表示対象としては、例えば黒い領域である。また、隠蔽のことを「マスク」ともいう。また、部分的に表示するとはマスクしていることであるので、「マスクする領域」とは、明示しない限り「表示する領域」の意でも用いる。
視線領域設定処理モジュール121は、画像取得モジュール110から渡された画像(又は表示モジュール132A等の表示領域)に対して視線領域を設定する。視線領域は、画像をマスクする領域の単位となる。なお、この視線領域については、図4、5を用いて後述する。
視対象マッチング処理モジュール122は、視線計測モジュール131A等から表示モジュール132A等に表示されている画像に対する観察者102A等の視線の位置を受け付け、その視線の位置と視線領域設定処理モジュール121によって設定された視線領域とを照合して視対象領域を決定する。つまり、一点である視線の位置から面積のある領域としてとらえることを行っている。視対象領域は、いずれかの利用者の視線の位置がある視線領域であり、マスクする領域の候補である。その視対象領域を視線領域集計処理モジュール123へ渡す。なお、この視対象領域については、図4、5を用いて後述する。
視対象マッチング処理モジュール122は、視線計測モジュール131A等から表示モジュール132A等に表示されている画像に対する観察者102A等の視線の位置を受け付け、その視線の位置と視線領域設定処理モジュール121によって設定された視線領域とを照合して視対象領域を決定する。つまり、一点である視線の位置から面積のある領域としてとらえることを行っている。視対象領域は、いずれかの利用者の視線の位置がある視線領域であり、マスクする領域の候補である。その視対象領域を視線領域集計処理モジュール123へ渡す。なお、この視対象領域については、図4、5を用いて後述する。
視線領域集計処理モジュール123は、視対象マッチング処理モジュール122から渡された視対象領域を受け取り、それぞれの利用者(観察者102A、102B、102C)の視対象領域を集計する。つまり、複数人のだれがどの視対象領域を見ているかを検出し、全ての利用者の視線の位置(視対象領域)に関する情報を得る。
表示領域算定処理モジュール124は、視線領域集計処理モジュール123から全ての利用者の視線の位置を受け取り、対象とする利用者に対するマスク情報を設定する。つまり、画像のうち観察すべき領域と観察不要の領域を分けるものである。例えば、対象とする利用者を観察者102Aとすると、観察者102B、102Cの視線の位置に基づいて、表示モジュール132Aに表示する画像からマスクすべき領域を設定し、その領域に関する情報を画像取得モジュール110からの画像とともにマスク処理モジュール133Aへ渡す。また、表示領域算定処理モジュール124は、例えば、観察者102Aに対して既にマスクすべきと決定された視対象領域に、視対象マッチング処理モジュール122によって受け付けられた観察者102Aの視線の位置がある場合は、その視対象領域を表示すべき領域として設定するようにしてもよい。また、表示領域算定処理モジュール124は、例えば、観察者102Aに対して既にマスクすべきと決定された視対象領域に、視対象マッチング処理モジュール122によって受け付けられた観察者102Aの視線の位置がある場合は、観察者102Aとその視対象領域に視線の位置がある観察者102B又は観察者102Cとの優先度を比較した結果に基づいて、その視対象領域を表示すべき領域とするか否かを設定するようにしてもよい。
観察装置130Aは、画像処理装置120と接続されており、観察者102Aによって利用されるものである。
マスク処理モジュール133Aは、画像処理装置120、表示モジュール132Aと接続されており、表示領域算定処理モジュール124からマスクすべき領域に関する情報及び画像を受け取り、その情報に基づいて、画像の一部をマスクして表示モジュール132Aに表示させるように制御する。
視線計測モジュール131Aは、画像処理装置120、表示モジュール132Aと接続されており、表示モジュール132Aによって表示されている画像に対する観察者102Aの視線の位置を計測する。計測した視線の位置を画像処理装置120へ渡す。なお、計測する方法としては、既存の方法、例えば、頭部、眼球の動きを計測し、視線の位置を表示モジュール132Aが表示している画像における座標として検出する。
表示モジュール132Aは、視線計測モジュール131A、マスク処理モジュール133Aと接続されており、マスク処理モジュール133Aによる制御によって画像を表示する。
マスク処理モジュール133Aは、画像処理装置120、表示モジュール132Aと接続されており、表示領域算定処理モジュール124からマスクすべき領域に関する情報及び画像を受け取り、その情報に基づいて、画像の一部をマスクして表示モジュール132Aに表示させるように制御する。
視線計測モジュール131Aは、画像処理装置120、表示モジュール132Aと接続されており、表示モジュール132Aによって表示されている画像に対する観察者102Aの視線の位置を計測する。計測した視線の位置を画像処理装置120へ渡す。なお、計測する方法としては、既存の方法、例えば、頭部、眼球の動きを計測し、視線の位置を表示モジュール132Aが表示している画像における座標として検出する。
表示モジュール132Aは、視線計測モジュール131A、マスク処理モジュール133Aと接続されており、マスク処理モジュール133Aによる制御によって画像を表示する。
図2は、本実施の形態の概念的な利用形態例を示す説明図である。
画像取得モジュール110は、画像処理装置120(図2には図示せず)を介して、表示モジュール132A、表示モジュール132B、表示モジュール132C、表示モジュール132Dと接続されている。画像取得モジュール110が撮影した観察対象101の画像を、表示モジュール132A等は表示する。
観察者102A等は、例えば、研究対象である観察対象101の行動を、個別のモニタである表示モジュール132A等でそれぞれ観察する。そして、観察者102A等は、それぞれが観察している状況をマスクされている表示モジュール132A等を通じて互いに伝え合う。
画像取得モジュール110は、画像処理装置120(図2には図示せず)を介して、表示モジュール132A、表示モジュール132B、表示モジュール132C、表示モジュール132Dと接続されている。画像取得モジュール110が撮影した観察対象101の画像を、表示モジュール132A等は表示する。
観察者102A等は、例えば、研究対象である観察対象101の行動を、個別のモニタである表示モジュール132A等でそれぞれ観察する。そして、観察者102A等は、それぞれが観察している状況をマスクされている表示モジュール132A等を通じて互いに伝え合う。
図3は、本実施の形態による処理例を示すフローチャートである。
ステップS302では、視線領域設定処理モジュール121が視線領域を設定する。
ステップS304では、例えば、所定時間の観察が行われたか否か等の終了条件を満たしているか否かを判断し、かかる判断で終了の場合(Yes)は終了(ステップS314)し、終了していない場合(No)はステップS306へ進む。
ステップS306では、各観察装置130内の視線計測モジュール131が各観察者102の視線の位置を計測する。
ステップS308では、視対象マッチング処理モジュール122が、視線領域と視線の位置をマッチングさせ、視対象領域を決定する。つまり、視線の位置がどの視線領域に含まれているかを検出し、その視線領域を視対象領域として決定する。
ステップS310では、視線領域集計処理モジュール123、表示領域算定処理モジュール124がマスクすべき視線領域を算定処理する。つまり、表示領域は、画像全域から視対象領域の和を引き、対象としている観察者の視対象領域を足したものである。この算定処理については、図10を用いて後述する。
ステップS312では、表示領域算定処理モジュール124がマスクする領域に関する情報、画像を各観察装置130に配信する。そして、ステップS304の処理へ戻る。
ステップS302では、視線領域設定処理モジュール121が視線領域を設定する。
ステップS304では、例えば、所定時間の観察が行われたか否か等の終了条件を満たしているか否かを判断し、かかる判断で終了の場合(Yes)は終了(ステップS314)し、終了していない場合(No)はステップS306へ進む。
ステップS306では、各観察装置130内の視線計測モジュール131が各観察者102の視線の位置を計測する。
ステップS308では、視対象マッチング処理モジュール122が、視線領域と視線の位置をマッチングさせ、視対象領域を決定する。つまり、視線の位置がどの視線領域に含まれているかを検出し、その視線領域を視対象領域として決定する。
ステップS310では、視線領域集計処理モジュール123、表示領域算定処理モジュール124がマスクすべき視線領域を算定処理する。つまり、表示領域は、画像全域から視対象領域の和を引き、対象としている観察者の視対象領域を足したものである。この算定処理については、図10を用いて後述する。
ステップS312では、表示領域算定処理モジュール124がマスクする領域に関する情報、画像を各観察装置130に配信する。そして、ステップS304の処理へ戻る。
図4、5を用いて、視線領域設定処理モジュール121によって設定される視線領域の例、視対象マッチング処理モジュール122によって決定される視対象領域の例について説明する。
図4(a)に示す画像401は、格子状に4つの視線領域に分けられた例を示している。また、図4(b)に示す画像411は、格子状に8つの視線領域に分けられた例を示している。視線領域は、観察者の数に合わせるようにしてもよい。
また、視線位置402、412が入っている視線領域の全体が、視対象領域403、413となる。
また、視線領域設定処理モジュール121によって設定される視線領域は、図5に示すように視線位置502を中心とした所定の半径の円(視覚領域)としてもよく、その場合、その視線位置に応じて視線領域の位置は変更する。そして、その視線領域は、観察者の視対象領域503ともなる。
図4(a)に示す画像401は、格子状に4つの視線領域に分けられた例を示している。また、図4(b)に示す画像411は、格子状に8つの視線領域に分けられた例を示している。視線領域は、観察者の数に合わせるようにしてもよい。
また、視線位置402、412が入っている視線領域の全体が、視対象領域403、413となる。
また、視線領域設定処理モジュール121によって設定される視線領域は、図5に示すように視線位置502を中心とした所定の半径の円(視覚領域)としてもよく、その場合、その視線位置に応じて視線領域の位置は変更する。そして、その視線領域は、観察者の視対象領域503ともなる。
図6は、取得画像及び視線位置の例を示す説明図である。
画像601、611、621は、画像取得モジュール110によって撮影された画像であり、それぞれ表示モジュール132A、132B、132Cによって表示される画像である。画像601内にある視線軌跡602は、視線計測モジュール131Aが計測した観察者102Aの視線位置の軌跡である。同様に、視線軌跡612、622は、視線計測モジュール131B、131Cが計測した観察者102B、102Cの視線位置の軌跡である。
画像601、611、621は、画像取得モジュール110によって撮影された画像であり、それぞれ表示モジュール132A、132B、132Cによって表示される画像である。画像601内にある視線軌跡602は、視線計測モジュール131Aが計測した観察者102Aの視線位置の軌跡である。同様に、視線軌跡612、622は、視線計測モジュール131B、131Cが計測した観察者102B、102Cの視線位置の軌跡である。
図7は、視対象マッチング処理モジュール122の処理例を示す説明図である。
図7(a)は、視対象マッチング処理モジュール122が、視線計測モジュール131Aによって計測された視線位置に基づいて、視対象領域703を決定した例を示すものである。同様に、図7(b)、(c)は、視対象マッチング処理モジュール122が、視線計測モジュール131B、131Cによって計測された視線位置に基づいて、視対象領域713、723を決定した例を示すものである。
図7(a)は、視対象マッチング処理モジュール122が、視線計測モジュール131Aによって計測された視線位置に基づいて、視対象領域703を決定した例を示すものである。同様に、図7(b)、(c)は、視対象マッチング処理モジュール122が、視線計測モジュール131B、131Cによって計測された視線位置に基づいて、視対象領域713、723を決定した例を示すものである。
図8は、視線領域集計処理モジュール123の処理例を示す説明図である。
視線領域集計処理モジュール123は、視対象マッチング処理モジュール122によって決定された視対象領域703、713、723を受け取り、それらを集計し、視線計測モジュール131Aによって計測された視線位置による視対象領域803、視線計測モジュール131Bによって計測された視線位置による視対象領域813、視線計測モジュール131Cによって計測された視線位置による視対象領域823を得る。
視線領域集計処理モジュール123は、視対象マッチング処理モジュール122によって決定された視対象領域703、713、723を受け取り、それらを集計し、視線計測モジュール131Aによって計測された視線位置による視対象領域803、視線計測モジュール131Bによって計測された視線位置による視対象領域813、視線計測モジュール131Cによって計測された視線位置による視対象領域823を得る。
図9は、表示領域算定処理モジュール124の処理例を示す説明図である。
図9(a)に示す画像601は、表示モジュール132Aによって表示され、視対象領域713、723がマスクされ、視対象領域703、733が表示されている。観察者102以外が見ている領域、つまり、視対象領域713は観察者102Bによって見られている領域であり、視対象領域723は観察者102Cによって見られている領域だからである。同様に、図9(b)に示す画像611は、表示モジュール132Bによって表示され、視対象領域703、723がマスクされ、視対象領域713、733が表示されている。図9(c)に示す画像621は、表示モジュール132Cによって表示され、視対象領域703、713がマスクされ、視対象領域723、733が表示されている。
図9(a)に示す画像601は、表示モジュール132Aによって表示され、視対象領域713、723がマスクされ、視対象領域703、733が表示されている。観察者102以外が見ている領域、つまり、視対象領域713は観察者102Bによって見られている領域であり、視対象領域723は観察者102Cによって見られている領域だからである。同様に、図9(b)に示す画像611は、表示モジュール132Bによって表示され、視対象領域703、723がマスクされ、視対象領域713、733が表示されている。図9(c)に示す画像621は、表示モジュール132Cによって表示され、視対象領域703、713がマスクされ、視対象領域723、733が表示されている。
図10は、図3に示したフローチャートのステップS310の処理の詳細な具体例であり、本実施の形態の主に視線領域集計処理モジュール123、表示領域算定処理モジュール124、マスク処理モジュール133による処理例を示すフローチャートである。
ステップS1002では、視線領域集計処理モジュール123が、全員の視対象領域の和を算定する(例えば、図8参照)。
ステップS1004では、表示領域算定処理モジュール124が、個々の各モニタ(表示モジュール132A、132B、132C)へ表示する領域を算定する(例えば、図9参照)。つまり、表示領域は、画像全域から視対象領域の和を引き、対象としている観察者の視対象領域を足したものである。したがって、マスク領域は、視対象領域の和から対象としている観察者の視対象領域を引いたものである。また、特に、マスク処理された領域に視線が移動した場合の処理については、後述する図11、13、15に示すフローチャートによる処理のいずれかを行う。
ステップS1002では、視線領域集計処理モジュール123が、全員の視対象領域の和を算定する(例えば、図8参照)。
ステップS1004では、表示領域算定処理モジュール124が、個々の各モニタ(表示モジュール132A、132B、132C)へ表示する領域を算定する(例えば、図9参照)。つまり、表示領域は、画像全域から視対象領域の和を引き、対象としている観察者の視対象領域を足したものである。したがって、マスク領域は、視対象領域の和から対象としている観察者の視対象領域を引いたものである。また、特に、マスク処理された領域に視線が移動した場合の処理については、後述する図11、13、15に示すフローチャートによる処理のいずれかを行う。
次に、図3に示したフローチャートのステップS312の処理をした後、以下の処理を行う。
ステップS1006では、各マスク処理モジュール133が、非表示領域(マスクすべき領域)にマスク処理がされていないか判断する。かかる判断において、マスク処理がされていない場合(Yes)はステップS1008へ進み、マスク処理がされている場合(No)はステップS1010へ進む。
ステップS1008では、該当するマスク処理モジュール133が、ステップS1004で計算されたマスクすべき領域に対して、マスキング処理(その領域を隠す処理)を実施する。
ステップS1010では、各マスク処理モジュール133が、表示領域にマスク処理がされているか判断する。かかる判断において、マスク処理がされている場合(Yes)はステップS1012へ進み、マスク処理がされていない場合(No)は終了(ステップS1014)する。
ステップS1012では、該当するマスク処理モジュール133が、ステップS1004で計算された表示すべき領域に対して、マスキング処理を消す。
ステップS1006では、各マスク処理モジュール133が、非表示領域(マスクすべき領域)にマスク処理がされていないか判断する。かかる判断において、マスク処理がされていない場合(Yes)はステップS1008へ進み、マスク処理がされている場合(No)はステップS1010へ進む。
ステップS1008では、該当するマスク処理モジュール133が、ステップS1004で計算されたマスクすべき領域に対して、マスキング処理(その領域を隠す処理)を実施する。
ステップS1010では、各マスク処理モジュール133が、表示領域にマスク処理がされているか判断する。かかる判断において、マスク処理がされている場合(Yes)はステップS1012へ進み、マスク処理がされていない場合(No)は終了(ステップS1014)する。
ステップS1012では、該当するマスク処理モジュール133が、ステップS1004で計算された表示すべき領域に対して、マスキング処理を消す。
図11、13、15に示すフローチャートは、マスク処理された領域へ視線が移動した場合の処理である。表示領域算定処理モジュール124は、視線位置又は視対象領域の履歴(少なくとも1つ前の状態)を記憶する。他の領域へ視線が移動したことの検知は、この履歴と現在の視線位置を比較することによって行う。
図11は、本実施の形態の主に表示領域算定処理モジュール124による処理例を示すフローチャートである。視線を向けた順序を優先したものである。
ステップS1102では、マスク処理された領域への視線位置の移動を検知する。
ステップS1104では、既にマスク処理された領域に対して視線を向けた順序の優先順位に基づいて、モニタ表示を変化させない。つまり、既に他の利用者が見ている領域(マスク領域)に後から視線が入ってきても、その視線の利用者にその領域を見せることはしない。
図11は、本実施の形態の主に表示領域算定処理モジュール124による処理例を示すフローチャートである。視線を向けた順序を優先したものである。
ステップS1102では、マスク処理された領域への視線位置の移動を検知する。
ステップS1104では、既にマスク処理された領域に対して視線を向けた順序の優先順位に基づいて、モニタ表示を変化させない。つまり、既に他の利用者が見ている領域(マスク領域)に後から視線が入ってきても、その視線の利用者にその領域を見せることはしない。
図12は、図11に示したフローチャートによる処理例を示す説明図である。
図12(a)は、Aさん(観察者102A)の表示モジュール132Aが表示する画像へのマスク処理に関するものであり、同様に、図12(b)、(c)は、それぞれBさん(観察者102B)、Cさん(観察者102C)の表示モジュール132B、表示モジュール132Cが表示する画像へのマスク処理に関するものである。そして、横方向に対応するステップ(例えば、ステップS1204A、ステップS1204B、ステップS1204C)は、同時期又は所定期間内の処理である。この構成は、後述する図14、16の説明でも同じである。
図12(a)は、Aさん(観察者102A)の表示モジュール132Aが表示する画像へのマスク処理に関するものであり、同様に、図12(b)、(c)は、それぞれBさん(観察者102B)、Cさん(観察者102C)の表示モジュール132B、表示モジュール132Cが表示する画像へのマスク処理に関するものである。そして、横方向に対応するステップ(例えば、ステップS1204A、ステップS1204B、ステップS1204C)は、同時期又は所定期間内の処理である。この構成は、後述する図14、16の説明でも同じである。
ステップS1202Aでは、Aさんが視線領域1へ視線を移動する。
ステップS1202Bでは、Bさんが視線領域2へ視線を移動する。なお、この時点で、Cさんは観察にまだ参加していない。
ステップS1204Aでは、ステップS1202Bの結果に応じて、視線領域2へマスク処理を行う。
ステップS1204Bでは、ステップS1202Aの結果に応じて、視線領域1へマスク処理を行う。
ステップS1204Cでは、ステップS1202A、ステップS1202Bの結果に応じて、視線領域1と視線領域2へマスク処理を行う。
ステップS1202Bでは、Bさんが視線領域2へ視線を移動する。なお、この時点で、Cさんは観察にまだ参加していない。
ステップS1204Aでは、ステップS1202Bの結果に応じて、視線領域2へマスク処理を行う。
ステップS1204Bでは、ステップS1202Aの結果に応じて、視線領域1へマスク処理を行う。
ステップS1204Cでは、ステップS1202A、ステップS1202Bの結果に応じて、視線領域1と視線領域2へマスク処理を行う。
ステップS1206Aでは、Aさんの視線は視線領域1のままである。
ステップS1206Bでは、Bさんの視線は視線領域2のままである。
ステップS1206Cでは、Cさんが視線領域1へ視線を移動する。
ステップS1208Aでは、図11に示したフローチャートに従い、視線領域2へマスク処理を行う。
ステップS1208Bでは、図11に示したフローチャートに従い、視線領域1へマスク処理を行う。
ステップS1208Cでは、図11に示したフローチャートに従い、視線領域1と視線領域2へマスク処理を行う。
この結果、図12(c)のステップS1208Cの画像表示例に示すように、Cさんの視線が視線領域1にあるにもかかわらず、視線領域1と視線領域2はマスクされたままである。
ステップS1206Bでは、Bさんの視線は視線領域2のままである。
ステップS1206Cでは、Cさんが視線領域1へ視線を移動する。
ステップS1208Aでは、図11に示したフローチャートに従い、視線領域2へマスク処理を行う。
ステップS1208Bでは、図11に示したフローチャートに従い、視線領域1へマスク処理を行う。
ステップS1208Cでは、図11に示したフローチャートに従い、視線領域1と視線領域2へマスク処理を行う。
この結果、図12(c)のステップS1208Cの画像表示例に示すように、Cさんの視線が視線領域1にあるにもかかわらず、視線領域1と視線領域2はマスクされたままである。
図13は、本実施の形態の主に表示領域算定処理モジュール124による処理例を示すフローチャートである。視線を向けた箇所は必ず見えるようにする処理である。
ステップS1302では、マスク処理された領域への視線位置の移動を検知する。
ステップS1304では、対象者(視線を移動した者)の視対象優先処理をする。つまり、対象者が視線を移動させた領域は、その対象者にとってマスクすべきでない領域(表示領域)とする。
ステップS1306では、対象者のモニタでは、対象者の視線対象領域のマスク処理を消して表示する。つまり、視線が移動した先の領域を見えるようにする。他のモニタに対する影響はない。
ステップS1302では、マスク処理された領域への視線位置の移動を検知する。
ステップS1304では、対象者(視線を移動した者)の視対象優先処理をする。つまり、対象者が視線を移動させた領域は、その対象者にとってマスクすべきでない領域(表示領域)とする。
ステップS1306では、対象者のモニタでは、対象者の視線対象領域のマスク処理を消して表示する。つまり、視線が移動した先の領域を見えるようにする。他のモニタに対する影響はない。
図14は、図13に示したフローチャートによる処理例を示す説明図である。
ステップS1402AからステップS1406Aは、図12に示したステップS1202AからステップS1206Aと同様である。同様に、ステップS1402BからステップS1406Bは、図12に示したステップS1202BからステップS1206Bと同様であり、ステップS1404C、ステップS1406Cは、図12に示したステップS1204C、ステップS1206Cと同様である。
ステップS1408Aでは、図13に示したフローチャートに従い、視線領域2へマスク処理を行う。
ステップS1408Bでは、図13に示したフローチャートに従い、視線領域1へマスク処理を行う。
ステップS1408Cでは、図13に示したフローチャートに従い、視線領域2へマスク処理を行う。視線領域1のマスク処理は消す。
つまり、視線領域1は、AさんとCさんの2人によって観察されていることになる。
ステップS1402AからステップS1406Aは、図12に示したステップS1202AからステップS1206Aと同様である。同様に、ステップS1402BからステップS1406Bは、図12に示したステップS1202BからステップS1206Bと同様であり、ステップS1404C、ステップS1406Cは、図12に示したステップS1204C、ステップS1206Cと同様である。
ステップS1408Aでは、図13に示したフローチャートに従い、視線領域2へマスク処理を行う。
ステップS1408Bでは、図13に示したフローチャートに従い、視線領域1へマスク処理を行う。
ステップS1408Cでは、図13に示したフローチャートに従い、視線領域2へマスク処理を行う。視線領域1のマスク処理は消す。
つまり、視線領域1は、AさんとCさんの2人によって観察されていることになる。
図15は、本実施の形態の主に表示領域算定処理モジュール124による処理例を示すフローチャートである。ユーザ優先度に応じて、マスク又はマスクの消去を行うものである。
ステップS1502では、マスク処理された領域への視線位置の移動を検知する。
ステップS1504では、移動した先の領域に既に視線位置がある他の利用者と対象者のユーザ優先度を比較し、対象者のユーザ優先度が高いかを判断する。かかる判断において、高い場合(Yes)はステップS1506へ進み、高くない場合(No)はステップS1508へ進む。ユーザ優先度とは、視線位置(視線位置のある視線領域)が重なった場合に、どちらの利用者に対してその領域を見せるかを順位付けしたものであり、ユーザ優先度が高い方が見ることができるようになっている。
ステップS1502では、マスク処理された領域への視線位置の移動を検知する。
ステップS1504では、移動した先の領域に既に視線位置がある他の利用者と対象者のユーザ優先度を比較し、対象者のユーザ優先度が高いかを判断する。かかる判断において、高い場合(Yes)はステップS1506へ進み、高くない場合(No)はステップS1508へ進む。ユーザ優先度とは、視線位置(視線位置のある視線領域)が重なった場合に、どちらの利用者に対してその領域を見せるかを順位付けしたものであり、ユーザ優先度が高い方が見ることができるようになっている。
ステップS1506では、対象者のモニタでは、対象者の視線対象領域のマスク処理を消して表示する。ステップS1504での比較で優先度が低いと判断された利用者のモニタでは、視線領域をマスク処理する。つまり、マスク領域と表示領域を入れ替える。
ステップS1508では、対象者のモニタ、その他の人のモニタ共に表示を変化させない。
ステップS1508では、対象者のモニタ、その他の人のモニタ共に表示を変化させない。
図16は、図15に示したフローチャートによる処理例を示す説明図である。
ここで、Cさんのユーザ優先度は、Aさんのそれよりも高いとする。
ステップS1602AからステップS1606Aは、図12に示したステップS1202AからステップS1206Aと同様である。同様に、ステップS1602BからステップS1606Bは、図12に示したステップS1202BからステップS1206Bと同様であり、ステップS1604C、ステップS1606Cは、図12に示したステップS1204C、ステップS1206Cと同様である。
ステップS1608Aでは、図15に示したフローチャートに従い、視線領域1と視線領域2へマスク処理を行う。
ステップS1608Bでは、図15に示したフローチャートに従い、視線領域1へマスク処理を行う。
ステップS1608Cでは、図15に示したフローチャートに従い、視線領域2へマスク処理を行う。視線領域1のマスク処理は消す。
つまり、視線領域1の観察者は、AさんからCさんに入れ替わる。
ここで、Cさんのユーザ優先度は、Aさんのそれよりも高いとする。
ステップS1602AからステップS1606Aは、図12に示したステップS1202AからステップS1206Aと同様である。同様に、ステップS1602BからステップS1606Bは、図12に示したステップS1202BからステップS1206Bと同様であり、ステップS1604C、ステップS1606Cは、図12に示したステップS1204C、ステップS1206Cと同様である。
ステップS1608Aでは、図15に示したフローチャートに従い、視線領域1と視線領域2へマスク処理を行う。
ステップS1608Bでは、図15に示したフローチャートに従い、視線領域1へマスク処理を行う。
ステップS1608Cでは、図15に示したフローチャートに従い、視線領域2へマスク処理を行う。視線領域1のマスク処理は消す。
つまり、視線領域1の観察者は、AさんからCさんに入れ替わる。
なお、本実施の形態としてのプログラムが実行されるコンピュータのハードウェア構成は、図17に例示するように、一般的なコンピュータであり、具体的にはパーソナルコンピュータ、サーバーとなり得るコンピュータ等である。視線領域設定処理モジュール121、視対象マッチング処理モジュール122、視線領域集計処理モジュール123、表示領域算定処理モジュール124、マスク処理モジュール133、等のプログラムを実行するCPU1701(この例では演算部としてCPUを用いた)と、そのプログラムやデータを記憶するRAM1702と、本コンピュータを起動するためのプログラム等が格納されているROM1703と、補助記憶装置であるHD1704(例えばハードディスクを用いることができる)と、キーボード、マウス等のデータを入力する入力装置1706と、CRTや液晶ディスプレイ等の出力装置1705と、通信ネットワークと接続するための通信回線インタフェース1707(例えばネットワークインタフェースカードを用いることができる)、そして、それらをつないでデータのやりとりをするためのバス1708により構成されている。これらのコンピュータが複数台互いにネットワークによって接続されていてもよい。
前述の実施の形態のうち、コンピュータ・プログラムによるものについては、本ハードウェア構成のシステムにソフトウェアであるコンピュータ・プログラムを読み込ませ、ソフトウェアとハードウェア資源とが協働して、前述の実施の形態が実現される。
なお、図17に示すハードウェア構成は、1つの構成例を示すものであり、本実施の形態は、図17に示す構成に限らず、本実施の形態において説明したモジュールを実行可能な構成であればよい。例えば、一部のモジュールを専用のハードウェア(例えばASIC等)で構成してもよく、一部のモジュールは外部のシステム内にあり通信回線で接続しているような形態でもよく、さらに図17に示すシステムが複数互いに通信回線によって接続されていて互いに協調動作するようにしてもよい。また、特に、パーソナルコンピュータの他、情報家電などに組み込まれていてもよい。
なお、図17に示すハードウェア構成は、1つの構成例を示すものであり、本実施の形態は、図17に示す構成に限らず、本実施の形態において説明したモジュールを実行可能な構成であればよい。例えば、一部のモジュールを専用のハードウェア(例えばASIC等)で構成してもよく、一部のモジュールは外部のシステム内にあり通信回線で接続しているような形態でもよく、さらに図17に示すシステムが複数互いに通信回線によって接続されていて互いに協調動作するようにしてもよい。また、特に、パーソナルコンピュータの他、情報家電などに組み込まれていてもよい。
なお、説明したプログラムについては、記録媒体に格納して提供してもよく、また、そのプログラムを通信手段によって提供してもよい。その場合、例えば、前記説明したプログラムについて、「プログラムを記録したコンピュータ読み取り可能な記録媒体」の発明としてとらえてもよい。
「プログラムを記録したコンピュータ読み取り可能な記録媒体」とは、プログラムのインストール、実行、プログラムの流通などのために用いられる、プログラムが記録されたコンピュータで読み取り可能な記録媒体をいう。
なお、記録媒体としては、例えば、デジタル・バーサタイル・ディスク(DVD)であって、DVDフォーラムで策定された規格である「DVD−R、DVD−RW、DVD−RAM等」、DVD+RWで策定された規格である「DVD+R、DVD+RW等」、コンパクトディスク(CD)であって、読出し専用メモリ(CD−ROM)、CDレコーダブル(CD−R)、CDリライタブル(CD−RW)等、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去及び書換可能な読出し専用メモリ(EEPROM)、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)等が含まれる。
そして、前記のプログラム又はその一部は、前記記録媒体に記録して保存や流通等させてもよい。また、通信によって、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等に用いられる有線ネットワーク、あるいは無線通信ネットワーク、さらにこれらの組み合わせ等の伝送媒体を用いて伝送させてもよく、また、搬送波に乗せて搬送させてもよい。
さらに、前記のプログラムは、他のプログラムの一部分であってもよく、あるいは別個のプログラムと共に記録媒体に記録されていてもよい。また、複数の記録媒体に分割して
記録されていてもよい。また、圧縮や暗号化など、復元可能であればどのような態様で記録されていてもよい。
「プログラムを記録したコンピュータ読み取り可能な記録媒体」とは、プログラムのインストール、実行、プログラムの流通などのために用いられる、プログラムが記録されたコンピュータで読み取り可能な記録媒体をいう。
なお、記録媒体としては、例えば、デジタル・バーサタイル・ディスク(DVD)であって、DVDフォーラムで策定された規格である「DVD−R、DVD−RW、DVD−RAM等」、DVD+RWで策定された規格である「DVD+R、DVD+RW等」、コンパクトディスク(CD)であって、読出し専用メモリ(CD−ROM)、CDレコーダブル(CD−R)、CDリライタブル(CD−RW)等、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去及び書換可能な読出し専用メモリ(EEPROM)、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)等が含まれる。
そして、前記のプログラム又はその一部は、前記記録媒体に記録して保存や流通等させてもよい。また、通信によって、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等に用いられる有線ネットワーク、あるいは無線通信ネットワーク、さらにこれらの組み合わせ等の伝送媒体を用いて伝送させてもよく、また、搬送波に乗せて搬送させてもよい。
さらに、前記のプログラムは、他のプログラムの一部分であってもよく、あるいは別個のプログラムと共に記録媒体に記録されていてもよい。また、複数の記録媒体に分割して
記録されていてもよい。また、圧縮や暗号化など、復元可能であればどのような態様で記録されていてもよい。
110…画像取得モジュール
120…画像処理装置
121…視線領域設定処理モジュール
122…視対象マッチング処理モジュール
123…視線領域集計処理モジュール
124…表示領域算定処理モジュール
130…観察装置
131…視線計測モジュール
132…表示モジュール
133…マスク処理モジュール
120…画像処理装置
121…視線領域設定処理モジュール
122…視対象マッチング処理モジュール
123…視線領域集計処理モジュール
124…表示領域算定処理モジュール
130…観察装置
131…視線計測モジュール
132…表示モジュール
133…マスク処理モジュール
Claims (6)
- 画像に対する複数の利用者の視線の位置を受け付ける視線位置受付手段と、
前記視線位置受付手段によって受け付けられた第1の利用者以外の第2の利用者の視線の位置に基づいて、前記画像の一部を隠蔽すべき領域を設定する隠蔽領域設定手段
を具備することを特徴とする情報処理装置。 - 前記画像内に領域を設定する領域設定手段と、
前記視線位置受付手段によって受け付けられた視線の位置と前記領域設定手段によって設定された領域とを照合して視対象領域を決定する視対象領域決定手段
をさらに具備し、
前記隠蔽領域設定手段は、
前記隠蔽すべき領域を前記視対象領域決定手段によって決定された前記第2の利用者の視線の位置による視対象領域とする
ことを特徴とする請求項1に記載の情報処理装置。 - 前記利用者に対して既に隠蔽すべきと決定された視対象領域に、前記視線位置受付手段によって受け付けられた該利用者の視線の位置がある場合は、該視対象領域を表示すべき領域として設定する表示領域設定手段
をさらに具備することを特徴とする請求項2に記載の情報処理装置。 - 前記利用者に対して既に隠蔽すべきと決定された視対象領域に、前記視線位置受付手段によって受け付けられた該利用者の視線の位置がある場合は、該利用者と該視対象領域に視線の位置がある前記第2の利用者との優先度を比較した結果に基づいて、該視対象領域を表示すべき領域とするか否かを設定する表示領域設定手段
をさらに具備することを特徴とする請求項2に記載の情報処理装置。 - 画像を表示する複数の表示手段と、
前記表示手段によって表示されている画像に対する利用者の視線の位置を計測する複数の視線計測手段と、
前記隠蔽領域設定手段によって設定された領域に基づいて、前記表示手段によって表示される画像の一部を隠蔽する隠蔽手段
をさらに具備し、
前記視線位置受付手段は、前記複数の視線計測手段によって計測された視線の位置を受け付ける
ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。 - コンピュータを、
画像に対する複数の利用者の視線の位置を受け付ける視線位置受付手段と、
前記視線位置受付手段によって受け付けられた第1の利用者以外の第2の利用者の視線の位置に基づいて、前記画像の一部を隠蔽すべき領域を設定する隠蔽領域設定手段
として機能させることを特徴とする情報処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008054956A JP2009211506A (ja) | 2008-03-05 | 2008-03-05 | 情報処理装置及び情報処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008054956A JP2009211506A (ja) | 2008-03-05 | 2008-03-05 | 情報処理装置及び情報処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009211506A true JP2009211506A (ja) | 2009-09-17 |
Family
ID=41184571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008054956A Pending JP2009211506A (ja) | 2008-03-05 | 2008-03-05 | 情報処理装置及び情報処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009211506A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017228197A (ja) * | 2016-06-24 | 2017-12-28 | カシオ計算機株式会社 | 出力装置、出力方法及びプログラム |
-
2008
- 2008-03-05 JP JP2008054956A patent/JP2009211506A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017228197A (ja) * | 2016-06-24 | 2017-12-28 | カシオ計算機株式会社 | 出力装置、出力方法及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210073421A1 (en) | Video-based privacy supporting system | |
EP3692461B1 (en) | Removing personally identifiable data before transmission from a device | |
Poelman et al. | As if being there: mediated reality for crime scene investigation | |
US10937290B2 (en) | Protection of privacy in video monitoring systems | |
US8929596B2 (en) | Surveillance including a modified video data stream | |
CN101548546B (zh) | 输出设备、输出方法和程序 | |
US20160328627A1 (en) | Imaging device, recording device, and moving image output control device | |
US9141190B2 (en) | Information processing apparatus and information processing system | |
US20160210516A1 (en) | Method and apparatus for providing multi-video summary | |
US20100245584A1 (en) | Method and apparatus for creating a zone of interest in a video display | |
US9372601B2 (en) | Information processing apparatus, information processing method, and program | |
Kim et al. | Visual analytics on mobile devices for emergency response | |
JP4623497B2 (ja) | 遠隔制御システムおよびその処理方法 | |
Li et al. | OmniGlobe: An interactive I/O system for symmetric 360-degree video communication | |
JP5088463B2 (ja) | 監視システム | |
US10394188B2 (en) | Protection of private content and objects | |
US20090015677A1 (en) | Beyond Field-of-View Tracked Object Positional Indicators for Television Event Directors and Camera Operators | |
JP2009211506A (ja) | 情報処理装置及び情報処理プログラム | |
Pikaar et al. | Human Factors Guidelines for CCTV system design | |
EP4164215A1 (en) | Video playback method and apparatus, and electronic device and computer-readable storage medium | |
KR101252389B1 (ko) | 사생활 보호 기능이 가지는 쌍방향 인터렉션 방법 및 쌍방향 인터렉션 시스템, 이를 위한 기록 매체 | |
KR102152726B1 (ko) | 영상검색기능이 개선된 타임라인을 지원하는 영상장치 | |
JP5065753B2 (ja) | 遮蔽制御装置、被写体遮蔽制御システム、及び遮蔽制御プログラム | |
KR102540316B1 (ko) | 메타버스 공간 내에서의 시선 방해 요인 제거 방법 및 프로그램 | |
WO2023286292A1 (ja) | 情報処理装置、情報処理方法およびコンピュータ可読媒体 |