JP2015103020A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2015103020A
JP2015103020A JP2013243077A JP2013243077A JP2015103020A JP 2015103020 A JP2015103020 A JP 2015103020A JP 2013243077 A JP2013243077 A JP 2013243077A JP 2013243077 A JP2013243077 A JP 2013243077A JP 2015103020 A JP2015103020 A JP 2015103020A
Authority
JP
Japan
Prior art keywords
display
degree
information
restriction
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013243077A
Other languages
English (en)
Inventor
朋紀 工藤
Tomonori Kudo
朋紀 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013243077A priority Critical patent/JP2015103020A/ja
Publication of JP2015103020A publication Critical patent/JP2015103020A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】閲覧権限を有さない人物による表示情報の閲覧を制限しつつ、操作者の利便性の低下を防ぐことを目的とする。
【解決手段】表示手段の存在する領域の環境情報を取得する取得手段と、環境情報に基づいて、表示手段に表示される表示情報の表示制限の程度を示す制限度を算出する制限度算出手段と、制限度に基づいて表示情報の表示を制限する制限手段とを有する。
【選択図】図1

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
セキュリティの観点からは、機密情報や個人情報が含まれる情報の表示は、閲覧権限のない人物が周囲にいない環境において行うことが望ましい。しかしながら、外出先等においては、必ずしも閲覧権限のない人物がいない環境があるとは限らない。
そこで、従来から、閲覧権限のない人物による覗き見を防止する技術が開発されている。例えば、特許文献1には、閲覧権限のない人物が覗き見した場合に限り、表示画面に表示されている表示情報に対する隠蔽化処理を行う技術が開示されている。また、特許文献2には、操作者以外の人物の視線を検出した場合に、他人から覗き見されないように、表示画像の視野角を制御する技術が開示されている。
特開2009−80668号公報 特開2012−129701号公報
しかしながら、例えば特許文献1の技術においては、隠蔽化制御が行われた場合には、操作者自身も表示情報の閲覧等を行えないという問題があった。また、特許文献2の技術においては、操作者による表示情報の閲覧は可能であるものの、操作者の視線方向に近い方向からの閲覧を制限することができないという問題があった。
本発明はこのような問題点に鑑みなされたもので、閲覧権限を有さない人物による表示情報の閲覧を制限しつつ、操作者の利便性の低下を防ぐことを目的とする。
そこで、本発明は、情報処理装置であって、表示手段の存在する領域の環境情報を取得する取得手段と、前記環境情報に基づいて、前記表示手段に表示される表示情報の表示制限の程度を示す制限度を算出する制限度算出手段と、前記制限度に基づいて前記表示情報の表示を制限する制限手段とを有する。
本発明によれば、閲覧権限を有さない人物による表示情報の閲覧を制限しつつ、操作者の利便性の低下を防ぐことができる。
情報処理装置を示す図である。 表示部、カメラ及びマイクの位置関係を示す図である。 表示制御処理を示すフローチャートである。 データ例を示す図である。 安全度と文字サイズの関係を示す図である。 人物距離及び騒音と、安全度の関係を示す図である。 安全度とフィルタ濃度の関係を示す図である。 作業レコメンド処理を示すフローチャートである。
以下、本発明の実施形態について図面に基づいて説明する。
(第1の実施形態)
図1は、第1の実施形態にかかる情報処理装置100を示す図である。情報処理装置100は、CPU101と、記憶部102と、表示部103と、入力部104と、GPS105と、カメラ106と、マイク107と、ネットワークI/F108とを有している。CPU101は、記憶部102に記憶された制御プログラムを読み出して各種処理を実行する。記憶部102は、プログラムや画像データ等各種情報を記憶する。
なお、後述する情報処理装置100の機能や処理は、CPU101が記憶部102に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
表示部103は、各種情報を表示する。入力部104は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。GPS105は、情報処理装置100の位置情報を取得する。カメラ106は、画像を撮像する。マイク107は、音声を受け付ける。ネットワークI/F108は、ネットワークを介して外部装置との通信処理を行う。
図2は、表示部103、カメラ106及びマイク107の位置関係を示す図である。カメラ106及びマイク107は、表示部103の上部に設置されているものとする。したがって、カメラ106の撮影範囲200には、操作者Aが含まれる。さらに、撮影範囲200内に、表示部103に表示されている表示情報の閲覧権限(アクセス権限)を有さない人物Bが存在する場合には、カメラ106は、この人物を含む画像を撮影することができる。また、マイク107は、表示部103の上部に設置されているので、表示部103の周囲の音声を取得することができる。
図3は、情報処理装置100による表示制御処理を示すフローチャートである。S300において、CPU101は、環境情報を取得する(取得処理)。本実施形態にかかるCPU101は、環境情報として、センサとしてのカメラ106から撮影画像を取得する。CPU101はまた、環境情報として、センサとしてのマイク107から音声を取得する。CPU101はまた、環境情報として、センサとしてのGPS105から位置情報を取得する。すなわち、本実施形態にかかる環境情報は、表示部103の周囲(表示部103が存在する領域)の撮影画像、音声及び位置情報を含んでいる。例えば、図2に示すように、操作者A及び人物Bが存在する場合には、CPU101は、操作者A及び人物Bが撮影された撮影画像を環境情報として取得する。
次に、S301において、CPU101は、カメラ画像の顔認証処理により、操作者を検出する。具体的には、CPU101は、アクセス権を有する人物が検出された場合に、これを操作者として検出する。なお、アクセス権を有する人物に関する情報が予め記憶部102等に格納されているものとする。ここで、アクセス権を有する人物に関する情報としては、アクセス権を有する人物の顔画像や、顔画像の特徴量等である。そして、CPU101は、記憶部102の情報を参照してアクセス権を有する人物を検出する。
なお、CPU101は、アクセス権を有する人物が複数検出された場合には、表示部103に最も近い位置に存在する人物を操作者として検出することとする。なお、表示部103から特定の人物までの距離を算出する処理については後述する。
CPU101は、操作者を検出した場合には(S301でYes)、処理をS302へ進める。CPU101は、操作者を検出しなかった場合には(S301でNo)、処理をS305へ進める。S302において、CPU101は、アクセス権のない人物を検出する。具体的には、CPU101は、カメラ画像を用いた人体検出により、人体を検出し、顔認証により検出された操作者以外の人物を、アクセス権のない人物として検出する。アクセス権のある人物であっても、操作者以外の人物は、撮影距離や顔の向きによっては検出が困難な可能性が高い。そこで、本実施形態においては、CPU101は、操作者以外の人物については、すべてアクセス権のない人物として検出することとする。
なお、他の例としては、S302において、CPU101は、操作者以外の人物についても、アクセス権を有する人物か否かを判別した上で、アクセス権を有さない人物の検出を行ってもよい。
CPU101は、アクセス権のない人物を検出した場合には(S302でYes)、処理をS303へ進める。CPU101は、アクセス権のない人物を検出しなかった場合には(S302でNo)、処理をS304へ進める。S303において、CPU101は、表示部103から操作者までの操作者距離と、カメラ106からアクセス権のない人物までの人物距離とを算出する(距離算出処理)。
例えば、CPU101は、カメラ106から仮想被写体としての操作者までの距離を最短撮影距離から過焦点距離まで変更し、操作者にピントが合う仮想被写体距離での最短被写体距離を操作者距離として算出する。なお、CPU101は、仮想被写体距離の変更前後のピントが合う範囲が重なっている場合には、変更前のピントが合う範囲の最長被写体距離を操作者距離として算出する。
ピントの合う範囲の被写界深度は、(式1)により定まる。
被写界深度=前方被写界深度+後方被写界深度 …(式1)
また、前方被写界深度及び後方被写界深度は、それぞれ(式2)及び(式3)により得られる。
前方被写界深度=(R^2*δ*F)/(f^2+R*δ*F) …(式2)
後方被写界深度=(R^2*δ*F)/(f^2−R*δ*F) …(式3)
ここで、Rは仮想被写体までの距離、δは許容錯乱円径(例えば、0.03mm)、FはF値(絞り値)、fはレンズ焦点距離である。
図4(a)は、レンズ焦点距離fを33mm、F値を2.0とした場合のデータ例を示す図である。この場合、CPU101は、操作者距離を0.42m、人物距離を1.55mと算出する。
なお、他の例としては、カメラ106の絞りが可変である場合には、CPU101は、パンフォーカス撮影を利用して、操作者距離及び人物距離を算出してもよい。例えば、カメラ106の絞りが開かれた状態から徐々に絞られていくと、後方から前方にピントが合っていく。図4(b)は、レンズ焦点距離fを28mmとした場合のデータ例を示す図である。この場合、CPU101は、操作者距離を0.5m、人物距離を4.2mと算出する。
また、他の例としては、操作者又はアクセス権のない人物にピントが合った状態から絞りが絞られていくと、ピントが合っている範囲が後方に広がっていく。CPU101は、これを利用して、操作者距離及び人物距離を算出してもよい。図4(c)は、レンズ焦点距離fを28mmとした場合のデータ例を示す図である。この場合、CPU101は、操作者距離を0.5m、人物距離を1.7mと算出する。
図3に戻り、S304において、CPU101は、マイク107から取得した音声データに基づいて、騒音レベル(音声レベル)を特定する。CPU101は、例えば、音声データから人の声を抽出し、人の声についての騒音レベルを特定してもよい。また、他の例としては、CPU101は、音声データから人の声を除外し、人の声以外の成分について騒音レベルを特定してもよい。
次に、S305において、CPU101は、S303において算出した人物距離と、S304において特定した騒音レベルとに基づいて、安全度を算出する。ここで、安全度とは、表示部103の置かれた環境において、表示部103に表示された情報が覗き見される可能性を示す指標値である。すなわち、安全度が高い程、表示部103の表示内容が覗き見される可能性は低く、安全性が低い程、覗き見される可能性が高い。
なお、後述のS310において、CPU101は、安全度の値に応じた程度の表示制限を行う。すなわち、安全度は、表示情報の表示制限の程度を示す制限度の一例であり、S305の処理は、制限度算出処理の一例である。
CPU101は、操作者が表示部103の表示を操作可能な領域に位置しない場合には、安全度「0」を算出する。なお、操作可能な領域は、表示部103を基準とする領域であり、操作可能な領域を示す情報が予め記憶部102等に格納されているものとする。そして、CPU101は、記憶部102に格納されている情報に基づいて、操作可能な領域に位置するか否かを判定するものとする。他の例としては、CPU101は、カメラ画像において操作者が検出されない場合に、操作者が操作可能な領域に位置しないと判断してもよい。
操作者が操作可能な領域に位置する場合には、CPU101は、(式4)により、安全度Sを算出する。
S=1−((W1*V)+(W2/L)) …(式4)
ここで、W1は騒音に対するウエイト(0<W1<=1)、Vは騒音レベル(dB)、W2は人物距離に対するウエイト(0<W2<=1)、Lは人物距離(アクセス権を有さない人物が存在しない場合、L=∞とする)である。
次に、S306において、CPU101は、表示情報から表示制限の対象となる対象部分を抽出する。対象部分とは、CPU101は、例えば、個人情報や機密情報等関係者以外に見られたくない文字列や画像を対象部分として抽出する。具体的には、表示情報に対し、対象部分が予め設定されており、CPU101は、予め設定された対象部分を抽出する。なお、CPU101は、表示情報全体を対象部分として抽出してもよい。
次に、S307において、CPU101は、安全度と、機能制限閾値とを比較する。ここで、機能制限閾値は、例えば記憶部102等に予め設定されている。CPU101は、安全度が機能制限閾値よりも小さい場合には(S307でYes)、処理をS308へ進める。CPU101は、安全度が機能制限閾値以上である場合には(S307でNo)、S308をスキップし、処理をS309へ進める。
S308において、CPU101は、入力部104を利用した文字入力処理や、編集処理等、表示情報に対する変更機能を制限する。具体的には、CPU101は、変更機能の利用を禁止する。安全度の低い状態で、機密情報や個人情報の入力操作を行うことは、セキュリティ上好ましくないためである。また、後述の表示制限処理により、表示情報の表示が制限されると、操作者は、表示情報を見難くなり、入力、変更等の誤操作の可能性が高くなるためである。
次に、S309において、CPU101は、安全度と、表示制限閾値とを比較する。ここで、表示制限閾値は、例えば記憶部102等に予め設定されている。表示制限閾値は、機能制限閾値と異なる値であってもよく、また等しい値であってもよい。機能制限閾値及び表示制限閾値は、それぞれ任意に設定可能である。
CPU101は、安全度が表示制限閾値よりも小さい場合には(S309でYes)、処理をS310へ進める。CPU101は、安全度が表示制限閾値以上である場合には(S309でNo)、S310をスキップし、処理をS300へ進める。
S310において、CPU101は、安全度に基づいて、S306において抽出された対象部分の表示制限を行う(制限処理)。CPU101は、安全度の値に応じた程度の表示制限を行う。具体的には、CPU101は、安全度の値に応じて、縮小対象とする文字サイズ及び縮小率を決定する。そして、縮小対象となる文字サイズの文字を、決定した縮小率で縮小する。本実施形態にかかるCPU101は、安全度が低くなるにつれ、大きい文字から順に縮小処理を開始し、さらに安全度が低くなるにつれて文字が徐々に小さくなるように、縮小処理を行う。文字サイズが小さくなることにより、表示部103から離れた位置に存在する人物からは、文字の判読が困難となる。これにより、覗き見を防ぐことができる。
図5は、安全度と文字サイズの関係を示す図である。図5の例においては、表示情報中のタイトル、サブタイトル、及び本文が、対象部分として抽出されているものとする。なお、タイトル、サブタイトル、及び本文の文字サイズは、この順に小さくなっている。
図5に示す例においては、CPU101は、安全度が最も高い場合には、表示情報500に示すように、対象部分の表示制限を行わない。そして、安全度が低くなると、CPU101は、表示情報501に示すように、「タイトル」の文字サイズを縮小対象として特定し、縮小して表示する。これにより、表示部103からある程度離れた場所に位置する人物にとっては、タイトルを含む対象部分の判別が困難となる。なお、サブタイトル等の文字は、元の文字サイズが大きくないため、ある程度離れた位置からは、もともと判別が困難である。本実施形態にかかるCPU101はさらに、元の文字列等の大きさがわかるように、元の文字列の表示領域の境界枠を表示する。
安全度がさらに低くなると、CPU101は、表示情報502に示すように、「サブタイトル」の文字サイズをさらに縮小対象として特定し、「タイトル」及び「サブタイトル」の文字列を縮小して表示する。
安全度がさらに低くなると、CPU101は、表示情報503に示すように、「本文」の文字サイズをさらに縮小対象として特定し、「タイトル」、「サブタイトル」及び「本文」の文字列を縮小して表示する。これにより、例えば、操作者に近い位置にアクセス権がない人物が存在するような安全度の低い状況においては、CPU101は、操作者にとっても判読不能な程度の文字サイズにまで文字を縮小する。
以上のように、CPU101は、安全度に応じて、表示制限の程度を異ならせることができる。なお、CPU101は、安全度に応じて、連続的に表示制限の程度を変化させてもよく、他の例としては、安全度に応じて、段階的に表示制限の程度を変化させてもよい。
図6は、人物距離及び騒音と、安全度の関係を示す図である。このように、CPU101は、人物距離が短くなる程、また騒音が大きくなる程、より大きい安全度を算出することができる。
図6に示す例においては、t0〜t1の期間においては、アクセス権のない人物が検出されず、騒音も小さい。この場合、安全度は比較的高い値となる。そして、t1〜t2の期間は、アクセス権のない人物が表示部103に近づいてきて、再び離れていく状況に対応している。この状況に対応して、t1〜t2の期間においては、アクセス権のない人物が表示部103に近づいてくるにつれて、安全度は徐々に低下し、その後、アクセス権のない人物が離れていくにつれて、再度安全度が高くなっている。
また、t2〜t3の期間は、操作者が表示部103の前からいったん離れ、再び戻ってくる状況に対応している。この状況に対応し、t2〜t3の期間においては、操作者が離れたことにより、安全度が減少し、その後、再度安全度が高くなっている。
以上のように、本実施形態にかかる情報処理装置100は、表示部103から操作者以外の人物までの距離や表示部103の周囲における騒音等の環境情報に基づいて、安全度を算出する。そして、情報処理装置100は、安全度の値に応じた程度の表示制限を行う。すなわち、情報処理装置100は、環境に応じて程度の異なる表示制限を行うことができる。これにより、環境によっては、アクセス権のない人物による覗き見を防ぎつつも、操作者による閲覧や編集作業等の操作を可能とすることができる。すなわち、情報処理装置100は、閲覧権限を有さない人物による表示情報の閲覧を制限しつつ、操作者の利便性の低下を防ぐことができる。
第1の実施形態にかかる情報処理装置100の第1の変更例について説明する。S310における表示制限方法は、実施形態に限定されるものではない。他の例としては、CPU101は、安全度の値に応じたフィルタ処理を行うことにより、表示制限を行ってもよい。具体的には、CPU101は、安全度の値に応じて、フィルタ処理の対象とする文字サイズ及びフィルタ濃度を決定する。そして、CPU101は、対象となる文字サイズの文字に対し、決定したフィルタ濃度のフィルタを重畳する。より具体的には、CPU101は、安全度が低くなるにつれて、大きい文字から順にフィルタ処理を開始し、さらに安全度が低くなるにつれて、フィルタ濃度を徐々に濃くしていく。
図7は、安全度とフィルタ濃度の関係を示す図である。図7の例においては、CPU101は、安全度が低くなるにつれて、対象部分のうち文字サイズの大きい部分から順に、フィルタ処理の対象として選択していく。CPU101はさらに、安全度が低くなるにつれて、フィルタ濃度を濃くしていく。そして、CPU101は、安全度0においては、フィルタ濃度を最大とし、文字の判読を不能とする。
また、第2の変更例としては、CPU101は、操作者にとっても判読不能となった場合に、機密情報や個人情報等の表示内容の種類を操作者に認識可能とすべく、枠の色や、文字の色、フィルタの色や種類等を表示内容毎に異ならせてもよい。
第3の変更例としては、S303における距離の算出方法は、実施形態に限定されるものではない。他の例としては、CPU101は、距離センサやステレオカメラにより得られた情報に基づいて各距離を特定してもよい。
また、他の例としては、CPU101は、操作者とアクセス権のない人物の顔の大きさの比較結果に基づいて、人物距離を操作者距離に対する相対値として特定してもよい。具体的には、CPU101は、比較結果に基づいて、人物距離を、顔認識できる距離、視線認識できる距離、操作者と同等な距離の3段階の距離として特定してもよい。
第4の変更例としては、S303において、CPU101は、距離を算出するのにかえて、他の装置において特定された各距離を環境情報として取得してもよい。
第5の変更例としては、S305における安全度の算出方法は、実施形態に限定されるものではない。例えば、人通りが多い場合等安全度が常に変動する場合、文字の大きさは常に変動することとなる。このため、表示が安定せず、操作者にとって、表示部103の表示は見づらいものとなってしまう。そこで、CPU101は、操作者が操作可能な領域に位置する場合において、安全度Sが閾値αよりも大きい場合に限り、(式4)により安全度Sを算出することとし、安全度Sが閾値α以下である場合には、安全度Sをαとする。なお、閾値αは、予め記憶部102等に設定されているものとする。
なお、閾値αは、作業開始からの安全度の平均に基づいて決定されてもよい。また、他の例としては、GPS105の位置情報に基づいてエリア毎の安全度の平均に基づいて、操作者の位置に応じて閾値αを定めてもよい。これにより、情報処理装置100は、安全度が閾値以下となった場合には、一律の表示制御を行う。したがって、安全度が閾値よりも大きい場合には、文字の大きさの変動が生じるものの、安全度が閾値以下の場合には、文字の大きさを固定して表示することができる。
第6の変更例としては、S306において対象部分を抽出する処理は、実施形態に限定されるものではない。他の例としては、CPU101は、文字列から固有表現抽出により、氏名、住所、電話番号等の個人情報の部分を対象部分として抽出してもよい。また、他の例としては、CPU101は、文字列から固有表現抽出により、企業名や製品名等の重要語の部分を対象部分として抽出してもよい。同様に、CPU101は、画像については、画像内の文字認識により得られた文字から固有表現抽出により、個人情報等が含まれる部分を対象部分として抽出してもよい。
(第2の実施形態)
次に、第2の実施形態にかかる情報処理装置100について説明する。第2の実施形態にかかる情報処理装置100は、安全度に応じて、ユーザが実行すべき作業を選択し、これをレコメンド作業としてユーザに提示する。なお、ここでは、第2の実施形態にかかる情報処理装置100について、第1の実施形態にかかる情報処理装置100と異なる部分について説明する。
本実施形態にかかる情報処理装置100は、表示部103を利用する作業の機密度と、締切期限とを作業毎に管理する。具体的には、情報処理装置100は、記憶部102に格納された機密度と、締切期限とを作業に対応付けたテーブルにより、これらの情報を管理する。
図8は、第2の実施形態にかかる情報処理装置100による、作業レコメンド処理を示すフローチャートである。作業レコメンド処理のうち、第1の実施形態にかかる表示制御処理における各処理と同一の処理については、同一番号を付している。
S304において、安全度を算出した後、CPU101は、処理をS800へ進める。S800において、CPU101は、各作業のレコメンドスコアを算出する。ここで、レコメンドスコアは、推奨度の一例であり、作業の実行を推奨する度合を示す値である。また、S800の処理は、推奨度算出処理の一例である。
具体的には、CPU101はまず、締切期限と、処理実行時の日時とに基づいて、作業の緊急度を算出する。CPU101はまた、作業において表示される表示情報全体対する機密情報や個人情報の割合を、作業の機密度として算出する。そして、CPU101は(式5)により、安全度と、各作業の緊急度及び機密度と、に基づいて、各作業のレコメンドスコアRを算出する。
R=(W3*We)−(W4*Ws)/(S+1) …(式5)
ここで、W3は、作業の緊急度に対するウエイトである。Weは、作業の緊急度(0<=We<=1)であり、We=1が最も緊急度が高い。W4は、作業の機密素に対するウエイトである。Wsは、作業の機密度(0<=Ws<=1)であり、Ws=1が最も機密度が高い。Sは、安全度(S<=1)である。
(式5)の第1項は、緊急度のスコアであり、安全性とは関連がない。第1項の値は、緊急度が高い程、大きくなる。なお、レコメンドスコアRは、第1項の値が大きくなる程、大きくなる。第2項は、機密度のスコアであり、安全度に関連する。第2項の値は、安全度が低くなる程、又は機密度が大きくなる程、大きくなる。レコメンドスコアRの値は、第2項の値が大きくなる程、小さくなる。
例えば、作業1の緊急度は0.7、機密度は0.5であるとする。また、作業2の緊急度は0.4、機密度は0.1であるとする。また、W3,W4のウエイトをそれぞれ1.0,1.2とする。この条件において、安全度が0.9の場合における作業1及び作業2のレコメンドスコアは、それぞれ0.38,0.34である。これに対し、同一条件において、安全度が0.3の場合における作業1及び作業2のレコメンドスコアは、それぞれ0.24,0.31である。
このように、安全度が比較的高い場合には、作業2に比べて緊急度の高い作業1の方が、レコメンドスコアは高い値となる一方で、安全度が比較的低い場合には、作業1に比べて機密度の低い作業2の方が、レコメンドスコアは高い値となる。
次に、S801において、CPU101は、レコメンドスコアに基づいて、実行すべき作業を選択する(作業選択処理)。そして、CPU101は、選択した作業をおすすめ作業として表示部103に表示する等してユーザに通知する。
なお、第2の実施形態にかかる情報処理装置100のこれ以外の構成及び処理は、第1の実施形態にかかる情報処理装置100の構成及び処理と同様である。
以上のように、第2の実施形態にかかる情報処理装置100は、環境情報に基づいて、レコメンドスコアを算出し、レコメンドスコアにより、ユーザに推奨すべき作業を提示することができる。セキュリティ上好ましくない環境において機密性の高い情報を扱うような作業を行う場合には、周囲の環境に配慮する必要があり、作業効率が低くなる。これに対し、本実施形態にかかる情報処理装置100は、環境に適した作業を自動的に選択するので、ユーザは、環境に応じて、適切な作業を効率的に行うことができる。すなわち、情報処理装置100は、閲覧権限を有さない人物による表示情報の閲覧を制限しつつ、操作者の利便性の低下を防ぐことができる。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
また、本発明の目的は前述した実施例の機能を実現するプログラムコードを記録した記録媒体を、システム又は装置に供給し、そのシステム等のコンピュータが記録媒体に格納された制御プログラムコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出された制御プログラムコード自体が前述した実施形態の機能を実現することとなり、その制御プログラムコードを記憶した記憶媒体は本発明を構成することになる。
制御プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM、DVD等を用いることができる。
また、コンピュータが読み出した制御プログラムコードを実行することにより、前述した実施例の機能が実現される場合も含まれる。また、その制御プログラムコードの指示に基づきコンピュータ上で稼動しているOS等が実際の処理を行い、その処理によって前述した実施例の機能が実現される場合も含まれる。
さらに、記憶媒体から読み出された制御プログラムコードが、コンピュータに挿入されたボードに備わるメモリに書きこまれた後、そのプログラムコードの指示に基づき、そのボードが実際の処理を行い、その処理によって機能が実現される場合も含まれる。コンピュータに接続されたユニットも同様である。
以上、上述した各実施形態によれば、閲覧権限を有さない人物による表示情報の閲覧を制限しつつ、操作者の利便性の低下を防ぐことができる。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
100 情報処理装置、101 CPU、102 記憶部、103 表示部、106 カメラ、107 マイク

Claims (12)

  1. 表示手段の存在する領域の環境情報を取得する取得手段と、
    前記環境情報に基づいて、前記表示手段に表示される表示情報の表示制限の程度を示す制限度を算出する制限度算出手段と、
    前記制限度に基づいて前記表示情報の表示を制限する制限手段と
    を有する情報処理装置。
  2. 前記制限手段は、前記制限度に基づいて、前記表示情報の文字又は画像のサイズを変更することにより、前記表示情報の表示を制限する請求項1に記載の情報処理装置。
  3. 前記制限手段は、前記制限度に基づいて、前記表示情報に重畳するフィルタ濃度を変更することにより、前記表示情報の表示を制限する請求項1に記載の情報処理装置。
  4. 前記環境情報は、前記表示手段からアクセス権のない人物までの人物距離を含み、
    前記制限度算出手段は、前記人物距離に基づいて、前記制限度を算出する請求項1乃至3何れか1項に記載の情報処理装置。
  5. 前記環境情報は、撮影手段により撮影された撮影画像を含み、
    前記撮影画像に基づいて、表示手段からアクセス権のない人物までの人物距離を算出する距離算出手段をさらに有し、
    前記制限度算出手段は、前記人物距離に基づいて、前記制限度を算出する請求項1乃至3何れか1項に記載の情報処理装置。
  6. 前記環境情報は、前記環境の音声を含み、
    前記制限度算出手段は、音声レベルに基づいて、前記制限度を算出する請求項1乃至5何れか1項に記載の情報処理装置。
  7. 表示手段の存在する領域の環境情報を取得する取得手段と、
    前記環境情報と、前記表示手段を利用する作業の機密度とに基づいて、前記作業の推奨度を算出する推奨度算出手段と、
    前記推奨度に基づいて、実行すべき作業を選択する作業選択手段と
    を有する情報処理装置。
  8. 前記推奨度算出手段は、前記環境情報と、前記作業の機密度と、前記作業の緊急度とに基づいて、前記作業の推奨度を算出する請求項7に記載の情報処理装置。
  9. 情報処理装置が実行する情報処理方法であって、
    表示手段の存在する領域の環境情報を取得する取得ステップと、
    前記環境情報に基づいて、前記表示手段に表示される表示情報の表示制限の程度を示す制限度を算出する制限度算出ステップと、
    前記制限度に基づいて前記表示情報の表示を制限する制限ステップと
    を含む情報処理方法。
  10. 情報処理装置が実行する情報処理方法であって、
    表示手段の存在する領域の環境情報を取得する取得ステップと、
    前記環境情報と、前記表示手段を利用する作業に対して設定されている機密度とに基づいて、前記作業の推奨度を算出する推奨度算出ステップと、
    前記推奨度に基づいて、実行すべき作業を選択する作業選択ステップと
    を含む情報処理方法。
  11. コンピュータを、
    表示手段の存在する領域の環境情報を取得する取得手段と、
    前記環境情報に基づいて、前記表示手段に表示される表示情報の表示制限の程度を示す制限度を算出する制限度算出手段と、
    前記制限度に基づいて前記表示情報の表示を制限する制限手段と
    して機能させるためのプログラム。
  12. コンピュータを、
    表示手段の存在する領域の環境情報を取得する取得手段と、
    前記環境情報と、前記表示手段を利用する作業に対して設定されている機密度とに基づいて、前記作業の推奨度を算出する推奨度算出手段と、
    前記推奨度に基づいて、実行すべき作業を選択する作業選択手段と
    して機能させるためのプログラム。
JP2013243077A 2013-11-25 2013-11-25 情報処理装置、情報処理方法及びプログラム Pending JP2015103020A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013243077A JP2015103020A (ja) 2013-11-25 2013-11-25 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013243077A JP2015103020A (ja) 2013-11-25 2013-11-25 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2015103020A true JP2015103020A (ja) 2015-06-04

Family

ID=53378675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013243077A Pending JP2015103020A (ja) 2013-11-25 2013-11-25 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2015103020A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110941847A (zh) * 2018-09-25 2020-03-31 富士施乐株式会社 信息处理装置以及存储介质
JP2022542534A (ja) * 2019-07-26 2022-10-05 グーグル エルエルシー Imuおよびレーダーに基づいて状態を下げること
US11687167B2 (en) 2019-08-30 2023-06-27 Google Llc Visual indicator for paused radar gestures
US11790693B2 (en) 2019-07-26 2023-10-17 Google Llc Authentication management through IMU and radar
US11841933B2 (en) 2019-06-26 2023-12-12 Google Llc Radar-based authentication status feedback
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
US12008169B2 (en) 2019-08-30 2024-06-11 Google Llc Radar gesture input methods for mobile devices

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110941847A (zh) * 2018-09-25 2020-03-31 富士施乐株式会社 信息处理装置以及存储介质
JP2020052499A (ja) * 2018-09-25 2020-04-02 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
US11841933B2 (en) 2019-06-26 2023-12-12 Google Llc Radar-based authentication status feedback
JP2022542534A (ja) * 2019-07-26 2022-10-05 グーグル エルエルシー Imuおよびレーダーに基づいて状態を下げること
JP7292437B2 (ja) 2019-07-26 2023-06-16 グーグル エルエルシー Imuおよびレーダーに基づいて状態を下げること
US11790693B2 (en) 2019-07-26 2023-10-17 Google Llc Authentication management through IMU and radar
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
US11687167B2 (en) 2019-08-30 2023-06-27 Google Llc Visual indicator for paused radar gestures
US12008169B2 (en) 2019-08-30 2024-06-11 Google Llc Radar gesture input methods for mobile devices

Similar Documents

Publication Publication Date Title
JP2015103020A (ja) 情報処理装置、情報処理方法及びプログラム
JP5276111B2 (ja) セルフ撮影の際に顔の構図を決定できるようにサポートする方法及びシステム
CN105981368B (zh) 在成像装置中的照片构图和位置引导
US7529772B2 (en) Method and system for associating user comments to a scene captured by a digital imaging device
US10062406B2 (en) Video masking processing method and apparatus
KR102104123B1 (ko) 콘텐츠 디스플레이 장치 및 방법
US8345118B2 (en) Image capturing apparatus, image capturing method, album creating apparatus, album creating method, album creating system and computer readable medium
WO2016024173A1 (en) Image processing apparatus and method, and electronic device
JP5839553B2 (ja) 作業支援システム、作業支援方法、および、作業用端末
CN102236890A (zh) 从多个图像生成组合图像
EP3575993B1 (en) Method and system for validating remote live identification via video-recording
KR20110006878A (ko) 복수의 인물에 대한 이미지 생성 장치 및 방법
US20200293179A1 (en) Prioritization for presentation of media based on sensor data collected by wearable sensor devices
US9094616B2 (en) Method and system for image capture and facilitated annotation
KR102127351B1 (ko) 사용자 단말 장치 및 그 제어 방법
JP2009277097A (ja) 情報処理装置
US8391544B2 (en) Image processing apparatus and method for processing image
JP2009206924A (ja) 情報処理装置、情報処理システム及び情報処理プログラム
KR101457377B1 (ko) 미션실행 제스처 인식을 이용한 사용자 인증방법, 및 미션실행 제스처 인식을 이용한 사용자 인증 프로그램을 기록한 컴퓨터로 판독가능한 기록매체
JP5974649B2 (ja) 情報処理装置、会議システム、プログラム
JP2010178259A (ja) デジタルカメラ
KR102138835B1 (ko) 정보 노출 방지 영상 제공 장치 및 방법
US20110019875A1 (en) Image display device
US9485401B2 (en) Image pickup apparatus including a plurality of image pickup units for photographing different objects, method of controlling image pickup apparatus, and storage medium
JP2015106387A (ja) 表示制御方法、情報処理装置およびプログラム