JP2012208619A - 電子機器、通知方法およびプログラム - Google Patents

電子機器、通知方法およびプログラム Download PDF

Info

Publication number
JP2012208619A
JP2012208619A JP2011072485A JP2011072485A JP2012208619A JP 2012208619 A JP2012208619 A JP 2012208619A JP 2011072485 A JP2011072485 A JP 2011072485A JP 2011072485 A JP2011072485 A JP 2011072485A JP 2012208619 A JP2012208619 A JP 2012208619A
Authority
JP
Japan
Prior art keywords
sensor
icon
electronic device
display
notification method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011072485A
Other languages
English (en)
Inventor
Hideaki Tetsuhashi
英明 鉄橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2011072485A priority Critical patent/JP2012208619A/ja
Priority to US14/003,012 priority patent/US20130342450A1/en
Priority to PCT/JP2012/054100 priority patent/WO2012132641A1/ja
Publication of JP2012208619A publication Critical patent/JP2012208619A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】画面表示を見ながら行う作業を中断することなく、センサーが検知している内容を利用者が把握する。
【解決手段】センサー120−1〜120−2が、対象物の動きと形状との少なくとも一方を検知し、センサー120−1〜120−2が検知を行っている旨を示すアイコンを表示部140が表示する。
【選択図】図1

Description

本発明は、電子機器、通知方法およびプログラムに関し、特に、センサーを用いた電子機器、通知方法およびプログラムに関するする。
近年、PC(Personal Computer)や携帯端末等の電子機器に、対象物の動きや形状を検知するセンサーが搭載されているものがある。
例えば、電子機器に搭載されたカメラで、操作する者(以下、利用者と称する)の顔を撮影し、撮影した顔があらかじめ登録されている顔であるかどうかを検知するセンサーが搭載された装置が考えられている(例えば、特許文献1参照。)。
また、センサーが複数搭載されている電子機器もある。例えば、上述したカメラで撮影した顔を検知する一方で、カメラで撮影した利用者の手の動きを検知するものもある。
特開2009−064140号公報
上述したような複数のセンサーが搭載された電子機器において、この複数のセンサーのうち、どのセンサーが現在動作しているかを利用者は知ることができない。そのため、利用者は電子機器が手の動きを検知していると思い込んで手を動かしても、そのとき当該電子機器が顔の検知を行っていると、検知の結果の処理が、所望のものとは異なってしまうという問題点がある。
また、例えば、顔の検知を行うセンサーは、検知を行っている際、カメラが撮影した画像をプレビュー画面として、電子機器に搭載されたディスプレイ等に表示する。このとき、そのプレビュー画面をディスプレイの一部に大きく表示するため、現在、行っている作業を中断しなければならないという問題点がある。例えば、当該電子機器で、文書入力作業を行っているときに、ある認証(例えば、あるサイトへの接続認証)を行うため顔検知を用いた顔認証を行う場合、上述したプレビュー画面によって文書入力作業の画面が隠れてしまうため、その作業を中断しなければならない。
本発明の目的は、上述した課題を解決する電子機器、通知方法およびプログラムを提供することである。
本発明の電子機器は、
対象物の動きと形状との少なくとも一方を検知するセンサーと、
前記センサーが検知を行っている旨を示すアイコンを表示する表示部とを有する。
また、本発明の通知方法は、
電子機器の利用者へ通知を行う通知方法であって、
センサーを用いて対象物の動きと形状との少なくとも一方を検知する処理と、
前記検知を行っている旨を示すアイコンを表示する処理とを行う。
また、本発明のプログラムは、
電子機器に実行させるためのプログラムであって、
センサーを用いて対象物の動きと形状との少なくとも一方を検知する手順と、
前記検知を行っている旨を示すアイコンを表示する手順とを実行させる。
以上説明したように、本発明においては、画面表示を見ながら行う作業を中断することなく、センサーが検知している内容を利用者が把握することができる。
本発明の電子機器の実施の一形態を示す図である。 図1に示した記憶部に記憶されているセンサー識別情報とアイコンとの対応付けの一例を示す図である。 図1に示した電子機器における通知方法の一例を説明するためのフローチャートである。 人の顔のアイコンが表示された表示部の表示画面の一例を示す図である。 手のアイコンが表示された表示部の表示画面の一例を示す図である。 図1に示した電子機器における通知方法の他の例を説明するためのフローチャートである。 誘導表示が表示された表示部の表示画面の一例を示す図である。 本発明の電子機器の他の実施の形態を示す図である。 図8に示した記憶部に記憶されているセンサー識別情報と音との対応付けの一例を示す図である。 図8に示した電子機器における通知方法を説明するためのフローチャートである。
以下に、本発明の実施の形態について図面を参照して説明する。
図1は、本発明の電子機器の実施の一形態を示す図である。
本形態における電子機器100には図1に示すように、センサー120−1〜120−2と、記憶部130と、表示部140とが設けられている。
センサー120−1〜120−2は、対象物の動きと形状との少なくとも一方を検知する。また、センサー120−1とセンサー120−2とは、例えば、センサー120−1が顔の検知を行い、センサー120−2が手の動きの検知を行うといった、互いに独立の検知を行う。また、センサー120−1〜120−2は、撮影機能を具備するカメラであっても良いし、人感センサーであっても良い。
また、センサー120−1〜120−2がカメラである場合、センサー120−1〜120−2が撮影している対象物の位置と、検知に必要な位置との差分を示す差分情報を表示部140へ出力するものであっても良い。
また、センサー120−1〜120−2は、検知動作を行っている間、その旨を表示部140へ通知する。
また、センサー120−1〜120−2は、対象物の動きを検知するものである場合、検知している動きを示す動き情報を表示部140へ出力する。
また、センサー120−1〜120−2は、電子機器100に搭載されずに、電子機器100との間で有線または無線で接続されているものであっても良い。
また、図1では、センサーが2つである場合を例に挙げて示しているが、1つであっても良いし、3つ以上であっても良い。
表示部140は、情報を表示するディスプレイ等である。また、表示部140は、センサー120−1〜120−2から、検知動作を行っている旨が通知されてきた場合、通知したセンサーに応じたアイコンを記憶部130から読み出す。
記憶部130は、センサー120−1〜120−2を識別するためのセンサー識別情報と、それに応じたアイコンとをあらかじめ対応付けて記憶している。
図2は、図1に示した記憶部130に記憶されているセンサー識別情報とアイコンとの対応付けの一例を示す図である。
図1に示した記憶部130には図2に示すように、センサー識別情報とアイコンとが対応付けられて記憶されている。図2に示した例では、その対応付けが2組であるが、1組であっても良いし、3組以上であっても良く、センサーの数だけ対応付けが記憶される。
センサー識別情報は、あらかじめセンサー120−1〜120−2それぞれに固有に付与されているものであり、互いに識別できるものであれば良い。例えば、数字から構成されるものであっても良いし、英文字や、英文字と数字との組み合わせで、構成されているものであっても良い。
アイコンは、一般的に利用されているアイコンと同様、表示部140に表示される簡単な絵や図からなる小さな画像である。アイコンの大きさが、表示部140の大きさと比べて、かなり小さいため、アイコンが表示された場合であっても、表示部140に表示されている画像を覆ってしまうことはない。
図2に示すように、センサー識別情報「120−1」と、人の顔のアイコンとが対応付けられて記憶されている。これは、センサー識別情報が「120−1」であるセンサーが検知動作をしているときに表示部140が表示するアイコンは人の顔のアイコンであることを示している。また、センサー識別情報「120−2」と、手のアイコンとが対応付けられて記憶されている。これは、センサー識別情報が「120−2」であるセンサーが検知動作をしているときに表示部140が表示するアイコンは手のアイコンであることを示している。
例えば、図2に示した対応付けが記憶部130に記憶されており、センサー識別情報が「120−1」であるセンサー120−1から検知動作を行っている旨が通知されてきた場合、表示部140は、センサー識別情報「120−1」と対応付けられている人の顔のアイコンを記憶部130から読み出す。また、センサー識別情報が「120−2」であるセンサー120−2から検知動作を行っている旨が通知されてきた場合、表示部140は、センサー識別情報「120−2」と対応付けられている手のアイコンを記憶部130から読み出す。
また、表示部140は、記憶部130から読み出したアイコンを表示する。このとき、表示部140は、アイコンを表示画面の端に表示する。
また、表示部140は、センサー120−1〜120−2から動き情報が出力されてきた場合、動き情報に応じたアイコンを表示するものであっても良い。この場合、記憶部130に、動き情報に応じたアイコンが記憶されている。例えば、センサー120−2が、手の動きを検知するものである場合、記憶部130には、手が動いていることを検知した時に表示部140が表示するアイコンとして、手が動いている動画を記憶している。そして、センサー120−2から手が動いていることを検知している旨を示す動き情報が出力されてきた場合、表示部140は、記憶部130から当該動き情報に応じたアイコン(手が動いている動画)を表示するものであっても良い。
また、表示部140は、センサー120−1〜120−2から差分情報が出力されてきた場合、差分情報に応じて、対象物を検知に必要な位置へ誘導する表示を行う。この処理の詳細については、後述する。
以下に、図1に示した電子機器100における通知方法について説明する。
図3は、図1に示した電子機器100における通知方法の一例を説明するためのフローチャートである。ここで、図1に示した記憶部130には、図2に示した対応付けが記憶されている場合を例に挙げて説明する。また、センサー120−1〜120−2がカメラであり、撮影している対象物の形状や動きを検知する場合を例に挙げて説明する。
まず、撮影している対象物についてのセンサー120−1の検知動作が開始されると(ステップS1)、センサー120−1から表示部140へその旨が通知される。
すると、表示部140によって、センサー120−1のセンサー識別情報と対応付けられている人の顔のアイコンが記憶部130に記憶されている対応付けから読み出される(ステップS2)。
そして、表示部140によって、読み出された人の顔のアイコンが表示画面の端に表示される(ステップS3)。
図4は、人の顔のアイコンが表示された表示部140の表示画面の一例を示す図である。
図4に示すように、表示部140の端に人の顔のアイコン200が表示される。このとき、図4に示すように、アイコン200は、表示部140の大きさと比べて小さく、また表示部140の端に表示されるため、表示部140に表示されている画面を覆ってしまうことはない。これにより、アイコン200の表示が、利用者が現在行っている作業を中断させてしまうことはない。
また、同様に、ステップS1にて、撮影している対象物についてのセンサー120−2の検知動作が開始されると、センサー120−2から表示部140へその旨が通知される。
すると、ステップS2にて、表示部140によって、センサー120−2のセンサー識別情報と対応付けられている手のアイコンが記憶部130に記憶されている対応付けから読み出される。
そして、ステップS3にて、表示部140によって、読み出された手のアイコンが表示画面の端に表示される。
図5は、手のアイコンが表示された表示部140の表示画面の一例を示す図である。
図5に示すように、表示部140の端に手のアイコン210が表示される。このとき、図5に示すように、アイコン210は、表示部140の大きさと比べて小さく、また表示部140の端に表示されるため、表示部140に表示されている画面を覆ってしまうことはない。これにより、アイコン210の表示が、利用者が現在行っている作業を中断させてしまうことはない。
なお、表示部140におけるアイコンの表示は、利用者がセンサー120−1〜120−2が検知動作を行っていることが認識できるものであれば良く、アイコンの点滅表示であっても良い。
図6は、図1に示した電子機器100における通知方法の他の例を説明するためのフローチャートである。ここで、図1に示した記憶部130には、図2に示した対応付けが記憶されている場合を例に挙げて説明する。また、センサー120−1がカメラであり、撮影している顔を検知する場合を例に挙げて説明する。
まず、撮影している対象物についてのセンサー120−1の検知動作が開始されると(ステップS11)、センサー120−1から表示部140へその旨が通知される。
すると、表示部140によって、センサー120−1のセンサー識別情報と対応付けられている人の顔のアイコンが記憶部130に記憶されている対応付けから読み出される(ステップS12)。
そして、表示部140によって、読み出された人の顔のアイコンが表示画面の端に表示される(ステップS13)。
また、センサー120−1によって、撮影している顔の位置が、センサー120−1が顔検知を行うための位置にあるかどうかが判別される(ステップS14)。つまり、カメラに対する顔の位置の修正が必要かどうかが、センサー120−1によって判別される。
これは、例えば、センサー120−1による顔の検知に、撮影している画像の中の所定の範囲(以下、検知フレームと称する)に顔全体が含まれることが必要である場合、検知フレーム内に顔があるかどうかを判別することにより、実現されるものである。つまり、撮影している顔全体が検知フレーム内に含まれない場合、カメラに対する顔の位置の修正が必要であるとセンサー120−1によって判別される。一方、撮影している顔全体が検知フレーム内に含まれている場合、カメラに対する顔の位置の修正が必要ではないとセンサー120−1によって判別される。
センサー120−1によって、カメラに対する顔の位置の修正が必要であると判別された場合、カメラに対する顔の位置をどのように移動(修正)したら良いかがセンサー120−1にて算出される。つまり、顔全体が検知フレーム内に含まれるようにするために、利用者に対して顔の位置をカメラに対してどのように移動(修正)させたらよいかがセンサー120−1にて算出される。
例えば、撮影している顔の一部が検知フレームの左側に含まれている場合、カメラに対する顔の位置を、利用者からカメラに向かって左側へ移動したら良いことが算出される。また、撮影している顔の一部が検知フレームの下側に含まれている場合、カメラに対する顔の位置を、利用者からカメラに向かって上側へ移動したら良いことが算出される。
そして、算出結果である差分情報がセンサー120−1から表示部140へ出力される。
すると、表示部140にて、センサー120−1から出力されてきた差分情報に基づいた誘導表示が表示部140に表示される(ステップS15)。
図7は、誘導表示が表示された表示部140の表示画面の一例を示す図である。
図7に示すように、表示部140に表示されたアイコン200の横に誘導表示220が表示される。この誘導表示220は、センサー120−1から出力されてきた差分情報に基づいた表示である。
例えば、センサー120−1から、カメラに対する顔の位置を、利用者からカメラに向かって左側へ移動したら良いという差分情報が出力されてきた場合、図7に示すように「顔の位置を少し左へ移動してください」という誘導表示220が表示部140に表示される。
このような誘導表示の表示により、センサー120−1〜120−2が検知できる対象物の位置を利用者が認識することができる。
なお、図4、図5および図7に示した表示部140は、横方向に長いものであるが、携帯端末のディスプレイのように縦方向に長いものであっても良い。
また、上述した表示部140におけるアイコンの表示以外に、音による通知を行うものであっても良い。
図8は、本発明の電子機器の他の実施の形態を示す図である。
本形態における電子機器101には図8に示すように、図1に示した電子機器100の記憶部130の代わりに記憶部131が設けられ、また音出力部150が追加されている。
音出力部150は、スピーカー等の音を電子機器101の外部へ出力することができるものである。また、音出力部150は、センサー120−1〜120−2から、検知動作を行っている旨が通知されてきた場合、通知したセンサーに応じた音を記憶部131から読み出す。
記憶部131は、センサー120−1〜120−2を識別するためのセンサー識別情報と、それに応じた音とをあらかじめ対応付けて記憶している。
図9は、図8に示した記憶部131に記憶されているセンサー識別情報と音との対応付けの一例を示す図である。
図8に示した記憶部131には図9に示すように、センサー識別情報と音とが対応付けられて記憶されている。図9に示した例では、その対応付けが2組であるが、1組であっても良いし、3組以上であっても良く、センサーの数だけ対応付けが記憶される。
センサー識別情報は、図2に示したものと同じである。
音は、実際の音を出力するための音源ファイルであっても良いし、音源ファイルが格納されている格納場所(メモリ内のアドレスやネットワーク上のサイト等)を示すものであっても良い。
図9に示すように、センサー識別情報「120−1」と、音「Sound A」とが対応付けられて記憶されている。これは、センサー識別情報が「120−1」であるセンサーが検知動作をしているときに音出力部150が出力する音は「Sound A」であることを示している。また、センサー識別情報「120−2」と、「Sound B」とが対応付けられて記憶されている。これは、センサー識別情報が「120−2」であるセンサーが検知動作をしているときに音出力部150が出力する音は「Sound B」であることを示している。
例えば、図9に示した対応付けが記憶部131に記憶されており、センサー識別情報が「120−1」であるセンサー120−1から検知動作を行っている旨が通知されてきた場合、音出力部150は、センサー識別情報「120−1」と対応付けられている「Sound A」を記憶部131から読み出す。また、センサー識別情報が「120−2」であるセンサー120−2から検知動作を行っている旨が通知されてきた場合、音出力部150は、センサー識別情報「120−2」と対応付けられている「Sound B」を記憶部131から読み出す。
また、音出力部150は、記憶部131から読み出した音を出力する。
以下、図8に示した電子機器101における通知方法について説明する。
図10は、図8に示した電子機器101における通知方法を説明するためのフローチャートである。ここで、図8に示した記憶部131には、図9に示した対応付けが記憶されている場合を例に挙げて説明する。また、センサー120−1〜120−2がカメラであり、撮影している対象物の形状や動きを検知する場合を例に挙げて説明する。
まず、撮影している対象物についてのセンサー120−1の検知動作が開始されると(ステップS21)、センサー120−1から音出力部150へその旨が通知される。
すると、音出力部150によって、センサー120−1のセンサー識別情報と対応付けられている音「Sound A」が記憶部131に記憶されている対応付けから読み出される(ステップS22)。
そして、音出力部150から、読み出された音「Sound A」が電子機器101の外部へ出力される(ステップS23)。
また、同様に、ステップS21にて、撮影している対象物についてのセンサー120−2の検知動作が開始されると、センサー120−2から音出力部150へその旨が通知される。
すると、ステップS22にて、音出力部150によって、センサー120−2のセンサー識別情報と対応付けられている音「Sound B」が記憶部131に記憶されている対応付けから読み出される。
そして、ステップS23にて、音出力部150から、読み出された音「Sound B」が電子機器101の外部へ出力される。
このように、音出力部150からセンサー120−1〜120−2が検知動作をしている旨が通知(出力)されることで、利用者が行っている作業内容の表示部140における表示を隠すことなく、利用者が検知動作を認識することができる。
また、上述した表示や音の代わりに、振動や光(例えば、LED等を用いたもの)を用いて、利用者へ通知するものであっても良い。
なお、電子機器100,101は、PC(Personal Computer)やテレビ、携帯端末等、表示部140に相当するディスプレイに情報を表示し、表示された情報に対して利用者が所定の操作(入力)を行う装置でも良い。
また、上述した処理を、検知した対象物(顔や手等)の形状や動きと、あらかじめ登録されている形状や動きとを比較し、それらが一致した場合、認証成功とするような認証処理に適用することができることは言うまでもない。
また、上述した処理を用いて、手話を行っている手をセンサーが検知し、検知した結果に基づいて、手話を翻訳し、翻訳した言語を表示部140に表示させる処理を具備させておけば、撮影した手話を、利用者が理解することができる。
このように本発明においては、画面表示を見ながら行う作業を中断することなく、センサーが検知している内容を利用者が把握することができる。例えば、利用者が、表示部140に表示されているWebブラウザを使用して作業を行っているときに、顔認証を行ってログインしなければならないページへ移行する場合、顔認証画面がそのブラウザ画面を覆うことなく、顔認証を行うことができる。このとき、表示部140に表示された「認証」キーを選択することで顔認証の動作が開始されても、利用者は現在の作業を中断することがない。
上述した電子機器100,101に設けられた各構成要素が行う処理は、目的に応じてそれぞれ作製された論理回路で行うようにしても良い。また、処理内容を手順として記述したコンピュータプログラム(以下、プログラムと称する)を電子機器100,101にて読取可能な記録媒体に記録し、この記録媒体に記録されたプログラムを電子機器100,101に読み込ませ、実行するものであっても良い。電子機器100,101にて読取可能な記録媒体とは、フロッピー(登録商標)ディスク、光磁気ディスク、DVD、CDなどの移設可能な記録媒体の他、電子機器100,101に内蔵されたROM、RAM等のメモリやHDD等を指す。この記録媒体に記録されたプログラムは、電子機器100,101に設けられたCPU(不図示)にて読み込まれ、CPUの制御によって、上述したものと同様の処理が行われる。ここで、CPUは、プログラムが記録された記録媒体から読み込まれたプログラムを実行するコンピュータとして動作するものである。
100,101 電子機器
120−1〜120−2 センサー
130,131 記憶部
140 表示部
150 音出力部
200,210 アイコン
220 誘導表示

Claims (21)

  1. 対象物の動きと形状との少なくとも一方を検知するセンサーと、
    前記センサーが検知を行っている旨を示すアイコンを表示する表示部とを有する電子機器。
  2. 請求項1に記載の電子機器において、
    前記センサーを複数有し、
    前記表示部は、前記複数のセンサーのうち、前記検知を行っているセンサーに応じたアイコンを表示することを特徴とする電子機器。
  3. 請求項1に記載の電子機器において、
    前記センサーは、撮影機能を具備するカメラであり、撮影している対象物の動きと形状との少なくとも一方を検知することを特徴とする電子機器。
  4. 請求項3に記載の電子機器において、
    前記表示部は、前記センサーが顔検知を行う場合、前記センサーが撮影している顔の位置を、前記顔検知に必要な位置へ誘導する表示を行うことを特徴とする電子機器。
  5. 請求項1に記載の電子機器において、
    前記表示部は、前記アイコンを表示画面の端に表示することを特徴とする電子機器。
  6. 請求項1に記載の電子機器において、
    前記表示部は、前記センサーが対象物の動きを検知しているとき、該動きに応じたアイコンを表示することを特徴とする電子機器。
  7. 請求項1に記載の電子機器において、
    前記表示部に代えて、前記センサーが検知を行っている旨を示す音を出力する音出力部を有することを特徴とする電子機器。
  8. 電子機器の利用者へ通知を行う通知方法であって、
    センサーを用いて対象物の動きと形状との少なくとも一方を検知する処理と、
    前記検知を行っている旨を示すアイコンを表示する処理とを行う通知方法。
  9. 請求項8に記載の通知方法において、
    前記電子機器が複数のセンサーを搭載している場合、該複数のセンサーのうち、前記検知を行っているセンサーに応じたアイコンを表示する処理を行うことを特徴とする通知方法。
  10. 請求項8に記載の通知方法において、
    センサーが撮影機能を具備するカメラである場合、撮影した対象物の動きと形状との少なくとも一方を検知する処理を有することを特徴とする通知方法。
  11. 請求項10に記載の通知方法において、
    前記センサーが顔検知を行う場合、前記センサーが撮影している顔の位置を、前記顔検知に必要な位置へ誘導する表示をする処理を行うことを特徴とする通知方法。
  12. 請求項8に記載の通知方法において、
    前記アイコンを表示画面の端に表示する処理を行うことを特徴とする通知方法。
  13. 請求項8に記載の通知方法において、
    前記センサーが対象物の動きを検知しているとき、該動きに応じたアイコンを表示する処理を行うことを特徴とする通知方法。
  14. 請求項8に記載の通知方法において、
    前記アイコンの表示の代わりに、前記センサーが検知を行っている旨を示す音を出力する処理を行うことを特徴とする通知方法。
  15. 電子機器に、
    センサーを用いて対象物の動きと形状との少なくとも一方を検知する手順と、
    前記検知を行っている旨を示すアイコンを表示する手順とを実行させるためのプログラム。
  16. 請求項15に記載のプログラムにおいて、
    当該電子機器が複数のセンサーを搭載している場合、該複数のセンサーのうち、前記検知を行っているセンサーに応じたアイコンを表示する手順を実行させるためのプログラム。
  17. 請求項15に記載のプログラムにおいて、
    センサーが撮影機能を具備するカメラである場合、撮影した対象物の動きと形状との少なくとも一方を検知する手順を実行させるためのプログラム。
  18. 請求項17に記載のプログラムにおいて、
    前記センサーが顔検知を行う場合、前記センサーが撮影している顔の位置を、前記顔検知に必要な位置へ誘導する表示をする手順を実行させるためのプログラム。
  19. 請求項15に記載のプログラムにおいて、
    前記アイコンを表示画面の端に表示する手順を実行させるためのプログラム。
  20. 請求項15に記載のプログラムにおいて、
    前記センサーが対象物の動きを検知しているとき、該動きに応じたアイコンを表示する手順を実行させるためのプログラム。
  21. 請求項15に記載のプログラムにおいて、
    前記アイコンの表示の代わりに、前記センサーが検知を行っている旨を示す音を出力する手順を実行させるためのプログラム。
JP2011072485A 2011-03-29 2011-03-29 電子機器、通知方法およびプログラム Pending JP2012208619A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011072485A JP2012208619A (ja) 2011-03-29 2011-03-29 電子機器、通知方法およびプログラム
US14/003,012 US20130342450A1 (en) 2011-03-29 2012-02-21 Electronic devices
PCT/JP2012/054100 WO2012132641A1 (ja) 2011-03-29 2012-02-21 電子機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011072485A JP2012208619A (ja) 2011-03-29 2011-03-29 電子機器、通知方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2012208619A true JP2012208619A (ja) 2012-10-25

Family

ID=46930402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011072485A Pending JP2012208619A (ja) 2011-03-29 2011-03-29 電子機器、通知方法およびプログラム

Country Status (3)

Country Link
US (1) US20130342450A1 (ja)
JP (1) JP2012208619A (ja)
WO (1) WO2012132641A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6044633B2 (ja) * 2012-03-27 2016-12-14 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003316510A (ja) * 2002-04-23 2003-11-07 Nippon Hoso Kyokai <Nhk> 表示画面上に指示されたポイントを表示する表示装置、及び表示プログラム。
JP2006236355A (ja) * 2005-02-23 2006-09-07 Samsung Electronics Co Ltd メニュー画面を表示する端末機においてメニューナビゲーションを制御する装置及び方法
JP2009239935A (ja) * 2009-06-10 2009-10-15 Sony Corp 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
JP2010205223A (ja) * 2009-03-06 2010-09-16 Seiko Epson Corp 仮想対象に対するジェスチャーに従う制御を行うシステム及び装置
JP2010238145A (ja) * 2009-03-31 2010-10-21 Casio Computer Co Ltd 情報出力装置、遠隔制御方法、及びプログラム
JP2010244302A (ja) * 2009-04-06 2010-10-28 Sony Corp 入力装置および入力処理方法
JP2011040008A (ja) * 2009-08-18 2011-02-24 Canon Inc 表示制御装置及び表示制御方法、プログラム、記憶媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2935278B2 (ja) * 1991-01-21 1999-08-16 日産自動車株式会社 異常対処支援装置
DE602006009191D1 (de) * 2005-07-26 2009-10-29 Canon Kk Bildaufnahmegerät und -verfahren
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
KR101541561B1 (ko) * 2008-09-29 2015-08-03 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 유저 인터페이스 장치, 유저 인터페이스 방법, 및 기록 매체
KR101051365B1 (ko) * 2009-07-16 2011-07-22 주식회사 유니온커뮤니티 카메라를 구비한 출입관리장치 및 그 출입관리방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003316510A (ja) * 2002-04-23 2003-11-07 Nippon Hoso Kyokai <Nhk> 表示画面上に指示されたポイントを表示する表示装置、及び表示プログラム。
JP2006236355A (ja) * 2005-02-23 2006-09-07 Samsung Electronics Co Ltd メニュー画面を表示する端末機においてメニューナビゲーションを制御する装置及び方法
JP2010205223A (ja) * 2009-03-06 2010-09-16 Seiko Epson Corp 仮想対象に対するジェスチャーに従う制御を行うシステム及び装置
JP2010238145A (ja) * 2009-03-31 2010-10-21 Casio Computer Co Ltd 情報出力装置、遠隔制御方法、及びプログラム
JP2010244302A (ja) * 2009-04-06 2010-10-28 Sony Corp 入力装置および入力処理方法
JP2009239935A (ja) * 2009-06-10 2009-10-15 Sony Corp 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
JP2011040008A (ja) * 2009-08-18 2011-02-24 Canon Inc 表示制御装置及び表示制御方法、プログラム、記憶媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015001853; 加藤真貴子: 'どこまで見分ける!? デジカメ顔認識対決 2 メーカーに聞く、顔認識機能のメカニズム' マイナビニュース , 20070807 *

Also Published As

Publication number Publication date
WO2012132641A1 (ja) 2012-10-04
US20130342450A1 (en) 2013-12-26

Similar Documents

Publication Publication Date Title
US9507420B2 (en) System and method for providing haptic feedback to assist in capturing images
US10916057B2 (en) Method, apparatus and computer program for displaying an image of a real world object in a virtual reality enviroment
TW201119368A (en) Image processing device, image processing method, and computer program
CN103309609A (zh) 显示控制设备、显示控制方法和计算机可读记录介质
US10074216B2 (en) Information processing to display information based on position of the real object in the image
JP6357787B2 (ja) データ処理装置
JP6149862B2 (ja) 表示制御装置、表示制御システムおよび表示制御方法
KR102128955B1 (ko) 스핀 이미지 생성 방법 및 그 장치
CN103608761A (zh) 输入设备、输入方法以及记录介质
US10962738B2 (en) Information processing apparatus and information processing method to calibrate line-of-sight of a user
JP2011186636A (ja) 情報処理装置および方法、並びにプログラム
US20200045242A1 (en) Display control device, display control method, and program
JP6575518B2 (ja) 表示制御装置、表示制御方法およびプログラム
WO2012132641A1 (ja) 電子機器
JP2011101289A (ja) 画像表示装置及び画像表示方法
JP6065084B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5533044B2 (ja) 表示装置及び表示方法及び表示プログラム
JP2008203971A (ja) 情報表示システム、視線検知プログラム及び情報表示プログラム
JPWO2018179223A1 (ja) 遠隔作業支援システム、遠隔作業支援方法およびプログラム
JP6039325B2 (ja) 撮像装置、電子機器、およびタッチパネルの制御方法
JP2011066828A5 (ja)
JP6417698B2 (ja) アプリケーション検査装置及びアプリケーション検査プログラム
JP2009021043A (ja) 電子機器
JP2017204718A (ja) 撮像装置およびそのズーム制御方法
Vázquez et al. Facilitating photographic documentation of accessibility in street scenes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140212

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150326

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151028

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20151105

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20151204