JP6675082B2 - 見守り装置、見守り方法、およびコンピュータプログラム - Google Patents

見守り装置、見守り方法、およびコンピュータプログラム Download PDF

Info

Publication number
JP6675082B2
JP6675082B2 JP2016172167A JP2016172167A JP6675082B2 JP 6675082 B2 JP6675082 B2 JP 6675082B2 JP 2016172167 A JP2016172167 A JP 2016172167A JP 2016172167 A JP2016172167 A JP 2016172167A JP 6675082 B2 JP6675082 B2 JP 6675082B2
Authority
JP
Japan
Prior art keywords
watching
display
watching target
image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016172167A
Other languages
English (en)
Other versions
JP2017068839A (ja
Inventor
井上 剛
剛 井上
裕之 本山
裕之 本山
小澤 順
順 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JP2017068839A publication Critical patent/JP2017068839A/ja
Application granted granted Critical
Publication of JP6675082B2 publication Critical patent/JP6675082B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本開示は、例えば子供などの見守り対象者を見守る装置および方法などに関する。
従来、子供などの見守り対象者を見守る見守り装置が提案されている(例えば、特許文献1参照)。特許文献1の見守り装置(カメラ映像配信システム)では、見守り対象者である子供をカメラによって監視する。つまり、このカメラによって得られた監視映像を端末装置に配信する。
特開2001−339708号公報
しかしながら、上記特許文献1の見守り装置では、見守り対象者の移動に気付かない場合があり、見守り対象者を適切に見守ることができないという問題がある。つまり、上記特許文献1の見守り装置では、子供の様子をカメラの映像によって確認するため、例えば、その子供の保護者がスマートフォンに表示される例えばウェブサイトの画像に気を取られ、カメラの映像の確認を怠ることがある。その結果、保護者は、子供が遠くに離れていっても気付かずに、子供を適切に見守ることができない。
そこで、本開示の非限定的で例示的な一態様は、見守り対象者を適切に見守ることができる見守り装置などを提供する。
本開示の一態様に係る見守り装置は、筐体と、前記筐体の表面に配置されるディスプレイと、前記筐体の裏面に配置されるカメラと、前記カメラで撮像されるカメラ画像に基づいて、見守り対象者を決定する決定部と、前記カメラ画像中の前記見守り対象者の位置に基づいて、前記カメラ画像を含まないアプリケーション画像を前記ディスプレイに表示させる表示制御部と、を備える。
なお、この包括的または具体的な態様は、方法、システム、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能な記録媒体で実現されてもよく、装置、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。コンピュータ読み取り可能な記録媒体は、例えばCD−ROM(Compact Disc−Read Only Memory)などの不揮発性の記録媒体を含む。
本開示によれば、見守り対象者を適切に見守ることができる。本開示の一態様の付加的な恩恵及び有利な点は本明細書及び図面から明らかとなる。この恩恵及び/又は有利な点は、本明細書及び図面に開示した様々な態様及び特徴により個別に提供され得るものであり、その1以上を得るために全てが必要ではない。
図1は、実施の形態1における見守り装置の機能的な構成を示す図である。 図2Aは、実施の形態1における見守り装置の使用シーンの一例を示す図である。 図2Bは、実施の形態1における見守り装置の使用シーンの他の例を示す図である。 図3は、実施の形態1における、1人の対象者候補を見守り対象者として決定するためにディスプレイ107に表示される画像を示す図である。 図4は、実施の形態1における、2人の対象者候補から見守り対象者を決定するためにディスプレイ107に表示される画像を示す図である。 図5は、実施の形態1における、候補対象者の表示態様が強調される例を示す図である。 図6は、実施の形態1における、見守り対象者の位置に基づいて制御されるアプリケーション画像の一例を示す図である。 図7は、実施の形態1における、見守り対象者の位置に基づいて制御されるアプリケーション画像の他の例を示す図である。 図8は、実施の形態1における、見守り対象者の位置に基づいて制御されるアプリケーション画像のさらに他の例を示す図である。 図9は、実施の形態1における見守り方法を示すフローチャートである。 図10は、実施の形態1における見守り方法を具体的に示すフローチャートである。 図11Aは、実施の形態1における、アプリケーション画像を一段階で移動させる処理を示すフローチャートである。 図11Bは、実施の形態1における、アプリケーション画像を二段階で移動させる処理を示すフローチャートである。 図11Cは、実施の形態1における、アプリケーション画像を変化距離に応じた任意の位置に移動させる処理を示すフローチャートである。 図12は、実施の形態2における見守り装置の機能的な構成を示す図である。 図13は、実施の形態2における、ユーザの瞳孔の動きに基づいて制御されるアプリケーション画像を示す図である。 図14Aは、実施の形態1および2の変形例に係る、アタッチメントが取りつけられた見守り装置の外観の一例を示す図である。 図14Bは、実施の形態1および2の変形例に係る、見守り装置のカメラがアタッチメントを介して撮像する様子を示す図である。
見守り対象者を適切に見守ることができる本開示の一態様に係る見守り装置は、筐体と、前記筐体の表面に配置されるディスプレイと、前記筐体の裏面に配置されるカメラと、前記カメラで撮像されるカメラ画像に基づいて、見守り対象者を決定する決定部と、前記カメラ画像中の前記見守り対象者の位置に基づいて、前記カメラ画像を含まないアプリケーション画像を前記ディスプレイに表示させる表示制御部と、を備える。
これにより、カメラ画像における見守り対象者の位置に基づいて、アプリケーション画像が表示される。したがって、ユーザは、アプリケーション画像の内容に気を取られていても、そのアプリケーション画像の表示が見守り対象者の位置に応じて制御されるため、その見守り対象者の位置を把握することができる。これにより、見守り対象者を適切に見守ることができる。
例えば、前記表示制御部は、前記見守り対象者の位置に基づいて、前記ディスプレイにおける前記アプリケーション画像の位置を変更しもよい。
これにより、アプリケーション画像の位置が見守り対象者の位置に応じて変更されるため、ユーザは、そのアプリケーション画像の位置の変更によって、見守り対象者の位置の変化、つまり見守り対象者の移動を容易に把握することができる。また、見守り対象者の位置は、カメラとの間の相対的な位置である。したがって、ユーザが、カメラを備える見守り装置を、アプリケーション画像の位置の変更に応じて動かせば、見守り対象者を追跡するようにカメラを動かすことができる。その結果、アプリケーション画像の位置の変更を抑えることができ、ユーザは、見守り対象者を追跡しながら、そのアプリケーション画像をしっかりと閲覧することができる。
また、前記表示制御部は、前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、前記見守り対象者の前記カメラ画像における中心からずれている方向に、前記アプリケーション画像の位置を前記ディスプレイの中心からずらして表示させてもよい。
これにより、アプリケーション画像が右にずれていれば、ユーザは、見守り対象者が右に移動したことを容易に把握することができる。逆に、アプリケーション画像が左にずれていれば、ユーザは、見守り対象者が左に移動したことを容易に把握することができる。
また、前記表示制御部は、前記見守り対象者が前記カメラ画像における中心に位置する場合には、前記ディスプレイ全体に前記アプリケーション画像を表示させ、前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、前記見守り対象者の前記カメラ画像における中心からずれている方向に、前記アプリケーション画像の位置を前記ディスプレイの中心からずらして表示させてもよい。
これにより、アプリケーション画像がディスプレイ全体に表示されていれば、ユーザは、見守り対象者がカメラ画像における中心に位置していること、つまり、見守り対象者が大きく移動しておらず安全な位置にいることを、容易に把握することができる。一方、アプリケーション画像が右にずれていれば、ユーザは、見守り対象者がカメラ画像における中心から右に移動したことを容易に把握することができる。逆に、アプリケーション画像が左にずれていれば、ユーザは、見守り対象者がカメラ画像における中心から左に移動したことを容易に把握することができる。また、ディスプレイ全体に表示されていたアプリケーション画像が例えば右にずらされるときには、そのアプリケーション画像の右端の領域が非表示となる。したがって、ユーザは、その右端の領域を閲覧したいと考えるため、見守り装置を右側に自然に動かす。その結果、カメラ画像における見守り対象者の位置は、そのカメラ画像における中心に近づくため、非表示とされていた右端の領域がディスプレイに表示される。つまり、ユーザは、アプリケーション画像の閲覧に注力していても、見守り対象者を特に意識することなく、その見守り対象者を適切に追跡して見守ることができる。
また、前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、さらに、前記カメラ画像における中心から前記見守り対象者の位置までの変化距離が検出され、前記表示制御部は、前記変化距離が長いほど、前記アプリケーション画像の位置を前記ディスプレイの中心から遠くにずらして表示させてもよい。
これにより、見守り対象者の変化距離が長いほど、アプリケーション画像がディスプレイの中心から遠くにずらされる。したがって、ユーザは、アプリケーション画像がディスプレイの中心からどれほどずれているかを知ることによって、見守り対象者がどれだけ移動したかを容易に把握することができる。
また、前記表示制御部は、前記見守り対象者が決定されたときの前記カメラ画像における前記見守り対象者の位置である決定位置に、当該見守り対象者が位置する場合には、前記ディスプレイ全体に前記アプリケーション画像を表示させ、前記見守り対象者が前記決定位置以外に位置する場合には、前記見守り対象者の前記カメラ画像における前記決定位置からずれている方向に、前記アプリケーション画像の位置を前記ディスプレイの中心からずらして表示させてもよい。
これにより、アプリケーション画像がディスプレイ全体に表示されていれば、ユーザは、見守り対象者がカメラ画像における決定位置にいること、つまり、見守り対象者が大きく移動しておらず安全な位置にいることを、容易に把握することができる。一方、アプリケーション画像が右にずれていれば、ユーザは、見守り対象者が決定位置から右に移動したことを容易に把握することができる。逆に、アプリケーション画像が左にずれていれば、ユーザは、見守り対象者が決定位置から左に移動したことを容易に把握することができる。
また、前記表示制御部は、前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、前記見守り対象者のカメラ画像における中心からずれている方向に、前記アプリケーション画像の位置をずらし、かつ前記アプリケーション画像を縮小して表示させてもよい。
これにより、アプリケーション画像が右または左にずれていても、そのアプリケーション画像は縮小されているため、アプリケーション画像がずらされることによって表示されなくなるアプリケーション画像の領域の割合を少なくすることができる。この割合は、アプリケーション画像の全体の面積に対する、アプリケーション画像の表示されない領域の面積の割合である。したがって、ユーザは、アプリケーション画像がずらされたときにも、アプリケーション画像の内容の把握の取りこぼしを抑えることができる。
前記カメラ画像における前記見守り対象者の奥行き方向の位置の変化が検出され、前記奥行き方向であって前記カメラから離れる向きに前記見守り対象者の位置が変化していることを検出されたときには、前記表示制御部は、前記ディスプレイの中心を基準として、前記アプリケーション画像を縮小して表示させてもよい。
これにより、ユーザは、アプリケーション画像の縮小によって、見守り対象者が奥行き方向に沿って遠くに離れていることを容易に把握することができる。
また、前記見守り対象者の位置の変化距離が検出され、前記表示制御部は、前記見守り対象者の位置の変化距離が所定の値よりも長い場合には、前記ディスプレイに前記カメラ画像を表示させ、前記見守り対象者の位置の変化距離が前記所定の値以下の場合には、前記検出された見守り対象者の位置に基づいて、前記アプリケーション画像を前記ディスプレイに表示させてもよい。
これにより、見守り対象者の位置の変化距離が所定の値よりも長い場合には、アプリケーション画像に代わってカメラ画像がディスプレイに表示される。したがって、ユーザは、カメラ画像への切り替えによって、見守り対象者が遠くに移動してしまって危険な状態にあるかもしれないことを、容易に把握することができる。
また、前記見守り装置は、さらに、前記筐体に配置されるサブカメラと、前記サブカメラによって撮像されるサブカメラ画像に含まれるユーザの顔の少なくとも一部の動きに基づいて、前記ユーザが前記見守り対象者に注目しているか否かを判定する注目判定部とを備え、前記表示制御部は、前記ユーザが前記見守り対象者に注目していると判定される場合には、注目していないと判定される場合と比べて、前記アプリケーション画像の位置が前記ディスプレイの中心からずれる距離を短くしてもよい。
これにより、ユーザが見守り対象者に注目している場合には、アプリケーション画像のずれが抑えられるため、そのような場合にまで、アプリケーション画像を見難くすることを防ぐことができる。つまり、見守り対象者に注目しているユーザに対しては、アプリケーション画像を見易くすることができる。
以下、実施の形態について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態1)
図1は、本実施の形態における見守り装置の機能的な構成を示す図である。
見守り装置100は、筐体105と、決定部101と、タイマー102と、カメラ103と、位置検出部104と、表示制御部106と、ディスプレイ107と、記憶部108とを備える。ディスプレイ107およびカメラ103はそれぞれ筐体105に配置される。具体的には、ディスプレイ107は、筐体105の表面に位置する。カメラ103は、筐体105の裏面に位置する。
図2Aおよび図2Bに、見守り装置100の使用シーンの一例を示す。図1に示すように、筐体105は、ディスプレイ107を有する表面と、カメラ103が配置される裏面とを有する。筐体105によってかたどられる見守り装置100は、例えば、スマートフォンなどの携帯端末である。
ユーザは、筐体105のディスプレイ107に表示されるアプリケーションプログラムの画像(以下、アプリーション画像という)を操作又は閲覧している。なお、アプリケーションプログラムを、以下、アプリケーションまたはアプリと称する。カメラ103は、見守り対象者を含むカメラ映像を撮像する。見守り装置100は、ディスプレイ107に、カメラ映像自体を表示することなく、見守り対象者の位置を示すアプリケーション画像を表示する。これにより、ユーザは、アプリケーション画像を操作又は閲覧している状態でも、見守り対象者の位置を知ることができる。
例えば、図2Aに示すように、カメラ103は、砂遊びをしている子供である見守り対象者を被写体にして、その見守り対象者を含むカメラ映像を撮像する。しかし、見守り装置100は、そのカメラ映像をディスプレイ107に表示することなく、ディスプレイ107に表示されるアプリケーション画像の表示態様によって、見守り対象者の位置を示す。また、図2Bに示すように、カメラ103は、ボール遊びをしている2人の子供を被写体にして、その2人の子供を含むカメラ映像を撮像する。このとき、見守り装置100は、その2人の子供のうちの一方を見守り対象者に決定する。そして、上述と同様に、見守り装置100は、そのカメラ映像をディスプレイ107に表示することなく、ディスプレイ107に表示されるアプリケーション画像の表示態様によって、2人の子供のうちの決定された1人である見守り対象者の位置を示す。
(ディスプレイ107)
ディスプレイ107は、筐体105の表面に位置する。ディスプレイ107は、例えば液晶ディスプレイまたは有機EL(electroluminescence)ディスプレイなどである。ディスプレイは、表示面(screen)を有する。
(カメラ103)
カメラ103は、筐体105の裏面に位置する。カメラ103は筐体105の周囲の映像を撮像する。カメラ103が撮像している映像は、カメラ映像とも表記する。カメラ映像は、複数のカメラ画像を含む。複数のカメラ画像は、異なる時刻に撮像されたカメラ画像を意味する。つまり、カメラ映像は動画像であり、カメラ画像は静止画像である。
(タイマー102)
タイマー102は、計時を行い、位置検出部104に対して現在時刻を通知する。なお、本実施の形態における見守り装置100は、タイマー102を備えているが、このタイマー102を備えていなくてもよい。
(記憶部108)
記憶部108は、上述のように見守り対象者を決定するための対象者決定規則を記憶している。また、記憶部108は、位置検出部104の処理に用いられる一時的なデータを保持するために用いられる。なお、記憶部108は、見守り装置100に備えられているが、この見守り装置100に備えられていなくてもよい。この場合、記憶部108は、見守り装置100の外部の記憶部であり、見守り装置100と有線または無線を介して接続され、見守り装置100との間で情報を送受信してもよい。
(決定部101)
決定部101は、カメラ103が撮像しているカメラ映像中に含まれる見守り対象者を決定する。つまり、決定部101は、カメラ103で撮像されるカメラ画像に含まれる見守り対象者を決定する。見守り対象者は、移動物であって、例えば人または動物である。
決定部101は、見守り対象者を決定するために、まず、カメラ103が撮像しているカメラ映像を受け付け、カメラ映像に含まれる少なくとも1つの対象者候補を決定する。例えば、図2Bに示す場合には、決定部101は、2人の子供のそれぞれを対象者候補として決定する。
具体的には、決定部101は、カメラ映像から所定以上の大きさを有する対象者候補を取得する。より具体的には、決定部101は、隣接する画素と所定以上の輝度値の差を有する複数の画素からなるエッジをカメラ画像から特定する。そして、決定部101は、カメラ画像において、特定された複数の画素からなるエッジで囲まれる物体のうち、所定以上の大きさ(面積)を有する物体を対象者候補として決定する。また、決定部101は、顔認識機能または人体認識機能などを用いて対象者候補を決定してもよい。
カメラ映像が対象者候補を1つ含む場合(例えば図2Aに示す場合)には、決定部101は、ユーザの確認を得た後、その対象者候補を見守り対象者として決定する。例えば、決定部101は、表示面にカメラ画像を表示されている場合に、表示面に対するユーザの接触、または筐体に対する決定操作に基づいて、見守り対象者を決定する。また、決定部101は、ユーザの確認を得ることなく、その対象者候補を見守り対象者として決定しても良い。
一方、カメラ映像が複数の対象者候補を含む場合(例えば図2Bに示す場合)、決定部101は、ユーザによる選択操作によって、または、記憶部108に格納されている対象者決定規則を用いて、複数の対象者候補から1つの見守り対象者を決定する。例えば、対象者決定規則では、カメラ映像中の中心に近い対象者候補が見守り対象者として決定される。他の例における対象者決定規則では、予め定められた形状(いわゆるテンプレート)に類似する形状の対象者候補が見守り対象者として決定される。予め定められた形状は、例えば、正面、横、または斜めから撮像された人または動物の形状である。つまり、決定部101は、カメラ映像中に含まれる少なくとも1つの対象者候補から、予め定められたテンプレートに類似する対象者候補を、見守り対象者と決定する。言い換えれば、決定部101は、対象者候補の形状を取得し、取得した対象者候補の形状とテンプレートとのパターンマッチングにより、見守り対象者を決定する。また、決定部101は、顔認識機能を用いて、予め登録されている顔の特徴を有する対象者候補を見守り対象者として決定してもよい。同様に、決定部101は、人体認識機能を用いて、予め登録されている人体の身体的特徴を有する対象者候補を見守り対象者として決定してもよい。
また、決定部101は、ユーザによる選択操作によって、複数の対象者候補から1つの見守り対象者を決定するときには、その複数の対象者候補を強調してディスプレイ107に表示させる。そして、決定部101は、その複数の対象者候補の中から、ユーザが選択した対象者候補を見守り対象者として決定する。
図3は、1人の対象者候補を見守り対象者として決定するためにディスプレイ107に表示される画像を示す。
例えば、ディスプレイ107には、表示制御部106による制御に基づいて、カメラ103で撮像されるカメラ映像が表示される。決定部101は、このカメラ映像に含まれる各カメラ画像から対象者候補を決定すると、表示制御部106に、その決定された対象者候補の表示態様を強調させる。例えば、図3に示すように、ディスプレイ107には、子供である対象者候補の顔を囲む枠107aが表示される。つまり、決定部101は、顔認識機能などによって、対象者候補の顔を認識し、その顔を囲む枠107aの表示を表示制御部106に実行させる。この枠107aによって、対象者候補の表示態様が強調される。さらに、ディスプレイ107には、「枠で囲まれた人を見守り対象者に決定してもよろしいですか?」というメッセージと、ユーザの確認を得るためのボタン107bとが表示される。このボタン107bにユーザがタッチすると、決定部101は、ユーザの確認を得る。つまり、決定部101は、強調されている表示態様の対象者候補を見守り対象者として決定してもよいという確認をユーザから得る。このような確認が得られると、決定部101は、その対象者候補を見守り対象者として決定する。
図4は、2人の対象者候補から見守り対象者を決定するためにディスプレイ107に表示される画像を示す。
例えば、ディスプレイ107には、表示制御部106による制御に基づいて、カメラ103で撮像されるカメラ映像が表示される。決定部101は、このカメラ映像に含まれる各カメラ画像から対象者候補を決定すると、表示制御部106に、その決定された対象者候補の表示態様を強調させる。例えば、図4に示すように、ディスプレイ107には、それぞれ子供である2人の対象者候補の顔を囲む枠107a,107cが表示される。つまり、決定部101は、顔認識機能などによって、各対象者候補の顔を認識し、それらの顔を個別に囲む枠107a,107cの表示を表示制御部106に実行させる。この枠107a,107cによって、各対象者候補の表示態様が強調される。さらに、ディスプレイ107には、「枠内をタッチして見守り対象者を決定してください」というメッセージが表示される。ここで、枠107a,107cの何れか一方の枠内をユーザがタッチすると、決定部101は、タッチされた枠内の顔を有する対象者候補を見守り対象者として決定する。
図5は、候補対象者の表示態様が強調される他の例を示す。
図3および図4に示す例では、対象者候補の顔を囲む枠を表示することによって、その対象者候補の表示態様が強調される。しかし、対象者候補の表示態様を強調するためのオブジェクトは、このような枠に限定されない。例えば、図5の(a)および(d)に示すように、ディスプレイ107は、それぞれの対象者候補の縁に沿って、その対象者候補の全体を囲む枠107d,107h,107iを、対象者候補の表示態様を強調するためのオブジェクトとして表示してもよい。または、図5の(b)および(e)に示すように、ディスプレイ107は、それぞれの対象者候補の全体を囲む矩形状の枠107f,107j,107kを、対象者候補の表示態様を強調するためのオブジェクトとして表示してもよい。または、図5の(c)および(f)に示すように、ディスプレイ107は、それぞれの対象者候補の上に配置される丸印107g,107m,107nを、対象者候補の表示態様を強調するためのオブジェクトとして表示してもよい。このような107g,107m,107nが表示される場合には、決定部101は、ユーザによってディスプレイ107上にタッチされた位置に最も近い丸印に対応する対象者候補を、見守り対象者として決定する。
なお、図5に示す例以外に、ディスプレイ107は、対象者候補の全体を囲む楕円状の枠、または、対象者候補の中心に配置される例えば十字などのマークを、対象者候補の表示態様を強調するためのオブジェクトとして表示してもよい。
(位置検出部104)
位置検出部104は、カメラ映像中の、決定部101が決定した見守り対象者の位置を検出する。見守り対象者の位置は、例えば、カメラ画像の縦方向の位置及び横方向の位置であり、カメラ画像全体における見守り対象者の情報を含む画素の位置である。また、見守り対象者の位置は、見守り対象者の全体の中心、顔の中心、または胸の中心に位置であってもよい。
位置検出部104は、さらに、見守り対象者の位置の変化に基づいて、見守り対象者の位置の変化距離又は変化方向を検出する。具体的には、位置検出部104は、見守り対象者がカメラ画像における中心以外に位置する場合には、カメラ画像における中心から見守り対象者の位置までの変化距離を検出する。なお、この変化距離は、見守り対象者の実際の移動距離ではなく、画像に映っている見守り対象者の位置がその中心から変化した距離である。さらに、その場合には、位置検出部104は、そのカメラ画像における中心から見守り対象者の位置への方向を変化方向として検出する。また、上述の説明では、カメラ画像における中心を変化距離および変化方向の基準位置としたが、その基準位置は、カメラ画像における中心と異なる位置であってもよい。例えば、基準位置は、決定部101によって見守り対象者が決定されたときのカメラ画像における見守り対象者の位置である決定位置であってもよい。つまり、位置検出部104は、見守り対象者がカメラ画像における決定位置以外に位置する場合には、カメラ画像における決定位置から見守り対象者の位置までの変化距離を検出する。さらに、その場合には、位置検出部104は、その決定位置から見守り対象者の位置への方向を変化方向として検出する。
なお、変化距離および変化方向は、カメラ103(すなわち見守り装置100)と見守り対象者との相対的な位置関係によって定まるため、見守り対象者が移動したときだけでなく、見守り装置100が移動したときにも、その移動に応じて変化する。また、カメラ画像における中心は、中心点に限らず、中心点を含む予め定められた面積を有する領域であってもよい。
または、上述の基準位置は、過去に検出された見守り対象者の位置であってもよい。つまり、位置検出部104は、前に検出した見守り対象者の位置と、次に検出した見守り対象者の位置との変化の大きさに基づいて、見守り対象者の変化距離を検出する。または、位置検出部104は、前に検出した見守り対象者の位置を基準とする、次に検出した見守り対象者の位置の向きに基づいて、見守り対象者の変化方向を検出する。
例えば、位置検出部104は、タイマー102から通知される現在時刻に基づいて、見守り対象者の位置を検出した時刻を検出時刻として特定する。そして、位置検出部104は、その検出時刻と見守り対象者の位置とを記憶部108に格納してもよい。位置検出部104は、例えば、この検出時刻と位置との格納を、見守り対象者の位置を検出するごとに行う。さらに、位置検出部104は、見守り対象者の位置を現在位置として検出すると、その検出を行ったときから予め定められた時間前の時刻に対応する見守り対象者の位置を過去位置として、記憶部108から取得する。そして、位置検出部104は、現在位置と過去位置とを用いて、見守り対象者の変化距離又は変化方向を検出する。
さらに、位置検出部104は、見守り対象者のカメラ画像における縦方向および横方向の位置だけでなく、カメラ画像における見守り対象者の奥行き方向の位置を検出してもよい。例えば、位置検出部104は、カメラ画像における見守り対象者の大きさに基づいて、奥行き方向の位置を検出する。つまり、位置検出部104は、見守り対象者が小さいほど、見守り装置100から遠い見守り対象者の奥行き方向の位置を検出する。
また、位置検出部104は、その奥行き方向の位置の検出を繰り返し行うことによって、カメラ画像における見守り対象者の奥行き方向の位置の変化を検出してもよい。つまり、位置検出部104は、奥行き方向における、基準奥行き位置から見守り対象者の位置までの奥行き距離を検出してもよい。基準奥行き位置は、例えば、上述の決定位置に見守り対象者がいたときのその見守り対象者の奥行き方向の位置である。
(表示制御部106)
表示制御部106は、位置検出部104によって検出された見守り対象者の位置に基づいて、ディスプレイ107の表示を制御する。つまり、表示制御部106は、その検出された見守り対象者の位置に基づいて、カメラ画像を含まないアプリケーション画像をディスプレイ107に表示させる。具体的には、表示制御部106は、見守り対象者の位置に基づいて、ディスプレイ107におけるアプリケーション画像の位置を変更する。このアプリケーション画像は、カメラ映像自体が映っていない映像又は画像である。なお、画像は、文字、記号、または文字列などを含むテキストであってもよい。アプリケーション画像は、アプリケーションによって扱われる画像であって、例えば、インターネットで情報を閲覧するためのウェブブラウザによって扱われる画像である。また、アプリケーションは、ウェブブラウザに限らず、例えば、メール、地図、鉄道又はバスの乗り換え案内、あるいはゲームであってもよい。以下、このようなアプリケーションを表示アプリともいう。
図6は、見守り対象者の位置に基づいて制御されるアプリケーション画像の一例を示す。
例えば、図6の(a)に示すように、見守り対象者がカメラ画像における中心に位置する場合には、表示制御部106は、ディスプレイ107の全体に、カメラ画像を含まないアプリケーション画像107pを表示させる。ここでのディスプレイ107の全体とは、表示面(screen)に対応する。このとき、表示制御部106は、決定された見守り対象者の位置に応じてディスプレイ107の表示が制御されていることをユーザに通知するために、「見守り中」と記載されたメッセージ107qを、そのディスプレイ107に表示させてもよい。
一方、図6の(b)に示すように、見守り対象者がカメラ画像における中心以外に位置する場合には、表示制御部106は、見守り対象者のカメラ画像における中心からずれている方向に、アプリケーション画像107pの位置をディスプレイ107の中心からずらして表示させる。また、表示制御部106は、上述の変化距離が長いほど、アプリケーション画像107pの位置をディスプレイ107の中心から遠くにずらして表示させてもよい。
例えば、図6の(b)に示すように、見守り対象者が右方向に移動した場合には、位置検出部104によってカメラ画像中における見守り対象者の変化距離および変化方向が検出される。この場合、変化方向は右方向である。このとき、表示制御部106は、その変化方向、すなわち右方向に、アプリケーション画像107pの位置をディスプレイ107の中心からずらして、そのアプリケーション画像107pをディスプレイ107に表示させる。なお、ユーザが見守り装置100を左方向に動かした場合にも、位置検出部104および表示制御部106は、上述と同様の処理を行う。
このようにアプリケーション画像107pの位置がずらされるときには、表示制御部106は、アプリケーション画像107pとは異なる画像である周辺画像107sを表示させる。例えば、図6の(a)に示すように、見守り対象者の位置がカメラ画像中の中心に位置する場合には、表示制御部106は、通常通り、ディスプレイ107全体にアプリケーション画像107pを表示させて、周辺画像107sを表示させない。一方、図6の(b)に示すように、見守り対象者の位置がカメラ画像中の右に移動した場合には、表示制御部106は、アプリケーション画像107pを右に移動させる。このとき、表示制御部106は、ディスプレイ107の左側の領域(具体的には左側の領域内の画素)に、アプリケーション画像107pを表示させずに、アプリケーション画像ではない周辺画像107sを表示させる。例えば、周辺画像107sは、アプリケーション画像107p中の内容に依存しない情報を表す画像であって、黒のみ、白のみ、または、ランダムに配列された色などを含む。また、見守り装置100がスマートフォンとして構成される場合には、周辺画像107sは、メニュー画面の一部の領域であってもよい。あるいは、周辺画像107sは、カメラ画像またはカメラ映像の一部の領域であってもよい。この周辺画像107sを表示することは、例えば、画像をマスクするとも表現される。
また、アプリケーション画像107pが移動するときには、ディスプレイ107全体に表示されるときと比べて、アプリケーション画像107pにおいて表示される領域が小さくなる。つまり、アプリケーション画像107pのうちの一部の領域は、ディスプレイ107からはみ出すように隠れる。このとき、アプリケーション画像107pを縮小して表示することにより、アプリケーション画像107pに含まれる情報を表示してもよい。つまり、表示制御部106は、見守り対象者がカメラ画像における中心以外に位置する場合には、見守り対象者のカメラ画像における中心からずれている方向に、アプリケーション画像107pの位置をずらし、かつアプリケーション画像107pを縮小し表示させる。例えば、表示制御部106は、アプリケーション画像107pの全体を横方向に縮小する。または、表示制御部106は、アプリケーション画像107pにおける一部の領域、例えば、アプリケーション画像107pにおける周辺画像107sと横方向に反対側の領域(例えば縁部分)を横方向に縮小する。この場合には、その領域が歪んだ画像となる。
これにより、アプリケーション画像107pが右または左にずれていても、そのアプリケーション画像107pは縮小されている。したがって、アプリケーション画像107pがずらされることによって表示されなくなるアプリケーション画像107pの領域の割合を少なくすることができる。この割合は、アプリケーション画像107pの全体の面積に対する、アプリケーション画像107pの表示されない領域の面積の割合である。したがって、ユーザは、アプリケーション画像107pがずらされたときにも、アプリケーション画像107pの内容の把握の取りこぼしを抑えることができる。
また、図6の(b)に示すようにアプリケーション画像107pが右方向にずらされると、ユーザは、そのアプリケーション画像107pを見易い表示態様に戻したいと考えるため、図6の(c)に示すように、見守り装置100を右方向に移動させる。または、ユーザは、見守り対象者が元の位置に戻るように、つまり左方向に移動するように、その見守り対象者に対して指示する。これによって、カメラ画像における中心と見守り対象の位置との間の変化距離は短くなる。したがって、位置検出部104によって、短くなった変化距離が検出されると、表示制御部106は、その変化距離に応じてアプリケーション画像107pを左方向に移動させる。その結果、周辺画像107sは横方向に短くなり、アプリケーション画像107pにおいて表示されている領域は広くなる。しかし、アプリケーション画像107pの右側の一部の領域は未だ表示されていない。言い換えると、ディスプレイの表示面の一部に、アプリケーション画像の表示態様が変更されて表示される。アプリケーション画像は表示面の全体に表示されない。つまり、カメラ画像の中心からずれた位置に見守り対象者が存在する場合には、カメラ画像の中心に見守り対象者が存在する場合と比較して、表示面におけるアプリケーション画像が表示される領域が小さくなる。
したがって、ユーザは、そのアプリケーション画像107pをより見易い表示態様に戻したいと考えるため、図6の(c)に示す状態から、さらに、見守り装置100を右方向に移動させる。または、ユーザは、見守り対象者が元の位置に戻るように、つまり左方向に移動するように、その見守り対象者に対して指示する。これによって、カメラ画像における中心と見守り対象の位置との間の変化距離は所定距離以下になる。つまり、見守り対象者がカメラ画像における中心に位置する。したがって、表示制御部106は、図6の(d)に示すように、その変化距離に応じてアプリケーション画像107pをさらに左方向に移動させて、ディスプレイ107全体にアプリケーション画像107pを表示させる。
このように、本実施の形態では、アプリケーション画像107pがディスプレイ107全体に表示されていれば、ユーザは、見守り対象者がカメラ画像における中心に位置していることを容易に把握することができる。つまり、ユーザは、見守り対象者が大きく移動しておらず安全な位置にいることを容易に把握することができる。一方、アプリケーション画像107pが右にずれていれば、ユーザは、見守り対象者がカメラ画像における中心から右に移動したことを容易に把握することができる。逆に、アプリケーション画像107pが左にずれていれば、ユーザは、見守り対象者がカメラ画像における中心から左に移動したことを容易に把握することができる。また、ディスプレイ107全体に表示されていたアプリケーション画像107pが例えば右にずらされるときには、そのアプリケーション画像107pの右端の領域が非表示となる。したがって、ユーザは、その右端の領域を閲覧したいと考えるため、見守り装置100を右側に自然に動かす。その結果、カメラ画像における見守り対象者の位置は、そのカメラ画像における中心に近づくため、非表示とされていた右端の領域がディスプレイ107に表示される。つまり、ユーザは、アプリケーション画像107pの閲覧に注力していても、見守り対象者を特に意識することなく、その見守り対象者を適切に追跡して見守ることができる。
また、上述の例では、基準位置をカメラ画像における中心としているが、上述の決定位置であってもよい。つまり、表示制御部106は、見守り対象者が決定されたときのカメラ画像における見守り対象者の位置である決定位置に、その見守り対象者が位置する場合には、ディスプレイ107全体にアプリケーション画像107pを表示させる。一方、見守り対象者がその決定位置以外に位置する場合には、表示制御部106は、見守り対象者のカメラ画像における決定位置からずれている方向に、アプリケーション画像107pの位置をディスプレイ107の中心からずらして表示させる。
図7は、見守り対象者の位置に基づいて制御されるアプリケーション画像107pの他の例を示す。
図7の(a)に示すように、カメラ画像における中心位置に見守り対象者が位置する場合には、表示制御部106は、ディスプレイ107の全体にアプリケーション画像107pを表示させる。
次に、図7の(b)に示すように、見守り対象者は、カメラ103(すなわち見守り装置100)から奥行き方向に離れる。上述のように、位置検出部104は、カメラ画像におけるその見守り対象者の奥行き方向の位置の変化を検出している。したがって、見守り対象者が離れると、位置検出部104は、奥行き方向であってカメラ103から離れる向きに見守り対象者の位置が変化していることを検出する。このとき、表示制御部106は、ディスプレイ107の中心を基準として、アプリケーション画像107pを縮小して表示させる。なお、奥行き方向の見守り対象者の位置の変化は、上述の基準奥行き位置から見守り対象者の位置までの変化である。つまり、表示制御部106は、基準奥行き位置から見守り対象者の位置までの奥行き距離に応じた縮小率でアプリケーション画像107pを縮小する。また、このようにアプリケーション画像107pが縮小されると、表示制御部106は、アプリケーション画像107pを取り囲むような形状の周辺画像107sをディスプレイ107に表示させる。
アプリケーション画像107pが縮小されると、ユーザは、アプリケーション画像107pが見難くなるため、図7の(c)に示すように、見守り対象者に近づく。または、ユーザは、見守り対象者を呼び寄せる。このときにも、位置検出部104は、カメラ画像におけるその見守り対象者の奥行き方向の位置の変化を検出している。したがって、位置検出部104は、基準奥行き位置から見守り対象者の位置までの奥行き距離が短くなったことを検出する。その結果、図7の(c)に示すように、表示制御部106は、図7の(b)に示すアプリケーション画像107pを、ディスプレイ107の中心を基準として拡大してディスプレイ107に表示させる。また、表示制御部106は、アプリケーション画像107pの拡大により、ディスプレイ107に表示されている周辺画像107sの面積を小さくする。
図7の(c)に示す例では、見守り対象者は、基準奥行き位置よりも未だ奥行き方向に離れている。したがって、図7の(c)に示すアプリケーション画像107pは、ディスプレイ107の全体に表示されておらず、図7の(a)に示すアプリケーション画像107pよりも縮小されている。
そこで、ユーザは、アプリケーション画像107pが未だ見難くいため、さらに見守り対象者に近づく。または、ユーザは、見守り対象者を呼び寄せる。その結果、位置検出部104は、見守り対象者の奥行き方向の位置が基準奥行き位置に一致すると判断する。このとき、図7の(d)に示すように、表示制御部106は、図7の(c)に示すアプリケーション画像107pを、ディスプレイ107の中心を基準として拡大し、そのアプリケーション画像107pをディスプレイ107の全体に表示させる。また、表示制御部106は、アプリケーション画像107pの拡大により、周辺画像107sをアプリケーション画像107pで隠すように非表示にする。
このように、本実施の形態では、ユーザは、アプリケーション画像の縮小によって、見守り対象者が見守り装置100から奥行き方向に沿って遠くに離れていることを容易に把握することができる。
図8は、見守り対象者の位置に基づいて制御されるアプリケーション画像107pのさらに他の例を示す。
表示制御部106は、見守り対象者の位置の変化距離が所定の値(後述する第1の閾値)以下の場合には、図6および図7に示すように、検出された見守り対象者の位置に基づいて、アプリケーション画像107pをディスプレイ107に表示させる。一方、表示制御部106は、図8に示すように、見守り対象者の位置の変化距離が所定の値よりも長い場合には、ディスプレイ107にカメラ画像107tを表示させる。つまり、表示制御部106は、このときには、アプリケーション画像107pを非表示にしてカメラ画像107tをディスプレイ107に表示させる。これにより、アプリケーション画像107pの閲覧または操作が強制的に終了される。なお、表示制御部106は、見守り対象者の位置に基づくアプリケーション画像107pの制御が中止されたことをユーザに通知するためのメッセージ107uを、カメラ画像107tとともにディスプレイ107に表示させてもよい。メッセージ107uには、例えば「見守り中止」と記載されている。
このように、アプリケーション画像107pがカメラ画像107tに切り替えられることによって、見守り対象者が遠くに離れていることを、ユーザに警告することができる。つまり、ユーザは、カメラ画像107tへの切り替えによって、見守り対象者が遠くに移動してしまって危険な状態にあるかもしれないことを、容易に把握することができる。ユーザは、その警告によって、急いで見守り対象者を直接監視することができる。
図9は、本実施の形態における見守り方法を示すフローチャートである。
本実施の形態における見守り方法は、ディスプレイ107及びカメラ103を有する見守り装置100において、ディスプレイ107の表示を制御する見守り方法であって、ステップS11〜S14を含む。
(ステップS11)
カメラ103は撮像する。
(ステップS12)
決定部101は、カメラ103で撮像されるカメラ画像に含まれる見守り対象者を決定する。
(ステップS13)
位置検出部104は、カメラ画像中の見守り対象者の位置を検出する。
(ステップS14)
表示制御部106は、検出された見守り対象者の位置に基づいて、カメラ画像を含まないアプリケーション画像107pをディスプレイ107に表示させる。
図10は、本実施の形態における見守り方法を具体的に示すフローチャートである。
(ステップS101)
見守り装置100は、見守り動作を開始する。例えば、見守り装置100は、アプリケーションの起動の操作、又はアプリケーションにおける開始の操作を受け付けることにより、見守り動作を開始する。具体的には、見守り装置100は、メニュー画面をディスプレイ107に表示する。そのメニュー画面に表示されているアプリケーションのアイコンがユーザによってタッチされると、見守り装置100は、アプリケーションの起動の操作を受け付ける。これによって、見守り装置100は、見守り動作を開始する。ステップS101により見守り動作が開始されると、カメラ103は撮像する。そして、例えば図3または図4に示すカメラ映像がディスプレイ107に表示される。具体的には、表示制御部106は、カメラ103が撮影しているカメラ映像を、ディスプレイ107に表示させる。
(ステップS102)
決定部101は、カメラ映像中の見守り対象者を決定する。例えば、決定部101は、ユーザがディスプレイ107にタッチした位置に最も近い対象者候補を、見守り対象者と決定する。このように、決定部101は、ディスプレイ107にカメラ映像が表示されている時に、ユーザによりタッチされた位置に基づいて、見守り対象者を決定する。
または、決定部101は、ディスプレイ107の中心に映っている人または動物を認識し、その認識された人または動物を見守り対象者として決定してもよい。または、決定部101は、カメラ映像に複数の対象者候補が含まれる場合には、カメラ映像中において最もディスプレイ107の中心位置に近く、かつ、所定時間以上、中心付近に位置する対象者候補を、見守り対象者として決定してもよい。または、決定部101は、予め登録されている人(例えば子供)の顔画像を用いて顔認証を行い、その顔画像に類似する顔を有する人を見守り対象者として決定してもよい。もちろん、決定部101は、映っている人の中からユーザによって選択された人を見守り対象者として決定してもよい。
(ステップS103)
位置検出部104は、ステップS102で決定した見守り対象者の位置を検出する。つまり、位置検出部104は、見守り対象者の追跡を開始する。
(ステップS104)
表示制御部106は、ユーザによる操作に応じて、表示アプリを起動して、その表示アプリによって扱われるアプリケーション画像107pをディスプレイ107に表示させる。なお、表示アプリは、上述のように、例えばウェブブラウザである。具体的には、ステップS103において見守り対象者の追跡が開始されると、表示制御部106は、複数のアプリケーションのアイコンを含むメニュー画面をディスプレイ107に表示させる。これらのアイコンのうちの何れか1つのアイコンがユーザによってタッチされると、表示制御部106は、そのタッチされたアイコンによって識別されるアプリケーションを表示アプリとして選択する。そして、表示制御部106は、その選択された表示アプリを起動することによって、アプリケーション画像107pをディスプレイ107に表示させる。
ステップS104において、アプリケーション画像107pが表示されると、ステップS105〜S109において、そのアプリケーション画像107pに対する制御が繰り返し実行される。このアプリケーション画像107pの制御は、検出された見守り対象者の位置に基づいて、カメラ画像を含まないアプリケーション画像107pをディスプレイ107に表示させる制御である。以下、具体的な動作処理フローを説明する。
(ステップS105)
位置検出部104は、所定の時間間隔ごとに、見守り対象者の位置を検出することにより、見守り対象者の変化距離L0と変化方向B0とを検出する。なお、変化距離L0は、上述のように、カメラ画像における基準位置から見守り対象者の位置までの距離である。変化方向B0は、上述のように、カメラ画像における基準位置から見守り対象者の位置への方向である。基準位置は、カメラ画像における中心または決定位置である。この変化距離L0および変化方向B0は、見守り対象者が移動することによって変化し、見守り装置100が移動することによっても変化する。
(ステップS106)
表示制御部106は、検出された変化距離L0を予め決めた所定移動量である第1の閾値(すなわち図8に示す所定の値)と比較する。そして、表示制御部106は、変化距離L0が第1の閾値よりも長いか否かを判定する。
(ステップS107)
ステップS106において、変化距離L0が第1の閾値よりも長いと判定されると(ステップS106のYes)、表示制御部106は、図8に示すように、アプリケーション画像107pを非表示にして、カメラ画像107tをディスプレイ107に表示させる。これにより、ディスプレイ107にはカメラ画像107tが表示されるため、ユーザは見守り装置100のディスプレイ107を見るのを止めて、子供などの見守り対象者を実際の目で探す。
(ステップS108)
ステップS106において、変化距離L0が第1の閾値よりも長くないと判定されると(ステップS106のNo)、表示制御部106は、図6に示すように、アプリケーション画像107pを変化距離L0と変化方向B0に応じて移動させる。このステップS108の詳細については、図11A〜図11Cを用いて詳細に説明する。
(ステップS109)
見守り装置100は、見守り動作を終了すべきか否かを判断する。例えば、見守り装置100は、ユーザから終了の指示を受け付けた場合には、終了すべきと判断し、その指示を受け付けていない場合には、終了すべきではないと判断する。ここで、終了すべきと判断すると(ステップS109のYes)、見守り装置100は、見守り動作を終了する。一方、終了すべきでないと判断すると(ステップS109のNo)、見守り装置100は、ステップS105からの処理を繰り返し実行する。ステップS105が再び実行される場合には、位置検出部104は、直前に変化距離L0などが検出されたタイミングから所定の時間間隔経過後に、次の変化距離L0及び変化方向B0を検出する。
なお、図10に示す例では、見守り装置100は、変化距離L0および変化方向B0に基づいてアプリケーション画像107pを移動させる処理を見守り動作として行う。しかし、図7に示すように、見守り装置100は、奥行き距離に基づいてアプリケーション画像107pを縮小する処理を見守り動作として行ってもよい。この場合には、ステップS105において奥行き距離が算出され、ステップS108において、アプリケーション画像107pが奥行き距離に応じて縮小される。
図11A〜図11Cは、図10に示すフローチャートのステップS108の詳細を示すフローチャートである。
図11Aでは、アプリケーション画像107pを一段階で移動させる処理を示す。
(ステップS108a)
表示制御部106は、変化距離L0が第2の閾値以上であるか否かを判定する。なお、第2の閾値は、第1の閾値よりも小さい予め定められた値である。
(ステップS108b)
ステップS108aにおいて、変化距離L0が第2の閾値以上であると判定されると(ステップS108aのYes)、表示制御部106は、アプリケーション画像107pを移動させる。具体的には、表示制御部106は、アプリケーション画像107pを、ディスプレイ107の中心から変化方向B0に移動距離L1だけ離れた位置に移動させる。移動距離L1は、予め定められた距離である。
(ステップS108c)
ステップS108aにおいて、変化距離L0が第2の閾値未満であると判定されると(ステップS108aのNo)、表示制御部106は、アプリケーション画像107pを、ディスプレイ107の中心に表示させる。つまり、表示制御部106は、アプリケーション画像107pをディスプレイ107の全体に表示させる。
これにより、変化距離L0が第2の閾値未満であれば、アプリケーション画像107pはディスプレイ107の中心にあり、変化距離L0が第2の閾値以上で且つ第1の閾値以下であれば、アプリケーション画像107pはその中心から移動距離L1ずらされる。このように、アプリケーション画像107pは、変化距離L0が第2の閾値以上であるか否かに応じて、一段階で移動する。
図11Bは、アプリケーション画像107pを二段階で移動させる処理を示す。
(ステップS108a)
表示制御部106は、変化距離L0が第2の閾値以上であるか否かを判定する。
(ステップS108c)
ステップS108aにおいて、変化距離L0が第2の閾値未満であると判定されると(ステップS108aのNo)、表示制御部106は、アプリケーション画像107pを、ディスプレイ107の中心に表示させる。つまり、表示制御部106は、アプリケーション画像107pをディスプレイ107の全体に表示させる。
(ステップS108d)
ステップS108aにおいて、変化距離L0が第2の閾値以上であると判定されると(ステップS108aのYes)、表示制御部106は、さらに、変化距離L0が第3の閾値以上であるか否かを判定する。なお、第3の閾値は予め定められた値であって、第1〜3の閾値のそれぞれは、「第2の閾値<第3の閾値<第1の閾値」の関係を満たす。
(ステップS108e)
ステップS108dにおいて、変化距離L0が第3の閾値以上であると判定されると(ステップS108dのYes)、表示制御部106は、アプリケーション画像107pを移動させる。具体的には、表示制御部106は、アプリケーション画像107pを、ディスプレイ107の中心から変化方向B0に移動距離L1×2離れた位置に移動させる。なお、移動距離L1×2は、移動距離L1の2倍の距離である。
(ステップS108b)
ステップS108dにおいて、変化距離L0が第3の閾値未満であると判定されると(ステップS108dのNo)、表示制御部106は、アプリケーション画像107pを、ディスプレイ107の中心から変化方向B0に移動距離L1離れた位置に移動させる。
これにより、変化距離L0が第2の閾値未満であれば、アプリケーション画像107pはディスプレイ107の中心にある。しかし、変化距離L0が第2の閾値以上で且つ第3の閾値未満であれば、アプリケーション画像107pはその中心から移動距離L1ずらされる。そして、変化距離L0が第3の閾値以上で且つ第1の閾値以下であれば、アプリケーション画像107pはその中心から移動距離L1×2ずらされる。このように、アプリケーション画像107pは、変化距離L0に応じて、中心から移動距離L1離れた位置と、中心から移動距離L1×2離れた位置との2段階で移動する。
図11Cは、アプリケーション画像107pを変化距離L0に応じた任意の位置に移動させる処理を示す。
(ステップS108f)
表示制御部106は、例えば予め定められた係数Kを変化距離L0に乗ずることによって、移動距離L2を算出する。
(ステップS108g)
表示制御部106は、アプリケーション画像107pを、ディスプレイ107の中心から変化方向B0に移動距離L2離れた位置に移動させる。
これにより、アプリケーション画像107pは、変化距離L0に応じた任意の位置に、段階的にではなく連続的に移動する。
この例では、表示制御部106は、変化距離L0が長いほど、アプリケーション画像107pの位置をディスプレイ107の中心から遠くにずらして表示させる。したがって、見守り対象者の変化距離L0が長いほど、アプリケーション画像107pがディスプレイ107の中心から遠くにずらされる。その結果、ユーザは、アプリケーション画像107pがディスプレイ107の中心からどれほどずれているかを知ることによって、見守り対象者がどれだけ移動したかを容易に把握することができる。
(実施の形態1の効果)
本実施の形態における見守り装置100は、筐体105と、ディスプレイ107と、カメラ103と、決定部101と、位置検出部104と、表示制御部106とを備える。ディスプレイ107は、筐体105に配置される。カメラ103は、筐体105に配置される。決定部101は、カメラ103で撮像されるカメラ画像に含まれる見守り対象者を決定する。位置検出部104は、カメラ画像中の見守り対象者の位置を検出する。表示制御部106は、検出された見守り対象者の位置に基づいて、カメラ画像を含まないアプリケーション画像107pをディスプレイ107に表示させる。
これにより、本実施の形態では、カメラ画像における見守り対象者の位置に基づいて、アプリケーション画像107pが表示される。したがって、ユーザは、アプリケーション画像107pの内容に気を取られていても、そのアプリケーション画像107pの表示が見守り対象者の位置に応じて制御されるため、その見守り対象者の位置を把握することができる。これにより、見守り対象者を適切に見守ることができる。
また、本実施の形態では、表示制御部106は、見守り対象者の位置に基づいて、ディスプレイ107におけるアプリケーション画像107pの位置を変更する。
これにより、アプリケーション画像107pの位置が見守り対象者の位置に応じて変更されるため、ユーザは、そのアプリケーション画像107pの位置の変更によって、見守り対象者の位置の変化、つまり見守り対象者の移動を容易に把握することができる。また、見守り対象者の位置は、カメラ103との間の相対的な位置である。したがって、ユーザが、カメラ103を備える見守り装置100を、アプリケーション画像107pの位置の変更に応じて動かせば、見守り対象者を追跡するようにカメラ103を動かすことができる。その結果、アプリケーション画像107pの位置の変更を抑えることができ、ユーザは、見守り対象者を追跡しながら、そのアプリケーション画像107pをしっかりと閲覧することができる。
(実施の形態2)
本実施の形態における見守り装置は、子供などの見守り対象者の位置だけでなく、ユーザが見守り対象者をどの程度の頻度で見ているかに応じて、アプリケーション画像107pの移動距離を変更する。
図12は、本実施の形態における見守り装置の機能的な構成を示す図である。
本実施の形態における見守り装置200は、実施の形態1における見守り装置100の表示制御部106の代わりに表示制御部106aを備え、さらに、サブカメラ113と、注目判定部114とを備えている。つまり、見守り装置200は、筐体105と、決定部101と、タイマー102と、カメラ103と、位置検出部104と、表示制御部106aと、ディスプレイ107と、記憶部108と、サブカメラ113と、注目判定部114とを備えている。
(サブカメラ113)
サブカメラ113は、筐体105に配置される。具体的には、このサブカメラ113は、ディスプレイ107と同様に、筐体105の表面に位置する。サブカメラ113は、筐体105の表面に位置するため、ディスプレイ107を見ているユーザの顔を被写体として捉えることができる。このサブカメラ113は、カメラ103の起動と同時に起動してもよい。
(注目判定部114)
注目判定部114は、サブカメラ113によって撮像されるサブカメラ画像に含まれるユーザの顔の少なくとも一部の動きに基づいて、ユーザが見守り対象者に注目しているか否かを判定する。
図13は、ユーザの瞳孔の動きに基づいて制御されるアプリケーション画像107pを示す。
具体的には、注目判定部114は、図13に示すように、サブカメラ113によって撮像されるサブカメラ画像に含まれるユーザの目を検出し、さらに瞳孔10を抽出する。そして、注目判定部114は、所定時間以内に、瞳孔10の縦方向に往復する動きが所定回数以上あれば、ユーザが見守り対象者に注目していると判定する。言い換えれば、注目判定部114は、見守り対象者への注目度が高いと判定する。一方、注目判定部114は、所定時間以内に、瞳孔10の縦方向に往復する動きが所定回数以上なければ、ユーザが見守り対象者に注目していないと判定する。言い換えれば、注目判定部114は、見守り対象者への注目度が低いと判定する。
(表示制御部106a)
表示制御部106aは、ユーザが見守り対象者に注目していると判定される場合には、注目していないと判定される場合と比べて、アプリケーション画像107pの位置がディスプレイ107の中心からずれる距離を短くする。
つまり、ユーザが見守り対象者に注目していないと判定される場合には、表示制御部106aは、実施の形態1の表示制御部106と同様の処理を行う。具体的には、表示制御部106aは、図11A〜図11Cに示すように、各状況に応じて、アプリケーション画像107pを移動距離L1、L1×2、またはL2ディスプレイ107の中心から離れた位置に表示させる。
一方、ユーザが見守り対象者に注目していると判定される場合には、表示制御部106aは、図11Aまたは図11BのステップS108bでは、移動距離L1よりも短い距離離れた位置に、アプリケーション画像107pを表示させる。または、表示制御部106aは、図11BのステップS108eでは、移動距離L1×2よりも短い距離離れた位置に、アプリケーション画像107pを表示させる。または、表示制御部106aは、図11CのステップS108gでは、移動距離L2よりも短い距離離れた位置に、アプリケーション画像107pを表示させる。
したがって、本実施の形態では、ユーザが見守り対象者に注目している場合には、実施の形態1と比べて、アプリケーション画像107pの移動距離は短く、周辺画像107sは小さく表示される。
なお、本実施の形態では、目または瞳孔10の動きに基づいて、注目しているか否かを判定したが、目または瞳孔ではなく顔の動きに基づいて、同様に判定してもよい。また、表示制御部106aは、ユーザが見守り対象者に注目していると判定される場合には、見守り対象者の位置または変化距離に関わらず、アプリケーション画像107pをディスプレイ107の全体に表示させてもよい。つまり、表示制御部106aは、ユーザが見守り対象者に注目していると判定される場合には、アプリケーション画像107pをずらすことなく、ディスプレイ107の中心に表示させる。
(実施の形態2の効果)
このように、本実施の形態では、注目判定部114は、サブカメラ113によって撮像されるサブカメラ画像に含まれるユーザの顔の少なくとも一部の動きに基づいて、ユーザが見守り対象者に注目しているか否かを判定する。そして、表示制御部106aは、ユーザが見守り対象者に注目していると判定される場合には、注目していないと判定される場合と比べて、アプリケーション画像107pの位置がディスプレイ107の中心からずれる距離を短くする。
したがって、ユーザが見守り対象者に注目している場合には、アプリケーション画像107pのずれが抑えられるため、そのような場合にまで、アプリケーション画像107pを見難くすることを防ぐことができる。つまり、見守り対象者に注目しているユーザに対しては、アプリケーション画像107pを見易くすることができる。
(実施の形態1および2の変形例)
上記実施の形態1および2では、見守り対象者をカメラ103の被写体として捉えるためには、ユーザは、筐体105またはディスプレイ107を鉛直方向に沿わせるように、見守り装置100または200を立てた状態で把持しなければならい。そこで、本変形例では、見守り装置100(200)を寝かせた状態でも、見守り対象者を被写体として捉えることができるように、見守り装置100(200)にアタッチメントを取り付ける。以下、見守り装置100にアタッチメントが取り付けられる例を詳細に説明するが、見守り装置200にアタッチメントが取り付けられる場合も、その例と同様である。
図14Aは、アタッチメントが取りつけられた見守り装置100の外観の一例を示す。
アタッチメント115は、レンズおよびミラーなどの光学系の部材を備え、カメラ103を覆うように見守り装置100に取り付けられる。そして、アタッチメント115は、ディスプレイ107の表面に平行な外部の光を受け入れて、光学系の反射または屈折によって、その光をカメラ103に向けて出射する。
図14Bは、見守り装置100のカメラ103がアタッチメント115を介して撮像する様子を示す。
上述のように、アタッチメント115は、ディスプレイ107の表面に平行な外部の光を受け入れる。したがって、ユーザは、図14Bに示すように、見守り装置100を寝かせた状態で、つまり、筐体105およびディスプレイ107を水平に沿わせた状態で、見守り装置100に見守り動作を行わせることができる。すなわち、ユーザは、見守り装置100に見守り動作をさせながら、ディスプレイ107に表示されるアプリケーション画像107pを見るために、見守り装置100を顔の位置まで持ち上げなくてもよい。ユーザは、胸の位置付近まで見守り装置100を持ち上げて、ディスプレイ107が上を向くように、見守り装置100を寝かせた状態で、すなわち、楽な姿勢で、アプリケーション画像107pの閲覧と、見守り対象者の見守りとを行うことができる。
以上、一つまたは複数の態様に係る見守り装置および見守り方法について、上記各実施の形態に基づいて説明したが、本開示は、上記各実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものまたは、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の範囲内に含まれてもよい。
例えば、実施の形態1および2とその変形例では、見守り対象者の位置に基づいてアプリケーション画像107pの位置を変更したが、アプリケーション画像107pの位置以外の表示対象を変更してもよい。例えば、アプリケーション画像107pの一部の領域を変形させたり、ぼかしたり、色を変えたりしてもよい。例えば、見守り対象者がカメラ画像における中心から右にずれている場合には、アプリケーション画像107pの右側の領域の表示態様を変更する。
また、実施の形態1および2とその変形例では、見守り対象者の位置に基づいてアプリケーション画像107pの位置を変更したときには、アプリケーション画像の一部の領域がディスプレイ107からはみ出すように隠れる。しかし、その一部の領域を隠すことなく、ねじ曲げることによって、視認し難くしてもよい。または、その一部の領域に文字列が表記されていれば、その文字列における文字と文字との間隔を短くしてもよい。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の見守り装置を実現するソフトウェアは、図10〜図11Cの何れかのフローチャートに示される各ステップをコンピュータに実行させるコンピュータプログラムである。
また、本開示において、ユニット、デバイスの全部又は一部、又は図1および図12に示されるブロック図の機能ブロックの全部又は一部は、半導体装置、半導体集積回路(IC)、又はLSI(large scale integration)を含む一つ又は一つ以上の電子回路によって実行されてもよい。LSI又はICは、一つのチップに集積されてもよいし、複数のチップを組み合わせて構成されてもよい。例えば、記憶素子以外の機能ブロックは、一つのチップに集積されてもよい。ここでは、LSIまたはICと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(very large scale integration)、若しくはULSI(ultra large scale integration) と呼ばれるかもしれない。LSIの製造後にプログラムされる、Field Programmable Gate Array (FPGA)、又はLSI内部の接合関係の再構成又はLSI内部の回路区画のセットアップができるreconfigurable logicdeviceも同じ目的で使うことができる。
さらに、ユニット、装置、又は装置の一部の、全部又は一部の機能又は操作は、ソフトウエア処理によって実行することが可能である。この場合、ソフトウエアは一つ又は一つ以上のROM、光学ディスク、ハードディスクドライブ、などの非一時的記録媒体に記録され、ソフトウエアが、処理装置(processor)によって実行された場合に、ソフトウエアは、ソフトウエア内の特定の機能を、処理装置(processor)と周辺のデバイスに実行させる。システム又は装置は、ソフトウエアが記録されている一つ又は一つ以上の非一時的記録媒体、処理装置(processor)、及び必要とされるハードウエアデバイス、例えば
インターフェース、を備えていても良い。
本開示は、見守り対象者を適切に見守ることができるという効果を奏し、例えば、携帯電話、スマートフォン、またはタブレット端末などに適用することができる。
100、200 見守り装置
101 決定部
102 タイマー
103 カメラ
104 位置検出部
105 筐体
106,106a 表示制御部
107 ディスプレイ
108 記憶部
113 サブカメラ
114 注目判定部

Claims (21)

  1. 筐体と、
    前記筐体の表面に配置されるディスプレイと、
    前記筐体の裏面に配置されるカメラと、
    前記カメラで撮像されるカメラ画像に基づいて、見守り対象者を決定する決定部と、
    前記カメラ画像中の前記見守り対象者の位置に基づいて、前記カメラ画像を含まないアプリケーション画像を前記ディスプレイに表示させる表示制御部、
    を備える見守り装置。
  2. 前記表示制御部は、前記見守り対象者の位置に基づいて、前記ディスプレイにおける前記アプリケーション画像の位置を変更する、
    請求項1に記載の見守り装置。
  3. 前記表示制御部は、前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、前記見守り対象者の前記カメラ画像における中心からずれている方向に、前記アプリケーション画像の位置を前記ディスプレイの中心からずらして表示させる、
    請求項1に記載の見守り装置。
  4. 前記表示制御部は、
    前記見守り対象者が前記カメラ画像における中心に位置する場合には、前記ディスプレイ全体に前記アプリケーション画像を表示させ、
    前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、前記見守り対象者の前記カメラ画像における中心からずれている方向に、前記アプリケーション画像の位置を前記ディスプレイの中心からずらして表示させる、
    請求項1に記載の見守り装置。
  5. 前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、さらに、前記カメラ画像における中心から前記見守り対象者の位置までの変化距離が検出され、
    前記表示制御部は、前記変化距離が長いほど、前記アプリケーション画像の位置を前記ディスプレイの中心から遠くにずらして表示させる、
    請求項3に記載の見守り装置。
  6. 前記表示制御部は、
    前記見守り対象者が決定されたときの前記カメラ画像における前記見守り対象者の位置である決定位置に、当該見守り対象者が位置する場合には、前記ディスプレイ全体に前記アプリケーション画像を表示させ、
    前記見守り対象者が前記決定位置以外に位置する場合には、前記見守り対象者の前記カメラ画像における前記決定位置からずれている方向に、前記アプリケーション画像の位置を前記ディスプレイの中心からずらして表示させる、
    請求項1に記載の見守り装置。
  7. 前記表示制御部は、前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、前記見守り対象者のカメラ画像における中心からずれている方向に、前記アプリケーション画像の位置をずらし、かつ前記アプリケーション画像を縮小して表示させる、
    請求項1に記載の見守り装置。
  8. 前記カメラ画像における前記見守り対象者の奥行き方向の位置の変化が検出され、
    前記奥行き方向であって前記カメラから離れる向きに前記見守り対象者の位置が変化していることを検出されたときには、
    前記表示制御部は、前記ディスプレイの中心を基準として、前記アプリケーション画像を縮小して表示させる、
    請求項1に記載の見守り装置。
  9. 前記見守り対象者の位置の変化距離が検出され、
    前記表示制御部は、前記見守り対象者の位置の変化距離が所定の値よりも長い場合には、前記ディスプレイに前記カメラ画像を表示させ、前記見守り対象者の位置の変化距離が前記所定の値以下の場合には、前記検出された見守り対象者の位置に基づいて、前記アプリケーション画像を前記ディスプレイに表示させる、
    請求項1に記載の見守り装置。
  10. 前記見守り装置は、さらに、
    前記筐体に配置されるサブカメラと、
    前記サブカメラによって撮像されるサブカメラ画像に含まれるユーザの顔の少なくとも一部の動きに基づいて、前記ユーザが前記見守り対象者に注目しているか否かを判定する注目判定部とを備え、
    前記表示制御部は、前記ユーザが前記見守り対象者に注目していると判定される場合には、注目していないと判定される場合と比べて、前記アプリケーション画像の位置が前記ディスプレイの中心からずれる距離を短くする、
    請求項3に記載の見守り装置。
  11. 筐体、ディスプレイ、及びカメラを有する装置において、前記ディスプレイの表示を制御する見守り方法であって、
    (a1)前記カメラによりカメラ画像を撮像し、前記カメラは前記筐体の裏面に位置し、
    (a2)前記カメラ画像に基づいて見守り対象者を決定し、
    (a3)前記カメラ画像中の前記見守り対象者の位置に基づいて、前記カメラ画像を含まないアプリケーション画像を前記ディスプレイに表示させ、前記ディスプレイは前記筐体の表面に位置する、
    見守り方法。
  12. 前記(a3)において、前記見守り対象者の位置に基づいて、前記ディスプレイにおける前記アプリケーション画像の位置を変更する、
    請求項11に記載の見守り方法。
  13. 前記(a3)において、前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、前記見守り対象者の前記カメラ画像における中心からずれている方向に、前記アプリケーション画像の位置を前記ディスプレイの中心からずらして表示させる、
    請求項11に記載の見守り方法。
  14. 前記(a3)において、
    前記見守り対象者が前記カメラ画像における中心に位置する場合には、前記ディスプレイ全体に前記アプリケーション画像を表示させ、
    前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、前記見守り対象者の前記カメラ画像における中心からずれている方向に、前記アプリケーション画像の位置を前記ディスプレイの中心からずらして表示させる、
    請求項11に記載の見守り方法。
  15. さらに、前記(a2)の後、かつ前記(a3)の前に、(a4)前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、さらに、前記カメラ画像における中心から前記見守り対象者の位置までの変化距離を検出し、
    前記(a3)において、前記変化距離が長いほど、前記アプリケーション画像の位置を前記ディスプレイの中心から遠くにずらして表示させる
    請求項13に記載の見守り方法。
  16. 前記(a3)において、
    前記見守り対象者が決定されたときの前記カメラ画像における前記見守り対象者の位置である決定位置に、当該見守り対象者が位置する場合には、前記ディスプレイ全体に前記アプリケーション画像を表示させ、
    前記見守り対象者が前記決定位置以外に位置する場合には、前記見守り対象者の前記カメラ画像における前記決定位置からずれている方向に、前記アプリケーション画像の位置を前記ディスプレイの中心からずらして表示させる、
    請求項11に記載の見守り方法。
  17. 前記(a3)において、前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、前記見守り対象者のカメラ画像における中心からずれている方向に、前記アプリケーション画像の位置をずらし、かつ前記アプリケーション画像を縮小して表示させる、
    請求項11に記載の見守り方法。
  18. さらに、前記(a2)の後、かつ前記(a3)の前に、(a5)前記カメラ画像における前記見守り対象者の奥行き方向の位置の変化を検出し、
    前記(a3)において、前記奥行き方向であって前記カメラから離れる向きに前記見守り対象者の位置が変化していることを検出されたときには、
    前記ディスプレイの中心を基準として、前記アプリケーション画像を縮小して表示させる、
    請求項11に記載の見守り方法。
  19. さらに、(a6)前記見守り対象者の位置の変化距離を検出し、
    前記(a3)において、前記見守り対象者の位置の変化距離が所定の値よりも長い場合には、前記ディスプレイに前記カメラ画像を表示させ、前記見守り対象者の位置の変化距離が前記所定の値以下の場合には、前記検出された見守り対象者の位置に基づいて、前記アプリケーション画像を前記ディスプレイに表示させる、
    請求項11に記載の見守り方法。
  20. 前記装置は、さらに、サブカメラを備え、
    前記見守り方法では、さらに、(a7)前記サブカメラによって撮像されるサブカメラ画像に含まれるユーザの顔の少なくとも一部の動きに基づいて、前記ユーザが前記見守り対象者に注目しているか否かを判定し、
    前記(a3)では、
    前記(a7)において、前記ユーザが前記見守り対象者に注目していると判定される場合には、注目していないと判定される場合と比べて、前記アプリケーション画像の位置が前記ディスプレイの中心からずれる距離を短くする、
    請求項13に記載の見守り方法。
  21. 筐体、ディスプレイ、及びカメラを有する装置において、前記ディスプレイの表示を制御するコンピュータプログラムであって、
    前記装置のコンピュータに対して、
    (b1)前記カメラによるカメラ画像の撮像を実行させ、前記カメラは前記筐体の裏面に位置し、
    (b2)前記カメラ画像に基づいて見守り対象者を決定させ、
    (b3)前記カメラ画像中の前記見守り対象者の位置に基づいて、前記カメラ画像を含まないアプリケーション画像の前記ディスプレイへの表示を実行させ、前記ディスプレイは、前記筐体の表面に位置する、
    コンピュータプログラム。
JP2016172167A 2015-09-30 2016-09-02 見守り装置、見守り方法、およびコンピュータプログラム Active JP6675082B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015194349 2015-09-30
JP2015194349 2015-09-30

Publications (2)

Publication Number Publication Date
JP2017068839A JP2017068839A (ja) 2017-04-06
JP6675082B2 true JP6675082B2 (ja) 2020-04-01

Family

ID=58407526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016172167A Active JP6675082B2 (ja) 2015-09-30 2016-09-02 見守り装置、見守り方法、およびコンピュータプログラム

Country Status (3)

Country Link
US (1) US10742937B2 (ja)
JP (1) JP6675082B2 (ja)
CN (1) CN106559650B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3503527A1 (en) * 2017-12-20 2019-06-26 Nokia Technologies Oy Multi-camera device
CN113099173A (zh) * 2021-03-25 2021-07-09 湖南桥康智能科技有限公司 一种具有物体位移测量计算功能的智能网络摄像机

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4611771A (en) * 1985-04-18 1986-09-16 United States Of America As Represented By The Secretary Of The Army Fiber optic track/reaim system
US4777861A (en) * 1987-01-16 1988-10-18 Recon/Optical, Inc. Missile aiming sight
US6724915B1 (en) * 1998-03-13 2004-04-20 Siemens Corporate Research, Inc. Method for tracking a video object in a time-ordered sequence of image frames
US6067399A (en) * 1998-09-02 2000-05-23 Sony Corporation Privacy mode for acquisition cameras and camcorders
JP2001339708A (ja) 2000-05-30 2001-12-07 Traveler Corp カメラ映像配信システム
US7142231B2 (en) * 2003-12-29 2006-11-28 Nokia Corporation Method and apparatus for improved handset multi-tasking, including pattern recognition and augmentation of camera images
US7751805B2 (en) * 2004-02-20 2010-07-06 Google Inc. Mobile image-based information retrieval system
JP2006041747A (ja) 2004-07-23 2006-02-09 Funai Electric Co Ltd 遠隔見守りシステム、及び遠隔見守りシステムに用いられる宅内装置
JP2006050263A (ja) * 2004-08-04 2006-02-16 Olympus Corp 画像生成方法および装置
US8098904B2 (en) * 2008-03-31 2012-01-17 Google Inc. Automatic face detection and identity masking in images, and applications thereof
JP4661917B2 (ja) * 2008-07-25 2011-03-30 日産自動車株式会社 駐車支援装置および駐車支援方法
US20100079508A1 (en) * 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
JP2010176170A (ja) 2009-01-27 2010-08-12 Sony Ericsson Mobilecommunications Japan Inc 表示装置、表示制御方法および表示制御プログラム
US20100259610A1 (en) * 2009-04-08 2010-10-14 Celsia, Llc Two-Dimensional Display Synced with Real World Object Movement
US8893169B2 (en) * 2009-12-30 2014-11-18 United Video Properties, Inc. Systems and methods for selectively obscuring portions of media content using a widget
JP2011205513A (ja) * 2010-03-26 2011-10-13 Aisin Seiki Co Ltd 車両周辺監視装置
EP2437220A1 (en) * 2010-09-29 2012-04-04 Alcatel Lucent Method and arrangement for censoring content in three-dimensional images
CN103139532B (zh) * 2011-11-22 2016-04-20 株式会社电装 车辆外围监视器
JP5867273B2 (ja) * 2012-04-27 2016-02-24 富士通株式会社 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム
US9400965B2 (en) * 2013-05-21 2016-07-26 Sap Se Platform for modeling and embedding business scenarios in bar codes

Also Published As

Publication number Publication date
US20170094230A1 (en) 2017-03-30
CN106559650B (zh) 2020-04-24
CN106559650A (zh) 2017-04-05
JP2017068839A (ja) 2017-04-06
US10742937B2 (en) 2020-08-11

Similar Documents

Publication Publication Date Title
US10628670B2 (en) User terminal apparatus and iris recognition method thereof
JP6613740B2 (ja) 表示制御装置、表示制御方法および表示制御プログラム
JP5659510B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR102255774B1 (ko) 제스처들을 이용한 디바이스와의 상호작용
JP6131540B2 (ja) タブレット端末、操作受付方法および操作受付プログラム
JP6011165B2 (ja) ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
US9904863B2 (en) Information processing apparatus and control method, program recording medium thereof
JP6123694B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6432592B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
US9846956B2 (en) Methods, systems and computer-readable mediums for efficient creation of image collages
US9582169B2 (en) Display device, display method, and program
JP2019062464A (ja) 電子機器
JP6675082B2 (ja) 見守り装置、見守り方法、およびコンピュータプログラム
JPWO2015125544A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
KR20140002009A (ko) 입력 장치, 입력 방법 및 기록 매체
WO2013183533A1 (ja) 表示装置、表示方法及びプログラム
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
JP2019047159A (ja) 電子機器、制御装置、制御装置の制御方法および制御プログラム
KR101985658B1 (ko) 지문 데이터 획득 방법 및 그 장치
KR102039025B1 (ko) 단말의 카메라 제어 방법 및 그 단말
WO2023127623A1 (ja) 端末装置
JP2013190673A (ja) 表示装置、電子掲示板装置、携帯端末装置、カーナビゲーション装置、および表示プログラム
JP7179334B2 (ja) ジェスチャ認識装置及びジェスチャ認識装置用プログラム
KR101145681B1 (ko) 휴대용 단말기 및 그 구동 방법
JP5550670B2 (ja) 情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190315

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200220

R151 Written notification of patent or utility model registration

Ref document number: 6675082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151