JP2017068839A - 見守り装置、見守り方法、およびコンピュータプログラム - Google Patents
見守り装置、見守り方法、およびコンピュータプログラム Download PDFInfo
- Publication number
- JP2017068839A JP2017068839A JP2016172167A JP2016172167A JP2017068839A JP 2017068839 A JP2017068839 A JP 2017068839A JP 2016172167 A JP2016172167 A JP 2016172167A JP 2016172167 A JP2016172167 A JP 2016172167A JP 2017068839 A JP2017068839 A JP 2017068839A
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- camera
- person
- watching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 27
- 238000004590 computer program Methods 0.000 title claims description 6
- 230000008859 change Effects 0.000 claims description 101
- 238000012806 monitoring device Methods 0.000 claims description 23
- 238000012544 monitoring process Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 abstract description 44
- 238000010586 diagram Methods 0.000 description 16
- 230000002093 peripheral effect Effects 0.000 description 14
- 238000003860 storage Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 210000001747 pupil Anatomy 0.000 description 7
- 238000012790 confirmation Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 210000000887 face Anatomy 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000004913 activation Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/51—Housings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Alarm Systems (AREA)
- Emergency Alarm Devices (AREA)
- Studio Devices (AREA)
- Telephone Function (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
図1は、本実施の形態における見守り装置の機能的な構成を示す図である。
ディスプレイ107は、筐体105の表面に位置する。ディスプレイ107は、例えば液晶ディスプレイまたは有機EL(electroluminescence)ディスプレイなどである。ディスプレイは、表示面(screen)を有する。
カメラ103は、筐体105の裏面に位置する。カメラ103は筐体105の周囲の映像を撮像する。カメラ103が撮像している映像は、カメラ映像とも表記する。カメラ映像は、複数のカメラ画像を含む。複数のカメラ画像は、異なる時刻に撮像されたカメラ画像を意味する。つまり、カメラ映像は動画像であり、カメラ画像は静止画像である。
タイマー102は、計時を行い、位置検出部104に対して現在時刻を通知する。なお、本実施の形態における見守り装置100は、タイマー102を備えているが、このタイマー102を備えていなくてもよい。
記憶部108は、上述のように見守り対象者を決定するための対象者決定規則を記憶している。また、記憶部108は、位置検出部104の処理に用いられる一時的なデータを保持するために用いられる。なお、記憶部108は、見守り装置100に備えられているが、この見守り装置100に備えられていなくてもよい。この場合、記憶部108は、見守り装置100の外部の記憶部であり、見守り装置100と有線または無線を介して接続され、見守り装置100との間で情報を送受信してもよい。
決定部101は、カメラ103が撮像しているカメラ映像中に含まれる見守り対象者を決定する。つまり、決定部101は、カメラ103で撮像されるカメラ画像に含まれる見守り対象者を決定する。見守り対象者は、移動物であって、例えば人または動物である。
位置検出部104は、カメラ映像中の、決定部101が決定した見守り対象者の位置を検出する。見守り対象者の位置は、例えば、カメラ画像の縦方向の位置及び横方向の位置であり、カメラ画像全体における見守り対象者の情報を含む画素の位置である。また、見守り対象者の位置は、見守り対象者の全体の中心、顔の中心、または胸の中心に位置であってもよい。
表示制御部106は、位置検出部104によって検出された見守り対象者の位置に基づいて、ディスプレイ107の表示を制御する。つまり、表示制御部106は、その検出された見守り対象者の位置に基づいて、カメラ画像を含まないアプリケーション画像をディスプレイ107に表示させる。具体的には、表示制御部106は、見守り対象者の位置に基づいて、ディスプレイ107におけるアプリケーション画像の位置を変更する。このアプリケーション画像は、カメラ映像自体が映っていない映像又は画像である。なお、画像は、文字、記号、または文字列などを含むテキストであってもよい。アプリケーション画像は、アプリケーションによって扱われる画像であって、例えば、インターネットで情報を閲覧するためのウェブブラウザによって扱われる画像である。また、アプリケーションは、ウェブブラウザに限らず、例えば、メール、地図、鉄道又はバスの乗り換え案内、あるいはゲームであってもよい。以下、このようなアプリケーションを表示アプリともいう。
カメラ103は撮像する。
決定部101は、カメラ103で撮像されるカメラ画像に含まれる見守り対象者を決定する。
位置検出部104は、カメラ画像中の見守り対象者の位置を検出する。
表示制御部106は、検出された見守り対象者の位置に基づいて、カメラ画像を含まないアプリケーション画像107pをディスプレイ107に表示させる。
見守り装置100は、見守り動作を開始する。例えば、見守り装置100は、アプリケーションの起動の操作、又はアプリケーションにおける開始の操作を受け付けることにより、見守り動作を開始する。具体的には、見守り装置100は、メニュー画面をディスプレイ107に表示する。そのメニュー画面に表示されているアプリケーションのアイコンがユーザによってタッチされると、見守り装置100は、アプリケーションの起動の操作を受け付ける。これによって、見守り装置100は、見守り動作を開始する。ステップS101により見守り動作が開始されると、カメラ103は撮像する。そして、例えば図3または図4に示すカメラ映像がディスプレイ107に表示される。具体的には、表示制御部106は、カメラ103が撮影しているカメラ映像を、ディスプレイ107に表示させる。
決定部101は、カメラ映像中の見守り対象者を決定する。例えば、決定部101は、ユーザがディスプレイ107にタッチした位置に最も近い対象者候補を、見守り対象者と決定する。このように、決定部101は、ディスプレイ107にカメラ映像が表示されている時に、ユーザによりタッチされた位置に基づいて、見守り対象者を決定する。
位置検出部104は、ステップS102で決定した見守り対象者の位置を検出する。つまり、位置検出部104は、見守り対象者の追跡を開始する。
表示制御部106は、ユーザによる操作に応じて、表示アプリを起動して、その表示アプリによって扱われるアプリケーション画像107pをディスプレイ107に表示させる。なお、表示アプリは、上述のように、例えばウェブブラウザである。具体的には、ステップS103において見守り対象者の追跡が開始されると、表示制御部106は、複数のアプリケーションのアイコンを含むメニュー画面をディスプレイ107に表示させる。これらのアイコンのうちの何れか1つのアイコンがユーザによってタッチされると、表示制御部106は、そのタッチされたアイコンによって識別されるアプリケーションを表示アプリとして選択する。そして、表示制御部106は、その選択された表示アプリを起動することによって、アプリケーション画像107pをディスプレイ107に表示させる。
位置検出部104は、所定の時間間隔ごとに、見守り対象者の位置を検出することにより、見守り対象者の変化距離L0と変化方向B0とを検出する。なお、変化距離L0は、上述のように、カメラ画像における基準位置から見守り対象者の位置までの距離である。変化方向B0は、上述のように、カメラ画像における基準位置から見守り対象者の位置への方向である。基準位置は、カメラ画像における中心または決定位置である。この変化距離L0および変化方向B0は、見守り対象者が移動することによって変化し、見守り装置100が移動することによっても変化する。
表示制御部106は、検出された変化距離L0を予め決めた所定移動量である第1の閾値(すなわち図8に示す所定の値)と比較する。そして、表示制御部106は、変化距離L0が第1の閾値よりも長いか否かを判定する。
ステップS106において、変化距離L0が第1の閾値よりも長いと判定されると(ステップS106のYes)、表示制御部106は、図8に示すように、アプリケーション画像107pを非表示にして、カメラ画像107tをディスプレイ107に表示させる。これにより、ディスプレイ107にはカメラ画像107tが表示されるため、ユーザは見守り装置100のディスプレイ107を見るのを止めて、子供などの見守り対象者を実際の目で探す。
ステップS106において、変化距離L0が第1の閾値よりも長くないと判定されると(ステップS106のNo)、表示制御部106は、図6に示すように、アプリケーション画像107pを変化距離L0と変化方向B0に応じて移動させる。このステップS108の詳細については、図11A〜図11Cを用いて詳細に説明する。
見守り装置100は、見守り動作を終了すべきか否かを判断する。例えば、見守り装置100は、ユーザから終了の指示を受け付けた場合には、終了すべきと判断し、その指示を受け付けていない場合には、終了すべきではないと判断する。ここで、終了すべきと判断すると(ステップS109のYes)、見守り装置100は、見守り動作を終了する。一方、終了すべきでないと判断すると(ステップS109のNo)、見守り装置100は、ステップS105からの処理を繰り返し実行する。ステップS105が再び実行される場合には、位置検出部104は、直前に変化距離L0などが検出されたタイミングから所定の時間間隔経過後に、次の変化距離L0及び変化方向B0を検出する。
表示制御部106は、変化距離L0が第2の閾値以上であるか否かを判定する。なお、第2の閾値は、第1の閾値よりも小さい予め定められた値である。
ステップS108aにおいて、変化距離L0が第2の閾値以上であると判定されると(ステップS108aのYes)、表示制御部106は、アプリケーション画像107pを移動させる。具体的には、表示制御部106は、アプリケーション画像107pを、ディスプレイ107の中心から変化方向B0に移動距離L1だけ離れた位置に移動させる。移動距離L1は、予め定められた距離である。
ステップS108aにおいて、変化距離L0が第2の閾値未満であると判定されると(ステップS108aのNo)、表示制御部106は、アプリケーション画像107pを、ディスプレイ107の中心に表示させる。つまり、表示制御部106は、アプリケーション画像107pをディスプレイ107の全体に表示させる。
表示制御部106は、変化距離L0が第2の閾値以上であるか否かを判定する。
ステップS108aにおいて、変化距離L0が第2の閾値未満であると判定されると(ステップS108aのNo)、表示制御部106は、アプリケーション画像107pを、ディスプレイ107の中心に表示させる。つまり、表示制御部106は、アプリケーション画像107pをディスプレイ107の全体に表示させる。
ステップS108aにおいて、変化距離L0が第2の閾値以上であると判定されると(ステップS108aのYes)、表示制御部106は、さらに、変化距離L0が第3の閾値以上であるか否かを判定する。なお、第3の閾値は予め定められた値であって、第1〜3の閾値のそれぞれは、「第2の閾値<第3の閾値<第1の閾値」の関係を満たす。
ステップS108dにおいて、変化距離L0が第3の閾値以上であると判定されると(ステップS108dのYes)、表示制御部106は、アプリケーション画像107pを移動させる。具体的には、表示制御部106は、アプリケーション画像107pを、ディスプレイ107の中心から変化方向B0に移動距離L1×2離れた位置に移動させる。なお、移動距離L1×2は、移動距離L1の2倍の距離である。
ステップS108dにおいて、変化距離L0が第3の閾値未満であると判定されると(ステップS108dのNo)、表示制御部106は、アプリケーション画像107pを、ディスプレイ107の中心から変化方向B0に移動距離L1離れた位置に移動させる。
表示制御部106は、例えば予め定められた係数Kを変化距離L0に乗ずることによって、移動距離L2を算出する。
表示制御部106は、アプリケーション画像107pを、ディスプレイ107の中心から変化方向B0に移動距離L2離れた位置に移動させる。
本実施の形態における見守り装置100は、筐体105と、ディスプレイ107と、カメラ103と、決定部101と、位置検出部104と、表示制御部106とを備える。ディスプレイ107は、筐体105に配置される。カメラ103は、筐体105に配置される。決定部101は、カメラ103で撮像されるカメラ画像に含まれる見守り対象者を決定する。位置検出部104は、カメラ画像中の見守り対象者の位置を検出する。表示制御部106は、検出された見守り対象者の位置に基づいて、カメラ画像を含まないアプリケーション画像107pをディスプレイ107に表示させる。
本実施の形態における見守り装置は、子供などの見守り対象者の位置だけでなく、ユーザが見守り対象者をどの程度の頻度で見ているかに応じて、アプリケーション画像107pの移動距離を変更する。
サブカメラ113は、筐体105に配置される。具体的には、このサブカメラ113は、ディスプレイ107と同様に、筐体105の表面に位置する。サブカメラ113は、筐体105の表面に位置するため、ディスプレイ107を見ているユーザの顔を被写体として捉えることができる。このサブカメラ113は、カメラ103の起動と同時に起動してもよい。
注目判定部114は、サブカメラ113によって撮像されるサブカメラ画像に含まれるユーザの顔の少なくとも一部の動きに基づいて、ユーザが見守り対象者に注目しているか否かを判定する。
表示制御部106aは、ユーザが見守り対象者に注目していると判定される場合には、注目していないと判定される場合と比べて、アプリケーション画像107pの位置がディスプレイ107の中心からずれる距離を短くする。
このように、本実施の形態では、注目判定部114は、サブカメラ113によって撮像されるサブカメラ画像に含まれるユーザの顔の少なくとも一部の動きに基づいて、ユーザが見守り対象者に注目しているか否かを判定する。そして、表示制御部106aは、ユーザが見守り対象者に注目していると判定される場合には、注目していないと判定される場合と比べて、アプリケーション画像107pの位置がディスプレイ107の中心からずれる距離を短くする。
上記実施の形態1および2では、見守り対象者をカメラ103の被写体として捉えるためには、ユーザは、筐体105またはディスプレイ107を鉛直方向に沿わせるように、見守り装置100または200を立てた状態で把持しなければならい。そこで、本変形例では、見守り装置100(200)を寝かせた状態でも、見守り対象者を被写体として捉えることができるように、見守り装置100(200)にアタッチメントを取り付ける。以下、見守り装置100にアタッチメントが取り付けられる例を詳細に説明するが、見守り装置200にアタッチメントが取り付けられる場合も、その例と同様である。
インターフェース、を備えていても良い。
101 決定部
102 タイマー
103 カメラ
104 位置検出部
105 筐体
106,106a 表示制御部
107 ディスプレイ
108 記憶部
113 サブカメラ
114 注目判定部
Claims (21)
- 筐体と、
前記筐体の表面に配置されるディスプレイと、
前記筐体の裏面に配置されるカメラと、
前記カメラで撮像されるカメラ画像に基づいて、見守り対象者を決定する決定部と、
前記カメラ画像中の前記見守り対象者の位置に基づいて、前記カメラ画像を含まないアプリケーション画像を前記ディスプレイに表示させる表示制御部、
を備える見守り装置。 - 前記表示制御部は、前記見守り対象者の位置に基づいて、前記ディスプレイにおける前記アプリケーション画像の位置を変更する、
請求項1に記載の見守り装置。 - 前記表示制御部は、前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、前記見守り対象者の前記カメラ画像における中心からずれている方向に、前記アプリケーション画像の位置を前記ディスプレイの中心からずらして表示させる、
請求項1に記載の見守り装置。 - 前記表示制御部は、
前記見守り対象者が前記カメラ画像における中心に位置する場合には、前記ディスプレイ全体に前記アプリケーション画像を表示させ、
前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、前記見守り対象者の前記カメラ画像における中心からずれている方向に、前記アプリケーション画像の位置を前記ディスプレイの中心からずらして表示させる、
請求項1に記載の見守り装置。 - 前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、さらに、前記カメラ画像における中心から前記見守り対象者の位置までの変化距離が検出され、
前記表示制御部は、前記変化距離が長いほど、前記アプリケーション画像の位置を前記ディスプレイの中心から遠くにずらして表示させる、
請求項3に記載の見守り装置。 - 前記表示制御部は、
前記見守り対象者が決定されたときの前記カメラ画像における前記見守り対象者の位置である決定位置に、当該見守り対象者が位置する場合には、前記ディスプレイ全体に前記アプリケーション画像を表示させ、
前記見守り対象者が前記決定位置以外に位置する場合には、前記見守り対象者の前記カメラ画像における前記決定位置からずれている方向に、前記アプリケーション画像の位置を前記ディスプレイの中心からずらして表示させる、
請求項1に記載の見守り装置。 - 前記表示制御部は、前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、前記見守り対象者のカメラ画像における中心からずれている方向に、前記アプリケーション画像の位置をずらし、かつ前記アプリケーション画像を縮小して表示させる、
請求項1に記載の見守り装置。 - 前記カメラ画像における前記見守り対象者の奥行き方向の位置の変化が検出され、
前記奥行き方向であって前記カメラから離れる向きに前記見守り対象者の位置が変化していることを検出されたときには、
前記表示制御部は、前記ディスプレイの中心を基準として、前記アプリケーション画像を縮小して表示させる、
請求項1に記載の見守り装置。 - 前記見守り対象者の位置の変化距離が検出され、
前記表示制御部は、前記見守り対象者の位置の変化距離が所定の値よりも長い場合には、前記ディスプレイに前記カメラ画像を表示させ、前記見守り対象者の位置の変化距離が前記所定の値以下の場合には、前記検出された見守り対象者の位置に基づいて、前記アプリケーション画像を前記ディスプレイに表示させる、
請求項1に記載の見守り装置。 - 前記見守り装置は、さらに、
前記筐体に配置されるサブカメラと、
前記サブカメラによって撮像されるサブカメラ画像に含まれるユーザの顔の少なくとも一部の動きに基づいて、前記ユーザが前記見守り対象者に注目しているか否かを判定する注目判定部とを備え、
前記表示制御部は、前記ユーザが前記見守り対象者に注目していると判定される場合には、注目していないと判定される場合と比べて、前記アプリケーション画像の位置が前記ディスプレイの中心からずれる距離を短くする、
請求項3に記載の見守り装置。 - 筐体、ディスプレイ、及びカメラを有する装置において、前記ディスプレイの表示を制御する見守り方法であって、
(a1)前記カメラによりカメラ画像を撮像し、前記カメラは前記筐体の裏面に位置し、
(a2)前記カメラ画像に基づいて見守り対象者を決定し、
(a3)前記カメラ画像中の前記見守り対象者の位置に基づいて、前記カメラ画像を含まないアプリケーション画像を前記ディスプレイに表示させ、前記ディスプレイは前記筐体の表面に位置する、
見守り方法。 - 前記(a3)において、前記見守り対象者の位置に基づいて、前記ディスプレイにおける前記アプリケーション画像の位置を変更する、
請求項11に記載の見守り方法。 - 前記(a3)において、前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、前記見守り対象者の前記カメラ画像における中心からずれている方向に、前記アプリケーション画像の位置を前記ディスプレイの中心からずらして表示させる、
請求項11に記載の見守り方法。 - 前記(a3)において、
前記見守り対象者が前記カメラ画像における中心に位置する場合には、前記ディスプレイ全体に前記アプリケーション画像を表示させ、
前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、前記見守り対象者の前記カメラ画像における中心からずれている方向に、前記アプリケーション画像の位置を前記ディスプレイの中心からずらして表示させる、
請求項11に記載の見守り方法。 - さらに、前記(a2)の後、かつ前記(a3)の前に、(a4)前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、さらに、前記カメラ画像における中心から前記見守り対象者の位置までの変化距離を検出し、
前記(a3)において、前記変化距離が長いほど、前記アプリケーション画像の位置を前記ディスプレイの中心から遠くにずらして表示させる
請求項13に記載の見守り方法。 - 前記(a3)において、
前記見守り対象者が決定されたときの前記カメラ画像における前記見守り対象者の位置である決定位置に、当該見守り対象者が位置する場合には、前記ディスプレイ全体に前記アプリケーション画像を表示させ、
前記見守り対象者が前記決定位置以外に位置する場合には、前記見守り対象者の前記カメラ画像における前記決定位置からずれている方向に、前記アプリケーション画像の位置を前記ディスプレイの中心からずらして表示させる、
請求項11に記載の見守り方法。 - 前記(a3)において、前記見守り対象者が前記カメラ画像における中心以外に位置する場合には、前記見守り対象者のカメラ画像における中心からずれている方向に、前記アプリケーション画像の位置をずらし、かつ前記アプリケーション画像を縮小して表示させる、
請求項11に記載の見守り方法。 - さらに、前記(a2)の後、かつ前記(a3)の前に、(a5)前記カメラ画像における前記見守り対象者の奥行き方向の位置の変化を検出し、
前記(a3)において、前記奥行き方向であって前記カメラから離れる向きに前記見守り対象者の位置が変化していることを検出されたときには、
前記ディスプレイの中心を基準として、前記アプリケーション画像を縮小して表示させる、
請求項11に記載の見守り方法。 - さらに、(a6)前記見守り対象者の位置の変化距離を検出し、
前記(a3)において、前記見守り対象者の位置の変化距離が所定の値よりも長い場合には、前記ディスプレイに前記カメラ画像を表示させ、前記見守り対象者の位置の変化距離が前記所定の値以下の場合には、前記検出された見守り対象者の位置に基づいて、前記アプリケーション画像を前記ディスプレイに表示させる、
請求項11に記載の見守り方法。 - 前記装置は、さらに、サブカメラを備え、
前記見守り方法では、さらに、(a7)前記サブカメラによって撮像されるサブカメラ画像に含まれるユーザの顔の少なくとも一部の動きに基づいて、前記ユーザが前記見守り対象者に注目しているか否かを判定し、
前記(a3)では、
前記(a7)において、前記ユーザが前記見守り対象者に注目していると判定される場合には、注目していないと判定される場合と比べて、前記アプリケーション画像の位置が前記ディスプレイの中心からずれる距離を短くする、
請求項13に記載の見守り方法。 - 筐体、ディスプレイ、及びカメラを有する装置において、前記ディスプレイの表示を制御するコンピュータプログラムであって、
前記装置のコンピュータに対して、
(b1)前記カメラによるカメラ画像の撮像を実行させ、前記カメラは前記筐体の裏面に位置し、
(b2)前記カメラ画像に基づいて見守り対象者を決定させ、
(b3)前記カメラ画像中の前記見守り対象者の位置に基づいて、前記カメラ画像を含まないアプリケーション画像の前記ディスプレイへの表示を実行させ、前記ディスプレイは、前記筐体の表面に位置する、
コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015194349 | 2015-09-30 | ||
JP2015194349 | 2015-09-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017068839A true JP2017068839A (ja) | 2017-04-06 |
JP6675082B2 JP6675082B2 (ja) | 2020-04-01 |
Family
ID=58407526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016172167A Active JP6675082B2 (ja) | 2015-09-30 | 2016-09-02 | 見守り装置、見守り方法、およびコンピュータプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10742937B2 (ja) |
JP (1) | JP6675082B2 (ja) |
CN (1) | CN106559650B (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3503527A1 (en) * | 2017-12-20 | 2019-06-26 | Nokia Technologies Oy | Multi-camera device |
CN113099173A (zh) * | 2021-03-25 | 2021-07-09 | 湖南桥康智能科技有限公司 | 一种具有物体位移测量计算功能的智能网络摄像机 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4611771A (en) * | 1985-04-18 | 1986-09-16 | United States Of America As Represented By The Secretary Of The Army | Fiber optic track/reaim system |
US4777861A (en) * | 1987-01-16 | 1988-10-18 | Recon/Optical, Inc. | Missile aiming sight |
US6724915B1 (en) * | 1998-03-13 | 2004-04-20 | Siemens Corporate Research, Inc. | Method for tracking a video object in a time-ordered sequence of image frames |
US6067399A (en) * | 1998-09-02 | 2000-05-23 | Sony Corporation | Privacy mode for acquisition cameras and camcorders |
JP2001339708A (ja) | 2000-05-30 | 2001-12-07 | Traveler Corp | カメラ映像配信システム |
US7142231B2 (en) * | 2003-12-29 | 2006-11-28 | Nokia Corporation | Method and apparatus for improved handset multi-tasking, including pattern recognition and augmentation of camera images |
US7751805B2 (en) * | 2004-02-20 | 2010-07-06 | Google Inc. | Mobile image-based information retrieval system |
JP2006041747A (ja) | 2004-07-23 | 2006-02-09 | Funai Electric Co Ltd | 遠隔見守りシステム、及び遠隔見守りシステムに用いられる宅内装置 |
JP2006050263A (ja) * | 2004-08-04 | 2006-02-16 | Olympus Corp | 画像生成方法および装置 |
US8098904B2 (en) * | 2008-03-31 | 2012-01-17 | Google Inc. | Automatic face detection and identity masking in images, and applications thereof |
JP4661917B2 (ja) * | 2008-07-25 | 2011-03-30 | 日産自動車株式会社 | 駐車支援装置および駐車支援方法 |
US20100079508A1 (en) * | 2008-09-30 | 2010-04-01 | Andrew Hodge | Electronic devices with gaze detection capabilities |
JP2010176170A (ja) | 2009-01-27 | 2010-08-12 | Sony Ericsson Mobilecommunications Japan Inc | 表示装置、表示制御方法および表示制御プログラム |
US20100259610A1 (en) * | 2009-04-08 | 2010-10-14 | Celsia, Llc | Two-Dimensional Display Synced with Real World Object Movement |
US8893169B2 (en) * | 2009-12-30 | 2014-11-18 | United Video Properties, Inc. | Systems and methods for selectively obscuring portions of media content using a widget |
JP2011205513A (ja) * | 2010-03-26 | 2011-10-13 | Aisin Seiki Co Ltd | 車両周辺監視装置 |
EP2437220A1 (en) * | 2010-09-29 | 2012-04-04 | Alcatel Lucent | Method and arrangement for censoring content in three-dimensional images |
CN103139532B (zh) * | 2011-11-22 | 2016-04-20 | 株式会社电装 | 车辆外围监视器 |
JP5867273B2 (ja) * | 2012-04-27 | 2016-02-24 | 富士通株式会社 | 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム |
US9400965B2 (en) * | 2013-05-21 | 2016-07-26 | Sap Se | Platform for modeling and embedding business scenarios in bar codes |
-
2016
- 2016-09-02 JP JP2016172167A patent/JP6675082B2/ja active Active
- 2016-09-03 US US15/256,511 patent/US10742937B2/en active Active
- 2016-09-06 CN CN201610805757.7A patent/CN106559650B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
JP6675082B2 (ja) | 2020-04-01 |
CN106559650B (zh) | 2020-04-24 |
CN106559650A (zh) | 2017-04-05 |
US10742937B2 (en) | 2020-08-11 |
US20170094230A1 (en) | 2017-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230412911A1 (en) | Method of controlling camera device and electronic device thereof | |
US10628670B2 (en) | User terminal apparatus and iris recognition method thereof | |
JP6070512B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US10460164B2 (en) | Information processing apparatus, information processing method, eyewear terminal, and authentication system | |
US9507420B2 (en) | System and method for providing haptic feedback to assist in capturing images | |
KR102039427B1 (ko) | 스마트 글라스 | |
JP5659510B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
EP3236650A1 (en) | Method and device for controlling a camera | |
US9904863B2 (en) | Information processing apparatus and control method, program recording medium thereof | |
KR20150090840A (ko) | 디스플레이 화면의 영역을 보호하는 디바이스 및 방법 | |
JP6123694B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2017539032A (ja) | タッチセンサのデータを使用する指紋登録 | |
JP2017055250A (ja) | 表示制御装置、表示制御方法および表示制御プログラム | |
TWI633499B (zh) | 全景影像的顯示方法及其電子裝置 | |
JP6940353B2 (ja) | 電子機器 | |
US9582169B2 (en) | Display device, display method, and program | |
US9213887B2 (en) | Processing information apparatus, control method and program for inputting and storing additional information according to contents | |
JP6675082B2 (ja) | 見守り装置、見守り方法、およびコンピュータプログラム | |
WO2013183533A1 (ja) | 表示装置、表示方法及びプログラム | |
JP2019047159A (ja) | 電子機器、制御装置、制御装置の制御方法および制御プログラム | |
JP6686319B2 (ja) | 画像投影装置及び画像表示システム | |
JP6244666B2 (ja) | 表示装置及びプログラム | |
JP2012242913A (ja) | 電子機器 | |
JP6079418B2 (ja) | 入力装置および入力プログラム | |
KR102039025B1 (ko) | 단말의 카메라 제어 방법 및 그 단말 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190315 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200129 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200220 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6675082 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |