JP2017219940A - 報知装置、電子機器、報知方法、および、プログラム - Google Patents

報知装置、電子機器、報知方法、および、プログラム Download PDF

Info

Publication number
JP2017219940A
JP2017219940A JP2016112253A JP2016112253A JP2017219940A JP 2017219940 A JP2017219940 A JP 2017219940A JP 2016112253 A JP2016112253 A JP 2016112253A JP 2016112253 A JP2016112253 A JP 2016112253A JP 2017219940 A JP2017219940 A JP 2017219940A
Authority
JP
Japan
Prior art keywords
image
information
user
notification
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016112253A
Other languages
English (en)
Inventor
えり 柳川
Eri Yanagawa
えり 柳川
成文 後田
Narifumi Nochida
成文 後田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2016112253A priority Critical patent/JP2017219940A/ja
Publication of JP2017219940A publication Critical patent/JP2017219940A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】ユーザの変化に応じた情報を当該ユーザに報知する。【解決手段】ユーザを撮影して得られる撮影画像を取得する画像取得部(42)と、撮影画像と、撮影画像の比較対象である参照画像との差異を検出する画像差異検出部(43)と、検出した差異に応じてユーザの変化に関する情報を決定する情報決定部(44)と、決定した情報をユーザに報知する情報報知部(46)と、を備えている報知装置(1)。【選択図】図1

Description

本発明は、報知装置、電子機器、報知方法、および、プログラムに関する。
従来、ユーザと会話を行うロボットが開発されている。例えば、特許文献1には、ユーザとの対話において、高速な応答と、人物の高精度な識別とを両立させるロボットが開示されている。
特開2015−132955号公報(2015年7月23日公開)
しかしながら、上述のような従来技術は、ユーザがロボットに対して発話などで働きかけた場合にのみロボットが応答するものである。従って、ユーザよりも先にロボットがユーザに働きかけることはない。例えば、ユーザの変化に応じた情報を当該ユーザに報知することはない。
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ユーザの変化に応じた情報を当該ユーザに報知することにある。
上記の課題を解決するために、本発明の一態様に係る報知装置は、ユーザを撮影して得られる撮影画像を取得する画像取得部と、上記撮影画像と、上記撮影画像の比較対象である参照画像との差異を検出する画像差異検出部と、上記検出した差異に応じて上記ユーザの変化に関する情報を決定する情報決定部と、上記決定した情報を上記ユーザに報知する情報報知部と、を備えている。
上記の課題を解決するために、本発明の一態様に係る報知方法は、ユーザに情報を報知する装置の報知方法であって、ユーザを撮影して得られる撮影画像を取得する画像取得ステップと、上記撮影画像と、上記撮影画像の比較対象である参照画像との差異を検出する画像差異検出ステップと、上記検出した差異に応じて上記ユーザの変化に関する情報を決定する情報決定ステップと、上記決定した情報を上記ユーザに報知する情報報知ステップと、を含む。
本発明の一態様によれば、ユーザの変化に応じた情報を当該ユーザに報知することができるとの効果を奏する。
本発明の実施形態1に係る報知装置の要部構成を示すブロック図である。 本発明の実施形態1に係る報知装置の処理を示すフローチャートである。 (a)は本発明の実施形態1に係る設定領域の例を示す図であり、(b)は本発明の実施形態1に係る情報テーブルの例を示す図である。 本発明の実施形態2に係る報知装置の処理を示すフローチャートである。 (a)は本発明の実施形態2に係る設定座標の例を示す図であり、(b)は本発明の実施形態2に係る情報テーブルの例を示す図である。 本発明の実施形態3に係る報知装置の処理を示すフローチャートである。 (a)は本発明の実施形態3に係る設定領域の例を示す図であり、(b)は本発明の実施形態3に係る情報テーブルの例を示す図である。
〔実施形態1〕
以下、本発明の実施の形態について、詳細に説明する。
(報知装置1)
図1は、本実施形態に係る報知装置1の要部構成を示すブロック図である。報知装置1は、図1に示すように、画像撮影部10、音声出力部20、表示部30、制御部40、および、記憶部50を備えている。
画像撮影部10は、ユーザの顔画像を撮影するものであり、具体的にはカメラ(例えば、スマートフォンの前面に備わるサブカメラ)等である。音声出力部20は、音声を出力するものであり、具体的にはスピーカ等である。表示部30は、画像を表示するものであり、具体的にはディスプレイ画面等である。制御部40は、報知装置1の各構成要素を統括的に制御する機能を備えている演算装置である。制御部40の詳細については、後述する。記憶部50には、画像、および、情報が格納されている。記憶部50の詳細については、後述する。
(制御部40)
制御部40は、図1に示すように、撮影タイミング判定部41、画像取得部42、画像差異検出部43、情報決定部44、情報報知方法選択部45、および、情報報知部46を備えている。
撮影タイミング判定部41は、ユーザの画像を撮影するタイミングを判定し、そのタイミングを画像取得部42に通知する。上記タイミングとは、例えば、ユーザが所定時間以上報知装置1を操作しているとき、現時刻が所定の時間帯に含まれるとき等である。画像取得部42は、撮影タイミング判定部41から通知されたタイミングにより、画像撮影部10からユーザを撮影して得られる撮影画像を取得する。
画像差異検出部43は、画像取得部42により取得された撮影画像と、当該撮影画像の比較対象である参照画像との差異を検出する。参照画像は、撮影画像とは異なるタイミングでユーザを撮影して得られる画像である。
情報決定部44は、画像差異検出部43により検出された差異に応じてユーザの変化に関する情報を決定する。情報報知方法選択部45は、ユーザによる報知装置1の使用状況に応じて、情報の報知方法として聴覚的報知、または、視覚的報知を選択する。聴覚的報知には、音声による報知、音楽による報知、自然音による報知などが挙げられる。視覚的報知には、端末画面の画像表示による報知、ロボットのジェスチャによる報知などが挙げられる。
情報報知部46は、情報決定部44により決定された情報をユーザに報知する。情報報知部46は、情報報知方法選択部45により選択された報知方法により情報をユーザに報知する。
(記憶部50)
記憶部50には、図1に示すように、画像データベース51、および、情報データベース52が格納されている。画像データベース51には、事前に(例えば、ユーザ登録時などに)撮影されたユーザの画像や、所定のタイミング毎に撮影されたユーザの画像が格納されている。情報データベース52には、異なるタイミングのユーザの画像における差異に応じた情報が格納されている。
(報知装置1の処理)
図2は、本実施形態に係る報知装置1の処理を示すフローチャートである。本処理は、バックグラウンドでユーザを撮影し、顔およびその周辺を検出し、以前の顔との変化に応じた情報をユーザに報知する処理である。
まず、報知装置1は、所定の時間帯か否かを判定する(S202)。詳細には、撮影タイミング判定部41は、現時刻が所定の時間帯に含まれるか否かを判定する。所定の時間帯とは、例えば、朝の時間帯である6〜9時、昼の時間帯である12〜13時、または、夜の時間帯である17〜24時のことをいう。
所定の時間帯である場合(S202のYES)、報知装置1は、ユーザを撮影して得られる撮影画像を取得する(S204)。詳細には、画像取得部42は、撮影タイミング判定部41から撮影タイミングの通知を受けて、画像撮影部10からその時点において撮影した撮影画像を取得する。
次に、報知装置1は、取得した撮影画像からHaar-Like特徴を使って顔検出を行う(S206)。Haar-Like特徴による顔検出は、画像の明暗差により特徴を捉えるものである。すなわち、画像の一部分を切り出し、局所的な明暗差を算出し、このような局所的な特徴をいくつも組み合わせることで、物体を判別する。なお、他の方法で顔検出を行ってもよい。
撮影画像から顔が検出された場合(S208のYES)、報知装置1は、画像データを記憶部50に記憶させる(S210)。詳細には、画像取得部42は、取得した撮影画像を現在の時間帯に対応付けて画像データベース51に記憶させる。
報知装置1は、同じ時間帯における昨日の画像と、本日の画像とを比較する(S212)。詳細には、画像差異検出部43は、S202で判定した時間帯と同じ時間帯における参照画像を画像データベース51から読み出す。画像差異検出部43は、読み出した参照画像と、S204で取得した撮影画像とを比較する。
報知装置1は、参照画像と、撮影画像との間に髪の形・毛量(髪の部分)に差異があるか否かを判定する(S214)。詳細には、画像差異検出部43は、顔周辺、すなわち、肌色領域の外縁部に存在する黒画像領域の面積を比較することにより、撮影画像および参照画像における髪の形・毛量の差異を検出する。
図3(a)は、本実施形態に係る設定領域の例を示す図である。図3(a)に示すように、昨日の画像においては、領域A、BおよびCが設定される。本日の画像においては、領域A’、B’およびC’が設定される。領域Aおよび領域A’は、目から頭部中央までの領域である。領域Bおよび領域B’は、図面に向かって左側の口角から左下の領域である。領域Cおよび領域C’は、図面に向かって右側の口角から右下の領域である。
画像差異検出部43は、昨日の画像および本日の画像において対応する領域同士の黒画像領域の面積を比較する。すなわち、画像差異検出部43は、領域AおよびA’における黒画像領域の面積を比較し、領域BおよびB’における黒画像領域の面積を比較し、領域CおよびC’における黒画像領域の面積を比較する。
参照画像と、撮影画像との間に髪の形・毛量に差異がある場合(S214のYES)、報知装置1は、検出した髪の形・毛量の差異に応じてユーザの変化に関する情報を決定する(S216)。詳細には、情報決定部44は、情報データベース52に記憶された情報テーブル521を参照して、検出した差異に対応する情報を決定する。
図3(b)は、本実施形態に係る情報テーブル521の例を示す図である。図3(b)に示すように、情報テーブル521は、黒画像領域の面積差、符号、および、情報を含む。黒画像領域の面積差は、昨日の画像および本日の画像において対応する領域同士の黒画像領域の面積差である。符号は、当該面積差の符号である。情報は、当該面積差の符号に応じた情報である。
例えば、黒画像領域の面積差A−A’の符号が正である場合、情報決定部44は、情報として「前髪、さっぱりしましたね」を決定する。また、黒画像領域の面積差A−A’の符号が負である場合、情報決定部44は、情報として「今日は前髪を下ろしていますね」を決定する。
報知装置1は、ユーザによる報知装置1の使用状況を判定する(S218)。詳細には、情報報知方法選択部45は、マナーモードオフか、スリープ状態になっているか否かを判定する。マナーモードオフか、スリープ状態になっている場合(S218のYES)、情報報知方法選択部45は、音声による報知(聴覚的報知)を選択する。報知装置1は、情報報知方法選択部45により選択された報知方法に応じて情報を音声出力する(S220)。詳細には、情報報知部46は、音声出力部20を介して、S216で決定された情報をユーザに報知する。
マナーモードオフか、スリープ状態になっていない場合、換言すれば、マナーモードオンか、操作中になっている場合(S218のNO)、情報報知方法選択部45は、画像による報知(視覚的報知)を選択する。報知装置1は、情報報知方法選択部45により選択された報知方法に応じて情報を画像表示する(S222)。詳細には、情報報知部46は、表示部30を介して、S216で決定された情報をユーザに報知する。
なお、所定の時間帯でない場合(S202のNO)、顔が検出されていない場合(S208のNO)、または、参照画像と、撮影画像との間に髪の形・毛量に差異がない場合(S214のNO)、報知装置1は、処理を終了する。
(実施形態1の効果)
本実施形態によれば、報知装置1は、ユーザが指示することなく、ユーザが意識していない、ユーザ(特に、ユーザの髪)の変化に応じた情報を当該ユーザに報知することができる。そして、報知装置1は、タイミング(時間帯)を決めて、ユーザによる使用状況(マナーモードのオン・オフ/装置の操作中・未操作)を判定して、当該ユーザだけに情報を報知することができる。
〔実施形態2〕
本発明の実施形態2について、図4、図5に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
図4は、本実施形態に係る報知装置1の処理を示すフローチャートである。まず、報知装置1は、所定の時間帯か否かを判定する(S402)。詳細には、撮影タイミング判定部41は、現時刻が所定の時間帯に含まれるか否かを判定する。
所定の時間帯である場合(S402のYES)、報知装置1は、ユーザを撮影して得られる撮影画像を取得する(S404)。詳細には、画像取得部42は、撮影タイミング判定部41から撮影タイミングの通知を受けて、画像撮影部10からその時点において撮影した撮影画像を取得する。
次に、報知装置1は、取得した撮影画像からHaar-Like特徴を使って顔検出を行う(S406)。Haar-Like特徴による顔検出は、実施形態1で説明したとおりである。なお、他の方法で顔検出を行ってもよい。
撮影画像から顔が検出された場合(S408のYES)、報知装置1は、画像データを記憶部50に記憶させる(S410)。詳細には、画像取得部42は、取得した撮影画像を現在の時間帯に対応付けて画像データベース51に記憶させる。
報知装置1は、全ての時間帯における昨日の画像と、本日の画像とを比較する(S412)。詳細には、画像差異検出部43は、S408で検出された顔画像から口周辺領域を特定する。画像差異検出部43は、昨日の全ての時間帯における参照画像を画像データベース51から読み出す。画像差異検出部43は、読み出した参照画像と、特定した口周辺領域の撮影画像とを比較する。
報知装置1は、参照画像と、撮影画像との間に口角周辺に差異があるか否かを判定する(S414)。詳細には、画像差異検出部43は、口角の上下の変化があるか否かを判定することにより、撮影画像および参照画像における口角周辺の部分の差異を検出する。
図5(a)は、本実施形態に係る設定座標の例を示す図である。図5(a)に示すように、昨日の画像においては、図面に向かって左側の口角の座標(X1、Y1)、および、その少し右側にずれた箇所(上唇と、下唇の間の線上)の座標(X2、Y2)が設定される。本日の画像においては、図面に向かって左側の口角の座標(X3、Y3)、および、その少し右側にずれた箇所(上唇と、下唇の間の線上)の座標(X4、Y4)が設定される。
ユーザが笑顔でいる場合には、口角が上がるので、口角とその少し右側にずれた箇所(上唇と、下唇の間の線上)とを結ぶ直線の傾き(Y2−Y1)/(X2−X1)および(Y4−Y3)/(X4−X3)は負の値となる。一方、ユーザの機嫌が悪い場合などには、口角が下がるので、上記直線の傾きは正となる。以下の説明では、上記直線の傾きを座標比較値として説明する。
画像差異検出部43は、昨日の画像および本日の画像において対応する座標を比較する。すなわち、画像差異検出部43は、座標X1およびX2を比較し、座標Y1およびY2を比較し、座標X3およびX4を比較し、座標Y3およびY4を比較する。
参照画像と、撮影画像との間に口角に差異がある場合(S414のYES)、報知装置1は、検出した口角周辺の部分の差異に応じてユーザの変化に関する情報を決定する(S416)。詳細には、情報決定部44は、情報データベース52に記憶された情報テーブル522を参照して、検出した差異に対応する情報を決定する。
図5(b)は、本実施形態に係る情報テーブル522の例を示す図である。図5(b)に示すように、情報テーブル522は、座標比較値、符号、および、情報を含む。座標比較値は、昨日の画像および本日の画像における、2つの座標の差に関する値である。符号は、当該座標比較値の符号である。情報は、当該座標比較値の符号に応じた情報である。
例えば、座標比較値(Y2−Y1)/(X2−X1)が正であり、かつ、座標比較値(Y4−Y3)/(X4−X3)が負である場合、情報決定部44は、ユーザの変化に関する情報として「今日は笑顔がありますね。何かいいことありましたか?」を決定する。
また、座標比較値(Y2−Y1)/(X2−X1)が負であり、かつ、座標比較値(Y4−Y3)/(X4−X3)が正である場合、情報決定部44は、ユーザの変化に関する情報として「今日は笑顔が少ないですね。何かありましたか?」を決定する。
また、座標比較値(Y2−Y1)/(X2−X1)が正であり、かつ、座標比較値(Y4−Y3)/(X4−X3)が正である場合、情報決定部44は、ユーザの変化に関する情報として「今日は何かいいことあるといいですね!」を決定する。
また、座標比較値(Y2−Y1)/(X2−X1)が負であり、かつ、座標比較値(Y4−Y3)/(X4−X3)が負である場合、情報決定部44は、ユーザの変化に関する情報として「今日も楽しい一日でしたね!」を決定する。
報知装置1は、ユーザによる報知装置1の使用状況を判定する(S418)。詳細には、情報報知方法選択部45は、マナーモードオフか、スリープ状態になっているか否かを判定する。マナーモードオフか、スリープ状態になっている場合(S418のYES)、情報報知方法選択部45は、音声による報知を選択する。報知装置1は、情報報知方法選択部45により選択された報知方法に応じて情報を音声出力する(S420)。詳細には、情報報知部46は、音声出力部20を介して、S416で決定された情報をユーザに報知する。
マナーモードオフか、スリープ状態になっていない場合、換言すれば、マナーモードオンか、操作中になっている場合(S418のNO)、情報報知方法選択部45は、画像による報知を選択する。報知装置1は、情報報知方法選択部45により選択された報知方法に応じて情報を画像表示する(S422)。詳細には、情報報知部46は、表示部30を介して、S416で決定された情報をユーザに報知する。
所定の時間帯でない場合(S402のNO)、顔が検出されていない場合(S408のNO)、または、参照画像と、撮影画像との間に口角周辺に差異がない場合(S414のNO)、報知装置1は処理を終了する。
なお、上記の説明では座標比較値として、口角とその少し右側にずれた箇所(上唇と、下唇の間の線上)とを結ぶ直線の傾き(Y2−Y1)/(X2−X1)および(Y4−Y3)/(X4−X3)を座標比較値としてユーザ変化に関する情報を得る例について説明を行ったが、座標比較値として(Y2−Y1)および(Y4−Y3)の値を採用し、この値の符号に基づいて、ユーザ変化に関する情報を得るように構成してもよい。
また、上記の説明では、全ての時間帯における昨日の画像と本日の画像とを比較する例を示したが、本発明はこれに限定されることはなく、一部の時間帯のみの画像を使ってもよいし、昨日以外の過去の任意の時点において撮影したユーザの画像を参照画像としてもよい。例えば、ユーザ登録時などに撮影されたユーザの画像を参照画像として画像データベース51に登録しておき、当該参照画像と、本日の画像とを比較することにより、情報決定部44は、ユーザの変化に関する情報を決定するようにしてもよい。この場合、参照する画像を少なくすることにより、使用メモリの容量を削減することができ、システムへの負荷を軽減することができるという効果がある。
また、上記の説明では、昨日の画像と本日の画像とを単一の画像同士で比較していたが、昨日の複数の画像における口角周辺の状況の平均と、本日の複数の画像における口角の状況の平均とを比較することにより、情報決定部44は、ユーザの変化に関する情報を決定してもよい。すなわち、昨日の複数の画像の口角周辺の画像変化((Y2−Y1)/(X2−X1)または(Y2−Y1))を各々計算して昨日の平均値を算出し、本日の複数の画像の口角周辺の画像変化((Y4−Y3)/(X4−X3)または(Y4−Y3))を各々計算して本日の平均値を算出し、昨日の平均値と、本日の平均値とを比較することにより、情報決定部44は、ユーザの変化に関する情報を決定してもよい。この場合、ユーザの一日分の大きな状態変化を反映した表現が可能になるといった効果がある。
さらに、上記の説明では比較する場所を口角付近の画像を用いていたが、これに限定されることはない。例えば、情報決定部44は、口周辺の画像に含まれる歯を示す画像の面積により、ユーザの変化に関する情報を決定してもよい。すなわち、口の位置を認識し、この口の画像に含まれる白い画像領域を歯の画像と定義して、白い画像の面積が多い(所定値以上の)場合に、歯が多く見られると判断して、ユーザが笑顔であると認識し、一方、白い画像の面積が少ない(所定値未満の)場合に、ユーザの機嫌が悪いと認識する。このように認識した内容により、情報決定部44は、ユーザの変化に関する情報を決定してもよい。
(実施形態2の効果)
本実施形態によれば、報知装置1は、ユーザが指示することなく、ユーザが意識していない、ユーザ(特に、ユーザの口角や歯)の変化に応じた情報を当該ユーザに報知することができる。そして、報知装置1は、タイミング(時間帯)を決めて、ユーザによる使用状況(マナーモードのオン・オフ/装置の操作中・未操作)を判定して、当該ユーザだけに情報を報知することができる。
〔実施形態3〕
本発明の実施形態3について、図6、図7に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
図6は、本実施形態に係る報知装置1の処理を示すフローチャートである。まず、報知装置1は、所定の時間帯か否かを判定する(S602)。詳細には、撮影タイミング判定部41は、現時刻が所定の時間帯に含まれるか否かを判定する。
所定の時間帯である場合(S602のYES)、報知装置1は、ユーザを撮影して得られる撮影画像を取得する(S604)。詳細には、画像取得部42は、撮影タイミング判定部41から撮影タイミングの通知を受けて、画像撮影部10からその時点において撮影した撮影画像を取得する。
次に、報知装置1は、取得した撮影画像からHaar-Like特徴を使って顔検出を行う(S606)。Haar-Like特徴による顔検出は、実施形態1で説明したとおりである。なお、他の方法で顔検出を行ってもよい。
撮影画像から顔が検出された場合(S608のYES)、報知装置1は、画像データを記憶部50に記憶させる(S610)。詳細には、画像取得部42は、取得した撮影画像を現在の時間帯に対応付けて画像データベース51に記憶させる。
報知装置1は、同じ時間帯における昨日の画像と、本日の画像とを比較する(S612)。詳細には、画像差異検出部43は、S608で検出された顔画像から目・鼻・口の周辺領域を特定する。画像差異検出部43は、昨日の同じ時間帯における参照画像を画像データベース51から読み出し、当該参照画像から目・鼻・口の周辺領域を特定する。画像差異検出部43は、参照画像の目・鼻・口の周辺領域と、撮影画像の目・鼻・口の周辺領域とを比較する。
顔画像から目・鼻・口の領域を特定する方法には、例えば、以下のようなものがある。すなわち、目はその周辺で一番暗いという条件で探索する。鼻と口の両端位置は両目が検出できた時のみ、それを手掛かりに検出する。鼻の検出は、ほぼ正面から照明があたっていることが条件となる。口の検出は、顎に暗い影ができないことが条件となる。なお、他の方法で目・鼻・口の領域を特定してもよい。
報知装置1は、参照画像と、撮影画像との間に目・鼻・口周辺に差異があるか否かを判定する(S614)。詳細には、画像差異検出部43は、目・鼻・口周辺に昨日になかったものが本日は存在しているか否かを判定することにより、撮影画像および参照画像における目、鼻、口周辺の部分の差異を検出する。
図7(a)は、本実施形態に係る設定領域の例を示す図である。図7(a)に示すように、昨日の画像においては、領域D、EおよびFが設定される。本日の画像においては、領域D’、E’およびF’が設定される。領域Dおよび領域D’は、目周辺の領域である。領域Eおよび領域E’は、鼻周辺の領域である。領域Fおよび領域F’は、口周辺の領域である。
画像差異検出部43は、昨日の画像および本日の画像において対応する領域同士の肌色以外の画像領域の面積を比較する。すなわち、画像差異検出部43は、領域DおよびD’における肌色以外の画像領域の面積を比較し、領域EおよびE’における肌色以外の画像領域の面積を比較し、領域FおよびF’における肌色以外の画像領域の面積を比較する。
参照画像と、撮影画像との間に目・鼻・口に差異がある場合(S614のYES)、報知装置1は、検出した目、鼻、口周辺の部分の差異に応じてユーザの変化に関する情報を決定する(S616)。詳細には、画像差異検出部43は、画像の差異が検出した領域からさらに小さい領域を特定する。図7(a)に示すように、画像差異検出部43は、領域DおよびD'に差異があった場合、領域dおよびd’を特定する。画像差異検出部43は、領域EおよびE'に差異があった場合、領域eおよびe’を特定する。画像差異検出部43は、領域FおよびF'に差異があった場合、領域fおよびf’を特定する。情報決定部44は、情報データベース52に記憶された情報テーブル523を参照して、検出した差異に対応する情報を決定する。
図7(b)は、本実施形態に係る情報テーブル523の例を示す図である。図7(b)に示すように、情報テーブル523は、黒画像領域の面積差、符号、および、情報を含む。黒画像領域の面積差は、昨日の画像および本日の画像において対応する領域同士の黒画像領域の面積差である。符号は、当該面積差の符号である。情報は、当該面積差の符号に応じた情報である。
例えば、黒画像領域の面積差d−d’の符号が負である場合、情報決定部44は、情報として「目の下に何かついていますよ」を決定する。また、黒画像領域の面積差d−d’の符号がに正である場合、情報決定部44は、情報として「目元が明るくなっていますね」を決定する。
報知装置1は、ユーザによる報知装置1の使用状況を判定する(S618)。詳細には、情報報知方法選択部45は、マナーモードオフか、スリープ状態になっているか否かを判定する。マナーモードオフか、スリープ状態になっている場合(S618のYES)、情報報知方法選択部45は、音声による報知を選択する。報知装置1は、情報報知方法選択部45により選択された報知方法に応じて情報を音声出力する(S620)。詳細には、情報報知部46は、音声出力部20を介して、S616で決定された情報をユーザに報知する。
マナーモードオフか、スリープ状態になっていない場合、換言すれば、マナーモードオンか、操作中になっている場合(S618のNO)、情報報知方法選択部45は、画像による報知を選択する。報知装置1は、情報報知方法選択部45により選択された報知方法に応じて情報を画像表示する(S622)。詳細には、情報報知部46は、表示部30を介して、S616で決定された情報をユーザに報知する。
所定の時間帯でない場合(S602のNO)、顔が検出されていない場合(S608のNO)、または、参照画像と、撮影画像との間に目・鼻・口周辺に差異がない場合(S614のNO)、報知装置1は、処理を終了する。
なお、報知装置1は、目・鼻・口周辺ではなく、顔全体の色の濃淡に差異があった場合に、その差異に応じた情報をユーザに報知するようにしてもよい。例えば、報知装置1は、顔全体の色が濃くなった場合に、「日焼けしましたね」との情報をユーザに報知する。また、報知装置1は、顔全体の色が淡くなった場合に、「お化粧しましたね」との情報をユーザに報知する。
なお、上記の説明では、昨日の画像および本日の画像において対応する領域の肌色以外の画像領域の面積を比較する例を示したが、本発明はこれに限定されることはない。例えば、画像差異検出部43は、黒画像領域の面積を比較してもよい。また、画像差異検出部43が、画像のエッジ部を検出し、エッジ部の座標データに差異があると判定した場合に、検出した目、鼻、口周辺の部分の差異に応じて、情報決定部44が、ユーザの変化に関する情報を決定してもよい。
(実施形態3の効果)
本実施形態によれば、報知装置1は、ユーザが指示することなく、ユーザが意識していない、ユーザ(特に、ユーザの目・鼻・口の周辺)の変化に応じた情報を当該ユーザに報知することができる。そして、報知装置1は、タイミング(時間帯)を決めて、ユーザによる使用状況(マナーモードのオン・オフ/装置の操作中・未操作)を判定して、当該ユーザだけに情報を報知することができる。
さらに、実施形態1、2、3によれば、報知装置1は、顔色を気にしてくれたり、身だしなみを注意してくれたりするような印象をユーザに与えることができる。例えば、顔の汚れ、目の充血、表情、髪型、服装、姿勢について見ているような印象をユーザに与えることができる。
〔ソフトウェアによる実現例〕
報知装置1の制御ブロック(特に、制御部40)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、報知装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
なお、電子機器が報知装置1を備えていてもよい。電子機器には、スマートフォン等の携帯端末、ロボット等が含まれる。
〔まとめ〕
本発明の態様1に係る報知装置は、ユーザを撮影して得られる撮影画像を取得する画像取得部42と、上記撮影画像と、上記撮影画像の比較対象である参照画像との差異を検出する画像差異検出部43と、上記検出した差異に応じて上記ユーザの変化に関する情報を決定する情報決定部44と、上記決定した情報を上記ユーザに報知する情報報知部46と、を備えている。
上記の構成によれば、ユーザの変化に応じた情報を当該ユーザに報知することができる。
本発明の態様2に係る報知装置は、上記態様1において、上記参照画像が、上記撮影画像とは異なるタイミングでユーザを撮影して得られる画像であることとしてもよい。
上記の構成によれば、撮影のタイミング間におけるユーザの変化に応じた情報を当該ユーザに報知することができる。
本発明の態様3に係る報知装置は、上記態様1および2において、上記画像差異検出部が、上記撮影画像および上記参照画像における髪の部分の差異を検出し、上記情報決定部が、上記髪の部分の差異に応じて上記情報を決定することとしてもよい。
上記の構成によれば、ユーザの髪の変化に応じた情報を当該ユーザに報知することができる。
本発明の態様4に係る報知装置は、上記態様1および2において、上記画像差異検出部が、上記撮影画像および上記参照画像における口角周辺の部分の差異を検出し、上記情報決定部が、上記口角周辺の部分の差異に応じて上記情報を決定することとしてもよい。
上記の構成によれば、ユーザの口角周辺の変化に応じた情報を当該ユーザに報知することができる。
本発明の態様5に係る報知装置は、上記態様1および2において、上記画像差異検出部が、上記撮影画像および上記参照画像における目、鼻、口周辺の部分の差異を検出し、上記情報決定部が、上記目、鼻、口周辺の部分の差異に応じて上記情報を決定することとしてもよい。
上記の構成によれば、ユーザの目、鼻、口周辺の変化に応じた情報を当該ユーザに報知することができる。
本発明の態様6に係る報知装置は、上記態様1から5において、上記ユーザによる当該報知装置の使用状況に応じて、上記情報の報知方法として聴覚的報知、または、視覚的報知を選択する情報報知方法選択部45をさらに備えており、上記情報報知部が、上記選択した報知方法により上記情報をユーザに報知することとしてもよい。
上記の構成によれば、ユーザによる報知装置の使用状況に応じた方法で情報を当該ユーザに報知することができる。
本発明の態様7に係る電子機器は、上記態様1から6に係る報知装置を備えている。
本発明の態様8に係る報知方法は、ユーザに情報を報知する装置の報知方法であって、ユーザを撮影して得られる撮影画像を取得する画像取得ステップと、上記撮影画像と、上記撮影画像の比較対象である参照画像との差異を検出する画像差異検出ステップと、上記検出した差異に応じて上記ユーザの変化に関する情報を決定する情報決定ステップと、上記決定した情報を上記ユーザに報知する情報報知ステップと、を含む。
本発明の各態様に係る報知装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記報知装置が備える各部(ソフトウェア要素)として動作させることにより上記報知装置をコンピュータにて実現させる報知装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
〔付記事項〕
報知装置1は、画像撮影部10による撮影動作を、実施形態1における所定の時間帯だけでなく、さらに他のタイミングに限定する。そのタイミングには、報知装置1が充電器に接続されたとき、報知装置1が充電中に操作されたときが含まれる。
一方、報知装置1は、他のアプリ実行中に、バックグラウンドでサブカメラを動作させる。まず、低電力で常時駆動する方法として、間欠的に駆動するか、超低フレームレートで撮影する。次に、時間帯を分けて1日合計3回程度撮影する。
上記の構成によれば、報知装置1は、画像撮影部10の動作が報知装置1の電源に極力影響しないようにすることにより、報知装置1の消費電力を抑えることができる。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
1 報知装置
42 画像取得部
43 画像差異検出部
44 情報決定部
45 情報報知方法選択部
46 情報報知部

Claims (9)

  1. ユーザを撮影して得られる撮影画像を取得する画像取得部と、
    上記撮影画像と、上記撮影画像の比較対象である参照画像との差異を検出する画像差異検出部と、
    上記検出した差異に応じて上記ユーザの変化に関する情報を決定する情報決定部と、
    上記決定した情報を上記ユーザに報知する情報報知部と、
    を備えていることを特徴とする報知装置。
  2. 上記参照画像は、上記撮影画像とは異なるタイミングでユーザを撮影して得られる画像である、
    ことを特徴とする請求項1に記載の報知装置。
  3. 上記画像差異検出部は、上記撮影画像および上記参照画像における髪の部分の差異を検出し、
    上記情報決定部は、上記髪の部分の差異に応じて上記情報を決定する、
    ことを特徴とする請求項1または2に記載の報知装置。
  4. 上記画像差異検出部は、上記撮影画像および上記参照画像における口角周辺の部分の差異を検出し、
    上記情報決定部は、上記口角周辺の部分の差異に応じて上記情報を決定する、
    ことを特徴とする請求項1または2に記載の報知装置。
  5. 上記画像差異検出部は、上記撮影画像および上記参照画像における目、鼻、口周辺の部分の差異を検出し、
    上記情報決定部は、上記目、鼻、口周辺の部分の差異に応じて上記情報を決定する、
    ことを特徴とする請求項1または2に記載の報知装置。
  6. 上記ユーザによる当該報知装置の使用状況に応じて、上記情報の報知方法として聴覚的報知、または、視覚的報知を選択する情報報知方法選択部をさらに備えており、
    上記情報報知部は、上記選択した報知方法により上記情報をユーザに報知する、
    ことを特徴とする請求項1から5の何れか1項に記載の報知装置。
  7. 請求項1から6の何れか1項に記載の報知装置を備えた電子機器。
  8. ユーザに情報を報知する装置の報知方法であって、
    ユーザを撮影して得られる撮影画像を取得する画像取得ステップと、
    上記撮影画像と、上記撮影画像の比較対象である参照画像との差異を検出する画像差異検出ステップと、
    上記検出した差異に応じて上記ユーザの変化に関する情報を決定する情報決定ステップと、
    上記決定した情報を上記ユーザに報知する情報報知ステップと、
    を含むことを特徴とする報知方法。
  9. コンピュータを請求項1から6の何れか1項に記載の報知装置として動作させるための制御プログラムであって、上記コンピュータを上記報知装置が備えている各部として機能させるための制御プログラム。
JP2016112253A 2016-06-03 2016-06-03 報知装置、電子機器、報知方法、および、プログラム Pending JP2017219940A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016112253A JP2017219940A (ja) 2016-06-03 2016-06-03 報知装置、電子機器、報知方法、および、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016112253A JP2017219940A (ja) 2016-06-03 2016-06-03 報知装置、電子機器、報知方法、および、プログラム

Publications (1)

Publication Number Publication Date
JP2017219940A true JP2017219940A (ja) 2017-12-14

Family

ID=60658081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016112253A Pending JP2017219940A (ja) 2016-06-03 2016-06-03 報知装置、電子機器、報知方法、および、プログラム

Country Status (1)

Country Link
JP (1) JP2017219940A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019125358A (ja) * 2018-01-11 2019-07-25 カシオ計算機株式会社 報知装置、報知方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014180305A (ja) * 2013-03-18 2014-09-29 Funai Electric Co Ltd 情報端末装置
WO2015072165A1 (ja) * 2013-11-15 2015-05-21 医療法人社団 昌医会 葛西昌医会病院 病院利用支援システム
JP2016504057A (ja) * 2012-10-23 2016-02-12 セラノス, インコーポレイテッド 支援された医学的および関連したライフスタイルの意思決定

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016504057A (ja) * 2012-10-23 2016-02-12 セラノス, インコーポレイテッド 支援された医学的および関連したライフスタイルの意思決定
JP2014180305A (ja) * 2013-03-18 2014-09-29 Funai Electric Co Ltd 情報端末装置
WO2015072165A1 (ja) * 2013-11-15 2015-05-21 医療法人社団 昌医会 葛西昌医会病院 病院利用支援システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019125358A (ja) * 2018-01-11 2019-07-25 カシオ計算機株式会社 報知装置、報知方法及びプログラム
JP7225749B2 (ja) 2018-01-11 2023-02-21 カシオ計算機株式会社 報知装置、報知方法及びプログラム

Similar Documents

Publication Publication Date Title
JP4914398B2 (ja) 表情認識装置、撮像装置、方法及びプログラム
JP4507281B2 (ja) 画像表示装置、撮像装置および画像表示方法
EP3125158A2 (en) Method and device for displaying images
US20180268207A1 (en) Method for automatic facial impression transformation, recording medium and device for performing the method
CN107958439B (zh) 图像处理方法及装置
CN104869320A (zh) 电子设备和控制电子设备操作方法
WO2019011091A1 (zh) 拍照提醒方法、装置、终端和计算机存储介质
US20150304566A1 (en) Display apparatus and image composition method thereof
US10592759B2 (en) Object recognition apparatus and control method therefor
TW201633215A (zh) 護眼系統及方法
CN108986019A (zh) 肤色调整方法及装置、电子设备、机器可读存储介质
KR20120044030A (ko) 디지털 촬영 장치 및 이의 제어 방법
JP2014186505A (ja) 視線検出装置及び撮像装置
US20230351570A1 (en) Image processing method and apparatus
US9633542B2 (en) Electronic device and computer-based method for reminding using the electronic device
JP2017219940A (ja) 報知装置、電子機器、報知方法、および、プログラム
US20190325559A1 (en) Image synthesis method and smart device using the same
CN108564537A (zh) 图像处理的方法、装置、电子设备及介质
JP6098133B2 (ja) 顔構成部抽出装置、顔構成部抽出方法及びプログラム
KR20170011876A (ko) 영상 처리 장치 및 그 동작 방법
JP2015114946A (ja) 画像処理装置、プログラムおよび画像処理方法
TW201339986A (zh) 影像擷取方法與影像擷取裝置
JP2012094126A (ja) 画像処理装置及び画像処理プログラム
JP2013158481A (ja) 電子鏡およびそのプログラム
JP6737968B1 (ja) 歩行者信号識別装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200508

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200616