JP2013162277A - デジタルカメラ - Google Patents
デジタルカメラ Download PDFInfo
- Publication number
- JP2013162277A JP2013162277A JP2012021820A JP2012021820A JP2013162277A JP 2013162277 A JP2013162277 A JP 2013162277A JP 2012021820 A JP2012021820 A JP 2012021820A JP 2012021820 A JP2012021820 A JP 2012021820A JP 2013162277 A JP2013162277 A JP 2013162277A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- recording
- keyword
- information
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
【課題】ライフログ収集の利便性を向上する。
【解決手段】被写体像を撮像し、画像データを出力する撮像部と、音声を取得するマイク部と、複数のグループに分別してキーワードを記録するキーワード記録部と、時刻情報を出力するタイマーと、前記時刻情報に応じて参照するキーワードのグループの順番を決定する順番決定部と、前記マイク部により取得された音声と前記キーワードとを、前記順番決定部により決定されたグループごとに順番に比較する比較部と、前記比較部による比較結果に応じて、前記撮像部により記録用の画像データを取得させる撮像制御部とを有するデジタルカメラである。
【選択図】図1
【解決手段】被写体像を撮像し、画像データを出力する撮像部と、音声を取得するマイク部と、複数のグループに分別してキーワードを記録するキーワード記録部と、時刻情報を出力するタイマーと、前記時刻情報に応じて参照するキーワードのグループの順番を決定する順番決定部と、前記マイク部により取得された音声と前記キーワードとを、前記順番決定部により決定されたグループごとに順番に比較する比較部と、前記比較部による比較結果に応じて、前記撮像部により記録用の画像データを取得させる撮像制御部とを有するデジタルカメラである。
【選択図】図1
Description
本発明は、デジタルカメラに関する。
人間の日々の活動などをログとして収集するライフログが注目されている。このようなライフログの記録に用いることができる撮像装置として、眼鏡のフレームに撮像素子を配置し、親基地から無線通信により撮像指示を行い得るようにした技術が知られている(特許文献1参照)。撮像指示は、親基地に設けられた操作部を操作し、または親基地に設けられたマイクから音声入力により行い得る旨が記載されている。
しかしながら、特許文献1に記載された従来技術では、撮像指示は親基地においてその意図を持って所定の操作または音声入力を行う必要があるため、ユーザーは撮像について常に意識している必要があり、失念した場合にはライフログの収集を行うことができず、利便性が低いという問題があった。
本発明はこのような点に鑑みてなされたものであり、ライフログ収集の利便性を向上することを目的とする。
本発明の第1の観点に係るデジタルカメラは、被写体像を撮像し、画像データを出力する撮像部と、音声を取得するマイク部と、複数のグループに分別してキーワードを記録するキーワード記録部と、時刻情報を出力するタイマーと、前記時刻情報に応じて参照するキーワードのグループの順番を決定する順番決定部と、前記マイク部により取得された音声と前記キーワードとを、前記順番決定部により決定されたグループごとに順番に、比較する比較部と、前記比較部による比較結果に応じて、前記撮像部により記録用の画像データを取得させる撮像制御部とを有することを特徴とする。
本発明の第2の観点に係るデジタルカメラは、被写体像を撮像し、画像データを出力する撮像部と、音声を取得するマイク部と、複数のグループに分別してキーワードを記録するキーワード記録部と、時刻情報を出力するタイマーと、前記マイク部により取得された音声と前記キーワードとを比較し、前記音声に対応するキーワードを特定する特定部と、前記特定部により特定されたキーワードおよび前記時刻情報に応じて撮影条件を決定する決定部と、前記決定部より決定された前記撮影条件で、前記撮像部により記録用の画像データを取得させる撮像制御部とを有することを特徴とする。
本発明によれば、ユーザーが撮像について意識しなくても、適宜なタイミングで撮像できるようになり、ライフログ収集の利便性を向上することができるという効果がある。
図1に示すカメラ1を備えて構成した装飾品であるイヤリングを例にして、以下に本発明の実施形態を詳述する。図2および図3に示されているように、本発明が適用されたカメラ1は、ユーザーの右側耳に装着されるイヤリング1Rに組み込まれている。カメラ1は、ユーザーの向く方向と略同一方向の所定角度を撮影可能なように構成される。なお、カメラ1はユーザーの右側耳用のイヤリング1Lに組み込んでも良い。
本実施形態の図1に示すカメラ1は、CPU(制御部)100により統括的に制御され、カメラ1の各構成要素はCPU100の指令に応じて制御される。また、CPU100は、フラッシュRAM102に記録されたプログラムに基づいて後述のフローチャート(図4)に示す処理等を実行する。フラッシュRAM102は、図5および図6に示す各種データベース(詳細後述)を記録している。また、CPU100がフラッシュRAM102に記録されたプログラムを実行することにより、順番決定部、比較部、撮像制御部、記録制御部、特定部および決定部等としての各種処理を実行する演算部100Aの機能、および画像処理部100Bの機能が実現される。なお、画像処理部100Bの機能は、CPU100とは別のCPUによって実現させても良い。
マイク部104は、音声を取得し、取得した音声をデジタル化した音声データをCPU100に出力する。撮像部106は、CMOSセンサー等の光電変換素子を含み、撮像部106は光情報をアナログの電気情報に変換し、変換された電気情報はデジタル変換され、デジタル変換された画像データは、CPU100に入力される。なお、レンズ105は、撮像部106の結像面上に被写体像を結像するために設けられる。
GPSセンサー108Aは、GPS衛星からの電波を取得し、取得した電波情報に応じて演算した位置情報(緯度、経度)をCPU100に出力する。方位センサー108Bは、地磁気に関する情報を検出し、検出した地磁気の情報に基づいて、カメラ1の向く方向(方位)情報をCPU100に出力する。姿勢センサー108Cは、カメラ1がユーザーに固定された状態において、ユーザーがどのような姿勢であるかを検出するためのセンサーであり、重力方向からの傾きに応じた情報をCPU100に出力する。
一時記憶媒体110は、画像処理するための画像データ、マイク部104により出力された音声データ、GPSセンサー108Aからの位置情報、方位センサー108Bからの方向情報等を一時記憶するための記憶媒体である。また、タイマー112は、現在日時を示す日時情報(年月日時分秒)をCPU100に出力する。
通信部114は、無線送信部と、無線受信部とを備え、外部装置2と通信するためのインターフェイスである。撮像された画像データを含む各種データは、この通信部114を介して外部装置2に送信され、また、通信部114を介して外部装置2から受信される。なお、外部装置2は通信部114と通信するための不図示の通信部(無線送信部および無線受信部)、各種データを記憶するための記憶部(記憶媒体)を備えている。
カード型記録媒体118は、カメラ1に着脱可能なカード形状の記録媒体から構成され、CPU100からの指示に応じて各種情報をカード内に記憶させる。また、CPU100は記録媒体118に記録された各種情報を読み出すことが可能なように構成される。なお、カメラ1は、カード型記録媒体118に代えて、またはこれに加えて、着脱不能なチップ形状の記録媒体を備えてもいても良い。
次に、フラッシュRAM102に記録されているデータベースの構成について、図5および図6を参照して説明する。図5はキーワード群データベースを示しており、図6は撮影条件データベースを示している。図5に示すキーワード群データベースは、本実施形態では、時間に関係するキーワード(日常的なキーワード)が分別して設定される時間帯グループ(グループ1〜4)と、時間に関係ないキーワード(非日常的なキーワード)として分別される共通グループ(グループS)とを含んでいる。なお、共通グループは省略しても良い。時間帯グループは、本実施形態では、1日24時間を4つの時間帯グループ1〜4(6:00〜8:00、9:00〜18:00、18:00〜22:00、22:00〜24:00)に分別している。
時間帯グループ1(6:00〜8:00)には、自宅において起床から外出までに日常的に発せられると予想されるキーワードとして、「おはよう」、「いただきます」、「召し上がれ」、「いってきます」が設定されている。また、「おはよう」に対応する分類情報として「起床」が、「いただきます」および「召し上がれ」に対応する分類情報として「朝食」が、「いってきます」に対応する分類情報として「外出」が設定されている。時間帯グループ2(9:00〜18:00)には、勤務先において出社から退社までに日常的に発せられると予想されるキーワードとして、「おはようございます」、「いただきます」、「お疲れ様でした」、「ご苦労様でした」、「さようなら」が設定されている。また、「おはようございます」に対応する分類情報として「出社」が、「いただきます」に対応する分類情報として「昼食」が、「お疲れ様でした」、「ご苦労様でした」および「さようなら」に対応する分類情報として「退社」が設定されている。
時間帯グループ3(18:00〜22:00)には、夕食時に日常的に発せられると予想されるキーワードとして、「乾杯」、「いただきます」、「美味しい」、「ご馳走様でした」、「ありがとうございました」が設定されている。また、「乾杯」、「いただきます」「美味しい」および「ご馳走様でした」に対応する分類情報として「夕食」が設定されている。なお、ここでは、「ありがとうございました」に対応する分類情報は設定されていないものとするが、適宜に設定してもよい。時間帯グループ4(22:00〜24:00)には、帰宅から就寝までに日常的に発せられると予想されるキーワードとして、「ただいま」、「おやすみなさい」が設定されている。また、「おやすみなさい」に対応する分類情報として「帰宅」が、「おやすみなさい」に対応する分類情報として「就寝」が設定されている。共通グループSは時間帯に関係ない非日常的なキーワードが設定されるグループであり、ここでは、キーワードとして、「可愛い」、「きれい」が設定されている。また、「可愛い」および「きれい」に対応する分類情報として「感動」が設定されている。
図6に示す撮影条件データベースは、複数の分類情報のそれぞれに対応して撮影条件が設定されたデータベースである。本実施形態では、分類「起床」、「外出」、「出社」、「退社」、「帰宅」については、撮影条件として、「人物撮影モード(人物の顔認識+認識した人物の顔にAF+認識した人物の顔に基づいて画角調整、単写)」が設定されている。分類「朝食」、「昼食」については、「料理モード(マクロ、単写)」が設定されている。分類「夕食」については、「料理モード(マクロ、所定時間(例えば、1分)毎のインターバル撮影)」が設定されている。なお、ここでは、分類「就寝」については撮影条件は設定されていないものとするが、適宜に設定しても良い。分類「感動」については、「オートシーン判定モード」が設定されている。撮影条件としては、これら以外に、「逆光補正モード」、「夜景モード」、「風景モード」などを適宜に設定することができる。上述した各モードを組み合わせて設定できるようにしても良い。「オートシーン判定モード」は撮影前にスルー画像を取得して、上述した各モードのうち最適なモードを自動的に判定し、設定するものである。なお、これらのキーワード群データベース(図5)および撮影条件データベース(図6)は、ユーザーが所定の操作を行うことにより、追加および変更ができるようになっている。
図4にCPU100によって実行されるライフログ収集処理のフローチャートを示す。タイマー112により所定の時刻になると、本ライフログ収集処理が開始される。この開始時刻は、不図示の所定の操作部材により予めユーザーにより設定されているものとする。開始時刻としては、例えば、6:00とすることができる。なお、本実施形態では、本ライフログ収集処理は所定の開始時刻になったことが検出された時点で開始するものとして説明するが、姿勢センサー108Cの出力を監視し、ユーザーが所定時間以上横になっている状態から起き上がったことが検出されたときに、開始するようにしても良い。また、ユーザーがライフログ収集を開始するための所定の操作を行うことによって開始するようにしても良い。
ステップS1において、CPU100は音声を取得するようマイク部104を制御し、マイク部104は音声情報をCPU100に出力し、ステップ2に移行する。ステップS2において、CPU100は、タイマー104から日時情報を取得し、ステップS3に移行する。ステップS3において、CPU100は、日時情報に応じた時間帯グループを選定し、ステップS4に移行する。CPU100は、例えば、現在時刻が7:00であるならば、図5に示すキーワード群データベースにおける時間帯グループ1を選定する。
ステップS4において、CPU100は、選定した時間帯グループ(ここでは、グループ1)内のいずれかのキーワードに、ステップS1で取得した音声情報が一致するか否かを解析(取得した音声情報とキーワードとを比較)する。この解析は、周波数特性の比較による。一致した場合(Yの場合)には、ステップS5に移行し、一致しない場合(Nの場合)にはステップS6に移行する。CPU100は、例えば、ステップS1で取得した音声情報が「いただきます」である場合には、図5に示すキーワード群データベースのグループ1に対応して設定されているキーワード群に「いただきます」が存在するため、S5に移行する。
ステップS5において、CPU100は、一致したキーワード情報が属する分類情報を特定し、ステップS8に移行する。例えば、図5に示すキーワード群データベースを参照し、「いただきます」に対応する分類情報として「朝食」を特定し、ステップS8に移行する。ステップS6において、CPU100は、全ての時間帯グループを参照したか否かを判断する。全ての時間帯グループを参照していない場合(Nの場合)には、ステップS7に移行し、全ての時間帯グループを参照した場合(Yの場合)には、ステップS13に移行する。ステップS7において、CPU100は、次の時間帯グループを選定し、ステップS4の処理を再度実行する。ステップS4,S6,S7により、例えば、現在時刻が7:00である場合にはグループ1,2,3,4の順に、現在時刻が10:00である場合にはグループ2,3,4,1の順に、現在時刻が20:00である場合には、グループ3,4,1,2の順に、現在時刻が23:00である場合にはグループ4,1,2,3の順にキーワードの検索が行われる。
ステップS8において、CPU100は、図6に示した撮影条件データベースを参照し、ステップS5で選定した分類情報に応じた撮影条件を特定し、特定された撮影条件を記録用の画像の撮像条件として設定し、ステップS9に移行する。ステップS9において、CPU100は、GPSセンサー108Aから出力された位置情報を取得し、ステップS10に移行する。ステップS10において、CPU100は、設定された撮影条件に基づいて、記録用画像の撮像を実行させる。
ここで、本実施形態の撮影条件の設定について、以下の(A)と(B)の欄に説明を記載する。
(A)特定されたキーワードが「起床」「外出」「出社」「退社」「帰宅」の分類に属する場合
例えば、「おはよう」という音声に基づいて、「起床」の分類を特定した場合には、人物の顔認識のアプリケーション(パターンマッチングにより人物の顔に相当するパターンを認識するアプリケーション)を起動し、CPU100は被写界内に人物の顔が含まれるか否かを判定する。被写界内に、人物の顔が含まれていた場合には、CPU100は人物の顔の位置を判定し、判定した人物の顔の位置にフォーカスを合わせるように不図示のフォーカスレンズを制御する。また、CPU100は、撮影画面に占める判定した人物の顔の大きさが所定の大きさとなるように、不図示のズームレンズを制御する。そして、上述の制御の後に、記録用画像の撮像を実行する。なお、CPU100は、撮像後の画像信号に対して、人物の画像に特有の画像処理(例えば、人物を撮影する場合に適したホワイトバランス調整)を施しても良い。
(A)特定されたキーワードが「起床」「外出」「出社」「退社」「帰宅」の分類に属する場合
例えば、「おはよう」という音声に基づいて、「起床」の分類を特定した場合には、人物の顔認識のアプリケーション(パターンマッチングにより人物の顔に相当するパターンを認識するアプリケーション)を起動し、CPU100は被写界内に人物の顔が含まれるか否かを判定する。被写界内に、人物の顔が含まれていた場合には、CPU100は人物の顔の位置を判定し、判定した人物の顔の位置にフォーカスを合わせるように不図示のフォーカスレンズを制御する。また、CPU100は、撮影画面に占める判定した人物の顔の大きさが所定の大きさとなるように、不図示のズームレンズを制御する。そして、上述の制御の後に、記録用画像の撮像を実行する。なお、CPU100は、撮像後の画像信号に対して、人物の画像に特有の画像処理(例えば、人物を撮影する場合に適したホワイトバランス調整)を施しても良い。
(B)特定されたキーワードが「朝食」「昼食」「夕食」の分類に属する場合
例えば、「いただきます」という音声と時刻に基づいて「朝食」を判定した場合には、マクロモードに撮影モードを変更する。この場合、CPU100は、不図示のフォーカスレンズを制御し、マクロ域(被写体が近距離の域)の被写体に合焦させるようフォーカスレンズを制御する。また、特定された分類に応じて、単写撮影(1枚の記録用画像を取得させる撮影)と連写撮影(複数枚の記録用画像を取得される撮影)を切り替えても良い。そして、上述の制御の後に、記録用画像の撮像を実行する。なお、CPU100は、撮像後の画像信号に対して、料理の画像に特有の画像処理(例えば、料理を撮影する場合に適したホワイトバランス調整)を施しても良い。
例えば、「いただきます」という音声と時刻に基づいて「朝食」を判定した場合には、マクロモードに撮影モードを変更する。この場合、CPU100は、不図示のフォーカスレンズを制御し、マクロ域(被写体が近距離の域)の被写体に合焦させるようフォーカスレンズを制御する。また、特定された分類に応じて、単写撮影(1枚の記録用画像を取得させる撮影)と連写撮影(複数枚の記録用画像を取得される撮影)を切り替えても良い。そして、上述の制御の後に、記録用画像の撮像を実行する。なお、CPU100は、撮像後の画像信号に対して、料理の画像に特有の画像処理(例えば、料理を撮影する場合に適したホワイトバランス調整)を施しても良い。
ステップS11において、CPU100は、ステップS10で実行させた記録用画像の撮像により得られた画像データと、S5で特定した分類情報と、S9で取得した位置情報とを関連付けて、付加情報(メタデータ)としてカード型記録媒体118に記録させ、ステップS12に進む。図7は、主画像データ(撮像した画像に係るデータ)に対して、位置情報と分類情報とを関連付けて記録した記録用画像のファイル構造を示した概念図である。これらの情報に加えて、さらに、方向情報、姿勢情報、キーワードを関連付けて記憶させても良い。
ステップS6において、CPU100は、全ての時間帯グループを参照したか否かを判定し、全ての時間帯グループを参照したと判断した場合(Yの場合)には、ステップS13に移行する。ステップS13において、CPU100は、共通グループを選定し、S14に移行する。ステップS14において、CPU100は、選定した共通グループのいずれかのキーワードに、ステップS1で取得した音声情報が一致するか否かを解析(取得した音声情報とキーワードとを比較)する。この解析は、周波数特性の比較による。一致した場合(Yの場合)には、ステップS15に移行し、一致しない場合(Nの場合)にはステップS12に移行する。
ステップS15において、CPU100は、シーン判定を行い、ステップS16に移行する。シーン判定は、撮像しようとしている被写体に最適な撮影モードを選定するため、スルー画像を解析することにより行われる処理であり、ここでは、「人物撮影モード」、「料理モード」、「逆光補正モード」、「夜景モード」、「風景モード」などの撮影モードのうちのいずれかが選定される。なお、これらを組み合わせて設定しても良い。ステップS16において、CPU100は、ステップS15で選定した撮影モードに応じた撮影条件を特定し、特定された撮影条件を記録用の画像の撮像条件として設定し、ステップS9に移行する。
なお、図5に示すキーワード群データベースにおいて、共通グループは、キーワードとなる言葉が時刻(日常的な行動)に関係せずに発せられることを想定して設けたグループである。例えば、「可愛い」「きれい」等のキーワードは、時間帯に依存せずに発言される可能性が高い。さらに、「可愛い」「きれい」等のキーワードを発したユーザーは、視認したものに対して感動を抱いている可能性が高い。したがってS11では、「可愛い」「きれい」等のキーワードに応じた撮影により得られた記録用画像に対して「非日常(感動)」の分類情報を関連付けて記録させる。一方で、時間帯グループに分別されている日常的に発せられるキーワードに応じた撮影により得られた記録用画像に対しては、「日常(起床)」「日常(朝食)」「日常(外出)」「日常(出社)」「日常(昼食)」「日常(退社)」「日常(夕飯)」等のいずれかの分類情報を記録用画像に対して関連付けて記録する。このような、関連付けにより、CPU100は、複数の記録用画像の中から「非日常」を示す画像または「日常」を示す画像を抽出することが容易となる。
なお、本実施形態では、共通グループを設けて、非日常的なキーワードについても対応できるようにしているが、ステップS13〜S16を削除して、ステップS6で全ての時間帯グループを参照したと判断された場合(Yの場合)に、ステップS12に移行するようにしてもよい。また、ステップS15およびS16において、「遠景モード」等の「被写界深度」を深くするような所定のシーンに対応する撮影条件を設定しても良い。
ステップS12において、CPU100は、ユーザーによりライフログモードの終了釦が操作されたか否かを判定する。終了釦が操作された場合(Yの場合)には、本ライフログ収集処理を終了する。終了釦が操作されていない場合(Nの場合)には、ステップ1に移行する。
以上で説明したライフログ収集処理により、例えば、図8のようなタイミングで静止画像を取得することが可能となるとともに、ユーザーの一日の生活において撮影された記録用の画像情報を分類情報に基づいて分類することができる。なお、図8では、「おはよう」、「いただきます」、「いってきます」、「おはようございます」、「いただきます」、「お疲れ様です」、「乾杯!」という一日の生活において発せられる音声(言葉)をトリガーとして、撮像が行われ、それぞれ「起床」、「朝食」、「外出」、「出社」、「昼食」、「退社」、「夕食」という分類情報がメタデータとして付加されて、画像記録がなされたことを示している。このようなライフログを例えば毎日収集し、例えば「朝食」という分類情報で検索することにより、日々の朝食の画像を見て楽しんだり、カロリー計算の基礎情報を得るため等に利用することができる。
上述した実施形態によると、ユーザーが撮像のタイミングを意識しなくても、適宜なタイミングで撮像することができ、ライフログ収集の利便性を大幅に向上することができる。なお、ユーザーがキーワードを意図的に発することにより、意図的に撮像することも可能である。また、キーワード群データベースに登録するキーワードを増減させることで、撮像のタイミングをユーザーがコントロールすることも可能である。さらに、上述した実施形態によると、参照するキーワード群を複数の時間帯グループに分別して、キーワード群データベースに設定したので、現在時刻が含まれる時間帯グループに属するキーワードを検索することができ、キーワード照合の処理を高速化することができる。
加えて、上述した実施形態によると、シーンに応じて最適な撮影条件を自動的に設定して撮像することができ、ユーザーの手を煩わせることなく、適切な画像をライフログとして記録することができる。また、上述した実施形態によると、ライフログとして記録する画像データにメタデータとして、位置情報および分類情報を付加しているので、地図に対応して画像をサムネイル表示したり、分類情報で分類して画像を表示することもでき、ライフログの検索を高効率的に行うことができる。
次に、本実施形態の変形例について説明する。
(1)ステップS11の処理に代えて、CPU100は、記録用画像の撮像により得られた画像データと分類情報と位置情報とを関連付けて、通信部114を介して外部装置2に転送するようにしても良い。画像処理は取得時にカメラ1において行っても良いし、画像データの転送後に外部装置2で行うようにしても良い。
(1)ステップS11の処理に代えて、CPU100は、記録用画像の撮像により得られた画像データと分類情報と位置情報とを関連付けて、通信部114を介して外部装置2に転送するようにしても良い。画像処理は取得時にカメラ1において行っても良いし、画像データの転送後に外部装置2で行うようにしても良い。
(2)本フローの開始の条件は、ユーザーの姿勢状態に基づく条件でも良い。例えば、ユーザーの所定の身体の部位に姿勢センサーと無線送信部を有する姿勢検出装置を備え付け、姿勢検出装置から送信された姿勢情報を通信部114の無線受信部が受信し、CPU100は受信した姿勢情報に応じてユーザーが寝ている状態か起き上がっている状態かを判定する。例えば、起き上がっている状態と判定された場合には、本フローを開始する。さらに、CPU100により寝ている状態が一定時間以上検出された場合には、本フローを強制的に終了させてもよい。
(3)本フローの開始の条件は、所定の時刻範囲(例えば1時間)として設け、その所定の時刻範囲において、予め登録された目覚まし時計の音や、ユーザーがしゃべる合言葉等がマイクから取得された場合に本フローを開始させてもよい。この場合、一日ごとに本フローを開始させたいタイミングが異なっても、所定の時刻範囲において、例えば、起床のタイミングに合わせて開始させたり、ユーザーの所望のタイミングで開始させたりすることができる。
(4)また、上記の(1)ではCPU100はユーザーの姿勢を判定したが、CPU100は加速度センサーの出力等によりユーザーの姿勢の変化を判定し、閾値以上の変化が検出された場合に本フローを開始してもよい。
(4)また、上記の(1)ではCPU100はユーザーの姿勢を判定したが、CPU100は加速度センサーの出力等によりユーザーの姿勢の変化を判定し、閾値以上の変化が検出された場合に本フローを開始してもよい。
(5)また、上述した実施形態では、ライフログとして静止画像を記録させるものとして説明したが、動画像を記録する場合でも良い。この場合、撮影条件として、各時間帯グループごとに、撮影期間を設定しておくと良い。
(6)上述のカメラ1をピアス、ペンダント、ブローチなどの他の装飾品、眼鏡(視力矯正用眼鏡、サングラスなど)、その他の身体に装着される物品などに設けても良い。また、コンパクトカメラや一眼レフカメラ、撮像機能付き携帯電話やPDAなど、例えば首に掛けて用いることができる装置に設けても良い。
(7)上述のカメラ1を2つ1組に構成し、両耳にそれぞれ装着し、所定の視差を有するほぼ同時に撮像された記録用画像を2つ1組として取得しても良い。すなわち、図2および図3において、左右両側耳用のイヤリング1R,1Lのそれぞれにカメラ1を組み込んでも良い。これにより、立体画像を得ることができる。
(7)上述のカメラ1を2つ1組に構成し、両耳にそれぞれ装着し、所定の視差を有するほぼ同時に撮像された記録用画像を2つ1組として取得しても良い。すなわち、図2および図3において、左右両側耳用のイヤリング1R,1Lのそれぞれにカメラ1を組み込んでも良い。これにより、立体画像を得ることができる。
(8)上述のカメラ1は休日と平日とにそれぞれ適した分類情報を付加するように、および、それぞれに適した撮影条件を設定するように構成してもよい。フラッシュRAM102には、平日用の時間帯グループと休日用の時間帯グループとに分別してそれぞれの時間帯に適したキーワード群および分類が設定されたキーワード郡データベースが記録し、さらに、カレンダーデータベース(年月日とその年月日が休日または平日であるのかを示す情報とを対応付けて記録したデータベース)が記録するものとする。さらに、休日特有の分類が存在する場合には、フラッシュRAMにはその分類に対応する撮影条件が記録しておくものとする。
図4に示したライフログ収集処理のフローチャートに追加する処理について説明する。ステップS5よりも前段階に、CPU100が、カメラ1のタイマー112から取得した日時情報から現在の日付である年月日を特定し、カレンダーデータベースを参照し、現在の日付(年月日)が平日か休日かを判定するというステップを追加する。この前段階の判定結果を利用することにより、ステップS5において、CPU100は平日用の時間帯グループ、または、休日用の時間帯グループを参照してキーワードを検索することが可能になる。
例えば、休日用の時間帯グループとして、時間帯に「5:00〜6:00」を設定し、キーワード群に「わんわん(犬の鳴き声)」(ここでは犬の鳴き声を示す音声等もキーワードとして扱う)を設定し、分類に「犬の散歩」を設定する。このように、休日用の時間帯グループとして、平日の時間帯グループとは異なる時間帯の時間帯グループを設定しても良い。さらに、撮影条件データベースには、分類の「犬の散歩」に対応する撮影条件としてペット撮影に適したモードを設定する。例えば、撮影条件として「ペット撮影モード(ペットの顔認識+認識したペットの顔にAF+認識したペットの顔に基づいて画角調整、単写)」を設定する。他のステップの処理については上述した実施形態と同様に実行されるものとする。
また、休日用のグループ7として時間帯に「9:00〜18:00」を設定した場合に、この時間帯に対応する分類には、グループ2に示すような「出社」および「退社」等の出勤に関連するキーワードは含まれないことが好ましい。例えば、休日用のグループ7のキーワード群の「おはようございます」に対応した分類として「休日に会った人」、「お疲れ様でした」および「ご苦労様でした」および「さようなら」に対応した分類として「休日に会っていた人」を設定する。なお、分類の「休日に会った人」および「休日に会っていた人」に対応する撮影モードとして、上述の人物撮影モードが設定されるものとする。このようにして、現在の年月日が休日か平日かに応じて、好適な分類情報を付加することができるとともに、例えば休日の場合には平日のキーワード群は参照しない(もしくは平日の木ワードを参照する順番を後にする)ことにより、キーワードの照合の処理を効率良く実行できる。
(9)上記の(8)には、CPU100が現在の日付である年月日から休日か平日かを特定するという処理を示したが、この代わりにCPU100が現在の日付である年月日から季節を特定し季節に適した分類情報を付加するように、および、季節に適した撮影条件を設定するように構成しても良い。
(10)キーワード群データベース、撮影条件データベース、および、カレンダーデータベースはカメラ1の出荷時点で予めフラッシュRAM102に記録されていることが好ましいが、カメラ1の使用者がキーワード群データベース、撮影条件データベース、および、カレンダーデータベースを任意に設定または変更し、設定または変更したこれらのデータベースをフラッシュRAM102に記録して利用可能なように構成しても良い。
なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。従って、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
1…カメラ、2…外部装置、100…CPU、102…フラッシュRAM、104…マイク部、105…レンズ、106…撮像部、108A…GPSセンサー、108B…方位センサー、108C…姿勢センサー、110…一次記憶媒体、112…タイマー、114…通信部、118…カード型記録媒体。
Claims (7)
- 被写体像を撮像し、画像データを出力する撮像部と、
音声を取得するマイク部と、
複数のグループに分別してキーワードを記録するキーワード記録部と、
時刻情報を出力するタイマーと、
前記時刻情報に応じて参照するキーワードのグループの順番を決定する順番決定部と、
前記マイク部により取得された音声と前記キーワードとを、前記順番決定部により決定されたグループごとに順番に比較する比較部と、
前記比較部による比較結果に応じて、前記撮像部により記録用の画像データを取得させる撮像制御部と
を有することを特徴とするデジタルカメラ。 - 前記比較部による比較結果に応じた第1の分類情報を付加情報として前記記録用の画像データに付加して記録媒体に記録させる記録制御部をさらに有することを特徴とする請求項1に記載のデジタルカメラ。
- 被写体像を撮像し、画像データを出力する撮像部と、
音声を取得するマイク部と、
複数のグループに分別してキーワードを記録するキーワード記録部と、
時刻情報を出力するタイマーと、
前記マイク部により取得された音声と前記キーワードとを比較し、前記音声に対応するキーワードを特定する特定部と、
前記特定部により特定されたキーワードおよび前記時刻情報に応じて撮影条件を決定する決定部と、
前記決定部より決定された前記撮影条件で、前記撮像部により記録用の画像データを取得させる撮像制御部と
を有することを特徴とするデジタルカメラ。 - 前記特定部により特定されたキーワードに関する第1の分類情報を付加情報として前記記録用の画像データに付加して記録媒体に記録させる記録制御部をさらに有することを特徴とする請求項3に記載のデジタルカメラ。
- 請求項1〜4のいずれか一項に記載のデジタルカメラにおいて、
前記記録用の画像データに付加する情報を得るためのセンサー部をさらに有し、
前記記録制御部は、前記センサー部により得られた情報を第2の分類情報として前記記録用の画像データに付加して記録させることを特徴とするデジタルカメラ。 - 請求項5に記載のデジタルカメラにおいて、
前記センサー部は、位置および姿勢の少なくとも一方に関連する情報を出力することを特徴とするデジタルカメラ。 - 請求項1〜6のいずれか一項に記載のデジタルカメラにおいて、
前記記録用の画像データを転送する通信部をさらに有し、
前記記録制御部は、前記通信部を介して外部装置に前記記録用の画像を送信させることを特徴とするデジタルカメラ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012021820A JP2013162277A (ja) | 2012-02-03 | 2012-02-03 | デジタルカメラ |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012021820A JP2013162277A (ja) | 2012-02-03 | 2012-02-03 | デジタルカメラ |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013162277A true JP2013162277A (ja) | 2013-08-19 |
Family
ID=49174207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012021820A Pending JP2013162277A (ja) | 2012-02-03 | 2012-02-03 | デジタルカメラ |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013162277A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015135206A (ja) * | 2014-01-17 | 2015-07-27 | パナソニックIpマネジメント株式会社 | 冷蔵庫 |
JP2016129315A (ja) * | 2015-01-09 | 2016-07-14 | キヤノン株式会社 | 表示装置、撮像装置、撮像システム、表示装置の制御方法、撮像装置の制御方法、プログラム、及び記録媒体 |
US10176693B2 (en) | 2016-02-05 | 2019-01-08 | Leola Brantley | Security and tracking systems and related methods |
US20190141428A1 (en) * | 2016-06-03 | 2019-05-09 | Nova Products Gmbh | EAR JEWELRY WITH INTEGRATED HEADSET (as-amended) |
US10431065B2 (en) | 2016-02-05 | 2019-10-01 | Leola Brantley | Security and tracking systems and associated methods |
JP2022012926A (ja) * | 2020-07-02 | 2022-01-18 | 秋夫 湯田 | 人との接触記録装置。 |
JP7040664B1 (ja) | 2021-10-28 | 2022-03-23 | トヨタ自動車株式会社 | データ収集装置、データ取得装置及びデータ収集方法 |
-
2012
- 2012-02-03 JP JP2012021820A patent/JP2013162277A/ja active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015135206A (ja) * | 2014-01-17 | 2015-07-27 | パナソニックIpマネジメント株式会社 | 冷蔵庫 |
JP2016129315A (ja) * | 2015-01-09 | 2016-07-14 | キヤノン株式会社 | 表示装置、撮像装置、撮像システム、表示装置の制御方法、撮像装置の制御方法、プログラム、及び記録媒体 |
US10176693B2 (en) | 2016-02-05 | 2019-01-08 | Leola Brantley | Security and tracking systems and related methods |
US10431065B2 (en) | 2016-02-05 | 2019-10-01 | Leola Brantley | Security and tracking systems and associated methods |
US20190141428A1 (en) * | 2016-06-03 | 2019-05-09 | Nova Products Gmbh | EAR JEWELRY WITH INTEGRATED HEADSET (as-amended) |
US10993015B2 (en) * | 2016-06-03 | 2021-04-27 | Nova Products Gmbh | Ear jewelry with integrated headset |
JP2022012926A (ja) * | 2020-07-02 | 2022-01-18 | 秋夫 湯田 | 人との接触記録装置。 |
JP7040664B1 (ja) | 2021-10-28 | 2022-03-23 | トヨタ自動車株式会社 | データ収集装置、データ取得装置及びデータ収集方法 |
JP2023066235A (ja) * | 2021-10-28 | 2023-05-15 | トヨタ自動車株式会社 | データ収集装置、データ取得装置及びデータ収集方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10498944B2 (en) | Wearable apparatus with wide viewing angle image sensor | |
JP2013162277A (ja) | デジタルカメラ | |
KR102354428B1 (ko) | 이미지를 분석하기 위한 웨어러블기기 및 방법 | |
JP4912410B2 (ja) | 自動キャプチャモード | |
EP2899609B1 (en) | System and method for name recollection | |
US10019625B2 (en) | Wearable camera for reporting the time based on wrist-related trigger | |
JP6248937B2 (ja) | コンテンツ取得装置、携帯装置、サーバ、情報処理装置及び記憶媒体 | |
JP6028457B2 (ja) | 端末装置、サーバ及びプログラム | |
WO2016088602A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2020077494A1 (zh) | 智能拍照方法、系统及相关装置 | |
JPWO2014030407A1 (ja) | 制御装置および記憶媒体 | |
US20180232384A1 (en) | Methods and apparatus for information capture and presentation | |
KR20150109993A (ko) | 사용자의 선호 감정 패턴을 결정하는 방법 및 시스템 | |
US20220374069A1 (en) | Wearable systems and methods for locating an object | |
JP2016066125A (ja) | 情報検索システム、計測情報取得端末、画像情報取得端末、検索サーバ、情報検索方法及びプログラム |