JP2009111571A - Imaging apparatus, image index attaching method, image index attaching system, information processor - Google Patents
Imaging apparatus, image index attaching method, image index attaching system, information processor Download PDFInfo
- Publication number
- JP2009111571A JP2009111571A JP2007280125A JP2007280125A JP2009111571A JP 2009111571 A JP2009111571 A JP 2009111571A JP 2007280125 A JP2007280125 A JP 2007280125A JP 2007280125 A JP2007280125 A JP 2007280125A JP 2009111571 A JP2009111571 A JP 2009111571A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- person
- information
- captured image
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置として、特に使用者の操作に基づかずに撮像画像データを自動的に取り込むようにされた撮像装置、及び上記撮像画像データに対してインデックスを付すための画像インデックス付与方法に関する。また、撮像装置と情報処理装置とを含んで構成される画像インデックス付与システム、及び情報処理装置に関する。 The present invention relates to an imaging apparatus that automatically captures captured image data without being based on a user's operation as an imaging apparatus, and an image index assigning method for indexing the captured image data. . The present invention also relates to an image indexing system including an imaging device and an information processing device, and the information processing device.
例えばライフログカメラなどとして、ユーザが装着しているカメラが自動的に定期的な画像撮像を行うことで、ユーザが日常生活で目にする光景を画像データとして記録するカメラが提案されている。このライフログカメラを使用することで、ユーザの行動履歴や思い出などを、画像データとして残すことが可能となる。
また近年、インターネット上では日記風の記録(例えばブログなど)の公開が増加してきているが、上記のようなライフログカメラは、例えばこのようなブログの写真素材の調達用途にも好適となる。
For example, a camera that records a scene that the user sees in daily life as image data by automatically taking a periodic image with a camera worn by the user, such as a life log camera, has been proposed. By using this life log camera, it becomes possible to leave a user's action history, memories, etc. as image data.
In recent years, the publication of diary-like records (for example, blogs) has been increasing on the Internet, but the life log camera as described above is also suitable for use in, for example, procurement of photographic material for such blogs.
なお、関連する従来技術については下記の特許文献を挙げることができる。
ここで、上記のように定期的な自動撮像を行うライフログカメラをユーザが装着し日常の行動を行った場合、大量の画像データが撮影・保存されることが想定される。例えば自動撮像として10秒おきに画像データを取り込むとした場合、単純計算で半日(12時間)あたり4320枚もの画像データが保存されることになる。 Here, when a user wears a life log camera that performs periodic automatic imaging as described above and performs daily actions, it is assumed that a large amount of image data is captured and stored. For example, when image data is captured every 10 seconds for automatic imaging, as many as 4320 image data are stored per half day (12 hours) by simple calculation.
このように大量な画像データが保存されてしまうと、ユーザが一日の行動を振り返るとしても、保存画像を順に閲覧することは非常な負担となる。つまり、自動撮像を行う装置において、このように大量に保存される画像の閲覧について何ら工夫が凝らされない場合は、ユーザに効率的に行動履歴を振り返らせることができなくなってしまい、システムの有用性を著しく害するものとなってしまう。 If a large amount of image data is stored in this manner, even if the user looks back on the behavior of the day, it is very burdensome to browse the stored images in order. In other words, in an apparatus that performs automatic imaging, if there is no contrivance for browsing images that are stored in large quantities in this way, the user will not be able to efficiently look back on the action history, and the usefulness of the system Will be seriously harmful.
本発明では以上ような点に鑑み、例えばライフログ用途などで自動撮像を行う場合において、膨大な保存量となる画像のうちユーザにとって重要とされる画像が効率的に閲覧されるようにすることを目的とする。
このために本発明では、撮像装置として以下のように構成することとした。
つまり、被写体を撮像して撮像画像データを得る撮像手段と、制御手段とを備える。
そして、上記制御手段は、
上記撮像手段により得られる撮像画像データを使用者の操作に基づかず自動的に取り込む撮像画像自動取込処理と、
入力情報に基づき人と会っていると推定できる状態であるか否かを判別する判別処理と、
上記判別処理により人と会っていると推定できる状態であると判別した場合に、上記撮像画像自動取込処理により取り込まれた上記撮像画像データに対してインデックスが付されるように制御するインデックス付与処理とを実行するものである。
In the present invention, in view of the above points, for example, when performing automatic imaging for life log use, an image that is important for the user among images that have a large storage amount is efficiently browsed. With the goal.
Therefore, in the present invention, the imaging apparatus is configured as follows.
That is, an imaging unit that captures an image of a subject and obtains captured image data and a control unit are provided.
And the control means
A captured image automatic capture process that automatically captures captured image data obtained by the imaging means without the user's operation;
A determination process for determining whether or not it is in a state where it can be estimated that a person is met based on input information;
Indexing for controlling the captured image data captured by the captured image automatic capturing process to be indexed when it is determined that the person can be estimated to meet the person through the determining process. Process.
また、上記制御手段による上記判別処理では、上記撮像手段により得られる撮像画像データについての画像解析結果に基づき、人と会っていると推定できる状態であるか否かを判別する。例えば、上記撮像画像データ内に人の顔と推定できる画像が含まれているか否かについての画像解析結果に基づき、人と会っていると推定できる状態であるか否かを判別する。
或いは、上記判別処理では、外部音を収音して得られた収音データについての音声解析結果に基づき人と会っていると推定できる状態であるか否かを判別する。例えば、所定の声紋データが記憶された記憶手段をさらに備え、上記判別処理では、上記収音データ内に上記声紋データと一致するとされるデータ部分が存在するか否かについての音声解析結果に基づき、人と会っていると推定できる状態であるか否かを判別する。
或いは、外部装置との間で近距離無線通信を行う近距離無線通信手段を備えると共に、上記判別処理では、上記近距離無線通信手段による通信可能範囲に他の装置が存在するか否かを判別することで、人と会っていると推定できる状態であるか否かを判別する。
Further, in the determination processing by the control means, it is determined whether or not it is possible to estimate that the person is meeting with a person based on the image analysis result of the captured image data obtained by the imaging means. For example, based on the image analysis result regarding whether or not the image that can be estimated to be a human face is included in the captured image data, it is determined whether or not it is possible to estimate that the person is meeting a person.
Alternatively, in the determination process, it is determined whether or not it can be estimated that the user is meeting with a person based on the sound analysis result of the sound collection data obtained by collecting the external sound. For example, it further comprises storage means for storing predetermined voiceprint data, and in the discrimination process, based on a voice analysis result as to whether or not there is a data portion that matches the voiceprint data in the collected sound data. It is determined whether or not it is in a state where it can be estimated that the person is met.
Alternatively, a short-range wireless communication unit that performs short-range wireless communication with an external device is provided, and in the determination process, it is determined whether or not another device exists in a communicable range of the short-range wireless communication unit. By doing so, it is determined whether or not it is in a state where it can be estimated that a person is met.
また、本発明では、情報処理装置と、上記情報処理装置との間でデータ通信が可能に構成された複数の撮像装置とを含んで構成される画像インデックス付与システムとして以下のように構成することとした。
つまり、上記情報処理装置は、以下の各処理を実行する情報処理装置側制御手段を備える。
すなわち、データ通信を行って上記撮像装置の所在位置に関する情報を取得する位置情報取得処理と、
上記位置情報取得処理により取得した上記撮像装置の上記所在位置に関する情報に基づき、所定範囲内に他の撮像装置が存在する撮像装置を検索する検索処理と、
上記検索処理による検索の結果、上記所定範囲内に他の撮像装置が存在するとして特定した撮像装置に対して通知を行う通知処理とを実行する情報処理装置側制御手段を備える。
また、上記撮像装置は、被写体を撮像して撮像画像データを得る撮像手段と、撮像装置側制御手段とを備える。
そして、上記撮像装置側制御手段は、
上記撮像手段により得られる撮像画像データを使用者の操作に基づかず自動的に取り込む撮像画像自動取込処理と、
上記情報処理装置側における上記通知処理による通知に基づき、上記撮像画像自動取込処理により自動的に取り込まれた上記撮像画像データに対してインデックスが付されるように制御するインデックス付与処理とを実行する。
In the present invention, an image index assigning system including the information processing device and a plurality of imaging devices configured to be capable of data communication with the information processing device is configured as follows. It was.
That is, the information processing apparatus includes information processing apparatus side control means for executing the following processes.
That is, position information acquisition processing for performing data communication to acquire information on the location of the imaging device;
A search process for searching for an imaging apparatus in which another imaging apparatus exists within a predetermined range based on information on the location of the imaging apparatus acquired by the position information acquisition process;
As a result of the search by the search process, there is provided an information processing apparatus side control means for executing a notification process for notifying an imaging apparatus identified as having another imaging apparatus within the predetermined range.
Further, the imaging apparatus includes an imaging unit that captures an image of a subject and obtains captured image data, and an imaging apparatus side control unit.
And the said imaging device side control means is
A captured image automatic capture process that automatically captures captured image data obtained by the imaging means without the user's operation;
Based on the notification by the notification process on the information processing apparatus side, an indexing process is performed to control the captured image data automatically captured by the captured image automatic capture process to be indexed. To do.
また、本発明では情報処理装置として以下のように構成することとした。
すなわち、本発明の情報処理装置は、現在位置を検出する位置検出手段を備え、且つ撮像画像データを使用者の操作に基づかず自動的に取り込むようにされた複数の撮像装置との間でデータ通信が可能に構成された情報処理装置であって、以下の処理を実行する制御手段を備えるものである。
すなわち、上記撮像装置における上記位置検出手段により検出された現在位置情報を取得する位置情報取得処理と、
上記位置情報取得処理により取得した上記位置情報に基づき、所定範囲内に他の撮像装置が存在する撮像装置を検索する検索処理と、
上記検索処理による検索の結果、上記所定範囲内に他の撮像装置が存在するとして特定した撮像装置に対して通知を行う通知処理とを実行する制御手段を備えるものである。
In the present invention, the information processing apparatus is configured as follows.
That is, the information processing apparatus of the present invention includes position detection means for detecting the current position, and data between a plurality of imaging apparatuses that are automatically captured image data without being based on user operations. An information processing apparatus configured to be able to communicate, and includes a control unit that executes the following processing.
That is, position information acquisition processing for acquiring current position information detected by the position detection means in the imaging device;
Based on the position information acquired by the position information acquisition process, a search process for searching for an image pickup apparatus in which another image pickup apparatus exists within a predetermined range;
As a result of the search by the search process, there is provided control means for executing a notification process for notifying an image pickup apparatus specified as having another image pickup apparatus within the predetermined range.
上記本発明によれば、撮像装置を携帯したユーザが人と会っているとされる状態にあるか否かの判別結果に応じて、自動撮像された画像データに対してインデックスを付すことができる。このとき、人と会っているとされる状態であるか否かの判別は、例えば(1)撮像画像データに人の顔に該当する画像が映し出されているか否か、(2)収音音声データに所定の声紋データと一致する部分が検出されたか否か、(3)装置間の位置関係として所定範囲内に他の装置(ユーザ)が存在するか否か、のうち少なくとも何れかの条件成立有無を判別することで行うことができる。
ここで、ユーザの日常生活において、重要な出来事は、ユーザが他の人物と対面している、会話している、又は一緒に行動しているなど、ユーザが他の人物と会っている状態で多く発生すると考えることができる。上記本発明によれば、このように日常生活の中で重要点であると考えられる、ユーザが他の人物と会っているとされる状況下で自動撮像された画像データに対して、インデックスを付与することができる。
According to the present invention, an index can be attached to automatically captured image data in accordance with a determination result as to whether or not the user who carries the imaging device is in a state where he / she is meeting a person. . At this time, it is determined whether or not the person is in a state of meeting with a person. For example, (1) whether or not an image corresponding to a person's face is displayed in the captured image data, and (2) sound pickup sound At least one of the following conditions: whether or not a portion matching the predetermined voiceprint data is detected in the data, and (3) whether or not another device (user) exists within a predetermined range as a positional relationship between the devices. This can be done by determining whether or not it is established.
Here, in the user's daily life, an important event is that the user is meeting other people, such as being facing other people, having a conversation, or acting together. It can be considered that many occur. According to the present invention described above, an index is assigned to image data that is automatically captured in a situation where the user is meeting with another person, which is considered to be an important point in daily life. Can be granted.
本発明によれば、自動撮像を行う撮像装置において、ユーザが他の人物と会っているとされる状況下で撮像された画像データに対してインデックスを付すことができる。このことで、自動撮像により大量に保存される画像データについて、重要とされる部分とそうでない部分とを分別することができる。
すなわち、このようなインデックスの付与によって、自動撮像により大量に保存された画像データを、ユーザに効率的に閲覧させることができ、行動履歴を振り返るにあたってのユーザ負担を効果的に削減することができる。このことで、例えばユーザの日常生活を記録しそれを振り返らせるといったシステムを、より有用性の高いものとして実現することができる。
According to the present invention, in an imaging apparatus that performs automatic imaging, it is possible to add an index to image data captured in a situation where the user is meeting another person. With this, it is possible to separate a part that is important and a part that is not so from image data stored in large quantities by automatic imaging.
That is, by providing such an index, it is possible to allow a user to efficiently browse a large amount of image data stored by automatic imaging, and it is possible to effectively reduce the user burden when looking back on the action history. . Thus, for example, a system that records and reflects the daily life of the user can be realized as a more useful system.
以下、本発明を実施するための最良の形態(以下、実施の形態とする)について説明する。
<第1の実施の形態>
[撮像装置の外観例]
実施の形態の撮像装置1としては、各種の形態が想定されるが、それらの外観例を図1(a)(b)(c)に例示する。
先ず、図1(a)は、首かけタイプ(吊り下げタイプ)の撮像装置1を示している。この撮像装置1は、例えばストラップを取り付ける部位を持ち、この部位にストラップを取り付けて図示するようにユーザの首にかけることで装着される。ユーザは、撮像装置1が備える撮像レンズ3Lがユーザの正面方向を被写体方向として撮像出来るように装着すればよい。
なお、図示していないが、例えば撮像装置1の背面部などに、撮像モニタ用や撮像画像の再生などに用いる表示部が設けられてもよい。
Hereinafter, the best mode for carrying out the present invention (hereinafter referred to as an embodiment) will be described.
<First Embodiment>
[External appearance of imaging device]
Various forms are assumed as the
First, FIG. 1A shows an
Although not shown, for example, a display unit used for an imaging monitor or reproduction of a captured image may be provided on the back surface of the
図1(b)は、眼鏡型ディスプレイカメラとした撮像装置1を示している。撮像装置1は、例えば両側頭部から後頭部にかけて半周回するようなフレームの構造の装着ユニットを持ち、図のように両耳殻にかけられることでユーザに装着される。
この撮像装置1は、ユーザが装着した状態において、ユーザの視界方向を被写体方向として撮像するように、前方に向けて撮像レンズ3Lが配置されている。
また、図示のような装着状態において、ユーザの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の表示部5、5が配置される構成とされている。この表示部5には、例えば液晶パネルが用いられ、透過率を制御することで、図のようなスルー状態、即ち透明又は半透明の状態とできる。表示部5がスルー状態とされることで、眼鏡のようにユーザが常時装着していても、通常の生活には支障がない。
なお、表示部5は、両眼に対応して一対設けられる他、片側の眼に対応して1つ設けられる構成も考えられる。
図1(c)は、上記表示部5が設けられない外観例を示している。
FIG. 1B shows an
In the
Further, in the wearing state as shown in the figure, a pair of
In addition to a pair of
FIG. 1C shows an example of the appearance in which the
図1では、首かけタイプ、或いは眼鏡型などの撮像装置1を挙げたが、ユーザが撮像装置1を装着するための構造は多様に考えられる。例えばヘッドフォン型、ネックバンドタイプ、耳掛け式など、どのような装着ユニットでユーザに装着されるものであってもよい。さらには、例えば通常の眼鏡やバイザー、或いはヘッドフォン等に、クリップなどの取付具で取り付けることでユーザに装着させる形態であってもよい。また必ずしもユーザの頭部に装着されるものでなくてもよい。
また、図1(a)の場合、撮像方向をユーザの正面方向としているが、装着時にユーザの後方を撮像するように撮像装置1を首にかけるように装着してもよい。
そして、図1(b)(c)の場合は、撮像方向をユーザの視界方向としているが、装着時にユーザの後方、側方、上方、足下方向などを撮像するように撮像レンズ3Lが取り付けられている構成や、撮像方向が同一又は異なる方向とされた複数の撮像系が設けられている構成も考えられる。
さらに、図1(a)(b)(c)において、1又は複数の撮像レンズ3Lについて、被写体方向を手動又は自動で変更できる撮像方向可変機構を設けてもよい。
In FIG. 1, the neck-mounted type or the eyeglass-
In addition, in the case of FIG. 1A, the imaging direction is the front direction of the user, but the
In the case of FIGS. 1B and 1C, the imaging direction is the user's field of view, but the
Furthermore, in FIGS. 1A, 1B, and 1C, an imaging direction variable mechanism that can change the subject direction manually or automatically may be provided for one or a plurality of
なお、動画や静止画撮像を行う撮像装置として、これら図1(a)(b)(c)に示す以外の形態も考えられることは言うまでもない。例えば、車に設置可能な撮像装置であって車内や、或いは車外を撮像することが可能な撮像装置1も本実施の形態として想定できる。例えば車室内を撮像するように取り付けられた撮像装置や、車の前方風景、後方風景等を撮像するように取り付けられた撮像装置である。
また、携帯電話機やPDA(Personal Digital Assistant)、携帯用パーソナルコンピュータなどの機器であって、撮像装置としての機能を備えているものも本実施の形態の撮像装置1として想定できる。
また、これらの各種形態において、例えば外部音声を集音するマイクロフォンを設け、撮像時に、画像データと共に記録する音声信号を得るようにしてもよい。また音声出力を行うスピーカ部やイヤホン部を形成するようにしてもよい。
また、撮像レンズ3Lの近辺に、被写体方向への照明を行う発光部を、例えばLED(Light Emitting Diode)等により設けたり、静止画撮像のためのフラッシュ発光部を設けることも考えられる。
Needless to say, forms other than those shown in FIGS. 1A, 1B, and 1C are also conceivable as an imaging apparatus that captures moving images and still images. For example, an
Further, an apparatus such as a mobile phone, a PDA (Personal Digital Assistant), and a portable personal computer that has a function as an imaging apparatus can be assumed as the
In these various forms, for example, a microphone that collects external sound may be provided, and an audio signal to be recorded together with image data may be obtained during imaging. Further, a speaker unit and an earphone unit that perform audio output may be formed.
It is also conceivable that a light emitting unit that performs illumination in the direction of the subject is provided in the vicinity of the
[撮像装置の内部構成例]
続いて、実施の形態の撮像装置1の内部構成例について説明する。
図2は、撮像装置1の内部構成を示すブロック図である。
図示するようにして撮像装置1は、システムコントローラ2、撮像部3、撮像制御部4、表示部5、表示制御部6、操作入力部7、ストレージ部8、通信部9、画像解析部10、音声解析部11、バス12、音声入力部13を有する。
[Example of internal configuration of imaging device]
Next, an internal configuration example of the
FIG. 2 is a block diagram illustrating an internal configuration of the
As illustrated, the
システムコントローラ2は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ部、インターフェース部を備えたマイクロコンピュータにより構成され、撮像装置1の全体を制御する制御部とされる。このシステムコントローラ2は内部のROM等に保持したプログラムに基づいて、各種演算処理やバス12を介した各部と制御信号等のやりとりを行い、各部に所要の動作を実行させる。
The
撮像部3は、撮像光学系3a、撮像素子部3b、撮像信号処理部3cを有する。
撮像部3における撮像光学系3aには、図1に示した撮像レンズ3Lや、絞り、ズームレンズ、フォーカスレンズなどを備えて構成されるレンズ系と、レンズ系に対してフォーカス動作やズーム動作を行わせるための駆動系等が備えられる。
また撮像部3における撮像素子部3bには、撮像光学系3aで得られる撮像光を検出し、光電変換を行うことで撮像信号を生成する固体撮像素子アレイが設けられる。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイとされる。
また撮像部3における撮像信号処理部3cは、固体撮像素子によって得られる信号に対するゲイン調整や波形整形を行うサンプルホールド/AGC(Automatic Gain Control)回路や、ビデオA/Dコンバータを備え、デジタルデータとしての撮像画像データを得る。また撮像画像データに対してホワイトバランス処理、輝度処理、色信号処理などを行う。
The
The imaging
The
The imaging
これらの撮像光学系3a、撮像素子部3b、撮像信号処理部3cを有する撮像部3により、撮像が行われ、撮像画像データが得られる。
この撮像部3の動作によって得られた画像データは、撮像制御部4で処理される。
撮像制御部4は、システムコントローラ2の制御に従って、撮像画像データを各種の圧縮率で圧縮する画像圧縮処理や、画サイズ変換処理、画像フォーマット変換処理などの処理を行い、また動作状況に応じて、撮像画像データをストレージ部8、表示制御部6、通信部9などへ転送する処理を行う。
また撮像制御部4はシステムコントローラ2の指示に基づいて、撮像部3における撮像のオン/オフ制御、シャッタ処理、撮像光学系3aのズームレンズ、フォーカスレンズの駆動制御、撮像素子部3bの感度やフレームレートの制御、撮像信号処理部3cの各処理のパラメータ制御や実行処理の設定なども行う。
Imaging is performed by the
Image data obtained by the operation of the
The imaging control unit 4 performs processing such as image compression processing for compressing captured image data at various compression ratios, image size conversion processing, and image format conversion processing according to the control of the
Further, the imaging control unit 4 controls on / off of imaging in the
撮像装置1においてユーザに対して表示を行う構成としては、表示部5、表示制御部6が設けられる。
この表示部5には、液晶ディスプレイ等の表示パネル部と、該表示パネル部を表示駆動する表示駆動部が設けられる。表示駆動部は、撮像制御部4から供給される画像データを表示パネル部に表示させるための画素駆動回路で構成されている。画素駆動回路は表示パネル部においてマトリクス状に配置されている各画素について、それぞれ所定の水平/垂直駆動タイミングで映像信号に基づく駆動信号を印加し、表示を実行させる。
A
The
表示制御部6は、システムコントローラ2の制御に基づいて、表示部5における画素駆動回路を駆動し所定の表示を実行させる。例えば撮像部3で撮像された画像のモニタ表示や、ストレージ部8で再生された画像の表示などが実行される。
またこれらの表示のために、例えば輝度レベル調整、色補正、コントラスト調整、シャープネス(輪郭強調)調整などを行うことができる。また画像データの一部を拡大した拡大画像の生成、或いは縮小画像の生成、ソフトフォーカス、モザイク、輝度反転、画像内の一部のハイライト表示(強調表示)、全体の色の雰囲気の変化などの画像エフェクト処理なども行うことができる。
The display control unit 6 drives the pixel driving circuit in the
For these displays, for example, brightness level adjustment, color correction, contrast adjustment, sharpness (outline emphasis) adjustment, and the like can be performed. Also, generation of an enlarged image obtained by enlarging a part of the image data, generation of a reduced image, soft focus, mosaic, luminance inversion, highlight display (highlight display) of a part of the image, change in atmosphere of the whole color, etc. Image effect processing can also be performed.
操作入力部7は、例えばキー、ボタン、ダイヤル等の操作子を有するようにし、例えば、電源オン/オフ操作や、自動撮像に関連する操作のための操作子や、所要の入力操作のための操作子が形成される。また、自動撮像だけでなく、ユーザのシャッタ操作に応じた撮像も可能とする場合は、撮像に関するユーザ操作として例えばシャッタ操作、ズームの操作、露出の設定操作、セルフタイマ操作などに用いる操作子が形成されるようにしてもよい。
操作入力部7は、このような操作子から得られる情報をシステムコントローラ2に供給し、システムコントローラ2はこれらの情報に対応した必要な演算処理や制御を行う。
The operation input unit 7 has operation elements such as keys, buttons, and dials. For example, an operation element for power on / off operation, an operation related to automatic imaging, a required input operation, and the like. An operator is formed. When not only automatic imaging but also imaging in accordance with the user's shutter operation is possible, for example, an operator used for shutter operation, zoom operation, exposure setting operation, self-timer operation, etc. It may be formed.
The operation input unit 7 supplies information obtained from such an operator to the
画像解析部10は、撮像制御部4から供給される撮像画像データに基づき、撮像装置1のユーザが他の人物と会っていると推定できる状態であるか否かの判別を可能とするための画像解析処理を行う。
この画像解析部10では、上記撮像画像データ内における人の顔と認識できる(推定できる)データ部分を検出する画像解析処理を行う。この解析処理は、例えば周知の顔認識技術を用いて実現することができる。
また、特にこの場合の画像解析部10では、通りすがりの人物が検出されてしまうことの防止を図るために、同一の顔と認識できるデータ部分が検出される時間長が所定長以上であることを条件として追加している。すなわち、人の顔と認識できるデータ部分が検出されてから、同一の顔とされるデータ部分が検出される時間長が上記所定長以上となることを以て、人の顔と認識できるデータ部分が検出された旨の検出情報を得るものである。
The
The
In particular, in this case, in order to prevent the passing person from being detected, the
画像解析部10は、上記画像解析処理により上記撮像画像データ内に人の顔と認識できるデータ部分が検出されたとした場合には、その旨の検出情報を人検出情報としてシステムコントローラ2に供給する。一方で、人の顔と認識できるデータ部分が検出されていないとした場合は、その旨を表す情報を上記人検出情報としてシステムコントローラ2に供給する。
When it is determined that a data portion that can be recognized as a human face is detected in the captured image data by the image analysis process, the
なお、この場合、画像解析部10による画像解析は、撮像制御部4経由で供給される動画像による撮像画像データを対象として行うことを前提としているが、例えば自動撮像による取り込みタイミングにて得られた撮像画像データなど、静止画像としての撮像画像データを対象として行ってもよい。
In this case, it is assumed that the image analysis by the
上記のようにして画像解析部10から供給される人検出情報に基づき、システムコントローラ2は、人と会っているとされる状態であるか否かを判別する。すなわち、上記人検出情報が、上記撮像画像データ中に人の顔と認識できるデータ部分が検出された旨を表すものである場合には、人と会っているとされる状態にあるとの判別結果を得る。一方、上記人検出情報が、上記撮像画像データ中に人の顔と認識できるデータ部分が検出されていない旨を示す場合は、人と会っているとされる状態にはないとの判別結果を得る。
Based on the person detection information supplied from the
音声解析部11は、音声入力部13より入力されるマイク収音データに基づき、人と会っていると推定できる状態にあるか否かについての判別を可能とするための音声解析処理を行う。
ここで、該音声解析部11による音声解析処理を有効に行うにあたっては、予め、撮像装置1に対して声紋データ(後述する声紋データ8b)が登録されている必要がある。本例の場合、該声紋データ8bとしては、撮像装置1を装着する(携帯する)ユーザの声に基づくデータを登録しておく。これは、他の人物と会っているときには、会話によって撮像装置1のユーザ自らが声を発している可能性が非常に高いという点を考慮してのものである。
なお、声紋データ8bは、予め他の装置にて生成されたものを取得して格納してもよいし、或いは、音声入力部13を介して入力されたユーザの声としての音声データを音声解析部11が解析して生成し、これを格納するように構成することもできる。
The
Here, in order to effectively perform the voice analysis processing by the
Note that the
上記音声解析部11による音声解析処理では、音声入力部13から入力される収音データ中に、上記のように格納された声紋データ8bと一致するデータ部分が含まれているか否かについて解析する処理を行う。そして、音声解析部11は、この音声解析処理の結果、収音データ中に上記声紋データ8bと一致するデータ部分が得られたとした場合には、その旨を表す情報を人検出情報としてシステムコントローラ2に供給する。また、一致するデータ部分が得られていないとした場合は、その旨を表す情報を人検出情報としてシステムコントローラ2に供給する。
システムコントローラ2は、このように音声解析部11から供給される人検出情報に基づき、人と会っているとされる状態であるか否かを判別する。すなわち、上記人検出情報によって収音データ中に声紋データ8bと一致するデータ部分が得られた旨を示される場合は、人と会っているとされる状態にあるとの判別結果を得、一方、収音データ中に声紋データ8bと一致するデータ部分が得られていない旨を示す場合は人と会っているとされる状態にはないとの判別結果を得る。
In the voice analysis processing by the
Based on the person detection information supplied from the
ストレージ部8は、撮像画像データその他の各種データの保存に用いられる。
このストレージ部8は、フラッシュメモリなどの固体メモリにより構成されても良いし、例えばHDD(Hard Disk Drive)により構成されてもよい。
また内蔵の記録媒体ではなく、可搬性の記録媒体、例えば固体メモリを内蔵したメモリカード、光ディスク、光磁気ディスク、ホログラムメモリなどの記録媒体に対応する記録再生ドライブなどとされても良い。
もちろん、固体メモリやHDD等の内蔵タイプのメモリと、可搬性記録媒体に対する記録再生ドライブの両方が搭載されてもよい。
このストレージ部8は、システムコントローラ2の制御に基づいて、撮像画像データその他の各種データの記録/再生を行う。
The
The
Further, instead of a built-in recording medium, a portable recording medium, for example, a recording / reproducing drive corresponding to a recording medium such as a memory card incorporating a solid-state memory, an optical disk, a magneto-optical disk, or a hologram memory may be used.
Of course, both a built-in type memory such as a solid-state memory and an HDD, and a recording / reproducing drive for a portable recording medium may be mounted.
The
この場合のストレージ部8においては、記録領域として、撮像画像データ記録領域8aが用意される。この撮像画像データ記録領域8aは、撮像部3で得られた撮像画像データを格納(保存)する領域とされる。例えば定期的な自動撮像として、一定時間間隔で撮像が行われるとすると、その一定時間毎に、撮像画像データが、撮像画像データ記録領域8aに記録されていくことになる。
なお、この撮像画像データ記録領域8aとしては、ストレージ部8内における固定的な領域として設定される必要はなく、あくまで本例において、ストレージ部8に撮像画像データが保存されればよいものである。
In the
The captured image
また、ストレージ部8には、上述した声紋データ8bも格納される。なお、声紋データ8bの格納場所はストレージ部8に限定されるべきものでなく、他の記憶手段(例えばシステムコントローラ2が備える上述した不揮発性メモリ部など)とされてもよい。
The
また、本例の場合、ストレージ部8には、撮像画像データに対して付与されるインデックスを管理するための情報としての、インデックスポイント管理情報8cが格納される。なお、このインデックスポイント管理情報8cについては後述する。
In the case of this example, the
通信部9は、各種の外部機器とデータ通信を行う部位として設けられる。
例えば、図示しないサーバ装置との間でのデータの送受信を行うようにしてもよい。その場合、例えば無線LANなどの方式で、ネットワークアクセスポイントに対する近距離無線通信を介してネットワーク通信を行う構成としてもよいし、対応する通信機能を備えたサーバ装置との間で直接無線通信を行うものでもよい。
また、通信部9は、例えばUSB(Universal Serial Bus)方式等のインターフェイスを用いてパーソナルコンピュータなどの機器と接続し、データの送受信を行うようにしてもよい。
この通信部9により、例えば撮像してストレージ部8に格納した撮像画像データを、パーソナルコンピュータその他の外部機器に転送することができる。従って、ライフログとしての定期的な撮像でストレージ部8に録り貯めた多数の撮像画像データは、この撮像装置1自体で表示部5で再生表示させることができるほか、パーソナルコンピュータ等の外部機器に転送して、それら外部機器側で再生させて表示させることもできる。
The communication unit 9 is provided as a part that performs data communication with various external devices.
For example, data transmission / reception with a server device (not shown) may be performed. In that case, for example, a configuration may be adopted in which network communication is performed via short-range wireless communication with a network access point by a method such as a wireless LAN, or direct wireless communication is performed with a server device having a corresponding communication function. It may be a thing.
In addition, the communication unit 9 may be connected to a device such as a personal computer using an interface such as a USB (Universal Serial Bus) system to transmit and receive data.
The communication unit 9 can transfer, for example, captured image data captured and stored in the
また、特に本例の場合、通信部9は、例えばブルートゥースや無線LANのアドホックモード(Wi-Fi:Wireless Fidelityのアドホックモード)などにより、外部機器との間で直接的に無線データ通信を行うことが可能とされる。
このような外部機器との間で直接的な無線データ通信を可能とするため、通信部9では、外部の無線通信可能な機器を検出する処理を行っている。そして、この検出処理結果を表す情報を、随時システムコントローラ2に供給している。
システムコントローラ2は、このように通信部9から供給される検出情報に基づき、外部に無線通信可能な機器があるか否かを判別することができる。
In particular, in the case of this example, the communication unit 9 performs wireless data communication directly with an external device by using, for example, Bluetooth or a wireless LAN ad hoc mode (Wi-Fi: Wireless Fidelity ad hoc mode). Is possible.
In order to enable direct wireless data communication with such an external device, the communication unit 9 performs a process of detecting a device capable of external wireless communication. Information representing the detection processing result is supplied to the
Based on the detection information supplied from the communication unit 9 as described above, the
ここで、上記のようなブルートゥースや無線LANのアドホックモードなどによる近距離無線通信において、通信可能範囲内に他の機器が存在する場合、撮像装置1のユーザと該他の機器を携帯する人物は相当に近距離に接近していることになる。すなわち、このような状態は、ユーザが上記他の機器を携帯する人物と会っている可能性が非常に高い。
そこで本例では、このように近距離無線通信による無線通信可能範囲内に他の機器が存在するか否かによっても、撮像装置1のユーザが他の人物と会っているとされる状態にあるか否かを判別するものとしている。
Here, in short-range wireless communication such as the above-described Bluetooth or wireless LAN ad hoc mode, when there is another device within the communicable range, the user of the
Therefore, in this example, the user of the
この場合、通信部9が上述の検出処理結果としてシステムコントローラ2に供給する検出情報を人検出情報として扱うことができる。すなわち、該通信部9からの人検出情報によって外部に無線通信可能な機器が検出された旨が示される場合、システムコントローラ2は、ユーザが他の人物と会っているとされる状態にあるとの判別結果を得る。一方、通信部9からの人検出情報によって外部に無線通信可能な機器が存在しない旨が示される場合は、ユーザが他の人物と会っているとされる状態にはないとの判別結果を得る。
In this case, the detection information that the communication unit 9 supplies to the
なお、この図1に示した撮像装置1の構成はあくまで一例にすぎず、実際に実施される動作例や機能に応じて各種の構成要素の追加や削除は当然に考えられるものである。
Note that the configuration of the
[画像インデックスの付与]
実施の形態の撮像装置1は、ライフログ用途に用いる場合、基本的には、ユーザのシャッタ操作に基づかない撮像動作(自動撮像動作)を行う。例えば定期的に自動撮像を行って、撮像画像データをストレージ部8に保存していく。例えば5秒間隔、10秒間隔、30秒間隔など、所定の時間間隔で自動撮像を行う。なお、もちろん定期的な撮像ではなく、何らかのトリガ(ユーザのシャッタ操作以外のトリガ)に応じて不定期なタイミングで自動撮像を行ってもよい。さらに、定期的又は不定期の自動撮像実行中に、ユーザがシャッタ操作を行った場合は、その時点で通常に撮像処理を行えばよい。
[Add image index]
The
ここで、先にも述べたように、例えばライフログカメラとして自動撮像を行う撮像装置においては、撮像画像データの保存量が膨大となり、これを閲覧する際のユーザ負担が大きくなる。
この点の改善を図るため、本実施の形態では、自動撮像により取込・保存される撮像画像データのうち、撮像装置1のユーザが他の人物と会っているとされる状態にあるとされる状況下で撮像された画像データに対して、インデックスを付すものとしている。
Here, as described above, for example, in an imaging apparatus that performs automatic imaging as a life log camera, the storage amount of captured image data is enormous, and the burden on the user when browsing this is increased.
In order to improve this point, in the present embodiment, it is assumed that the user of the
このような実施の形態としての画像インデックス付与を行うための具体的な動作例について、次の図3、図4を参照して説明する。
図3は、この場合においてインデックスを付すべき条件とされる、人と会っているとされる状態にあるか否かについての判別手法について説明するための図として、それぞれ異なる撮像装置1を装着したユーザA、ユーザBが対面した状態を示している。
この図に示されるように、ユーザが人と会っている状況下では、各人が近接し、また会話が交わされる可能性が非常に高い。このような状態では、撮像装置1による撮像画像には相手のユーザの顔が映し出され、また、会話に伴ってユーザの発した声が検出されることが予想される。さらに、近距離無線通信による通信可能範囲内に他の撮像装置1が検出されることも想定される
なお、この図では一例として、撮像装置1が図1(a)に示したような吊り下げタイプとされる場合を示しているが、例えば図1(b)に示したような眼鏡型タイプなどの他のタイプの撮像装置1とされた場合も同様のことが言える。
A specific operation example for assigning an image index as such an embodiment will be described with reference to FIGS.
FIG. 3 is a diagram for explaining a determination method for determining whether or not a person is in a state of meeting a person, which is a condition to be indexed in this case. The state where user A and user B face each other is shown.
As shown in this figure, under the situation where the user meets a person, there is a high possibility that each person will be close and have a conversation. In such a state, it is expected that the face of the partner user is projected in the captured image by the
上記の点を踏まえ、本例では、人と会っているとされる状態であるか否かの判別を行うにあたり、図中の(1)〜(3)として示すような判別を行う。
すなわち、(1)撮像画像データ中に顔と認識できるデータ部分が所定時間以上検出されているか、(2)収音データ中に声紋データ8bと一致する音声が検出されたか、(3)通信可能な機器が検出されたか、の各項目についての判別を行うものとしている。
Based on the above points, in this example, when determining whether or not it is in a state of meeting with a person, the determination as shown in (1) to (3) in the figure is performed.
That is, (1) whether a data portion that can be recognized as a face is detected in the captured image data for a predetermined time or more, (2) whether voice that matches the
図4は、上記の各項目の判別結果に基づき行われる、撮像画像データに対するインデックス付与の具体例について説明するための図として、自動撮像により取込・保存された撮像画像データと、これに対して付されるインデックスとの関係を模式的に示している。
この図に示されるように、本実施の形態の場合、インデックスとしては、上記による各判別項目ごとに別々のインデックスを付すものとしている。具体的には、先の(1)による判別結果に基づき付されることになる画像解析由来のインデックス、(2)の判別結果に基づき付される音声解析由来のインデックス、さらに(3)の判別結果に基づき付される位置解析由来のインデックスである。
FIG. 4 is a diagram for explaining a specific example of indexing for captured image data performed based on the determination result of each item described above, and captured image data captured and stored by automatic imaging, The relationship with the index attached is schematically shown.
As shown in this figure, in the case of the present embodiment, as an index, a separate index is attached to each discrimination item as described above. Specifically, the index derived from the image analysis to be attached based on the discrimination result of (1) above, the index derived from the voice analysis based on the discrimination result of (2), and the discrimination of (3) This is an index derived from position analysis attached based on the result.
ここで、先の図2においても説明したように、システムコントローラ2に対しては、画像解析部10、音声解析部11、通信部9より、それぞれ上記(1),(2),(3)による判別項目に対応する人検出情報が入力される。システムコントローラ2は、このように画像解析部10、音声解析部11、通信部9からそれぞれ入力される人検出情報を、例えば自動撮像による撮像画像データの取り込みが行われるタイミングごとに取得する。そして、このように取得したそれぞれの項目の人検出情報に基づき、ユーザが他の人物と会っているとされる状態にあるか否かをそれぞれ判別する。
その上で、これらの判別の結果、人と会っているとされる状態であると判別できる項目があった場合は、撮像画像データに対し、その項目に対応するインデックスが付されるように制御を行う。つまり、画像解析部10からの人検出情報に基づき、人と会っているとされる状態であるとの判別結果を得た場合には、撮像画像データに対して画像解析由来のインデックスが付されるようにし、また音声解析部11からの人検出情報に基づき人と会っているとされる状態であるとの判別結果を得た場合は、撮像画像データに対して音声解析由来のインデックスが付されるように制御する。また、通信部9からの人検出情報に基づき人と会っているとされる状態であるとの判別結果を得た場合は、位置解析由来のインデックスが付されるように制御する。
Here, as described above with reference to FIG. 2, for the
In addition, if there is an item that can be determined to be in a state of meeting with a person as a result of these determinations, control is performed so that an index corresponding to the item is attached to the captured image data. I do. That is, based on the person detection information from the
この結果、図4に示されるようにして、自動撮像により順次取込・保存される撮像画像データに対しては、人と会っているとされる状態であるとの判別結果が得られた判別項目に対応するインデックスが順次付されていくものとなる。 As a result, as shown in FIG. 4, for the captured image data that is sequentially captured and stored by automatic imaging, it is determined that the determination result that the person is in a state of meeting with a person is obtained. Indexes corresponding to the items are sequentially attached.
ここで、本実施の形態において、上記のような撮像画像データに対するインデックスの付与は、システムコントローラ2が、先の図1に示したインデックスポイント管理情報8cにより、各インデックスポイントを管理することで実現する。
このインデックスポイント管理情報8cは、先に説明した画像解析由来、音声解析由来、位置解析由来の各インデックスを付すべきポイントを管理するための情報となる。図示による説明は省略するが、この場合のインデックスポイント管理情報8cとしては、例えば自動撮像により取込・保存された撮像画像データのIDごとに、上記画像解析由来、音声解析由来、位置解析由来の各インデックスの有無を表す情報が対応づけられるものとなる。
システムコントローラ2は、上述のようにして自動撮像による撮像画像データの取込・保存が行われるタイミングにて実行した各項目についての判別の結果、人と会っているとされる状態にあるとの判別結果が得られた項目について、その項目のインデックスが有る旨を表す情報を、保存された撮像画像データのIDの情報に対応づける。これにより、各判別項目ごとに、インデックスポイントを管理することができる。
Here, in the present embodiment, the index assignment for the captured image data as described above is realized by the
The index
As described above, the
上記により説明した本実施の形態としての画像インデックス付与により、撮像装置1のユーザが他の人物と会っていると推定できる状態にあることに応じて、そのタイミングで自動撮像された画像データに対してインデックスを付与することができる。
ここで、先にも述べたように、ユーザの日常生活において重要な出来事は、ユーザが他の人物と対面している、会話している、又は一緒に行動しているなど、ユーザが他の人物と会っている状態で多く発生すると考えることができる。このことを踏まえれば、上記のようにしてユーザが他の人物と会っているとされる状況下で自動撮像された画像データに対してインデックスを付す本実施の形態によれば、日常生活の中で重要とされるシーンを撮影した画像に対して、インデックスを付すということができる。
By providing the image index as the present embodiment described above, it is possible to estimate that the user of the
Here, as mentioned above, important events in the user's daily life are that the user is facing other people, having a conversation, or acting together. It can be thought that it often occurs in the state of meeting with a person. Based on this, according to the present embodiment in which index is applied to image data automatically captured under the situation that the user is meeting with another person as described above, It can be said that an index is attached to an image obtained by photographing a scene that is important in (1).
このような実施の形態のインデックス付与により、自動撮像によって大量に保存される画像データについて、重要とされる部分とそうでない部分とを分別して提示することができる。すなわち、このようなインデックスの付与によって、自動撮像により大量に保存された画像データをユーザに効率的に閲覧させることができ、行動履歴を振り返るにあたってのユーザ負担を効果的に削減することができる。この結果、例えばユーザの日常生活を記録しそれを振り返らせるといったシステムを、より有用性の高いものとして実現することができる。 By providing an index according to such an embodiment, it is possible to separately present important parts and non-important parts of image data stored in large quantities by automatic imaging. That is, by providing such an index, the user can efficiently browse a large amount of image data stored by automatic imaging, and the burden on the user when looking back on the action history can be effectively reduced. As a result, for example, a system that records and reflects the user's daily life can be realized as a more useful system.
また、本実施の形態では、上記のようにして人と会っているとされる状態であるか否かを判別するための複数の判別項目に基づく別々のインデックスを付与するものとしているが、これによれば、例えば閲覧時において、これら複数の判別項目のうち任意の項目を指定して画像データの検索を行うことができるなど、画像データの検索の自由度を広げることができる。
Further, in the present embodiment, separate indexes based on a plurality of determination items for determining whether or not the person is in a state of meeting with a person as described above are provided. According to the above, for example, at the time of browsing, it is possible to search for image data by designating an arbitrary item among the plurality of determination items, so that the degree of freedom in searching for image data can be expanded.
[処理動作]
続いて、次の図5のフローチャートにより、上記により説明した第1の実施の形態としての動作を実現するための制御例について説明する。なお、この図5では、システムコントローラ2が内部ROMに格納したプログラムに基づいて実行する制御処理を示す。
また、この図に示される処理動作は、システムコントローラ2が行う自動撮像のための処理動作として、撮像部3にて得られる撮像画像データを一定間隔おきに取り込み、これをストレージ部8に保存させるための処理が行われるタイミングごとに実行されるものとなる。
[Processing operation]
Next, a control example for realizing the operation as the first embodiment described above will be described with reference to the flowchart of FIG. FIG. 5 shows control processing executed by the
Further, the processing operation shown in this figure is a processing operation for automatic imaging performed by the
図5において、先ずステップS101では、人検出情報を取得する。すなわち、先に説明した画像解析部10からの人検出情報、音声解析部11からの人検出情報、通信部9からの人検出情報を取得する。
In FIG. 5, first, in step S101, human detection information is acquired. That is, the human detection information from the
そして、続くステップS102では、先ずは画像解析結果としての、画像解析部10からの人検出情報に基づき、人と会っているとされる状態であるか否かを判別する。
このステップS102において、上記画像解析部10からの人検出情報が、撮像画像データ中に人の顔と認識できるデータ部分が検出された旨を示すものであり、これに応じ人と会っているとされる状態であるとして肯定結果を得た場合は、ステップS103において、画像解析由来インデックスポイントを登録するための処理を実行する。すなわち、自動撮像により保存された撮像画像データのIDと、画像解析由来のインデックス有りを表す情報とが対応づけられるようにして、インデックスポイント管理情報8cの情報内容を更新する処理を実行する。
このステップS103の処理を実行すると、ステップS104に処理を進める。
In the subsequent step S102, first, based on the person detection information from the
In this step S102, the human detection information from the
When the process of step S103 is executed, the process proceeds to step S104.
一方、上記ステップS102において、上記画像解析部10からの人検出情報が、撮像画像データ中に人の顔と認識できるデータ部分が検出されていない旨を示すものであり、人と会っているとされる状態ではないとして否定結果を得た場合は、上記ステップS103をパスしてそのままステップS104に処理を進める。
On the other hand, in step S102, the human detection information from the
ステップS104では、音声解析結果としての、音声解析部11からの人検出情報に基づき、人と会っているとされる状態であるか否かを判別する。
ステップS104において、上記音声解析部11からの人検出情報が、収音データ中に声紋データ8bと一致するとされるデータ部分が得られている旨を示すものであり、人と会っているとされる状態であるとして肯定結果を得た場合は、ステップS105において、音声解析由来インデックスポイントを登録するための処理を実行する。すなわち、自動撮像により保存された撮像画像データのIDと、音声解析由来のインデックス有りを表す情報とが対応づけられるようにして、インデックスポイント管理情報8cの情報内容を更新する。
このステップS105の処理を実行するとステップS106に処理を進める。
In step S104, based on the person detection information from the
In step S104, the person detection information from the
When the process of step S105 is executed, the process proceeds to step S106.
一方、上記ステップS104において、上記音声解析部11からの人検出情報が、収音データ中に声紋データ8bと一致するとされるデータ部分が得られていない旨を示すものであり、人と会っているとされる状態ではないとして否定結果を得た場合は、上記ステップS105をパスしてそのままステップS106に処理を進める。
On the other hand, in step S104, the person detection information from the
ステップS106では、通信可能機器解析結果としての、通信部9からの人検出情報に基づき、人と会っているとされる状態であるか否かを判別する。上記通信部9からの人検出情報が、外部に通信可能な機器が検出された旨を示すものであり、これに応じ人と会っているとされる状態であるとして肯定結果を得た場合は、ステップS107において、音声解析由来インデックスポイントを登録するための処理を実行する。すなわち、自動撮像により保存された撮像画像データのIDと、位置解析由来のインデックス有りを表す情報とが対応づけられるようにして、インデックスポイント管理情報8cの情報内容を更新する。
このステップS107の処理を実行すると、この図に示す処理動作は終了となる。
In step S106, it is determined based on the person detection information from the communication unit 9 as the communicable device analysis result whether or not the person is in a state of meeting a person. When the person detection information from the communication unit 9 indicates that an externally communicable device has been detected, and a positive result is obtained that the person is said to be meeting a person accordingly In step S107, processing for registering the index point derived from speech analysis is executed. That is, the information content of the index
When the process of step S107 is executed, the processing operation shown in FIG.
一方、上記ステップS106において、上記通信部9からの人検出情報が通信可能な機器が検出されていない旨を示すものであり、人と会っているとされる状態ではないとして否定結果を得た場合は、上記ステップS107をパスして処理動作を終了するようにされる。
On the other hand, in step S106, the person detection information from the communication unit 9 indicates that no communicable device has been detected, and a negative result has been obtained that the person is not in a state of meeting with a person. In this case, the processing operation is terminated after passing through step S107.
<第2の実施の形態>
続いて、第2の実施の形態について説明する。
第2の実施の形態は、上記により説明した第1の実施の形態としての画像インデックス付与動作について、位置解析の手法を変更したものとなる。具体的に、第2の実施の形態では、携帯電話網(WAN)やインターネット網における無線中継器の設置されたエリア情報を利用して、機器間の距離が近接しているか否かを判別し、それによって人と会っているとされる状態にあるか否かを判別するようにしたものである。
<Second Embodiment>
Next, a second embodiment will be described.
In the second embodiment, the position analysis technique is changed for the image index assigning operation as the first embodiment described above. Specifically, in the second embodiment, it is determined whether or not the distance between the devices is close by using the area information where the wireless repeater is installed in the cellular phone network (WAN) or the Internet network. Thus, it is determined whether or not the person is in a state of meeting with a person.
このような第2の実施の形態としての動作を実現するにあったては、次の図6に示すようなシステムを構築する。
図6において、第2の実施の形態のシステムとしては、図のように複数の撮像装置1と、複数の基地局30と、さらにサーバ装置20とを含んで構成されるものとなる。
先ず、この場合の撮像装置1としては、通信部9が、例えば図のような携帯電話網における無線基地局としての基地局30との通信を行うことが可能に構成されることになる。なお、インターネット網を利用した通信を行う場合、この基地局30は無線LANのアクセスポイントとなる。
この場合、上記基地局30は、エリアごとに固定的に設置されるものであり(例えば図中のエリアA、エリアB)、各基地局30とその設置エリアは一対一で対応する。
この場合の各撮像装置1は、最寄りの基地局30を介してネットワーク上の所要の機器(特にこの場合は上記サーバ装置20)との間で通信を行うようにされている。このように各撮像装置1は最寄りの基地局30を介して通信を行うことから、各基地局30では、自エリア内に存在する撮像装置1が把握されている。
In order to realize the operation as the second embodiment, a system as shown in FIG. 6 is constructed.
In FIG. 6, the system of the second embodiment includes a plurality of
First, as the
In this case, the base station 30 is fixedly installed for each area (for example, area A and area B in the figure), and each base station 30 and its installation area correspond one-to-one.
Each
サーバ装置20では、各基地局30に問い合わせを行って、各撮像装置1と通信可能な状態となっている基地局30(最寄りの基地局30)を特定することができる。すなわちこの情報により、各撮像装置1の所在エリアを特定できる。
The
第2の実施の形態では、このようにしてサーバ装置20が各撮像装置1の所在エリアの情報を得た上で、同一エリア内に、複数の撮像装置1が存在しているか否かを判別する。そして、このように同一エリア内に複数の撮像装置1が存在する場合には、該当する各撮像装置1に対して、同一エリア内に他の機器が存在する旨の通知を行う。
In the second embodiment, after the
各撮像装置1では、このようなサーバ装置20からの通知の有無に基づき、人と会っている状態にあるか否かを判別する。すなわち、同一エリア内に他の撮像装置1が存在すれば、その撮像装置1のユーザは相当に近接していることになるので、これを以て、人と会っているとされる状態にあるとの判別結果を得るものである。
Each
図7は、サーバ装置20の内部構成例を示している。
このサーバ装置20は、制御部21、時刻計時部22、記憶部23、通信部24を有する。
図7において、制御部21は、サーバ装置20の全体制御を行う。この制御部21は、CPU、ROM、RAM、不揮発性メモリ部、インターフェース部などを備えて構成され、例えば上記ROMなどの記憶手段に格納された動作プログラムに基づいて、サーバ装置20内の各部の制御を行い、必要な動作を実行させる。
FIG. 7 shows an internal configuration example of the
The
In FIG. 7, the
時刻計時部22は、例えば年:月:日:時:分:秒による現在時刻を計時し、これにより得られる現在時刻情報を制御部21に出力する。このように時刻計時部22により計時される現在時刻の情報に基づき、制御部21は、例えば各種履歴情報の生成など、時刻管理を要する処理を行うことができる。
The
記憶部23は、制御部21の制御に基づいて各種データの記録や再生を行う。
この記憶部23としては、RAM或いはフラッシュメモリなどの固体メモリにより構成されても良いし、例えばHDDにより構成されてもよい。また内蔵の記録媒体ではなく、可搬性の記録媒体、例えば固体メモリを内蔵したメモリカード、光ディスク、光磁気ディスク、ホログラムメモリなどの記録媒体に対応する記録再生ドライブなどとされても良い。また、固体メモリやHDD等の内蔵タイプのメモリと、可搬性記録媒体に対する記録再生ドライブの両方が搭載されてもよい。
The
The
通信部24は、先の図6に示した基地局30を介した外部機器(特に撮像装置1)との間でのデータ通信を行うことが可能に構成される。サーバ装置20における通信部24としては、基本的には有線でネットワーク接続されて通信を行うものであればよいが、無線によりネットワーク接続する構成とすることもできる。
The
図8は、上記により説明した第2の実施の形態としての動作を実現するための、サーバ装置20における制御例をフローチャートにより示している。
なお、この図8では、先の図7にて説明した制御部21内のROMに格納されるプログラムに基づき制御部21が実行する制御処理を示している。
また、この図に示す処理動作は、予め定められた所定周期で繰り返し実行されるものとなる。
FIG. 8 is a flowchart showing an example of control in the
FIG. 8 shows a control process executed by the
Further, the processing operation shown in this figure is repeatedly executed at a predetermined cycle.
図8において、先ずステップS201では、各機器ごとの所在エリアを確認するための処理を実行する。すなわち、例えば先に説明したようにして各基地局30への問い合わせを行った結果に基づき、各撮像装置1の所在エリアの情報を得る。
なお、各撮像装置1の所在エリアの情報は、各撮像装置1との通信を行った結果経由された基地局30の情報を検出することによっても確認できる。
In FIG. 8, first, in step S201, processing for confirming the location area for each device is executed. That is, for example, based on the result of inquiring each base station 30 as described above, information on the location area of each
In addition, the information on the location area of each
続くステップS202では、エリアごとに、複数機器があるか否かを判別する。その上で、次のステップS203では、該当するエリアがあるか否かを判別する。すなわち、上記ステップS202による判別処理の結果に基づき、複数の撮像装置1が存在するエリアがあるか否かを判別する。
ステップS203において、該当エリアがあるとして肯定結果が得られた場合は、ステップS204に進み、該当エリア内の各機器に同エリア内に他の機器がある旨を通知する。すなわち、該当エリア内の各撮像装置1に対して、上記通知が行われるように通信部24に対する制御を行う。このステップS204の処理を実行すると、この図に示す処理動作は終了となる。
一方、上記ステップS203において、該当エリアがないとして否定結果が得られた場合は、図示するようにして上記ステップS204をパスしてこの図に示す処理動作を終了する。
In a succeeding step S202, it is determined whether or not there are a plurality of devices for each area. Then, in the next step S203, it is determined whether or not there is a corresponding area. That is, based on the result of the determination process in step S202, it is determined whether there is an area where a plurality of
If an affirmative result is obtained in step S203 that the corresponding area exists, the process proceeds to step S204 to notify each device in the area that there is another device in the area. That is, the
On the other hand, if a negative result is obtained in step S203 that there is no corresponding area, the process operation shown in FIG.
なお、図示による説明は省略するが、第2の実施の形態の場合の各撮像装置1では、上記のようにしてサーバ装置20側が行う通知を、先の図5におけるステップS106にて説明した、通信可能機器解析結果としての人検出情報に代わる情報として取得するようにされる。つまり、この場合の撮像装置1(システムコントローラ2)は、上記サーバ装置20からの上記通知があった場合には、人と会っているとされる状態であるとの判別結果を得て、位置解析由来のインデックスポイントを登録するための処理を実行する。また、上記通知がなかった場合には、人と会っているとされる状態にはないとの判別結果を得て、位置解析由来のインデックスポイントの登録は行わないようにされる。
In addition, although description by illustration is abbreviate | omitted, in each
<第3の実施の形態>
第3の実施の形態は、第2の実施の形態と同様、第1の実施の形態としての動作について、位置解析の手法を変更したものである。具体的に、第3の実施の形態では、現在位置を検出する位置検出手段を設けた撮像装置31とした上で、該撮像装置31とデータ通信可能に構成されたサーバ装置40において、各撮像装置31から取得した現在位置の情報から、近接した位置に他の撮像装置50があるか否かを判別することで、人と会っているとされる状態にあるか否かを推定するものである。
<Third Embodiment>
In the third embodiment, as in the second embodiment, the position analysis technique is changed with respect to the operation as the first embodiment. Specifically, in the third embodiment, the
図9は、第3の実施の形態における撮像装置31の内部構成例を示している。
なお、この図9において、既に先の図2にて説明した部分については同一符号を付して説明を省略する。
この図9と先の図2とを比較して分かるように、第3の実施の形態の撮像装置31は、先の図2に示した撮像装置1の構成に対し、位置検出手段としてのGPS(Global Positioning System)ユニット14を追加したものとなる。このGPSユニット14は、図示されないGPS衛星からの電波を受信し、現在位置を表す情報として、緯度・経度の情報を得る。そしてこのような緯度・経度による現在位置情報を、システムコントローラ2に出力する。
FIG. 9 illustrates an internal configuration example of the
In FIG. 9, parts already described in FIG. 2 are given the same reference numerals and description thereof is omitted.
As can be seen by comparing FIG. 9 with the previous FIG. 2, the
図10は、第3の実施の形態のシステムの構成と具体的な動作内容について模式的に示した図である。
この図10に示されるように、第3の実施の形態のシステムは、複数の撮像装置31と、ネットワーク32、及びサーバ装置40を含んで構成される。
この第3の実施の形態のシステムにおいて、各撮像装置31は、GPSユニット14によって検出された現在位置情報を、ネットワーク32を介してサーバ装置40に送信する。この場合、各撮像装置31からの現在位置情報の送信は、例えば所定の周期で繰り返し行うものとする。
FIG. 10 is a diagram schematically illustrating the configuration and specific operation contents of the system according to the third embodiment.
As shown in FIG. 10, the system according to the third embodiment includes a plurality of
In the system according to the third embodiment, each
サーバ装置40は、その内部構成は先の図7に示したサーバ装置20と同様となる。この場合のサーバ装置40(制御部21)では、各撮像装置31から送信される現在位置情報を取得し、各撮像装置31ごとに、所定距離内に他の撮像装置31があるか否かを判別する。そして、所定距離内に他の撮像装置31がある場合には、その旨を該当する個々の撮像装置31に対して通知する。
The
ここで、各撮像装置31ごとに所定距離内に他の撮像装置31があるか否かの判別を行うにあたっては、1つの撮像装置31ごとに、他の撮像装置31を総当たりさせて所定距離内にあるか否かを判別することになる。
この際、任意の2つの撮像装置31間の距離は、該距離をDistance、一方の撮像装置31の現在位置(緯度、経度)をLatA、LonA、他方の撮像装置31の現在位置をLatB、LonBとしたき、
Distance2={(LatA−LatB)2+(LonA−LonB)2}
に基づく演算を行って求める。実距離は、上式で求まる値と比例する。判別基準となる上記「所定距離」の値としては、予めこの式で求まる値に対応させた値を設定しておく。或いは、上記「所定距離」の値としては実距離に対応する値を設定しておき、上式で求まる値に所定の係数を与えることで適切な判別が行われるように図ることもできる。
Here, when determining whether or not there is another
At this time, the distance between any two
Distance 2 = {(LatA−LatB) 2 + (LonA−LonB) 2 }
Obtained by performing an operation based on. The actual distance is proportional to the value obtained by the above equation. As the value of the “predetermined distance” serving as a discrimination criterion, a value corresponding to the value obtained by this equation is set in advance. Alternatively, as the value of the “predetermined distance”, a value corresponding to the actual distance is set, and a predetermined coefficient is given to the value obtained by the above equation so that appropriate discrimination can be performed.
この場合の撮像装置31としても、上記のようなサーバ装置40からの通知を、位置解析結果としての人検出情報に代わる情報として取得する。すなわち、撮像装置31(システムコントローラ2)は、上記サーバ装置40からの通知があった場合には、人と会っているとされる状態であるとの判別結果を得て、位置解析由来のインデックスポイントを登録するための処理を実行する。また、上記通知がなかった場合には、人と会っているとされる状態にはないとの判別結果を得て、位置解析由来のインデックスポイントの登録は行わないようにされる。
The
図11は、上記により説明した第3の実施の形態としての動作を実現するためにサーバ装置40にて行われるべき制御例を示すフローチャートである。
なお、この図11においても、サーバ装置40の制御部(制御部21)が内部のROM等に格納されるプログラムに基づき実行する制御処理を示している。
また、この図に示す処理動作としても、予め定められた所定周期で繰り返し実行されるものとなる。
FIG. 11 is a flowchart showing a control example to be performed by the
Note that FIG. 11 also shows a control process executed by the control unit (control unit 21) of the
Also, the processing operation shown in this figure is repeatedly executed at a predetermined cycle.
図11において、ステップS301では、各機器からの現在位置情報が取得される。そして、続くステップS302では、各機器ごとに、所定距離内に他の機器があるか否かを判別する。すなわち、各撮像装置31について、例えば先に例示したような手法によって他の個々の撮像装置31との間の距離を計算し、その結果に基づき、所定距離内に他の撮像装置31があるか否かを判別する。
In FIG. 11, in step S301, current position information from each device is acquired. In step S302, it is determined for each device whether there is another device within a predetermined distance. That is, for each
次のステップS303では、所定距離内に他の機器のある機器があるか否かを判別する。上記ステップS302による各撮像装置31ごとの判別の結果、所定距離内に他の撮像装置31があるとされた撮像装置31があったとして肯定結果が得られた場合は、ステップS304に進み、該当する機器への通知を行う。すなわち、所定距離内に他の撮像装置31があるとされた個々の撮像装置31に対し、その旨を表す通知が行われるようにして通信部24に対する制御を行う。このステップS304の処理を実行すると、この図に示す処理動作は終了となる。
一方、上記ステップS303において、所定距離内に他の撮像装置31があるとされた撮像装置31がなかったとして否定結果が得られた場合は、上記ステップS304をパスしてこの図に示す処理動作を終了する。
In the next step S303, it is determined whether or not there is a device with another device within a predetermined distance. As a result of the determination for each
On the other hand, if a negative result is obtained in step S303 that there is no
[第3の実施の形態の変形例]
ここで、上記による説明では、サーバ装置40による判別処理が、各撮像装置31における自動撮像と並行してリアルタイムに行われることを前提としたが、サーバ装置40による判別は、事後的に行うようにすることもできる。
具体的に、その場合の各撮像装置31では、定期的に繰り返し現在位置情報を取得する処理は行うが、このように取得した現在位置情報を即座にサーバ装置40に送信するのではなく、各時点で得られた現在位置情報を例えばストレージ部8などの所定の記憶手段に蓄積していくようにされる。そして、このように蓄積した情報を、サーバ装置40側からの指示に基づき、サーバ装置40に対して送信する。
[Modification of Third Embodiment]
Here, in the above description, it is assumed that the determination processing by the
Specifically, in each
この場合のサーバ装置40では、このように各撮像装置31にて蓄積された情報を取得した結果に基づき、各時点ごとに、各撮像装置31について所定距離内に他の撮像装置31があるか否かの判別を行う。
ここで、上記のような各撮像装置31側から取得した蓄積情報に基づき、この場合のサーバ装置40では、次の図12に示すような蓄積情報データベースを生成するようにされる。
図12において、この蓄積情報データベースとしては、各時刻(時点)tmを基準として、各機器とその機器から取得した現在位置位置の情報とを対応づけた情報となる。なお、この蓄積情報データベースについては、例えば記憶部23にて生成するものとすればよい。
In the
Here, based on the accumulated information acquired from each
In FIG. 12, the accumulated information database is information in which each device is associated with the information on the current position acquired from the device with each time (time) tm as a reference. In addition, what is necessary is just to produce | generate this storage information database in the memory |
この場合のサーバ装置40は、この図12に示したような蓄積情報データベースに基づき、各撮像装置31について、所定距離内に他の撮像装置31があるか否かの判別を、各時点tmごとに行う。つまりこの判別を行う結果、サーバ装置40では、各撮像装置31ごとの他の撮像装置31が所定距離内にあったか否かの判別結果を表す情報が、各時点tmごとに得られることになる。
In this case, the
このとき、或る時点tmnについて行った判別の結果、所定距離内に他の撮像装置31があるとされた場合は、その撮像装置31にとっては、該時点tmnがインデックスを付すべきポイントであることになる。
この場合のサーバ装置40では、このように或る時点tmnについて、各撮像装置31ごとに所定距離内に他の機器があるか否かの判別を行った結果、その時点tmnにて該当する撮像装置31があった場合には、その該当する撮像装置31に通知すべきインデックスポイントとして、時点tmnを登録する。
このような処理が各時点tmごとに繰り返し行われる結果、サーバ装置40では、次の図13に示すような登録情報が生成される。すなわち、各機器(撮像装置31)ごとに、インデックスが付されるべきポイントを表す時点tmの情報が登録された(対応づけられた)情報が生成されることになる。
At this time, if it is determined that there is another
In the
As a result of repeatedly performing such processing at each time point tm, the
サーバ装置40は、このようにして生成した各撮像装置31ごとのインデックスポイントの登録情報に基づき、該当する撮像装置31(つまりインデックスポイントとしての時点tmが対応づけられた撮像装置31)に対し、インデックスポイントを表す時点tmの情報を通知する。
Based on the index point registration information for each
この場合の撮像装置31は、このようにサーバ装置40から通知される時点tmの情報に基づき、自動撮像により保存された撮像画像データに対して位置解析由来のインデックスを付す。具体的に、この場合のシステムコントローラ2は、保存された各撮像画像データの保存時刻(撮影時刻)と上記サーバ装置40からの時点tmとを照合し、時点tmと一致するとされる撮影時刻情報が対応づけられた撮像画像データのIDに対し、位置解析由来のインデックスが有る旨を表す情報が対応づけられるようにしてインデックスポイント管理情報8bの情報内容を更新する処理を行う。
The
図14は、上記による第3の実施の形態の変形例としての動作を実現するために、サーバ装置40にて行われるべき制御例をフローチャートにより示している。なお、この図14においても、サーバ装置40の制御部(制御部21)が内部のROM等に格納されるプログラムに基づき実行する制御処理を示している。
FIG. 14 is a flowchart showing an example of control to be performed by the
先ず、ステップS401では、処理の開始トリガ発生を待機する。つまり、例えば予め定められた所定時刻に至るなど、この図に示す処理を開始すべきとして定められた所定条件の成立を待機する。
そして、開始トリガが発生した場合には、ステップS402において、各機器の蓄積情報を取得する処理を実行する。すなわち、各撮像装置31に対して蓄積情報(各現在位置情報とその取得時刻)の送信指示を行い、該送信指示に応じ送信される蓄積情報が例えば記憶部23等の所要の記憶手段に対して格納されるように制御処理を行う。
First, in step S401, a process start trigger is awaited. In other words, for example, a predetermined condition determined to start the process shown in FIG.
If a start trigger is generated, a process for acquiring accumulated information of each device is executed in step S402. That is, the storage information (each current position information and its acquisition time) is instructed to be transmitted to each
続くステップS403では、蓄積情報データベースの生成処理を実行する。つまり図12に示したようにして、各時刻(時点)tmを基準として、各機器とその機器から取得した現在位置位置の情報とを対応づけた情報を生成する。 In a succeeding step S403, a storage information database generation process is executed. That is, as shown in FIG. 12, information is generated by associating each device with the information on the current position acquired from the device on the basis of each time (time) tm.
次のステップS404では、先ずは時点識別値nを1にセットする処理を実行する。なお、この時点識別値nは、以降の説明からも理解されるように、制御部21が各時点tmを識別するためにカウントする値となる。
In the next step S404, first, processing for setting the time point identification value n to 1 is executed. The time point identification value n is a value that the
続くステップS405では、時点tmnのデータを取得する処理を実行する。つまり、蓄積情報データベース内の時点tmnが対応づけられたデータ(現在位置情報と機器のID情報)を取得する処理を実行する。
そして、次のステップS406において、各機器ごとに、所定距離内に他の機器があったか否かを判別し、さらに次のステップS407において、所定距離内に他の機器のあった機器があるか否かを判別する。
In a succeeding step S405, a process of acquiring data at the time point tmn is executed. That is, a process of acquiring data (current position information and device ID information) associated with the time point tmn in the stored information database is executed.
Then, in the next step S406, for each device, it is determined whether or not there is another device within a predetermined distance. In the next step S407, whether or not there is a device with another device within the predetermined distance. Is determined.
このステップS407において、上記ステップS406による時点tmnについての各機器ごとの判別の結果から、所定距離内に他の機器のあった機器が存在すると判別されて肯定結果が得られた場合は、ステップS408に処理を進めて、該当する機器のインデックスポイントとして時点tmnを登録する処理を実行する。すなわち、先の図13に示した登録情報において、該当する機器のIDに対し、時点tmnの情報がインデックスポイントとして対応づけられるようにして上記登録情報の内容を更新する処理を実行する。
このステップS408の処理を実行すると、ステップS409に処理を進める。
一方、上記ステップS407において、時点tmnについての各機器ごとの判別の結果から、所定距離内に他の機器のあった機器が存在しなかったと判別されて否定結果が得られた場合は、上記ステップS408をパスしてステップS409に処理を進める。
If it is determined in step S407 that there is another device within a predetermined distance from the result of determination for each device at the time point tmn in step S406, an affirmative result is obtained in step S408. Then, the process of registering the time point tmn as the index point of the corresponding device is executed. That is, in the registration information shown in FIG. 13, the process of updating the content of the registration information is performed so that the information of the time point tmn is associated with the ID of the corresponding device as an index point.
When the process of step S408 is executed, the process proceeds to step S409.
On the other hand, if it is determined in step S407 that there is no other device within a predetermined distance from the result of determination for each device at the time tmn, a negative result is obtained. The process proceeds to step S409 after passing S408.
ステップS409では、n=Nであるか否かを判別する。ここで、「N」の値は、各撮像装置31から取得した蓄積情報内に含まれる時点tmの数(現在位置情報の数)を表す。この「N」の数値は、例えば先のステップS403にて蓄積情報データベースを生成する過程で取得することができる。或いは、各撮像装置31における現在位置情報の取得周期が固定であれば、その周期の情報と、各撮像装置31からの蓄積情報の取得を行った前回の時刻情報とに基づき計算することもできる。
In step S409, it is determined whether n = N. Here, the value of “N” represents the number of times tm (number of current position information) included in the accumulated information acquired from each
ステップS409において、n=Nではない、すなわち未だ全ての時点tmについて判別を行っていないとして否定結果が得られた場合は、ステップS410に進んでnの値をインクリメント(n=n+1)した後、先のステップS405に戻るようにされる。
一方、ステップS409において、n=Nである、すなわち全ての時点tmについて判別を行ったとして肯定結果が得られた場合は、ステップS411に進む。
In step S409, if n = N is not satisfied, that is, if a negative result is obtained that all the time points tm are not yet determined, the process proceeds to step S410, and after incrementing the value of n (n = n + 1), The process returns to the previous step S405.
On the other hand, in step S409, if n = N, that is, if a positive result is obtained as a result of discrimination for all time points tm, the process proceeds to step S411.
ステップS411では、登録情報に従って、該当機器にインデックスポイントを通知するための処理を実行する。つまり、先のステップS408の登録処理に伴い生成される登録情報において、インデックスポイントとしての時点tmが対応づけられた撮像装置31に対し、そのインデックスポイントとしての時点tmの情報が通知されるようにして通信部24に対する制御を行う。
ステップS411の処理を実行すると、この図に示される処理動作は終了となる。
In step S411, processing for notifying the corresponding device of an index point is executed according to the registration information. That is, in the registration information generated with the registration processing in the previous step S408, the
When the process of step S411 is executed, the processing operation shown in FIG.
なお、第3の実施の形態において、上記による説明では、各撮像装置31が備える位置検出手段がGPSユニットとされる場合を例示したが、これに代えて、Wi-Fiや携帯電話会社が提供する位置情報サービスを利用した位置検出手段を備えるようにしてもよい。
In the third embodiment, in the above description, the case where the position detection unit included in each
また、第3の実施の形態において、実際のシステムを想定した場合には、サーバ装置40では、各撮像装置31ごとの総当たりによる距離計算を行うにあたって、膨大な処理負担が生じかねない。例えば、撮像装置31がn個ある場合、距離計算は1/2n(n−1)通り行うことになる。そこで、実際においては、複数のサーバ装置40を設けて、少なくとも距離計算については分担させて行うようにすることもできる。その場合、予め各サーバ装置40が受け持つ撮像装置31をグルーピングしておくことが有効となる。例えば、図10、図11を参照して説明したような第3の実施の形態としての手法を採る場合には、撮像装置31ごとに、取得した現在位置情報を送信すべきサーバ装置40を複数のサーバ装置40のうちから予め設定しておくようにすればよい。
或いは、第3の実施の形態の変形例としての手法を採る場合は、各サーバ装置40ごとに、予め蓄積情報の取得を行うべき撮像装置31を設定しておくものとすればよい。
Further, in the third embodiment, when an actual system is assumed, the
Or when the method as a modification of 3rd Embodiment is taken, what is necessary is just to set the
また、特に第3の実施の形態の変形例としての手法を採る場合には、サーバ装置40としての動作を、予め何らかの手法によって選出された撮像装置31が行うようにすることもできる。その場合、例えば夜中などユーザが外出活動しない時間帯など、撮像装置31が自動撮像を行っていない状態において、上記選出された撮像装置31が、他の複数の撮像装置31から蓄積情報を取得して、先に説明したサーバ装置40と同様の処理を行って各撮像装置31にインデックスポイントを通知するものとすればよい。なお確認のために述べておくと、上記選出された撮像装置31では、自らの蓄積情報も含めて蓄積情報データベースを生成することになる。また、当該選出された撮像装置31では、自身について登録したインデックスポイントに基づき、画像データに対するインデックス付与を行うことになる。
In particular, when the technique as a modified example of the third embodiment is adopted, the operation as the
<変形例>
以上、本発明の実施の形態について説明したが、本発明としてはこれまでに説明した具体例に限定されず、多様な変形例が考えられる。
例えば、これまでの説明では、人と会っているとされる状態であるか否かの判別を、画像解析、音声解析、撮像装置間の位置関係の解析の結果に基づき行う場合を例示したが、この他、例えば焦電型などの赤外線センサによる検出信号を利用して行うこともできる。その場合、赤外線センサの検出信号から人の存在が検出されたか否かについて判別した結果に基づき、人と会っているとされる状態であるか否かを判別するものとすればよい。
<Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the specific examples described so far, and various modifications can be considered.
For example, in the description so far, the case where the determination as to whether or not the person is in a state of meeting with a person is performed is based on the results of image analysis, sound analysis, and analysis of the positional relationship between the imaging devices. In addition, for example, the detection can be performed using a detection signal from an infrared sensor such as a pyroelectric type. In that case, it may be determined whether or not the person is in a state of meeting with a person based on the result of determining whether or not the presence of a person is detected from the detection signal of the infrared sensor.
また、画像解析では、人の顔としてのデータ部分の検出時間長が所定長以上であるという条件も与えるものとしたが、他の条件を与えることも勿論可能である。
例えば、画像内の小さな顔(つまりユーザと離れた位置におり、ユーザと会っていると推定することのできない人物)が検出されてしまうことを防止するために、人の顔と認識できるデータ部分の画像サイズが予め定めた所定サイズ以上であるなどの条件を課すこともできる。具体的に、その場合の画像解析部10では、人の顔と認識できるデータ部分が検出され、且つそのデータ部分の画像サイズが上記所定サイズ以上であることを以て、人の顔と認識できるデータ部分が検出された旨の人検出情報をシステムコントローラ2に供給するものとすればよい。もちろん、この場合においても検出時間長の条件を加えることもできる。
In the image analysis, the condition that the detection time length of the data portion as a human face is equal to or longer than a predetermined length is given, but other conditions can of course be given.
For example, a data portion that can be recognized as a human face in order to prevent detection of a small face in the image (that is, a person who is far from the user and cannot be estimated to meet the user) It is also possible to impose conditions such as that the image size is equal to or larger than a predetermined size. Specifically, in this case, the
また、特に第1の実施の形態において、無線通信可能な機器があるか否かの判別により人と会っているとされる状態であるか否かの判別を行うにあたっては、通信可能とされた機器が、撮像装置1であることを条件として追加することもできる。すなわち、通信可能機器が検出され、且つその機器が撮像装置1と特定できた場合に、人と会っているとされる状態であるとの判別結果を得るようにするものである。
これによれば、例えば撮像装置の周囲に無線通信可能機器が多く存在することが想定される場合などにおいて、外部に通信可能な外部機器があることを以てむやみにインデックスが付されてしまうといった事態の防止を図ることができる。
In particular, in the first embodiment, communication can be performed when determining whether or not a device is in a state of meeting a person by determining whether or not there is a device capable of wireless communication. It can also be added on condition that the device is the
According to this, for example, when it is assumed that there are many devices capable of wireless communication around the imaging apparatus, an index is added unnecessarily due to the presence of external devices that can communicate with the outside. Prevention can be achieved.
また、これまでの説明では、人と会っているとされる状態であるか否かの判別結果が、自動撮像による撮像画像データの一取込期間内(つまり自動撮像周期が5秒であればその5秒以内)で得られることを前提として説明を行ったが、例えば画像解析として、実施の形態で例示したように顔の検出時間長が所定長以上であることも条件に加える場合などには、判別結果が得られるタイミングが、一取込期間内に間に合わないケースが生じることも考えられ得る。
例えばそのような場合に対応しては、人と会っているとされる状態であるか否かの判別が、どの取込期間内に対応して行われているものであるかの対応をとっておくものとすればよい。これにより、判別結果が対応する取込期間内に間に合わない場合であっても、取込画像ごとの判別結果を適正に管理することができる。
Further, in the description so far, the determination result as to whether or not the person is in a state of being in contact with a person is within a capturing period of captured image data by automatic imaging (that is, if the automatic imaging period is 5 seconds). The explanation was made on the premise that it can be obtained within 5 seconds). However, for example, in the case of adding to the condition that the face detection time length is not less than a predetermined length as exemplified in the embodiment as an image analysis. In other words, there may be a case where the timing at which the determination result is obtained is not in time within one capture period.
For example, in response to such a case, it is determined in which capture period the determination as to whether or not the person is said to be meeting a person is performed. You should keep it. Thereby, even if it is a case where a discrimination | determination result is not in time for the corresponding capture period, the discrimination | determination result for every captured image can be managed appropriately.
また、これまでの説明では、インデックスとしては、各判別項目ごとに複数種をそれぞれ別々に付す場合を例示したが、インデックスは、例えば判別項目を1つのみとして、1種のみを付すようにもできる。
或いは、これまでで説明した具体例の場合と同様に、複数の判別項目による判別を行った上で、その結果、所定の複数の判別項目で肯定結果が得られたことに応じて、総合的な(最終的な)判別結果を得るようにし、最終的に1種のインデックスのみを付すといったこともできる。具体的には、例えば画像解析に基づく判別処理と、位置解析に基づく判別処理との双方で肯定結果が得られた場合や、或いは音声解析に基づく判別処理と位置解析に基づく判別処理との双方で肯定結果が得られた場合に、人と会っているとされる状態であるとの最終的な判別結果を得て、該判別結果が得られた場合に、1種のインデックスのみを付すといったものである。
ここで、上記のようにして複数の項目による判別結果から総合的な判別結果を得るものとすれば、人と会っているとされる状態であるか否かの判別をより正確に行うことができる。
Further, in the description so far, as an index, an example in which a plurality of types are assigned separately for each discrimination item has been illustrated, but for example, an index may be provided with only one discrimination item with only one discrimination item. it can.
Alternatively, as in the case of the specific examples described so far, after making a determination based on a plurality of determination items, as a result, a positive result is obtained for a plurality of predetermined determination items. It is also possible to obtain a final (final) discrimination result and finally attach only one type of index. Specifically, for example, when a positive result is obtained in both the discrimination processing based on image analysis and the discrimination processing based on position analysis, or both of the discrimination processing based on speech analysis and the discrimination processing based on position analysis If a positive result is obtained, a final discrimination result that it is assumed that the person is in contact with a person is obtained, and when the discrimination result is obtained, only one kind of index is attached. Is.
Here, if a comprehensive determination result is obtained from the determination results of a plurality of items as described above, it is possible to more accurately determine whether or not the person is in a state of meeting with a person. it can.
また、インデックスは、これを付すべきポイントを別途の管理情報(インデックスポイント管理情報8c)を用いて管理するものとしたが、インデックスは、画像データのヘッダに格納するなど、画像データ内(ファイル内)に埋め込むようにして付すことも可能である。
但し、実施の形態で例示したように別途の管理情報で管理すれば、インデックスの検索にあたって画像データをスキャンする処理を不要とでき、その分、高速な検索を行うことができるものとなる。
In addition, the index manages the point to which the index is attached by using separate management information (index
However, if the management is performed using separate management information as exemplified in the embodiment, the process of scanning the image data is not necessary for searching the index, and accordingly, a high-speed search can be performed.
また、実施の形態では、自動撮像により取込を行う画像データが静止画撮像であることを前提として説明を行ったが、動画撮像を行う撮像装置であっても本発明は適用できる。
例えば、動画撮像を常時継続的に撮像するのではなく、断続的に、一定時間だけ動画撮像を行うような動作方式も考えられる。そのような場合には、取り込まれる各撮像画像データについて、同様に人と会っているとされる状態であるか否かの判別、及び判別結果に基づくインデックス付与を行うものとすればよい。
In the embodiments, the description has been made on the assumption that the image data to be captured by automatic imaging is still image imaging. However, the present invention can also be applied to an imaging apparatus that performs moving image imaging.
For example, an operation method may be considered in which moving image capturing is not performed continuously at all times, but is performed intermittently for a predetermined time. In such a case, it is only necessary to determine whether or not each captured image data to be captured is in a state where it is considered to meet a person, and to assign an index based on the determination result.
ここで、撮像画像データとして動画データを想定した場合、連続的なインデックスを付すことが考えられる。つまり、その場合は、人と会っているとされる状態であるか否かを連続的に判別し、該判別により肯定結果が得られたときに、インデックスとしてのマーカのONポイントを設定する。そして、このような連続的な判別により肯定結果が得られる状態が継続する限りは、上記マーカをONとし続け、否定結果が得られたことに応じ、マーカのOFFポイントを設定する。これにより、動画像に対応して時系列方向に連続的なマーカ(インデックス)を付すことができる。 Here, when moving image data is assumed as captured image data, it is conceivable to add a continuous index. That is, in this case, it is continuously determined whether or not it is in a state where it is assumed that a person is met, and when a positive result is obtained by the determination, an ON point of the marker as an index is set. Then, as long as a state in which an affirmative result is obtained by such continuous determination continues, the marker is kept on, and an OFF point of the marker is set in response to obtaining a negative result. Thereby, a continuous marker (index) can be attached in the time series direction corresponding to the moving image.
また、これまでの説明では、インデックスについての具体的な用途については言及はしなかったが、例えば以下のような用途が考えられる。
例えば、閲覧時の画像のサーチに用いることが考えられる。或いは、閲覧時に保存画像の代表画像(代表シーン)をピックアップして一覧表示する場合などにおいてサムネイル画像を表示する際には、該サムネイル画像を表示すべき画像をインデックスを用いて選出するなどが考えられる。
また、特に動画像を想定した場合には、インデックスポイントにチャプタを打つなどの用途も考えられる。
In the description so far, the specific use of the index has not been mentioned, but for example, the following use can be considered.
For example, it may be used for searching for images during browsing. Alternatively, when displaying a thumbnail image in the case of displaying a list of representative images (representative scenes) of a stored image that are picked up at the time of browsing, it is conceivable to select an image on which the thumbnail image should be displayed using an index. It is done.
In addition, particularly when a moving image is assumed, there may be a use such as placing a chapter at an index point.
1,31 撮像装置、2 システムコントローラ、3 撮像部、3a 撮像光学系、3b 撮像素子部、3c 撮像信号処理部、4 撮像制御部、5 表示部、6 表示制御部、7 操作入力部、8 ストレージ部、9 通信部、10 画像解析部、11 音声解析部、12 バス、13 音声入力部、14 GPSユニット、20,40 サーバ装置、21 制御部、22 時刻計時部、23 記憶部、24 通信部、30 基地局、32 ネットワーク 1,31 imaging device, 2 system controller, 3 imaging unit, 3a imaging optical system, 3b imaging element unit, 3c imaging signal processing unit, 4 imaging control unit, 5 display unit, 6 display control unit, 7 operation input unit, 8 Storage unit, 9 communication unit, 10 image analysis unit, 11 audio analysis unit, 12 bus, 13 audio input unit, 14 GPS unit, 20, 40 server device, 21 control unit, 22 timekeeping unit, 23 storage unit, 24 communication Department, 30 base stations, 32 networks
Claims (12)
制御手段を備えると共に、
上記制御手段は、
上記撮像手段により得られる撮像画像データを使用者の操作に基づかず自動的に取り込む撮像画像自動取込処理と、
入力情報に基づき人と会っていると推定できる状態であるか否かを判別する判別処理と、
上記判別処理により人と会っていると推定できる状態であると判別した場合に、上記撮像画像自動取込処理により取り込まれた上記撮像画像データに対してインデックスが付されるように制御するインデックス付与処理とを実行する、
ことを特徴とする撮像装置。 Imaging means for capturing an image of a subject and obtaining captured image data;
With control means,
The control means includes
A captured image automatic capture process that automatically captures captured image data obtained by the imaging means without the user's operation;
A determination process for determining whether or not it is in a state where it can be estimated that a person is met based on input information;
Indexing for controlling the captured image data captured by the captured image automatic capturing process to be indexed when it is determined that the person can be estimated to meet the person through the determining process. Process and execute,
An imaging apparatus characterized by that.
上記撮像手段により得られる撮像画像データについての画像解析結果に基づき、人と会っていると推定できる状態であるか否かを判別する、
ことを特徴とする請求項1に記載の撮像装置。 In the determination process by the control means,
Based on the image analysis result of the captured image data obtained by the imaging means, it is determined whether or not it is in a state that can be estimated to meet with a person,
The imaging apparatus according to claim 1.
上記撮像画像データ内に人の顔と推定できる画像が含まれているか否かについての画像解析結果に基づき、人と会っていると推定できる状態であるか否かを判別する、
ことを特徴とする請求項2に記載の撮像装置。 In the above discrimination process,
Based on the image analysis result about whether or not an image that can be estimated to be a human face is included in the captured image data, it is determined whether or not it is a state that can be estimated to meet a person,
The imaging apparatus according to claim 2.
外部音を収音して得られた収音データについての音声解析結果に基づき人と会っていると推定できる状態であるか否かを判別する、
ことを特徴とする請求項1に記載の撮像装置。 In the determination process by the control means,
It is determined whether it is in a state where it can be estimated that the person is meeting with a person based on the sound analysis result of the sound collection data obtained by collecting the external sound,
The imaging apparatus according to claim 1.
上記判別処理では、
上記収音データ内に上記声紋データと一致するとされるデータ部分が存在するか否かについての音声解析結果に基づき、人と会っていると推定できる状態であるか否かを判別する、
ことを特徴とする請求項4に記載の撮像装置。 A storage means for storing predetermined voiceprint data;
In the above discrimination process,
It is determined whether or not it is in a state where it can be estimated that a person is met, based on a voice analysis result as to whether or not there is a data portion that matches the voiceprint data in the collected sound data.
The imaging apparatus according to claim 4.
上記制御手段による上記判別処理では、
上記近距離無線通信手段による通信可能範囲に他の装置が存在するか否かについての判別結果に基づき、人と会っていると推定できる状態であるか否かを判別する、
ことを特徴とする請求項1に記載の撮像装置。 With short-range wireless communication means for performing short-range wireless communication with an external device,
In the determination process by the control means,
Based on the determination result as to whether there is another device in the communicable range by the short-range wireless communication means, it is determined whether it is in a state that can be estimated to meet a person,
The imaging apparatus according to claim 1.
人と会っているとされる状態として推定される、予め定められた所定の複数の条件が成立したか否かを判別することで、人と会っていると推定できる状態であるか否かについての最終的な判別結果を得る、
ことを特徴とする請求項1に記載の撮像装置。 In the determination process by the control means,
Whether or not it is possible to presume meeting with a person by determining whether or not a plurality of predetermined conditions that are presumed to be meeting with a person are met To obtain the final discrimination result of
The imaging apparatus according to claim 1.
入力情報に基づき人と会っていると推定できる状態であるか否かを判別する判別手順と、
上記判別手順により人と会っていると推定できる状態であると判別した場合に、自動的に取り込まれた上記撮像画像データに対してインデックスが付されるように制御するインデックス付与手順と、
を備えたことを特徴とする画像インデックス付与方法。 An image index assigning method in an imaging apparatus that automatically captures captured image data obtained by capturing an image of an object without the user's operation,
A determination procedure for determining whether or not it is in a state where it can be estimated that a person is met based on input information,
When it is determined that it is in a state where it can be estimated that the person meets the person according to the determination procedure, an indexing procedure for controlling the captured image data that is automatically captured to be indexed;
An image indexing method characterized by comprising:
上記情報処理装置は、
データ通信を行って上記撮像装置の所在位置に関する情報を取得する位置情報取得処理と、
上記位置情報取得処理により取得した上記撮像装置の上記所在位置に関する情報に基づき、所定範囲内に他の撮像装置が存在する撮像装置を検索する検索処理と、
上記検索処理による検索の結果、上記所定範囲内に他の撮像装置が存在するとして特定した撮像装置に対して通知を行う通知処理とを実行する情報処理装置側制御手段を備え、
上記撮像装置は、
被写体を撮像して撮像画像データを得る撮像手段と、
撮像装置側制御手段を備えると共に、
上記撮像装置側制御手段は、
上記撮像手段により得られる撮像画像データを使用者の操作に基づかず自動的に取り込む撮像画像自動取込処理と、
上記情報処理装置側における上記通知処理による通知に基づき、上記撮像画像自動取込処理により自動的に取り込まれた上記撮像画像データに対してインデックスが付されるように制御するインデックス付与処理とを実行する、
ことを特徴とする画像インデックス付与システム。 An image indexing system including an information processing device and a plurality of imaging devices configured to be capable of data communication between the information processing device,
The information processing apparatus
Position information acquisition processing for performing data communication to acquire information on the location of the imaging device;
A search process for searching for an imaging apparatus in which another imaging apparatus exists within a predetermined range based on information on the location of the imaging apparatus acquired by the position information acquisition process;
As a result of the search by the search process, the information processing apparatus-side control means for executing a notification process for notifying an imaging apparatus specified as having another imaging apparatus within the predetermined range,
The imaging apparatus is
Imaging means for capturing an image of a subject and obtaining captured image data;
With the imaging device side control means,
The imaging device side control means includes:
A captured image automatic capture process that automatically captures captured image data obtained by the imaging means without the user's operation;
Based on the notification by the notification process on the information processing apparatus side, an indexing process is performed to control the captured image data automatically captured by the captured image automatic capture process to be indexed. To
An image indexing system characterized by that.
上記情報処理装置側制御手段による上記位置情報取得処理では、
上記撮像装置の所在位置に関する情報を、上記撮像装置についての通信データを中継する上記無線通信中継器から特定されるエリア情報に基づいて取得する、
ことを特徴とする請求項9に記載の画像インデックス付与システム。 The imaging device is configured to perform data communication with the information processing device via a wireless communication repeater,
In the position information acquisition process by the information processing apparatus side control means,
Obtaining information on the location of the imaging device based on area information identified from the wireless communication repeater that relays communication data about the imaging device;
The image indexing system according to claim 9.
現在位置を検出する位置検出手段を備えると共に、
上記情報処理装置側制御手段による上記位置情報取得処理では、
上記撮像装置にて検出される上記現在位置の情報を上記所在位置に関する情報として取得する、
ことを特徴とする請求項9に記載の画像インデックス付与システム。 The imaging apparatus is
In addition to providing position detection means for detecting the current position,
In the position information acquisition process by the information processing apparatus side control means,
Obtaining information on the current position detected by the imaging device as information on the location;
The image indexing system according to claim 9.
上記撮像装置における上記位置検出手段により検出された現在位置情報を取得する位置情報取得処理と、
上記位置情報取得処理により取得した上記位置情報に基づき、所定範囲内に他の撮像装置が存在する撮像装置を検索する検索処理と、
上記検索処理による検索の結果、上記所定範囲内に他の撮像装置が存在するとして特定した撮像装置に対して通知を行う通知処理とを実行する制御手段を備える、
ことを特徴とする情報処理装置。 An information processing apparatus comprising position detection means for detecting a current position and capable of data communication with a plurality of image pickup apparatuses that are automatically captured image data not based on a user's operation Because
Position information acquisition processing for acquiring current position information detected by the position detection means in the imaging device;
Based on the position information acquired by the position information acquisition process, a search process for searching for an image pickup apparatus in which another image pickup apparatus exists within a predetermined range;
As a result of the search by the search process, a control unit is provided that performs a notification process for notifying an imaging device that is identified as having another imaging device within the predetermined range.
An information processing apparatus characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007280125A JP2009111571A (en) | 2007-10-29 | 2007-10-29 | Imaging apparatus, image index attaching method, image index attaching system, information processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007280125A JP2009111571A (en) | 2007-10-29 | 2007-10-29 | Imaging apparatus, image index attaching method, image index attaching system, information processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009111571A true JP2009111571A (en) | 2009-05-21 |
Family
ID=40779614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007280125A Pending JP2009111571A (en) | 2007-10-29 | 2007-10-29 | Imaging apparatus, image index attaching method, image index attaching system, information processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009111571A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012019265A (en) * | 2010-07-06 | 2012-01-26 | Jvc Kenwood Corp | Image processing device |
WO2015185962A1 (en) * | 2014-06-03 | 2015-12-10 | Sony Corporation | Lifelog camera and method of controlling in association with an intrapersonal area network |
JP6341526B1 (en) * | 2018-01-16 | 2018-06-13 | 新生環境株式会社 | Self-action recording camera |
-
2007
- 2007-10-29 JP JP2007280125A patent/JP2009111571A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012019265A (en) * | 2010-07-06 | 2012-01-26 | Jvc Kenwood Corp | Image processing device |
WO2015185962A1 (en) * | 2014-06-03 | 2015-12-10 | Sony Corporation | Lifelog camera and method of controlling in association with an intrapersonal area network |
JP2017528014A (en) * | 2014-06-03 | 2017-09-21 | ソニー株式会社 | Life log camera, control method associated with IAN |
US10194067B2 (en) | 2014-06-03 | 2019-01-29 | Sony Mobile Communications Inc. | Lifelog camera and method of controlling in association with an intrapersonal area network |
JP6341526B1 (en) * | 2018-01-16 | 2018-06-13 | 新生環境株式会社 | Self-action recording camera |
JP2019124816A (en) * | 2018-01-16 | 2019-07-25 | 新生環境株式会社 | Self behavior recording camera |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7995109B2 (en) | Imaging apparatus that captures an image of a subject | |
US8660293B2 (en) | Imaged image data processing apparatus, viewing information creating apparatus, viewing information creating system, imaged image data processing method and viewing information creating method | |
JP5888172B2 (en) | Data storage device and program | |
US7649551B2 (en) | Electronic camera system, photographing ordering device and photographing system | |
JP5162928B2 (en) | Image processing apparatus, image processing method, and image processing system | |
JP2014090386A (en) | Information processing system, information processing device, and program | |
US20070228159A1 (en) | Inquiry system, imaging device, inquiry device, information processing method, and program thereof | |
JP4826485B2 (en) | Image storage device and image storage method | |
CN103869468A (en) | Information processing apparatus and recording medium | |
CN111917980B (en) | Photographing control method and device, storage medium and electronic equipment | |
JP6028457B2 (en) | Terminal device, server, and program | |
JP5915457B2 (en) | Control system and program | |
JP6096654B2 (en) | Image recording method, electronic device, and computer program | |
US20150124111A1 (en) | Information processing apparatus, information processing method, and program | |
JPWO2014030407A1 (en) | Control device and storage medium | |
JP2013207721A (en) | Image pickup device and its white balance correction method and white balance correction program | |
US20180295283A1 (en) | Mobile terminal and method of controlling the same | |
JP2013162277A (en) | Digital camera | |
JP4421929B2 (en) | Server system | |
JP2009111571A (en) | Imaging apparatus, image index attaching method, image index attaching system, information processor | |
US20150124101A1 (en) | Information processing apparatus, information processing method, and program | |
JP2017005395A (en) | Imaging apparatus, imaging control method, and program | |
JP2013034237A (en) | Image processor, image processing method and image processing system | |
JP2009111827A (en) | Photographing apparatus and image file providing system | |
JP2009055080A (en) | Imaging apparatus, and imaging method |