JP2009111571A - Imaging apparatus, image index attaching method, image index attaching system, information processor - Google Patents

Imaging apparatus, image index attaching method, image index attaching system, information processor Download PDF

Info

Publication number
JP2009111571A
JP2009111571A JP2007280125A JP2007280125A JP2009111571A JP 2009111571 A JP2009111571 A JP 2009111571A JP 2007280125 A JP2007280125 A JP 2007280125A JP 2007280125 A JP2007280125 A JP 2007280125A JP 2009111571 A JP2009111571 A JP 2009111571A
Authority
JP
Japan
Prior art keywords
imaging
person
information
captured image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007280125A
Other languages
Japanese (ja)
Inventor
Akinobu Sugino
彰信 杉野
Masamichi Asukai
正道 飛鳥井
Daiji Ito
大二 伊藤
Akane Sano
あかね 佐野
Yoshiteru Kabaya
美輝 蒲谷
Kazunori Hayashi
和則 林
Takayasu Kon
孝安 今
Yasunori Kamata
恭則 鎌田
Mitsuru Takehara
充 竹原
Yoichiro Sako
曜一郎 佐古
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007280125A priority Critical patent/JP2009111571A/en
Publication of JP2009111571A publication Critical patent/JP2009111571A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enhance usability of system by effectively reading images stored in an automatic imaging apparatus not based on user manipulations. <P>SOLUTION: Whether a user of the imaging apparatus is in the condition that he is meeting the other person or not can be identified, for example, by analyzing images and voices or by analyzing positional relationship with each imaging apparatus. Based on the result of this determination, an index is attached to the image fetched by the automatic imaging operation. Accordingly, an index can be attached to the image that is considered as the important image among those fetched by the automatic imaging process in view of achieving highly effective reading of images. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮像装置として、特に使用者の操作に基づかずに撮像画像データを自動的に取り込むようにされた撮像装置、及び上記撮像画像データに対してインデックスを付すための画像インデックス付与方法に関する。また、撮像装置と情報処理装置とを含んで構成される画像インデックス付与システム、及び情報処理装置に関する。   The present invention relates to an imaging apparatus that automatically captures captured image data without being based on a user's operation as an imaging apparatus, and an image index assigning method for indexing the captured image data. . The present invention also relates to an image indexing system including an imaging device and an information processing device, and the information processing device.

例えばライフログカメラなどとして、ユーザが装着しているカメラが自動的に定期的な画像撮像を行うことで、ユーザが日常生活で目にする光景を画像データとして記録するカメラが提案されている。このライフログカメラを使用することで、ユーザの行動履歴や思い出などを、画像データとして残すことが可能となる。
また近年、インターネット上では日記風の記録(例えばブログなど)の公開が増加してきているが、上記のようなライフログカメラは、例えばこのようなブログの写真素材の調達用途にも好適となる。
For example, a camera that records a scene that the user sees in daily life as image data by automatically taking a periodic image with a camera worn by the user, such as a life log camera, has been proposed. By using this life log camera, it becomes possible to leave a user's action history, memories, etc. as image data.
In recent years, the publication of diary-like records (for example, blogs) has been increasing on the Internet, but the life log camera as described above is also suitable for use in, for example, procurement of photographic material for such blogs.

なお、関連する従来技術については下記の特許文献を挙げることができる。
特開2006−270627号公報 特開2007−13843号公報
In addition, about the related prior art, the following patent documents can be mentioned.
JP 2006-270627 A JP 2007-13843 A

ここで、上記のように定期的な自動撮像を行うライフログカメラをユーザが装着し日常の行動を行った場合、大量の画像データが撮影・保存されることが想定される。例えば自動撮像として10秒おきに画像データを取り込むとした場合、単純計算で半日(12時間)あたり4320枚もの画像データが保存されることになる。   Here, when a user wears a life log camera that performs periodic automatic imaging as described above and performs daily actions, it is assumed that a large amount of image data is captured and stored. For example, when image data is captured every 10 seconds for automatic imaging, as many as 4320 image data are stored per half day (12 hours) by simple calculation.

このように大量な画像データが保存されてしまうと、ユーザが一日の行動を振り返るとしても、保存画像を順に閲覧することは非常な負担となる。つまり、自動撮像を行う装置において、このように大量に保存される画像の閲覧について何ら工夫が凝らされない場合は、ユーザに効率的に行動履歴を振り返らせることができなくなってしまい、システムの有用性を著しく害するものとなってしまう。   If a large amount of image data is stored in this manner, even if the user looks back on the behavior of the day, it is very burdensome to browse the stored images in order. In other words, in an apparatus that performs automatic imaging, if there is no contrivance for browsing images that are stored in large quantities in this way, the user will not be able to efficiently look back on the action history, and the usefulness of the system Will be seriously harmful.

本発明では以上ような点に鑑み、例えばライフログ用途などで自動撮像を行う場合において、膨大な保存量となる画像のうちユーザにとって重要とされる画像が効率的に閲覧されるようにすることを目的とする。
このために本発明では、撮像装置として以下のように構成することとした。
つまり、被写体を撮像して撮像画像データを得る撮像手段と、制御手段とを備える。
そして、上記制御手段は、
上記撮像手段により得られる撮像画像データを使用者の操作に基づかず自動的に取り込む撮像画像自動取込処理と、
入力情報に基づき人と会っていると推定できる状態であるか否かを判別する判別処理と、
上記判別処理により人と会っていると推定できる状態であると判別した場合に、上記撮像画像自動取込処理により取り込まれた上記撮像画像データに対してインデックスが付されるように制御するインデックス付与処理とを実行するものである。
In the present invention, in view of the above points, for example, when performing automatic imaging for life log use, an image that is important for the user among images that have a large storage amount is efficiently browsed. With the goal.
Therefore, in the present invention, the imaging apparatus is configured as follows.
That is, an imaging unit that captures an image of a subject and obtains captured image data and a control unit are provided.
And the control means
A captured image automatic capture process that automatically captures captured image data obtained by the imaging means without the user's operation;
A determination process for determining whether or not it is in a state where it can be estimated that a person is met based on input information;
Indexing for controlling the captured image data captured by the captured image automatic capturing process to be indexed when it is determined that the person can be estimated to meet the person through the determining process. Process.

また、上記制御手段による上記判別処理では、上記撮像手段により得られる撮像画像データについての画像解析結果に基づき、人と会っていると推定できる状態であるか否かを判別する。例えば、上記撮像画像データ内に人の顔と推定できる画像が含まれているか否かについての画像解析結果に基づき、人と会っていると推定できる状態であるか否かを判別する。
或いは、上記判別処理では、外部音を収音して得られた収音データについての音声解析結果に基づき人と会っていると推定できる状態であるか否かを判別する。例えば、所定の声紋データが記憶された記憶手段をさらに備え、上記判別処理では、上記収音データ内に上記声紋データと一致するとされるデータ部分が存在するか否かについての音声解析結果に基づき、人と会っていると推定できる状態であるか否かを判別する。
或いは、外部装置との間で近距離無線通信を行う近距離無線通信手段を備えると共に、上記判別処理では、上記近距離無線通信手段による通信可能範囲に他の装置が存在するか否かを判別することで、人と会っていると推定できる状態であるか否かを判別する。
Further, in the determination processing by the control means, it is determined whether or not it is possible to estimate that the person is meeting with a person based on the image analysis result of the captured image data obtained by the imaging means. For example, based on the image analysis result regarding whether or not the image that can be estimated to be a human face is included in the captured image data, it is determined whether or not it is possible to estimate that the person is meeting a person.
Alternatively, in the determination process, it is determined whether or not it can be estimated that the user is meeting with a person based on the sound analysis result of the sound collection data obtained by collecting the external sound. For example, it further comprises storage means for storing predetermined voiceprint data, and in the discrimination process, based on a voice analysis result as to whether or not there is a data portion that matches the voiceprint data in the collected sound data. It is determined whether or not it is in a state where it can be estimated that the person is met.
Alternatively, a short-range wireless communication unit that performs short-range wireless communication with an external device is provided, and in the determination process, it is determined whether or not another device exists in a communicable range of the short-range wireless communication unit. By doing so, it is determined whether or not it is in a state where it can be estimated that a person is met.

また、本発明では、情報処理装置と、上記情報処理装置との間でデータ通信が可能に構成された複数の撮像装置とを含んで構成される画像インデックス付与システムとして以下のように構成することとした。
つまり、上記情報処理装置は、以下の各処理を実行する情報処理装置側制御手段を備える。
すなわち、データ通信を行って上記撮像装置の所在位置に関する情報を取得する位置情報取得処理と、
上記位置情報取得処理により取得した上記撮像装置の上記所在位置に関する情報に基づき、所定範囲内に他の撮像装置が存在する撮像装置を検索する検索処理と、
上記検索処理による検索の結果、上記所定範囲内に他の撮像装置が存在するとして特定した撮像装置に対して通知を行う通知処理とを実行する情報処理装置側制御手段を備える。
また、上記撮像装置は、被写体を撮像して撮像画像データを得る撮像手段と、撮像装置側制御手段とを備える。
そして、上記撮像装置側制御手段は、
上記撮像手段により得られる撮像画像データを使用者の操作に基づかず自動的に取り込む撮像画像自動取込処理と、
上記情報処理装置側における上記通知処理による通知に基づき、上記撮像画像自動取込処理により自動的に取り込まれた上記撮像画像データに対してインデックスが付されるように制御するインデックス付与処理とを実行する。
In the present invention, an image index assigning system including the information processing device and a plurality of imaging devices configured to be capable of data communication with the information processing device is configured as follows. It was.
That is, the information processing apparatus includes information processing apparatus side control means for executing the following processes.
That is, position information acquisition processing for performing data communication to acquire information on the location of the imaging device;
A search process for searching for an imaging apparatus in which another imaging apparatus exists within a predetermined range based on information on the location of the imaging apparatus acquired by the position information acquisition process;
As a result of the search by the search process, there is provided an information processing apparatus side control means for executing a notification process for notifying an imaging apparatus identified as having another imaging apparatus within the predetermined range.
Further, the imaging apparatus includes an imaging unit that captures an image of a subject and obtains captured image data, and an imaging apparatus side control unit.
And the said imaging device side control means is
A captured image automatic capture process that automatically captures captured image data obtained by the imaging means without the user's operation;
Based on the notification by the notification process on the information processing apparatus side, an indexing process is performed to control the captured image data automatically captured by the captured image automatic capture process to be indexed. To do.

また、本発明では情報処理装置として以下のように構成することとした。
すなわち、本発明の情報処理装置は、現在位置を検出する位置検出手段を備え、且つ撮像画像データを使用者の操作に基づかず自動的に取り込むようにされた複数の撮像装置との間でデータ通信が可能に構成された情報処理装置であって、以下の処理を実行する制御手段を備えるものである。
すなわち、上記撮像装置における上記位置検出手段により検出された現在位置情報を取得する位置情報取得処理と、
上記位置情報取得処理により取得した上記位置情報に基づき、所定範囲内に他の撮像装置が存在する撮像装置を検索する検索処理と、
上記検索処理による検索の結果、上記所定範囲内に他の撮像装置が存在するとして特定した撮像装置に対して通知を行う通知処理とを実行する制御手段を備えるものである。
In the present invention, the information processing apparatus is configured as follows.
That is, the information processing apparatus of the present invention includes position detection means for detecting the current position, and data between a plurality of imaging apparatuses that are automatically captured image data without being based on user operations. An information processing apparatus configured to be able to communicate, and includes a control unit that executes the following processing.
That is, position information acquisition processing for acquiring current position information detected by the position detection means in the imaging device;
Based on the position information acquired by the position information acquisition process, a search process for searching for an image pickup apparatus in which another image pickup apparatus exists within a predetermined range;
As a result of the search by the search process, there is provided control means for executing a notification process for notifying an image pickup apparatus specified as having another image pickup apparatus within the predetermined range.

上記本発明によれば、撮像装置を携帯したユーザが人と会っているとされる状態にあるか否かの判別結果に応じて、自動撮像された画像データに対してインデックスを付すことができる。このとき、人と会っているとされる状態であるか否かの判別は、例えば(1)撮像画像データに人の顔に該当する画像が映し出されているか否か、(2)収音音声データに所定の声紋データと一致する部分が検出されたか否か、(3)装置間の位置関係として所定範囲内に他の装置(ユーザ)が存在するか否か、のうち少なくとも何れかの条件成立有無を判別することで行うことができる。
ここで、ユーザの日常生活において、重要な出来事は、ユーザが他の人物と対面している、会話している、又は一緒に行動しているなど、ユーザが他の人物と会っている状態で多く発生すると考えることができる。上記本発明によれば、このように日常生活の中で重要点であると考えられる、ユーザが他の人物と会っているとされる状況下で自動撮像された画像データに対して、インデックスを付与することができる。
According to the present invention, an index can be attached to automatically captured image data in accordance with a determination result as to whether or not the user who carries the imaging device is in a state where he / she is meeting a person. . At this time, it is determined whether or not the person is in a state of meeting with a person. For example, (1) whether or not an image corresponding to a person's face is displayed in the captured image data, and (2) sound pickup sound At least one of the following conditions: whether or not a portion matching the predetermined voiceprint data is detected in the data, and (3) whether or not another device (user) exists within a predetermined range as a positional relationship between the devices. This can be done by determining whether or not it is established.
Here, in the user's daily life, an important event is that the user is meeting other people, such as being facing other people, having a conversation, or acting together. It can be considered that many occur. According to the present invention described above, an index is assigned to image data that is automatically captured in a situation where the user is meeting with another person, which is considered to be an important point in daily life. Can be granted.

本発明によれば、自動撮像を行う撮像装置において、ユーザが他の人物と会っているとされる状況下で撮像された画像データに対してインデックスを付すことができる。このことで、自動撮像により大量に保存される画像データについて、重要とされる部分とそうでない部分とを分別することができる。
すなわち、このようなインデックスの付与によって、自動撮像により大量に保存された画像データを、ユーザに効率的に閲覧させることができ、行動履歴を振り返るにあたってのユーザ負担を効果的に削減することができる。このことで、例えばユーザの日常生活を記録しそれを振り返らせるといったシステムを、より有用性の高いものとして実現することができる。
According to the present invention, in an imaging apparatus that performs automatic imaging, it is possible to add an index to image data captured in a situation where the user is meeting another person. With this, it is possible to separate a part that is important and a part that is not so from image data stored in large quantities by automatic imaging.
That is, by providing such an index, it is possible to allow a user to efficiently browse a large amount of image data stored by automatic imaging, and it is possible to effectively reduce the user burden when looking back on the action history. . Thus, for example, a system that records and reflects the daily life of the user can be realized as a more useful system.

以下、本発明を実施するための最良の形態(以下、実施の形態とする)について説明する。

<第1の実施の形態>
[撮像装置の外観例]

実施の形態の撮像装置1としては、各種の形態が想定されるが、それらの外観例を図1(a)(b)(c)に例示する。
先ず、図1(a)は、首かけタイプ(吊り下げタイプ)の撮像装置1を示している。この撮像装置1は、例えばストラップを取り付ける部位を持ち、この部位にストラップを取り付けて図示するようにユーザの首にかけることで装着される。ユーザは、撮像装置1が備える撮像レンズ3Lがユーザの正面方向を被写体方向として撮像出来るように装着すればよい。
なお、図示していないが、例えば撮像装置1の背面部などに、撮像モニタ用や撮像画像の再生などに用いる表示部が設けられてもよい。
Hereinafter, the best mode for carrying out the present invention (hereinafter referred to as an embodiment) will be described.

<First Embodiment>
[External appearance of imaging device]

Various forms are assumed as the imaging device 1 of the embodiment, and examples of their appearance are illustrated in FIGS. 1 (a), 1 (b), and 1 (c).
First, FIG. 1A shows an imaging apparatus 1 of a neck type (hanging type). The imaging apparatus 1 has a part to which a strap is attached, for example, and is attached by attaching the strap to this part and hanging it on the user's neck as shown in the figure. The user only needs to wear the imaging lens 3L included in the imaging device 1 so that the imaging can be performed with the front direction of the user as the subject direction.
Although not shown, for example, a display unit used for an imaging monitor or reproduction of a captured image may be provided on the back surface of the imaging device 1 or the like.

図1(b)は、眼鏡型ディスプレイカメラとした撮像装置1を示している。撮像装置1は、例えば両側頭部から後頭部にかけて半周回するようなフレームの構造の装着ユニットを持ち、図のように両耳殻にかけられることでユーザに装着される。
この撮像装置1は、ユーザが装着した状態において、ユーザの視界方向を被写体方向として撮像するように、前方に向けて撮像レンズ3Lが配置されている。
また、図示のような装着状態において、ユーザの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の表示部5、5が配置される構成とされている。この表示部5には、例えば液晶パネルが用いられ、透過率を制御することで、図のようなスルー状態、即ち透明又は半透明の状態とできる。表示部5がスルー状態とされることで、眼鏡のようにユーザが常時装着していても、通常の生活には支障がない。
なお、表示部5は、両眼に対応して一対設けられる他、片側の眼に対応して1つ設けられる構成も考えられる。
図1(c)は、上記表示部5が設けられない外観例を示している。
FIG. 1B shows an imaging apparatus 1 that is a glasses-type display camera. The imaging device 1 has a mounting unit having a frame structure that makes a half turn, for example, from both sides of the head to the back of the head, and is mounted on the user by being placed on both ear shells as illustrated.
In the imaging device 1, the imaging lens 3 </ b> L is arranged forward so that imaging is performed with the user's visual field direction as the subject direction when the user is wearing the imaging device 1.
Further, in the wearing state as shown in the figure, a pair of display units 5 and 5 for the left eye and the right eye are arranged immediately before both eyes of the user, that is, at a position where a lens in normal glasses is located. Has been. For example, a liquid crystal panel is used for the display unit 5. By controlling the transmittance, a through state as shown in the figure, that is, a transparent or translucent state can be obtained. Since the display unit 5 is in the through state, there is no problem in normal life even if the user always wears it like glasses.
In addition to a pair of display units 5 corresponding to both eyes, a configuration in which one display unit 5 is provided corresponding to one eye is also conceivable.
FIG. 1C shows an example of the appearance in which the display unit 5 is not provided.

図1では、首かけタイプ、或いは眼鏡型などの撮像装置1を挙げたが、ユーザが撮像装置1を装着するための構造は多様に考えられる。例えばヘッドフォン型、ネックバンドタイプ、耳掛け式など、どのような装着ユニットでユーザに装着されるものであってもよい。さらには、例えば通常の眼鏡やバイザー、或いはヘッドフォン等に、クリップなどの取付具で取り付けることでユーザに装着させる形態であってもよい。また必ずしもユーザの頭部に装着されるものでなくてもよい。
また、図1(a)の場合、撮像方向をユーザの正面方向としているが、装着時にユーザの後方を撮像するように撮像装置1を首にかけるように装着してもよい。
そして、図1(b)(c)の場合は、撮像方向をユーザの視界方向としているが、装着時にユーザの後方、側方、上方、足下方向などを撮像するように撮像レンズ3Lが取り付けられている構成や、撮像方向が同一又は異なる方向とされた複数の撮像系が設けられている構成も考えられる。
さらに、図1(a)(b)(c)において、1又は複数の撮像レンズ3Lについて、被写体方向を手動又は自動で変更できる撮像方向可変機構を設けてもよい。
In FIG. 1, the neck-mounted type or the eyeglass-type imaging device 1 is exemplified, but various structures for the user to wear the imaging device 1 can be considered. For example, a headphone type, a neckband type, an ear hook type, or any other mounting unit may be worn by the user. Furthermore, for example, a configuration may be adopted in which the user attaches to normal glasses, a visor, headphones, or the like with an attachment such as a clip. Moreover, it does not necessarily have to be worn on the user's head.
In addition, in the case of FIG. 1A, the imaging direction is the front direction of the user, but the imaging device 1 may be worn on the neck so as to capture the back of the user when worn.
In the case of FIGS. 1B and 1C, the imaging direction is the user's field of view, but the imaging lens 3L is attached so as to capture the user's rear, side, upper, and foot directions when worn. A configuration in which a plurality of imaging systems having the same or different imaging directions are provided is also conceivable.
Furthermore, in FIGS. 1A, 1B, and 1C, an imaging direction variable mechanism that can change the subject direction manually or automatically may be provided for one or a plurality of imaging lenses 3L.

なお、動画や静止画撮像を行う撮像装置として、これら図1(a)(b)(c)に示す以外の形態も考えられることは言うまでもない。例えば、車に設置可能な撮像装置であって車内や、或いは車外を撮像することが可能な撮像装置1も本実施の形態として想定できる。例えば車室内を撮像するように取り付けられた撮像装置や、車の前方風景、後方風景等を撮像するように取り付けられた撮像装置である。
また、携帯電話機やPDA(Personal Digital Assistant)、携帯用パーソナルコンピュータなどの機器であって、撮像装置としての機能を備えているものも本実施の形態の撮像装置1として想定できる。
また、これらの各種形態において、例えば外部音声を集音するマイクロフォンを設け、撮像時に、画像データと共に記録する音声信号を得るようにしてもよい。また音声出力を行うスピーカ部やイヤホン部を形成するようにしてもよい。
また、撮像レンズ3Lの近辺に、被写体方向への照明を行う発光部を、例えばLED(Light Emitting Diode)等により設けたり、静止画撮像のためのフラッシュ発光部を設けることも考えられる。
Needless to say, forms other than those shown in FIGS. 1A, 1B, and 1C are also conceivable as an imaging apparatus that captures moving images and still images. For example, an imaging apparatus 1 that can be installed in a vehicle and that can image inside or outside the vehicle can be assumed as the present embodiment. For example, it is an imaging device attached to take an image of the interior of a vehicle or an imaging device attached to take an image of a front landscape, a rear landscape, or the like of a car.
Further, an apparatus such as a mobile phone, a PDA (Personal Digital Assistant), and a portable personal computer that has a function as an imaging apparatus can be assumed as the imaging apparatus 1 of the present embodiment.
In these various forms, for example, a microphone that collects external sound may be provided, and an audio signal to be recorded together with image data may be obtained during imaging. Further, a speaker unit and an earphone unit that perform audio output may be formed.
It is also conceivable that a light emitting unit that performs illumination in the direction of the subject is provided in the vicinity of the imaging lens 3L using, for example, an LED (Light Emitting Diode) or a flash light emitting unit for taking a still image.

[撮像装置の内部構成例]

続いて、実施の形態の撮像装置1の内部構成例について説明する。
図2は、撮像装置1の内部構成を示すブロック図である。
図示するようにして撮像装置1は、システムコントローラ2、撮像部3、撮像制御部4、表示部5、表示制御部6、操作入力部7、ストレージ部8、通信部9、画像解析部10、音声解析部11、バス12、音声入力部13を有する。
[Example of internal configuration of imaging device]

Next, an internal configuration example of the imaging device 1 according to the embodiment will be described.
FIG. 2 is a block diagram illustrating an internal configuration of the imaging apparatus 1.
As illustrated, the imaging apparatus 1 includes a system controller 2, an imaging unit 3, an imaging control unit 4, a display unit 5, a display control unit 6, an operation input unit 7, a storage unit 8, a communication unit 9, an image analysis unit 10, A voice analysis unit 11, a bus 12, and a voice input unit 13 are included.

システムコントローラ2は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ部、インターフェース部を備えたマイクロコンピュータにより構成され、撮像装置1の全体を制御する制御部とされる。このシステムコントローラ2は内部のROM等に保持したプログラムに基づいて、各種演算処理やバス12を介した各部と制御信号等のやりとりを行い、各部に所要の動作を実行させる。   The system controller 2 includes, for example, a microcomputer including a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), a nonvolatile memory unit, and an interface unit, and controls the entire imaging apparatus 1. The control unit The system controller 2 performs various arithmetic processes and exchanges control signals with each unit via the bus 12 based on a program held in an internal ROM or the like, and causes each unit to execute a required operation.

撮像部3は、撮像光学系3a、撮像素子部3b、撮像信号処理部3cを有する。
撮像部3における撮像光学系3aには、図1に示した撮像レンズ3Lや、絞り、ズームレンズ、フォーカスレンズなどを備えて構成されるレンズ系と、レンズ系に対してフォーカス動作やズーム動作を行わせるための駆動系等が備えられる。
また撮像部3における撮像素子部3bには、撮像光学系3aで得られる撮像光を検出し、光電変換を行うことで撮像信号を生成する固体撮像素子アレイが設けられる。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイとされる。
また撮像部3における撮像信号処理部3cは、固体撮像素子によって得られる信号に対するゲイン調整や波形整形を行うサンプルホールド/AGC(Automatic Gain Control)回路や、ビデオA/Dコンバータを備え、デジタルデータとしての撮像画像データを得る。また撮像画像データに対してホワイトバランス処理、輝度処理、色信号処理などを行う。
The imaging unit 3 includes an imaging optical system 3a, an imaging element unit 3b, and an imaging signal processing unit 3c.
The imaging optical system 3a in the imaging unit 3 includes a lens system including the imaging lens 3L illustrated in FIG. 1, a diaphragm, a zoom lens, a focus lens, and the like, and performs a focus operation and a zoom operation on the lens system. A drive system or the like for performing the operation is provided.
The imaging device unit 3b in the imaging unit 3 is provided with a solid-state imaging device array that detects imaging light obtained by the imaging optical system 3a and generates an imaging signal by performing photoelectric conversion. The solid-state imaging device array is, for example, a CCD (Charge Coupled Device) sensor array or a CMOS (Complementary Metal Oxide Semiconductor) sensor array.
The imaging signal processing unit 3c in the imaging unit 3 includes a sample hold / AGC (Automatic Gain Control) circuit that performs gain adjustment and waveform shaping on a signal obtained by the solid-state imaging device, and a video A / D converter, and includes digital data. Obtained image data. Also, white balance processing, luminance processing, color signal processing, and the like are performed on the captured image data.

これらの撮像光学系3a、撮像素子部3b、撮像信号処理部3cを有する撮像部3により、撮像が行われ、撮像画像データが得られる。
この撮像部3の動作によって得られた画像データは、撮像制御部4で処理される。
撮像制御部4は、システムコントローラ2の制御に従って、撮像画像データを各種の圧縮率で圧縮する画像圧縮処理や、画サイズ変換処理、画像フォーマット変換処理などの処理を行い、また動作状況に応じて、撮像画像データをストレージ部8、表示制御部6、通信部9などへ転送する処理を行う。
また撮像制御部4はシステムコントローラ2の指示に基づいて、撮像部3における撮像のオン/オフ制御、シャッタ処理、撮像光学系3aのズームレンズ、フォーカスレンズの駆動制御、撮像素子部3bの感度やフレームレートの制御、撮像信号処理部3cの各処理のパラメータ制御や実行処理の設定なども行う。
Imaging is performed by the imaging unit 3 including the imaging optical system 3a, the imaging element unit 3b, and the imaging signal processing unit 3c, and captured image data is obtained.
Image data obtained by the operation of the imaging unit 3 is processed by the imaging control unit 4.
The imaging control unit 4 performs processing such as image compression processing for compressing captured image data at various compression ratios, image size conversion processing, and image format conversion processing according to the control of the system controller 2, and according to the operation situation. The captured image data is transferred to the storage unit 8, the display control unit 6, the communication unit 9, and the like.
Further, the imaging control unit 4 controls on / off of imaging in the imaging unit 3, shutter processing, drive control of the zoom lens and focus lens of the imaging optical system 3a, sensitivity of the imaging element unit 3b, based on an instruction from the system controller 2. Control of the frame rate, parameter control of each process of the imaging signal processing unit 3c, execution process setting, and the like are also performed.

撮像装置1においてユーザに対して表示を行う構成としては、表示部5、表示制御部6が設けられる。
この表示部5には、液晶ディスプレイ等の表示パネル部と、該表示パネル部を表示駆動する表示駆動部が設けられる。表示駆動部は、撮像制御部4から供給される画像データを表示パネル部に表示させるための画素駆動回路で構成されている。画素駆動回路は表示パネル部においてマトリクス状に配置されている各画素について、それぞれ所定の水平/垂直駆動タイミングで映像信号に基づく駆動信号を印加し、表示を実行させる。
A display unit 5 and a display control unit 6 are provided as a configuration for displaying to the user in the imaging apparatus 1.
The display unit 5 is provided with a display panel unit such as a liquid crystal display and a display driving unit for driving the display panel unit. The display driving unit includes a pixel driving circuit for displaying the image data supplied from the imaging control unit 4 on the display panel unit. The pixel drive circuit applies a drive signal based on the video signal to each pixel arranged in a matrix in the display panel unit at a predetermined horizontal / vertical drive timing, and causes display to be performed.

表示制御部6は、システムコントローラ2の制御に基づいて、表示部5における画素駆動回路を駆動し所定の表示を実行させる。例えば撮像部3で撮像された画像のモニタ表示や、ストレージ部8で再生された画像の表示などが実行される。
またこれらの表示のために、例えば輝度レベル調整、色補正、コントラスト調整、シャープネス(輪郭強調)調整などを行うことができる。また画像データの一部を拡大した拡大画像の生成、或いは縮小画像の生成、ソフトフォーカス、モザイク、輝度反転、画像内の一部のハイライト表示(強調表示)、全体の色の雰囲気の変化などの画像エフェクト処理なども行うことができる。
The display control unit 6 drives the pixel driving circuit in the display unit 5 based on the control of the system controller 2 to execute a predetermined display. For example, monitor display of an image captured by the imaging unit 3 and display of an image reproduced by the storage unit 8 are executed.
For these displays, for example, brightness level adjustment, color correction, contrast adjustment, sharpness (outline emphasis) adjustment, and the like can be performed. Also, generation of an enlarged image obtained by enlarging a part of the image data, generation of a reduced image, soft focus, mosaic, luminance inversion, highlight display (highlight display) of a part of the image, change in atmosphere of the whole color, etc. Image effect processing can also be performed.

操作入力部7は、例えばキー、ボタン、ダイヤル等の操作子を有するようにし、例えば、電源オン/オフ操作や、自動撮像に関連する操作のための操作子や、所要の入力操作のための操作子が形成される。また、自動撮像だけでなく、ユーザのシャッタ操作に応じた撮像も可能とする場合は、撮像に関するユーザ操作として例えばシャッタ操作、ズームの操作、露出の設定操作、セルフタイマ操作などに用いる操作子が形成されるようにしてもよい。
操作入力部7は、このような操作子から得られる情報をシステムコントローラ2に供給し、システムコントローラ2はこれらの情報に対応した必要な演算処理や制御を行う。
The operation input unit 7 has operation elements such as keys, buttons, and dials. For example, an operation element for power on / off operation, an operation related to automatic imaging, a required input operation, and the like. An operator is formed. When not only automatic imaging but also imaging in accordance with the user's shutter operation is possible, for example, an operator used for shutter operation, zoom operation, exposure setting operation, self-timer operation, etc. It may be formed.
The operation input unit 7 supplies information obtained from such an operator to the system controller 2, and the system controller 2 performs necessary arithmetic processing and control corresponding to the information.

画像解析部10は、撮像制御部4から供給される撮像画像データに基づき、撮像装置1のユーザが他の人物と会っていると推定できる状態であるか否かの判別を可能とするための画像解析処理を行う。
この画像解析部10では、上記撮像画像データ内における人の顔と認識できる(推定できる)データ部分を検出する画像解析処理を行う。この解析処理は、例えば周知の顔認識技術を用いて実現することができる。
また、特にこの場合の画像解析部10では、通りすがりの人物が検出されてしまうことの防止を図るために、同一の顔と認識できるデータ部分が検出される時間長が所定長以上であることを条件として追加している。すなわち、人の顔と認識できるデータ部分が検出されてから、同一の顔とされるデータ部分が検出される時間長が上記所定長以上となることを以て、人の顔と認識できるデータ部分が検出された旨の検出情報を得るものである。
The image analysis unit 10 is configured to determine whether or not the user of the imaging apparatus 1 is in a state where it can be estimated that the user of the imaging device 1 is meeting another person based on the captured image data supplied from the imaging control unit 4. Perform image analysis processing.
The image analysis unit 10 performs image analysis processing for detecting a data portion that can be recognized (estimated) as a human face in the captured image data. This analysis process can be realized using, for example, a well-known face recognition technique.
In particular, in this case, in order to prevent the passing person from being detected, the image analysis unit 10 in this case indicates that the time length for detecting the data portion that can be recognized as the same face is a predetermined length or more. It is added as a condition. That is, after a data portion that can be recognized as a human face is detected, the time length for detecting the data portion that is regarded as the same face becomes equal to or longer than the predetermined length, so that a data portion that can be recognized as a human face is detected. The detection information to the effect is obtained.

画像解析部10は、上記画像解析処理により上記撮像画像データ内に人の顔と認識できるデータ部分が検出されたとした場合には、その旨の検出情報を人検出情報としてシステムコントローラ2に供給する。一方で、人の顔と認識できるデータ部分が検出されていないとした場合は、その旨を表す情報を上記人検出情報としてシステムコントローラ2に供給する。   When it is determined that a data portion that can be recognized as a human face is detected in the captured image data by the image analysis process, the image analysis unit 10 supplies detection information to that effect to the system controller 2 as human detection information. . On the other hand, if a data portion that can be recognized as a human face has not been detected, information indicating that fact is supplied to the system controller 2 as the human detection information.

なお、この場合、画像解析部10による画像解析は、撮像制御部4経由で供給される動画像による撮像画像データを対象として行うことを前提としているが、例えば自動撮像による取り込みタイミングにて得られた撮像画像データなど、静止画像としての撮像画像データを対象として行ってもよい。   In this case, it is assumed that the image analysis by the image analysis unit 10 is performed on the captured image data of the moving image supplied via the imaging control unit 4, but it is obtained at the capturing timing by automatic imaging, for example. The captured image data as a still image, such as the captured image data, may be performed.

上記のようにして画像解析部10から供給される人検出情報に基づき、システムコントローラ2は、人と会っているとされる状態であるか否かを判別する。すなわち、上記人検出情報が、上記撮像画像データ中に人の顔と認識できるデータ部分が検出された旨を表すものである場合には、人と会っているとされる状態にあるとの判別結果を得る。一方、上記人検出情報が、上記撮像画像データ中に人の顔と認識できるデータ部分が検出されていない旨を示す場合は、人と会っているとされる状態にはないとの判別結果を得る。   Based on the person detection information supplied from the image analysis unit 10 as described above, the system controller 2 determines whether or not it is in a state where it is assumed that a person is met. That is, when the person detection information indicates that a data portion that can be recognized as a person's face has been detected in the captured image data, it is determined that the person is in a state of meeting with a person. Get results. On the other hand, if the person detection information indicates that no data portion that can be recognized as a person's face is detected in the captured image data, a determination result indicating that the person is not in a state of meeting with a person is displayed. obtain.

音声解析部11は、音声入力部13より入力されるマイク収音データに基づき、人と会っていると推定できる状態にあるか否かについての判別を可能とするための音声解析処理を行う。
ここで、該音声解析部11による音声解析処理を有効に行うにあたっては、予め、撮像装置1に対して声紋データ(後述する声紋データ8b)が登録されている必要がある。本例の場合、該声紋データ8bとしては、撮像装置1を装着する(携帯する)ユーザの声に基づくデータを登録しておく。これは、他の人物と会っているときには、会話によって撮像装置1のユーザ自らが声を発している可能性が非常に高いという点を考慮してのものである。
なお、声紋データ8bは、予め他の装置にて生成されたものを取得して格納してもよいし、或いは、音声入力部13を介して入力されたユーザの声としての音声データを音声解析部11が解析して生成し、これを格納するように構成することもできる。
The voice analysis unit 11 performs a voice analysis process for making it possible to determine whether or not it is in a state where it can be estimated that a person is met based on the microphone sound collection data input from the voice input unit 13.
Here, in order to effectively perform the voice analysis processing by the voice analysis unit 11, voiceprint data (voiceprint data 8 b described later) needs to be registered in the imaging device 1 in advance. In the case of this example, as the voiceprint data 8b, data based on the voice of the user wearing (carrying) the imaging device 1 is registered. This is because the possibility that the user of the imaging apparatus 1 is uttering a voice by conversation when meeting with another person is very high.
Note that the voiceprint data 8b may be acquired and stored in advance by another device, or the voice data as the user's voice input via the voice input unit 13 is analyzed. It can also be configured such that the unit 11 analyzes and generates and stores this.

上記音声解析部11による音声解析処理では、音声入力部13から入力される収音データ中に、上記のように格納された声紋データ8bと一致するデータ部分が含まれているか否かについて解析する処理を行う。そして、音声解析部11は、この音声解析処理の結果、収音データ中に上記声紋データ8bと一致するデータ部分が得られたとした場合には、その旨を表す情報を人検出情報としてシステムコントローラ2に供給する。また、一致するデータ部分が得られていないとした場合は、その旨を表す情報を人検出情報としてシステムコントローラ2に供給する。
システムコントローラ2は、このように音声解析部11から供給される人検出情報に基づき、人と会っているとされる状態であるか否かを判別する。すなわち、上記人検出情報によって収音データ中に声紋データ8bと一致するデータ部分が得られた旨を示される場合は、人と会っているとされる状態にあるとの判別結果を得、一方、収音データ中に声紋データ8bと一致するデータ部分が得られていない旨を示す場合は人と会っているとされる状態にはないとの判別結果を得る。
In the voice analysis processing by the voice analysis unit 11, it is analyzed whether or not the collected sound data input from the voice input unit 13 includes a data portion that matches the voice print data 8 b stored as described above. Process. When the voice analysis unit 11 determines that a data portion matching the voice print data 8b is obtained in the collected sound data as a result of the voice analysis processing, the system controller uses the information indicating that as human detection information. 2 is supplied. If no matching data portion is obtained, information indicating that is supplied to the system controller 2 as person detection information.
Based on the person detection information supplied from the voice analysis unit 11 as described above, the system controller 2 determines whether or not it is in a state where it is assumed that a person is met. That is, when the person detection information indicates that a data portion that matches the voiceprint data 8b is obtained in the collected sound data, a determination result is obtained that the person is considered to be in contact with the person, When it is indicated that the data portion that matches the voiceprint data 8b is not obtained in the collected sound data, a determination result indicating that the person is not in a state of meeting with a person is obtained.

ストレージ部8は、撮像画像データその他の各種データの保存に用いられる。
このストレージ部8は、フラッシュメモリなどの固体メモリにより構成されても良いし、例えばHDD(Hard Disk Drive)により構成されてもよい。
また内蔵の記録媒体ではなく、可搬性の記録媒体、例えば固体メモリを内蔵したメモリカード、光ディスク、光磁気ディスク、ホログラムメモリなどの記録媒体に対応する記録再生ドライブなどとされても良い。
もちろん、固体メモリやHDD等の内蔵タイプのメモリと、可搬性記録媒体に対する記録再生ドライブの両方が搭載されてもよい。
このストレージ部8は、システムコントローラ2の制御に基づいて、撮像画像データその他の各種データの記録/再生を行う。
The storage unit 8 is used for storing captured image data and other various data.
The storage unit 8 may be configured by a solid-state memory such as a flash memory, or may be configured by an HDD (Hard Disk Drive), for example.
Further, instead of a built-in recording medium, a portable recording medium, for example, a recording / reproducing drive corresponding to a recording medium such as a memory card incorporating a solid-state memory, an optical disk, a magneto-optical disk, or a hologram memory may be used.
Of course, both a built-in type memory such as a solid-state memory and an HDD, and a recording / reproducing drive for a portable recording medium may be mounted.
The storage unit 8 records / reproduces captured image data and other various data based on the control of the system controller 2.

この場合のストレージ部8においては、記録領域として、撮像画像データ記録領域8aが用意される。この撮像画像データ記録領域8aは、撮像部3で得られた撮像画像データを格納(保存)する領域とされる。例えば定期的な自動撮像として、一定時間間隔で撮像が行われるとすると、その一定時間毎に、撮像画像データが、撮像画像データ記録領域8aに記録されていくことになる。
なお、この撮像画像データ記録領域8aとしては、ストレージ部8内における固定的な領域として設定される必要はなく、あくまで本例において、ストレージ部8に撮像画像データが保存されればよいものである。
In the storage unit 8 in this case, a captured image data recording area 8a is prepared as a recording area. The captured image data recording area 8a is an area for storing (storing) captured image data obtained by the imaging unit 3. For example, if imaging is performed at regular time intervals as regular automatic imaging, the captured image data is recorded in the captured image data recording area 8a at regular intervals.
The captured image data recording area 8a does not have to be set as a fixed area in the storage unit 8, and in this example, the captured image data may be stored in the storage unit 8. .

また、ストレージ部8には、上述した声紋データ8bも格納される。なお、声紋データ8bの格納場所はストレージ部8に限定されるべきものでなく、他の記憶手段(例えばシステムコントローラ2が備える上述した不揮発性メモリ部など)とされてもよい。   The storage unit 8 also stores the voiceprint data 8b described above. The storage location of the voiceprint data 8b is not limited to the storage unit 8, but may be other storage means (for example, the above-described nonvolatile memory unit included in the system controller 2).

また、本例の場合、ストレージ部8には、撮像画像データに対して付与されるインデックスを管理するための情報としての、インデックスポイント管理情報8cが格納される。なお、このインデックスポイント管理情報8cについては後述する。   In the case of this example, the storage unit 8 stores index point management information 8c as information for managing an index added to the captured image data. The index point management information 8c will be described later.

通信部9は、各種の外部機器とデータ通信を行う部位として設けられる。
例えば、図示しないサーバ装置との間でのデータの送受信を行うようにしてもよい。その場合、例えば無線LANなどの方式で、ネットワークアクセスポイントに対する近距離無線通信を介してネットワーク通信を行う構成としてもよいし、対応する通信機能を備えたサーバ装置との間で直接無線通信を行うものでもよい。
また、通信部9は、例えばUSB(Universal Serial Bus)方式等のインターフェイスを用いてパーソナルコンピュータなどの機器と接続し、データの送受信を行うようにしてもよい。
この通信部9により、例えば撮像してストレージ部8に格納した撮像画像データを、パーソナルコンピュータその他の外部機器に転送することができる。従って、ライフログとしての定期的な撮像でストレージ部8に録り貯めた多数の撮像画像データは、この撮像装置1自体で表示部5で再生表示させることができるほか、パーソナルコンピュータ等の外部機器に転送して、それら外部機器側で再生させて表示させることもできる。
The communication unit 9 is provided as a part that performs data communication with various external devices.
For example, data transmission / reception with a server device (not shown) may be performed. In that case, for example, a configuration may be adopted in which network communication is performed via short-range wireless communication with a network access point by a method such as a wireless LAN, or direct wireless communication is performed with a server device having a corresponding communication function. It may be a thing.
In addition, the communication unit 9 may be connected to a device such as a personal computer using an interface such as a USB (Universal Serial Bus) system to transmit and receive data.
The communication unit 9 can transfer, for example, captured image data captured and stored in the storage unit 8 to a personal computer or other external device. Accordingly, a large number of captured image data recorded and stored in the storage unit 8 by periodic imaging as a life log can be reproduced and displayed on the display unit 5 by the imaging device 1 itself, and an external device such as a personal computer. Can be transferred to and played back on the external device.

また、特に本例の場合、通信部9は、例えばブルートゥースや無線LANのアドホックモード(Wi-Fi:Wireless Fidelityのアドホックモード)などにより、外部機器との間で直接的に無線データ通信を行うことが可能とされる。
このような外部機器との間で直接的な無線データ通信を可能とするため、通信部9では、外部の無線通信可能な機器を検出する処理を行っている。そして、この検出処理結果を表す情報を、随時システムコントローラ2に供給している。
システムコントローラ2は、このように通信部9から供給される検出情報に基づき、外部に無線通信可能な機器があるか否かを判別することができる。
In particular, in the case of this example, the communication unit 9 performs wireless data communication directly with an external device by using, for example, Bluetooth or a wireless LAN ad hoc mode (Wi-Fi: Wireless Fidelity ad hoc mode). Is possible.
In order to enable direct wireless data communication with such an external device, the communication unit 9 performs a process of detecting a device capable of external wireless communication. Information representing the detection processing result is supplied to the system controller 2 as needed.
Based on the detection information supplied from the communication unit 9 as described above, the system controller 2 can determine whether there is an external device capable of wireless communication.

ここで、上記のようなブルートゥースや無線LANのアドホックモードなどによる近距離無線通信において、通信可能範囲内に他の機器が存在する場合、撮像装置1のユーザと該他の機器を携帯する人物は相当に近距離に接近していることになる。すなわち、このような状態は、ユーザが上記他の機器を携帯する人物と会っている可能性が非常に高い。
そこで本例では、このように近距離無線通信による無線通信可能範囲内に他の機器が存在するか否かによっても、撮像装置1のユーザが他の人物と会っているとされる状態にあるか否かを判別するものとしている。
Here, in short-range wireless communication such as the above-described Bluetooth or wireless LAN ad hoc mode, when there is another device within the communicable range, the user of the imaging apparatus 1 and the person carrying the other device are It is very close. That is, in such a state, there is a high possibility that the user is meeting a person carrying the other device.
Therefore, in this example, the user of the imaging device 1 is in a state where it is assumed that the user of the imaging apparatus 1 meets another person depending on whether or not there is another device within the wireless communicable range by short-range wireless communication. Whether or not it is determined.

この場合、通信部9が上述の検出処理結果としてシステムコントローラ2に供給する検出情報を人検出情報として扱うことができる。すなわち、該通信部9からの人検出情報によって外部に無線通信可能な機器が検出された旨が示される場合、システムコントローラ2は、ユーザが他の人物と会っているとされる状態にあるとの判別結果を得る。一方、通信部9からの人検出情報によって外部に無線通信可能な機器が存在しない旨が示される場合は、ユーザが他の人物と会っているとされる状態にはないとの判別結果を得る。   In this case, the detection information that the communication unit 9 supplies to the system controller 2 as the above detection processing result can be handled as human detection information. That is, when the person detection information from the communication unit 9 indicates that a device capable of wireless communication to the outside is detected, the system controller 2 is in a state where the user is meeting another person. The discrimination result is obtained. On the other hand, if the person detection information from the communication unit 9 indicates that there is no device capable of wireless communication outside, a determination result is obtained that the user is not in a state of meeting with another person. .

なお、この図1に示した撮像装置1の構成はあくまで一例にすぎず、実際に実施される動作例や機能に応じて各種の構成要素の追加や削除は当然に考えられるものである。
Note that the configuration of the imaging apparatus 1 shown in FIG. 1 is merely an example, and various components may be added or deleted according to an operation example or function actually performed.

[画像インデックスの付与]

実施の形態の撮像装置1は、ライフログ用途に用いる場合、基本的には、ユーザのシャッタ操作に基づかない撮像動作(自動撮像動作)を行う。例えば定期的に自動撮像を行って、撮像画像データをストレージ部8に保存していく。例えば5秒間隔、10秒間隔、30秒間隔など、所定の時間間隔で自動撮像を行う。なお、もちろん定期的な撮像ではなく、何らかのトリガ(ユーザのシャッタ操作以外のトリガ)に応じて不定期なタイミングで自動撮像を行ってもよい。さらに、定期的又は不定期の自動撮像実行中に、ユーザがシャッタ操作を行った場合は、その時点で通常に撮像処理を行えばよい。
[Add image index]

The imaging device 1 according to the embodiment basically performs an imaging operation (automatic imaging operation) that is not based on a user's shutter operation when used for a life log application. For example, automatic imaging is periodically performed, and captured image data is stored in the storage unit 8. For example, automatic imaging is performed at predetermined time intervals such as an interval of 5 seconds, an interval of 10 seconds, and an interval of 30 seconds. Of course, instead of periodic imaging, automatic imaging may be performed at irregular timing according to some trigger (trigger other than the user's shutter operation). Furthermore, if the user performs a shutter operation during execution of regular or irregular automatic imaging, the imaging process may be performed normally at that time.

ここで、先にも述べたように、例えばライフログカメラとして自動撮像を行う撮像装置においては、撮像画像データの保存量が膨大となり、これを閲覧する際のユーザ負担が大きくなる。
この点の改善を図るため、本実施の形態では、自動撮像により取込・保存される撮像画像データのうち、撮像装置1のユーザが他の人物と会っているとされる状態にあるとされる状況下で撮像された画像データに対して、インデックスを付すものとしている。
Here, as described above, for example, in an imaging apparatus that performs automatic imaging as a life log camera, the storage amount of captured image data is enormous, and the burden on the user when browsing this is increased.
In order to improve this point, in the present embodiment, it is assumed that the user of the imaging apparatus 1 is in a state where he / she meets another person among the captured image data captured / saved by automatic imaging. An index is attached to image data picked up under such circumstances.

このような実施の形態としての画像インデックス付与を行うための具体的な動作例について、次の図3、図4を参照して説明する。
図3は、この場合においてインデックスを付すべき条件とされる、人と会っているとされる状態にあるか否かについての判別手法について説明するための図として、それぞれ異なる撮像装置1を装着したユーザA、ユーザBが対面した状態を示している。
この図に示されるように、ユーザが人と会っている状況下では、各人が近接し、また会話が交わされる可能性が非常に高い。このような状態では、撮像装置1による撮像画像には相手のユーザの顔が映し出され、また、会話に伴ってユーザの発した声が検出されることが予想される。さらに、近距離無線通信による通信可能範囲内に他の撮像装置1が検出されることも想定される
なお、この図では一例として、撮像装置1が図1(a)に示したような吊り下げタイプとされる場合を示しているが、例えば図1(b)に示したような眼鏡型タイプなどの他のタイプの撮像装置1とされた場合も同様のことが言える。
A specific operation example for assigning an image index as such an embodiment will be described with reference to FIGS.
FIG. 3 is a diagram for explaining a determination method for determining whether or not a person is in a state of meeting a person, which is a condition to be indexed in this case. The state where user A and user B face each other is shown.
As shown in this figure, under the situation where the user meets a person, there is a high possibility that each person will be close and have a conversation. In such a state, it is expected that the face of the partner user is projected in the captured image by the imaging apparatus 1 and that the voice uttered by the user is detected along with the conversation. Furthermore, it is assumed that another imaging device 1 is detected within the communicable range by short-range wireless communication. In this figure, as an example, the imaging device 1 is suspended as shown in FIG. Although the case of the type is shown, the same applies to the case where the imaging device 1 is of another type such as the eyeglass type as shown in FIG.

上記の点を踏まえ、本例では、人と会っているとされる状態であるか否かの判別を行うにあたり、図中の(1)〜(3)として示すような判別を行う。
すなわち、(1)撮像画像データ中に顔と認識できるデータ部分が所定時間以上検出されているか、(2)収音データ中に声紋データ8bと一致する音声が検出されたか、(3)通信可能な機器が検出されたか、の各項目についての判別を行うものとしている。
Based on the above points, in this example, when determining whether or not it is in a state of meeting with a person, the determination as shown in (1) to (3) in the figure is performed.
That is, (1) whether a data portion that can be recognized as a face is detected in the captured image data for a predetermined time or more, (2) whether voice that matches the voiceprint data 8b is detected in the collected sound data, or (3) communication is possible. It is assumed that each item is determined as to whether a correct device has been detected.

図4は、上記の各項目の判別結果に基づき行われる、撮像画像データに対するインデックス付与の具体例について説明するための図として、自動撮像により取込・保存された撮像画像データと、これに対して付されるインデックスとの関係を模式的に示している。
この図に示されるように、本実施の形態の場合、インデックスとしては、上記による各判別項目ごとに別々のインデックスを付すものとしている。具体的には、先の(1)による判別結果に基づき付されることになる画像解析由来のインデックス、(2)の判別結果に基づき付される音声解析由来のインデックス、さらに(3)の判別結果に基づき付される位置解析由来のインデックスである。
FIG. 4 is a diagram for explaining a specific example of indexing for captured image data performed based on the determination result of each item described above, and captured image data captured and stored by automatic imaging, The relationship with the index attached is schematically shown.
As shown in this figure, in the case of the present embodiment, as an index, a separate index is attached to each discrimination item as described above. Specifically, the index derived from the image analysis to be attached based on the discrimination result of (1) above, the index derived from the voice analysis based on the discrimination result of (2), and the discrimination of (3) This is an index derived from position analysis attached based on the result.

ここで、先の図2においても説明したように、システムコントローラ2に対しては、画像解析部10、音声解析部11、通信部9より、それぞれ上記(1),(2),(3)による判別項目に対応する人検出情報が入力される。システムコントローラ2は、このように画像解析部10、音声解析部11、通信部9からそれぞれ入力される人検出情報を、例えば自動撮像による撮像画像データの取り込みが行われるタイミングごとに取得する。そして、このように取得したそれぞれの項目の人検出情報に基づき、ユーザが他の人物と会っているとされる状態にあるか否かをそれぞれ判別する。
その上で、これらの判別の結果、人と会っているとされる状態であると判別できる項目があった場合は、撮像画像データに対し、その項目に対応するインデックスが付されるように制御を行う。つまり、画像解析部10からの人検出情報に基づき、人と会っているとされる状態であるとの判別結果を得た場合には、撮像画像データに対して画像解析由来のインデックスが付されるようにし、また音声解析部11からの人検出情報に基づき人と会っているとされる状態であるとの判別結果を得た場合は、撮像画像データに対して音声解析由来のインデックスが付されるように制御する。また、通信部9からの人検出情報に基づき人と会っているとされる状態であるとの判別結果を得た場合は、位置解析由来のインデックスが付されるように制御する。
Here, as described above with reference to FIG. 2, for the system controller 2, the image analysis unit 10, the sound analysis unit 11, and the communication unit 9 respectively perform the above (1), (2), and (3). The person detection information corresponding to the discrimination item is input. The system controller 2 acquires the human detection information input from the image analysis unit 10, the audio analysis unit 11, and the communication unit 9 in this way, for example, at every timing when captured image data is captured by automatic imaging. Then, based on the person detection information of each item acquired in this way, it is determined whether or not the user is in a state where he / she is meeting another person.
In addition, if there is an item that can be determined to be in a state of meeting with a person as a result of these determinations, control is performed so that an index corresponding to the item is attached to the captured image data. I do. That is, based on the person detection information from the image analysis unit 10, when an identification result indicating that the person is in a state of meeting with a person is obtained, an index derived from image analysis is attached to the captured image data. In addition, when it is determined that the person is in a state of meeting with the person based on the person detection information from the voice analysis unit 11, an index derived from voice analysis is attached to the captured image data. To be controlled. Moreover, when the determination result that it is in the state assumed to be meeting the person based on the person detection information from the communication unit 9 is obtained, control is performed so that an index derived from the position analysis is attached.

この結果、図4に示されるようにして、自動撮像により順次取込・保存される撮像画像データに対しては、人と会っているとされる状態であるとの判別結果が得られた判別項目に対応するインデックスが順次付されていくものとなる。   As a result, as shown in FIG. 4, for the captured image data that is sequentially captured and stored by automatic imaging, it is determined that the determination result that the person is in a state of meeting with a person is obtained. Indexes corresponding to the items are sequentially attached.

ここで、本実施の形態において、上記のような撮像画像データに対するインデックスの付与は、システムコントローラ2が、先の図1に示したインデックスポイント管理情報8cにより、各インデックスポイントを管理することで実現する。
このインデックスポイント管理情報8cは、先に説明した画像解析由来、音声解析由来、位置解析由来の各インデックスを付すべきポイントを管理するための情報となる。図示による説明は省略するが、この場合のインデックスポイント管理情報8cとしては、例えば自動撮像により取込・保存された撮像画像データのIDごとに、上記画像解析由来、音声解析由来、位置解析由来の各インデックスの有無を表す情報が対応づけられるものとなる。
システムコントローラ2は、上述のようにして自動撮像による撮像画像データの取込・保存が行われるタイミングにて実行した各項目についての判別の結果、人と会っているとされる状態にあるとの判別結果が得られた項目について、その項目のインデックスが有る旨を表す情報を、保存された撮像画像データのIDの情報に対応づける。これにより、各判別項目ごとに、インデックスポイントを管理することができる。
Here, in the present embodiment, the index assignment for the captured image data as described above is realized by the system controller 2 managing each index point using the index point management information 8c shown in FIG. To do.
The index point management information 8c is information for managing the points to be indexed from the image analysis origin, the voice analysis origin, and the position analysis origin described above. Although description by illustration is omitted, as the index point management information 8c in this case, for example, for each ID of captured image data captured and stored by automatic imaging, the image analysis origin, the voice analysis origin, and the position analysis origin Information indicating the presence or absence of each index is associated.
As described above, the system controller 2 is in a state of being in contact with a person as a result of determination for each item executed at the timing at which captured image data is captured and stored by automatic imaging as described above. For an item for which a determination result is obtained, information indicating that there is an index for the item is associated with the ID information of the stored captured image data. Thereby, an index point can be managed for each discrimination item.

上記により説明した本実施の形態としての画像インデックス付与により、撮像装置1のユーザが他の人物と会っていると推定できる状態にあることに応じて、そのタイミングで自動撮像された画像データに対してインデックスを付与することができる。
ここで、先にも述べたように、ユーザの日常生活において重要な出来事は、ユーザが他の人物と対面している、会話している、又は一緒に行動しているなど、ユーザが他の人物と会っている状態で多く発生すると考えることができる。このことを踏まえれば、上記のようにしてユーザが他の人物と会っているとされる状況下で自動撮像された画像データに対してインデックスを付す本実施の形態によれば、日常生活の中で重要とされるシーンを撮影した画像に対して、インデックスを付すということができる。
By providing the image index as the present embodiment described above, it is possible to estimate that the user of the imaging apparatus 1 is in a state where it can be estimated that the user is meeting another person. Can be indexed.
Here, as mentioned above, important events in the user's daily life are that the user is facing other people, having a conversation, or acting together. It can be thought that it often occurs in the state of meeting with a person. Based on this, according to the present embodiment in which index is applied to image data automatically captured under the situation that the user is meeting with another person as described above, It can be said that an index is attached to an image obtained by photographing a scene that is important in (1).

このような実施の形態のインデックス付与により、自動撮像によって大量に保存される画像データについて、重要とされる部分とそうでない部分とを分別して提示することができる。すなわち、このようなインデックスの付与によって、自動撮像により大量に保存された画像データをユーザに効率的に閲覧させることができ、行動履歴を振り返るにあたってのユーザ負担を効果的に削減することができる。この結果、例えばユーザの日常生活を記録しそれを振り返らせるといったシステムを、より有用性の高いものとして実現することができる。   By providing an index according to such an embodiment, it is possible to separately present important parts and non-important parts of image data stored in large quantities by automatic imaging. That is, by providing such an index, the user can efficiently browse a large amount of image data stored by automatic imaging, and the burden on the user when looking back on the action history can be effectively reduced. As a result, for example, a system that records and reflects the user's daily life can be realized as a more useful system.

また、本実施の形態では、上記のようにして人と会っているとされる状態であるか否かを判別するための複数の判別項目に基づく別々のインデックスを付与するものとしているが、これによれば、例えば閲覧時において、これら複数の判別項目のうち任意の項目を指定して画像データの検索を行うことができるなど、画像データの検索の自由度を広げることができる。
Further, in the present embodiment, separate indexes based on a plurality of determination items for determining whether or not the person is in a state of meeting with a person as described above are provided. According to the above, for example, at the time of browsing, it is possible to search for image data by designating an arbitrary item among the plurality of determination items, so that the degree of freedom in searching for image data can be expanded.

[処理動作]

続いて、次の図5のフローチャートにより、上記により説明した第1の実施の形態としての動作を実現するための制御例について説明する。なお、この図5では、システムコントローラ2が内部ROMに格納したプログラムに基づいて実行する制御処理を示す。
また、この図に示される処理動作は、システムコントローラ2が行う自動撮像のための処理動作として、撮像部3にて得られる撮像画像データを一定間隔おきに取り込み、これをストレージ部8に保存させるための処理が行われるタイミングごとに実行されるものとなる。
[Processing operation]

Next, a control example for realizing the operation as the first embodiment described above will be described with reference to the flowchart of FIG. FIG. 5 shows control processing executed by the system controller 2 based on a program stored in the internal ROM.
Further, the processing operation shown in this figure is a processing operation for automatic imaging performed by the system controller 2 and captures captured image data obtained by the imaging unit 3 at regular intervals and stores it in the storage unit 8. This is executed at every timing when the processing for the above is performed.

図5において、先ずステップS101では、人検出情報を取得する。すなわち、先に説明した画像解析部10からの人検出情報、音声解析部11からの人検出情報、通信部9からの人検出情報を取得する。   In FIG. 5, first, in step S101, human detection information is acquired. That is, the human detection information from the image analysis unit 10 described above, the human detection information from the voice analysis unit 11, and the human detection information from the communication unit 9 are acquired.

そして、続くステップS102では、先ずは画像解析結果としての、画像解析部10からの人検出情報に基づき、人と会っているとされる状態であるか否かを判別する。
このステップS102において、上記画像解析部10からの人検出情報が、撮像画像データ中に人の顔と認識できるデータ部分が検出された旨を示すものであり、これに応じ人と会っているとされる状態であるとして肯定結果を得た場合は、ステップS103において、画像解析由来インデックスポイントを登録するための処理を実行する。すなわち、自動撮像により保存された撮像画像データのIDと、画像解析由来のインデックス有りを表す情報とが対応づけられるようにして、インデックスポイント管理情報8cの情報内容を更新する処理を実行する。
このステップS103の処理を実行すると、ステップS104に処理を進める。
In the subsequent step S102, first, based on the person detection information from the image analysis unit 10 as the image analysis result, it is determined whether or not the person is in a state of meeting with a person.
In this step S102, the human detection information from the image analysis unit 10 indicates that a data portion that can be recognized as a human face has been detected in the captured image data, and a person is met accordingly. If a positive result is obtained as being in the state, the process for registering the image analysis-derived index points is executed in step S103. That is, the process of updating the information content of the index point management information 8c is performed so that the ID of the captured image data stored by automatic imaging is associated with the information indicating that there is an index derived from image analysis.
When the process of step S103 is executed, the process proceeds to step S104.

一方、上記ステップS102において、上記画像解析部10からの人検出情報が、撮像画像データ中に人の顔と認識できるデータ部分が検出されていない旨を示すものであり、人と会っているとされる状態ではないとして否定結果を得た場合は、上記ステップS103をパスしてそのままステップS104に処理を進める。   On the other hand, in step S102, the human detection information from the image analysis unit 10 indicates that no data portion that can be recognized as a human face has been detected in the captured image data, and is meeting a person. If a negative result is obtained because it is not in a state to be performed, the process proceeds to step S104 as it is after passing through step S103.

ステップS104では、音声解析結果としての、音声解析部11からの人検出情報に基づき、人と会っているとされる状態であるか否かを判別する。
ステップS104において、上記音声解析部11からの人検出情報が、収音データ中に声紋データ8bと一致するとされるデータ部分が得られている旨を示すものであり、人と会っているとされる状態であるとして肯定結果を得た場合は、ステップS105において、音声解析由来インデックスポイントを登録するための処理を実行する。すなわち、自動撮像により保存された撮像画像データのIDと、音声解析由来のインデックス有りを表す情報とが対応づけられるようにして、インデックスポイント管理情報8cの情報内容を更新する。
このステップS105の処理を実行するとステップS106に処理を進める。
In step S104, based on the person detection information from the voice analysis unit 11 as a voice analysis result, it is determined whether or not it is in a state where a person is met.
In step S104, the person detection information from the voice analysis unit 11 indicates that a data portion that is matched with the voiceprint data 8b is obtained in the collected sound data, and it is assumed that a person is met. In step S105, a process for registering speech analysis-derived index points is executed. That is, the information content of the index point management information 8c is updated so that the ID of the captured image data saved by automatic imaging is associated with the information indicating that there is an index derived from speech analysis.
When the process of step S105 is executed, the process proceeds to step S106.

一方、上記ステップS104において、上記音声解析部11からの人検出情報が、収音データ中に声紋データ8bと一致するとされるデータ部分が得られていない旨を示すものであり、人と会っているとされる状態ではないとして否定結果を得た場合は、上記ステップS105をパスしてそのままステップS106に処理を進める。   On the other hand, in step S104, the person detection information from the voice analysis unit 11 indicates that a data portion that matches the voiceprint data 8b is not obtained in the collected sound data. If a negative result is obtained that the current state is not present, step S105 is passed, and the process proceeds directly to step S106.

ステップS106では、通信可能機器解析結果としての、通信部9からの人検出情報に基づき、人と会っているとされる状態であるか否かを判別する。上記通信部9からの人検出情報が、外部に通信可能な機器が検出された旨を示すものであり、これに応じ人と会っているとされる状態であるとして肯定結果を得た場合は、ステップS107において、音声解析由来インデックスポイントを登録するための処理を実行する。すなわち、自動撮像により保存された撮像画像データのIDと、位置解析由来のインデックス有りを表す情報とが対応づけられるようにして、インデックスポイント管理情報8cの情報内容を更新する。
このステップS107の処理を実行すると、この図に示す処理動作は終了となる。
In step S106, it is determined based on the person detection information from the communication unit 9 as the communicable device analysis result whether or not the person is in a state of meeting a person. When the person detection information from the communication unit 9 indicates that an externally communicable device has been detected, and a positive result is obtained that the person is said to be meeting a person accordingly In step S107, processing for registering the index point derived from speech analysis is executed. That is, the information content of the index point management information 8c is updated so that the ID of the captured image data stored by automatic imaging is associated with the information indicating the presence of an index derived from position analysis.
When the process of step S107 is executed, the processing operation shown in FIG.

一方、上記ステップS106において、上記通信部9からの人検出情報が通信可能な機器が検出されていない旨を示すものであり、人と会っているとされる状態ではないとして否定結果を得た場合は、上記ステップS107をパスして処理動作を終了するようにされる。
On the other hand, in step S106, the person detection information from the communication unit 9 indicates that no communicable device has been detected, and a negative result has been obtained that the person is not in a state of meeting with a person. In this case, the processing operation is terminated after passing through step S107.

<第2の実施の形態>

続いて、第2の実施の形態について説明する。
第2の実施の形態は、上記により説明した第1の実施の形態としての画像インデックス付与動作について、位置解析の手法を変更したものとなる。具体的に、第2の実施の形態では、携帯電話網(WAN)やインターネット網における無線中継器の設置されたエリア情報を利用して、機器間の距離が近接しているか否かを判別し、それによって人と会っているとされる状態にあるか否かを判別するようにしたものである。
<Second Embodiment>

Next, a second embodiment will be described.
In the second embodiment, the position analysis technique is changed for the image index assigning operation as the first embodiment described above. Specifically, in the second embodiment, it is determined whether or not the distance between the devices is close by using the area information where the wireless repeater is installed in the cellular phone network (WAN) or the Internet network. Thus, it is determined whether or not the person is in a state of meeting with a person.

このような第2の実施の形態としての動作を実現するにあったては、次の図6に示すようなシステムを構築する。
図6において、第2の実施の形態のシステムとしては、図のように複数の撮像装置1と、複数の基地局30と、さらにサーバ装置20とを含んで構成されるものとなる。
先ず、この場合の撮像装置1としては、通信部9が、例えば図のような携帯電話網における無線基地局としての基地局30との通信を行うことが可能に構成されることになる。なお、インターネット網を利用した通信を行う場合、この基地局30は無線LANのアクセスポイントとなる。
この場合、上記基地局30は、エリアごとに固定的に設置されるものであり(例えば図中のエリアA、エリアB)、各基地局30とその設置エリアは一対一で対応する。
この場合の各撮像装置1は、最寄りの基地局30を介してネットワーク上の所要の機器(特にこの場合は上記サーバ装置20)との間で通信を行うようにされている。このように各撮像装置1は最寄りの基地局30を介して通信を行うことから、各基地局30では、自エリア内に存在する撮像装置1が把握されている。
In order to realize the operation as the second embodiment, a system as shown in FIG. 6 is constructed.
In FIG. 6, the system of the second embodiment includes a plurality of imaging devices 1, a plurality of base stations 30, and a server device 20 as shown in the figure.
First, as the imaging apparatus 1 in this case, the communication unit 9 is configured to be able to communicate with a base station 30 as a radio base station in a mobile phone network as shown in the figure, for example. Note that, when performing communication using the Internet network, the base station 30 serves as a wireless LAN access point.
In this case, the base station 30 is fixedly installed for each area (for example, area A and area B in the figure), and each base station 30 and its installation area correspond one-to-one.
Each imaging device 1 in this case is configured to communicate with a required device on the network (in particular, the server device 20 in this case) via the nearest base station 30. Thus, since each imaging device 1 communicates via the nearest base station 30, each base station 30 grasps the imaging device 1 existing in its own area.

サーバ装置20では、各基地局30に問い合わせを行って、各撮像装置1と通信可能な状態となっている基地局30(最寄りの基地局30)を特定することができる。すなわちこの情報により、各撮像装置1の所在エリアを特定できる。   The server device 20 can identify each base station 30 (the nearest base station 30) that can communicate with each imaging device 1 by making an inquiry to each base station 30. That is, the location area of each imaging device 1 can be specified by this information.

第2の実施の形態では、このようにしてサーバ装置20が各撮像装置1の所在エリアの情報を得た上で、同一エリア内に、複数の撮像装置1が存在しているか否かを判別する。そして、このように同一エリア内に複数の撮像装置1が存在する場合には、該当する各撮像装置1に対して、同一エリア内に他の機器が存在する旨の通知を行う。   In the second embodiment, after the server device 20 obtains information on the location area of each imaging device 1 in this way, it is determined whether or not there are a plurality of imaging devices 1 in the same area. To do. Then, when there are a plurality of imaging devices 1 in the same area as described above, a notification that there is another device in the same area is sent to each corresponding imaging device 1.

各撮像装置1では、このようなサーバ装置20からの通知の有無に基づき、人と会っている状態にあるか否かを判別する。すなわち、同一エリア内に他の撮像装置1が存在すれば、その撮像装置1のユーザは相当に近接していることになるので、これを以て、人と会っているとされる状態にあるとの判別結果を得るものである。   Each imaging device 1 determines whether or not it is in a state of meeting a person based on the presence or absence of such a notification from the server device 20. In other words, if there is another imaging device 1 in the same area, the user of the imaging device 1 is quite close, so that it is said that it is in a state where it is said that it is meeting a person. A discrimination result is obtained.

図7は、サーバ装置20の内部構成例を示している。
このサーバ装置20は、制御部21、時刻計時部22、記憶部23、通信部24を有する。
図7において、制御部21は、サーバ装置20の全体制御を行う。この制御部21は、CPU、ROM、RAM、不揮発性メモリ部、インターフェース部などを備えて構成され、例えば上記ROMなどの記憶手段に格納された動作プログラムに基づいて、サーバ装置20内の各部の制御を行い、必要な動作を実行させる。
FIG. 7 shows an internal configuration example of the server device 20.
The server device 20 includes a control unit 21, a time measuring unit 22, a storage unit 23, and a communication unit 24.
In FIG. 7, the control unit 21 performs overall control of the server device 20. The control unit 21 includes a CPU, a ROM, a RAM, a nonvolatile memory unit, an interface unit, and the like. For example, based on an operation program stored in a storage unit such as the ROM, each control unit 21 includes Perform control and perform necessary actions.

時刻計時部22は、例えば年:月:日:時:分:秒による現在時刻を計時し、これにより得られる現在時刻情報を制御部21に出力する。このように時刻計時部22により計時される現在時刻の情報に基づき、制御部21は、例えば各種履歴情報の生成など、時刻管理を要する処理を行うことができる。   The time counting unit 22 measures the current time in, for example, year: month: day: hour: minute: second, and outputs the current time information obtained thereby to the control unit 21. Thus, based on the information of the current time measured by the time counting unit 22, the control unit 21 can perform processing requiring time management such as generation of various history information.

記憶部23は、制御部21の制御に基づいて各種データの記録や再生を行う。
この記憶部23としては、RAM或いはフラッシュメモリなどの固体メモリにより構成されても良いし、例えばHDDにより構成されてもよい。また内蔵の記録媒体ではなく、可搬性の記録媒体、例えば固体メモリを内蔵したメモリカード、光ディスク、光磁気ディスク、ホログラムメモリなどの記録媒体に対応する記録再生ドライブなどとされても良い。また、固体メモリやHDD等の内蔵タイプのメモリと、可搬性記録媒体に対する記録再生ドライブの両方が搭載されてもよい。
The storage unit 23 records and reproduces various data based on the control of the control unit 21.
The storage unit 23 may be configured by a solid-state memory such as a RAM or a flash memory, or may be configured by an HDD, for example. Further, instead of a built-in recording medium, a portable recording medium, for example, a recording / reproducing drive corresponding to a recording medium such as a memory card incorporating a solid-state memory, an optical disk, a magneto-optical disk, or a hologram memory may be used. Further, both a built-in type memory such as a solid-state memory and an HDD, and a recording / reproducing drive for a portable recording medium may be mounted.

通信部24は、先の図6に示した基地局30を介した外部機器(特に撮像装置1)との間でのデータ通信を行うことが可能に構成される。サーバ装置20における通信部24としては、基本的には有線でネットワーク接続されて通信を行うものであればよいが、無線によりネットワーク接続する構成とすることもできる。   The communication unit 24 is configured to be able to perform data communication with an external device (particularly the imaging apparatus 1) via the base station 30 shown in FIG. The communication unit 24 in the server device 20 may be basically configured to perform communication by wired network connection, but may be configured to be wirelessly connected to the network.

図8は、上記により説明した第2の実施の形態としての動作を実現するための、サーバ装置20における制御例をフローチャートにより示している。
なお、この図8では、先の図7にて説明した制御部21内のROMに格納されるプログラムに基づき制御部21が実行する制御処理を示している。
また、この図に示す処理動作は、予め定められた所定周期で繰り返し実行されるものとなる。
FIG. 8 is a flowchart showing an example of control in the server device 20 for realizing the operation as the second embodiment described above.
FIG. 8 shows a control process executed by the control unit 21 based on the program stored in the ROM in the control unit 21 described with reference to FIG.
Further, the processing operation shown in this figure is repeatedly executed at a predetermined cycle.

図8において、先ずステップS201では、各機器ごとの所在エリアを確認するための処理を実行する。すなわち、例えば先に説明したようにして各基地局30への問い合わせを行った結果に基づき、各撮像装置1の所在エリアの情報を得る。
なお、各撮像装置1の所在エリアの情報は、各撮像装置1との通信を行った結果経由された基地局30の情報を検出することによっても確認できる。
In FIG. 8, first, in step S201, processing for confirming the location area for each device is executed. That is, for example, based on the result of inquiring each base station 30 as described above, information on the location area of each imaging device 1 is obtained.
In addition, the information on the location area of each imaging device 1 can also be confirmed by detecting the information of the base station 30 via the result of communication with each imaging device 1.

続くステップS202では、エリアごとに、複数機器があるか否かを判別する。その上で、次のステップS203では、該当するエリアがあるか否かを判別する。すなわち、上記ステップS202による判別処理の結果に基づき、複数の撮像装置1が存在するエリアがあるか否かを判別する。
ステップS203において、該当エリアがあるとして肯定結果が得られた場合は、ステップS204に進み、該当エリア内の各機器に同エリア内に他の機器がある旨を通知する。すなわち、該当エリア内の各撮像装置1に対して、上記通知が行われるように通信部24に対する制御を行う。このステップS204の処理を実行すると、この図に示す処理動作は終了となる。
一方、上記ステップS203において、該当エリアがないとして否定結果が得られた場合は、図示するようにして上記ステップS204をパスしてこの図に示す処理動作を終了する。
In a succeeding step S202, it is determined whether or not there are a plurality of devices for each area. Then, in the next step S203, it is determined whether or not there is a corresponding area. That is, based on the result of the determination process in step S202, it is determined whether there is an area where a plurality of imaging devices 1 are present.
If an affirmative result is obtained in step S203 that the corresponding area exists, the process proceeds to step S204 to notify each device in the area that there is another device in the area. That is, the communication unit 24 is controlled so that the above notification is performed for each imaging device 1 in the corresponding area. When the process of step S204 is executed, the processing operation shown in FIG.
On the other hand, if a negative result is obtained in step S203 that there is no corresponding area, the process operation shown in FIG.

なお、図示による説明は省略するが、第2の実施の形態の場合の各撮像装置1では、上記のようにしてサーバ装置20側が行う通知を、先の図5におけるステップS106にて説明した、通信可能機器解析結果としての人検出情報に代わる情報として取得するようにされる。つまり、この場合の撮像装置1(システムコントローラ2)は、上記サーバ装置20からの上記通知があった場合には、人と会っているとされる状態であるとの判別結果を得て、位置解析由来のインデックスポイントを登録するための処理を実行する。また、上記通知がなかった場合には、人と会っているとされる状態にはないとの判別結果を得て、位置解析由来のインデックスポイントの登録は行わないようにされる。
In addition, although description by illustration is abbreviate | omitted, in each imaging device 1 in the case of 2nd Embodiment, the notification which the server apparatus 20 side performs as mentioned above was demonstrated in step S106 in previous FIG. It is acquired as information that replaces the human detection information as the result of analyzing the communicable device. That is, in this case, the imaging device 1 (system controller 2) obtains the determination result that it is in a state that it is assumed to meet a person when the notification from the server device 20 is received, A process for registering the index point derived from the analysis is executed. If there is no notification, a determination result indicating that the person is not in a state of meeting with a person is obtained, and index points derived from position analysis are not registered.

<第3の実施の形態>

第3の実施の形態は、第2の実施の形態と同様、第1の実施の形態としての動作について、位置解析の手法を変更したものである。具体的に、第3の実施の形態では、現在位置を検出する位置検出手段を設けた撮像装置31とした上で、該撮像装置31とデータ通信可能に構成されたサーバ装置40において、各撮像装置31から取得した現在位置の情報から、近接した位置に他の撮像装置50があるか否かを判別することで、人と会っているとされる状態にあるか否かを推定するものである。
<Third Embodiment>

In the third embodiment, as in the second embodiment, the position analysis technique is changed with respect to the operation as the first embodiment. Specifically, in the third embodiment, the imaging apparatus 31 provided with position detection means for detecting the current position is used, and each imaging is performed in the server apparatus 40 configured to be capable of data communication with the imaging apparatus 31. By determining whether or not there is another imaging device 50 at a close position from the information on the current position acquired from the device 31, it is estimated whether or not it is in a state where it is assumed that a person is met. is there.

図9は、第3の実施の形態における撮像装置31の内部構成例を示している。
なお、この図9において、既に先の図2にて説明した部分については同一符号を付して説明を省略する。
この図9と先の図2とを比較して分かるように、第3の実施の形態の撮像装置31は、先の図2に示した撮像装置1の構成に対し、位置検出手段としてのGPS(Global Positioning System)ユニット14を追加したものとなる。このGPSユニット14は、図示されないGPS衛星からの電波を受信し、現在位置を表す情報として、緯度・経度の情報を得る。そしてこのような緯度・経度による現在位置情報を、システムコントローラ2に出力する。
FIG. 9 illustrates an internal configuration example of the imaging device 31 according to the third embodiment.
In FIG. 9, parts already described in FIG. 2 are given the same reference numerals and description thereof is omitted.
As can be seen by comparing FIG. 9 with the previous FIG. 2, the imaging device 31 of the third embodiment is different from the configuration of the imaging device 1 shown in FIG. (Global Positioning System) unit 14 is added. The GPS unit 14 receives radio waves from a GPS satellite (not shown), and obtains latitude / longitude information as information representing the current position. Then, the current position information based on the latitude / longitude is output to the system controller 2.

図10は、第3の実施の形態のシステムの構成と具体的な動作内容について模式的に示した図である。
この図10に示されるように、第3の実施の形態のシステムは、複数の撮像装置31と、ネットワーク32、及びサーバ装置40を含んで構成される。
この第3の実施の形態のシステムにおいて、各撮像装置31は、GPSユニット14によって検出された現在位置情報を、ネットワーク32を介してサーバ装置40に送信する。この場合、各撮像装置31からの現在位置情報の送信は、例えば所定の周期で繰り返し行うものとする。
FIG. 10 is a diagram schematically illustrating the configuration and specific operation contents of the system according to the third embodiment.
As shown in FIG. 10, the system according to the third embodiment includes a plurality of imaging devices 31, a network 32, and a server device 40.
In the system according to the third embodiment, each imaging device 31 transmits current position information detected by the GPS unit 14 to the server device 40 via the network 32. In this case, transmission of the current position information from each imaging device 31 is repeatedly performed at a predetermined cycle, for example.

サーバ装置40は、その内部構成は先の図7に示したサーバ装置20と同様となる。この場合のサーバ装置40(制御部21)では、各撮像装置31から送信される現在位置情報を取得し、各撮像装置31ごとに、所定距離内に他の撮像装置31があるか否かを判別する。そして、所定距離内に他の撮像装置31がある場合には、その旨を該当する個々の撮像装置31に対して通知する。   The server device 40 has the same internal configuration as the server device 20 shown in FIG. In this case, the server device 40 (control unit 21) acquires the current position information transmitted from each imaging device 31, and for each imaging device 31, determines whether there is another imaging device 31 within a predetermined distance. Determine. If there is another imaging device 31 within a predetermined distance, the corresponding imaging device 31 is notified to that effect.

ここで、各撮像装置31ごとに所定距離内に他の撮像装置31があるか否かの判別を行うにあたっては、1つの撮像装置31ごとに、他の撮像装置31を総当たりさせて所定距離内にあるか否かを判別することになる。
この際、任意の2つの撮像装置31間の距離は、該距離をDistance、一方の撮像装置31の現在位置(緯度、経度)をLatA、LonA、他方の撮像装置31の現在位置をLatB、LonBとしたき、
Distance2={(LatA−LatB)2+(LonA−LonB)2
に基づく演算を行って求める。実距離は、上式で求まる値と比例する。判別基準となる上記「所定距離」の値としては、予めこの式で求まる値に対応させた値を設定しておく。或いは、上記「所定距離」の値としては実距離に対応する値を設定しておき、上式で求まる値に所定の係数を与えることで適切な判別が行われるように図ることもできる。
Here, when determining whether or not there is another imaging device 31 within a predetermined distance for each imaging device 31, the other imaging device 31 is brute-forced for each imaging device 31 and the predetermined distance is reached. It is determined whether or not it is within.
At this time, the distance between any two imaging devices 31 is Distance, the current position (latitude, longitude) of one imaging device 31 is LatA, LonA, and the current position of the other imaging device 31 is LatB, LonB. Toki,
Distance 2 = {(LatA−LatB) 2 + (LonA−LonB) 2 }
Obtained by performing an operation based on. The actual distance is proportional to the value obtained by the above equation. As the value of the “predetermined distance” serving as a discrimination criterion, a value corresponding to the value obtained by this equation is set in advance. Alternatively, as the value of the “predetermined distance”, a value corresponding to the actual distance is set, and a predetermined coefficient is given to the value obtained by the above equation so that appropriate discrimination can be performed.

この場合の撮像装置31としても、上記のようなサーバ装置40からの通知を、位置解析結果としての人検出情報に代わる情報として取得する。すなわち、撮像装置31(システムコントローラ2)は、上記サーバ装置40からの通知があった場合には、人と会っているとされる状態であるとの判別結果を得て、位置解析由来のインデックスポイントを登録するための処理を実行する。また、上記通知がなかった場合には、人と会っているとされる状態にはないとの判別結果を得て、位置解析由来のインデックスポイントの登録は行わないようにされる。   The imaging device 31 in this case also acquires the notification from the server device 40 as described above as information that replaces the human detection information as the position analysis result. That is, when there is a notification from the server device 40, the imaging device 31 (system controller 2) obtains a determination result indicating that it is in a state of meeting a person, and an index derived from position analysis. Execute the process for registering points. If there is no notification, a determination result indicating that the person is not in a state of meeting with a person is obtained, and index points derived from position analysis are not registered.

図11は、上記により説明した第3の実施の形態としての動作を実現するためにサーバ装置40にて行われるべき制御例を示すフローチャートである。
なお、この図11においても、サーバ装置40の制御部(制御部21)が内部のROM等に格納されるプログラムに基づき実行する制御処理を示している。
また、この図に示す処理動作としても、予め定められた所定周期で繰り返し実行されるものとなる。
FIG. 11 is a flowchart showing a control example to be performed by the server device 40 in order to realize the operation as the third embodiment described above.
Note that FIG. 11 also shows a control process executed by the control unit (control unit 21) of the server device 40 based on a program stored in an internal ROM or the like.
Also, the processing operation shown in this figure is repeatedly executed at a predetermined cycle.

図11において、ステップS301では、各機器からの現在位置情報が取得される。そして、続くステップS302では、各機器ごとに、所定距離内に他の機器があるか否かを判別する。すなわち、各撮像装置31について、例えば先に例示したような手法によって他の個々の撮像装置31との間の距離を計算し、その結果に基づき、所定距離内に他の撮像装置31があるか否かを判別する。   In FIG. 11, in step S301, current position information from each device is acquired. In step S302, it is determined for each device whether there is another device within a predetermined distance. That is, for each imaging device 31, for example, the distance between the imaging device 31 and another individual imaging device 31 is calculated by the method exemplified above, and based on the result, is there another imaging device 31 within a predetermined distance? Determine whether or not.

次のステップS303では、所定距離内に他の機器のある機器があるか否かを判別する。上記ステップS302による各撮像装置31ごとの判別の結果、所定距離内に他の撮像装置31があるとされた撮像装置31があったとして肯定結果が得られた場合は、ステップS304に進み、該当する機器への通知を行う。すなわち、所定距離内に他の撮像装置31があるとされた個々の撮像装置31に対し、その旨を表す通知が行われるようにして通信部24に対する制御を行う。このステップS304の処理を実行すると、この図に示す処理動作は終了となる。
一方、上記ステップS303において、所定距離内に他の撮像装置31があるとされた撮像装置31がなかったとして否定結果が得られた場合は、上記ステップS304をパスしてこの図に示す処理動作を終了する。
In the next step S303, it is determined whether or not there is a device with another device within a predetermined distance. As a result of the determination for each imaging device 31 in step S302, if an affirmative result is obtained assuming that there is another imaging device 31 within a predetermined distance, the process proceeds to step S304. Notification to the device to be performed. That is, the control of the communication unit 24 is performed such that a notification indicating that is given to each of the imaging devices 31 for which there is another imaging device 31 within a predetermined distance. When the process of step S304 is executed, the processing operation shown in FIG.
On the other hand, if a negative result is obtained in step S303 that there is no image pickup apparatus 31 that is assumed to have another image pickup apparatus 31 within a predetermined distance, the process operation shown in FIG. Exit.

[第3の実施の形態の変形例]
ここで、上記による説明では、サーバ装置40による判別処理が、各撮像装置31における自動撮像と並行してリアルタイムに行われることを前提としたが、サーバ装置40による判別は、事後的に行うようにすることもできる。
具体的に、その場合の各撮像装置31では、定期的に繰り返し現在位置情報を取得する処理は行うが、このように取得した現在位置情報を即座にサーバ装置40に送信するのではなく、各時点で得られた現在位置情報を例えばストレージ部8などの所定の記憶手段に蓄積していくようにされる。そして、このように蓄積した情報を、サーバ装置40側からの指示に基づき、サーバ装置40に対して送信する。
[Modification of Third Embodiment]
Here, in the above description, it is assumed that the determination processing by the server device 40 is performed in real time in parallel with the automatic imaging in each imaging device 31, but the determination by the server device 40 is performed afterwards. It can also be.
Specifically, in each imaging device 31 in that case, the process of periodically acquiring the current position information is performed. However, instead of immediately transmitting the acquired current position information to the server device 40, each The current position information obtained at the time is accumulated in predetermined storage means such as the storage unit 8. Then, the information stored in this way is transmitted to the server device 40 based on an instruction from the server device 40 side.

この場合のサーバ装置40では、このように各撮像装置31にて蓄積された情報を取得した結果に基づき、各時点ごとに、各撮像装置31について所定距離内に他の撮像装置31があるか否かの判別を行う。
ここで、上記のような各撮像装置31側から取得した蓄積情報に基づき、この場合のサーバ装置40では、次の図12に示すような蓄積情報データベースを生成するようにされる。
図12において、この蓄積情報データベースとしては、各時刻(時点)tmを基準として、各機器とその機器から取得した現在位置位置の情報とを対応づけた情報となる。なお、この蓄積情報データベースについては、例えば記憶部23にて生成するものとすればよい。
In the server device 40 in this case, based on the result of acquiring the information accumulated in each imaging device 31 as described above, is there another imaging device 31 within a predetermined distance for each imaging device 31 at each time point? Determine whether or not.
Here, based on the accumulated information acquired from each imaging device 31 as described above, the server device 40 in this case generates an accumulated information database as shown in FIG.
In FIG. 12, the accumulated information database is information in which each device is associated with the information on the current position acquired from the device with each time (time) tm as a reference. In addition, what is necessary is just to produce | generate this storage information database in the memory | storage part 23, for example.

この場合のサーバ装置40は、この図12に示したような蓄積情報データベースに基づき、各撮像装置31について、所定距離内に他の撮像装置31があるか否かの判別を、各時点tmごとに行う。つまりこの判別を行う結果、サーバ装置40では、各撮像装置31ごとの他の撮像装置31が所定距離内にあったか否かの判別結果を表す情報が、各時点tmごとに得られることになる。   In this case, the server device 40 determines for each imaging device 31 whether or not there is another imaging device 31 within a predetermined distance based on the accumulated information database as shown in FIG. To do. That is, as a result of performing this determination, the server device 40 obtains information indicating a determination result as to whether or not the other imaging device 31 for each imaging device 31 is within a predetermined distance at each time point tm.

このとき、或る時点tmnについて行った判別の結果、所定距離内に他の撮像装置31があるとされた場合は、その撮像装置31にとっては、該時点tmnがインデックスを付すべきポイントであることになる。
この場合のサーバ装置40では、このように或る時点tmnについて、各撮像装置31ごとに所定距離内に他の機器があるか否かの判別を行った結果、その時点tmnにて該当する撮像装置31があった場合には、その該当する撮像装置31に通知すべきインデックスポイントとして、時点tmnを登録する。
このような処理が各時点tmごとに繰り返し行われる結果、サーバ装置40では、次の図13に示すような登録情報が生成される。すなわち、各機器(撮像装置31)ごとに、インデックスが付されるべきポイントを表す時点tmの情報が登録された(対応づけられた)情報が生成されることになる。
At this time, if it is determined that there is another imaging device 31 within a predetermined distance as a result of the determination made at a certain time tmn, the time tmn is a point to be indexed for the imaging device 31. become.
In the server device 40 in this case, as a result of determining whether or not there is another device within a predetermined distance for each imaging device 31 at a certain time tmn as described above, the corresponding imaging at that time tmn is performed. When the apparatus 31 is present, the time point tmn is registered as an index point to be notified to the corresponding imaging apparatus 31.
As a result of repeatedly performing such processing at each time point tm, the server device 40 generates registration information as shown in FIG. That is, for each device (imaging device 31), information in which information on a time point tm representing a point to be indexed is registered (associated) is generated.

サーバ装置40は、このようにして生成した各撮像装置31ごとのインデックスポイントの登録情報に基づき、該当する撮像装置31(つまりインデックスポイントとしての時点tmが対応づけられた撮像装置31)に対し、インデックスポイントを表す時点tmの情報を通知する。   Based on the index point registration information for each imaging device 31 generated in this way, the server device 40 performs the corresponding imaging device 31 (that is, the imaging device 31 associated with the time point tm as an index point). Information on the time point tm indicating the index point is notified.

この場合の撮像装置31は、このようにサーバ装置40から通知される時点tmの情報に基づき、自動撮像により保存された撮像画像データに対して位置解析由来のインデックスを付す。具体的に、この場合のシステムコントローラ2は、保存された各撮像画像データの保存時刻(撮影時刻)と上記サーバ装置40からの時点tmとを照合し、時点tmと一致するとされる撮影時刻情報が対応づけられた撮像画像データのIDに対し、位置解析由来のインデックスが有る旨を表す情報が対応づけられるようにしてインデックスポイント管理情報8bの情報内容を更新する処理を行う。   The imaging device 31 in this case attaches an index derived from position analysis to the captured image data stored by automatic imaging based on the information on the time point tm notified from the server device 40 in this way. Specifically, the system controller 2 in this case collates the storage time (shooting time) of each stored captured image data with the time point tm from the server device 40, and the shooting time information that is supposed to match the time point tm. The information content of the index point management information 8b is updated so that information indicating that there is an index derived from position analysis is associated with the ID of the captured image data associated with.

図14は、上記による第3の実施の形態の変形例としての動作を実現するために、サーバ装置40にて行われるべき制御例をフローチャートにより示している。なお、この図14においても、サーバ装置40の制御部(制御部21)が内部のROM等に格納されるプログラムに基づき実行する制御処理を示している。   FIG. 14 is a flowchart showing an example of control to be performed by the server device 40 in order to realize the operation as a modification of the third embodiment. 14 also shows a control process executed by the control unit (control unit 21) of the server device 40 based on a program stored in an internal ROM or the like.

先ず、ステップS401では、処理の開始トリガ発生を待機する。つまり、例えば予め定められた所定時刻に至るなど、この図に示す処理を開始すべきとして定められた所定条件の成立を待機する。
そして、開始トリガが発生した場合には、ステップS402において、各機器の蓄積情報を取得する処理を実行する。すなわち、各撮像装置31に対して蓄積情報(各現在位置情報とその取得時刻)の送信指示を行い、該送信指示に応じ送信される蓄積情報が例えば記憶部23等の所要の記憶手段に対して格納されるように制御処理を行う。
First, in step S401, a process start trigger is awaited. In other words, for example, a predetermined condition determined to start the process shown in FIG.
If a start trigger is generated, a process for acquiring accumulated information of each device is executed in step S402. That is, the storage information (each current position information and its acquisition time) is instructed to be transmitted to each imaging device 31, and the storage information transmitted in response to the transmission instruction is transmitted to a required storage unit such as the storage unit 23, for example. Control processing to be stored.

続くステップS403では、蓄積情報データベースの生成処理を実行する。つまり図12に示したようにして、各時刻(時点)tmを基準として、各機器とその機器から取得した現在位置位置の情報とを対応づけた情報を生成する。   In a succeeding step S403, a storage information database generation process is executed. That is, as shown in FIG. 12, information is generated by associating each device with the information on the current position acquired from the device on the basis of each time (time) tm.

次のステップS404では、先ずは時点識別値nを1にセットする処理を実行する。なお、この時点識別値nは、以降の説明からも理解されるように、制御部21が各時点tmを識別するためにカウントする値となる。   In the next step S404, first, processing for setting the time point identification value n to 1 is executed. The time point identification value n is a value that the control unit 21 counts to identify each time point tm, as will be understood from the following description.

続くステップS405では、時点tmnのデータを取得する処理を実行する。つまり、蓄積情報データベース内の時点tmnが対応づけられたデータ(現在位置情報と機器のID情報)を取得する処理を実行する。
そして、次のステップS406において、各機器ごとに、所定距離内に他の機器があったか否かを判別し、さらに次のステップS407において、所定距離内に他の機器のあった機器があるか否かを判別する。
In a succeeding step S405, a process of acquiring data at the time point tmn is executed. That is, a process of acquiring data (current position information and device ID information) associated with the time point tmn in the stored information database is executed.
Then, in the next step S406, for each device, it is determined whether or not there is another device within a predetermined distance. In the next step S407, whether or not there is a device with another device within the predetermined distance. Is determined.

このステップS407において、上記ステップS406による時点tmnについての各機器ごとの判別の結果から、所定距離内に他の機器のあった機器が存在すると判別されて肯定結果が得られた場合は、ステップS408に処理を進めて、該当する機器のインデックスポイントとして時点tmnを登録する処理を実行する。すなわち、先の図13に示した登録情報において、該当する機器のIDに対し、時点tmnの情報がインデックスポイントとして対応づけられるようにして上記登録情報の内容を更新する処理を実行する。
このステップS408の処理を実行すると、ステップS409に処理を進める。
一方、上記ステップS407において、時点tmnについての各機器ごとの判別の結果から、所定距離内に他の機器のあった機器が存在しなかったと判別されて否定結果が得られた場合は、上記ステップS408をパスしてステップS409に処理を進める。
If it is determined in step S407 that there is another device within a predetermined distance from the result of determination for each device at the time point tmn in step S406, an affirmative result is obtained in step S408. Then, the process of registering the time point tmn as the index point of the corresponding device is executed. That is, in the registration information shown in FIG. 13, the process of updating the content of the registration information is performed so that the information of the time point tmn is associated with the ID of the corresponding device as an index point.
When the process of step S408 is executed, the process proceeds to step S409.
On the other hand, if it is determined in step S407 that there is no other device within a predetermined distance from the result of determination for each device at the time tmn, a negative result is obtained. The process proceeds to step S409 after passing S408.

ステップS409では、n=Nであるか否かを判別する。ここで、「N」の値は、各撮像装置31から取得した蓄積情報内に含まれる時点tmの数(現在位置情報の数)を表す。この「N」の数値は、例えば先のステップS403にて蓄積情報データベースを生成する過程で取得することができる。或いは、各撮像装置31における現在位置情報の取得周期が固定であれば、その周期の情報と、各撮像装置31からの蓄積情報の取得を行った前回の時刻情報とに基づき計算することもできる。   In step S409, it is determined whether n = N. Here, the value of “N” represents the number of times tm (number of current position information) included in the accumulated information acquired from each imaging device 31. The numerical value “N” can be acquired, for example, in the process of generating the stored information database in the previous step S403. Alternatively, if the acquisition cycle of the current position information in each imaging device 31 is fixed, the calculation can be performed based on the information on the cycle and the previous time information when the accumulated information is acquired from each imaging device 31. .

ステップS409において、n=Nではない、すなわち未だ全ての時点tmについて判別を行っていないとして否定結果が得られた場合は、ステップS410に進んでnの値をインクリメント(n=n+1)した後、先のステップS405に戻るようにされる。
一方、ステップS409において、n=Nである、すなわち全ての時点tmについて判別を行ったとして肯定結果が得られた場合は、ステップS411に進む。
In step S409, if n = N is not satisfied, that is, if a negative result is obtained that all the time points tm are not yet determined, the process proceeds to step S410, and after incrementing the value of n (n = n + 1), The process returns to the previous step S405.
On the other hand, in step S409, if n = N, that is, if a positive result is obtained as a result of discrimination for all time points tm, the process proceeds to step S411.

ステップS411では、登録情報に従って、該当機器にインデックスポイントを通知するための処理を実行する。つまり、先のステップS408の登録処理に伴い生成される登録情報において、インデックスポイントとしての時点tmが対応づけられた撮像装置31に対し、そのインデックスポイントとしての時点tmの情報が通知されるようにして通信部24に対する制御を行う。
ステップS411の処理を実行すると、この図に示される処理動作は終了となる。
In step S411, processing for notifying the corresponding device of an index point is executed according to the registration information. That is, in the registration information generated with the registration processing in the previous step S408, the imaging device 31 associated with the time point tm as the index point is notified of the information of the time point tm as the index point. The communication unit 24 is controlled.
When the process of step S411 is executed, the processing operation shown in FIG.

なお、第3の実施の形態において、上記による説明では、各撮像装置31が備える位置検出手段がGPSユニットとされる場合を例示したが、これに代えて、Wi-Fiや携帯電話会社が提供する位置情報サービスを利用した位置検出手段を備えるようにしてもよい。   In the third embodiment, in the above description, the case where the position detection unit included in each imaging device 31 is a GPS unit is exemplified. However, instead of this, provided by Wi-Fi or a mobile phone company A position detecting means using a position information service may be provided.

また、第3の実施の形態において、実際のシステムを想定した場合には、サーバ装置40では、各撮像装置31ごとの総当たりによる距離計算を行うにあたって、膨大な処理負担が生じかねない。例えば、撮像装置31がn個ある場合、距離計算は1/2n(n−1)通り行うことになる。そこで、実際においては、複数のサーバ装置40を設けて、少なくとも距離計算については分担させて行うようにすることもできる。その場合、予め各サーバ装置40が受け持つ撮像装置31をグルーピングしておくことが有効となる。例えば、図10、図11を参照して説明したような第3の実施の形態としての手法を採る場合には、撮像装置31ごとに、取得した現在位置情報を送信すべきサーバ装置40を複数のサーバ装置40のうちから予め設定しておくようにすればよい。
或いは、第3の実施の形態の変形例としての手法を採る場合は、各サーバ装置40ごとに、予め蓄積情報の取得を行うべき撮像装置31を設定しておくものとすればよい。
Further, in the third embodiment, when an actual system is assumed, the server device 40 may cause a huge processing burden when performing a brute force calculation for each imaging device 31. For example, when there are n imaging devices 31, the distance calculation is performed 1 / 2n (n-1). Therefore, in practice, a plurality of server devices 40 may be provided, and at least the distance calculation may be shared. In that case, it is effective to group the imaging devices 31 that each server device 40 handles in advance. For example, when the method as the third embodiment as described with reference to FIG. 10 and FIG. 11 is adopted, a plurality of server devices 40 to which the acquired current position information is to be transmitted for each imaging device 31. It may be set in advance from among the server devices 40.
Or when the method as a modification of 3rd Embodiment is taken, what is necessary is just to set the imaging device 31 which should acquire storage information for every server apparatus 40 previously.

また、特に第3の実施の形態の変形例としての手法を採る場合には、サーバ装置40としての動作を、予め何らかの手法によって選出された撮像装置31が行うようにすることもできる。その場合、例えば夜中などユーザが外出活動しない時間帯など、撮像装置31が自動撮像を行っていない状態において、上記選出された撮像装置31が、他の複数の撮像装置31から蓄積情報を取得して、先に説明したサーバ装置40と同様の処理を行って各撮像装置31にインデックスポイントを通知するものとすればよい。なお確認のために述べておくと、上記選出された撮像装置31では、自らの蓄積情報も含めて蓄積情報データベースを生成することになる。また、当該選出された撮像装置31では、自身について登録したインデックスポイントに基づき、画像データに対するインデックス付与を行うことになる。
In particular, when the technique as a modified example of the third embodiment is adopted, the operation as the server apparatus 40 can be performed by the imaging apparatus 31 selected in advance by some technique. In this case, the selected imaging device 31 acquires accumulated information from the other imaging devices 31 in a state where the imaging device 31 is not performing automatic imaging, such as during a time when the user does not go out, such as at night. Then, the same processing as that of the server device 40 described above may be performed to notify each imaging device 31 of the index point. For the sake of confirmation, the selected imaging device 31 generates a stored information database including its own stored information. In addition, the selected imaging device 31 performs indexing for the image data based on the index points registered for itself.

<変形例>

以上、本発明の実施の形態について説明したが、本発明としてはこれまでに説明した具体例に限定されず、多様な変形例が考えられる。
例えば、これまでの説明では、人と会っているとされる状態であるか否かの判別を、画像解析、音声解析、撮像装置間の位置関係の解析の結果に基づき行う場合を例示したが、この他、例えば焦電型などの赤外線センサによる検出信号を利用して行うこともできる。その場合、赤外線センサの検出信号から人の存在が検出されたか否かについて判別した結果に基づき、人と会っているとされる状態であるか否かを判別するものとすればよい。
<Modification>

Although the embodiments of the present invention have been described above, the present invention is not limited to the specific examples described so far, and various modifications can be considered.
For example, in the description so far, the case where the determination as to whether or not the person is in a state of meeting with a person is performed is based on the results of image analysis, sound analysis, and analysis of the positional relationship between the imaging devices. In addition, for example, the detection can be performed using a detection signal from an infrared sensor such as a pyroelectric type. In that case, it may be determined whether or not the person is in a state of meeting with a person based on the result of determining whether or not the presence of a person is detected from the detection signal of the infrared sensor.

また、画像解析では、人の顔としてのデータ部分の検出時間長が所定長以上であるという条件も与えるものとしたが、他の条件を与えることも勿論可能である。
例えば、画像内の小さな顔(つまりユーザと離れた位置におり、ユーザと会っていると推定することのできない人物)が検出されてしまうことを防止するために、人の顔と認識できるデータ部分の画像サイズが予め定めた所定サイズ以上であるなどの条件を課すこともできる。具体的に、その場合の画像解析部10では、人の顔と認識できるデータ部分が検出され、且つそのデータ部分の画像サイズが上記所定サイズ以上であることを以て、人の顔と認識できるデータ部分が検出された旨の人検出情報をシステムコントローラ2に供給するものとすればよい。もちろん、この場合においても検出時間長の条件を加えることもできる。
In the image analysis, the condition that the detection time length of the data portion as a human face is equal to or longer than a predetermined length is given, but other conditions can of course be given.
For example, a data portion that can be recognized as a human face in order to prevent detection of a small face in the image (that is, a person who is far from the user and cannot be estimated to meet the user) It is also possible to impose conditions such as that the image size is equal to or larger than a predetermined size. Specifically, in this case, the image analysis unit 10 detects a data portion that can be recognized as a human face, and the data portion that can be recognized as a human face when the image size of the data portion is equal to or larger than the predetermined size. What is necessary is just to supply the person detection information to the effect of having detected to the system controller 2. FIG. Of course, the condition of the detection time length can also be added in this case.

また、特に第1の実施の形態において、無線通信可能な機器があるか否かの判別により人と会っているとされる状態であるか否かの判別を行うにあたっては、通信可能とされた機器が、撮像装置1であることを条件として追加することもできる。すなわち、通信可能機器が検出され、且つその機器が撮像装置1と特定できた場合に、人と会っているとされる状態であるとの判別結果を得るようにするものである。
これによれば、例えば撮像装置の周囲に無線通信可能機器が多く存在することが想定される場合などにおいて、外部に通信可能な外部機器があることを以てむやみにインデックスが付されてしまうといった事態の防止を図ることができる。
In particular, in the first embodiment, communication can be performed when determining whether or not a device is in a state of meeting a person by determining whether or not there is a device capable of wireless communication. It can also be added on condition that the device is the imaging device 1. That is, when a communicable device is detected and the device can be identified as the imaging device 1, a determination result is obtained that it is in a state that it is assumed that a person is met.
According to this, for example, when it is assumed that there are many devices capable of wireless communication around the imaging apparatus, an index is added unnecessarily due to the presence of external devices that can communicate with the outside. Prevention can be achieved.

また、これまでの説明では、人と会っているとされる状態であるか否かの判別結果が、自動撮像による撮像画像データの一取込期間内(つまり自動撮像周期が5秒であればその5秒以内)で得られることを前提として説明を行ったが、例えば画像解析として、実施の形態で例示したように顔の検出時間長が所定長以上であることも条件に加える場合などには、判別結果が得られるタイミングが、一取込期間内に間に合わないケースが生じることも考えられ得る。
例えばそのような場合に対応しては、人と会っているとされる状態であるか否かの判別が、どの取込期間内に対応して行われているものであるかの対応をとっておくものとすればよい。これにより、判別結果が対応する取込期間内に間に合わない場合であっても、取込画像ごとの判別結果を適正に管理することができる。
Further, in the description so far, the determination result as to whether or not the person is in a state of being in contact with a person is within a capturing period of captured image data by automatic imaging (that is, if the automatic imaging period is 5 seconds). The explanation was made on the premise that it can be obtained within 5 seconds). However, for example, in the case of adding to the condition that the face detection time length is not less than a predetermined length as exemplified in the embodiment as an image analysis. In other words, there may be a case where the timing at which the determination result is obtained is not in time within one capture period.
For example, in response to such a case, it is determined in which capture period the determination as to whether or not the person is said to be meeting a person is performed. You should keep it. Thereby, even if it is a case where a discrimination | determination result is not in time for the corresponding capture period, the discrimination | determination result for every captured image can be managed appropriately.

また、これまでの説明では、インデックスとしては、各判別項目ごとに複数種をそれぞれ別々に付す場合を例示したが、インデックスは、例えば判別項目を1つのみとして、1種のみを付すようにもできる。
或いは、これまでで説明した具体例の場合と同様に、複数の判別項目による判別を行った上で、その結果、所定の複数の判別項目で肯定結果が得られたことに応じて、総合的な(最終的な)判別結果を得るようにし、最終的に1種のインデックスのみを付すといったこともできる。具体的には、例えば画像解析に基づく判別処理と、位置解析に基づく判別処理との双方で肯定結果が得られた場合や、或いは音声解析に基づく判別処理と位置解析に基づく判別処理との双方で肯定結果が得られた場合に、人と会っているとされる状態であるとの最終的な判別結果を得て、該判別結果が得られた場合に、1種のインデックスのみを付すといったものである。
ここで、上記のようにして複数の項目による判別結果から総合的な判別結果を得るものとすれば、人と会っているとされる状態であるか否かの判別をより正確に行うことができる。
Further, in the description so far, as an index, an example in which a plurality of types are assigned separately for each discrimination item has been illustrated, but for example, an index may be provided with only one discrimination item with only one discrimination item. it can.
Alternatively, as in the case of the specific examples described so far, after making a determination based on a plurality of determination items, as a result, a positive result is obtained for a plurality of predetermined determination items. It is also possible to obtain a final (final) discrimination result and finally attach only one type of index. Specifically, for example, when a positive result is obtained in both the discrimination processing based on image analysis and the discrimination processing based on position analysis, or both of the discrimination processing based on speech analysis and the discrimination processing based on position analysis If a positive result is obtained, a final discrimination result that it is assumed that the person is in contact with a person is obtained, and when the discrimination result is obtained, only one kind of index is attached. Is.
Here, if a comprehensive determination result is obtained from the determination results of a plurality of items as described above, it is possible to more accurately determine whether or not the person is in a state of meeting with a person. it can.

また、インデックスは、これを付すべきポイントを別途の管理情報(インデックスポイント管理情報8c)を用いて管理するものとしたが、インデックスは、画像データのヘッダに格納するなど、画像データ内(ファイル内)に埋め込むようにして付すことも可能である。
但し、実施の形態で例示したように別途の管理情報で管理すれば、インデックスの検索にあたって画像データをスキャンする処理を不要とでき、その分、高速な検索を行うことができるものとなる。
In addition, the index manages the point to which the index is attached by using separate management information (index point management information 8c). However, the index is stored in the header of the image data (eg, in the file). It is also possible to attach it by embedding it in ().
However, if the management is performed using separate management information as exemplified in the embodiment, the process of scanning the image data is not necessary for searching the index, and accordingly, a high-speed search can be performed.

また、実施の形態では、自動撮像により取込を行う画像データが静止画撮像であることを前提として説明を行ったが、動画撮像を行う撮像装置であっても本発明は適用できる。
例えば、動画撮像を常時継続的に撮像するのではなく、断続的に、一定時間だけ動画撮像を行うような動作方式も考えられる。そのような場合には、取り込まれる各撮像画像データについて、同様に人と会っているとされる状態であるか否かの判別、及び判別結果に基づくインデックス付与を行うものとすればよい。
In the embodiments, the description has been made on the assumption that the image data to be captured by automatic imaging is still image imaging. However, the present invention can also be applied to an imaging apparatus that performs moving image imaging.
For example, an operation method may be considered in which moving image capturing is not performed continuously at all times, but is performed intermittently for a predetermined time. In such a case, it is only necessary to determine whether or not each captured image data to be captured is in a state where it is considered to meet a person, and to assign an index based on the determination result.

ここで、撮像画像データとして動画データを想定した場合、連続的なインデックスを付すことが考えられる。つまり、その場合は、人と会っているとされる状態であるか否かを連続的に判別し、該判別により肯定結果が得られたときに、インデックスとしてのマーカのONポイントを設定する。そして、このような連続的な判別により肯定結果が得られる状態が継続する限りは、上記マーカをONとし続け、否定結果が得られたことに応じ、マーカのOFFポイントを設定する。これにより、動画像に対応して時系列方向に連続的なマーカ(インデックス)を付すことができる。   Here, when moving image data is assumed as captured image data, it is conceivable to add a continuous index. That is, in this case, it is continuously determined whether or not it is in a state where it is assumed that a person is met, and when a positive result is obtained by the determination, an ON point of the marker as an index is set. Then, as long as a state in which an affirmative result is obtained by such continuous determination continues, the marker is kept on, and an OFF point of the marker is set in response to obtaining a negative result. Thereby, a continuous marker (index) can be attached in the time series direction corresponding to the moving image.

また、これまでの説明では、インデックスについての具体的な用途については言及はしなかったが、例えば以下のような用途が考えられる。
例えば、閲覧時の画像のサーチに用いることが考えられる。或いは、閲覧時に保存画像の代表画像(代表シーン)をピックアップして一覧表示する場合などにおいてサムネイル画像を表示する際には、該サムネイル画像を表示すべき画像をインデックスを用いて選出するなどが考えられる。
また、特に動画像を想定した場合には、インデックスポイントにチャプタを打つなどの用途も考えられる。
In the description so far, the specific use of the index has not been mentioned, but for example, the following use can be considered.
For example, it may be used for searching for images during browsing. Alternatively, when displaying a thumbnail image in the case of displaying a list of representative images (representative scenes) of a stored image that are picked up at the time of browsing, it is conceivable to select an image on which the thumbnail image should be displayed using an index. It is done.
In addition, particularly when a moving image is assumed, there may be a use such as placing a chapter at an index point.

本発明の実施の形態としての撮像装置の外観例の説明図である。It is explanatory drawing of the example of an external appearance of the imaging device as embodiment of this invention. 実施の形態の撮像装置の内部構成例を示したブロック図である。It is the block diagram which showed the example of an internal structure of the imaging device of embodiment. 第1の実施の形態としての、人と会っているとされる状態にあるか否かについての判別手法について説明するための図である。It is a figure for demonstrating the discrimination | determination method about whether it is in the state assumed to meet the person as 1st Embodiment. 撮像画像データに対するインデックス付与の具体例について説明するための図として、自動撮像により取込・保存された撮像画像データと、これに対して付されるインデックスとの関係を模式的に示した図である。As a diagram for explaining a specific example of index assignment for captured image data, it is a diagram schematically showing the relationship between captured image data captured and stored by automatic imaging and an index attached thereto is there. 第1の実施の形態としての動作を実現するための制御例について説明するためのフローチャートである。It is a flowchart for demonstrating the example of control for implement | achieving the operation | movement as 1st Embodiment. 第2の実施の形態としてのシステム構成と該システムにて行われる動作について模式的に示した図である。It is the figure which showed typically about the system configuration | structure as 2nd Embodiment, and the operation | movement performed by this system. 第2の実施の形態としてのサーバ装置の内部構成例を示したブロック図である。It is the block diagram which showed the example of the internal structure of the server apparatus as 2nd Embodiment. 第2の実施の形態としての動作を実現するための制御例について説明するためのフローチャートである。It is a flowchart for demonstrating the example of control for implement | achieving the operation | movement as 2nd Embodiment. 第3の実施の形態としての撮像装置の内部構成例を示したブロック図である。It is the block diagram which showed the internal structural example of the imaging device as 3rd Embodiment. 第3の実施の形態としてのシステム構成と該システムにて行われる動作について模式的に示した図である。It is the figure which showed typically the system configuration | structure as 3rd Embodiment, and the operation | movement performed by this system. 第3の実施の形態としての動作を実現するための制御例について説明するためのフローチャートである。It is a flowchart for demonstrating the example of control for implement | achieving the operation | movement as 3rd Embodiment. 第3の実施の形態の変形例としてのシステムで生成される蓄積情報データベースの構造例を示した図である。It is the figure which showed the structural example of the accumulation | storage information database produced | generated with the system as a modification of 3rd Embodiment. 第3の実施の形態の変形例としてのシステムで生成されるインデックスポイントについての登録情報の構造例を示した図である。It is the figure which showed the structural example of the registration information about the index point produced | generated with the system as a modification of 3rd Embodiment. 第3の実施の形態の変形例としての動作を実現するための制御例について説明するためのフローチャートである。It is a flowchart for demonstrating the example of control for implement | achieving the operation | movement as a modification of 3rd Embodiment.

符号の説明Explanation of symbols

1,31 撮像装置、2 システムコントローラ、3 撮像部、3a 撮像光学系、3b 撮像素子部、3c 撮像信号処理部、4 撮像制御部、5 表示部、6 表示制御部、7 操作入力部、8 ストレージ部、9 通信部、10 画像解析部、11 音声解析部、12 バス、13 音声入力部、14 GPSユニット、20,40 サーバ装置、21 制御部、22 時刻計時部、23 記憶部、24 通信部、30 基地局、32 ネットワーク     1,31 imaging device, 2 system controller, 3 imaging unit, 3a imaging optical system, 3b imaging element unit, 3c imaging signal processing unit, 4 imaging control unit, 5 display unit, 6 display control unit, 7 operation input unit, 8 Storage unit, 9 communication unit, 10 image analysis unit, 11 audio analysis unit, 12 bus, 13 audio input unit, 14 GPS unit, 20, 40 server device, 21 control unit, 22 timekeeping unit, 23 storage unit, 24 communication Department, 30 base stations, 32 networks

Claims (12)

被写体を撮像して撮像画像データを得る撮像手段と、
制御手段を備えると共に、
上記制御手段は、
上記撮像手段により得られる撮像画像データを使用者の操作に基づかず自動的に取り込む撮像画像自動取込処理と、
入力情報に基づき人と会っていると推定できる状態であるか否かを判別する判別処理と、
上記判別処理により人と会っていると推定できる状態であると判別した場合に、上記撮像画像自動取込処理により取り込まれた上記撮像画像データに対してインデックスが付されるように制御するインデックス付与処理とを実行する、
ことを特徴とする撮像装置。
Imaging means for capturing an image of a subject and obtaining captured image data;
With control means,
The control means includes
A captured image automatic capture process that automatically captures captured image data obtained by the imaging means without the user's operation;
A determination process for determining whether or not it is in a state where it can be estimated that a person is met based on input information;
Indexing for controlling the captured image data captured by the captured image automatic capturing process to be indexed when it is determined that the person can be estimated to meet the person through the determining process. Process and execute,
An imaging apparatus characterized by that.
上記制御手段による上記判別処理では、
上記撮像手段により得られる撮像画像データについての画像解析結果に基づき、人と会っていると推定できる状態であるか否かを判別する、
ことを特徴とする請求項1に記載の撮像装置。
In the determination process by the control means,
Based on the image analysis result of the captured image data obtained by the imaging means, it is determined whether or not it is in a state that can be estimated to meet with a person,
The imaging apparatus according to claim 1.
上記判別処理では、
上記撮像画像データ内に人の顔と推定できる画像が含まれているか否かについての画像解析結果に基づき、人と会っていると推定できる状態であるか否かを判別する、
ことを特徴とする請求項2に記載の撮像装置。
In the above discrimination process,
Based on the image analysis result about whether or not an image that can be estimated to be a human face is included in the captured image data, it is determined whether or not it is a state that can be estimated to meet a person,
The imaging apparatus according to claim 2.
上記制御手段による上記判別処理では、
外部音を収音して得られた収音データについての音声解析結果に基づき人と会っていると推定できる状態であるか否かを判別する、
ことを特徴とする請求項1に記載の撮像装置。
In the determination process by the control means,
It is determined whether it is in a state where it can be estimated that the person is meeting with a person based on the sound analysis result of the sound collection data obtained by collecting the external sound,
The imaging apparatus according to claim 1.
所定の声紋データが記憶された記憶手段をさらに備え、
上記判別処理では、
上記収音データ内に上記声紋データと一致するとされるデータ部分が存在するか否かについての音声解析結果に基づき、人と会っていると推定できる状態であるか否かを判別する、
ことを特徴とする請求項4に記載の撮像装置。
A storage means for storing predetermined voiceprint data;
In the above discrimination process,
It is determined whether or not it is in a state where it can be estimated that a person is met, based on a voice analysis result as to whether or not there is a data portion that matches the voiceprint data in the collected sound data.
The imaging apparatus according to claim 4.
外部装置との間で近距離無線通信を行う近距離無線通信手段を備えると共に、
上記制御手段による上記判別処理では、
上記近距離無線通信手段による通信可能範囲に他の装置が存在するか否かについての判別結果に基づき、人と会っていると推定できる状態であるか否かを判別する、
ことを特徴とする請求項1に記載の撮像装置。
With short-range wireless communication means for performing short-range wireless communication with an external device,
In the determination process by the control means,
Based on the determination result as to whether there is another device in the communicable range by the short-range wireless communication means, it is determined whether it is in a state that can be estimated to meet a person,
The imaging apparatus according to claim 1.
上記制御手段による上記判別処理では、
人と会っているとされる状態として推定される、予め定められた所定の複数の条件が成立したか否かを判別することで、人と会っていると推定できる状態であるか否かについての最終的な判別結果を得る、
ことを特徴とする請求項1に記載の撮像装置。
In the determination process by the control means,
Whether or not it is possible to presume meeting with a person by determining whether or not a plurality of predetermined conditions that are presumed to be meeting with a person are met To obtain the final discrimination result of
The imaging apparatus according to claim 1.
被写体を撮像して得られる撮像画像データを使用者の操作に基づかず自動的に取り込む撮像装置における画像インデックス付与方法であって、
入力情報に基づき人と会っていると推定できる状態であるか否かを判別する判別手順と、
上記判別手順により人と会っていると推定できる状態であると判別した場合に、自動的に取り込まれた上記撮像画像データに対してインデックスが付されるように制御するインデックス付与手順と、
を備えたことを特徴とする画像インデックス付与方法。
An image index assigning method in an imaging apparatus that automatically captures captured image data obtained by capturing an image of an object without the user's operation,
A determination procedure for determining whether or not it is in a state where it can be estimated that a person is met based on input information,
When it is determined that it is in a state where it can be estimated that the person meets the person according to the determination procedure, an indexing procedure for controlling the captured image data that is automatically captured to be indexed;
An image indexing method characterized by comprising:
情報処理装置と、上記情報処理装置との間でデータ通信が可能に構成された複数の撮像装置とを含んで構成される画像インデックス付与システムであって、
上記情報処理装置は、
データ通信を行って上記撮像装置の所在位置に関する情報を取得する位置情報取得処理と、
上記位置情報取得処理により取得した上記撮像装置の上記所在位置に関する情報に基づき、所定範囲内に他の撮像装置が存在する撮像装置を検索する検索処理と、
上記検索処理による検索の結果、上記所定範囲内に他の撮像装置が存在するとして特定した撮像装置に対して通知を行う通知処理とを実行する情報処理装置側制御手段を備え、
上記撮像装置は、
被写体を撮像して撮像画像データを得る撮像手段と、
撮像装置側制御手段を備えると共に、
上記撮像装置側制御手段は、
上記撮像手段により得られる撮像画像データを使用者の操作に基づかず自動的に取り込む撮像画像自動取込処理と、
上記情報処理装置側における上記通知処理による通知に基づき、上記撮像画像自動取込処理により自動的に取り込まれた上記撮像画像データに対してインデックスが付されるように制御するインデックス付与処理とを実行する、
ことを特徴とする画像インデックス付与システム。
An image indexing system including an information processing device and a plurality of imaging devices configured to be capable of data communication between the information processing device,
The information processing apparatus
Position information acquisition processing for performing data communication to acquire information on the location of the imaging device;
A search process for searching for an imaging apparatus in which another imaging apparatus exists within a predetermined range based on information on the location of the imaging apparatus acquired by the position information acquisition process;
As a result of the search by the search process, the information processing apparatus-side control means for executing a notification process for notifying an imaging apparatus specified as having another imaging apparatus within the predetermined range,
The imaging apparatus is
Imaging means for capturing an image of a subject and obtaining captured image data;
With the imaging device side control means,
The imaging device side control means includes:
A captured image automatic capture process that automatically captures captured image data obtained by the imaging means without the user's operation;
Based on the notification by the notification process on the information processing apparatus side, an indexing process is performed to control the captured image data automatically captured by the captured image automatic capture process to be indexed. To
An image indexing system characterized by that.
上記撮像装置は、無線通信中継器を介して上記情報処理装置との間でデータ通信を行うように構成され、
上記情報処理装置側制御手段による上記位置情報取得処理では、
上記撮像装置の所在位置に関する情報を、上記撮像装置についての通信データを中継する上記無線通信中継器から特定されるエリア情報に基づいて取得する、
ことを特徴とする請求項9に記載の画像インデックス付与システム。
The imaging device is configured to perform data communication with the information processing device via a wireless communication repeater,
In the position information acquisition process by the information processing apparatus side control means,
Obtaining information on the location of the imaging device based on area information identified from the wireless communication repeater that relays communication data about the imaging device;
The image indexing system according to claim 9.
上記撮像装置は、
現在位置を検出する位置検出手段を備えると共に、
上記情報処理装置側制御手段による上記位置情報取得処理では、
上記撮像装置にて検出される上記現在位置の情報を上記所在位置に関する情報として取得する、
ことを特徴とする請求項9に記載の画像インデックス付与システム。
The imaging apparatus is
In addition to providing position detection means for detecting the current position,
In the position information acquisition process by the information processing apparatus side control means,
Obtaining information on the current position detected by the imaging device as information on the location;
The image indexing system according to claim 9.
現在位置を検出する位置検出手段を備え、且つ撮像画像データを使用者の操作に基づかず自動的に取り込むようにされた複数の撮像装置との間でデータ通信が可能に構成された情報処理装置であって、
上記撮像装置における上記位置検出手段により検出された現在位置情報を取得する位置情報取得処理と、
上記位置情報取得処理により取得した上記位置情報に基づき、所定範囲内に他の撮像装置が存在する撮像装置を検索する検索処理と、
上記検索処理による検索の結果、上記所定範囲内に他の撮像装置が存在するとして特定した撮像装置に対して通知を行う通知処理とを実行する制御手段を備える、
ことを特徴とする情報処理装置。
An information processing apparatus comprising position detection means for detecting a current position and capable of data communication with a plurality of image pickup apparatuses that are automatically captured image data not based on a user's operation Because
Position information acquisition processing for acquiring current position information detected by the position detection means in the imaging device;
Based on the position information acquired by the position information acquisition process, a search process for searching for an image pickup apparatus in which another image pickup apparatus exists within a predetermined range;
As a result of the search by the search process, a control unit is provided that performs a notification process for notifying an imaging device that is identified as having another imaging device within the predetermined range.
An information processing apparatus characterized by that.
JP2007280125A 2007-10-29 2007-10-29 Imaging apparatus, image index attaching method, image index attaching system, information processor Pending JP2009111571A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007280125A JP2009111571A (en) 2007-10-29 2007-10-29 Imaging apparatus, image index attaching method, image index attaching system, information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007280125A JP2009111571A (en) 2007-10-29 2007-10-29 Imaging apparatus, image index attaching method, image index attaching system, information processor

Publications (1)

Publication Number Publication Date
JP2009111571A true JP2009111571A (en) 2009-05-21

Family

ID=40779614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007280125A Pending JP2009111571A (en) 2007-10-29 2007-10-29 Imaging apparatus, image index attaching method, image index attaching system, information processor

Country Status (1)

Country Link
JP (1) JP2009111571A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012019265A (en) * 2010-07-06 2012-01-26 Jvc Kenwood Corp Image processing device
WO2015185962A1 (en) * 2014-06-03 2015-12-10 Sony Corporation Lifelog camera and method of controlling in association with an intrapersonal area network
JP6341526B1 (en) * 2018-01-16 2018-06-13 新生環境株式会社 Self-action recording camera

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012019265A (en) * 2010-07-06 2012-01-26 Jvc Kenwood Corp Image processing device
WO2015185962A1 (en) * 2014-06-03 2015-12-10 Sony Corporation Lifelog camera and method of controlling in association with an intrapersonal area network
JP2017528014A (en) * 2014-06-03 2017-09-21 ソニー株式会社 Life log camera, control method associated with IAN
US10194067B2 (en) 2014-06-03 2019-01-29 Sony Mobile Communications Inc. Lifelog camera and method of controlling in association with an intrapersonal area network
JP6341526B1 (en) * 2018-01-16 2018-06-13 新生環境株式会社 Self-action recording camera
JP2019124816A (en) * 2018-01-16 2019-07-25 新生環境株式会社 Self behavior recording camera

Similar Documents

Publication Publication Date Title
US7995109B2 (en) Imaging apparatus that captures an image of a subject
US8660293B2 (en) Imaged image data processing apparatus, viewing information creating apparatus, viewing information creating system, imaged image data processing method and viewing information creating method
JP5888172B2 (en) Data storage device and program
US7649551B2 (en) Electronic camera system, photographing ordering device and photographing system
JP5162928B2 (en) Image processing apparatus, image processing method, and image processing system
JP2014090386A (en) Information processing system, information processing device, and program
US20070228159A1 (en) Inquiry system, imaging device, inquiry device, information processing method, and program thereof
JP4826485B2 (en) Image storage device and image storage method
CN103869468A (en) Information processing apparatus and recording medium
CN111917980B (en) Photographing control method and device, storage medium and electronic equipment
JP6028457B2 (en) Terminal device, server, and program
JP5915457B2 (en) Control system and program
JP6096654B2 (en) Image recording method, electronic device, and computer program
US20150124111A1 (en) Information processing apparatus, information processing method, and program
JPWO2014030407A1 (en) Control device and storage medium
JP2013207721A (en) Image pickup device and its white balance correction method and white balance correction program
US20180295283A1 (en) Mobile terminal and method of controlling the same
JP2013162277A (en) Digital camera
JP4421929B2 (en) Server system
JP2009111571A (en) Imaging apparatus, image index attaching method, image index attaching system, information processor
US20150124101A1 (en) Information processing apparatus, information processing method, and program
JP2017005395A (en) Imaging apparatus, imaging control method, and program
JP2013034237A (en) Image processor, image processing method and image processing system
JP2009111827A (en) Photographing apparatus and image file providing system
JP2009055080A (en) Imaging apparatus, and imaging method