JP5724592B2 - Imaging apparatus, imaging data sharing system, and program - Google Patents

Imaging apparatus, imaging data sharing system, and program Download PDF

Info

Publication number
JP5724592B2
JP5724592B2 JP2011101960A JP2011101960A JP5724592B2 JP 5724592 B2 JP5724592 B2 JP 5724592B2 JP 2011101960 A JP2011101960 A JP 2011101960A JP 2011101960 A JP2011101960 A JP 2011101960A JP 5724592 B2 JP5724592 B2 JP 5724592B2
Authority
JP
Japan
Prior art keywords
image data
moving image
shared
unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011101960A
Other languages
Japanese (ja)
Other versions
JP2012235282A (en
Inventor
広行 松永
広行 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2011101960A priority Critical patent/JP5724592B2/en
Publication of JP2012235282A publication Critical patent/JP2012235282A/en
Application granted granted Critical
Publication of JP5724592B2 publication Critical patent/JP5724592B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は撮像装置、撮像データ共有システム、及びプログラムに関し、より詳細には、撮像された動画像データから共有対象とする動画像データを所定の条件に基づいて選別し、選別された動画像データを他の撮像装置と共有することができる撮像装置、撮像データ共有システム、及びプログラムに関する。   The present invention relates to an imaging apparatus, an imaging data sharing system, and a program, and more specifically, selects moving image data to be shared from captured moving image data based on a predetermined condition, and selects moving image data The present invention relates to an imaging device, an imaging data sharing system, and a program that can be shared with other imaging devices.

近年、通信技術の発達及びデジタルカメラ等の普及により、あるユーザによってデジタルカメラ等で撮像された撮像データが、ネットワーク通信を通じて他のユーザのPC(Personal Computer)やデジタルカメラ等に送信され、複数のユーザ間で共有されるということが一般化している。例えば、IEEE802.11規格に準拠した無線通信によるネットワーク機能を搭載したデジタルカメラ等により、複数のユーザが、同一の風景、例えば結婚式の風景等を撮像し、その場で各ユーザが互いの撮像データを共有するというようなことも一般的に行われるようになってきている。   In recent years, with the development of communication technology and the spread of digital cameras, imaging data captured by a user with a digital camera or the like is transmitted to another user's PC (Personal Computer), digital camera, etc. via network communication, and a plurality of It is common to be shared between users. For example, with a digital camera or the like equipped with a network function by wireless communication compliant with the IEEE 802.11 standard, a plurality of users capture the same landscape, for example, a wedding landscape, and each user captures each other on the spot. Things like data sharing are becoming commonplace.

このように撮像データの共有が手軽に行える環境が整ってくると、次に撮像データの共有そのものをより効率的に行いたいとの要請が出てくる。この要請に応える技術として、例えば以下のようなものがある。   When an environment in which imaging data can be easily shared is set up in this way, next, there is a demand for more efficient sharing of imaging data. For example, the following techniques are available as a technique for meeting this demand.

特許文献1には、外部装置から撮像データの送信要求を受信し、その送信要求を受信した日時を示す時間情報、又は送信要求の中で別途特定された時間情報を抽出し、抽出されたこれらの時間情報に対応付けられた撮像データを、送信要求を行った外部装置に送信する撮像装置に関する技術が開示されている。   Patent Document 1 receives a request for transmission of imaging data from an external device, extracts time information indicating the date and time when the transmission request is received, or time information separately specified in the transmission request, and extracts these A technique relating to an imaging apparatus that transmits imaging data associated with the time information to an external apparatus that has requested transmission is disclosed.

この撮像装置によれば、ユーザは、同じ撮像現場に居合わせている他のユーザが撮像した画像を、そのユーザが欲しいと思った瞬間に所定の操作をするだけで、周囲の不特定多数のユーザの撮像装置が撮像した撮像データの中から、その所定の操作をしたタイミングに近い時間範囲内で撮像されたものだけが自動的に選別されて受信され、効率的に撮像データの共有が行える。   According to this imaging apparatus, a user can simply perform a predetermined operation at an instant when the user wants an image captured by another user who is present at the same imaging site, and the surrounding unspecified number of users. Of the image data captured by the image capturing apparatus, only those captured within a time range close to the timing of the predetermined operation are automatically selected and received, and the image data can be efficiently shared.

特許文献2には、ユーザが撮像している撮像データから被写体のIDを入手し、同一の風景を撮像している他のユーザの撮像装置から、そのIDに対応する被写体が撮像されている撮像データを取得することができる撮像装置に関する技術が開示されている。   Japanese Patent Application Laid-Open No. 2004-228561 obtains an object ID from image data captured by a user, and captures an image of an object corresponding to the ID from another user's image capturing apparatus capturing the same landscape. A technique related to an imaging apparatus capable of acquiring data is disclosed.

この撮像装置によれば、ユーザは自らが撮像している被写体と同じ被写体を撮像している他の撮像装置の撮像データを自動的に選別して取得することができ、効率的に撮像画像の共有が行える。   According to this imaging apparatus, the user can automatically select and acquire imaging data of another imaging apparatus that is imaging the same subject as the subject that he / she is imaging. Sharing is possible.

特開2009−171491号公報JP 2009-171491 A 特開2010−199816号公報JP 2010-199816 A

ところで、ネットワークを介して共有される撮像データが動画像データであった場合、当然、そのデータサイズは静止画像データに比べて、はるかに大きなものとなる。従って、共有されるのが動画像データであった場合、静止画像データと比べて複数の撮像装置間における送受信には長時間を要するという問題が生じる。また、共有された動画像データは撮像装置が搭載している記録媒体の容量を圧迫するという問題もあり、さらには共有後の新たな撮像データの取得が制限してしまうという問題も誘発する。   Incidentally, when the image data shared via the network is moving image data, the data size is naturally much larger than that of still image data. Therefore, when moving image data is shared, there is a problem that transmission / reception between a plurality of imaging devices takes a long time compared to still image data. Further, there is a problem that the shared moving image data presses the capacity of the recording medium mounted on the imaging apparatus, and further, there is a problem that acquisition of new imaging data after sharing is limited.

加えて、撮像データが動画像データであった場合は、静止画像データの場合と異なり、ユーザはその内容を一目で判断することができない。すなわち、ユーザは、逐一その動画像データを再生して目視によりその内容を確認しなければ、撮像データ中における、所望の被写体が望ましい態様で撮影された部分を選別することができないという問題がある。   In addition, when the captured data is moving image data, unlike the case of still image data, the user cannot determine the contents at a glance. That is, there is a problem that the user cannot select a portion in which the desired subject is photographed in a desirable mode in the captured data unless the user reproduces the moving image data one by one and confirms the contents visually. .

ここで、上記特許文献1に記載の技術では、共有される撮像データを時間情報から選別してはいるが、共有される撮像データが動画像データであった場合には、時間情報を相当な短時間に限定しなければ、共有される動画像データの総量は極めて大きなものとなってしまう。従って、データの送受信に長時間を要する問題、又は共有されたデータが各人のカメラの記録媒体の容量を圧迫し、共有後の新たな撮像データの取得が制限されるという問題が生じることが推察される。加えて、共有の際に、共有対象となる動画像データの内容は考慮されていないため、ユーザは共有された全ての動画像データを一度再生して内容を確認し、所望の被写体が望ましい態様で撮影された部分を選別しなければならないという問題が生じることが推察される。   Here, in the technique described in Patent Document 1, the shared imaging data is selected from the time information. However, if the shared imaging data is moving image data, the time information is considerable. Unless limited to a short time, the total amount of moving image data to be shared becomes extremely large. Therefore, there is a problem that it takes a long time to send and receive data, or the shared data presses the capacity of the recording medium of each person's camera, and the acquisition of new imaging data after sharing is restricted. Inferred. In addition, since the contents of the moving image data to be shared are not taken into account when sharing, the user can reproduce all the moving image data once to confirm the contents, and the desired subject is desirable. It can be inferred that a problem arises in that it is necessary to sort out the portion photographed in the above.

特許文献2に記載の技術では、IDで対応付けられた特定の被写体の動画像データを選別して、その動画像データのみを共有対象とできるものの、共有対象となった動画像データにおいて目的の被写体が望ましい態様で撮像されているかどうかは、ユーザが逐一その動画像データを再生して内容を確認しなければ判断することができない。また、ユーザが、ある被写体の撮像中に別の被写体の撮像を望んでも、その別の被写体をIDで対応づけることはできない。従って、特許文献2に記載の技術では、他のユーザがその別の被写体を撮像しており、ユーザがその別の被写体の撮像データを共有してもらいたいと望んでも、その撮像データは共有対象とはならないという問題も生じることも推察される。   In the technique described in Patent Document 2, although moving image data of a specific subject associated with an ID can be selected and only the moving image data can be a sharing target, Whether or not the subject is imaged in a desirable manner cannot be determined unless the user reproduces the moving image data one by one and confirms the contents. Further, even if the user desires to capture another subject while capturing a certain subject, the other subject cannot be associated with the ID. Therefore, in the technique described in Patent Document 2, even if another user is imaging the other subject and the user wants to share the imaging data of the other subject, the imaging data is shared. It is speculated that there may be a problem that it is not possible.

本発明はこのような問題に鑑みてなされたものであり、複数のユーザが撮像した動画像データを共有する場合に、事前に設定された所定の条件に基づいて所望の被写体が望ましい態様で撮影された部分の動画像データを共有対象として選別し、選別された動画像データを他の撮像装置と共有することで、共有に要する時間を短縮し、また記録媒体の容量の圧迫を低減することができる撮像装置、撮像データ共有システム、及びプログラムを提供することを目的とする。   The present invention has been made in view of such a problem. When moving image data captured by a plurality of users is shared, a desired subject is photographed in a desirable mode based on predetermined conditions set in advance. The moving image data of the selected part is selected as a sharing target, and the selected moving image data is shared with other imaging devices, thereby reducing the time required for sharing and reducing the pressure on the recording medium capacity. It is an object to provide an imaging apparatus, an imaging data sharing system, and a program that can perform the above.

また、本発明は、事前に設定された所定の条件に基づいて所望の被写体が望ましい態様で撮影された部分の動画像データを共有対象として選別することで、そもそもユーザにとって不要となる撮像データが共有対象となることを防止し、ユーザがそういった不要な撮像データを目視により確認する手間を削減することができる撮像装置、撮像データ共有システム、及びプログラムを提供することを目的とする。   In addition, the present invention sorts moving image data of a portion in which a desired subject is photographed in a desirable mode based on a predetermined condition set in advance as a sharing target, so that imaging data that is unnecessary for the user in the first place is obtained. It is an object of the present invention to provide an imaging apparatus, an imaging data sharing system, and a program that can prevent the user from being a sharing target and can reduce the trouble of visually confirming such unnecessary imaging data.

本発明は、被写体の動画像データを撮像する撮像部(100)と、前記撮像部(100)が撮像した動画像データを共有するグループを外部の撮像装置(2又は3)との間で形成するグループ化部(401)と、前記グループ化部(401)が形成したグループ内の前記外部の撮像装置(2又は3)との間で共有する動画像データとして、所定の被写体が所定の態様で撮像された動画像データを選択するための条件を設定する共有条件設定部(405)と、前記共有条件設定部(405)が設定した条件に基づいて、前記撮像部(100)が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別する共有データ選別部(406)と、前記共有データ選別部(406)が選別した前記共有動画像データを前記グループ内の前記外部の撮像装置(2又は3)に送信する送信部(310)と、前記グループ化部(401)が形成したグループ内の前記外部の撮像装置(2又は3)が撮像を行っているか否かを判定する判定部(402)を備え、前記判定部(402)が前記外部の撮像装置(2又は3)が撮像を行っていないと判定した場合に、前記共有データ選別部(406)は、前記共有条件設定部(405)が設定した条件に基づいて、前記撮像部(100)が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別することを特徴とする撮像装置(1)を提供する。
According to the present invention, an imaging unit (100) that captures moving image data of a subject and a group that shares moving image data captured by the imaging unit (100) are formed between an external imaging device (2 or 3). A predetermined subject as a moving image data shared between the grouping unit (401) and the external imaging device (2 or 3) in the group formed by the grouping unit (401). Based on the condition set by the sharing condition setting unit (405) and the condition set by the sharing condition setting unit (405), the imaging unit (100) captures the image. A shared data sorting unit (406) that sorts the portion to be shared from the moving image data as shared moving image data, and the shared moving image data sorted by the shared data sorting unit (406) Transmission unit to be transmitted to the outside of the imaging device in the flop (2 or 3) and (310), the outside of the imaging device in the group the grouping unit (401) is formed (2 or 3) is subjected to imaging A determination unit (402) for determining whether or not the external imaging device (2 or 3) is not capturing an image, the shared data selection unit (402) 406) selecting a portion to be shared as shared moving image data from moving image data captured by the imaging unit (100) based on the conditions set by the sharing condition setting unit (405). A characteristic imaging device (1) is provided.

本発明に係る撮像装置(1)によれば、複数のユーザが撮像した動画像データを共有する場合に、共有データ選別部(406)が共有条件設定部(405)が設定した条件に基づき、撮像された被写体画像データ等から共有対象となる動画像データを選別し、選別された動画像データを他の撮像装置と共有することができる。よって、共有に要する時間を短縮し、また記録媒体の容量の圧迫を低減することができる。また、そもそもユーザにとって不要となる撮像データが共有対象となることを防止し、ユーザがそういった不要な撮像データを目視により確認する手間を削減することができる。   According to the imaging device (1) according to the present invention, when moving image data captured by a plurality of users is shared, the shared data selection unit (406) is based on the conditions set by the sharing condition setting unit (405). It is possible to select moving image data to be shared from the captured subject image data or the like, and share the selected moving image data with other imaging devices. Therefore, the time required for sharing can be shortened and the compression of the capacity of the recording medium can be reduced. In addition, it is possible to prevent imaging data that is unnecessary for the user from becoming a sharing target in the first place, and it is possible to reduce time and effort for the user to visually confirm such unnecessary imaging data.

上記撮像装置(1)はさらに、例えば、外部の撮像装置(2又は3)のユーザが休憩等で撮像を行っていなくても、上記撮像装置(1)のユーザが撮像した動画像データを、選別してその外部の撮像装置のユーザに送信することができる。よって、複数の撮像装置が重複して撮像していた動画像データを始めとした不要な動画像データの共有に要する時間を省略することができる。またこれらの不要な動画像データが記録媒体の容量を圧迫するのを防止することができる。或は、重複していない動画像データの中でも選別された動画像データが共有されているので、ユーザが不要な撮像データを目視により確認する手間をさらに削減することができる。   The imaging device (1) further includes, for example, moving image data captured by the user of the imaging device (1), even if the user of the external imaging device (2 or 3) is not capturing images during a break or the like. It can sort and transmit to the user of the external imaging device. Therefore, it is possible to omit time required for sharing unnecessary moving image data such as moving image data which has been picked up by a plurality of imaging devices. Further, it is possible to prevent these unnecessary moving image data from pressing the capacity of the recording medium. Alternatively, since the selected moving image data is shared among the non-overlapping moving image data, it is possible to further reduce the time and effort for the user to visually confirm unnecessary imaging data.

本発明は、被写体の動画像データを撮像する撮像部(100)と、前記撮像部(100)が撮像した動画像データを共有するグループを外部の撮像装置(2又は3)との間で形成するグループ化部(401)と、前記グループ化部(401)が形成したグループ内の前記外部の撮像装置(2又は3)との間で共有する動画像データとして、所定の被写体が所定の態様で撮像された動画像データを選択するための条件を設定する共有条件設定部(405)と、前記共有条件設定部(405)が設定した条件に基づいて、前記撮像部(100)が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別する共有データ選別部(406)と、前記共有データ選別部(406)が選別した前記共有動画像データを前記グループ内の前記外部の撮像装置(2又は3)に送信する送信部(310)と、前記グループ化部(401)が形成したグループ内の前記外部の撮像装置(2又は3)が撮像を行っているか否かを判定する判定部(402)を備え、前記判定部(402)が前記外部の撮像装置(2又は3)が撮像を行っていると判定した場合に、前記共有データ選別部(406)は、前記共有条件設定部(405)が設定した条件に基づいて、前記撮像部(100)が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別することを特徴とする撮像装置(1)を提供する。According to the present invention, an imaging unit (100) that captures moving image data of a subject and a group that shares moving image data captured by the imaging unit (100) are formed between an external imaging device (2 or 3). A predetermined subject as a moving image data shared between the grouping unit (401) and the external imaging device (2 or 3) in the group formed by the grouping unit (401). Based on the condition set by the sharing condition setting unit (405) and the condition set by the sharing condition setting unit (405), the imaging unit (100) captures the image. A shared data sorting unit (406) that sorts the portion to be shared from the moving image data as shared moving image data, and the shared moving image data sorted by the shared data sorting unit (406) The transmission unit (310) that transmits to the external imaging device (2 or 3) in the group and the external imaging device (2 or 3) in the group formed by the grouping unit (401) perform imaging. A determination unit (402) for determining whether or not the external imaging device (2 or 3) is capturing an image, the shared data selection unit (402) 406) selecting a portion to be shared as shared moving image data from moving image data captured by the imaging unit (100) based on the conditions set by the sharing condition setting unit (405). A characteristic imaging device (1) is provided.

上記のような構成とすることで上記撮像装置(1)はさらに、上記撮像装置(1)のユーザが撮像した動画像データと同じ時間帯の他の撮像装置のユーザの動画像データを共有対象とすることができる。よって、他のユーザが自分よりも上手く撮像した動画像データ等、撮像後の編集作業時に自分の撮像データとの差替えの対象となる動画像データを自動的に選別して取得することができる。   With the configuration as described above, the imaging device (1) can further share moving image data of users of other imaging devices in the same time zone as the moving image data captured by the user of the imaging device (1). It can be. Therefore, it is possible to automatically select and obtain moving image data to be replaced with his / her own imaging data during editing after imaging, such as moving image data captured by other users better than himself / herself.

上記撮像装置(1)は、前記撮像部(100)が撮像した動画像データから被写体の顔画像データを検出する顔検出部(403)をさらに備え、前記共有条件設定部(405)は、前記顔検出部(403)が検出した顔画像データを前記グループ化部(401)が形成したグループ内の前記外部の撮像装置(2又は3)との間で共有する動画像データの条件に使用するようにしてもよい。   The imaging apparatus (1) further includes a face detection unit (403) that detects face image data of a subject from moving image data captured by the imaging unit (100), and the sharing condition setting unit (405) The face image data detected by the face detection unit (403) is used as a condition for moving image data shared with the external imaging device (2 or 3) in the group formed by the grouping unit (401). You may do it.

上記撮像装置(1)を上記構成とすることで、被写体として人物を撮像した撮像データを共有の対象として選別することができる。よって、上記撮像装置(1)のユーザと同様に、他の撮像装置(2又は3)のユーザも撮像した撮像現場の風景等の撮像データのような、一つの撮像データさえあれば、様々なアングルの撮像データは不要なものを予め除外し、様々なアングルの撮像データが必要とされる人物の撮像データのみを共有の対象とすることができる。   When the imaging apparatus (1) has the above configuration, imaging data obtained by imaging a person as a subject can be selected as a sharing target. Therefore, as with the user of the imaging device (1), there are various types as long as there is only one imaging data such as imaging data of the scene of the imaging site taken by the user of the other imaging device (2 or 3). It is possible to exclude unnecessary imaging data in advance and share only imaging data of persons who need imaging data of various angles.

上記撮像装置(1)は、予め定められた人物の顔画像データを記憶する記憶部(407)と、前記顔検出部(403)が検出した顔画像データと前記記憶部(407)に記憶された前記顔画像データとを比較し、前記顔検出部(403)が検出した顔画像データが前記予め定められた人物のものであるかどうかを判定し、前記予め定められた人物のものであると判定した場合は、前記撮像部(100)が撮像した動画像データの被写体は前記記憶部(407)に顔画像データを記憶された人物のものであると認識する顔認識部(404)とをさらに備え、前記共有条件設定部(405)は、前記顔認識部(404)の認識結果を前記グループ化部(401)が形成したグループ内の前記外部の撮像装置(2又は3)との間で共有する動画像データの条件に使用するようにしてもよい。   The imaging device (1) is stored in a storage unit (407) for storing face image data of a predetermined person, the face image data detected by the face detection unit (403), and the storage unit (407). The face image data is compared to determine whether the face image data detected by the face detection unit (403) is that of the predetermined person, and is that of the predetermined person. A face recognition unit (404) that recognizes that the subject of the moving image data captured by the imaging unit (100) belongs to a person whose face image data is stored in the storage unit (407). The sharing condition setting unit (405) includes the recognition result of the face recognition unit (404) with the external imaging device (2 or 3) in the group formed by the grouping unit (401). Moving image data shared between It may be used for other conditions.

上記撮像装置(1)を上記構成とすることで、さらに、被写体として特定の人物を撮像した撮像データのみを共有の対象として選別することができる。   By configuring the imaging apparatus (1) as described above, it is possible to further select only imaging data obtained by imaging a specific person as a subject to be shared.

本発明は、さらに、第1の撮像装置(1)及び第2の撮像装置(2又は3)を含む撮像データ共有システムであって、前記第1の撮像装置(1)は、被写体の動画像データを撮像する撮像部(100)と、前記撮像部(100)が撮像した動画像データを共有するグループを前記第2の撮像装置(2又は3)との間で形成するグループ化部(401)と、前記第2の撮像装置(2又は3)との間で共有する動画像データとして、所定の被写体が所定の態様で撮像された動画像データを選択するための条件を設定する共有条件設定部(405)と、前記共有条件設定部(405)が設定した条件に基づいて、前記撮像部(100)が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別する共有データ選別部(406)と、前記共有データ選別部(406)が選別した前記共有動画像データを前記第2の撮像装置に送信する送信部(310)と前記第2の撮像装置が撮像を行っているか否かを判定する判定部(402)を備え、前記第2の撮像装置(2又は3)は、前記第1の撮像装置(1)から送信された前記共有動画像データを受信する受信部を備え、前記判定部(402)が撮像を行っていないと判定した場合に、前記共有データ選別部(406)は、前記共有条件設定部(405)が設定した条件に基づいて、前記撮像部(100)が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別することを特徴とする撮像データ共有システムを提供する。
The present invention further relates to an imaging data sharing system including a first imaging device (1) and a second imaging device (2 or 3), wherein the first imaging device (1) is a moving image of a subject. An imaging unit (100) that captures data and a grouping unit (401) that forms a group that shares moving image data captured by the imaging unit (100) with the second imaging device (2 or 3). And a condition for selecting moving image data in which a predetermined subject is imaged in a predetermined manner as moving image data shared between the second imaging device (2 or 3) Based on the conditions set by the setting unit (405) and the sharing condition setting unit (405), the portion to be shared is selected as shared moving image data from the moving image data captured by the imaging unit (100). Shared data selection unit (4 6), whether the shared data selection unit (406) is the second imaging device transmitting section (310) for transmitting the shared video data sorted in the second image pickup apparatus is performing imaging comprising a determining unit (402), said second imaging device (2 or 3) is provided with a receiver which receives the sharing moving image data transmitted from said first image pickup device (1), When the determination unit (402) determines that the imaging is not performed, the shared data selection unit (406) determines the imaging unit (100) based on the condition set by the sharing condition setting unit (405). There is provided an imaging data sharing system which is characterized that you selected the interesting portions of the shared from the moving image data captured as a shared moving image data.

本発明に係る撮像データ共有システムによれば、複数のユーザが撮像した動画像データを共有する場合に、共有データ選別部(406)が共有条件設定部(405)が設定した条件に基づき、撮像された被写体画像データ等から共有対象となる動画像データを選別し、選別された動画像データを他の撮像装置と共有することができる。よって、共有に要する時間を短縮し、また記録媒体の容量の圧迫を低減することができる。また、そもそもユーザにとって不要となる撮像データが共有対象となることを防止し、ユーザがそういった不要な撮像データを目視により確認する手間を削減することができる。   According to the imaging data sharing system of the present invention, when moving image data captured by a plurality of users is shared, imaging is performed based on the conditions set by the sharing condition setting unit (405) by the shared data selection unit (406). The moving image data to be shared can be selected from the subject image data and the like, and the selected moving image data can be shared with other imaging devices. Therefore, the time required for sharing can be shortened and the compression of the capacity of the recording medium can be reduced. In addition, it is possible to prevent imaging data that is unnecessary for the user from becoming a sharing target in the first place, and it is possible to reduce time and effort for the user to visually confirm such unnecessary imaging data.

上記撮像データ共有システムはさらに、例えば、外部の撮像装置(2又は3)のユーザが休憩等で撮像を行っていなくても、上記撮像装置(1)のユーザが撮像した動画像データを、選別してその外部の撮像装置のユーザに送信することができる。よって、複数の撮像装置が重複して撮像していた動画像データを始めとした不要な動画像データの共有に要する時間を省略することができる。またこれらの不要な動画像データが記録媒体の容量を圧迫するのを防止することができる。或は、重複していない動画像データの中でも選別された動画像データが共有されているので、ユーザが不要な撮像データを目視により確認する手間をさらに削減することができる。
The imaging data sharing system further selects, for example, moving image data captured by the user of the imaging device (1) even if the user of the external imaging device (2 or 3) is not capturing images during a break or the like. Then, it can be transmitted to the user of the external imaging device. Therefore, it is possible to omit time required for sharing unnecessary moving image data such as moving image data which has been picked up by a plurality of imaging devices. Further, it is possible to prevent these unnecessary moving image data from pressing the capacity of the recording medium. Alternatively, since the selected moving image data is shared among the non-overlapping moving image data, it is possible to further reduce the time and effort for the user to visually confirm unnecessary imaging data.

本発明は、さらに、第1の撮像装置(1)及び第2の撮像装置(2又は3)を含む撮像データ共有システムであって、前記第1の撮像装置(1)は、被写体の動画像データを撮像する撮像部(100)と、前記撮像部(100)が撮像した動画像データを共有するグループを前記第2の撮像装置(2又は3)との間で形成するグループ化部(401)と、前記第2の撮像装置(2又は3)との間で共有する動画像データとして、所定の被写体が所定の態様で撮像された動画像データを選択するための条件を設定する共有条件設定部(405)と、前記共有条件設定部(405)が設定した条件に基づいて、前記撮像部(100)が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別する共有データ選別部(406)と、前記共有データ選別部(406)が選別した前記共有動画像データを前記第2の撮像装置に送信する送信部(310)と前記第2の撮像装置が撮像を行っているか否かを判定する判定部(402)を備え、前記第2の撮像装置(2又は3)は、前記第1の撮像装置(1)から送信された前記共有動画像データを受信する受信部を備え、前記判定部(402)が撮像を行っていると判定した場合に、前記共有データ選別部(406)は、前記共有条件設定部(405)が設定した条件に基づいて、前記撮像部(100)が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別することを特徴とする撮像データ共有システムを提供する。
The present invention further relates to an imaging data sharing system including a first imaging device (1) and a second imaging device (2 or 3), wherein the first imaging device (1) is a moving image of a subject. An imaging unit (100) that captures data and a grouping unit (401) that forms a group that shares moving image data captured by the imaging unit (100) with the second imaging device (2 or 3). And a condition for selecting moving image data in which a predetermined subject is imaged in a predetermined manner as moving image data shared between the second imaging device (2 or 3) Based on the conditions set by the setting unit (405) and the sharing condition setting unit (405), the portion to be shared is selected as shared moving image data from the moving image data captured by the imaging unit (100). Shared data selection unit (4 6), a transmission unit (310) that transmits the shared moving image data selected by the shared data selection unit (406) to the second imaging device, and whether or not the second imaging device is imaging. The second imaging device (2 or 3) includes a receiving unit that receives the shared moving image data transmitted from the first imaging device (1). When it is determined that the determination unit (402) is performing imaging, the shared data selection unit (406) is configured to perform the imaging unit (100) based on the conditions set by the sharing condition setting unit (405). The image data sharing system is characterized in that the portion to be shared is selected as the shared moving image data from the moving image data captured by.

上記撮像装置(1)はさらに、上記撮像装置(1)のユーザが撮像した動画像データと同じ時間帯の他の撮像装置のユーザの動画像データを共有対象とすることができる。よって、他のユーザが自分よりも上手く撮像した動画像データ等、撮像後の編集作業時に自分の撮像データとの差替えの対象となる動画像データを自動的に選別して取得することができる。
The imaging device (1) can further share moving image data of users of other imaging devices in the same time zone as the moving image data captured by the user of the imaging device (1). Therefore, it is possible to automatically select and obtain moving image data to be replaced with his / her own imaging data during editing after imaging, such as moving image data captured by other users better than himself / herself.

本発明は、さらに、撮像部に動画像データを撮像させ、前記撮像部に撮像させた動画像データを共有するグループを外部の撮像装置との間で形成させ、前記形成させたグループ内の前記外部の撮像装置との間で共有する動画像データとして、所定の被写体が所定の態様で撮像された動画像データを選択するための条件を設定させ、前記設定させた条件に基づいて、前記撮像部に撮像させた動画像データから前記共有の対象となる部分を共有動画像データとして選別させ、前記形成させたグループ内の前記外部の撮像装置が撮像を行っているか否かを判定させ、前記外部の撮像装置が撮像を行っていないと判定した場合に、前記条件に基づいて、前記撮像部が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別させ、前記選別させた共有動画像データを前記形成させたグループ内の前記外部の撮像装置に送信させる処理をコンピュータに実行させるプログラムを提供する。
また本発明は、さらに、撮像部に動画像データを撮像させ、前記撮像部に撮像させた動画像データを共有するグループを外部の撮像装置との間で形成させ、前記形成させたグループ内の前記外部の撮像装置との間で共有する動画像データとして、所定の被写体が所定の態様で撮像された動画像データを選択するための条件を設定させ、前記設定させた条件に基づいて、前記撮像部に撮像させた動画像データから前記共有の対象となる部分を共有動画像データとして選別させ、前記形成させたグループ内の前記外部の撮像装置が撮像を行っているか否かを判定させ、前記外部の撮像装置が撮像を行っていると判定した場合に、前記条件に基づいて、前記撮像部が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別させ、前記選別させた共有動画像データを前記形成させたグループ内の前記外部の撮像装置に送信させる処理をコンピュータに実行させるプログラムを提供する。
The present invention further includes causing an imaging unit to capture moving image data, forming a group sharing the moving image data captured by the imaging unit with an external imaging device, and forming the group in the formed group. As moving image data shared with an external imaging device, a condition for selecting moving image data in which a predetermined subject is imaged in a predetermined mode is set, and the imaging is performed based on the set condition. parts by selecting interesting portions of the shared from the moving image data obtained by imaging a shared moving image data, the outside of the imaging device in the group was the formation to determine whether performing image pickup, the If the outside of the imaging device is determined not to perform imaging, on the basis of the condition, selecting a portion of interest of the share as a share moving image data from the moving image data to which the imaging unit has captured So, to provide a program for executing processing of transmitting the shared video data obtained by the sorting in the outside of the imaging device in the group was the form to the computer.
In the present invention, the image capturing unit further captures moving image data, and a group that shares the moving image data captured by the image capturing unit is formed with an external image capturing device. As moving image data shared with the external imaging device, a condition for selecting moving image data in which a predetermined subject is imaged in a predetermined mode is set, and based on the set condition, from the moving image data obtained by imaging the imaging unit is selected portion of interest of the share as a share moving image data, the outside of the imaging device in the group was the formation to determine whether performing image pickup, when the outside of the imaging device is determined to be performed imaging, based on the conditions, to select the portion the imaging unit to be the shared from the moving image data captured as shared video data It is allowed to provide a program for executing processing of transmitting the shared video data obtained by the sorting in the outside of the imaging device in the group was the form to the computer.

本発明に係るプログラムによれば、複数のユーザが撮像した動画像データを共有する場合に、共有データ選別部(406)が共有条件設定部(405)が設定した条件に基づき、撮像された被写体画像データ等から共有対象となる動画像データを選別し、選別された動画像データを他の撮像装置と共有することができる。よって、共有に要する時間を短縮し、また記録媒体の容量の圧迫を低減することができる。また、そもそもユーザにとって不要となる撮像データが共有対象となることを防止し、ユーザがそういった不要な撮像データを目視により確認する手間を削減することができる。   According to the program of the present invention, when moving image data captured by a plurality of users is shared, the imaged subject is captured based on the conditions set by the shared condition selection unit (405) by the shared data selection unit (406). Moving image data to be shared can be selected from image data and the like, and the selected moving image data can be shared with other imaging devices. Therefore, the time required for sharing can be shortened and the compression of the capacity of the recording medium can be reduced. In addition, it is possible to prevent imaging data that is unnecessary for the user from becoming a sharing target in the first place, and it is possible to reduce time and effort for the user to visually confirm such unnecessary imaging data.

本発明に係る撮像装置、撮像データ共有システム、及びプログラムによれば、複数のユーザが撮像した動画像データを共有する場合に、事前に設定された所定の条件に基づいて所望の被写体が望ましい態様で撮影された部分の動画像データを共有対象として選別し、選別された動画像データを他の撮像装置と共有することで、共有に要する時間を短縮し、また記録媒体の容量の圧迫を低減することができる。   According to the imaging apparatus, the imaging data sharing system, and the program according to the present invention, when sharing moving image data captured by a plurality of users, a desired subject is desirable based on a predetermined condition set in advance. Select the moving image data of the part shot with the camera as a sharing target, and share the selected moving image data with other imaging devices, thereby reducing the time required for sharing and reducing the pressure on the recording medium capacity. can do.

また、本発明に係る撮像装置、撮像データ共有システム、及びプログラムによれば、事前に設定された所定の条件に基づいて所望の被写体が望ましい態様で撮影された部分の動画像データを共有対象として選別することで、そもそもユーザにとって不要となる撮像データが共有対象となることを防止し、ユーザがそういった不要な撮像データを目視により確認する手間を削減することができる。   In addition, according to the imaging apparatus, the imaging data sharing system, and the program according to the present invention, the moving image data of a portion in which a desired subject is photographed in a desirable mode based on a predetermined condition set in advance is set as a sharing target. By selecting, it is possible to prevent imaging data that is unnecessary for the user from becoming a sharing target in the first place, and it is possible to reduce time and effort for the user to visually confirm such unnecessary imaging data.

本発明の実施形態に係る撮像装置(デジタルビデオカメラ)1の内部構成の例を示すブロック図である。1 is a block diagram illustrating an example of an internal configuration of an imaging apparatus (digital video camera) 1 according to an embodiment of the present invention. 本発明の本実施形態に係る撮像データ共有システムの構成例を示す図である。It is a figure which shows the structural example of the imaging data sharing system which concerns on this embodiment of this invention. 撮像装置1が他の撮像装置とグループを形成するグループ化処理について説明するフローチャートである。It is a flowchart explaining the grouping process in which the imaging device 1 forms a group with another imaging device. 撮像装置1のグループ化処理の対象として検出された他の撮像装置をユーザに知らせる画面の例を示す図である。It is a figure which shows the example of the screen which notifies a user of the other imaging device detected as an object of the grouping process of the imaging device. 撮像装置1のグループ化処理の対象として検出された他の撮像装置が存在しなかった旨をユーザに知らせる画面の例を示す図である。It is a figure which shows the example of the screen which notifies a user that the other imaging device detected as the object of the grouping process of the imaging device 1 did not exist. 複数の撮像装置間で共有された顔画像データが表示された例を示す図である。It is a figure which shows the example by which the face image data shared between several imaging devices was displayed. 撮像装置1による第1の共有動画像データ選別処理を説明するためのフローチャートである。6 is a flowchart for explaining a first shared moving image data selection process by the imaging apparatus 1; 第1の共有動画像データ選別処理により共有された各動画像データの表示態様を示す図である。It is a figure which shows the display mode of each moving image data shared by the 1st shared moving image data selection process. 撮像装置1による第2の共有動画像データ選別処理を説明するためのフローチャートである。12 is a flowchart for explaining a second shared moving image data selection process by the imaging apparatus 1; 第2の共有動画像データ選別処理により共有された各動画像データの表示態様を示す図である。It is a figure which shows the display mode of each moving image data shared by the 2nd shared moving image data selection process.

以下に図面を参照しながら、本発明に係る撮像装置、撮像データ共有システム、及びプログラムの好適な実施形態を説明する。   Exemplary embodiments of an imaging apparatus, an imaging data sharing system, and a program according to the present invention will be described below with reference to the drawings.

かかる実施形態に示す具体的な数値及び日時等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。 Specific numerical values, date and time, and the like shown in the embodiments are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

図1は、本発明の実施形態に係る撮像装置(デジタルビデオカメラ)1の内部構成の例を示すブロック図である。撮像装置1は動画像及び静止画像を撮像することができる。なお、本発明は、動画像を撮像できるものであれば、いわゆるコンパクトデジタルカメラ等のデジタルスチルカメラをはじめ、カメラ付きの携帯電話、PHS(Personal Handyphone System)、及びPDA(Personal Digital Assistant)等、その他の電子機器においても採用することができる。   FIG. 1 is a block diagram illustrating an example of an internal configuration of an imaging apparatus (digital video camera) 1 according to an embodiment of the present invention. The imaging device 1 can capture a moving image and a still image. The present invention is not limited to digital still cameras such as so-called compact digital cameras, as long as it can capture moving images, mobile phones with cameras, PHS (Personal Handyphone System), PDA (Personal Digital Assistant), etc. It can also be employed in other electronic devices.

中央制御部400はCPU(Central Processing Unit)、各種プログラムが格納されたROM(Read Only Memory)、及びワークエリアとしてのRAM(Random Access Memory)等を含む半導体集積回路により構成され、撮像処理、各種画像の表示処理、及び記録処理、並びに後述する他の撮像装置とグループを形成するグループ化の処理及び共有対象となる動画像データの選別処理を統括的に制御する。   The central control unit 400 includes a semiconductor integrated circuit including a CPU (Central Processing Unit), a ROM (Read Only Memory) in which various programs are stored, a RAM (Random Access Memory) as a work area, and the like. An image display process, a recording process, a grouping process for forming a group with other imaging devices described later, and a selection process of moving image data to be shared are collectively controlled.

撮像装置1は、ズームレンズ101、フォーカスレンズ102、絞り103、及び撮像素子104で構成される撮像部100を有する。ズームレンズ101は図示しないズームアクチュエータによって光軸LAに沿って移動する。同様に、フォーカスレンズ102は、図示しないフォーカスアクチュエータによって光軸LAに沿って移動する。絞り103は、図示しない絞りアクチュエータに駆動されて動作する。撮像素子104は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等で構成される。   The imaging apparatus 1 includes an imaging unit 100 including a zoom lens 101, a focus lens 102, a diaphragm 103, and an imaging element 104. The zoom lens 101 is moved along the optical axis LA by a zoom actuator (not shown). Similarly, the focus lens 102 moves along the optical axis LA by a focus actuator (not shown). The diaphragm 103 operates by being driven by a diaphragm actuator (not shown). The imaging element 104 is configured by a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like.

撮像装置1を用いた撮像は以下の手順で行われる。撮像素子104はズームレンズ101、フォーカスレンズ102、及び絞り103を通過した光を光電変換して、被写体のアナログ画像信号を生成する。アナログ画像信号処理部105が、このアナログ画像信号を増幅した後、画像A/D変換部106が、その増幅された信号をデジタル画像データに変換する。画像入力コントローラ107は、画像A/D変換部106から出力されたデジタル画像データを撮像データとして取り込んで、バス200を介してメインメモリ206に格納する。   Imaging using the imaging apparatus 1 is performed according to the following procedure. The image sensor 104 photoelectrically converts light that has passed through the zoom lens 101, the focus lens 102, and the aperture 103 to generate an analog image signal of the subject. After the analog image signal processing unit 105 amplifies the analog image signal, the image A / D conversion unit 106 converts the amplified signal into digital image data. The image input controller 107 takes in digital image data output from the image A / D conversion unit 106 as imaging data and stores it in the main memory 206 via the bus 200.

デジタル信号処理部108は、バス200を介して中央制御部400からの指令に基づき、メインメモリ206に格納された撮像データを取り込み、所定の信号処理を施して輝度信号と色差信号とからなる撮像データを生成する。デジタル信号処理部108はまた、オフセット処理、ホワイトバランス調整処理、ガンマ補正処理、RGB補完処理、ノイズ低減処理、輪郭補正処理、色調補正処理、及び光源種別判定処理等の各種デジタル補正を行う。   The digital signal processing unit 108 captures imaging data stored in the main memory 206 based on a command from the central control unit 400 via the bus 200, performs predetermined signal processing, and performs imaging that includes a luminance signal and a color difference signal. Generate data. The digital signal processing unit 108 also performs various digital corrections such as offset processing, white balance adjustment processing, gamma correction processing, RGB interpolation processing, noise reduction processing, contour correction processing, color tone correction processing, and light source type determination processing.

マイク109は撮像時の周囲の音声を集音し、アナログ音声信号を生成する。アナログ音声信号処理部110がそのアナログ音声信号を増幅した後、音声A/D変換部111が、その増幅された信号をデジタル音声データに変換する。音声入力コントローラ112は、音声A/D変換部111から出力されたデジタル音声データを撮像データと併せてメインメモリ206に格納する。   The microphone 109 collects surrounding sounds at the time of imaging and generates an analog sound signal. After the analog audio signal processing unit 110 amplifies the analog audio signal, the audio A / D conversion unit 111 converts the amplified signal into digital audio data. The voice input controller 112 stores the digital voice data output from the voice A / D converter 111 in the main memory 206 together with the imaging data.

多重化部113は、メインメモリ206に格納された撮像データ及びデジタル音声データを多重化してストリームデータを生成する。   The multiplexing unit 113 multiplexes the imaging data and digital audio data stored in the main memory 206 to generate stream data.

圧縮・伸長処理部201は、バス200を介して中央制御部400からの指示に従い、メインメモリ206に格納されたストリームデータに所定の圧縮処理を施し、圧縮データを生成する。また、中央制御部400からの指令に従い、カード型記録媒体302等に格納された圧縮データに所定形式の伸張処理を施し、非圧縮データを生成する。なお、本実施の形態の撮像装置1では、静止画像に対してはJPEG規格に準拠した圧縮方式が、動画像に対してはMPEG2規格やAVC/H.264規格に準拠した圧縮方式が採用される。   The compression / decompression processing unit 201 performs predetermined compression processing on the stream data stored in the main memory 206 in accordance with an instruction from the central control unit 400 via the bus 200 to generate compressed data. Further, in accordance with a command from the central control unit 400, the compressed data stored in the card-type recording medium 302 or the like is subjected to decompression processing in a predetermined format to generate uncompressed data. Note that in the imaging apparatus 1 according to the present embodiment, a compression method conforming to the JPEG standard is used for still images, and MPEG2 standard or AVC / H. A compression method conforming to the H.264 standard is adopted.

音声・画像処理部202は、バス200を介して中央制御部400の指示に従い、メインメモリ206から読み出したデジタルデータに所定の画像処理を施したり、ROM203に予め記録されているデータから各種メニュー画像を生成したりする。例えばメニュー画像やOSD画像等、各種処理のための画像データを生成し、その画像データをメインメモリ206から読み出されたオリジナルの撮像データに重畳させて液晶モニタ304に出力する。この出力によって、液晶モニタ304に表示される画像は各種画像データが合成されたものとなる。   The sound / image processing unit 202 performs predetermined image processing on the digital data read from the main memory 206 in accordance with instructions from the central control unit 400 via the bus 200, and various menu images from data recorded in advance in the ROM 203. Or generate. For example, image data for various processes such as a menu image and an OSD image is generated, and the image data is superimposed on the original image data read from the main memory 206 and output to the liquid crystal monitor 304. With this output, the image displayed on the liquid crystal monitor 304 is a combination of various image data.

ROM203はバス200を介して中央制御部400に接続されており、中央制御部400が実行する制御プログラム及び制御に必要な各種データ等を格納している。フラッシュROM204は、ユーザの設定情報等、撮像装置1の動作に関する各種設定情報を格納している。   The ROM 203 is connected to the central control unit 400 via the bus 200 and stores a control program executed by the central control unit 400 and various data necessary for control. The flash ROM 204 stores various setting information related to the operation of the imaging apparatus 1, such as user setting information.

VRAM(Video RAM)205は、液晶モニタ304等への表示用の画像データの一時記憶領域として使用される。メインメモリ206は、各種画像データや音声データの一時記憶領域として使用されるとともに、中央制御部400の演算作業領域としても使用される。メインメモリ206は、例えばEPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable PROM)、不揮発性RAM、フラッシュメモリ、又はHDD(Hard Disk Drive)等の記憶媒体で構成される。   A VRAM (Video RAM) 205 is used as a temporary storage area for image data for display on the liquid crystal monitor 304 or the like. The main memory 206 is used as a temporary storage area for various image data and audio data, and is also used as a calculation work area for the central control unit 400. The main memory 206 is configured by a storage medium such as an EEPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable PROM), a nonvolatile RAM, a flash memory, or an HDD (Hard Disk Drive).

メディア制御部207は、中央制御部400の指令に従い、カードI/F301を通じてカード型記録媒体302へのデータの書き込みやデータの読み出しを制御する。カード型記録媒体302としては、撮像装置1に着脱可能なSD(Secure Digital)メモリカード等が使用される。但し、カード型記録媒体の替りに、DVD、BD(Blu-ray Disc)、若しくはフラッシュメモリ等の他の記録媒体を使用する、又は撮像装置1に内蔵されたHDD(Hard Disc Drive)等で構成することができることはいうまでもない。   The media control unit 207 controls data writing to and data reading from the card-type recording medium 302 through the card I / F 301 in accordance with instructions from the central control unit 400. As the card-type recording medium 302, an SD (Secure Digital) memory card that can be attached to and detached from the imaging apparatus 1 is used. However, instead of the card-type recording medium, another recording medium such as a DVD, a BD (Blu-ray Disc), or a flash memory is used, or an HDD (Hard Disc Drive) built in the image pickup apparatus 1 is used. It goes without saying that you can do it.

ジャイロセンサ208は、撮像の際の撮像装置1の3軸の加速度及び角速度の変化を検出し、手ぶれ補正部210が行う手ぶれの検出、手ぶれ量の算出、及び手ぶれ補正等に利用される。時計209は、撮像データの取得日時の情報を生成し、また後述する動画像データの共有処理の際に、他の撮像装置との時刻情報の同期に使用される。   The gyro sensor 208 detects changes in triaxial acceleration and angular velocity of the imaging apparatus 1 during imaging, and is used for camera shake detection, camera shake amount calculation, camera shake correction, and the like performed by the camera shake correction unit 210. The clock 209 generates information about the acquisition date and time of imaging data, and is used to synchronize time information with other imaging devices during moving image data sharing processing to be described later.

液晶モニタ304、スピーカ305、操作部306及び入出力端子307は入出力I/F303に接続されている。液晶モニタ304は、例えばVRAM205やメインメモリ206に一時記録された撮像データや各種メニュー画像データ等、各種画像データから生成された画像を表示する。スピーカ305は、例えばメインメモリ205やカード型記録媒体302に一時記録された音声を出力する。   The liquid crystal monitor 304, the speaker 305, the operation unit 306, and the input / output terminal 307 are connected to the input / output I / F 303. The liquid crystal monitor 304 displays images generated from various image data such as image data and various menu image data temporarily recorded in the VRAM 205 or the main memory 206, for example. The speaker 305 outputs sound temporarily recorded in the main memory 205 or the card type recording medium 302, for example.

操作部306は、図示しないリレーズ・スイッチや電源スイッチを含む操作キー、十字キー、ジョイスティック、又は液晶モニタ304上に重畳されたタッチパネル等から構成されており、ユーザの撮像装置1への操作入力を受け付ける。入出力端子307は、図示しないテレビモニタやPC(Personal Computer)等に接続される。入出力端子307は、HDMI(High-Definition Multimedia Interface)端子、USB(Universal Serial Bus)端子、IEEE 1394規格に準拠した各種出力端子等で構成することができる。   The operation unit 306 includes an operation key including a relay switch and a power switch (not shown), a cross key, a joystick, a touch panel superimposed on the liquid crystal monitor 304, and the like. Accept. The input / output terminal 307 is connected to a television monitor (not shown), a PC (Personal Computer), or the like. The input / output terminal 307 can be composed of a high-definition multimedia interface (HDMI) terminal, a universal serial bus (USB) terminal, various output terminals conforming to the IEEE 1394 standard, and the like.

代表画像生成部308は、メインメモリ206やカード型記録媒体302に記録された動画像データに関し、既知の方法によりその動画像データを表す静止画像データを生成し、各種サムネイル画像等を生成する。   The representative image generation unit 308 generates still image data representing the moving image data with respect to the moving image data recorded in the main memory 206 or the card-type recording medium 302, and generates various thumbnail images and the like.

無線通信部310は、バス200及び無線I/F309を介して、後述する他の撮像装置とグループを形成するグループ化の処理におけるグループ化情報やグループ解除情報、顔画像DB407に記録された顔画像情報、共有対象となる動画像データ、及び共有対象となる動画像データの条件に関する情報を他の撮像装置との間で無線通信により送受信する。各種情報及びデータ等の無線通信はIEEE802.11規格に準拠した方式で行われる。   The wireless communicator 310 uses the bus 200 and the wireless I / F 309 to perform grouping information and group release information in a grouping process for forming a group with another imaging device described later, and a face image recorded in the face image DB 407. The information, the moving image data to be shared, and the information related to the conditions of the moving image data to be shared are transmitted / received to / from other imaging devices by wireless communication. Wireless communication such as various information and data is performed by a method compliant with the IEEE 802.11 standard.

図2は、撮像装置1の無線モジュール310を介した無線通信ネットワークシステムによる、本実施形態に係る撮像データ共有システムの構成例を示す図である。   FIG. 2 is a diagram illustrating a configuration example of the imaging data sharing system according to the present embodiment using a wireless communication network system via the wireless module 310 of the imaging apparatus 1.

図2(a)では、撮像装置1は、外部装置である撮像装置(デジタルビデオカメラ)2や撮像装置(デジタルスチルカメラ)3と無線通信可能となっており、各撮像装置は被写体Aを撮像している。各撮像装置は被写体Aの動画像データを相互に共有しあうことになる。 In FIG. 2A, the imaging device 1 can wirelessly communicate with an imaging device (digital video camera) 2 and an imaging device (digital still camera) 3 which are external devices, and each imaging device images a subject A. doing. Each imaging apparatus shares the moving image data of the subject A with each other.

また、図2(b)では、各撮像装置は同じく無線通信可能となっており、撮像装置1及び撮像装置3は被写体Aを撮像し、撮像装置2は被写体Bを撮像している。本実施形態に係る撮像装置1(及び撮像装置2、撮像装置3)によれば、後述するグループ化処理の際の条件設定によって、異なった位置にいる異なった被写体を撮像した動画像データを、相互に共有することもできる。したがって、撮像装置1が撮像した被写体Aの動画像データ、撮像装置2が撮像した被写体Bの動画像データ、及び撮像装置3が撮像した被写体Aの動画像データをそれぞれ共有することができる。   In FIG. 2B, each imaging device is also capable of wireless communication. The imaging device 1 and the imaging device 3 image the subject A, and the imaging device 2 images the subject B. According to the imaging apparatus 1 (and the imaging apparatus 2 and the imaging apparatus 3) according to the present embodiment, moving image data obtained by imaging different subjects at different positions is set by condition setting in the grouping process described later. They can also be shared with each other. Accordingly, the moving image data of the subject A captured by the imaging device 1, the moving image data of the subject B captured by the imaging device 2, and the moving image data of the subject A captured by the imaging device 3 can be shared.

なお、撮像装置2及び撮像装置3は、撮像装置1と基本的な構成は同様であり、各撮像装置が備える無線モジュールを介して上記各種情報が送受信され、共有される。これらの機器同士がそれぞれ共通の無線接続情報を記憶しており、その無線接続情報に基づいて各機器間の接続動作を行う。   The imaging device 2 and the imaging device 3 have the same basic configuration as the imaging device 1, and the various types of information are transmitted / received and shared via a wireless module included in each imaging device. These devices each store common wireless connection information, and a connection operation between the devices is performed based on the wireless connection information.

中央制御部400はまた、以下に処理を詳述する、他の撮像装置と動画像データを共有するグループを形成するグループ化の処理(以下、単に「グループ化処理」ともいう。)において、グループ化部401として機能する。
さらに、同じく以下に処理を詳述する、グループ化された撮像装置間における動画像データの共有の処理(以下、「グループ撮像処理」という。)において、判定部402、顔検出部403、顔認識部404、共有条件設定部405、及び共有データ選別部406として機能する。
The central control unit 400 also performs grouping in a grouping process (hereinafter, also simply referred to as “grouping process”) that forms a group that shares moving image data with other imaging devices, which will be described in detail below. It functions as the conversion unit 401.
Furthermore, in the processing of sharing moving image data between grouped imaging devices (hereinafter referred to as “group imaging processing”), which will be described in detail below, the determination unit 402, the face detection unit 403, and face recognition. Functions as a unit 404, a sharing condition setting unit 405, and a shared data selection unit 406.

グループ化部401は、グループ化処理の際に、まずグループ化することができる他の撮像装置が撮像装置1の周囲の所定の範囲内、例えば撮像装置1を中心に半径約30メートルの範囲内に存在するか否かを探索するためのグループ化情報を、無線モジュール310に送信させる。そして、そのグループ化情報を受信した他の撮像装置から送信(返信)されたグループ化情報を無線モジュール310から受信したことを確認して、撮像装置1とその他の撮像装置とをグループ化することができる旨を特定する。   In the grouping process, the grouping unit 401 first includes other imaging devices that can be grouped within a predetermined range around the imaging device 1, for example, within a range of about 30 meters in radius around the imaging device 1. Grouping information for searching whether or not the wireless module 310 exists. Then, it is confirmed that the grouping information transmitted (returned) from the other imaging device that has received the grouping information is received from the wireless module 310, and the imaging device 1 and the other imaging device are grouped. Specify that you can.

判定部402は、グループ化部401が撮像装置1とグループ化した他の撮像装置が、動画像を撮像中であるかどうかを判定する。具体的には、グループ化された他の撮像装置が録画ボタンをONにした旨の情報及びOFFにした旨の情報を無線モジュール310が受信し、その受信結果からその他の撮像装置が撮像中か否かを判定する。   The determination unit 402 determines whether another imaging device grouped with the imaging device 1 by the grouping unit 401 is capturing a moving image. Specifically, the wireless module 310 receives information indicating that the other grouped imaging devices have turned on the recording button and information that the recording button has been turned off, and whether the other imaging devices are imaging from the reception result. Determine whether or not.

顔検出部403は中央制御部400からの指示に応じて、メインメモリ206に一時記憶された動画像データから、人物の顔画像データを検出する。顔画像データの検出は、既知の方法により顔画像データ全体の輪郭または目、口、鼻、耳等の顔の構成要素のデータから特徴量を算出し、その特徴量に基づくテンプレートマッチングによって行われる。または、肌の色に近い領域データを検出し、その領域を顔画像データの領域として検出してもよい。   In response to an instruction from the central control unit 400, the face detection unit 403 detects human face image data from moving image data temporarily stored in the main memory 206. Detection of face image data is performed by calculating a feature amount from the contour of the entire face image data or data of face components such as eyes, mouth, nose, and ears by a known method, and performing template matching based on the feature amount. . Alternatively, area data close to the skin color may be detected, and the area may be detected as the face image data area.

顔認識部404は、顔画像DB407に予め記録されている所定の人物の顔画像データの特徴量と、顔検出部403が動画像データから検出した顔画像データの特徴量とを比較する。そして、顔認識部404は、顔検出部が検出した顔画像データの特徴量と顔画像DB407が記録している特徴量とが所定の範囲内で一致した場合は、検出された顔画像データは顔画像DBに登録された顔画像データを有する人物のものであると認識する。   The face recognition unit 404 compares the feature amount of face image data of a predetermined person recorded in advance in the face image DB 407 with the feature amount of face image data detected by the face detection unit 403 from the moving image data. When the feature amount of the face image data detected by the face detection unit matches the feature amount recorded in the face image DB 407 within a predetermined range, the face recognition unit 404 determines that the detected face image data is It is recognized as a person having face image data registered in the face image DB.

共有条件設定部405は、撮像装置1がグループ化された他の撮像装置を共有する、すなわち互いに送受信する動画像データの条件を設定する。共有条件設定部405は例えば、撮像装置1が他の撮像装置に送信する動画像データ若しくは他の撮像装置から受信する動画像データを所定の人物が撮像されたものに限定する、顔検出部403が検出した顔画像データからなる顔画像のサイズが所定の大きさ以上の動画像データのみを他の撮像装置に送信する若しくは他の撮像装置から受信する、又は手ぶれ補正部210がジャイロセンサ208の出力結果から算出した手ぶれ量が所定の範囲内にある動画像データのみを他の撮像装置に送信する若しくは他の撮像装置から受信する等の条件を設定する。   The sharing condition setting unit 405 sets conditions for moving image data in which the imaging device 1 shares other grouped imaging devices, that is, transmits and receives each other. For example, the sharing condition setting unit 405 limits the moving image data that the imaging device 1 transmits to another imaging device or the moving image data that is received from another imaging device to those obtained by capturing a predetermined person. Only the moving image data in which the size of the face image made up of the detected face image data is equal to or larger than a predetermined size is transmitted to or received from another imaging device, or the camera shake correction unit 210 of the gyro sensor 208 A condition is set such that only moving image data in which the amount of camera shake calculated from the output result is within a predetermined range is transmitted to another image capturing apparatus or received from another image capturing apparatus.

共有データ選別部406は、共有条件設定部405が設定した条件に基づき、メインメモリ206に記憶された動画像データから、他の撮像装置に送信する共有対象となる部分の動画像データを選別する。共有データ選別部406による選別は、動画像データとは別のファイル(隠しファイルであってもよい)に動画像データ中の選別された箇所の始点と終点を示す情報を格納し、動画像データのヘッダを介し、その動画像データと結びつけて行う。又は動画像データ中の選別された箇所の始点と終点を示す情報を動画像データと同一のファイルに格納し、動画像データのヘッダを介してその動画像データと結びつけて行ってもよい。   Based on the conditions set by the sharing condition setting unit 405, the shared data sorting unit 406 sorts the moving image data of the portion to be shared to be transmitted to another imaging device from the moving image data stored in the main memory 206. . The selection by the shared data selection unit 406 stores information indicating the start and end points of the selected portion in the moving image data in a file (may be a hidden file) different from the moving image data. This is performed in conjunction with the moving image data via the header. Alternatively, the information indicating the start point and the end point of the selected portion in the moving image data may be stored in the same file as the moving image data, and linked to the moving image data via the moving image data header.

<グループ化処理>
以下に撮像装置1が他の撮像装置と動画像データを共有するグループを形成するグループ化の処理(方法)について、図3を参照しながら詳述する。なお、説明及び理解の容易のため、撮像装置1とグループ化される対象として図2で例示した撮像装置2又は撮像装置3を例に挙げて以下を説明するが、グループ化処理の対象となる撮像装置の数や種類がこれに限定されるわけではない。
<Grouping process>
A grouping process (method) in which the imaging apparatus 1 forms a group that shares moving image data with other imaging apparatuses will be described in detail below with reference to FIG. For ease of explanation and understanding, the following will be described by taking the imaging device 2 or the imaging device 3 illustrated in FIG. 2 as an example to be grouped with the imaging device 1. The number and type of imaging devices are not limited to this.

図3は、撮像装置1が他の撮像装置とグループを形成するグループ化処理について説明するフローチャートである。ユーザが操作部306の図示しないボタンを押下等すると、グループ化部401は撮像装置1の周囲の所定の範囲内に、グループ化することができる他の撮像装置が存在するかどうかの探索を行う(ステップS101)。この探索は、グループ化部401が、無線モジュール310からグループ化情報を所定の範囲、例えば撮像装置1を中心とした半径約30メートル範囲内に送信し、そのグループ化情報を受信して、同じくグループ化情報を無線モジュール310に返信してくる他の撮像装置があるかどうかを判断することで行われる。   FIG. 3 is a flowchart for describing grouping processing in which the imaging device 1 forms a group with another imaging device. When the user presses a button (not shown) of the operation unit 306, the grouping unit 401 searches for another imaging device that can be grouped within a predetermined range around the imaging device 1. (Step S101). In this search, the grouping unit 401 transmits grouping information from the wireless module 310 within a predetermined range, for example, a radius of about 30 meters centered on the imaging device 1, receives the grouping information, This is done by determining whether there is another imaging device that returns grouping information to the wireless module 310.

グループ化部401がグループ化することができる他の撮像装置を検出すると(ステップS102でYES)、液晶モニタ304に検出された他の撮像装置のリストを表示する(ステップS103)。検出された撮像装置のリストは、例えば図4に例示するような態様で表示される。図4は、撮像装置1の周辺の所定の範囲内にあった撮像装置2及び撮像装置3が検出され、液晶モニタ304に表示されたところを示している。   When the grouping unit 401 detects other imaging devices that can be grouped (YES in step S102), a list of other imaging devices detected on the liquid crystal monitor 304 is displayed (step S103). The list of detected imaging devices is displayed in a manner illustrated in FIG. 4, for example. FIG. 4 shows that the imaging device 2 and the imaging device 3 that are within a predetermined range around the imaging device 1 are detected and displayed on the liquid crystal monitor 304.

音声・画像処理部202が、検出された撮像装置の中からグループ化するものを選択するようユーザに促す画像G41、撮像装置2が検出された旨を示す画像G42、撮像装置3が検出された旨を示す画像G43、及びユーザの選択を示す画像G44又はG45が合成されたリスト画像G40を生成し、液晶モニタ304がそのリスト画像G40を表示する。   The sound / image processing unit 202 detects the image G41 that prompts the user to select a grouping device from the detected imaging devices, the image G42 indicating that the imaging device 2 has been detected, and the imaging device 3 A list image G40 is generated by combining the image G43 indicating the effect and the image G44 or G45 indicating the user's selection, and the liquid crystal monitor 304 displays the list image G40.

ここで撮像装置2が検出された旨を示す画像G42、又は撮像装置3が検出された旨を示す画像G43は、例えばモデルナンバ等、各撮像装置の固有の情報で構成されていても良いし、ユーザ名等、ユーザが自分の撮像装置に個別に登録したユーザの情報で構成されていても良い。図2では、説明及び理解の容易のために「撮像装置2」又は「撮像装置3」と記載する。   Here, the image G42 indicating that the imaging device 2 has been detected or the image G43 indicating that the imaging device 3 has been detected may be configured of information unique to each imaging device, such as a model number. The user name may be configured by user information individually registered in the user's own imaging device. In FIG. 2, “imaging device 2” or “imaging device 3” is described for ease of explanation and understanding.

ユーザはリストに表示された撮像装置の中から、グループ化する撮像装置を選択する。ユーザは操作部306の図示しないタッチパネルを押圧する、又は図示しないカーソルボタンを操作する等して、この選択を行う。リストの中から選択された撮像装置は、例えば図4に示すようにチェック画像G46を重畳する等して、選択されていない撮像装置を区別できる態様で表示される。図4では、ユーザが撮像装置2を選択し、撮像装置3はまだ選択していないという場合の、表示態様を表している。   The user selects an imaging device to be grouped from the imaging devices displayed in the list. The user makes this selection by pressing a touch panel (not shown) of the operation unit 306 or operating a cursor button (not shown). The imaging device selected from the list is displayed in such a manner that an imaging device that has not been selected can be distinguished, for example, by superimposing a check image G46 as shown in FIG. FIG. 4 shows a display mode when the user selects the imaging device 2 and the imaging device 3 has not yet been selected.

ユーザがグループ化の対象とする撮像装置の選択を完了すると(ステップS105でYES)、グループ化部401はグループ化の対象となる撮像装置を特定する(ステップS106)。以下のステップS107以降の説明では、説明及び理解の容易のため、ユーザが撮像装置2及び撮像装置3を選択した場合を例に挙げて説明する。しかし、ユーザが撮像装置2又は撮像装置3のみを選択した場合でも、各撮像装置間で同様の処理が可能なことは言うまでもない。   When the user completes the selection of the imaging devices to be grouped (YES in step S105), the grouping unit 401 identifies the imaging devices to be grouped (step S106). In the following description after step S107, the case where the user selects the imaging device 2 and the imaging device 3 will be described as an example for ease of explanation and understanding. However, it goes without saying that the same processing can be performed between the imaging devices even when the user selects only the imaging device 2 or the imaging device 3.

一方で、グループ化部401がグループ化することができる他の撮像装置を検出しなかった場合(ステップS102でNO)、液晶モニタ304はグループ化することができる他の撮像装置が検出できなかった旨を表示する(ステップS104)。この旨は、例えば図5に例示するような態様で表示される。   On the other hand, when the grouping unit 401 does not detect other imaging devices that can be grouped (NO in step S102), the liquid crystal monitor 304 cannot detect other imaging devices that can be grouped. A message is displayed (step S104). This effect is displayed, for example, in the manner illustrated in FIG.

音声・画像処理部202が、グループ化することができる他の撮像装置を検出できなかった旨を示す画像G51からなる画像G50を生成し、液晶モニタ304がその画像G51を表示する。そして、このグループ化処理が終了される。   The sound / image processing unit 202 generates an image G50 including an image G51 indicating that other imaging devices that can be grouped cannot be detected, and the liquid crystal monitor 304 displays the image G51. And this grouping process is complete | finished.

ステップS106で、グループ化の対象となる他の撮像装置が特定されると、撮像装置1を含むグループの全撮像装置間で、動画像データのタイムスタンプを同期するために、時刻情報が共有される(ステップS107)。タイムスタンプの同期は、例えばグループ内の一つの撮像装置、例えば撮像装置1の時計209の時刻情報を基礎とし、グループ内の他の撮像装置、すなわち撮像装置2及び撮像装置3の時計の時刻情報を撮像装置1のものと同一とすることで行われる。基礎となる時刻情報は、各撮像装置が備える無線モジュールを介して、グループ化部401が相互に送受信することで共有される。   In step S106, when other imaging devices to be grouped are specified, time information is shared among all the imaging devices of the group including the imaging device 1 in order to synchronize the time stamp of the moving image data. (Step S107). The time stamp synchronization is based on the time information of one imaging device in the group, for example, the clock 209 of the imaging device 1, and the time information of the clocks of the other imaging devices in the group, that is, the imaging device 2 and the imaging device 3. Is the same as that of the imaging apparatus 1. The basic time information is shared by the grouping unit 401 transmitting and receiving each other via a wireless module included in each imaging apparatus.

次に、グループ内の各撮像装置が顔画像DBに予め記録している顔画像データの特徴量が、無線モジュールを介して相互に送受信され、共有される(ステップS108)。共有条件設定部405は、共有された顔画像データの検出を、他の撮像装置との動画像データの共有の条件として設定する。これにより、例えば、グループ化の処理を行う前に、撮像装置2のみが記録していた人物の顔画像データの特徴量を、撮像装置1が取得し記憶することができる。そして、撮像装置1が撮像した動画像データ中にその人物が含まれていた場合、その人物が含まれている部分の動画像データを撮像装置2との共有対象となる動画像データとして選別することが可能になる。   Next, the feature amount of the face image data recorded in advance in the face image DB by each imaging device in the group is transmitted / received to / from each other via the wireless module (step S108). The sharing condition setting unit 405 sets detection of shared face image data as a condition for sharing moving image data with another imaging device. Thereby, for example, before performing the grouping process, the imaging device 1 can acquire and store the feature amount of the human face image data recorded only by the imaging device 2. If the person is included in the moving image data captured by the imaging apparatus 1, the moving image data of the portion including the person is selected as moving image data to be shared with the imaging apparatus 2. It becomes possible.

従って、例えば撮像装置2のユーザが、離れた場所にいる別の被写体を同時に撮像したい場合等に、一方の被写体は撮像装置2のユーザ自らが撮像し、他方の被写体は撮像装置1のユーザが撮影し、それぞれの動画像データを共有するといった連携が可能となる。   Therefore, for example, when the user of the imaging device 2 wants to simultaneously capture another subject at a distant place, the user of the imaging device 2 captures one subject and the user of the imaging device 1 captures the other subject. It is possible to cooperate such as shooting and sharing each moving image data.

なお、この顔画像データの特徴量の共有の際、撮像装置1のユーザは操作部306の図示しないタッチパネルを押圧したり、カーソルボタン等を操作したりすることで、顔画像DB407が記録している全顔画像データの特徴量のうち、他の撮像装置と共有する顔画像データの特徴量を選択し、その選択に係るものだけを共有することもできる。他の撮像装置、すなわち撮像装置2及び撮像装置3についても同様である。   Note that when the feature amount of the face image data is shared, the user of the imaging apparatus 1 records the face image DB 407 by pressing a touch panel (not shown) of the operation unit 306 or operating a cursor button or the like. It is also possible to select a feature amount of face image data to be shared with another imaging device from among feature amounts of all face image data, and share only those related to the selection. The same applies to other imaging devices, that is, the imaging device 2 and the imaging device 3.

以上のように、選択した顔画像データの特徴量のみを他の撮像装置と共有することで、一部のユーザが共有を望まない人物の顔画像データが共有されてしまうことを防止することができる。また、特定の人物の動画像データが、他のユーザにとっては有益な動画像データであっても、自分にとっては不要な動画像データであった場合に、その動画像データが共有の対象となることを予め防止することもできる。   As described above, by sharing only the feature amount of the selected face image data with another imaging device, it is possible to prevent the face image data of a person that some users do not want to share from being shared. it can. In addition, even if the moving image data of a specific person is moving image data useful for other users, if the moving image data is unnecessary for the user, the moving image data becomes a target of sharing. This can be prevented in advance.

ユーザはさらに、共有された顔画像データの中から、自分の撮像装置で撮像する動画像データであって、他の撮像装置との共有の対象とする動画像データの選別に使用する顔画像データを指定することもできる(ステップS109)。図6を参照して、この指定の処理について以下に説明する。   The user further selects, from among the shared face image data, moving image data captured by his / her own imaging device, and used to select moving image data to be shared with other imaging devices. Can also be designated (step S109). The designation process will be described below with reference to FIG.

図6は、撮像装置1の顔画像DB407に記録されている人物Aの顔画像データ、撮像装置2の顔画像登録DBに記録されている人物Bの顔画像データ,及び撮像装置3の顔画像登録DBに記録されている人物Cの顔画像データが、上述のようにしてグループ内の撮像装置1乃至3の間で共有され、撮像装置1の液晶モニタ304に表示されたところを模式的に表したものである。   FIG. 6 shows the face image data of the person A recorded in the face image DB 407 of the image pickup apparatus 1, the face image data of the person B recorded in the face image registration DB of the image pickup apparatus 2, and the face image of the image pickup apparatus 3. Schematically, the face image data of the person C recorded in the registration DB is shared between the imaging devices 1 to 3 in the group and displayed on the liquid crystal monitor 304 of the imaging device 1 as described above. It is a representation.

音声・画像処理部202は、共有の対象とする撮像データの選別に使用する顔画像データの選択をユーザに促す旨の表示G61、人物Aの顔画像G62、人物Bの顔画像G63、及び人物Cの顔画像G64が合成された選択画像G60を生成し、液晶モニタ304がその選択画像G60を表示する。   The sound / image processing unit 202 displays a display G61 for prompting the user to select face image data used for selecting imaging data to be shared, a face image G62 of the person A, a face image G63 of the person B, and a person A selection image G60 is generated by combining the C face image G64, and the liquid crystal monitor 304 displays the selection image G60.

ユーザは操作部306の図示しないタッチパネルを押圧する、又は図示しないカーソルボタン等を操作する等して、顔画像G62、G63及びG64の中から全ての顔画像、乃至少なくとも1つの顔画像を選択し、他の撮像装置との共有の対象とする動画像データの選別に使用する顔画像データを指定する。   The user selects all face images or at least one face image from the face images G62, G63, and G64 by pressing a touch panel (not shown) of the operation unit 306 or operating a cursor button (not shown). The face image data to be used for selecting moving image data to be shared with other imaging devices is designated.

撮像装置1のユーザが人物Aの顔画像G62のみを指定した場合は、そのユーザが人物Aを撮像している動画像データであって、人物Aの顔画像が検出されたものが、撮像装置2及び撮像装置3との共有対象となる。これにより例えば、ユーザが自分の撮像装置のみが記録している顔画像データを有する人物Aを撮像する場合であって、他のユーザが、ステップS108の前までは顔画像データを記録していなかったものの、その人物Aの動画像データを共有してもらいたいと望むような場合に、その動画像データを共有することができる。   When the user of the imaging device 1 designates only the face image G62 of the person A, moving image data in which the user has captured the person A and the face image of the person A detected is the imaging device. 2 and the image capturing apparatus 3. Thus, for example, when the user captures the person A having the face image data recorded only by his / her own imaging device, the other user has not recorded the face image data before step S108. However, when it is desired to share the moving image data of the person A, the moving image data can be shared.

撮像装置1のユーザが人物Bの顔画像G63のみを指定した場合は、そのユーザが人物Bを撮像している動画像データであって、人物Bの顔画像が検出されたものが、撮像装置2及び撮像装置3との共有対象となる。これにより例えば、人物Bの動画像データを欲しているのは、その人物Bの顔画像データを予め登録していた撮像装置2のユーザではあるが、撮像の際に人物Bと場所が離れてしまっている等の理由から、自分だけでは人物Bを思うように撮像できないような場合に、撮像装置1のユーザが人物Bを撮像し、その動画像データを共有対象とすることで撮像装置2のユーザの撮像の支援をする、すなわち連携した撮像を行うことが可能となる。撮像装置1のユーザが人物Cの顔画像G64のみを指定した場合についても同様のことが言える。   When the user of the imaging apparatus 1 designates only the face image G63 of the person B, the moving image data in which the user has captured the person B and the face image of the person B detected is the imaging apparatus. 2 and the image capturing apparatus 3. Thus, for example, the user who wants the moving image data of the person B is the user of the imaging apparatus 2 who has registered the face image data of the person B in advance, but the person B is separated from the place at the time of imaging. When it is impossible for the person B to pick up the image of the person B as he / she does, the user of the image pickup apparatus 1 picks up the person B and uses the moving image data as a sharing target so that the image pickup apparatus 2 The user can be imaged, that is, linked imaging can be performed. The same applies to the case where the user of the imaging apparatus 1 designates only the face image G64 of the person C.

撮像装置1のユーザが人物Aの顔画像G62,人物Bの顔画像G63,及び人物Cの顔画像G64の全てを指定した場合は、それらの人物を撮像している動画像データであって、それらの人物の顔画像が検出されたものが、撮像装置2及び撮像装置3との共有対象となる。これにより例えば、撮像装置1のユーザは、各人物の位置等その時々の状況に応じて、一番撮りやすい人物を撮像し、他のユーザも同様に撮像を行い、各ユーザの動画像データを共有することで、グループでの撮像を効率よく手分けして行うことが可能となる。   When the user of the imaging device 1 designates all of the face image G62 of the person A, the face image G63 of the person B, and the face image G64 of the person C, the moving image data capturing those persons, Those whose face images of those persons are detected are to be shared with the imaging device 2 and the imaging device 3. Thereby, for example, the user of the imaging apparatus 1 captures the person most easily photographed according to the situation of each person such as the position of each person, and other users also capture images in the same manner, and the moving image data of each user is captured. By sharing, it is possible to efficiently divide and perform group imaging.

図3に戻り、ユーザが共有された顔画像データの中から、自分の撮像装置で撮像する動画像データであって、他の撮像装置との共有の対象とする動画像データの選別に使用する顔画像データを指定すると(ステップS109でYES)、共有条件設定部405はステップS108で共有された顔画像データの特徴量のうち、指定された顔画像データの特徴量の検出を、他の撮像装置との動画像データの共有の条件として設定する(ステップS110)。   Returning to FIG. 3, it is used to select moving image data that is captured by the user's own imaging device and is to be shared with other imaging devices from among the facial image data shared by the user. When the face image data is designated (YES in step S109), the sharing condition setting unit 405 detects the feature amount of the designated face image data among the feature amounts of the face image data shared in step S108. This is set as a condition for sharing moving image data with the apparatus (step S110).

さらにユーザは、上記の顔画像検出に係る条件以外に、他の撮像装置との動画像データの共有に使用する条件を指定することもできる(ステップS111)。他の撮像装置との共有の対象とする動画像データの選別に使用する顔画像データを指定しなかった場合(ステップS111でNO)も、同様に顔画像検出に係る条件以外の、他の撮像装置との動画像データの共有に使用する条件を指定することができる(ステップS111)。   Further, in addition to the above-described conditions related to face image detection, the user can also specify conditions used for sharing moving image data with other imaging devices (step S111). Similarly, when face image data to be used for selecting moving image data to be shared with other imaging devices is not designated (NO in step S111), other imaging other than the conditions relating to face image detection is performed. A condition used for sharing moving image data with the apparatus can be designated (step S111).

指定される条件としては、ユーザが共有したいと考える指標になりうるものであれば特に限定されないが、例えば顔検出部403が検出した顔画像データに基づく顔画像のサイズ、手ぶれ補正部210が算出した手ぶれ量等が使用される。   The designated condition is not particularly limited as long as it can be an index that the user wants to share. For example, the size of the face image based on the face image data detected by the face detection unit 403, and the camera shake correction unit 210 calculate The amount of camera shake that has occurred is used.

(顔画像のサイズに関する条件の設定)
例えば、結婚式や運動会を撮像する場合のように、撮像装置のユーザが撮像現場を自由に動き回れないような状況、又は被写体が動き回るような状況では、そのユーザが撮像したいと思う状況が発生しても、自分が被写体から遠い位置に位置しており、その被写体を小さくしか撮像できないことがある。このような場合に、そのユーザは、同じように被写体を小さくしか撮像できていない他のユーザの動画像データの共有は望まないかもしれない反面、被写体を大きく撮像できている別のユーザの動画像データの共有は望むと推測される。
(Set conditions related to face image size)
For example, in a situation where the user of the imaging device cannot move freely around the imaging site or when a subject moves around, such as when photographing a wedding ceremony or athletic meet, there are situations where the user wants to take an image. However, there are cases where the subject is located far from the subject and the subject can only be imaged small. In such a case, the user may not want to share the moving image data of another user who can only capture the subject in the same manner, but the video of another user who has captured the subject large It is speculated that image data sharing is desired.

そこで、ユーザは操作部306を操作して、顔検出部403が検出した顔画像データに基づく顔画像のサイズが所定の大きさの範囲内にある動画像データのみを他の撮像装置との共有の対象とする旨の条件を指定する。この大きさの範囲は、例えば、全画面サイズ中の20%〜70%といったようにユーザが望む数値を入力して指定してもよいし、液晶モニタ304に顔画像を実際に表示して、図示しないタッチパネルの操作等により、その顔画像を拡大縮小させて指定してもよい。   Therefore, the user operates the operation unit 306 to share only the moving image data in which the size of the face image based on the face image data detected by the face detection unit 403 is within a predetermined range with other imaging devices. Specify the condition to be targeted. The size range may be specified by inputting a numerical value desired by the user, such as 20% to 70% of the full screen size, or by actually displaying a face image on the LCD monitor 304, The face image may be specified by enlarging or reducing the face image by operating a touch panel (not shown).

(手ぶれ量による条件の設定)
他のユーザが共有を望む被写体を撮像した動画像データであっても、手ぶれが大きい動画像データは、共有の対象となったとしても、後で行う編集作業の際に採用されない可能性があると推測される。そこで、手ぶれ補正部210が算出した手ぶれ量が所定の大きさ以下の動画像データのみを他の撮像装置との共有の対象とする旨の条件を指定する。この大きさの指定は、例えば段階的に表現された手ぶれレベルで表現し、ユーザが共有に使用するレベルを選択することで行う。すなわち手ぶれが殆んどないものをレベル1、手ブレがひどいものをレベル5と五段階のレベルで表現し、ユーザがレベル3以下のレベルに当てはまる動画像データのみを共有の対象とする旨を指定する等である。
(Setting conditions based on camera shake)
Even if it is moving image data that captures a subject that another user wants to share, even if it is subject to sharing, moving image data with a large amount of camera shake may not be used in editing operations that are performed later It is guessed. Therefore, a condition is specified that only moving image data in which the amount of camera shake calculated by the camera shake correction unit 210 is equal to or less than a predetermined size is to be shared with other imaging devices. The designation of the size is performed by, for example, expressing the camera shake level expressed in stages, and selecting a level used by the user for sharing. In other words, the level 1 indicates that there is almost no camera shake, the level 5 indicates that the camera shake is severe, and the user can only share moving image data that falls under the level 3 or lower. And so on.

ユーザが、顔画像検出に係る条件以外に、他の撮像装置との動画像データの共有に使用する条件を指定すると(ステップS111でYES)、共有条件設定部405はその指定された条件を、他の撮像装置との動画像データの共有の条件として設定する(ステップS112)。   When the user specifies a condition to be used for sharing moving image data with other imaging devices in addition to the condition related to face image detection (YES in step S111), the sharing condition setting unit 405 sets the specified condition to This is set as a condition for sharing moving image data with other imaging devices (step S112).

ステップS112で共有条件設定部405が指定された条件を設定すると、共有条件設定部405は、これまでの各ステップを考慮して、他の撮像装置と共有する動画像データを選別するための最終的な条件を設定する(ステップS113)。なお、ユーザが、顔画像検出に係る条件以外に、他の撮像装置との動画像データの共有に使用する条件を指定しなかった場合(ステップS111でNO)も同様である。そして、撮像装置1は、このグループ化処理を終了する。   When the sharing condition setting unit 405 sets the specified condition in step S112, the sharing condition setting unit 405 considers each step so far, and finally selects the moving image data to be shared with other imaging devices. General conditions are set (step S113). The same applies to the case where the user does not specify a condition to be used for sharing moving image data with other imaging devices other than the condition related to face image detection (NO in step S111). And the imaging device 1 complete | finishes this grouping process.

なお、後述する共有する動画像データの選別処理、及びその選別処理で選別された動画像データの送受信による共有を終えた後に、グループに属する各撮像装置は、互いにグループ解除に関するグループ解除情報を互いに送受信し、上記グループを解除することになる。   In addition, after finishing the sharing process of moving image data to be described later and sharing by transmission / reception of the moving image data selected in the selection process, the imaging devices belonging to the group mutually share group release information regarding group release. The group is canceled by transmitting and receiving.

<共有する動画像データの選別処理>
次に、撮像装置1が、上記のグループ化処理によってグループを形成した他の撮像装置との間で共有する動画像データを、共有条件設定部405が設定した条件に基づき選別する処理(方法)について説明する。この共有する動画像データの選別処理について、設定された条件のみに基づく第1の共有動画像データ選別処理、及び設定された条件及び他の撮像装置の撮像の状況に基づく第2の共有動画像データ選別処理、の2つの処理態様について以下に説明する。なお、上記グループ化処理の説明と同様に、撮像装置1とグループ化される対象として図2で例示した撮像装置2又は撮像装置3を例に挙げて以下を説明するが、グループ化処理の対象となる撮像装置の数や種類がこれに限定されるわけではない。
<Selection of shared video data>
Next, a process (method) in which the imaging apparatus 1 selects moving image data shared with other imaging apparatuses that form a group by the grouping process based on the conditions set by the sharing condition setting unit 405. Will be described. As for the selection process of the moving image data to be shared, the first shared moving image data selection process based only on the set condition, and the second shared moving image based on the set condition and the imaging state of another imaging device Two processing modes of data selection processing will be described below. Similar to the above description of the grouping process, the following will be described by taking the imaging apparatus 2 or the imaging apparatus 3 illustrated in FIG. 2 as an example to be grouped with the imaging apparatus 1. However, the number and types of imaging devices to be used are not limited to this.

(第1の共有動画像データ選別処理)
共有条件設定部405に設定された条件のみに基づく第1の共有動画像データ選別処理について図7を参照して以下に説明する。図7は、撮像装置1による第1の共有動画像データ選別処理を説明するためのフローチャートである。
(First shared moving image data selection process)
The first shared moving image data selection process based only on the conditions set in the sharing condition setting unit 405 will be described below with reference to FIG. FIG. 7 is a flowchart for explaining the first shared moving image data selection process by the imaging apparatus 1.

ユーザが操作部306の図示しない録画ボタンを押下すると、撮像部100を介して動画像データが撮像される(ステップS201)。ステップS201で動画像データが撮像されると、その動画像データがメインメモリ206に記憶される(ステップS202)。   When the user presses a recording button (not shown) on the operation unit 306, moving image data is captured through the imaging unit 100 (step S201). When moving image data is captured in step S201, the moving image data is stored in the main memory 206 (step S202).

ステップS202で動画像データが記憶されると、共有データ選別部406は、上述のグループ化処理の中で共有条件設定部405が設定した条件に基づき、メインメモリ206に記憶された動画像データが、他の撮像装置に送信する共有対象となる動画像データかどうかを判定する(ステップS203)。   When the moving image data is stored in step S202, the shared data sorting unit 406 stores the moving image data stored in the main memory 206 based on the conditions set by the sharing condition setting unit 405 in the grouping process described above. Then, it is determined whether or not the moving image data is a sharing target to be transmitted to another imaging apparatus (step S203).

すなわち、撮像装置1、撮像装置2、及び撮像装置3のユーザが、グループ化処理の際に共有した顔画像データに係る顔画像の検出のみを条件として設定していた場合は、顔検出部403が共有された顔画像データの特徴量を検出した部分の動画像データが、撮像装置1が撮像装置2及び撮像装置3に送信する動画像データである旨の判定がなされる。   That is, when the users of the imaging device 1, the imaging device 2, and the imaging device 3 set only the detection of the face image related to the face image data shared during the grouping process as a condition, the face detection unit 403 It is determined that the moving image data of the part in which the feature amount of the face image data that is shared is detected is moving image data that the imaging device 1 transmits to the imaging device 2 and the imaging device 3.

共有した顔画像データの中から特定の顔画像データを指定し、指定された顔画像データに係る顔画像の検出をさらに条件として設定していた場合は、顔検出部403が指定された顔画像データの特徴量を検出した部分の動画像データが、撮像装置1が撮像装置2及び撮像装置3に送信する動画像データである旨の判定がなされる。   When specific face image data is specified from the shared face image data and the detection of the face image related to the specified face image data is further set as a condition, the face detection unit 403 specifies the specified face image. It is determined that the moving image data of the part where the feature amount of the data is detected is moving image data transmitted from the imaging device 1 to the imaging device 2 and the imaging device 3.

さらに共有された顔画像データ又は指定された顔画像データに係る顔画像のサイズを条件として設定していた場合は、顔検出部403が共有又は指定に係る顔画像データを検出し、かつその顔画像データに係る顔画像のサイズが指定された大きさの範囲に当てはまる動画像データが、撮像装置1が撮像装置2及び撮像装置3に送信する動画像データである旨の判定がなされる。   Further, when the size of the face image data related to the shared face image data or the designated face image data is set as a condition, the face detection unit 403 detects the face image data related to the share or designation, and the face It is determined that the moving image data in which the size of the face image related to the image data falls within the specified size range is moving image data transmitted from the imaging device 1 to the imaging device 2 and the imaging device 3.

また、手ぶれ量を条件として設定していた場合は、上記に加えて指定の手ぶれ量におさまる動画像データが、撮像装置1が撮像装置2及び撮像装置3に送信する動画像データである旨の判定がなされる。   If the camera shake amount is set as a condition, the moving image data that falls within the specified camera shake amount in addition to the above is the moving image data that the imaging device 1 transmits to the imaging device 2 and the imaging device 3. Judgment is made.

共有データ選別部406が、メインメモリ206に記憶された動画像データを、他の撮像装置に送信する共有対象となる動画像データであると判定した場合(ステップS203でYES)は、共有データ選別部406は判定された部分の動画像データを他の撮像装置に送信する対象として選別する(ステップS204)。すなわち、共有データ選別部406は、動画像データとは別のファイル(以下、「共有箇所選別ファイル」という。)に、動画像データ中のステップS203で共有対象であると判定された箇所の始点と終点を示す情報を格納する。この共有箇所選別ファイルはメインメモリ206に一時記憶される。   When the shared data sorting unit 406 determines that the moving image data stored in the main memory 206 is moving image data to be shared to be transmitted to another imaging apparatus (YES in step S203), the shared data sorting is performed. The unit 406 selects the determined portion of the moving image data as a target to be transmitted to another imaging device (step S204). In other words, the shared data sorting unit 406 starts a point that is determined to be a sharing target in step S203 in the moving image data in a file different from the moving image data (hereinafter referred to as “shared portion sorting file”). And information indicating the end point are stored. This shared location selection file is temporarily stored in the main memory 206.

ステップS204で共有データ選別部406が共有対象となる部分の動画像データを選別し、又は共有データ選別部406が動画像データは他の撮像装置に送信する共有対象ではない旨の判定をし(ステップS203でNO)、ユーザが操作部306の図示しない録画ボタンを離す等して撮像を完了すると、撮像処理の終了とともに、この共有する動画像データの選別処理が終了される。ユーザが操作部306の図示しない録画ボタンを押下し続けている場合(ステップS205でNO)は、ステップS201に戻り、各ステップを繰り返す。   In step S204, the shared data selection unit 406 selects moving image data of a portion to be shared, or the shared data selection unit 406 determines that the moving image data is not a sharing target to be transmitted to another imaging device ( When the user completes the imaging by releasing a recording button (not shown) of the operation unit 306 or the like, the selection process of the shared moving image data is completed along with the completion of the imaging process. If the user continues to press a recording button (not shown) of the operation unit 306 (NO in step S205), the process returns to step S201 and repeats each step.

以上のようにすることで、ユーザが操作部306の図示しない録画ボタンを押下し(ONにし)、録画ボタンを離す(OFFにする)毎に動画像データのファイルが生成される。そして、生成された動画像データのファイル内に、他の撮像装置に送信する共有対象となる部分が存在していた場合は、その部分の始点と終点の情報を格納した共有箇所選別ファイルが、一つの動画像データのファイル当たりに少なくとも1つ生成されることになる。   As described above, a moving image data file is generated each time the user presses (turns on) a recording button (not shown) of the operation unit 306 and releases (turns off) the recording button. Then, if there is a part to be shared to be transmitted to another imaging device in the generated moving image data file, the shared part selection file storing the information of the start point and end point of the part, At least one is generated per file of moving image data.

そして、共有データ選別部406は、共有対象となる動画像データのファイル(以下、「共有動画像データファイル」という。)を、もとの動画像データのファイルから共有箇所選別ファイルにより関連付けられた箇所で切り出して生成する。   Then, the shared data selection unit 406 associates the moving image data file to be shared (hereinafter referred to as “shared moving image data file”) from the original moving image data file by the shared location selection file. Cut out and generate at a location.

撮像装置1のユーザは、他の撮像装置のユーザと示し合わせたタイミング、例えば結婚式や運動会等の撮像イベントが終了した後のタイミングや休憩のタイミング等で、これらの共有動画像データファイルを、無線モジュール310を介して他の撮像装置に送信し、他の撮像装置のユーザと共有する。   The user of the imaging device 1 wirelessly transmits these shared moving image data files at the timing indicated with the users of other imaging devices, for example, the timing after an imaging event such as a wedding ceremony or athletic meet is completed, or the timing of a break. The data is transmitted to another imaging apparatus via the module 310 and shared with the user of the other imaging apparatus.

或は、判定部402が、グループ化部401が撮像装置1とグループ化した他の撮像装置が、動画像を撮像中であるかどうかを判定し、撮像中ではないと判定された撮像装置が存在した場合であって、撮像装置1も撮像中でない場合に、中央制御部400が無線モジュール310を介して、共有動画像データファイルをその撮像中ではない撮像装置に自動で送信するようにしてもよい。撮像装置間の無線通信はバッテリの消費の負荷、及び通信処理自体の負荷が大きい。以上のように、自動送信又は自動受信することで、バッテリの消費を抑え、また通信処理の負荷により撮像処理を始めとしたその他の処理に弊害が生じることを押さえることができる。   Alternatively, the determination unit 402 determines whether another imaging device grouped with the imaging device 1 by the grouping unit 401 is capturing a moving image, and an imaging device that is determined not to be capturing is determined. When the image capturing apparatus 1 is present and the image capturing apparatus 1 is not capturing an image, the central control unit 400 automatically transmits the shared moving image data file to the image capturing apparatus that is not capturing the image via the wireless module 310. Also good. Wireless communication between imaging devices has a heavy battery consumption load and communication processing load. As described above, by automatically transmitting or receiving, it is possible to suppress battery consumption and to suppress the occurrence of adverse effects on other processing such as imaging processing due to the load of communication processing.

以上のように、撮像装置1によれば、第1の共有動画像データ選別処理により共有動画像データファイルを生成し、その共有動画像データファイルを他の撮像装置と共有することができる。従って、撮像された動画像データから共有対象となる動画像データを選別し、選別された動画像データを他の撮像装置と共有することができる。   As described above, according to the imaging apparatus 1, a shared moving image data file can be generated by the first shared moving image data selection process, and the shared moving image data file can be shared with other imaging apparatuses. Therefore, it is possible to select moving image data to be shared from the captured moving image data and share the selected moving image data with other imaging devices.

よって、不要な動画像データの共有に要する時間を省略することができる。また不要な動画像データが記録媒体の容量を圧迫するのを防止することができる。さらに顔画像等の被写体の情報等から選別された動画像データが共有されているので、ユーザは撮像後の編集作業の際、ユーザが不要な撮像データを目視により確認する手間を削減することができる。   Therefore, time required for sharing unnecessary moving image data can be omitted. Further, unnecessary moving image data can be prevented from pressing the capacity of the recording medium. Furthermore, since moving image data selected from subject information such as a face image is shared, it is possible for the user to save time and effort for visually checking unnecessary imaging data during editing after imaging. it can.

(第1の共有動画像データ選別処理により共有された各動画像データ表示態様)
次に、他の撮像装置が上記第1の共有動画像データ選別処理と同様の処理により選別した動画像データを撮像装置1が受信し、撮像装置1自身が撮像した動画像データとをあわせて表示する場合の表示画像について、図8を参照して説明する。例えば、撮像装置1のユーザが、撮像の後で撮像及び共有された各動画像データの確認する際や、各動画像データを使用して編集作業を行う際等に、この表示画像が利用される。なお、以下では、液晶モニタ304に表示する場合を例に挙げて説明するが、入出力端子307を介して接続された外部のディスプレイ装置等に表示することもできる。
(Each video data display mode shared by the first shared video data selection process)
Next, the imaging device 1 receives the moving image data selected by the same processing as the first shared moving image data selection process by the other imaging device, and combines the moving image data captured by the imaging device 1 itself. A display image in the case of displaying will be described with reference to FIG. For example, the display image is used when the user of the imaging apparatus 1 confirms each moving image data captured and shared after imaging, or when performing editing using each moving image data. The In the following description, the case of displaying on the liquid crystal monitor 304 will be described as an example, but the display can also be performed on an external display device connected via the input / output terminal 307.

図8は、撮像装置1が、撮像装置2及び撮像装置3が第1の共有動画像データ選別処理基づき生成した共有動画像データファイルを各撮像装置から受信し、それらの共有動画像データファイルに係る動画像データを、撮像装置1自身が撮像した動画像データと併せて液晶モニタ304に表示した表示画像の例である。   In FIG. 8, the imaging device 1 receives the shared moving image data file generated by the imaging device 2 and the imaging device 3 based on the first shared moving image data selection process from each imaging device, and converts them into the shared moving image data file. The moving image data is an example of a display image displayed on the liquid crystal monitor 304 together with moving image data captured by the imaging apparatus 1 itself.

音声画像処理部202は、撮像装置1が撮像した動画像データを表す画像PD81a、PD81b、及びPD81c、並びにそれらの動画像データが撮像装置1により撮像されたことを示す画像G81を生成する。また、PD81a、PD81b、及びPD81cのそれぞれに係る動画像データが生成された日時情報を示す画像TG81a、TG81b、及びTG81cを生成する。   The audio image processing unit 202 generates images PD81a, PD81b, and PD81c representing moving image data captured by the imaging device 1, and an image G81 indicating that the moving image data is captured by the imaging device 1. Also, images TG81a, TG81b, and TG81c are generated that indicate the date and time information when the moving image data related to the PD81a, PD81b, and PD81c is generated.

TG81aは、PD81aに係る動画像データが2011年4月28日(木)の13時00分05秒から13時04分05秒までにかけて撮像されたものであることを表している。同様にTB81bは、PD81bに係る動画像データが2011年4月28日(木)の13時05分10秒から13時11分10秒まで、TG81cは、PD81cに係る動画像データが2011年4月28日(木)13時13分20秒から13時15分20秒までにかけて撮像されたものであることを表している。   The TG 81a indicates that the moving image data related to the PD 81a is captured from 13:00:05 on April 28, 2011 (Thursday) to 13:04:05. Similarly, the moving image data related to PD 81b is from 13:05:10 to 13:11:10 on Thursday, April 28, 2011, and the TG 81c is moving image data related to PD 81c. It represents that the image was taken from 13:13:20 to 13:15:20 on Thursday, 28th of March.

音声・画像処理部202は、撮像装置2から受信した共有動画像データファイルに係る動画像データを表す画像PD82a、及びそれが撮像装置2により撮像されたことを表す画像G82を生成する。同様に音声・画像処理部202は、撮像装置3から受信した共有動画像データファイルに係る動画像データを表す画像PD83a及びPD83b、及びそれらが撮像装置3により撮像されたことを表す画像G83を生成する。   The sound / image processing unit 202 generates an image PD 82 a representing moving image data related to the shared moving image data file received from the imaging device 2, and an image G 82 representing that the image PD 82 a has been captured by the imaging device 2. Similarly, the sound / image processing unit 202 generates images PD83a and PD83b representing moving image data related to the shared moving image data file received from the imaging device 3, and an image G83 representing that they are captured by the imaging device 3. To do.

各動画像データを表す画像に関しては、代表画像生成部308が所定時間毎(図8の例では2分毎)に、既知の方法により各動画像データを代表する画像をサムネイル画像として生成し、生成されたサムネイル画像を用いて表される。これにより、ユーザは撮像した動画像データ及び他のユーザから受信した動画像データの内容を一目で判別し、比較することができる。   For the image representing each moving image data, the representative image generating unit 308 generates an image representing each moving image data as a thumbnail image at a predetermined time (every 2 minutes in the example of FIG. 8) by a known method, It is represented using the generated thumbnail image. Thereby, the user can discriminate | determine and compare the content of the captured moving image data and the moving image data received from the other user at a glance.

音声・画像生成部202は上記各画像を合成した表示画像G80を生成し、液晶モニタ304に表示する。なお、図8に示す表示態様はあくまで例示であり、例えば撮像装置2により撮像された動画像データを表す画像PD82a等に関しても、撮像された日時を示す画像を生成し、併せて表示する等してもよい。   The sound / image generation unit 202 generates a display image G80 obtained by combining the above-described images and displays it on the liquid crystal monitor 304. Note that the display mode illustrated in FIG. 8 is merely an example. For example, for the image PD 82a representing the moving image data captured by the imaging device 2, an image indicating the captured date and time is generated and displayed together. May be.

撮像装置1乃至撮像装置3が撮像した各動画像データは、グループ化の際に共有した時刻情報に沿って、時系列順に表示される。この表示態様により、撮像装置1のユーザは自分の撮像した動画像データと、他のユーザ(撮像装置2又は撮像装置3のユーザ)が撮像した動画像データとの比較を容易に行うことができる。   Each moving image data imaged by the imaging devices 1 to 3 is displayed in chronological order along the time information shared at the time of grouping. With this display mode, the user of the imaging device 1 can easily compare the moving image data captured by the user with the moving image data captured by another user (the user of the imaging device 2 or the imaging device 3). .

例えば、撮像装置1のユーザが被写体Aを13時00分05秒〜13時04分05秒まで撮像している一方で、ほぼ同じ時間帯に撮像装置3のユーザが被写体Aからは離れた位置にいる被写体Bを撮像しており、その被写体Bの動画像データが共有されたとする。この被写体Bの動画像データを示す画像PD83aが、PD81aと並べて表示される。これにより、撮像装置1のユーザは編集作業の際に、例えば自分は被写体Aの近くにいたので被写体Aを撮像したが、本当に欲しかったのは被写体Bの動画像データであった場合等に、PD81aに係る動画像データとPD83aに係る動画像データを差し替える等の判断をすることが容易となる。   For example, the user of the imaging device 1 is imaging the subject A from 13:00:05 to 13:04:05, while the user of the imaging device 3 is away from the subject A in substantially the same time zone. Suppose that the subject B in the camera is imaged and the moving image data of the subject B is shared. An image PD83a indicating the moving image data of the subject B is displayed side by side with the PD81a. As a result, when the user of the imaging apparatus 1 performs editing work, for example, when he / she was near the subject A, he / she took the subject A, but what he really wanted was the moving image data of the subject B, etc. It becomes easy to make a decision such as replacing the moving image data related to the PD 81a and the moving image data related to the PD 83a.

また、例えば、撮像装置1のユーザが被写体Aを13時05分10秒〜13時11分05秒まで撮像している一方で、ほぼ同じ時間帯に撮像装置2のユーザが同じく被写体Aを撮像しており、その動画像データが撮像装置1に共有されたとする。この共有された動画像データを示す画像PD82aが、PD81bと並べて表示される。これにより撮像装置1のユーザは、自分の撮像した動画像データでは被写体Aの後ろ姿や横顔しか捉えられていないが、撮像装置2から受信した動画像データは被写体Aを正面から撮像できていると判断することができ、画像PD82aに係る動画像データの一部と画像PD81bに係る動画像データとを差し替える等の判断をすることが容易となる。   Further, for example, while the user of the imaging device 1 is imaging the subject A from 13:05:10 to 13:11:05, the user of the imaging device 2 also images the subject A in substantially the same time zone. It is assumed that the moving image data is shared by the imaging device 1. An image PD82a indicating the shared moving image data is displayed side by side with the PD81b. As a result, the user of the imaging device 1 can only capture the back and profile of the subject A in the moving image data captured by the user, but the moving image data received from the imaging device 2 can capture the subject A from the front. This makes it possible to make a determination such as replacing part of the moving image data related to the image PD 82a and moving image data related to the image PD 81b.

さらに、例えば、撮像装置1のユーザが被写体Aを13時13分20秒〜13時15分20秒まで撮像している一方で、ほぼ同じ時間帯に撮像装置2のユーザ及び撮像装置3のユーザが同じく被写体Aを撮像しており、その動画像データが撮像装置1に共有されたとする。撮像装置1が撮像した動画像データに係る画像PD81C、撮像装置2が撮像した動画像データに係る画像PD82a、及び撮像装置3が撮像した動画像データに係る画像PD83bがそれぞれ並んで表示される。   Further, for example, while the user of the imaging device 1 is imaging the subject A from 13:13:20 to 13:15:20, the user of the imaging device 2 and the user of the imaging device 3 in substantially the same time zone. Are imaging the subject A, and the moving image data is shared by the imaging device 1. An image PD81C related to moving image data captured by the imaging device 1, an image PD82a related to moving image data captured by the imaging device 2, and an image PD83b related to moving image data captured by the imaging device 3 are displayed side by side.

これにより撮像装置1のユーザは、3つの画像を比較し、3者の中で最も上手く撮像できている動画像データを判断して、編集作業の際に採用する等の対応を採ることができる。すなわち、撮像時に被写体Aから遠く画像PD81cに係る動画像データでは、被写体Aが小さく且つ横顔しか撮像できていないので、撮像装置3から受信した画像PD83bに係る動画像データの方を採用するといった対応をとることができる。   As a result, the user of the imaging apparatus 1 can compare the three images, determine the moving image data that has been best captured among the three, and take measures such as adopting it during editing work. . That is, in the moving image data related to the image PD81c far from the subject A at the time of imaging, the subject A is small and only the side face can be imaged, so that the moving image data related to the image PD83b received from the imaging device 3 is adopted. Can be taken.

以上のように、撮像装置1によれば、第1の共有動画像データ選別処理により選別された動画像データが他の撮像装置との間で共有され、撮像装置1の動画像データと時間的に関連付けられて表示される。したがって、ユーザは共有された他の撮像装置の動画像データを、自分の動画像データと関連付けて把握することができ、編集作業時等に選別して共有された各動画像データの中からさらに、どの動画像データを採用するかの判断等をより簡便に行うことができる。   As described above, according to the imaging device 1, the moving image data selected by the first shared moving image data selection process is shared with other imaging devices, and the moving image data of the imaging device 1 is temporally related. Displayed in association with. Therefore, the user can grasp the moving image data of the other imaging device shared with his / her moving image data, and further select from the moving image data selected and shared during the editing work or the like. Thus, it is possible to more easily determine which moving image data is used.

(第2の共有動画像データ選別処理)
設定された条件及び他の撮像装置の撮像の状況に基づく第2の共有動画像データ選別処理について図9を参照して以下に説明する。図9は、撮像装置1による第2の共有動画像データ選別処理を説明するためのフローチャートである。
(Second shared moving image data selection process)
A second shared moving image data selection process based on the set conditions and the imaging state of another imaging apparatus will be described below with reference to FIG. FIG. 9 is a flowchart for explaining the second shared moving image data selection process by the imaging apparatus 1.

ユーザが操作部306の図示しない録画ボタンを押下すると、撮像部100を介して動画像データが撮像される(ステップS301)。ステップS301で動画像データが撮像されると、その動画像データがメインメモリ206に記憶される(ステップS302)。   When the user presses a recording button (not shown) on the operation unit 306, moving image data is captured through the imaging unit 100 (step S301). When moving image data is captured in step S301, the moving image data is stored in the main memory 206 (step S302).

ステップS202で動画像データが記憶されると、判定部402は、グループ化部401が撮像装置1とグループ化した他の撮像装置が、動画像を撮像中であるかどうかを判定する(ステップS303)。具体的には、グループ化された他の撮像装置、すなわち撮像装置2又は撮像装置3が録画ボタンをONにした旨の情報及びOFFにした旨の情報を無線モジュール310が受信し、その受信結果からその他の撮像装置が撮像中か否かを判定する。   When the moving image data is stored in step S202, the determination unit 402 determines whether another imaging device grouped with the imaging device 1 by the grouping unit 401 is capturing a moving image (step S303). ). Specifically, the wireless module 310 receives information indicating that another grouped imaging device, that is, the imaging device 2 or the imaging device 3 has turned the recording button on and the information that the recording button has been turned off, and the reception result. From this, it is determined whether or not another imaging device is imaging.

判定部402が他の撮像装置が撮像中であると判定すると(ステップS303でYES)、共有データ選別部406はメインメモリ206に記憶された動画像データから共有対象を選別せずに、撮像装置1は撮像を継続する。   If the determination unit 402 determines that another imaging device is capturing an image (YES in step S303), the shared data selection unit 406 does not select the sharing target from the moving image data stored in the main memory 206, and the imaging device. 1 continues imaging.

一方で、判定部402が、他の撮像装置が撮像中ではないと判定すると(ステップS303でNO)、共有データ選別部406は、上述のグループ化処理の中で共有条件設定部405が設定した条件に基づき、メインメモリ206に記憶された動画像データが、他の撮像装置に送信する共有対象となる動画像データかどうかを判定する(ステップS304)。   On the other hand, when the determination unit 402 determines that another imaging device is not capturing an image (NO in step S303), the shared data selection unit 406 is set by the sharing condition setting unit 405 during the above-described grouping process. Based on the condition, it is determined whether the moving image data stored in the main memory 206 is moving image data to be shared to be transmitted to another imaging device (step S304).

以上のように、他の撮像装置の撮像の状況に基づいて動画像データの共有の是非を判定することで、撮像装置1のユーザは他の撮像装置のユーザ、すなわち撮像装置2又は撮像装置3のユーザが撮像を行っていない時間帯に、自らが撮像したデータを共有の対象として選別することができる。従って、例えば撮像装置2又は撮像装置3のユーザが撮像を止め休憩をとっているような状況でも、撮像装置1のユーザが撮像した動画像データで必要なものは、共有の対象として自動的に取得することができる。   As described above, by determining whether or not to share moving image data based on the imaging state of another imaging device, the user of the imaging device 1 can be a user of another imaging device, that is, the imaging device 2 or the imaging device 3. The data captured by the user can be selected for sharing during a time period when the user is not capturing images. Therefore, for example, even when the user of the imaging device 2 or the imaging device 3 stops taking an image and takes a break, the necessary moving image data captured by the user of the imaging device 1 is automatically shared. Can be acquired.

なお、共有データ選別部406による共有対象となる動画像データかどうかの判定は、上述の図7のステップS203で述べたものと同様にして行われる。すなわち、撮像装置1、撮像装置2、及び撮像装置3のユーザが、グループ化処理の際に共有した顔画像データに係る顔画像の検出のみを条件として設定していた場合は、顔検出部403が共有された顔画像データの特徴量を検出した部分の動画像データが、撮像装置1が撮像装置2及び撮像装置3に送信する動画像データである旨の判定がなされる。   Note that the shared data selection unit 406 determines whether it is moving image data to be shared in the same manner as described in step S203 of FIG. That is, when the users of the imaging device 1, the imaging device 2, and the imaging device 3 set only the detection of the face image related to the face image data shared during the grouping process as a condition, the face detection unit 403 It is determined that the moving image data of the part in which the feature amount of the face image data that is shared is detected is moving image data that the imaging device 1 transmits to the imaging device 2 and the imaging device 3.

共有した顔画像データの中から特定の顔画像データを指定し、指定された顔画像データに係る顔画像の検出をさらに条件として設定していた場合は、顔検出部403が指定された顔画像データの特徴量を検出した部分の動画像データが、撮像装置1が撮像装置2及び撮像装置3に送信する動画像データである旨の判定がなされる。   When specific face image data is specified from the shared face image data and the detection of the face image related to the specified face image data is further set as a condition, the face detection unit 403 specifies the specified face image. It is determined that the moving image data of the part where the feature amount of the data is detected is moving image data transmitted from the imaging device 1 to the imaging device 2 and the imaging device 3.

さらに共有された顔画像データ又は指定された顔画像データに係る顔画像のサイズを条件として設定していた場合は、顔検出部403が共有又は指定に係る顔画像データを検出し、かつその顔画像データに係る顔画像のサイズが指定された大きさの範囲に当てはまる動画像データが、撮像装置1が撮像装置2及び撮像装置3に送信する動画像データである旨の判定がなされる。   Further, when the size of the face image data related to the shared face image data or the designated face image data is set as a condition, the face detection unit 403 detects the face image data related to the share or designation, and the face It is determined that the moving image data in which the size of the face image related to the image data falls within the specified size range is moving image data transmitted from the imaging device 1 to the imaging device 2 and the imaging device 3.

また、手ぶれ量を条件として設定していた場合は、上記に加えて指定の手ぶれ量におさまる動画像データが、撮像装置1が撮像装置2及び撮像装置3に送信する動画像データである旨の判定がなされる。   If the camera shake amount is set as a condition, the moving image data that falls within the specified camera shake amount in addition to the above is the moving image data that the imaging device 1 transmits to the imaging device 2 and the imaging device 3. Judgment is made.

共有データ選別部406が、メインメモリ206に記憶された動画像データを、他の撮像装置に送信する共有対象となる動画像データであると判定した場合(ステップS304でYES)は、共有データ選別部406は判定された動画像データを他の撮像装置に送信する対象として選別する(ステップS305)。すなわち、共有データ選別部406は、共有箇所選別ファイルに、動画像データ中のステップS304で共有対象であると判定された箇所の始点と終点を示す情報を格納する。この別のファイルはメインメモリ206に一時記憶する。   When the shared data sorting unit 406 determines that the moving image data stored in the main memory 206 is moving image data to be shared to be transmitted to another imaging device (YES in step S304), the shared data sorting is performed. The unit 406 selects the determined moving image data as a target to be transmitted to another imaging device (step S305). That is, the shared data selection unit 406 stores information indicating the start point and the end point of the part determined to be shared in step S304 in the moving image data in the shared part selection file. This other file is temporarily stored in the main memory 206.

ステップS303で判定部402が他の撮像装置が撮像中である旨の判定をし(ステップS303でYES)、ステップS305で共有データ選別部406が共有対象となる動画像データを選別し、又は共有データ選別部406が動画像データは他の撮像装置に送信する共有対象ではない旨の判定をし(ステップS304でNO)、ユーザが操作部306の図示しない録画ボタンを離す等して撮像を完了すると(ステップS306でYES)、撮像処理の終了とともに、この共有する動画像データの選別処理が終了される。ユーザが操作部306の図示しない録画ボタンを押下し続けている場合(ステップS306でNO)は、ステップS301に戻り、各ステップを繰り返す。   In step S303, the determination unit 402 determines that another imaging device is imaging (YES in step S303), and in step S305, the shared data selection unit 406 selects or shares moving image data to be shared. The data selection unit 406 determines that the moving image data is not a sharing target to be transmitted to another imaging device (NO in step S304), and the user completes imaging by releasing a recording button (not shown) of the operation unit 306, for example. Then (YES in step S306), along with the end of the imaging process, the selection process of the shared moving image data ends. If the user continues to press a recording button (not shown) on the operation unit 306 (NO in step S306), the process returns to step S301 and repeats each step.

以上のようにすることで、ユーザが操作部306の図示しない録画ボタンを押下し(ONにし)、録画ボタンを離す(OFFにする)毎に動画像データのファイルが生成される。そして、他の撮像装置が撮像中にない時間帯に生成された動画像データのファイル内に、他の撮像装置に送信する共有対象となる部分が存在していた場合は、その部分の始点と終点の情報を格納した共有箇所選別ファイルが、一つの動画像データのファイル当たりに少なくとも1つ生成されることになる。   As described above, a moving image data file is generated each time the user presses (turns on) a recording button (not shown) of the operation unit 306 and releases (turns off) the recording button. If there is a part to be shared to be transmitted to the other imaging device in the moving image data file generated in a time zone when the other imaging device is not imaging, the start point of the part At least one shared location selection file storing end point information is generated for each moving image data file.

そして、共有データ選別部406は、共有動画像データファイルを、もとの動画像データのファイルから共有箇所選別ファイルにより関連付けられた箇所で切り出して生成する。   Then, the shared data sorting unit 406 generates a shared moving image data file by cutting out the shared moving image data file from the original moving image data file at the location associated by the shared location sorting file.

撮像装置1のユーザは、他の撮像装置のユーザと示し合わせたタイミング、例えば結婚式や運動会等の撮像イベントが終了した後のタイミングや休憩のタイミング等で、これらの共有動画像データファイルを、無線モジュール310を介して他の撮像装置に送信し、他の撮像装置のユーザと共有する。   The user of the imaging device 1 wirelessly transmits these shared moving image data files at the timing indicated with the users of other imaging devices, for example, the timing after an imaging event such as a wedding ceremony or athletic meet is completed, or the timing of a break. The data is transmitted to another imaging apparatus via the module 310 and shared with the user of the other imaging apparatus.

或は、判定部402が、グループ化部401が撮像装置1とグループ化した他の撮像装置が、動画像を撮像中であるかどうかを判定し、撮像中ではないと判定された撮像装置が存在した場合であって、撮像装置1も撮像中でない場合に、中央制御部400が無線モジュール310を介して、共有動画像データファイルをその撮像中ではない撮像装置に自動で送信するようにしてもよい。撮像装置間の無線通信はバッテリの消費の負荷、及び通信処理自体の負荷が大きい。以上のように、自動送信又は自動受信することで、バッテリの消費を抑え、また通信処理の負荷により撮像処理を始めとしたその他の処理に弊害が生じることを押さえることができる。   Alternatively, the determination unit 402 determines whether another imaging device grouped with the imaging device 1 by the grouping unit 401 is capturing a moving image, and an imaging device that is determined not to be capturing is determined. When the image capturing apparatus 1 is present and the image capturing apparatus 1 is not capturing an image, the central control unit 400 automatically transmits the shared moving image data file to the image capturing apparatus that is not capturing the image via the wireless module 310. Also good. Wireless communication between imaging devices has a heavy battery consumption load and communication processing load. As described above, by automatically transmitting or receiving, it is possible to suppress battery consumption and to suppress the occurrence of adverse effects on other processing such as imaging processing due to the load of communication processing.

以上のように、撮像装置1によれば、第2の共有動画像データ選別処理により他の撮像装置が撮像中であるかどうかを考慮して共有動画像データファイルを生成し、その共有動画像データファイルを他の撮像装置を共有することができる。従って、他の撮像装置が撮像していなかった時間帯の動画像データから共有対象となる動画像データを選別し、選別された動画像データを他の撮像装置と共有することができる。   As described above, according to the imaging device 1, a shared moving image data file is generated by considering whether another imaging device is capturing an image by the second shared moving image data selection process, and the shared moving image Data files can be shared with other imaging devices. Therefore, it is possible to select moving image data to be shared from moving image data in a time zone that was not captured by another imaging device, and to share the selected moving image data with another imaging device.

よって、複数の撮像装置が重複して撮像していた動画像データを始めとした不要な動画像データの共有に要する時間を省略することができる。またこれらの不要な動画像データが記録媒体の容量を圧迫するのを防止することができる。さらに顔画像等の被写体の情報等から選別された動画像データが共有されているので、ユーザは撮像後の編集作業の際、ユーザが不要な撮像データを目視により確認する手間を削減することができる。   Therefore, it is possible to omit time required for sharing unnecessary moving image data such as moving image data which has been picked up by a plurality of imaging devices. Further, it is possible to prevent these unnecessary moving image data from pressing the capacity of the recording medium. Furthermore, since moving image data selected from subject information such as a face image is shared, it is possible for the user to save time and effort for visually checking unnecessary imaging data during editing after imaging. it can.

(第2の共有動画像データ選別処理により共有された各動画像データ表示態様)
次に、他の撮像装置が上記第2の共有動画像データ選別処理と同様の処理により選別した動画像データを撮像装置1が受信し、撮像装置1自身が撮像した動画像データとをあわせて表示する場合の表示画像について、図10を参照して説明する。例えば、撮像装置1のユーザが、撮像の後で撮像及び共有された各動画像データの確認する際や、各動画像データを使用して編集作業を行う際等に、この表示画像が利用される。なお、以下では、液晶モニタ304に表示する場合を例に挙げて説明するが、入出力端子307を介して接続された外部のディスプレイ装置等に表示することもできる。
(Each video data display mode shared by the second shared video data selection process)
Next, the image capturing apparatus 1 receives the moving image data selected by the other image capturing apparatus by the same process as the second shared moving image data selecting process, and combines the moving image data captured by the image capturing apparatus 1 itself. A display image for display will be described with reference to FIG. For example, the display image is used when the user of the imaging apparatus 1 confirms each moving image data captured and shared after imaging, or when performing editing using each moving image data. The In the following description, the case of displaying on the liquid crystal monitor 304 will be described as an example, but the display can also be performed on an external display device connected via the input / output terminal 307.

図10は、撮像装置1が、撮像装置2及び撮像装置3が第2の共有動画像データ選別処理基づき生成した共有動画像データファイルを各撮像装置から受信し、それらの共有動画像データファイルに係る動画像データを、撮像装置1自身が撮像した動画像データと併せて液晶モニタ304に表示した表示画像の例である。   In FIG. 10, the imaging device 1 receives the shared moving image data file generated by the imaging device 2 and the imaging device 3 based on the second shared moving image data selection process from each imaging device, and converts them into the shared moving image data file. The moving image data is an example of a display image displayed on the liquid crystal monitor 304 together with moving image data captured by the imaging apparatus 1 itself.

音声・画像処理部202は、撮像装置1が撮像した動画像データを表す画像PD101a及びPD101b、並びにそれらの動画像データが撮像装置1により撮像されたことを示す画像G101を生成する。またPD101a及びPD101bのそれぞれに係る動画像データが生成された日時情報を示す画像TG101a及びTG101bを生成する。   The sound / image processing unit 202 generates images PD101a and PD101b representing moving image data captured by the imaging device 1, and an image G101 indicating that the moving image data is captured by the imaging device 1. Also, images TG101a and TG101b indicating the date and time information when the moving image data relating to each of the PD101a and PD101b is generated are generated.

TG101aは、PD101aに係る動画像データが2011年4月28日(木)の14時00分05秒から14時06分05秒までに掛けて撮像されたものであることを表している。同様にTG101bは、PD101bに係る動画像データが2011年4月28日(木)の14時08分05秒から14時12分05秒までにかけて撮像されたものであることを表している。   The TG 101a represents that the moving image data related to the PD 101a was captured from 14:00:05 on Thursday, April 28, 2011 to 14:06:05. Similarly, TG 101b represents that the moving image data related to PD 101b was captured from 14:08:05 on Thursday, April 28, 2011 to 14:12:05.

音声・画像処理部202は、撮像装置2から受信した共有動画像データファイルに係る動画像データを表す画像PD102、及びそれが撮像装置2により撮像されたことを表す画像G102を生成する。同様に音声・画像処理部202は、撮像装置3から受信した共有動画像データファイルに係る動画像データを表す画像PD103及びそれが撮像装置3により撮像されたことを表す画像G103を生成する。   The sound / image processing unit 202 generates an image PD102 representing moving image data related to the shared moving image data file received from the imaging device 2, and an image G102 representing that the imaging device 2 has captured the image PD102. Similarly, the audio / image processing unit 202 generates an image PD 103 representing moving image data related to the shared moving image data file received from the imaging device 3 and an image G103 representing that the imaging device 3 has captured the image PD 103.

各動画像データを表す画像に関しては、代表画像生成部408が所定時間毎(図10の例では2分毎)に、既知の方法により各動画像データを代表する画像をサムネイル画像として生成し、生成されたサムネイル画像を用いて表される。これにより、ユーザは撮像した動画像データ及び他のユーザから受信した動画像データの内容を一目で判別し、比較することができる。   For the image representing each moving image data, the representative image generation unit 408 generates an image representing each moving image data as a thumbnail image at a predetermined time (every 2 minutes in the example of FIG. 10) by a known method, It is represented using the generated thumbnail image. Thereby, the user can discriminate | determine and compare the content of the captured moving image data and the moving image data received from the other user at a glance.

音声・画像生成部は上記各画像を合成した表示画像G100を生成し、液晶モニタ304に表示する。なお、図10に示す表示態様はあくまで例示であり、例えば撮像装置2により撮像された動画像データを表す画像PD102等に関しても、撮像された日時を示す画像を生成し、併せて表示してもよい。   The sound / image generation unit generates a display image G100 obtained by combining the images and displays the display image G100 on the liquid crystal monitor 304. Note that the display mode illustrated in FIG. 10 is merely an example. For example, for the image PD 102 representing the moving image data captured by the imaging device 2, an image indicating the captured date and time may be generated and displayed together. Good.

撮像装置1乃至撮像装置3が撮像した各動画像データは、グループ化の際に共有した時刻情報に沿って、時系列順に表示される。この表示態様により、撮像装置1のユーザは自分の撮像した動画像データと、他のユーザ(撮像装置2又は撮像装置3のユーザ)が撮像した動画像データとの比較を容易に行うことができる。   Each moving image data imaged by the imaging devices 1 to 3 is displayed in chronological order along the time information shared at the time of grouping. With this display mode, the user of the imaging device 1 can easily compare the moving image data captured by the user with the moving image data captured by another user (the user of the imaging device 2 or the imaging device 3). .

そして、上述のとおり第2の共有動画像データ選別処理では、他の撮像装置の撮像状況が動画像データの共有に考慮される。したがって、例えば撮像装置1のユーザが、ある時間帯に存在したシャッタチャンスを、休憩等で撮影現場を外していた、又は撮像し損なった等の理由から逃したとしても、その時間帯に他の撮像装置が撮像した撮像した動画像データが所定の条件を満たしていれば、その動画像データは共有されて、グループ化の際に共有した時刻情報に沿って、時系列順に表示される。   As described above, in the second shared moving image data selection process, the imaging state of another imaging device is considered for sharing of moving image data. Therefore, for example, even if the user of the imaging apparatus 1 misses the shutter chance that existed in a certain time zone for reasons such as taking a break from the shooting site or failing to capture the image, If the captured moving image data captured by the imaging device satisfies a predetermined condition, the moving image data is shared and displayed in chronological order along the time information shared at the time of grouping.

これにより、撮像装置1のユーザが撮像を行っていなかった時間帯における、他のユーザの動画像データであって、所定の条件を満たすものを自動的に共有することができるので、編集作業の際に撮り逃した動画像データを容易に見つけること等ができ、各動画像データの編集作業をより簡便に行うことができる。   Thereby, it is possible to automatically share moving image data of other users that satisfy a predetermined condition in a time zone when the user of the imaging device 1 was not capturing an image. In this case, it is possible to easily find moving image data missed at the time, and to edit each moving image data more easily.

図10では、撮像装置1のユーザが撮像を行わなかった14時06分06秒から14時08分04秒までの間に、撮像装置2のユーザが撮像した被写体Aの動画像データ、及び撮像装置3のユーザが撮像した被写体Bの動画像データが共有され、それぞれPD102及びPD103として並べて表示されている。   In FIG. 10, the moving image data of the subject A captured by the user of the imaging device 2 and the imaging between 14:06:06 and 14:08:04 when the user of the imaging device 1 did not capture the image. The moving image data of the subject B imaged by the user of the apparatus 3 is shared and displayed side by side as PD102 and PD103, respectively.

したがって、例えば、撮像装置1のユーザは編集作業の際に、自分が撮り逃していた14時06分06秒から14時08分04秒までの時間帯における、撮像装置2が撮像した画像PD103に係る動画像データを、自分が撮像した他の被写体Aの動画像データ、例えば画像PD101aやPD101bに追加する等の判断をすることが容易となる。   Therefore, for example, the user of the imaging device 1 can edit the image PD 103 captured by the imaging device 2 in the time zone from 14:06:06 to 14:08:04 which he missed during editing. It is easy to make a determination such as adding such moving image data to moving image data of another subject A captured by the user, for example, the image PD 101a or PD 101b.

また、例えば、撮像装置1のユーザは編集作業の際に、自分が撮像を行わなかった14時06分06秒から14時08分04秒までの時間帯における、被写体Bのシャッタチャンスを捉えていた撮像装置3による画像PD103に係る動画像データを編集データに組み込む等の判断も容易に行うことができる。   Further, for example, the user of the imaging apparatus 1 captures the shutter chance of the subject B in the time zone from 14:06:06 to 14:08:04 when he / she did not take an image during editing. It is also possible to easily determine whether to incorporate the moving image data related to the image PD 103 by the imaging device 3 into the editing data.

以上のように、撮像装置1によれば、第2の共有動画像データ選別処理により選別された動画像データが他の撮像装置との間で共有され、撮像装置1の動画像データと時間的に関連付けられて表示される。したがって、ユーザは自分が撮像を行わなかった時間帯における、共有された他の撮像装置の動画像データを、自分の動画像データと関連付けて把握することができ、編集作業時等に選別された各動画像データの中からさらに、どの動画像データを採用するかの判断等をより簡便に行うことができる。   As described above, according to the imaging device 1, the moving image data selected by the second shared moving image data selection process is shared with other imaging devices, and the moving image data of the imaging device 1 is temporally related. Displayed in association with. Therefore, the user can grasp the moving image data of other shared image capturing devices in association with his / her moving image data in the time zone when he / she did not take an image, and was selected at the time of editing work, etc. It is possible to more easily determine which moving image data is to be adopted from each moving image data.

上述の例では、判定部402が他の撮像装置が撮像中でない場合に、撮像されている動画像データを共有の対象としたが、反対に、判定部402が他の撮像部も撮像中であると判定した場合に、撮像された動画像データを共有の対象とするようにしてもよい。   In the above example, when the determination unit 402 is not capturing an image from another imaging device, the captured moving image data is a target to be shared. Conversely, the determination unit 402 is also capturing another image capturing unit. If it is determined that there is, the captured moving image data may be the target of sharing.

このような構成とすることで、自分が撮像した動画像データと同じ時間帯の他のユーザの動画像データを共有対象とし、他のユーザが自分よりも上手く撮像した動画像データ等、編集作業時の差替えの対象となる動画像データを自動的に選別して取得することができる。   With this configuration, editing work such as moving image data that other users have captured better than their own, with moving image data of other users in the same time zone as the moving image data captured by themselves It is possible to automatically select and acquire moving image data to be replaced at the time.

1、2、3 撮像装置
100 撮像部
202 音声・画像処理部
206 メインメモリ
208 ジャイロセンサ
209 時計
210 手ぶれ補正部
301 カードI/F
302 カード型記録媒体
303 入出力I/F
304 液晶モニタ
306 操作部
307 入出力端子
308 代表画像生成部
309 無線I/F
310 無線モジュール
400 中央制御部
401 グループ化部
402 判定部
403 顔検出部
404 顔認識部
405 共有条件設定部
406 共有データ選別部
407 顔画像DB
1, 2, 3 Imaging device 100 Imaging unit 202 Audio / image processing unit 206 Main memory 208 Gyro sensor 209 Clock 210 Camera shake correction unit 301 Card I / F
302 Card type recording medium 303 Input / output I / F
304 LCD Monitor 306 Operation Unit 307 Input / Output Terminal 308 Representative Image Generation Unit 309 Wireless I / F
310 wireless module 400 central control unit 401 grouping unit 402 determination unit 403 face detection unit 404 face recognition unit 405 sharing condition setting unit 406 shared data selection unit 407 face image DB

Claims (8)

被写体の動画像データを撮像する撮像部と、
前記撮像部が撮像した動画像データを共有するグループを外部の撮像装置との間で形成するグループ化部と、
前記グループ化部が形成したグループ内の前記外部の撮像装置との間で共有する動画像データとして、所定の被写体が所定の態様で撮像された動画像データを選択するための条件を設定する共有条件設定部と、
前記共有条件設定部が設定した条件に基づいて、前記撮像部が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別する共有データ選別部と、
前記共有データ選別部が選別した前記共有動画像データを前記グループ内の前記外部の撮像装置に送信する送信部と
前記グループ化部が形成したグループ内の前記外部の撮像装置が撮像を行っているか否かを判定する判定部と
を備え、
前記判定部が前記外部の撮像装置が撮像を行っていないと判定した場合に、前記共有データ選別部は、前記共有条件設定部が設定した条件に基づいて、前記撮像部が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別することを特徴とする撮像装置。
An imaging unit that captures moving image data of a subject;
A grouping unit that forms a group that shares moving image data captured by the imaging unit with an external imaging device;
Sharing for setting a condition for selecting moving image data in which a predetermined subject is imaged in a predetermined manner as moving image data shared with the external imaging device in the group formed by the grouping unit A condition setting section;
Based on the conditions set by the sharing condition setting unit, a shared data sorting unit that sorts the portion to be shared as shared moving image data from the moving image data captured by the imaging unit;
Whether the shared moving image data selected by the shared data selection unit is transmitting to the external imaging device in the group and whether the external imaging device in the group formed by the grouping unit is imaging A determination unit for determining whether or not
When the determination unit determines that the external imaging apparatus is not capturing an image, the shared data selection unit is configured to detect the moving image data captured by the imaging unit based on a condition set by the sharing condition setting unit. The image pickup apparatus is characterized in that the portion to be shared is selected as shared moving image data.
被写体の動画像データを撮像する撮像部と、
前記撮像部が撮像した動画像データを共有するグループを外部の撮像装置との間で形成するグループ化部と、
前記グループ化部が形成したグループ内の前記外部の撮像装置との間で共有する動画像データとして、所定の被写体が所定の態様で撮像された動画像データを選択するための条件を設定する共有条件設定部と、
前記共有条件設定部が設定した条件に基づいて、前記撮像部が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別する共有データ選別部と、
前記共有データ選別部が選別した前記共有動画像データを前記グループ内の前記外部の撮像装置に送信する送信部と
前記グループ化部が形成したグループ内の前記外部の撮像装置が撮像を行っているか否かを判定する判定部と
を備え
前記判定部が前記外部の撮像装置が撮像を行っていると判定した場合に、前記共有データ選別部は、前記共有条件設定部が設定した条件に基づいて、前記撮像部が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別することを特徴とする撮像装置。
An imaging unit that captures moving image data of a subject;
A grouping unit that forms a group that shares moving image data captured by the imaging unit with an external imaging device;
Sharing for setting a condition for selecting moving image data in which a predetermined subject is imaged in a predetermined manner as moving image data shared with the external imaging device in the group formed by the grouping unit A condition setting section;
Based on the conditions set by the sharing condition setting unit, a shared data sorting unit that sorts the portion to be shared as shared moving image data from the moving image data captured by the imaging unit;
Whether the shared moving image data selected by the shared data selection unit is transmitting to the external imaging device in the group and whether the external imaging device in the group formed by the grouping unit is imaging A determination unit that determines whether or not the shared data selection unit is based on a condition set by the sharing condition setting unit when the determination unit determines that the external imaging device is capturing an image. An imaging apparatus, wherein the portion to be shared is selected as shared moving image data from moving image data captured by the imaging unit.
前記撮像部が撮像した動画像データから被写体の顔画像データを検出する顔検出部をさらに備え、
前記共有条件設定部は、前記顔検出部が検出した顔画像データを前記グループ化部が形成したグループ内の前記外部の撮像装置との間で共有する動画像データの条件に使用することを特徴とする請求項1から請求項2のいずれか1項に記載の撮像装置。
A face detection unit for detecting face image data of a subject from moving image data captured by the imaging unit;
The sharing condition setting unit uses the face image data detected by the face detection unit as a condition of moving image data shared with the external imaging device in the group formed by the grouping unit. The imaging apparatus according to any one of claims 1 to 2.
予め定められた人物の顔画像データを記憶する記憶部と、
前記顔検出部が検出した顔画像データと前記記憶部に記憶された前記顔画像データとを比較し、前記顔検出部が検出した顔画像データが前記予め定められた人物のものであるかどうかを判定し、前記予め定められた人物のものであると判定した場合は、前記撮像部が撮像した動画像データの被写体は前記記憶部に顔画像データを記憶された人物のものであると認識する顔認識部とをさらに備え、
前記共有条件設定部は、前記顔認識部の認識結果を前記グループ化部が形成したグループ内の前記外部の撮像装置との間で共有する動画像データの条件に使用することを特徴とする請求項3に記載の撮像装置。
A storage unit for storing face image data of a predetermined person;
The face image data detected by the face detection unit is compared with the face image data stored in the storage unit, and whether the face image data detected by the face detection unit is that of the predetermined person And the subject of the moving image data captured by the imaging unit is recognized as that of a person whose face image data is stored in the storage unit And a face recognition unit that
The sharing condition setting unit uses a recognition result of the face recognition unit as a condition of moving image data shared with the external imaging device in the group formed by the grouping unit. Item 4. The imaging device according to Item 3.
第1の撮像装置及び第2の撮像装置を含む撮像データ共有システムであって、
前記第1の撮像装置は、
被写体の動画像データを撮像する撮像部と、
前記撮像部が撮像した動画像データを共有するグループを前記第2の撮像装置との間で形成するグループ化部と、
前記第2の撮像装置との間で共有する動画像データとして、所定の被写体が所定の態様で撮像された動画像データを選択するための条件を設定する共有条件設定部と、
前記共有条件設定部が設定した条件に基づいて、前記撮像部が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別する共有データ選別部と、
前記共有データ選別部が選別した前記共有動画像データを前記第2の撮像装置に送信する送信部と、
前記第2の撮像装置が撮像を行っているか否かを判定する判定部とを備え、
前記第2の撮像装置は、前記第1の撮像装置から送信された前記共有動画像データを受信する受信部を備え
前記判定部が撮像を行っていないと判定した場合に、前記共有データ選別部は、前記共有条件設定部が設定した条件に基づいて、前記撮像部が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別することを特徴とする撮像データ共有システム
An imaging data sharing system including a first imaging device and a second imaging device,
The first imaging device includes:
An imaging unit that captures moving image data of a subject;
A grouping unit that forms a group that shares moving image data captured by the imaging unit with the second imaging device;
A sharing condition setting unit that sets a condition for selecting moving image data in which a predetermined subject is imaged in a predetermined manner as moving image data shared with the second imaging device;
Based on the conditions set by the sharing condition setting unit, a shared data sorting unit that sorts the portion to be shared as shared moving image data from the moving image data captured by the imaging unit;
A transmission unit that transmits the shared moving image data selected by the shared data selection unit to the second imaging device;
A determination unit that determines whether or not the second imaging device is imaging,
The second imaging device includes a reception unit that receives the shared moving image data transmitted from the first imaging device, and the shared data selection unit when the determination unit determines that imaging is not performed. The imaging data sharing system, wherein, based on the condition set by the sharing condition setting unit, the portion to be shared is selected as shared moving image data from the moving image data captured by the imaging unit.
第1の撮像装置及び第2の撮像装置を含む撮像データ共有システムであって、
前記第1の撮像装置は、
被写体の動画像データを撮像する撮像部と、
前記撮像部が撮像した動画像データを共有するグループを前記第2の撮像装置との間で形成するグループ化部と、
前記第2の撮像装置との間で共有する動画像データとして、所定の被写体が所定の態様で撮像された動画像データを選択するための条件を設定する共有条件設定部と、
前記共有条件設定部が設定した条件に基づいて、前記撮像部が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別する共有データ選別部と、
前記共有データ選別部が選別した前記共有動画像データを前記第2の撮像装置に送信する送信部と
前記第2の撮像装置が撮像を行っているか否かを判定する判定部とを備え、
前記第2の撮像装置は、前記第1の撮像装置から送信された前記共有動画像データを受信する受信部を備え
前記判定部が撮像を行っていると判定した場合に、前記共有データ選別部は、前記共有条件設定部が設定した条件に基づいて、前記撮像部が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別することを特徴とする撮像データ共有システム。
An imaging data sharing system including a first imaging device and a second imaging device,
The first imaging device includes:
An imaging unit that captures moving image data of a subject;
A grouping unit that forms a group that shares moving image data captured by the imaging unit with the second imaging device;
A sharing condition setting unit that sets a condition for selecting moving image data in which a predetermined subject is imaged in a predetermined manner as moving image data shared with the second imaging device;
Based on the conditions set by the sharing condition setting unit, a shared data sorting unit that sorts the portion to be shared as shared moving image data from the moving image data captured by the imaging unit;
A transmission unit that transmits the shared moving image data selected by the shared data selection unit to the second imaging device, and a determination unit that determines whether or not the second imaging device is imaging,
The second imaging device includes a receiving unit that receives the shared moving image data transmitted from the first imaging device. When the determination unit determines that imaging is performed, the shared data selection unit The imaging data sharing system characterized in that, based on the conditions set by the sharing condition setting unit, the portion to be shared is selected as shared moving image data from the moving image data captured by the imaging unit.
撮像部に動画像データを撮像させ、
前記撮像部に撮像させた動画像データを共有するグループを外部の撮像装置との間で形成させ、
前記形成させたグループ内の前記外部の撮像装置との間で共有する動画像データとして、所定の被写体が所定の態様で撮像された動画像データを選択するための条件を設定させ、
前記設定させた条件に基づいて、前記撮像部に撮像させた動画像データから前記共有の対象となる部分を共有動画像データとして選別させ、
前記形成させたグループ内の前記外部の撮像装置が撮像を行っているか否かを判定させ、
前記外部の撮像装置が撮像を行っていないと判定した場合に、前記条件に基づいて、前記撮像部が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別させ、
前記選別させた共有動画像データを前記形成させたグループ内の前記外部の撮像装置に送信させる処理をコンピュータに実行させるプログラム。
Let the imaging unit capture moving image data,
A group for sharing moving image data captured by the imaging unit is formed with an external imaging device,
As moving image data shared with the external imaging device in the formed group, a condition for selecting moving image data in which a predetermined subject is imaged in a predetermined mode is set,
Based on the set condition, the portion to be shared is selected as shared moving image data from moving image data captured by the imaging unit,
To determine whether performing imaging the outside of the imaging device in the group obtained by the formation,
When said external imaging apparatus is determined not to perform imaging, based on the condition, the imaging unit is selecting interesting portions of the shared from the moving image data captured as a shared moving image data,
A program for causing a computer to execute processing for transmitting the selected shared moving image data to the external imaging device in the formed group.
撮像部に動画像データを撮像させ、
前記撮像部に撮像させた動画像データを共有するグループを外部の撮像装置との間で形成させ、
前記形成させたグループ内の前記外部の撮像装置との間で共有する動画像データとして、所定の被写体が所定の態様で撮像された動画像データを選択するための条件を設定させ、
前記設定させた条件に基づいて、前記撮像部に撮像させた動画像データから前記共有の対象となる部分を共有動画像データとして選別させ、
前記形成させたグループ内の前記外部の撮像装置が撮像を行っているか否かを判定させ、前記外部の撮像装置が撮像を行っていると判定した場合に、前記条件に基づいて、前記撮像部が撮像した動画像データから前記共有の対象となる部分を共有動画像データとして選別させ、
前記選別させた共有動画像データを前記形成させたグループ内の前記外部の撮像装置に送信させる処理をコンピュータに実行させるプログラム。
Let the imaging unit capture moving image data,
A group for sharing moving image data captured by the imaging unit is formed with an external imaging device,
As moving image data shared with the external imaging device in the formed group, a condition for selecting moving image data in which a predetermined subject is imaged in a predetermined mode is set,
Based on the set condition, the portion to be shared is selected as shared moving image data from moving image data captured by the imaging unit,
When the outside of the imaging device in the group was the formation to determine whether performing image pickup, the outside of the imaging device is determined to be performed imaging, based on the condition, the imaging unit Selecting the portion to be shared as moving image data from moving image data captured by
A program for causing a computer to execute processing for transmitting the selected shared moving image data to the external imaging device in the formed group.
JP2011101960A 2011-04-28 2011-04-28 Imaging apparatus, imaging data sharing system, and program Active JP5724592B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011101960A JP5724592B2 (en) 2011-04-28 2011-04-28 Imaging apparatus, imaging data sharing system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011101960A JP5724592B2 (en) 2011-04-28 2011-04-28 Imaging apparatus, imaging data sharing system, and program

Publications (2)

Publication Number Publication Date
JP2012235282A JP2012235282A (en) 2012-11-29
JP5724592B2 true JP5724592B2 (en) 2015-05-27

Family

ID=47435194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011101960A Active JP5724592B2 (en) 2011-04-28 2011-04-28 Imaging apparatus, imaging data sharing system, and program

Country Status (1)

Country Link
JP (1) JP5724592B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5720711B2 (en) * 2013-03-21 2015-05-20 カシオ計算機株式会社 Imaging apparatus, communication method and program, and communication system
JP5979396B2 (en) * 2014-05-27 2016-08-24 パナソニックIpマネジメント株式会社 Image photographing method, image photographing system, server, image photographing device, and image photographing program
JP6572625B2 (en) * 2014-06-20 2019-09-11 株式会社バッファロー Wireless connection apparatus, network system, and wireless connection apparatus control method
KR102226820B1 (en) * 2014-08-20 2021-03-11 삼성전자주식회사 Method for sharing data and electronic device thereof
KR20180111359A (en) * 2017-03-31 2018-10-11 진현호 Apparatus for photo angle guide
CN117897949A (en) * 2021-08-31 2024-04-16 富士胶片株式会社 Display control device, display control method, and display control program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4522344B2 (en) * 2004-11-09 2010-08-11 キヤノン株式会社 Imaging apparatus, control method thereof, and program thereof
JP2007174026A (en) * 2005-12-20 2007-07-05 Sony Corp Image collection system, electronic equipment, image transmission method, program, and recording medium

Also Published As

Publication number Publication date
JP2012235282A (en) 2012-11-29

Similar Documents

Publication Publication Date Title
US11343387B2 (en) Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
JP5724592B2 (en) Imaging apparatus, imaging data sharing system, and program
JP4640456B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
JP5056061B2 (en) Imaging device
US9251765B2 (en) Image processing device, image processing method, and program for generating composite image
EP2215843B1 (en) System and method for generating a photograph with variable image quality
JP5401420B2 (en) Imaging device
WO2010038112A1 (en) System and method for capturing an emotional characteristic of a user acquiring or viewing multimedia content
US9014475B2 (en) Image pickup apparatus and photographing method of image pickup apparatus
JP2010171797A (en) Imaging apparatus and program
JP2013258510A (en) Imaging device, and method and program of controlling the same
CN104811605B (en) Camera device, camera shooting control method and recording medium
JPWO2020158069A1 (en) Imaging device, imaging method, and program
JP6319491B2 (en) Imaging apparatus and control method
JP2011119936A (en) Photographing device and reproducing method
JP2010097449A (en) Image composition device, image composition method and image composition program
JP2014072642A (en) Moving image data processing system, moving image data transmission device, and moving image data reception device
JP2007295289A (en) Camera
US11595565B2 (en) Image capturing apparatus, method for controlling the same, and recording medium for automatic image capturing of a subject
JP2014183426A (en) Data processing apparatus, control method, and program
JP2012216936A (en) Imaging apparatus and program
JP5874887B2 (en) Image processing apparatus, image processing system, and image processing method
JP7003286B2 (en) Shooting equipment, shooting method, and program
KR20130101707A (en) Photographing apparatus, electronic apparatus, method for generation of video, and method for display of thumbnail
JP2012129854A (en) Imaging apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150316

R150 Certificate of patent or registration of utility model

Ref document number: 5724592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150