JP5331532B2 - Portable device - Google Patents

Portable device Download PDF

Info

Publication number
JP5331532B2
JP5331532B2 JP2009072415A JP2009072415A JP5331532B2 JP 5331532 B2 JP5331532 B2 JP 5331532B2 JP 2009072415 A JP2009072415 A JP 2009072415A JP 2009072415 A JP2009072415 A JP 2009072415A JP 5331532 B2 JP5331532 B2 JP 5331532B2
Authority
JP
Japan
Prior art keywords
face
data
image
unit
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009072415A
Other languages
Japanese (ja)
Other versions
JP2010226498A (en
Inventor
利廣 尾方
雄介 関川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2009072415A priority Critical patent/JP5331532B2/en
Priority to CN2010101216024A priority patent/CN101848324B/en
Priority to CN201210244285.4A priority patent/CN102769734B/en
Priority to CN201210244282.0A priority patent/CN102769733B/en
Publication of JP2010226498A publication Critical patent/JP2010226498A/en
Application granted granted Critical
Publication of JP5331532B2 publication Critical patent/JP5331532B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

The invention provides a portable equipment which is characterized by including: an imaging portion (1) which shoots objects and generates image data; a display portion (15) which displays image data; a communication portion (19) which is communicated with an external equipment; a transmission processing portion (243) which transmits image data displayed on the display portion (15) via the communication portion (19) to the external equipment for processing; and a display processing portion (20) which acquires information stored in the external equipment and relative to the face portion via the communication portion (19) and updates display of the display portion (15) according to acquired information relative to the face portion.

Description

本発明は、コンテンツデータを外部機器に送信する携帯機器に関するものである。   The present invention relates to a portable device that transmits content data to an external device.

従来から、例えばカメラ付きの携帯電話機等の携帯機器で撮影した画像データを、他の携帯機器やパソコン等の外部機器に送信するといったことが一般的に行われている。また、特許文献1には、外部機器との通信を行って受信した画像データに送信元情報を関連付けて記憶しておき、あるいは外部機器との通信を行ってその外部機器に送信した画像データに送信先情報を関連付けて記憶しておく画像データ管理装置が開示されている。この特許文献1の画像データ管理装置では、画像データに関連付けられた送信元情報や送信先情報をもとに、外部機器から転送されてきた画像データ、あるいは以前外部機器へ転送したことがある画像データを削除するようにしている。   Conventionally, for example, image data taken by a mobile device such as a camera-equipped mobile phone is generally transmitted to another mobile device or an external device such as a personal computer. In Patent Document 1, transmission source information is stored in association with image data received through communication with an external device, or image data transmitted to the external device through communication with an external device is stored. An image data management apparatus that stores transmission destination information in association with each other is disclosed. In the image data management apparatus disclosed in Patent Document 1, based on transmission source information and transmission destination information associated with image data, image data transferred from an external device, or an image that has been transferred to an external device before. The data is deleted.

特許第4077924号公報Japanese Patent No. 4077924

ところで、集合写真等、複数の人物が映る画像を携帯機器で撮影した場合、撮影した画像データをその画像に映る人物が所有する携帯機器に送信することが想定される。ここで、単にその人物の所有する携帯機器と通信して画像データを送信するだけでは、誰に画像データを送信したのかを後で知ることができない。このため、ユーザは、送信した人物を覚えておかなければならなかった。また、忘れて再度送信する無駄が生じる場合もあった。   By the way, when an image showing a plurality of persons such as a group photo is taken with a mobile device, it is assumed that the taken image data is transmitted to a mobile device owned by the person shown in the image. Here, by simply communicating with a portable device owned by the person and transmitting the image data, the person who transmitted the image data cannot be known later. For this reason, the user had to remember the person who sent it. In addition, there is a case where there is a waste of forgetting to transmit again.

本発明は、上記に鑑みてなされたものであって、同じコンテンツデータを同じ外部機器に対して重複して送信する無駄を低減することができる携帯機器を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a portable device that can reduce waste of redundantly transmitting the same content data to the same external device.

上述した課題を解決し、目的を達成するため、本発明にかかる携帯機器は、被写体像を撮像して画像データを生成する撮像部と、外部機器との間で無線通信を行う無線通信部と、前記無線通信部を介し、前記画像データを前記外部機器に送信する処理を行う送信処理部と、前記画像データに対応する画像内にがある場合に、前記外部機器の所有者であるユーザの顔に対応する顔照合データを、前記外部機器から前記無線通信部を介して取得し、前記顔照合データに対応するユーザを前記外部機器の所有者として登録する取得処理部と、前記外部機器に送信した前記画像データに対応する画像を表示部に表示させるとともに、前記外部機器の所有者であると登録されたユーザへは前記画像データを送信済みであることが識別できるように、前記画像データに対応する画像内において前記外部機器の所有者であると登録されたユーザの画像と前記外部機器の所有者とは登録されていないユーザの画像とを識別可能に表示部に表示させる表示処理部と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, a portable device according to the present invention includes an imaging unit that captures a subject image and generates image data, and a wireless communication unit that performs wireless communication with an external device. A transmission processing unit for performing processing for transmitting the image data to the external device via the wireless communication unit , and a user who is the owner of the external device when a face is present in the image corresponding to the image data the matching of the face data corresponding to the face, and the acquired via the wireless communication unit from the external device, acquisition processing unit for registering a user corresponding to the face collation data as the owner of the external device, the external device corresponding to the image data transmitted to together make display on the display unit an image, as above to users registered as the owner of the external device can be identified that is already transmitting the image data, before Displayed on the owner and distinguishably display the user's face image that has not been registered in the owner and registered user's face image the external device of the external apparatus in the image corresponding to the image data And a display processing unit.

また、本発明にかかる携帯機器は、上記の発明において、前記顔照合データは、前記外部機器の所有者であると登録されたユーザの前記画像データ中における顔の位置データを含むことを特徴とする。 The portable device according to the present invention is characterized in that, in the above-mentioned invention, the face matching data includes face position data in the image data of a user registered as an owner of the external device. To do.

また、本発明にかかる携帯機器は、上記の発明において、前記顔照合データは、前記外部機器の所有者であると登録されたユーザの顔領域を前記画像から切り出した顔画像データを含むことを特徴とする。 In the portable device according to the present invention, in the above invention, the face collation data includes face image data obtained by cutting out a face area of a user registered as an owner of the external device from the image. Features.

また、本発明にかかる携帯機器は、上記の発明において、前記顔照合データは、
前記外部機器の所有者であると登録されたユーザの前記画像データ中における顔の位置データを含み、前記取得処理部は、前記無線通信部を介し、前記外部機器から該外部機器を識別するための機器データを取得する機器データ取得処理部と、前記顔照合データに含まれる顔の位置データをもとに前記画像データ中から切り出した顔画像データを、前記機器データ取得処理部によって取得された前記外部機器の機器データと対応付けて前記外部機器の所有者の顔として登録する処理を行う登録処理部と、を有することを特徴とする。
Further, in the portable device according to the present invention, in the above invention, the face matching data is
Including face position data in the image data of the user registered as the owner of the external device , and the acquisition processing unit identifies the external device from the external device via the wireless communication unit A device data acquisition processing unit for acquiring the device data, and face image data cut out from the image data based on the position data of the face included in the face matching data was acquired by the device data acquisition processing unit and having a registration processing section for performing processing for registering a face of the owner of the external device in association with the device data of the external device.

また、本発明にかかる携帯機器は、上記の発明において、前記画像データに対応する画像を表示可能な表示部をさらに備え、前記表示処理部は、前記表示部の表示画面を2分割し、一方の表示画面に前記画像データに対応する画像を表示させるとともに、他方の表示画面に前記一方の表示画面で表示している前記画像データが送信された前記外部機器の所有者を表すユーザの顔のサムネイル画像を表示させることを特徴とする。 The portable device according to the present invention further includes a display unit capable of displaying an image corresponding to the image data in the above invention , wherein the display processing unit divides the display screen of the display unit into two parts, An image corresponding to the image data is displayed on the display screen of the user, and the face of the user representing the owner of the external device to which the image data displayed on the one display screen is transmitted to the other display screen is displayed. A thumbnail image is displayed.

また、本発明にかかる携帯機器は、上記の発明において、前記表示処理部は、前記取得された機器データに対応する顔画像データが前記登録処理部によって既に登録されている場合に、前記取得された機器データに対応する顔画像データに対応する顔を所有者として前記画像データとともに前記表示部に表示させることを特徴とする。 In the portable device according to the present invention, in the above invention, the display processing unit acquires the face image data corresponding to the acquired device data when the registration processing unit has already registered the face image data. The face corresponding to the face image data corresponding to the device data is displayed on the display unit together with the image data as the owner .

また、本発明にかかる携帯機器は、上記の発明において、当該携帯機器自身の所有者に対応する顔の特徴情報を自機顔データとして記録する自機顔データ記録部と、前記無線通信部を介し、前記外部機器から画像データを受信する処理を行う受信処理部と、前記受信処理部が受信した前記画像データデータがまれる場合に、該顔データを前記自機顔データ記録部に記録されている自機顔データと照合して前記画像データ中に含まれる自機ユーザの顔を当該携帯機器自身の所有者たる自機顔データとして認識する人物認識部と、前記人物認識部によって当該携帯機器自身の所有者たる自機顔データを認識した場合に、該認識した自機顔データの前記画像データ中における位置を表す位置データを顔照合データとして前記外部機器に送信する処理を行う顔照合データ送信処理部と、をさらに備えることを特徴とする。 In the portable device according to the present invention, in the above-described invention, the own device face data recording unit that records facial feature information corresponding to the owner of the portable device itself as own device face data , and the wireless communication unit through the and reception processing unit that performs processing for receiving image data from an external device, face data when containing Murrell to the image data which the reception processing unit receives, said said pigment data ship face data storage unit recognizing the person recognizing unit are recorded against the ship face data face of its own user included in the image data as a ship face data serving owner of the mobile device itself, the person recognizing section be transmitted when recognizing the ship face data serving owner of the mobile device itself, the external device position data representing a position in the in the image data of its own face data the recognized face collation data by A face collation data transmission processing unit that performs processing, and further comprising a.

また、本発明にかかる携帯機器は、上記の発明において、当該携帯機器自身の所有者に対応する自機ユーザの顔の特徴情報を記録する自機顔データ記録部と、前記無線通信部を介し、前記外部機器から画像データを受信する処理を行う受信処理部と、前記画像データが顔を含む場合に、該顔を前記自機顔データ記録部に記録されている顔の特徴情報と照合して前記画像データ中に含まれる自機ユーザの顔を認識する人物認識部と、前記人物認識部によって前記画像データ中で自機ユーザの顔を認識した場合に、該認識した顔領域を前記画像から切り出した顔画像データを顔照合データとして前記外部機器に送信する処理を行う顔照合データ送信処理部と、を備えることを特徴とする。 The portable device according to the present invention is the portable device according to the present invention described above, through the own device face data recording unit that records the facial feature information of the own device user corresponding to the owner of the portable device, and the wireless communication unit. A reception processing unit that performs processing for receiving image data from the external device, and, when the image data includes a face, the face is collated with face feature information recorded in the own device face data recording unit. the image recognizing person recognizing portion the face of the own device users included in the data, when recognizing the face of its own user in the image data by the person recognizing unit, wherein the recognized face area image Te And a face matching data transmission processing unit for performing processing for transmitting face image data cut out from the image as face matching data to the external device.

本願によれば、ーザが、画像データ中の顔の人物が所有する外部機器にその画像データを送信済みであるか否かを確認することができる。これによって、同じコンテンツデータを同じ外部機器に対して重複して送信する無駄を低減することができるという効果を奏する。 According to the present, Yu chromatography The is a person's face in the image data can be confirmed whether or not been sent to the image data to the external device owned. As a result, it is possible to reduce the waste of redundantly transmitting the same content data to the same external device.

図1は、本発明の携帯機器を適用したデジタルカメラの前面側を示す概略斜視図である。FIG. 1 is a schematic perspective view showing the front side of a digital camera to which the portable device of the present invention is applied. 図2は、デジタルカメラの背面側を示す概略斜視図である。FIG. 2 is a schematic perspective view showing the back side of the digital camera. 図3は、デジタルカメラが、他のデジタルカメラと通信を行う様子を示した図である。FIG. 3 is a diagram illustrating how the digital camera communicates with another digital camera. 図4は、デジタルカメラの主要内部構成の一例を示すブロック図である。FIG. 4 is a block diagram illustrating an example of a main internal configuration of the digital camera. 図5は、画像ファイルのデータ構成例を示す図である。FIG. 5 is a diagram illustrating a data configuration example of an image file. 図6は、通信履歴データのデータ構成例を示す図である。FIG. 6 is a diagram illustrating a data configuration example of communication history data. 図7は、撮影人物画像送信情報のデータ構成例を示す図である。FIG. 7 is a diagram illustrating a data configuration example of photographed person image transmission information. 図8は、デジタルカメラ間の通信の概要を説明する図である。FIG. 8 is a diagram for explaining an outline of communication between digital cameras. 図9は、デジタルカメラ間の通信の概要を説明する他の図である。FIG. 9 is another diagram illustrating an outline of communication between digital cameras. 図10は、デジタルカメラが行う基本処理の手順を示すフローチャートである。FIG. 10 is a flowchart showing a procedure of basic processing performed by the digital camera. 図11は、撮影モード処理の詳細な処理手順を示すフローチャートである。FIG. 11 is a flowchart showing a detailed processing procedure of the shooting mode processing. 図12は、通信履歴仮記録処理の詳細な処理手順を示すフローチャートである。FIG. 12 is a flowchart showing a detailed processing procedure of the communication history temporary recording process. 図13は、データ送信処理の詳細な処理手順を示すフローチャートである。FIG. 13 is a flowchart showing a detailed processing procedure of data transmission processing. 図14は、送信判定処理の詳細な処理手順を示すフローチャートである。FIG. 14 is a flowchart illustrating a detailed processing procedure of the transmission determination process. 図15は、顔/機器対応付け処理の詳細な処理手順を示すフローチャートである。FIG. 15 is a flowchart showing a detailed processing procedure of the face / device association processing. 図16は、データ受信処理の詳細な処理手順を示すフローチャートである。FIG. 16 is a flowchart showing a detailed processing procedure of data reception processing. 図17は、再生モード処理の詳細な処理手順を示すフローチャートである。FIG. 17 is a flowchart showing a detailed processing procedure of the playback mode processing. 図18は、画像再生処理の詳細な処理手順を示すフローチャートである。FIG. 18 is a flowchart showing a detailed processing procedure of the image reproduction processing. 図19は、データ一括送信処理の詳細な処理手順を示すフローチャートである。FIG. 19 is a flowchart showing a detailed processing procedure of the data batch transmission processing. 図20は、変形例1における撮影人物画像の表示画面例を示す図である。FIG. 20 is a diagram illustrating a display screen example of a photographed person image in the first modification. 図21は、変形例2における撮影人物画像の表示画面例を示す図である。FIG. 21 is a diagram illustrating a display screen example of a photographed person image in the second modification. 図22は、変形例3におけるデータ送信処理の詳細な処理手順を示すフローチャートである。FIG. 22 is a flowchart showing a detailed processing procedure of data transmission processing in the third modification. 図23は、変形例3における画像データの確認表示の際の表示画面例を示す図である。FIG. 23 is a diagram illustrating an example of a display screen when confirming and displaying image data in the third modification. 図24は、デジタルカメラが、パソコンと通信を行う様子を示した図である。FIG. 24 is a diagram illustrating how the digital camera communicates with a personal computer.

以下、図面を参照し、本発明の好適な実施の形態について詳細に説明する。なお、この実施の形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. Note that the present invention is not limited to the embodiments. Moreover, in description of each drawing, the same code | symbol is attached | subjected and shown to the same part.

(実施の形態)
図1は、本発明の携帯機器を適用したデジタルカメラ1の前面側を示す概略斜視図であり、図2は、デジタルカメラ1の背面側を示す概略斜視図である。図1に示すように、デジタルカメラ1は、カメラ本体3の前面に撮像レンズ4が配設され、この撮像レンズ4を通して入射する被写体像を撮像する撮像部11(図4を参照)をカメラ本体3の内部に備えている。一方、カメラ本体3の上面には、撮影タイミングを指示するためのレリーズスイッチ5が配設されている。そして、カメラ本体3の背面には、各種画面を表示する表示部15、電源投入やモードの選択といった各種操作を入力するための固有の機能が割り当てられた複数のボタンスイッチ7等が配設されている。
(Embodiment)
FIG. 1 is a schematic perspective view showing the front side of a digital camera 1 to which the portable device of the present invention is applied, and FIG. 2 is a schematic perspective view showing the back side of the digital camera 1. As shown in FIG. 1, the digital camera 1 has an imaging lens 4 disposed on the front surface of the camera body 3, and an imaging unit 11 (see FIG. 4) that captures a subject image incident through the imaging lens 4. 3 is provided. On the other hand, a release switch 5 is provided on the upper surface of the camera body 3 for instructing photographing timing. On the back of the camera body 3, a display unit 15 for displaying various screens, a plurality of button switches 7 to which unique functions for inputting various operations such as power-on and mode selection are assigned. ing.

そして、デジタルカメラ1の電源を投入(ON)し、撮影モードを選択すると、デジタルカメラ1は撮影可能な状態となる。撮影モードでは、撮像レンズ4を通して入射する被写体像がライブビュー画像としてリアルタイムに表示部15に表示されるようになっており、ユーザは、ライブビュー画像を見ながらレリーズスイッチ5を押下して静止画や動画の撮影を行う。あるいは、デジタルカメラ1の動作モードを再生モードに切り換え、撮影した静止画や動画を表示部15に表示(再生)して楽しむ。   When the digital camera 1 is turned on (ON) and the shooting mode is selected, the digital camera 1 is ready for shooting. In the shooting mode, a subject image incident through the imaging lens 4 is displayed on the display unit 15 in real time as a live view image, and the user presses the release switch 5 while viewing the live view image to display a still image. And video recording. Alternatively, the operation mode of the digital camera 1 is switched to the reproduction mode, and the photographed still image or moving image is displayed (reproduced) on the display unit 15 for enjoyment.

また、デジタルカメラ1は、図1に示すように、カメラ本体3内部の所定位置において、他のデジタルカメラ1やパソコン、携帯電話機、テレビ等の外部機器との間で近接無線通信を行うための無線通信部19を内蔵している。この無線通信部19は、カメラ本体3内部の適所において、そのアンテナを外装面側に向けるようにして配置される。図1の例では、無線通信部19は、カメラ本体3の底面側の一方の角部に配置している。このように無線通信部19を装置筐体の角部に配置することによって、ユーザは、無線通信部19を介した通信を行う際に通信相手の機器との間の位置決めがし易く、位置ズレによる通信の失敗を抑制できる。   In addition, as shown in FIG. 1, the digital camera 1 is for performing close proximity wireless communication with other digital cameras 1 and external devices such as a personal computer, a mobile phone, and a television at a predetermined position inside the camera body 3. A wireless communication unit 19 is incorporated. The wireless communication unit 19 is arranged at an appropriate position inside the camera body 3 so that its antenna faces the exterior surface side. In the example of FIG. 1, the wireless communication unit 19 is disposed at one corner on the bottom side of the camera body 3. By disposing the wireless communication unit 19 at the corner of the apparatus housing in this way, the user can easily position the communication partner device when performing communication via the wireless communication unit 19, and the positional deviation can be achieved. Communication failure due to can be suppressed.

図3は、デジタルカメラ1が、他のデジタルカメラ1と通信を行う様子を示した図である。図3では、一方をデジタルカメラ1とし、他方をデジタルカメラ1−2としている。図3に示すように、カメラ本体3同士が近づけられて各々の無線通信部19が互いの通信可能圏内に近接されると、これらの間の通信が確立するようになっている。以下、本実施の形態では、外部機器の一例である他のデジタルカメラ1を通信相手としてデータを送受信する場合を例にとって説明し、この通信相手の他のデジタルカメラ1を、適宜「相手カメラ1」と呼ぶ。   FIG. 3 is a diagram illustrating how the digital camera 1 communicates with another digital camera 1. In FIG. 3, one is a digital camera 1 and the other is a digital camera 1-2. As shown in FIG. 3, when the camera bodies 3 are brought close to each other and the wireless communication units 19 are brought close to each other in a communicable area, communication between them is established. Hereinafter, in the present embodiment, a case where data is transmitted / received by using another digital camera 1 as an example of an external device as a communication partner will be described as an example. "

図4は、デジタルカメラ1の主要内部構成の一例を示すブロック図である。図4に示すように、デジタルカメラ1は、撮像部11、画像処理部12、顔検出部13、操作部14、表示部15、時計部16、記録部17、一時記録部18、無線通信部19、制御部20等を備える。   FIG. 4 is a block diagram illustrating an example of a main internal configuration of the digital camera 1. As shown in FIG. 4, the digital camera 1 includes an imaging unit 11, an image processing unit 12, a face detection unit 13, an operation unit 14, a display unit 15, a clock unit 16, a recording unit 17, a temporary recording unit 18, and a wireless communication unit. 19, a control unit 20 and the like.

撮像部11は、撮像レンズ4を通して入射する被写体像を光電変換し、アナログ電気信号を出力するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を含み、撮像素子からのアナログ電気信号をデジタル電気信号に変換して画像データを出力する。   The imaging unit 11 includes an imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) that photoelectrically converts an object image incident through the imaging lens 4 and outputs an analog electric signal. The electrical signal is converted into a digital electrical signal and image data is output.

画像処理部12は、撮像部11から出力された画像データに対して各種の画像処理を施すとともに、記録用や表示用に適した画像データに変換する処理を行う。例えば、撮影画像の画像データを記録する際、あるいは記録されている画像データを表示する際等に、JPEG(Joint Photographic Experts Group)方式等に基づく画像データの圧縮処理や伸張処理を行う。また、画像処理部12は、撮影画像の画像データを縮小処理して表示用の小画像(サムネイル)の画像データ(サムネイルデータ)を生成する処理や、画像データ中の所定の領域を切り出す処理等を行う。   The image processing unit 12 performs various types of image processing on the image data output from the imaging unit 11 and performs processing for converting into image data suitable for recording and display. For example, when recording image data of a photographed image or displaying recorded image data, image data compression processing or decompression processing based on a JPEG (Joint Photographic Experts Group) method or the like is performed. In addition, the image processing unit 12 performs processing for reducing image data of a captured image to generate image data (thumbnail data) of a small image (thumbnail) for display, processing for cutting out a predetermined area in the image data, and the like. I do.

この画像処理部12は、人物認識部121と、顔画像処理部123とを含む。人物認識部121は、画像データについて実行されている顔検出結果(顔特徴情報)を自機データ171として記録部17に登録(記録)されている自機のユーザ(自機ユーザ)の顔特徴情報と照合し、画像データ中の顔が自機ユーザの顔か否かを認識(識別)する処理(人物認識処理)を行う。本実施の形態では、人物認識部121は、相手カメラ1から受信した画像ファイルの画像データについて人物認識処理を行い、その画像データ中に映る自機ユーザの顔を認識する。顔画像処理部123は、撮影人物画像を表示する際、画像データ中の顔のうち、既にその顔の人物が所有する外部機器(本実施の形態では他のデジタルカメラ1)にその画像データ(実際には画像ファイル30)が送信されている顔(送信済みの顔)の近傍位置に、送信済みを示す送信済マークを合成する処理を行う。   The image processing unit 12 includes a person recognition unit 121 and a face image processing unit 123. The person recognizing unit 121 has the facial features of the user of the own device (own device user) registered (recorded) in the recording unit 17 as the own device data 171 with the face detection result (face feature information) executed on the image data. A process of recognizing (identifying) whether or not the face in the image data is the face of the user is performed (person recognition process). In the present embodiment, the person recognizing unit 121 performs person recognition processing on the image data of the image file received from the counterpart camera 1 and recognizes the face of the user of the user shown in the image data. When displaying the photographed person image, the face image processing unit 123 has the image data (in the present embodiment, another digital camera 1) already owned by the face person in the image data. Actually, a process of combining a transmitted mark indicating transmission completion is performed at a position near the face to which the image file 30) has been transmitted (transmitted face).

顔検出部13は、撮影画像の画像データに対して公知技術である顔検出処理を行い、画像データ中に映る顔の領域(顔領域)を検出して顔の特徴情報(顔特徴情報)を抽出する。ここで、顔検出処理は、例えば、パターンマッチングを適用して画像データ中の顔領域を検出し、この顔領域の検出結果をもとに左右の目や鼻、唇等の各顔パーツを検出するものである。画像データ中に複数の顔が含まれる場合には、顔毎に顔特徴情報が得られる。   The face detection unit 13 performs a known face detection process on the image data of the captured image, detects a face area (face area) reflected in the image data, and obtains face feature information (face feature information). Extract. Here, the face detection process detects, for example, a face area in the image data by applying pattern matching, and detects each face part such as the left and right eyes, nose and lips based on the detection result of the face area. To do. When a plurality of faces are included in the image data, face feature information is obtained for each face.

操作部14は、撮影タイミングの指示(撮影指示)、撮影モードや再生モードといったデジタルカメラ1の動作モードの切り換え、相手カメラ1に対するデータの送信指示、撮影条件の設定等、ユーザによる各種操作を受け付けて操作信号を制御部20に通知するためのものである。この操作部14は、図1のレリーズスイッチ5やボタンスイッチ7を含む。   The operation unit 14 accepts various operations by the user, such as a shooting timing instruction (shooting instruction), switching of the operation mode of the digital camera 1 such as a shooting mode and a playback mode, a data transmission instruction to the partner camera 1, and setting of shooting conditions. This is to notify the control unit 20 of the operation signal. The operation unit 14 includes the release switch 5 and the button switch 7 of FIG.

表示部15は、撮影された静止画や動画、ライブビュー画像の他、デジタルカメラ1の各種設定情報等を表示するためのものであり、LCD(Liquid Crystal Display)やELディスプレイ(Electroluminescence Display)等の表示装置で実現される。この表示部15には、撮影モード中は例えば1フレーム毎にライブビュー画像が再描画されて動画的に連続表示され、再生モード中は撮影された静止画や動画が表示される。   The display unit 15 is for displaying various settings information of the digital camera 1 in addition to the captured still image, moving image, and live view image, and includes an LCD (Liquid Crystal Display), an EL display (Electroluminescence Display), and the like. This is realized by the display device. On the display unit 15, for example, a live view image is redrawn every frame during the shooting mode and continuously displayed as a moving image, and a captured still image or moving image is displayed during the reproduction mode.

時計部16は、日付および時刻を計時するためのものである。この時計部16が計時する現在時刻によって撮影時の日付や時刻が特定されるようになっており、撮影画像の画像データは、特定された撮影日時とともに記録部17に記録される。   The clock unit 16 is for measuring the date and time. The date and time at the time of shooting are specified by the current time counted by the clock unit 16, and the image data of the shot image is recorded in the recording unit 17 together with the specified shooting date and time.

記録部17は、更新記録可能なフラッシュメモリやROM等の各種半導体メモリ、内蔵あるいはデータ通信端子で接続されたハードディスク、メモリカード等の記録媒体およびその読み書き装置等によって実現されるものであり、用途に応じた記録装置を適宜採用し、あるいは組み合わせて用いることができる。この記録部17には、デジタルカメラ1を動作させ、このデジタルカメラ1が備える種々の機能を実現するための各種のカメラプログラムや、このカメラプログラムの実行中に使用されるデータ等が記録される。ここで、カメラプログラムは、制御部20を後述する撮影人物画像登録処理部201、相手機器データ取得処理部202、通信履歴仮記録処理部203、データ送受信処理部204、送信判定部241、通信履歴一覧更新部242、画像ファイル送信処理部243、自機顔判定部244および顔/機器対応付け処理部205として機能させるためのプログラムを含む。   The recording unit 17 is realized by various semiconductor memories such as flash memory and ROM that can be updated and recorded, a recording medium such as a built-in hard disk or a memory card connected by a data communication terminal, and a read / write device thereof. The recording apparatus according to the above can be appropriately adopted or used in combination. The recording unit 17 records various camera programs for operating the digital camera 1 and realizing various functions of the digital camera 1, data used during execution of the camera program, and the like. . Here, the camera program includes a photographed person image registration processing unit 201, a counterpart device data acquisition processing unit 202, a communication history temporary recording processing unit 203, a data transmission / reception processing unit 204, a transmission determination unit 241, and a communication history. A program for causing the list updating unit 242, the image file transmission processing unit 243, the own device face determination unit 244, and the face / device association processing unit 205 to function is included.

また、記録部17には、自機データ171が記録される。この自機データ171は、機器データと、自機顔データとを含む。機器データは、自機を識別するためのものであり、例えばデジタルカメラ1の製造時に機器毎に固有に割り当てられる機器IDを用いることができる。なお、機器IDに限らず、デジタルカメラ1を識別可能な情報を適宜機器データとして用いることとしてよい。一方、自機顔データは、自機ユーザの顔が映る画像データから抽出した顔特徴情報である。この自機顔データは、ユーザ操作に従って登録される。手順を説明すると、例えば自機ユーザの顔を実際に撮影することによって、あるいは自機ユーザが映る画像データ中の自機ユーザの顔領域を領域選択することによって自機ユーザの顔画像を指定する。これに応答し、先ず顔検出部13が、指定された顔画像データを顔検出処理し、顔特徴情報を抽出する。そして、制御部20が、得られた顔特徴情報を自機顔データとして記録部17に記録処理するようになっている。   In addition, own data 171 is recorded in the recording unit 17. The own device data 171 includes device data and own device face data. The device data is used to identify the device itself, and for example, a device ID that is uniquely assigned to each device when the digital camera 1 is manufactured can be used. Note that not only the device ID but also information that can identify the digital camera 1 may be appropriately used as device data. On the other hand, the own device face data is face feature information extracted from the image data showing the own user's face. The own device face data is registered in accordance with a user operation. The procedure is described. For example, the user's own face image is designated by actually photographing the user's own user's face, or by selecting the user's own user's face area in the image data reflected by the user's own user. . In response to this, the face detection unit 13 first performs face detection processing on the specified face image data and extracts face feature information. Then, the control unit 20 records the obtained face feature information in the recording unit 17 as its own face data.

また、記録部17には、複数の画像ファイル30である画像情報173が記録される。本実施の形態では、画像処理部12によって記録用に画像処理されたコンテンツデータの一例である撮影画像の画像データは、例えば撮影日時、撮影時に得たGPSデータ、タイトル、コメント、個人情報といったEXIF(Exchangeable Image File)情報を含むヘッダを付加したファイル形式の画像ファイル30として記録部17に記録される。   The recording unit 17 records image information 173 that is a plurality of image files 30. In the present embodiment, image data of a captured image, which is an example of content data that has been subjected to image processing for recording by the image processing unit 12, includes, for example, EXIF such as a shooting date and time, GPS data obtained at the time of shooting, a title, a comment, and personal information. (Exchangeable Image File) is recorded in the recording unit 17 as an image file 30 in a file format to which a header including information is added.

図5は、画像ファイル30のデータ構成例を示す図である。図5に示すように、画像ファイル30は、画像ID31と、撮影日時等の撮影情報(EXIF情報)32と、撮影画像の画像データ33と、撮影画像のサムネイルデータ34と、検出顔情報35と、通信履歴一覧36とを含む。画像ID31は、各画像を識別するために例えばその画像データの生成時(撮影時)に固有に割り当てられる識別情報である。なお、画像情報173を構成する各画像ファイル30は、自機で撮影された撮影画像の画像ファイルの他、無線通信部19を介して他のデジタルカメラ1と通信することによって他のデジタルカメラ1から取得した画像ファイルを適宜含む。   FIG. 5 is a diagram illustrating a data configuration example of the image file 30. As illustrated in FIG. 5, the image file 30 includes an image ID 31, shooting information (EXIF information) 32 such as a shooting date, image data 33 of the shot image, thumbnail data 34 of the shot image, and detected face information 35. And a communication history list 36. The image ID 31 is identification information uniquely assigned, for example, when image data is generated (at the time of photographing) in order to identify each image. Each image file 30 constituting the image information 173 communicates with another digital camera 1 by communicating with the other digital camera 1 via the wireless communication unit 19 in addition to the image file of the photographed image taken by the own device. The image file acquired from is included appropriately.

検出顔情報35は、その画像データ33について実行された顔検出結果であり、検出された顔毎の顔データ350を含む。例えば、画像データ33中で3つの顔が検出されて顔特徴情報が抽出された場合には、各顔についての3つの顔特徴情報がそれぞれ顔データ350として設定される。具体的には、顔データ350には、その顔について抽出された顔特徴情報が、その顔を識別するための顔番号と対応付けられて設定される。ここで、顔特徴情報は、その画像データ33中の顔の位置や大きさを含む。また、顔番号は、例えばその画像データ33中で検出された顔に割り振られた通し番号である。なお、画像データ33中で顔が検出されていない画像ファイル30には検出顔情報35は設定されない。   The detected face information 35 is a face detection result executed for the image data 33 and includes face data 350 for each detected face. For example, in the case where three faces are detected in the image data 33 and face feature information is extracted, the three face feature information for each face is set as the face data 350, respectively. Specifically, face feature information extracted for the face is set in the face data 350 in association with a face number for identifying the face. Here, the face feature information includes the position and size of the face in the image data 33. The face number is a serial number assigned to the face detected in the image data 33, for example. The detected face information 35 is not set in the image file 30 in which no face is detected in the image data 33.

通信履歴一覧36は、現在までにその画像ファイル30について機器間(本実施の形態では、図3に示したデジタルカメラ1と他のデジタルカメラ1−2との間)で行った送受信の履歴情報である。本実施の形態では、画像ファイル30を送受信するたびに通信履歴データ360が生成されるようになっており、生成された通信履歴データ360が通信履歴一覧36に追加される。例えば、通信履歴一覧36に3つの通信履歴データ360が設定されていれば、その画像ファイル30は、各通信履歴データ360がそれぞれ示す所定のデジタルカメラ1間で3回送受信されている。一方、通信履歴一覧36に通信履歴データ360が設定されていない場合には、その画像ファイル30はデジタルカメラ1間で1度も送受信されていない。   The communication history list 36 is history information of transmission / reception performed between devices (in this embodiment, between the digital camera 1 and the other digital camera 1-2 shown in FIG. 3) for the image file 30 up to now. It is. In the present embodiment, the communication history data 360 is generated every time the image file 30 is transmitted / received, and the generated communication history data 360 is added to the communication history list 36. For example, if three communication history data 360 are set in the communication history list 36, the image file 30 is transmitted and received three times between the predetermined digital cameras 1 indicated by the respective communication history data 360. On the other hand, when the communication history data 360 is not set in the communication history list 36, the image file 30 has never been transmitted / received between the digital cameras 1.

図6は、通信履歴データ360のデータ構成例を示す図である。図6に示すように、通信履歴データ360は、送信元機器データ361と、送信先機器データ363と、送受信日時365とを含む。送信元機器データ361には、その通信履歴データ360を生成した際の画像ファイル30の送受信において、画像ファイル30を送信する側(送信元のデジタルカメラ1)の機器データが設定される。一方、送信先機器データ363には、その通信履歴データ360を生成した際のその画像ファイル30の送受信において、画像ファイル30を受信する側(送信先のデジタルカメラ1)の機器データが設定される。また、送受信日時365は、その通信履歴データ360を生成した際の現在時刻が設定される。   FIG. 6 is a diagram illustrating a data configuration example of the communication history data 360. As illustrated in FIG. 6, the communication history data 360 includes transmission source device data 361, transmission destination device data 363, and transmission / reception date / time 365. In the transmission source device data 361, device data of the image file 30 transmitting side (the transmission source digital camera 1) is set in transmission / reception of the image file 30 when the communication history data 360 is generated. On the other hand, in the transmission destination device data 363, the device data of the image file 30 receiving side (destination digital camera 1) is set in transmission / reception of the image file 30 when the communication history data 360 is generated. . The transmission / reception date / time 365 is set to the current time when the communication history data 360 is generated.

さらに、図4に示すように、記録部17には、撮影人物画像送信情報175と、顔/機器対応テーブル177とが記録される。   Further, as shown in FIG. 4, photographed person image transmission information 175 and a face / device correspondence table 177 are recorded in the recording unit 17.

撮影人物画像送信情報175は、自機で撮影した撮影画像であって、顔が映る撮影画像(その画像データ中で顔が検出された撮影画像:以下、適宜「撮影人物画像」と呼ぶ。)の外部機器(本実施の形態では他のデジタルカメラ1)への送信の有無を管理するためのデータテーブルである。より詳細には、撮影人物画像送信情報175には、撮影人物画像毎に、その撮影人物画像中に映る顔の人物が所有するものとして登録された他のデジタルカメラ1への送信の有無が記録される。   The photographed person image transmission information 175 is a photographed image photographed by the own device and showing a face (a photographed image in which a face is detected in the image data: hereinafter referred to as “photographed person image” as appropriate). It is a data table for managing the presence or absence of transmission to the external device (in this embodiment, another digital camera 1). More specifically, the photographed person image transmission information 175 records, for each photographed person image, whether or not the photographed person image is transmitted to another digital camera 1 registered as possessed by the person of the face shown in the photographed person image. Is done.

図7は、撮影人物画像送信情報175のデータ構成例を示す図である。図7に示すように、撮影人物画像送信情報175は、自機で撮影した撮影人物画像の画像IDと対応付けて、顔番号および画像送信フラグが設定されたデータテーブルである。顔番号には、対応する画像IDの画像データ中で検出された顔に割り振られた顔番号が設定される。画像送信フラグは、対応する顔番号の顔の人物が所有する他のデジタルカメラ1に対し、対応する画像IDの画像ファイル30を送信したか否かを示すフラグ情報である。送信済みの場合には“ON”が設定され、未送信の場合には“OFF”が設定される。例えば、画像ID31として“ID00011”が設定されている画像ファイル30の画像データ33中では、顔番号“01”〜“03”が割り振られた3つの顔が検出されている。そして、レコードR11に示すように、このうち顔番号“01”の画像送信フラグには“ON”が設定されており、画像ID31が“ID00011”である画像ファイル30は顔番号“01”の顔の人物が所有する他のデジタルカメラ1に送信済みである。一方、顔番号“03”の画像送信フラグには“OFF”が設定されており(レコードR13)、その画像ファイル30は顔番号“03”の顔の人物が所有する他のデジタルカメラ1には未だ送信されていない。   FIG. 7 is a diagram illustrating a data configuration example of the photographed person image transmission information 175. As shown in FIG. 7, the photographed person image transmission information 175 is a data table in which a face number and an image transmission flag are set in association with the image ID of the photographed person image photographed by the own device. The face number assigned to the face detected in the image data of the corresponding image ID is set as the face number. The image transmission flag is flag information indicating whether or not the image file 30 with the corresponding image ID has been transmitted to the other digital camera 1 owned by the person with the face with the corresponding face number. “ON” is set when the transmission has been completed, and “OFF” is set when the transmission has not been performed. For example, in the image data 33 of the image file 30 in which “ID00011” is set as the image ID 31, three faces assigned face numbers “01” to “03” are detected. As shown in the record R11, among these, the image transmission flag with the face number “01” is set to “ON”, and the image file 30 with the image ID 31 “ID00011” has the face number “01”. Has already been sent to another digital camera 1 owned by the person. On the other hand, the image transmission flag with the face number “03” is set to “OFF” (record R13), and the image file 30 is stored in the other digital camera 1 owned by the person with the face number “03”. It has not been sent yet.

顔/機器対応テーブル177は、撮影人物画像の画像データから顔領域を切り出すことで得た顔画像データと、その顔の人物が所有するものとして登録された他のデジタルカメラ1から取得した機器データとの対応関係を設定したデータテーブルである。   The face / device correspondence table 177 includes face image data obtained by cutting out a face area from image data of a photographed person image, and device data acquired from another digital camera 1 registered as possessed by the person of the face. Is a data table in which the correspondence relationship is set.

一時記録部18は、例えばRAM等の半導体メモリで構成され、制御部20の作業用メモリとして用いられる。この一時記録部18は、制御部20が実行するプログラムやこのプログラムの実行中に使用されるデータ等を一時的に保持するメモリ領域を備える。例えば、通信履歴仮データ181を一時記録する。この通信履歴仮データ181は、送信元機器データ、送信先機器データおよび送受信日時を含む図6に示した通信履歴データ360と同様のデータ構成を有する。また、一時記録部18は、撮像部11から出力される画像データの一時記録用等に使用され、1フレーム毎に撮像部11から取り込まれる画像(ライブビュー画像)の画像データや、撮影タイミングで撮像部11から取り込まれる画像(撮影画像)の画像データ等を一時記録する。   The temporary recording unit 18 is configured by a semiconductor memory such as a RAM, for example, and is used as a working memory for the control unit 20. The temporary recording unit 18 includes a memory area that temporarily stores a program executed by the control unit 20 and data used during execution of the program. For example, the communication history temporary data 181 is temporarily recorded. This temporary communication history data 181 has the same data structure as the communication history data 360 shown in FIG. 6 including transmission source device data, transmission destination device data, and transmission / reception date and time. The temporary recording unit 18 is used for temporary recording of image data output from the imaging unit 11 and the like. The image data of the image (live view image) captured from the imaging unit 11 for each frame and the shooting timing are used. Image data of an image (captured image) captured from the imaging unit 11 is temporarily recorded.

無線通信部19は、相手カメラ1との間で近接無線通信を行うためのものであり、アンテナ191によって相手カメラ1の無線通信部との間で電波信号を送受信し、受信信号を復調処理するとともに、送信信号を変調処理する送受信回路等で構成される。この無線通信部19は、起動時においてその存在を報知する通信信号を定期的に送出するとともに、相手カメラ1の無線通信部19から送出された通信信号を検知して停止状態または待機状態から復帰し、相手カメラ1との間で通信を確立するようになっている。   The wireless communication unit 19 is for performing close proximity wireless communication with the counterpart camera 1. The radio communication unit 19 transmits and receives radio signals to and from the radio communication unit of the counterpart camera 1 through the antenna 191 and demodulates the received signal. A transmission / reception circuit for modulating the transmission signal is also included. The wireless communication unit 19 periodically sends out a communication signal notifying of its presence at the time of activation, and detects the communication signal sent from the wireless communication unit 19 of the counterpart camera 1 to return from the stop state or standby state. Then, communication with the counterpart camera 1 is established.

ここで、無線通信部19は、例えば、数cm程度の通信距離で、100Mbps程度の伝送速度を実現可能な非接触の近接無線通信を想定している。この無線通信部19によって実現される近接無線通信によれば、デジタルカメラ1に記録されているデータ(画像ファイル30)の全部または一部を瞬時に相手カメラ1に送信することができる。ただし、これに限定されるものではなく、所望の通信距離や伝送速度を実現可能な通信規格の通信装置を適宜採用して無線通信部19を構成できる。   Here, the wireless communication unit 19 is assumed to be contactless proximity wireless communication capable of realizing a transmission rate of about 100 Mbps at a communication distance of about several centimeters, for example. According to the proximity wireless communication realized by the wireless communication unit 19, all or a part of the data (image file 30) recorded in the digital camera 1 can be instantaneously transmitted to the counterpart camera 1. However, the present invention is not limited to this, and the wireless communication unit 19 can be configured by appropriately adopting a communication device of a communication standard capable of realizing a desired communication distance and transmission speed.

制御部20は、CPU等で実現され、操作部14からの操作信号等に応じて記録部17からカメラプログラムを読み出して実行し、デジタルカメラ1を構成する各部に対する指示やデータの転送等を行ってデジタルカメラ1の動作を統括的に制御する。この制御部20は、CPUや各部間のDMA転送を制御するためのDMAコントローラ等を適宜含む。そして、制御部20は、撮影人物画像登録処理部201と、相手機器データ取得処理部202と、通信履歴仮記録処理部203と、データ送受信処理部204と、顔/機器対応付け処理部205とを含む。   The control unit 20 is realized by a CPU or the like, reads out and executes a camera program from the recording unit 17 in response to an operation signal from the operation unit 14, and performs instructions and data transfer to each unit constituting the digital camera 1. Thus, the operation of the digital camera 1 is comprehensively controlled. The control unit 20 appropriately includes a CPU and a DMA controller for controlling DMA transfer between the units. The control unit 20 includes a photographed person image registration processing unit 201, a counterpart device data acquisition processing unit 202, a communication history temporary recording processing unit 203, a data transmission / reception processing unit 204, and a face / device association processing unit 205. including.

撮影人物画像登録処理部201は、撮影タイミングが指示されて撮影画像を生成した際、その画像データについて行った顔検出の結果顔が検出された場合に、その撮影画像を撮影人物画像として登録する処理を行う。   The photographed person image registration processing unit 201 registers a photographed person image as a photographed person image when a face is detected as a result of face detection performed on the image data when a photographing timing is instructed and a photographed image is generated. Process.

相手機器データ取得処理部202は、相手カメラ1に機器データ送信要求を通知し、相手カメラ1からその機器データ(相手カメラ1において記録部に記録されている機器データ)を取得する処理を行う。   The counterpart device data acquisition processing unit 202 notifies the counterpart camera 1 of a device data transmission request, and performs processing for acquiring the device data (device data recorded in the recording unit of the counterpart camera 1) from the counterpart camera 1.

通信履歴仮記録処理部203は、通信履歴データを生成し、通信履歴仮データ181として一時記録部18に仮記録する。本実施の形態では、画像ファイル30の通信履歴一覧36に設定される通信履歴データ360は、画像ファイル30を送信する側のデジタルカメラ1が生成するものであり、後述する送信条件を満足する場合に、この通信履歴仮記録処理部203が仮記録した通信履歴仮データ181が通信履歴データ360として通信履歴一覧36に追加されるようになっている。具体的には、通信履歴仮記録処理部203は、記録部17に記録されている自機データ171の機器データを送信元機器データとする。また、通信履歴仮記録処理部203は、相手機器データ取得処理部202によって相手カメラ1から取得された相手カメラ1の機器データを送信先機器データとする。そして、通信履歴仮記録処理部203は、時計部16から現在時刻を取得して送受信日時とし、これらを対応付けた通信履歴データを生成して通信履歴仮データ181として一時記録部18に記録する処理を行う。   The communication history temporary recording processing unit 203 generates communication history data and temporarily records it as temporary communication history data 181 in the temporary recording unit 18. In the present embodiment, the communication history data 360 set in the communication history list 36 of the image file 30 is generated by the digital camera 1 on the transmission side of the image file 30 and satisfies a transmission condition described later. In addition, the temporary communication history data 181 temporarily recorded by the temporary communication history recording processing unit 203 is added to the communication history list 36 as communication history data 360. Specifically, the communication history temporary recording processing unit 203 uses the device data of the own device data 171 recorded in the recording unit 17 as transmission source device data. In addition, the communication history temporary recording processing unit 203 uses the device data of the partner camera 1 acquired from the partner camera 1 by the partner device data acquisition processing unit 202 as transmission destination device data. Then, the communication history temporary recording processing unit 203 acquires the current time from the clock unit 16 as the transmission / reception date and time, generates communication history data in association with these, and records the communication history temporary data 181 in the temporary recording unit 18. Process.

データ送受信処理部204は、無線通信部19を介して相手カメラ1に送信対象の画像ファイル30を送信し、相手カメラ1から送信された画像ファイルを受信する処理を行う。このデータ送受信処理部204は、送信判定部241と、通信履歴一覧更新部242と、画像ファイル送信処理部243と、自機顔判定部244とを含む。   The data transmission / reception processing unit 204 performs processing for transmitting the image file 30 to be transmitted to the counterpart camera 1 via the wireless communication unit 19 and receiving the image file transmitted from the counterpart camera 1. The data transmission / reception processing unit 204 includes a transmission determination unit 241, a communication history list update unit 242, an image file transmission processing unit 243, and an own device face determination unit 244.

送信判定部241は、送信対象の画像ファイル30を相手カメラ1に送信する前に、通信履歴仮記録処理部203によって一時記録部18に記録処理された通信履歴仮データ181が後述する送信条件を満足するか否かを判定する。   Before transmitting the image file 30 to be transmitted to the counterpart camera 1, the transmission determination unit 241 determines that the communication history temporary data 181 recorded in the temporary recording unit 18 by the communication history temporary recording processing unit 203 satisfies the transmission conditions described later. Determine if you are satisfied.

通信履歴一覧更新部242は、送信判定部241によって送信条件を満足すると判定された場合に、通信履歴仮データ181を送信対象の画像ファイル30の通信履歴一覧36に新たに追加して更新する処理を行う。   The communication history list update unit 242 newly adds and updates the communication history temporary data 181 to the communication history list 36 of the image file 30 to be transmitted when the transmission determination unit 241 determines that the transmission condition is satisfied. I do.

画像ファイル送信処理部243は、送信判定部241が送信条件を満足すると判定した場合に、送信対象の画像ファイル30が撮影人物画像として登録されているか否かに応じて“ON”または“OFF”を設定した顔位置要求フラグを送信対象の画像ファイル30に付加し、相手カメラ1に送信処理する。   When the transmission determination unit 241 determines that the transmission condition is satisfied, the image file transmission processing unit 243 determines “ON” or “OFF” depending on whether the image file 30 to be transmitted is registered as a photographed person image. Is added to the image file 30 to be transmitted, and transmission processing is performed on the counterpart camera 1.

自機顔判定部244は、相手カメラ1から顔位置要求フラグ“ON”が付加された画像ファイルを受信した場合であって、人物認識部121によってその画像データ中に映る自機ユーザの顔が認識された場合に、その顔位置を画像IDと対応付けた顔位置データを相手カメラ1に送信処理する。   The own device face determination unit 244 receives the image file to which the face position request flag “ON” is added from the partner camera 1, and the person recognition unit 121 detects the own user's face that is reflected in the image data. If the face is recognized, face position data in which the face position is associated with the image ID is transmitted to the counterpart camera 1.

顔/機器対応付け処理部205は、画像ファイル送信処理部243が画像ファイル30を送信処理した後、相手カメラ1から顔位置データを受信した場合に、受信した顔位置データをもとに該当する画像データ中の該当する顔番号を特定し、特定した顔番号に対応する画像送信フラグに“ON”を設定して撮影人物画像送信情報175を更新する。そして、顔/機器対応付け処理部205は、特定した顔番号の顔の人物が、今回通信を行って画像ファイル30を送信した相手カメラ1の所有者であるとして登録する。すなわち、顔/機器対応付け処理部205は、対応する画像データ33中の特定された顔番号が割り振られた顔領域(顔画像データ)を、相手機器データ取得処理部202によって取得されている相手カメラ1の機器データと対応付けて顔/機器対応テーブル177に設定する。   The face / device association processing unit 205 corresponds to the received face position data based on the received face position data when the image file transmission processing unit 243 receives the face position data from the counterpart camera 1 after the image file 30 is transmitted. The corresponding face number in the image data is specified, the image transmission flag corresponding to the specified face number is set to “ON”, and the photographed person image transmission information 175 is updated. Then, the face / device association processing unit 205 registers that the person of the face with the specified face number is the owner of the partner camera 1 that has transmitted the image file 30 through the current communication. That is, the face / device association processing unit 205 acquires the face area (face image data) to which the specified face number in the corresponding image data 33 is assigned by the partner device data acquisition processing unit 202. The face / device correspondence table 177 is set in association with the device data of the camera 1.

図8および図9は、本実施の形態におけるデジタルカメラ1と他のデジタルカメラ1(相手カメラ1)との通信の概要を説明する図である。ここでは、撮影モード中、撮影の直後に人物が映る撮影人物画像を他のデジタルカメラ1に送信する場合を例示しているが、再生モード中に撮影人物画像を送信する場合も同様の処理を行う。   FIG. 8 and FIG. 9 are diagrams for explaining the outline of communication between the digital camera 1 and another digital camera 1 (other camera 1) in the present embodiment. Here, a case where a photographed person image in which a person appears immediately after photographing is transmitted to another digital camera 1 in the photographing mode is illustrated, but the same processing is performed when a photographed person image is transmitted in the playback mode. Do.

例えば、図8に示すように、デジタルカメラ1を所有する自機ユーザがデジタルカメラ1を撮影モードにして例えば友人である人物Pa,Pb,Pcの集合写真の撮影を行うと、デジタルカメラ1の表示部15には、人物Pa,Pb,Pcを撮影した撮影人物画像I1が画面表示される。このようにして集合写真を撮影を行ったデジタルカメラ1の自機ユーザは、デジタルカメラ1を人物Pa,Pb,Pcの所有する外部機器(本実施の形態では他のデジタルカメラ1)と通信させ、人物Pa,Pb,Pcを撮影した集合写真(撮影人物画像)を順次送信していく。ここで、図8の人物Paの所有する他のデジタルカメラ1を図9(a)に示すデジタルカメラ1−2aとし、図8の人物Pbの所有する他のデジタルカメラ1を図9(b)に示すデジタルカメラ1−2bとし、図8の人物Pcが所有する他のデジタルカメラ1を図9(c)に示すデジタルカメラ1−2cとする。   For example, as shown in FIG. 8, when the user owning the digital camera 1 takes the digital camera 1 in the shooting mode and takes a group photo of, for example, friends Pa, Pb, Pc who are friends, On the display unit 15, a photographed person image I1 obtained by photographing the persons Pa, Pb, and Pc is displayed on the screen. The user of the digital camera 1 that has taken the group photo in this way causes the digital camera 1 to communicate with an external device (other digital camera 1 in the present embodiment) owned by the persons Pa, Pb, and Pc. Then, group photographs (captured person images) taken of persons Pa, Pb, and Pc are sequentially transmitted. Here, the other digital camera 1 owned by the person Pa in FIG. 8 is a digital camera 1-2a shown in FIG. 9A, and the other digital camera 1 owned by the person Pb in FIG. 8 is shown in FIG. 9B. The other digital camera 1 owned by the person Pc in FIG. 8 is a digital camera 1-2c shown in FIG. 9C.

先ず、自機ユーザは、図9(a)に示すように、デジタルカメラ1を人物Paが所有する他のデジタルカメラ1−2aと近接させて通信を行う。これにより、デジタルカメラ1は、他のデジタルカメラ1−2aを相手カメラ1−2aとして撮影人物画像の画像ファイル30を送信する(a1)。本実施の形態では、デジタルカメラ1は、画像ファイルを受信すると、その画像データ中に映る自機ユーザの顔を認識し、認識した顔位置のデータを相手カメラ1に送信するようになっている。すなわち、相手カメラ1−2aは、受信した画像ファイルの画像データ中で自機ユーザの顔を認識した場合に、その顔位置のデータをデジタルカメラ1に送信する(a3)。そして、デジタルカメラ1では、顔位置のデータを受信すると、画像データ中の受信した顔位置の人物が今回通信を行って画像ファイル30を送信した相手カメラ1−2aの所有者であるとして登録する。またこのとき、その顔を送信済みの顔とし、送信済みの顔に送信済マークM11を付した撮影人物画像I11を表示部15において画面表示する。なお、ここでは、顔領域を破線で囲う送信済マークを例示しているが、これに限定されるものではなく、まだその顔の人物が所有する外部機器(他のデジタルカメラ1)が特定されておらず、画像データ(画像ファイル30)が未送信である顔と識別可能な表示であればよい。   First, as shown in FIG. 9A, the user of the own device performs communication by bringing the digital camera 1 close to another digital camera 1-2a owned by the person Pa. Accordingly, the digital camera 1 transmits the image file 30 of the photographed person image with the other digital camera 1-2a as the partner camera 1-2a (a1). In the present embodiment, when the digital camera 1 receives an image file, the digital camera 1 recognizes its own user's face shown in the image data and transmits the recognized face position data to the counterpart camera 1. . That is, when the partner camera 1-2a recognizes the face of its own user in the image data of the received image file, it transmits the face position data to the digital camera 1 (a3). When the digital camera 1 receives the face position data, the person at the received face position in the image data is registered as the owner of the partner camera 1-2a that has communicated this time and transmitted the image file 30. . At this time, the photographed person image I11 is displayed on the display unit 15 with the face as a transmitted face and a transmitted mark M11 added to the transmitted face. Here, the transmitted mark that surrounds the face area with a broken line is illustrated, but the present invention is not limited to this, and an external device (other digital camera 1) owned by the person of the face is identified. However, the display may be any display as long as the image data (image file 30) can be distinguished from the untransmitted face.

同様にして、自機ユーザは、図9(b)に示すように、デジタルカメラ1を人物Pbが所有する他のデジタルカメラ1−2bと近接させて通信を行う。これにより、デジタルカメラ1は、他のデジタルカメラ1−2bを相手カメラ1−2bとして撮影人物画像の画像ファイル30を送信する(a5)。そして、デジタルカメラ1は、相手カメラ1−2bから顔位置のデータを受信すると(a7)、画像データ中の受信した顔位置の人物が相手カメラ1−2bの所有者であるとして登録する。またこのとき、その顔を送信済みの顔とし、送信済みの顔に送信済マークM11,M13を付した撮影人物画像I13を表示部15において画面表示する。   Similarly, as shown in FIG. 9B, the user of the own device performs communication by bringing the digital camera 1 close to another digital camera 1-2b owned by the person Pb. Accordingly, the digital camera 1 transmits the image file 30 of the photographed person image with the other digital camera 1-2b as the partner camera 1-2b (a5). When the digital camera 1 receives the face position data from the counterpart camera 1-2b (a7), the digital camera 1 registers the person at the received face position in the image data as the owner of the counterpart camera 1-2b. At this time, the photographed person image I13 is displayed on the screen of the display unit 15 with the face as a transmitted face and with the transmitted marks M11 and M13 added to the transmitted face.

さらに、自機ユーザは、図9(c)に示すように、デジタルカメラ1を人物Pcが所有する他のデジタルカメラ1−2cと近接させて通信を行う。これにより、デジタルカメラ1は、他のデジタルカメラ1−2cを相手カメラ1−2cとして撮影人物画像の画像ファイル30を送信する(a9)。そして、デジタルカメラ1は、相手カメラ1−2cから顔位置のデータを受信すると(a11)、画像データ中の受信した顔位置の人物が相手カメラ1−2cの所有者であるとして登録する。またこのとき、その顔を送信済みの顔とし、送信済みの顔に送信済マークM11,M13,M15を付した撮影人物画像I15を表示部15において画面表示する。   Further, as shown in FIG. 9C, the user of the own device performs communication by bringing the digital camera 1 close to another digital camera 1-2c owned by the person Pc. As a result, the digital camera 1 transmits the image file 30 of the photographed person image with the other digital camera 1-2c as the counterpart camera 1-2c (a9). When the digital camera 1 receives the face position data from the counterpart camera 1-2c (a11), the digital camera 1 registers that the person at the received face position in the image data is the owner of the counterpart camera 1-2c. At this time, the face is set as a transmitted face, and the photographed person image I15 with the transmitted marks M11, M13, and M15 attached to the transmitted face is displayed on the display unit 15.

次に、デジタルカメラ1が行う処理手順について説明する。図10は、デジタルカメラ1が行う基本処理の手順を示すフローチャートである。電源投入時、デジタルカメラ1は、ユーザ操作によって選択されるモードに応じた処理を行う。すなわち、図10に示すように、現在選択されているモードが撮影モードの場合には(ステップb1:Yes)、撮影モード処理に移る(ステップb3)。撮影モード処理を終えると、ステップb9に移る。現在のモードが撮影モードではなく(ステップb1:No)、再生モードの場合には(ステップb5:Yes)、再生モード処理に移る(ステップb7)。再生モード処理を終えると、ステップb9に移る。そして、ステップb9では、基本処理を終了するか否かを判定する。例えば、ボタンスイッチ7の操作によって電源OFFが指示された場合に、本処理を終える(ステップb9:Yes)。一方、終了しない場合には(ステップb9:No)、ステップb1に戻る。   Next, a processing procedure performed by the digital camera 1 will be described. FIG. 10 is a flowchart illustrating a procedure of basic processing performed by the digital camera 1. When the power is turned on, the digital camera 1 performs processing according to the mode selected by the user operation. That is, as shown in FIG. 10, when the currently selected mode is the shooting mode (step b1: Yes), the process proceeds to shooting mode processing (step b3). When the shooting mode process is completed, the process proceeds to step b9. If the current mode is not the shooting mode (step b1: No) and is the playback mode (step b5: Yes), the process proceeds to the playback mode process (step b7). When the reproduction mode process is completed, the process proceeds to step b9. In step b9, it is determined whether or not to end the basic process. For example, when the power switch OFF is instructed by the operation of the button switch 7, this process is finished (step b9: Yes). On the other hand, if not finished (step b9: No), the process returns to step b1.

ここで、ステップb3の撮影モード処理およびステップb7の再生モード処理について順次説明する。先ず、撮影モード処理について説明する。図11は、撮影モード処理の詳細な処理手順を示すフローチャートである。   Here, the shooting mode process in step b3 and the reproduction mode process in step b7 will be described in order. First, photographing mode processing will be described. FIG. 11 is a flowchart showing a detailed processing procedure of the shooting mode processing.

図11に示すように、撮影モード処理では、制御部20は先ず、無線通信部19を起動(ON)する(ステップc1)。その後、制御部20は、撮像部11を起動して画像を取り込み、取り込んだ画像をライブビュー画像として表示部15に表示する処理を行う(ステップc2)。ここでの処理によって、撮像素子に結像されている被写体像であるライブビュー画像を1フレーム毎に更新表示させる。   As shown in FIG. 11, in the photographing mode process, the control unit 20 first activates (ON) the wireless communication unit 19 (step c1). Thereafter, the control unit 20 activates the imaging unit 11 to capture an image, and performs a process of displaying the captured image on the display unit 15 as a live view image (step c2). With this processing, the live view image, which is the subject image formed on the image sensor, is updated and displayed for each frame.

そして、レリーズスイッチ5が押下されて撮影が指示されたならば(ステップc3:Yes)、撮影処理を行って撮影画像の画像データを生成する(ステップc5)。続いて、顔検出部13が顔検出を実行し、撮影画像の画像データから顔領域を検出し、顔領域中の各顔パーツを検出する(ステップc6)。ここでの処理によって画像データ中の顔が検出されて顔特徴情報が抽出された場合には、制御部20は、検出された顔に顔番号を割り振って検出顔情報を生成する。そして、制御部20は、生成した撮影画像に画像IDを割り当て、画像処理後の画像データやそのサムネイルデータ、検出顔情報、現在時刻等と対応付けて画像ファイル30として記録部17に記録する処理を行う(ステップc7)。なお、ここで記録される画像ファイル30の通信履歴一覧36には、通信履歴データ360は設定されない(空の状態である)。またこのとき、ステップc6で撮影画像の画像データから顔を検出した場合に(ステップc8:Yes)、撮影人物画像登録処理部201が、生成した撮影画像を撮影人物画像として登録する処理を行う(ステップc9)。具体的には、撮影人物画像登録処理部201は、生成した撮影画像の画像IDと検出した顔に割り振った顔番号とをもとに、画像送信フラグを“OFF”としたレコードを撮影人物画像情報に追加する。   If the release switch 5 is pressed and shooting is instructed (step c3: Yes), shooting processing is performed to generate image data of the shot image (step c5). Subsequently, the face detection unit 13 performs face detection, detects a face area from the image data of the photographed image, and detects each face part in the face area (step c6). When the face in the image data is detected and the face feature information is extracted by the processing here, the control unit 20 assigns a face number to the detected face and generates detected face information. Then, the control unit 20 assigns an image ID to the generated captured image, and records it in the recording unit 17 as an image file 30 in association with the image data after image processing, its thumbnail data, detected face information, the current time, and the like. (Step c7). Note that the communication history data 360 is not set in the communication history list 36 of the image file 30 recorded here (is empty). At this time, when a face is detected from the image data of the photographed image in step c6 (step c8: Yes), the photographed person image registration processing unit 201 performs a process of registering the generated photographed image as a photographed person image ( Step c9). Specifically, the photographed person image registration processing unit 201 records a record in which the image transmission flag is “OFF” based on the image ID of the generated photographed image and the face number assigned to the detected face. Add to information.

続くステップc10では、ユーザによる送信指示を判定しており、送信指示が入力された場合に、例えば通信が確立した相手カメラ1に対し、ステップc5の撮影処理で生成した最新の撮影画像の画像ファイル30を送信対象として送信するようになっている。   In the subsequent step c10, the transmission instruction by the user is determined, and when the transmission instruction is input, for example, the image file of the latest photographed image generated by the photographing process of step c5 is performed on the partner camera 1 with which communication has been established. 30 is transmitted as a transmission target.

すなわち、送信指示が入力されると(ステップc10:Yes)、続くステップc11では、この相手カメラ1との間の通信の確立を監視する。このとき、無線通信部19が電波の発信を開始するようになっており、この電波を相手カメラ1の無線通信部が受信すると、相手カメラ1との間の通信が確立する。   That is, when a transmission instruction is input (step c10: Yes), in the subsequent step c11, establishment of communication with the counterpart camera 1 is monitored. At this time, the wireless communication unit 19 starts transmitting radio waves, and when the radio communication unit of the counterpart camera 1 receives this radio wave, communication with the counterpart camera 1 is established.

そして、例えば、予め設定される所定時間が経過するまでの間に相手カメラ1との間で通信が確立しなければ(ステップc11:No)、ステップc13に移行し、制御部20が警告報知処理を行う。そしてその後、ステップc25に移る。例えば、ステップc13では、制御部20は、警告報知処理として、通信が確立しない旨のメッセージを表示部15に表示する処理を行う。なお、警告音を不図示のスピーカから音出力する処理を警告報知処理として行う構成としてもよいし、これらを組み合わせて行う構成としてもよい。   For example, if communication with the counterpart camera 1 is not established before a predetermined time elapses (step c11: No), the process proceeds to step c13, and the control unit 20 performs a warning notification process. I do. Then, the process proceeds to step c25. For example, in step c13, the control unit 20 performs a process of displaying a message indicating that communication is not established on the display unit 15 as a warning notification process. In addition, it is good also as a structure which performs the process which outputs a warning sound from a speaker not shown as a warning alerting | reporting process, and it is good also as a structure performed combining these.

一方、相手カメラ1との間で通信が確立した場合には(ステップc11:Yes)、通信履歴仮記録処理に移る(ステップc15)。図12は、通信履歴仮記録処理の詳細な処理手順を示すフローチャートである。   On the other hand, when communication is established with the counterpart camera 1 (step c11: Yes), the process proceeds to a communication history temporary recording process (step c15). FIG. 12 is a flowchart showing a detailed processing procedure of the communication history temporary recording process.

図12に示すように、通信履歴仮記録処理では先ず、相手機器データ取得処理部202が、無線通信部19を介し、相手カメラ1に対して機器データ送信要求を通知する処理を行う(ステップd1)。このとき、相手機器データ取得処理部202は、機器データ送信要求とともに記録部17に記録されている自機データ171の機器データを相手カメラ1に送信処理するようになっている。   As shown in FIG. 12, in the communication history temporary recording process, first, the counterpart device data acquisition processing unit 202 performs a process of notifying the counterpart camera 1 of a device data transmission request via the wireless communication unit 19 (step d1). ). At this time, the counterpart device data acquisition processing unit 202 transmits the device data of the own device data 171 recorded in the recording unit 17 together with the device data transmission request to the counterpart camera 1.

そして、相手機器データ取得処理部202は、無線通信部19を介して相手カメラ1から機器データを受信するまで待機状態となり、相手カメラ1から機器データを受信し(ステップd3)、受信に成功した場合には(ステップd5:Yes)、ステップd7に移る。そして、通信履歴仮記録処理部203が、時計部16から現在時刻を取得する(ステップd7)。そして、通信履歴仮記録処理部203は、記録部17に記録されている自機データ171の機器データと、ステップd3で取得した相手カメラ1の機器データと、ステップd7で取得した現在時刻とを対応付けて通信履歴データを生成し、通信履歴仮データ181として一時記録部18に記録処理して仮記録する(ステップd9)。また、通信履歴仮記録処理部203は、通信履歴生成フラグを“ON(成功)”に設定する(ステップd11)。そして、図11のステップc15にリターンし、その後ステップc17に移る。   Then, the partner device data acquisition processing unit 202 is in a standby state until it receives device data from the partner camera 1 via the wireless communication unit 19, receives the device data from the partner camera 1 (step d3), and succeeds in reception. In the case (step d5: Yes), the process proceeds to step d7. Then, the communication history temporary recording processing unit 203 acquires the current time from the clock unit 16 (step d7). Then, the communication history temporary recording processing unit 203 uses the device data of the own device data 171 recorded in the recording unit 17, the device data of the partner camera 1 acquired in step d3, and the current time acquired in step d7. Corresponding communication history data is generated, and is recorded and temporarily recorded in the temporary recording unit 18 as communication history temporary data 181 (step d9). Further, the communication history temporary recording processing unit 203 sets the communication history generation flag to “ON (success)” (step d11). And it returns to step c15 of FIG. 11, and moves to step c17 after that.

一方、図12のステップd5において受信に失敗した場合には(ステップd5:No)、通信履歴仮記録処理部203が、警告報知処理を行う(ステップd13)。例えば、通信履歴仮記録処理部203は、相手カメラ1からの機器データの受信に失敗し、通信履歴データを生成していない旨のメッセージを表示部15に表示する処理を行う。受信に失敗した場合としては、例えば、途中で自機のデジタルカメラ1と相手カメラ1との間が遠ざけられて通信が遮断した場合等が挙げられる。なお、警告音を音出力する構成としてもよいし、これらを組み合わせて行う構成としてもよい。また、通信履歴仮記録処理部203は、通信履歴生成フラグを“OFF(失敗)”に設定する(ステップd15)。そして、図11のステップc15にリターンし、その後ステップc17に移る。   On the other hand, when reception fails in step d5 of FIG. 12 (step d5: No), the communication history temporary recording processing unit 203 performs a warning notification process (step d13). For example, the communication history temporary recording processing unit 203 performs a process of displaying a message on the display unit 15 that the device data from the partner camera 1 has failed to be received and communication history data has not been generated. Examples of the case where the reception has failed include a case where communication between the digital camera 1 and the partner camera 1 is interrupted and the communication is interrupted. It should be noted that a warning sound may be output, or a combination of these may be used. Further, the communication history temporary recording processing unit 203 sets the communication history generation flag to “OFF (failure)” (step d15). And it returns to step c15 of FIG. 11, and moves to step c17 after that.

そして、ステップc17では、データ送受信処理部204が、ステップc15の通信履歴仮記録処理で通信履歴データを生成したか否かを判定する。例えば、データ送受信処理部204は、通信履歴フラグが“OFF”であれば通信履歴データを生成していないと判定し(ステップc17:No)、データ送信処理を行わずに(ステップc5の撮影処理で生成した最新の撮影画像の画像ファイル30を相手カメラ1に送信せずに)、ステップc25に移る。   In step c17, the data transmission / reception processing unit 204 determines whether communication history data has been generated in the communication history temporary recording process in step c15. For example, if the communication history flag is “OFF”, the data transmission / reception processing unit 204 determines that communication history data has not been generated (step c17: No), and does not perform the data transmission processing (imaging processing in step c5). (The image file 30 of the latest photographed image generated in step 1 is not transmitted to the counterpart camera 1), and the process proceeds to step c25.

一方、データ送受信処理部204は、通信履歴生成フラグが“ON”の場合には、通信履歴データを生成したと判定し(ステップc17:Yes)、データ送信処理を行う(ステップc19)。図13は、データ送信処理の詳細な処理手順を示すフローチャートである。   On the other hand, if the communication history generation flag is “ON”, the data transmission / reception processing unit 204 determines that communication history data has been generated (step c17: Yes), and performs data transmission processing (step c19). FIG. 13 is a flowchart showing a detailed processing procedure of data transmission processing.

図13に示すように、データ送信処理では先ず、送信判定処理に移る(ステップe1)。図14は、送信判定処理の詳細な処理手順を示すフローチャートである。   As shown in FIG. 13, in the data transmission process, the process first proceeds to a transmission determination process (step e1). FIG. 14 is a flowchart illustrating a detailed processing procedure of the transmission determination process.

図14に示すように、送信判定処理では先ず、送信判定部241が、送信対象の画像ファイル30の通信履歴一覧36を参照し、既に設定されている通信履歴データ360の中から、通信履歴仮データ181の送信先機器データ(すなわち図12のステップd3で通信相手の相手カメラ1から取得した機器データ)を検索する(ステップf1)。   As shown in FIG. 14, in the transmission determination process, first, the transmission determination unit 241 refers to the communication history list 36 of the image file 30 to be transmitted, and from the communication history data 360 that has already been set, The destination device data of the data 181 (that is, the device data acquired from the partner camera 1 of the communication partner in step d3 in FIG. 12) is searched (step f1).

そして、送信判定部241は、この検索結果をもとに送信条件を満足するか否かを判定する。すなわち、送信判定部241は、通信履歴仮データ181の送信先機器データが、いずれかの通信履歴データ360の送信元機器データ361または送信先機器データ363と一致した場合であって、その通信履歴データ360の送受信日時365から予め設定されている所定期間(例えば「6ヶ月」等)が経過していない場合に、送信条件を満足しないと判定する。一致した通信履歴データ360の送受信日時365から所定期間が経過している場合には、送信条件を満足すると判定する。また、通信履歴仮データ181の送信先機器データがいずれの通信履歴データ360の送信元機器データ361および送信先機器データ363とも一致しない場合も、送信条件を満足すると判定する。   Then, the transmission determination unit 241 determines whether or not the transmission condition is satisfied based on the search result. That is, the transmission determination unit 241 is a case where the transmission destination device data of the temporary communication history data 181 matches the transmission source device data 361 or the transmission destination device data 363 of any communication history data 360, and the communication history When a predetermined period (for example, “6 months”) set in advance from the transmission / reception date / time 365 of the data 360 has not elapsed, it is determined that the transmission condition is not satisfied. When a predetermined period has elapsed from the transmission / reception date and time 365 of the matched communication history data 360, it is determined that the transmission condition is satisfied. Further, when the transmission destination device data of the communication history temporary data 181 does not match the transmission source device data 361 and the transmission destination device data 363 of any communication history data 360, it is determined that the transmission condition is satisfied.

これは、通信履歴仮データ181の送信先機器データ(今回の送信先である通信相手の相手カメラ1)が過去にその画像ファイル30の送信元または送信先となっている場合、相手カメラ1の記録部にはその画像ファイル30が記録されていると想定できる一方で、相手カメラ1のユーザがその画像ファイル30を削除している場合もあり得るからである。このため、本実施の形態では、その画像ファイル30を送受信してからある程度の時間(所定期間)が経過している場合には、再度送信するようにしている。   This is because the destination device data of the communication history temporary data 181 (the partner camera 1 of the communication partner that is the current sender) is the sender or destination of the image file 30 in the past. This is because it can be assumed that the image file 30 is recorded in the recording unit, while the user of the counterpart camera 1 may delete the image file 30. For this reason, in this embodiment, when a certain amount of time (predetermined period) has passed since the image file 30 was transmitted and received, the image file 30 is transmitted again.

具体的には、図14に示すように、送信判定部241は、通信履歴仮データ181の送信先機器データが既に設定されている通信履歴データ360の送信元機器データ361と一致している場合には(ステップf3:Yes)、続いて、その通信履歴データ360の送受信日時365を読み出す(ステップf5)。そして、送信判定部241は、読み出した送受信日時365と、通信履歴仮データ181の送受信日時(現在時刻)とを比較し、所定期間が経過しているか否かを判定する。経過していなければ(ステップf7:No)、ステップf15に移る。   Specifically, as illustrated in FIG. 14, the transmission determination unit 241 determines that the transmission destination device data of the communication history temporary data 181 matches the transmission source device data 361 of the communication history data 360 that has already been set. (Step f3: Yes), then, the transmission / reception date / time 365 of the communication history data 360 is read (step f5). Then, the transmission determination unit 241 compares the read transmission / reception date / time 365 with the transmission / reception date / time (current time) of the communication history temporary data 181 to determine whether or not a predetermined period has elapsed. If it has not passed (step f7: No), it moves to step f15.

一方、通信履歴仮データ181の送信先機器データが、既に設定されている通信履歴データ360の送信元機器データ361と一致しない場合(ステップf3:No)、あるいはステップf5で読み出した送受信日時365から所定期間が経過している場合には(ステップf7:Yes)、送信判定部241は、通信履歴仮データ181の送信先機器データが既に設定されている通信履歴データ360の送信先機器データ363と一致しているか否かを判定する。そして、一致している場合も同様に(ステップf9:Yes)、その通信履歴データ360の送受信日時365を読み出す(ステップf11)。そして、送信判定部241は、読み出した送受信日時365と、通信履歴仮データ181の送受信日時(現在時刻)とを比較し、所定期間が経過しているか否かを判定する。経過していなければ(ステップf13:No)、ステップf15に移る。   On the other hand, when the transmission destination device data of the communication history temporary data 181 does not match the transmission source device data 361 of the communication history data 360 that has already been set (step f3: No), or from the transmission / reception date and time 365 read in step f5. When the predetermined period has elapsed (step f7: Yes), the transmission determination unit 241 determines that the transmission destination device data 363 of the communication history data 360 in which the transmission destination device data of the temporary communication history data 181 has already been set. It is determined whether or not they match. If they match (step f9: Yes), the transmission / reception date / time 365 of the communication history data 360 is read (step f11). Then, the transmission determination unit 241 compares the read transmission / reception date / time 365 with the transmission / reception date / time (current time) of the communication history temporary data 181 to determine whether or not a predetermined period has elapsed. If it has not passed (step f13: No), it moves to step f15.

そして、ステップf15では、送信判定部241は、送信条件を満足しないと判定し、その後警告報知処理を行う(ステップf17)。例えば、送信判定部241は、送信対象の画像ファイル30が相手カメラ1に記録済みである旨のメッセージを表示部15に表示する処理を行う。なお、警告音を音出力する構成としてもよいし、これらを組み合わせて行う構成としてもよい。またこのとき、一時記録部18に記録されている通信履歴仮データ181を削除する。その後、図13のステップe1にリターンし、ステップe3に移る。   In step f15, the transmission determination unit 241 determines that the transmission condition is not satisfied, and then performs a warning notification process (step f17). For example, the transmission determination unit 241 performs a process of displaying a message on the display unit 15 that the image file 30 to be transmitted has been recorded in the counterpart camera 1. It should be noted that a warning sound may be output, or a combination of these may be used. At this time, the temporary communication history data 181 recorded in the temporary recording unit 18 is deleted. Thereafter, the process returns to step e1 in FIG. 13 and proceeds to step e3.

一方、通信履歴仮データ181の送信先機器データが、既に設定されている通信履歴データ360の送信元機器データ361と一致しない場合(ステップf9:No)、あるいはステップf11で読み出した送受信日時365から所定期間が経過している場合には(ステップf13:Yes)、送信判定部241は、送信条件を満足すると判定する(ステップf19)。そして、通信履歴一覧更新部242が、一時記録部18に仮記録されている通信履歴仮データ181を通信履歴一覧36に追加して送信対象の画像ファイル30を更新する(ステップf21)。またこのとき、一時記録部18の通信履歴仮データ171を削除する。その後、図13のステップe1にリターンし、ステップe3に移る。   On the other hand, when the transmission destination device data of the communication history temporary data 181 does not match the transmission source device data 361 of the communication history data 360 that has already been set (step f9: No), or from the transmission / reception date and time 365 read in step f11. When the predetermined period has elapsed (step f13: Yes), the transmission determination unit 241 determines that the transmission condition is satisfied (step f19). Then, the communication history list update unit 242 adds the communication history temporary data 181 temporarily recorded in the temporary recording unit 18 to the communication history list 36 and updates the image file 30 to be transmitted (step f21). At this time, the temporary communication history data 171 in the temporary recording unit 18 is deleted. Thereafter, the process returns to step e1 in FIG. 13 and proceeds to step e3.

そして、ステップe3では、データ送受信処理部204が、ステップe1の送信判定処理の結果をもとに画像ファイル30を送信するか否かを判定する。すなわち、送信判定処理で送信条件を満足しないと判定した場合には、データ送受信処理部204は、画像ファイル30を送信しないと判定し(ステップe3:No)、図11のステップc19にリターンしてステップc25に移る。   In step e3, the data transmission / reception processing unit 204 determines whether to transmit the image file 30 based on the result of the transmission determination process in step e1. That is, when it is determined that the transmission condition is not satisfied in the transmission determination process, the data transmission / reception processing unit 204 determines that the image file 30 is not transmitted (step e3: No), and returns to step c19 in FIG. Move to step c25.

一方、データ送受信処理部204は、送信条件を満足すると判定した場合には画像ファイル30を送信すると判定し(ステップe3:Yes)、続いて画像ファイル送信処理部243が、撮影人物画像として登録された画像ファイル30か否かを判定する。具体的には、画像ファイル送信処理部243は、送信対象の画像ファイル30の画像ID31が撮影人物画像送信情報175に設定されている場合に登録されていると判定する。そして、登録されている場合には(ステップe4:Yes)、画像ファイル送信処理部243は、顔位置データの送信を要求するための顔位置要求フラグ“ON”を送信対象の画像ファイル30に付加して相手カメラ1に送信処理する(ステップe5)。登録されていない場合には(ステップe4:No)、画像ファイル送信処理部243は、顔位置データの送信を要求しない顔位置要求フラグ“OFF”を送信対象の画像ファイル30に付加して相手カメラ1に送信処理する(ステップe6)。そして、データ送受信処理部204は、受信完了通知を受信するまで待機状態となる。   On the other hand, when determining that the transmission condition is satisfied, the data transmission / reception processing unit 204 determines to transmit the image file 30 (step e3: Yes), and then the image file transmission processing unit 243 is registered as a photographed person image. It is determined whether or not the image file 30 has been updated. Specifically, the image file transmission processing unit 243 determines that the image file 31 is registered when the image ID 31 of the image file 30 to be transmitted is set in the photographed person image transmission information 175. If registered (step e4: Yes), the image file transmission processing unit 243 adds a face position request flag “ON” for requesting transmission of face position data to the image file 30 to be transmitted. Then, transmission processing is performed to the counterpart camera 1 (step e5). If not registered (step e4: No), the image file transmission processing unit 243 adds a face position request flag “OFF” that does not request transmission of the face position data to the image file 30 to be transmitted, and transmits to the partner camera. 1 is processed (step e6). The data transmission / reception processing unit 204 is in a standby state until receiving a reception completion notification.

例えば予め設定される所定時間が経過するまでの間に相手カメラ1からの受信完了通知を受信しない場合には(ステップe7:No)、データ送受信処理部204は、画像ファイル30の送信に失敗したと判定し、警告報知処理を行う(ステップe9)。送信に失敗した場合には、受信に失敗した場合と同様、途中で自機のデジタルカメラ1と相手カメラ1との間が遠ざけられて通信が遮断した場合等が挙げられる。データ送受信処理部204は、相手カメラ1に対する画像ファイル30の送信に失敗した旨のメッセージを表示部15に表示する処理を行う。なお、警告音を音出力する構成としてもよいし、これらを組み合わせて行う構成としてもよい。   For example, when the reception completion notification from the counterpart camera 1 is not received before the predetermined time elapses (step e7: No), the data transmission / reception processing unit 204 has failed to transmit the image file 30. And a warning notification process is performed (step e9). When the transmission fails, the case where the communication between the digital camera 1 and the counterpart camera 1 is moved away in the middle is interrupted as in the case of the reception failure. The data transmission / reception processing unit 204 performs processing for displaying a message on the display unit 15 that the transmission of the image file 30 to the counterpart camera 1 has failed. It should be noted that a warning sound may be output, or a combination of these may be used.

また、通信履歴一覧更新部242が、送信対象の画像ファイル30の通信履歴一覧36の中から、図14のステップf21で今回追加した通信履歴データ360を削除して画像ファイル30を更新する(ステップe11)。その画像ファイル30は相手カメラ1に送信されていないためであり、次に今回送信対象とした画像ファイル30について同一の相手カメラ1に対する送信指示が入力されたときに送信処理されるようにするためである。その後、図11のステップc19にリターンしてステップc25に移る。   Further, the communication history list update unit 242 updates the image file 30 by deleting the communication history data 360 added this time at step f21 in FIG. 14 from the communication history list 36 of the image file 30 to be transmitted (step S21). e11). This is because the image file 30 has not been transmitted to the counterpart camera 1, and is next subjected to transmission processing when a transmission instruction for the same counterpart camera 1 is input for the image file 30 to be transmitted this time. It is. Thereafter, the process returns to step c19 in FIG. 11 and proceeds to step c25.

一方、相手カメラ1からの受信完了通知を受信した場合には(ステップe7:Yes)、さらに、相手カメラ1からの顔位置データの受信を待機する。例えば予め設定される所定時間が経過するまでの間に相手カメラ1から顔位置データを受信しない場合には(ステップe13:No)、図11のステップc19にリターンしてステップc25に移る。   On the other hand, when the reception completion notification from the counterpart camera 1 is received (step e7: Yes), the reception of the face position data from the counterpart camera 1 is further waited. For example, when face position data is not received from the counterpart camera 1 until a predetermined time has elapsed (step e13: No), the process returns to step c19 in FIG. 11 and proceeds to step c25.

そして、顔位置データを受信した場合には(ステップe13:Yes)、顔/機器対応付け処理に移る(ステップe15)。ここで受信する顔位置データは、ステップe5で送信処理した画像ファイル30の画像データ33中で相手カメラ1において自機ユーザと認識された顔(すなわち相手カメラ1のユーザの顔)の位置情報である。図15は、顔/機器対応付け処理の詳細な処理手順を示すフローチャートである。   When face position data is received (step e13: Yes), the process proceeds to face / device association processing (step e15). The face position data received here is the position information of the face recognized as the own user in the partner camera 1 in the image data 33 of the image file 30 transmitted in step e5 (that is, the face of the user of the partner camera 1). is there. FIG. 15 is a flowchart showing a detailed processing procedure of the face / device association processing.

図15に示すように、顔/機器対応付け処理では先ず、顔/機器対応付け処理部205が、受信した顔位置データに設定されている画像IDをもとに該当する画像ファイル30を参照し、検出顔情報35の顔データ350の中から該当する顔位置の顔データ350を選出して顔番号を特定する(ステップg1)。具体的には、顔/機器対応付け処理部205は、受信した顔位置データを検出顔情報35に設定されている顔データ350の顔位置と比較し、一致する顔位置の顔データ350を選出して顔番号を特定する。続いて、顔/機器対応付け処理部205は、受信した顔位置データの画像IDおよび特定した顔番号をもとに該当する画像送信フラグを“ON”に設定して撮影人物画像送信情報175を更新する(ステップg3)。   As shown in FIG. 15, in the face / device association processing, first, the face / device association processing unit 205 refers to the corresponding image file 30 based on the image ID set in the received face position data. The face data 350 at the corresponding face position is selected from the face data 350 of the detected face information 35, and the face number is specified (step g1). Specifically, the face / device association processing unit 205 compares the received face position data with the face position of the face data 350 set in the detected face information 35, and selects the face data 350 of the matching face position. To identify the face number. Subsequently, the face / device association processing unit 205 sets the corresponding image transmission flag to “ON” based on the image ID of the received face position data and the specified face number, and sets the photographed person image transmission information 175. Update (step g3).

また、顔/機器対応付け処理部205は、特定した顔番号の顔の人物が、今回通信を行って画像ファイル30を送信した相手カメラ1の所有者であるとして登録する(ステップg5)。具体的にはこのとき、画像処理部12が、顔/機器対応付け処理部205の制御のもと、該当する画像ID31に対応する画像データ33からステップg1で特定された顔番号の顔領域を切り出す処理を行うようになっており、顔/機器対応付け処理部205は、画像処理部12によって切り出された画像データ(顔画像データ)を、図12のステップd3で通信相手の相手カメラ1から受信した機器データと対応付けて顔/機器対応テーブル177に設定する。   Further, the face / device association processing unit 205 registers that the person of the face with the identified face number is the owner of the partner camera 1 that has transmitted the image file 30 through the current communication (step g5). Specifically, at this time, under the control of the face / apparatus association processing unit 205, the image processing unit 12 selects the face area of the face number specified in step g1 from the image data 33 corresponding to the corresponding image ID 31. The face / apparatus association processing unit 205 extracts the image data (face image data) extracted by the image processing unit 12 from the communication partner partner camera 1 in step d3 of FIG. The face / device correspondence table 177 is set in association with the received device data.

そして、制御部20が、その画像データ33中の送信済みの顔に送信済マークを付して確認表示するための処理を行う(ステップg7)。ここでの処理によって、制御部20は、表示処理部として、画像データ中の送信済みの顔を未送信の顔と識別可能に表示処理する。具体的には先ず、制御部20が、撮影人物画像送信情報175において受信した顔位置データの画像IDに対応する画像送信フラグとして“ON”が設定されている顔番号、すなわち、ステップg3で画像送信フラグを“ON”に設定した顔番号およびその画像IDに対応する画像送信フラグとして既に“ON”が設定されている顔番号をもとに、該当する顔データ350から顔位置を読み出す。そして、顔画像処理部123が、読み出した顔位置をもとに、その顔領域の近傍位置に送信済マークを合成処理する。そして、制御部20が、合成処理後の画像データを表示部15に表示処理する。なお、ここでは、送信済マークを合成処理することとしたが、該当する顔領域の近傍位置に、送信済マークを重畳表示(OSD:On Screen Display)するようにしてもよい。   Then, the control unit 20 performs a process for confirming and displaying a transmitted mark on the transmitted face in the image data 33 (step g7). By the processing here, the control unit 20 performs display processing as a display processing unit so that the transmitted face in the image data can be distinguished from the untransmitted face. Specifically, first, the controller 20 sets the face number for which “ON” is set as the image transmission flag corresponding to the image ID of the face position data received in the photographed person image transmission information 175, that is, the image in step g3. Based on the face number for which the transmission flag is set to “ON” and the face number for which “ON” has already been set as the image transmission flag corresponding to the image ID, the face position is read from the corresponding face data 350. Then, the face image processing unit 123 synthesizes a transmitted mark at a position near the face area based on the read face position. Then, the control unit 20 performs display processing on the display unit 15 for the image data after the synthesis processing. In this example, the transmitted mark is combined, but the transmitted mark may be superimposed and displayed (OSD: On Screen Display) near the corresponding face area.

また、図11において、ステップc3で撮影指示が入力されない場合には(ステップc3:No)、続いて制御部20は、相手カメラ1からのデータを受信可能か否かを判定する。例えば、制御部20は、相手カメラ1との間で通信が確立した場合に受信可能と判定する。受信可能でなければ(ステップc21:No)、ステップc25に移る。そして、受信可能と判定した場合には(ステップc21:Yes)、データ送受信処理部204がデータ受信処理を行う(ステップc23)。図16は、データ受信処理の詳細な処理手順を示すフローチャートである。   In FIG. 11, when a shooting instruction is not input in step c3 (step c3: No), the control unit 20 subsequently determines whether data from the partner camera 1 can be received. For example, the control unit 20 determines that reception is possible when communication with the counterpart camera 1 is established. If it is not receivable (step c21: No), it moves to step c25. If it is determined that reception is possible (step c21: Yes), the data transmission / reception processing unit 204 performs data reception processing (step c23). FIG. 16 is a flowchart showing a detailed processing procedure of data reception processing.

図16に示すように、データ受信処理では先ず、通信が確立した相手カメラ1から通知される機器データ送信要求を受信するまで待機状態となる。そして、例えば予め設定される所定時間が経過するまでの間に相手カメラ1から機器データ送信要求を受信したならば(ステップh1:Yes)、データ送受信処理部204は、無線通信部19を介して記録部17に記録されている自機データ171の機器データ(自機の機器ID)を相手カメラ1に送信する処理を行う(ステップh3)。そして、データ送受信処理部204は、送信に成功した場合には(ステップh5:Yes)、続いて相手カメラ1から画像ファイルを受信し(ステップh7)、受信に成功したならば(ステップh9:Yes)、受信完了通知を相手カメラ1に送信する処理を行う(ステップh11)。   As shown in FIG. 16, in the data reception process, first, a standby state is entered until a device data transmission request notified from the partner camera 1 with which communication has been established is received. For example, if a device data transmission request is received from the counterpart camera 1 before a predetermined time elapses (step h1: Yes), the data transmission / reception processing unit 204 passes through the wireless communication unit 19 A process of transmitting the device data of the own device data 171 recorded in the recording unit 17 (the device ID of the own device) to the counterpart camera 1 is performed (step h3). Then, if the transmission / reception processing unit 204 has succeeded in transmission (step h5: Yes), the data transmission / reception processing unit 204 subsequently receives an image file from the partner camera 1 (step h7), and if reception has been successful (step h9: Yes). ), A process of transmitting a reception completion notification to the partner camera 1 (step h11).

続いて、自機顔判定部244が、受信した画像ファイルの顔位置要求フラグを判定する。“ON”である顔位置要求フラグが付加された画像ファイルがなければ(ステップh13:No)、ステップh27に移る。   Subsequently, the own device face determination unit 244 determines the face position request flag of the received image file. If there is no image file to which the face position request flag “ON” is added (step h13: No), the process proceeds to step h27.

一方、“ON”である顔位置要求フラグが付加された画像ファイルがある場合には(ステップh13:Yes)、自機顔判定部244は、この“ON”の顔位置要求フラグが付加された画像ファイルを処理対象に設定する(ステップh15)。そして、処理対象の画像ファイル毎にループAの処理を行う(ステップh17〜ステップh25)。ここでの処理により、ステップh7で“ON”の顔位置要求フラグが付加された複数の画像ファイルを受信した場合には、その画像ファイル毎にループAの処理が行われることとなる。   On the other hand, when there is an image file to which the face position request flag that is “ON” is added (step h13: Yes), the own device face determination unit 244 adds the face position request flag that is “ON”. The image file is set as a processing target (step h15). Then, the process of loop A is performed for each image file to be processed (step h17 to step h25). If a plurality of image files to which the “ON” face position request flag is added are received in step h7, loop A processing is performed for each image file.

すなわち、ループAでは先ず、人物認識部121が、処理対象の画像ファイルから検出顔情報を読み出し、読み出した検出顔情報に設定されている顔データを自機データ171の自機顔データと照合して人物認識処理を行う(ステップh19)。検出顔情報として複数の顔データが設定されている場合には、各顔データをそれぞれ自機顔データと照合する。そして、人物認識部121は、自機顔データとの類似度の高い顔データがあれば、その顔領域を自機ユーザの顔として認識し、顔番号を認識結果として出力する。   That is, in the loop A, first, the person recognition unit 121 reads the detected face information from the processing target image file, and collates the face data set in the read detected face information with the own face data of the own apparatus data 171. Then, person recognition processing is performed (step h19). When a plurality of face data is set as detected face information, each face data is collated with its own face data. If there is face data having a high degree of similarity to the own device face data, the person recognizing unit 121 recognizes the face area as the face of the own device user, and outputs the face number as a recognition result.

そして、人物認識部121が自機ユーザの顔を認識した場合には(ステップh21:Yes)、自機顔判定部244が、処理対象の画像ファイルから画像IDを読み出し、顔番号と対応付けた顔位置データを相手カメラ1に送信処理する(ステップh23)。全ての処理対象の画像ファイルについてループAの処理を行ったならば、ステップh27に移る。   When the person recognition unit 121 recognizes the user's own user's face (step h21: Yes), the own device face determination unit 244 reads the image ID from the processing target image file and associates it with the face number. The face position data is transmitted to the counterpart camera 1 (step h23). If the processing of loop A is performed for all the processing target image files, the process proceeds to step h27.

そして、ステップh27では、データ送受信処理部204は、ステップh7で受信した画像ファイルを画像ファイル30として記録部17に記録処理し、画像情報173に追加する(ステップh27)。そして、図11のステップc23にリターンし、ステップc25に移る。   In step h27, the data transmission / reception processing unit 204 records the image file received in step h7 in the recording unit 17 as the image file 30, and adds it to the image information 173 (step h27). And it returns to step c23 of FIG. 11, and moves to step c25.

一方、図16のステップh1において機器データ送信要求を受信しない場合(ステップh1:No)、ステップh5において送信に失敗した場合(ステップh5:No)、ステップh9において受信に失敗した場合は(ステップh9:No)、ステップh29に移る。そして、ステップh29では、データ送受信処理部204は、警告報知処理を行う。例えば、データ送受信処理部204は、相手カメラ1からの画像ファイル30の受信に失敗した旨のメッセージを表示部15に表示する処理を行う。なお、警告音を音出力する構成としてもよいし、これらを組み合わせて行う構成としてもよい。その後、図11のステップc23にリターンし、ステップc25に移る。   On the other hand, when the device data transmission request is not received at step h1 in FIG. 16 (step h1: No), when transmission fails at step h5 (step h5: No), when reception fails at step h9 (step h9). : No), it moves to step h29. In step h29, the data transmission / reception processing unit 204 performs a warning notification process. For example, the data transmission / reception processing unit 204 performs a process of displaying a message on the display unit 15 that the reception of the image file 30 from the counterpart camera 1 has failed. It should be noted that a warning sound may be output, or a combination of these may be used. Thereafter, the process returns to step c23 of FIG. 11 and proceeds to step c25.

そして、図11のステップc25では、制御部20が撮影モードの終了判定を行い、終了する場合には(ステップc25:Yes)、ステップc27に移る。撮影モードを終了しない場合には(ステップc25:No)、ステップc1に戻る。   Then, in step c25 of FIG. 11, the control unit 20 determines whether or not to end the shooting mode, and when it ends (step c25: Yes), the process proceeds to step c27. If the shooting mode is not terminated (step c25: No), the process returns to step c1.

そして、ステップc27では、制御部20は、無線通信部19を停止状態(OFF)にする。なお、このときに無線通信部19による通信が実行中でなければ、特に処理を行わない。そして、撮影モード処理を終えて図10のステップb3にリターンしてステップb9に移る。   And in step c27, the control part 20 makes the radio | wireless communication part 19 a halt condition (OFF). At this time, if communication by the wireless communication unit 19 is not being executed, no particular processing is performed. Then, after the photographing mode process is completed, the process returns to step b3 in FIG. 10 and proceeds to step b9.

次に、再生モード処理について説明する。図17は、再生モード処理の詳細な処理手順を示すフローチャートである。図17に示すように、再生モード処理では、制御部20は先ず、無線通信部19を起動(ON)する(ステップi1)。続いて制御部20は、記録部17に画像ファイル30として記録されている画像の中から再生する画像(再生画像)を選択する(ステップi2)。ここで行う画像の選択は、例えば、記録部17に記録されている画像を記録順に1枚ずつ順番に選択する構成としてもよいし、複数の画像のサムネイルデータを読み出して一覧表示する制御を行い、ユーザ操作に従って一覧の中から1つの画像を選択する構成としてもよい。その後、画像再生処理に移る(ステップi3)。図18は、画像再生処理の詳細な処理手順を示すフローチャートである。   Next, the playback mode process will be described. FIG. 17 is a flowchart showing a detailed processing procedure of the playback mode processing. As shown in FIG. 17, in the reproduction mode process, the control unit 20 first activates (ON) the wireless communication unit 19 (step i1). Subsequently, the control unit 20 selects an image (reproduced image) to be reproduced from images recorded as the image file 30 in the recording unit 17 (step i2). The image selection performed here may be, for example, a configuration in which the images recorded in the recording unit 17 are sequentially selected one by one in the recording order, or the thumbnail data of a plurality of images is read and displayed in a list. A configuration may be adopted in which one image is selected from the list in accordance with a user operation. Thereafter, the process proceeds to image reproduction processing (step i3). FIG. 18 is a flowchart showing a detailed processing procedure of the image reproduction processing.

図18に示すように、画像再生処理では先ず、制御部20が、図17のステップi2で選択した再生画像が撮影人物画像として登録された撮影画像か否かを判定する。具体的には、制御部20は、選択した画像ファイル30の画像ID31が撮影人物画像送信情報175に設定されている場合に登録されていると判定する。登録されていなければ(ステップj1:No)、ステップj9に移る。一方、登録されている場合には(ステップj1:Yes)、制御部20は、対応する画像送信フラグとして“ON”が設定されている顔番号の有無を判定する。そして、画像送信フラグが“ON”である顔番号がなければ(ステップj3:No)、ステップj9に移る。   As shown in FIG. 18, in the image reproduction process, first, the control unit 20 determines whether or not the reproduction image selected in step i2 in FIG. 17 is a captured image registered as a photographed person image. Specifically, the control unit 20 determines that it is registered when the image ID 31 of the selected image file 30 is set in the photographed person image transmission information 175. If not registered (step j1: No), the process proceeds to step j9. On the other hand, if registered (step j1: Yes), the control unit 20 determines whether there is a face number for which “ON” is set as the corresponding image transmission flag. If there is no face number whose image transmission flag is “ON” (step j3: No), the process proceeds to step j9.

そして、ステップj9では、制御部20は、再生画像の画像データ33を読み込んで表示部15に再生(表示)する処理を行う。その後、図17のステップi3にリターンしてステップi5に移る。なお、ここで再生される再生画像の画像データには、自機で撮影されて記録部17に記録されたものの他、図16のデータ受信処理で相手カメラ1から受信した画像ファイル30の画像データが含まれる。   In step j9, the control unit 20 performs a process of reading the image data 33 of the reproduction image and reproducing (displaying) it on the display unit 15. Thereafter, the process returns to step i3 in FIG. 17 and proceeds to step i5. In addition to the image data of the reproduced image reproduced here, the image data of the image file 30 received from the counterpart camera 1 in the data reception process of FIG. Is included.

一方、画像送信フラグが“ON”である顔番号がある場合には(ステップj3:Yes)、制御部20は、検出顔情報35を参照し、画像送信フラグが“ON”である顔番号をもとに該当する顔データ350から顔位置を読み出す(ステップj5)。そして、制御部20は、読み出した顔位置をもとに、その画像データ33中の送信済みの顔に送信済マークを付して再生表示するための処理を行う(ステップj7)。具体的には先ず、顔画像処理部123が、ステップj5で制御部20が読み出した顔位置をもとに、その顔領域の近傍位置に送信済マークを合成処理する。そして、制御部20が、合成処理後の画像データを表示部15に表示処理する。その後、図17のステップi3にリターンしてステップi5に移る。   On the other hand, when there is a face number whose image transmission flag is “ON” (step j3: Yes), the control unit 20 refers to the detected face information 35 and selects a face number whose image transmission flag is “ON”. The face position is read from the corresponding face data 350 (step j5). Then, based on the read face position, the control unit 20 performs processing for attaching and displaying a transmitted mark on the transmitted face in the image data 33 (step j7). Specifically, first, the face image processing unit 123 synthesizes a transmitted mark at a position near the face area based on the face position read out by the control unit 20 in step j5. Then, the control unit 20 performs display processing on the display unit 15 for the image data after the synthesis processing. Thereafter, the process returns to step i3 in FIG. 17 and proceeds to step i5.

そして、ステップi5では、再生画像の切換指示を受け付け、切換指示が入力された場合には(ステップi5:Yes)、制御部20は、ステップi2に戻って再生画像を再度選択し、画像再生処理を行う(ステップi3)。   In step i5, a playback image switching instruction is received. If the switching instruction is input (step i5: Yes), the control unit 20 returns to step i2 to select the playback image again and perform image playback processing. (Step i3).

また、この再生モード処理では、ステップi7でユーザによる送信指示を判定しており、送信指示が入力された場合には、例えば通信が確立した相手カメラ1に対し、記録部17に記録されている画像の画像ファイル30を送信するようになっている。送信指示が入力されない場合には(ステップi7:No)、ステップi25に移る。   In this playback mode process, the transmission instruction by the user is determined in step i7, and when the transmission instruction is input, for example, it is recorded in the recording unit 17 for the partner camera 1 with which communication has been established. An image file 30 of an image is transmitted. When the transmission instruction is not input (step i7: No), the process proceeds to step i25.

そして、送信指示が入力されると(ステップi7:Yes)、先ず、制御部20が、入力された送信指示を判定する。本実施の形態のデジタルカメラ1は、再生モード中の送信指示として、例えば、記録部17に記録されている全ての画像を一括で送信する送信指示と、記録部17に記録されている画像を1枚ずつ送信する送信指示と、記録部17に記録されている複数の画像をユーザ操作に従って選択して送信する送信指示とが可能に構成されている。制御部20は、入力された送信指示に応じて送信対象の画像ファイル30を選択する(ステップi9)。   When a transmission instruction is input (step i7: Yes), first, the control unit 20 determines the input transmission instruction. The digital camera 1 according to the present embodiment, for example, transmits a transmission instruction for transmitting all the images recorded in the recording unit 17 and an image recorded in the recording unit 17 as a transmission instruction in the playback mode. A transmission instruction for transmitting one image at a time and a transmission instruction for selecting and transmitting a plurality of images recorded in the recording unit 17 in accordance with a user operation are configured. The control unit 20 selects the image file 30 to be transmitted according to the input transmission instruction (step i9).

そして、続くステップi11では、この相手カメラ1との間の通信の確立を監視する。このとき、無線通信部19が電波の発信を開始するようになっており、この電波を相手カメラ1の無線通信部が受信すると、相手カメラ1との間の通信が確立する。   In subsequent step i11, establishment of communication with the counterpart camera 1 is monitored. At this time, the wireless communication unit 19 starts transmitting radio waves, and when the radio communication unit of the counterpart camera 1 receives this radio wave, communication with the counterpart camera 1 is established.

そして、例えば、予め設定される所定時間が経過するまでの間に相手カメラ1との間で通信が確立しなければ(ステップi11:No)、制御部20が警告報知処理を行う(ステップi13)。そしてその後、ステップi25に移る。例えば、制御部20は、警告報知処理として、通信が確立しない旨のメッセージを表示部15に表示処理する。なお、警告音を音出力する構成としてもよいし、これらを組み合わせて行う構成としてもよい。   Then, for example, if communication with the counterpart camera 1 is not established before a predetermined time elapses (step i11: No), the control unit 20 performs a warning notification process (step i13). . Then, the process proceeds to step i25. For example, as a warning notification process, the control unit 20 displays a message indicating that communication is not established on the display unit 15. It should be noted that a warning sound may be output, or a combination of these may be used.

一方、相手カメラ1との間で通信が確立した場合には(ステップi11:Yes)、通信履歴仮記録処理に移る(ステップi15)。この通信履歴仮記録処理は、図12に示した処理手順と同様にして行う。   On the other hand, when communication is established with the partner camera 1 (step i11: Yes), the process proceeds to a communication history temporary recording process (step i15). This communication history temporary recording process is performed in the same manner as the processing procedure shown in FIG.

そして、続くステップi17では、データ送受信処理部204が、ステップi15の通信履歴仮記録処理で通信履歴データを生成したか否かを判定する。具体的には、図11のステップc17と同様に、データ送受信処理部204は、ステップi15の通信履歴仮記録処理の結果設定された通信履歴フラグが“OFF”であれば通信履歴データを生成していないと判定し(ステップi17:No)、データ送信処理を行わずに(ステップi7の送信指示に応じてステップi9で選択した送信対象の画像ファイル30を相手カメラ1に送信せずに)、ステップi25に移る。   In step i17, the data transmission / reception processing unit 204 determines whether communication history data has been generated in the communication history temporary recording process in step i15. Specifically, as in step c17 of FIG. 11, the data transmission / reception processing unit 204 generates communication history data if the communication history flag set as a result of the communication history temporary recording process in step i15 is “OFF”. (Step i17: No), without performing data transmission processing (without transmitting the image file 30 to be transmitted selected in Step i9 in response to the transmission instruction in Step i7 to the counterpart camera 1), Move on to step i25.

そして、データ送受信処理部204は、通信履歴生成フラグが“ON”の場合には、通信履歴データを生成したと判定し(ステップi17:Yes)、続いてステップi9で選択した送信対象の画像ファイル30の数を判定する。そして、ステップi9で選択した送信対象の画像ファイル30が1つ(ステップi7において画像の1枚送信が指示された場合)であれば(ステップi19:No)、データ送受信処理部204は、データ送信処理を行う(ステップi21)。このデータ送信処理は、図13に示した処理手順と同様にして行う。   When the communication history generation flag is “ON”, the data transmission / reception processing unit 204 determines that the communication history data has been generated (step i17: Yes), and then the transmission target image file selected in step i9. The number of 30 is determined. If there is one transmission target image file 30 selected in step i9 (when transmission of one image is instructed in step i7) (step i19: No), the data transmission / reception processing unit 204 transmits data. Processing is performed (step i21). This data transmission processing is performed in the same manner as the processing procedure shown in FIG.

一方、送信対象の画像ファイル30が複数の場合(ステップi7において画像の一括送信が指示された場合や、複数の画像が選択されて送信指示された場合)には(ステップi19:Yes)、データ送受信処理部204は、データ一括送信処理を行う(ステップi23)。図19は、データ一括送信処理の詳細な処理手順を示すフローチャートである。   On the other hand, when there are a plurality of image files 30 to be transmitted (when a batch transmission of images is instructed in step i7 or when a plurality of images are selected and instructed to be transmitted) (step i19: Yes), the data The transmission / reception processing unit 204 performs a data batch transmission process (step i23). FIG. 19 is a flowchart showing a detailed processing procedure of the data batch transmission processing.

図19に示すように、データ一括送信処理では先ず、送信対象の複数の画像ファイル30を順次処理対象としてループBの処理を行う(ステップk1〜ステップk5)。すなわち、各送信対象の画像ファイル30それぞれについて、送信判定処理を行う(ステップk3)。この送信判定処理は、図14に示した処理手順と同様にして行う。全ての送信対象の画像ファイル30についてループBの処理(すなわち送信判定処理)を行ったならば、ステップk7に移る。   As shown in FIG. 19, in the data batch transmission process, first, a loop B process is performed on a plurality of image files 30 to be transmitted sequentially as a process target (step k1 to step k5). That is, transmission determination processing is performed for each image file 30 to be transmitted (step k3). This transmission determination processing is performed in the same manner as the processing procedure shown in FIG. If loop B processing (that is, transmission determination processing) has been performed for all the image files 30 to be transmitted, the process proceeds to step k7.

そして、ステップk7では、データ送受信処理部204が、ステップk1〜ステップk5の全ての送信対象の画像ファイル30に対する送信判定処理の結果をもとに、送信する画像ファイル30の有無を判定する。すなわち、ステップk1〜ステップk5において複数の送信対象の画像ファイル30全てについて送信条件を満足しないと判定した場合には、データ送受信処理部204は、送信する画像ファイル30なしと判定し(ステップk7:No)、図17のステップi23にリターンしてステップi25に移る。   In step k7, the data transmission / reception processing unit 204 determines the presence / absence of the image file 30 to be transmitted based on the result of the transmission determination process for all the image files 30 to be transmitted in step k1 to step k5. That is, if it is determined in step k1 to step k5 that the transmission conditions are not satisfied for all of the plurality of transmission target image files 30, the data transmission / reception processing unit 204 determines that there is no image file 30 to be transmitted (step k7: No), the process returns to step i23 of FIG. 17 and proceeds to step i25.

一方、データ送受信処理部204は、送信条件を満足した画像ファイル30があれば送信する画像ファイル30ありと判定する(ステップk7:Yes)。この場合には、続いて画像ファイル送信処理部243が、送信する画像ファイル30のうちの撮影人物画像として登録された画像ファイル30、すなわち、その画像ID31が撮影人物画像送信情報175に設定されている画像ファイル30に顔位置要求フラグ“ON”を付加する(ステップk8)。また、送信する画像ファイル30のうちの撮影人物画像として登録されていない画像ファイル30、すなわち、その画像ID31が撮影人物画像送信情報175に設定されていない画像ファイル30に顔位置要求フラグ“OFF”を付加する(ステップk9)。その後、画像ファイル送信処理部243は、送信する画像ファイル30を無線通信部19を介して相手カメラ1に一括送信する処理を行う(ステップk10)。そして、データ送受信処理部204は、受信完了通知を受信するまで待機状態となる。   On the other hand, if there is an image file 30 that satisfies the transmission condition, the data transmission / reception processing unit 204 determines that there is an image file 30 to be transmitted (step k7: Yes). In this case, the image file transmission processing unit 243 then sets the image file 30 registered as the photographed person image in the image file 30 to be transmitted, that is, the image ID 31 thereof, in the photographed person image transmission information 175. The face position request flag “ON” is added to the existing image file 30 (step k8). Further, the face position request flag “OFF” is set in the image file 30 that is not registered as the photographed person image in the image file 30 to be transmitted, that is, the image file 30 whose image ID 31 is not set in the photographed person image transmission information 175. Is added (step k9). Thereafter, the image file transmission processing unit 243 performs processing for collectively transmitting the image files 30 to be transmitted to the counterpart camera 1 via the wireless communication unit 19 (step k10). The data transmission / reception processing unit 204 is in a standby state until receiving a reception completion notification.

例えば予め設定される所定時間が経過するまでの間に相手カメラ1からの受信完了通知を受信しない場合には(ステップk11:No)、データ送受信処理部204は、画像ファイル30の送信に失敗したと判定し、警告報知処理を行う(ステップk13)。例えば、データ送受信処理部204は、図13のステップe9と同様に、相手カメラ1に対する画像ファイル30の送信に失敗した旨のメッセージを表示部15に表示する処理を行う。なお、警告音を音出力する構成としてもよいし、これらを組み合わせて行う構成としてもよい。   For example, when the reception completion notification from the counterpart camera 1 is not received before a predetermined time elapses (step k11: No), the data transmission / reception processing unit 204 has failed to transmit the image file 30. And a warning notification process is performed (step k13). For example, the data transmission / reception processing unit 204 performs processing for displaying on the display unit 15 a message indicating that transmission of the image file 30 to the counterpart camera 1 has failed, as in step e9 of FIG. It should be noted that a warning sound may be output, or a combination of these may be used.

また、通信履歴一覧更新部242が、送信対象の画像ファイル30の通信履歴一覧36の中から、ステップk3の送信判定処理において今回追加した通信履歴データ360を削除して画像ファイル30を更新する(ステップk15)。複数の画像ファイル30に通信履歴データ360を追加した場合には、各画像ファイル30それぞれからその追加した通信履歴データ360を削除する。その後、図17のステップi23にリターンし、ステップi25に移る。   Further, the communication history list update unit 242 deletes the communication history data 360 added this time in the transmission determination process of step k3 from the communication history list 36 of the image file 30 to be transmitted, and updates the image file 30 ( Step k15). When the communication history data 360 is added to the plurality of image files 30, the added communication history data 360 is deleted from each of the image files 30. Thereafter, the process returns to step i23 in FIG. 17 and proceeds to step i25.

一方、相手カメラ1からの受信完了通知を受信した場合には(ステップk11:Yes)、さらに、相手カメラ1からの顔位置データの受信を待機する。例えば予め設定される所定時間が経過するまでの間に相手カメラ1から顔位置データを受信しない場合には(ステップk17:No)、図11のステップc19にリターンしてステップc25に移る。   On the other hand, when the reception completion notification from the counterpart camera 1 is received (step k11: Yes), the reception of the face position data from the counterpart camera 1 is awaited. For example, when face position data is not received from the counterpart camera 1 until a predetermined time has elapsed (step k17: No), the process returns to step c19 in FIG. 11 and proceeds to step c25.

そして、顔位置データを受信した場合には(ステップk17:Yes)、受信した顔位置データ毎にループCの処理を行う(ステップk19〜ステップk23)。すなわち、各顔位置データそれぞれについて顔/機器対応付け処理を行う(ステップk21)。この顔/機器対応付け処理は、図15に示した処理手順と同様にして行う。受信した全ての顔位置データについてループCの処理(すなわち顔/機器対応付け処理)を行ったならば、図11のステップc19にリターンしてステップc25に移る。   When the face position data is received (step k17: Yes), the process of loop C is performed for each received face position data (step k19 to step k23). That is, face / device association processing is performed for each face position data (step k21). This face / device association processing is performed in the same manner as the processing procedure shown in FIG. If loop C processing (that is, face / device association processing) has been performed for all received face position data, the process returns to step c19 in FIG. 11 and proceeds to step c25.

そして、ステップi25では、制御部20が再生モードの終了判定を行い、終了する場合には(ステップi25:Yes)、ステップi27に移る。再生モードを終了しない場合には(ステップi25:No)、ステップi5に戻る。   In step i25, the control unit 20 determines whether or not to end the reproduction mode. When the control unit 20 ends (step i25: Yes), the process proceeds to step i27. If the playback mode is not terminated (step i25: No), the process returns to step i5.

そして、ステップi27では、制御部20は、無線通信部19を停止状態(OFF)にする。なお、このときに無線通信部19による通信が実行中でなければ、特に処理を行わない。そして、再生モード処理を終えて図10のステップb7にリターンしてステップb9に移る。   In step i27, the control unit 20 puts the wireless communication unit 19 in a stopped state (OFF). At this time, if communication by the wireless communication unit 19 is not being executed, no particular processing is performed. Then, after the reproduction mode process is completed, the process returns to step b7 in FIG. 10 and proceeds to step b9.

以上説明したように、本実施の形態によれば、相手カメラ1に人物の顔が映る撮影人物画像の画像ファイル30を送信した場合であって、相手カメラ1から顔位置データを受信した場合に、受信した顔位置データをもとに送信した撮影人物画像中の顔を特定することができる。そして、特定した顔の人物を相手カメラ1の所有者として登録することができる。ここで、顔位置データは、画像ファイル30を受信した相手カメラ1がその画像データ中で自機ユーザと認識した顔(すなわち、相手カメラ1のユーザの顔)の顔位置を含む。   As described above, according to the present embodiment, when the image file 30 of a photographed person image in which a person's face is reflected is transmitted to the counterpart camera 1 and face position data is received from the counterpart camera 1. The face in the photographed person image transmitted based on the received face position data can be specified. Then, the person with the specified face can be registered as the owner of the counterpart camera 1. Here, the face position data includes the face position of the face (that is, the face of the user of the partner camera 1) that the partner camera 1 that has received the image file 30 recognizes as its own user in the image data.

また、撮影人物画像の画像データ33を確認表示または再生表示する際、画像データ33中の顔のうち、既にその顔の人物が所有する外部機器(他のデジタルカメラ1)にその画像データ(実際には画像ファイル30)が送信されている送信済みの顔の近傍位置に、送信済みを示す送信済マークを合成する処理を行って表示部15に表示処理することができる。   In addition, when the image data 33 of the photographed person image is displayed for confirmation or reproduction, the image data (actually, the face in the image data 33 is actually transferred to an external device (other digital camera 1) owned by the person of the face. Can be displayed on the display unit 15 by performing a process of combining a transmitted mark indicating that the image has been transmitted at a position near the transmitted face to which the image file 30) has been transmitted.

一方、相手カメラ1から顔位置要求フラグ“ON”が付加された画像ファイルを受信した場合であって、人物認識部121によってその画像データ中に映る自機ユーザの顔が認識された場合に、その顔位置を画像IDと対応付けた顔位置データを相手カメラ1に送信処理することができる。   On the other hand, when an image file to which the face position request flag “ON” is added is received from the counterpart camera 1 and the face of the user of the user reflected in the image data is recognized by the person recognition unit 121, The face position data in which the face position is associated with the image ID can be transmitted to the counterpart camera 1.

したがって、ユーザは、画像データ中の顔の人物が所有する他のデジタルカメラ1にその画像データを送信済みか否かを確認することができる。これによれば、同じコンテンツデータを同じ外部機器に対して重複して送信する無駄を低減することができるという効果を奏する。   Therefore, the user can confirm whether or not the image data has already been transmitted to the other digital camera 1 owned by the face person in the image data. According to this, it is possible to reduce the waste of redundantly transmitting the same content data to the same external device.

なお、上記した実施の形態では、撮影人物画像に映る顔のうち、その人物が所有する外部機器にその画像データがすでに送信されている送信済みの顔の近傍位置に、送信済マークを付して送信済みの顔を識別表示する場合について説明したが、これに限定されるものではない。   In the above-described embodiment, among the faces shown in the photographed person image, a transmitted mark is added to a position near the transmitted face where the image data has already been transmitted to the external device owned by the person. Although the case where the transmitted face is identified and displayed has been described, the present invention is not limited to this.

(変形例1)
図20は、変形例1における撮影人物画像の表示画面例を示す図である。変形例1では、図20に示すように、撮影人物画像を確認表示または再生表示する際に表示画面を2分割する。上側の画像表示画面W21には、撮影人物画像が表示される。一方、下側のサムネイル表示画面W23には、画像表示画面W21に表示されている撮影人物画像に映る顔のうち、その画像データが送信済みである顔のサムネイルS21,S23が表示される。この場合の内部処理としては、例えば先ず、制御部20が、撮影人物画像送信情報175から、撮影人物画像の画像IDに対応する顔番号のうちの画像送信フラグが“ON”である顔番号を読み出し、該当する顔データ350から顔位置を読み出す。そして、ここで読み出された顔位置をもとに、画像処理部12が、画像データ33から顔領域を切り出す処理を行う。その後、制御部20が、顔領域をサムネイル画面W23においてサムネイル表示する処理を行う。
(Modification 1)
FIG. 20 is a diagram illustrating a display screen example of a photographed person image in the first modification. In the first modification, as shown in FIG. 20, the display screen is divided into two when the photographed person image is displayed for confirmation or reproduction. The photographed person image is displayed on the upper image display screen W21. On the other hand, the lower thumbnail display screen W23 displays the thumbnails S21 and S23 of the faces whose image data have already been transmitted among the faces shown in the photographed person image displayed on the image display screen W21. As internal processing in this case, for example, first, the control unit 20 selects a face number for which the image transmission flag is “ON” among the face numbers corresponding to the image ID of the photographed person image from the photographed person image transmission information 175. Read out and read out the face position from the corresponding face data 350. Then, based on the face position read here, the image processing unit 12 performs a process of cutting out a face area from the image data 33. Thereafter, the control unit 20 performs a process of displaying the face area as a thumbnail on the thumbnail screen W23.

なお、相手機器データ取得処理部202が相手カメラ1から機器データを取得する際に、その相手カメラ1を所有している所有者の名前といった所有者データを機器データとともに取得する構成としてもよい。あるいは、自機データ171として、自機の所有者データをさらに記録しておくこととし、相手カメラ1から通知された機器データ送信要求に応答し、機器データとともに所有者データを相手カメラ1に送信する構成としてもよい。この場合には、制御部20は、サムネイル表示画面W23において送信済みの顔の顔領域をサムネイル表示する際、併せて所有者データをテキスト表示する処理を行う。   Note that when the counterpart device data acquisition processing unit 202 acquires device data from the counterpart camera 1, the owner data such as the name of the owner who owns the counterpart camera 1 may be acquired together with the device data. Alternatively, the owner data of the own device is further recorded as the own device data 171, and the owner data is transmitted to the partner camera 1 together with the device data in response to the device data transmission request notified from the partner camera 1. It is good also as composition to do. In this case, when displaying the face area of the transmitted face on the thumbnail display screen W23 as a thumbnail, the control unit 20 also performs a process of displaying the owner data as text.

(変形例2)
また、変形例1では、サムネイル表示画面W23において、送信済みの顔をサムネイル表示することとした。これに対し、未送信の顔をサムネイル表示することとしてもよい。図21は、変形例2における撮影人物画像の表示画面例を示す図である。変形例2では、図21に示すように、撮影人物画像を確認表示または再生表示する際、表示画面を、図20に例示した表示画面と同様に2分割する。上側の画像表示画面W31には、撮影人物画像が表示される。一方、下側のサムネイル表示画面W33には、画像表示画面W31に表示されている撮影人物画像に映る顔のうち、その画像データが未送信である顔のサムネイルS31が表示される。この場合の内部処理としては、例えば先ず、制御部20が、撮影人物画像送信情報175から、撮影人物画像の画像IDに対応する顔番号のうちの画像送信フラグが“OFF”である顔番号を読み出し、該当する顔データ350から顔位置を読み出す。そして、ここで読み出された顔位置をもとに、画像処理部12が、画像データ33から顔領域を切り出す処理を行う。その後、制御部20が、顔領域をサムネイル画面W33においてサムネイル表示する処理を行う。
(Modification 2)
In the first modification, the transmitted face is displayed as a thumbnail on the thumbnail display screen W23. On the other hand, untransmitted faces may be displayed as thumbnails. FIG. 21 is a diagram illustrating a display screen example of a photographed person image in the second modification. In the second modification, as shown in FIG. 21, when the photographed person image is displayed for confirmation or reproduction, the display screen is divided into two as in the display screen illustrated in FIG. The photographed person image is displayed on the upper image display screen W31. On the other hand, the lower thumbnail display screen W33 displays a thumbnail S31 of a face whose image data has not been transmitted among the faces shown in the photographed person image displayed on the image display screen W31. As internal processing in this case, for example, first, the control unit 20 selects a face number whose image transmission flag is “OFF” from the face number corresponding to the image ID of the photographed person image from the photographed person image transmission information 175. Read out and read out the face position from the corresponding face data 350. Then, based on the face position read here, the image processing unit 12 performs a process of cutting out a face area from the image data 33. Thereafter, the control unit 20 performs a process of displaying the face area as a thumbnail on the thumbnail screen W33.

(変形例3)
また、相手カメラ1から顔位置データを受信しない場合や、撮影人物画像顔以外の顔を含まない画像の画像ファイル30を相手カメラ1に送信した場合に、その相手カメラ1から取得した機器データが顔/機器対応テーブル177に設定されている場合に、対応する顔画像データを今回画像ファイル30を送信した送信先の外部機器の所有者の顔として提示するようにしてもよい。
(Modification 3)
Further, when face position data is not received from the partner camera 1 or when an image file 30 of an image that does not include a face other than the photographed person image face is transmitted to the partner camera 1, the device data acquired from the partner camera 1 is If the face / device correspondence table 177 is set, the corresponding face image data may be presented as the face of the owner of the external device that is the destination of transmission of the current image file 30.

図22は、変形例3におけるデータ送信処理の詳細な処理手順を示すフローチャートである。なお、図22において、上記した実施の形態と同様の処理工程については、同一の符号を付する。変形例3では、図22に示すように、相手カメラ1から顔位置データを受信しない場合に(ステップe13:No)、続いて制御部20が、顔/機器対応テーブル177に相手カメラ1の機器データが設定されているか否かを判定する。ここで、顔/機器対応テーブル177に相手カメラ1の機器データが設定されているということは、過去に相手カメラ1に撮影人物画像を送信し、これに応答して相手カメラ1から顔位置データを受信しており、デジタルカメラ1において相手カメラ1の所有者の顔が既に登録されていることを示している。そこで、制御部20は、顔/機器対応テーブル177に相手カメラ1の機器データが設定されている場合には(ステップl17:Yes)、制御部20は、送信した画像データ33とともに、顔/機器対応テーブル177に相手カメラ1の機器データと対応付けられて設定されている顔画像データを表示部15に確認表示する処理を行う(ステップl19)。一方、顔/機器対応テーブル177に相手カメラ1の機器データが設定されていなければ(ステップl17:No)、制御部20は、送信した画像データ33を表示部15に確認表示する処理を行う(ステップl21)。   FIG. 22 is a flowchart showing a detailed processing procedure of data transmission processing in the third modification. In FIG. 22, the same reference numerals are assigned to the same processing steps as those in the above-described embodiment. In Modification 3, as shown in FIG. 22, when face position data is not received from the counterpart camera 1 (step e13: No), the control unit 20 subsequently stores the device of the counterpart camera 1 in the face / device correspondence table 177. It is determined whether data is set. Here, the fact that the device data of the partner camera 1 is set in the face / device correspondence table 177 means that a photographed person image has been transmitted to the partner camera 1 in the past, and in response to this, face position data is sent from the partner camera 1. The digital camera 1 indicates that the face of the owner of the counterpart camera 1 has already been registered. Therefore, when the device data of the counterpart camera 1 is set in the face / device correspondence table 177 (step l17: Yes), the control unit 20 includes the transmitted image data 33 and the face / device. A process of confirming and displaying the face image data set in the correspondence table 177 in association with the device data of the counterpart camera 1 on the display unit 15 is performed (step l19). On the other hand, if the device data of the counterpart camera 1 is not set in the face / device correspondence table 177 (step l17: No), the control unit 20 performs a process of confirming and displaying the transmitted image data 33 on the display unit 15 ( Step l21).

図23は、ステップl19で行われる画像データ33の確認表示の際の表示画面例を示す図である。変形例3では、図23に示すように、今回相手カメラ1に送信した画像を確認表示する際、表示画面を、図20や図21に例示した表示画面と同様に2分割する。上側の画像表示画面W41には、送信した画像が表示される。図23では、人物を含まない風景を撮影した画像が表示されている。一方、下側のサムネイル表示画面W43には、送信先の相手カメラ1を所有する所有者の顔のサムネイルS41(すなわち、顔/機器対応テーブル177に相手カメラ1の機器データと対応付けられて設定されている顔画像データ)が表示される。   FIG. 23 is a diagram showing an example of a display screen at the time of confirmation display of the image data 33 performed in step l19. In Modification 3, as shown in FIG. 23, when the image transmitted to the partner camera 1 is displayed for confirmation, the display screen is divided into two as in the display screens illustrated in FIGS. The transmitted image is displayed on the upper image display screen W41. In FIG. 23, an image of a landscape that does not include a person is displayed. On the other hand, on the lower thumbnail display screen W43, the thumbnail S41 of the face of the owner who owns the destination partner camera 1 (that is, the face / device correspondence table 177 is set in association with the device data of the partner camera 1). Displayed face image data) is displayed.

このように、本変形例3によれば、一旦外部機器(他のデジタルカメラ1)の所有者として顔/機器対応テーブル177に顔画像データが登録されれば、その後にそのデジタルカメラ1を相手カメラ1として通信を行い、画像ファイル30を送信した場合に、相手カメラ1のユーザの顔を画面表示することができる。   As described above, according to the third modification, once face image data is registered in the face / device correspondence table 177 as an owner of an external device (another digital camera 1), the digital camera 1 is then used as a partner. When communication is performed as the camera 1 and the image file 30 is transmitted, the face of the user of the partner camera 1 can be displayed on the screen.

また、上記した実施の形態では、他のデジタルカメラ1を通信相手として画像ファイル30を送受信する場合について説明したが、通信相手の外部機器は特に限定されない。図24は、デジタルカメラ1が、パソコン(ノートパソコン)90を通信相手として通信を行う様子を示した図である。ここで、パソコン90は、デジタルカメラ1の無線通信部19との間で通信が可能な無線通信部901を内蔵している。この無線通信部901は、そのアンテナがキーボード面側に配置されるように配置される。そして、デジタルカメラ1とパソコン90とが近づけられて無線通信部19と無線通信部901とが互いに通信可能圏内に近接されると、それぞれの間で通信が確立するようになっている。このようにパソコン等の外部機器を通信相手とする場合(送信先とする場合)には、デジタルカメラ1からの機器データ送信要求の通知に応答し、その外部機器が図16のデータ受信処理を行うように構成すればよい。   In the above-described embodiment, a case has been described in which the image file 30 is transmitted / received using another digital camera 1 as a communication partner, but the external device of the communication partner is not particularly limited. FIG. 24 is a diagram showing how the digital camera 1 communicates with a personal computer (notebook personal computer) 90 as a communication partner. Here, the personal computer 90 has a built-in wireless communication unit 901 capable of communicating with the wireless communication unit 19 of the digital camera 1. The wireless communication unit 901 is arranged such that its antenna is arranged on the keyboard surface side. When the digital camera 1 and the personal computer 90 are brought close to each other and the wireless communication unit 19 and the wireless communication unit 901 are brought close to each other within a communicable area, communication is established between them. As described above, when an external device such as a personal computer is used as a communication partner (when it is set as a transmission destination), the external device responds to the notification of the device data transmission request from the digital camera 1 and the external device performs the data reception process of FIG. What is necessary is just to comprise so.

また、上記した実施の形態では、本発明の携帯機器の一例としてデジタルカメラを例にとって説明したが、カメラ機能付きの携帯電話機やゲーム機、音楽プレーヤ、録音装置、ノートパソコン等、外部機器との間でデータの送受信が可能な他の携帯機器に適用できる。   In the above-described embodiment, a digital camera has been described as an example of the mobile device of the present invention. However, the mobile device with a camera function, a game machine, a music player, a recording device, a laptop computer, etc. It can be applied to other portable devices that can send and receive data between them.

以上のように、本発明の携帯機器は、同じコンテンツデータを同じ外部機器に対して重複して送信する無駄を低減するのに適している。   As described above, the portable device of the present invention is suitable for reducing waste of redundantly transmitting the same content data to the same external device.

1 デジタルカメラ
3 カメラ本体
4 撮像レンズ
5 レリーズスイッチ
7 ボタンスイッチ
11 撮像部
12 画像処理部
121 人物認識部
123 顔画像処理部
13 顔検出部
14 操作部
15 表示部
16 時計部
17 記録部
171 自機データ(機器ID,自機顔データ)
173 画像情報
30 画像ファイル
175 撮影人物画像送信情報
177 顔/機器対応テーブル
18 一時記録部
181 通信履歴仮データ
19 無線通信部
191 アンテナ
20 制御部
201 撮影人物画像登録処理部
202 相手機器データ取得処理部
203 通信履歴仮記録処理部
204 データ送受信処理部
241 送信判定部
242 通信履歴一覧更新部
243 画像ファイル送信処理部
244 自機顔判定部
205 顔/機器対応付け処理部
DESCRIPTION OF SYMBOLS 1 Digital camera 3 Camera body 4 Imaging lens 5 Release switch 7 Button switch 11 Imaging part 12 Image processing part 121 Person recognition part 123 Face image processing part 13 Face detection part 14 Operation part 15 Display part 16 Clock part 17 Recording part 171 Own machine Data (device ID, own machine face data)
173 Image information 30 Image file 175 Photographed person image transmission information 177 Face / device correspondence table 18 Temporary recording unit 181 Temporary communication history data 19 Wireless communication unit 191 Antenna 20 Control unit 201 Photographed person image registration processing unit 202 Counterpart device data acquisition processing unit 203 communication history temporary recording processing unit 204 data transmission / reception processing unit 241 transmission determination unit 242 communication history list update unit 243 image file transmission processing unit 244 own device face determination unit 205 face / device association processing unit

Claims (8)

被写体像を撮像して画像データを生成する撮像部と、
外部機器との間で無線通信を行う無線通信部と、
前記無線通信部を介し、前記画像データを前記外部機器に送信する処理を行う送信処理部と、
前記画像データに対応する画像内にがある場合に、前記外部機器の所有者であるユーザの顔に対応する顔照合データを、前記外部機器から前記無線通信部を介して取得し、前記顔照合データに対応するユーザを前記外部機器の所有者として登録する取得処理部と、
前記外部機器に送信した前記画像データに対応する画像を表示部に表示させるとともに、前記外部機器の所有者であると登録されたユーザへは前記画像データを送信済みであることが識別できるように、前記画像データに対応する画像内において前記外部機器の所有者であると登録されたユーザの画像と前記外部機器の所有者とは登録されていないユーザの画像とを識別可能に表示部に表示させる表示処理部と、
を備えることを特徴とする携帯機器。
An imaging unit that captures a subject image and generates image data;
A wireless communication unit that performs wireless communication with an external device;
A transmission processing unit for performing processing for transmitting the image data to the external device via the wireless communication unit;
When there is a face in the image corresponding to the image data , face matching data corresponding to the face of the user who is the owner of the external device is acquired from the external device via the wireless communication unit, and the face An acquisition processing unit for registering a user corresponding to collation data as an owner of the external device ;
An image corresponding to the image data transmitted to the external device is displayed on the display unit, and a user registered as an owner of the external device can be identified as having transmitted the image data. A display unit that can identify a face image of a user who is registered as an owner of the external device and a face image of a user who is not registered as an owner of the external device in an image corresponding to the image data A display processing unit to be displayed on
A portable device comprising:
前記顔照合データは、前記外部機器の所有者であると登録されたユーザの前記画像データ中における顔の位置データを含むことを特徴とする請求項1に記載の携帯機器。 The portable device according to claim 1, wherein the face collation data includes face position data in the image data of a user registered as an owner of the external device. 前記顔照合データは、前記外部機器の所有者であると登録されたユーザの顔領域を前記画像から切り出した顔画像データを含むことを特徴とする請求項1に記載の携帯機器。 The mobile device according to claim 1, wherein the face matching data includes face image data obtained by cutting out a face area of a user registered as an owner of the external device from the image. 前記顔照合データは、
前記外部機器の所有者であると登録されたユーザの前記画像データ中における顔の位置データを含み、
前記取得処理部は、
前記無線通信部を介し、前記外部機器から該外部機器を識別するための機器データを取得する機器データ取得処理部と、
前記顔照合データに含まれる顔の位置データをもとに前記画像データ中から切り出した顔画像データを、前記機器データ取得処理部によって取得された前記外部機器の機器データと対応付けて前記外部機器の所有者の顔として登録する処理を行う登録処理部と、
有することを特徴とする請求項1に記載の携帯機器。
The face matching data is
Including face position data in the image data of the user registered as the owner of the external device,
The acquisition processing unit
A device data acquisition processing unit for acquiring device data for identifying the external device from the external device via the wireless communication unit;
The external device in which face image data cut out from the image data based on the position data of the face included in the face matching data is associated with the device data of the external device acquired by the device data acquisition processing unit A registration processing unit that performs processing for registering as the face of the owner of
The portable device according to claim 1, characterized in that it comprises a.
前記画像データに対応する画像を表示可能な表示部をさらに備え、A display unit capable of displaying an image corresponding to the image data;
前記表示処理部は、The display processing unit
前記表示部の表示画面を2分割し、一方の表示画面に前記画像データに対応する画像を表示させるとともに、他方の表示画面に前記一方の表示画面で表示している前記画像データが送信された前記外部機器の所有者を表すユーザの顔のサムネイル画像を表示させることを特徴とする請求項1〜4のいずれか一つに記載の携帯機器。The display screen of the display unit is divided into two, and an image corresponding to the image data is displayed on one display screen, and the image data displayed on the one display screen is transmitted to the other display screen. The portable device according to any one of claims 1 to 4, wherein a thumbnail image of a user's face representing the owner of the external device is displayed.
前記表示処理部は、
前記取得された機器データに対応する顔画像データが前記登録処理部によって既に登録されている場合に、前記取得された機器データに対応する顔画像データに対応する顔を所有者として前記画像データとともに表示部に表示させることを特徴とする請求項に記載の携帯機器。
The display processing unit
When face image data corresponding to the acquired device data is already registered by the registration processing unit, the face corresponding to the face image data corresponding to the acquired device data is set as the owner together with the image data The portable device according to claim 4 , wherein the portable device is displayed on a display unit .
当該携帯機器自身の所有者に対応する顔の特徴情報を自機顔データとして記録する自機顔データ記録部と、
前記無線通信部を介し、前記外部機器から画像データを受信する処理を行う受信処理部と、
前記受信処理部が受信した前記画像データデータがまれる場合に、該顔データを前記自機顔データ記録部に記録されている自機顔データと照合して前記画像データ中に含まれる自機ユーザの顔を当該携帯機器自身の所有者たる自機顔データとして認識する人物認識部と、
前記人物認識部によって当該携帯機器自身の所有者たる自機顔データを認識した場合に、該認識した自機顔データの前記画像データ中における位置を表す位置データを顔照合データとして前記外部機器に送信する処理を行う顔照合データ送信処理部と、
さらに備えることを特徴とする請求項1に記載の携帯機器。
An own device face data recording unit for recording facial feature information corresponding to the owner of the mobile device itself as own device face data;
A reception processing unit for performing processing for receiving image data from the external device via the wireless communication unit;
When the image data in the face data contains Murrell the reception processing unit receives, included against the ship face data recorded to said pigment data in the own apparatus face data storage unit in the image data A person recognizing unit that recognizes the face of the user's own device as own device face data that is the owner of the mobile device itself ,
When recognizing the ship face data serving owner of the mobile device itself by the person recognizing unit, to the external device the position data representing the position in the in the image data of its own face data the recognized face collation data A face collation data transmission processing unit for performing a transmission process;
The mobile device according to claim 1, further comprising:
当該携帯機器自身の所有者に対応する自機ユーザの顔の特徴情報を記録する自機顔データ記録部と、
前記無線通信部を介し、前記外部機器から画像データを受信する処理を行う受信処理部と、
前記画像データが顔を含む場合に、該顔を前記自機顔データ記録部に記録されている顔の特徴情報と照合して前記画像データ中に含まれる自機ユーザの顔を認識する人物認識部と、
前記人物認識部によって前記画像データ中で自機ユーザの顔を認識した場合に、該認識した顔領域を前記画像から切り出した顔画像データを顔照合データとして前記外部機器に送信する処理を行う顔照合データ送信処理部と、
を備えることを特徴とする請求項1に記載の携帯機器。
The own device face data recording unit that records the facial feature information of the own device user corresponding to the owner of the mobile device itself ,
A reception processing unit for performing processing for receiving image data from the external device via the wireless communication unit;
When the image data includes a face, person recognition is performed for recognizing the face of the user's own user included in the image data by collating the face with facial feature information recorded in the own device's face data recording unit. And
When the person recognition unit recognizes the face of the user of the user in the image data, the face is processed to transmit face image data obtained by cutting out the recognized face area from the image to the external device as face matching data. A verification data transmission processing unit;
The mobile device according to claim 1, comprising:
JP2009072415A 2009-03-24 2009-03-24 Portable device Expired - Fee Related JP5331532B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009072415A JP5331532B2 (en) 2009-03-24 2009-03-24 Portable device
CN2010101216024A CN101848324B (en) 2009-03-24 2010-03-11 Portable device
CN201210244285.4A CN102769734B (en) 2009-03-24 2010-03-11 Portable equipment
CN201210244282.0A CN102769733B (en) 2009-03-24 2010-03-11 Portable equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009072415A JP5331532B2 (en) 2009-03-24 2009-03-24 Portable device

Publications (2)

Publication Number Publication Date
JP2010226498A JP2010226498A (en) 2010-10-07
JP5331532B2 true JP5331532B2 (en) 2013-10-30

Family

ID=42772767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009072415A Expired - Fee Related JP5331532B2 (en) 2009-03-24 2009-03-24 Portable device

Country Status (2)

Country Link
JP (1) JP5331532B2 (en)
CN (3) CN101848324B (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5769434B2 (en) * 2011-02-03 2015-08-26 キヤノン株式会社 Movie recording device, information processing device
JP5717459B2 (en) * 2011-02-04 2015-05-13 キヤノン株式会社 Image recording apparatus, information processing apparatus, control method thereof, and program thereof
TWI604741B (en) * 2011-07-05 2017-11-01 宏達國際電子股份有限公司 Wireless service providing method
CN103591894B (en) * 2013-11-05 2017-07-11 广东欧珀移动通信有限公司 The method and apparatus of object length is measured by camera

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004201191A (en) * 2002-12-20 2004-07-15 Nec Corp Image processing and transmitting system, cellular phone, and method and program for image processing and transmission
JP4103683B2 (en) * 2003-05-29 2008-06-18 カシオ計算機株式会社 Captured image transmitting apparatus and program
US20060268122A1 (en) * 2003-09-01 2006-11-30 Mariko Iwasaki Camera having transmission function, mobile telephone device, and image data acquiring/transmitting program
JP4419759B2 (en) * 2004-09-01 2010-02-24 株式会社ニコン Electronic camera system
JP4522344B2 (en) * 2004-11-09 2010-08-11 キヤノン株式会社 Imaging apparatus, control method thereof, and program thereof
JP2006293912A (en) * 2005-04-14 2006-10-26 Toshiba Corp Information display system, information display method and portable terminal device
JP4315148B2 (en) * 2005-11-25 2009-08-19 株式会社ニコン Electronic camera
JP5273998B2 (en) * 2007-12-07 2013-08-28 キヤノン株式会社 Imaging apparatus, control method thereof, and program

Also Published As

Publication number Publication date
CN101848324B (en) 2012-09-05
CN102769733A (en) 2012-11-07
CN101848324A (en) 2010-09-29
CN102769734B (en) 2015-04-15
CN102769733B (en) 2015-07-08
CN102769734A (en) 2012-11-07
JP2010226498A (en) 2010-10-07

Similar Documents

Publication Publication Date Title
JP5110805B2 (en) Communication terminal, communication method and program capable of wired and wireless communication
CN102714698A (en) Photograph intention prediction including automatic photograph recording with autofocus and respective method
JP6020353B2 (en) Information processing apparatus, image forming apparatus, remote operation method, remote control method, remote operation program, and remote control program
CN104317932A (en) Photo sharing method and device
CN102576530A (en) Voice pattern tagged contacts
JP5331532B2 (en) Portable device
JP2009200621A (en) Imaging apparatus with image transmission/reception function
JP2001274936A (en) Image data transmission system and image pickup data transmission method
JP4273865B2 (en) Untransferred image notification method, cradle, and program
JP2003046707A (en) Imaging apparatus and information processing device and their controlling method, image processing device and therefor and image processing system
US10178250B2 (en) Cooperation system, information processing apparatus, cooperation method and non-transitory computer-readable recording medium encoded with cooperation program
CN105095213B (en) Information correlation method and device
JP5392141B2 (en) Electronics
JP2016220261A (en) Electronic apparatus
JP2018136702A (en) Communication device and control method thereof, program and recording medium
JP2011172088A (en) Electronic apparatus
JP5246592B2 (en) Information processing terminal, information processing method, and information processing program
JP5754500B2 (en) Electronic devices and programs for electronic devices
JP2018006997A (en) Communication device, method for controlling the same, system, program, and storage medium
JP6412743B2 (en) Shooting support apparatus, shooting support system, shooting support method, and shooting support program
JP5473034B2 (en) Terminal device and program
CN105488106B (en) Luggage control method and device
JP5218987B2 (en) Terminal device and program
JP2023052626A (en) Electronic apparatus
JP2011109291A (en) Imaging apparatus, external storage apparatus, image transfer system, control methods and control programs thereof, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130729

R151 Written notification of patent or utility model registration

Ref document number: 5331532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees