JP2019057288A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2019057288A
JP2019057288A JP2018188937A JP2018188937A JP2019057288A JP 2019057288 A JP2019057288 A JP 2019057288A JP 2018188937 A JP2018188937 A JP 2018188937A JP 2018188937 A JP2018188937 A JP 2018188937A JP 2019057288 A JP2019057288 A JP 2019057288A
Authority
JP
Japan
Prior art keywords
information
image
image data
digital camera
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018188937A
Other languages
Japanese (ja)
Inventor
将 上出
Sho Kamide
将 上出
裕輔 詫摩
Yusuke Takuma
裕輔 詫摩
兼崇 篠田
Kanetaka Shinoda
兼崇 篠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018188937A priority Critical patent/JP2019057288A/en
Publication of JP2019057288A publication Critical patent/JP2019057288A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a device or a system with a high level of safety.SOLUTION: In an imaging system, a digital camera includes: a sending unit for sending first information to a management server; an acquisition unit for acquiring second information from a smartphone that the management server authenticates; and an output unit for outputting image data to the management server when the first information is the second information. The sending unit sends the first information in relation to an identification code.SELECTED DRAWING: Figure 5

Description

本発明は、電子機器に関するものである。   The present invention relates to an electronic device.

従来、サーバや他の通信端末とデータ通信が可能なデジタルカメラが知られている(例えば、特許文献1参照)。このデジタルカメラによれば、所有者は、撮影した画像をプリンターで印刷したり、サーバの運営する所定のサイトにアップロードすることができる。   Conventionally, a digital camera capable of data communication with a server or another communication terminal is known (see, for example, Patent Document 1). According to this digital camera, the owner can print a photographed image with a printer or upload it to a predetermined site operated by a server.

特開2003−319327号公報JP 2003-319327 A

本発明の目的は、安全性の高い装置、システムを提供することである。   An object of the present invention is to provide a highly safe apparatus and system.

本発明の電子機器は、第1電子機器に対して第1情報を送信する送信部と、前記電子機器により認証されている第2電子機器から第2情報を取得する取得部と、前記第1情報が前記第2情報であると、データを前記第1電子機器へ出力する出力部と、を備える。   The electronic device of the present invention includes a transmission unit that transmits first information to the first electronic device, an acquisition unit that acquires second information from a second electronic device authenticated by the electronic device, and the first When the information is the second information, an output unit that outputs data to the first electronic device is provided.

第1の実施の形態に係る撮像システムの構成を示す図である。It is a figure which shows the structure of the imaging system which concerns on 1st Embodiment. 第1、2の実施の形態に係る管理サーバの構成を示すブロック図である。It is a block diagram which shows the structure of the management server which concerns on 1st, 2nd embodiment. 第1、2の実施の形態に係るデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera which concerns on 1st, 2nd embodiment. 第1、2の実施の形態に係るスマートフォンの構成を示すブロック図である。It is a block diagram which shows the structure of the smart phone which concerns on 1st, 2nd embodiment. 第1の実施の形態に係る撮像システムの処理を示すフローチャートである。It is a flowchart which shows the process of the imaging system which concerns on 1st Embodiment. 第2の実施の形態に係る撮像システムの処理を示すフローチャートである。It is a flowchart which shows the process of the imaging system which concerns on 2nd Embodiment. 第3の実施の形態に係る撮像システムの構成を示す図である。It is a figure which shows the structure of the imaging system which concerns on 3rd Embodiment. 第3の実施の形態に係る撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on 3rd Embodiment. 第3の実施の形態に係るwebサーバの構成を示すブロック図である。It is a block diagram which shows the structure of the web server which concerns on 3rd Embodiment. 第3の実施の形態に係る撮像装置における初期登録の処理を示すフローチャートである。14 is a flowchart illustrating an initial registration process in the imaging apparatus according to the third embodiment. 第3の実施の形態に係る撮像システムにおける情報ファイルの更新処理を示すフローチャートである。It is a flowchart which shows the update process of the information file in the imaging system which concerns on 3rd Embodiment. 第3の実施の形態に係る撮像装置を用いて人物が撮影された場合の個人認証処理を示すフローチャートである。It is a flowchart which shows the personal authentication process when a person is image | photographed using the imaging device which concerns on 3rd Embodiment. 第4の実施の形態に係るデジタルカメラの構成を示す図である。It is a figure which shows the structure of the digital camera which concerns on 4th Embodiment. 第4の実施の形態に係るデジタルカメラの処理を示すフローチャートである。It is a flowchart which shows the process of the digital camera which concerns on 4th Embodiment. 第5の実施の形態に係るデジタルカメラの処理を示すフローチャートである。It is a flowchart which shows the process of the digital camera which concerns on 5th Embodiment. 第5の実施の形態に係るデジタルカメラが個人情報が登録されているユーザによって起動され撮影が行われた場合の画像再生処理を示すフローチャートである。It is a flowchart which shows the image reproduction process when the digital camera which concerns on 5th Embodiment is started by the user who registered personal information, and image | photographing was performed. 第5の実施の形態に係るデジタルカメラが第三者によって起動され撮影が行われた場合の画像再生処理を示すフローチャートである。It is a flowchart which shows the image reproduction process when the digital camera which concerns on 5th Embodiment is started by the third party and imaging | photography was performed. 第6の実施の形態に係るデジタルカメラの処理を示すフローチャートである。It is a flowchart which shows the process of the digital camera which concerns on 6th Embodiment.

(第1の実施の形態)
以下、図面を参照して本発明の第1の実施の形態に係る撮像システムについて説明する。図1は、第1の実施の形態に係る撮像システム2の構成を示す図である。撮像システム2は、通信機器を管理する管理サーバ4を備え、管理サーバ4はネットワーク6を介してデジタルカメラ8、及びスマートフォン10と通信可能に接続されている。
(First embodiment)
The imaging system according to the first embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram illustrating a configuration of an imaging system 2 according to the first embodiment. The imaging system 2 includes a management server 4 that manages communication devices, and the management server 4 is connected to a digital camera 8 and a smartphone 10 via a network 6 so as to communicate with each other.

図2は、第1の実施の形態に係る管理サーバ4の構成を示すブロック図である。管理サーバ4は、画像投稿を受け付ける画像投稿サイト(図示せず)を提供しており、管理サーバ4の各部を統括的に制御するCPU20を備えている。CPU20には、ネットワーク6を介してデジタルカメラ8、スマートフォン10との通信を行う通信部22、管理する通信機器に関する情報を登録する登録部24、及びネットワーク6を介してデジタルカメラ8からアップロードされた画像の画像データを記憶する画像記憶部26が接続されている。   FIG. 2 is a block diagram illustrating a configuration of the management server 4 according to the first embodiment. The management server 4 provides an image posting site (not shown) that accepts image postings, and includes a CPU 20 that comprehensively controls each unit of the management server 4. Uploaded to the CPU 20 from the digital camera 8 via the network 6, the communication unit 22 that communicates with the smartphone 10, the registration unit 24 that registers information related to the managed communication device, and the digital camera 8 via the network 6. An image storage unit 26 that stores image data of the image is connected.

図3は、第1の実施の形態に係るデジタルカメラ8の構成を示すブロック図である。デジタルカメラ8は、デジタルカメラ8の各部を統括的に制御するCPU30を備えている。CPU30には、電源スイッチ(図示せず)、シャッタボタン(図示せず)等を含む操作部31、ネットワーク6を介して管理サーバ4との間で通信を行う通信部32、近距離無線通信によりスマートフォン10との通信を行う近距離通信部33、GPS衛星から受信した信号に基づいて現在位置を測位するGPS34、画像やアイコンを表示するLCD表示部38、LCD表示部38に表示されるアイコンが指等でタッチされたことを検出するタッチパネル39、被写体光を撮像して撮像信号を生成する撮像素子41、撮像素子41から出力された撮像信号により生成された画像データを記憶する画像記憶部42、画像記憶部42に記憶された画像データを用いて識別コードを生成する情報生成部44、識別コードの復号処理を行う演算部45、デバイス情報や通信アドレス等のデジタルカメラ8に関する情報を記憶する情報記憶部46、及び画像データを記憶するメモリカード52を装着するメモリカードスロット53が接続されている。   FIG. 3 is a block diagram showing a configuration of the digital camera 8 according to the first embodiment. The digital camera 8 includes a CPU 30 that comprehensively controls each unit of the digital camera 8. The CPU 30 includes an operation unit 31 including a power switch (not shown), a shutter button (not shown), and the like, a communication unit 32 that communicates with the management server 4 via the network 6, and short-range wireless communication. A short-range communication unit 33 that communicates with the smartphone 10, a GPS 34 that measures the current position based on a signal received from a GPS satellite, an LCD display unit 38 that displays images and icons, and icons displayed on the LCD display unit 38 A touch panel 39 that detects touch with a finger or the like, an image sensor 41 that images subject light and generates an image signal, and an image storage unit 42 that stores image data generated by the image signal output from the image sensor 41 , An information generation unit 44 that generates an identification code using image data stored in the image storage unit 42, and an arithmetic unit that performs a decoding process of the identification code 5, a memory card slot 53 for mounting a memory card 52 for storing device information or information storage unit 46 stores information relating to the digital camera 8, such as a communication address, and image data, are connected.

ここで、情報生成部44は、識別コードとして、例えばQRコード(登録商標)等の二次元コードを生成する。   Here, the information generation unit 44 generates a two-dimensional code such as a QR code (registered trademark) as an identification code.

図4は、第1の実施の形態に係るスマートフォン10の構成を示すブロック図である。スマートフォン10は、スマートフォン10の各部を統括的に制御するCPU60を備えている。CPU60には、図示しない電源スイッチ等を含む操作部61、ネットワーク6を介して管理サーバ4との間で通信を行う通信部62、近距離無線通信によりデジタルカメラ8との通信を行う近距離通信部63、画像やアイコンを表示するLCD表示部68、LCD表示部68に表示されるアイコンが指等でタッチされたことを検出するタッチパネル69、被写体光を撮像して撮像信号を生成する撮像素子71、撮像素子71から出力された撮像信号により生成された画像データを記憶する画像記憶部72、デバイス情報や通信アドレス等のスマートフォン10に関する情報を記憶する情報記憶部76、及び画像データを記憶するメモリカード82を装着するメモリカードスロット83が接続されている。   FIG. 4 is a block diagram illustrating a configuration of the smartphone 10 according to the first embodiment. The smartphone 10 includes a CPU 60 that comprehensively controls each unit of the smartphone 10. The CPU 60 includes an operation unit 61 including a power switch (not shown), a communication unit 62 that communicates with the management server 4 via the network 6, and short-range communication that communicates with the digital camera 8 by short-range wireless communication. Unit 63, LCD display unit 68 for displaying images and icons, touch panel 69 for detecting that the icon displayed on LCD display unit 68 is touched with a finger, and the like, and an image sensor for imaging subject light to generate an imaging signal 71, an image storage unit 72 that stores image data generated by an imaging signal output from the image sensor 71, an information storage unit 76 that stores information about the smartphone 10 such as device information and a communication address, and image data. A memory card slot 83 into which the memory card 82 is inserted is connected.

次に、図5に示すフローチャートを参照し、第1の実施の形態に係る撮像システム2の処理について説明する。まず、操作者がデジタルカメラ8を初めて使用する場合、初期設定として、スマートフォン10を接続相手として特定するペアリング処理が行われる。ペアリング処理に成功した場合、デジタルカメラ8のCPU30は、近距離通信部33を介してスマートフォン10に関する情報を取得する。   Next, processing of the imaging system 2 according to the first embodiment will be described with reference to the flowchart shown in FIG. First, when the operator uses the digital camera 8 for the first time, a pairing process for specifying the smartphone 10 as a connection partner is performed as an initial setting. When the pairing process is successful, the CPU 30 of the digital camera 8 acquires information related to the smartphone 10 via the short-range communication unit 33.

次に、操作者により、ペアリングされた機器の組合せを管理サーバ4に登録する操作が行われると、CPU30は、情報記憶部46からデジタルカメラ8に関する情報を読み出し、通信部22により、デジタルカメラ8に関する情報をスマートフォン10に関する情報と共に、ネットワーク6を介して管理サーバ4に送信する(ステップS1)。   Next, when the operator performs an operation of registering the paired device combination in the management server 4, the CPU 30 reads information on the digital camera 8 from the information storage unit 46, and the communication unit 22 performs the digital camera operation. The information regarding 8 is transmitted to the management server 4 via the network 6 with the information regarding the smart phone 10 (step S1).

管理サーバ4のCPU20は、デジタルカメラ8に関する情報、及びスマートフォン10に関する情報を受信すると、これらを関連付けて登録部24に登録する(ステップS21)。   When the CPU 20 of the management server 4 receives the information about the digital camera 8 and the information about the smartphone 10, the CPU 20 associates them and registers them in the registration unit 24 (step S21).

ここで、操作者は、デジタルカメラ8のモードを、撮影された撮影画像を直ちに画像投稿サイトにアップロードする投稿モードに設定する。次に、操作者によりシャッタボタンが操作され、被写体の画像が撮影されると(ステップS2)、CPU30は、撮影画像データを画像記憶部42に記憶する。次に、CPU30は、画像記憶部42から撮影画像データを読み出し、情報生成部44により、撮影画像データに基づいて二次元コードを生成する(ステップS3)。ここで、二次元コードの生成は、公知の技術を用いて行われる。   Here, the operator sets the mode of the digital camera 8 to a posting mode in which the captured image is immediately uploaded to the image posting site. Next, when the shutter button is operated by the operator and an image of the subject is captured (step S2), the CPU 30 stores the captured image data in the image storage unit. Next, the CPU 30 reads the photographed image data from the image storage unit 42, and the information generation unit 44 generates a two-dimensional code based on the photographed image data (step S3). Here, the generation of the two-dimensional code is performed using a known technique.

次に、CPU30は、通信部32により、二次元コードをネットワーク6を介して管理サーバ4に送信する(ステップS4)。   Next, CPU30 transmits a two-dimensional code to the management server 4 via the network 6 by the communication part 32 (step S4).

管理サーバ4のCPU20は、デジタルカメラ8から二次元コードを受信すると(ステップS22)、登録部24に記憶されている情報の中から、デジタルカメラ8と関連付けて登録されているスマートフォン10の通信アドレスを特定する。次に、CPU20は、通信部22により、スマートフォン10の通信アドレスに宛てて二次元コードを転送する(ステップS23)。   When the CPU 20 of the management server 4 receives the two-dimensional code from the digital camera 8 (step S22), the communication address of the smartphone 10 registered in association with the digital camera 8 from the information stored in the registration unit 24. Is identified. Next, the CPU 20 uses the communication unit 22 to transfer the two-dimensional code to the communication address of the smartphone 10 (step S23).

スマートフォン10のCPU60は、二次元コードを受信すると(ステップS31)、二次元コードの画像をLCD表示部68に表示する(ステップS32)。   When receiving the two-dimensional code (step S31), the CPU 60 of the smartphone 10 displays an image of the two-dimensional code on the LCD display unit 68 (step S32).

次に、操作者がデジタルカメラ8の図示しない撮影レンズをスマートフォン10に近づけ、LCD表示部68に表示された二次元コードの画像を撮影すると(ステップS5)、デジタルカメラ8のCPU30は、撮影された画像の画像データを解析することにより、画像データから二次元コードを認識する。次に、CPU30は、演算部45により、二次元コードを復号し(ステップS6)、二次元コードを画像データ(以下、復号画像データという。)に再変換する。なお、二次元コードの復号処理は、公知の復号技術を用いて行われる。   Next, when the operator brings a photographing lens (not shown) of the digital camera 8 close to the smartphone 10 and photographs an image of the two-dimensional code displayed on the LCD display unit 68 (step S5), the CPU 30 of the digital camera 8 is photographed. The two-dimensional code is recognized from the image data by analyzing the image data of the obtained image. Next, the CPU 30 uses the calculation unit 45 to decode the two-dimensional code (step S6), and reconverts the two-dimensional code into image data (hereinafter referred to as decoded image data). Note that the decoding process of the two-dimensional code is performed using a known decoding technique.

次に、CPU30は、画像記憶部42に記憶されている撮影画像データを復号画像データをと照合する(ステップS7)。そして、復号画像データに基づく復号画像が撮影画像データに基づく撮影画像と一致するか否かを判定する(ステップS8)。   Next, the CPU 30 collates the captured image data stored in the image storage unit 42 with the decoded image data (step S7). Then, it is determined whether or not the decoded image based on the decoded image data matches the captured image based on the captured image data (step S8).

復号画像が撮影画像と一致した場合(ステップS8:Yes)、CPU30は、撮影画像のアップロードを許可し(ステップS9)、通信部32により、画像記憶部42に記憶されている撮影画像データをネットワーク6を介して管理サーバ4に送信する(ステップS10)。管理サーバ4のCPU20は、撮影画像データを受信すると(ステップS24)、撮影画像データに基づく撮影画像を画像投稿サイトで公開して閲覧可能な状態にすると共に(ステップS25)、撮影画像データを画像記憶部26に記憶する。これにより、画像投稿サイトへの撮影画像のアップロードが完了する。   When the decoded image matches the photographed image (step S8: Yes), the CPU 30 permits uploading of the photographed image (step S9), and the photographed image data stored in the image storage unit 42 is networked by the communication unit 32. 6 to the management server 4 (step S10). When the CPU 20 of the management server 4 receives the captured image data (step S24), the captured image based on the captured image data is made public on the image posting site so that it can be viewed (step S25), and the captured image data is converted into an image. Store in the storage unit 26. Thereby, the upload of the photographed image to the image posting site is completed.

なお、デジタルカメラ8のCPU30は、撮影画像データを管理サーバ4に送信した後、撮影を終了する操作がなされたか否かを判定する(ステップS11)。撮影を終了する操作がなされない場合(ステップS11:No)、ステップS2の処理に戻る。一方、撮影を終了する操作がなされた場合(ステップS11:Yes)、一連の処理を終了する。   The CPU 30 of the digital camera 8 determines whether or not an operation for ending the shooting has been performed after transmitting the shot image data to the management server 4 (step S11). When the operation for ending the shooting is not performed (step S11: No), the process returns to step S2. On the other hand, when an operation for ending photographing is performed (step S11: Yes), a series of processes is ended.

また、復号画像が撮影画像と一致しない場合(ステップS8:No)、CPU30は、撮影画像データのアップロードを禁止した後(ステップS12)、ステップS11の処理に進む。   If the decoded image does not match the captured image (step S8: No), the CPU 30 prohibits uploading of the captured image data (step S12), and then proceeds to the process of step S11.

この第1の実施の形態に係る発明によれば、デジタルカメラ8の操作者は、管理サーバ4に登録された特定のスマートフォン10を所持していなければデジタルカメラ8を用いて撮影した撮影画像をアップロードすることができないため、画像データが第三者によって不正に利用されることのない安全性の高いデジタルカメラ8、撮像システム2を提供することができる。   According to the invention according to the first embodiment, if the operator of the digital camera 8 does not have the specific smartphone 10 registered in the management server 4, the photographed image taken using the digital camera 8 is taken. Since uploading cannot be performed, it is possible to provide the digital camera 8 and the imaging system 2 with high safety so that image data is not illegally used by a third party.

また、二次元コードの画像を表示するスマートフォン10と、スマートフォン10に表示された二次元コードの画像を読み取るデジタルカメラ8とを一つの管理サーバ4によって管理するため、認証システムが煩雑にならないようにすることができる。   In addition, since the management server 4 manages the smartphone 10 that displays the image of the two-dimensional code and the digital camera 8 that reads the image of the two-dimensional code displayed on the smartphone 10, the authentication system is not complicated. can do.

(第2の実施の形態)
次に、第2の実施の形態に係る撮像システムの処理について説明する。この第2の実施の形態に係る撮像システムは、第1の実施の形態において、複数の撮影画像データを用いて一つの二次元コードを生成するようにしたものである。ここで、図2〜4に示すように、第2の実施の形態に係る管理サーバ204、デジタルカメラ208、及びスマートフォン210は、それぞれ第1の実施の形態に係る管理サーバ4、デジタルカメラ8、及びスマートフォン10と同様の構成を備えている。従って、第2の実施の形態では、第1の実施の形態と異なる部分について詳細に説明し、重複する部分については適宜説明を省略する。
(Second Embodiment)
Next, processing of the imaging system according to the second embodiment will be described. In the imaging system according to the second embodiment, one two-dimensional code is generated using a plurality of photographed image data in the first embodiment. Here, as illustrated in FIGS. 2 to 4, the management server 204, the digital camera 208, and the smartphone 210 according to the second embodiment are respectively the management server 4, the digital camera 8, and the digital camera 8 according to the first embodiment. And a configuration similar to that of the smartphone 10. Therefore, in the second embodiment, portions different from the first embodiment will be described in detail, and descriptions of overlapping portions will be omitted as appropriate.

まず、操作者がデジタルカメラ208を初めて使用する場合、初期設定としてペアリング処理が行われる。次に、ペアリングされた機器の組合せを管理サーバ204に登録する操作が行われると、デジタルカメラ8に関する情報がスマートフォン10に関する情報と共に管理サーバ204に送信され(ステップS51)、これらが関連付けて登録部24に登録される(ステップS71)。   First, when the operator uses the digital camera 208 for the first time, a pairing process is performed as an initial setting. Next, when an operation for registering the paired device combination in the management server 204 is performed, information on the digital camera 8 is transmitted to the management server 204 together with information on the smartphone 10 (step S51), and these are registered in association with each other. Registered in the unit 24 (step S71).

ここで、操作者によるシャッタボタン操作により複数の画像が撮影されると(ステップS52)、撮影された枚数分の撮影画像データが画像記憶部42に記憶される。次に、操作者により、画像記憶部42に記憶されている撮影画像データの中から、画像投稿サイトにアップロードしたい複数の撮影画像データが選択されると、CPU30は、選択された撮影画像データを二次元コードを生成する対象として特定する(ステップS53)。次に、CPU30は、情報生成部44により、特定された複数の撮影画像データに基づいて一つの二次元コードを生成する(ステップS54)。   Here, when a plurality of images are captured by the operator operating the shutter button (step S52), the captured image data for the number of captured images is stored in the image storage unit. Next, when the operator selects a plurality of captured image data to be uploaded to the image posting site from the captured image data stored in the image storage unit 42, the CPU 30 selects the selected captured image data. It is specified as a target for generating a two-dimensional code (step S53). Next, the CPU 30 causes the information generation unit 44 to generate one two-dimensional code based on the plurality of identified captured image data (step S54).

次に、CPU30は、通信部32により、二次元コードをネットワーク6を介して管理サーバ204に送信する(ステップS55)。   Next, the CPU 30 transmits the two-dimensional code to the management server 204 via the network 6 by the communication unit 32 (step S55).

管理サーバ204のCPU20は、二次元コードを受信すると(ステップS72)、デジタルカメラ208と関連付けて登録されているスマートフォン210の通信アドレスに宛てて二次元コードを転送する(ステップS73)。   When receiving the two-dimensional code (step S72), the CPU 20 of the management server 204 transfers the two-dimensional code to the communication address of the smartphone 210 registered in association with the digital camera 208 (step S73).

スマートフォン210のCPU60は、二次元コードを受信すると(ステップS81)、二次元コードの画像をLCD表示部68に表示する(ステップS82)。   When receiving the two-dimensional code (step S81), the CPU 60 of the smartphone 210 displays an image of the two-dimensional code on the LCD display unit 68 (step S82).

次に、操作者がデジタルカメラ208の撮影レンズをスマートフォン210に近づけ、LCD表示部68に表示された二次元コードの画像を撮影すると(ステップS56)、デジタルカメラ208のCPU30は、撮影された画像の画像データを解析することにより、画像データから二次元コードを認識する。次に、CPU30は、演算部45により、二次元コードを復号し(ステップS57)、二次元コードを複数の復号画像データに再変換する。   Next, when the operator brings the photographing lens of the digital camera 208 close to the smartphone 210 and photographs an image of the two-dimensional code displayed on the LCD display unit 68 (step S56), the CPU 30 of the digital camera 208 captures the captured image. The two-dimensional code is recognized from the image data by analyzing the image data. Next, the CPU 30 causes the calculation unit 45 to decode the two-dimensional code (step S57), and reconverts the two-dimensional code into a plurality of decoded image data.

次に、CPU30は、ステップS53で選択された複数の撮影画像データを読み出し、それぞれの撮影画像データを、ステップS57で復号された全ての復号画像データと照合する(ステップS58)。そして、全ての復号画像が撮影画像と一致するか否かを判定する(ステップS59)。   Next, the CPU 30 reads the plurality of captured image data selected in step S53, and collates each captured image data with all the decoded image data decoded in step S57 (step S58). Then, it is determined whether or not all the decoded images match the captured image (step S59).

全ての復号画像が撮影画像と一致した場合(ステップS59:Yes)、CPU30は、撮影画像のアップロードを許可し(ステップS60)、通信部32により、ステップS53で選択された複数の撮影画像データをネットワーク6を介して管理サーバ204に送信する(ステップS61)。管理サーバ204のCPU20は、撮影画像データを受信すると(ステップS74)、撮影画像データに基づく撮影画像を画像投稿サイトで公開して閲覧可能な状態にすると共に(ステップS75)、撮影画像データを画像記憶部26に記憶する。これにより、画像投稿サイトへの撮影画像のアップロードが完了する。   When all the decoded images coincide with the photographed image (step S59: Yes), the CPU 30 permits uploading of the photographed image (step S60), and the communication unit 32 obtains the plurality of photographed image data selected in step S53. The data is transmitted to the management server 204 via the network 6 (step S61). When receiving the captured image data (step S74), the CPU 20 of the management server 204 releases the captured image based on the captured image data on the image posting site so that it can be viewed (step S75), and the captured image data is converted into an image. Store in the storage unit 26. Thereby, the upload of the photographed image to the image posting site is completed.

なお、撮影画像と一致しない復号画像が存在する場合(ステップS59:No)、CPU30は、撮影画像データのアップロードを禁止した後(ステップS63)、ステップS62の処理に進む。ステップS62の処理については、第1の実施の形態に係るステップS11の処理と同様であるため説明を省略する。   If there is a decoded image that does not match the captured image (step S59: No), the CPU 30 prohibits uploading of the captured image data (step S63), and then proceeds to the process of step S62. Since the process of step S62 is the same as the process of step S11 according to the first embodiment, the description thereof is omitted.

この第2の実施の形態に係る撮像システム、デジタルカメラ208によれば、複数の撮影画像データに基づいて一つの二次元コードを生成するため、操作者は、スマートフォン210を用いた二次元コードの認証を一回行うだけで、複数枚の撮影画像を安全かつ効率的に画像投稿サイトにアップロードすることができる。   According to the imaging system and the digital camera 208 according to the second embodiment, an operator can generate a two-dimensional code using the smartphone 210 in order to generate one two-dimensional code based on a plurality of captured image data. Multiple authentication images can be uploaded to an image posting site safely and efficiently with only one authentication.

なお、上述の各実施の形態において、撮影画像が撮影された場合、撮影画像データに基づいてサムネイル画像データ等の縮小画像データを生成し、縮小画像データから二次元コードを生成するようにしてもよい。この場合、縮小画像データの容量は撮影画像データの容量よりも小さいことから、情報生成部44の負担を軽減することができ、迅速に二次元コードを生成することができる。   In each of the embodiments described above, when a captured image is captured, reduced image data such as thumbnail image data is generated based on the captured image data, and a two-dimensional code is generated from the reduced image data. Good. In this case, since the capacity of the reduced image data is smaller than the capacity of the captured image data, the burden on the information generation unit 44 can be reduced, and a two-dimensional code can be generated quickly.

また、上述の各実施の形態において、撮影画像データのファイル名と二次元コードのファイル名とに関連性を持たせるようにしてもよい。例えば、撮影画像データのファイル名が「DSC_0001.jpg」であった場合、デジタルカメラのCPU30は、撮影画像データ「DSC_0001.jpg」から生成した二次元コードに対して「DSC_0001−A.jpg」のようなファイル名を付与する。これにより、スマートフォンが複数の二次元コードを受信した場合において、操作者は、どの二次元コードをスマートフォン表示させればどの撮影画像をアップロードできるのかを容易に把握することができる。   In the above-described embodiments, the file name of the captured image data and the file name of the two-dimensional code may be related to each other. For example, when the file name of the captured image data is “DSC — 0001.jpg”, the CPU 30 of the digital camera sets “DSC — 0001−A.jpg” to the two-dimensional code generated from the captured image data “DSC — 0001.jpg”. Give a file name like this. Accordingly, when the smartphone receives a plurality of two-dimensional codes, the operator can easily grasp which two-dimensional code is displayed on the smartphone and which captured image can be uploaded.

また、上述の第2の実施の形態において、デジタルカメラ8は、電源がオンされた場合に、GPS34による測位を開始して現在位置の位置情報、及び測位時の日時の日時情報を取得してもよい。そして、画像が撮影された場合、CPU30は、GPS34から取得した位置情報、及び日時情報を撮影画像データに付加する。   In the second embodiment described above, when the power is turned on, the digital camera 8 starts positioning by the GPS 34 and acquires position information of the current position and date / time information of the date and time at the time of positioning. Also good. And when an image is image | photographed, CPU30 adds the positional information and date information acquired from GPS34 to picked-up image data.

次に、CPU30は、位置情報、及び日時情報の少なくとも一方に基づいて撮影画像データをグルーピングする。例えば、同じ場所や時刻に撮影された撮影画像データを一つの画像グループとして内部メモリに記録する。次に、操作者は、画像グループの中からアップロードの対象となる一枚または複数枚撮影画像の撮影画像データを選択する。ここで、操作者は、画像グループの中から同じ場所や時刻に撮影された撮影画像データを選択できるため、多くの撮影画像を撮影した場合でもアップロードの対象となる撮影画像の撮影画像データを容易に選択することができる。   Next, the CPU 30 groups the captured image data based on at least one of position information and date / time information. For example, photographed image data photographed at the same place and time is recorded in the internal memory as one image group. Next, the operator selects photographed image data of one or a plurality of photographed images to be uploaded from the image group. Here, the operator can select the captured image data captured at the same place and time from the image group, so that even if a large number of captured images are captured, the captured image data of the captured image to be uploaded can be easily obtained. Can be selected.

次にCPU30は、情報生成部44により、選択された撮影画像データに基づいて一つの二次元コードを生成する。なおこの場合、操作者による撮影画像データの選択が行われなくても、一つの画像グループに含まれる複数の撮影画像データに基づいて一つの二次元コードを生成するようにしてもよい。   Next, the CPU 30 causes the information generation unit 44 to generate one two-dimensional code based on the selected captured image data. In this case, one two-dimensional code may be generated based on a plurality of photographed image data included in one image group even if the operator does not select the photographed image data.

また、上述の各実施の形態において、二次元コードは、撮影画像データ全体から生成してもよく画像データの一部から生成してもよい。また、撮影画像データのファイル名に基づいて二次元コードを生成してもよい。   In each of the above-described embodiments, the two-dimensional code may be generated from the entire photographed image data or a part of the image data. Further, a two-dimensional code may be generated based on the file name of the captured image data.

また、上述の各実施の形態において、スマートフォン側で二次元コードを生成してもよい。この場合、デジタルカメラのCPU30は、撮影画像データから二次元コードを生成するのに必要な素材を抽出し、抽出した素材を管理サーバを介してスマートフォンに送信する。管理サーバのCPU60は、素材を用いて二次元コードを生成し、生成した二次元コードの画像をLCD表示部68に表示する。   In each of the above-described embodiments, a two-dimensional code may be generated on the smartphone side. In this case, the CPU 30 of the digital camera extracts the material necessary for generating the two-dimensional code from the captured image data, and transmits the extracted material to the smartphone via the management server. The CPU 60 of the management server generates a two-dimensional code using the material and displays an image of the generated two-dimensional code on the LCD display unit 68.

また、上述の各実施の形態においては、撮像装置としてデジタルカメラを例に説明しているが、撮像装置は、撮影画像データを用いて二次元コードを生成する機能、及び二次元コードを復号する機能等を備え、上述した一連の処理が実行できれば、スマートフォンやタブレット端末等、他の装置であってもよい。同様に、デジタルカメラとペアリングされる装置もまた、スマートフォンに限定されず、デジタルカメラや携帯電話、タブレット端末等、他の装置であってもよい。   In each of the above-described embodiments, a digital camera is described as an example of the imaging device. However, the imaging device decodes the two-dimensional code and a function for generating a two-dimensional code using captured image data. Other devices such as a smartphone or a tablet terminal may be used as long as they have a function and the like and can execute the series of processes described above. Similarly, a device paired with a digital camera is not limited to a smartphone, and may be another device such as a digital camera, a mobile phone, or a tablet terminal.

また、上述の各実施の形態においては、撮影画像と復号画像との照合を行うことにより撮影画像の画像投稿サイトへのアップロードの許否を判定しているが、アップロードの許否に限定されず、外部装置への撮影画像データの出力を許可するか否かについて判定してもよい。例えば、図示しないプリンターやパソコンに撮影画像データを転送すること等について、その許否を判定するようにしてもよい。また、メモリカード52を外部装置と解釈し、メモリカード52に撮影画像データを記録することについて、その許否を判定するようにしてもよい。   Further, in each of the above-described embodiments, whether or not uploading of a photographed image to an image posting site is determined by comparing the photographed image and the decoded image is not limited to whether or not uploading is permitted. A determination may be made as to whether or not output of captured image data to the apparatus is permitted. For example, whether or not to transfer the captured image data to a printer or personal computer (not shown) may be determined. Alternatively, the memory card 52 may be interpreted as an external device, and whether or not to record the captured image data in the memory card 52 may be determined.

また、上述の各実施の形態においては、識別コードとして二次元コードを例に説明しているが、識別コードは、一次元コード(例えばバーコード等)や三次元コードであってもよい。   In each of the above-described embodiments, the two-dimensional code is described as an example of the identification code. However, the identification code may be a one-dimensional code (for example, a barcode) or a three-dimensional code.

(第3の実施の形態)
以下、図面を参照して第3の実施の形態に係る撮像システムについて説明する。従来、撮影された人物の特徴情報と、予めデータベースに記憶されている特徴情報とを比較することにより類似度を算出し、個人を認識する個人認証装置が知られている(例えば、特開2003−319327号公報参照)。
(Third embodiment)
The imaging system according to the third embodiment will be described below with reference to the drawings. 2. Description of the Related Art Conventionally, there is known a personal authentication device that recognizes an individual by calculating similarity by comparing feature information of a photographed person with feature information stored in advance in a database (for example, Japanese Patent Laid-Open No. 2003-2003). No. -319327).

ところで、この個人認識装置においては、個人認証の対象となる人物が成長した場合やメイクを変えた場合等に人物の特徴が変化し、正確な個人認証ができなくなるおそれがあった。   By the way, in this personal recognition apparatus, when the person who is the subject of personal authentication grows up or when the makeup is changed, there is a possibility that the personal characteristics change and accurate personal authentication cannot be performed.

第3の実施の形態に係る発明の目的は、人物の特徴が変化しても正確に個人認証ができる撮像装置、撮影システムを提供することである。   An object of the invention according to the third embodiment is to provide an imaging apparatus and an imaging system that can perform individual authentication accurately even if the characteristics of a person change.

図7は、第3の実施の形態に係る撮像システム302の構成を示すブロック図である。撮像システム302は、撮像装置304、及び撮像装置304とネットワーク306を介して通信可能に接続されるwebサーバ308を備えている。   FIG. 7 is a block diagram illustrating a configuration of an imaging system 302 according to the third embodiment. The imaging system 302 includes an imaging device 304 and a web server 308 that is communicably connected to the imaging device 304 via a network 306.

ここで、撮像装置304には、デジタルカメラ304a、デジタルカメラ304b、デジタルカメラ304c、デジタルカメラ304d、…、の複数の撮像装置が含まれている。なお、デジタルカメラ304a、デジタルカメラ304b、デジタルカメラ304c、デジタルカメラ304d、…、は一例を示したものであり、これ以外に、スマートフォン、タブレット端末、携帯電話等が撮像装置304に含まれていてもよい。   Here, the imaging device 304 includes a plurality of imaging devices of a digital camera 304a, a digital camera 304b, a digital camera 304c, a digital camera 304d,. Note that the digital camera 304a, the digital camera 304b, the digital camera 304c, the digital camera 304d,... Are examples, and in addition, a smartphone, a tablet terminal, a mobile phone, and the like are included in the imaging device 304. Also good.

図8は、第3の実施の形態に係る撮像装置304の構成を示すブロック図である。撮像装置304は、撮像装置304の各部を統括的に制御するCPU330を備えている。CPU330には、図示しない電源スイッチやシャッタボタン等を含む操作部331、ネットワーク306を介してwebサーバ308との間で通信を行う通信部332、画像を表示するLCD表示部338、LCD表示部338において指等が接触した位置を検出するタッチパネル339、タッチパネル339の操作により入力された人物情報を一時的に記憶する記憶部340、被写体光を撮像して撮像信号を生成する撮像素子341、撮像素子341から出力された撮像信号により生成された画像データを一時的に記憶する画像記憶部342、画像データから人物の顔や人物の着用する衣類等の特徴を認識する特徴認識部344、後述する情報ファイルを記憶する情報記憶部346、及び画像データを記憶するメモリカード352を装着するメモリカードスロット353が接続されている。   FIG. 8 is a block diagram illustrating a configuration of an imaging apparatus 304 according to the third embodiment. The imaging device 304 includes a CPU 330 that controls each part of the imaging device 304 in an integrated manner. The CPU 330 includes an operation unit 331 including a power switch and a shutter button (not shown), a communication unit 332 that communicates with the web server 308 via the network 306, an LCD display unit 338 that displays an image, and an LCD display unit 338. Touch panel 339 for detecting a position touched by a finger or the like, a storage unit 340 for temporarily storing personal information input by operating the touch panel 339, an image sensor 341 for imaging subject light and generating an image signal, an image sensor An image storage unit 342 that temporarily stores image data generated from the imaging signal output from the image data 341, a feature recognition unit 344 that recognizes features of a person's face and clothes worn by the person from the image data, and information to be described later Equipped with an information storage unit 346 for storing files and a memory card 352 for storing image data Memory card slot 353 is connected to that.

図9は、第3の実施の形態に係るwebサーバ308の構成を示すブロック図である。webサーバ308は、所定のソーシャル・ネットワーキング・サービスのサイト(以下、SNSサイトという。)を提供するサーバであり、webサーバ308の各部を統括的に制御するCPU360を備えている。CPU360には、ネットワーク306を介して撮像装置304との通信を行う通信部362、人物のプロフィールや特徴情報等の個人情報を記憶する個人情報データベース364、SNSサイトにアップロードされた画像の画像データを記憶する画像記憶部366、及び画像データから人物の顔や人物の着用する衣類等の特徴を認識する特徴認識部368が接続されている。   FIG. 9 is a block diagram illustrating a configuration of the web server 308 according to the third embodiment. The web server 308 is a server that provides a predetermined social networking service site (hereinafter referred to as an SNS site), and includes a CPU 360 that comprehensively controls each unit of the web server 308. The CPU 360 receives image data of images uploaded to the SNS site, a communication unit 362 that communicates with the imaging device 304 via the network 306, a personal information database 364 that stores personal information such as a person's profile and feature information, and the like. An image storage unit 366 for storing and a feature recognition unit 368 for recognizing features such as a person's face and clothing worn by the person from the image data are connected.

ここで、人物の特徴情報としては、例えば、顔の正面の特徴情報、横顔の特徴情報、低輝度環境下で撮影された場合の顔や衣類等の特徴情報など、さまざまなシーンの特徴情報が登録されている。また、プロフィールには、人物の氏名や生年月日等が含まれている。   Here, as the feature information of the person, for example, feature information of various scenes such as feature information of the front of the face, feature information of the side face, feature information of the face and clothes when photographed in a low luminance environment, and the like. It is registered. The profile also includes the name of the person and the date of birth.

次に、図10に示すフローチャートを参照して、第3の実施の形態に係る撮像装置304に個人認証対象者を初めに登録する初期登録の処理について、デジタルカメラ304aのユーザAが娘Xを個人認証対象者として登録する場合を例に説明する。まず、初期登録を開始するための操作が行われ(ステップS301)、LCD表示部338において「個人認証登録を行います。対象となる方を撮影してください。」等のメッセージを表示する。次に、ユーザAがシャッタボタンを操作して娘Xの顔が撮影されると(ステップS302)、CPU330は、娘Xの顔の画像の画像データを画像記憶部342に記憶する。   Next, with reference to the flowchart shown in FIG. 10, the user A of the digital camera 304a sets the daughter X in the initial registration process for first registering the person to be personally authenticated in the imaging apparatus 304 according to the third embodiment. An example of registration as a person subject to personal authentication will be described. First, an operation for starting the initial registration is performed (step S301), and a message such as “Perform personal authentication registration. Please photograph the target person” is displayed on the LCD display unit 338. Next, when the user A operates the shutter button to photograph the face of the daughter X (step S302), the CPU 330 stores the image data of the image of the face of the daughter X in the image storage unit 342.

次に、CPU330は、LCD表示部338において「撮影された方の氏名と生年月日を入力してください。」等のメッセージを表示した後、所定の入力用画面を表示する。ここで、ユーザAのタッチパネル339操作により、入力用画面を介して、娘Xの氏名と生年月日が入力されると(ステップS303)、CPU330は、入力された氏名と生年月日を人物情報として記憶部340に一旦記憶する。   Next, the CPU 330 displays a predetermined input screen after displaying a message such as “Please input the name and date of birth of the photographed person” on the LCD display unit 338. Here, when the name and date of birth of the daughter X are input through the input screen by the operation of the touch panel 339 of the user A (step S303), the CPU 330 displays the input name and date of birth as personal information. Is temporarily stored in the storage unit 340.

次に、CPU330は、画像記憶部342から画像データを読み出し、特徴認識部344により、画像データから娘Xの顔の特徴情報(例えば、顔全体の大きさに対する目や鼻の大きさや位置などの情報)を抽出する(ステップS304)。次に、CPU330は、記憶部340から娘Xの人物情報を読み出し、顔の特徴情報に娘Xの人物情報を付加した娘Xの情報ファイルを作成して情報記憶部346に登録する(ステップS305)。   Next, the CPU 330 reads out the image data from the image storage unit 342, and the feature recognition unit 344 causes the feature information of the face of the daughter X from the image data (for example, the size and position of the eyes and nose relative to the size of the entire face). Information) is extracted (step S304). Next, the CPU 330 reads out the personal information of the daughter X from the storage unit 340, creates an information file of the daughter X by adding the personal information of the daughter X to the facial feature information, and registers it in the information storage unit 346 (step S305). ).

また、CPU330は、娘Xの情報ファイルをデジタルカメラ304aの通信アドレスと共にネットワーク306を介してwebサーバ308に送信する(ステップS306)。webサーバ308のCPU360は、娘Xの情報ファイルを受信すると、情報ファイルに含まれる娘Xの人物情報に基づいて個人情報データベース364から娘Xの個人情報を検索する。そして、娘Xの個人情報が検出された場合、CPU360は、娘Xの個人情報に情報ファイル、及びデジタルカメラ304aの通信アドレスを関連付ける。   Further, the CPU 330 transmits the daughter X information file together with the communication address of the digital camera 304a to the web server 308 via the network 306 (step S306). When the CPU 360 of the web server 308 receives the daughter X information file, the CPU 360 retrieves the personal information of the daughter X from the personal information database 364 based on the personal information of the daughter X included in the information file. When the personal information of the daughter X is detected, the CPU 360 associates the personal information of the daughter X with the information file and the communication address of the digital camera 304a.

次に、図11に示すフローチャートを参照し、第3の実施の形態に係る撮像システム302における情報ファイルの更新処理について説明する。なお、情報ファイルの更新は、娘Xの顔が写っている画像(例えば、運動会や文化祭等のイベントで撮影された画像等)がwebサーバ308と通信可能な撮像装置304からSNSサイトにアップロードされる度に行われる。   Next, information file update processing in the imaging system 302 according to the third embodiment will be described with reference to the flowchart shown in FIG. The information file is updated by uploading an image of the face of daughter X (for example, an image taken at an event such as an athletic meet or a cultural festival) from the imaging device 304 that can communicate with the web server 308 to the SNS site. Every time it is done.

まず、娘Xの顔が写っている画像がSNSサイトにアップロードされると(ステップS311)、webサーバ308のCPU360は、特徴認識部368により、アップロードされた画像に写っている娘Xたちの顔を認識し、画像データから娘Xたち顔の特徴情報を抽出する(ステップS312)。   First, when an image showing the face of the daughter X is uploaded to the SNS site (step S311), the CPU 360 of the web server 308 uses the feature recognition unit 368 to face the faces of the daughters X and the like shown in the uploaded image. And the feature information of the faces of the daughters X are extracted from the image data (step S312).

次に、CPU360は、個人情報データベース364を検索し、画像データから抽出した顔の特徴情報と合致する特徴情報を含む個人情報を特定する(ステップS313)。これにより、娘Xたちの個人情報が特定される。   Next, the CPU 360 searches the personal information database 364 and specifies personal information including feature information that matches the facial feature information extracted from the image data (step S313). Thereby, the personal information of the daughters X is specified.

ここで、個人情報に通信アドレスを関連付けられている場合には、CPU360は、個人情報に関連付けられている通信アドレスに宛てて、画像データから抽出した顔の特徴情報を送信する(ステップS314)。例えば、娘Xの個人情報にデジタルカメラ304aの通信アドレスが関連付けられていた場合、CPU360は、デジタルカメラ304aの通信アドレスに宛てて画像データから抽出した娘Xの顔の特徴情報を送信する。なお、娘Xの顔の特徴情報は、個人情報データベース364に追加される。   If the communication address is associated with the personal information, the CPU 360 transmits the facial feature information extracted from the image data to the communication address associated with the personal information (step S314). For example, when the communication address of the digital camera 304a is associated with the personal information of the daughter X, the CPU 360 transmits the feature information of the face of the daughter X extracted from the image data to the communication address of the digital camera 304a. The feature information of the face of the daughter X is added to the personal information database 364.

デジタルカメラ304aのCPU330は、娘Xの顔の特徴情報を受信すると(ステップS321)、受信した特徴情報に基づいて情報記憶部346の娘Xの情報ファイルを更新する(ステップS322)。   When the CPU 330 of the digital camera 304a receives the feature information of the daughter X's face (step S321), the CPU 330 updates the information file of the daughter X in the information storage unit 346 based on the received feature information (step S322).

次に、図12に示すフローチャートを参照し、第3の実施の形態に係る撮像装置304により人物が撮影された場合において、更新された情報ファイルを用いて個人認証を行う場合の個人認証処理について説明する。なお、以下では、デジタルカメラ304aを用いてユーザAが娘Xを撮影した場合を例に説明する。   Next, referring to the flowchart shown in FIG. 12, when a person is photographed by the imaging apparatus 304 according to the third embodiment, personal authentication processing when performing personal authentication using an updated information file explain. Hereinafter, a case where the user A photographs the daughter X using the digital camera 304a will be described as an example.

まず、デジタルカメラ304aの電源がオンにされると、CPU330は、ネットワーク306を介してwebサーバ308との通信を行い、SNSサイトにアクセスする。ここで、SNSサイトにおいては、娘Xの顔が写っている画像がアップロードされる度に娘Xの顔の特徴情報が画像から抽出され、デジタルカメラ304aに送信される。デジタルカメラ304aは、webサーバ308から娘Xの顔の特徴情報を受信する度に娘Xの情報ファイルを更新する。   First, when the power of the digital camera 304a is turned on, the CPU 330 communicates with the web server 308 via the network 306 to access the SNS site. Here, at the SNS site, each time an image showing the face of the daughter X is uploaded, the feature information of the face of the daughter X is extracted from the image and transmitted to the digital camera 304a. The digital camera 304a updates the daughter X information file each time the daughter X facial feature information is received from the web server 308.

ここで、ユーザAによって娘Xの顔が撮影されると(ステップS331)、CPU330は、特徴認識部344により、娘Xの顔の画像の画像データから娘Xの顔の特徴情報を抽出する(ステップS332)。次に、CPU330は、抽出した特徴情報と合致する特徴情報が情報記憶部346に記憶されているか否かを判定する(ステップS333)。   Here, when the face of the daughter X is photographed by the user A (step S331), the CPU 330 causes the feature recognition unit 344 to extract the feature information of the face of the daughter X from the image data of the image of the face of the daughter X ( Step S332). Next, the CPU 330 determines whether or not feature information that matches the extracted feature information is stored in the information storage unit 346 (step S333).

抽出した特徴情報と合致する特徴情報が情報記憶部346に記憶されている場合(ステップS333:Yes)、即ち、画像データから娘Xが認識できた場合、CPU330は、娘Xの情報ファイルに登録されている娘Xの氏名と生年月日等の人物情報をLCD表示部338に表示する(ステップS334)。そして、画像データに娘Xの人物情報をタグ情報として付加した後、画像データをExif等の所定のファイル形式でメモリカード352に記憶する。   If feature information that matches the extracted feature information is stored in the information storage unit 346 (step S333: Yes), that is, if the daughter X can be recognized from the image data, the CPU 330 registers it in the information file of the daughter X. The personal information such as the name of the daughter X and the date of birth are displayed on the LCD display unit 338 (step S334). Then, after adding the daughter X person information to the image data as tag information, the image data is stored in the memory card 352 in a predetermined file format such as Exif.

一方、抽出した特徴情報と合致する特徴情報が情報記憶部346に記憶されていない場合(ステップS333:No)、即ち、画像データから娘Xが認識できない場合、CPU330は、娘Xの人物情報をLCD表示部338に表示したり画像データにタグ付けすることなく、画像データをExif等の所定のファイル形式でメモリカード352に記憶する。   On the other hand, if feature information that matches the extracted feature information is not stored in the information storage unit 346 (step S333: No), that is, if the daughter X cannot be recognized from the image data, the CPU 330 displays the personal information of the daughter X. The image data is stored in the memory card 352 in a predetermined file format such as Exif without being displayed on the LCD display unit 338 or tagging the image data.

この第3の実施の形態に係る発明によれば、娘Xの顔が写っている画像がSNSサイトにアップロードされる度に、撮像装置304の情報記憶部346に記憶されている娘Xの情報ファイルが更新されるため、例えば、娘Xが成長して顔の特徴が変化した場合であっても、撮影時に正確に娘Xを認識することができる。また、ユーザAは、娘Xが成長する度に自らの手で娘Xの特徴情報を更新する必要がないため、特徴情報を更新するユーザAの手間を軽減することができる。   According to the invention according to the third embodiment, every time an image showing the face of the daughter X is uploaded to the SNS site, the information about the daughter X stored in the information storage unit 346 of the imaging device 304 is displayed. Since the file is updated, for example, even when the daughter X grows and the facial features change, the daughter X can be accurately recognized at the time of shooting. Further, since the user A does not need to update the feature information of the daughter X with his / her hand each time the daughter X grows, the user A's effort to update the feature information can be reduced.

なお、上述の第3の実施の形態において、特徴情報をシーンごとに分類して登録できるようにしてもよい。例えば、既に娘Xの顔の正面の特徴情報が情報ファイルに登録されていたとする。ここで、デジタルカメラ304aが新たに娘Xの顔の正面の特徴情報をwebサーバ308から受信した場合、CPU330は、新たに受信した娘Xの顔の正面の特徴情報を既に登録されている娘Xの顔の正面の特徴情報に上書き更新する。   In the third embodiment described above, feature information may be classified and registered for each scene. For example, it is assumed that the feature information of the front face of the daughter X has already been registered in the information file. Here, when the digital camera 304a newly receives the front feature information of the face of the daughter X from the web server 308, the CPU 330 has already registered the front feature information of the front face of the daughter X of the daughter X. The feature information of the front face of X is overwritten and updated.

一方、デジタルカメラ304aが新たに娘Xの横顔の特徴情報をwebサーバ308から受信した場合、CPU330は、新たに受信した娘Xの横顔の特徴情報を新規に情報ファイルに登録する。同様に、低輝度環境下で撮影された場合の娘Xの顔の特徴情報を新たに受信した場合には、CPU330は、新たに受信した低輝度環境下で撮影された場合の娘Xの顔の特徴情報を新規に情報ファイルに登録する。   On the other hand, when the digital camera 304a newly receives the profile information of the profile of the daughter X from the web server 308, the CPU 330 newly registers the profile information of the profile of the daughter X in the information file. Similarly, when the feature information of the face of the daughter X when photographed in the low-luminance environment is newly received, the CPU 330 causes the face of the daughter X when photographed in the newly received low-luminance environment. Is registered in the information file.

このように、さまざまなシーンの特徴情報を情報ファイルに登録することにより、撮影環境が変化しても正確に個人認証を行うことができる。   Thus, by registering various scene feature information in the information file, it is possible to accurately perform personal authentication even if the shooting environment changes.

また、上述の第3の実施の形態において、情報ファイルに登録されている特徴情報は、所定の時間が経過すると削除されるようにしてもよい。例えば、初期登録から所定の時間が経過した場合、初期登録時に画像データから抽出された特徴情報を情報ファイルから削除する。また、webサーバ308から受信した特徴情報が情報ファイルに登録されてから所定の時間が経過した場合、webサーバ308から受信した特徴情報を情報ファイルから削除する。   In the third embodiment described above, the feature information registered in the information file may be deleted when a predetermined time has elapsed. For example, when a predetermined time has elapsed from the initial registration, the feature information extracted from the image data at the time of initial registration is deleted from the information file. In addition, when a predetermined time has elapsed since the feature information received from the web server 308 is registered in the information file, the feature information received from the web server 308 is deleted from the information file.

これにより、例えば、娘Xが成長して顔の特徴が変化した場合において、顔の特徴が変化する前の特徴情報などの不要な情報が削除され、情報記憶部346の容量を節約することができる。また、個人認証に必要な特徴情報の数を限定できるため、個人認証に用いる特徴情報が過多にならず、迅速に認証処理を行うことができる。なお、所定の時間については、ユーザが任意に設定してもよく、予め撮像装置304において設定されていてもよい。   Thereby, for example, when the daughter X grows and the facial features change, unnecessary information such as feature information before the facial features change is deleted, and the capacity of the information storage unit 346 can be saved. it can. In addition, since the number of feature information necessary for personal authentication can be limited, feature information used for personal authentication is not excessive, and authentication processing can be performed quickly. Note that the predetermined time may be arbitrarily set by the user, or may be set in the imaging device 304 in advance.

また、上述の第3の実施の形態において、人物の着用する衣類や装身具等、顔以外の特徴を補助的特徴情報として情報ファイルに登録してもよい。この場合、例えば、人物の顔の特徴に基づいて個人認証ができないときに、CPU330は、補助的特徴情報を用いて個人認証を行う。具体的には、画像データから衣服の特徴(水玉模様など)を抽出し、抽出した衣服の特徴情報と合致する補助的特徴情報が情報記憶部346に記憶されているか否かを判定する。これにより、例えば、遠くから人物が撮影され、画像データから人物の顔を認識することが困難な場合でも、確実に個人認証を行うことができる。   In the third embodiment described above, features other than the face, such as clothing worn by a person and accessories, may be registered in the information file as auxiliary feature information. In this case, for example, when the personal authentication cannot be performed based on the feature of the person's face, the CPU 330 performs the personal authentication using the auxiliary feature information. Specifically, clothes features (such as polka dots) are extracted from the image data, and it is determined whether or not auxiliary feature information that matches the extracted clothes feature information is stored in the information storage unit 346. Thus, for example, even when a person is photographed from a distance and it is difficult to recognize the person's face from the image data, personal authentication can be reliably performed.

また、上述の第3の実施の形態において、特徴情報を時期ごとに分類して情報ファイルに登録してもよい。例えば、娘Xの初期登録が春に行われた場合、デジタルカメラ304aのCPU330は、娘Xの顔の特徴情報を春用特徴情報とする娘Xの情報ファイルを作成して情報記憶部346に記憶する。そして、春にwebサーバ308から新たに娘Xの顔の特徴情報を受信した場合、CPU330は、初期登録時に取得された春用特徴情報を上書き更新する。一方、夏、秋、冬にwebサーバ308から新た娘Xの顔の特徴情報を受信した場合、CPU330は、娘Xの情報ファイルに、夏用特徴情報、秋用特徴情報、冬用特徴情報をそれぞれ追加して登録する。   In the third embodiment described above, the feature information may be classified and registered in the information file for each period. For example, when the initial registration of the daughter X is performed in the spring, the CPU 330 of the digital camera 304a creates an information file of the daughter X using the feature information of the daughter X's face as spring feature information, and stores it in the information storage unit 346. Remember. When new feature information of the face of the daughter X is received from the web server 308 in the spring, the CPU 330 overwrites and updates the spring feature information acquired at the time of initial registration. On the other hand, when the feature information of the face of the new daughter X is received from the web server 308 in summer, autumn, and winter, the CPU 330 stores the feature information for summer, the feature information for autumn, and the feature information for winter in the information file of the daughter X. Add and register each.

次に、春に娘Xが撮影されたとする。この場合、CPU330は、画像データから娘Xの顔の特徴情報を抽出し、抽出した特徴情報と合致する春用特徴情報があるか否かを判定して娘Xの個人認証を行う。これにより、娘Xのメイクが季節ごとに大きく異なり、季節によって顔の特徴が変化した場合等にも、正確に娘Xを認識することができる。   Next, suppose that daughter X was photographed in the spring. In this case, the CPU 330 extracts the feature information of the daughter X's face from the image data, determines whether there is spring feature information that matches the extracted feature information, and performs personal authentication of the daughter X. Accordingly, the daughter X can be accurately recognized even when the makeup of the daughter X varies greatly from season to season and the facial features change depending on the season.

また、補助的特徴情報を季節ごとに登録してもよい。これにより、娘Xの着用する衣服や装身具等の特徴が季節によって異なる場合でも、正確に娘Xを認識することができる。また、季節が変わるたびに前の季節の特徴情報を削除してもよい。例えば、夏になったら春用特徴情報を削除する。   Further, auxiliary feature information may be registered for each season. Thereby, even when the characteristics of clothes, accessories, and the like worn by the daughter X vary depending on the season, the daughter X can be accurately recognized. Also, the feature information of the previous season may be deleted each time the season changes. For example, when summer comes, the spring feature information is deleted.

また、上述の第3の実施の形態において、初期登録時にwebサーバ308に対して情報ファイルを送信していない撮像装置304においても、画像がSNSサイトにアップロードされる情報ファイルが更新されるようにしてもよい。例えば、ユーザAが初期登録時において、娘Xの情報ファイル、デジタルカメラ304aの通信アドレスの他に、妻であるユーザBのデジタルカメラ304bの通信アドレスをwebサーバ308に対して送信したとする。この場合、webサーバ308のCPU360は、個人情報データベース364に記憶されている娘Xの個人情報に情報ファイル、及びデジタルカメラ304aとデジタルカメラ304bの通信アドレスを関連付ける。そして、娘Xの顔が写っている画像がSNSサイトにアップロードされた場合、CPU360は、デジタルカメラ304aとデジタルカメラ304bの双方の通信アドレスに宛てて娘Xの顔の特徴情報を送信する。デジタルカメラ304a、及びデジタルカメラ304bは、娘Xの顔の特徴情報を受信すると、受信した特徴情報に基づいて娘Xの情報ファイルを更新する。   In the third embodiment described above, the information file in which the image is uploaded to the SNS site is updated even in the imaging device 304 that has not transmitted the information file to the web server 308 at the time of initial registration. May be. For example, it is assumed that the user A transmits the communication address of the digital camera 304b of the user B who is his wife to the web server 308 in addition to the information file of the daughter X and the communication address of the digital camera 304a at the time of initial registration. In this case, the CPU 360 of the web server 308 associates the personal information of the daughter X stored in the personal information database 364 with the information file and the communication addresses of the digital camera 304a and the digital camera 304b. When an image showing the face of the daughter X is uploaded to the SNS site, the CPU 360 transmits the feature information of the face of the daughter X to the communication addresses of both the digital camera 304a and the digital camera 304b. When the digital camera 304a and the digital camera 304b receive the feature information of the daughter X's face, the digital camera 304a updates the information file of the daughter X based on the received feature information.

なお、この場合、ユーザA、及びユーザBは、直接SNSサイトにおいて、自己の所有する撮像装置304の通信アドレスを個人情報データベース364に記憶されている娘Xの個人情報に関連付けてもよい。   In this case, the user A and the user B may directly associate the communication address of the imaging device 304 owned by the user A and the user B with the personal information of the daughter X stored in the personal information database 364 at the SNS site.

また、上述の第3の実施の形態において、webサーバ308を介さずに情報ファイルが更新されるようにしてもよい。例えば、撮像装置304に近距離無線通信を行う近距離通信部を備え、撮像装置304間で相互にデータの送受信ができるようにする。そして、一方の撮像装置304において、例えば人物Zの情報ファイルが更新された場合、一方の撮像装置304は、近距離通信部を介して、更新された人物Zの情報ファイルを他方の撮像装置304に送信する。他方の撮像装置304は、人物Zの情報ファイルを受信すると、情報記憶部346に記憶されている人物Zの情報ファイルを更新する。   In the third embodiment described above, the information file may be updated without using the web server 308. For example, the imaging device 304 includes a short-range communication unit that performs short-distance wireless communication so that data can be transmitted and received between the imaging devices 304. For example, when the information file of the person Z is updated in one imaging device 304, the one imaging device 304 transmits the updated information file of the person Z to the other imaging device 304 via the short-range communication unit. Send to. When the other imaging device 304 receives the information file of the person Z, it updates the information file of the person Z stored in the information storage unit 346.

また、上述の第3の実施の形態において、撮影時に個人認証に成功した場合、認証された人物に合わせて露出制御動作(AE)や焦点調整動作(AF)を行うようにしてもよい。例えば、スルー画像に人物Eの像と人物Fの像が表示されている場合において、人物Eは認証されず、人物Fのみが認証されたとする。ここで、シャッタボタンが操作された場合、撮像装置304のCPU330は、人物Fの顔の位置に適正露出が得られるようにAEを行うと共に、撮影レンズの焦点が人物の顔の位置に合うようにAFを行い、シャッター速度及び絞り値を決定する。   In the third embodiment described above, when the personal authentication is successful at the time of shooting, the exposure control operation (AE) or the focus adjustment operation (AF) may be performed in accordance with the authenticated person. For example, in the case where an image of person E and an image of person F are displayed in the through image, it is assumed that person E is not authenticated and only person F is authenticated. Here, when the shutter button is operated, the CPU 330 of the imaging device 304 performs AE so that proper exposure is obtained at the position of the face of the person F, and the focus of the photographing lens is adjusted to the position of the face of the person. AF is performed to determine the shutter speed and aperture value.

また、上述の第3の実施の形態において、初期登録時に撮像装置304からwebサーバ308に対して情報ファイルと共に送信される情報は、撮像装置304を特定できる情報であれば通信アドレスに限定されない。   In the third embodiment described above, the information transmitted together with the information file from the imaging device 304 to the web server 308 at the time of initial registration is not limited to the communication address as long as the information can identify the imaging device 304.

また、上述の第3の実施の形態において、顔の特徴情報に代えて、人物の顔の顔画像データを情報ファイルに登録してもよい。そして、SNSサイトに画像がアップロードされた場合、webサーバ308のCPU360は、画像データから人物の顔を含む領域の顔画像データを抽出し、顔画像データを撮像装置304に対して送信する。撮像装置304は、新たな顔画像データを受信すると、受信した顔画像データに基づいて情報ファイルを更新する。   In the third embodiment, face image data of a person's face may be registered in the information file instead of the face feature information. When an image is uploaded to the SNS site, the CPU 360 of the web server 308 extracts face image data of a region including a person's face from the image data, and transmits the face image data to the imaging device 304. Upon receiving new face image data, the imaging device 304 updates the information file based on the received face image data.

また、上述の第3の実施の形態において、タッチパネル339入力により特徴情報に付加される人物情報は、個人を特定可能な情報であれば必ずしも氏名と生年月日でなくてもよい。   In the third embodiment described above, the person information added to the feature information by the input of the touch panel 339 may not necessarily be the name and date of birth as long as the information can identify an individual.

(第4の実施の形態)
以下、図面を参照して第4の実施の形態に係る撮像装置について説明する。従来、ユーザ認証を行った後、認証されたユーザと関連付けられた宛先の端末に画像を転送する画像送信装置が知られている(例えば、特許4315023号公報参照)。
(Fourth embodiment)
Hereinafter, an imaging device according to a fourth embodiment will be described with reference to the drawings. 2. Description of the Related Art Conventionally, an image transmission apparatus that transfers an image to a destination terminal associated with an authenticated user after performing user authentication is known (see, for example, Japanese Patent No. 4315023).

しかしながら、この画像送信装置においては、ユーザ認証がなされたまま装置が放置された場合やパスワードが漏洩した場合などに、第三者がユーザ認証された本人になりすまして画像を転送することができる等の問題があった。   However, in this image transmission device, when the device is left with user authentication or when a password is leaked, an image can be transferred by impersonating the user authenticated by a third party, etc. There was a problem.

本発明の目的は、第三者が本人になりすまして画像を転送することを防止する安全性の高い撮像装置を提供することである。   An object of the present invention is to provide an imaging apparatus with high safety that prevents a third party from impersonating a person and transferring an image.

図13は、第4の実施の形態に係るデジタルカメラ408の構成を示すブロック図である。デジタルカメラ408は、デジタルカメラ408の各部を統括的に制御するCPU430を備えている。CPU430には、電源スイッチ(図示せず)、シャッタボタン(図示せず)、ズームレバー(図示せず)等を含む操作部432、ネットワークを介して図示しないサーバとの間で通信を行う通信部433、画像やアイコンを表示するLCD表示部434、LCD表示部434に表示されるアイコン等を指で触れることにより入力の操作を行うタッチパネル436、ユーザの指の指紋を認識する指紋センサ438、被写体を撮影するため撮影用カメラ440、デジタルカメラ2の背面に設けられ使用者の顔を撮影するリアカメラ442、撮影用カメラ440及びリアカメラ442により撮影された画像の画像データを記憶する画像記憶部444、画像データに付加する情報を記憶する情報記憶部446、所有者等の個人情報を予め記憶する個人情報記憶部448、画像データの改変を行う画像処理部449、音声を取得するためのマイク450、及び画像データを記憶するメモリカード454を装着するメモリカードスロット456が接続されている。   FIG. 13 is a block diagram illustrating a configuration of a digital camera 408 according to the fourth embodiment. The digital camera 408 includes a CPU 430 that comprehensively controls each unit of the digital camera 408. The CPU 430 includes a power switch (not shown), a shutter button (not shown), an operation unit 432 including a zoom lever (not shown), and a communication unit that communicates with a server (not shown) via a network. 433, an LCD display unit 434 for displaying images and icons, a touch panel 436 for performing an input operation by touching an icon displayed on the LCD display unit 434 with a finger, a fingerprint sensor 438 for recognizing the fingerprint of the user's finger, a subject A camera 440 for photographing the camera, a rear camera 442 for photographing the face of the user provided on the back of the digital camera 2, an image storage unit for storing image data of images photographed by the camera 440 and the rear camera 442. 444, an information storage unit 446 for storing information to be added to the image data, and an individual for storing personal information such as the owner in advance Information storage unit 448, the image processing unit 449 performs the alteration of the image data, a memory card slot 456 for mounting a memory card 454 for storing the microphone 450, and the image data for obtaining the audio is connected.

ここで、サーバは、所定のソーシャル・ネットワーキング・サービスのサイト(以下、SNSサイトという。)を提供するサーバである。   Here, the server is a server that provides a predetermined social networking service site (hereinafter referred to as an SNS site).

また、個人情報記憶部448には、デジタルカメラ408を使用することが可能なユーザ(例えば、デジタルカメラ408の所有者であるユーザA1、及びその妻のユーザB1等)の個人情報が予め記憶されている。個人情報としては、ユーザの声紋情報、ユーザの指紋情報、ユーザの顔特徴情報、及びSNSサイトにおけるユーザのID、パスワード等が記憶されている。なお、これらの個人情報は、他のユーザとの識別を行う識別情報と関連付けて記憶されている。   The personal information storage unit 448 stores personal information of users who can use the digital camera 408 (for example, the user A1 who is the owner of the digital camera 408 and the user B1 of his wife) in advance. ing. As personal information, user voiceprint information, user fingerprint information, user face feature information, user ID and password at the SNS site, and the like are stored. Note that these pieces of personal information are stored in association with identification information for identifying other users.

また、CPU430、マイク450、リアカメラ442、指紋センサ438等には、電源がオフにされた状態においても電力が供給される。このため、CPU430は、電源がオフにされた状態においてもマイク450を介した音声の取得、リアカメラ442による人物の撮影、指紋センサ438による指紋の取得を行うことができ、取得した情報に基づいてユーザ認証を行うことができる。   Further, power is supplied to the CPU 430, the microphone 450, the rear camera 442, the fingerprint sensor 438, and the like even when the power is turned off. For this reason, the CPU 430 can acquire sound through the microphone 450, photograph a person with the rear camera 442, and acquire a fingerprint with the fingerprint sensor 438 even when the power is turned off. Based on the acquired information User authentication.

次に、図14に示すフローチャートを参照し、第4の実施の形態に係るデジタルカメラ408の処理について説明する。まず、電源がオフにされた状態において、ユーザが音声によりデジタルカメラ408を起動する旨の指示を行うと、マイク450を介して音声コマンドが入力される(ステップS401)。   Next, processing of the digital camera 408 according to the fourth embodiment will be described with reference to a flowchart shown in FIG. First, when the user gives an instruction to activate the digital camera 408 by voice while the power is turned off, a voice command is input via the microphone 450 (step S401).

次に、CPU430は、音声コマンドからユーザの声紋を検出し、検出した声紋に基づいてユーザ認証を行う(ステップS402)。例えば、CPU430は、検出した声紋と一致する声紋情報を個人情報記憶部448から検索し、検索された声紋情報に関連付けられている識別情報に基づいてデジタルカメラ408を起動したユーザを認証する。   Next, the CPU 430 detects the user's voiceprint from the voice command, and performs user authentication based on the detected voiceprint (step S402). For example, the CPU 430 searches the personal information storage unit 448 for voiceprint information that matches the detected voiceprint, and authenticates the user who activated the digital camera 408 based on the identification information associated with the searched voiceprint information.

ここで、検索された声紋情報に関連付けられている識別情報が、例えばユーザA1に割り当てられた識別情報「A1」であった場合、CPU430は、ユーザA1によってデジタルカメラ408が起動されたと認識する。認識されたユーザA1の識別情報「A1」は、音声によってユーザ認証が行われたことを示す方法情報「001」と共に一旦情報記憶部446に記憶される。   Here, when the identification information associated with the searched voiceprint information is, for example, the identification information “A1” assigned to the user A1, the CPU 430 recognizes that the digital camera 408 has been activated by the user A1. The recognized identification information “A1” of the user A1 is temporarily stored in the information storage unit 446 together with the method information “001” indicating that the user authentication is performed by voice.

次に、CPU430は、マイク450に入力された音声コマンドに従ってデジタルカメラ408の電源をオンにする(ステップS403)。電源がオンにされると、CPU430は、撮影用カメラ440によるスルー画像の撮影を開始し、撮影されたスルー画像をLCD表示部434に表示する。   Next, the CPU 430 turns on the power of the digital camera 408 according to the voice command input to the microphone 450 (step S403). When the power is turned on, the CPU 430 starts shooting a through image by the shooting camera 440 and displays the shot through image on the LCD display unit 434.

ここで、ユーザによりシャッタボタンが操作されると、CPU430は、撮影用カメラ440により被写体の画像を撮影する(ステップS404)。次に、CPU430は、情報記憶部446に記憶されている方法情報、及び識別情報を、撮影された画像の画像データにタグ情報として付加し(ステップS405)、タグ情報が付加された画像データをメモリカード454に記憶する(ステップS406)。   Here, when the shutter button is operated by the user, the CPU 430 captures an image of the subject with the capturing camera 440 (step S404). Next, the CPU 430 adds the method information and the identification information stored in the information storage unit 446 as tag information to the image data of the photographed image (step S405), and the image data to which the tag information is added is added. It memorize | stores in the memory card 454 (step S406).

次に、ユーザにより撮影した画像をアップロードする音声コマンドがマイク450を介して入力されると(ステップS407)、CPU430は、音声コマンドからユーザの声紋を検出し、検出した声紋に基づいてユーザの再認証を行う(ステップS408)。ここで、再認証は、デジタルカメラ408を起動した時と同様に、検出した声紋と一致する声紋情報を個人情報記憶部448から検索し、検索された声紋情報に関連付けられている識別情報を参照することにより、画像のアップロードを指示したユーザを認証する。   Next, when a voice command for uploading an image captured by the user is input via the microphone 450 (step S407), the CPU 430 detects the user's voiceprint from the voice command, and the user's replay is performed based on the detected voiceprint. Authentication is performed (step S408). Here, the re-authentication is performed by searching the personal information storage unit 448 for voice print information that matches the detected voice print, and referring to the identification information associated with the searched voice print information in the same manner as when the digital camera 408 is activated. By doing so, the user who gives an instruction to upload the image is authenticated.

次に、CPU430は、再認証結果に基づいて、画像のアップロードを指示したユーザとデジタルカメラ408を起動して撮影を行ったユーザとが同一人物であるか否かを判定する(ステップS409)。例えば、情報記憶部446に識別情報「A1」、及び方法情報「001」が記憶されていたとする。この場合、CPU430は、再認証時に認識された識別情報が識別情報「A1」と一致する識別情報であり、かつ再認証時に認識されたコマンドの方法が方法情報「001」に基づく方法と一致するか否かを判定する。   Next, based on the re-authentication result, the CPU 430 determines whether or not the user who has instructed to upload an image and the user who has activated the digital camera 408 and photographed are the same person (step S409). For example, it is assumed that identification information “A1” and method information “001” are stored in the information storage unit 446. In this case, the CPU 430 is identification information in which the identification information recognized at the time of re-authentication matches the identification information “A1”, and the command method recognized at the time of re-authentication matches the method based on the method information “001”. It is determined whether or not.

画像のアップロードを指示したユーザとデジタルカメラ408を起動して撮影を行ったユーザとが同一人物である場合(ステップS409:Yes)、CPU430は、画像のアップロードを実行する(ステップS410)。例えば、ユーザA1によりアップロードの指示がなされた場合、CPU430は、まず、識別情報「A1」と関連付けられているユーザA1のID、パスワードを個人情報記憶部448から読み出して、SNSサイトのユーザA1のページにログインする。   When the user who has instructed to upload an image and the user who has activated the digital camera 408 and photographed are the same person (step S409: Yes), the CPU 430 executes image upload (step S410). For example, when the upload instruction is given by the user A1, the CPU 430 first reads out the ID and password of the user A1 associated with the identification information “A1” from the personal information storage unit 448, and the user A1 of the SNS site. Log in to the page.

次に、CPU430は、まだユーザA1のページにアップロードされていない画像の画像データの中で、再認証時に認識された識別情報と一致する識別情報「A1」が付加され、かつ再認証時に認識されたコマンドの方法と一致する音声コマンドの方法情報「001」が付加されている画像データをメモリカード454から検出する。そして、検出した画像データに基づく画像をユーザA1のページにアップロードする。なお、アップロードされた画像の画像データには、既にアップロードがなされた旨の情報が付加される。   Next, the CPU 430 adds identification information “A1” that matches the identification information recognized at the time of re-authentication among the image data of the image that has not yet been uploaded to the page of the user A1, and is recognized at the time of re-authentication. The image data to which the method information “001” of the voice command that matches the command method is added is detected from the memory card 454. Then, an image based on the detected image data is uploaded to the user A1 page. Note that information indicating that the upload has already been performed is added to the image data of the uploaded image.

一方、画像のアップロードを指示したユーザとデジタルカメラ408を起動して撮影を行ったユーザとが同一人物でない場合(ステップS409:No)、CPU430は、画像のアップロードを禁止し、その旨をユーザに報知する(ステップS411)。例えば、LCD表示部434に“画像をアップロードすることはできません。”等のメッセージを表示する。   On the other hand, when the user who has instructed to upload an image and the user who has activated the digital camera 408 and photographed are not the same person (step S409: No), the CPU 430 prohibits image uploading and informs the user accordingly. Notification is made (step S411). For example, a message such as “Image cannot be uploaded” is displayed on the LCD display unit 434.

この第4の実施の形態に係る発明によれば、画像をアップロードする際にユーザの再認証を行い、再認証されたユーザがデジタルカメラ408の起動時に認証されたユーザと同一人物であることを確認するため、第三者がデジタルカメラ408の起動した本人になりすましてアップロードを行うことを防止することができる。例えば、ユーザA1がデジタルカメラ408を起動して現在使用している場合、デジタルカメラ408を使用していないユーザB1やその他の第三者によって画像がアップロードされることが防止される。   According to the fourth embodiment, the user is re-authenticated when the image is uploaded, and the re-authenticated user is the same person as the user who was authenticated when the digital camera 408 was activated. In order to confirm, it is possible to prevent a third party from pretending to be the person who started the digital camera 408 and performing the upload. For example, when the user A1 activates the digital camera 408 and is currently using it, the image is prevented from being uploaded by the user B1 who does not use the digital camera 408 or another third party.

また、画像をアップロードする際には、ユーザの再認証が起動時の認証と同一の方法によってなされたことを確認するため、人物確認の精度を更に向上させることができる。例えば、ユーザA1が音声以外の方法でデジタルカメラ408を起動したまま放置したとする。ここで、妻のユーザB1がユーザA1に内緒で録音したユーザA1の音声コマンドを用いて画像をアップロードする操作を行ったとする。このような場合に、ユーザB1がユーザA1になりすまして画像をアップロードすることを的確に防止することができる。   Further, when uploading an image, it is confirmed that the re-authentication of the user is performed by the same method as the authentication at the time of activation, so that the accuracy of person confirmation can be further improved. For example, it is assumed that the user A1 leaves the digital camera 408 activated by a method other than voice. Here, it is assumed that the wife user B1 performs an operation of uploading an image by using the voice command of the user A1 recorded in secret to the user A1. In such a case, it is possible to accurately prevent the user B1 from impersonating the user A1 and uploading an image.

また、画像が撮影された際には、ユーザ認証された本人の識別情報、方法情報を画像データに付加し、識別情報、方法情報に基づいて本人によって撮影された画像のみをアップロードするため、例えば、ユーザA1が撮影した画像がユーザB1やその他の第三者によってアップロードされることが防止される。   Also, when an image is taken, identification information and method information of the user authenticated by the user are added to the image data, and only the image taken by the person based on the identification information and method information is uploaded. The image captured by the user A1 is prevented from being uploaded by the user B1 or another third party.

(第5の実施の形態)
次に、第5の実施の形態に係る撮像装置について説明する。この第5の実施の形態に係る撮像装置は、第1の実施の形態において、更に、撮影された画像を再生することができるようにしたものである。ここで、図13に示すように、第5の実施の形態に係るデジタルカメラ508は、第1の実施の形態に係るデジタルカメラ408と同様の構成を備えている。従って、第5の実施の形態では、第1の実施の形態と異なる部分について詳細に説明し、重複する部分については適宜説明を省略する。
(Fifth embodiment)
Next, an imaging device according to a fifth embodiment will be described. The imaging apparatus according to the fifth embodiment is such that, in the first embodiment, a captured image can be further reproduced. Here, as shown in FIG. 13, a digital camera 508 according to the fifth embodiment has the same configuration as the digital camera 408 according to the first embodiment. Therefore, in the fifth embodiment, portions different from those in the first embodiment will be described in detail, and descriptions of overlapping portions will be omitted as appropriate.

図15は、第5の実施の形態に係るデジタルカメラ508の処理を示すフローチャートである。まず、電源がオフにされた状態において、ユーザが音声によりデジタルカメラ408を起動する旨の指示を行うと、マイク450を介して音声コマンドが入力される(ステップS501)。   FIG. 15 is a flowchart showing processing of the digital camera 508 according to the fifth embodiment. First, when the user gives an instruction to activate the digital camera 408 by voice while the power is turned off, a voice command is input via the microphone 450 (step S501).

次に、CPU430は、検出した声紋と一致する声紋情報を個人情報記憶部448から検索し、検索された声紋情報に関連付けられている識別情報に基づいてデジタルカメラ508を起動したユーザを認証する(ステップS502)。   Next, the CPU 430 searches the personal information storage unit 448 for voiceprint information that matches the detected voiceprint, and authenticates the user who activated the digital camera 508 based on the identification information associated with the searched voiceprint information ( Step S502).

ここで、検索された声紋情報に関連付けられている識別情報が、例えばユーザA1に割り当てられた識別情報「A1」であった場合、CPU430は、ユーザA1によってデジタルカメラ408が起動されたと認識する。認識されたユーザA1の識別情報「A1」は、音声によってユーザ認証が行われたことを示す方法情報「001」と共に一旦情報記憶部446に記憶される。   Here, when the identification information associated with the searched voiceprint information is, for example, the identification information “A1” assigned to the user A1, the CPU 430 recognizes that the digital camera 408 has been activated by the user A1. The recognized identification information “A1” of the user A1 is temporarily stored in the information storage unit 446 together with the method information “001” indicating that the user authentication is performed by voice.

なお、検出した声紋と一致する声紋情報を個人情報記憶部448から検索できなかった場合、CPU430は、個人情報が登録されていない第三者によってデジタルカメラ508が起動されたと認識する。この場合、方法情報、及び識別情報は、情報記憶部446に記憶されない。   If the voice information corresponding to the detected voice print cannot be retrieved from the personal information storage unit 448, the CPU 430 recognizes that the digital camera 508 has been activated by a third party whose personal information is not registered. In this case, the method information and the identification information are not stored in the information storage unit 446.

次に、CPU430は、マイク450に入力された音声コマンドに従ってデジタルカメラ508の電源をオンにし(ステップS503)、撮影用カメラ440によるスルー画像の撮影を開始する。   Next, the CPU 430 turns on the power of the digital camera 508 in accordance with the voice command input to the microphone 450 (step S503), and starts shooting a through image by the shooting camera 440.

ここで、ユーザによりシャッタボタンが操作されると、CPU430は、撮影用カメラ440により被写体の画像を撮影する(ステップS504)。次に、CPU430は、情報記憶部446に記憶されている方法情報、及び識別情報を、撮影された画像の画像データにタグ情報として付加する(ステップS505)。更に、CPU430は、画像処理部449により、画像を閲覧することができないデータ形式に画像データを改変し(ステップS506)、改変された画像データ(以下、改変画像データという。)をメモリカード454に記憶する(ステップS507)。ここで、画像データの改変は、例えば、画像データを圧縮する、または画像データを符号化する等、所定の方法を用いて行われる。   Here, when the shutter button is operated by the user, the CPU 430 captures an image of the subject with the capturing camera 440 (step S504). Next, the CPU 430 adds the method information and the identification information stored in the information storage unit 446 as tag information to the image data of the photographed image (step S505). Further, the CPU 430 uses the image processing unit 449 to modify the image data into a data format in which the image cannot be browsed (step S506), and the modified image data (hereinafter referred to as modified image data) is stored in the memory card 454. Store (step S507). Here, the modification of the image data is performed using a predetermined method such as compressing the image data or encoding the image data.

なお、情報記憶部446に方法情報、及び識別情報が記憶されていない場合、即ち、第三者によってデジタルカメラ508が起動されて撮影が行われた場合、CPU430は、タグ情報を付加することなく画像データに画像データをメモリカード454に記憶する。   When the method information and the identification information are not stored in the information storage unit 446, that is, when the digital camera 508 is activated and taken by a third party, the CPU 430 does not add tag information. The image data is stored in the memory card 454 as the image data.

次に、ユーザによりマイク450を介して画像を再生する音声コマンドが入力されると(ステップS508)、CPU430は、音声コマンドに従ってデジタルカメラ508のモードを、画像を再生する再生モードに移行させる(ステップS509)。   Next, when an audio command for reproducing an image is input by the user via the microphone 450 (step S508), the CPU 430 shifts the mode of the digital camera 508 to a reproduction mode for reproducing an image in accordance with the audio command (step S508). S509).

再生モードに移行すると、CPU430は、起動時におけるユーザ認証の結果を参照して画像を再生する(ステップS510)。ここで、画像再生時の処理は、以下に説明するように、個人情報が登録されているユーザによってデジタルカメラ508が起動された場合と、個人情報が登録されていない第三者によってデジタルカメラ508が起動された場合とでそれぞれ相違する。   When transitioning to the reproduction mode, the CPU 430 reproduces an image with reference to the result of user authentication at the time of activation (step S510). Here, as described below, the processing at the time of image reproduction is performed when the digital camera 508 is activated by a user whose personal information is registered and when the digital camera 508 is operated by a third party whose personal information is not registered. It differs from the case where is started.

図16は、第5の実施の形態に係るデジタルカメラ508において、ユーザA1によってデジタルカメラ508が起動され撮影が行われた場合の画像再生処理を示すフローチャートである。再生モードに移行すると、まず、CPU430は、情報記憶部446に記憶されている識別情報「A1」、及び方法情報「001」が付加された改変画像データをメモリカード454から検索し(ステップS521)、画像処理部449により、検索された改変画像データを元の画像データに復元する(ステップS522)。また、メモリカード454から識別情報、及び方法情報が付加されていない画像データ(即ち、第三者によって撮影された画像の画像データ)を検索する(ステップS523)。   FIG. 16 is a flowchart showing an image reproduction process when the digital camera 508 according to the fifth embodiment is activated by the user A1 and the digital camera 508 is activated. When the reproduction mode is entered, first, the CPU 430 searches the memory card 454 for the modified image data to which the identification information “A1” and the method information “001” stored in the information storage unit 446 are added (step S521). Then, the retrieved modified image data is restored to the original image data by the image processing unit 449 (step S522). Further, the image data to which the identification information and the method information are not added is searched from the memory card 454 (that is, image data of an image taken by a third party) (step S523).

次に、CPU430は、復元された画像データ、及び第三者によって撮影された画像データを再生の候補画像の候補画像データとして特定する(ステップS524)。次に、CPU430は、特定された候補画像データの中から撮影日時が最も新しい候補画像データを認識し、認識した候補画像データに基づく候補画像をLCD表示部434に表示する(ステップS525)。   Next, the CPU 430 specifies the restored image data and the image data photographed by a third party as candidate image data of a reproduction candidate image (step S524). Next, the CPU 430 recognizes the candidate image data with the latest shooting date from the identified candidate image data, and displays the candidate image based on the recognized candidate image data on the LCD display unit 434 (step S525).

なおここで、ユーザA1がズームレバーによりLCD表示部434に画像を4コマ表示させる操作を行うと、CPU430は、特定された候補画像データの中から撮影日時が新しい順に4枚の候補画像データを認識し、4枚の候補画像をLCD表示部434に表示する。更に、ユーザA1が更にLCD表示部434に画像を9コマ表示させる操作を行うと、CPU430は、撮影日時が新しい順に9枚の候補画像データを認識し、9枚の候補画像をLCD表示部434に表示する。   Here, when the user A1 performs an operation to display four images on the LCD display unit 434 using the zoom lever, the CPU 430 displays four candidate image data in the order of the latest shooting date / time from among the identified candidate image data. Recognize and display four candidate images on the LCD display unit 434. Further, when the user A1 further performs an operation for displaying nine frames on the LCD display unit 434, the CPU 430 recognizes nine candidate image data in the order of the latest shooting date and time, and displays the nine candidate images on the LCD display unit 434. To display.

一方、図17は、第5の実施の形態に係るデジタルカメラ508において、第三者によってデジタルカメラ508が起動され撮影が行われた場合の画像再生処理を示すフローチャートである。この場合、再生モードに移行すると、CPU430は、識別情報、及び方法情報が付加されていない、第三者によって撮影された画像の画像データをメモリカード454から検索する(ステップS531)。そして、検索された画像データの中から撮影日時が最も新しい画像データを認識し、認識した画像データに基づく画像をLCD表示部434に表示する(ステップS532)。複数の画像を表示する場合の処理は、ユーザA1がズームレバーを操作した場合と同様であるため、説明を省略する。   On the other hand, FIG. 17 is a flowchart showing image reproduction processing in the case where the digital camera 508 according to the fifth embodiment is activated by the third party and the digital camera 508 is activated. In this case, when the mode is changed to the reproduction mode, the CPU 430 searches the memory card 454 for image data of an image taken by a third party to which identification information and method information are not added (step S531). Then, the image data with the newest shooting date is recognized from the searched image data, and an image based on the recognized image data is displayed on the LCD display unit 434 (step S532). The processing for displaying a plurality of images is the same as that when the user A1 operates the zoom lever, and thus the description thereof is omitted.

この第5の実施の形態に係る発明によれば、デジタルカメラ508を起動する際にユーザ認証を行い、ユーザ認証結果に基づいて画像を再生するため、デジタルカメラ508の使用権限を有する本人が撮影した画像が第三者によって閲覧されることを的確に防止することができる。例えば、ユーザA1が撮影した画像が、ユーザB1やその他の第三者によって閲覧されることを防止することができる。一方、第三者が撮影した画像は誰でも閲覧することができるため、必要以上に画像の閲覧が制限されることもない。   According to the invention according to the fifth embodiment, when the digital camera 508 is activated, user authentication is performed, and an image is reproduced based on the user authentication result. It is possible to accurately prevent the captured image from being viewed by a third party. For example, an image captured by the user A1 can be prevented from being browsed by the user B1 or other third parties. On the other hand, since anyone can browse images taken by a third party, browsing of images is not restricted more than necessary.

(第6の実施の形態)
次に、第6の実施の形態に係る撮像装置について説明する。この第6の実施の形態に係る撮像装置は、第5の実施の形態において、画像再生時にユーザの再認証を行うようにしたものである。ここで、図13に示すように、第5の実施の形態に係るデジタルカメラ608は、第2の実施の形態に係るデジタルカメラ508と同様の構成を備えている。従って、第6の実施の形態では、第2の実施の形態と異なる部分について詳細に説明する。
(Sixth embodiment)
Next, an imaging device according to a sixth embodiment will be described. The imaging apparatus according to the sixth embodiment is such that, in the fifth embodiment, the user is re-authenticated during image reproduction. Here, as shown in FIG. 13, a digital camera 608 according to the fifth embodiment has the same configuration as the digital camera 508 according to the second embodiment. Therefore, in the sixth embodiment, parts different from the second embodiment will be described in detail.

図18は、第6の実施の形態に係るデジタルカメラ608の処理を示すフローチャートである。ステップS551〜S559までの処理は、第5の実施の形態と同様であるため説明を省略する。   FIG. 18 is a flowchart showing processing of the digital camera 608 according to the sixth embodiment. Since the processing from step S551 to S559 is the same as that of the fifth embodiment, the description thereof is omitted.

ステップS559において再生モードに移行すると、CPU430は、音声コマンドからユーザの声紋を検出し、検出した声紋に基づいてユーザの再認証を行う(ステップS560)。次に、CPU430は、再認証結果に基づいて、再生モードに移行させる指示を行ったユーザとデジタルカメラ408を起動して撮影を行ったユーザとが同一人物であるか否かを判定する(ステップS561)。   In step S559, when the playback mode is entered, the CPU 430 detects the user's voiceprint from the voice command, and re-authenticates the user based on the detected voiceprint (step S560). Next, based on the re-authentication result, the CPU 430 determines whether or not the user who gives an instruction to shift to the playback mode and the user who starts the shooting with the digital camera 408 are the same person (step). S561).

再生モードに移行させる指示を行ったユーザとデジタルカメラ408を起動して撮影を行ったユーザとが同一人物である場合(ステップS561:Yes)、CPU430は、再認証の結果に基づいて、認証された本人の撮影した画像、及び第三者の撮影した画像を再生する(ステップS562)。例えば、ユーザA1によりデジタルカメラ508が起動されて撮影が行われ、更にユーザA1の指示により再生モードに移行されたとする。この場合、CPU430は、まず、再認証の際に認識された識別情報「A1」、及び再認証時の音声コマンドに割り当てられた方法情報「001」が付加された改変画像データをメモリカード454から検索し、画像処理部449により、検索された改変画像データを元の画像データに復元する。また、メモリカード454から識別情報、及び方法情報が付加されていない画像データ(即ち、第三者によって撮影された画像の画像データ)を検索する。   When the user who has instructed the transition to the playback mode and the user who has activated the digital camera 408 and photographed are the same person (step S561: Yes), the CPU 430 is authenticated based on the result of re-authentication. The image taken by the person himself and the image taken by the third party are reproduced (step S562). For example, it is assumed that the digital camera 508 is activated by the user A1 and shooting is performed, and the mode is changed to the reproduction mode in accordance with an instruction from the user A1. In this case, the CPU 430 first sends the modified image data to which the identification information “A1” recognized at the time of re-authentication and the method information “001” assigned to the voice command at the time of re-authentication are added from the memory card 454. The image processing unit 449 searches and restores the searched modified image data to the original image data. Further, the image data to which the identification information and the method information are not added is searched from the memory card 454 (that is, image data of an image taken by a third party).

次に、CPU430は、復元された画像データ、及び第三者によって撮影された画像データを再生の候補画像の候補画像データとして特定する。次に、CPU430は、特定された候補画像データの中から撮影日時が最も新しい候補画像データを認識し、認識した候補画像データに基づく候補画像をLCD表示部434に表示する。   Next, the CPU 430 specifies the restored image data and the image data taken by a third party as candidate image data of a candidate image for reproduction. Next, CPU 430 recognizes the candidate image data with the latest shooting date from the identified candidate image data, and displays a candidate image based on the recognized candidate image data on LCD display unit 434.

一方、再生モードに移行させる指示を行ったユーザとデジタルカメラ408を起動して撮影を行ったユーザとが同一人物でない場合(ステップS561:No)、CPU430は、第三者の撮影した画像のみを再生する(ステップS563)。即ち、識別情報、及び方法情報が付加されていない画像データをメモリカード454から検索し、検索された画像データの中から撮影日時が最も新しい画像データに基づく画像をLCD表示部434に表示する。   On the other hand, if the user who has instructed the transition to the playback mode and the user who started the digital camera 408 and photographed are not the same person (step S561: No), the CPU 430 displays only an image captured by a third party. Playback is performed (step S563). That is, the image data to which the identification information and the method information are not added is retrieved from the memory card 454, and an image based on the image data having the latest shooting date is displayed on the LCD display unit 434 from the retrieved image data.

この第6の実施の形態に係る発明によれば、画像を再生する際にユーザの再認証を行い、再認証されたユーザがデジタルカメラ408の起動時に認証されたユーザと同一人物であることを確認するため、デジタルカメラ508の使用権限を有する本人が撮影した画像が第三者によって閲覧されることを的確に防止することができる。例えば、ユーザA1によって起動されたデジタルカメラ408が第三者に取得され、第三者が再生モードに移行する音声コマンドを入力したとする。この場合、第三者はユーザA1が撮影した画像を閲覧することができない。   According to the sixth embodiment, the user is re-authenticated when the image is reproduced, and the re-authenticated user is the same person as the user who was authenticated when the digital camera 408 was activated. Therefore, it is possible to accurately prevent an image taken by the person who has the authority to use the digital camera 508 from being viewed by a third party. For example, it is assumed that the digital camera 408 activated by the user A1 is acquired by a third party, and the third party inputs a voice command for shifting to the playback mode. In this case, the third party cannot view the image taken by the user A1.

また、画像を再生する際には、ユーザの再認証が起動時の認証と同一の方法によってなされたことを確認するため、第三者が本人になりすまして画像を再生する操作を行った場合にも本人が撮影した画像が第三者によって閲覧されることを防止することができる。例えば、ユーザA1が音声以外の方法でデジタルカメラ408を起動したまま放置し、ユーザB1が予め録音したユーザA1の音声コマンドを用いて画像を再生する操作を行ったとする。この場合、ユーザB1は、ユーザA1が撮影した画像を閲覧することができない。   Also, when playing back an image, in order to confirm that the re-authentication of the user was done by the same method as the authentication at the time of start-up, when a third party impersonates the user and plays the image In addition, it is possible to prevent an image taken by the person from being viewed by a third party. For example, it is assumed that the user A1 leaves the digital camera 408 activated by a method other than voice and the user B1 performs an operation of reproducing an image using the voice command of the user A1 recorded in advance. In this case, the user B1 cannot browse the image captured by the user A1.

なお、上述の第5、6の実施の形態において、画像が撮影された際に、シリアルナンバー等の機器識別情報を画像データに付加してもよい。そして、画像再生時において、操作中のデジタルカメラのシリアルナンバーと同一のシリアルナンバーが付加されている改変画像データのみを元の画像データに復元してもよい。   In the fifth and sixth embodiments described above, device identification information such as a serial number may be added to image data when an image is taken. At the time of image reproduction, only modified image data to which the same serial number as that of the digital camera being operated is added may be restored to the original image data.

これにより、例えば、ユーザA1が音声コマンドでデジタルカメラ508を起動して撮影した画像は、ユーザA1が音声コマンドでデジタルカメラ508に再生モードに移行する指示を行った場合にのみ閲覧することができる。この場合、ユーザA1がメモリカード454をデジタルカメラ508から取り外して他のデジタルカメラに取付けたとしても、ユーザA1は、他のデジタルカメラで画像を閲覧することができない。   Thereby, for example, an image captured by the user A1 activating the digital camera 508 with a voice command can be viewed only when the user A1 instructs the digital camera 508 to shift to the playback mode with a voice command. . In this case, even if the user A1 removes the memory card 454 from the digital camera 508 and attaches it to another digital camera, the user A1 cannot view images with the other digital camera.

また、上述の第4実施の形態において、方法情報、及び識別情報を、撮影された画像の画像データにタグ情報として付加した後、画像データを改変してもよい。この場合、画像のアップロードを実行する際に、改変画像データを元の画像データに復元してサーバに送信する。   In the fourth embodiment described above, the method information and the identification information may be added to the image data of the photographed image as tag information, and then the image data may be modified. In this case, when image upload is executed, the modified image data is restored to the original image data and transmitted to the server.

また、上述の第4〜6の各実施の形態において、音声以外によりユーザ認証を行う方法としては、指紋や顔の特徴によりユーザ認証を行う方法が考えられる。指紋によりユーザ認証を行う場合、例えば、電源がオフにされた状態において、ユーザがタッチパネル436の操作によりデジタルカメラ408を起動する旨の指示を行うと、電源をオンにするコマンドが入力されると共に、指紋センサ438により、ユーザの指の指紋が検出される。   Further, in each of the above-described fourth to sixth embodiments, as a method of performing user authentication by means other than voice, a method of performing user authentication based on fingerprints or facial features can be considered. When performing user authentication with a fingerprint, for example, when the user gives an instruction to activate the digital camera 408 by operating the touch panel 436 in a state where the power is turned off, a command to turn on the power is input. The fingerprint of the user's finger is detected by the fingerprint sensor 438.

次に、CPU430は、検出した指紋に基づいてユーザ認証を行う。例えば、CPU430は、検出した指紋と一致する指紋情報を個人情報記憶部448から検索し、検索された指紋情報に関連付けられている識別情報に基づいてデジタルカメラ408を起動したユーザを認証する。次に、CPU430は、認識されたユーザの識別情報と共に、指紋によってユーザ認証が行われたことを示す方法情報「002」を情報記憶部446に記憶する。   Next, the CPU 430 performs user authentication based on the detected fingerprint. For example, the CPU 430 searches the personal information storage unit 448 for fingerprint information that matches the detected fingerprint, and authenticates the user who activated the digital camera 408 based on the identification information associated with the searched fingerprint information. Next, the CPU 430 stores, in the information storage unit 446, method information “002” indicating that user authentication has been performed using a fingerprint together with the recognized user identification information.

また、顔の特徴によりユーザ認証を行う場合、例えば、電源がオフにされた状態において、電源スイッチの操作により電源をオンにするコマンドが入力されると、CPU430は、リアカメラ442によりユーザの顔を撮影する。   Further, when performing user authentication based on facial features, for example, when a command to turn on the power by operating the power switch is input in a state where the power is turned off, the CPU 430 causes the rear camera 442 to input the user's face. Shoot.

次に、CPU430は、撮影された顔に基づいてユーザ認証を行う。例えば、CPU430は、撮影された顔の特徴と一致する顔特徴情報を個人情報記憶部448から検索し、検索された顔特徴情報に関連付けられている識別情報に基づいてデジタルカメラ408を起動したユーザを認証する。次に、CPU430は、認識されたユーザの識別情報と共に、顔認識によってユーザ認証が行われたことを示す方法情報「003」を情報記憶部446に記憶する。   Next, the CPU 430 performs user authentication based on the photographed face. For example, the CPU 430 searches the personal information storage unit 448 for facial feature information that matches the captured facial feature, and activates the digital camera 408 based on the identification information associated with the retrieved facial feature information. Authenticate. Next, the CPU 430 stores, in the information storage unit 446, method information “003” indicating that user authentication has been performed by face recognition, together with the recognized user identification information.

また、上述の第4〜6の各実施の形態においては、画像をアップロードする場合を例に画像データを外部機器に転送する場合の説明を行っているが、外部機器への転送形態はアップロードに限定されない。例えば、アップロードに代えて、図示しないプリンターやパソコンへの画像データの転送するようにしてもよい。   Further, in each of the above-described fourth to sixth embodiments, the case where image data is transferred to an external device is described by taking the case of uploading an image as an example, but the transfer mode to the external device is upload. It is not limited. For example, instead of uploading, image data may be transferred to a printer or personal computer (not shown).

また、上述の第4〜6の各実施の形態においては、撮像装置としてデジタルカメラを例に説明しているが、デジタルカメラに代えて、スマートフォン、タブレット端末、携帯電話等を撮像装置として用いてもよい。   In each of the above-described fourth to sixth embodiments, a digital camera is described as an example of the imaging device. However, instead of the digital camera, a smartphone, a tablet terminal, a mobile phone, or the like is used as the imaging device. Also good.

2…撮像システム、4、204…管理サーバ、6…ネットワーク、8、208…デジタルカメラ、10、210…スマートフォン、20…CPU、22…通信部、24…登録部、30…CPU、32…通信部、41…撮像素子、42…画像記憶部、44…情報生成部、45…演算部、46…情報記憶部、62…通信部、68…LCD表示部
302…撮像システム、304…撮像装置、306…ネットワーク、308…webサーバ、330…CPU、332…通信部、338…LCD表示部、341…撮像素子、342…画像記憶部、344…特徴認識部、346…情報記憶部、360…CPU、362…通信部、364…個人情報データベース、366…画像記憶部
408、508、608…デジタルカメラ、430…CPU、432…通信部、434…LCD表示部、440…撮影用カメラ、442…リアカメラ、446…画像記憶部、448…個人情報記憶部、450…マイク、454…メモリカード
DESCRIPTION OF SYMBOLS 2 ... Imaging system 4, 204 ... Management server, 6 ... Network, 8, 208 ... Digital camera 10, 210 ... Smartphone, 20 ... CPU, 22 ... Communication part, 24 ... Registration part, 30 ... CPU, 32 ... Communication , 41 ... imaging device, 42 ... image storage unit, 44 ... information generation unit, 45 ... calculation unit, 46 ... information storage unit, 62 ... communication unit, 68 ... LCD display unit 302 ... imaging system, 304 ... imaging device, 306 ... Network, 308 ... Web server, 330 ... CPU, 332 ... Communication unit, 338 ... LCD display unit, 341 ... Image sensor, 342 ... Image storage unit, 344 ... Feature recognition unit, 346 ... Information storage unit, 360 ... CPU 362: Communication unit, 364 ... Personal information database, 366 ... Image storage unit 408, 508, 608 ... Digital camera, 430 ... CPU, 432 ... Communication Department, 434 ... LCD display unit, 440 ... photographing camera, 442 ... rear camera, 446 ... image storage unit, 448 ... personal information storage unit, 450 ... microphone, 454 ... memory card

Claims (2)

第1電子機器に対して第1情報を送信する送信部と、
前記電子機器により認証されている第2電子機器から第2情報を取得する取得部と、
前記第1情報が前記第2情報であると、データを前記第1電子機器へ出力する出力部と、
を備える電子機器。
A transmission unit for transmitting the first information to the first electronic device;
An acquisition unit for acquiring second information from a second electronic device authenticated by the electronic device;
When the first information is the second information, an output unit that outputs data to the first electronic device;
Electronic equipment comprising.
前記送信部は、前記第1情報を識別コードに対応させて送信する請求項1に記載の電子機器。   The electronic device according to claim 1, wherein the transmission unit transmits the first information in association with an identification code.
JP2018188937A 2018-10-04 2018-10-04 Electronic apparatus Pending JP2019057288A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018188937A JP2019057288A (en) 2018-10-04 2018-10-04 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018188937A JP2019057288A (en) 2018-10-04 2018-10-04 Electronic apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014175632A Division JP6413500B2 (en) 2014-08-29 2014-08-29 Imaging device

Publications (1)

Publication Number Publication Date
JP2019057288A true JP2019057288A (en) 2019-04-11

Family

ID=66107591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018188937A Pending JP2019057288A (en) 2018-10-04 2018-10-04 Electronic apparatus

Country Status (1)

Country Link
JP (1) JP2019057288A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7420375B2 (en) 2020-01-20 2024-01-23 i-PRO株式会社 User authentication system and user authentication method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005173676A (en) * 2003-12-08 2005-06-30 Dainippon Printing Co Ltd Rental arrear collection system
JP2005346129A (en) * 2004-05-31 2005-12-15 Oki Electric Ind Co Ltd Automatic teller system
JP2007164449A (en) * 2005-12-13 2007-06-28 Fujitsu Ltd Personal information management device, personal information providing method using personal information management device, program for personal information management device and personal information providing system
JP2008257412A (en) * 2007-04-04 2008-10-23 Hitachi Ltd Access control method and access control system
JP2008271357A (en) * 2007-04-24 2008-11-06 Kyocera Communication Systems Co Ltd Content viewing system and method thereof
JP2010072688A (en) * 2008-09-16 2010-04-02 Hitachi Software Eng Co Ltd Personal identification system using optical reading code

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005173676A (en) * 2003-12-08 2005-06-30 Dainippon Printing Co Ltd Rental arrear collection system
JP2005346129A (en) * 2004-05-31 2005-12-15 Oki Electric Ind Co Ltd Automatic teller system
JP2007164449A (en) * 2005-12-13 2007-06-28 Fujitsu Ltd Personal information management device, personal information providing method using personal information management device, program for personal information management device and personal information providing system
JP2008257412A (en) * 2007-04-04 2008-10-23 Hitachi Ltd Access control method and access control system
JP2008271357A (en) * 2007-04-24 2008-11-06 Kyocera Communication Systems Co Ltd Content viewing system and method thereof
JP2010072688A (en) * 2008-09-16 2010-04-02 Hitachi Software Eng Co Ltd Personal identification system using optical reading code

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7420375B2 (en) 2020-01-20 2024-01-23 i-PRO株式会社 User authentication system and user authentication method
US11893101B2 (en) 2020-01-20 2024-02-06 i-PRO Co., Ltd. Wearable camera, user authentication system and user authentication method

Similar Documents

Publication Publication Date Title
JP5369974B2 (en) Imaging apparatus and image sharing system
US20060104483A1 (en) Wireless digital image capture device with biometric readers
US20120086792A1 (en) Image identification and sharing on mobile devices
JP4520259B2 (en) Multimedia recording apparatus, multimedia recording method, and multimedia recording system
TW201104587A (en) System and method for automatic tagging of a digital image
JP7187395B2 (en) COMMUNICATION TERMINAL, COMMUNICATION TERMINAL CONTROL METHOD, AND COMMUNICATION SYSTEM
US20150189118A1 (en) Photographing apparatus, photographing system, photographing method, and recording medium recording photographing control program
KR20130072138A (en) Image sensing apparatus, information processing apparatus and control method
JP2014038429A (en) Image processor, image processing method and image processing program
JP5500639B2 (en) Terminal device, authentication system, and program
JP6413500B2 (en) Imaging device
JP6428152B2 (en) Portrait right protection program, information communication device, and portrait right protection method
JP2008269411A (en) Image keyword editing system, image keyword provision server and image keyword editing device
JP4593873B2 (en) Image search system, terminal device, server, and image search method
KR20070023880A (en) Apparatus and method of user recognizing for portable device
CN109479054B (en) Service providing system, service communication system, service providing method, and recording medium
JP2019057288A (en) Electronic apparatus
JP5743017B2 (en) Image management apparatus and program
JP2005107947A (en) Image print vending system and program
TWI437881B (en) Automatic photographing system and method thereof
KR20120080379A (en) Method and apparatus of annotating in a digital camera
JP2007334629A (en) Id card issuing system and method
JPWO2018084023A1 (en) Information management system and information management method
JP2020091876A (en) Information processing device, information processing method, program, and information processing server
JP2020091731A (en) Information processing device, information processing method, program, and information processing server

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200324