JP4659569B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP4659569B2
JP4659569B2 JP2005265517A JP2005265517A JP4659569B2 JP 4659569 B2 JP4659569 B2 JP 4659569B2 JP 2005265517 A JP2005265517 A JP 2005265517A JP 2005265517 A JP2005265517 A JP 2005265517A JP 4659569 B2 JP4659569 B2 JP 4659569B2
Authority
JP
Japan
Prior art keywords
information
image
subject
cpu
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005265517A
Other languages
Japanese (ja)
Other versions
JP2007081681A (en
JP2007081681A5 (en
Inventor
友博 伏見
雅美 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005265517A priority Critical patent/JP4659569B2/en
Publication of JP2007081681A publication Critical patent/JP2007081681A/en
Publication of JP2007081681A5 publication Critical patent/JP2007081681A5/ja
Application granted granted Critical
Publication of JP4659569B2 publication Critical patent/JP4659569B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Character Discrimination (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、撮影画像を効率よく分類・検索するための撮像装置に関する。   The present invention relates to an imaging apparatus for efficiently classifying and searching captured images.

デジタルカメラの普及や、スキャナーの普及により、画像のデジタル化が進んでいる。特に新聞社などで用いる報道写真の場合、例えば野球の試合では、一つの試合で1000枚以上の画像を撮ることもある。画像には、後日検索を容易にするために、その画像に付加された画像情報以外の領域のデータ(いわゆるタグデータ)である日付、撮影者などのタグデータが付加されている。しかしより検索を容易にするためには、このほかに、「何が写っているのか」という情報が画像に付加されていることが望ましい。そこで、「何が写っているのか」という情報を画像に付加する手段として、撮影者が手動で入力する手段が考えられる。しかし、写真の枚数が多くなると手動で情報を入力するのは手間がかかった。   With the spread of digital cameras and the spread of scanners, digitization of images is progressing. In particular, in the case of news photographs used in newspaper companies, for example, in a baseball game, 1000 or more images may be taken in one game. In order to facilitate later retrieval, tag data such as date, photographer, and the like, which is data in a region other than the image information added to the image (so-called tag data), is added to the image. However, in order to make the search easier, it is desirable that information “what is reflected” is added to the image. Therefore, as a means for adding the information “what is reflected” to the image, a means for the photographer to manually input can be considered. However, as the number of photos increased, it took time and effort to manually enter information.

この問題を解決すべく、カメラが自動的に「何が写っているのか」という情報を画像に付加する技術が知られている(特許文献1参照)。その技術はは、カメラが被写体の特徴的な部分、例えば画像の被写体の顔・身につけているゼッケン等を検出する。そしてカメラが検出した情報から被写体が誰であるか認識することにより、「何が写っているか」という情報を示すタグを作成する技術である。この技術を用いることにより、撮影者はタグを手動で付加する手間を省くことができ、本来の撮影に集中することができる。
特開平5−89244号公報
In order to solve this problem, a technique is known in which a camera automatically adds information “what is captured” to an image (see Patent Document 1). The technique detects a characteristic portion of the subject, for example, a bib number worn on the face / body of the subject of the image. This is a technique for creating a tag indicating information “what is captured” by recognizing who the subject is from information detected by the camera. By using this technique, the photographer can save the trouble of manually adding the tag and can concentrate on the original photographing.
JP-A-5-89244

しかしながら従来の技術では、カメラが単独で被写体の認識に用いることができる部分は限られていた。例えば、顔、ゼッケンを検出できるカメラであっても、少なくとも顔を検出しなければ被写体を認識できないなど、被写体の認識ができるか否かは、被写体のある一部分が撮影画像の構図に含まれているか否かによるところが大きかった。従って、様々な構図で同一の被写体を撮影した場合に、被写体の認識精度が構図により大きく左右されるという課題があった。   However, in the conventional technology, there are only a limited number of parts that can be used by the camera for object recognition alone. For example, even if a camera can detect a face or race bib, it can be recognized that the subject cannot be recognized unless at least the face is detected. The place depends on whether or not there is. Therefore, when the same subject is photographed with various compositions, there is a problem that the recognition accuracy of the subject is greatly influenced by the composition.

上記課題を解決するために、本発明は、撮影レンズによって結像される被写体像を光電変換して撮影画像を得る撮像手段と、通信回線を通じて外部装置と通信する通信手段と、所定のタイミングで更新され、前記外部装置から定期的に送信される被写体に関する情報を受信する被写体情報受信手段と、前記撮像手段により得られた撮影画像から、被写体の顔領域の特徴量及び文字領域の特徴量を抽出する抽出手段と、前記被写体情報受信手段により受信された情報に、前記抽出手段により撮影画像から抽出された前記顔領域の特徴量の情報と前記文字領域の特徴量の情報とを関連付けて記憶媒体に記憶する記憶手段と、前記被写体情報受信手段により受信された情報を前記撮影画像に付加する付加手段とを備えることを特徴とする。 In order to solve the above-described problems, the present invention provides an imaging unit that photoelectrically converts a subject image formed by a photographic lens to obtain a captured image, a communication unit that communicates with an external device through a communication line, and a predetermined timing. The subject information receiving means for receiving information on the subject that is updated and periodically transmitted from the external device, and the feature amount of the face area and the character area of the character area from the captured image obtained by the imaging means. extraction means for extracting, on the information received by the object information receiving means, in association with the feature amount of information of the character area, wherein the amount of information of the face region extracted from the photographed image by the extraction unit Storage means for storing in a medium, and addition means for adding information received by the subject information receiving means to the photographed image are provided.

本発明によれば、カメラが検出技術を用いて被写体の特徴を自動で抽出し、データベースと照合することで被写体を認識できる。このため、撮影者が手動で被写体情報を入力する必要がない。また、複数の特徴から照合を行うため、認識の精度が構図の影響を受けにくくなる。   According to the present invention, the subject can be recognized by the camera automatically extracting the feature of the subject using the detection technique and collating it with the database. This eliminates the need for the photographer to manually input subject information. In addition, since collation is performed from a plurality of features, the recognition accuracy is less affected by the composition.

以下に、図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、この発明の範囲をそれらのみに限定する趣旨のものではない。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. However, the constituent elements described in this embodiment are merely examples, and are not intended to limit the scope of the present invention only to them.

(実施例1)
以下、1つめの実施例について説明する。
Example 1
The first embodiment will be described below.

図1に、報道カメラマンがスタジアム101内で野球の試合を撮影する撮影システムの概要図を示す。   FIG. 1 shows a schematic diagram of a photographing system in which a news photographer photographs a baseball game in the stadium 101.

102は実際に試合を行うグラウンドであり、バッターボックス110、電光掲示板103が設けられている。電光掲示板103にはスピーカ104が備えられており、試合の情報が随時アナウンスされる。   Reference numeral 102 denotes a ground where the game is actually played, and a batter box 110 and an electric bulletin board 103 are provided. The electronic bulletin board 103 is provided with a speaker 104, and game information is announced at any time.

スタジアム101にはカメラマン席105が設けられている。カメラマン席105はカメラマン106が試合を撮影するための席である。109はバッターであり、バッターボックス110に立つ。カメラマン106は自らのデジタルカメラ107を用いてバッター109を撮影する。   The stadium 101 is provided with a photographer seat 105. The photographer seat 105 is a seat for the photographer 106 to photograph a game. 109 is a batter and stands in the batter box 110. The photographer 106 uses the digital camera 107 to photograph the batter 109.

また、スタジアム110内には無線LANのアクセスポイント111が設けられており、デジタルカメラ107はこのアクセスポイントを通じてインターネット112に接続することが可能である。113は放送局のサーバである。放送局サーバ113はWebサイトを運営し、インターネット112を介して試合の情報を随時配信している。デジタルカメラ107は、インターネット112を介して放送局サーバ113から配信される情報を取得することが可能である。   In addition, a wireless LAN access point 111 is provided in the stadium 110, and the digital camera 107 can be connected to the Internet 112 through this access point. Reference numeral 113 denotes a broadcast station server. The broadcast station server 113 operates a Web site and distributes game information as needed via the Internet 112. The digital camera 107 can acquire information distributed from the broadcast station server 113 via the Internet 112.

カメラマン106が撮影した画像はデジタルカメラ107からパーソナルコンピュータ(以下PCと呼ぶ)108に転送される。PC108は新聞社114とネットワークを介して接続されている。デジタルカメラ107からPC108に転送された画像は新聞社114に転送され、編集素材として用いられる。   An image taken by the cameraman 106 is transferred from the digital camera 107 to a personal computer (hereinafter referred to as a PC) 108. The PC 108 is connected to the newspaper company 114 via a network. The image transferred from the digital camera 107 to the PC 108 is transferred to the newspaper company 114 and used as an editing material.

デジタルカメラ107からPC108へと画像を転送するために、種々の公知の技術を用いることができる。例えば、撮影後にカメラマン106が、デジタルカメラ107または画像を保存してある記録媒体(図示せず)をPC108に接続し、デジタルカメラ107がPC108に画像を転送してもよい。また、カメラマン106の指示により、無線通信を用いてデジタルカメラ107がPC108に画像を転送してもよい。   Various known techniques can be used to transfer an image from the digital camera 107 to the PC 108. For example, the cameraman 106 may connect the digital camera 107 or a recording medium (not shown) in which an image is stored to the PC 108 after the shooting, and the digital camera 107 may transfer the image to the PC 108. Further, the digital camera 107 may transfer an image to the PC 108 by wireless communication according to an instruction from the cameraman 106.

図2に、図1に示すデジタルカメラ107のブロック図を示す。219は被写体像を結像するレンズである。209はレンズ219により結像された被写体像をアナログ画像として出力する光電変換機能を有するCCD等の撮像センサ209である。211は画像を表示するディスプレイである。208はメモリカード207の着脱を可能とするソケットである。204はフラッシュメモリ等のシステム記憶部である。システム記憶部204には、撮像装置の動作のプログラムや撮像動作に必要なプロパティデータや、外部機器との通信に必要な通信モジュール、さらにWebサイトを閲覧するためのWebブラウザが格納されている。206はDRAMであり、後述するCPU203がプログラムを実行する際のワークデータを保持する。また、デジタルカメラ107の撮影動作によって生成される画像やディスプレイ211に表示する画像を保持する。   FIG. 2 is a block diagram of the digital camera 107 shown in FIG. Reference numeral 219 denotes a lens that forms a subject image. Reference numeral 209 denotes an image sensor 209 such as a CCD having a photoelectric conversion function for outputting an object image formed by the lens 219 as an analog image. Reference numeral 211 denotes a display for displaying an image. A socket 208 enables the memory card 207 to be attached and detached. Reference numeral 204 denotes a system storage unit such as a flash memory. The system storage unit 204 stores an operation program of the image capturing apparatus, property data necessary for the image capturing operation, a communication module necessary for communication with an external device, and a web browser for browsing a website. Reference numeral 206 denotes a DRAM which holds work data when a CPU 203 described later executes a program. In addition, an image generated by the photographing operation of the digital camera 107 and an image to be displayed on the display 211 are held.

また、デジタルカメラ107は、デジタルカメラ107の動作モード、即ち撮影モードか再生モードかをユーザが指定するためのモードスイッチ221を備える。また、ユーザがデジタルカメラに対する指示を入力するための十字キーやセットボタン、キャンセルボタン等複数のスイッチで構成される操作スイッチ222を備える。さらに、撮像時に撮像開始を指示するシャッターボタン223とを備える。   The digital camera 107 also includes a mode switch 221 for the user to specify the operation mode of the digital camera 107, that is, the shooting mode or the playback mode. In addition, an operation switch 222 including a plurality of switches such as a cross key, a set button, and a cancel button for a user to input an instruction to the digital camera is provided. Further, a shutter button 223 that instructs to start imaging at the time of imaging is provided.

撮像センサ209はADコンバータ228を介して撮像回路210に接続される。撮像回路210は撮像センサ209から出力された画像に基づいてデジタル画像を生成し、データバス202を介してDRAM106に記録する。   The imaging sensor 209 is connected to the imaging circuit 210 via the AD converter 228. The imaging circuit 210 generates a digital image based on the image output from the imaging sensor 209 and records it in the DRAM 106 via the data bus 202.

デジタルカメラ107はDRAM206が記憶したデジタル画像からディスプレイ211で表示すべきデジタル画像を生成する表示回路212を備える。また、生成されたデジタル画像をアナログ画像に変換して出力するDAコンバータ229とを備える。撮像回路210及び表示回路212は、互いにデータバス202を介して接続されている。   The digital camera 107 includes a display circuit 212 that generates a digital image to be displayed on the display 211 from the digital image stored in the DRAM 206. Also, a DA converter 229 that converts the generated digital image into an analog image and outputs the analog image is provided. The imaging circuit 210 and the display circuit 212 are connected to each other via the data bus 202.

また、デジタルカメラ107は、データバス202に接続されたメモリカードコントローラ213及びシステム記憶部コントローラ215と、IO225、CPU203とを備え、これらはデータバス202を介して互いに接続されている。   The digital camera 107 also includes a memory card controller 213 and a system storage unit controller 215 connected to the data bus 202, an IO 225, and a CPU 203, which are connected to each other via the data bus 202.

さらに、デジタルカメラは、DRAM206に接続されると共に、データバス202に接続するメモリコントローラ205を備える。   The digital camera further includes a memory controller 205 connected to the DRAM 206 and connected to the data bus 202.

モードスイッチ221、操作スイッチ222、シャッターボタン223はIO225に接続されている。   The mode switch 221, the operation switch 222, and the shutter button 223 are connected to the IO 225.

メモリカードコントローラ213は、メモリカード207にコマンド発行及びデータ転送をするように構成されている。   The memory card controller 213 is configured to issue commands and transfer data to the memory card 207.

データバス202は、バスマスタとしての撮影回路210や表示回路212からの要求に応じて、撮影又は画像の再生時に画像を伝送する。   The data bus 202 transmits an image at the time of photographing or image reproduction in response to a request from the photographing circuit 210 or the display circuit 212 as a bus master.

メモリコントローラ205は、データバス202からDRAM206へのアクセス要求を受け、これを調停しながらDRAM206へのアクセス信号を生成する。そしてDRAM206へのデータの書き込みやDRAM206からのデータの読み出しを実行する。   The memory controller 205 receives an access request to the DRAM 206 from the data bus 202, and generates an access signal to the DRAM 206 while arbitrating this request. Then, data writing to the DRAM 206 and data reading from the DRAM 206 are executed.

CPU203は、システム記憶部204が記憶するプログラムに従ってカメラのシーケンスを制御する。このシステム記憶部204に格納されているプログラムに従って、後述する図3、図9、図18に示す処理が実行される。   The CPU 203 controls the camera sequence according to the program stored in the system storage unit 204. The processes shown in FIGS. 3, 9, and 18 to be described later are executed according to the program stored in the system storage unit 204.

本装置は使用者がシャッターボタン223を押した場合、静止画撮影動作を行う。   This apparatus performs a still image shooting operation when the user presses the shutter button 223.

これにより、撮像センサ209は像を電気信号に変換し、これをADコンバータ228に出力する。ADコンバータ228はこれをデジタル値に変換し撮像回路210に出力する。撮像回路210は露出、ホワイトバランスを調整し、さらにデータの圧縮処理を行い、生成した圧縮画像をデータバス202及びメモリコントローラ205を介して、一旦DRAM206に記録する。メモリカードコントローラ213はDRAM206に生成された圧縮画像をメモリカード207に記録する。   As a result, the image sensor 209 converts the image into an electrical signal, and outputs this to the AD converter 228. The AD converter 228 converts this into a digital value and outputs it to the imaging circuit 210. The imaging circuit 210 adjusts exposure and white balance, further performs data compression processing, and temporarily records the generated compressed image in the DRAM 206 via the data bus 202 and the memory controller 205. The memory card controller 213 records the compressed image generated in the DRAM 206 on the memory card 207.

さらにデジタルカメラ107は特徴検出回路200及び特徴検出に必要なパラメータ値を保持するパラメータ保持部201を備える。パラメータ保持部201が保持するパラメータ値は書き換え可能で、人間の顔、数字、風景といった被写体の外見的な特徴を記録することが可能である。   The digital camera 107 further includes a feature detection circuit 200 and a parameter holding unit 201 that holds parameter values necessary for feature detection. The parameter values held by the parameter holding unit 201 are rewritable, and it is possible to record the appearance features of the subject such as a human face, numbers, and scenery.

また、パラメータ保持部には、外見的特徴だけでなく人間や機械の発する音声の特徴を記録することも可能である。   In addition, the parameter holding unit can record not only the appearance features but also the features of sounds produced by humans and machines.

また本撮像装置は、特徴値を一時記憶する特徴値記憶回路230、及び特徴値の比較を行う特徴値比較回路231を備える。   In addition, the imaging apparatus includes a feature value storage circuit 230 that temporarily stores feature values, and a feature value comparison circuit 231 that compares feature values.

システム記憶部204には、被写体の特徴を示す値が記録されている。例えば顔の輪郭、目、鼻、口の位置関係を数値化した値や、文字パターンの特徴を示す値、さらには人間や機械の発する音声の特徴が記録されている。文字パターンとは、画像中に含まれる文字を表わす部分のことをいい、例として背番号・看板の文字などがある。被写体から顔部分・背番号部分をサーチする場合は、この値をパラメータ保持部201にロードする。   The system storage unit 204 records values indicating the characteristics of the subject. For example, a value obtained by digitizing the positional relationship between the face outline, eyes, nose, and mouth, a value indicating the characteristics of a character pattern, and the characteristics of voices produced by humans and machines are recorded. A character pattern refers to a portion representing a character included in an image. Examples thereof include a back number and a signboard character. When searching for the face portion / number number portion from the subject, this value is loaded into the parameter holding unit 201.

特徴検出回路200は、入力される画像又は音声データとパラメータ値に基づき所望の特徴を示す部分を検出する。さらにこれらの所望の特徴を示す部分の特徴値を演算する。CPU203がこれらの値をデータバスを介して読み取ることが可能であるよう、デジタルカメラは構成されている。   The feature detection circuit 200 detects a portion showing a desired feature based on input image or sound data and parameter values. Further, a feature value of a portion indicating these desired features is calculated. The digital camera is configured so that the CPU 203 can read these values via the data bus.

特徴検出回路200はパラメータ値を変更することによって、例えば画像の場合であれば人間の顔、動物の顔、アラビア数字、英語、平仮名といったものの特徴を、音声データの場合であれば人間の声や電子音といったものの特徴を抽出することが可能である。   The feature detection circuit 200 changes the parameter value, for example, in the case of an image, the characteristics of a human face, animal face, Arabic numerals, English, hiragana, etc. It is possible to extract features such as electronic sounds.

また、本装置は過去の撮影によって生成した特徴値を、メモリカード207またはシステム記憶部204に保存しておくことが可能である。特徴値記憶回路230は保存されていた特徴値を記憶する回路で、CPU203は特徴値を特徴値記憶回路230に転送することが可能である。   In addition, the apparatus can store the feature value generated by past shooting in the memory card 207 or the system storage unit 204. The feature value storage circuit 230 is a circuit that stores the stored feature value, and the CPU 203 can transfer the feature value to the feature value storage circuit 230.

特徴値比較回路231は特徴値を比較する回路であり、特徴検出回路200が出力する特徴値と特徴値記憶回路230が出力する特徴値を比較し、一致の度合いを演算する。CPU203は特徴値比較回路が演算した結果を読み出すことが可能である。   The feature value comparison circuit 231 compares feature values, compares the feature value output from the feature detection circuit 200 with the feature value output from the feature value storage circuit 230, and calculates the degree of coincidence. The CPU 203 can read the result calculated by the feature value comparison circuit.

マイクロフォン233は音声を読み取り、音声データとして電気信号に変換する装置であり、ADコンバータ232でデジタル信号に変換される。   The microphone 233 is a device that reads voice and converts it into an electrical signal as voice data, and is converted into a digital signal by the AD converter 232.

音声認識回路はADコンバータ232から送られてきた音声データを認識し、テキストデータに変換する回路である。   The voice recognition circuit is a circuit that recognizes voice data sent from the AD converter 232 and converts it into text data.

ネットワークインタフェース234は、無線LANのアクセスポイントに接続するためのインタフェースであり、アクセスポイントを介してインターネットと接続し、他の情報処理装置と通信を行うことができる。   The network interface 234 is an interface for connecting to a wireless LAN access point, and can connect to the Internet via the access point to communicate with other information processing apparatuses.

なお、本実施例では特徴検出回路200、パラメータ保持部201、特徴値記憶回路230、特徴値比較回路231が、それぞれ1つの回路で顔、文字パターン、音声の検出等を行っているように記載している。しかし、本実施例において、顔、文字パターン、音声の検出等のため物理的に別の回路を有していてもよい。   In this embodiment, it is described that the feature detection circuit 200, the parameter holding unit 201, the feature value storage circuit 230, and the feature value comparison circuit 231 each detect a face, a character pattern, a voice, and the like with one circuit. is doing. However, in the present embodiment, a physically separate circuit may be provided for detecting a face, a character pattern, voice, and the like.

次に、デジタルカメラ107が放送局サーバ113から配信される試合情報を受け取る動作について、図3に示すフローチャートを用いながら説明する。   Next, an operation in which the digital camera 107 receives game information distributed from the broadcast station server 113 will be described with reference to the flowchart shown in FIG.

以下、デジタルカメラ107にインストールされたプログラムに従いCPU203が実行する処理を説明する。   Hereinafter, processing executed by the CPU 203 in accordance with a program installed in the digital camera 107 will be described.

メモリカード207には、試合前に予め放送局が提供する試合情報を配信するサイトのURLが記録されている。   The memory card 207 stores a URL of a site that distributes game information provided by a broadcasting station in advance before a game.

ステップS301では、デジタルカメラ107は接続待機状態にあり、ユーザからの接続の指示を待つ。   In step S301, the digital camera 107 is in a connection standby state and waits for a connection instruction from the user.

カメラマン106が操作スイッチ222を用いてデジタルカメラ107に対しインターネット112への接続指示を行う。接続指示を受けたCPU203はネットワークインタフェース234を介してアクセスポイント111への接続を開始する(ステップS302,ステップS303)。   The photographer 106 instructs the digital camera 107 to connect to the Internet 112 using the operation switch 222. Upon receiving the connection instruction, the CPU 203 starts connection to the access point 111 via the network interface 234 (steps S302 and S303).

アクセスポイントへの接続が行われると、アクセスポイント111からインターネット112への接続が行われる。CPU203はインターネットへの接続が完了したと判断すると(ステップS304)、メモリカード207に記録された、放送局が提供するサイトのURLを読み出す(ステップS305)。   When the connection to the access point is performed, the connection from the access point 111 to the Internet 112 is performed. When the CPU 203 determines that the connection to the Internet has been completed (step S304), it reads the URL of the site provided by the broadcasting station recorded in the memory card 207 (step S305).

そしてCPU203は読み出したURLに基づき放送局サーバ113にアクセスする(S306)。   Then, the CPU 203 accesses the broadcasting station server 113 based on the read URL (S306).

CPU203はデジタルカメラ107を受信待機状態とし、放送局サーバ113から試合情報が配信されるのを待つ(ステップS307)。   The CPU 203 sets the digital camera 107 in a reception standby state, and waits for game information to be distributed from the broadcast station server 113 (step S307).

放送局サーバ113は、アクセスを行ったデジタルカメラ107に試合情報を送信する。   The broadcast station server 113 transmits the game information to the digital camera 107 that has made access.

CPU203はネットワークインタフェース234を介して、放送局サーバ113からデジタルカメラ107に送信された試合情報を受信し(ステップS308)、DRAM206に試合情報を記録する(ステップS309)。さらに、デジタルカメラ107内のデータベースに選手に関する情報を書き込んで処理を終了する(ステップS310)。この処理については後述する。   The CPU 203 receives the game information transmitted from the broadcast station server 113 to the digital camera 107 via the network interface 234 (step S308), and records the game information in the DRAM 206 (step S309). Further, the information about the player is written in the database in the digital camera 107, and the process is terminated (step S310). This process will be described later.

試合情報は試合の攻守が交代するたびに、放送局サーバ113が更新して配信する。すなわち、デジタルカメラ107が試合中インターネットに接続されていれば、カメラマン106は自動的に最新の試合情報を入手することができる。   The game information is updated and distributed by the broadcast station server 113 whenever the game is changed. That is, if the digital camera 107 is connected to the Internet during a game, the cameraman 106 can automatically obtain the latest game information.

ここで、試合情報のデータ構成について説明する。   Here, the data structure of game information is demonstrated.

図4に、デジタルカメラ107が受信する試合情報のデータ構成を示す。試合情報は試合の基本的な情報である基本情報401、試合の進行状況を示す進行情報402、出場選手の情報を示す選手情報403から構成される。これらのデータの内容はテキストデータである。   FIG. 4 shows the data structure of game information received by the digital camera 107. The game information includes basic information 401 that is basic information of the game, progress information 402 that indicates the progress of the game, and player information 403 that indicates the information of the participating players. The contents of these data are text data.

図5に基本情報401のデータ構成を示す。501は試合名である。502は試合の開始時刻を示す。503は試合が行われている球場を示す。   FIG. 5 shows the data structure of the basic information 401. Reference numeral 501 denotes a game name. 502 shows the start time of a game. Reference numeral 503 denotes a stadium where a game is being played.

図6に進行情報402のデータ構成を示す。601は回数であり、現在の回数を示す。602は現在攻撃しているチーム名を示す。603は球場の天候を示す。604は球場の気温を示す。605は現時点での得点を示す。図6では、チームAが4得点、チームBが3得点という状況を示している。606は試合時間であり、試合開始から進行情報が更新された時までの経過時間である。   FIG. 6 shows the data structure of the progress information 402. Reference numeral 601 denotes the number of times, which indicates the current number of times. Reference numeral 602 denotes the name of the team currently attacking. Reference numeral 603 denotes the weather of the stadium. Reference numeral 604 denotes the temperature of the stadium. Reference numeral 605 indicates the current score. FIG. 6 shows a situation where team A has 4 points and team B has 3 points. Reference numeral 606 denotes a game time, which is an elapsed time from the start of the game until the progress information is updated.

なお、進行情報は試合の経過によって変化する。従って、定期的に又は情報が変更された場合に、放送局サーバ113が更新する。   In addition, progress information changes with progress of a game. Accordingly, the broadcast station server 113 is updated periodically or when information is changed.

図7に選手情報403のデータ構造を示す。選手情報は打順、選手名、背番号の3つで構成される。701は打順であり、1から9まで存在する。702は選手名である。703は選手の背番号である。   FIG. 7 shows the data structure of the player information 403. The player information is composed of three parts: a batting order, a player name, and a spine number. Reference numeral 701 denotes a batting order, which is from 1 to 9. Reference numeral 702 denotes a player name. Reference numeral 703 denotes the player's number.

なお、選手情報は選手の交代によって変化する。従って、定期的に又は情報が変更された場合に、放送局サーバ113が更新する。   In addition, player information changes with a change of a player. Accordingly, the broadcast station server 113 is updated periodically or when information is changed.

なお、本実施例では基本情報401、進行情報402、選手情報403が試合情報という1つのデータにまとめられて配信される構成としたが、これら3つの情報を別個のデータとして配信される構成をとってもよい。   In the present embodiment, the basic information 401, the progress information 402, and the player information 403 are distributed as a single piece of data called game information. However, these three pieces of information are distributed as separate data. It may be taken.

例えば、放送局サーバ113は、基本情報401と選手情報403のみ試合開始前に配信し、進行情報402は攻守が変わる毎に更新して配信し、選手情報403は選手交代があったときにのみ更新して配信する構成としてもよい。   For example, the broadcast station server 113 distributes only the basic information 401 and the player information 403 before the start of the game, the progress information 402 is updated and distributed every time the offense and defense changes, and the player information 403 is only when the player is changed. It is good also as a structure which updates and delivers.

以上、試合情報のデータ構成について説明した。以下、試合情報を受信した後のデジタルカメラ107の動作について説明する。   The data structure of the game information has been described above. Hereinafter, the operation of the digital camera 107 after receiving the game information will be described.

試合情報を受信し、DRAM206への記録を完了すると、CPU203は選手情報のデータベースへの書き込みを開始する(図3のステップS310)。   When the game information is received and the recording in the DRAM 206 is completed, the CPU 203 starts writing the player information in the database (step S310 in FIG. 3).

図8に、システム記憶部204に保存されているデータベース801を示す。データベース801は4つの項目から構成されている。802は打順項目であり、選手の打順が登録される。803は選手名項目であり、選手の名前が登録される。804は背番号項目であり、選手の背番号が登録される。805は顔パターン項目であり、選手の顔の特徴値が登録される。顔の特徴値については後述する。   FIG. 8 shows a database 801 stored in the system storage unit 204. The database 801 is composed of four items. Reference numeral 802 denotes a batting order item, in which the batting order of the players is registered. Reference numeral 803 denotes a player name item in which the name of the player is registered. Reference numeral 804 denotes a back number item, in which a player's back number is registered. Reference numeral 805 denotes a face pattern item, in which a facial feature value of the player is registered. The face feature value will be described later.

CPU203はDRAM206から試合情報を読み出す。そして選手情報内の打順701に入力されているデータをデータベース801の打順項目802に、選手名702のデータを選手名項目803に、背番号703のデータを背番号項目804に、各々の項目を対応付けて登録する。   The CPU 203 reads game information from the DRAM 206. The data entered in the batting order 701 in the player information is the batting order item 802 of the database 801, the data of the player name 702 is the player name item 803, the data of the spine number 703 is the spine number item 804, and each item is entered. Register in association.

この処理により、カメラ内のデータベース801に打順と選手名、背番号が対応付けられて登録される。選手情報を登録したデータベース801を図10に示す。   By this processing, the batting order, the player name, and the spine number are associated and registered in the database 801 in the camera. A database 801 in which player information is registered is shown in FIG.

次に、図9に示すフローチャートを用いて、本実施形態における撮影のフローを説明する。   Next, the flow of shooting in the present embodiment will be described using the flowchart shown in FIG.

以下、デジタルカメラ107にインストールされたプログラムに従いCPU203が実行する処理を説明する。   Hereinafter, processing executed by the CPU 203 in accordance with a program installed in the digital camera 107 will be described.

この時点で、データベースは図10に示す状態になっている。ここでは、顔に関する情報が未だ登録されていない被写体を撮影した場合について説明する。   At this point, the database is in the state shown in FIG. Here, a case will be described in which a subject for which information relating to a face has not yet been registered is photographed.

ここでは被写体から検出する対象を顔・背番号とし、パラメータ保持部201にはそれぞれの特徴を示す値をあらかじめ記録しておく。   Here, the object to be detected from the subject is the face / back number, and the parameter holding unit 201 records values indicating the respective characteristics in advance.

ステップS901にて、デジタルカメラ107は撮影モードを開始する。   In step S901, the digital camera 107 starts a shooting mode.

ステップS902にて、CPU203は、ディスプレイ211の制御と撮影動作を開始するためのシャッターボタン223の待機を開始する。   In step S902, the CPU 203 starts standby of the shutter button 223 for starting the control of the display 211 and the photographing operation.

ステップS903では、CPU203はシャッターボタン223が押されたかどうかを確認する。シャッターボタン223が押されていない場合はステップS902に戻り処理を繰り返す。   In step S903, the CPU 203 confirms whether the shutter button 223 has been pressed. If the shutter button 223 has not been pressed, the process returns to step S902 to repeat the process.

ステップS903にてCPU203は、カメラマン106がシャッターボタン223を押したと判断すると、処理をステップS904に進め、撮影を開始する。   In step S903, when the CPU 203 determines that the cameraman 106 has pressed the shutter button 223, the process proceeds to step S904, and shooting is started.

ステップS904では、撮像センサ209上に結像した像が電気信号に変換される。そして画像処理により露出、ホワイトバランス調整などが施された上で、メモリ上に記憶される。さらに圧縮画像がDRAM106の異なる領域に生成される。CPU203はこの画像を圧縮し、更に圧縮された画像はメモリカード207に転送される。   In step S904, the image formed on the image sensor 209 is converted into an electrical signal. Then, exposure, white balance adjustment, and the like are performed by image processing, and then stored in the memory. In addition, compressed images are generated in different areas of the DRAM 106. The CPU 203 compresses this image, and the further compressed image is transferred to the memory card 207.

本実施例の具体的事例として、図11に撮影した画像を示す。図11に示す画像は、顔と背番号が確認できる構図となっている。   As a specific example of this embodiment, an image taken in FIG. 11 is shown. The image shown in FIG. 11 has a composition in which the face and the number can be confirmed.

ステップS905にて、CPU203は試合情報を撮影した画像に書き込む。このときCPU203はシステム記憶部204より図4に示す試合情報を読み出す。そしてCPU203は撮影した画像のヘッダ部に、図5に示す基本情報の内容と、図6に示す進行情報の内容を書き込む。   In step S905, the CPU 203 writes the game information in the captured image. At this time, the CPU 203 reads out the game information shown in FIG. The CPU 203 writes the contents of the basic information shown in FIG. 5 and the contents of the progress information shown in FIG. 6 in the header portion of the photographed image.

この処理により、画像には試合名501、撮影時のイニング数601、撮影時の天候603など、さまざまな情報が付加される。この情報は、後日カメラマン106が大量の画像から所望の画像を検索する際に有効な情報となる。   By this processing, various information such as the game name 501, the number of innings 601 at the time of shooting, and the weather 603 at the time of shooting are added to the image. This information is useful information when the photographer 106 retrieves a desired image from a large number of images at a later date.

なお、撮影した画像すべてに試合情報を書き込むと、メモリカード207内の総データ量が増える可能性がある。そこで、試合情報を書き込む前に、CPU203が後述する検出・認識処理(ステップS906〜ステップS914)を行い、被写体が認識できたと判断した場合にのみ、画像に試合情報を書き込む構成としてもよい。   Note that if game information is written in all the captured images, the total amount of data in the memory card 207 may increase. Therefore, before writing the game information, the CPU 203 may perform a detection / recognition process (steps S906 to S914), which will be described later, and write the game information on the image only when it is determined that the subject has been recognized.

ステップS906にて、CPU203は顔検出処理を開始する。このときCPU203はDRAM206内に記憶された画像を、データバス202を介して特徴検出回路200に転送する。特徴検出回路200は転送された画像に対して公知の顔検出技術を用いることにより、顔領域の検出を行い、画像中における顔の位置情報と特徴的な部位情報を抽出する。CPU203はこの部位情報を特徴値としてDRAM206に記憶する。なお、顔の特徴的な部位情報とは、例えば目、鼻、口等の画像情報等のことである。   In step S906, the CPU 203 starts face detection processing. At this time, the CPU 203 transfers the image stored in the DRAM 206 to the feature detection circuit 200 via the data bus 202. The feature detection circuit 200 detects a face region by using a known face detection technique for the transferred image, and extracts face position information and characteristic part information in the image. The CPU 203 stores this part information as a feature value in the DRAM 206. The characteristic part information of the face is, for example, image information of eyes, nose, mouth, and the like.

被写体の顔部分は通常、レンズの合焦位置の付近にある。このことを利用し、CPU203はいわゆるオートフォーカス枠の内側で顔検出処理を行うことにより、さらに精度よく被写体の顔領域を検出することができる。   The face portion of the subject is usually near the focusing position of the lens. Utilizing this fact, the CPU 203 can detect the face area of the subject with higher accuracy by performing face detection processing inside a so-called autofocus frame.

公知の顔検出技術としては、例えば特開平10−232934号公報や特開2000−48184号公報に開示されており、一般的にはこれらの文献に開示された方法を複数組み合わせて顔認識することが考えられる。   Known face detection techniques are disclosed in, for example, Japanese Patent Application Laid-Open No. 10-232934 and Japanese Patent Application Laid-Open No. 2000-48184, and generally face recognition is performed by combining a plurality of methods disclosed in these documents. Can be considered.

ステップS906にて、CPU203は背番号検出処理を行う。背番号の検出も顔処理と同様、特徴検出回路200が画像に対し公知のパターン検出技術を用いることにより行われる。   In step S906, the CPU 203 performs a spine number detection process. Similar to face processing, the feature number detection circuit 200 uses a known pattern detection technique for an image as well as face processing.

背番号を検出すると、CPU203は検出したデータをOCR回路236に転送する。転送されたデータはOCR処理され、テキストデータに変換される。CPU203は、このデータを背番号の特徴値としてDRAM206に記憶する。   When detecting the turn number, the CPU 203 transfers the detected data to the OCR circuit 236. The transferred data is OCR processed and converted to text data. The CPU 203 stores this data in the DRAM 206 as a feature value of the spine number.

背番号を検出する際には、前述した顔検出の結果を用いることが可能である。通常、背番号は被写体の背中、すなわち顔の近傍に存在する。このことを用いて、顔の近傍にある文字列パターンが背番号であると判断することで、画像中にある他の文字列パターンと区別することが可能となる。この基準を用いることにより、背番号検出の精度を高めることができる。   When detecting the number, it is possible to use the result of face detection described above. Usually, the back number exists on the back of the subject, that is, in the vicinity of the face. By using this fact, it is possible to distinguish the character string pattern in the vicinity of the face from the other character string patterns in the image by determining that the character string pattern is a back number. By using this reference, the accuracy of the identification number detection can be increased.

図11に示す画像では、図12中、矩形領域1201が顔として、矩形領域1202が背番号として検出され、その領域における特徴値が抽出される。   In the image shown in FIG. 11, in FIG. 12, the rectangular area 1201 is detected as a face and the rectangular area 1202 is detected as a back number, and the feature value in that area is extracted.

また、図11に示す画像では、背番号が検出された後、検出された背番号がOCR部136でOCR処理されることよってテキストデータ「55」に変換される。このテキストデータが特徴値としてDRAM206に記憶される。   In the image shown in FIG. 11, after the spine number is detected, the detected spine number is OCR processed by the OCR unit 136 to be converted into text data “55”. This text data is stored in the DRAM 206 as a feature value.

本実施例では検出する対象を背番号としたが、胸ゼッケンや被写体の持っている番号札などを検出対象としてもよい。   In the present embodiment, the number to be detected is the back number, but a number plate or the like that the subject has may be the detection target.

ステップS908において、背番号、顔の少なくとも1つが検出されたとCPU203が判断した場合には、ステップS909にて、CPU203は図10のデータベース801に蓄積されたレコードをレコードナンバーの若い順に1レコードずつ読み出す。   If the CPU 203 determines in step S908 that at least one of the spine number and the face has been detected, in step S909, the CPU 203 reads the records stored in the database 801 in FIG. .

背番号、顔ともに検出されなかった場合は、CPU203は処理をステップS902に戻す。デジタルカメラ107はシャッター待機状態となる。   If neither the identification number nor the face is detected, the CPU 203 returns the process to step S902. The digital camera 107 enters a shutter standby state.

ステップS910では、CPU203は図10のデータベース801から読み出したレコードに記録された特徴値と、ステップS906、907にて検出された特徴値とを比較する。   In step S910, the CPU 203 compares the feature value recorded in the record read from the database 801 in FIG. 10 with the feature value detected in steps S906 and 907.

CPU203は、図10のデータベース801から読み出したレコードに登録された特徴値の中に、ステップS906、907にて検出された特徴値と一致するものがないと判断した場合には、処理をステップS902に戻す。デジタルカメラ107はシャッター待機状態となる。   If the CPU 203 determines that none of the feature values registered in the record read from the database 801 in FIG. 10 matches the feature values detected in steps S906 and 907, the process proceeds to step S902. Return to. The digital camera 107 enters a shutter standby state.

図10のデータベース801から読み出した特徴値の中にステップS906、ステップS907にて検出された特徴値と一致するものがあると判断した場合について説明する。この場合には、CPU203は、読み出したレコード中、選手名項目803に入力されているテキストデータを撮影した画像のヘッダ部に書き込み、ステップS913に処理を進める。   A case will be described in which it is determined that some of the feature values read from the database 801 in FIG. 10 match the feature values detected in steps S906 and S907. In this case, the CPU 203 writes the text data input to the player name item 803 in the read record in the header portion of the photographed image, and proceeds to step S913.

具体的に、図10に示すデータベース801に登録されている特徴値と、図11に示す画像から抽出された特徴値とを比較する場合について説明する。CPU203は検出した背番号をOCR処理した文字列データ「55」、そして抽出した顔の特徴値と一致するデータが、背番号項目804、顔パターン項目805に登録されているか検索する。CPU203はレコードナンバー1から順に図10のデータベース801に記録されているレコードを読み出し、背番号項目に文字列データ55があるか否か判断する。また、顔パターン項目805に、検出した顔パターンと同じパターンがあるか否か判断する。   Specifically, a case will be described in which the feature values registered in the database 801 shown in FIG. 10 are compared with the feature values extracted from the image shown in FIG. The CPU 203 searches the character string data “55” obtained by performing OCR processing on the detected spine number and whether the data matching the extracted facial feature value is registered in the spine number item 804 and the face pattern item 805. The CPU 203 reads the records recorded in the database 801 in FIG. 10 in order from the record number 1, and determines whether or not the character string data 55 exists in the spine number item. Also, it is determined whether or not the face pattern item 805 has the same pattern as the detected face pattern.

図10のデータベース801において、背番号項目804に「55」が存在する。従って、CPU103はこのレコードと特徴値を比較した際に図10のデータベース801に背番号55が存在すると判断し、撮影した画像のヘッダ部に、読み出されたレコードの選手名項目803に登録されたデータである「SUZUKI」を書き込む。   In the database 801 in FIG. 10, “55” exists in the uniform number item 804. Therefore, the CPU 103 determines that the spine number 55 exists in the database 801 of FIG. 10 when comparing this record with the feature value, and is registered in the player name item 803 of the read record in the header portion of the photographed image. “SUZUKI”, which is the stored data, is written.

図10のデータベース801には顔の特徴値は登録されていない。従ってCPU203は、顔パターン項目805に、検出した顔パターンと同じパターンは存在しないと判断し、ヘッダには何も書き込まない。   The facial feature value is not registered in the database 801 of FIG. Therefore, the CPU 203 determines that the same pattern as the detected face pattern does not exist in the face pattern item 805 and writes nothing in the header.

ステップS913では、CPU203はデータベースから読み出した特徴値に一致した特徴値(以下、一致特徴値と呼ぶ)の他に、別の特徴値(以下、新規特徴値と呼ぶ)が抽出されたか否かを判断する。新規特徴値が検出されたと判断した場合には、CPU203は処理をステップS914に進める。CPU203は、新規特徴値が検出されなかったと判断した場合には、処理をステップS902に戻し、デジタルカメラ107をシャッター待機状態にする。   In step S913, the CPU 203 determines whether another feature value (hereinafter referred to as a new feature value) has been extracted in addition to the feature value (hereinafter referred to as a matched feature value) that matches the feature value read from the database. to decide. If it is determined that a new feature value has been detected, the CPU 203 advances the process to step S914. If the CPU 203 determines that a new feature value has not been detected, the CPU 203 returns the process to step S902 to place the digital camera 107 in a shutter standby state.

図11に示す画像からは、顔と背番号の特徴値が抽出されている。このうち、顔の特徴値が図10のデータベース801には登録されていない。従って、顔の特徴値が新規特徴値と判断される。   From the image shown in FIG. 11, the feature values of the face and the number are extracted. Of these, facial feature values are not registered in the database 801 of FIG. Accordingly, the feature value of the face is determined as a new feature value.

ステップS914において、CPU203は検出された新規特徴値を、一致特徴値と同じレコードナンバーに登録し、シャッター待機状態に戻る。   In step S914, the CPU 203 registers the detected new feature value in the same record number as the matching feature value, and returns to the shutter standby state.

すなわち、図11に示す画像から抽出された特徴値のうち、新規特徴値である顔の特徴値が一致特徴値である背番号「55」と同じレコードナンバーのレコードの顔パターン項目に登録される。このときのデータベースを図13に示す。   That is, among the feature values extracted from the image shown in FIG. 11, the face feature value that is the new feature value is registered in the face pattern item of the record having the same record number as the back number “55” that is the matching feature value. . The database at this time is shown in FIG.

以上の処理が終了すると、CPU203は処理をステップS902に戻し、デジタルカメラ107はシャッター待機状態となる。   When the above processing ends, the CPU 203 returns the processing to step S902, and the digital camera 107 enters a shutter standby state.

次に、過去に顔が検出され顔パターンが登録されている被写体を撮影した場合について説明する。   Next, a case where a subject whose face has been detected in the past and whose face pattern is registered is photographed will be described.

この時点でのデータベース801は図13のようになっている。本来、顔の特徴値は種々のパラメータで記述されるものだが、ここでは便宜上、顔の特徴値を「XXX」とする。   The database 801 at this time is as shown in FIG. Originally, the facial feature value is described with various parameters, but here, for convenience, the facial feature value is “XXX”.

ステップS901〜ステップS905までは一枚目の撮影と同様である。ステップS904で、図14に示す画像が撮影されたものとする。   Steps S901 to S905 are the same as those for the first image. Assume that the image shown in FIG. 14 has been taken in step S904.

この構図では、CPU203がステップS906、ステップS907の検出処理を行った結果、図15の領域1501に示される顔のみが検出され、特徴値が抽出される。図14に示す画像の構図には背番号が含まれないため、背番号は検出されない。しかしながら、顔が検出されているため、CPU203は処理をステップS908からステップS909に進める。ステップS909では図13に示すデータベース801が読み出される。   In this composition, as a result of the CPU 203 performing the detection processing in steps S906 and S907, only the face shown in the area 1501 in FIG. 15 is detected, and the feature value is extracted. Since the composition of the image shown in FIG. 14 does not include a back number, the back number is not detected. However, since a face is detected, the CPU 203 advances the process from step S908 to step S909. In step S909, the database 801 shown in FIG. 13 is read.

ステップS910では、CPU203は抽出した顔の特徴値と一致するデータが、図13のデータベース801の顔パターン項目805に登録されているか検索する。   In step S910, the CPU 203 searches whether the data matching the extracted facial feature value is registered in the face pattern item 805 of the database 801 in FIG.

一枚目の撮影時に選手名「SUZUKI」の顔の特徴値「XXX」を登録しているため、検出した顔から抽出した特徴値と一致する特徴値「XXX」が図13のデータベース801から検索される。従ってステップS911において、CPU203は抽出した顔の特徴値が図13のデータベース801に登録されていると判断する。   Since the facial feature value “XXX” of the player name “SUZUKI” is registered when the first picture is taken, a feature value “XXX” that matches the feature value extracted from the detected face is searched from the database 801 in FIG. Is done. Accordingly, in step S911, the CPU 203 determines that the extracted facial feature value is registered in the database 801 of FIG.

CPU203は、その画像が選手名「SUZUKI」なる被写体が撮影されているものと判断し、撮影した画像のヘッダに選手名項目の値「SUZUKI」を書き込む。   The CPU 203 determines that the subject whose image has the player name “SUZUKI” has been captured, and writes the value “SUZUKI” of the player name item in the header of the captured image.

ステップS913では、CPU203は顔パターン以外に検出された特徴値、すなわち新規特徴値はないと判断し、カメラをシャッター待機モードにする。   In step S913, the CPU 203 determines that there is no feature value detected other than the face pattern, that is, no new feature value, and sets the camera in the shutter standby mode.

本実施例では、各種検出を撮影後に行っているが、検出のタイミングは撮影後には限定されない。例えば、電子ビューファインダ(以下、EVFとする)を行う際に検出をしてもよい。   In this embodiment, various types of detection are performed after shooting, but the detection timing is not limited after shooting. For example, detection may be performed when an electronic viewfinder (hereinafter referred to as EVF) is performed.

EVFは、撮像センサ209に結像したディスプレイ211に繰り返し表示することによって、ユーザに対して撮影しようとする被写体を示す機能である。   The EVF is a function that indicates a subject to be photographed to the user by repeatedly displaying the image on the display 211 formed on the image sensor 209.

EVF時に検出を行う場合には、CPU203は撮影前に随時検出処理を行っておく。そしてシャッターボタンが押されると、CPU203はその時点で検出されている顔や背番号をカメラデジタルカメラ107内のデータベース801と比較する。   When detection is performed during EVF, the CPU 203 performs detection processing as needed before shooting. When the shutter button is pressed, the CPU 203 compares the face and back number detected at that time with the database 801 in the camera digital camera 107.

本実施例では、サーバから被写体に関するデータを取得することで、撮影場所、日時、イベントに応じたデータを容易に取得することができる。また、Webサーバから取得するデータをテキストデータとすることでデジタルカメラの通信負荷を軽減することができる。さらに、新たに抽出された被写体の特徴値を一旦他の特徴値と関連づけすれば、新規に登録した特徴値を、被写体を識別する項目として独立に用いることが可能になる。よって、被写体認識の精度が構図の影響を受けにくくなる。   In this embodiment, by acquiring data related to the subject from the server, it is possible to easily acquire data according to the shooting location, date and time, and event. Moreover, the communication load of a digital camera can be reduced by making the data acquired from a Web server into text data. Further, once the newly extracted feature value of the subject is associated with another feature value, the newly registered feature value can be used independently as an item for identifying the subject. Accordingly, the accuracy of subject recognition is less affected by the composition.

(実施例2)
以下、2つめの実施例について説明する。なお、実施例1と同様の部分については説明を省略し、実施例2の特徴的な部分について詳細に説明する。
(Example 2)
The second embodiment will be described below. The description of the same parts as those in the first embodiment will be omitted, and the characteristic parts of the second embodiment will be described in detail.

図1、図2のシステムやデバイスの構成については実施例1と同様であるから、説明を省略する。   The configuration of the system and device shown in FIGS.

図16に、本実施例におけるデジタルカメラ107内のデータベース1601を示す。本実施例では、データベース1601の項目に打順項目1602選手名項目1603、背番号項目1604、顔パターン項目1605、そして音声パターン項目1606が設定されている。   FIG. 16 shows a database 1601 in the digital camera 107 in this embodiment. In this embodiment, a batting order item 1602 player name item 1603, a spine number item 1604, a face pattern item 1605, and a voice pattern item 1606 are set in the items of the database 1601.

放送局サーバ113からインターネット112を介して図4に示す試合情報を受信し、デジタルカメラ107内のデータベース1601に登録する点は実施例1と同様である。試合情報受信時のデータベース1601の内容を図17に示す。   The game information shown in FIG. 4 is received from the broadcast station server 113 via the Internet 112 and registered in the database 1601 in the digital camera 107 as in the first embodiment. The contents of the database 1601 at the time of game information reception are shown in FIG.

次に図18に示すフローチャートを用いて、本実施形態における撮像装置の動作を説明する。ここでは、カメラマン106が、顔の特徴値、音声の特徴値ともにデータベースに登録されていない被写体を撮影した場合について考える。   Next, the operation of the imaging apparatus in the present embodiment will be described using the flowchart shown in FIG. Here, consider a case where the photographer 106 has photographed a subject that is not registered in the database for both the facial feature value and the voice feature value.

ステップS1801〜ステップS1804については、実施例1と同様であるため、ここでは割愛する。   Since steps S1801 to S1804 are the same as those in the first embodiment, they are omitted here.

本実施例の具体的な事例として、ステップS1804において図19に示す画像が撮影されたものとする。図19に示す画像は、被写体の背番号は確認できるが、顔は確認できない構図となっている。   As a specific example of the present embodiment, it is assumed that the image shown in FIG. 19 is taken in step S1804. The image shown in FIG. 19 has a composition in which the back number of the subject can be confirmed but the face cannot be confirmed.

ステップS1804で撮影が行われると、CPU203は処理をステップS1805に進める。ステップS1805では、CPU203はカメラを音声録音モードにする。音声録音モードとは、シャッターが押されてから一定時間、例えば5秒間マイクロフォン233から入力される音声を録音するモードである。   When shooting is performed in step S1804, the CPU 203 advances the process to step S1805. In step S1805, the CPU 203 sets the camera to the voice recording mode. The voice recording mode is a mode for recording a voice input from the microphone 233 for a predetermined time, for example, 5 seconds after the shutter is pressed.

この音声録音モードとなっている一定時間中に、カメラマン106はマイクロフォン233から被写体を識別するための音声を入力することができる。例えばカメラマン106が、被写体の選手名が「トム」であることを認識しているとする。かかる場合には、画像を撮影した直後にマイクロフォン233に向かって「トム」と発声することで、「トム」という音声データが入力される。   The cameraman 106 can input a sound for identifying the subject from the microphone 233 during a certain time in the sound recording mode. For example, it is assumed that the cameraman 106 recognizes that the subject player name is “Tom”. In such a case, voice data “Tom” is input by saying “Tom” to the microphone 233 immediately after the image is captured.

入力された音声データはADコンバータ232を介してデジタル信号に変換された後、画像と関連付けた上で別ファイルとしてDRAM206に記憶される。   The input audio data is converted into a digital signal via the AD converter 232, and then associated with the image and stored in the DRAM 206 as a separate file.

なお、音声データは画像と別ファイルとせず、CPU203が撮影した画像と音声データをまとめて1つの画像データとして記憶してもよい。   Note that the audio data is not a separate file from the image, and the image and audio data captured by the CPU 203 may be stored together as one image data.

一定時間経過後、CPU203は音声録音モードを停止し、処理をステップS1806に進める。   After a predetermined time has elapsed, the CPU 203 stops the voice recording mode and advances the process to step S1806.

ステップS1806における試合情報の書き込み、ステップS1807における顔検出、ステップS1808における背番号検出については実施例1と同様である。   Writing game information in step S1806, face detection in step S1807, and spine number detection in step S1808 are the same as in the first embodiment.

ステップS1809においてCPU203は音声認識を行う。CPU203はDRAM206内に記憶された音声データを、データバス202を介して特徴検出回路200に転送する。特徴検出回路200は転送された音声データに対して公知の音声認識技術を用いることにより、音声データ中における特徴的な情報を抽出する。公知の音声認識技術の例として、特開平9−135417に開示された技術がある。   In step S1809, the CPU 203 performs voice recognition. The CPU 203 transfers the audio data stored in the DRAM 206 to the feature detection circuit 200 via the data bus 202. The feature detection circuit 200 extracts characteristic information in the voice data by using a known voice recognition technique for the transferred voice data. As an example of a known voice recognition technique, there is a technique disclosed in JP-A-9-135417.

CPU203はこの特徴的な情報を特徴値としてDRAM206に記憶する。音声認識が終了すると、CPU203は処理をステップS1810に進める。   The CPU 203 stores this characteristic information in the DRAM 206 as a characteristic value. When the voice recognition ends, the CPU 203 advances the process to step S1810.

ステップS1810では、背番号、顔、音声のいずれかがステップS1807〜ステップS1809の処理によって検出または認識されたか否か判断する。検出または認識されたと判断した場合には、ステップS1811において、CPU203は図17のデータベース1601に蓄積されたレコードをレコードナンバーの若い順に1レコードずつ読み出す。   In step S1810, it is determined whether any of the number, the face, or the voice has been detected or recognized by the processes in steps S1807 to S1809. If it is determined that it has been detected or recognized, the CPU 203 reads records stored in the database 1601 in FIG. 17 one by one in ascending order of record numbers in step S1811.

以下、ステップS1811からステップS1812は、実施例1と同様の処理を行う。以下、図19に示す画像を撮影した場合を例として具体的に説明する。   Thereafter, steps S1811 to S1812 perform the same processing as in the first embodiment. Hereinafter, the case where the image shown in FIG. 19 is imaged will be described in detail.

図19に示す画像からは、背番号が検出され、音声パターンが認識される。検出された背番号から抽出された文字パターンはOCR部136での処理によって、テキストデータ「20」に変換される。   From the image shown in FIG. 19, the spine number is detected and the voice pattern is recognized. The character pattern extracted from the detected spine number is converted into text data “20” by processing in the OCR unit 136.

背番号、音声が検出されているため、そこから抽出された特徴値とデータベース内の特徴値とが比較される(ステップS1810〜ステップS1812)。   Since the spine number and the voice are detected, the feature value extracted therefrom is compared with the feature value in the database (steps S1810 to S1812).

図17のデータベース1601には背番号パターン項目「20」が登録されている。従って、画像のヘッダ部には選手名項目の値「TOM」が書き込まれる(ステップS1813、ステップS1814)。   In the database 1601 of FIG. 17, the spine number pattern item “20” is registered. Therefore, the value “TOM” of the player name item is written in the header portion of the image (steps S1813 and S1814).

また、検出された音声の特徴値は未だ図17のデータベース1601に未登録、つまり新規特徴値である。従って、この新規特徴値を図17のデータベース1601に登録する(ステップS1815、ステップS1816)。この時点でのデータベース1601の内容を図20に示す。音声データは種々のパラメータで記述されるものだが、ここでは便宜上、音声の特徴値を「YYY」とする。   Further, the detected feature value of the voice is not yet registered in the database 1601 of FIG. 17, that is, a new feature value. Therefore, this new feature value is registered in the database 1601 of FIG. 17 (steps S1815 and S1816). The contents of the database 1601 at this time are shown in FIG. The audio data is described with various parameters. Here, for convenience, the audio feature value is “YYY”.

次に、データベース1601に顔の特徴値は登録されていないが、音声の特徴値は登録されている被写体を撮影した場合の処理について説明する。   Next, a description will be given of processing in the case where a subject whose face feature value is not registered in the database 1601 but whose sound feature value is registered is photographed.

撮影前のデータベースは図20に示す状態になっている。以下、図18のフロー図を参照しながら説明する。   The database before photographing is in the state shown in FIG. Hereinafter, a description will be given with reference to the flowchart of FIG.

ステップS1804で撮影した画像を図21に示す。また、この画像を撮影した際に、「トム」という音声が入力され、音声データとして記憶されているものとする(ステップS1805)。図21に示す画像は、顔は確認できるが、背番号は見えない構図となっている。   The image photographed in step S1804 is shown in FIG. Further, it is assumed that the sound “Tom” is input and stored as sound data when this image is taken (step S1805). The image shown in FIG. 21 has a composition in which the face can be confirmed but the back number cannot be seen.

検出処理によって、図21の画像からは顔が検出され、特徴値が抽出される。(ステップS1807)。また、記憶された音声データ、すなわち音声データ「トム」から、「YYY」という特徴値が抽出される。   By the detection process, a face is detected from the image of FIG. 21, and a feature value is extracted. (Step S1807). A feature value “YYY” is extracted from the stored voice data, that is, the voice data “Tom”.

(ステップS1809)そして、検出された特徴値と図20のデータベース1601内の特徴値との比較が行われる(ステップS1810〜ステップS1812)。   (Step S1809) Then, the detected feature value is compared with the feature value in the database 1601 of FIG. 20 (step S1810 to step S1812).

図20のデータベース1601の音声パターン項目1606には、既に特徴値「ZZZ」が登録されている。従って、画像のヘッダ部には選手名項目の値「TOM」が書き込まれる(ステップS1813、ステップS1814)。   In the audio pattern item 1606 of the database 1601 in FIG. 20, the feature value “ZZZ” has already been registered. Therefore, the value “TOM” of the player name item is written in the header portion of the image (steps S1813 and S1814).

また、検出された顔から抽出された特徴値は未だデータベース1610に未登録の新規特徴値である。従って、CPU203は検出された顔から抽出された特徴値をデータベースに登録し(ステップS1815、ステップS1816)、処理をステップS1802に戻す。   Further, the feature value extracted from the detected face is a new feature value that is not yet registered in the database 1610. Therefore, the CPU 203 registers the feature value extracted from the detected face in the database (step S1815, step S1816), and returns the process to step S1802.

この時点でのデータベースの内容を図22に示す。選手名「TOM」について、背番号、顔、音声の特徴値1604〜1606が登録されている。顔の特徴値は便宜上「ZZZ」とした。このデータベースを用いることで、カメラマン106は背番号、顔、音声の少なくとも1つが含まれる構図で被写体を撮影すれば、被写体が何者か認識することが可能となる。すなわち、認識の精度が構図の影響を受けにくくなる。   The contents of the database at this time are shown in FIG. For the player name “TOM”, the spine number, face, and voice feature values 1604 to 1606 are registered. The feature value of the face is “ZZZ” for convenience. By using this database, the cameraman 106 can recognize who the subject is by photographing the subject with a composition including at least one of a spine number, a face, and voice. That is, the recognition accuracy is less affected by the composition.

なお、本実施例ではカメラがマイクロフォン233からカメラマン106の音声を受信していたが、本発明はこの実施例に限定されるものではない。マイクロフォン233が外部の音声を受信することで、スピーカ104から流れる場内アナウンスによりコールされる選手名を認識することも可能である。   In this embodiment, the camera receives the voice of the cameraman 106 from the microphone 233, but the present invention is not limited to this embodiment. When the microphone 233 receives external sound, it is possible to recognize the player name called by the in-field announcement flowing from the speaker 104.

例えば「6番、トム」という場内アナウンスがコールされた場合、マイクロフォン233にその音声が入力され、CPU203は「トム」の音声データから特徴値「YYY」を抽出してもよい。この場合CPU203は、認識して以降に撮影した画像のヘッダに「TOM」を書き込む。そしてCPU203は、次のバッターの名前をコールするアナウンスを認識したら、「TOM」の書き込みを終了し、画像のヘッダには次のバッターの名前を書き込んでいく。   For example, when an on-site announcement “No. 6, Tom” is called, the sound may be input to the microphone 233 and the CPU 203 may extract the feature value “YYY” from the sound data of “Tom”. In this case, the CPU 203 writes “TOM” in the header of the image captured after recognition. When the CPU 203 recognizes the announcement for calling the name of the next batter, it finishes writing “TOM” and writes the name of the next batter in the header of the image.

このような構成の場合、カメラマン106は音声データを自分で入力する必要がなくなるため、さらに撮影のみに集中することが可能になる。   In the case of such a configuration, the cameraman 106 does not need to input audio data by himself, so that it is possible to concentrate on photographing only.

(他の実施例)
本発明の目的は前述した実施例の機能を実現するソフトウエアのプログラムコードを記録した記録媒体を用いても達成できることは言うまでもない。この場合にはシステムあるいは装置のコンピュータ(またはCPUまたはMPU)が記録媒体に格納されたプログラムコードを読み出し実行することで、本発明の目的は達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することとなり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
(Other examples)
It goes without saying that the object of the present invention can also be achieved by using a recording medium on which a program code of software for realizing the functions of the above-described embodiments is recorded. In this case, the object of the present invention is achieved by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the recording medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM、DVDなどを用いることができる。   As a storage medium for supplying the program code, for example, floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, DVD, etc. Can be used.

また、コンピュータが読み出したプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーションシステム)などが実際の処理の一部または全部を行ってもよい。かかる処理によって前述した実施例の機能が実現される場合本発明の範囲に含まれることは言うまでもない。   Further, an OS (operation system) running on the computer may perform part or all of the actual processing based on the instruction of the program code read by the computer. It goes without saying that the case where the functions of the above-described embodiments are realized by such processing is included in the scope of the present invention.

さらに、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニット等の機能拡張デバイスを介してプログラムを実行してもよい。この場合には、記憶媒体から読み出されたプログラムコードが、機能拡張デバイスに備わるメモリに書きこまれる。そしてプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行う。かかる処理によって前述した実施形態の機能が実現される場合も本発明の範囲に含まれることは言うまでもない。   Furthermore, the program may be executed via a function expansion device such as a function expansion board inserted into the computer or a function expansion unit connected to the computer. In this case, the program code read from the storage medium is written to the memory provided in the function expansion device. Then, based on the instruction of the program code, the CPU provided in the function expansion board or function expansion unit performs part or all of the actual processing. It goes without saying that the case where the functions of the above-described embodiments are realized by such processing is also included in the scope of the present invention.

撮影システムの概要を示すShow an overview of the shooting system デジタルカメラの構成を示すShows the configuration of the digital camera サーバからのデータ受信フローを示す。The data reception flow from the server is shown. 試合情報のデータ構成を示す。The data structure of game information is shown. 基本情報のデータ構成を示す。The data structure of basic information is shown. 進行情報のデータ構成を示す。The data structure of progress information is shown. 選手情報のデータ構成を示す。The data structure of player information is shown. 実施例1におけるデータベースを示す。The database in Example 1 is shown. 実施例1における撮影フローを示す。5 shows a shooting flow in the first embodiment. 実施例1におけるデータベースを示す。The database in Example 1 is shown. 実施例1おける撮影画像を示す。The picked-up image in Example 1 is shown. 実施例1における検出の様子を示す。The state of detection in Example 1 is shown. 実施例1におけるデータベースを示す。The database in Example 1 is shown. 実施例1における撮影画像を示す。The picked-up image in Example 1 is shown. 実施例1における検出の様子を示す。The state of detection in Example 1 is shown. 実施例2におけるデータベースを示す。The database in Example 2 is shown. 実施例2におけるデータベースを示す。The database in Example 2 is shown. 実施例2における撮影フローを示す。5 shows a shooting flow in the second embodiment. 実施例2における撮影画像を示す。The picked-up image in Example 2 is shown. 実施例2におけるデータベースを示す。The database in Example 2 is shown. 実施例2における撮影画像を示す。The picked-up image in Example 2 is shown. 実施例2におけるデータベースを示す。The database in Example 2 is shown.

Claims (5)

撮影レンズによって結像される被写体像を光電変換して撮影画像を得る撮像手段と、
通信回線を通じて外部装置と通信する通信手段と、
所定のタイミングで更新され、前記外部装置から定期的に送信される被写体に関する情報を受信する被写体情報受信手段と、
前記撮像手段により得られた撮影画像から、被写体の顔領域の特徴量及び文字領域の特徴量を抽出する抽出手段と、
前記被写体情報受信手段により受信された情報に、前記抽出手段により撮影画像から抽出された前記顔領域の特徴量の情報と前記文字領域の特徴量の情報とを関連付けて記憶媒体に記憶する記憶手段と、
前記被写体情報受信手段により受信された情報を前記撮影画像に付加する付加手段とを備え撮像装置。
Imaging means for photoelectrically converting a subject image formed by a photographing lens to obtain a photographed image;
A communication means for communicating with an external device through a communication line;
Subject information receiving means for receiving information on a subject that is updated at a predetermined timing and is periodically transmitted from the external device;
Extraction means for extracting the feature amount of the face area and the character area of the subject area from the captured image obtained by the imaging means;
Storage means for associating the information received by the subject information receiving means with the feature amount information of the face area extracted from the photographed image by the extraction means and the feature amount information of the character area in a storage medium When,
Imaging device Ru and a adding means for adding information received in the captured image by the object information reception unit.
前記撮像手段により得られた画像から被写体の情報を示す文字パターンを検出する文字情報検出手段をさらに備え、
前記抽出手段は、前記文字情報検出手段により検出された文字パターンから前記文字領域の特徴量を抽出することを特徴とする請求項1に記載の撮像装置。
Character information detecting means for detecting a character pattern indicating information on the subject from the image obtained by the imaging means;
The imaging apparatus according to claim 1, wherein the extraction unit extracts a feature amount of the character region from the character pattern detected by the character information detection unit.
前記文字情報検出手段により検出された文字パターンを、テキストデータに変換する変換手段をさらに備え、
前記抽出手段は、前記変換手段により変換されたテキストデータを前記文字領域の特徴量の情報とすることを特徴とする請求項に記載の撮像装置。
Further comprising conversion means for converting the character pattern detected by the character information detection means into text data;
The imaging apparatus according to claim 2 , wherein the extraction unit uses the text data converted by the conversion unit as information on a feature amount of the character region .
音声を受信する音声受信手段をさらに備え、
前記抽出手段は、前記音声受信手段により受信した音声から特徴量を抽出することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。
A voice receiving means for receiving voice;
The extracting means, the image pickup apparatus according to any one of claims 1 to 3, characterized in that extracts a feature quantity from the voice received by the voice receiving unit.
前記被写体情報受信手段により受信される情報は、テキストデータであることを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 Information received by the object information receiving means, the image pickup apparatus according to any one of claims 1 to 4, characterized in that the text data.
JP2005265517A 2005-09-13 2005-09-13 Imaging device Active JP4659569B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005265517A JP4659569B2 (en) 2005-09-13 2005-09-13 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005265517A JP4659569B2 (en) 2005-09-13 2005-09-13 Imaging device

Publications (3)

Publication Number Publication Date
JP2007081681A JP2007081681A (en) 2007-03-29
JP2007081681A5 JP2007081681A5 (en) 2008-10-30
JP4659569B2 true JP4659569B2 (en) 2011-03-30

Family

ID=37941535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005265517A Active JP4659569B2 (en) 2005-09-13 2005-09-13 Imaging device

Country Status (1)

Country Link
JP (1) JP4659569B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5023663B2 (en) 2006-11-07 2012-09-12 ソニー株式会社 Imaging apparatus and imaging method
JP4961984B2 (en) 2006-12-07 2012-06-27 ソニー株式会社 Image display system, display device, and display method
JP4367663B2 (en) 2007-04-10 2009-11-18 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2009017038A (en) * 2007-07-02 2009-01-22 Fujifilm Corp Digital camera
JP4506795B2 (en) 2007-08-06 2010-07-21 ソニー株式会社 Biological motion information display processing device, biological motion information processing system
JP4772839B2 (en) 2008-08-13 2011-09-14 株式会社エヌ・ティ・ティ・ドコモ Image identification method and imaging apparatus
WO2016104156A1 (en) * 2014-12-22 2016-06-30 キヤノンイメージングシステムズ株式会社 Image processing method
JP6430914B2 (en) * 2014-12-22 2018-11-28 キヤノンイメージングシステムズ株式会社 Image processing apparatus and image processing method
JP2016207167A (en) * 2015-04-28 2016-12-08 株式会社Jvcケンウッド Information processing system, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236913A (en) * 2001-02-07 2002-08-23 Nippon Hoso Kyokai <Nhk> Automatic person specifying device
JP2002247436A (en) * 2001-02-14 2002-08-30 Fuji Photo Film Co Ltd Digital camera
JP2004320287A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP2005222159A (en) * 2004-02-03 2005-08-18 Glory Ltd System, method and program for monitoring suspicious person

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236913A (en) * 2001-02-07 2002-08-23 Nippon Hoso Kyokai <Nhk> Automatic person specifying device
JP2002247436A (en) * 2001-02-14 2002-08-30 Fuji Photo Film Co Ltd Digital camera
JP2004320287A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP2005222159A (en) * 2004-02-03 2005-08-18 Glory Ltd System, method and program for monitoring suspicious person

Also Published As

Publication number Publication date
JP2007081681A (en) 2007-03-29

Similar Documents

Publication Publication Date Title
JP4659569B2 (en) Imaging device
US7831598B2 (en) Data recording and reproducing apparatus and method of generating metadata
US8289410B2 (en) Recording apparatus and method, playback apparatus and method, and program
TWI374668B (en)
JP5401420B2 (en) Imaging device
CN100581218C (en) Imaging apparatus, imaging method, image processing apparatus, and image processing method
US8462231B2 (en) Digital camera with real-time picture identification functionality
TW201251443A (en) Video summary including a feature of interest
US20100002940A1 (en) Image data processing apparatus and image data processing method
US20130100329A1 (en) Image pickup apparatus
CN101356805A (en) Image sensing device and its control method, and information processing device, printing device, printing data generating method
US20090125136A1 (en) Playback apparatus and playback method
US9973649B2 (en) Photographing apparatus, photographing system, photographing method, and recording medium recording photographing control program
JP4240867B2 (en) Electronic album editing device
WO2016208070A1 (en) Imaging device and image processing method
JP2010252008A (en) Imaging device, displaying device, reproducing device, imaging method and displaying method
WO2007142237A1 (en) Image reproduction system, digital camera, and image reproduction device
JP2009182544A (en) Video information processor
JP2007172197A (en) Image input device, image output device and image input/output system
JP4423318B2 (en) Image processing apparatus, imaging apparatus, control method for image processing apparatus, and control method for imaging apparatus
JP5550114B2 (en) Imaging device
JP4346695B2 (en) Recording apparatus and recording method
JP2008271239A (en) Camera, content creation method, and program
US20160253357A1 (en) Information terminal, image server, image search system, and image search method
JP4920295B2 (en) camera

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080916

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080916

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101227

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4659569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150