JP2007179389A - Photographing device - Google Patents

Photographing device Download PDF

Info

Publication number
JP2007179389A
JP2007179389A JP2005378487A JP2005378487A JP2007179389A JP 2007179389 A JP2007179389 A JP 2007179389A JP 2005378487 A JP2005378487 A JP 2005378487A JP 2005378487 A JP2005378487 A JP 2005378487A JP 2007179389 A JP2007179389 A JP 2007179389A
Authority
JP
Japan
Prior art keywords
image data
search
area
flower
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005378487A
Other languages
Japanese (ja)
Inventor
Kazuaki Aoto
和明 青砥
Muneki Hamashima
宗樹 浜島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2005378487A priority Critical patent/JP2007179389A/en
Publication of JP2007179389A publication Critical patent/JP2007179389A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain an accurate feature when extracting the feature of a subject based on an image data. <P>SOLUTION: This photographing device extracts the feature of the subject based on the image data assigned by an area assignment means for assigning an optional area of the image data in response to an operation, and outputs the feature as a retrieval key in subject information retrieval. A shape and a size of a frame for determining the area, and a position of the image data, for example, are made to be changeable in a method of assigning the area. Subjects within the area more than enough (affecting unfavorably the extraction of the feature) are removed by this manner. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、電子カメラやカメラ機能付き携帯電話機などの撮影装置、特に撮像した画像から被写体の特徴を抽出して被写体検索を行うものに関する。   The present invention relates to a photographing apparatus such as an electronic camera or a mobile phone with a camera function, and more particularly, to a subject search by extracting a feature of a subject from a captured image.

例えば花を撮像した際に、得られた画像データから画像認識によって花の特徴を抽出し、その特徴データに基づいて花データベースから花の名前などを検索し、検索結果を表示できるようにした電子カメラが提案されている(例えば、特許文献1参照)。このような検索機能をカメラに持たせることで、名前の知らない花を見つけたときに、その花を撮影するだけで手軽に花の名前等を知ることができる。   For example, when a flower is imaged, the feature of the flower is extracted from the obtained image data by image recognition, the name of the flower is searched from the flower database based on the feature data, and the search result can be displayed. A camera has been proposed (see, for example, Patent Document 1). By providing such a search function to the camera, when a flower whose name is unknown is found, it is possible to easily know the name of the flower simply by photographing the flower.

特開2002−247436号公報JP 2002-247436 A

画像データから被写体の特徴を抽出する際、正確な特徴データを抽出できるか否かは、その対象となる画像データの内容によって決まる。例えば花検索においては、目的の花の一部が欠けていたり、あるいは目的の花以外の花が画像中に含まれていると、目的の花の正確な特徴が抽出できず、正確な検索結果が得られない。しかし、実際の撮影では、目的の被写体以外を除外して撮影するのは難しいことが多い。   Whether or not accurate feature data can be extracted when extracting the features of the subject from the image data depends on the content of the target image data. For example, in flower search, if part of the target flower is missing, or if a flower other than the target flower is included in the image, the exact feature of the target flower cannot be extracted, and the accurate search result Cannot be obtained. However, in actual shooting, it is often difficult to shoot except for the target subject.

本発明に係る撮影装置は、被写体を撮像して画像データを生成する撮像手段と、操作に応じて画像データの任意の領域を指定する領域指定手段と、指定された領域の画像データに基づいて被写体の特徴を抽出し、特徴を被写体情報検索における検索キーとして出力する特徴抽出手段とを具備する。
領域指定手段が、上記領域の大きさを指定する手段、領域の形状を指定する手段、および領域の位置を指定する手段のいずれか、または全部を含んでいてもよい。
前記領域指定手段が、上記領域の形状を表す枠を選択する手段と、選択された枠の大きさおよび位置を画像データ上で指定する手段とを含み、枠で囲まれた領域の画像データに基づいて被写体の特徴を抽出するようにしてもよい。
領域指定手段が、被写体の形状に応じた複数の枠からいずれかを選択する手段を含み、画像データ上の選択された枠で囲まれた領域の画像データに基づいて被写体の特徴を抽出するようにしてもよい。
抽出された特徴に基づいてデータベースから被写体情報を検索する検索手段と、検索された被写体情報を報知する報知手段とを更に設けてもよい。
An imaging apparatus according to the present invention is based on an imaging unit that images a subject to generate image data, an area designation unit that designates an arbitrary area of image data according to an operation, and image data of the designated area. Feature extraction means for extracting features of the subject and outputting the features as a search key in the subject information search.
The area specifying means may include any or all of a means for specifying the size of the area, a means for specifying the shape of the area, and a means for specifying the position of the area.
The area designating means includes means for selecting a frame representing the shape of the area, and means for designating the size and position of the selected frame on the image data. The feature of the subject may be extracted on the basis of it.
The area specifying means includes means for selecting one of a plurality of frames according to the shape of the subject, and extracts the feature of the subject based on the image data of the area surrounded by the selected frame on the image data. It may be.
Search means for searching subject information from the database based on the extracted features, and notification means for notifying the searched subject information may be further provided.

本発明によれば、構図に気を配ることなく対象画像データ中の有害な被写体を除去することができ、正確な特徴抽出によって正確な検索結果が得られる。   According to the present invention, harmful subjects in target image data can be removed without paying attention to the composition, and accurate search results can be obtained by accurate feature extraction.

図1〜図14により本発明の一実施の形態を説明する。
図1は本実施形態における電子カメラ100を背面から見た概略図である。カメラ上面にはレリーズボタン1が設けられ、また背面には、画像表示が可能な液晶モニタ2と、撮影レンズ10(図2)のズームアップ/ダウンを行うためのズームアップ/ダウンボタン3U,3Dと、上下左右の4操作が可能な4方向ボタン4と、画像を再生するための再生ボタン5と、後述する情報検索を行うための検索ボタン6とが設けられている。4方向ボタン4は多機能ボタンであり、メニュー設定時の項目選択や、再生画像選択、その他の選択や表示移動に用いられる。また、特に4方向ボタン4の上下操作は、確認メッセージに対する返答(YesまたはNo)の入力としても用いられる。
An embodiment of the present invention will be described with reference to FIGS.
FIG. 1 is a schematic view of an electronic camera 100 according to this embodiment as viewed from the back. A release button 1 is provided on the upper surface of the camera, and a liquid crystal monitor 2 capable of displaying an image and zoom up / down buttons 3U and 3D for zooming up / down the photographing lens 10 (FIG. 2) on the back surface. A four-way button 4 capable of four operations, up, down, left and right, a reproduction button 5 for reproducing an image, and a search button 6 for performing an information search described later. The four-way button 4 is a multi-function button, and is used for item selection at the time of menu setting, reproduction image selection, other selections, and display movement. In particular, the up / down operation of the four-way button 4 is also used as an input of a reply (Yes or No) to the confirmation message.

図2は電子カメラ100の制御ブロック図である。電子カメラ100の全動作を制御するCPU11には、上述したレリーズボタン1の操作に連動するレリーズスイッチ1s、ズームアップ/ダウンボタン3U,3Dの操作にそれぞれ連動するズームアップ/ダウンスイッチ3Us,3Ds、4方向ボタン4の上下左右操作に連動する上下左右スイッチ4Us,4Ds,4Ls,4Rs、再生ボタン5の操作に連動する再生スイッチ5s、検索ボタン6の操作に連動する検索スイッチ6sが接続されている。CPU11は、これらのスイッチの状態を読み取って各ボタンの操作の有無を検知する。   FIG. 2 is a control block diagram of the electronic camera 100. The CPU 11 that controls all operations of the electronic camera 100 includes a release switch 1s that is linked to the operation of the release button 1 and zoom up / down switches 3Us and 3Ds that are linked to the operations of the zoom up / down buttons 3U and 3D, respectively. Connected are up / down / left / right switches 4Us, 4Ds, 4Ls, 4Rs linked to the up / down / left / right operation of the four-way button 4, a playback switch 5s linked to the operation of the playback button 5, and a search switch 6s linked to the operation of the search button 6. . The CPU 11 reads the state of these switches and detects whether or not each button is operated.

撮影レンズ10を透過した被写体光束は、CCDなどの撮像素子12によって撮像され、電気的な画像信号に変換される。撮像回路13は、この画像信号を処理して所定形式の画像データを生成し、CPU11は、画像データをコンピュータで扱うことが可能な画像ファイルとして大容量メモリ14に記録する。大容量メモリ14は、電子カメラ100に内蔵されたものでもよいし、挿脱可能なメモリカードでもよい。   The subject luminous flux that has passed through the photographing lens 10 is imaged by an image sensor 12 such as a CCD, and converted into an electrical image signal. The imaging circuit 13 processes this image signal to generate image data in a predetermined format, and the CPU 11 records the image data in the large-capacity memory 14 as an image file that can be handled by a computer. The large-capacity memory 14 may be built in the electronic camera 100 or a removable memory card.

またCPU11には、表示回路15を介して上記液晶モニタ2が接続される。液晶モニタ2には、所定時間おきに撮像される画像がファインダメモリ16を介して逐次更新表示され(スルー画表示)、撮影者はその画像を見ながら構図を決定することができる。また液晶モニタ2は、再生ボタン5の操作に応じて大容量メモリ14に記録されている画像データを表示したり、メニュー表示なども行える。   Further, the liquid crystal monitor 2 is connected to the CPU 11 via the display circuit 15. On the liquid crystal monitor 2, images taken every predetermined time are sequentially updated and displayed via the finder memory 16 (through image display), and the photographer can determine the composition while viewing the images. Further, the liquid crystal monitor 2 can display image data recorded in the large-capacity memory 14 in accordance with the operation of the playback button 5 and can display a menu.

さらにCPU11には、花の情報が登録された図鑑データベース17が接続されている。図鑑データベース17には、花の種類や名前、生息域などの生態情報と花のサンプル画像とが、花びらの色、形状、枚数などの特徴データに対応づけられて格納されている。   Furthermore, a picture book database 17 in which flower information is registered is connected to the CPU 11. In the pictorial book database 17, ecological information such as the type, name, and habitat of a flower and a sample image of the flower are stored in association with feature data such as the color, shape, and number of petals.

以下、図鑑データベース17を用いた花情報検索について詳述する。
花情報検索は、撮影した花の画像データから花の特徴を抽出し、抽出した特徴情報を検索キーとして、図鑑データベース17から花の名前等を検索して表示するものである。
Hereinafter, flower information search using the pictorial book database 17 will be described in detail.
In the flower information search, a feature of a flower is extracted from image data of a photographed flower, and the name of the flower is searched from the pictorial book database 17 and displayed using the extracted feature information as a search key.

花情報検索にあたり、操作者は再生ボタン5を操作して、目的の花(名前等の情報を知りたい花)を含む画像データを液晶モニタ2に再生表示させる。再生ボタン5が操作されると、CPU11は、大容量メモリ14に記録されている画像をファインダメモリ16に読み出し、表示回路15を介して液晶モニタ2に表示する。また液晶モニタ2には、例えば図1に破線で示すような検索枠Fが画像と重ね合わせて表示される。検索枠Fは、後に画像データを切り出す際の切り出し領域を決めるもので、目的の花はこの検索枠F内に納まっている必要がある。本実施形態では、この検索枠Fの形状、大きさ、位置が変更可能であるが、それについては後で詳述する。   When searching for flower information, the operator operates the playback button 5 to display and display image data including the target flower (a flower for which information such as a name is desired) on the liquid crystal monitor 2. When the playback button 5 is operated, the CPU 11 reads an image recorded in the large capacity memory 14 to the finder memory 16 and displays it on the liquid crystal monitor 2 via the display circuit 15. On the liquid crystal monitor 2, for example, a search frame F as indicated by a broken line in FIG. The search frame F determines a cut-out area when image data is cut out later, and the target flower needs to be stored in the search frame F. In the present embodiment, the shape, size, and position of the search frame F can be changed, which will be described in detail later.

画像データが再生された状態で検索ボタン6が操作されると、CPU11は、当該画像データから検索枠F内の領域を切り出し、その切り出した画像データを分析対象画像データとする。図3は図1の画像データから切り出した分析対象画像データを示している。この分析対象画像データに対し、CPU11は所定の画像認識プログラムを用いて分析を行い、花の特徴を抽出する。抽出すべき特徴は、花びらの色、形状、枚数などである。これらの特徴は、花情報検索における検索キーとして使用されるため、正確性を欠くと満足な検索結果が得られない。特徴を正確に抽出するには、分析対象画像データ中の花部分と非花部分とを明確に区別する必要がある。そのため画像認識プログラムは、分析対象画像データ中の例えば緑系統のもの、茶系統のもの、灰色系統のものは、それぞれ葉、土、石やブロック塀などの非花部分として認識する。   When the search button 6 is operated in a state where the image data is reproduced, the CPU 11 cuts out an area in the search frame F from the image data and sets the cut-out image data as analysis target image data. FIG. 3 shows analysis target image data cut out from the image data of FIG. The CPU 11 analyzes the analysis target image data using a predetermined image recognition program, and extracts flower features. Features to be extracted are the color, shape, number of petals, etc. Since these features are used as search keys in the flower information search, satisfactory search results cannot be obtained unless accuracy is lacked. In order to accurately extract the features, it is necessary to clearly distinguish the flower portion and the non-flower portion in the analysis target image data. For this reason, the image recognition program recognizes, for example, those of the green system, the tea system, and the gray system in the analysis target image data as non-flower parts such as leaves, soil, stones, and block corals.

ところで、上記のような画像分析は、分析対象画像データの画素数が多いほど時間がかかる。近年の電子カメラは高画素化が進み、例えば撮像した画像データが600万画素だとすると、分析対象画像データは100万画素にもなることがある。しかし、一般的な画像認識プログラムでは、花の特徴を抽出するのに100万画素も必要なく、このため切り出した分析対象画像データをそのまま用いると、分析時間が徒に長くなるだけである。   By the way, the image analysis as described above takes time as the number of pixels of the analysis target image data increases. In recent years, the number of pixels of an electronic camera has been increased. For example, if the captured image data is 6 million pixels, the analysis target image data may be 1 million pixels. However, a general image recognition program does not require 1 million pixels to extract the feature of a flower. Therefore, if the cut-out image data to be analyzed is used as it is, the analysis time only becomes long.

そこで本実施形態では、画素数変換回路18(図2)を用い、画像分析に先立って分析対象画像データの画素数を減らすようにした。例えば30万画素でも正確な分析結果が得られるのであれば、100万画素から30万画素に変換する。場合によっては10万画素でも可、あるいは60万画素はなければならないということもあり得る。何画素まで減らすか、あるいは画素数を何割減らすかは、撮像素子12の有効画素数、検索枠Fの大きさ、画像認識プログラムの仕様、CPU11の処理速度などに影響され、予め実験等を行って決めておくことが望ましい。理想的には、正確な分析結果が得られる最低限の画素数まで低減することが望ましい。   Therefore, in this embodiment, the pixel number conversion circuit 18 (FIG. 2) is used to reduce the number of pixels of the analysis target image data prior to image analysis. For example, if an accurate analysis result can be obtained even with 300,000 pixels, conversion from 1 million pixels to 300,000 pixels is performed. In some cases, 100,000 pixels are acceptable, or 600,000 pixels must be present. The number of pixels to be reduced or the number of pixels to be reduced depends on the number of effective pixels of the image sensor 12, the size of the search frame F, the specification of the image recognition program, the processing speed of the CPU 11, and the like. It is desirable to go and decide. Ideally, it is desirable to reduce to the minimum number of pixels that can provide an accurate analysis result.

また検索枠Fの大きさが可変の場合は、分析対象画像データの当初の画素数が一定とはならないから、その当初の画素数に応じて低減率を決めるようにしてもよい。例えば、分析対象画像データの当初の画素数がある程度以下の場合には、画素数を低減しないようにしてもよい。あるいは、検索枠Fの大きさに関わらず低減率を一定としてもよい。   In addition, when the size of the search frame F is variable, the initial number of pixels of the analysis target image data is not constant, and the reduction rate may be determined according to the initial number of pixels. For example, the number of pixels may not be reduced when the initial number of pixels of the analysis target image data is below a certain level. Alternatively, the reduction rate may be constant regardless of the size of the search frame F.

画素数変換自体は、公知の技術を用いて短時間で行うことができる。例えば所定の割合で画素を間引く方法や、隣接する複数の画素の色を平均して1画素とみなすなどの方法が考えられる。   The pixel number conversion itself can be performed in a short time using a known technique. For example, a method of thinning out pixels at a predetermined rate or a method of averaging the colors of a plurality of adjacent pixels as one pixel can be considered.

このように、画像分析に先立って分析対象画像データの画素数を減らすようにしたので、高画素の電子カメラであっても花の特徴を短時間で抽出でき、いち早く検索を終了することが可能となる。   In this way, the number of pixels in the image data to be analyzed is reduced prior to image analysis, so even with a high-pixel electronic camera, flower features can be extracted in a short time and the search can be completed quickly. It becomes.

花の特徴データ(花びらの色、形状、枚数など)が抽出されると、CPU11は、これらを検索キーとして図鑑データベース17内を検索し、条件に適った生態情報とサンプル画像を抽出する。なお、図鑑データベース17の形式によっては、上記特徴データに加えて他のデータを検索キーとして用いることができる。例えば、「花の咲く季節」を検索キーとして加える場合には、GPS受信機をカメラに設けて位置情報を取得し、その位置情報と撮影時の日付データとから花の咲く季節(春夏秋冬)を求めればよい。   When the feature data of the flower (color, shape, number of petals, etc.) of the flower is extracted, the CPU 11 searches the pictorial book database 17 using these as search keys, and extracts ecological information and sample images suitable for the conditions. Depending on the format of the pictorial book database 17, in addition to the feature data, other data can be used as a search key. For example, when adding “flower blooming season” as a search key, a GPS receiver is installed in the camera to acquire position information, and the flower blooming season (spring, summer, autumn, winter) from the position information and date data at the time of shooting. ).

検索が終了すると、CPU11は検索結果を液晶モニタ2に表示する。図4はその表示例を示し、これは図3の分析対象画像データから抽出した特徴に基づいて、1つの花の種類が特定できる例である。液晶モニタ2には、花の名前を第1候補から第5候補まで表示可能となっている。なお、名前以外の生態情報を合わせて表示してもよい。   When the search is completed, the CPU 11 displays the search result on the liquid crystal monitor 2. FIG. 4 shows a display example, which is an example in which one type of flower can be specified based on the features extracted from the analysis target image data of FIG. The liquid crystal monitor 2 can display flower names from the first candidate to the fifth candidate. Note that ecological information other than the name may be displayed together.

図3の例では、分析対象画像データ中に一つの花が含まれ、他は葉や土であるから、画像分析において花部分と非花部分とを正確に区別でき、正確な花の特徴を抽出できる。特徴データが正確であれば、図4のように検索によって候補を1つのみに絞り込むことができ、検索結果の信頼性は極めて高い。   In the example of FIG. 3, one flower is included in the analysis target image data, and the other is leaves and soil. Therefore, in the image analysis, a flower part and a non-flower part can be accurately distinguished, and an accurate flower feature can be obtained. Can be extracted. If the feature data is accurate, the candidate can be narrowed down to one by searching as shown in FIG. 4, and the reliability of the search result is extremely high.

一方、図5は図1と全く異なる形状の花の撮影例であり、図6は図5の画像データから切り出した分析対象画像データを示している。検索枠Fの形状、大きさ、位置は図1と同等である。画像認識プログラムは、分析対象画像データ中に花が1つのみ含まれていることを前提とし、また図5のような穂状の花の場合、1本の花茎に咲く複数の花の集まりをもって一つの花と認識する。しかし、この例では検索枠F内に2本の花茎、つまり同種の2つの花が含まれてしまっているため、2つの花を1つの花と認識してしまい、抽出される特徴データが実際の特徴とかけ離れたものとなるおそれがある。加えてこの例では、目的の花の一部が欠損しており、この点からも正確な特徴が抽出できないおそれがある。
なお、図6は同種の2つの花が含まれる例を示したが、異なる種類の2以上の花が含まれる場合、抽出される特徴データはより正確性を欠く。
On the other hand, FIG. 5 shows an example of photographing a flower having a shape completely different from that in FIG. 1, and FIG. 6 shows analysis target image data cut out from the image data in FIG. The shape, size, and position of the search frame F are the same as those in FIG. The image recognition program is based on the premise that only one flower is included in the image data to be analyzed, and in the case of a spike-shaped flower as shown in FIG. 5, a collection of a plurality of flowers blooming on one flower stem is used. Recognize two flowers. However, in this example, two flower stems, that is, two flowers of the same kind, are included in the search frame F, so that two flowers are recognized as one flower, and the extracted feature data is actually There is a risk that it will be far from the characteristics of. In addition, in this example, a part of the target flower is missing, and there is a possibility that an accurate feature cannot be extracted from this point.
FIG. 6 shows an example in which two flowers of the same type are included. However, when two or more flowers of different types are included, the extracted feature data is more inaccurate.

このように不正確な特徴データを検索キーとした場合、当然ながら検索結果の信頼性は低く、例えば図7のように複数の候補が表示されたり、あるいは図8のように「該当なし」と表示されることもある。いずれの場合も花の名前が特定できないため、再検索しなければならない。   When inaccurate feature data is used as a search key in this manner, the reliability of the search result is naturally low. For example, a plurality of candidates are displayed as shown in FIG. 7, or “not applicable” as shown in FIG. It may be displayed. In either case, the name of the flower cannot be identified, so it must be searched again.

特徴データを正確なものとするには、検索枠F内に目的の花を完全に納めると同時に、不要なもの(特徴抽出に悪影響を与えるもの:異なる種類の花など)が検索枠F内に入らないようにする必要がある。これは、例えば撮影時に構図を工夫すればある程度なし得ることかも知れないが、それでは撮影者の意図する構図とならないことが多い。花情報検索を行うための撮影であれば構図の良否は問題とならないが、作品として残す画像データで花検索を行いたい場合には、花情報検索のために構図を変えることはできない。また花が密集して咲いているときは、構図をいかように変えても不要な花を除外できない。   In order to make the feature data accurate, the desired flower is completely placed in the search frame F, and at the same time unnecessary ones (those that have a negative effect on feature extraction: different types of flowers, etc.) are found in the search frame F. It is necessary not to enter. This may be achieved to some extent if the composition is devised at the time of shooting, for example, but this often does not result in the composition intended by the photographer. The quality of the composition does not matter if it is taken for performing flower information retrieval. However, if it is desired to perform a flower retrieval with image data that remains as a work, the composition cannot be changed for the flower information retrieval. Also, when flowers are densely blooming, you can't exclude unwanted flowers no matter how you change the composition.

そこで本実施形態では、花の形状に合わせて検索枠Fの形状、大きさ、位置を変更できるようにした。図9は検索枠Fの選択画面の一例を示し、検索に先立ってこの画面が液晶モニタ2に表示される(表示タイミングは後述のフローにて説明する)。この例では、形状の異なる6種類のサンプル枠F1〜F6が選択候補として表示される。選択は4方向ボタン4を用いて行い、選択されているサンプル枠はハイライト表示される。選択の決定は、例えば不図示の決定ボタンの操作によってなされる。   Therefore, in this embodiment, the shape, size, and position of the search frame F can be changed according to the shape of the flower. FIG. 9 shows an example of a selection frame F selection screen, and this screen is displayed on the liquid crystal monitor 2 prior to the search (display timing will be described in a later-described flow). In this example, six types of sample frames F1 to F6 having different shapes are displayed as selection candidates. Selection is performed using the four-way button 4 and the selected sample frame is highlighted. The selection is determined by operating a determination button (not shown), for example.

例えばサンプル枠F1を選択すると、図1,図5に示すように円形の検索枠Fが画像に重ね合わせて表示される。図1のように、花の全体的な形状が円形あるいは正多角形に近い場合は、この円形の検索枠Fが適している。一方、図5のような穂状の花では、円形枠Fでは不要なものが入り易く、縦長の枠F3またはF6が適当である。また大輪の菊を横から撮影するような場合は、横長の枠F2またはF5が適当である。なお、選択可能なサンプル枠の種類は図9に限定されない。   For example, when the sample frame F1 is selected, a circular search frame F is displayed superimposed on the image as shown in FIGS. As shown in FIG. 1, when the overall shape of the flower is circular or close to a regular polygon, this circular search frame F is suitable. On the other hand, in the spike-shaped flower as shown in FIG. 5, unnecessary things are easily included in the circular frame F, and the vertically long frame F3 or F6 is appropriate. In addition, when taking a picture of a large chrysanthemum from the side, a horizontally long frame F2 or F5 is appropriate. Note that the types of selectable sample frames are not limited to those shown in FIG.

図10は穂状の花に対してサンプル枠F6を選択した例を示している。CPU11は、検索に先立ち、図示のように検索枠Fを花に合わせるよう促すメッセージを表示する。検索枠Fを花に合わせるには、検索枠Fの位置と大きさを変更する。本実施形態では、4方向ボタン4の上下左右操作に応じて検索枠Fの位置を画面内で上下左右に変更できる。またズームアップ/ダウンボタン3U,3Dの操作で、検索枠Fを拡大/縮小できる。拡大/縮小は、枠Fの縦横比を維持したまま面積のみを変えてもよいし、縦横比を自由に変更できるようにしてもよい。このように、検索枠Fの位置、および大きさを既存の4方向ボタン4およびズームアップ/ダウンボタン3U,3Dで変更できるようにしたので、専用の操作部材を設ける必要がなく、部品点数の低減が図れる。   FIG. 10 shows an example in which the sample frame F6 is selected for the spiked flower. Prior to the search, the CPU 11 displays a message for prompting the search frame F to match the flower as illustrated. To match the search frame F to the flower, the position and size of the search frame F are changed. In the present embodiment, the position of the search frame F can be changed up, down, left, and right in the screen in accordance with the up / down / left / right operation of the four-way button 4. The search frame F can be enlarged / reduced by operating the zoom up / down buttons 3U, 3D. For enlargement / reduction, only the area may be changed while maintaining the aspect ratio of the frame F, or the aspect ratio may be freely changed. In this way, the position and size of the search frame F can be changed with the existing four-way button 4 and zoom up / down buttons 3U, 3D, so there is no need to provide a dedicated operation member, and the number of parts can be reduced. Reduction can be achieved.

図11は上記の操作によって一つの花に検索枠Fを合わせた状態を、図12はその検索枠Fで切り出された分析対象画像データを示している。図12から分かるように、分析対象画像データには1つの花のみが含まれ、不要なものは含まれていないので、正確な花の特徴データを抽出でき、正確な検索結果を得ることができる。なお、矩形枠F6の角部に不要なものが入ってしまう場合は、楕円枠F3を選択すればよい。   FIG. 11 shows a state in which the search frame F is aligned with one flower by the above operation, and FIG. 12 shows analysis target image data cut out by the search frame F. As can be seen from FIG. 12, the analysis target image data includes only one flower and does not include unnecessary ones. Therefore, accurate flower feature data can be extracted and an accurate search result can be obtained. . In addition, if an unnecessary thing enters the corner of the rectangular frame F6, the elliptical frame F3 may be selected.

このように本実施形態では、花の形状に合わせて検索枠Fの形状、大きさ、位置を変更できるようにしたので、いかなる花であっても検索枠F内に納め、かつ不要なものを検索枠Fから除くことができ、正確な検索結果が得られる可能性を高めることができる。また、花情報検索の有無によって構図を変える必要もない。   As described above, in this embodiment, the shape, size, and position of the search frame F can be changed in accordance with the shape of the flower, so that any flower can be stored in the search frame F and unnecessary. It can be removed from the search frame F, and the possibility of obtaining an accurate search result can be increased. Further, it is not necessary to change the composition depending on whether or not the flower information is searched.

図13,図14は、上述の花情報検索をソフト的に実現するための処理手順の一例を示している。なお、本発明と関係のない処理は図示を省略してある。
カメラの電源が投入されると、CPU11によってこのプログラムが起動され、ステップS1〜S3のループでレリーズボタン1、再生ボタン5、検索ボタン6のいずれかの操作を待つ。この間、図示しない処理により液晶モニタ2に上述したスルー画表示が行われ、同時に検索枠Fも表示される。表示される検索枠Fの形状、大きさ、位置は、前回の選択設定に従う。撮影者は、花情報検索を前提とした撮影を行う場合には、検索枠F内に目的の花が入るように構図を決める。なお、検索枠Fの形状、大きさおよび位置は後で変更できるので、必ずしも目的の花を検索枠Fに入れなくてもよい。あるいは、スルー画表示においては検索枠Fを表示しなくてもよい。
13 and 14 show an example of a processing procedure for realizing the above-described flower information search in software. Note that illustrations of processes not related to the present invention are omitted.
When the camera is turned on, this program is activated by the CPU 11 and waits for any one of the release button 1, the playback button 5, and the search button 6 in a loop of steps S1 to S3. During this time, the above-described through image display is performed on the liquid crystal monitor 2 by a process (not shown), and the search frame F is also displayed. The shape, size, and position of the search frame F displayed are in accordance with the previous selection setting. The photographer decides the composition so that the target flower is in the search frame F when shooting based on the flower information search. Note that the shape, size, and position of the search frame F can be changed later, so the target flower does not necessarily have to be placed in the search frame F. Alternatively, the search frame F may not be displayed in the through image display.

レリーズボタン1の操作が検出されると、ステップS4で撮像を行って画像データを生成し、ステップS5で画像データを大容量メモリ14に記録する。再生ボタン5の操作が検出されると、ステップS6で大容量メモリ14に記録されている最新の画像データをファインダメモリ16に読み出し、液晶モニタ2に表示する。図示はしていないが、所定の操作により表示する画像データを変更することができる。   When the operation of the release button 1 is detected, imaging is performed in step S4 to generate image data, and the image data is recorded in the large capacity memory 14 in step S5. When the operation of the playback button 5 is detected, the latest image data recorded in the large-capacity memory 14 is read into the finder memory 16 and displayed on the liquid crystal monitor 2 in step S6. Although not shown, image data to be displayed can be changed by a predetermined operation.

検索ボタン6の操作が検出されると、ステップS7で現在画像データが表示されているか否かを判定する。再生ボタン5を操作してから検索ボタン6を操作した場合はステップS7が肯定され、ステップS8で検索処理を行う。   When the operation of the search button 6 is detected, it is determined in step S7 whether image data is currently displayed. If the search button 6 is operated after the playback button 5 is operated, step S7 is affirmed and the search process is performed in step S8.

ステップS8の検索処理の詳細を図14に示す。
ステップS101では、図9に例示したような枠選択画面を液晶モニタ2に表示し、ステップS102,S103のループで枠選択操作または決定操作を待つ。枠選択操作は、上述したように4方向ボタン4で所望の枠を選択する操作を指す。4方向ボタン4の操作が検知されるとステップS102が肯定され、ステップS104でその操作に応じた方向に選択枠(ハイライト表示される枠)を変更する。決定操作が検知されると、ハイライト表示されている枠の選択を決定し、ステップS105に進む。
Details of the search processing in step S8 are shown in FIG.
In step S101, a frame selection screen as illustrated in FIG. 9 is displayed on the liquid crystal monitor 2, and a frame selection operation or a determination operation is waited in a loop of steps S102 and S103. The frame selection operation refers to an operation of selecting a desired frame with the four-way button 4 as described above. When the operation of the four-direction button 4 is detected, step S102 is affirmed, and the selection frame (frame to be highlighted) is changed in the direction corresponding to the operation in step S104. When the determination operation is detected, the selection of the highlighted frame is determined, and the process proceeds to step S105.

ステップS105では、検索ボタン6を押したときの画像データを再び表示するとともに、選択決定された検索枠Fを画像データに重ね合わせて表示し、さらに検索枠Fを花に合わせることを促すメッセージを表示する(例えば、図10)。次いで、ステップS106,S107のループを回り、検索枠Fの大きさ(枠サイズ)および位置を変更するための操作か、決定操作がなされるのを待つ。上述したように、枠サイズの変更はズームアップ/ダウンボタン3U,3Dの操作で、位置の変更は4方向ボタン4の操作で行われる。これらの操作が検知されると、ステップS108でその操作に応じて枠サイズまたは位置を変更する。決定操作がなされると、枠サイズおよび位置を確定してステップS109に進む。   In step S105, the image data when the search button 6 is pressed is displayed again, the search frame F selected and determined is displayed superimposed on the image data, and a message prompting the user to match the search frame F to a flower is displayed. Display (for example, FIG. 10). Next, a loop of steps S106 and S107 is performed, and an operation for changing the size (frame size) and position of the search frame F or a determination operation is awaited. As described above, the frame size is changed by operating the zoom up / down buttons 3U and 3D, and the position is changed by operating the four-way button 4. When these operations are detected, the frame size or position is changed in accordance with the operations in step S108. When the determination operation is performed, the frame size and position are determined and the process proceeds to step S109.

ステップS109では、表示されている画像データ中の検索枠Fで囲まれた領域を、分析対象画像データとして切り出す。ステップS110では、画素数変換回路18に指示を出し、切り出した分析対象画像データの画素数を減らす処理を行う。その内容は上述したとおりである。ステップS111では、画素数低減後の分析対象画像データを分析して花の特徴を抽出する。ステップS112では、抽出した特徴データを検索キーとして図鑑データベース17を検索する。ステップS113では、検索結果を表示するとともに、再検索を行うか否かの確認メッセージを表示する(例えば、図4,図7,図8参照)。   In step S109, the region surrounded by the search frame F in the displayed image data is cut out as analysis target image data. In step S110, an instruction is given to the pixel number conversion circuit 18, and processing for reducing the number of pixels in the cut-out analysis target image data is performed. The contents are as described above. In step S111, the analysis target image data after the reduction in the number of pixels is analyzed to extract the feature of the flower. In step S112, the pictorial book database 17 is searched using the extracted feature data as a search key. In step S113, the search result is displayed and a confirmation message as to whether or not to perform a re-search is displayed (see, for example, FIGS. 4, 7, and 8).

次いでステップS114,S115のループを回り、再検索メッセージに対する操作者の返答を待つ。Yes操作(4方向ボタン4の上操作)が検知されると、ステップS101に戻り、No操作(4方向ボタン4の下操作)が検知されると、図13の処理にリターンする。   Next, a loop of steps S114 and S115 is performed, and an operator response to the re-search message is waited for. If a Yes operation (upper operation of the four-way button 4) is detected, the process returns to step S101. If a No operation (lower operation of the four-way button 4) is detected, the process returns to the process of FIG.

なお以上では、検索枠Fの形状、大きさ、位置を全て可変としたが、少なくともいずれか1つのみを可変としてもよい。例えば、形状および位置を固定として大きさのみを変えられるようにしたり、位置のみを変えられるようにしてもよい。   In the above, the shape, size, and position of the search frame F are all variable, but at least one of them may be variable. For example, the shape and position may be fixed and only the size may be changed, or only the position may be changed.

また以上では、撮影後に再生ボタン5および検索ボタン6を押すことで花情報検索が開始される例を示したが、例えば予め検索モードを設定した状態でレリーズボタン1を操作すると、撮影後にその撮影画像データを用いて自動的に花情報検索が開始されるようにしてもよい。あるいは、検索ボタン6を押しながらレリーズボタン1を操作することで、同様に撮影および検索が順に行われるようにしてもよい。   In the above example, the flower information search is started by pressing the play button 5 and the search button 6 after shooting. For example, when the release button 1 is operated in a state where the search mode is set in advance, the shooting is performed after shooting. The flower information search may be automatically started using the image data. Alternatively, by operating the release button 1 while pressing the search button 6, the shooting and searching may be performed in the same manner.

また、図鑑データベース17および検索機能は必ずしもカメラに設けなくてもよい。例えば、図鑑データベース17および検索エンジンをネットワーク上の検索サーバに置き、電子カメラが検索キーを検索サーバに送信すると、検索エンジンが検索を行って結果をカメラに送り返すようなシステムが考えられる。   The pictorial book database 17 and the search function are not necessarily provided in the camera. For example, a system may be considered in which the picture book database 17 and the search engine are placed on a search server on the network, and when the electronic camera transmits a search key to the search server, the search engine searches and sends the result back to the camera.

情報検索の対象は花に限定されず、例えば昆虫や鳥類などの情報検索にも本発明を同様に適用できる。また本発明は、電子カメラ機能を持つあらゆる機器(例えば、カメラ機能付き携帯電話機など)に適用可能である。   The object of information retrieval is not limited to flowers, and the present invention can be similarly applied to information retrieval such as insects and birds. The present invention is applicable to any device having an electronic camera function (for example, a mobile phone with a camera function).

本発明の一実施形態に係る電子カメラを背面から見た図。The figure which looked at the electronic camera which concerns on one Embodiment of this invention from the back. 電子カメラの制御系を示すブロック図。The block diagram which shows the control system of an electronic camera. 撮像された画像データから切り出した分析画像データの一例を示す図。The figure which shows an example of the analysis image data cut out from the imaged image data. 花情報検索における検索結果を示す図で、1つのみの候補が表示された例を示す。It is a figure which shows the search result in flower information search, and shows the example by which only one candidate was displayed. 撮像された画像データを示す図。The figure which shows the imaged image data. 図5の画像データから切り出した分析対象画像データを示す図。The figure which shows the analysis object image data cut out from the image data of FIG. 花情報検索における検索結果を示す図で、複数の候補が表示された例を示す。It is a figure which shows the search result in flower information search, and shows the example by which the several candidate was displayed. 花情報検索における検索結果を示す図で、該当するデータが見つからない場合の表示例を示す。It is a figure which shows the search result in flower information search, and shows the example of a display when applicable data are not found. 検索枠選択画面の一例を示す図。The figure which shows an example of a search frame selection screen. 検索枠を花に合わせるよう促す画面の一例を示す図。The figure which shows an example of the screen prompting to match a search frame with a flower. 検索枠を花に合わせたときの画面の一例を示す図。The figure which shows an example of a screen when a search frame is match | combined with the flower. 図11の画像データから切り出した分析対象画像データ(枠で囲まれた領域)を示す図。The figure which shows the analysis object image data (area | region enclosed with the frame) cut out from the image data of FIG. 花情報検索を含む電子カメラの動作を説明するフローチャート。The flowchart explaining operation | movement of the electronic camera containing a flower information search. 図13の情報検索処理の詳細を示すフローチャート。14 is a flowchart showing details of the information search process in FIG. 13.

符号の説明Explanation of symbols

6 検索ボタン
11 CPU
12 撮像素子
17 図鑑データベース
18 画素数変換回路
F 検索枠
F1〜F6 サンプル枠
6 Search button 11 CPU
12 Image sensor 17 Picture book database 18 Pixel number conversion circuit F Search frame F1 to F6 Sample frame

Claims (7)

被写体を撮像して画像データを生成する撮像手段と、
操作に応じて前記画像データの任意の領域を指定する領域指定手段と、
前記指定された領域の画像データに基づいて被写体の特徴を抽出し、該特徴を被写体情報検索における検索キーとして出力する特徴抽出手段とを具備することを特徴とする撮影装置。
Imaging means for imaging a subject and generating image data;
An area designating unit for designating an arbitrary area of the image data according to an operation;
An imaging apparatus comprising: feature extraction means for extracting a feature of a subject based on image data of the designated area and outputting the feature as a search key in subject information search.
前記領域指定手段は、前記領域の大きさを指定する手段を含むことを特徴とする請求項1に記載の撮影装置。   The imaging apparatus according to claim 1, wherein the area specifying unit includes a unit that specifies a size of the area. 前記領域指定手段は、前記領域の形状を指定する手段を含むことを特徴とする請求項1または2に記載の撮影装置。   The imaging apparatus according to claim 1, wherein the area specifying unit includes a unit that specifies a shape of the area. 前記領域指定手段は、前記領域の位置を指定する手段を含むことを特徴とする請求項1〜3のいずれか1項に記載の撮影装置。   The imaging apparatus according to claim 1, wherein the area specifying unit includes a unit that specifies a position of the area. 前記領域指定手段は、前記領域の形状を表す枠を選択する手段と、前記選択された枠の大きさおよび位置を前記画像データ上で指定する手段とを含み、前記特徴抽出手段は、前記枠で囲まれた領域の画像データに基づいて被写体の特徴を抽出することを特徴とする請求項1に記載の撮影装置。   The area specifying means includes means for selecting a frame representing the shape of the area, and means for specifying the size and position of the selected frame on the image data. The feature extracting means includes the frame The photographing apparatus according to claim 1, wherein the feature of the subject is extracted based on the image data of the area surrounded by. 前記領域指定手段は、被写体の形状に応じた複数の枠からいずれかを選択する手段を含み、前記特徴抽出手段は、前記画像データ上の前記選択された枠で囲まれた領域の画像データに基づいて被写体の特徴を抽出することを特徴とする請求項1に記載の撮影装置。   The area specifying means includes means for selecting any one of a plurality of frames according to the shape of the subject, and the feature extracting means adds image data in an area surrounded by the selected frame on the image data. The photographing apparatus according to claim 1, wherein a feature of the subject is extracted based on the subject. 前記抽出された特徴に基づいてデータベースから前記被写体情報を検索する検索手段と、前記検索された被写体情報を報知する報知手段とを更に備えることを特徴とする請求項1〜6のいずれか1項に記載の撮影装置。   7. The apparatus according to claim 1, further comprising: search means for searching the subject information from a database based on the extracted features; and notification means for notifying the searched subject information. The imaging device described in 1.
JP2005378487A 2005-12-28 2005-12-28 Photographing device Pending JP2007179389A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005378487A JP2007179389A (en) 2005-12-28 2005-12-28 Photographing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005378487A JP2007179389A (en) 2005-12-28 2005-12-28 Photographing device

Publications (1)

Publication Number Publication Date
JP2007179389A true JP2007179389A (en) 2007-07-12

Family

ID=38304496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005378487A Pending JP2007179389A (en) 2005-12-28 2005-12-28 Photographing device

Country Status (1)

Country Link
JP (1) JP2007179389A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011022203A (en) * 2009-07-13 2011-02-03 Fujifilm Corp Af frame automatic follow-up system and method for automatically following up af frame
CN102014250A (en) * 2009-09-04 2011-04-13 奥林巴斯映像株式会社 Image control apparatus and image control method
WO2012107956A1 (en) * 2011-02-09 2012-08-16 上野精機株式会社 Electronic component transfer apparatus and taping unit
JP2013047867A (en) * 2011-08-29 2013-03-07 Nintendo Co Ltd Information processor, information processing program, information processing method, and information processing system
CN103548781A (en) * 2013-10-22 2014-02-05 广西壮族自治区蚕业技术推广总站 Survey method for 24h setae dispersion rate of newly hatched silkworm during artificial feed cultivation of silkworm

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011022203A (en) * 2009-07-13 2011-02-03 Fujifilm Corp Af frame automatic follow-up system and method for automatically following up af frame
CN102014250A (en) * 2009-09-04 2011-04-13 奥林巴斯映像株式会社 Image control apparatus and image control method
WO2012107956A1 (en) * 2011-02-09 2012-08-16 上野精機株式会社 Electronic component transfer apparatus and taping unit
CN103339031A (en) * 2011-02-09 2013-10-02 上野精机株式会社 Electronic component transfer apparatus and taping unit
JP5674060B2 (en) * 2011-02-09 2015-02-25 上野精機株式会社 Electronic component transfer device and taping unit
JP2013047867A (en) * 2011-08-29 2013-03-07 Nintendo Co Ltd Information processor, information processing program, information processing method, and information processing system
CN103548781A (en) * 2013-10-22 2014-02-05 广西壮族自治区蚕业技术推广总站 Survey method for 24h setae dispersion rate of newly hatched silkworm during artificial feed cultivation of silkworm

Similar Documents

Publication Publication Date Title
TWI390463B (en) A map information display device, a map information display method, and a computer readable recording medium
WO2015159775A1 (en) Image processing apparatus, communication system, communication method, and image-capturing device
JP4901258B2 (en) Camera and data display method
JP2007179389A (en) Photographing device
JP5124994B2 (en) Image reproduction system, digital camera, and image reproduction apparatus
JP2008015599A (en) Electronic device and search assistace program
JP2005323015A (en) Digital camera
JP2007181020A (en) Photographing apparatus
JP2012253421A (en) Image display device, imaging apparatus, and image display program
JP2008021324A (en) Image processor and program
JP2008078836A (en) Camera, blog search system, and program
JP4054167B2 (en) Imaging device
JP2013012933A (en) Photographic memo creation device
JP5428243B2 (en) Image processing apparatus, electronic camera, and image distribution program
JP2009118040A (en) Image retrieving device, and image retrieving method
WO2012096106A1 (en) Electronic camera
JP5368614B2 (en) Image search apparatus and image search method
JP2007174274A (en) Electronic camera
JP4941020B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL PROGRAM
JP4842232B2 (en) Imaging apparatus and image reproduction apparatus
JP2007288409A (en) Imaging apparatus with image data classifying function and program
JP2014022921A (en) Electronic apparatus and program
JP4403308B2 (en) Image data management apparatus and image data management system
JP4742927B2 (en) Electronic camera
JP2013211782A (en) Image processor and image processing program