JP4928350B2 - Shooting system - Google Patents

Shooting system Download PDF

Info

Publication number
JP4928350B2
JP4928350B2 JP2007131862A JP2007131862A JP4928350B2 JP 4928350 B2 JP4928350 B2 JP 4928350B2 JP 2007131862 A JP2007131862 A JP 2007131862A JP 2007131862 A JP2007131862 A JP 2007131862A JP 4928350 B2 JP4928350 B2 JP 4928350B2
Authority
JP
Japan
Prior art keywords
image
unit
model
keyword
model image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007131862A
Other languages
Japanese (ja)
Other versions
JP2008288881A (en
JP2008288881A5 (en
Inventor
真也 川▲崎▼
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2007131862A priority Critical patent/JP4928350B2/en
Publication of JP2008288881A publication Critical patent/JP2008288881A/en
Publication of JP2008288881A5 publication Critical patent/JP2008288881A5/ja
Application granted granted Critical
Publication of JP4928350B2 publication Critical patent/JP4928350B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮影システムに関する。 The present invention relates to imaging systems.

これまで、観光地等で写真撮影をする場合、誰かに案内してもらったり、写真教室に参加したり、詳細なガイドブックでもない限り、ベストな撮影スポットから、理想的な構図で撮影することは困難であった。   Until now, when taking a photo at a sightseeing spot etc., unless you are guided by someone, participate in a photography class, or are not a detailed guidebook, take a picture with the ideal composition from the best shooting spot Was difficult.

一方、近年、携帯電話やインターネットなどのネットワークが普及してきており、それを介して写真やコンテンツを簡単に送受信できる環境が整いつつある。このようなIT環境を有効利用して、以下のような提案がなされている。   On the other hand, in recent years, networks such as mobile phones and the Internet have become widespread, and an environment in which pictures and contents can be easily transmitted and received through the networks has been established. The following proposals have been made using such an IT environment effectively.

例えば、特許文献1は、現在地から撮影可能な撮影対象を特定し、それを撮影するための好適な撮影ポイントを簡易に呈示する撮影支援方法を提案している。   For example, Patent Document 1 proposes a shooting support method for specifying a shooting target that can be shot from the current location and simply presenting a suitable shooting point for shooting the shooting target.

特許文献2は、その場所に相応しい撮影条件(撮影位置、撮影時刻、露出、絞り、等)をダウンロードできるようにする写真撮影情報提供システムを提案している。   Patent Document 2 proposes a photographic information providing system that enables downloading of photographic conditions (photographing position, photographing time, exposure, aperture, etc.) appropriate for the place.

特許文献3は、車両等の事故又は故障時に、救援サービスを提供可能なサービス拠点に対して、現場の状況を撮影した画像を送信し、現場の状況を的確に判断できるようにする救援サービス提供システムを提案している。   Patent Document 3 provides a rescue service that allows an image of the situation of the scene to be transmitted to a service base that can provide a relief service in the event of an accident or failure of a vehicle, etc., so that the situation of the scene can be accurately determined A system is proposed.

特許文献4は、写真プリントを受け取りやすい店に画像を送ることで、利用者が移動する場合であっても写真プリントを受け取れるようにする写真配送システムを提案している。
特開2005−45398号公報 特開2006−135515号公報 特開2005−56244号公報 特開2003−131846号公報
Patent Document 4 proposes a photo delivery system in which an image is sent to a store where it is easy to receive a photo print so that the user can receive the photo print even when the user moves.
JP-A-2005-45398 JP 2006-135515 A JP 2005-56244 A JP 2003-131844 A

しかしながら、上記特許文献1乃至4によれば、撮影対象の特定が困難であり、それがどこから撮られたかが明快ではなった。   However, according to Patent Documents 1 to 4, it is difficult to specify a subject to be photographed, and it is not clear from where the photograph was taken.

一般に、ユーザの記憶の中の観光地や名所旧跡は、ガイドブックやテレビやインターネット上のコンテンツによって、先入観を植え付けられており、その典型的な写真がどの場所で撮影されたのかが分からないと、ユーザが満足のいく写真撮影が出来ない。   In general, tourist spots and historic sites in the user's memory are pre-populated with guidebooks, TV and Internet content, and it is impossible to know where the typical photos were taken. , Users can't take satisfactory photos.

本発明は、上記の点に鑑みてなされたもので、観光地等に行ったユーザが満足のいく写真撮影を行える撮影システムを提供することを目的とする。 The present invention has been made in view of the above points, and an object of the present invention is to provide a photographing system that allows a user who has visited a sightseeing spot or the like to perform satisfactory photographing.

本発明の撮影システムの一態様は、
被写体を撮影する撮影部と、
上記撮影部で撮影された撮影画像の撮影位置の情報を取得する撮影画像位置取得部と、
予め複数の手本画像を記憶しておく手本画像記憶部と、
上記手本画像記憶部に記憶されている手本画像の中から、上記撮影部で撮影された撮影画像に関連し、上記撮影画像位置取得部で取得した上記撮影画像の撮影位置から所定範囲内の撮影位置情報を有する所定の手本画像を選択する手本画像選択部であって、
上記手本画像記憶部に記憶されている手本画像の中から上記撮影画像と類似する手本画像を検索する手本画像検索部と、
上記手本画像検索部で検索された手本画像に付与された画像キーワードを抽出する画像キーワード抽出部と、
上記画像キーワード抽出部で抽出された画像キーワードをリスト化する画像キーワードリスト生成部と、
上記画像キーワードリスト生成部で生成された画像キーワードリストの中から任意の画像キーワードを選択する画像キーワード選択部と、
を含み、上記所定の手本画像を選択するときには、上記画像キーワード選択部で選択された画像キーワードが付与されている手本画像を選択する手本画像選択部と、
上記手本画像選択部で選択された上記手本画像の撮影位置を取得する手本画像位置取得部と、
上記手本画像選択部で選択された手本画像及び上記手本画像位置取得部で取得された撮影位置を表示する表示部と、
を具備する撮影システムであり、
上記撮影システムは、
上記撮影部と上記表示部とを含む撮影装置と、
上記手本画像記憶部と上記手本画像選択部と上記手本画像位置取得部とを含むサーバ装置と、
を含み、
上記撮影装置と上記サーバ装置とは相互に通信可能であることを特徴とする。
One aspect of the imaging system of the present invention is:
A shooting section for shooting the subject;
A captured image position acquisition unit that acquires information of a shooting position of a captured image captured by the imaging unit;
A model image storage unit for storing a plurality of model images in advance;
The sample image stored in the sample image storage unit is related to the shot image shot by the shooting unit and is within a predetermined range from the shooting position of the shot image acquired by the shot image position acquisition unit. A model image selection unit that selects a predetermined model image having shooting position information of
A model image search unit for searching a model image similar to the photographed image from the model images stored in the model image storage unit;
An image keyword extraction unit that extracts an image keyword assigned to the model image searched by the model image search unit;
An image keyword list generation unit that lists the image keywords extracted by the image keyword extraction unit;
An image keyword selection unit for selecting an arbitrary image keyword from the image keyword list generated by the image keyword list generation unit;
A model image selection unit that selects a model image to which the image keyword selected by the image keyword selection unit is assigned, and when selecting the predetermined model image ,
A model image position acquisition unit for acquiring a shooting position of the model image selected by the model image selection unit;
A display unit for displaying the model image selected by the model image selection unit and the photographing position acquired by the model image position acquisition unit;
A photographing system comprising :
The above shooting system
An imaging device including the imaging unit and the display unit;
A server device including the model image storage unit, the model image selection unit, and the model image position acquisition unit;
Including
The imaging device and the server device can communicate with each other .

本発明によれば、観光地等に行ったユーザが、ガイドブックやポスター、テレビなどで見たシーンを撮影したい場合に、何処からどのような構図で撮影すれば良いかをガイドすることで、ユーザが満足のいく写真撮影を行える撮影システムを提供することができる。 According to the present invention, when a user who went to a sightseeing spot wants to shoot a scene seen on a guidebook, a poster, a TV, etc., by guiding where and what composition should be taken, It is possible to provide a photographing system that allows a user to take a satisfactory photograph.

以下、本発明を実施するための最良の形態を図面を参照して説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

[第1実施形態]
図1(A)は、本発明の第1実施形態に係る撮影システムの構成を示す図である。
[First Embodiment]
FIG. 1A is a diagram illustrating a configuration of an imaging system according to the first embodiment of the present invention.

本実施形態に係る撮影システムは、撮影装置としてのカメラ1と、該カメラ1と相互に通信可能なサーバ装置としてのウェブサーバ2とを含む。カメラ1とウェブサーバ2とが通信するための一例として、カメラ1はアクセスポイント3経由でインターネットを含むネットワーク4に無線接続され、ネットワーク4を経由してウェブサーバ2にアクセスする。なお、本実施形態では、ウェブサーバ2に接続するための初期設定は、予めカメラ1に登録されているものとする。
The photographing system according to the present embodiment includes a camera 1 as a photographing device and a web server 2 as a server device that can communicate with the camera 1. As an example for communication between the camera 1 and the web server 2, the camera 1 is wirelessly connected to the network 4 including the Internet via the access point 3, and accesses the web server 2 via the network 4. In the present embodiment, it is assumed that initial settings for connecting to the web server 2 are registered in the camera 1 in advance.

カメラ1からアクセスポイント3に画像が送信されると、その画像はネットワーク4を経由して目的のウェブサーバ2で受信される。ウェブサーバ2は、その受信した画像を解析して、所定の処理を行い、カメラ1にデータを送信する。   When an image is transmitted from the camera 1 to the access point 3, the image is received by the target web server 2 via the network 4. The web server 2 analyzes the received image, performs predetermined processing, and transmits data to the camera 1.

図1(B)は、上記カメラ1及びウェブサーバ2のそれぞれの構成を示す図である。   FIG. 1B is a diagram showing the configurations of the camera 1 and the web server 2.

カメラ1は、撮像部101、撮像制御部102、入力部103、ROM104、RAM105、記憶部106、記憶制御部107、表示部108、表示制御部109、MIC110、音声制御部111、通信部112、通信制御部113、位置情報取得部114、CPU115、及びSP116から構成される。   The camera 1 includes an imaging unit 101, an imaging control unit 102, an input unit 103, a ROM 104, a RAM 105, a storage unit 106, a storage control unit 107, a display unit 108, a display control unit 109, an MIC 110, an audio control unit 111, a communication unit 112, The communication control unit 113, the position information acquisition unit 114, the CPU 115, and the SP 116 are included.

ここで、撮像部101は、特に図示はしていないが、レンズと、該レンズによって集光した光を電気信号に変換するCCD等の撮像素子と、その周辺回路とで構成される。撮像制御部102は、この撮像部101を制御する。入力部103は、操作者がカメラ1に操作指示を与えるスイッチ等である。ROM104は、各種制御プログラムを格納し、RAM105は、プログラム実行のためにデータを一時的に保持する。記憶部106は、上記撮像部101で撮影した画像データを記憶するものであり、該カメラ1に固定された記憶媒体及び/又は該カメラ1に対して着脱自在な記憶媒体を含む。記憶制御部107は、画像データの記憶部106からの読み出し及び記憶部106への書き込みを制御する。   Here, although not particularly illustrated, the imaging unit 101 includes a lens, an imaging element such as a CCD that converts light collected by the lens into an electrical signal, and a peripheral circuit thereof. The imaging control unit 102 controls the imaging unit 101. The input unit 103 is a switch or the like that gives an operation instruction to the camera 1 by the operator. The ROM 104 stores various control programs, and the RAM 105 temporarily holds data for program execution. The storage unit 106 stores image data captured by the imaging unit 101, and includes a storage medium fixed to the camera 1 and / or a storage medium detachable from the camera 1. The storage control unit 107 controls reading of image data from the storage unit 106 and writing to the storage unit 106.

表示部108は、撮影画像や各種情報を表示するLCD等を含み、表示制御部109は、該表示部108の表示項目及び表示サイズ等を制御する。MIC110は、音声を電気信号に変換して音声制御部111へ出力する。SP116は音声制御部111から入力された電気信号を音声に変換して出力する。そして、音声制御部111は、これらMIC110およびSP116の制御を行う。通信部112は、外部機器とのデータ送受信を有線または無線通信で行うもので、通信制御部113は、該通信部112による通信データのやりとりを制御する。位置情報取得部114は、位置情報を取得するGPS受信機等である。CPU115は、該カメラ1の各制御部及びROM104やRAM105を制御する。なお、このCPU115は、撮像制御部102及び入力部103とは直接接続され、ROM104、RAM105、記憶制御部107、表示制御部109、音声制御部111、通信制御部113、及び位置情報取得部114とは、バス117を介して接続されている。   The display unit 108 includes an LCD or the like that displays captured images and various information, and the display control unit 109 controls display items, display size, and the like of the display unit 108. The MIC 110 converts the sound into an electric signal and outputs it to the sound control unit 111. The SP 116 converts the electrical signal input from the sound control unit 111 into sound and outputs the sound. The voice control unit 111 controls the MIC 110 and the SP 116. The communication unit 112 performs data transmission / reception with an external device by wired or wireless communication, and the communication control unit 113 controls exchange of communication data by the communication unit 112. The position information acquisition unit 114 is a GPS receiver or the like that acquires position information. The CPU 115 controls each control unit of the camera 1 and the ROM 104 and RAM 105. The CPU 115 is directly connected to the imaging control unit 102 and the input unit 103, and includes a ROM 104, a RAM 105, a storage control unit 107, a display control unit 109, an audio control unit 111, a communication control unit 113, and a position information acquisition unit 114. Are connected via a bus 117.

ウェブサーバ2は、ROM201、RAM202、記憶部203、記憶制御部204、通信部205、通信制御部206、画像処理部207、及び制御部208から構成される。ここで、ROM201は、プログラムを格納し、RAM202は、そのプログラムの実行に必要なデータを一時的に保持する。記憶部203は、手本画像データと画像キーワードとを関連付けたデータベースなどを記憶し、記憶制御部204は、記憶部203にデータを読み書きする制御を行う。通信部205は、外部機器とのデータ送受信を有線または無線通信で行うものであり、通信制御部206は、該通信部205での通信データのやりとりを制御する。画像処理部207は、画像処理を行うものである。制御部208は、該ウェブサーバ2の各種制御部を制御するもので、CPU等で構成される。なお、この制御部208は、ROM201、RAM202、記憶制御部204、通信制御部206、及び画像処理部207とバス209を介して接続されている。   The web server 2 includes a ROM 201, a RAM 202, a storage unit 203, a storage control unit 204, a communication unit 205, a communication control unit 206, an image processing unit 207, and a control unit 208. Here, the ROM 201 stores a program, and the RAM 202 temporarily holds data necessary for executing the program. The storage unit 203 stores a database in which model image data and image keywords are associated with each other, and the storage control unit 204 performs control to read / write data from / to the storage unit 203. The communication unit 205 performs data transmission / reception with an external device by wired or wireless communication, and the communication control unit 206 controls communication data exchange in the communication unit 205. The image processing unit 207 performs image processing. The control unit 208 controls various control units of the web server 2 and includes a CPU or the like. The control unit 208 is connected to the ROM 201, the RAM 202, the storage control unit 204, the communication control unit 206, and the image processing unit 207 via the bus 209.

上記画像処理部207は、特徴点検出部207A、特徴点比較部207B、画像キーワード抽出部207C、画像キーワードリスト生成部207D、画像検索部207E、及び圧縮伸張部207Fを含む。   The image processing unit 207 includes a feature point detection unit 207A, a feature point comparison unit 207B, an image keyword extraction unit 207C, an image keyword list generation unit 207D, an image search unit 207E, and a compression / decompression unit 207F.

特徴点検出部207Aは、画像データから特徴点を検出する機能を有し、特徴点比較部207Bは、該特徴点検出部207Aで検出した特徴点と記憶部203のデータベースに記憶されている手本画像データ群の特徴点データとを比較する機能を有する。画像キーワード抽出部207Cは、特徴点比較部207Bによって受信画像データと特徴点パターンが同類のものと判断された手本画像データに予め関連付けられている画像キーワードを抽出する機能を有し、画像キーワードリスト生成部207Dは、該画像キーワード抽出部207Cで抽出された画像キーワードをリスト化した画像キーワードリストを作成する機能を有する。画像検索部207Eは、記憶部203に記憶されている画像データを検索する機能を有し、圧縮伸張部207Fは、通信部112により受信した画像データを伸張したり、該画像検索部207Eで検索した画像データを圧縮したりする機能を有する。   The feature point detection unit 207A has a function of detecting feature points from the image data, and the feature point comparison unit 207B includes the feature points detected by the feature point detection unit 207A and the hand stored in the database of the storage unit 203. It has a function of comparing the feature point data of this image data group. The image keyword extraction unit 207C has a function of extracting an image keyword associated in advance with the model image data for which the received image data and the feature point pattern are determined to be similar by the feature point comparison unit 207B. The list generation unit 207D has a function of creating an image keyword list in which the image keywords extracted by the image keyword extraction unit 207C are listed. The image search unit 207E has a function of searching for image data stored in the storage unit 203, and the compression / decompression unit 207F expands the image data received by the communication unit 112 or searches the image search unit 207E. A function of compressing the processed image data.

なお、手本画像データとは、別のカメラマン等が撮影した写真の画像データである。   The model image data is image data of a photograph taken by another cameraman or the like.

以下、上記のような構成のカメラ1とウェブサーバ2との間でやり取りされる通信及び処理について説明する。   Hereinafter, communication and processing exchanged between the camera 1 configured as described above and the web server 2 will be described.

図2(A)は、カメラ1のCPU115が実行するROM104に記憶された制御プログラムの内、本実施形態に係る特徴部分の動作フローチャートを示す図であり、図2(B)は、ウェブサーバ2の制御部208が実行するROM201に記憶された制御プログラムの内の本実施形態に係る特徴部分の動作フローチャートを示す図である。   FIG. 2A is a diagram showing an operation flowchart of the characteristic part according to the present embodiment in the control program stored in the ROM 104 executed by the CPU 115 of the camera 1, and FIG. It is a figure which shows the operation | movement flowchart of the characteristic part which concerns on this embodiment among the control programs memorize | stored in ROM201 which the control part 208 of FIG.

即ち、カメラ1で撮影を行うと(ステップS101)、得られた画像データは、RAM105上に一時的な記憶データとして記憶され、記憶部106に記憶される(ステップS102)。そして、その撮影時の位置データが位置情報取得部114によって取得され、予め設定してある所定プロバイダが管理するアクセスポイント3に、通信部112を介して、上記画像データと位置データとが送信される(ステップS103)。なおこのとき、通信量を削減するために、画像データはRAWデータではなく圧縮されたフォーマットで送信されても良い。この送信後、カメラ1は、受信待ちとなる(ステップS104)。但し、所定時間内に受信が無いときには、本動作を終了して、通常の撮影や撮影画像データの表示といった通常のカメラの動作に移行する。   That is, when photographing is performed with the camera 1 (step S101), the obtained image data is stored as temporary storage data on the RAM 105 and stored in the storage unit 106 (step S102). Then, the position data at the time of shooting is acquired by the position information acquisition unit 114, and the image data and the position data are transmitted to the access point 3 managed by a predetermined provider set in advance via the communication unit 112. (Step S103). At this time, in order to reduce the communication amount, the image data may be transmitted in a compressed format instead of the RAW data. After this transmission, the camera 1 waits for reception (step S104). However, when there is no reception within a predetermined time, this operation is terminated, and a normal camera operation such as normal shooting or display of captured image data is started.

カメラ1から送信されたデータがアクセスポイント3に受信されると、アクセスポイント3内部のルータ機能により、インターネット等のネットワーク4に接続されているサーバ(ウェブサーバ2)に上記画像データと位置データが届けられる。   When the data transmitted from the camera 1 is received by the access point 3, the image data and the position data are transferred to the server (web server 2) connected to the network 4 such as the Internet by the router function inside the access point 3. Delivered.

ウェブサーバ2は、上記画像データと位置データを受信すると(ステップS201)、画像処理部207の特徴点検出部207Aにより、そのカメラ1から受信した画像データに対して二値化及び輪郭抽出などの処理を行い、その画像の特徴点パターンを検出する(ステップS202)。つまり、受信した画像データを白黒にして、コーナー検出フィルタをかけて判定処理を行い、その画像を構成する各部の角部位置を特徴点として得る。これら特徴点のパターンつまり特徴点の配置及び分布が当該画像の特徴となる。   When the web server 2 receives the image data and the position data (step S201), the feature point detection unit 207A of the image processing unit 207 performs binarization and contour extraction on the image data received from the camera 1. Processing is performed to detect a feature point pattern of the image (step S202). In other words, the received image data is converted into black and white, a corner detection filter is applied to perform determination processing, and the corner position of each part constituting the image is obtained as a feature point. These feature point patterns, that is, the arrangement and distribution of the feature points become the features of the image.

そして、特徴点比較部207Bにより、その特徴点検出部207Aで抽出した画像データの特徴点パターンと、予め記憶部203のデータベースに記憶されている手本画像データ群の特徴点パターンを比較することで、抽出した特徴点パターンを検索キーとしたデータベースの検索を実施する(ステップS203)。例えば、有名な観光スポットで撮影された手本画像データでは、予め、上記特徴点(数百ポイントからなる)の配置情報が特徴点パターンとして抽出されて、ウェブサーバ2の記憶部203に構成したデータベースに登録されている。見る角度で変化する建造物などは、見る角度ごとに、複数セットの特徴点パターンがデータベース化されている。したがって、撮影画像データから同様の方法で特徴点パターンを抽出し、予め登録されているデータベースを照合し、一番高い一致度のものを選択することによって、対象物が何であるかを認識することが出来る。なおこのとき、上記カメラ1から受信した位置データによって、比較対象の手本画像データを当該位置周辺に絞ることで、誤認識の確率を低減することができる。   Then, the feature point comparison unit 207B compares the feature point pattern of the image data extracted by the feature point detection unit 207A with the feature point pattern of the sample image data group stored in the database of the storage unit 203 in advance. Then, a database search is performed using the extracted feature point pattern as a search key (step S203). For example, in the model image data taken at a famous tourist spot, the arrangement information of the feature points (consisting of several hundred points) is extracted in advance as a feature point pattern and configured in the storage unit 203 of the web server 2. Registered in the database. For buildings and the like that change depending on the viewing angle, a plurality of sets of feature point patterns are stored in a database for each viewing angle. Therefore, the feature point pattern is extracted from the captured image data by the same method, the database registered in advance is collated, and the object with the highest matching degree is selected to recognize what the object is. I can do it. At this time, the probability of misrecognition can be reduced by narrowing the model image data to be compared around the position based on the position data received from the camera 1.

勿論、本発明は、このような特徴点検出を行いパターンマッチングによって対象物を認識する手法に限定されるものではなく、統計的識別法や構造識別法などの他の画像認識手法を採用しても構わない。これら統計的識別法や構造識別法は公知であり、よってその説明は省略する。   Of course, the present invention is not limited to such a method of detecting feature points and recognizing an object by pattern matching, but adopts other image recognition methods such as a statistical identification method and a structure identification method. It doesn't matter. These statistical identification methods and structure identification methods are well known, and therefore their explanation is omitted.

ここで、上記抽出した画像データの特徴点パターンに一致する特徴点パターンを持つ手本画像データが検索されなかった場合には(ステップS204)、通信部205を介してリスト=0をカメラ1に送信する(ステップS205)。その後、上記ステップS201に戻り、次の画像データ及び位置データが送られてくるのを待つ。   If model image data having a feature point pattern that matches the feature point pattern of the extracted image data is not found (step S204), list = 0 is set in camera 1 via communication unit 205. Transmit (step S205). Thereafter, the process returns to step S201 and waits for the next image data and position data to be sent.

カメラ1側では、受信があると(ステップS104)、キーワードリストを受信したか否かを判別する(ステップS105)。上記のようなリスト=0を受信した場合には、キーワードリストを受信していないので、CPU115は、表示部108に「リスト無し」を表示して(ステップS106)、本動作を終了して、通常の撮影や撮影画像データの表示といった通常のカメラの動作に移行することになる。   On the camera 1 side, when there is reception (step S104), it is determined whether or not a keyword list has been received (step S105). When the above list = 0 is received, since the keyword list is not received, the CPU 115 displays “no list” on the display unit 108 (step S106), ends this operation, The operation shifts to normal camera operation such as normal shooting and display of captured image data.

これに対して、ウェブサーバ2において、上記抽出した画像データの特徴点パターンに一致する特徴点パターンを持つ手本画像データが有った場合には(ステップS204)、画像キーワード抽出部207Cによって、それら手本画像データに関連付けて登録されている画像キーワード(例えば、東京タワー)を記憶部203から抽出し、画像キーワードリスト生成部207Dにより、それら抽出された画像キーワードをRAM202に一時的に構成する画像キーワードリストに追加する(ステップS206)。次に、制御部208は、この画像キーワードリストにある画像キーワードのうち最も多く抽出された画像キーワードが、カメラ1から受信した画像データの画像キーワードとして適切であると判断し、画像検索部207Eによって、当該画像キーワードに関連付けられた手本画像データを記憶部203から検索する(ステップS207)。つまり、制御部208は、画像キーワード選択部としての機能を有する。そして、画像キーワードリスト生成部207Dにより、それら検索された手本画像データに付随する付随キーワード(撮影位置、撮影時間、ユーザ名(撮影者名)、等)を上記画像キーワードリストに追加したキーワードリストを生成する(ステップS208)。こうして作成されたキーワードリストと検索された手本画像データを、通信部205を介してカメラ1に送信した後(ステップS209)、上記ステップS201に戻り、次の画像データ及び位置データが送られてくるのを待つ。なお、上記手本画像データは、圧縮伸張部207Fでサムネイル画像とした上で送信することで、通信量を削減できる。このサムネイル画像のサイズは、予め決められたものでも良いし、上記ステップS201で受信した画像データのヘッダ情報として記載されている撮影機器情報に従ってカメラ1の表示部108の表示サイズを判別して、そのサイズによって適切な画像サイズを選択するようにしても良い。   On the other hand, when there is model image data having a feature point pattern that matches the feature point pattern of the extracted image data in the web server 2 (step S204), the image keyword extraction unit 207C Image keywords (for example, Tokyo Tower) registered in association with the model image data are extracted from the storage unit 203, and the extracted image keywords are temporarily configured in the RAM 202 by the image keyword list generation unit 207D. It adds to an image keyword list (step S206). Next, the control unit 208 determines that the image keyword extracted most among the image keywords in the image keyword list is appropriate as the image keyword of the image data received from the camera 1, and the image search unit 207E Then, the model image data associated with the image keyword is retrieved from the storage unit 203 (step S207). That is, the control unit 208 has a function as an image keyword selection unit. Then, the keyword list in which the associated keyword (photographing position, photographing time, user name (photographer name), etc.) attached to the retrieved model image data is added to the image keyword list by the image keyword list generation unit 207D. Is generated (step S208). After the keyword list thus created and the retrieved model image data are transmitted to the camera 1 via the communication unit 205 (step S209), the process returns to step S201, and the next image data and position data are transmitted. Wait for it to come. Note that the amount of communication can be reduced by transmitting the model image data after making it a thumbnail image by the compression / decompression unit 207F. The size of the thumbnail image may be determined in advance, or the display size of the display unit 108 of the camera 1 is determined according to the photographing device information described as the header information of the image data received in step S201. An appropriate image size may be selected according to the size.

カメラ1側では、上述したように、受信があると(ステップS104)、キーワードリストを受信したか否かを判別する(ステップS105)。ここで、キーワードリストを受信した場合には、そのキーワードリストをLCD等の表示部108に表示する(ステップS107)。   As described above, when there is reception (step S104), the camera 1 side determines whether or not a keyword list has been received (step S105). If the keyword list is received, the keyword list is displayed on the display unit 108 such as an LCD (step S107).

図3Aは、この表示部108でのキーワードリストの表示例を示す図である。このキーワードリストは、被写体名称(例:東京タワー)を表す画像キーワード501と、その画像キーワードに一致した手本画像データそれぞれに関連付けられた位置502、時間503、及びユーザ名504をリスト形式で記載したものとなっている。位置は緯度経度で表記している。例えば、「N:35/1,41/1,774/100 E:139/1,48/1,774,100」は北緯35度41分7.74秒、東経139度48分7.74秒を示す。なお、これは一例であり、例えば住所やその場所の通称等、どのような形式であっても構わないことは勿論である。   FIG. 3A is a diagram showing a display example of the keyword list on the display unit 108. This keyword list describes an image keyword 501 representing a subject name (for example, Tokyo Tower), a position 502, a time 503, and a user name 504 associated with each sample image data that matches the image keyword in a list format. It has become. The position is expressed in latitude and longitude. For example, “N: 35/1, 41/1, 774/100 E: 139/1, 48/1, 774, 100” is 35 degrees 41 minutes 7.74 seconds north latitude, 139 degrees 48 minutes 7.74 seconds east longitude. Indicates. This is merely an example, and it is needless to say that any format such as an address or a common name of the place may be used.

カメラ1のユーザは、カメラ1の入力部103、例えば十字ボタンとOKボタン等を操作して、このキーワードリストより所望の撮影場所を選択する(ステップS108)。この選択に応じて、表示部108に対応する地図表示を行う(ステップS109)。   The user of the camera 1 operates the input unit 103 of the camera 1, such as a cross button and an OK button, and selects a desired shooting location from the keyword list (step S108). In response to this selection, a map display corresponding to the display unit 108 is performed (step S109).

図3Bは、この表示部108での地図表示の表示例を示す図である。これは、地図情報上に、被写体の位置を示す被写体位置マーク505、選択した撮影場所を示す撮影位置マーク506、及びそこで撮影された手本画像(サムネイル画像)507と、ユーザの現在位置を示す現在位置マーク508を重畳したものである。なお、地図情報は、ウェブサーバ2から受信しても良いし、カメラ1内にある地図情報を用いても良い。また、通信容量に余裕がある場合は地図情報をウェブサーバ2から受信し、通信容量に余裕がない場合は、カメラ1内の地図情報を用いるようにしても良い。   FIG. 3B is a diagram showing a display example of map display on the display unit 108. This indicates, on the map information, a subject position mark 505 indicating the position of the subject, a shooting position mark 506 indicating the selected shooting location, a model image (thumbnail image) 507 shot there, and the current position of the user. The current position mark 508 is superimposed. The map information may be received from the web server 2 or the map information in the camera 1 may be used. Further, when there is a margin in communication capacity, map information may be received from the web server 2, and when there is no margin in communication capacity, the map information in the camera 1 may be used.

なお、特に図示はしていないが、入力部103の操作により、上記手本画像507を表示部108のサイズに拡大表示できる。この場合、受信したサムネイル画像を拡大するのではなく、ウェブサーバ2に要求して表示部108のサイズに相応しい手本画像データをダウンロードして表示するようにしても良いが、著作権が存在する手本画像データについては、カメラ1の記憶部106に記憶できないようにしたり、或いは何らかの課金を行った上でしか記憶できないようにしても良い。   Although not particularly illustrated, the sample image 507 can be enlarged and displayed in the size of the display unit 108 by operating the input unit 103. In this case, instead of enlarging the received thumbnail image, it may be requested to the web server 2 to download and display the model image data suitable for the size of the display unit 108, but there is a copyright. The model image data may not be stored in the storage unit 106 of the camera 1 or may be stored only after some charge is made.

また、キーワードリストと地図表示を図3A及び図3Bに示すように分けるのではなく、図4に示すように同時に表示するようにしても良い。   Further, the keyword list and the map display may be displayed simultaneously as shown in FIG. 4 instead of being separated as shown in FIGS. 3A and 3B.

以上のように、本第1実施形態によれば、観光地等に行ったユーザが、ガイドブックやポスター、テレビなどで見たシーンを撮影したい場合に、どこから撮影すれば良いかをガイドすることができるので、ユーザが満足のいく写真撮影を行えるようになる。   As described above, according to the first embodiment, when a user who goes to a sightseeing spot wants to shoot a scene viewed on a guidebook, a poster, a television, etc., he / she guides where to start shooting. The user can take a satisfactory picture.

例えば、富士山や東京タワーなどには、プロやハイアマチュアのカメラマンが特によく撮影するポイントがある。しかし、通常、そのような地点からカメラマンが撮影した画像のみが、媒体となってユーザの目に焼き付けられるので、カメラ1を持って出かけたユーザは、その観光スポットに行ったとしても、それと同じ風景が撮影できないと満足することができない。本実施形態では、このようなユーザに対し、カメラ1を持っていくだけで、簡単にお手本画像をユーザに見せて選ばせ、撮影スポット情報を紹介することによって、誰にでも、所望の写真撮影を可能とすることができる。   For example, Mt. Fuji, Tokyo Tower, etc. have points that are photographed by professional and high amateur photographers particularly well. However, normally, only the image taken by the cameraman from such a point is burned into the user's eyes as a medium, so even if the user who went out with the camera 1 goes to the tourist spot, it is the same If you can't shoot the landscape, you can't be satisfied. In the present embodiment, such a user simply takes the camera 1 and allows the user to easily show a model image to select and introduce the shooting spot information, so that anyone can take a desired photo. Can be possible.

[第2実施形態]
次に、本発明の第2実施形態を説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.

図5Aは、カメラ1のCPU115が実行するROM104に記憶された制御プログラムの内、本第2実施形態に係る特徴部分の動作フローチャートを示す図であり、図5Bは、ウェブサーバ2の制御部208が実行するROM201に記憶された制御プログラムの内の本第2実施形態に係る特徴部分の動作フローチャートを示す図である。ここで、上記第1実施形態と同様の部分には図2(A)及び(B)と同一の参照符号を付すことで、その説明は省略する。   FIG. 5A is a diagram illustrating an operation flowchart of the characteristic part according to the second embodiment in the control program stored in the ROM 104 executed by the CPU 115 of the camera 1, and FIG. 5B is a control unit 208 of the web server 2. It is a figure which shows the operation | movement flowchart of the characteristic part which concerns on this 2nd Embodiment among the control programs memorize | stored in ROM201 performed. Here, the same reference numerals as those in FIGS. 2A and 2B are attached to the same parts as those in the first embodiment, and the description thereof is omitted.

即ち、カメラ1側では、上記ステップS103での画像データと位置データとを送信後に、受信があると(ステップS104)、本第2実施形態では、画像キーワードリストを受信したか否かを判別する(ステップS110)。ウェブサーバ2からリスト=0を受信した場合には、画像キーワードリストを受信していないので、CPU115は、表示部108に「リスト無し」を表示して(ステップS106)、本動作を終了する。   That is, on the camera 1 side, if there is a reception after transmitting the image data and the position data in step S103 (step S104), in the second embodiment, it is determined whether or not an image keyword list has been received. (Step S110). When the list = 0 is received from the web server 2, the image keyword list has not been received, so the CPU 115 displays “no list” on the display unit 108 (step S106), and ends this operation.

一方、ウェブサーバ2において、抽出した画像データの特徴点パターンに一致する特徴点パターンを持つ手本画像データが有った場合には(ステップS204)、画像キーワード抽出部207Cによって、それら手本画像データに関連付けて登録されている画像キーワード(例えば、東京タワー)を記憶部203から抽出し(ステップS206A)、画像キーワードリスト生成部207Dにより、それら抽出された画像キーワードをRAM202に一時的に構成する画像キーワードリストに追加する(ステップS206B)。そして、その画像キーワードリストを通信部205を介してカメラ1に送信する(ステップS210)。この送信後、ウェブサーバ2は、画像キーワード選択待ちとなる(ステップS211)。但し、所定時間内に選択キーワードの受信が無いときには、上記ステップS201に戻り、次の画像データ及び位置データが送られてくるのを待つことになる。   On the other hand, when there is model image data having a feature point pattern that matches the feature point pattern of the extracted image data in the web server 2 (step S204), the model keyword extraction unit 207C causes the model image data to be extracted. Image keywords registered in association with the data (for example, Tokyo Tower) are extracted from the storage unit 203 (step S206A), and the extracted image keywords are temporarily configured in the RAM 202 by the image keyword list generation unit 207D. It adds to an image keyword list (step S206B). Then, the image keyword list is transmitted to the camera 1 via the communication unit 205 (step S210). After this transmission, the web server 2 waits for image keyword selection (step S211). However, if the selected keyword is not received within the predetermined time, the process returns to step S201 and waits for the next image data and position data to be sent.

カメラ1側では、上記のように受信があると(ステップS104)、画像キーワードリストを受信したか否かを判別するもので(ステップS110)、ここで、画像キーワードリストを受信した場合には、その画像キーワードリストをLCD等の表示部108に表示する(ステップS111)。その場合、例えば東京タワーという画像キーワードと京都タワーという画像キーワードがカメラ1上に選択可能に表示される(位置データにより検索対象を絞った場合には両タワーが同時にリストアップされる可能性はないが、ここでは説明を分かり易くするために両タワーを挙げている)。カメラ1のユーザはカメラ1の入力部103、例えば十字ボタンとOKボタン等を操作して、この画像キーワードリストより所望の画像キーワードを選択し(ステップS112)、CPU115は、その選択された画像キーワードを通信部112を介してウェブサーバ2に送信する(ステップS113)。そしてこの送信後、カメラ1は、選択リストの受信待ちとなり(ステップS114)、所定時間内にその受信が無いときには、本動作を終了することになる。   On the camera 1 side, when there is a reception as described above (step S104), it is determined whether or not an image keyword list has been received (step S110). Here, when an image keyword list is received, The image keyword list is displayed on the display unit 108 such as an LCD (step S111). In that case, for example, the image keyword “Tokyo Tower” and the image keyword “Kyoto Tower” are displayed so as to be selectable on the camera 1 (when the search target is narrowed down by the position data, there is no possibility that both towers are listed at the same time. However, for the sake of clarity, both towers are listed here). The user of the camera 1 operates the input unit 103 of the camera 1, for example, the cross button and the OK button, and selects a desired image keyword from the image keyword list (step S112), and the CPU 115 selects the selected image keyword. Is transmitted to the web server 2 via the communication unit 112 (step S113). After this transmission, the camera 1 waits for reception of the selection list (step S114), and ends this operation when there is no reception within a predetermined time.

ウェブサーバ2側では、上記選択された画像キーワードを受信すると(ステップS211)、制御部208は、その選択された画像キーワードに関連付けられた手本画像データを、画像検索部207Eによって記憶部203から検索する(ステップS212)。そして、画像キーワードリスト生成部207Dにより、それら検索された手本画像データに付随する付随キーワード(撮影位置、撮影時間、ユーザ名(撮影者名)、等)を含む選択キーワードリストを生成する(ステップS213)。その後、圧縮伸張部207Fによって上記検索された手本画像データのサムネイル画像を作成して、上記作成された選択キーワードリストと共に通信部205を介してカメラ1に送信した後(ステップS214)、上記ステップS201に戻る。   When the web server 2 receives the selected image keyword (step S211), the control unit 208 causes the image search unit 207E to store the model image data associated with the selected image keyword from the storage unit 203. Search is performed (step S212). Then, the image keyword list generation unit 207D generates a selection keyword list including accompanying keywords (photographing position, photographing time, user name (photographer name), etc.) attached to the searched model image data (step). S213). After that, a thumbnail image of the retrieved model image data is created by the compression / decompression unit 207F and transmitted to the camera 1 through the communication unit 205 together with the created selection keyword list (step S214), and then the above step Return to S201.

カメラ1側では、上記選択キーワードリストを受信すると(ステップS114)、その選択キーワードリストをLCD等の表示部108に表示する(ステップS115)。この表示は、上記第1実施形態における上記ステップS107で表示されるキーワードリストの表示と同じものとなる。従って、この選択キーワードリストより所望の撮影場所を選択して(ステップS108)、表示部108に対応する地図表示を行うことができる(ステップS109)。   On the camera 1 side, when the selected keyword list is received (step S114), the selected keyword list is displayed on the display unit 108 such as an LCD (step S115). This display is the same as the display of the keyword list displayed in step S107 in the first embodiment. Therefore, a desired shooting location can be selected from the selected keyword list (step S108), and a map display corresponding to the display unit 108 can be performed (step S109).

以上のように、制御部208が任意の画像キーワードを選択する際、上記第1実施形態では画像キーワードリストにある画像キーワードのうち最も多く抽出された画像キーワードを適切な画像キーワードとして選択するようにしているが、本第2実施形態では、カメラ1のユーザによる操作入力に基づいて画像キーワードを選択するようにしている。従って、ユーザが望む被写体の手本画像とその撮影位置とをより確実に呈示することが可能となる。   As described above, when the control unit 208 selects an arbitrary image keyword, in the first embodiment, the image keyword extracted most among the image keywords in the image keyword list is selected as an appropriate image keyword. However, in the second embodiment, the image keyword is selected based on the operation input by the user of the camera 1. Therefore, it is possible to present the model image of the subject desired by the user and the shooting position thereof more reliably.

[第3実施形態]
次に、本発明の第3実施形態を説明する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described.

図6Aは、カメラ1のCPU115が実行するROM104に記憶された制御プログラムの内、本第3実施形態に係る特徴部分の動作フローチャートを示す図であり、図6Bは、ウェブサーバ2の制御部208が実行するROM201に記憶された制御プログラムの内の本第3実施形態に係る特徴部分の動作フローチャートを示す図である。ここで、上記第2実施形態と同様の部分には図5A及び図5Bと同一の参照符号を付すことで、その説明は省略する。   FIG. 6A is a diagram showing an operation flowchart of the characteristic part according to the third embodiment in the control program stored in the ROM 104 executed by the CPU 115 of the camera 1, and FIG. 6B is a control unit 208 of the web server 2. It is a figure which shows the operation | movement flowchart of the characteristic part which concerns on this 3rd Embodiment among the control programs memorize | stored in ROM201 performed. Here, the same reference numerals as those in FIGS. 5A and 5B are attached to the same parts as those in the second embodiment, and the description thereof will be omitted.

即ち、本第3実施形態においては、ウェブサーバ2側では、画像キーワードリストを通信部205を介してカメラ1に送信した後(ステップS210)、受信待ちとなる(ステップS215)。そして、所定時間内に受信が無いときには、上記ステップS201に戻る。   That is, in the third embodiment, the web server 2 side waits for reception after transmitting the image keyword list to the camera 1 via the communication unit 205 (step S210) (step S215). Then, when there is no reception within the predetermined time, the process returns to step S201.

一方、カメラ1側では、画像キーワードリストをLCD等の表示部108に表示した後に(ステップS111)、ユーザがその表示された画像キーワードリストを見て、所望の画像キーワードがなければ、入力部103よりNG指示を入力する。従って、CPU115は、NG指示が行われたか否かを判別し(ステップS116)、NG指示が行われた場合には、NG指示を通信部112を介してウェブサーバ2に送信する(ステップS117)。そして、表示部108に「構図を変えて再度撮影してください」や「別構図で撮影」等のメッセージを表示して(ステップS118)、上記ステップS101に戻る。これに対して、NG指示が行われない場合には、表示された画像キーワードリストより所望の画像キーワードの選択が行われて(ステップS112)、その選択された画像キーワードを通信部112を介してウェブサーバ2に送信することになる(ステップS113)。   On the other hand, on the camera 1 side, after the image keyword list is displayed on the display unit 108 such as an LCD (step S111), if the user looks at the displayed image keyword list and there is no desired image keyword, the input unit 103 Input NG instruction. Therefore, the CPU 115 determines whether or not an NG instruction has been issued (step S116), and if an NG instruction has been issued, transmits the NG instruction to the web server 2 via the communication unit 112 (step S117). . Then, a message such as “Please change the composition and take a picture again” or “Shoot with another composition” is displayed on the display unit 108 (step S118), and the process returns to step S101. On the other hand, when no NG instruction is given, a desired image keyword is selected from the displayed image keyword list (step S112), and the selected image keyword is sent via the communication unit 112. This is transmitted to the web server 2 (step S113).

ウェブサーバ2側では、通信部205で受信があった場合には(ステップS215)、NG指示を受信したのかを判別し(ステップS216)、そうであれば、上記ステップS201に戻って、次の画像データ及び位置データが送られてくるのを待つことになる。これに対して、NG指示を受信したのではない場合には、受信した選択された画像キーワードに関連付けられた手本画像データを記憶部203から検索する上記ステップS212からの動作を実行することになる。   On the web server 2 side, if the communication unit 205 has received the message (step S215), it is determined whether an NG instruction has been received (step S216). If so, the process returns to step S201, and the next It waits for image data and position data to be sent. On the other hand, when the NG instruction has not been received, the operation from the above step S212 for retrieving the model image data associated with the received selected image keyword from the storage unit 203 is executed. Become.

以上のように、本第3実施形態では、ユーザ所望の画像キーワードが検索されなかった場合に、その画像キーワードリストをキャンセルすることができる。そして、再度撮影を行うことで、手本画像とその撮影位置を取得することができる。   As described above, in the third embodiment, when a user-desired image keyword is not searched, the image keyword list can be canceled. Then, by performing imaging again, it is possible to acquire the model image and its imaging position.

[第4実施形態]
次に、本発明の第4実施形態を説明する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described.

図7Aは、カメラ1のCPU115が実行するROM104に記憶された制御プログラムの内、本第4実施形態に係る特徴部分の動作フローチャートを示す図であり、図7Bは、ウェブサーバ2の制御部208が実行するROM201に記憶された制御プログラムの内の本第4実施形態に係る特徴部分の動作フローチャートを示す図である。ここで、上記第3実施形態と同様の部分には図6A及び図6Bと同一の参照符号を付すことで、その説明は省略する。   FIG. 7A is a diagram showing an operation flowchart of the characteristic part according to the fourth embodiment in the control program stored in the ROM 104 executed by the CPU 115 of the camera 1, and FIG. 7B is a control unit 208 of the web server 2. It is a figure which shows the operation | movement flowchart of the characteristic part which concerns on this 4th Embodiment among the control programs memorize | stored in ROM201 performed. Here, the same reference numerals as those in FIGS. 6A and 6B are attached to the same parts as those in the third embodiment, and the description thereof will be omitted.

即ち、上述したように、ウェブサーバ2側では、抽出した画像データの特徴点パターンに一致する特徴点パターンを持つ手本画像データが検索されなかった場合には(ステップS204)、通信部205を介してリスト=0をカメラ1に送信するが(ステップS205)、本第4実施形態においては、その後、上記ステップS201に戻るのではなく、受信待ちとなって(ステップS215)、所定時間内に受信が無いときにのみ、上記ステップS201に戻るようにしている。   That is, as described above, when the model image data having the feature point pattern that matches the feature point pattern of the extracted image data is not searched on the web server 2 side (step S204), the communication unit 205 is set. List = 0 is transmitted to the camera 1 (step S205), but in the fourth embodiment, the process waits for reception (step S215) instead of returning to step S201, and within a predetermined time. Only when there is no reception, the process returns to step S201.

そして、カメラ1側では、そのようなリスト=0を受信した場合には、上述したように、表示部108に「リスト無し」を表示するが(ステップS106)、本第4実施形態では、本動作を終了するのではなく、入力部103からのキー入力によって、またはMIC110と音声制御部111を利用した音声認識によって、ユーザが所望の画像キーワードを入力できるようにしている(ステップS119)。そして、この入力された画像キーワードを通信部112を介してウェブサーバ2に送信した後(ステップS120)、選択リストの受信待ちとなる(ステップS114)。   On the camera 1 side, when such a list = 0 is received, “no list” is displayed on the display unit 108 as described above (step S106). Instead of ending the operation, the user can input a desired image keyword by key input from the input unit 103 or by voice recognition using the MIC 110 and the voice control unit 111 (step S119). Then, after the input image keyword is transmitted to the web server 2 via the communication unit 112 (step S120), it waits for reception of a selection list (step S114).

ウェブサーバ2側では、通信部205で受信があった場合には(ステップS215)、その受信した選択画像キーワードまたは入力画像キーワードに関連付けられた手本画像データを記憶部203から検索する(ステップS217)。そして、検索された手本画像データに付随する付随キーワードを含む選択キーワードリストを生成する上記ステップS213以降の処理を実施する。   On the web server 2 side, when received by the communication unit 205 (step S215), the model image data associated with the received selected image keyword or input image keyword is retrieved from the storage unit 203 (step S217). ). And the process after said step S213 which produces | generates the selection keyword list | wrist including the accompanying keyword accompanying the searched model image data is implemented.

また、カメラ1側において、上記ステップS116でNG指示が行われた場合にも、上記ステップS119に進んで、上記のような画像キーワードの入力及び送信が行われる。   Also, when an NG instruction is given at step S116 on the camera 1, the process proceeds to step S119, and the image keyword is input and transmitted as described above.

以上のように、本第4実施形態では、ユーザ所望の画像キーワードが検索されなかった場合には、画像キーワードをカメラ1側で入力し、ウェブサーバ2に再送信することで、ユーザ所望の手本画像とその撮影位置を取得することができる。   As described above, in the fourth embodiment, when a user-desired image keyword is not searched, the image keyword is input on the camera 1 side and retransmitted to the web server 2, so that the user-desired hand The main image and its shooting position can be acquired.

なお、ウェブサーバ2は、上記入力された画像キーワードを、送信した撮影画像データと関連付けて記憶部203のデータベースに追加登録するようにしても良い。この場合、撮影画像を手本画像データとして登録しても良いし、手本画像ではないが画像キーワードの抽出のみに使用するユーザ画像データとして登録しても良い。このようなユーザ画像データを多数蓄積することで、画像キーワードの抽出精度を向上できる。   The web server 2 may additionally register the input image keyword in the database of the storage unit 203 in association with the transmitted captured image data. In this case, the captured image may be registered as model image data, or may be registered as user image data that is not a model image but is used only for extracting image keywords. By accumulating a large number of such user image data, the image keyword extraction accuracy can be improved.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.

例えば、撮影装置としてカメラ1を例に説明したが、カメラ付の携帯電話機であっても良い。   For example, the camera 1 has been described as an example of the photographing apparatus, but a mobile phone with a camera may be used.

図1(A)は、本発明の第1実施形態に係る撮影システムの構成を示す図であり、図1(B)は、図1(A)中のカメラ及びウェブサーバのそれぞれの構成を示す図である。FIG. 1A is a diagram showing a configuration of the photographing system according to the first embodiment of the present invention, and FIG. 1B shows a configuration of each of the camera and the web server in FIG. FIG. 図2(A)は、カメラのCPUが実行するROMに記憶された制御プログラムの内の第1実施形態に係る特徴部分の動作フローチャートを示す図であり、図2(B)は、ウェブサーバの制御部が実行するROMに記憶された制御プログラムの内の第2実施形態に係る特徴部分の動作フローチャートを示す図である。FIG. 2A is a diagram showing an operation flowchart of the characteristic part according to the first embodiment of the control program stored in the ROM executed by the CPU of the camera, and FIG. It is a figure which shows the operation | movement flowchart of the characteristic part which concerns on 2nd Embodiment among the control programs memorize | stored in ROM which a control part performs. 図3Aは、カメラの表示部でのキーワードリストの表示例を示す図である。FIG. 3A is a diagram illustrating a display example of a keyword list on the display unit of the camera. 図3Bは、カメラの表示部での地図表示の表示例を示す図である。FIG. 3B is a diagram illustrating a display example of a map display on the display unit of the camera. 図4は、カメラの表示部でのキーワードリストと地図表示の同時表示例を示す図である。FIG. 4 is a diagram showing an example of simultaneous display of the keyword list and map display on the display unit of the camera. 図5Aは、カメラのCPUが実行するROMに記憶された制御プログラムの内の本発明の第2実施形態に係る特徴部分の動作フローチャートを示す図である。FIG. 5A is a diagram showing an operation flowchart of the characteristic part according to the second embodiment of the present invention in the control program stored in the ROM executed by the CPU of the camera. 図5Bは、ウェブサーバの制御部が実行するROMに記憶された制御プログラムの内の第2実施形態に係る特徴部分の動作フローチャートを示す図である。FIG. 5B is a diagram illustrating an operation flowchart of a characteristic portion according to the second embodiment in the control program stored in the ROM executed by the control unit of the web server. 図6Aは、カメラのCPUが実行するROMに記憶された制御プログラムの内の本発明の第3実施形態に係る特徴部分の動作フローチャートを示す図である。FIG. 6A is a diagram showing an operation flowchart of the characteristic part according to the third embodiment of the present invention in the control program stored in the ROM executed by the CPU of the camera. 図6Bは、ウェブサーバの制御部が実行するROMに記憶された制御プログラムの内の第3実施形態に係る特徴部分の動作フローチャートを示す図である。FIG. 6B is a diagram illustrating an operation flowchart of a characteristic part according to the third embodiment of the control program stored in the ROM executed by the control unit of the web server. 図7Aは、カメラのCPUが実行するROMに記憶された制御プログラムの内の本発明の第4実施形態に係る特徴部分の動作フローチャートを示す図である。FIG. 7A is a diagram showing an operation flowchart of the characteristic part according to the fourth embodiment of the present invention in the control program stored in the ROM executed by the CPU of the camera. 図7Bは、ウェブサーバの制御部が実行するROMに記憶された制御プログラムの内の第4実施形態に係る特徴部分の動作フローチャートを示す図である。FIG. 7B is a diagram illustrating an operation flowchart of the characteristic part according to the fourth embodiment of the control program stored in the ROM executed by the control unit of the web server.

符号の説明Explanation of symbols

1…カメラ、 2…ウェブサーバ、 3…アクセスポイント、 4…ネットワーク、 101…撮像部、 102…撮像制御部、 103…入力部、 104,201…ROM、 105,202…RAM、 106,203…記憶部、 107,204…記憶制御部、 108…表示部、 109…表示制御部、 110…MIC、 111…音声制御部、 112,205…通信部、 113,206…通信制御部、 114…位置情報取得部、 115…CPU、 116…SP、 117,209…バス、 207…画像処理部、 207A…特徴点検出部、 207B…特徴点比較部、 207C…画像キーワード抽出部、 207D…画像キーワードリスト生成部、 207E…画像検索部、 207F…圧縮伸張部、 208…制御部、 501…画像キーワード、 502…位置、 503…時間、 504…ユーザ名、 505…被写体位置マーク、 506…撮影位置マーク、 507…手本画像、 508…現在位置マーク。     DESCRIPTION OF SYMBOLS 1 ... Camera, 2 ... Web server, 3 ... Access point, 4 ... Network, 101 ... Imaging part, 102 ... Imaging control part, 103 ... Input part, 104, 201 ... ROM, 105, 202 ... RAM, 106, 203 ... Storage unit 107, 204 ... Storage control unit 108 ... Display unit 109 ... Display control unit 110 ... MIC 111 ... Audio control unit 112, 205 ... Communication unit 113, 206 ... Communication control unit 114 ... Position Information acquisition unit 115 ... CPU 116 ... SP 117,209 ... Bus 207 ... Image processing unit 207A ... Feature point detection unit 207B ... Feature point comparison unit 207C ... Image keyword extraction unit 207D ... Image keyword list Generation unit, 207E ... image search unit, 207F ... compression / decompression unit, 208 ... control unit, 501 ... Image keywords: 502 ... position, 503 ... time, 504 ... user name, 505 ... subject position mark, 506 ... shooting position mark, 507 ... example image, 508 ... current position mark.

Claims (3)

被写体を撮影する撮影部と、
上記撮影部で撮影された撮影画像の撮影位置の情報を取得する撮影画像位置取得部と、
予め複数の手本画像を記憶しておく手本画像記憶部と、
上記手本画像記憶部に記憶されている手本画像の中から、上記撮影部で撮影された撮影画像に関連し、上記撮影画像位置取得部で取得した上記撮影画像の撮影位置から所定範囲内の撮影位置情報を有する所定の手本画像を選択する手本画像選択部であって、
上記手本画像記憶部に記憶されている手本画像の中から上記撮影画像と類似する手本画像を検索する手本画像検索部と、
上記手本画像検索部で検索された手本画像に付与された画像キーワードを抽出する画像キーワード抽出部と、
上記画像キーワード抽出部で抽出された画像キーワードをリスト化する画像キーワードリスト生成部と、
上記画像キーワードリスト生成部で生成された画像キーワードリストの中から任意の画像キーワードを選択する画像キーワード選択部と、
を含み、上記所定の手本画像を選択するときには、上記画像キーワード選択部で選択された画像キーワードが付与されている手本画像を選択する手本画像選択部と、
上記手本画像選択部で選択された上記手本画像の撮影位置を取得する手本画像位置取得部と、
上記手本画像選択部で選択された手本画像及び上記手本画像位置取得部で取得された撮影位置を表示する表示部と、
を具備する撮影システムであり、
上記撮影システムは、
上記撮影部と上記表示部とを含む撮影装置と、
上記手本画像記憶部と上記手本画像選択部と上記手本画像位置取得部とを含むサーバ装置と、
を含み、
上記撮影装置と上記サーバ装置とは相互に通信可能であることを特徴とする撮影システム。
A shooting section for shooting the subject;
A captured image position acquisition unit that acquires information of a shooting position of a captured image captured by the imaging unit;
A model image storage unit for storing a plurality of model images in advance;
The sample image stored in the sample image storage unit is related to the shot image shot by the shooting unit and is within a predetermined range from the shooting position of the shot image acquired by the shot image position acquisition unit. A model image selection unit that selects a predetermined model image having shooting position information of
A model image search unit for searching a model image similar to the photographed image from the model images stored in the model image storage unit;
An image keyword extraction unit that extracts an image keyword assigned to the model image searched by the model image search unit;
An image keyword list generation unit that lists the image keywords extracted by the image keyword extraction unit;
An image keyword selection unit for selecting an arbitrary image keyword from the image keyword list generated by the image keyword list generation unit;
A model image selection unit that selects a model image to which the image keyword selected by the image keyword selection unit is assigned, and when selecting the predetermined model image ,
A model image position acquisition unit for acquiring a shooting position of the model image selected by the model image selection unit;
A display unit for displaying the model image selected by the model image selection unit and the photographing position acquired by the model image position acquisition unit;
A photographing system comprising :
The above shooting system
An imaging device including the imaging unit and the display unit;
A server device including the model image storage unit, the model image selection unit, and the model image position acquisition unit;
Including
An imaging system, wherein the imaging device and the server device can communicate with each other .
上記手本画像検索部は、上記撮影画像と類似する手本画像を検索するときに、上記撮影画像位置取得部で取得した上記撮影画像の撮影位置から所定範囲内の撮影位置情報を有する手本画像を対象に検索を行うことを特徴とする請求項に記載の撮影システム。 When the model image search unit searches for a model image similar to the photographed image, the sample image search unit has a sample position information within a predetermined range from the photographing position of the photographed image acquired by the photographed image position acquisition unit. The imaging system according to claim 1 , wherein a search is performed on an image. 上記表示部は、上記画像キーワードリストを表示することが可能であり、
上記画像キーワード選択部は、上記撮影装置に設けられた操作部の操作入力に基づいて画像キーワードを選択することを特徴とする請求項に記載の撮影システム。
The display unit can display the image keyword list,
The imaging system according to claim 1 , wherein the image keyword selection unit selects an image keyword based on an operation input of an operation unit provided in the imaging apparatus.
JP2007131862A 2007-05-17 2007-05-17 Shooting system Expired - Fee Related JP4928350B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007131862A JP4928350B2 (en) 2007-05-17 2007-05-17 Shooting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007131862A JP4928350B2 (en) 2007-05-17 2007-05-17 Shooting system

Publications (3)

Publication Number Publication Date
JP2008288881A JP2008288881A (en) 2008-11-27
JP2008288881A5 JP2008288881A5 (en) 2010-07-01
JP4928350B2 true JP4928350B2 (en) 2012-05-09

Family

ID=40148188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007131862A Expired - Fee Related JP4928350B2 (en) 2007-05-17 2007-05-17 Shooting system

Country Status (1)

Country Link
JP (1) JP4928350B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101646669B1 (en) 2009-06-24 2016-08-08 삼성전자주식회사 Method and apparatus for updating a composition database using user pattern, and digital photographing apparatus
WO2013118535A1 (en) * 2012-02-06 2013-08-15 ソニー株式会社 Image-capturing controller, image processer, method for controlling image capturing, and image-processing method
EP2858341B1 (en) 2012-05-30 2019-07-17 Sony Corporation Information processing device, system, and storage medium
US8996305B2 (en) * 2012-06-07 2015-03-31 Yahoo! Inc. System and method for discovering photograph hotspots
CN106233283A (en) * 2014-04-15 2016-12-14 奥林巴斯株式会社 Image processing apparatus, communication system and communication means and camera head

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003333498A (en) * 2002-05-14 2003-11-21 Fuji Photo Film Co Ltd Device and system for photographing conditions data delivery and digital camera
JP2005045398A (en) * 2003-07-24 2005-02-17 Canon Inc Method and device for photography assistance, and photographing device
JP2007027945A (en) * 2005-07-13 2007-02-01 Konica Minolta Holdings Inc Photographing information presenting system

Also Published As

Publication number Publication date
JP2008288881A (en) 2008-11-27

Similar Documents

Publication Publication Date Title
JP4949924B2 (en) Imaging system and imaging apparatus
JP4366601B2 (en) Time shift image distribution system, time shift image distribution method, time shift image request device, and image server
US8264570B2 (en) Location name registration apparatus and location name registration method
JP5194650B2 (en) Electronic camera
JP5763075B2 (en) Object information providing method and photographing apparatus to which the object information is applied
JP3944160B2 (en) Imaging apparatus, information processing apparatus, control method thereof, and program
US8432455B2 (en) Method, apparatus and computer program product for automatically taking photos of oneself
JP2003174578A (en) Electronic camera, image display device and image display method
JP4928350B2 (en) Shooting system
KR20110094970A (en) Method and apparatus for managing tag of multimedia content
JP5253595B2 (en) Imaging system and imaging apparatus
JP2008085408A (en) System of adding information to photographed image
JP2009111827A (en) Photographing apparatus and image file providing system
JP4307932B2 (en) Shooting system
JP5034880B2 (en) Electronic camera, image display device
JP2009049886A (en) Image retrieval device, photographing device, image retrieval method, and program
JP4919545B2 (en) Data transmission system and photographing apparatus
JP2014063300A (en) Character recognition device, character recognition processing method, and program
JP4357178B2 (en) Image server
JP2007020054A (en) Method and device for managing image
JP5999582B2 (en) Information output device and program
JP2013126012A (en) Photographic system, photographic device, and information management device
KR100987401B1 (en) Method for editing image files
KR101619091B1 (en) Method for transmitting image and image pickup apparatus applying the same
JP2009128478A (en) Digital camera

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100514

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4928350

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees