JP2012130067A - Photographing system and photographing apparatus - Google Patents

Photographing system and photographing apparatus Download PDF

Info

Publication number
JP2012130067A
JP2012130067A JP2012051866A JP2012051866A JP2012130067A JP 2012130067 A JP2012130067 A JP 2012130067A JP 2012051866 A JP2012051866 A JP 2012051866A JP 2012051866 A JP2012051866 A JP 2012051866A JP 2012130067 A JP2012130067 A JP 2012130067A
Authority
JP
Japan
Prior art keywords
unit
model image
shooting
image
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012051866A
Other languages
Japanese (ja)
Other versions
JP5253595B2 (en
Inventor
Shinya Kawasaki
真也 川▲崎▼
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2012051866A priority Critical patent/JP5253595B2/en
Publication of JP2012130067A publication Critical patent/JP2012130067A/en
Application granted granted Critical
Publication of JP5253595B2 publication Critical patent/JP5253595B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable a user who visits a sightseeing spot or the like to take satisfactory photographs, while efficiently moving to multiple places.SOLUTION: A photographing system includes: an imaging unit 101 which photographs a subject; a storage unit 203 which previously stores multiple sample images; an image processing unit 207, a keyword processing unit 208, and a control unit 209 which select predetermined sample images associated with the photographed image out of the stored sample images and acquire photographing positions of the selected sample images; and a display unit 108 which rearranges and displays the acquired photography positions in predetermined photographing order. Then the user can efficiently visit the plurality of places, while looking at the display on the display unit 108 and can take satisfactory photographs at the respective photography positions.

Description

本発明は、撮影システム及び撮影装置に関する。   The present invention relates to an imaging system and an imaging apparatus.

これまで、観光地等で写真撮影をする場合、誰かに案内してもらったり、写真教室に参加したり、詳細なガイドブックでもない限り、ベストな撮影スポットから、理想的な構図で撮影することは困難であった。   Until now, when taking a photo at a sightseeing spot etc., unless you are guided by someone, participate in a photography class, or are not a detailed guidebook, take a picture with the ideal composition from the best shooting spot Was difficult.

一方、近年、携帯電話やインターネットなどのネットワークが普及してきており、それを介して写真やコンテンツを簡単に送受信できる環境が整いつつある。このようなIT環境を有効利用して、以下のような提案がなされている。   On the other hand, in recent years, networks such as mobile phones and the Internet have become widespread, and an environment in which pictures and contents can be easily transmitted and received through the networks has been established. The following proposals have been made using such an IT environment effectively.

例えば、特許文献1は、現在地から撮影可能な撮影対象を特定し、それを撮影するための好適な撮影ポイントを簡易に呈示する撮影支援方法を提案している。   For example, Patent Document 1 proposes a shooting support method for specifying a shooting target that can be shot from the current location and simply presenting a suitable shooting point for shooting the shooting target.

特許文献2は、その場所に相応しい撮影条件(撮影位置、撮影時刻、露出、絞り、等)をダウンロードできるようにする写真撮影情報提供システムを提案している。   Patent Document 2 proposes a photographic information providing system that enables downloading of photographic conditions (photographing position, photographing time, exposure, aperture, etc.) appropriate for the place.

特許文献3は、車両等の事故又は故障時に、救援サービスを提供可能なサービス拠点に対して、現場の状況を撮影した画像を送信し、現場の状況を的確に判断できるようにする救援サービス提供システムを提案している。   Patent Document 3 provides a rescue service that allows an image of the situation of the scene to be transmitted to a service base that can provide a relief service in the event of an accident or failure of a vehicle, etc., so that the situation of the scene can be accurately determined A system is proposed.

特許文献4は、写真プリントを受け取りやすい店に画像を送ることで、利用者が移動する場合であっても写真プリントを受け取れるようにする写真配送システムを提案している。   Patent Document 4 proposes a photo delivery system in which an image is sent to a store where it is easy to receive a photo print so that the user can receive the photo print even when the user moves.

特開2005−45398号公報JP-A-2005-45398 特開2006−135515号公報JP 2006-135515 A 特開2005−56244号公報JP 2005-56244 A 特開2003−131846号公報JP 2003-131844 A

しかしながら、上記特許文献1乃至4によれば、撮影対象の特定が困難であり、それがどこから撮られたかが明快ではなった。   However, according to Patent Documents 1 to 4, it is difficult to specify a subject to be photographed, and it is not clear from where the photograph was taken.

一般に、ユーザの記憶の中の観光地や名所旧跡は、ガイドブックやテレビやインターネット上のコンテンツによって、先入観を植え付けられており、その典型的な写真がどの場所で撮影されたのかが分からないと、ユーザが満足のいく写真撮影が出来ない。   In general, tourist spots and historic sites in the user's memory are pre-populated with guidebooks, TV and Internet content, and it is impossible to know where the typical photos were taken. , Users can't take satisfactory photos.

また、そうした撮影ポイントは一箇所ではなく、複数あるので、どのように移動して撮れば良いのかが分からないことが多かった。   In addition, since there are a plurality of such shooting points, there is often no way of knowing how to move and shoot.

本発明は、上記の点に鑑みてなされたもので、観光地等に行ったユーザが複数の場所を効率良く移動しながら満足のいく写真撮影を行える撮影システム及び撮影装置を提供することを目的とする。   The present invention has been made in view of the above points, and it is an object of the present invention to provide a photographing system and a photographing apparatus that allow a user who went to a sightseeing spot to perform satisfactory photographing while moving efficiently between a plurality of places. And

本発明の撮影システムの一態様は、
被写体を撮影する撮影部と、
予め複数の手本画像を記憶しておく手本画像記憶部と、
上記手本画像記憶部に記憶されている手本画像の中から、上記撮影部で撮影された撮影画像に関連する所定の手本画像を選択する手本画像選択部と、
上記手本画像選択部で選択された上記手本画像の撮影位置を取得する手本画像撮影位置取得部と、
上記手本画像撮影位置取得部で取得した上記手本画像の撮影位置を、所定の撮影順に並べて表示する表示部と、
を具備することを特徴とする。
One aspect of the imaging system of the present invention is:
A shooting section for shooting the subject;
A model image storage unit for storing a plurality of model images in advance;
A model image selection unit that selects a predetermined model image related to the photographed image captured by the photographing unit from among the model images stored in the model image storage unit;
A model image shooting position acquisition unit for acquiring the shooting position of the model image selected by the model image selection unit;
A display unit that displays the shooting positions of the sample images acquired by the sample image shooting position acquisition unit in a predetermined shooting order; and
It is characterized by comprising.

また、本発明の撮影装置の一態様は、
被写体を撮影する撮影部と、
上記撮影部で撮影された撮影画像を所定のサーバに送信する送信部と、
上記撮影画像の送信に応答して上記サーバより送信される手本画像、上記手本画像の撮影位置を表す撮影位置情報、及び上記手本画像の撮影順を表す撮影順情報を受信する受信部と、
上記手本画像、上記撮影位置情報、及び上記撮影順情報を表示する表示部と、
を具備することを特徴とする。
Also, one aspect of the photographing apparatus of the present invention is
A shooting section for shooting the subject;
A transmission unit that transmits a captured image captured by the imaging unit to a predetermined server;
A receiving unit that receives a model image transmitted from the server in response to transmission of the captured image, shooting position information indicating a shooting position of the model image, and shooting order information indicating a shooting order of the model image When,
A display unit for displaying the sample image, the shooting position information, and the shooting order information;
It is characterized by comprising.

本発明によれば、観光地等に行ったユーザが、ガイドブックやポスター、テレビなどで見たシーンを撮影したい場合に、何処からどのような順序で撮影していけば良いかをガイドすることで、ユーザが複数の場所を効率良く移動しながら満足のいく写真撮影を行える撮影システム及び撮影装置を提供することができる。   According to the present invention, when a user who went to a sightseeing spot wants to shoot a scene viewed on a guidebook, a poster, a television, etc., it guides where to shoot in what order. Thus, it is possible to provide an imaging system and an imaging apparatus that allow a user to perform satisfactory photography while moving between a plurality of locations efficiently.

図1(A)は、本発明の第1実施形態に係る撮影システムの構成を示す図であり、図1(B)は、図1(A)中のカメラ及びウェブサーバのそれぞれの構成を示す図である。FIG. 1A is a diagram showing a configuration of the photographing system according to the first embodiment of the present invention, and FIG. 1B shows a configuration of each of the camera and the web server in FIG. FIG. 図2(A)は、カメラのCPUが実行するROMに記憶された制御プログラムの内の第1実施形態に係る特徴部分の動作フローチャートを示す図であり、図2(B)は、ウェブサーバの制御部が実行するROMに記憶された制御プログラムの内の第2実施形態に係る特徴部分の動作フローチャートを示す図である。FIG. 2A is a diagram showing an operation flowchart of the characteristic part according to the first embodiment of the control program stored in the ROM executed by the CPU of the camera, and FIG. It is a figure which shows the operation | movement flowchart of the characteristic part which concerns on 2nd Embodiment among the control programs memorize | stored in ROM which a control part performs. 図3は、カメラの表示部での表示例を示す図である。FIG. 3 is a diagram illustrating a display example on the display unit of the camera. 図4は、カメラの表示部での別の表示例を示す図である。FIG. 4 is a diagram illustrating another display example on the display unit of the camera. 図5は、カメラの表示部での更に別の表示例を示す図である。FIG. 5 is a diagram showing still another display example on the display unit of the camera. 図6は、カメラの表示部での他の表示例を示す図である。FIG. 6 is a diagram illustrating another display example on the display unit of the camera. 図7Aは、カメラのCPUが実行するROMに記憶された制御プログラムの内の本発明の第2実施形態に係る特徴部分の動作フローチャートを示す図である。FIG. 7A is a diagram showing an operation flowchart of the characteristic part according to the second embodiment of the present invention in the control program stored in the ROM executed by the CPU of the camera. 図7Bは、ウェブサーバの制御部が実行するROMに記憶された制御プログラムの内の第2実施形態に係る特徴部分の動作フローチャートを示す図である。FIG. 7B is a diagram illustrating an operation flowchart of the characteristic portion according to the second embodiment in the control program stored in the ROM executed by the control unit of the web server.

以下、本発明を実施するための最良の形態を図面を参照して説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

[第1実施形態]
図1(A)は、本発明の第1実施形態に係る撮影システムの構成を示す図である。
[First Embodiment]
FIG. 1A is a diagram illustrating a configuration of an imaging system according to the first embodiment of the present invention.

本実施形態に係る撮影システムは、本発明の撮影装置の第1実施形態としてのカメラ1と、該カメラ1と相互に通信可能なサーバ装置としてのウェブサーバ2とを含む。カメラ1とウェブサーバ2とが通信するための一例として、カメラ1はアクセスポイント3経由でインターネットを含むネットワーク4に無線接続され、ネットワーク4を経由してウェブサーバ2にアクセスする。なお、本実施形態では、ウェブサーバ2に接続するための初期設定は、予めカメラ1に登録されているものとする。   The photographing system according to the present embodiment includes a camera 1 as a first embodiment of the photographing apparatus of the present invention and a web server 2 as a server device that can communicate with the camera 1. As an example for communication between the camera 1 and the web server 2, the camera 1 is wirelessly connected to the network 4 including the Internet via the access point 3, and accesses the web server 2 via the network 4. In the present embodiment, it is assumed that initial settings for connecting to the web server 2 are registered in the camera 1 in advance.

カメラ1からアクセスポイント3に画像が送信されると、その画像はネットワーク4を経由して目的のウェブサーバ2で受信される。ウェブサーバ2は、その受信した画像を解析して、所定の処理を行い、カメラ1にデータを送信する。   When an image is transmitted from the camera 1 to the access point 3, the image is received by the target web server 2 via the network 4. The web server 2 analyzes the received image, performs predetermined processing, and transmits data to the camera 1.

図1(B)は、上記カメラ1及びウェブサーバ2のそれぞれの構成を示す図である。   FIG. 1B is a diagram showing the configurations of the camera 1 and the web server 2.

カメラ1は、撮像部101、撮像制御部102、入力部103、ROM104、RAM105、記憶部106、記憶制御部107、表示部108、表示制御部109、MIC110、音声制御部111、通信部112、通信制御部113、位置情報取得部114、CPU115、及びSP116から構成される。   The camera 1 includes an imaging unit 101, an imaging control unit 102, an input unit 103, a ROM 104, a RAM 105, a storage unit 106, a storage control unit 107, a display unit 108, a display control unit 109, an MIC 110, an audio control unit 111, a communication unit 112, The communication control unit 113, the position information acquisition unit 114, the CPU 115, and the SP 116 are included.

ここで、撮像部101は、特に図示はしていないが、レンズと、該レンズによって集光した光を電気信号に変換するCCD等の撮像素子と、その周辺回路とで構成される。撮像制御部102は、この撮像部101を制御する。入力部103は、操作者がカメラ1に操作指示を与えるスイッチ等である。ROM104は、各種制御プログラムを格納し、RAM105は、プログラム実行のためにデータを一時的に保持する。記憶部106は、上記撮像部101で撮影した画像データを記憶するものであり、該カメラ1に固定された記憶媒体及び/又は該カメラ1に対して着脱自在な記憶媒体を含む。記憶制御部107は、画像データの記憶部106からの読み出し及び記憶部106への書き込みを制御する。   Here, although not particularly illustrated, the imaging unit 101 includes a lens, an imaging element such as a CCD that converts light collected by the lens into an electrical signal, and a peripheral circuit thereof. The imaging control unit 102 controls the imaging unit 101. The input unit 103 is a switch or the like that gives an operation instruction to the camera 1 by the operator. The ROM 104 stores various control programs, and the RAM 105 temporarily holds data for program execution. The storage unit 106 stores image data captured by the imaging unit 101, and includes a storage medium fixed to the camera 1 and / or a storage medium detachable from the camera 1. The storage control unit 107 controls reading of image data from the storage unit 106 and writing to the storage unit 106.

表示部108は、撮影画像や各種情報を表示するLCD等を含み、表示制御部109は、該表示部108の表示項目及び表示サイズ等を制御する。MIC110は、音声を電気信号に変換して音声制御部111へ出力する。SP116は音声制御部111から入力された電気信号を音声に変換して出力する。そして、音声制御部111は、これらMIC110およびSP116の制御を行う。通信部112は、外部機器とのデータ送受信を有線または無線通信で行うもので、通信制御部113は、該通信部112による通信データのやりとりを制御する。位置情報取得部114は、位置情報を取得するGPS受信機等である。CPU115は、該カメラ1の各制御部及びROM104やRAM105を制御する。なお、このCPU115は、撮像制御部102及び入力部103とは直接接続され、ROM104、RAM105、記憶制御部107、表示制御部109、音声制御部111、通信制御部113、及び位置情報取得部114とは、バス117を介して接続されている。   The display unit 108 includes an LCD or the like that displays captured images and various information, and the display control unit 109 controls display items, display size, and the like of the display unit 108. The MIC 110 converts the sound into an electric signal and outputs it to the sound control unit 111. The SP 116 converts the electrical signal input from the sound control unit 111 into sound and outputs the sound. The voice control unit 111 controls the MIC 110 and the SP 116. The communication unit 112 performs data transmission / reception with an external device by wired or wireless communication, and the communication control unit 113 controls exchange of communication data by the communication unit 112. The position information acquisition unit 114 is a GPS receiver or the like that acquires position information. The CPU 115 controls each control unit of the camera 1 and the ROM 104 and RAM 105. The CPU 115 is directly connected to the imaging control unit 102 and the input unit 103, and includes a ROM 104, a RAM 105, a storage control unit 107, a display control unit 109, an audio control unit 111, a communication control unit 113, and a position information acquisition unit 114. Are connected via a bus 117.

ウェブサーバ2は、ROM201、RAM202、記憶部203、記憶制御部204、通信部205、通信制御部206、画像処理部207、キーワード処理部208及び制御部209から構成される。ここで、ROM201は、プログラムを格納し、RAM202は、そのプログラムの実行に必要なデータを一時的に保持する。記憶部203は、手本画像データと画像キーワードとを関連付けたデータベースなどを記憶し、記憶制御部204は、記憶部203にデータを読み書きする制御を行う。通信部205は、外部機器とのデータ送受信を有線または無線通信で行うものであり、通信制御部206は、該通信部205での通信データのやりとりを制御する。画像処理部207は、画像処理を行うものであり、キーワード処理部208はキーワードに関する処理を行うものである。制御部209は、該ウェブサーバ2の各種制御部を制御するもので、CPU等で構成される。なお、この制御部209は、ROM201、RAM202、記憶制御部204、通信制御部206、及び画像処理部207とバス210を介して接続されている。   The web server 2 includes a ROM 201, a RAM 202, a storage unit 203, a storage control unit 204, a communication unit 205, a communication control unit 206, an image processing unit 207, a keyword processing unit 208, and a control unit 209. Here, the ROM 201 stores a program, and the RAM 202 temporarily holds data necessary for executing the program. The storage unit 203 stores a database in which model image data and image keywords are associated with each other, and the storage control unit 204 performs control to read / write data from / to the storage unit 203. The communication unit 205 performs data transmission / reception with an external device by wired or wireless communication, and the communication control unit 206 controls communication data exchange in the communication unit 205. The image processing unit 207 performs image processing, and the keyword processing unit 208 performs processing related to keywords. The control unit 209 controls various control units of the web server 2 and includes a CPU or the like. The control unit 209 is connected to the ROM 201, the RAM 202, the storage control unit 204, the communication control unit 206, and the image processing unit 207 via the bus 210.

上記画像処理部207は、特徴点検出部207A、特徴点比較部207B、画像検索部207C、及び圧縮伸張部207Dを含む。ここで、特徴点検出部207Aは、画像データから特徴点を検出する機能を有し、特徴点比較部207Bは、該特徴点検出部207Aで検出した特徴点と記憶部203のデータベースに記憶されている手本画像データ群の特徴点データとを比較する機能を有する。画像検索部207Cは、記憶部203に記憶されている画像データを検索する機能を有し、圧縮伸張部207Dは、通信部112により受信した画像データを伸張したり、該画像検索部207Cで検索した画像データを圧縮したりする機能を有する。   The image processing unit 207 includes a feature point detection unit 207A, a feature point comparison unit 207B, an image search unit 207C, and a compression / decompression unit 207D. Here, the feature point detection unit 207A has a function of detecting feature points from the image data, and the feature point comparison unit 207B is stored in the database of the feature points detected by the feature point detection unit 207A and the storage unit 203. And a feature point data of the sample image data group. The image search unit 207C has a function of searching for image data stored in the storage unit 203, and the compression / decompression unit 207D expands the image data received by the communication unit 112 or searches the image search unit 207C. A function of compressing the processed image data.

また、上記キーワード処理部208は、画像キーワード抽出部208A、画像キーワードリスト生成部208B、及びユーザ名リスト生成部208Cを含む。ここで、画像キーワード抽出部208Aは、上記特徴点比較部207Bによって受信画像データと特徴点パターンが同類のものと判断された手本画像データに予め関連付けられている画像キーワードを抽出する機能を有し、画像キーワードリスト生成部208Bは、該画像キーワード抽出部208Aで抽出された画像キーワードをリスト化した画像キーワードリストを作成する機能を有する。ユーザ名リスト生成部208Cは、上記特徴点比較部207Bによって受信画像データと特徴点パターンが同類のものと判断された手本画像データに付随する付随キーワード(撮影位置、撮影時間、ユーザ名(撮影者名)、等)よりユーザ名をリスト化したユーザ名リストを作成する機能を有する。   The keyword processing unit 208 includes an image keyword extraction unit 208A, an image keyword list generation unit 208B, and a user name list generation unit 208C. Here, the image keyword extraction unit 208A has a function of extracting an image keyword associated in advance with the model image data in which the received image data and the feature point pattern are determined to be similar by the feature point comparison unit 207B. The image keyword list generation unit 208B has a function of creating an image keyword list in which the image keywords extracted by the image keyword extraction unit 208A are listed. The user name list generation unit 208C includes accompanying keywords (shooting position, shooting time, user name (shooting), which are associated with the model image data whose feature point pattern is similar to the received image data by the feature point comparison unit 207B. (User name), etc.) and a function for creating a user name list in which user names are listed.

なお、手本画像データとは、別のカメラマン等が撮影した写真の画像データである。   The model image data is image data of a photograph taken by another cameraman or the like.

以下、上記のような構成のカメラ1とウェブサーバ2との間でやり取りされる通信及び処理について説明する。   Hereinafter, communication and processing exchanged between the camera 1 configured as described above and the web server 2 will be described.

図2(A)は、カメラ1のCPU115が実行するROM104に記憶された制御プログラムの内、本実施形態に係る特徴部分の動作フローチャートを示す図であり、図2(B)は、ウェブサーバ2の制御部209が実行するROM201に記憶された制御プログラムの内の本実施形態に係る特徴部分の動作フローチャートを示す図である。   FIG. 2A is a diagram showing an operation flowchart of the characteristic part according to the present embodiment in the control program stored in the ROM 104 executed by the CPU 115 of the camera 1, and FIG. It is a figure which shows the operation | movement flowchart of the characteristic part which concerns on this embodiment among the control programs memorize | stored in ROM201 which the control part 209 performs.

即ち、カメラ1で撮影を行うと(ステップS101)、得られた画像データは、RAM105上に一時的な記憶データとして記憶され、記憶部106に記憶される(ステップS102)。そして、その撮影時の位置データが位置情報取得部114によって取得され、予め設定してある所定プロバイダが管理するアクセスポイント3に、通信部112を介して、上記画像データと位置データとが送信される(ステップS103)。なおこのとき、通信量を削減するために、画像データはRAWデータではなく圧縮されたフォーマットで送信されても良い。この送信後、カメラ1は、受信待ちとなる(ステップS104)。但し、所定時間内に受信が無いときには、本動作を終了して、通常の撮影や撮影画像データの表示といった通常のカメラの動作に移行する。   That is, when photographing is performed with the camera 1 (step S101), the obtained image data is stored as temporary storage data on the RAM 105 and stored in the storage unit 106 (step S102). Then, the position data at the time of shooting is acquired by the position information acquisition unit 114, and the image data and the position data are transmitted to the access point 3 managed by a predetermined provider set in advance via the communication unit 112. (Step S103). At this time, in order to reduce the communication amount, the image data may be transmitted in a compressed format instead of the RAW data. After this transmission, the camera 1 waits for reception (step S104). However, when there is no reception within a predetermined time, this operation is terminated, and a normal camera operation such as normal shooting or display of captured image data is started.

カメラ1から送信されたデータがアクセスポイント3に受信されると、アクセスポイント3内部のルータ機能により、インターネット等のネットワーク4に接続されているサーバ(ウェブサーバ2)に上記画像データと位置データが届けられる。   When the data transmitted from the camera 1 is received by the access point 3, the image data and the position data are transferred to the server (web server 2) connected to the network 4 such as the Internet by the router function inside the access point 3. Delivered.

ウェブサーバ2は、上記画像データと位置データを受信すると(ステップS201)、画像処理部207の特徴点検出部207Aにより、そのカメラ1から受信した画像データに対して二値化及び輪郭抽出などの処理を行い、その画像の特徴点パターンを検出する(ステップS202)。つまり、受信した画像データを白黒にして、コーナー検出フィルタをかけて判定処理を行い、その画像を構成する各部の角部位置を特徴点として得る。これら特徴点のパターンつまり特徴点の配置及び分布が当該画像の特徴となる。   When the web server 2 receives the image data and the position data (step S201), the feature point detection unit 207A of the image processing unit 207 performs binarization and contour extraction on the image data received from the camera 1. Processing is performed to detect a feature point pattern of the image (step S202). In other words, the received image data is converted into black and white, a corner detection filter is applied to perform determination processing, and the corner position of each part constituting the image is obtained as a feature point. These feature point patterns, that is, the arrangement and distribution of the feature points become the features of the image.

そして、特徴点比較部207Bにより、その特徴点検出部207Aで抽出した画像データの特徴点パターンと、予め記憶部203のデータベースに記憶されている手本画像データ群の特徴点パターンを比較することで、抽出した特徴点パターンを検索キーとしたデータベースの検索を実施する(ステップS203)。例えば、有名な観光スポットで撮影された手本画像データでは、予め、上記特徴点(数百ポイントからなる)の配置情報が特徴点パターンとして抽出されて、ウェブサーバ2の記憶部203に構成したデータベースに登録されている。見る角度で変化する建造物などは、見る角度ごとに、複数セットの特徴点パターンがデータベース化されている。したがって、撮影画像データから同様の方法で特徴点パターンを抽出し、予め登録されているデータベースを照合し、一番高い一致度のものを選択することによって、対象物が何であるかを認識することが出来る。なおこのとき、上記カメラ1から受信した位置データによって、比較対象の手本画像データを当該位置周辺に絞ることで、誤認識の確率を低減することができる。   Then, the feature point comparison unit 207B compares the feature point pattern of the image data extracted by the feature point detection unit 207A with the feature point pattern of the sample image data group stored in the database of the storage unit 203 in advance. Then, a database search is performed using the extracted feature point pattern as a search key (step S203). For example, in the model image data taken at a famous tourist spot, the arrangement information of the feature points (consisting of several hundred points) is extracted in advance as a feature point pattern and configured in the storage unit 203 of the web server 2. Registered in the database. For buildings and the like that change depending on the viewing angle, a plurality of sets of feature point patterns are stored in a database for each viewing angle. Therefore, the feature point pattern is extracted from the captured image data by the same method, the database registered in advance is collated, and the object with the highest matching degree is selected to recognize what the object is. I can do it. At this time, the probability of misrecognition can be reduced by narrowing the model image data to be compared around the position based on the position data received from the camera 1.

勿論、本発明は、このような特徴点検出を行いパターンマッチングによって対象物を認識する手法に限定されるものではなく、統計的識別法や構造識別法などの他の画像認識手法を採用しても構わない。これら統計的識別法や構造識別法は公知であり、よってその説明は省略する。   Of course, the present invention is not limited to such a method of detecting feature points and recognizing an object by pattern matching, but adopts other image recognition methods such as a statistical identification method and a structure identification method. It doesn't matter. These statistical identification methods and structure identification methods are well known, and therefore their explanation is omitted.

このように、特徴点検出部207A及び特徴点比較部207Bは、撮影画像データと類似する手本画像データを検索する第1の手本画像検索部として機能する。   As described above, the feature point detection unit 207A and the feature point comparison unit 207B function as a first model image search unit that searches for model image data similar to captured image data.

ここで、上記抽出した画像データの特徴点パターンに一致する特徴点パターンを持つ手本画像データが検索されなかった場合には(ステップS204)、通信部205を介してリスト=0をカメラ1に送信する(ステップS205)。その後、上記ステップS201に戻り、次の画像データ及び位置データが送られてくるのを待つ。   If model image data having a feature point pattern that matches the feature point pattern of the extracted image data is not found (step S204), list = 0 is set in camera 1 via communication unit 205. Transmit (step S205). Thereafter, the process returns to step S201 and waits for the next image data and position data to be sent.

カメラ1側では、受信があると(ステップS104)、上記のようなリスト=0を受信したかを判別する(ステップS105)。ここで、そのようなリスト=0を受信した場合には、CPU115は、表示部108に「構図を変えて再度撮影してください」や「別構図で撮影」等のメッセージを表示して(ステップS106)、上記ステップS101に戻る。   When there is reception on the camera 1 side (step S104), it is determined whether or not the above list = 0 is received (step S105). When such a list = 0 is received, the CPU 115 displays a message such as “Please change the composition and take a picture again” or “Shoot with another composition” on the display unit 108 (step S1). S106), the process returns to step S101.

これに対して、ウェブサーバ2において、上記抽出した画像データの特徴点パターンに一致する特徴点パターンを持つ手本画像データが有った場合には(ステップS204)、画像キーワード抽出部208Aによって、それら手本画像データに関連付けて登録されている画像キーワード(例えば、東京タワー)を記憶部203からそれぞれ抽出し、画像キーワードリスト生成部208Bにより、それら抽出された画像キーワードをRAM202に一時的に構成する画像キーワードリストに追加する(ステップS206)。ここで、カメラ1から受信した位置データによって検索対象を絞っているので、異なる画像キーワードが抽出される可能性は低いが、異なる画像キーワードが抽出された場合には、上記画像キーワードリストにある画像キーワードのうち最も多く抽出された画像キーワードが、カメラ1から受信した画像データの画像キーワードとして適切であると判断することができる。   On the other hand, when there is model image data having a feature point pattern that matches the feature point pattern of the extracted image data in the web server 2 (step S204), the image keyword extraction unit 208A Image keywords (for example, Tokyo Tower) registered in association with the model image data are respectively extracted from the storage unit 203, and the extracted image keywords are temporarily configured in the RAM 202 by the image keyword list generation unit 208B. Is added to the image keyword list to be executed (step S206). Here, since the search target is narrowed down based on the position data received from the camera 1, it is unlikely that different image keywords will be extracted. However, if different image keywords are extracted, the images in the image keyword list will be displayed. It can be determined that the image keyword extracted most among the keywords is appropriate as the image keyword of the image data received from the camera 1.

次に、制御部209は、ユーザ名リスト生成部208Cにより、上記記憶部203から上記手本画像データそれぞれに付随する付随キーワード(撮影位置、撮影時間、ユーザ名(撮影者名)、等)よりユーザ名を抽出して、それら抽出したユーザ名をリスト化したユーザ名リストをRAM105上に生成する(ステップS207)。このように、ユーザ名リスト生成部208C及び制御部209は、手本画像データの撮影者情報を取得する撮影者情報取得部として機能する。そして、制御部209は、その生成したユーザ名リストを上記抽出した画像キーワードと共に通信部205を介してカメラ1に送信する(ステップS208)。この送信後、ウェブサーバ2は、ユーザ名選択待ちとなる(ステップS209)。但し、所定時間内に選択されたユーザ名の受信が無いときには、上記ステップS201に戻り、次の画像データ及び位置データが送られてくるのを待つことになる。   Next, the control unit 209 causes the user name list generation unit 208C to use the associated keywords (shooting position, shooting time, user name (photographer name), etc.) associated with each of the sample image data from the storage unit 203. User names are extracted, and a user name list in which the extracted user names are listed is generated on the RAM 105 (step S207). As described above, the user name list generation unit 208C and the control unit 209 function as a photographer information acquisition unit that acquires the photographer information of the model image data. Then, the control unit 209 transmits the generated user name list together with the extracted image keyword to the camera 1 via the communication unit 205 (step S208). After this transmission, the web server 2 waits for a user name selection (step S209). However, when the selected user name is not received within the predetermined time, the process returns to step S201 and waits for the next image data and position data to be sent.

カメラ1側では、上記のように受信があると(ステップS104)、リスト=0を受信したかを判別するもので(ステップS105)、ここで、リスト=0以外を受信した場合には、更に、ユーザ名リストを受信したか否かを判別する(ステップS107)。そして、ユーザ名リストを受信していない、つまり画像キーワードしか受信しなかった場合には、CPU115は、表示部108に「リスト無し」を表示して(ステップS108)、本動作を終了する。   On the camera 1 side, if there is a reception as described above (step S104), it is determined whether or not list = 0 has been received (step S105). Then, it is determined whether or not the user name list has been received (step S107). If the user name list has not been received, that is, only the image keyword has been received, the CPU 115 displays “no list” on the display unit 108 (step S108), and ends this operation.

これに対して、ユーザ名リストを受信した場合には、そのユーザ名リストをLCD等の表示部108に表示する(ステップS109)。カメラ1のユーザは入力部103、例えば十字ボタンとOKボタン等を操作して、このユーザ名リストより所望のユーザ名を選択し(ステップS110)、CPU115は、その選択されたユーザ名を通信部112を介してウェブサーバ2に送信する(ステップS111)。そしてこの送信後、カメラ1は、その選択ユーザに関する案内データの受信待ちとなり(ステップS112)、所定時間内にその受信が無いときには、本動作を終了することになる。   On the other hand, when the user name list is received, the user name list is displayed on the display unit 108 such as an LCD (step S109). The user of the camera 1 operates the input unit 103, for example, the cross button and the OK button, and selects a desired user name from the user name list (step S110), and the CPU 115 transmits the selected user name to the communication unit. It transmits to the web server 2 via 112 (step S111). After this transmission, the camera 1 waits for reception of guidance data relating to the selected user (step S112), and ends this operation when there is no reception within a predetermined time.

ウェブサーバ2側では、上記選択されたユーザ名を受信すると(ステップS209)、制御部209は、上記抽出された画像キーワードに関連付けられ且つ上記選択されたユーザ名が付随データとして付随している手本画像データを、画像検索部207Cによって記憶部203から検索抽出し、それら抽出された手本画像データを、付随キーワードとしてそれらに付随する撮影時間に従って、撮影時間順にソートする(ステップS210)。即ち、画像検索部207Cは第2の手本画像検索部として機能し、制御部209は手本画像撮影位置取得部として機能する。制御部209は、次に、そのソートした手本画像データに付随キーワードとして付随する撮影位置を、記憶部203に記憶している地図情報に関連付ける(ステップS211)。そして、その地図情報に撮影時間順に手本画像データの撮影位置を辿る経路を探索し、その経路を表す画像を重畳させた画像データ(案内データ)を生成して、通信部205を介してカメラ1に送信する(ステップS212)。その後、上記ステップS201に戻り、次の画像データ及び位置データが送られてくるのを待つ。   On the web server 2 side, when the selected user name is received (step S209), the control unit 209 associates the extracted user keyword with the selected user name as accompanying data. The main image data is searched and extracted from the storage unit 203 by the image search unit 207C, and the extracted model image data is sorted in the order of shooting time according to the shooting time attached to them as an accompanying keyword (step S210). That is, the image search unit 207C functions as a second model image search unit, and the control unit 209 functions as a model image shooting position acquisition unit. Next, the control unit 209 associates the shooting position associated with the sorted model image data as an associated keyword with the map information stored in the storage unit 203 (step S211). The map information is searched for a route that follows the shooting position of the model image data in order of shooting time, image data (guidance data) in which an image representing the route is superimposed is generated, and the camera is connected via the communication unit 205. 1 (step S212). Thereafter, the process returns to step S201 and waits for the next image data and position data to be sent.

カメラ1側では、そのような案内データを受信すると(ステップS112)、その案内データを展開して、LCD等の表示部108に、選択したユーザが撮影した手本画像の時間順の経路を示す地図表示を表示する(ステップS113)。   When such guidance data is received on the camera 1 side (step S112), the guidance data is expanded and a time-ordered route of the model image taken by the selected user is displayed on the display unit 108 such as an LCD. A map display is displayed (step S113).

図3は、この表示部108での地図表示の表示例を示す図である。これは、地図情報上に、被写体の位置を示す被写体位置マーク501、選択したユーザが手本画像を撮影した撮影場所を示す撮影位置マーク502、及びそれら撮影場所間の移動経路を示す経路表示503と、ユーザの現在位置を示す現在位置マーク504を重畳したものである。   FIG. 3 is a diagram showing a display example of the map display on the display unit 108. This is because, on the map information, a subject position mark 501 that indicates the position of the subject, a shooting position mark 502 that indicates the shooting location where the selected user has shot the model image, and a route display 503 that indicates the movement path between these shooting locations. And a current position mark 504 indicating the current position of the user is superimposed.

なお、地図情報は、案内データの一部としてウェブサーバ2から送信するようにしたが、カメラ1内にある地図情報を用いても良い。また、通信容量に余裕がある場合は地図情報をウェブサーバ2から受信し、通信容量に余裕がない場合は、カメラ1内の地図情報を用いるようにしても良い。   The map information is transmitted from the web server 2 as a part of the guidance data, but the map information in the camera 1 may be used. Further, when there is a margin in communication capacity, map information may be received from the web server 2, and when there is no margin in communication capacity, the map information in the camera 1 may be used.

また、カメラ1内にある地図情報を用いる場合には、案内データをウェブサーバ2からカメラ1に送信するのではなく、上記ステップS210でのソート結果のみをカメラ1に送信し、カメラ1側で地図情報との関連付け、経路探索を行うようにしても良い。更に、その受信したソート結果を表示部108で表示できるようにしても良い。   In addition, when using map information in the camera 1, the guide data is not transmitted from the web server 2 to the camera 1, but only the sorting result in the above step S210 is transmitted to the camera 1, and the camera 1 side Association with map information and route search may be performed. Further, the received sorting result may be displayed on the display unit 108.

図4は、このソート結果の表示例を示す図である。これは、選択したユーザ名を示すユーザ名505、被写体名称(例:東京タワー)を表す画像キーワード506と、その画像キーワードに一致した手本画像データそれぞれに付随する位置507及び時間508のリスト形式の記載とからなっている。位置507は緯度経度で表記している。例えば、「N:35/1,41/1,774/100 E:139/1,48/1,774,100」は北緯35度41分7.74秒、東経139度48分7.74秒を示す。なお、これは一例であり、例えば住所やその場所の通称等、どのような形式であっても構わないことは勿論である。   FIG. 4 is a diagram showing a display example of the sorting result. This is a list format of a user name 505 indicating a selected user name, an image keyword 506 indicating a subject name (eg, Tokyo Tower), and a position 507 and a time 508 associated with each sample image data matching the image keyword. It consists of the description. A position 507 is expressed in latitude and longitude. For example, “N: 35/1, 41/1, 774/100 E: 139/1, 48/1, 774, 100” is 35 degrees 41 minutes 7.74 seconds north latitude, 139 degrees 48 minutes 7.74 seconds east longitude. Indicates. This is merely an example, and it is needless to say that any format such as an address or a common name of the place may be used.

また、案内データには、各撮影場所での手本画像データも含めても良い。即ち、ウェブサーバ2において各手本画像データを圧縮伸張部207Dでサムネイル画像とした上で地図情報上に重畳する。あるいは、カメラ1内にある地図情報を用いる場合には、ウェブサーバ2ではソート結果に各サムネイル画像を関連付けて送信し、カメラ1側で地図情報上各サムネイル画像を重畳させる。なお、これらサムネイル画像のサイズは、予め決められたものでも良いし、上記ステップS201で受信した画像データのヘッダ情報として記載されている撮影機器情報に従ってカメラ1の表示部108の表示サイズを判別して、そのサイズによって適切な画像サイズを選択するようにしても良い。   Further, the guide data may include model image data at each photographing location. That is, each sample image data is converted into a thumbnail image by the compression / decompression unit 207D in the web server 2 and then superimposed on the map information. Alternatively, when map information in the camera 1 is used, the web server 2 transmits each thumbnail image in association with the sorting result, and the camera 1 side superimposes each thumbnail image on the map information. The sizes of these thumbnail images may be determined in advance, or the display size of the display unit 108 of the camera 1 is determined according to the photographing device information described as the header information of the image data received in step S201. Depending on the size, an appropriate image size may be selected.

図5は、このような手本画像データを含む地図表示の例を示す図である。各撮影位置マーク502に対応させてサムネイル化された手本画像509が表示される。   FIG. 5 is a diagram showing an example of a map display including such model image data. A model image 509 converted into a thumbnail corresponding to each shooting position mark 502 is displayed.

なお、入力部103の操作により、上記手本画像509を選択して表示部108のサイズに拡大表示できるようにしても良い。この場合、ウェブサーバ2に要求して表示部108のサイズに相応しい手本画像データをダウンロードして表示するか、受信したサムネイル画像を拡大して表示することとなるが、著作権が存在する手本画像データについては、カメラ1の記憶部106に記憶できないようにしたり、或いは何らかの課金を行った上でしか記憶できないようにしても良い。   Note that the example image 509 may be selected and enlarged to the size of the display unit 108 by operating the input unit 103. In this case, the model image data corresponding to the size of the display unit 108 is downloaded to the web server 2 and displayed, or the received thumbnail image is enlarged and displayed. The main image data may not be stored in the storage unit 106 of the camera 1 or may be stored only after some charge is made.

更に、地図情報を表示する際には、カメラ1の位置情報取得部114で取得される位置データに従って現在位置マーク504をリアルタイムに変更表示することができる。   Furthermore, when displaying the map information, the current position mark 504 can be changed and displayed in real time according to the position data acquired by the position information acquisition unit 114 of the camera 1.

また、撮影位置マーク502が表示されている撮影場所で撮影すると、現在のカメラ1の位置データと各撮影場所の位置情報とから、当該撮影場所では撮影済みであることを判断し、表示部108に撮影済みであることをアイコン等で表示するようにしても良い。   Further, when shooting is performed at the shooting location where the shooting position mark 502 is displayed, it is determined from the current position data of the camera 1 and position information of each shooting location that the shooting location has already been shot, and the display unit 108. It may be displayed with an icon or the like that the image has been taken.

図6は、そのような撮影済みであることを示すチェックマーク510を表示するようにした場合の表示例を示す図である。   FIG. 6 is a diagram showing a display example when a check mark 510 indicating that such a photograph has been taken is displayed.

以上のように、本第1実施形態によれば、観光地等に行ったユーザが、ガイドブックやポスター、テレビなどで見たシーンを撮影したい場合に、どこから撮影すれば良いかをガイドすることができるので、ユーザが満足のいく写真撮影を行えるようになる。   As described above, according to the first embodiment, when a user who goes to a sightseeing spot wants to shoot a scene viewed on a guidebook, a poster, a television, etc., he / she guides where to start shooting. The user can take a satisfactory picture.

例えば、富士山や東京タワーなどには、プロやハイアマチュアのカメラマンが特によく撮影するポイントがある。しかし、通常、そのような地点からカメラマンが撮影した画像のみが、媒体となってユーザの目に焼き付けられるので、カメラ1を持って出かけたユーザは、その観光スポットに行ったとしても、それと同じ風景が撮影できないと満足することができない。また、そうしたポイントは一箇所ではなく、複数あるので、どのように移動して撮れば良いのかが分からないことが多かった。   For example, Mt. Fuji, Tokyo Tower, etc. have points that are photographed by professional and high amateur photographers particularly well. However, normally, only the image taken by the cameraman from such a point is burned into the user's eyes as a medium, so even if the user who went out with the camera 1 goes to the tourist spot, it is the same If you can't shoot the landscape, you can't be satisfied. Also, since there are multiple such points, there are many people who do not know how to move and shoot.

本実施形態は、このようなユーザに対し、カメラ1を持っていくだけで、複数の場所を、効率良く移動しながら撮影旅行なり撮影ハイキングなりが楽しめるシステムを提供することができる。   The present embodiment can provide a system that allows a user to enjoy shooting trips and shooting hikes while efficiently moving a plurality of places by simply bringing the camera 1 to such a user.

この複数の場所は、例えば、あるカメラマンや有名人などが、撮影した画像と関連付けられており、上記ウェブサーバ2には、こうした撮影者が移動した順番や経路の情報も有しており、その先達に倣って、移動しながら撮影を楽しむような状況をも想定している。これによって、ユーザは綿密な計画を立てなくとも、撮影スポットを見逃すことなく、効率良く、撮影や移動を楽しむことが出来る。   For example, a certain photographer or a celebrity is associated with an image taken by the photographer, and the web server 2 also has information on the order and route that the photographer has moved. In this way, it is assumed that the user enjoys shooting while moving. Thus, the user can enjoy shooting and moving efficiently without overlooking the shooting spot without making a detailed plan.

また、ごく近くまで来ているのに、せっかくの撮影ポイントに気づかず、帰って来てから、それを知ってがっかりするというケースもよくあったが、こうした問題をも解決することが出来る。   Also, even though it was very close, it often happened that people didn't realize the shooting point and were disappointed to know it when they came home. However, this problem can be solved.

更に、各撮影ポイントでの手本画像をも表示することが出来るので、手本画像と同じ構図の撮影が行え、ユーザが満足のいく写真撮影を行えるようになる。   Furthermore, since a model image at each shooting point can also be displayed, it is possible to shoot with the same composition as the model image, and the user can take a satisfactory picture.

[第2実施形態]
次に、本発明の第2実施形態を説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.

図7Aは、カメラ1のCPU115が実行するROM104に記憶された制御プログラムの内、本第2実施形態に係る特徴部分の動作フローチャートを示す図であり、図7Bは、ウェブサーバ2の制御部209が実行するROM201に記憶された制御プログラムの内の本第2実施形態に係る特徴部分の動作フローチャートを示す図である。ここで、上記第1実施形態と同様の部分には図2(A)及び(B)と同一の参照符号を付すことで、その説明は省略する。   FIG. 7A is a diagram showing an operation flowchart of the characteristic part according to the second embodiment of the control program stored in the ROM 104 executed by the CPU 115 of the camera 1, and FIG. 7B is a control unit 209 of the web server 2. It is a figure which shows the operation | movement flowchart of the characteristic part which concerns on this 2nd Embodiment among the control programs memorize | stored in ROM201 performed. Here, the same reference numerals as those in FIGS. 2A and 2B are attached to the same parts as those in the first embodiment, and the description thereof is omitted.

即ち、上述したように、ウェブサーバ2側では、抽出した画像データの特徴点パターンに一致する特徴点パターンを持つ手本画像データが検索されなかった場合には(ステップS204)、通信部205を介してリスト=0をカメラ1に送信するが(ステップS205)、本第2実施形態においては、その後、上記ステップS201に戻るのではなく、画像キーワードの受信待ちとなって(ステップS213)、所定時間内に受信が無いときにのみ、上記ステップS201に戻るようにしている。   That is, as described above, when the model image data having the feature point pattern that matches the feature point pattern of the extracted image data is not searched on the web server 2 side (step S204), the communication unit 205 is set. List = 0 is transmitted to the camera 1 (step S205), but in the second embodiment, after that, instead of returning to the above step S201, it waits for the reception of the image keyword (step S213). Only when there is no reception within the time, the process returns to step S201.

そして、カメラ1側では、そのようなリスト=0を受信した場合には、本第2実施形態では、入力部103からのキー入力によって、またはMIC110と音声制御部111を利用した音声認識によって、ユーザが所望の画像キーワードを入力できるようにしている(ステップS114)。そして、この入力された画像キーワードを通信部112を介してウェブサーバ2に送信した後(ステップS115)、上記ステップS104に戻って受信待ちとなる。   On the camera 1 side, when such a list = 0 is received, in the second embodiment, by key input from the input unit 103 or by voice recognition using the MIC 110 and the voice control unit 111, The user can input a desired image keyword (step S114). Then, after the input image keyword is transmitted to the web server 2 via the communication unit 112 (step S115), the process returns to step S104 and waits for reception.

ウェブサーバ2側では、上記画像キーワードを受信すると(ステップS213)、その受信した画像キーワードに関連付けられた手本画像データを記憶部203から検索する(ステップS214)。そして、検索された手本画像データそれぞれに付随する付随キーワードよりユーザ名を抽出してユーザ名リストを生成する上記ステップS207以降の処理を実施する。   When the image keyword is received on the web server 2 side (step S213), the model image data associated with the received image keyword is retrieved from the storage unit 203 (step S214). Then, the process after step S207 is executed to extract the user name from the associated keyword associated with each retrieved model image data and generate a user name list.

以上のように、本第2実施形態では、画像キーワードが検索されなかった場合には、画像キーワードをカメラ1側で入力し、ウェブサーバ2に送信することで、ユーザ所望のユーザ名に対応する手本画像とその撮影位置を取得することができる。   As described above, in the second embodiment, when an image keyword is not searched, the image keyword is input on the camera 1 side and transmitted to the web server 2 to correspond to the user name desired by the user. A model image and its shooting position can be acquired.

なお、ウェブサーバ2は、上記入力された画像キーワードを、送信した撮影画像データと関連付けて記憶部203のデータベースに追加登録するようにしても良い。この場合、撮影画像は、手本画像ではないが画像キーワードの抽出のみに使用するユーザ画像データとして登録される。このようなユーザ画像データを多数蓄積することで、画像キーワードの抽出精度を向上できる。   The web server 2 may additionally register the input image keyword in the database of the storage unit 203 in association with the transmitted captured image data. In this case, the captured image is not a model image, but is registered as user image data used only for image keyword extraction. By accumulating a large number of such user image data, the image keyword extraction accuracy can be improved.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.

例えば、撮影装置としてカメラ1を例に説明したが、カメラ付の携帯電話機であっても良い。   For example, the camera 1 has been described as an example of the photographing apparatus, but a mobile phone with a camera may be used.

また、経路探索においては、撮影順にとらわれずに、最も効率的に各撮影ポイントを回れるような経路を探索するようにしても良い。   Further, in the route search, a route that can go around each shooting point most efficiently may be searched regardless of the shooting order.

1…カメラ、 2…ウェブサーバ、 3…アクセスポイント、 4…ネットワーク、 101…撮像部、 102…撮像制御部、 103…入力部、 104,201…ROM、 105,202…RAM、 106,203…記憶部、 107,204…記憶制御部、 108…表示部、 109…表示制御部、 110…MIC、 111…音声制御部、 112,205…通信部、 113,206…通信制御部、 114…位置情報取得部、 115…CPU、 116…SP、 117,210…バス、 207…画像処理部、 207A…特徴点検出部、 207B…特徴点比較部、 207C…画像検索部、 207D…圧縮伸張部、 208…キーワード処理部、 208A…画像キーワード抽出部、 208B…画像キーワードリスト生成部、 208C…ユーザ名リスト生成部、 209…制御部、 501…被写体位置マーク、 502…撮影位置マーク、 503…経路表示、 504…現在位置マーク、 505…ユーザ名、 506…画像キーワード、 507…位置、 508…時間、 509…手本画像、 510…チェックマーク。     DESCRIPTION OF SYMBOLS 1 ... Camera, 2 ... Web server, 3 ... Access point, 4 ... Network, 101 ... Imaging part, 102 ... Imaging control part, 103 ... Input part, 104, 201 ... ROM, 105, 202 ... RAM, 106, 203 ... Storage unit 107, 204 ... Storage control unit 108 ... Display unit 109 ... Display control unit 110 ... MIC 111 ... Audio control unit 112, 205 ... Communication unit 113, 206 ... Communication control unit 114 ... Position Information acquisition unit, 115 ... CPU, 116 ... SP, 117, 210 ... Bus, 207 ... Image processing unit, 207A ... Feature point detection unit, 207B ... Feature point comparison unit, 207C ... Image search unit, 207D ... Compression / decompression unit, 208: Keyword processing unit, 208A: Image keyword extraction unit, 208B: Image keyword list generation unit 208C: User name list generation unit, 209 ... Control unit, 501 ... Subject position mark, 502 ... Shooting position mark, 503 ... Path display, 504 ... Current position mark, 505 ... User name, 506 ... Image keyword, 507 ... Position, 508 ... Time, 509 ... Example image, 510 ... Check mark.

本発明の撮影システムの一態様は、
被写体を撮影する撮影部と、
予め複数の手本画像を記憶しておく手本画像記憶部と、
上記手本画像記憶部に記憶されている手本画像の中から、上記撮影部で撮影された撮影画像に関連する所定の手本画像を選択する手本画像選択部と、
上記手本画像選択部で選択された上記手本画像の撮影位置を取得する手本画像撮影位置取得部と、
上記手本画像撮影位置取得部で取得した上記手本画像の撮影位置を、所定の撮影順に並べて表示する表示部と、
上記手本画像撮影位置取得部で取得した上記手本画像の撮影位置を、上記記憶部に記憶されている地図情報に関連付け、上記撮影順に手本画像の撮影位置を辿る経路を上記地図情報において探索し、該探索した経路を表す画像を上記表示部に表示させる制御部と、
を具備し、
上記手本画像選択部は、
上記手本画像記憶部に記憶されている手本画像の中から、上記撮影画像と類似する手本画像を検索する第1の手本画像検索部と、
上記第1の手本画像検索部で検索された手本画像に関連付けて登録されている画像キーワードが関連付けられた手本画像を検索する第2の手本画像検索部と、
を含み、
上記第2の手本画像検索部で検索された手本画像を選択することを特徴とする。
One aspect of the imaging system of the present invention is:
A shooting section for shooting the subject;
A model image storage unit for storing a plurality of model images in advance;
A model image selection unit that selects a predetermined model image related to the photographed image captured by the photographing unit from among the model images stored in the model image storage unit;
A model image shooting position acquisition unit for acquiring the shooting position of the model image selected by the model image selection unit;
A display unit that displays the shooting positions of the sample images acquired by the sample image shooting position acquisition unit in a predetermined shooting order; and
In the map information, the shooting position of the model image acquired by the model image shooting position acquisition unit is associated with the map information stored in the storage unit, and the route that follows the shooting position of the model image in the shooting order is A control unit that searches and displays an image representing the searched route on the display unit;
Equipped with,
The above model image selection unit
A first model image search unit for searching for a model image similar to the photographed image from the model images stored in the model image storage unit;
A second model image search unit for searching for a model image associated with an image keyword registered in association with the model image searched by the first model image search unit;
Including
A model image searched by the second model image search unit is selected.

Claims (8)

被写体を撮影する撮影部と、
予め複数の手本画像を記憶しておく手本画像記憶部と、
上記手本画像記憶部に記憶されている手本画像の中から、上記撮影部で撮影された撮影画像に関連する所定の手本画像を選択する手本画像選択部と、
上記手本画像選択部で選択された上記手本画像の撮影位置を取得する手本画像撮影位置取得部と、
上記手本画像撮影位置取得部で取得した上記手本画像の撮影位置を、所定の撮影順に並べて表示する表示部と、
を具備することを特徴とする撮影システム。
A shooting section for shooting the subject;
A model image storage unit for storing a plurality of model images in advance;
A model image selection unit that selects a predetermined model image related to the photographed image captured by the photographing unit from among the model images stored in the model image storage unit;
A model image shooting position acquisition unit for acquiring the shooting position of the model image selected by the model image selection unit;
A display unit that displays the shooting positions of the sample images acquired by the sample image shooting position acquisition unit in a predetermined shooting order; and
An imaging system comprising:
上記撮影システムは、
上記撮影部と上記表示部とを含む撮影装置と、
上記手本画像記憶部と上記手本画像選択部と上記手本画像位置取得部とを含むサーバ装置と、
を含み、
上記撮影装置と上記サーバ装置とは相互に通信可能であることを特徴とする請求項1に記載の撮影システム。
The above shooting system
An imaging device including the imaging unit and the display unit;
A server device including the model image storage unit, the model image selection unit, and the model image position acquisition unit;
Including
The imaging system according to claim 1, wherein the imaging apparatus and the server apparatus can communicate with each other.
上記手本画像選択部は、
上記手本画像記憶部に記憶されている手本画像の中から、上記撮影画像と類似する手本画像を検索する第1の手本画像検索部と、
その撮影位置が、上記第1の手本画像検索部で検索された手本画像の撮影位置の近傍である手本画像を検索する第2の手本画像検索部と、
を含み、
上記第2の手本画像検索部で検索された手本画像を選択することを特徴とする請求項2に記載の撮影システム。
The above model image selection unit
A first model image search unit for searching for a model image similar to the photographed image from the model images stored in the model image storage unit;
A second model image search unit for searching for a model image whose shooting position is in the vicinity of the shooting position of the model image searched by the first model image search unit;
Including
3. The photographing system according to claim 2, wherein the model image searched by the second model image search unit is selected.
上記所定の撮影順は、上記手本画像選択部で選択された手本画像と同様の画像を撮影しようとするときに、最も効率的な撮影順であることを特徴とする請求項1乃至3の何れかに記載の撮影システム。   4. The predetermined shooting order is the most efficient shooting order when shooting an image similar to the model image selected by the model image selection unit. The imaging system according to any one of the above. 上記手本画像選択部はさらに、上記第1の手本画像検索部で検索された手本画像の撮影者情報を取得する撮影者情報取得部を有し、
上記第2の手本画像検索部は、その撮影位置が上記第1の手本画像検索部で検索された手本画像の撮影位置の近傍であり、且つ上記撮影者情報取得部で取得した撮影者と同一の撮影者情報を有する手本画像を検索することを特徴とする請求項3に記載の撮影システム。
The model image selection unit further includes a photographer information acquisition unit that acquires photographer information of the model image searched by the first model image search unit,
The second model image search unit has a shooting position near the shooting position of the model image searched by the first model image search unit and acquired by the photographer information acquisition unit. 4. The photographing system according to claim 3, wherein a model image having the same photographer information as the photographer is searched.
上記所定の撮影順は、上記手本画像選択部で選択された手本画像の撮影者が撮影した順番であることを特徴とする請求項5に記載の撮影システム。   6. The photographing system according to claim 5, wherein the predetermined photographing order is a photographing order of a photographer of the model image selected by the model image selecting unit. 被写体を撮影する撮影部と、
上記撮影部で撮影された撮影画像を所定のサーバに送信する送信部と、
上記撮影画像の送信に応答して上記サーバより送信される手本画像、上記手本画像の撮影位置を表す撮影位置情報、及び上記手本画像の撮影順を表す撮影順情報を受信する受信部と、
上記手本画像、上記撮影位置情報、及び上記撮影順情報を表示する表示部と、
を具備することを特徴とする撮影装置。
A shooting section for shooting the subject;
A transmission unit that transmits a captured image captured by the imaging unit to a predetermined server;
A receiving unit that receives a model image transmitted from the server in response to transmission of the captured image, shooting position information indicating a shooting position of the model image, and shooting order information indicating a shooting order of the model image When,
A display unit for displaying the sample image, the shooting position information, and the shooting order information;
An imaging apparatus comprising:
上記表示部は、上記撮影位置情報を表示する際、上記撮影位置を含む周辺地図を表示し、その周辺地図上に上記撮影位置、及び上記撮影順を示す表示を行うことを特徴とする請求項7に記載の撮影装置。   The display unit, when displaying the shooting position information, displays a surrounding map including the shooting position, and displays the shooting position and the shooting order on the surrounding map. 8. The photographing apparatus according to 7.
JP2012051866A 2012-03-08 2012-03-08 Imaging system and imaging apparatus Expired - Fee Related JP5253595B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012051866A JP5253595B2 (en) 2012-03-08 2012-03-08 Imaging system and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012051866A JP5253595B2 (en) 2012-03-08 2012-03-08 Imaging system and imaging apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007131863A Division JP4949924B2 (en) 2007-05-17 2007-05-17 Imaging system and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2012130067A true JP2012130067A (en) 2012-07-05
JP5253595B2 JP5253595B2 (en) 2013-07-31

Family

ID=46646501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012051866A Expired - Fee Related JP5253595B2 (en) 2012-03-08 2012-03-08 Imaging system and imaging apparatus

Country Status (1)

Country Link
JP (1) JP5253595B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784134A (en) * 2017-11-14 2019-05-21 合宝股份有限公司 Computer readable storage medium, information processing unit and information processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004212683A (en) * 2002-12-27 2004-07-29 Canon Inc Photographing technical education supporting device, terminal device, and controlling method for the same
JP2005045398A (en) * 2003-07-24 2005-02-17 Canon Inc Method and device for photography assistance, and photographing device
JP2006135515A (en) * 2004-11-04 2006-05-25 Nec Corp System, device, and method for providing photographic information, and program
WO2007004520A1 (en) * 2005-06-30 2007-01-11 Olympus Corporation Searching system and searching method
JP2007027945A (en) * 2005-07-13 2007-02-01 Konica Minolta Holdings Inc Photographing information presenting system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004212683A (en) * 2002-12-27 2004-07-29 Canon Inc Photographing technical education supporting device, terminal device, and controlling method for the same
JP2005045398A (en) * 2003-07-24 2005-02-17 Canon Inc Method and device for photography assistance, and photographing device
JP2006135515A (en) * 2004-11-04 2006-05-25 Nec Corp System, device, and method for providing photographic information, and program
WO2007004520A1 (en) * 2005-06-30 2007-01-11 Olympus Corporation Searching system and searching method
JP2007027945A (en) * 2005-07-13 2007-02-01 Konica Minolta Holdings Inc Photographing information presenting system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784134A (en) * 2017-11-14 2019-05-21 合宝股份有限公司 Computer readable storage medium, information processing unit and information processing method

Also Published As

Publication number Publication date
JP5253595B2 (en) 2013-07-31

Similar Documents

Publication Publication Date Title
JP4949924B2 (en) Imaging system and imaging apparatus
US8264570B2 (en) Location name registration apparatus and location name registration method
JP4366601B2 (en) Time shift image distribution system, time shift image distribution method, time shift image request device, and image server
JP5194650B2 (en) Electronic camera
JP5763075B2 (en) Object information providing method and photographing apparatus to which the object information is applied
KR101379066B1 (en) Image processing device, image processing method, and recording medium
JP3944160B2 (en) Imaging apparatus, information processing apparatus, control method thereof, and program
US8432455B2 (en) Method, apparatus and computer program product for automatically taking photos of oneself
KR101653041B1 (en) Method and apparatus for recommending photo composition
JP2011040865A (en) Communication terminal, and program
JP4680937B2 (en) Sharing meta information media files
JP4928350B2 (en) Shooting system
JP2014038429A (en) Image processor, image processing method and image processing program
KR20120126529A (en) ANALYSIS METHOD AND SYSTEM OF CORRELATION BETWEEN USERS USING Exchangeable Image File Format
KR101729206B1 (en) System and method for image sharing
JP5253595B2 (en) Imaging system and imaging apparatus
JP2008085408A (en) System of adding information to photographed image
JP2009111827A (en) Photographing apparatus and image file providing system
JP2007020054A (en) Method and device for managing image
JP2009049886A (en) Image retrieval device, photographing device, image retrieval method, and program
JP4307932B2 (en) Shooting system
JP2009116795A (en) Information search device, electronic camera and information search method
JP2014063300A (en) Character recognition device, character recognition processing method, and program
JP2006350592A (en) Music information provision device
JP2003018070A (en) System for transmitting video image to photographed person

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130416

R150 Certificate of patent or registration of utility model

Ref document number: 5253595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees