JP2012070057A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2012070057A
JP2012070057A JP2010210799A JP2010210799A JP2012070057A JP 2012070057 A JP2012070057 A JP 2012070057A JP 2010210799 A JP2010210799 A JP 2010210799A JP 2010210799 A JP2010210799 A JP 2010210799A JP 2012070057 A JP2012070057 A JP 2012070057A
Authority
JP
Japan
Prior art keywords
image data
illustration
unit
shooting
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010210799A
Other languages
Japanese (ja)
Other versions
JP2012070057A5 (en
JP5680358B2 (en
Inventor
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2010210799A priority Critical patent/JP5680358B2/en
Publication of JP2012070057A publication Critical patent/JP2012070057A/en
Publication of JP2012070057A5 publication Critical patent/JP2012070057A5/ja
Application granted granted Critical
Publication of JP5680358B2 publication Critical patent/JP5680358B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To acquire an image by which a situation where a photographed image is taken can be grasped intuitively.SOLUTION: An imaging device has: an imaging part that images a subject; a photographing attitude detector that detects a photographing attitude including a photographing point by the imaging part; a subject determining part that determines the subject from photographed image data acquired by imaging of the imaging part; a related information storage part that preliminarily stores a plurality of illustration image data including illustration related to at least the photographing point and the subject respectively; and a related image data producing part that reads from the related information storage part the plurality of illustration image data related to at least the photographing point detected by the photographing position detector and the subject determined by the subject determining part, and carries out composition to produce illustration composite image data.

Description

本発明は、少なくとも撮影地点と被写体とにそれぞれ関連するイラストレーションを含む画像データを作成する撮像装置に関する。   The present invention relates to an imaging apparatus that creates image data including illustrations associated with at least a shooting point and a subject.

既に撮影された撮影画像等の情報に対して、その撮影後に位置データなどを簡単に付加する技術がある。例えば特許文献1は、被写体を撮影する撮影部を有し、この撮影部の位置又は向きのいずれか一方又は両方を検出部により検出し、予め記録された撮影画像情報に、検出部により検出された位置又は向きのいずれか一方又は両方に基づく情報を付加する電子カメラについて開示しています。   There is a technique for easily adding position data and the like to information such as a photographed image that has already been photographed. For example, Patent Literature 1 has a photographing unit that photographs a subject, and either one or both of the position and orientation of the photographing unit is detected by a detecting unit, and is detected by the detecting unit in prerecorded captured image information. An electronic camera that adds information based on either or both of its position and orientation is disclosed.

特開2009−60340号公報JP 2009-60340 A

ユーザとしては、カメラ等の撮影によって取得された撮影画像を観賞したときに、当該撮影画像を撮影したときの状況、例えば撮影した場所や、この撮影した場所が旅行等によって行った場所であるなどといった状況が直感的に把握しやすいことの要望がある。例えば、人物等の主要被写体を撮影して取得された撮影画像であっても、主要被写体の背景に旅行先を把握できるような例えば建造物等が何ら存在していなければ、撮影画像を観賞しても、当該撮影画像を撮影したときの状況を直感的に把握できるものではない。又、撮影画像中に例えば主要被写体に何ら関連の無い不要な情報が存在していると、かえって撮影画像を撮影したときの状況を直感的に把握するのに有益でないことがある。ユーザとしては、撮影画像を観賞したときに、当該撮影画像を撮影したときの状況を直感的に把握できることの要望がある。   As a user, when a photographed image acquired by photographing with a camera or the like is viewed, the situation when the photographed image is photographed, for example, the place where the photograph was taken, or the place where the photographed place was taken by a trip, etc. There is a demand for easy understanding of the situation. For example, even if a photographed image is obtained by photographing a main subject such as a person, if there is no building or the like that can grasp the travel destination in the background of the main subject, the photographed image is viewed. However, it is not possible to intuitively grasp the situation when the captured image is captured. Further, if there is unnecessary information unrelated to the main subject in the captured image, for example, it may not be useful for intuitively grasping the situation when the captured image is captured. There is a demand for the user to intuitively understand the situation when the photographed image is photographed when the photographed image is viewed.

本発明の目的は、撮影画像を撮影したときの状況を直感的に把握できる画像を取得できる撮像装置を提供することにある。   The objective of this invention is providing the imaging device which can acquire the image which can grasp | ascertain intuitively the condition when a picked-up image is image | photographed.

本発明の主要な局面に係る撮像装置は、撮影するときに、少なくとも被写体に関連するイラストレーションの画像データと、前記撮影する地点に関連するイラストレーションの画像データとを合成してイラスト合成画像データを作成する関連画像データ作成部を具備する。
本発明の主要な局面に係る撮像装置は、被写体を撮像する撮像部と、前記撮像部による撮影地点を含む撮影姿勢を検出する撮影姿勢検出部と、前記撮像部の撮像により取得された撮影画像データから前記被写体を判別する被写体判別部と、少なくとも前記撮影地点と前記被写体とにそれぞれ関連するイラストレーションを含む複数のイラスト画像データを予め記憶する関連情報記憶部と、少なくとも前記撮影位置検出部により検出された前記撮影地点と前記被写体判別部により判別された前記被写体とに関連する前記複数のイラスト画像データを前記関連情報記憶部から読み出し合成してイラスト合成画像データを作成する関連画像データ作成部とを具備する。
An imaging apparatus according to a main aspect of the present invention creates illustration composite image data by synthesizing at least illustration image data related to a subject and illustration image data related to the shooting point when shooting. A related image data creation unit.
An imaging apparatus according to a main aspect of the present invention includes an imaging unit that images a subject, a shooting posture detection unit that detects a shooting posture including a shooting point by the imaging unit, and a captured image acquired by imaging of the imaging unit. Detected by a subject discriminating unit that discriminates the subject from data, a related information storage unit that stores in advance a plurality of illustration image data including illustrations respectively associated with at least the shooting point and the subject, and at least the shooting position detection unit A related image data creation unit that reads and synthesizes the plurality of illustration image data related to the photographed spot and the subject determined by the subject determination unit from the related information storage unit to create illustration composite image data; It comprises.

本発明によれば、撮影画像を撮影したときの状況を直感的に把握できる画像を取得できる撮像装置を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device which can acquire the image which can grasp | ascertain intuitively the condition when a picked-up image is image | photographed can be provided.

本発明に係る撮像装置の第1の実施の形態を示す構成図。1 is a configuration diagram showing a first embodiment of an imaging apparatus according to the present invention. FIG. 同装置における各種イラストレーション情報を示す図。The figure which shows the various illustration information in the same apparatus. 同装置を持って写真撮影するときのユーザの存在する地図上の位置を示す図。The figure which shows the position on the map where a user exists when taking a photograph with the same apparatus. 同装置の画角内にビルディングが存在するか否かの判定を説明するための図。The figure for demonstrating determination of whether a building exists in the angle of view of the same apparatus. 同装置により表示候補となった対象体のイラスト画像データ中での合成位置を説明するための図。The figure for demonstrating the synthetic | combination position in the illustration image data of the target object used as the display candidate by the apparatus. 同装置によるビルディングの関連データの合成位置を説明するための図。The figure for demonstrating the synthetic | combination position of the related data of the building by the same apparatus. 同装置によるビルディングの大きさの決定を説明するための図。The figure for demonstrating determination of the size of the building by the same apparatus. 同装置によるビルディングの幅の決定方法を説明するための図。The figure for demonstrating the determination method of the width of the building by the apparatus. 同装置により作成した人物のイラストレーションであるアバター情報とタワー及びビルディングの各イラストレーション情報とを合成したイラスト画像データの一例を示す図。The figure which shows an example of the illustration image data which synthesize | combined each illustration information of the avatar information and tower and building which are the illustrations of the person produced with the same apparatus. 同装置により道路に沿って存在する建造物に対する歪み処理を説明するための図。The figure for demonstrating the distortion process with respect to the building which exists along a road with the apparatus. 同装置におけるイラストレーション画像作成を含む撮影モードフローチャート。6 is a shooting mode flowchart including illustration image creation in the apparatus. 同装置によるイラスト合成画像データの作成の一例を示す図。The figure which shows an example of creation of the illustration composite image data by the same apparatus. 本発明に係る撮像装置の第2の実施の形態を説明するために用いる地表の諸物体を縮尺した地図情報の一例を示す図。The figure which shows an example of the map information which reduced the various objects of the ground surface used in order to demonstrate 2nd Embodiment of the imaging device which concerns on this invention. 同装置による簡易地図情報を用いてのイラスト合成画像データの作成の一例を示す図。The figure which shows an example of preparation of the illustration composite image data using the simple map information by the same apparatus. 同装置におけるイラストレーション画像作成を含む撮影モードフローチャート。6 is a shooting mode flowchart including illustration image creation in the apparatus. 同装置による海岸沿いでの人物の撮影状況を示す図。The figure which shows the photographing condition of the person along the coast by the same apparatus. 同装置の動作により取得される撮影画像データやイラスト合成画像データ等を示す図。The figure which shows the picked-up image data, illustration composite image data, etc. which are acquired by operation | movement of the apparatus.

以下、本発明の第1の実施の形態について図面を参照して説明する。
図1は撮像装置の構成図を示す。この撮像装置1は、カメラ本体10と、撮影レンズ部(交換レンズとも称する)20とを有する。撮影レンズ部20は、カメラ本体10に対して取り付け、取り外し可能である。この撮影レンズ部20は、被写体からの像をカメラ本体10に送るもので、撮影レンズ系21と、操作部22と、駆動部23と、レンズデータ記憶部24と、レンズ側通信部25とを有する。
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 shows a configuration diagram of an imaging apparatus. The imaging apparatus 1 includes a camera body 10 and a photographing lens unit (also referred to as an interchangeable lens) 20. The taking lens unit 20 can be attached to and detached from the camera body 10. The photographic lens unit 20 sends an image from a subject to the camera body 10, and includes a photographic lens system 21, an operation unit 22, a drive unit 23, a lens data storage unit 24, and a lens side communication unit 25. Have.

撮影レンズ系21は、ズームレンズ21aを備える。この撮影レンズ部20は、複数用意され、それぞれズームレンズ21aによる倍率、焦点距離、明るさ等が異なる。撮影レンズ部20は、ズームレンズ21aを備えていないものであってもよく、この場合には操作部22を備えていない。操作部22は、例えばユーザの操作を受けてズームレンズ21aのズーム位置を可変可能である。駆動部23は、撮影レンズ部20の絞り、ピント等を制御し、被写体に対する様々な構図を可能とする。レンズデータ記憶部24には、撮影レンズ部20の画角などのデータが予め記憶されている。レンズ側通信部25は、カメラ本体10との間でデータ通信を行う。   The taking lens system 21 includes a zoom lens 21a. A plurality of the photographing lens units 20 are prepared, and the magnification, focal length, brightness, and the like of the zoom lens 21a are different. The photographic lens unit 20 may not include the zoom lens 21a, and in this case, does not include the operation unit 22. For example, the operation unit 22 can change the zoom position of the zoom lens 21a in response to a user operation. The drive unit 23 controls the aperture, focus, and the like of the photographic lens unit 20 to enable various compositions for the subject. The lens data storage unit 24 stores data such as the angle of view of the photographing lens unit 20 in advance. The lens side communication unit 25 performs data communication with the camera body 10.

カメラ本体10は、撮影レンズ部20からの被写体の像を撮影してその撮影画像データを取得するもので、信号処理・制御部30と、撮像部31と、モーション判定部32と、記録部33と、衛星航法システム(GPS)部34と、本体側通信部35と、時計部36と、操作判定部37と、方位判定部38と、表示部39と、外部通信部40とを有する。   The camera body 10 captures an image of a subject from the photographic lens unit 20 and acquires the captured image data. The signal processing / control unit 30, the imaging unit 31, the motion determination unit 32, and the recording unit 33. A satellite navigation system (GPS) unit 34, a main body side communication unit 35, a clock unit 36, an operation determination unit 37, a direction determination unit 38, a display unit 39, and an external communication unit 40.

撮像部31は、撮影レンズ部20からの被写体の像を画像信号に変換する。
信号処理・制御部30は、マイクロコンピュータを搭載し、このマイクロコンピュータの処理によって撮像部31からの画像信号を画像処理し、被写体の動画をスルー画像として表示部39に表示し、撮影時に静止画の撮影画像データを取得してその画像を表示部39に表示すると共に、記録部33に記録等のカメラ本体10内の撮影全般の制御を行う。
The imaging unit 31 converts the subject image from the photographic lens unit 20 into an image signal.
The signal processing / control unit 30 is equipped with a microcomputer, performs image processing on the image signal from the imaging unit 31 by processing of the microcomputer, displays a moving image of the subject on the display unit 39 as a through image, and takes a still image at the time of shooting. The captured image data is acquired and the image is displayed on the display unit 39, and the recording unit 33 controls the overall photographing within the camera body 10 such as recording.

モーション判定部32は、被写体の動画から被写体の動きを判定する。
記録部33は、撮影時に取得された撮影画像データ等を記録する。この記録部33には、関連情報記憶部としての関連情報データベース33aが形成されている。
この関連情報データベース33aには、当該装置1での撮影地点と被写体とにそれぞれ関連するイラストレーションを含む複数のイラスト画像データが予め記憶されている。これらイラスト画像データは、例えば地図データ、主要被写体となる例えば人物のイラストレーションの画像データ等である。
地図データは、例えば一般の地図情報であって、地表の諸物体、地勢等を予め設定された縮尺度により縮尺してなる。
The motion determination unit 32 determines the movement of the subject from the moving image of the subject.
The recording unit 33 records captured image data acquired at the time of shooting. In the recording unit 33, a related information database 33a as a related information storage unit is formed.
In the related information database 33a, a plurality of illustration image data including illustrations related to the shooting point and the subject in the apparatus 1 are stored in advance. These illustration image data are, for example, map data, image data of an illustration of a person who is a main subject, and the like.
The map data is, for example, general map information, and is obtained by scaling various objects on the ground, topographic features, and the like according to a preset scale.

イラスト画像データとしては、例えば、図2(a)に示すような人物のイラストレーションであるアバター情報H1と、同図(b)に示すようなタワーのイラストレーション情報H2と、同図(c)に示すようなビルディングのイラストレーション情報H3等を有する。イラスト画像データとしては、人物やビルディングの他に、山、空、夜間等を表わすイラストレーションが記憶されている。   Illustrative image data includes, for example, avatar information H1 that is an illustration of a person as shown in FIG. 2A, tower illustration information H2 as shown in FIG. 2B, and FIG. Such as building illustration information H3. As illustration image data, illustrations representing mountains, sky, nighttime, etc. are stored in addition to people and buildings.

GPS部34は、本装置1が現在存在する三次元位置を示す位置データ(以下、GPSデータと称する)を取得する。
時計部36は、時刻を計時し、その時刻情報を取得する時刻情報取得部として機能を有する。この時刻情報は、例えば撮影時に取得された撮影画像データを整理するために当該撮影画像データに添付される。
操作判定部37は、ユーザの様々な操作を受けて、その操作内容を判定する。操作内容は、例えば電源オン・オフ、各種モードのスイッチ、レリーズボタンの押し操作等である。
The GPS unit 34 acquires position data (hereinafter referred to as GPS data) indicating a three-dimensional position where the present apparatus 1 currently exists.
The clock unit 36 functions as a time information acquisition unit that measures time and acquires the time information. This time information is attached to the photographed image data in order to organize the photographed image data acquired at the time of photographing, for example.
The operation determination unit 37 receives various user operations and determines the operation content. The operation contents include, for example, power on / off, various mode switches, and release button pressing operations.

方位判定部38は、本装置1の撮影レンズ部20による撮影範囲が向いている方位を検出し、その方位データを出力する。なお、この方位判定部38と上記GPS部34とは、撮像部31により撮像を行う撮影地点の情報を検出する撮影位置検出部として機能する。
表示部39は、被写体の動画をスルー画像や、撮影画像データ、本装置1で作成されるイラスト合成画像データ等を表示するもので、例えば液晶ディスプレイから成る。なお、イラスト合成画像データは、後述するように例えば人物やビルディング等の建造物、タワー等のイラストレーションを含む各イラスト画像データを合成してなる。
The azimuth determining unit 38 detects the azimuth in which the photographing range of the photographing lens unit 20 of the apparatus 1 is directed, and outputs the azimuth data. The azimuth determination unit 38 and the GPS unit 34 function as a shooting position detection unit that detects information about a shooting point where the imaging unit 31 performs imaging.
The display unit 39 displays a moving image of the subject as a through image, captured image data, illustration composite image data created by the apparatus 1, and the like, and is composed of a liquid crystal display, for example. It should be noted that the illustration composite image data is formed by combining each illustration image data including illustrations such as a building such as a person or a building and a tower as will be described later.

本体側通信部35は、撮影レンズ部20のレンズ側通信部25との間でデータ通信を行う。
外部通信部40は、ネットワーク41を介して外部機器42に接続されている。この外部機器42は、例えばサーバ等であり、例えば上記関連情報データベース33aに記憶されているイラスト画像データと同様のイラスト画像データ、例えば地図情報、図2(a)に示すような人物のイラストレーションであるアバター情報H1と、同図(b)に示すようなタワーのイラストレーション情報H2と、同図(c)に示すようなビルディングのイラストレーション情報H3等を有する。
The main body side communication unit 35 performs data communication with the lens side communication unit 25 of the photographing lens unit 20.
The external communication unit 40 is connected to the external device 42 via the network 41. The external device 42 is, for example, a server or the like, for example, illustration image data similar to the illustration image data stored in the related information database 33a, for example, map information, or an illustration of a person as shown in FIG. It includes certain avatar information H1, tower illustration information H2 as shown in FIG. 4B, building illustration information H3 as shown in FIG.

上記信号処理・制御部30は、被写体判別部としての物体認識部50と、関連画像データ作成部51とを有する。
物体認識部50は、被写体を判別するもので、例えば被写体のスルー画像や撮影画像データ中の被写体中から人物の顔データを判別する。この人物の顔データは、例えば人物の顔の外観に基づいて取得する。
関連画像データ作成部51は、撮影するときに、少なくとも被写体に関連するイラストレーションの画像データと、撮影する地点に関連するイラストレーションの画像データとを合成してイラスト合成画像データを作成する。
具体的に、関連画像データ作成部51は、GPS部34により取得されたGPSデータと、方位判定部38により検出された方位データと、撮影レンズ系21のレンズデータ記憶部24に記憶されている画角データと、物体認識部50により判別された人物の顔データとをそれぞれ受け取り、これらGPSデータと方位データと画角データと人物の顔データとに関連する少なくとも1つのイラスト画像データを関連情報データベース33aから読み出してイラストレーションを含むイラスト合成画像データを作成する。
The signal processing / control unit 30 includes an object recognition unit 50 as a subject determination unit and a related image data creation unit 51.
The object recognition unit 50 determines a subject. For example, the object recognition unit 50 determines the face data of a person from the subject in the through image of the subject or the captured image data. The person's face data is acquired based on the appearance of the person's face, for example.
The related image data creation unit 51 creates illustration composite image data by synthesizing at least illustration image data related to the subject and illustration image data related to the shooting point when shooting.
Specifically, the related image data creation unit 51 is stored in the GPS data acquired by the GPS unit 34, the orientation data detected by the orientation determination unit 38, and the lens data storage unit 24 of the photographing lens system 21. The angle of view data and the human face data determined by the object recognizing unit 50 are respectively received, and at least one illustration image data related to the GPS data, the azimuth data, the angle of view data, and the human face data is received as the related information. Illustration composite image data including illustrations is created by reading from the database 33a.

例えば物体認識部50により人物の顔データを判別すると、関連画像データ作成部51は、当該人物の顔データに関連するイラストレーションのイラスト画像データを関連情報データベース33aから読み出してイラスト合成画像データを作成する。
関連画像データ作成部51は、GPSデータと、方位データと、画角データとに基づいて当該装置1の撮影範囲内に存在する例えばビルディング等の対象体を認識し、当該対象体のイラストレーションのイラスト画像データを関連情報データベース33aから読み出してイラスト合成画像データを作成する。
For example, when the object recognition unit 50 determines human face data, the related image data generation unit 51 reads illustration image data of illustrations related to the human face data from the related information database 33a and generates illustration composite image data. .
The related image data creation unit 51 recognizes an object such as a building that exists within the imaging range of the device 1 based on the GPS data, the azimuth data, and the angle of view data, and an illustration of the illustration of the object. The image data is read from the related information database 33a to create illustration composite image data.

関連画像データ作成部51は、GPSデータと、方位データと、画角データとに基づいて例えばビルディング等の対象体のイラスト画像データ中における合成位置を決定する。
関連画像データ作成部51は、地図データを有し、GPSデータと、方位データと、画角データとに基づいて撮影範囲内に存在する例えば名所やビルディング等の対象写体を関連情報データベース33aに記憶されている地図データ上で認識する。
関連画像データ作成部51は、例えばビルディング等の対象体までの距離と、画角データとに基づいてイラスト合成画像データ中における対象写体の幅を決定する。
The related image data creation unit 51 determines a composite position in the illustration image data of an object such as a building based on the GPS data, the azimuth data, and the view angle data.
The related image data creation unit 51 has map data, and based on the GPS data, the azimuth data, and the angle-of-view data, for example, target objects such as sights and buildings existing in the shooting range are stored in the related information database 33a. Recognize on the stored map data.
The related image data creation unit 51 determines the width of the target object in the illustration composite image data based on the distance to the target object such as a building and the angle of view data.

関連画像データ作成部51は、例えばビルディング等の対象体までの距離に応じてイラスト画像データに歪み処理を行う。
関連画像データ作成部51は、時計部36により取得される時刻情報に対応して当該時刻を表わすイラストレーションのイラスト画像データを関連情報データベース33aから読み出してイラスト合成画像データを作成する。
関連画像データ作成部51は、イラスト画像データを撮影時に取得される撮影画像データに関連付けて記録部33に記録する。
The related image data creation unit 51 performs distortion processing on the illustration image data according to the distance to the target object such as a building, for example.
Corresponding to the time information acquired by the clock unit 36, the related image data creation unit 51 reads illustration image data of an illustration representing the time from the related information database 33a, and creates illustration composite image data.
The related image data creation unit 51 records the illustration image data in the recording unit 33 in association with the captured image data acquired at the time of shooting.

具体的に、関連画像データ作成部51による関連情報データベース33aからのイラスト画像データの読み出しについて説明する。
図3はユーザが本装置1を持って写真撮影するときのユーザの存在する地図情報上の位置を示す。この地図情報は、記録部33の関連情報データベース33aに記憶されている。本装置1の撮影方向には、例えば4棟のビルディングA〜Dが存在すると共に、タワーEが存在する。又、X駅、Y駅が存在する。本装置1は、画角θ(θ1又はθ2)を持つものとする。
図4は例えばビルディングA、Bが本装置1の画角θ内に存在するか否かの判定を説明するための図を示す。本装置1の存在する位置データを例えば緯度y0、経度x0(y0,x0)とする。この本装置1の位置データは、GPS部34により取得される。本装置1の存在する緯度、経度(y0、x0)は、XY座標系の基準となる。
Specifically, reading of illustration image data from the related information database 33a by the related image data creation unit 51 will be described.
FIG. 3 shows a position on the map information where the user exists when the user takes a picture with the apparatus 1. This map information is stored in the related information database 33a of the recording unit 33. For example, four buildings A to D and a tower E exist in the photographing direction of the apparatus 1. There are X and Y stations. The apparatus 1 has an angle of view θ (θ1 or θ2).
FIG. 4 is a diagram for explaining determination of whether, for example, buildings A and B exist within the angle of view θ of the apparatus 1. The position data in which the apparatus 1 exists is assumed to be, for example, latitude y0 and longitude x0 (y0, x0). The position data of the device 1 is acquired by the GPS unit 34. The latitude and longitude (y0, x0) in which the present apparatus 1 exists is a reference for the XY coordinate system.

本装置1の撮影方位Y1は、
Y1=tanθ・X …(1)
により表わされる。本装置1の方位データは、方位判定部38によって取得される。
本装置1の撮影レンズ部20による撮影範囲の最外角は、次式(2)、(3)により表わされる。
Y2=tan(θ+θ/2)X …(2)
Y3=tan(θ−θ/2)X …(3)
により表わされる。
The shooting direction Y1 of the device 1 is
Y1 = tan θ · X (1)
Is represented by The direction data of the apparatus 1 is acquired by the direction determination unit 38.
The outermost angle of the photographing range by the photographing lens unit 20 of the apparatus 1 is expressed by the following expressions (2) and (3).
Y2 = tan (θ + θ / 2) X (2)
Y3 = tan (θ−θ / 2) X (3)
Is represented by

ビルディングAの位置データは、緯度y1、経度x1(y1,x1)となり、XY座標系の基準(y0、x0)との相対的な経度、緯度は、(y1−y0,x1−x0)となる。
ビルディングBの位置データは、緯度y2、経度x2(y2,x2)となり、XY座標系の基準(y0、x0)との相対的な経度、緯度は、(y2−y0,x2−x0)となる。
しかるに、各ビルディングA、Bの緯度、経度(y1,x1)、(y2,x2)を本装置1の緯度、経度(y0、x0)を基準として上記各式(2)、(3)に代入して緯度を算出し、これら緯度が各ビルディングA、Bの各相対的な経度(y1−y0)、(y2−y0)よりも小さければ、各ビルディングA、Bは、本装置1の撮影範囲内に存在するものとなり、イラスト画像データとして表示候補となる。図4に示すようにビルディングAは本装置1の撮影範囲外となり、イラスト画像データとして表示候補から外れる。ビルディングBは本装置1の撮影範囲内にあり、イラスト画像データとして表示候補になる。
The position data of the building A is latitude y1, longitude x1 (y1, x1), and the longitude and latitude relative to the reference (y0, x0) of the XY coordinate system are (y1-y0, x1-x0). .
The position data of the building B is latitude y2, longitude x2 (y2, x2), and the longitude and latitude relative to the reference (y0, x0) of the XY coordinate system are (y2-y0, x2-x0). .
However, the latitudes and longitudes (y1, x1) and (y2, x2) of the buildings A and B are substituted into the above equations (2) and (3) with the latitude and longitude (y0, x0) of the apparatus 1 as a reference. If the latitudes are smaller than the relative longitudes (y1-y0) and (y2-y0) of the buildings A and B, the buildings A and B are in the shooting range of the apparatus 1. It becomes a display candidate as illustration image data. As shown in FIG. 4, the building A is outside the photographing range of the apparatus 1 and is excluded from display candidates as illustration image data. Building B is within the photographing range of the apparatus 1 and becomes a display candidate as illustration image data.

図5はイラスト画像データとして表示候補となったビルディングBのイラスト合成画像データ中での合成位置を説明するための図を示す。ビルディングBは、Y軸の緯度y0からの角度φb0に存在する。この角度φb0は、ビルディングBの緯度、経度(y2,x2)から
φb0=arctan(x2/y2) …(4)
により算出される。
FIG. 5 is a diagram for explaining a synthesis position in the illustration composite image data of the building B that is a display candidate as illustration image data. The building B exists at an angle φb0 from the latitude y0 of the Y axis. This angle φb0 is derived from the latitude and longitude (y2, x2) of building B
φb0 = arctan (x2 / y2) (4)
Is calculated by

本装置1の撮影方位Y1と、本装置1の緯度、経度(y0、x0)からビルディングBの緯度、経度(y2,x2)を通る直線との相対角度φbは、
φb=φb0−θ …(5)
となる。
しかるに、ビルディングBのイラスト画像データは、図6(a)に示すようにイラスト合成画像データK中において本装置1の撮影方位Y1から相対角度φbのところに合成される。図6(b)はイラスト合成画像データK中にイラストレーションにより描かれたビルディングBのイラスト画像データSを合成した結果を示す。
The relative angle φb between the shooting direction Y1 of the device 1 and the straight line passing the latitude and longitude (y2, x2) of the building B from the latitude and longitude (y0, x0) of the device 1 is
φb = φb0−θ (5)
It becomes.
However, the illustration image data of the building B is synthesized at a relative angle φb from the shooting direction Y1 of the present apparatus 1 in the illustration synthesized image data K as shown in FIG. FIG. 6B shows the result of synthesizing the illustration image data S of the building B drawn by illustration in the illustration synthesized image data K.

イラストレーションにより描かれたビルディングBのイラスト画像データSの大きさは、次の通りに決定される。図7は例えばビルディングBの大きさの決定を説明するための図を示す。本装置1が存在する緯度、経度(y0、x0)から各ビルディングA、B、Cまでの各距離La、Lb、Lcは、例えば関連情報データベース33aに記憶されている地図情報、又は本装置1におけるピント合わせの情報から取得できる。例えば本装置1が存在する緯度、経度(y0、x0)からビルディングBまでの距離Lbは、
Lb={(x2−x0)+(y2−y0)・(1/2) …(6)
により算出される。
The size of the illustration image data S of the building B drawn by the illustration is determined as follows. FIG. 7 shows a diagram for explaining the determination of the size of the building B, for example. The distances La, Lb, Lc from the latitude and longitude (y0, x0) where the present apparatus 1 exists to each building A, B, C are, for example, map information stored in the related information database 33a or the present apparatus 1 It can be obtained from the information on focusing. For example, the distance Lb from the latitude and longitude (y0, x0) where the device 1 exists to the building B is
Lb = {(x2-x0) 2 + (y2-y0) 2 } 2 · (1/2) (6)
Is calculated by

ビルディングBの高さH、幅Wは、例えば関連情報データベース33aに記憶されている地図情報、又はネットワーク41を介して外部機器42に記憶されている地図情報から取得してもよい。
ここでは、例えば仮にビルディングBの高さH、幅Wをそれぞれ100m、100mとする。又、図8に示すように本装置1の撮影レンズ系21とビルディングBとの光学的な関係からビルディングBの幅Wに対する角度をθwbとすると、この角度θwbは、次式により表わされる。
θwb=arctan(W/Lb) …(7)
従って、本装置1の画角θとビルディングBの角度θwbとの比率に基づいてイラスト合成画像データK中に合成するビルディングBの幅を決定できる。
The height H and width W of the building B may be acquired from, for example, map information stored in the related information database 33a or map information stored in the external device 42 via the network 41.
Here, for example, the height H and width W of the building B are assumed to be 100 m and 100 m, respectively. As shown in FIG. 8, when the angle with respect to the width W of the building B is θwb from the optical relationship between the photographing lens system 21 of the apparatus 1 and the building B, the angle θwb is expressed by the following equation.
θwb = arctan (W / Lb) (7)
Therefore, the width of the building B to be combined in the illustration combined image data K can be determined based on the ratio of the angle of view θ of the apparatus 1 and the angle θwb of the building B.

図9は図2(a)に示す人物のイラストレーションであるアバター情報H1と、同図(b)に示すタワーのイラスト画像データH2と、同図(c)に示すビルディングのイラスト画像データH3とを合成したイラスト合成画像データKの一例を示す。このイラスト合成画像データK中においてビルディングBは、本装置1の画角θとビルディングBの角度θwbとの比率に基づく幅で、かつイラスト合成画像データK中において本装置1の撮影方位Y1から相対角度φbのところに合成される。   FIG. 9 shows avatar information H1 that is an illustration of a person shown in FIG. 2A, tower illustration image data H2 shown in FIG. 2B, and building illustration image data H3 shown in FIG. An example of the synthesized illustration composite image data K is shown. In this illustration composite image data K, the building B has a width based on the ratio of the angle of view θ of the apparatus 1 and the angle θwb of the building B, and is relative to the shooting direction Y1 of the apparatus 1 in the illustration composite image data K. It is synthesized at the angle φb.

イラスト合成画像データK中におけるタワーのイラスト画像データH2やビルディングのイラスト画像データH3の上下方向の配置位置は、図9に示すようにイラスト合成画像データK中に対角線T1、T2を設け、これら対角線T1、T2に合わせてタワーのイラスト画像データH2やビルディングのイラスト画像データH3を配置する。   The vertical arrangement positions of the tower illustration image data H2 and the building illustration image data H3 in the illustration composite image data K are provided with diagonal lines T1 and T2 in the illustration composite image data K as shown in FIG. The tower illustration image data H2 and the building illustration image data H3 are arranged in accordance with T1 and T2.

図9に示すように例えば人物のイラストレーションであるアバター情報H1と、タワーのイラスト画像データH2と、ビルディングのイラスト画像データH3との合成は、本装置1の存在する位置(y0、x0)の遠方から近傍に向かって存在する順序に合成し、最後に人物のアバター情報H1を合成し、イラスト合成画像データKを作成する。ここでは、先ず、タワーのイラスト画像データH2を合成し、次にビルディングのイラスト画像データH3を合成し、最後に人物のアバター情報H1を合成する。   As shown in FIG. 9, for example, the composition of the avatar information H1, which is an illustration of a person, the illustration image data H2 of the tower, and the illustration image data H3 of the building is far from the position (y0, x0) where the present apparatus 1 exists. Are combined in the order in which they exist in the vicinity, and finally, the avatar information H1 of the person is combined to create the illustration combined image data K. Here, the tower illustration image data H2 is first synthesized, then the building illustration image data H3 is synthesized, and finally the person avatar information H1 is synthesized.

本装置1の画角θ内に山等の大きな対象物が人物等の背景に存在する場合、山等の大きな対象物の高さや当該対象物までの距離を考慮して山等の大きな対象物のイラスト画像データを最初に合成してもよい。
被写体の撮影では、図10(a)に示すように本装置1の撮影方位Y1が地図情報上の道路50の方向に沿って向けられることがある。この道路50沿いには、ビルディングAが存在する。このような状況で撮影をしようとする場合には、ビルディングのイラスト画像データH3に対して図10(b)に示すように歪み処理を行う。この歪み処理は、遠方になるに従って縮小する処理である。これにより、ビルディングのイラスト画像データH3は、遠近法の技法により表現したイラストレーションとなる。
When a large object such as a mountain exists in the background angle θ of the apparatus 1 in the background of a person or the like, a large object such as a mountain is considered in consideration of the height of the large object such as a mountain or the distance to the object. The illustration image data may be synthesized first.
In shooting a subject, the shooting direction Y1 of the apparatus 1 may be directed along the direction of the road 50 on the map information as shown in FIG. Along this road 50, there is a building A. When shooting in such a situation, distortion processing is performed on the building illustration image data H3 as shown in FIG. This distortion process is a process of reducing as the distance increases. Thus, the building illustration image data H3 becomes an illustration expressed by a perspective technique.

地図情報だけでなく、被写体のスルー画像を表示部39に表示するときの画像データや、撮影時の撮影画像データから空や建造物を検出し、このうち建造物の輪郭を判定し、図10(b)に示すような建造物の歪み処理を行ってもよい。この歪み処理は、例えば図9に示す対角線T1、T2に沿ってイラスト合成画像データKの中央部に近い縦方向の線を縮小し、横方向については例えば半分程度縮小する。   In addition to the map information, the sky and the building are detected from the image data when the through image of the subject is displayed on the display unit 39 and the shot image data at the time of shooting, and the outline of the building is determined. You may perform the distortion process of a building as shown in (b). In this distortion processing, for example, the vertical line close to the center of the illustration composite image data K is reduced along the diagonal lines T1 and T2 shown in FIG. 9, and the horizontal direction is reduced by, for example, about half.

次に、本装置の動作について図11に示すイラストレーション画像作成を含む撮影モードフローチャートに従って説明する。
信号処理・制御部30は、ステップS11において、撮影モードであるか否かを判断する。この判断の結果、撮影モードでなければ、再生モード等のその他のモードに移る。
撮影モードであれば、信号処理・制御部30は、ステップS12において、本体側通信部35とレンズ側通信部25とを介して撮影レンズ部20のレンズデータ記憶部24から当該撮影レンズ部20の画角などのデータを取得する。信号処理・制御部30は、取得した画角などのデータを一時的に記録部33等に記憶する。
Next, the operation of this apparatus will be described with reference to a shooting mode flowchart including illustration image creation shown in FIG.
In step S11, the signal processing / control unit 30 determines whether or not the photographing mode is set. If the result of this determination is that the camera is not in shooting mode, the operation proceeds to other modes such as playback mode.
If it is the shooting mode, the signal processing / control unit 30 of the shooting lens unit 20 from the lens data storage unit 24 of the shooting lens unit 20 via the main body side communication unit 35 and the lens side communication unit 25 in step S12. Get data such as angle of view. The signal processing / control unit 30 temporarily stores the acquired data such as the angle of view in the recording unit 33 or the like.

信号処理・制御部30は、ステップS13において、イラスト合成画像データを作成するためのアバターモードであるか否かを判断する。この判断の結果、アバターモードでなければ、信号処理・制御部30は、通常の撮影であることを判断し、ステップS14において、本体側通信部35とレンズ側通信部25とを介して操作部22によりズームレンズ21aが操作されたか否かを判断する。この判断の結果、ズームレンズ21aが操作されていると、信号処理・制御部30は、ステップS15において、本体側通信部35とレンズ側通信部25とを介して操作部22によるズームレンズ21aのズーム位置等を取得する。   In step S <b> 13, the signal processing / control unit 30 determines whether or not the avatar mode is for creating illustration composite image data. If the result of this determination is that it is not in the avatar mode, the signal processing / control unit 30 determines that it is normal shooting, and the operation unit via the main body side communication unit 35 and the lens side communication unit 25 in step S14. 22 determines whether the zoom lens 21a has been operated. If the zoom lens 21a is operated as a result of this determination, the signal processing / control unit 30 operates the zoom lens 21a by the operation unit 22 via the main body side communication unit 35 and the lens side communication unit 25 in step S15. Get zoom position etc.

この状態に、撮像部31は、撮影レンズ部20からの被写体の像を画像信号に変換する。信号処理・制御部30は、ステップS16において、撮像部31からの画像信号を画像処理し、被写体の動画をスルー画像として表示部39に表示する。
信号処理・制御部30は、ステップS17において、操作判定部37の判定結果を受けてユーザによりレリーズボタンが押し操作されて撮影を行うか否かを判断する。レリーズボタンが押し操作されると、信号処理・制御部30は、ステップS18において、当該撮影時、静止画の撮影画像データを取得してその画像を表示部39に表示すると共に、当該撮影画像データを記録部33に記録する。
図12(a)はユーザによりレリーズボタンを押し操作して撮影を行うときの様子を示す。この撮影地点は、例えば図3に示すように4棟のビルディングA〜D、タワーE、X駅、Y駅が存在する周辺である。
In this state, the imaging unit 31 converts the image of the subject from the photographing lens unit 20 into an image signal. In step S16, the signal processing / control unit 30 performs image processing on the image signal from the imaging unit 31, and displays the moving image of the subject on the display unit 39 as a through image.
In step S <b> 17, the signal processing / control unit 30 receives the determination result of the operation determination unit 37 and determines whether or not shooting is performed by pressing the release button by the user. When the release button is pressed, in step S18, the signal processing / control unit 30 acquires the captured image data of the still image and displays the image on the display unit 39 at the time of capturing, and also displays the captured image data. Is recorded in the recording unit 33.
FIG. 12A shows a situation when the user performs shooting by pressing the release button. For example, as shown in FIG. 3, the photographing point is a periphery where four buildings A to D, a tower E, an X station, and a Y station exist.

信号処理・制御部30は、ステップS19において、アバターモードであるか否かを判断し、判断の結果、アバターモードでなければ、ステップS11に戻る。
上記ステップS13において、信号処理・制御部30がアバターモードであると判断すると、この信号処理・制御部30は、ステップS21に移り、GPS部34からGPSデータを受け取り、本装置1の存在する位置に変化があるか否かを判断する。
この判断の結果、本装置1の存在する位置に変化があると、信号処理・制御部30は、ステップS22に移り、GPS部34からGPSデータを受け取って本装置1の存在の位置データとして取得し、方位判定部38からの方位データを受け取って本装置1の撮影レンズ部20による撮影範囲が向いている方位データを取得し、これら位置データと方位データとを画角データと共に記録部33に記憶する。さらに、信号処理・制御部30は、物体認識部50によって例えば被写体のスルー画像中の被写体中から人物の顔データを判別する。
In step S19, the signal processing / control unit 30 determines whether or not the avatar mode is set. If the result of determination is that the avatar mode is not set, the signal processing / control unit 30 returns to step S11.
When the signal processing / control unit 30 determines that the avatar mode is set in step S13, the signal processing / control unit 30 moves to step S21, receives GPS data from the GPS unit 34, and the position where the present apparatus 1 exists. It is determined whether there is a change.
As a result of this determination, if there is a change in the position where the device 1 exists, the signal processing / control unit 30 moves to step S22, receives GPS data from the GPS unit 34, and obtains it as position data indicating the presence of the device 1. Then, the azimuth data from the azimuth determination unit 38 is received to obtain the azimuth data in which the photographing range of the photographing lens unit 20 of the present apparatus 1 is directed, and the position data and the azimuth data are stored in the recording unit 33 together with the angle of view data. Remember. Further, the signal processing / control unit 30 uses the object recognition unit 50 to determine, for example, human face data from a subject in a through image of the subject.

関連画像データ作成部51は、ステップS23〜S29において、GPS部34により取得されたGPSデータと、方位判定部38により検出された方位データと、撮影レンズ系21のレンズデータ記憶部24に記憶されている画角データと、物体認識部50により判別された人物の顔データとをそれぞれ受け取り、これらGPSデータと方位データと画角データと人物の顔データとに関連する少なくとも1つのイラスト画像データを関連情報データベース33aから読み出してイラストレーションを含むイラスト合成画像データを作成する。   The related image data creation unit 51 stores the GPS data acquired by the GPS unit 34, the orientation data detected by the orientation determination unit 38, and the lens data storage unit 24 of the photographing lens system 21 in steps S23 to S29. And the person's face data determined by the object recognition unit 50 are received, and at least one illustration image data related to the GPS data, the azimuth data, the angle of view data, and the person's face data is received. Illustration composite image data including illustrations is created by reading from the related information database 33a.

具体的に関連画像データ作成部51による関連情報データベース33aからのイラスト画像データの読み出しについて説明すると、関連画像データ作成部51は、関連情報データベース33aから地図情報を読み出し、例えば図3に示すように4棟のビルディングA〜D、タワーE、X駅、Y駅が存在することを認識する。
関連画像データ作成部51は、本装置1の存在する緯度、経度(y0、x0)をXY座標系の基準として認識すると共に、本装置1の撮影方位Y1を上記式(1)により認識する。関連画像データ作成部51は、本装置1の撮影レンズ部20による撮影範囲の最外角は、上記式(2)、(3)により認識する。
Specifically, the reading of the illustration image data from the related information database 33a by the related image data creating unit 51 will be described. The related image data creating unit 51 reads the map information from the related information database 33a, for example, as shown in FIG. Recognize that there are four buildings AD, Tower E, X Station, and Y Station.
The related image data creation unit 51 recognizes the latitude and longitude (y0, x0) in which the apparatus 1 exists as a reference of the XY coordinate system, and recognizes the shooting direction Y1 of the apparatus 1 by the above formula (1). The related image data creation unit 51 recognizes the outermost angle of the photographing range by the photographing lens unit 20 of the apparatus 1 by the above formulas (2) and (3).

しかるに、関連画像データ作成部51は、各ビルディングA、Bの緯度、経度(y1,x1)、(y2,x2)を本装置1の緯度、経度(y0、x0)を基準として上記各式(2)、(3)に代入して緯度を算出し、これら緯度が各ビルディングA、Bの各相対的な経度(y1−y0)、(y2−y0)よりも小さければ、各ビルディングA、Bは、本装置1の撮影範囲内に存在するものとなり、イラスト画像データとして表示候補となる。図4に示すようにビルディングAは本装置1の撮影範囲外となり、イラスト画像データとして表示候補から外れる。ビルディングBは本装置1の撮影範囲内にあり、イラスト画像データとして表示候補になる。なお、表示候補になるのは、ビルディングBの他に、ビルディングC、タワーEである。   However, the related image data creation unit 51 uses the above formulas (1) with the latitude and longitude (y1, x1) and (y2, x2) of each building A and B as the reference and the latitude and longitude (y0, x0) of the apparatus 1. 2) Substituting into (3) to calculate the latitude, and if these latitudes are smaller than the relative longitudes (y1-y0), (y2-y0) of each building A, B, then each building A, B Exists within the photographing range of the apparatus 1 and becomes a display candidate as illustration image data. As shown in FIG. 4, the building A is outside the photographing range of the apparatus 1 and is excluded from display candidates as illustration image data. Building B is within the photographing range of the apparatus 1 and becomes a display candidate as illustration image data. In addition to the building B, the building C and the tower E are candidates for display.

関連画像データ作成部51は、図5に示すようにイラスト画像データとして表示候補となったビルディングBのイラスト合成画像データ中での合成位置を決定する。
ビルディングBは、Y軸の緯度y0からの角度φb0に存在する。関連画像データ作成部51は、当該角度φb0をビルディングBの緯度、経度(y2,x2)から上記式(4)により算出する。
又、関連画像データ作成部51は、本装置1の撮影方位Y1と、本装置1の緯度、経度(y0、x0)からビルディングBの緯度、経度(y2,x2)を通る直線との相対角度φbを上記式(5)から算出する。
As shown in FIG. 5, the related image data creation unit 51 determines a synthesis position in the illustration composite image data of the building B that is a display candidate as illustration image data.
The building B exists at an angle φb0 from the latitude y0 of the Y axis. The related image data creation unit 51 calculates the angle φb0 from the latitude and longitude (y2, x2) of the building B by the above formula (4).
The related image data creation unit 51 also compares the photographing direction Y1 of the apparatus 1 with the straight line passing the latitude and longitude (y0, x0) of the apparatus 1 and the latitude and longitude (y2, x2) of the building B. φb is calculated from the above equation (5).

しかるに、関連画像データ作成部51は、ビルディングBのイラスト画像データが図6(a)に示すようにイラスト合成画像データK中において本装置1の撮影方位Y1から相対角度φbのところに合成する。同様に、関連画像データ作成部51は、ビルディングC、タワーEの各合成位置を決定する。
なお、イラスト合成画像データKは、ビルディングB、CとタワーEとの各イラスト画像データを合成しているが、本装置1の向いている方位データと画角データとにより決まる撮影範囲内に存在する全てのビルディング等の建造物や山等からどの建造物のイラスト画像データを選択して合成するのかは、例えば次の通りに設定する。
例えば、関連画像データ作成部51は、地図データと方位データとに基づいて遠景に存在する建造物や山等の選択を行う。例えば、山であれば、都市部内から富士山等の山までの距離にあるくらいまでが見える事を参考に、3000m級の山であれば、100kmの距離にあれる場合に採用し、2000m級の山であれば70kmまでの場合に採用するというように遠景の山を選択する。
関連画像データ作成部51は、地図データに基づいて遠近関係からイラスト化するビルディングをする。例えばタワーとして東京タワーやスカイツリーのような300mを超える高いタワーは、見えなくとも、その土地のシンボルなので10km以内にあれば採用し、その他のビルは、遠くのものは重なるとして、近くで大きいものを優先して採用する。例えば、画面が煩雑になるので、手前に高いビルディングがない場合、例えば所定階数5階建よりも高いビルディングであれば、手前の2、3棟のビルディングを採用し、同様に10階建て以上のビルディングがそれより撮影点から見て奥側に有る場合、当該奥側にある2、3棟のビルディングを採用する。又、神社仏閣など高さの低い建造物は、手前に何も建造物がなければ、神社仏閣など高さの低い建造物のみ採用する。
However, the related image data creation unit 51 synthesizes the illustration image data of the building B at the relative angle φb from the shooting direction Y1 of the present apparatus 1 in the illustration composite image data K as shown in FIG. Similarly, the related image data creation unit 51 determines each synthesis position of the building C and the tower E.
The illustration composite image data K combines the illustration image data of the buildings B and C and the tower E, but exists within the shooting range determined by the orientation data and the angle of view data that the device 1 faces. For example, it is set as follows as to which illustration image data of a building to be selected and synthesized from buildings such as all buildings or mountains or the like to be synthesized.
For example, the related image data creation unit 51 selects a building or a mountain that exists in a distant view based on the map data and the orientation data. For example, in the case of a mountain, referring to the fact that you can see the distance from the city to a mountain such as Mt. Fuji, if it is a mountain of 3000m, it is adopted when it is 100km away, If it is a mountain, select a distant mountain so that it is adopted in the case of up to 70 km.
The related image data creation unit 51 builds an illustration based on the map data based on the perspective relationship. For example, a tower with a height of over 300m such as Tokyo Tower or Sky Tree as a tower is a symbol of the land even if it is not visible, so if it is within 10km, other buildings will be large in the vicinity, with distant objects overlapping. Prioritize the thing. For example, since the screen becomes complicated, if there is no tall building in front, for example, if the building is higher than a predetermined number of 5 floors, a few buildings in the foreground will be adopted, and similarly 10 floors or more If the building is on the far side when viewed from the shooting point, a few buildings on the far side are adopted. In addition, if there are no buildings at the front, such as shrines and temples, only buildings with a low height such as shrines and temples will be used.

イラストレーションにより描かれたビルディングBのイラスト画像データSの大きさは、次の通りに決定される。
関連画像データ作成部51は、地図情報を関連情報データベース33aから読み取り、この地図情報に基づいて図7に示すように本装置1が存在する緯度、経度(y0、x0)から各ビルディングA、B、Cまでの各距離La、Lb、Lcを取得し、本装置1が存在する緯度、経度(y0、x0)からビルディングBまでの距離Lbを上記式(6)を演算して取得する。
The size of the illustration image data S of the building B drawn by the illustration is determined as follows.
The related image data creation unit 51 reads map information from the related information database 33a, and based on this map information, as shown in FIG. 7, from the latitude and longitude (y0, x0) at which the present apparatus 1 exists, each building A, B , C, and the distance Lb from the latitude and longitude (y0, x0) where the device 1 exists to the building B is obtained by calculating the above equation (6).

これと共に、関連画像データ作成部51は、地図情報に基づいてビルディングBの高さH、幅Wを取得する。関連画像データ作成部51は、例えば仮にビルディングBの高さH、幅Wをそれぞれ100m、100mとし、図8に示すように本装置1の撮影レンズ系21とビルディングBとの光学的な関係からビルディングBの幅Wに対する角度θwbを上記式(7)を演算して取得する。しかるに、関連画像データ作成部51は、本装置1の画角θとビルディングBの角度θwbとの比率に基づいてイラスト合成画像データK中に合成するビルディングBの幅を決定する。関連画像データ作成部51は、ビルディングC、タワーEの各幅を決定する。   At the same time, the related image data creation unit 51 acquires the height H and width W of the building B based on the map information. For example, the related image data creation unit 51 sets the height H and width W of the building B to 100 m and 100 m, respectively, and the optical relationship between the photographing lens system 21 of the apparatus 1 and the building B as shown in FIG. The angle θwb with respect to the width W of the building B is obtained by calculating the above equation (7). However, the related image data creation unit 51 determines the width of the building B to be combined in the illustration combined image data K based on the ratio of the angle of view θ of the apparatus 1 and the angle θwb of the building B. The related image data creation unit 51 determines the widths of the building C and the tower E.

しかるに、関連画像データ作成部51は、図9に示すようにビルディングBを本装置1の画角θとビルディングBの角度θwbとの比率に基づく幅でかつ本装置1の撮影方位Y1から相対角度φbのところに合成し、タワーのイラスト画像データH2やビルディングのイラスト画像データH3を対角線T1、T2に合わせて配置し、人物のイラストレーションであるアバター情報H1を中央部に配置する。この場合、関連画像データ作成部51は、例えば、先ず、タワーのイラスト画像データH2を合成し、次にビルディングのイラスト画像データH3を合成し、最後に人物のアバター情報H1を合成し、イラスト合成画像データKを作成する。なお、本装置1の画角θ内に山等の大きな対象物が人物等の背景に存在すれば、関連画像データ作成部51は、山等の大きな対象物の高さや当該対象物までの距離を考慮して山等の大きな対象物のイラスト画像データを最初に合成する。   However, as shown in FIG. 9, the related image data creation unit 51 has a width based on the ratio of the angle of view θ of the apparatus 1 to the angle θwb of the apparatus B and the relative angle from the shooting direction Y1 of the apparatus 1 as shown in FIG. The tower illustration image data H2 and the building illustration image data H3 are arranged in accordance with the diagonal lines T1 and T2, and the avatar information H1 that is an illustration of the person is arranged in the center. In this case, the related image data creation unit 51, for example, first synthesizes the tower illustration image data H2, then synthesizes the building illustration image data H3, and finally synthesizes the person avatar information H1 to synthesize the illustration. Image data K is created. If a large object such as a mountain is present in the background of a person or the like within the angle of view θ of the apparatus 1, the related image data creation unit 51 determines the height of the large object such as a mountain or the distance to the object. Considering the above, the illustration image data of a large object such as a mountain is first synthesized.

関連画像データ作成部51は、ステップS24において、本体側通信部35とレンズ側通信部25とを介して操作部22によりズームレンズ21aが操作されたか否かを判断する。この判断の結果、ズームレンズ21aが操作されていると、関連画像データ作成部51は、ステップS25に移り、例えば図12(b)に示すようなイラスト合成画像データKを作成する場合、ズームレンズ21aのズーム位置によって決定される画角内に入るタワーのイラスト画像データH2と、ビルディングのイラスト画像データH3と、人物のアバター情報H1とを限定する。なお、タワーのイラスト画像データH2と、ビルディングのイラスト画像データH3とは、ズームレンズ21aのズーム位置によって決定される画角内に入るものとする。また、ズームレンズ21aのズーム位置は、信号処理・制御部30によって本体側通信部35とレンズ側通信部25とを介して操作部22に問い合わせにより取得する。   In step S <b> 24, the related image data creation unit 51 determines whether or not the zoom lens 21 a is operated by the operation unit 22 via the main body side communication unit 35 and the lens side communication unit 25. If the zoom lens 21a is operated as a result of this determination, the related image data creation unit 51 proceeds to step S25, and for example, when creating the illustration composite image data K as shown in FIG. The illustration image data H2 of the tower that falls within the angle of view determined by the zoom position of 21a, the illustration image data H3 of the building, and the human avatar information H1 are limited. It is assumed that the tower illustration image data H2 and the building illustration image data H3 fall within the angle of view determined by the zoom position of the zoom lens 21a. Further, the zoom position of the zoom lens 21a is acquired by the signal processing / control unit 30 through an inquiry to the operation unit 22 via the main body side communication unit 35 and the lens side communication unit 25.

関連画像データ作成部51は、ステップS26において、例えば被写体のスルー画像の濃淡レベルが予め設定された夜間を判定するための濃淡レベルよりも低いことを判定するか、又は時計部36の計時時刻から夜間であるか否かを判断する。
この判断の結果、夜間であれば、関連画像データ作成部51は、ステップS27において、関連情報データベース33aから例えば図12(c)に示すような夜間等を表わす例えば黒色のイラスト画像データH4を読み取り、このイラスト画像データH4をイラスト合成画像データK中の上部に配置する。
In step S26, the related image data creation unit 51 determines, for example, that the gray level of the through image of the subject is lower than a gray level for determining nighttime set in advance, or from the time measured by the clock unit 36. Determine if it is night.
If the result of this determination is that it is night, the related image data creation unit 51 reads, for example, black illustration image data H4 representing the night as shown in FIG. 12C from the related information database 33a in step S27. The illustration image data H4 is arranged in the upper part of the illustration composite image data K.

関連画像データ作成部51は、ステップS28において、例えば被写体のスルー画像中の道路の方向を認識し、この道路の方向から図10(a)に示すように本装置1の撮影方位Y1が地図情報上の道路50の方向に沿って向けられているか否かを判断する。この判断の結果、本装置1の撮影方位Y1が地図情報上の道路50の方向に沿って向けられていれば、関連画像データ作成部51は、ステップS29において、ビルディングのイラスト画像データH3に対して図10(b)に示すように遠方になるに従って縮小する歪み処理を行う。
なお、各建物や遠景の山、人物などの配置位置は、撮影画像データに基づいて配置すればよい。又、地図データに基づいて遠近法的に遠くのものをイラスト合成画像データKの中央部の水平線に近づくように配置してもよい。但し、イラスト画像データでも、そのあたりの遠近法は、あえて無視して、面白くわかり易く描く例もあるので、あえて、同じ水平面基準で配置してもよい。この後、関連画像データ作成部51は、ステップS30において、例えば図12(c)に示すような作成したイラスト合成画像データKを表示部39に表示する。
In step S28, the related image data creation unit 51 recognizes the direction of the road in the through image of the subject, for example, and the shooting direction Y1 of the apparatus 1 is determined from the road direction as map information as shown in FIG. It is determined whether or not the vehicle is directed along the direction of the upper road 50. As a result of this determination, if the shooting direction Y1 of the apparatus 1 is directed along the direction of the road 50 on the map information, the related image data creation unit 51 applies the building illustration image data H3 to the building in step S29. Then, as shown in FIG. 10B, a distortion process for reducing the distance is performed.
In addition, what is necessary is just to arrange | position arrangement | positioning positions, such as each building, a mountain of a distant view, and a person, based on picked-up image data. Further, a thing that is far in perspective based on the map data may be arranged so as to approach the horizontal line at the center of the illustration composite image data K. However, even in the case of illustration image data, there is an example in which the perspective method around it is intentionally ignored and the drawing is interesting and easy to understand, so it may be arranged with the same horizontal plane reference. Thereafter, in step S30, the related image data creation unit 51 displays the created illustration composite image data K as shown in FIG. 12C on the display unit 39, for example.

再び、信号処理・制御部30は、ステップS17に移り、操作判定部37の判定結果を受けてユーザによりレリーズボタンが押し操作されて撮影を行うか否かを判断する。レリーズボタンが押し操作されると、信号処理・制御部30は、ステップS18において、当該撮影時、静止画の撮影画像データを取得してその画像を表示部39に表示すると共に、当該撮影画像データを記録部33に記録する。   Again, the signal processing / control unit 30 proceeds to step S17, and receives the determination result of the operation determination unit 37, and determines whether or not the release button is pressed by the user to perform shooting. When the release button is pressed, in step S18, the signal processing / control unit 30 acquires the captured image data of the still image and displays the image on the display unit 39 at the time of capturing, and also displays the captured image data. Is recorded in the recording unit 33.

信号処理・制御部30は、ステップS19において、アバターモードであるか否かを判断し、判断の結果、アバターモードであれば、ステップS20に移り、作成したイラスト合成画像データKを例えばステップS18での撮影により取得した撮影画像データに関連付けて記録部33に記憶する。   In step S19, the signal processing / control unit 30 determines whether or not the avatar mode is selected. If the result of the determination is that the avatar mode is selected, the signal processing / control unit 30 proceeds to step S20, and the created illustration composite image data K is, for example, in step S18. Are stored in the recording unit 33 in association with the photographed image data acquired by the photographing.

このように上記第1の実施の形態によれば、GPSデータと、方位判定部38により検出された方位データと、撮影レンズ系21の画角データと、物体認識部50により判別された人物の顔データとをそれぞれ受け取り、これらGPSデータと方位データと画角データと人物の顔データとに関連する少なくとも1つのイラスト画像データを関連情報データベース33aから読み出してイラストレーションを含むイラスト合成画像データKを作成する。そして、イラスト合成画像データKは、例えば撮影時により取得した撮影画像データに関連付けて記録部33に記憶する。これにより、例えば本装置1において、イラスト合成画像データKを表示部39に表示し、このイラスト合成画像データKを選択することで、当該イラスト合成画像データKに関連付けられて関連付けられた撮影画像データを表示部39に表示することができる。   As described above, according to the first embodiment, the GPS data, the orientation data detected by the orientation determination unit 38, the angle of view data of the photographing lens system 21, and the person determined by the object recognition unit 50 are displayed. Each of the face data is received, and at least one illustration image data related to the GPS data, the azimuth data, the angle-of-view data, and the person's face data is read from the related information database 33a, and the illustration composite image data K including the illustration is created. To do. The illustration composite image data K is stored in the recording unit 33 in association with the captured image data acquired at the time of capturing, for example. Thus, for example, in the present apparatus 1, the image composite image data K is displayed on the display unit 39, and the photographed image data associated with the illustration composite image data K is selected by selecting the illustration composite image data K. Can be displayed on the display unit 39.

イラスト合成画像データKは、ユーザが撮影を行った地域における名所等の良く知られたタワーE等の建造物をイラストレーションの画像データを合成しているので、イラスト合成画像データKに関連付けられた例えば複数の撮影画像データの撮影場所や、撮影したときの状況を直感的に把握することが出来る。又、撮影画像データでは、その撮影内容が例えば撮影を行った地域における名所等が写されたものでなく、ただ単に電線や通行人が多く写っていたり、名所等でない風景が写っているものであっても、イラスト合成画像データKと関連付けることでユーザが撮影を行った地域等の状況を直感的に把握できる。   The illustration composite image data K is a combination of illustration image data with a well-known building such as a tower E such as a famous place in the area where the user has taken a photograph. It is possible to intuitively grasp the shooting location of a plurality of shot image data and the situation at the time of shooting. Also, in the captured image data, the captured content is not a photograph of, for example, a famous place in the area where the photograph was taken, but merely a lot of electric wires and passers-by, or a landscape that is not famous. Even if it exists, it can grasp | ascertain intuitively the conditions of the area etc. which the user image | photographed by making it relate with the illustration composite image data K.

次に、本発明の第2の実施の形態について図面を参照して説明する。なお、本装置1の構成は、図1に示す構成と同一であり、当該図1を用いてその相違するところについて説明する。
関連情報データベース33aには、一般の地図情報と、予め簡易地図情報とが記憶されている。一般の地図情報は、例えば図13に示すような地表の諸物体、地勢等を予め設定された縮尺度により縮尺してなる。簡易地図情報は、例えば図13に示すような一般の地図情報を、例えば図14(a)に示すようなイラストレーションの地図情報(以下、イラスト地図情報と称する)Jにより表わしている。
Next, a second embodiment of the present invention will be described with reference to the drawings. The configuration of the apparatus 1 is the same as the configuration shown in FIG. 1, and the differences will be described with reference to FIG.
In the related information database 33a, general map information and simple map information are stored in advance. For example, general map information is obtained by reducing various objects, terrain, and the like on the surface as shown in FIG. The simple map information represents, for example, general map information as shown in FIG. 13 by illustration map information (hereinafter referred to as illustration map information) J as shown in FIG.

関連画像データ作成部51は、GPS部34により取得されたGPSデータを受け取り、このGPSデータに対応する地域の例えばイラスト地図情報Jを関連情報データベース33aから読み出す。この場合、関連画像データ作成部51は、GPSデータに対応する地域の例えばイラスト地図情報Jが関連情報データベース33aに記憶されていなければ、当該地域のイラスト地図情報Jが記憶されていない旨を表示部39に表示する。   The related image data creation unit 51 receives the GPS data acquired by the GPS unit 34, and reads, for example, illustration map information J of the area corresponding to the GPS data from the related information database 33a. In this case, the related image data creation unit 51 displays that the illustration map information J of the area is not stored unless the illustration map information J of the area corresponding to the GPS data is stored in the related information database 33a. Displayed on the unit 39.

又、関連画像データ作成部51は、物体認識部50により判別された人物の顔データを受け取り、当該人物の顔データに関連する例えばアバター情報H10を関連情報データベース33aから読み出す。
関連画像データ作成部51は、GPS部34により取得されたGPSデータに対応する地域の周辺に存在する名所、例えばタワーに関連するイラスト画像データH11を関連情報データベース33aから読み出す。
The related image data creation unit 51 receives the face data of the person determined by the object recognition unit 50, and reads, for example, the avatar information H10 related to the face data of the person from the related information database 33a.
The related image data creation unit 51 reads out, from the related information database 33a, illustration image data H11 related to a famous place, for example, a tower, present in the vicinity of the area corresponding to the GPS data acquired by the GPS unit 34.

関連画像データ作成部51は、例えばイラスト地図情報Jに対してアバター情報H10とタワーに関連するイラスト画像データH11とを合成し、図14(b)に示すようなイラスト合成画像データJaを作成する。
関連画像データ作成部51は、撮影時に取得される撮影画像データにイラスト合成画像データJaを関連付けて記録部33に記録する。これにより、関連画像データ作成部51は、再生モード時に、図14(c)に示すように撮影画像データを表示部39に表示すると共に、当該撮影画像データ上にイラスト合成画像データJaをアイコン化して重ねて表示する。
The related image data creation unit 51 synthesizes the avatar information H10 and the illustration image data H11 related to the tower with the illustration map information J, for example, and creates illustration composite image data Ja as shown in FIG. .
The related image data creation unit 51 associates the illustration composite image data Ja with the captured image data acquired at the time of shooting and records the image data in the recording unit 33. As a result, in the reproduction mode, the related image data creation unit 51 displays the captured image data on the display unit 39 as shown in FIG. 14C and converts the illustration composite image data Ja into an icon on the captured image data. Are displayed in layers.

次に、本装置の動作について図15に示すイラストレーション画像作成を含む撮影モードフローチャートに従って説明する。なお、図11と同一ステップの説明は省略して相違するステップの動作について説明する。
信号処理・制御部30は、ステップS13において、アバターモードであると判断すると、ステップS21に移り、GPS部34からGPSデータを受け取り、本装置1の存在する位置に変化があるか否かを判断する。
この判断の結果、本装置1の存在する位置に変化があると、関連画像データ作成部51は、ステップS22bに移り、GPS部34からGPSデータを受け取って本装置1の存在の位置データとして取得し、これと共に方位判定部38により検出された方位データと、撮影レンズ系21の画角データとを取得する。
Next, the operation of this apparatus will be described with reference to a shooting mode flowchart including illustration image creation shown in FIG. In addition, description of the same step as FIG. 11 is abbreviate | omitted, and the operation | movement of the different step is demonstrated.
If the signal processing / control unit 30 determines that the avatar mode is selected in step S13, the signal processing / control unit 30 proceeds to step S21, receives GPS data from the GPS unit 34, and determines whether there is a change in the position where the present apparatus 1 exists. To do.
As a result of this determination, if there is a change in the position where the apparatus 1 exists, the related image data creation unit 51 moves to step S22b, receives GPS data from the GPS unit 34, and acquires it as position data indicating the presence of the apparatus 1. At the same time, the azimuth data detected by the azimuth determination unit 38 and the angle-of-view data of the photographing lens system 21 are acquired.

関連画像データ作成部51は、ステップS23bにおいて、GPS部34により取得されたGPSデータに対応する地域の例えばイラスト地図情報Jが関連情報データベース33aに記憶されているか否かを判断する。この判断の結果、イラスト地図情報Jがあれば、関連画像データ作成部51は、ステップS24bに移り、当該GPSデータに対応する地域の例えばイラスト地図情報Jを関連情報データベース33aから読み出す。
イラスト地図情報Jがなければ、関連画像データ作成部51は、ステップS25bに移り、当該GPSデータに対応する地域の一般の地図情報を関連情報データベース33aから読み出す。なお、GPSデータに対応する地域の例えばイラスト地図情報Jが関連情報データベース33aに記憶されていなければ、関連画像データ作成部51は、当該地域のイラスト地図情報Jが記憶されていない旨を表示部39に表示する。
In step S23b, the related image data creation unit 51 determines whether, for example, illustration map information J of an area corresponding to the GPS data acquired by the GPS unit 34 is stored in the related information database 33a. If there is illustration map information J as a result of this determination, the related image data creation unit 51 proceeds to step S24b, and reads, for example, illustration map information J of the area corresponding to the GPS data from the related information database 33a.
If there is no illustration map information J, the related image data creation unit 51 proceeds to step S25b, and reads general map information of the area corresponding to the GPS data from the related information database 33a. If, for example, illustration map information J of the area corresponding to the GPS data is not stored in the related information database 33a, the related image data creation unit 51 displays that the illustration map information J of the area is not stored. 39.

関連画像データ作成部51は、ステップS26bにおいて、関連画像データ作成部51は、物体認識部50により判別された人物の顔データを受け取り、当該人物の顔データに関連する例えばアバター情報H10が関連情報データベース33aに記憶されているか否かを判断する。この判断の結果、関連情報データベース33aに人物の顔データに関連する例えばアバター情報H10が記憶されていれば、関連画像データ作成部51は、ステップS27bにおいて、当該アバター情報H10を関連情報データベース33aから読み出す。   In step S26b, the related image data creation unit 51 receives the face data of the person determined by the object recognition unit 50. For example, the avatar information H10 related to the face data of the person is related information. It is determined whether or not it is stored in the database 33a. As a result of this determination, if, for example, avatar information H10 related to the person's face data is stored in the related information database 33a, the related image data creation unit 51 obtains the avatar information H10 from the related information database 33a in step S27b. read out.

関連画像データ作成部51は、ステップS28bにおいて、例えばGPS部34により取得されたGPSデータに対応する地域の例えばイラスト地図情報J又は一般の地図情報中に名所があるか否かを判断する。この名所があるか否かを判断する地域は、方位判定部38により検出された方位データと、撮影レンズ系21のレンズデータ記憶部24に記憶されている画角データとから決まる本装置1の撮影範囲内である。
名所があると判断すると、関連画像データ作成部51は、ステップS29bにおいて、当該名所、例えばタワーに関連するイラスト画像データH11を関連情報データベース33aから読み出す。
In step S <b> 28 b, the related image data creation unit 51 determines whether there is a famous place in, for example, illustration map information J or general map information in the region corresponding to the GPS data acquired by the GPS unit 34, for example. The area where it is determined whether or not there is a famous place is determined from the azimuth data detected by the azimuth determination unit 38 and the angle of view data stored in the lens data storage unit 24 of the photographing lens system 21. Within the shooting range.
If it is determined that there is a famous place, the related image data creating unit 51 reads the illustration image data H11 related to the famous place, for example, the tower from the related information database 33a in step S29b.

関連画像データ作成部51は、ステップS30bにおいて、例えばイラスト地図情報Jに対してアバター情報H10とタワーに関連するイラスト画像データH11とを合成し、図14(b)に示すようなイラスト合成画像データJaを作成する。
この後、関連画像データ作成部51は、ステップS31bにおいて、当該イラスト合成画像データJaを表示部39に表示する。
In step S30b, the related image data creation unit 51 synthesizes the avatar information H10 and the illustration image data H11 related to the tower with the illustration map information J, for example, and the illustration composite image data as shown in FIG. Create Ja.
Thereafter, the related image data creation unit 51 displays the illustration composite image data Ja on the display unit 39 in step S31b.

再び、信号処理・制御部30は、ステップS17に移り、操作判定部37の判定結果を受けてユーザによりレリーズボタンが押し操作されて撮影を行うか否かを判断し、レリーズボタンが押し操作されると、信号処理・制御部30は、ステップS18において、当該撮影時、静止画の撮影画像データを取得してその画像を表示部39に表示すると共に、当該撮影画像データを記録部33に記録する。
信号処理・制御部30は、ステップS19において、アバターモードであるか否かを判断し、判断の結果、アバターモードであれば、ステップS20に移り、作成したイラスト合成画像データJaを例えばステップS18での撮影により取得した撮影画像データに関連付けて記録部33に記憶する。
Again, the signal processing / control unit 30 proceeds to step S17, receives the determination result of the operation determination unit 37, determines whether or not the release button is pressed by the user to perform shooting, and the release button is pressed. Then, in step S18, the signal processing / control unit 30 acquires the captured image data of the still image and displays the image on the display unit 39, and records the captured image data in the recording unit 33. To do.
In step S19, the signal processing / control unit 30 determines whether or not the avatar mode is selected. If the result of the determination is that the avatar mode is selected, the signal processing / control unit 30 proceeds to step S20, and the created illustration composite image data Ja is, for example, in step S18. Are stored in the recording unit 33 in association with the photographed image data acquired by the photographing.

以上のような動作で、例えば図16に示すような海岸沿いで人物Gを本装置1により撮影すると、本装置1は、例えば図17(a)に示すような撮影画像データHgを取得する。
一方、本装置1は、上記ステップS21〜S30bの動作によって、例えば図17(b)に示すようなイラスト合成画像データJbを取得する。このイラスト合成画像データJbは、人物Gのアバター情報H20と、撮影を行った海岸沿いの地域のイラストレーションのイラスト画像データH21とが合成されている。イラスト画像データH21は、撮影を行った海岸沿いの地域に関連する名所のイラストレーションでも良い。
なお、信号処理・制御部30は、図17(c)に示すように関連画像データ作成部51により作成したイラスト合成画像データJcを表示部39に表示し、このイラスト合成画像データJc内に撮影画像データHg又はスルー画像を表示してもよい。
When the person G is photographed by the apparatus 1 along the coast as shown in FIG. 16, for example, the apparatus 1 acquires photographed image data Hg as shown in FIG.
On the other hand, the apparatus 1 acquires illustration composite image data Jb as shown in FIG. 17B, for example, by the operations in steps S21 to S30b. In this illustration composite image data Jb, the avatar information H20 of the person G and the illustration image data H21 of the illustration of the area along the coast where the image was taken are combined. The illustration image data H21 may be an illustration of a landmark related to the area along the coast where the image was taken.
As shown in FIG. 17C, the signal processing / control unit 30 displays the illustration composite image data Jc created by the related image data creation unit 51 on the display unit 39, and the image composite image data Jc is photographed. Image data Hg or a through image may be displayed.

このように上記第2の実施の形態によれば、GPSデータに対応する地域の例えばイラスト地図情報Jを読み出し、人物の顔データに関連する例えばアバター情報H10を読み出し、GPSデータに対応する地域の周辺に存在する名所、例えばタワーに関連するイラスト画像データH11を読み出し、これらデータを合成してイラスト合成画像データJaを作成する。これにより、上記第1の実施の形態と同様の効果を奏することができる。又、本装置1の画角に収められない状況や名所等も、例えば図17(c)に示すようにイラストレーションの画像データとして例えば撮影画像データと共に納める可能である。   As described above, according to the second embodiment, for example, the illustration map information J of the area corresponding to the GPS data is read, the avatar information H10 related to the face data of the person is read, and the area of the area corresponding to the GPS data is read. Illustration image data H11 related to a famous place such as a tower is read out, and these data are combined to create illustration composite image data Ja. Thereby, the same effects as those of the first embodiment can be obtained. In addition, situations and sights that cannot be accommodated within the angle of view of the apparatus 1 can be stored together with, for example, photographed image data as illustration image data as shown in FIG. 17C, for example.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1:撮像装置、10:カメラ本体、20:撮影レンズ部(交換レンズ)、21:撮影レンズ系、22:操作部、23:駆動部、24:レンズデータ記憶部、25:レンズ側通信部、21a:ズームレンズ、30:信号処理・制御部、31:撮像部、32:モーション判定部、33:記録部、34:衛星航法システム(GPS)部、35:本体側通信部、36:時計部、37:操作判定部、38:方位判定部、39:表示部、40:外部通信部、33a:関連情報データベース、41:ネットワーク、42:外部機器、50:物体認識部、51:関連画像データ作成部。   1: imaging device, 10: camera body, 20: photographing lens unit (interchangeable lens), 21: photographing lens system, 22: operation unit, 23: drive unit, 24: lens data storage unit, 25: lens side communication unit, 21a: Zoom lens, 30: Signal processing / control unit, 31: Imaging unit, 32: Motion determination unit, 33: Recording unit, 34: Satellite navigation system (GPS) unit, 35: Main body side communication unit, 36: Clock unit 37: operation determination unit, 38: orientation determination unit, 39: display unit, 40: external communication unit, 33a: related information database, 41: network, 42: external device, 50: object recognition unit, 51: related image data Creation department.

Claims (13)

撮影するときに、少なくとも被写体に関連するイラストレーションの画像データと、前記撮影する地点に関連するイラストレーションの画像データとを合成してイラスト合成画像データを作成する関連画像データ作成部、
を具備することを特徴とする撮像装置。
A related image data creation unit that creates illustration composite image data by synthesizing at least illustration image data related to the subject and illustration image data related to the shooting point when shooting,
An imaging apparatus comprising:
被写体を撮像する撮像部と、
前記撮像部による撮影地点を含む撮影姿勢を検出する撮影姿勢検出部と、
前記撮像部の撮像により取得された画像データから前記被写体を判別する被写体判別部と、
少なくとも前記撮影地点と前記被写体とにそれぞれ関連するイラストレーションを含む複数のイラスト画像データを予め記憶する関連情報記憶部と、
少なくとも前記撮影姿勢検出部により検出された前記撮影地点と前記被写体判別部により判別された前記被写体とに関連する前記複数のイラスト画像データを前記関連情報記憶部から読み出し合成してイラスト合成画像データを作成する関連画像データ作成部と、
を具備することを特徴とする撮像装置。
An imaging unit for imaging a subject;
A shooting posture detection unit for detecting a shooting posture including a shooting point by the imaging unit;
A subject discriminating unit for discriminating the subject from image data acquired by imaging of the imaging unit;
A related information storage unit that stores in advance a plurality of illustration image data including illustrations respectively related to at least the shooting point and the subject;
The plurality of illustration image data related to at least the shooting point detected by the shooting posture detection unit and the subject determined by the subject determination unit is read from the related information storage unit and combined to generate illustration composite image data. A related image data creation section to be created;
An imaging apparatus comprising:
前記被写体判別部は、前記被写体中から顔データを判別し、
前記関連画像データ作成部は、前記被写体判別部により判別された前記顔データに関連するイラストレーションの前記イラスト画像データを前記関連情報記憶部から読み出して前記イラスト合成画像データを作成する、
ことを特徴とする請求項2記載の撮像装置。
The subject determination unit determines face data from the subject,
The related image data creation unit reads the illustration image data of the illustration related to the face data determined by the subject determination unit from the related information storage unit to create the illustration composite image data;
The imaging apparatus according to claim 2.
前記撮影姿勢検出部は、前記撮影地点を検出する位置センサと、前記撮像部により撮像を行う撮影方位を検出する方位センサとを有し、
前記関連画像データ作成部は、前記位置センサにより検出された前記撮影地点と、前記方位センサにより検出された前記撮影方位と、前記撮像部の画角とに基づいて撮影範囲内に存在する対象写体を認識し、当該対象写体のイラストレーションの前記イラスト画像データを前記関連情報記憶部から読み出して前記イラスト合成画像データを作成する、
ことを特徴とする請求項2記載の撮像装置。
The shooting posture detection unit includes a position sensor that detects the shooting point, and a direction sensor that detects a shooting direction in which imaging is performed by the imaging unit,
The related image data creation unit is configured to detect a target image existing in a shooting range based on the shooting point detected by the position sensor, the shooting direction detected by the direction sensor, and the angle of view of the imaging unit. Recognizing the body, reading the illustration image data of the illustration of the target subject from the related information storage unit to create the illustration composite image data,
The imaging apparatus according to claim 2.
前記関連画像データ作成部は、地図データを有し、前記撮影地点と、前記撮影方位と、前記画角とに基づいて撮影範囲内に存在する前記対象写体を地図データ上で認識することを特徴とする請求項4記載の撮像装置。   The related image data creation unit has map data, and recognizes the target object existing in the shooting range on the map data based on the shooting point, the shooting direction, and the angle of view. The imaging apparatus according to claim 4, characterized in that: 前記関連画像データ作成部は、前記撮影地点と、前記撮影方位と、前記画角とに基づいて前記イラスト合成画像データ中における前記対象体の前記イラスト画像データの合成位置を決定することを特徴とする請求項4記載の撮像装置。   The related image data creation unit determines a combined position of the illustration image data of the object in the illustration combined image data based on the shooting point, the shooting direction, and the angle of view. The imaging device according to claim 4. 前記関連画像データ作成部は、前記対象写体までの距離と、前記画角とに基づいて前記イラスト合成画像データ中における前記対象写体の幅を決定することを特徴とする請求項6記載の撮像装置。   The said related image data preparation part determines the width | variety of the said object body in the said illustration synthetic | combination image data based on the distance to the said object body, and the said angle of view. Imaging device. 前記関連画像データ作成部は、前記対象写体までの前記距離に応じて前記イラスト画像データに歪み処理を行うことを特徴とする請求項6記載の撮像装置。   The imaging apparatus according to claim 6, wherein the related image data creation unit performs distortion processing on the illustration image data according to the distance to the target subject. 計時して時刻情報を取得する時刻情報取得部を有し、
前記関連画像データ作成部は、前記時刻情報に対応して当該時刻を表わすイラストレーションの前記イラスト画像データを前記関連情報記憶部から読み出して前記イラスト合成画像データを作成する、
ことを特徴とする請求項2記載の撮像装置。
It has a time information acquisition unit that measures time and acquires time information,
The related image data creation unit reads the illustration image data of an illustration representing the time corresponding to the time information from the related information storage unit and creates the illustration composite image data.
The imaging apparatus according to claim 2.
前記関連画像データ作成部は、前記イラスト合成画像データを前記画像データに関連付けて記録することを特徴とする請求項2記載の撮像装置。   The imaging apparatus according to claim 2, wherein the related image data creation unit records the illustration composite image data in association with the image data. 前記関連情報記憶部は、簡易地図情報を記憶し、
前記関連画像データ作成部は、前記撮影姿勢検出部により検出された前記撮影地点に対応する前記簡易地図情報と、前記被写体判別部により判別された前記顔データに関連するイラストレーションの前記イラスト画像データとを前記関連情報記憶部から読み出して前記イラスト合成画像データを作成する、
ことを特徴とする請求項2記載の撮像装置。
The related information storage unit stores simple map information,
The related image data creation unit includes the simple map information corresponding to the shooting point detected by the shooting posture detection unit, and the illustration image data of the illustration related to the face data determined by the subject determination unit. From the related information storage unit to create the illustration composite image data,
The imaging apparatus according to claim 2.
前記関連画像データ作成部は、前記撮影姿勢検出部により検出された前記撮影地点の周辺地域に存在する名所に関連するイラストレーションの前記イラスト画像データを前記関連情報記憶部から読み出して前記イラスト合成画像データを作成することを特徴とする請求項11記載の撮像装置。   The related image data creation unit reads the illustration image data of the illustration related to the sights existing in the surrounding area of the shooting point detected by the shooting posture detection unit from the related information storage unit and reads the illustration composite image data The imaging apparatus according to claim 11, wherein: 前記撮影姿勢検出部は、前記撮影地点を検出する位置センサと、前記撮像部により撮像を行う撮影方位を検出する方位センサとを有し、
前記関連画像データ作成部は、前記位置センサにより検出された前記撮影地点と、前記方位センサにより検出された前記撮影方位と、前記撮像部により撮像を行うときの画角とに基づいて前記撮影地点に対応する前記簡易地図情報が無ければ、その旨を報知する、
ことを特徴とする請求項11記載の撮像装置。
The shooting posture detection unit includes a position sensor that detects the shooting point, and a direction sensor that detects a shooting direction in which imaging is performed by the imaging unit,
The related image data creation unit is configured to detect the shooting point based on the shooting point detected by the position sensor, the shooting direction detected by the direction sensor, and an angle of view when the image pickup unit performs shooting. If there is no simple map information corresponding to
The imaging apparatus according to claim 11.
JP2010210799A 2010-09-21 2010-09-21 Imaging apparatus and imaging method Expired - Fee Related JP5680358B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010210799A JP5680358B2 (en) 2010-09-21 2010-09-21 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010210799A JP5680358B2 (en) 2010-09-21 2010-09-21 Imaging apparatus and imaging method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015001716A Division JP5969062B2 (en) 2015-01-07 2015-01-07 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2012070057A true JP2012070057A (en) 2012-04-05
JP2012070057A5 JP2012070057A5 (en) 2013-09-19
JP5680358B2 JP5680358B2 (en) 2015-03-04

Family

ID=46166830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010210799A Expired - Fee Related JP5680358B2 (en) 2010-09-21 2010-09-21 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP5680358B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016086200A (en) * 2014-10-23 2016-05-19 日本放送協会 Image synthesis device and image synthesis program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010003223A (en) * 2008-06-23 2010-01-07 Yahoo Japan Corp Item distribution device, item distribution method and program
JP2010118019A (en) * 2008-11-14 2010-05-27 Sharp Corp Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
JP2011166404A (en) * 2010-02-09 2011-08-25 Casio Computer Co Ltd Image processing device, image processing method, image display method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010003223A (en) * 2008-06-23 2010-01-07 Yahoo Japan Corp Item distribution device, item distribution method and program
JP2010118019A (en) * 2008-11-14 2010-05-27 Sharp Corp Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
JP2011166404A (en) * 2010-02-09 2011-08-25 Casio Computer Co Ltd Image processing device, image processing method, image display method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016086200A (en) * 2014-10-23 2016-05-19 日本放送協会 Image synthesis device and image synthesis program

Also Published As

Publication number Publication date
JP5680358B2 (en) 2015-03-04

Similar Documents

Publication Publication Date Title
JP7192923B2 (en) Apparatus, method, program, system
TWI269024B (en) Navigation system
CN101833896B (en) Geographic information guide method and system based on augment reality
CN103152526B (en) Image processing apparatus and image processing method
EP1315102A2 (en) A context-aware imaging device
JP2006526945A (en) Apparatus and method for recording &#34;pass-enhanced&#34; multimedia
JP2011238242A (en) Navigation and inspection system
TW201110056A (en) Electronic apparatus, display controlling method and program
WO2005124594A1 (en) Automatic, real-time, superimposed labeling of points and objects of interest within a view
KR20090000186A (en) Point of interest displaying apparatus and method for using augmented reality
JP2010170518A (en) Method for forming image database, navigation method, database system, mobile device for navigation, navigation system, and program for forming the image database
US8339477B2 (en) Digital camera capable of detecting name of captured landmark and method thereof
JP6390992B1 (en) Street viewer system
JP6056664B2 (en) Image processing apparatus and imaging system
JP6412400B2 (en) Image composition apparatus and image composition program
JP5969062B2 (en) Image processing apparatus and image processing method
JP5680358B2 (en) Imaging apparatus and imaging method
JP6318196B2 (en) Image processing apparatus, image processing method, and image processing program
JP7378510B2 (en) street viewer system
JP2001005994A (en) Device and method for image processing
JP2003244488A (en) Image information adding apparatus and system
KR101983727B1 (en) Argument Reality Virtual Studio System
JP2020204973A (en) Information processing device, program, and information processing system
JP2009122188A (en) Imaging apparatus, map information displaying method, map displaying program, and computer-readable medium with map display program recorded thereon
JP3753306B2 (en) Mobile navigation system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150107

R150 Certificate of patent or registration of utility model

Ref document number: 5680358

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350