JP5969062B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP5969062B2
JP5969062B2 JP2015001716A JP2015001716A JP5969062B2 JP 5969062 B2 JP5969062 B2 JP 5969062B2 JP 2015001716 A JP2015001716 A JP 2015001716A JP 2015001716 A JP2015001716 A JP 2015001716A JP 5969062 B2 JP5969062 B2 JP 5969062B2
Authority
JP
Japan
Prior art keywords
image data
illustration
unit
subject
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015001716A
Other languages
English (en)
Other versions
JP2015092743A (ja
Inventor
野中 修
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2015001716A priority Critical patent/JP5969062B2/ja
Publication of JP2015092743A publication Critical patent/JP2015092743A/ja
Application granted granted Critical
Publication of JP5969062B2 publication Critical patent/JP5969062B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、少なくとも撮影地点と被写体とにそれぞれ関連するイラストレーションを含む画像データを作成する画像処理装置及び画像処理方法に関する。
既に撮影された撮影画像等の情報に対して、その撮影後に位置データなどを簡単に付加する技術がある。例えば特許文献1は、被写体を撮影する撮影部を有し、この撮影部の位置又は向きのいずれか一方又は両方を検出部により検出し、予め記録された撮影画像情報に、検出部により検出された位置又は向きのいずれか一方又は両方に基づく情報を付加する電子カメラについて開示しています。
特開2009−60340号公報
ユーザとしては、カメラ等の撮影によって取得された撮影画像を観賞したときに、当該撮影画像を撮影したときの状況、例えば撮影した場所や、この撮影した場所が旅行等によって行った場所であるなどといった状況が直感的に把握しやすいことの要望がある。例えば、人物等の主要被写体を撮影して取得された撮影画像であっても、主要被写体の背景に旅行先を把握できるような例えば建造物等が何ら存在していなければ、撮影画像を観賞しても、当該撮影画像を撮影したときの状況を直感的に把握できるものではない。又、撮影画像中に例えば主要被写体に何ら関連の無い不要な情報が存在していると、かえって撮影
画像を撮影したときの状況を直感的に把握するのに有益でないことがある。ユーザとしては、撮影画像を観賞したときに、当該撮影画像を撮影したときの状況を直感的に把握できることの要望がある。
本発明の目的は、撮影画像を撮影したときの状況を直感的に把握できる画像を取得できる画像処理装置及び画像処理方法を提供することにある。
本発明の主要な局面に係る画像処理装置は、被写体を撮像する撮像部の撮像により取得された画像データから前記被写体を判別する被写体判別部と、少なくとも前記撮像部による撮影地点を含む撮影姿勢を検出する撮影姿勢検出部により検出された前記撮影姿勢に関連するイラスト地図情報と、前記被写体判別部により判別された前記被写体に関連する人物イラストレーションを含むイラスト画像データとを合成してイラスト合成画像データを作成する関連画像データ作成部とを具備する。
本発明の主要な局面に係る画像処理方法は、像部の撮像により取得された画像データから被写体を被写体判別部により判別し、少なくとも前記撮像部による撮影地点を含む撮影姿勢を検出する撮影姿勢検出部により検出された前記撮影姿勢に関連するイラスト地図情報と、前記被写体判別部により判別された前記被写体に関連する人物イラストレーションを含むイラスト画像データとを関連画像データ作成部により合成してイラスト合成画像データを作成する。
本発明によれば、撮影画像を撮影したときの状況を直感的に把握できる画像を取得できる画像処理装置及び画像処理方法を提供できる。
本発明に係る撮像装置の第1の実施の形態を示す構成図。 同装置における各種イラストレーション情報を示す図。 同装置を持って写真撮影するときのユーザの存在する地図上の位置を示す図。 同装置の画角内にビルディングが存在するか否かの判定を説明するための図。 同装置により表示候補となった対象被写体のイラスト画像データ中での合成位置を説明するための図。 同装置によるビルディングの関連データの合成位置を説明するための図。 同装置によるビルディングの大きさの決定を説明するための図。 同装置によるビルディングの幅の決定方法を説明するための図。 同装置により作成した人物のイラストレーションであるアバター情報とタワー及びビルディングの各イラストレーション情報とを合成したイラスト画像データの一例を示す図。 同装置により道路に沿って存在する建造物に対する歪み処理を説明するための図。 同装置におけるイラストレーション画像作成を含む撮影モードフローチャート。 同装置によるイラスト合成画像データの作成の一例を示す図。 本発明に係る撮像装置の第2の実施の形態を説明するために用いる地表の諸物体を縮尺した地図情報の一例を示す図。 同装置による簡易地図情報を用いてのイラスト合成画像データの作成の一例を示す図。 同装置におけるイラストレーション画像作成を含む撮影モードフローチャート。 同装置による海岸沿いでの人物の撮影状況を示す図。 同装置の動作により取得される撮影画像データやイラスト合成画像データ等を示す図。
以下、本発明の第1の実施の形態について図面を参照して説明する。
図1は撮像装置の構成図を示す。この撮像装置1は、カメラ本体10と、撮影レンズ部(交換レンズとも称する)20とを有する。撮影レンズ部20は、カメラ本体10に対して取り付け、取り外し可能である。この撮影レンズ部20は、被写体からの像をカメラ本体10に送るもので、撮影レンズ系21と、操作部22と、駆動部23と、レンズデータ記憶部24と、レンズ側通信部25とを有する。
撮影レンズ系21は、ズームレンズ21aを備える。この撮影レンズ部20は、複数用意され、それぞれズームレンズ21aによる倍率、焦点距離、明るさ等が異なる。撮影レンズ部20は、ズームレンズ21aを備えていないものであってもよく、この場合には操作部22を備えていない。操作部22は、例えばユーザの操作を受けてズームレンズ21aのズーム位置を可変可能である。駆動部23は、撮影レンズ部20の絞り、ピント等を制御し、被写体に対する様々な構図を可能とする。レンズデータ記憶部24には、撮影レンズ部20の画角などのデータが予め記憶されている。レンズ側通信部25は、カメラ本体10との間でデータ通信を行う。
カメラ本体10は、撮影レンズ部20からの被写体の像を撮影してその撮影画像データを取得するもので、信号処理・制御部30と、撮像部31と、モーション判定部32と、記録部33と、衛星航法システム(GPS)部34と、本体側通信部35と、時計部36と、操作判定部37と、方位判定部38と、表示部39と、外部通信部40とを有する。
撮像部31は、撮影レンズ部20からの被写体の像を画像信号に変換する。
信号処理・制御部30は、マイクロコンピュータを搭載し、このマイクロコンピュータの処理によって撮像部31からの画像信号を画像処理し、被写体の動画をスルー画像として表示部39に表示し、撮影時に静止画の撮影画像データを取得してその画像を表示部39に表示すると共に、記録部33に記録等のカメラ本体10内の撮影全般の制御を行う。
モーション判定部32は、被写体の動画から被写体の動きを判定する。
記録部33は、撮影時に取得された撮影画像データ等を記録する。この記録部33には、関連情報記憶部としての関連情報データベース33aが形成されている。
この関連情報データベース33aには、当該装置1での撮影地点と被写体とにそれぞれ関連するイラストレーションを含む複数のイラスト画像データが予め記憶されている。これらイラスト画像データは、例えば地図データ、主要被写体となる例えば人物のイラストレーションの画像データ等である。
地図データは、例えば一般の地図情報であって、地表の諸物体、地勢等を予め設定された縮尺度により縮尺してなる。
イラスト画像データとしては、例えば、図2(a)に示すような人物のイラストレーションであるアバター情報H1と、同図(b)に示すようなタワーのイラストレーション情報H2と、同図(c)に示すようなビルディングのイラストレーション情報H3等を有する。イラスト画像データとしては、人物やビルディングの他に、山、空、夜間等を表わすイラストレーションが記憶されている。
GPS部34は、本装置1が現在存在する三次元位置を示す位置データ(以下、GPSデータと称する)を取得する。
時計部36は、時刻を計時し、その時刻情報を取得する時刻情報取得部として機能を有する。この時刻情報は、例えば撮影時に取得された撮影画像データを整理するために当該撮影画像データに添付される。
操作判定部37は、ユーザの様々な操作を受けて、その操作内容を判定する。操作内容は、例えば電源オン・オフ、各種モードのスイッチ、レリーズボタンの押し操作等である。
方位判定部38は、本装置1の撮影レンズ部20による撮影範囲が向いている方位を検出し、その方位データを出力する。なお、この方位判定部38と上記GPS部34とは、撮像部31により撮像を行う撮影地点の情報を検出する撮影位置検出部として機能する。
表示部39は、被写体の動画をスルー画像や、撮影画像データ、本装置1で作成されるイラスト合成画像データ等を表示するもので、例えば液晶ディスプレイから成る。なお、イラスト合成画像データは、後述するように例えば人物やビルディング等の建造物、タワー等のイラストレーションを含む各イラスト画像データを合成してなる。
本体側通信部35は、撮影レンズ部20のレンズ側通信部25との間でデータ通信を行う。
外部通信部40は、ネットワーク41を介して外部機器42に接続されている。この外部機器42は、例えばサーバ等であり、例えば上記関連情報データベース33aに記憶されているイラスト画像データと同様のイラスト画像データ、例えば地図情報、図2(a)に示すような人物のイラストレーションであるアバター情報H1と、同図(b)に示すようなタワーのイラストレーション情報H2と、同図(c)に示すようなビルディングのイラストレーション情報H3等を有する。
上記信号処理・制御部30は、被写体判別部としての物体認識部50と、関連画像データ作成部51とを有する。
物体認識部50は、被写体を判別するもので、例えば被写体のスルー画像や撮影画像データ中の被写体中から人物の顔データを判別する。この人物の顔データは、例えば人物の顔の外観に基づいて取得する。
関連画像データ作成部51は、撮影するときに、少なくとも被写体に関連するイラストレーションの画像データと、撮影する地点に関連するイラストレーションの画像データとを合成してイラスト合成画像データを作成する。
具体的に、関連画像データ作成部51は、GPS部34により取得されたGPSデータと、方位判定部38により検出された方位データと、撮影レンズ系21のレンズデータ記憶部24に記憶されている画角データと、物体認識部50により判別された人物の顔データとをそれぞれ受け取り、これらGPSデータと方位データと画角データと人物の顔データとに関連する少なくとも1つのイラスト画像データを関連情報データベース33aから読み出してイラストレーションを含むイラスト合成画像データを作成する。
例えば物体認識部50により人物の顔データを判別すると、関連画像データ作成部51は、当該人物の顔データに関連するイラストレーションのイラスト画像データを関連情報データベース33aから読み出してイラスト合成画像データを作成する。
関連画像データ作成部51は、GPSデータと、方位データと、画角データとに基づいて当該装置1の撮影範囲内に存在する例えばビルディング等の対象被写体を認識し、当該対象被写体のイラストレーションのイラスト画像データを関連情報データベース33aから読み出してイラスト合成画像データを作成する。
関連画像データ作成部51は、GPSデータと、方位データと、画角データとに基づいて例えばビルディング等の対象被写体のイラスト画像データ中における合成位置を決定する。
関連画像データ作成部51は、地図データを有し、GPSデータと、方位データと、画角データとに基づいて撮影範囲内に存在する例えば名所やビルディング等の対象被写体を関連情報データベース33aに記憶されている地図データ上で認識する。
関連画像データ作成部51は、例えばビルディング等の対象被写体までの距離と、画角データとに基づいてイラスト合成画像データ中における対象被写体の幅を決定する。
関連画像データ作成部51は、例えばビルディング等の対象被写体までの距離に応じてイラスト画像データに歪み処理を行う。
関連画像データ作成部51は、時計部36により取得される時刻情報に対応して当該時刻を表わすイラストレーションのイラスト画像データを関連情報データベース33aから読み出してイラスト合成画像データを作成する。
関連画像データ作成部51は、イラスト画像データを撮影時に取得される撮影画像データに関連付けて記録部33に記録する。
具体的に、関連画像データ作成部51による関連情報データベース33aからのイラスト画像データの読み出しについて説明する。
図3はユーザが本装置1を持って写真撮影するときのユーザの存在する地図情報上の位置を示す。この地図情報は、記録部33の関連情報データベース33aに記憶されている。本装置1の撮影方向には、例えば4棟のビルディングA〜Dが存在すると共に、タワーEが存在する。又、X駅、Y駅が存在する。本装置1は、画角θ(θ1又はθ2)を持つものとする。
図4は例えばビルディングA、Bが本装置1の画角θ内に存在するか否かの判定を説明するための図を示す。本装置1の存在する位置データを例えば緯度y0、経度x0(y0,x0)とする。この本装置1の位置データは、GPS部34により取得される。本装置1の存在する緯度、経度(y0、x0)は、XY座標系の基準となる。
本装置1の撮影方位Y1は、
Y1=tanθ・X …(1)
により表わされる。本装置1の方位データは、方位判定部38によって取得される。
本装置1の撮影レンズ部20による撮影範囲の最外角は、次式(2)、(3)により表わされる。
Y2=tan(θ+θ/2)X …(2)
Y3=tan(θ−θ/2)X …(3)
により表わされる。
ビルディングAの位置データは、緯度y1、経度x1(y1,x1)となり、XY座標系の基準(y0、x0)との相対的な経度、緯度は、(y1−y0,x1−x0)となる。
ビルディングBの位置データは、緯度y2、経度x2(y2,x2)となり、XY座標系の基準(y0、x0)との相対的な経度、緯度は、(y2−y0,x2−x0)となる。
しかるに、各ビルディングA、Bの緯度、経度(y1,x1)、(y2,x2)を本装置1の緯度、経度(y0、x0)を基準として上記各式(2)、(3)に代入して緯度を算出し、これら緯度が各ビルディングA、Bの各相対的な経度(y1−y0)、(y2−y0)よりも小さければ、各ビルディングA、Bは、本装置1の撮影範囲内に存在するものとなり、イラスト画像データとして表示候補となる。図4に示すようにビルディングAは本装置1の撮影範囲外となり、イラスト画像データとして表示候補から外れる。ビルディングBは本装置1の撮影範囲内にあり、イラスト画像データとして表示候補になる。
図5はイラスト画像データとして表示候補となったビルディングBのイラスト合成画像データ中での合成位置を説明するための図を示す。ビルディングBは、Y軸の緯度y0からの角度φb0に存在する。この角度φb0は、ビルディングBの緯度、経度(y2,x2)から
φb0=arctan(x2/y2) …(4)
により算出される。
本装置1の撮影方位Y1と、本装置1の緯度、経度(y0、x0)からビルディングBの緯度、経度(y2,x2)を通る直線との相対角度φbは、
φb=φb0−θ …(5)
となる。
しかるに、ビルディングBのイラスト画像データは、図6(a)に示すようにイラスト合成画像データK中において本装置1の撮影方位Y1から相対角度φbのところに合成される。図6(b)はイラスト合成画像データK中にイラストレーションにより描かれたビルディングBのイラスト画像データSを合成した結果を示す。
イラストレーションにより描かれたビルディングBのイラスト画像データSの大きさは、次の通りに決定される。図7は例えばビルディングBの大きさの決定を説明するための図を示す。本装置1が存在する緯度、経度(y0、x0)から各ビルディングA、B、Cまでの各距離La、Lb、Lcは、例えば関連情報データベース33aに記憶されている地図情報、又は本装置1におけるピント合わせの情報から取得できる。例えば本装置1が存在する緯度、経度(y0、x0)からビルディングBまでの距離Lbは、
Lb={(x2−x0)2+(y2−y0)2}2・(1/2) …(6)
により算出される。
ビルディングBの高さH、幅Wは、例えば関連情報データベース33aに記憶されている地図情報、又はネットワーク41を介して外部機器42に記憶されている地図情報から取得してもよい。
ここでは、例えば仮にビルディングBの高さH、幅Wをそれぞれ100m、100mとする。又、図8に示すように本装置1の撮影レンズ系21とビルディングBとの光学的な関係からビルディングBの幅Wに対する角度をθwbとすると、この角度θwbは、次式により表わされる。
θwb=arctan(W/Lb) …(7)
従って、本装置1の画角θとビルディングBの角度θwbとの比率に基づいてイラスト合成画像データK中に合成するビルディングBの幅を決定できる。
図9は図2(a)に示す人物のイラストレーションであるアバター情報H1と、同図(b)に示すタワーのイラスト画像データH2と、同図(c)に示すビルディングのイラスト画像データH3とを合成したイラスト合成画像データKの一例を示す。このイラスト合成画像データK中においてビルディングBは、本装置1の画角θとビルディングBの角度θwbとの比率に基づく幅で、かつイラスト合成画像データK中において本装置1の撮影方位Y1から相対角度φbのところに合成される。
イラスト合成画像データK中におけるタワーのイラスト画像データH2やビルディングのイラスト画像データH3の上下方向の配置位置は、図9に示すようにイラスト合成画像データK中に対角線T1、T2を設け、これら対角線T1、T2に合わせてタワーのイラスト画像データH2やビルディングのイラスト画像データH3を配置する。
図9に示すように例えば人物のイラストレーションであるアバター情報H1と、タワーのイラスト画像データH2と、ビルディングのイラスト画像データH3との合成は、本装置1の存在する位置(y0、x0)の遠方から近傍に向かって存在する順序に合成し、最後に人物のアバター情報H1を合成し、イラスト合成画像データKを作成する。ここでは、先ず、タワーのイラスト画像データH2を合成し、次にビルディングのイラスト画像データH3を合成し、最後に人物のアバター情報H1を合成する。
本装置1の画角θ内に山等の大きな対象被写体が人物等の背景に存在する場合、山等の大きな対象被写体の高さや当該対象被写体までの距離を考慮して山等の大きな対象被写体のイラスト画像データを最初に合成してもよい。
被写体の撮影では、図10(a)に示すように本装置1の撮影方位Y1が地図情報上の道路50の方向に沿って向けられることがある。この道路50沿いには、ビルディングAが存在する。このような状況で撮影をしようとする場合には、ビルディングのイラスト画像データH3に対して図10(b)に示すように歪み処理を行う。この歪み処理は、遠方になるに従って縮小する処理である。これにより、ビルディングのイラスト画像データH3は、遠近法の技法により表現したイラストレーションとなる。
地図情報だけでなく、被写体のスルー画像を表示部39に表示するときの画像データや、撮影時の撮影画像データから空や建造物を検出し、このうち建造物の輪郭を判定し、図10(b)に示すような建造物の歪み処理を行ってもよい。この歪み処理は、例えば図9に示す対角線T1、T2に沿ってイラスト合成画像データKの中央部に近い縦方向の線を縮小し、横方向については例えば半分程度縮小する。
次に、本装置の動作について図11に示すイラストレーション画像作成を含む撮影モードフローチャートに従って説明する。
信号処理・制御部30は、ステップS11において、撮影モードであるか否かを判断する。この判断の結果、撮影モードでなければ、再生モード等のその他のモードに移る。
撮影モードであれば、信号処理・制御部30は、ステップS12において、本体側通信部35とレンズ側通信部25とを介して撮影レンズ部20のレンズデータ記憶部24から当該撮影レンズ部20の画角などのデータを取得する。信号処理・制御部30は、取得した画角などのデータを一時的に記録部33等に記憶する。
信号処理・制御部30は、ステップS13において、イラスト合成画像データを作成するためのアバターモードであるか否かを判断する。この判断の結果、アバターモードでなければ、信号処理・制御部30は、通常の撮影であることを判断し、ステップS14において、本体側通信部35とレンズ側通信部25とを介して操作部22によりズームレンズ21aが操作されたか否かを判断する。この判断の結果、ズームレンズ21aが操作されていると、信号処理・制御部30は、ステップS15において、本体側通信部35とレンズ側通信部25とを介して操作部22によるズームレンズ21aのズーム位置等を取得する。
この状態に、撮像部31は、撮影レンズ部20からの被写体の像を画像信号に変換する。信号処理・制御部30は、ステップS16において、撮像部31からの画像信号を画像処理し、被写体の動画をスルー画像として表示部39に表示する。
信号処理・制御部30は、ステップS17において、操作判定部37の判定結果を受けてユーザによりレリーズボタンが押し操作されて撮影を行うか否かを判断する。レリーズボタンが押し操作されると、信号処理・制御部30は、ステップS18において、当該撮影時、静止画の撮影画像データを取得してその画像を表示部39に表示すると共に、当該撮影画像データを記録部33に記録する。
図12(a)はユーザによりレリーズボタンを押し操作して撮影を行うときの様子を示す。この撮影地点は、例えば図3に示すように4棟のビルディングA〜D、タワーE、X駅、Y駅が存在する周辺である。
信号処理・制御部30は、ステップS19において、アバターモードであるか否かを判断し、判断の結果、アバターモードでなければ、ステップS11に戻る。
上記ステップS13において、信号処理・制御部30がアバターモードであると判断すると、この信号処理・制御部30は、ステップS21に移り、GPS部34からGPSデータを受け取り、本装置1の存在する位置に変化があるか否かを判断する。
この判断の結果、本装置1の存在する位置に変化があると、信号処理・制御部30は、ステップS22に移り、GPS部34からGPSデータを受け取って本装置1の存在の位置データとして取得し、方位判定部38からの方位データを受け取って本装置1の撮影レンズ部20による撮影範囲が向いている方位データを取得し、これら位置データと方位データとを画角データと共に記録部33に記憶する。さらに、信号処理・制御部30は、物体認識部50によって例えば被写体のスルー画像中の被写体中から人物の顔データを判別する。
関連画像データ作成部51は、ステップS23〜S29において、GPS部34により取得されたGPSデータと、方位判定部38により検出された方位データと、撮影レンズ系21のレンズデータ記憶部24に記憶されている画角データと、物体認識部50により判別された人物の顔データとをそれぞれ受け取り、これらGPSデータと方位データと画角データと人物の顔データとに関連する少なくとも1つのイラスト画像データを関連情報データベース33aから読み出してイラストレーションを含むイラスト合成画像データを作成する。
具体的に関連画像データ作成部51による関連情報データベース33aからのイラスト画像データの読み出しについて説明すると、関連画像データ作成部51は、関連情報データベース33aから地図情報を読み出し、例えば図3に示すように4棟のビルディングA〜D、タワーE、X駅、Y駅が存在することを認識する。
関連画像データ作成部51は、本装置1の存在する緯度、経度(y0、x0)をXY座標系の基準として認識すると共に、本装置1の撮影方位Y1を上記式(1)により認識する。関連画像データ作成部51は、本装置1の撮影レンズ部20による撮影範囲の最外角は、上記式(2)、(3)により認識する。
しかるに、関連画像データ作成部51は、各ビルディングA、Bの緯度、経度(y1,x1)、(y2,x2)を本装置1の緯度、経度(y0、x0)を基準として上記各式(2)、(3)に代入して緯度を算出し、これら緯度が各ビルディングA、Bの各相対的な経度(y1−y0)、(y2−y0)よりも小さければ、各ビルディングA、Bは、本装置1の撮影範囲内に存在するものとなり、イラスト画像データとして表示候補となる。図4に示すようにビルディングAは本装置1の撮影範囲外となり、イラスト画像データとして表示候補から外れる。ビルディングBは本装置1の撮影範囲内にあり、イラスト画像データとして表示候補になる。なお、表示候補になるのは、ビルディングBの他に、ビルディングC、タワーEである。
関連画像データ作成部51は、図5に示すようにイラスト画像データとして表示候補となったビルディングBのイラスト合成画像データ中での合成位置を決定する。
ビルディングBは、Y軸の緯度y0からの角度φb0に存在する。関連画像データ作成部51は、当該角度φb0をビルディングBの緯度、経度(y2,x2)から上記式(4)により算出する。
又、関連画像データ作成部51は、本装置1の撮影方位Y1と、本装置1の緯度、経度(y0、x0)からビルディングBの緯度、経度(y2,x2)を通る直線との相対角度φbを上記式(5)から算出する。
しかるに、関連画像データ作成部51は、ビルディングBのイラスト画像データが図6(a)に示すようにイラスト合成画像データK中において本装置1の撮影方位Y1から相対角度φbのところに合成する。同様に、関連画像データ作成部51は、ビルディングC、タワーEの各合成位置を決定する。
なお、イラスト合成画像データKは、ビルディングB、CとタワーEとの各イラスト画像データを合成しているが、本装置1の向いている方位データと画角データとにより決まる撮影範囲内に存在する全てのビルディング等の建造物や山等からどの建造物のイラスト画像データを選択して合成するのかは、例えば次の通りに設定する。
例えば、関連画像データ作成部51は、地図データと方位データとに基づいて遠景に存在する建造物や山等の選択を行う。例えば、山であれば、都市部内から富士山等の山までの距離にあるくらいまでが見える事を参考に、3000m級の山であれば、100kmの距離にあれる場合に採用し、2000m級の山であれば70kmまでの場合に採用するというように遠景の山を選択する。
関連画像データ作成部51は、地図データに基づいて遠近関係からイラスト化するビルディングを選択する。例えばタワーとして東京タワーやスカイツリーのような300mを超える高いタワーは、見えなくとも、その土地のシンボルなので10km以内にあれば採用し、その他のビルは、遠くのものは重なるとして、近くで大きいものを優先して採用する。
例えば、画面が煩雑になるので、手前に高いビルディングがない場合、例えば所定階数5階建よりも高いビルディングであれば、手前の2、3棟のビルディングを採用し、同様に10階建て以上のビルディングがそれより撮影点から見て奥側に有る場合、当該奥側にある2、3棟のビルディングを採用する。又、神社仏閣など高さの低い建造物は、手前に何も建造物がなければ、神社仏閣など高さの低い建造物のみ採用する。
イラストレーションにより描かれたビルディングBのイラスト画像データSの大きさは、次の通りに決定される。
関連画像データ作成部51は、地図情報を関連情報データベース33aから読み取り、この地図情報に基づいて図7に示すように本装置1が存在する緯度、経度(y0、x0)から各ビルディングA、B、Cまでの各距離La、Lb、Lcを取得し、本装置1が存在する緯度、経度(y0、x0)からビルディングBまでの距離Lbを上記式(6)を演算して取得する。
これと共に、関連画像データ作成部51は、地図情報に基づいてビルディングBの高さH、幅Wを取得する。関連画像データ作成部51は、例えば仮にビルディングBの高さH、幅Wをそれぞれ100m、100mとし、図8に示すように本装置1の撮影レンズ系21とビルディングBとの光学的な関係からビルディングBの幅Wに対する角度θwbを上記式(7)を演算して取得する。しかるに、関連画像データ作成部51は、本装置1の画角θとビルディングBの角度θwbとの比率に基づいてイラスト合成画像データK中に合成するビルディングBの幅を決定する。関連画像データ作成部51は、ビルディングC、タワーEの各幅を決定する。
しかるに、関連画像データ作成部51は、図9に示すようにビルディングBを本装置1の画角θとビルディングBの角度θwbとの比率に基づく幅でかつ本装置1の撮影方位Y1から相対角度φbのところに合成し、タワーのイラスト画像データH2やビルディングのイラスト画像データH3を対角線T1、T2に合わせて配置し、人物のイラストレーションであるアバター情報H1を中央部に配置する。この場合、関連画像データ作成部51は、例えば、先ず、タワーのイラスト画像データH2を合成し、次にビルディングのイラスト画像データH3を合成し、最後に人物のアバター情報H1を合成し、イラスト合成画像データKを作成する。なお、本装置1の画角θ内に山等の大きな対象被写体が人物等の背景に存在すれば、関連画像データ作成部51は、山等の大きな対象被写体の高さや当該対象被写体までの距離を考慮して山等の大きな対象被写体のイラスト画像データを最初に合成する。
関連画像データ作成部51は、ステップS24において、本体側通信部35とレンズ側通信部25とを介して操作部22によりズームレンズ21aが操作されたか否かを判断する。この判断の結果、ズームレンズ21aが操作されていると、関連画像データ作成部51は、ステップS25に移り、例えば図12(b)に示すようなイラスト合成画像データKを作成する場合、ズームレンズ21aのズーム位置によって決定される画角内に入るタワーのイラスト画像データH2と、ビルディングのイラスト画像データH3と、人物のアバター情報H1とを限定する。なお、タワーのイラスト画像データH2と、ビルディングのイラスト画像データH3とは、ズームレンズ21aのズーム位置によって決定される画角内に入るものとする。また、ズームレンズ21aのズーム位置は、信号処理・制御部30によって本体側通信部35とレンズ側通信部25とを介して操作部22に問い合わせにより取得する。
関連画像データ作成部51は、ステップS26において、例えば被写体のスルー画像の濃淡レベルが予め設定された夜間を判定するための濃淡レベルよりも低いことを判定するか、又は時計部36の計時時刻から夜間であるか否かを判断する。
この判断の結果、夜間であれば、関連画像データ作成部51は、ステップS27において、関連情報データベース33aから例えば図12(c)に示すような夜間等を表わす例えば黒色のイラスト画像データH4を読み取り、このイラスト画像データH4をイラスト合成画像データK中の上部に配置する。
関連画像データ作成部51は、ステップS28において、例えば被写体のスルー画像中の道路の方向を認識し、この道路の方向から図10(a)に示すように本装置1の撮影方位Y1が地図情報上の道路50の方向に沿って向けられているか否かを判断する。この判断の結果、本装置1の撮影方位Y1が地図情報上の道路50の方向に沿って向けられていれば、関連画像データ作成部51は、ステップS29において、ビルディングのイラスト画像データH3に対して図10(b)に示すように遠方になるに従って縮小する歪み処理を行う。
なお、各建物や遠景の山、人物などの配置位置は、撮影画像データに基づいて配置すればよい。又、地図データに基づいて遠近法的に遠くのものをイラスト合成画像データKの中央部の水平線に近づくように配置してもよい。但し、イラスト画像データでも、そのあたりの遠近法は、あえて無視して、面白くわかり易く描く例もあるので、あえて、同じ水平面基準で配置してもよい。この後、関連画像データ作成部51は、ステップS30において、例えば図12(c)に示すような作成したイラスト合成画像データKを表示部39に表示する。
再び、信号処理・制御部30は、ステップS17に移り、操作判定部37の判定結果を受けてユーザによりレリーズボタンが押し操作されて撮影を行うか否かを判断する。レリーズボタンが押し操作されると、信号処理・制御部30は、ステップS18において、当該撮影時、静止画の撮影画像データを取得してその画像を表示部39に表示すると共に、当該撮影画像データを記録部33に記録する。
信号処理・制御部30は、ステップS19において、アバターモードであるか否かを判断し、判断の結果、アバターモードであれば、ステップS20に移り、作成したイラスト合成画像データKを例えばステップS18での撮影により取得した撮影画像データに関連付けて記録部33に記憶する。
このように上記第1の実施の形態によれば、GPSデータと、方位判定部38により検出された方位データと、撮影レンズ系21の画角データと、物体認識部50により判別された人物の顔データとをそれぞれ受け取り、これらGPSデータと方位データと画角データと人物の顔データとに関連する少なくとも1つのイラスト画像データを関連情報データベース33aから読み出してイラストレーションを含むイラスト合成画像データKを作成する。そして、イラスト合成画像データKは、例えば撮影時により取得した撮影画像データに関連付けて記録部33に記憶する。これにより、例えば本装置1において、イラスト合成画像データKを表示部39に表示し、このイラスト合成画像データKを選択することで、当該イラスト合成画像データKに関連付けられて関連付けられた撮影画像データを表示部39に表示することができる。
イラスト合成画像データKは、ユーザが撮影を行った地域における名所等の良く知られたタワーE等の建造物をイラストレーションの画像データを合成しているので、イラスト合成画像データKに関連付けられた例えば複数の撮影画像データの撮影場所や、撮影したときの状況を直感的に把握することが出来る。又、撮影画像データでは、その撮影内容が例えば撮影を行った地域における名所等が写されたものでなく、ただ単に電線や通行人が多く写っていたり、名所等でない風景が写っているものであっても、イラスト合成画像データKと関連付けることでユーザが撮影を行った地域等の状況を直感的に把握できる。
次に、本発明の第2の実施の形態について図面を参照して説明する。なお、本装置1の構成は、図1に示す構成と同一であり、当該図1を用いてその相違するところについて説明する。
関連情報データベース33aには、一般の地図情報と、予め簡易地図情報とが記憶されている。一般の地図情報は、例えば図13に示すような地表の諸物体、地勢等を予め設定された縮尺度により縮尺してなる。簡易地図情報は、例えば図13に示すような一般の地図情報を、例えば図14(a)に示すようなイラストレーションの地図情報(以下、イラスト地図情報と称する)Jにより表わしている。
関連画像データ作成部51は、GPS部34により取得されたGPSデータを受け取り、このGPSデータに対応する地域の例えばイラスト地図情報Jを関連情報データベース33aから読み出す。この場合、関連画像データ作成部51は、GPSデータに対応する地域の例えばイラスト地図情報Jが関連情報データベース33aに記憶されていなければ、当該地域のイラスト地図情報Jが記憶されていない旨を表示部39に表示する。
又、関連画像データ作成部51は、物体認識部50により判別された人物の顔データを受け取り、当該人物の顔データに関連する例えばアバター情報H10を関連情報データベース33aから読み出す。
関連画像データ作成部51は、GPS部34により取得されたGPSデータに対応する地域の周辺に存在する名所、例えばタワーに関連するイラスト画像データH11を関連情報データベース33aから読み出す。
関連画像データ作成部51は、例えばイラスト地図情報Jに対してアバター情報H10とタワーに関連するイラスト画像データH11とを合成し、図14(b)に示すようなイラスト合成画像データJaを作成する。
関連画像データ作成部51は、撮影時に取得される撮影画像データにイラスト合成画像データJaを関連付けて記録部33に記録する。これにより、関連画像データ作成部51は、再生モード時に、図14(c)に示すように撮影画像データを表示部39に表示すると共に、当該撮影画像データ上にイラスト合成画像データJaをアイコン化して重ねて表示する。
次に、本装置の動作について図15に示すイラストレーション画像作成を含む撮影モードフローチャートに従って説明する。なお、図11と同一ステップの説明は省略して相違するステップの動作について説明する。
信号処理・制御部30は、ステップS13において、アバターモードであると判断すると、ステップS21に移り、GPS部34からGPSデータを受け取り、本装置1の存在する位置に変化があるか否かを判断する。
この判断の結果、本装置1の存在する位置に変化があると、関連画像データ作成部51は、ステップS22bに移り、GPS部34からGPSデータを受け取って本装置1の存在の位置データとして取得し、これと共に方位判定部38により検出された方位データと、撮影レンズ系21の画角データとを取得する。
関連画像データ作成部51は、ステップS23bにおいて、GPS部34により取得されたGPSデータに対応する地域の例えばイラスト地図情報Jが関連情報データベース33aに記憶されているか否かを判断する。この判断の結果、イラスト地図情報Jがあれば、関連画像データ作成部51は、ステップS24bに移り、当該GPSデータに対応する地域の例えばイラスト地図情報Jを関連情報データベース33aから読み出す。
イラスト地図情報Jがなければ、関連画像データ作成部51は、ステップS25bに移り、当該GPSデータに対応する地域の一般の地図情報を関連情報データベース33aから読み出す。なお、GPSデータに対応する地域の例えばイラスト地図情報Jが関連情報データベース33aに記憶されていなければ、関連画像データ作成部51は、当該地域のイラスト地図情報Jが記憶されていない旨を表示部39に表示する。
関連画像データ作成部51は、ステップS26bにおいて、関連画像データ作成部51は、物体認識部50により判別された人物の顔データを受け取り、当該人物の顔データに関連する例えばアバター情報H10が関連情報データベース33aに記憶されているか否かを判断する。この判断の結果、関連情報データベース33aに人物の顔データに関連する例えばアバター情報H10が記憶されていれば、関連画像データ作成部51は、ステップS27bにおいて、当該アバター情報H10を関連情報データベース33aから読み出す。
関連画像データ作成部51は、ステップS28bにおいて、例えばGPS部34により取得されたGPSデータに対応する地域の例えばイラスト地図情報J又は一般の地図情報中に名所があるか否かを判断する。この名所があるか否かを判断する地域は、方位判定部38により検出された方位データと、撮影レンズ系21のレンズデータ記憶部24に記憶されている画角データとから決まる本装置1の撮影範囲内である。
名所があると判断すると、関連画像データ作成部51は、ステップS29bにおいて、当該名所、例えばタワーに関連するイラスト画像データH11を関連情報データベース33aから読み出す。
関連画像データ作成部51は、ステップS30bにおいて、例えばイラスト地図情報Jに対してアバター情報H10とタワーに関連するイラスト画像データH11とを合成し、図14(b)に示すようなイラスト合成画像データJaを作成する。
この後、関連画像データ作成部51は、ステップS31bにおいて、当該イラスト合成画像データJaを表示部39に表示する。
再び、信号処理・制御部30は、ステップS17に移り、操作判定部37の判定結果を受けてユーザによりレリーズボタンが押し操作されて撮影を行うか否かを判断し、レリーズボタンが押し操作されると、信号処理・制御部30は、ステップS18において、当該撮影時、静止画の撮影画像データを取得してその画像を表示部39に表示すると共に、当該撮影画像データを記録部33に記録する。
信号処理・制御部30は、ステップS19において、アバターモードであるか否かを判断し、判断の結果、アバターモードであれば、ステップS20に移り、作成したイラスト合成画像データJaを例えばステップS18での撮影により取得した撮影画像データに関連付けて記録部33に記憶する。
以上のような動作で、例えば図16に示すような海岸沿いで人物Gを本装置1により撮影すると、本装置1は、例えば図17(a)に示すような撮影画像データHgを取得する。
一方、本装置1は、上記ステップS21〜S30bの動作によって、例えば図17(b)に示すようなイラスト合成画像データJbを取得する。このイラスト合成画像データJbは、人物Gのアバター情報H20と、撮影を行った海岸沿いの地域のイラストレーションのイラスト画像データH21とが合成されている。イラスト画像データH21は、撮影を行った海岸沿いの地域に関連する名所のイラストレーションでも良い。
なお、信号処理・制御部30は、図17(c)に示すように関連画像データ作成部51により作成したイラスト合成画像データJcを表示部39に表示し、このイラスト合成画像データJc内に撮影画像データHg又はスルー画像を表示してもよい。
このように上記第2の実施の形態によれば、GPSデータに対応する地域の例えばイラスト地図情報Jを読み出し、人物の顔データに関連する例えばアバター情報H10を読み出し、GPSデータに対応する地域の周辺に存在する名所、例えばタワーに関連するイラスト画像データH11を読み出し、これらデータを合成してイラスト合成画像データJaを作成する。これにより、上記第1の実施の形態と同様の効果を奏することができる。又、本装置1の画角に収められない状況や名所等も、例えば図17(c)に示すようにイラストレーションの画像データとして例えば撮影画像データと共に納める可能である。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
1:撮像装置、10:カメラ本体、20:撮影レンズ部(交換レンズ)、21:撮影レンズ系、22:操作部、23:駆動部、24:レンズデータ記憶部、25:レンズ側通信部、21a:ズームレンズ、30:信号処理・制御部、31:撮像部、32:モーション判定部、33:記録部、34:衛星航法システム(GPS)部、35:本体側通信部、36:時計部、37:操作判定部、38:方位判定部、39:表示部、40:外部通信部、33a:関連情報データベース、41:ネットワーク、42:外部機器、50:物体認識部、51:関連画像データ作成部。

Claims (16)

  1. 被写体を撮像する撮像部の撮像により取得された画像データから前記被写体を判別する被写体判別部と、
    少なくとも前記撮像部による撮影地点を含む撮影姿勢を検出する撮影姿勢検出部により検出された前記撮影姿勢に関連するイラスト地図情報と、前記被写体判別部により判別された前記被写体に関連する人物イラストレーションを含むイラスト画像データとを合成してイラスト合成画像データを作成する関連画像データ作成部と、
    を具備することを特徴とする画像処理装置。
  2. 前記撮影姿勢検出部は、前記撮影地点と、前記撮像部による撮影範囲が向いている方位を示す方位データとを検出することを特徴とする請求項1記載の画像処理装置。
  3. 前記関連画像データ作成部は、前記撮影地点と、前記方位データと、前記撮像部の画角データと、前記被写体に関連する人物の顔データとに基づく前記人物イラストレーションを含むイラスト画像データと、前記イラスト地図情報とを合成して前記イラスト合成画像データを作成することを特徴とする請求項2記載の画像処理装置。
  4. 被写体を撮像する撮像部の撮像により取得された画像データから前記被写体を判別する被写体判別部と、
    少なくとも前記撮像部による撮影地点を含む撮影姿勢を検出する撮影姿勢検出部により検出された撮影地点に関連するイラスト地図情報中から判断される名所に関連するイラストレーションを含むイラスト画像データと、前記被写体判別部により判別された前記被写体に関連する人物イラストレーションを含む前記イラスト画像データとを合成してイラスト合成画像データを作成する関連画像データ作成部と、
    を具備することを特徴とする画像処理装置。
  5. 前記撮影姿勢検出部は、前記撮影地点と、前記撮像部による撮影範囲が向いている方位を示す方位データと、を検出することを特徴とする請求項4記載の画像処理装置。
  6. 前記関連画像データ作成部は、前記イラスト地図情報中に前記名所があるか否かの判断を、前記方位データと前記撮像部の画角データとから決まる撮影範囲内で行うことを特徴とする請求項5記載の画像処理装置。
  7. 前記関連画像データ作成部は、前記撮影地点に関連する前記イラスト地図情報からタワー、ビルディング、山、空、夜間、又は海岸沿いを含むイラストレーションの前記イラスト画像データを認識することを特徴とする請求項4記載の画像処理装置。
  8. 前記イラスト地図情報から認識されるイラストレーションの前記イラスト画像データには、遠近法の技法により表現したイラストレーションのイラスト画像データが含まれることを特徴とする請求項4記載の画像処理装置。
  9. 前記関連画像データ作成部は、地表の諸物体及び地勢を縮尺した一般の地図情報と、当該一般の地図情報をイラストレーションの地図情報により表わした簡易地図情報としての前記イラスト地図情報とを含むことを特徴とする請求項4記載の画像処理装置。
  10. 被写体を撮像する撮像部の撮像により取得された画像データから前記被写体を判別する被写体判別部と、
    少なくとも前記撮像部による撮影地点と前記被写体とにそれぞれ関連するイラストレーションを含む複数のイラスト画像データを予め記憶するサーバから、少なくとも前記撮像部による撮影地点を含む撮影姿勢を検出する撮影姿勢検出部により検出された前記撮影地点と前記被写体判別部により判別された前記被写体とに関連する前記複数のイラスト画像データを取得し合成してイラスト合成画像データを作成する関連画像データ作成部と、
    を具備することを特徴とする画像処理装置。
  11. 前記複数のイラスト画像データは、地図データ、対象被写体のイラストレーションの画像データを含むことを特徴とする請求項10記載の画像処理装置。
  12. 前記関連画像データ作成部は、前記撮影姿勢検出部により検出された前記撮影姿勢に基づいて前記サーバに記憶されている前記複数のイラスト画像データから該当する前記イラスト画像データを取得することを特徴とする請求項10記載の画像処理装置。
  13. 前記撮影姿勢検出部は、前記撮影地点を検出する位置センサと、前記撮像部により撮像を行う撮影方位を検出する方位センサとを含み、
    前記関連画像データ作成部は、前記位置センサにより検出された前記撮影地点と、前記方位センサにより検出された前記撮影方位と、前記撮像部の画角とに基づいて撮影範囲内に存在する対象被写体を認識し、当該対象被写体のイラストレーションの前記イラスト画像データを前記サーバから読み出して前記イラスト合成画像データを作成する、
    ことを特徴とする請求項10記載の画像処理装置。
  14. 像部の撮像により取得された画像データから被写体を被写体判別部により判別し、
    少なくとも前記撮像部による撮影地点を含む撮影姿勢を検出する撮影姿勢検出部により検出された前記撮影姿勢に関連するイラスト地図情報と、前記被写体判別部により判別された前記被写体に関連する人物イラストレーションを含むイラスト画像データとを関連画像データ作成部により合成してイラスト合成画像データを作成する、
    ことを特徴とする画像処理方法。
  15. 像部の撮像により取得された画像データから被写体を被写体判別部により判別し、
    少なくとも前記撮像部による撮影地点を含む撮影姿勢を検出する撮影姿勢検出部により検出された撮影地点に関連するイラスト地図情報中から判断される名所に関連するイラストレーションを含むイラスト画像データと、前記被写体判別部により判別された前記被写体に関連する人物イラストレーションを含むイラスト画像データとを関連画像データ作成部により合成してイラスト合成画像データを作成する、
    ことを特徴とする画像処理方法。
  16. 像部の撮像により取得された画像データから被写体を被写体判別部により判別し、
    少なくとも前記撮像部による撮影地点と前記被写体とにそれぞれ関連するイラストレーションを含む複数のイラスト画像データを予めサーバに記憶し、
    少なくとも前記撮像部による撮影地点を含む撮影姿勢を検出する撮影姿勢検出部により検出された前記撮影地点と前記被写体判別部により判別された前記被写体とに関連する前記複数のイラスト画像データを関連画像データ作成部により前記サーバから取得し合成してイラスト合成画像データを作成する、
    ことを特徴とする画像処理方法。
JP2015001716A 2015-01-07 2015-01-07 画像処理装置及び画像処理方法 Expired - Fee Related JP5969062B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015001716A JP5969062B2 (ja) 2015-01-07 2015-01-07 画像処理装置及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015001716A JP5969062B2 (ja) 2015-01-07 2015-01-07 画像処理装置及び画像処理方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010210799A Division JP5680358B2 (ja) 2010-09-21 2010-09-21 撮像装置及び撮像方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016134147A Division JP6318196B2 (ja) 2016-07-06 2016-07-06 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2015092743A JP2015092743A (ja) 2015-05-14
JP5969062B2 true JP5969062B2 (ja) 2016-08-10

Family

ID=53195606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015001716A Expired - Fee Related JP5969062B2 (ja) 2015-01-07 2015-01-07 画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JP5969062B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6268144B2 (ja) * 2015-11-13 2018-01-24 住友化学株式会社 非水電解液二次電池用セパレータフィルム製造方法および非水電解液二次電池用セパレータフィルム洗浄装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3264614B2 (ja) * 1996-01-30 2002-03-11 富士写真光機株式会社 観察装置
JP2001127990A (ja) * 1999-11-01 2001-05-11 Mega Chips Corp 情報通信システム
JP4679443B2 (ja) * 2006-06-09 2011-04-27 ヤフー株式会社 背景データを送信する方法、サーバおよびプログラム
JP4775205B2 (ja) * 2006-09-20 2011-09-21 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム

Also Published As

Publication number Publication date
JP2015092743A (ja) 2015-05-14

Similar Documents

Publication Publication Date Title
JP7192923B2 (ja) 装置、方法、プログラム、システム
US9875579B2 (en) Techniques for enhanced accurate pose estimation
KR101285360B1 (ko) 증강현실을 이용한 관심 지점 표시 장치 및 방법
CN101833896B (zh) 基于增强现实的地理信息指引方法与系统
US9124867B2 (en) Apparatus and method for displaying images
EP1315102A2 (en) A context-aware imaging device
JP2011238242A (ja) ナビゲーション及びインスペクションシステム
JP2006526945A (ja) 「パス・エンハンスド」マルチメディアを記録する装置及び方法
US8339477B2 (en) Digital camera capable of detecting name of captured landmark and method thereof
WO2005124594A1 (en) Automatic, real-time, superimposed labeling of points and objects of interest within a view
JP6390992B1 (ja) ストリートビューワーシステム
KR101574636B1 (ko) 면형방식 디지털 항공카메라로 촬영한 시계열 항공사진을 입체시하여 좌표를 연동하고 변화지역을 판독하는 시스템
JP6056664B2 (ja) 画像処理装置および撮像システム
JP6741498B2 (ja) 撮像装置、表示装置、及び撮像表示システム
JP6412400B2 (ja) 画像合成装置および画像合成プログラム
JP2010231741A (ja) 電子タグ作成表示システム、電子タグ作成表示装置およびそれらの方法
JP5969062B2 (ja) 画像処理装置及び画像処理方法
JP5680358B2 (ja) 撮像装置及び撮像方法
JP6318196B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP7378510B2 (ja) ストリートビューワーシステム
JP2008152374A (ja) 画像システム、撮影方位特定装置、撮影方位特定方法、プログラム
KR101983727B1 (ko) 증강현실 가상 스튜디오 시스템 및 그 구현 방법
JP2020204973A (ja) 情報処理装置、プログラム及び情報処理システム
JP2009122188A (ja) 撮影装置、地図情報表示方法及び地図表示プログラムと地図表示プログラムを記録したコンピュータ読み取り可能な媒体
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160706

R150 Certificate of patent or registration of utility model

Ref document number: 5969062

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees