JP7265822B2 - 表示制御装置および表示制御方法、並びにプログラム - Google Patents

表示制御装置および表示制御方法、並びにプログラム Download PDF

Info

Publication number
JP7265822B2
JP7265822B2 JP2018158569A JP2018158569A JP7265822B2 JP 7265822 B2 JP7265822 B2 JP 7265822B2 JP 2018158569 A JP2018158569 A JP 2018158569A JP 2018158569 A JP2018158569 A JP 2018158569A JP 7265822 B2 JP7265822 B2 JP 7265822B2
Authority
JP
Japan
Prior art keywords
image
display
images
photographing
photographed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018158569A
Other languages
English (en)
Other versions
JP2020035013A (ja
JP2020035013A5 (ja
Inventor
周平 川地
昌彦 奥沢
茂夫 網代
裕樹 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018158569A priority Critical patent/JP7265822B2/ja
Priority to US16/536,713 priority patent/US11430165B2/en
Priority to CN201910796889.1A priority patent/CN110868532B/zh
Publication of JP2020035013A publication Critical patent/JP2020035013A/ja
Publication of JP2020035013A5 publication Critical patent/JP2020035013A5/ja
Application granted granted Critical
Publication of JP7265822B2 publication Critical patent/JP7265822B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/006Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
    • G09B29/007Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes using computer methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/487Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Mathematical Physics (AREA)
  • Educational Technology (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Ecology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、地図画像の撮影位置に撮影画像を表示する表示制御技術に関する。
デジタルカメラなどの撮像装置にはGPS(Global Positioning System)機能や電子コンパスを搭載したものがあり、撮影位置や撮影方向の情報を取得することが可能となっている。また、撮影位置や撮影方向の情報を用いて地図画像の表示範囲内で撮影された画像(撮影画像)を検索し、地図画像の撮影位置に撮影画像を表示する技術がある。この技術を用いることで、ユーザは所望の場所を地図で指定するという直観的な操作で撮影画像を閲覧することができるが、地図画像の同じ撮影位置に複数枚の撮影画像が存在する場合には地図画像に撮影画像を配置することが困難となる。
このような課題に対して、特許文献1には、複数枚の撮影画像をまとめて1つのアイコンとして地図画像に表示し、アイコンを選択すると対応する撮影画像を一覧表示できる技術が開示されている。また、特許文献2には、地図画像の撮影位置に撮影方向に応じた方向性を持つアイコンを表示し、アイコンを選択することで撮影画像を表示する技術が開示されている。
特開2001-289650号公報 特開2007-129407号公報
しかしながら、特許文献1、2では、複数枚の撮影画像から特定の画像を見つけたり、絞り込むことが難しい場合がある。特許文献1では所望の撮影位置の撮影画像を絞り込むことはできるが、撮影方向による絞り込みはできない。また、特許文献2では同じ撮影方向の撮影画像が複数枚存在する場合、アイコンが重なって表示され選択が困難となってしまう。
本発明は、上記課題に鑑みてなされ、その目的は、地図画像において所望の撮影位置および撮影方向の撮影画像を簡単な操作で抽出できる表示制御技術を実現することである。
上記課題を解決し、目的を達成するために、本発明の表示制御装置は、表示手段と、ユーザ操作を受け付ける操作手段と、前記表示手段に地図画像を表示する場合に、前記地図画像の表示範囲内に含まれる撮影位置を示す位置情報が対応付けられた複数の撮影画像のサイズを縮小した縮小画像を前記地図画像に表示する制御手段と、を有し、前記制御手段は、前記操作手段により前記縮小画像に対する所定の操作を受け付けた場合、前記複数の撮影画像のうち、前記所定の操作の第一の操作位置と第二の操作位置に基づく方向を中心とした所定の角度の範囲に前記撮影画像に対応付けられる方向情報が示す方向が含まれる撮影画像の縮小画像前記所定の角度の範囲が表示されている前記地図画像に表示するように制御する。
本発明によれば、地図画像において所望の撮影位置および撮影方向の撮影画像を簡単な操作で抽出できる。
実施形態1の装置構成を示すブロック図。 実施形態1の地図表示モードにおける表示例を示す図。 実施形態1の画像抽出モードにおける表示例を示す図。 (a)は実施形態1の画像抽出モードにおけるドラッグ距離と撮影方向の抽出範囲の関係を示す図、(b)は同じ撮影位置に撮影画像が1枚だけ存在する場の表示例を示す図。 (a)は実施形態1の地図表示モードにおける地図画像および撮影画像の表示制御処理を示すフローチャート、(b)は実施形態1の地図表示モードにおけるドラッグ中の処理を示すフローチャート。 実施形態2の画像抽出モードにおける表示例を示す図。 実施形態3の地図表示モードにおいて撮影方向に応じてソートした場合の表示例を示す図。 実施形態3の地図表示モードにおけるドラッグ中の処理であって、撮影画像を撮影方向に応じてソートして表示する処理を示すフローチャート。 実施形態4の画像抽出モードにおける表示例を示す図。 実施形態4の地図表示モードにおける長押し中の処理を示すフローチャート。 実施形態5の画像抽出モードにおける表示例を示す図。 実施形態6の地図表示モードにおいて撮影方向で抽出された撮影画像を撮影距離に応じてソートした場合の表示例を示す図。 実施形態6の地図表示モードにおけるドラッグ中の処理であって、撮影画像を撮影距離に応じてソートして表示する処理を示すフローチャート。
以下に、本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成してもよい。
[実施形態1]
本実施形態では、表示制御装置を撮像装置であるデジタルカメラ(以下、カメラと略称する)に適用した例について説明するが、カメラ機能を有する携帯電話やその一種であるスマートデバイス、タブレットデバイスなどにも適用可能である。
<装置構成>
まず、図1を参照して、本実施形態のカメラ100の構成および機能について説明する。
カメラ100は画像を撮影し、記録する撮影機能を有している。また、カメラ100は、記録した画像を表示・再生する表示機能を有し、地図画像における撮影場所に撮影画像を配置して表示することができる。
カメラ100は、制御部101、撮像部102、画像処理部103、GPS(Global Positioning System)測位部104および電子コンパス105を備える。また、カメラ100は、操作部106、表示部107、地図情報取得部108、画像取得部109、メモリ110および記憶部111を備える。
制御部101は、CPUまたはMPU等の演算処理部を有し、カメラ100の全体の動作を制御する。制御部101は、記憶部111に記憶されたプログラムを実行することで、後述する本実施形態の制御処理を実現する。メモリ110はRAM等が用いられ、制御部101の動作用の定数、変数、記憶部111から読み込んだプログラム、地図データ、画像データ、画像データに関連するメタデータ等を一時的に保持する。また、制御部101は、撮像部102、画像処理部103およびメモリ110を制御することにより撮像制御部として機能する。また、制御部101は、メモリ110や表示部107等を制御することにより表示制御部として機能する。
撮像部102は、不図示の光学系を通じて入射した被写体の光学像を電気信号に変換するCCDやCMOS等で構成される撮像素子、撮像素子から出力されるアナログ信号をデジタル信号に変換するA/D変換器などを有する。
画像処理部103は、撮像部102により撮像された画像データに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部103では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいて制御部101がAF(オートフォーカス)処理、AE(自動露出)処理などを行う。
GPS測位部104は、GPS衛星からの電波を受信してカメラ100の現在の位置情報を取得するためのGPSアンテナを有する。
電子コンパス105は、磁気センサを備え、地磁気の向きを検出することでカメラ100が向いている撮影方向を示す方位情報を算出する。
操作部106は、例えば物理的なスイッチやボタンなどからなり、ユーザ操作を受け付け、制御部101に制御信号を出力する。制御部101は、操作部106から入力された制御信号を受信して、カメラ100の各部を制御する。また、操作部106は、表示部107に対する接触を検知可能なタッチパネルを含み、ユーザが表示部107に表示された画面を直接的に操作可能であるかのようなGUIを構成する。制御部101は、ユーザがタッチパネルにタッチしたことを検知し、タッチ位置に応じた処理を実行する。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。
表示部107は、例えば、液晶パネル、或いは有機ELパネルであり、画像やGUIなどの表示を行う。
タッチパネルは、表示部107と一体的に構成されており、表示部107に対する接触を検知可能である。制御部101は、タッチパネルへの以下の操作を検出できる。タッチパネルを指やペンで触れたこと(以下、タッチダウン)。タッチパネルを指やペンで触れている状態であること(以下、タッチオン)。タッチパネルを指やペンで触れたまま移動していること(以下、タッチムーブ)。タッチパネルへ触れていた指やペンを離したこと(以下、タッチアップ)。タッチパネルに何も触れていない状態(以下、タッチオフ)。これらの操作や、タッチパネル上に指やペンが触れている位置座標は制御部101に通知され、制御部101は通知された情報に基づいてタッチパネル上にどのような操作が行われたかを判定する。
タッチムーブについてはタッチパネル上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル上の垂直成分・水平成分毎に判定できる。タッチパネル上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検出された場合はドラッグが行われたと判定するものとする。また、タッチパネル上をタッチダウンからタッチムーブすることなく素早くタッチアップすることをタップと呼ぶ。タップを素早く2回連続して行うことをダブルタップと呼ぶ。さらに、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。
地図情報取得部108は、表示部107に表示する地図データを記憶部111から読み込む。
画像取得部109は、表示部107に表示する画像データおよび画像データに関連付けられたメタデータを記憶部111から読み込んでメモリ110に記憶する。
記憶部111は、電気的に消去・記憶可能なEEPROM等、メモリカードやハードディスク等の不揮発性メモリである。記憶部111は、制御部101の動作用の定数、プログラム、地図データ、画像データ、画像データに関連するメタデータ等を記憶する。ここでいう、プログラムとは、本実施形態にて後述する制御処理のフローチャートを実行するためのプログラムのことである。なお、記憶部111に格納される画像データは、カメラ100で撮影された画像に限らず、不図示の通信部を介して接続された外部機器から取得した画像であってもよい。
撮影情報取得部112は、後述する実施形態2、4,6において、撮影画角情報または撮影距離情報を取得する。詳細は、各実施形態において後述する。
なお、ハードウェアの構成は図1に示すものに限定されず、例えば1つのハードウェアが表示制御、撮影制御、画像処理制御等を行い、カメラ100の各手段として機能してもよい。また、複数のハードウェアが協働して1つの手段として機能してもよい。
<撮像機能>
次に、カメラ100の撮影機能について説明する。ユーザは操作部106に対する操作または表示部107に対するタッチ操作を行い撮影を指示することができる。制御部101は、撮影指示を受けて、撮像部102で撮像された画像データに画像処理部103により適切な画像処理を施し、記憶部111に記憶するように撮影制御を実行する。また、制御部101は、撮影時にGPS測位部104により位置情報を取得し、電子コンパス105で撮影方向の情報を取得し、画像データに関連付けられたメタデータとして記憶部111に記憶する。
<画像表示機能>
カメラ100の画像表示機能について説明する。カメラ100は表示部107に対して画像の全画面表示や画像のサムネイル一覧表示を行う。また、カメラ100は地図表示モードに切り替え可能である。地図表示モードでは、表示部107に地図画像を表示する場合に、地図画像の表示範囲内で撮影された画像を検索し、撮影画像を撮影位置に対応づけて地図画像に表示する。ユーザは操作部106に対する操作または表示部107に対するタッチ操作によりカメラ100の動作モードを地図表示モードへ移行することができる。制御部101は、地図表示モードへの移行指示を受けて表示部107に地図画像を表示し、ユーザは地図画像における撮影画像ではない位置をドラッグすることで地図画像をスクロールして表示範囲を変更することができる。また、ユーザは地図画像における撮影画像ではない位置でピンチイン・ピンチアウトをすることで地図画像の縮尺を変更することができる。
記憶部111に記憶されている撮影画像の中に地図画像の表示範囲内で撮影されたものがある場合、地図画像の撮影位置に撮影画像のサムネイルを表示する。図2(a)はサムネイルの表示例を示しており、画面200には地図画像が描画されており、撮影画像のサムネイル201と地図画像の撮影位置203が線202で結ばれている。サムネイル201をタップすると該当する撮影画像を全画面表示する。図2(b)は撮影画像の全画面表示例を示している。図2(b)では、画面210に撮影画像211と戻るボタン212が表示されている。戻るボタン212をタップすることで地図表示に戻すことができる。
また、図2(c)は図2(a)とは異なり、同じ撮影位置の撮影画像が複数枚存在する場合の表示例を示している。図2(a)との違いはサムネイル221の表示形態である。図2(c)では複数枚の撮影画像のサムネイルを束ねた形態で表示することでユーザが識別しやすくなっている。束ねた画像群の最前面には複数枚の撮影画像から選定された代表画像が表示される。サムネイル221をタップすると、地図表示からタップされた位置で撮影された画像のサムネイル一覧表示に移行する。図2(d)はサムネイル一覧表示例を示している。画面230にサムネイル一覧231、スクロールバー232、戻るボタン233が表示されており、ユーザはサムネイル一覧231またはスクロールバー232をドラッグすることで一覧表示をスクロールすることができる。サムネイル一覧231のうち1枚のサムネイルをタップすると該当する撮影画像を全画面で表示する。全画面の表示例は図2(b)と同じである。また、図2(d)で戻るボタン233をタッチすると図2(c)の地図表示に戻り、図2(b)で戻るボタン212をタッチすると図2(d)のサムネイル一覧表示に戻ることができる。
<画像抽出(絞り込み)機能>
次に、実施形態1の地図表示モードにおける撮影画像の抽出機能について説明する。
図2(c)の地図画像においてユーザがサムネイル221をドラッグすると画像抽出モードに移行する。画像抽出モードでは、タッチされた撮影画像の撮影位置からのドラッグ距離およびドラッグ方向に応じて画像の抽出範囲が設定され、同じ撮影位置の全ての撮影画像から条件に合う画像を抽出して表示する。図3(a)はユーザがドラッグを開始して画像抽出モードに移行した後の表示例を示している。撮影位置302を起点としてドラッグ中のタッチ位置308が向かう方向を線で示す方向表示306と、方向表示306が示す方向から時計回りおよび反時計まわりに所定の角度の範囲を2本の線で示す方向範囲表示307が描画される。方向範囲表示307の2本の線の間の範囲(網掛けした領域A1)は、領域A1内に撮影方向が含まれる画像の抽出範囲を示している。この領域A1内に撮影方向が含まれる撮影画像を抽出しサムネイル301として表示する。さらにドラッグを続けて方向表示306が示す方向を変更すると、それに連動して撮影画像を抽出する撮影方向も変動し、抽出結果に応じてサムネイル301も変化する。撮影方向分布表示303は撮影位置302で撮影された全ての画像の撮影方向の分布を示すものであり、撮影位置302を中心とする円周上の点がそれぞれ画像の撮影方向を示している。ユーザはサムネイル301や撮影方向分布表示303を見て所望の撮影方向の画像が抽出されているかを確認しながらドラッグを行うことができる。また、ドラッグを終了しても画像が抽出されたままで地図表示が保持される。ドラッグを終了した後、一覧表示ボタン304をタップすると図2(d)のサムネイル一覧表示に移行し、戻るボタン305をタップするとドラッグする前の図2(c)地図表示に戻り、画像抽出モードを終了する。
また、ドラッグ中は撮影位置302からドラッグ中のタッチ位置308までの距離(以下、ドラッグ距離)が長いほど画像を抽出範囲が小さくなる。図3(b)は図3(a)よりもドラッグ距離が長い場合の表示例を示している。図3(b)のドラッグ中のタッチ位置12におけるドラッグ距離が図3(a)のドラッグ中のタッチ位置308より長い場合、方向範囲表示311の2本の線の間の領域A2がなす角度αは図3(a)の領域A1のなす角度αよりも小さくなる。図4(a)はドラッグ距離γと撮影方向の抽出範囲αの関係を示している。γ<γminでは抽出範囲αは360°に固定され、全画像を表示する。ドラッグ距離γがγmin≦γ≦γmaxではドラッグ距離γの増加に応じて抽出範囲αは小さくなる。ドラッグ距離γがγ>γmaxでは固定値とする。このようにドラッグ距離γに連動して撮影方向の抽出範囲αを設定することでユーザはドラッグしながら距離を大きくすることで画像を絞り込んでいくことができる。
なお、図2(a)のように撮影位置の撮影画像が1枚しか存在しない場合にサムネイルをドラッグすると、図4(b)のような表示となる。ユーザのドラッグ位置407に関わらず、撮影画像のサムネイル401を表示し、メッセージ402を表示して撮影画像が1枚だけであることをユーザに通知する。撮影方向分布表示403は複数枚の場合と同様に表示することでユーザはサムネイル401の画像の撮影方向を知ることができる。方向表示406は撮影画像の撮影方向を示すように固定される。一表示ボタン404をタップすると図2(b)のような全画面表示に移行し、戻るボタン405をタップするとドラッグ前の図2(a)の地図表示に戻る。
<画像の表示制御処理>
次に、図5(a)を参照して、地図表示モードにおける地図画像および撮影画像の表示制御処理について説明する。
なお、図5(a)の処理は、制御部101が記憶部111から読み込んだプログラムをメモリ110に展開して実行することにより実現される。図5(a)の処理は、カメラ100の動作モードが地図表示モードに切り替えられると開始される。後述する図5(b)、図8、10,13においても同様である。
S501では、制御部101は、操作部106により、地図画像をドラッグしてスクロールする操作、または、ピンチ操作で縮尺を変えるなどの操作を受け付けると、地図画像の表示範囲の算出を行う。
S502では、制御部101は、S501で算出された地図画像の表示範囲内に撮影位置が含まれる撮影画像を検索する。制御部101は、記憶部111に記憶されている撮影画像に関連付けられたメタデータに含まれる撮影位置情報を読み込み、地図画像の表示範囲内に撮影位置がある撮影画像を検索する。
S503では、制御部101は、同じ撮影位置で撮影された画像をまとめてグループ化する処理を行う。グループ化の方法としては、例えば地図画像を正方形の格子状の領域に分け、同一の領域内を撮影位置とする画像をまとめる方法がある。また、同一撮影場所に画像が1枚しかない場合はその1枚で1グループとする。
S504では、制御部101は、S503の各グループについてサムネイルを表示する際の代表画像を決定する。代表画像の決定方法の例としては、例えば最後に撮影した画像を代表画像とする方法がある。
S505では、制御部101は、表示部107に地図画像、サムネイルおよびUI等を描画して処理を終了する。
<地図表示モードにおけるドラッグ中の処理>
次に、図5(b)を参照して、地図表示モードにおけるドラッグ中の処理について説明する。
S511では、制御部101は、ドラッグが開始された位置(タッチダウン位置)がサムネイル上であるか否かを判定し、サムネイル上であると判定した場合は処理をS512に進め、サムネイル上ではないと判定した場合は処理をS520に進める。
S512では、制御部101は、画像抽出モードをオンにする。
S513では、制御部101は、画像取得部109によりタッチされたサムネイルに対応するグループに属する画像のメタデータを記憶部111から読み込む。
S514、S515では、制御部101は、地図画像の撮影位置から現在のドラッグ位置までの距離と方向を取得する。
S516では、制御部101は、S514、S515で取得した情報から図3で説明したように撮影方向の抽出範囲を画像抽出条件として算出する。
S517、S518では、制御部101は、同じ撮影位置の複数枚の撮影画像から、S516で算出された画像抽出条件に合う撮影画像を抽出し、抽出した画像の表示を更新する。
S519では、制御部101は、操作部106によりドラッグが終了したか判定し、ドラッグが終了したと判定した場合は、処理を終了し、ドラッグが継続している間はS514からS518の処理を繰り返し実行する。
また、S520では、制御部101は、画像抽出モードをオフにする。
S521、S522では、制御部101は、ドラッグ量の差分を取得し、差分量に応じて地図画像をスクロールする。
S523では、制御部101は、操作部106によりドラッグが終了したか判定し、ドラッグが終了したと判定した場合は、処理を終了し、ドラッグが継続している間はS521とS522の処理を繰り返し実行する。
以上のように、本実施形態によれば、ユーザは所望の撮影方向の撮影画像を簡易な操作で絞り込みながら抽出することができる。
[実施形態2]次に、実施形態2について説明する。
実施形態1における画像抽出モードでは撮影方向の情報を用いて画像の抽出を行っていた。これに対して、実施形態2では撮影方向に加えて、撮影画角の情報を用いて画像の抽出を行う。以下、実施形態1との相違点について説明する。
カメラ100は、撮影情報取得部112が撮影画角情報を取得する。撮影情報取得部112は、例えば撮影時のレンズの焦点距離、撮像素子のサイズ、記録画像のアスペクト比および撮影時の縦位置/横位置撮影種別を取得し、これらから撮影画像の水平方向の画角の大きさを算出することで、撮影画角情報を取得する。撮影時に撮影情報取得部112が取得した撮影画角情報は撮影位置、撮影方向の情報とともにメタデータとして記録される。
図6は実施形態2の画像抽出モードにおける表示例を示している。撮影方向分布表示601は実施形態1とは異なり、撮影方向だけではなく、撮影画角の大きさも表している。図6では撮影画角が広い画像ほど内側の円に近く、撮影画角が狭い画像ほど外側の円に近く配置されている。また、ドラッグ位置603に対応する画像の撮影方向は方向表示602で示され、画像の撮影方向が画像の撮影画角内に含まれる画像が抽出される。現在の画像の抽出範囲は2本の線からなる方向範囲表示604で示される。外側の円に近づくほど撮影画角が小さい画像になるため、抽出される撮影方向の範囲が狭くなる。なお、本実施形態ではドラッグ距離に応じた抽出範囲の変更は行っていないが、ドラッグ距離に応じて抽出範囲を変更してもよい。
以上のように、本実施形態によれば、ユーザが望む方向が確実に写った画像を簡易な操作で抽出することが可能になる。
[実施形態3]次に、実施形態3について説明する。
実施形態3では、実施形態1における画像抽出モードで抽出した撮影画像を撮影方向に応じてソートして表示する。
図7(a)は撮影方向に応じて撮影画像をソートした場合の表示例を示している。サムネイル701~704は実施形態1とは異なり、画像の抽出範囲に含まれる撮影画像を撮影方向に応じてソートして表示される。図7(a)では、抽出範囲内の撮影画像について、時計まわりの撮影方向の順705で図中左側からサムネイルが表示される。
これによって、サムネイルの並び順が、ユーザが画像の抽出範囲を時計まわりに見たときの各撮影画像の撮影方向の順と一致するように表示されるため、ユーザは各撮影画像の撮影方向の位置関係を容易に把握することが可能になる。
図7(b)は図7(a)とは異なり、撮影方向が同じ撮影画像が複数枚存在する場合の表示例を示している。図7(b)では、撮影方向が同じ複数枚の撮影画像のサムネイルを束ねた形態706で表示することでユーザが識別しやすくなっている。束ねた画像群の最前面には複数枚の撮影画像から選定された代表画像が表示される。
また、図7(b)と同様に、撮影方向が同じ撮影画像が複数枚存在する場合における、別の表示例を図7(c)に示す。図7(c)では、撮影方向が同じ複数枚の撮影画像のサムネイルが垂直方向に並べられた形態707で表示することでユーザが識別しやすくしている。
<撮影方向に応じてソートして表示する処理>
次に、図8を参照して、地図表示モードにおけるドラッグ中の処理であって、抽出した撮影画像を撮影方向に応じてソートして表示する処理について説明する。
なお、図8のS801~S807、S808~S813は、図5(b)のS511~S523と同様であるため、説明を省略する。
図8において、S814では、制御部101は、S807で抽出した画像について、撮影方向に応じてソートして表示する順序を決定する。
S808では、制御部101は、S814で決定された順序で抽出した画像の表示を更新する。
以上のように、本実施形態によれば、同じ方向に複数枚の撮影画像が存在する場合でも、同一撮影方向でグループ分けして表示されるためユーザは撮影画像を混在して認識することなく、各グループの方向の相対関係を容易に把握することが可能になる。
[実施形態4]次に、実施形態4について説明する。
実施形態1における画像抽出モードでは撮影方向の情報を用いて画像の抽出を行っていた。これに対して、実施形態4では撮影距離の情報を用いて画像の抽出を行う。以下、実施形態1との相違点について説明する。
カメラ100は、撮影情報取得部112が撮影距離情報を取得する。撮影情報取得部112は、撮影した被写体とカメラ100との距離を算出することで、撮影距離情報を取得する。撮影時に撮影情報取得部112が取得した撮影距離情報は撮影位置の情報とともにメタデータとして記録される。撮影距離の算出方法は、カメラ100が瞳分割方式の撮像素子を用いている場合、2つの分割瞳領域に対応する画像の相関演算により求められるデフォーカス量に基づいて算出することが可能である。この場合、撮影距離情報としては、主被写体の距離、もしくは、撮影画像内の頻出の距離を撮影距離情報とする。それ以外の方法として、焦点位置を基に、撮影画像のピント位置(つまり、主被写体)までの距離を算出することも可能である。この場合、焦点位置から算出した値を撮影距離情報とするか、もしくは、焦点位置と被写界深度の情報を基に、ある一定の奥行き方向の範囲を撮影距離情報とすることも可能である。なお、撮影中の情報から撮影距離を算出する方法を説明したが、距離測定装置を用いて、被写体にレーザ光を照射してその反射光を検出することで撮影位置から被写体までの距離を計測し、撮影距離情報として用いるものであってもよい。
<画像抽出(絞り込み)機能>
次に、実施形態4の地図表示モードにおける撮影画像の抽出機能について説明する。
図2(c)において、ユーザがサムネイル221を長押しすると画像抽出モードに移行する。画像抽出モードでは、タッチされた撮影画像の長押し時間に応じて画像の抽出範囲が設定され、同じ撮影位置の全ての撮影画像から条件に合う画像を抽出して表示する。図9(a)は、長押しを開始して画像抽出モードに移行した後の表示例を示している。タッチ位置904を長押しすることで画像抽出モードを開始し、撮影位置902を中心とした円903が描画される。円903の半径Rは撮影距離の抽出範囲を示しており、半径Rより近い撮影距離の撮影画像を抽出し、サムネイル901として表示する。長押し時間に応じて半径Rは小さくなり、抽出する画像の撮影距離は近くなる。図9(b)は図9(a)よりも長時間、長押しした場合の表示例を示している。長時間、長押しすることで半径Rから半径Rのように抽出する画像の撮影距離の範囲が絞り込まれる。ユーザはサムネイル901を見て所望の撮影距離の画像が抽出されているかを確認しながら長押しする時間を調節することができる。長押し時間に関しては所定の時間を超えた場合にリセットすることで抽出する撮影範囲をリセットし、範囲を絞り込みすぎた場合に再設定することも可能である。また、長押しを終了しても画像が抽出されたままで地図表示が保持される。長押しを終了した後、一覧表示ボタン906をタップすると図2(d)のサムネイル一覧表示に移行し、戻るボタン907をタップすると長押し前の図2(c)の地図表示に戻り、画像抽出モードを終了する。
<地図表示モードにおける長押し中の処理>
次に、図10を参照して、地図表示モードにおける長押し中の処理について説明する。
図10において、S1001では、制御部101は、長押しが開始された位置(タッチダウン位置)がサムネイル上であるか否かを判定し、サムネイル上であると判定した場合は処理をS1002に進め、サムネイル上ではないと判定した場合は処理を終了する。
S1002、S1003では、図5(b)のS512、S513と同様に、画像抽出モードをオンにし、画像取得部109により長押しされたサムネイルに対応するグループに属する画像のメタデータを記憶部111から読み込む。
S1004では、制御部101は、操作部106により長押し時間を取得する。
S1005~S1007では、図5(b)のS516~S518と同様に、S1004で取得した情報から画像抽出条件を算出し、画像抽出条件に合う画像を抽出し、抽出した画像の表示を更新する。
S1008では、制御部101は、操作部106により長押しが終了したか判定し、長押しが終了したと判定した場合は、処理を終了し、長押しが継続している間はS1004からS1007の処理を繰り返し実行する。
なお、実施形態4では、長押し時間に応じて撮影距離を設定したが、圧力検知可能なタッチパネルの場合、検出した圧力に応じて、抽出する撮影距離を変更することも可能である。
また、実施形態4は実施形態1と組み合わせて実施することも可能である。組み合わせて実施した場合、ドラッグ操作に応じて撮影方向による画像の抽出、ドラッグ後の長押し時間に応じて撮影距離による画像の抽出を行うことが可能である。このように、ドラッグ操作と長押し操作を組み合わせることで、任意の撮影方向、撮影距離に応じた画像の抽出が可能となる。
以上のように、本実施形態によれば、ユーザは撮影位置が同じ複数枚の撮影画像から草花や人物などを撮影した近距離画像や、山などの風景を撮影した遠距離画像などの所望の撮影距離の画像を簡易な操作で絞り込みながら抽出することができる。
[実施形態5]次に、実施形態5について説明する。
実施形態4における画像抽出モードでは長押し時間に応じて設定された撮影距離を用いて画像の抽出を行っていた。また、実施形態4の長押し操作と、実施形態1のドラッグ操作とを組み合わせることで撮影距離を用いた画像の抽出と同時に、撮影方向を用いた画像の抽出も可能であった。これに対して、実施形態5ではドラッグ操作のみで撮影方向および撮影距離の情報を用いて画像を抽出する。以下、実施形態1、4との相違点について説明する。
図11は実施形態5の撮影方向と撮影距離を用いて画像を抽出する場合の表示例を示している。撮影方向分布表示1101は実施形態1とは異なり、撮影方向だけではなく、撮影距離も示している。図11では撮影距離が近い画像ほど内側の円に近く、撮影距離が遠い画像ほど外側の円に近く配置されている。本実施形態では、最も外側の円は撮影距離が無限遠であることを示している。また、ドラッグ位置1104に対応する画像の抽出範囲(撮影方向および撮影距離)は撮影方向を示す2本の線1102と撮影距離を示す同心円1103に囲まれた扇形の矩形1105で示される。外側の円に近づくほど撮影距離が遠い画像になるため、ドラッグ量に応じて抽出される撮影距離の範囲が選択される。図11(b)は図11(a)よりもドラッグ距離が長い場合の表示例を示している。ドラッグ量が大きくなることで、図11(b)の矩形1105より撮影距離の遠い矩形1106が抽出される撮影距離の範囲となる。
以上のように、本実施形態によれば、ユーザが望む方向および、距離に応じた写真を簡易な操作で抽出することが可能になる。
[実施形態6]次に、実施形態6について説明する。
実施形態1における画像抽出モードでは撮影方向を用いて画像の抽出を行っていた。これに対して、実施形態6では撮影方向で画像を抽出し、抽出した画像を撮影距離を用いてソートして表示する。以下、実施形態1との相違点について説明する。
カメラ100は、撮影情報取得部112が撮影距離情報を取得する。撮影情報取得部112は、例えばピント位置情報を取得し、ピント位置に対応した被写体と撮像部102との距離を取得する。撮影情報取得部112が取得した撮影距離情報は撮影位置、撮影方向の情報とともにメタデータとして記録される。
図12(a)は撮影方向で抽出された画像を撮影距離に応じてソートした場合の表示例を示している。撮影方向分布表示1201には、撮影方向の抽出範囲に含まれる撮影画像のサムネイルが撮影距離に応じてソートして表示される。
撮影した被写体が草花や人物の場合は近距離で撮影した画像が多く、風景は遠距離で撮影した画像が多い等、被写体によって似通った撮影距離になる傾向がある。このため、抽出した画像が多数あって画面に表示しきれない場合は、所定の距離範囲ごとにグループ分けして各グループの代表画像を表示するようにしてもよい。図12(b)は撮影方向で抽出した画像を撮影距離に応じてソートし、撮影距離の範囲ごとにグループ分けした表示例を示している。図12(b)は図12(a)の表示形態とは異なり、同一グループの複数枚の撮影画像のサムネイルを束ねた形態1202で表示することでユーザが識別しやすくなっている。束ねた画像群の最前面には複数枚の撮影画像から選定された代表画像が表示される。また、ユーザが最前面のサムネイル1202を選択すると、同じグループ内のサムネイルが選択可能に一覧表示される。
<地図表示モードにおけるドラッグ中の処理>
次に、図13を参照して、地図表示モードにおけるドラッグ中の処理であって、撮影画像を撮影距離に応じてソートして表示する処理について説明する。
なお、図13のS1301~S1307、S1309~S1314は、図5(b)のS511~S523と同様であるため、説明を省略する。
図13において、S1314では、制御部101は、S1307で抽出した画像を、撮影距離に応じてソートして表示する順序を決定する。
S1309では、制御部101は、S1308で決定された順序で抽出した画像の表示を更新する。
以上のように、本実施形態によれば、ユーザは所望の撮影方向の画像を簡易な操作で絞り込みながら抽出することが可能になり、抽出した画像が多数あった場合でも撮影距離に応じてソートすることにより目的の画像の検索が容易になる。
なお、上述した各実施形態では、地図画像の撮影位置に代表画像を縮小したサムネイルを表示しているが、サムネイルではなくアイコンなどの予め決められた画像であってもよい。
また、本実施形態はタッチパネルに対するタップやドラッグ操作に限らず、マウスによるクリックやドラッグ操作に置き換えても成立する。
さらに、撮影時の仰俯角を取得してメタデータとして記録しておき、画像抽出モードにおいて、仰俯角が水平から一定以上離れている場合は抽出する対象から除外するようにしてもよい。この場合、真上や真下に近い方向を撮影した画像のように、撮影方向によって抽出する対象としてふさわしくない画像が抽出されてしまうのを防ぐことができる。
[他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100…デジタルカメラ(表示制御装置)、101…制御部、102…撮像部、103…画像処理部、104…GPS測位部、105…電子コンパス、106…操作部、107…表示部、108…地図情報取得部、109…画像取得部、110…メモリ、111…記憶部、112…撮影情報取得部

Claims (17)

  1. 表示手段と、
    ユーザ操作を受け付ける操作手段と、
    前記表示手段に地図画像を表示する場合に、前記地図画像の表示範囲内に含まれる撮影位置を示す位置情報が対応付けられた複数の撮影画像のサイズを縮小した縮小画像を前記地図画像に表示する制御手段と、を有し、
    前記制御手段は、前記操作手段により前記縮小画像に対する所定の操作を受け付けた場合、前記複数の撮影画像のうち、前記所定の操作の第一の操作位置と第二の操作位置に基づく方向を中心とした所定の角度の範囲に前記撮影画像に対応付けられる方向情報が示す方向が含まれる撮影画像の縮小画像前記所定の角度の範囲が表示されている前記地図画像に表示するように制御することを特徴とする表示制御装置。
  2. 前記制御手段は、撮影画像の撮影画角が前記所定の角度の範囲内に含まれる撮影画像の縮小画像前記所定の角度の範囲が表示されている前記地図画像に表示するように制御することを特徴とする請求項に記載の表示制御装置。
  3. 前記制御手段は、前記所定の操作の第一の操作位置と第二の操作位置に基づく距離に応じて変更した前記所定の角度の範囲を前記地図画像に表示することを特徴とする請求項またはに記載の表示制御装置。
  4. 前記制御手段は、同じ撮影位置の複数の撮影画像の撮影方向の分布を前記地図画像に表示することを特徴とする請求項1からのいずれか1項に記載の表示制御装置。
  5. 前記制御手段は、前記複数の撮影画像のうち、撮影時の仰俯角が所定の仰俯角を超える撮影画像の縮小画像を、表示する対象から除外することを特徴とする請求項1からのいずれか1項に記載の表示制御装置。
  6. 前記制御手段は、表示する対象の撮影画像の縮小画像を前記地図画像に一覧表示することを特徴とする請求項1からのいずれか1項に記載の表示制御装置。
  7. 前記制御手段は、同じ撮影位置の撮影画像が1つである場合と複数である場合とで前記縮小画像の表示形態を変更することを特徴とする請求項に記載の表示制御装置。
  8. 前記制御手段は、前記地図画像における前記縮小画像の表示領域ではない位置に対する前記操作手段による操作に応じて前記地図画像をスクロールすることを特徴とする請求項1から7のいずれか1項に記載の表示制御装置。
  9. 前記制御手段は、前記複数の撮影画像の縮小画像を表示する場合、前記複数の撮影画像の撮影方向に応じてソートした撮影画像の縮小画像を前記地図画像に表示することを特徴とする請求項1からのいずれか1項に記載の表示制御装置。
  10. 前記制御手段は、前記複数の撮影画像の撮影方向に応じてソートした撮影画像の縮小画像を所定の撮影方向ごとにグループ化して表示することを特徴とする請求項1からのいずれか1項に記載の表示制御装置。
  11. 前記制御手段は、前記複数の撮影画像について前記所定の操作の第一の操作位置と第二の操作位置に基づく距離と前記撮影画像の撮影時の被写体までの撮影距離とに応じてソートした撮影画像の縮小画像を前記地図画像に表示することを特徴とする請求項1から10のいずれか1項に記載の表示制御装置。
  12. 前記制御手段は、前記撮影距離に応じてソートした撮影画像の縮小画像を所定の距離ごとにグループ化して表示することを特徴とする請求項11に記載の表示制御装置。
  13. 前記制御手段は、グループごとに代表画像の縮小画像を表示することを特徴とする請求項12に記載の表示制御装置。
  14. 前記制御手段は、前記グループに属する撮影画像が1つである場合と複数である場合とで前記縮小画像の表示形態を変更することを特徴とする請求項13に記載の表示制御装置。
  15. 前記操作手段は、前記表示手段に搭載されたタッチパネルであり、
    前記所定の操作は、ドラッグ操作であることを特徴とする請求項1から14のいずれか1項に記載の表示制御装置。
  16. 表示手段と、ユーザ操作を受け付ける操作手段と、制御手段と、を有する装置の表示制御方法であって、
    前記制御手段が、前記表示手段に地図画像を表示する場合に、前記地図画像の表示範囲内に含まれる撮影位置を示す位置情報が対応付けられた複数の撮影画像のサイズを縮小した縮小画像を前記地図画像とともに表示する制御ステップを有し、
    前記制御ステップでは、前記操作手段により前記縮小画像に対する所定の操作を受け付けた場合、前記複数の撮影画像のうち、前記所定の操作の第一の操作位置と第二の操作位置に基づく方向を中心とした所定の角度の範囲に前記撮影画像に対応付けられる方向情報が示す方向が含まれる撮影画像の縮小画像前記所定の角度の範囲が表示されている前記地図画像に表示するように制御することを特徴とする表示制御方法。
  17. コンピュータに、請求項16に記載された表示制御方法を実行させるためのプログラム。
JP2018158569A 2018-08-27 2018-08-27 表示制御装置および表示制御方法、並びにプログラム Active JP7265822B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018158569A JP7265822B2 (ja) 2018-08-27 2018-08-27 表示制御装置および表示制御方法、並びにプログラム
US16/536,713 US11430165B2 (en) 2018-08-27 2019-08-09 Display control apparatus and display control method
CN201910796889.1A CN110868532B (zh) 2018-08-27 2019-08-27 显示控制设备、设备的控制方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018158569A JP7265822B2 (ja) 2018-08-27 2018-08-27 表示制御装置および表示制御方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2020035013A JP2020035013A (ja) 2020-03-05
JP2020035013A5 JP2020035013A5 (ja) 2021-09-30
JP7265822B2 true JP7265822B2 (ja) 2023-04-27

Family

ID=69586189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018158569A Active JP7265822B2 (ja) 2018-08-27 2018-08-27 表示制御装置および表示制御方法、並びにプログラム

Country Status (3)

Country Link
US (1) US11430165B2 (ja)
JP (1) JP7265822B2 (ja)
CN (1) CN110868532B (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126286A (ja) 2002-10-03 2004-04-22 Sogo System Service:Kk 描画処理装置、描画処理方法、及び描画処理プログラム
JP2005181125A (ja) 2003-12-19 2005-07-07 Alpine Electronics Inc 車載用ナビゲーション装置及び周辺施設検索表示方法
JP2010243907A (ja) 2009-04-08 2010-10-28 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2011130415A5 (ja) 2010-10-13 2013-11-14
JP2015032861A (ja) 2013-07-31 2015-02-16 株式会社ニコン 画像抽出サーバ、画像抽出装置、及び画像抽出プログラム
US20150379405A1 (en) 2014-06-25 2015-12-31 Facebook, Inc. Systems and methods for ranking rules that identify potentially illegitimate activities

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001289650A (ja) 2000-04-07 2001-10-19 Mazda Motor Corp 画像処理装置及び画像表示方法及びコンピュータ読み取り可能な記憶媒体
JP2007129407A (ja) 2005-11-02 2007-05-24 Hitachi Advanced Digital Inc カメラシステム、地図情報表示システム
JP4835135B2 (ja) * 2005-12-06 2011-12-14 ソニー株式会社 画像表示装置、画像表示方法、および、プログラム
EP1990789A1 (en) * 2006-02-27 2008-11-12 Navitime Japan Co., Ltd. Map display system, method of inputting conditions for searching for poi, method of displaying guidance to poi, and terminal device
KR20090008976A (ko) * 2007-07-19 2009-01-22 삼성전자주식회사 네비게이션 단말에서의 지도 스크롤 방법 및 그 네비게이션단말
JP5792424B2 (ja) 2009-07-03 2015-10-14 ソニー株式会社 地図情報表示装置、地図情報表示方法およびプログラム
JP5471124B2 (ja) * 2009-07-29 2014-04-16 ソニー株式会社 画像検索装置、画像検索方法及び画像検索プログラム
JP2011227854A (ja) * 2009-09-30 2011-11-10 Aisin Aw Co Ltd 情報表示装置
JP5649398B2 (ja) * 2009-11-18 2015-01-07 キヤノン株式会社 情報処理装置およびその制御方法およびプログラム
JP5230684B2 (ja) * 2010-05-13 2013-07-10 パナソニック株式会社 電子機器、表示方法、及びプログラム
US8654148B2 (en) * 2010-12-23 2014-02-18 Sony Corporation Display control apparatus for deciding a retrieval range for displaying stored pieces of information
KR101860341B1 (ko) 2011-09-09 2018-05-24 엘지전자 주식회사 이동 단말기 및 이의 제어방법
JP5925046B2 (ja) 2012-05-09 2016-05-25 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2015041150A (ja) * 2013-08-20 2015-03-02 キヤノン株式会社 表示制御装置及びその制御方法
JP6138641B2 (ja) * 2013-09-13 2017-05-31 株式会社Nttドコモ 地図情報表示装置、地図情報表示方法、及び地図情報表示プログラム
JP6292915B2 (ja) * 2014-02-13 2018-03-14 キヤノン株式会社 表示制御装置及びその制御方法、プログラム
US9605972B2 (en) * 2014-06-25 2017-03-28 International Business Machines Corporation Mapping preferred locations using multiple arrows
KR102332752B1 (ko) * 2014-11-24 2021-11-30 삼성전자주식회사 지도 서비스를 제공하는 전자 장치 및 방법
WO2016196988A1 (en) * 2015-06-05 2016-12-08 Apple Inc. Quick review of captured image data
CN109154504B (zh) * 2016-05-31 2022-06-17 丰田自动车株式会社 导航系统以及存储介质
JP6614087B2 (ja) * 2016-10-06 2019-12-04 トヨタ自動車株式会社 車両用操作装置
US10901681B1 (en) * 2016-10-17 2021-01-26 Cisco Technology, Inc. Visual audio control
US10750083B2 (en) * 2018-04-06 2020-08-18 Motorola Solutions, Inc. Systems and methods for processing digital image data representing multiple views of an object of interest
CN108898678B (zh) * 2018-07-09 2020-02-21 百度在线网络技术(北京)有限公司 增强现实方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126286A (ja) 2002-10-03 2004-04-22 Sogo System Service:Kk 描画処理装置、描画処理方法、及び描画処理プログラム
JP2005181125A (ja) 2003-12-19 2005-07-07 Alpine Electronics Inc 車載用ナビゲーション装置及び周辺施設検索表示方法
JP2010243907A (ja) 2009-04-08 2010-10-28 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2011130415A5 (ja) 2010-10-13 2013-11-14
JP2015032861A (ja) 2013-07-31 2015-02-16 株式会社ニコン 画像抽出サーバ、画像抽出装置、及び画像抽出プログラム
US20150379405A1 (en) 2014-06-25 2015-12-31 Facebook, Inc. Systems and methods for ranking rules that identify potentially illegitimate activities

Also Published As

Publication number Publication date
CN110868532B (zh) 2022-04-29
JP2020035013A (ja) 2020-03-05
US11430165B2 (en) 2022-08-30
US20200066017A1 (en) 2020-02-27
CN110868532A (zh) 2020-03-06

Similar Documents

Publication Publication Date Title
US11550420B2 (en) Quick review of captured image data
US9998651B2 (en) Image processing apparatus and image processing method
EP2688283B1 (en) Dynamic region of interest adaptation and image capture device providing same
US9131143B2 (en) Dynamic region of interest adaptation and image capture device providing same
US9438789B2 (en) Display control apparatus and display control method
JP6757140B2 (ja) 表示制御装置及びその制御方法、プログラム、並びに記憶媒体
CN112511751B (zh) 拍摄方法及装置、电子设备和可读存储介质
CN107087102B (zh) 对焦信息处理方法及电子设备
JP6478654B2 (ja) 撮像装置及びその制御方法
KR101998903B1 (ko) 서버, 클라이언트 단말, 시스템 및 프로그램
CN106961545B (zh) 显示控制设备及其控制方法
JP7265822B2 (ja) 表示制御装置および表示制御方法、並びにプログラム
JP6358072B2 (ja) 画像表示端末、画像表示システム及び画像表示プログラム
JP6541462B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20220283698A1 (en) Method for operating an electronic device in order to browse through photos
JP6210758B2 (ja) 撮影システム、撮像装置及びサーバ
CN113014806A (zh) 虚化图像拍摄方法及装置
JP6525753B2 (ja) 表示制御装置、その制御方法、およびプログラム
JP2021012619A (ja) 電子機器及びその制御方法
US11010045B2 (en) Control apparatus, control method, and non-transitory computer readable medium
JP2021061531A (ja) 撮像制御装置及びその制御方法、プログラム、記憶媒体
JP2021085979A (ja) 電子機器及びその制御方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210819

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230413

R151 Written notification of patent or utility model registration

Ref document number: 7265822

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151