JP2017228828A - Imaging apparatus, display apparatus, and imaging display system - Google Patents

Imaging apparatus, display apparatus, and imaging display system Download PDF

Info

Publication number
JP2017228828A
JP2017228828A JP2016121612A JP2016121612A JP2017228828A JP 2017228828 A JP2017228828 A JP 2017228828A JP 2016121612 A JP2016121612 A JP 2016121612A JP 2016121612 A JP2016121612 A JP 2016121612A JP 2017228828 A JP2017228828 A JP 2017228828A
Authority
JP
Japan
Prior art keywords
image
angle
display
imaging
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016121612A
Other languages
Japanese (ja)
Other versions
JP6704301B2 (en
Inventor
奥山 宣隆
Noritaka Okuyama
宣隆 奥山
西村 龍志
Tatsushi Nishimura
龍志 西村
吉田 進
Susumu Yoshida
進 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Holdings Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2016121612A priority Critical patent/JP6704301B2/en
Application filed by Maxell Holdings Ltd filed Critical Maxell Holdings Ltd
Priority to PCT/JP2017/020407 priority patent/WO2017221659A1/en
Priority to CN202110783711.0A priority patent/CN113542602A/en
Priority to CN201780038305.3A priority patent/CN109417598B/en
Priority to CN202110783694.0A priority patent/CN113542601B/en
Priority to US16/311,631 priority patent/US11004167B2/en
Publication of JP2017228828A publication Critical patent/JP2017228828A/en
Application granted granted Critical
Publication of JP6704301B2 publication Critical patent/JP6704301B2/en
Priority to US17/227,031 priority patent/US11367158B2/en
Priority to US17/743,105 priority patent/US11710205B2/en
Priority to US18/327,328 priority patent/US20230306549A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology with respect to an imaging apparatus and display apparatus, for making it easy to grasp relation between a plurality of pictures and making it possible to implement more usability.SOLUTION: An imaging apparatus comprises: an imaging unit for imaging a picture to acquire picture data; and a display unit for reproducing and displaying the picture on a display screen on the basis of the picture data. The imaging apparatus acquires first information including at least one of an azimuth angle and elevation angle as an imaging direction of a picture and at least one of a field angle of the picture and field angle related information from which the field angle can be calculated; with respect to a plurality of imaged pictures, associates a second picture with a first picture when a second imaging direction of the second picture is included within a range of a first field angle in a first imaging direction of the first picture; and displays a first picture 901 selected on the basis of a user's operation in a display screen 401 and displays a second picture associated with the first picture 901 in a state in which the second picture or second information (figure 902) showing the second picture is superposed on the first picture 901 in the display screen 401.SELECTED DRAWING: Figure 10

Description

本発明は、撮像装置及び表示装置の技術に関し、撮像画像の画面表示技術に関する。   The present invention relates to a technique for an imaging apparatus and a display apparatus, and relates to a screen display technique for a captured image.

従来、撮影方向や画角が異なる複数の画像を撮像する機能を有する撮像装置等の電子機器として、デジタルカメラやスマートフォン等がある。また、それらの複数の画像を再生表示する機能を持つ表示装置等の電子機器として、テレビジョン受像機(以下、「テレビ」と記載する場合がある)やノートPC等がある。上記画像は、静止画または動画である。撮影方向は、例えば方位角及び仰角で規定できる。画角(angle of view)は、画像範囲を角度で表し、視野角とも呼ばれ、例えば、方位角に対応する水平画角、及び仰角に対応する垂直画角で規定できる。   2. Description of the Related Art Conventionally, there are digital cameras, smartphones, and the like as electronic devices such as an imaging apparatus having a function of capturing a plurality of images having different shooting directions and angles of view. In addition, as an electronic device such as a display device having a function of reproducing and displaying the plurality of images, there is a television receiver (hereinafter sometimes referred to as “TV”), a notebook PC, or the like. The image is a still image or a moving image. The photographing direction can be defined by, for example, an azimuth angle and an elevation angle. The angle of view represents an image range as an angle and is also referred to as a viewing angle. For example, the angle of view can be defined by a horizontal angle of view corresponding to an azimuth angle and a vertical angle of view corresponding to an elevation angle.

画角が異なる画像としては、相対的に広角で撮影された画像(以下、「広角画像」、「第1画像」等と記載する場合がある)と、相対的に狭角で撮影された画像(以下、「狭角画像」、「第2画像」等と記載する場合がある)とが挙げられる。広角の例としては、水平画角で120°や、180°以上の画角が挙げられる。なお、180°の場合には半天球画像、360°の場合には全天球画像と呼ばれる場合もある。狭角の例としては、水平画角で45°以下の画角が挙げられる。以下、角度の単位として度(°)で表すが、ラジアン等の単位に換算可能である。   Images with different angles of view include images taken at a relatively wide angle (hereinafter sometimes referred to as “wide-angle image”, “first image”, etc.), and images taken at a relatively narrow angle. (Hereinafter may be referred to as “narrow angle image”, “second image”, etc.). Examples of the wide angle include a horizontal angle of view of 120 ° and an angle of view of 180 ° or more. In the case of 180 °, it may be called a hemispherical image, and in the case of 360 °, it may be called a omnidirectional image. As an example of the narrow angle, a field angle of 45 ° or less in the horizontal field angle can be given. Hereinafter, the unit of angle is expressed in degrees (°), but it can be converted into a unit such as radians.

撮像画像の画面表示に関する先行技術例として、特開2000−92439号公報(特許文献1)が挙げられる。特許文献1には、電子スチルカメラ等として、以下の旨が記載されている。その電子スチルカメラは、電源オフが指示された場合に、記録用メモリに記録された記録画像を外部装置で一覧表示可能とする画像一覧表示用ファイルを生成する。そのファイルを用いた画像検索によって表示される一覧表示画面において、複数の縮小画像が一覧表示される。   JP-A-2000-92439 (Patent Document 1) is given as an example of the prior art relating to screen display of a captured image. Patent Document 1 describes the following as an electronic still camera or the like. The electronic still camera generates an image list display file that enables a list of recorded images recorded in the recording memory to be displayed on an external device when the power-off is instructed. A plurality of reduced images are displayed in a list on a list display screen displayed by image search using the file.

特開2000−92439号公報JP 2000-92439 A

撮影者であるユーザが、撮像装置を用いて、同じような場所や日時において、撮影方向や画角が異なる複数の画像を撮像する場合がある。例えば、ユーザが、同じ日に同じ公園において、ある撮影方向及び画角で広角画像を撮影し、別の撮影方向及び画角で狭角画像を撮影する。そのような場合、それらの複数の画像は、場所や日時、撮影方向や画角等に関して所定の関係を持っている関連した画像群であると言える。   A user who is a photographer may take a plurality of images with different shooting directions and angles of view at the same place and date / time using an imaging device. For example, a user shoots a wide-angle image with a certain shooting direction and angle of view and a narrow-angle image with a different shooting direction and angle of view in the same park on the same day. In such a case, it can be said that the plurality of images are related image groups having a predetermined relationship with respect to location, date and time, shooting direction, angle of view, and the like.

従来の撮像装置や表示装置は、表示画面において複数の画像を例えば撮影日時やファイル名等の順序で一覧及び並列配置で表示する機能を有する。例えば、特許文献1の場合、一覧表示画面において複数の縮小画像が並列配置で表示される。   Conventional imaging devices and display devices have a function of displaying a plurality of images on a display screen in a list and in a parallel arrangement, for example, in the order of shooting date and time, file names, and the like. For example, in Patent Document 1, a plurality of reduced images are displayed in a parallel arrangement on the list display screen.

しかし、従来技術では、ユーザが表示画面に表示される全画像のうち所定の関係を持つ複数の画像を直感的に認識することは難しい。例えば、同じような場所や日時で撮影された広角画像や狭角画像が混在している場合にも、ユーザはそれらの画像の関係を把握しにくい。従来技術では、関係を持つ複数の画像を関連付けて再生表示するような機能を有していない。従来技術では、表示画面にある画像を表示している状態から、その画像と関係を持つ他の画像を参照して表示する機能等も有していない。従来技術では、複数の画像に関するユーザによる編集及び管理の作業にも手間がかかる。   However, with the conventional technology, it is difficult for the user to intuitively recognize a plurality of images having a predetermined relationship among all images displayed on the display screen. For example, even when wide-angle images and narrow-angle images taken at the same place and date / time are mixed, it is difficult for the user to grasp the relationship between these images. The prior art does not have a function of reproducing and displaying a plurality of related images in association with each other. The conventional technology does not have a function of displaying an image on the display screen by referring to another image related to the image. In the prior art, it takes time and effort to edit and manage a plurality of images by a user.

即ち、従来技術は、関係を持つ複数の画像の好適な閲覧がしにくく、使い勝手の点で改善余地がある。   That is, the related art is difficult to suitably browse a plurality of related images, and there is room for improvement in terms of usability.

本発明の目的は、撮像装置及び表示装置に関して、複数の画像の関係を把握しやすく、より良い使い勝手を実現できる技術を提供することである。   An object of the present invention is to provide a technique that can easily grasp the relationship between a plurality of images and realize better usability with respect to an imaging device and a display device.

本発明のうち代表的な実施の形態は、撮像装置や表示装置であって、以下に示す構成を有することを特徴とする。   A typical embodiment of the present invention is an imaging apparatus or a display apparatus, and has the following configuration.

一実施の形態の撮像装置は、静止画または動画の画像を撮像して画像データを得る撮像部と、前記画像データに基づいて前記画像を表示画面に再生表示する表示部と、を備え、前記画像の撮影方向として方位角及び仰角の少なくとも一方と、前記画像の画角または前記画角を計算可能である画角関連情報の少なくとも一方と、を含む第1情報を取得し、前記撮像された複数の画像について、第1画像の第1撮影方向の第1画角の範囲内に、第2画像の第2撮影方向が含まれている場合に、前記第1画像に前記第2画像を関連付け、ユーザの操作に基づいて選択された前記第1画像を前記表示画面内に表示すると共に、前記第1画像に関連付けられる前記第2画像を、前記第1画像の上に、前記第2画像または前記第2画像を表す第2情報として重ね合わせた状態で表示する。   An imaging apparatus according to an embodiment includes: an imaging unit that captures a still image or a moving image to obtain image data; and a display unit that reproduces and displays the image on a display screen based on the image data. First information including at least one of an azimuth angle and an elevation angle as an imaging direction of the image and at least one of the angle of view of the image or the angle of view related information capable of calculating the angle of view is acquired, and the image is captured For a plurality of images, the second image is associated with the first image when the second image capturing direction of the second image is included in the range of the first field angle of the first image capturing direction of the first image. The first image selected based on a user operation is displayed in the display screen, and the second image associated with the first image is displayed on the first image, the second image or As second information representing the second image. It is displayed in a superimposed state.

一実施の形態の表示装置は、外部の撮像装置で撮像された、静止画または動画の画像の画像データを入力して保持する入力部と、前記画像データに基づいて前記画像を表示画面に再生表示する表示部と、を備え、前記画像の撮影方向として方位角及び仰角の少なくとも一方と、前記画像の画角または前記画角を計算可能である画角関連情報の少なくとも一方と、を含む第1情報を取得し、前記撮像された複数の画像について、第1画像の第1撮影方向の第1画角の範囲内に、第2画像の第2撮影方向が含まれている場合に、前記第1画像に前記第2画像を関連付け、ユーザの操作に基づいて選択された前記第1画像を前記表示画面内に表示すると共に、前記第1画像に関連付けられる前記第2画像を、前記第1画像の上に、前記第2画像または前記第2画像を表す第2情報として重ね合わせた状態で表示する。   A display device according to an embodiment includes an input unit that inputs and holds image data of a still image or a moving image captured by an external imaging device, and reproduces the image on a display screen based on the image data. A display unit that displays, and includes at least one of an azimuth angle and an elevation angle as a shooting direction of the image, and at least one of the angle of view and the angle of view related information capable of calculating the angle of view. 1 information is acquired, and when the second image capturing direction of the second image is included in the range of the first angle of view of the first image capturing direction of the first image for the plurality of captured images, The second image is associated with the first image, the first image selected based on a user operation is displayed in the display screen, and the second image associated with the first image is displayed in the first image. On top of the image, the second image or Displaying superposed state as the second information representing the second image.

本発明のうち代表的な実施の形態によれば、撮像装置及び表示装置に関して、複数の画像の関係を把握しやすく、より良い使い勝手を実現できる。   According to a typical embodiment of the present invention, it is easy to grasp the relationship between a plurality of images regarding an imaging device and a display device, and better usability can be realized.

本発明の実施の形態1の撮像装置及び表示装置を含んで構成される撮像表示システムの構成を示す図である。It is a figure which shows the structure of the imaging display system comprised including the imaging device and display apparatus of Embodiment 1 of this invention. 実施の形態1の撮像装置の構成を示す図である。1 is a diagram illustrating a configuration of an imaging apparatus according to Embodiment 1. FIG. 実施の形態1の表示装置の構成を示す図である。2 is a diagram illustrating a configuration of a display device according to Embodiment 1. FIG. 実施の形態1の撮像装置の外観を示す図である。1 is a diagram illustrating an appearance of an imaging device according to Embodiment 1. FIG. 実施の形態1の撮像装置で管理情報及びメタデータの構成を示す図である。4 is a diagram illustrating a configuration of management information and metadata in the imaging apparatus according to Embodiment 1. FIG. 実施の形態1の撮像装置で複数の画像の関係の管理について示す図である。3 is a diagram illustrating management of a relationship between a plurality of images in the imaging apparatus according to Embodiment 1. FIG. 実施の形態1の撮像装置で、複数の画像に関する撮影方向や画角、特に方位角及び水平画角について示す説明図である。FIG. 3 is an explanatory diagram illustrating a shooting direction and angle of view for a plurality of images, particularly an azimuth angle and a horizontal angle of view, in the imaging apparatus according to Embodiment 1; 実施の形態1の撮像装置で、特に仰角及び垂直画角について示す説明図である。FIG. 3 is an explanatory diagram showing an elevation angle and a vertical angle of view in the imaging apparatus according to the first embodiment. 実施の形態1の撮像装置で、画角関連情報について示す説明図である。FIG. 3 is an explanatory diagram illustrating angle-of-view related information in the imaging apparatus according to Embodiment 1; 実施の形態1の撮像装置で、表示画面の表示モードの遷移を示す図である。6 is a diagram illustrating transition of display modes of a display screen in the imaging apparatus according to Embodiment 1. FIG. 実施の形態1の撮像装置で、第2表示モードの画面例を示す図である。6 is a diagram illustrating a screen example of a second display mode in the imaging device according to Embodiment 1. FIG. 実施の形態1の撮像装置で、第3表示モードの第1狭角画像の画面例を示す図である。6 is a diagram illustrating a screen example of a first narrow-angle image in a third display mode in the imaging apparatus according to Embodiment 1. FIG. 実施の形態1の撮像装置で、第3表示モードの第2狭角画像の画面例を示す図である。6 is a diagram illustrating a screen example of a second narrow-angle image in a third display mode in the imaging apparatus according to Embodiment 1. FIG. 実施の形態1の撮像装置で、撮像時の制御処理のフローを示す図である。FIG. 3 is a diagram illustrating a flow of control processing at the time of imaging in the imaging apparatus according to the first embodiment. 実施の形態1の撮像装置及び表示装置で、再生表示時の制御処理のフローを示す図である。FIG. 6 is a diagram illustrating a flow of control processing during reproduction display in the imaging device and display device according to the first embodiment. 実施の形態1の撮像装置で、第1選択方式を示す説明図である。6 is an explanatory diagram illustrating a first selection method in the imaging apparatus according to Embodiment 1. FIG. 実施の形態1の撮像装置で、第2選択方式を示す説明図である。6 is an explanatory diagram illustrating a second selection method in the imaging apparatus according to Embodiment 1. FIG. 実施の形態1の撮像装置で、第3選択方式を示す説明図である。6 is an explanatory diagram illustrating a third selection method in the imaging apparatus according to Embodiment 1. FIG. 実施の形態1の変形例の撮像装置で、第2表示モードの画面例を示す図である。FIG. 11 is a diagram illustrating a screen example of a second display mode in the imaging device according to the modification of the first embodiment. 実施の形態1の変形例の撮像装置で、第1表示モード及び第2表示モードの画面例を示す図である。FIG. 10 is a diagram illustrating screen examples of a first display mode and a second display mode in the imaging apparatus according to the modification of the first embodiment. 実施の形態1の変形例の撮像装置で、編集機能の表示画面の例を示す図である。FIG. 11 is a diagram illustrating an example of a display screen for editing functions in the imaging apparatus according to the modification of the first embodiment. 本発明の実施の形態2の撮像装置及び表示装置における、全天球画像について示す説明図である。It is explanatory drawing shown about the spherical image in the imaging device and display apparatus of Embodiment 2 of this invention. 実施の形態2の撮像装置で、撮像部に係わる構成を示す図である。6 is a diagram illustrating a configuration related to an imaging unit in the imaging apparatus according to Embodiment 2. FIG. 実施の形態2の撮像装置で、外観構成を示す図である。6 is a diagram illustrating an external configuration of the imaging apparatus according to Embodiment 2. FIG. 実施の形態2の撮像装置で、第2表示モードの画面例を示す図である。10 is a diagram illustrating an example of a screen in a second display mode in the imaging device according to Embodiment 2. FIG. 本発明の実施の形態3の撮像装置における、撮影モードについて示す説明図である。It is explanatory drawing shown about imaging | photography mode in the imaging device of Embodiment 3 of this invention.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において同一部には原則として同一符号を付し、その繰り返しの説明は省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that components having the same function are denoted by the same reference symbols throughout the drawings for describing the embodiment, and the repetitive description thereof will be omitted.

(実施の形態1)
図1〜図18を用いて、本発明の実施の形態1の撮像装置及び表示装置について説明する。実施の形態1の撮像装置及び表示装置は、撮影時の撮影方向や画角が異なる複数の画像、特に広角画像及び狭角画像を、関連付けた状態で表示する機能を有する。
(Embodiment 1)
The imaging device and display device according to the first embodiment of the present invention will be described with reference to FIGS. The imaging apparatus and display apparatus according to Embodiment 1 have a function of displaying a plurality of images, particularly wide-angle images and narrow-angle images, having different shooting directions and angles of view at the time of shooting in an associated state.

[撮像表示システム]
図1は、実施の形態1の撮像装置及び表示装置を含んで構成されるシステムである撮像表示システムの構成を示す。図1の撮像表示システムは、実施の形態1の撮像装置1である第1撮像装置1A及び第2撮像装置1Bと、実施の形態1の表示装置2である第1表示装置2A及び第2表示装置2Bと、サーバ3とが、通信網4を介して接続されている。通信網4は、無線通信網やインターネットを含む。
[Imaging display system]
FIG. 1 illustrates a configuration of an imaging display system that is a system including the imaging device and the display device according to the first embodiment. The imaging display system of FIG. 1 includes a first imaging device 1A and a second imaging device 1B that are the imaging device 1 of the first embodiment, and a first display device 2A and a second display that are the display device 2 of the first embodiment. The device 2B and the server 3 are connected via the communication network 4. The communication network 4 includes a wireless communication network and the Internet.

撮像装置1は、少なくとも撮像機能及び表示機能を有する電子機器である。表示装置2は、少なくとも表示機能を有する電子機器である。撮影者であるユーザは、自身が所有するまたは使用権限を持つ電子機器として、第1撮像装置1A及び第2撮像装置1Bと、第1表示装置2A及び第2表示装置2Bと、を有する。例えば、第1撮像装置1Aはデジタルカメラであり、第2撮像装置1Bはスマートフォンであり、第1表示装置2Aはテレビであり、第2表示装置2BはノートPCである。   The imaging device 1 is an electronic device having at least an imaging function and a display function. The display device 2 is an electronic device having at least a display function. A user who is a photographer has a first imaging device 1A and a second imaging device 1B, and a first display device 2A and a second display device 2B as electronic devices that the user owns or has authority to use. For example, the first imaging device 1A is a digital camera, the second imaging device 1B is a smartphone, the first display device 2A is a television, and the second display device 2B is a notebook PC.

第1撮像装置1Aや第2撮像装置1Bは、少なくとも、自機器で撮像した画像の画像データを、自機器内の記憶手段に保持する機能を有する。また、第1撮像装置1Aや第2撮像装置1Bは、自機器で撮像した画像の画像データを、サーバ3へ送信してサーバ3の画像データDBに蓄積、登録する機能を有してもよい。また、第1撮像装置1Aや第2撮像装置1Bは、ユーザ操作に基づいて、自機器で撮像した画像の画像データを、第1表示装置2Aや第2表示装置2Bへ送信する機能を有してもよい。   The first imaging device 1A and the second imaging device 1B have a function of holding at least image data of an image captured by the own device in a storage unit in the own device. Further, the first imaging device 1A and the second imaging device 1B may have a function of transmitting image data of an image captured by its own device to the server 3 and storing and registering it in the image data DB of the server 3. . Further, the first imaging device 1A and the second imaging device 1B have a function of transmitting image data of an image captured by the own device to the first display device 2A and the second display device 2B based on a user operation. May be.

第1表示装置2Aや第2表示装置2Bは、外部の機器である撮像装置1またはサーバ3等から、画像データを受信、入力し、自機器内の記憶手段に保持する機能を有する。例えば、第1表示装置2Aは、第1撮像装置1Aや第2表示装置2Bから、通信により画像データを受信する。例えば、第2表示装置2Bは、第1撮像装置1Aや第2撮像装置1Bから、通信により画像データを受信する。また、第1表示装置2Aや第2表示装置2Bは、画像データ表示部を有する。画像データ表示部は、画像データに基づいて表示画面に画像を表示する。   The first display device 2A and the second display device 2B have a function of receiving and inputting image data from the imaging device 1 or the server 3 which is an external device, and holding the image data in a storage unit in the own device. For example, the first display device 2A receives image data by communication from the first imaging device 1A and the second display device 2B. For example, the second display device 2B receives image data from the first imaging device 1A and the second imaging device 1B by communication. Further, the first display device 2A and the second display device 2B have an image data display unit. The image data display unit displays an image on the display screen based on the image data.

また、例えば、第2表示装置2Bは、画像データ編集部を有する。画像データ編集部は、表示画面に対するユーザ操作に基づいて、画像データの情報や内容を編集する。後述するが、ユーザは、編集により、複数の画像の関係に関する設定が可能である。   For example, the second display device 2B has an image data editing unit. The image data editing unit edits information and content of image data based on a user operation on the display screen. As will be described later, the user can make settings related to the relationship between a plurality of images by editing.

サーバ3は、例えば事業者が管理するサーバ装置であり、ユーザの機器から画像データを預かり、画像データDB内に蓄積する。これにより、画像データのバックアップや一元管理等を実現する。なお、サーバ3と画像データDBは別の機器で実装されてもよい。   The server 3 is, for example, a server device managed by a business operator. The server 3 stores image data from a user's device and stores it in the image data DB. Thereby, backup of image data, unified management, etc. are realized. The server 3 and the image data DB may be implemented by different devices.

[撮像装置]
図2は、撮像装置1の構成を示す。撮像装置1は、制御部101、記憶部102、撮像部103、表示装置104、操作入力部105、記録部106、記録媒体107、通信インタフェース部108、撮影方向計測部111、内部時計112、位置検出部113、センサ群114、マイク115、スピーカ116、インタフェース回路部131、信号処理部132、メモリ133等を備える。それらの各部は、バス等を介して相互に接続されており、制御部101の制御に基づいて高速に連携する。
[Imaging device]
FIG. 2 shows the configuration of the imaging apparatus 1. The imaging device 1 includes a control unit 101, a storage unit 102, an imaging unit 103, a display device 104, an operation input unit 105, a recording unit 106, a recording medium 107, a communication interface unit 108, a photographing direction measuring unit 111, an internal clock 112, a position A detection unit 113, a sensor group 114, a microphone 115, a speaker 116, an interface circuit unit 131, a signal processing unit 132, a memory 133, and the like are provided. These units are connected to each other via a bus or the like, and cooperate at high speed based on the control of the control unit 101.

制御部101は、撮像装置1の全体を制御する。制御部101は、プロセッサやROMやRAM等の制御回路を含む。制御部101は、制御回路の処理により実現される処理部として、撮像制御部11、表示制御部12、タッチ検出部13、設定部14、関連付け部15を有する。   The control unit 101 controls the entire imaging apparatus 1. The control unit 101 includes a control circuit such as a processor, a ROM, and a RAM. The control unit 101 includes an imaging control unit 11, a display control unit 12, a touch detection unit 13, a setting unit 14, and an association unit 15 as processing units realized by processing of the control circuit.

制御部101は、動作モードに応じて、撮像部103等の各部を制御して、撮像や表示を実現する。動作モードは、撮像モード、再生表示モード等がある。制御部101は、動作モードや状態に応じて、信号処理部132やメモリ133経由で、撮像部103、表示装置104、記録部106等を制御する。   The control unit 101 controls each unit such as the imaging unit 103 according to the operation mode to realize imaging and display. The operation modes include an imaging mode and a playback display mode. The control unit 101 controls the imaging unit 103, the display device 104, the recording unit 106, and the like via the signal processing unit 132 and the memory 133 according to the operation mode and state.

制御部101は、操作入力部105やタッチセンサ42を通じたユーザ入力操作に基づいて、撮像の撮影方向や画角等の設定を制御する。制御部101は、撮像部103を通じた画像の撮影に伴い、画像データ23と共にメタデータ22を作成し、メタデータ22及び画像データ23を含む画像ファイル24として、記憶部102に記憶、または記録部106の記録媒体107に記録する。また、制御部101は、画像ファイル24に関する管理情報21を作成して管理する。   The control unit 101 controls settings such as a shooting direction and an angle of view of imaging based on a user input operation through the operation input unit 105 or the touch sensor 42. The control unit 101 creates metadata 22 together with the image data 23 as the image is captured through the imaging unit 103, and stores the metadata 22 and the image file 24 including the image data 23 in the storage unit 102 or the recording unit. The data is recorded on the recording medium 107. Further, the control unit 101 creates and manages management information 21 related to the image file 24.

記憶部102は、制御部101の制御に基づいて、複数の画像ファイル24、及び管理情報21を含む各種のデータや情報を記憶する。なお、記憶部102が制御部101内に統合された形態、記憶部102と記録部106が1つに統合された形態等でもよい。   The storage unit 102 stores various data and information including a plurality of image files 24 and management information 21 based on the control of the control unit 101. A form in which the storage unit 102 is integrated in the control unit 101, a form in which the storage unit 102 and the recording unit 106 are integrated, or the like may be used.

撮像部103は、撮像制御部11からの制御に基づいて、画像を撮像する。撮像部103は、駆動部31、レンズ部32を含む。駆動部31は、駆動回路を含み、撮像制御部11からの駆動制御に基づいて、レンズ部32の撮像素子及びレンズを駆動する。レンズ部32は、電子ズームまたは光学ズームに対応したレンズを含む、複数のレンズによる光学系を含む。例えば、駆動部31は、フォーカスレンズの位置を制御して焦点距離を変えるフォーカシング動作を行う。レンズ部32のレンズは、交換不要で固定された、電子ズームに対応したズームレンズの方式でもよいし、着脱により交換可能である光学レンズの方式でもよい。   The imaging unit 103 captures an image based on the control from the imaging control unit 11. The imaging unit 103 includes a drive unit 31 and a lens unit 32. The drive unit 31 includes a drive circuit and drives the imaging element and the lens of the lens unit 32 based on drive control from the imaging control unit 11. The lens unit 32 includes an optical system including a plurality of lenses including a lens corresponding to electronic zoom or optical zoom. For example, the drive unit 31 performs a focusing operation that changes the focal length by controlling the position of the focus lens. The lens of the lens unit 32 may be a zoom lens system that is fixed without replacement and is compatible with electronic zoom, or may be an optical lens system that can be replaced by detachment.

撮像部103は、CMOSやCCD等の撮像素子を含む。撮像素子の撮像面には、光電変換素子が2次元で配列されている。撮像部103は、レンズ部32を介して入射されて撮像素子の撮像面に結像された被写体の光学像を、光電変換して撮像信号に変換する。撮像部103には、アナログ信号をデジタル信号に変換するAD変換回路が内蔵されており、デジタル化された撮像信号を出力する。撮像部103では、位相差オートフォーカス用の画素を配置した撮像素子を用いて、オートフォーカスの高速化を図ってもよいし、メモリを内蔵して、撮像信号の入出力の高速化を図ってもよい。撮像部103の外部にAD変換回路等が設けられてもよい。撮像部103の撮像方式については限定しない。   The imaging unit 103 includes an imaging element such as a CMOS or a CCD. Photoelectric conversion elements are two-dimensionally arranged on the imaging surface of the imaging element. The image pickup unit 103 photoelectrically converts an optical image of a subject that is incident through the lens unit 32 and formed on the image pickup surface of the image pickup device into an image pickup signal. The imaging unit 103 includes an AD conversion circuit that converts an analog signal into a digital signal, and outputs a digitized imaging signal. The imaging unit 103 may increase the speed of autofocus by using an image sensor in which pixels for phase difference autofocus are arranged, or incorporate a memory to increase the speed of input / output of image signals. Also good. An AD conversion circuit or the like may be provided outside the imaging unit 103. The imaging method of the imaging unit 103 is not limited.

表示装置104は、例えばタッチパネルであり、表示部41及びタッチセンサ42を含む。タッチパネルは、表示手段かつ操作入力手段である。表示部41は、表示ドライバを含み、ユーザに対して表示画面を表示する。表示部41は、例えば液晶表示部であるが、有機EL表示部等でもよい。表示部41の方式やタッチセンサ42の方式については限定しない。表示装置104は複数備えられてもよいし、タッチセンサ42を備えないものでもよい。実施の形態1では、主となる表示装置104であるタッチパネルに加え、後述するが撮影モニタ用の表示装置を有する。   The display device 104 is a touch panel, for example, and includes a display unit 41 and a touch sensor 42. The touch panel is a display unit and an operation input unit. The display unit 41 includes a display driver and displays a display screen for the user. The display unit 41 is, for example, a liquid crystal display unit, but may be an organic EL display unit or the like. The method of the display unit 41 and the method of the touch sensor 42 are not limited. A plurality of display devices 104 may be provided, or the display device 104 may not include the touch sensor 42. In the first embodiment, in addition to the touch panel which is the main display device 104, a display device for an imaging monitor will be described later.

タッチセンサ42は、表示部41の表示画面の領域に対応させて配置されており、表示画面に対するタッチ入力操作を受け付ける。タッチセンサ42は、例えば静電容量方式であり、指等の近接や接触による静電容量変化を電気信号として検出し、タッチ検出信号を制御部101のタッチ検出部13へ出力する。タッチパネルは、例えば液晶パネル表示部にタッチセンサ42が内蔵されており、前面側にガラス保護カバーが配置され、背面側にバックライトが配置されている。なお、表示装置104は、一定時間の非使用状態等に基づいて自動的にバックライト消灯により非表示状態にされる制御がされてもよい。タッチパネルは感圧方式等でもよい。   The touch sensor 42 is arranged corresponding to the area of the display screen of the display unit 41, and accepts a touch input operation on the display screen. The touch sensor 42 is, for example, a capacitance method, detects a change in capacitance due to the proximity or contact of a finger or the like as an electrical signal, and outputs a touch detection signal to the touch detection unit 13 of the control unit 101. In the touch panel, for example, a touch sensor 42 is built in a liquid crystal panel display unit, a glass protective cover is disposed on the front side, and a backlight is disposed on the back side. The display device 104 may be controlled to be automatically in a non-display state by turning off the backlight based on a non-use state for a certain time. The touch panel may be a pressure sensitive method.

タッチ検出部13は、タッチセンサ42から得られるタッチ検出信号に基づいて、表示画面でのタッチ有無やタッチ位置座標等を検出し、また、タップやスワイプやピンチ等の操作を検出する。ユーザは、タッチパネルの表示画面に対するタッチ入力操作により、撮像装置1に対する指示入力や、表示画面内で任意位置にフォーカスを合わせる操作等、各種の操作が可能である。   The touch detection unit 13 detects the presence / absence of touch on the display screen, the touch position coordinates, and the like based on the touch detection signal obtained from the touch sensor 42, and also detects operations such as tap, swipe, and pinch. The user can perform various operations such as an instruction input to the imaging apparatus 1 and an operation of focusing on an arbitrary position in the display screen by a touch input operation on the display screen of the touch panel.

インタフェース回路部131は、動作モードに応じて、制御部101の制御に基づいて、制御部101からの駆動制御信号を、撮像部103へ転送する。また、インタフェース回路部131は、制御に基づいて、撮像部103からの撮像信号を、信号処理部132またはメモリ133へ出力する。なお、インタフェース回路部131に複数の撮像部103が接続される形態としてもよい。   The interface circuit unit 131 transfers a drive control signal from the control unit 101 to the imaging unit 103 based on the control of the control unit 101 according to the operation mode. Further, the interface circuit unit 131 outputs an imaging signal from the imaging unit 103 to the signal processing unit 132 or the memory 133 based on the control. A plurality of imaging units 103 may be connected to the interface circuit unit 131.

信号処理部132は、画像音声信号処理回路、及び符号化復号化回路を含み、制御部101の制御に従い、画像信号処理、音声信号処理、符号化処理及び復号化処理、等の各種の信号処理を行う機能を有する。信号処理部132の信号処理は、撮像部103からの撮像信号に対する信号処理や、画像データ23に対する信号処理や、表示装置104に映像を表示する際の信号処理を含む。信号処理部132は、信号処理により、記録用あるいは表示用の映像信号を生成する。この映像信号は、画像データ23の静止画や動画を含む。   The signal processing unit 132 includes an image / audio signal processing circuit and an encoding / decoding circuit, and performs various signal processing such as image signal processing, audio signal processing, encoding processing, and decoding processing under the control of the control unit 101. It has a function to perform. The signal processing of the signal processing unit 132 includes signal processing for the imaging signal from the imaging unit 103, signal processing for the image data 23, and signal processing for displaying a video on the display device 104. The signal processing unit 132 generates a video signal for recording or display by signal processing. This video signal includes a still image and a moving image of the image data 23.

信号処理部132は、例えば、撮像信号に、フィルタリング、感度設定に応じた増幅、ホワイトバランス補正、等の信号処理を行う。信号処理部132は、画像データ23を画像ファイル24として記録媒体107に記録する際等には、元データに対して、そのための所定の形式の符号化処理を行う。この符号化は、データ圧縮を含む。信号処理部132は、記録媒体107から画像データ23を読み出す際等には、対応する復号化処理を行い、元データへ復元する。信号処理部132は、画像データ23に基づいて表示装置104に画像を再生表示する際には、そのための信号処理を行う。信号処理部132は、マイク115からの音声入力信号やスピーカ116への音声出力信号に対する音声信号処理を行う。   For example, the signal processing unit 132 performs signal processing such as filtering, amplification according to sensitivity setting, and white balance correction on the imaging signal. When recording the image data 23 on the recording medium 107 as the image file 24, the signal processing unit 132 performs encoding processing in a predetermined format for the original data. This encoding includes data compression. When reading out the image data 23 from the recording medium 107, the signal processing unit 132 performs a corresponding decoding process and restores the original data. The signal processing unit 132 performs signal processing for reproducing and displaying an image on the display device 104 based on the image data 23. The signal processing unit 132 performs audio signal processing on an audio input signal from the microphone 115 and an audio output signal to the speaker 116.

メモリ133は、信号処理部132の信号処理の際にバッファメモリとして使用され、各信号やデータが格納される。メモリ133は、例えばDRAMやフラッシュメモリ等により構成される。   The memory 133 is used as a buffer memory when the signal processing unit 132 performs signal processing, and stores each signal and data. The memory 133 is configured by, for example, a DRAM or a flash memory.

操作入力部105は、ユーザによる入力操作を可能とする各種のハードウェアボタン等を含む。ユーザは、操作入力部105を通じて、指示入力可能であり、設定部14に対し画角関連情報等を設定可能である。   The operation input unit 105 includes various hardware buttons that enable an input operation by the user. The user can input an instruction through the operation input unit 105 and can set angle-of-view related information and the like in the setting unit 14.

設定部14は、操作入力部105やタッチパネルを通じてユーザにより入力される設定を受け付けて、撮影や表示に係わる情報を設定する。設定部14には、撮影に係わる設定情報として、撮像部103のレンズに関する電子ズーム倍率、焦点距離、画角等が設定可能である。撮像制御部11は、設定部14の設定情報に基づいて、画角等を自動調整するように、撮像部103を駆動制御する。   The setting unit 14 accepts settings input by the user through the operation input unit 105 or the touch panel, and sets information related to shooting and display. The setting unit 14 can set electronic zoom magnification, focal length, angle of view, and the like related to the lens of the imaging unit 103 as setting information related to shooting. The imaging control unit 11 drives and controls the imaging unit 103 so as to automatically adjust the angle of view and the like based on the setting information of the setting unit 14.

記録部106は、記録再生回路等を含み、記録媒体107が着脱可能に設けられている。記録媒体107は、例えばSDカードである。記録部106は、制御部101の制御に基づいて、記憶部102またはメモリ133等の画像データ23を含む画像ファイル24を、記録媒体107に記録する。記録部106は、制御部101の制御に基づいて、記録媒体107から画像ファイル24を読み出して記憶部102またはメモリ133等に格納する。ユーザは、記録媒体107を取り外して持ち運びや交換が可能である。なお、画像ファイル24には、画像データ23と共に音声データが含まれてもよい。   The recording unit 106 includes a recording / reproducing circuit and the like, and a recording medium 107 is detachably provided. The recording medium 107 is an SD card, for example. The recording unit 106 records the image file 24 including the image data 23 such as the storage unit 102 or the memory 133 on the recording medium 107 based on the control of the control unit 101. The recording unit 106 reads out the image file 24 from the recording medium 107 based on the control of the control unit 101 and stores it in the storage unit 102 or the memory 133. The user can remove the recording medium 107 and carry or replace it. The image file 24 may include audio data together with the image data 23.

通信インタフェース部108は、無線通信インタフェース部を含む。通信インタフェース部108は、制御部101の制御に基づいて、無線アクセスポイント等を介して通信網4に接続し、外部の装置との間で通信処理を行う。例えば、図1のように、撮像装置1は、通信網4を介してサーバ3または表示装置2または自機器以外の撮像装置1と通信し、自機器の画像ファイル24を送信する、あるいは外部の機器から画像ファイル24を受信する。その際、通信インタフェース部108は、画像ファイル24の通信データを転送する。通信インタフェース部108は、電話網通信機能、LAN通信機能、近距離通信機能等を備えていてもよい。   The communication interface unit 108 includes a wireless communication interface unit. The communication interface unit 108 is connected to the communication network 4 via a wireless access point or the like based on the control of the control unit 101, and performs communication processing with an external device. For example, as shown in FIG. 1, the imaging device 1 communicates with the server 3, the display device 2, or the imaging device 1 other than its own device via the communication network 4, and transmits an image file 24 of its own device, or an external device The image file 24 is received from the device. At that time, the communication interface unit 108 transfers the communication data of the image file 24. The communication interface unit 108 may have a telephone network communication function, a LAN communication function, a near field communication function, and the like.

撮影方向計測部111は、電子コンパス、ジャイロセンサ、加速度センサ等のセンサを含み、それらを用いて撮像装置1の撮影方向を計測し、撮影方向の情報を制御部101へ出力する。撮影方向計測部111は、撮影方向として、方位角及び仰角を計測する。また、撮影方向計測部111は、撮像装置1の姿勢の検出に基づいて、撮像時の画像の傾きを表す回転角を検出する。画像の回転角は、水平方向及び鉛直方向に対する、画像の矩形の横線及び縦線の成す角度で表わされる。   The shooting direction measurement unit 111 includes sensors such as an electronic compass, a gyro sensor, and an acceleration sensor, measures the shooting direction of the imaging apparatus 1 using them, and outputs information on the shooting direction to the control unit 101. The photographing direction measuring unit 111 measures an azimuth angle and an elevation angle as the photographing direction. Further, the photographing direction measuring unit 111 detects a rotation angle that represents the inclination of the image at the time of imaging based on the detection of the attitude of the imaging device 1. The rotation angle of the image is represented by an angle formed by the horizontal and vertical lines of the image with respect to the horizontal and vertical directions.

内部時計112は、現在日時を計測する。これにより、制御部101は、撮影日時を得ることができる。位置検出部113は、GPS受信部を含み、衛星からの信号を用いて、撮像装置1の位置を検出する。位置検出部113は、位置情報として、{緯度,経度,標高(海抜高度)}を検出する。標高は省略でもよい。センサ群114は、他のセンサ群であり、例えば近接センサや照度センサが挙げられる。マイク115は音声入力機器であり、スピーカ116は音声出力機器である。   The internal clock 112 measures the current date and time. Thereby, the control unit 101 can obtain the shooting date and time. The position detector 113 includes a GPS receiver, and detects the position of the imaging device 1 using a signal from a satellite. The position detection unit 113 detects {latitude, longitude, altitude (altitude above sea level)} as position information. The elevation may be omitted. The sensor group 114 is another sensor group, for example, a proximity sensor or an illuminance sensor. The microphone 115 is an audio input device, and the speaker 116 is an audio output device.

撮像制御部11は、撮像装置1の動作モードに応じて、撮像時に撮像部103等を制御して画像を撮像し、画像データ23を得る。撮像制御部11は、画像データ23を画像ファイル24として記憶部102等に格納する。撮像部103及び撮像制御部11は、広角画像及び狭角画像の両方の画像の撮像を可能とする機能を有する。撮像制御部11は、撮像部103の光学系に関するズーム制御を行う。ズーム制御は、電子ズームまたは光学ズームの制御である。撮像制御部11は、設定部14の画角関連情報等の設定情報に基づいて、撮像部103のレンズに関する電子ズーム倍率、焦点距離、画角等を把握及び調整する。   The imaging control unit 11 captures an image by controlling the imaging unit 103 and the like at the time of imaging according to the operation mode of the imaging device 1 to obtain image data 23. The imaging control unit 11 stores the image data 23 as an image file 24 in the storage unit 102 or the like. The imaging unit 103 and the imaging control unit 11 have a function that enables imaging of both wide-angle images and narrow-angle images. The imaging control unit 11 performs zoom control regarding the optical system of the imaging unit 103. The zoom control is electronic zoom or optical zoom control. The imaging control unit 11 grasps and adjusts the electronic zoom magnification, the focal length, the angle of view, and the like regarding the lens of the imaging unit 103 based on setting information such as field angle related information of the setting unit 14.

撮像部103において焦点距離等が異なる光学レンズに交換可能である場合、例えば、ユーザは、狭角画像を撮影する際には焦点距離が相対的に長い光学レンズに交換し、広角画像を撮影する際には焦点距離が相対的に短い光学レンズに交換する。ユーザが撮像部103のレンズを交換した場合、設定部14は、自動的にその交換を検出し、交換後のレンズの焦点距離等を検出してもよい。あるいは、交換後、ユーザが、設定部14に対して交換後のレンズの焦点距離等を入力設定してもよい。そして、撮像制御部11は、設定部14から更新後の設定情報を取得して焦点距離等を把握する。   When the imaging unit 103 can be replaced with an optical lens with a different focal length or the like, for example, when shooting a narrow-angle image, the user switches to an optical lens with a relatively long focal length and shoots a wide-angle image. In some cases, the lens is replaced with an optical lens having a relatively short focal length. When the user replaces the lens of the imaging unit 103, the setting unit 14 may automatically detect the replacement and detect the focal length of the lens after the replacement. Alternatively, after the replacement, the user may input and set the focal length of the lens after the replacement to the setting unit 14. Then, the imaging control unit 11 acquires the updated setting information from the setting unit 14 and grasps the focal distance and the like.

表示制御部12は、表示装置104の表示部41等を制御して、表示部41の表示画面に画像や情報を表示する。表示制御部12は、管理情報21や画像ファイル24に基づいて、表示画面に、フォルダ情報や画像を表示する。表示制御部12は、ユーザに対するグラフィカルユーザインタフェースとなる各種の画面を提供する。表示制御部12は、後述の表示モードに応じた画面の切り替えを制御する。表示制御部12は、メニュー画面や設定画面等も提供する。   The display control unit 12 controls the display unit 41 and the like of the display device 104 to display images and information on the display screen of the display unit 41. The display control unit 12 displays folder information and images on the display screen based on the management information 21 and the image file 24. The display control unit 12 provides various screens serving as a graphical user interface for the user. The display control unit 12 controls screen switching according to a display mode described later. The display control unit 12 also provides a menu screen, a setting screen, and the like.

関連付け部15は、撮像制御部11や表示制御部12と連携して、所定の関係を持つ複数の画像を関連付ける関連付け処理を行う。関連付け部15は、後述する関連付け方式に従い、撮像時または再生表示時等の所定のタイミング及び契機で、関連付け処理を行う。関連付け部15は、関連付け処理における第1処理として、記憶部102等の複数の画像データ23を対象として、関連付けのための判断を行う。この第1処理の判断では、後述する選択方式に従い、撮影場所等の条件に基づいて、関連付けの候補となる画像を選択する。関連付け部15は、第2処理として、候補となる複数の画像において、撮影方向及び画角の条件に基づいて、関連付ける第1画像及び第2画像を決定する。関連付け部15は、判断の結果、第1画像及び第2画像を関連付けるように、メタデータ22または管理情報21を作成する。   The associating unit 15 performs an associating process for associating a plurality of images having a predetermined relationship in cooperation with the imaging control unit 11 and the display control unit 12. The associating unit 15 performs the associating process according to an associating method, which will be described later, at a predetermined timing and trigger, such as during imaging or playback display. The associating unit 15 performs a determination for associating a plurality of image data 23 such as the storage unit 102 as a first process in the associating process. In the determination of the first process, an image that is a candidate for association is selected based on conditions such as a shooting location according to a selection method described later. As the second process, the associating unit 15 determines a first image and a second image to be associated with each other based on the shooting direction and the angle of view in the plurality of candidate images. As a result of the determination, the associating unit 15 creates the metadata 22 or the management information 21 so as to associate the first image and the second image.

表示制御部12は、画像の再生表示の際、関連付け部15の判断結果、または、関連付け済みである画像ファイル24のメタデータ22または管理情報21の参照確認に基づいて、所定の関係を持つ第1画像及び第2画像を特定し、それらの第1画像及び第2画像を含む複数の画像を、表示画面に関連付けた状態で表示する。   When the image is reproduced and displayed, the display control unit 12 has a predetermined relationship based on the determination result of the associating unit 15 or the reference confirmation of the metadata 22 or the management information 21 of the associated image file 24. One image and a second image are specified, and a plurality of images including the first image and the second image are displayed in a state associated with the display screen.

なお、撮像装置1の制御部101や信号処理部132等の各処理部や各機能のハードウェア構成としては、各処理部や各機能が個別のLSI等の回路で実装された形態でもよいし、1つの統合されたLSI等の回路で実装された形態でもよい。   Note that the hardware configuration of each processing unit and each function such as the control unit 101 and the signal processing unit 132 of the imaging apparatus 1 may be a form in which each processing unit and each function are implemented by a circuit such as an individual LSI. It may be implemented by a circuit such as one integrated LSI.

[表示装置]
図3は、表示装置2の構成を示す。表示装置2は、撮像装置1に対して主に異なる構成としては、撮像部103及び撮像に係わる処理部を備えない。表示装置2の構成要素のうち撮像装置1の構成要素と同様のものについては説明を省略する。表示装置2は、制御部201、記憶部202、表示部204、操作入力部205、記録部206、記録媒体207、通信インタフェース部208、センサ群214、マイク215、スピーカ216、等を備える。それらの各部は、バス等を介して相互に接続されており、制御部201の制御に基づいて高速に連携する。
[Display device]
FIG. 3 shows the configuration of the display device 2. The display device 2 does not include the imaging unit 103 and a processing unit related to imaging as a configuration that is mainly different from the imaging device 1. The description of the same components as those of the imaging device 1 among the components of the display device 2 is omitted. The display device 2 includes a control unit 201, a storage unit 202, a display unit 204, an operation input unit 205, a recording unit 206, a recording medium 207, a communication interface unit 208, a sensor group 214, a microphone 215, a speaker 216, and the like. These units are connected to each other via a bus or the like, and cooperate at high speed based on the control of the control unit 201.

制御部201は、表示装置2の全体を制御する。制御部201は、プロセッサやROMやRAM等の制御回路を含む。制御部201は、制御回路の処理により実現される処理部として、表示制御部212、関連付け部215を有する。制御部201は、操作入力部205を通じたユーザ入力操作に基づいて、表示部204の表示画面での表示を制御する。   The control unit 201 controls the entire display device 2. The control unit 201 includes a control circuit such as a processor, a ROM, and a RAM. The control unit 201 includes a display control unit 212 and an association unit 215 as processing units realized by processing of the control circuit. The control unit 201 controls display on the display screen of the display unit 204 based on a user input operation through the operation input unit 205.

記憶部202は、制御部201の制御に基づいて、複数の画像ファイル24、及び管理情報21を含む各種のデータや情報を記憶する。画像ファイル24及び管理情報21は、自機器で作成したものでもよいし、外部の機器から取得したものでもよい。   The storage unit 202 stores various data and information including the plurality of image files 24 and the management information 21 based on the control of the control unit 201. The image file 24 and the management information 21 may be created by the own device or acquired from an external device.

表示部204は、表示ドライバを含み、ユーザに対して表示画面を表示する。表示部204はタッチパネルとしてもよい。   The display unit 204 includes a display driver and displays a display screen for the user. The display unit 204 may be a touch panel.

操作入力部205は、ユーザによる入力操作を可能とする各種のハードウェアボタン等を含む。操作入力部205は、リモコン及びリモコン受光部を備えてもよい。ユーザは、操作入力部205を通じて、指示入力やユーザ設定が可能である。   The operation input unit 205 includes various hardware buttons that allow an input operation by the user. The operation input unit 205 may include a remote control and a remote control light receiving unit. The user can input an instruction and set a user through the operation input unit 205.

記録部206は、記録再生回路等を含み、記録媒体207が着脱可能に設けられている。記録部206は、制御部201の制御に基づいて、記憶部202またはメモリ等の画像データ23を含む画像ファイル24を、記録媒体207に記録する。記録部206は、制御部201の制御に基づいて、記録媒体207から画像ファイル24を読み出して記憶部202またはメモリ等に格納する。ユーザは、記録媒体207を取り外して持ち運びや交換が可能である。   The recording unit 206 includes a recording / reproducing circuit and the like, and a recording medium 207 is detachably provided. The recording unit 206 records the image file 24 including the image data 23 such as the storage unit 202 or the memory on the recording medium 207 based on the control of the control unit 201. The recording unit 206 reads the image file 24 from the recording medium 207 based on the control of the control unit 201 and stores it in the storage unit 202 or a memory. The user can remove the recording medium 207 and carry or replace it.

通信インタフェース部208は、制御部201の制御に基づいて、通信網4に接続し、外部の装置との間で通信処理を行う。例えば、図1のように、表示装置2は、通信網4を介してサーバ3または撮像装置1または自機器以外の表示装置2と通信し、自機器の画像ファイル24を送信する、あるいは外部の機器から画像ファイル24を受信する。その際、通信インタフェース部208は、画像ファイル24の通信データを転送する。   The communication interface unit 208 is connected to the communication network 4 based on the control of the control unit 201 and performs communication processing with an external device. For example, as shown in FIG. 1, the display device 2 communicates with the server 3, the imaging device 1, or the display device 2 other than its own device via the communication network 4, and transmits an image file 24 of its own device, or an external device The image file 24 is received from the device. At that time, the communication interface unit 208 transfers the communication data of the image file 24.

表示制御部212は、表示部204等を制御して、表示部204の表示画面に画像や情報を表示する。表示制御部212は、画像ファイル24や管理情報21に基づいて、表示部204の表示画面に、フォルダ情報や画像を再生表示する。表示制御部212は、ユーザに対するグラフィカルユーザインタフェースとなる各種の画面を提供する。表示制御部212は、表示モードに応じた画面の切り替えを制御する。   The display control unit 212 controls the display unit 204 and the like to display images and information on the display screen of the display unit 204. The display control unit 212 reproduces and displays folder information and images on the display screen of the display unit 204 based on the image file 24 and the management information 21. The display control unit 212 provides various screens serving as a graphical user interface for the user. The display control unit 212 controls screen switching according to the display mode.

関連付け部215は、表示制御部212と連携して、所定の関係を持つ複数の画像を関連付ける関連付け処理を行う。関連付け部215は、外部の機器から取得した画像ファイル24を対象に関連付け処理を行うこともできる。関連付け部215の関連付け処理は、関連付け部15の関連付け処理と同様である。関連付け部215は、判断の結果、第1画像及び第2画像を関連付ける場合、第1画像及び第2画像の画像ファイル24のメタデータ22、または管理情報21に、関連付け情報を記述する。   The associating unit 215 performs association processing for associating a plurality of images having a predetermined relationship in cooperation with the display control unit 212. The associating unit 215 can also perform associating processing on the image file 24 acquired from an external device. The association process of the association unit 215 is the same as the association process of the association unit 15. When associating the first image and the second image as a result of the determination, the associating unit 215 describes the association information in the metadata 22 or the management information 21 of the image file 24 of the first image and the second image.

表示制御部212は、画像の再生表示の際、関連付け部215の判断結果、または、関連付け済みである画像ファイル24のメタデータ22または管理情報21の参照確認に基づいて、所定の関係を持つ第1画像及び第2画像を特定し、それらの第1画像及び第2画像を含む複数の画像を、表示画面に関連付けた状態で表示する。   When the image is reproduced and displayed, the display control unit 212 has a predetermined relationship based on the determination result of the association unit 215 or the reference confirmation of the metadata 22 or the management information 21 of the associated image file 24. One image and a second image are specified, and a plurality of images including the first image and the second image are displayed in a state associated with the display screen.

以下、主に撮像装置1を主体として説明するが、撮像に係わる機能や動作以外については、表示装置2を主体として同様に実現できる。   Hereinafter, the imaging apparatus 1 will be mainly described. However, functions other than the functions and operations related to imaging can be realized in the same manner with the display apparatus 2 as the main body.

[撮像装置−外観]
図4は、撮像装置1の外観の構成例を示す。図4の左側には、撮像装置1の筐体400の背面から見た構成を示し、右側には筐体400の右側面から見た構成を示す。背面は表示部41の表示画面401が設けられた方の面とし、前面は撮像部103のレンズ402が設けられた方の面とする。
[Imaging device-appearance]
FIG. 4 shows an example of the external configuration of the imaging apparatus 1. The left side of FIG. 4 shows a configuration viewed from the back side of the casing 400 of the imaging apparatus 1, and the right side shows a configuration viewed from the right side of the casing 400. The rear surface is the surface on which the display screen 401 of the display unit 41 is provided, and the front surface is the surface on which the lens 402 of the imaging unit 103 is provided.

側面の構成において、筐体400の正面中心位置には、レンズ部32のレンズ402が配置されている。また、主要な筐体400に対して例えば上方に張り出す状態で電子ビューファインダ(EVF)403が設けられている。EVF403は表示装置104の1つである。   In the configuration of the side surface, the lens 402 of the lens unit 32 is disposed at the front center position of the housing 400. In addition, an electronic viewfinder (EVF) 403 is provided in a state of projecting upward with respect to the main housing 400, for example. The EVF 403 is one of the display devices 104.

背面の構成において、前述のタッチパネルに対応する矩形の表示画面401が配置されており、情報表示やタッチ入力操作が可能となっている。また、EVF403は、表示画面404及び近接センサ405を有する。EVF403は、撮影の際にレンズ及び撮像素子を介して入力されている信号に基づいて、被写体の画像を撮影モニタ画像として表示する。ユーザは、EVF403の撮影モニタ画像を確認しながら撮影が可能である。表示画面404には、絞り値等の情報を重ね合わせて表示してもよい。近接センサ405は、物体の近接を検出する。近接センサ405は、静電容量方式、光学方式等がある。例えば、制御部101は、近接センサ405を通じて近接の有無の検出により、ユーザによるEVF403の使用有無を判断する。制御部101は、その判断に応じて、表示画面401での表示と、EVF403の表示画面404での撮影モニタ画像の表示とを自動的に切り替える。なお、EVF403に限らず、光学ファインダを搭載する形態でもよい。また、表示画面401に撮影モニタ画像を表示するモードも設定可能である。   In the rear configuration, a rectangular display screen 401 corresponding to the touch panel described above is arranged, and information display and touch input operations are possible. The EVF 403 includes a display screen 404 and a proximity sensor 405. The EVF 403 displays an image of a subject as a photographic monitor image based on a signal input via a lens and an image sensor at the time of photographing. The user can shoot while confirming the shooting monitor image of the EVF 403. On the display screen 404, information such as an aperture value may be superimposed and displayed. The proximity sensor 405 detects the proximity of an object. The proximity sensor 405 includes a capacitance method, an optical method, and the like. For example, the control unit 101 determines whether the user uses the EVF 403 by detecting the presence / absence of proximity through the proximity sensor 405. The control unit 101 automatically switches between display on the display screen 401 and display of the captured monitor image on the display screen 404 of the EVF 403 according to the determination. In addition, not only EVF403 but the form which mounts an optical finder may be sufficient. In addition, a mode for displaying a photographic monitor image on the display screen 401 can be set.

筐体400には、操作入力部105として、モード設定ダイヤル431、シャッターボタン432、十字キー433、再生表示モードボタン434、電源ボタン435、等が設けられている。十字キー433には、上下左右ボタンや中心ボタンを含み、表示画面401内の所望の位置の情報の選択、決定やキャンセル等の入力に用いることができる。表示画面401では、所定の入力操作に基づいて、メニュー表示も可能である。   The casing 400 is provided with a mode setting dial 431, a shutter button 432, a cross key 433, a playback display mode button 434, a power button 435, and the like as the operation input unit 105. The cross key 433 includes up / down / left / right buttons and a center button, and can be used for input of selection, determination, and cancellation of information on a desired position in the display screen 401. On the display screen 401, a menu can be displayed based on a predetermined input operation.

モード設定ダイヤル431は、動作モードの設定に用いられる。シャッターボタン432は、撮影の際に押下される。再生表示モードボタン434は、表示画面401に再生表示する際に用いられ、表示モードの切り替えも可能である。電源ボタン435は、電源オン/オフ等に用いられる。ユーザは、表示画面401または表示画面404に撮影モニタ画像を表示して、所望の位置にタッチしてフォーカスを合わせる等、各種の入力操作が可能である。   The mode setting dial 431 is used for setting an operation mode. The shutter button 432 is pressed during shooting. The playback display mode button 434 is used when playback is displayed on the display screen 401, and the display mode can be switched. The power button 435 is used for power on / off and the like. The user can perform various input operations such as displaying a photographing monitor image on the display screen 401 or the display screen 404 and touching a desired position to adjust the focus.

[撮像装置−動作モード]
撮像装置1の動作モードとして、撮影モード、再生表示モード等を有する。撮影モードの動作概要については以下である。ユーザが電源ボタン435を押して電源オン状態にすると、通常撮影モードが起動される。制御部101は、通常撮影モードに応じて、撮像部103等を駆動制御する。通常撮影モードでは、画像として静止画や動画の撮影が可能である。撮影時、制御部101は、撮像部103から所定の周期で撮像信号を読み出し、インタフェース回路部131を経て、信号処理部132で所定の信号処理を施し、表示用の形式の映像信号に変換する。そして、制御部101は、その映像信号に基づいて、表示装置104のタッチパネルの表示画面401またはEVF403の表示画面404に、リアルタイムで撮影モニタ画像を表示する。ユーザは、表示画面401または表示画面404の撮影モニタ画像を確認しながら以下のように撮影を行う。
[Imaging device-operation mode]
The operation mode of the imaging apparatus 1 includes a shooting mode, a playback display mode, and the like. The outline of operation in the shooting mode is as follows. When the user presses the power button 435 to turn on the power, the normal shooting mode is activated. The control unit 101 drives and controls the imaging unit 103 and the like according to the normal shooting mode. In the normal shooting mode, still images and moving images can be shot as images. At the time of shooting, the control unit 101 reads out an imaging signal from the imaging unit 103 at a predetermined cycle, performs predetermined signal processing at the signal processing unit 132 via the interface circuit unit 131, and converts it into a video signal in a display format. . Based on the video signal, the control unit 101 displays the shooting monitor image on the display screen 401 of the touch panel of the display device 104 or the display screen 404 of the EVF 403 in real time. The user performs shooting as follows while confirming the shooting monitor image on the display screen 401 or the display screen 404.

ユーザは、操作入力部105を通じて設定部14に撮影条件として画角関連情報等を設定する。静止画を撮影する場合、ユーザは、シャッターボタン432を押す。撮像制御部11は、シャッターボタン432の押下を検出し、設定されている撮影条件に従って、絞り値やシャッター速度やフォーカス等を決定する。シャッターボタン432は、例えば半押し、全押しの状態がある。撮像制御部11は、半押し状態の時にフォーカス等を設定し、全押し状態の時に撮像を開始するように制御する。   The user sets angle-of-view related information and the like as shooting conditions in the setting unit 14 through the operation input unit 105. When shooting a still image, the user presses the shutter button 432. The imaging control unit 11 detects pressing of the shutter button 432, and determines an aperture value, a shutter speed, a focus, and the like according to the set shooting conditions. For example, the shutter button 432 is half pressed or fully pressed. The imaging control unit 11 performs control so as to set a focus or the like when in a half-pressed state and to start imaging when in a fully-pressed state.

撮像部103によって撮像された静止画の撮像信号は、信号処理部132及びメモリ133を用いて、静止画用の所定の信号処理が施される。その際の符号化方式としては例えばJPEGを適用するが、他の方式としてMPEGや高画質のRAW形式等を適用してもよい。符号化された静止画データに対応する画像ファイル24は、例えば記録部106で記録媒体107に記録される。   The still image pickup signal picked up by the image pickup unit 103 is subjected to predetermined signal processing for a still image using the signal processing unit 132 and the memory 133. For example, JPEG is applied as an encoding method at that time, but MPEG or a high-quality RAW format may be applied as another method. The image file 24 corresponding to the encoded still image data is recorded on the recording medium 107 by the recording unit 106, for example.

動画を撮影する場合、ユーザは、動画撮影ボタンを押下して動画撮影を開始し、動画撮影ボタンを再度押下して動画撮影を停止する。動画の撮像信号は、動画用の所定の方式の信号処理が施される。その方式としては、例えばH264やH265等のMPEG、その他の形式が適用される。符号化された動画データは、同様に例えば記録媒体107に記録される。   When shooting a moving image, the user starts moving image shooting by pressing the moving image shooting button, and stops moving image shooting by pressing the moving image shooting button again. A moving image pickup signal is subjected to signal processing of a predetermined method for moving images. As the system, for example, MPEG such as H264 and H265, and other formats are applied. The encoded moving image data is similarly recorded on the recording medium 107, for example.

再生表示モードの動作概要については以下である。制御部101は、再生表示モードボタン434により再生表示モードに設定されたことを検出すると、記録部106の記録媒体107から画像ファイル24を読み出して記憶部102に格納する。表示制御部12は、画像データ23から、信号処理部132を用いて、復号化処理により画像の元データを復元し、表示画面に画像等を表示するための映像データを生成する。表示制御部12は、映像データに基づいて表示装置104を制御し、表示画面に画像等を表示する。   The outline of the operation in the playback display mode is as follows. When the control unit 101 detects that the playback display mode is set by the playback display mode button 434, the control unit 101 reads the image file 24 from the recording medium 107 of the recording unit 106 and stores it in the storage unit 102. The display control unit 12 uses the signal processing unit 132 to restore the original image data from the image data 23, and generates video data for displaying an image or the like on the display screen. The display control unit 12 controls the display device 104 based on the video data and displays an image or the like on the display screen.

[管理情報及び画像ファイル]
図5は、記憶部102の管理情報21及び画像ファイル24の構成例を示す。管理情報21は、画像ファイル管理情報と、関連付け管理情報とを含む。画像ファイル管理情報は、公知のファイルシステムにより管理する情報であり、例えばファイル名、更新日時、種類、サイズ等の情報を含む。関連付け管理情報は、複数の画像の関係を管理するために作成される特有の情報である。関連付け管理情報は、例えば、種別識別子、参照識別子、設定文字列を含む。
[Management information and image files]
FIG. 5 shows a configuration example of the management information 21 and the image file 24 in the storage unit 102. The management information 21 includes image file management information and association management information. The image file management information is information managed by a known file system, and includes, for example, information such as a file name, update date / time, type, and size. The association management information is unique information created to manage the relationship between a plurality of images. The association management information includes, for example, a type identifier, a reference identifier, and a setting character string.

種別識別子は、画像ファイル24毎に、その画像の種別を識別するための識別子である。画像の種別は、例えば、広角画像と狭角画像との2つがある。参照識別子は、複数の画像間での関連付けの参照のための識別子である。参照識別子は、例えば、第1画像とそれに関連付けられる第2画像とがある場合に、第1画像に持つ参照識別子として、参照先の第2画像の画像ファイル24のファイル名である。また、第2画像に持つ参照識別子として、参照元の第1画像の画像ファイル24のファイル名である。設定文字列は、後述するが、ユーザ操作に基づいてユーザが任意に設定可能である文字列である。ユーザは、画像の編集及び管理作業の際に、画像に対して例えば撮影場所を表す文字列を設定可能である。なお、関連付け管理情報内に設定文字列を設けているが、メタデータ22内に設定文字列を設けてもよい。   The type identifier is an identifier for identifying the type of the image for each image file 24. There are two types of images, for example, wide-angle images and narrow-angle images. The reference identifier is an identifier for referring to association between a plurality of images. The reference identifier is, for example, the file name of the image file 24 of the second image to be referenced as a reference identifier for the first image when there is a first image and a second image associated therewith. Further, the file name of the image file 24 of the first image as a reference source is used as a reference identifier for the second image. Although described later, the setting character string is a character string that can be arbitrarily set by the user based on a user operation. The user can set, for example, a character string representing a shooting location for an image when editing and managing the image. Although the setting character string is provided in the association management information, the setting character string may be provided in the metadata 22.

画像ファイル24は、メタデータ22と、画像データ23とを含む。画像ファイル24のヘッダ部にメタデータ22を有し、ボディ部に画像データ23を有する。画像データ23は、静止画または動画のデータであり、記録用の場合には符号化データである。メタデータ22は、画像データ23に関する各種の属性値を含む情報を管理するデータであり、言い換えると、付属情報、属性情報である。メタデータ22は、情報項目として、撮影日時、撮影場所、機種、解像度、撮影方向、画角、画角関連情報、回転角、サムネイルを含む。   The image file 24 includes metadata 22 and image data 23. The header portion of the image file 24 has metadata 22 and the body portion has image data 23. The image data 23 is still image data or moving image data, and is encoded data in the case of recording. The metadata 22 is data for managing information including various attribute values related to the image data 23. In other words, the metadata 22 is attached information and attribute information. The metadata 22 includes information items such as shooting date and time, shooting location, model, resolution, shooting direction, field angle, field angle related information, rotation angle, and thumbnail.

撮影日時は例えば年月日時分秒である。撮影場所は、位置情報または設定文字列を含む。位置情報は、位置検出部113により検出された位置座標{緯度,経度,標高}を含む。設定文字列は、ユーザにより設定された撮影場所を表す文字列である。機種は、撮像装置1の種類を一意に表す情報である。機種は、レンズ種類等を含んでもよい。解像度は、画像データ23の画像の解像度を表す。   The shooting date / time is, for example, year / month / day / hour / minute / second. The shooting location includes position information or a setting character string. The position information includes the position coordinates {latitude, longitude, altitude} detected by the position detection unit 113. The setting character string is a character string that represents the shooting location set by the user. The model is information that uniquely represents the type of the imaging apparatus 1. The model may include a lens type or the like. The resolution represents the resolution of the image data 23.

撮影方向は、方位角(θとする)、仰角(φとする)を含む情報である。画角は、水平画角(Ahとする)、垂直画角(Avとする)を含む情報である。画角関連情報は、電子ズーム倍率(nとする)、焦点距離(fとする)、撮像素子の撮像面の寸法、等の情報である。寸法は{水平サイズsw,垂直サイズsh,対角サイズsd}とする。なお、メタデータ22において、画角項目と画角関連情報項目との一方のみを設ける形式としてもよい。   The shooting direction is information including an azimuth angle (referred to as θ) and an elevation angle (referred to as φ). The angle of view is information including a horizontal angle of view (Ah) and a vertical angle of view (Av). The angle-of-view related information is information such as an electronic zoom magnification (n), a focal length (f), and the size of the imaging surface of the image sensor. The dimensions are {horizontal size sw, vertical size sh, diagonal size sd}. In the metadata 22, only one of the view angle item and the view angle related information item may be provided.

回転角は、言い換えると撮像時のレンズの光軸を軸とした回転であり、撮像時の画像の回転を表す角度である。例えば、図4のように水平面に対して筐体400の横方向が一致する状態を基準とした角度や方向である。   In other words, the rotation angle is a rotation about the optical axis of the lens at the time of imaging, and is an angle representing the rotation of the image at the time of imaging. For example, the angle and direction are based on the state in which the horizontal direction of the casing 400 matches the horizontal plane as shown in FIG.

サムネイルは、画像の元データに基づいた縮小画像である。サムネイルは、画像の解像度や種別等に応じて構成され、符号化有りまたは符号化無しで記録される。サムネイルが予め作成及び保持される場合には、再生表示の際に高速にサムネイルが表示可能である。サムネイルは、異なる解像度等で複数の種類のサムネイルが作成及び保持されてもよい。サムネイルは、省略でもよいし、メタデータ22とは別に管理されてもよい。表示制御部12は、再生表示の都度にサムネイルを作成して表示してもよい。   The thumbnail is a reduced image based on the original data of the image. The thumbnail is configured according to the resolution, type, and the like of the image, and is recorded with or without encoding. When thumbnails are created and held in advance, thumbnails can be displayed at high speed during playback display. A plurality of types of thumbnails may be created and held at different resolutions. The thumbnail may be omitted or may be managed separately from the metadata 22. The display control unit 12 may create and display thumbnails for each reproduction display.

なお、メタデータ22は、所定の形式、例えばExif(Exchangeable image file format)に基づいて拡張した形式であるが、これに限定しない。Exifは、デジタルカメラの写真用の形式である。Exifでは、機種や撮影条件情報を、メタデータとして画像データに埋め込む。画像表示や画像編集のソフトウェアは、このメタデータを参照でき、また、ユーザはメタデータの情報を編集可能である。従来のExifの画像ファイルのメタデータには、画角等の情報は含まれていない。実施の形態1では、拡張した形式として、メタデータ22の中に、特有の情報項目として、画角、画角関連情報等の項目を設けている。   The metadata 22 is in a format expanded based on a predetermined format, for example, Exif (Exchangeable image file format), but is not limited thereto. Exif is a format for digital camera photos. In Exif, model and shooting condition information is embedded in image data as metadata. Image display and image editing software can refer to this metadata, and the user can edit metadata information. The metadata of the conventional Exif image file does not include information such as the angle of view. In the first embodiment, items such as angle of view and angle-of-view related information are provided as specific information items in the metadata 22 as an expanded format.

メタデータ22は、画像ファイル24のヘッダ部として作成及び管理されているが、画像データファイルとは別に、メタデータファイルとして作成及び管理されてもよい。また、メタデータ22を用いて特有の情報を管理する形態に限らず、管理情報21の中で同様の情報をまとめて管理する形態としてもよい。なお、動画の場合、メタデータ22等の各種情報については、例えば所定の時間間隔の画像フレーム毎に記述されてもよい。その時間間隔は一定でもよいし、画角等に変化があった時のみとしてもよい。   The metadata 22 is created and managed as a header part of the image file 24, but may be created and managed as a metadata file separately from the image data file. Further, the management information 21 is not limited to managing specific information using the metadata 22, and similar information may be managed in the management information 21. In the case of a moving image, various information such as the metadata 22 may be described for each image frame at a predetermined time interval, for example. The time interval may be constant or only when the angle of view is changed.

[複数の画像の関係の管理]
図6は、複数の画像の関係に関する関連付け管理について示す。制御部101は、例えば、図5の管理情報21のうちの関連付け管理情報において、図6のような関係を管理する。図6で、第1画像は、種別が広角であり、第2画像は、種別が狭角である。本例では、第1画像として、第1広角画像、第2広角画像等を有し、第2画像として、第1狭角画像、第2狭角画像等を有する。例えば、第1広角画像には、第1狭角画像、第2狭角画像、第3狭角画像等の複数の第2画像が関連付けられている。関連付け情報としては、例えば、第1広角画像の画像ファイルに持たせる参照識別子として、第1狭角画像等の画像ファイル名を有する。また、第1狭角画像の画像ファイルに持たせる参照識別子として、第1広角画像の画像ファイル名を有する。これにより、関係を持つ画像間で相互に参照可能である。
[Managing relationships between multiple images]
FIG. 6 shows association management related to the relationship between a plurality of images. For example, the control unit 101 manages the relationship shown in FIG. 6 in the association management information in the management information 21 shown in FIG. In FIG. 6, the first image has a wide angle type, and the second image has a narrow angle type. In this example, the first image includes a first wide-angle image, a second wide-angle image, and the like, and the second image includes a first narrow-angle image, a second narrow-angle image, and the like. For example, a plurality of second images such as a first narrow-angle image, a second narrow-angle image, and a third narrow-angle image are associated with the first wide-angle image. As the association information, for example, an image file name such as the first narrow-angle image is provided as a reference identifier to be given to the image file of the first wide-angle image. Further, the image file name of the first wide-angle image is used as a reference identifier to be given to the image file of the first narrow-angle image. Thereby, it is possible to refer to each other between related images.

なお、表示画面に、1つの表示モードとして、図6のような複数の画像の関係を表す情報を表示してもよい。その際、図6のように第1画像と第2画像とをツリー構造で表示してもよいし、図示しないが第1画像のノードの周りに第2画像のノードをリンク線で接続した状態で表示してもよい。   Note that information representing the relationship between a plurality of images as shown in FIG. 6 may be displayed on the display screen as one display mode. At this time, as shown in FIG. 6, the first image and the second image may be displayed in a tree structure, and although not shown, the nodes of the second image are connected by link lines around the nodes of the first image. May be displayed.

実施の形態1では、画像の種別として、画角に関する広角と狭角とを区別する。撮像装置1は、閾値に基づいて画角を絶対値で区別する。画角に関する閾値として第1画角が設定されている。制御部101は、撮像した画像の画角が第1画角以上である場合には、種別として広角画像とし、第1画角未満である場合には狭角画像とする。これに限らず、画角の種別は、3種類以上を設けてもよい。   In the first embodiment, a wide angle and a narrow angle related to the angle of view are distinguished as image types. The imaging apparatus 1 distinguishes the angle of view by an absolute value based on the threshold value. The first angle of view is set as the threshold for the angle of view. The control unit 101 selects a wide-angle image as the type when the angle of view of the captured image is equal to or larger than the first angle of view, and a narrow-angle image when the angle of view is less than the first angle of view. Not limited to this, three or more types of angle of view may be provided.

[画像の撮影方向及び画角]
図7は、実施の形態1の撮像装置1で具体例として用いる複数の画像である広角画像及び狭角画像に関する撮影方向や画角の関係について、概念を簡易的に示す説明図である。図7では、特に方位角及び水平画角について示す。
[Image direction and angle]
FIG. 7 is an explanatory diagram simply showing the concept of the relationship between the shooting direction and the angle of view for a wide-angle image and a narrow-angle image that are a plurality of images used as specific examples in the imaging apparatus 1 of the first embodiment. FIG. 7 particularly shows the azimuth angle and the horizontal angle of view.

第1画像である広角画像6a、第2画像である第1狭角画像6b、及び第2狭角画像6cを有する。これらの画像は、ユーザにより、撮像装置1を用いて、同じ場所である撮影地点である点P0で撮影された画像とする。各画像は、広角画像6a、第1狭角画像6b、第2狭角画像6cの順で近い日時に撮影されたものとする。各画像の撮影日時は、例えば、広角画像6aが2016年1月5日13時11分30秒、第1狭角画像6bが同日の13時14分40秒、第2狭角画像6cが同日の13時15分50秒とする。   It has a wide-angle image 6a that is a first image, a first narrow-angle image 6b that is a second image, and a second narrow-angle image 6c. These images are images taken by the user using the imaging device 1 at the point P0 that is the same location. It is assumed that the images were taken at close dates in the order of the wide-angle image 6a, the first narrow-angle image 6b, and the second narrow-angle image 6c. The shooting date and time of each image is, for example, 13:11:30 on Jan. 5, 2016 for the wide-angle image 6a, 13:14:40 for the first narrow-angle image 6b, and the same date for the second narrow-angle image 6c. 13:15:50.

広角画像6aは、方位角θ1で示す撮影方向63a、水平画角Ah1に対応する撮影範囲601を有する。第1狭角画像6bは、方位角θ2で示す撮影方向63b、水平画角Ah2に対応する撮影範囲602を有する。第2狭角画像6cは、方位角θ3で示す撮影方向63c、水平画角Ah3に対応する撮影範囲603を有する。図7では、画像の撮影方向のうち、方位角θで規定される撮影方向を、一点鎖線で示している。   The wide-angle image 6a has a shooting range 631 corresponding to the shooting direction 63a indicated by the azimuth angle θ1 and the horizontal angle of view Ah1. The first narrow-angle image 6b has an imaging range 602 corresponding to the imaging direction 63b indicated by the azimuth angle θ2 and the horizontal field angle Ah2. The second narrow-angle image 6c has a shooting range 63c corresponding to the shooting direction 63c indicated by the azimuth angle θ3 and the horizontal field angle Ah3. In FIG. 7, among the image capturing directions, the image capturing direction defined by the azimuth angle θ is indicated by a one-dot chain line.

点P0は、特に撮像部103のレンズ402の中心点を示す。球面600は、全天球の球面を示し、無限遠点を捨象した仮想的な球面である。球面600は、特に、方位角θ及びX−Y平面に対応する円周の部分を示す。Nは北向き、Eは東向き、Sは南向き、Wは西向きを示す。X方向が東向き、Y方向が北向きに対応しており、Z方向は天頂方向に対応している。方位角θは、Nを基準の0°として、時計回りを正方向として、Eが+90°、Sが+180°、Wが+270°(−90°)として示す。   The point P0 particularly indicates the center point of the lens 402 of the imaging unit 103. A spherical surface 600 represents a spherical surface of an omnidirectional sphere, and is a virtual spherical surface obtained by discarding points at infinity. The spherical surface 600 particularly indicates a circumferential portion corresponding to the azimuth angle θ and the XY plane. N indicates north, E indicates east, S indicates south, and W indicates west. The X direction corresponds to the east, the Y direction corresponds to the north, and the Z direction corresponds to the zenith direction. The azimuth angle θ is indicated as 0 ° with N as the reference, clockwise as the positive direction, E as + 90 °, S as + 180 °, and W as + 270 ° (−90 °).

球面600上の円弧で示す撮影範囲601は、広角画像6aのうちの水平画角Ah1に対応する部分を示し、点P0から見た球面600に投影される領域に相当する。本例では、球面600上、広角画像6aに写される風景として、山611や空、塔612やビル613等がある場合を簡易的に示す。第1狭角画像6bは塔612を撮影した例であり、第2狭角画像6cはビル613を撮影した例である。   An imaging range 601 indicated by an arc on the spherical surface 600 indicates a portion corresponding to the horizontal field angle Ah1 in the wide-angle image 6a, and corresponds to a region projected on the spherical surface 600 viewed from the point P0. In this example, a case where there are a mountain 611, a sky, a tower 612, a building 613, and the like as a landscape captured on the spherical surface 600 on the wide-angle image 6a is simply shown. The first narrow-angle image 6b is an example in which the tower 612 is photographed, and the second narrow-angle image 6c is an example in which the building 613 is photographed.

各画像の方位角θ、仰角φ、水平画角Ah、垂直画角Avの値の具体例は以下である。広角画像6aの方位角θ1、仰角φ1、水平画角Ah1、垂直画角Av1とし、第1狭角画像6bの方位角θ2、仰角φ2、水平画角Ah2、垂直画角Av2とし、第2狭角画像6cの方位角θ3、仰角φ3、水平画角Ah3、垂直画角Av3とする。   Specific examples of values of azimuth angle θ, elevation angle φ, horizontal field angle Ah, and vertical field angle Av of each image are as follows. The wide angle image 6a has an azimuth angle θ1, an elevation angle φ1, a horizontal field angle Ah1, and a vertical field angle Av1, and the first narrow angle image 6b has an azimuth angle θ2, an elevation angle φ2, a horizontal field angle Ah2, and a vertical field angle Av2. It is assumed that the azimuth angle θ3, the elevation angle φ3, the horizontal field angle Ah3, and the vertical field angle Av3 of the angle image 6c.

θ1=+10°, φ1=0°, Ah1=120°, Av1=80°
θ2=+45°, φ2=0°, Ah2=21°, Av2=14°
θ3=−20°, φ3=−10°, Ah3=21°, Av3=14°
図8は、図7と同様に、特に仰角φ及び垂直画角Avについて示す説明図である。図8では、別の狭角画像6dの例で示す。図8では、X方向が水平方向、Z方向が鉛直方向に対応している。Z方向における正方向が頭、天頂方向に対応し、負方向が足元の方向に対応する。仰角φは、水平方向を基準として0°とし、Z方向の天頂方向では+90°、足元の方向では−90°とする。狭角画像6dにおける垂直画角Av4に対応する撮影範囲801を示す。狭角画像6dの撮影方向63dは、仰角φ4に対応する部分を示す。
θ1 = + 10 °, φ1 = 0 °, Ah1 = 120 °, Av1 = 80 °
θ2 = + 45 °, φ2 = 0 °, Ah2 = 21 °, Av2 = 14 °
θ3 = −20 °, φ3 = −10 °, Ah3 = 21 °, Av3 = 14 °
FIG. 8 is an explanatory view showing the elevation angle φ and the vertical angle of view Av, as in FIG. FIG. 8 shows an example of another narrow-angle image 6d. In FIG. 8, the X direction corresponds to the horizontal direction, and the Z direction corresponds to the vertical direction. The positive direction in the Z direction corresponds to the head and zenith direction, and the negative direction corresponds to the foot direction. The elevation angle φ is 0 ° with respect to the horizontal direction, + 90 ° in the zenith direction in the Z direction, and −90 ° in the foot direction. An imaging range 801 corresponding to the vertical field angle Av4 in the narrow-angle image 6d is shown. A shooting direction 63d of the narrow-angle image 6d indicates a portion corresponding to the elevation angle φ4.

[画角及び画角関連情報]
図9は、画角及び画角関連情報について簡易的に示す。また、図9では、設定部14に設定情報として画角及び画角関連情報が記憶される場合を示す。画像の画角として{水平画角Ah,垂直画角Av}を示す。また、画像における水平画角Ahに対応する水平サイズSh、及び垂直画角Avに対応する垂直サイズSvを示す。水平サイズShは、画像フレーム内水平方向における右端から左端までのサイズである。垂直サイズSvは、画像フレーム内垂直方向における上端から下端までのサイズである。なお、実施の形態1では、水平画角Ah及び垂直画角Avを用いるが、これに限らず、対角画角Adを含め、少なくとも1つの画角を用いればよい。
[Field angle and field angle related information]
FIG. 9 simply shows the view angle and the view angle related information. FIG. 9 shows a case where the setting section 14 stores the field angle and field angle related information as setting information. As the field angle of the image, {horizontal field angle Ah, vertical field angle Av} are shown. Further, a horizontal size Sh corresponding to the horizontal angle of view Ah in the image and a vertical size Sv corresponding to the vertical angle of view Av are shown. The horizontal size Sh is a size from the right end to the left end in the horizontal direction in the image frame. The vertical size Sv is a size from the upper end to the lower end in the vertical direction in the image frame. In the first embodiment, the horizontal field angle Ah and the vertical field angle Av are used. However, the present invention is not limited to this, and at least one field angle including the diagonal field angle Ad may be used.

画角関連情報として、光学ズームを考慮したレンズの焦点距離fと、電子ズーム倍率nと、撮像素子の撮像面の寸法{水平サイズsw,垂直サイズsh,対角サイズsd}とを用いる。寸法の代わりに、機種を用いてもよい。焦点距離fは、35mm換算焦点距離である。   As the angle-of-view information, the focal length f of the lens in consideration of the optical zoom, the electronic zoom magnification n, and the dimensions of the imaging surface of the imaging device {horizontal size sw, vertical size sh, diagonal size sd} are used. A model may be used instead of the dimensions. The focal length f is a 35 mm equivalent focal length.

画角は、画角関連情報を用いて、関係式に基づいて計算して得ることも可能である。制御部101は、画角を計算するのに十分な画角関連情報がある場合、画角関連情報から画角を計算して求めてもよい。画角は、例えば撮像素子の寸法と、焦点距離fと、電子ズーム倍率nとを用いて計算可能である。   The angle of view can also be obtained by calculation based on the relational expression using the angle-of-view related information. When there is sufficient angle-of-view related information for calculating the angle of view, the control unit 101 may calculate the angle of view from the angle-of-view related information. The angle of view can be calculated using, for example, the dimensions of the image sensor, the focal length f, and the electronic zoom magnification n.

画角関連情報から画角を計算する場合には以下である。撮像制御部11は、画像に関する画角関連情報を参照する。撮像制御部11は、画角関連情報を、前述の設定部14の設定情報、あるいはメタデータ22または管理情報21に記述されている情報から把握可能である。画角{水平画角Ah,垂直画角Av,対角画角Ad}は、例えば以下の式に基づいて計算可能である。   When calculating the angle of view from the angle-of-view related information, it is as follows. The imaging control unit 11 refers to the angle-of-view related information regarding the image. The imaging control unit 11 can grasp the angle-of-view related information from the setting information of the setting unit 14 described above or information described in the metadata 22 or the management information 21. The angle of view {horizontal angle of view Ah, vertical angle of view Av, diagonal angle of view Ad} can be calculated based on the following equation, for example.

Ah=2×arctan(sw/(2×n×f)) ・・・(1)
Av=2×arctan(sh/(2×n×f)) ・・・(2)
Ad=2×arctan(sd/(2×n×f)) ・・・(3)
なお、焦点距離fについては、通常、35mm換算で表される。これは、撮像素子の寸法が35mm判{sw=35mm,sh=24mm}である場合に上記式を満足させることに相当する。
Ah = 2 × arctan (sw / (2 × n × f)) (1)
Av = 2 × arctan (sh / (2 × n × f)) (2)
Ad = 2 × arctan (sd / (2 × n × f)) (3)
The focal length f is usually expressed in terms of 35 mm. This corresponds to satisfying the above formula when the dimensions of the image sensor are 35 mm size {sw = 35 mm, sh = 24 mm}.

例えば、電子ズーム倍率n、焦点距離f、寸法{水平サイズsw,垂直サイズsh}が与えられると、水平画角Ah1及び垂直画角Av1が決まる。制御部101は、その画角の情報を、メタデータ22の画角項目、または管理情報21内に記述する。また、画角関連情報から画角が計算可能であるため、撮像装置1は、メタデータ22等の1つとして、上記画角を保存する代わりに、上記画角関連情報を保存してもよい。また、機種から画角関連情報の撮像素子の寸法等が把握可能であるため、撮像装置1は、メタデータ22等の1つとして、撮像素子の寸法等の代わりに、機種を保存してもよい。例えば、撮像装置1は、予め、機種と画角関連情報との対応関係を表す情報を保持している。あるいは、撮像装置1は、通信により、外部の装置から、その対応関係を表す情報を参照可能である。撮像装置1は、その情報に基づいて、機種から画角関連情報を得ることができる。   For example, given the electronic zoom magnification n, the focal length f, and the dimensions {horizontal size sw, vertical size sh}, the horizontal field angle Ah1 and the vertical field angle Av1 are determined. The control unit 101 describes the field angle information in the field angle item of the metadata 22 or the management information 21. In addition, since the angle of view can be calculated from the angle-of-view related information, the imaging apparatus 1 may store the angle-of-view related information instead of saving the angle of view as one of the metadata 22 and the like. . In addition, since the dimensions of the image sensor of the angle-of-view related information can be grasped from the model, the image capturing apparatus 1 may store the model instead of the dimensions of the image sensor as one of the metadata 22 and the like. Good. For example, the imaging apparatus 1 holds information representing a correspondence relationship between the model and the angle-of-view related information in advance. Alternatively, the imaging device 1 can refer to information representing the correspondence relationship from an external device through communication. The imaging device 1 can obtain angle-of-view related information from the model based on the information.

[画角等の保存]
撮像装置1は、画像を撮像した際、撮影日時、撮影方向{方位角θ,仰角φ}、画角{水平画角Ah,垂直画角Av}等を含む情報を作成する。撮像制御部11は、内部時計112により撮影日時を得る。撮像制御部11は、位置検出部113により位置情報{緯度,経度,標高}を得る。撮像制御部11は、撮影方向計測部111により撮影方向{方位角θ及び仰角φ}を得る。撮像制御部11は、設定部14の設定情報または計算により、画角{水平画角Ah及び垂直画角Av}を得る。そして、撮像装置1は、それらの情報を、図5のメタデータ22の対応する項目に記述し、画像データ23と共に、画像ファイル24として作成する。
[Save angle of view]
When the image pickup apparatus 1 picks up an image, the image pickup apparatus 1 creates information including a shooting date and time, a shooting direction {azimuth angle θ, elevation angle φ}, a field angle {horizontal field angle Ah, vertical field angle Av}, and the like. The imaging control unit 11 obtains the shooting date and time using the internal clock 112. The imaging control unit 11 obtains position information {latitude, longitude, altitude} by the position detection unit 113. The imaging control unit 11 obtains the imaging direction {azimuth angle θ and elevation angle φ} by the imaging direction measurement unit 111. The imaging control unit 11 obtains an angle of view {horizontal angle of view Ah and vertical angle of view Av} by setting information or calculation of the setting unit 14. Then, the imaging apparatus 1 describes the information in corresponding items of the metadata 22 in FIG. 5 and creates the image file 24 together with the image data 23.

[表示画面(1)−表示モード]
図10は、表示部41の表示画面401の表示モード及びその遷移について示す。撮像装置1は、再生表示モードである表示モードとして、少なくとも、第1表示モード、第2表示モード、第3表示モードを有する。撮像装置1は、例えば、最初は第1表示モードで表示し、ユーザ操作に基づいて、表示モードを切り替える。
[Display screen (1)-Display mode]
FIG. 10 shows a display mode of the display screen 401 of the display unit 41 and its transition. The imaging apparatus 1 has at least a first display mode, a second display mode, and a third display mode as display modes that are playback display modes. For example, the imaging apparatus 1 initially displays in the first display mode, and switches the display mode based on a user operation.

第1表示モードは、全画像の情報に関する一覧表示を行うモードであり、フォルダ画面を表示するモードである。第1表示モードの第1画面では、フォルダの複数の画像の情報を、例えばファイル名や日時等をキーとした順序で一覧表示する。本例では、複数の画像として画像G1,G2,G3等の情報を、上から順に並べて表示している。各画像の行では、画像のアイコンまたはサムネイル、ファイル名、撮影日時、種別、その他の情報を表示している。その他の情報としては、撮影方向{方位角θ,仰角φ}や画角{水平画角Ah,垂直画角Av}等の属性値を表示してもよい。ユーザは、第1画面に表示しきれない情報については、スクロール等させて表示可能である。第1画面は、このようなフォルダ画面に限らず、公知の各種の方式が可能である。例えば、複数の画像のサムネイルを2次元状に並列配置して表示する画面等が可能である。第1画面で、ユーザにより所望の第1画像、例えば画像G1(広角画像6aに対応する)が選択操作される。その場合、撮像装置1は、選択された第1画像に関連付けられる第2画像が存在する場合、第2表示モードの第2画面へ遷移させる。   The first display mode is a mode for displaying a list of information on all images, and is a mode for displaying a folder screen. On the first screen in the first display mode, information on a plurality of images in the folder is displayed in a list in the order of, for example, file names and date / time. In this example, information such as images G1, G2, and G3 is displayed as a plurality of images in order from the top. In each image row, an image icon or thumbnail, file name, shooting date, type, and other information are displayed. As other information, attribute values such as the shooting direction {azimuth angle θ, elevation angle φ} and field angle {horizontal field angle Ah, vertical field angle Av} may be displayed. The user can scroll and display information that cannot be displayed on the first screen. The first screen is not limited to such a folder screen, and various known methods are possible. For example, a screen that displays thumbnails of a plurality of images in a two-dimensional parallel arrangement is possible. On the first screen, the user selects and operates a desired first image, for example, the image G1 (corresponding to the wide-angle image 6a). In this case, when there is a second image associated with the selected first image, the imaging device 1 makes a transition to the second screen in the second display mode.

第2表示モードは、広角画像と狭角画像とを含む複数の画像における関連付け表示を行う特有のモードである。第2表示モードの第2画面では、選択された第1画像901である広角画像6aを全体的に表示し、第1画像901の上に、所定の関係を持つ1つ以上の第2画像である狭角画像を、所定の図形902の状態で重ね合わせて関連付けた状態で表示する。例えば、図形902は、第1狭角画像6bを表す図形であり、図形903は、第2狭角画像6cを表す図形である。なお、破線枠は、説明上わかりやすくするため、対応する狭角画像がある領域を示している。第2画面では、ユーザ操作に従い、スクロールや拡大縮小等の動作によって表示状態を変えることもできる。   The second display mode is a unique mode for performing association display in a plurality of images including a wide-angle image and a narrow-angle image. On the second screen in the second display mode, the wide-angle image 6a that is the selected first image 901 is displayed as a whole, and one or more second images having a predetermined relationship are displayed on the first image 901. A narrow-angle image is displayed in a state of being overlapped and related in a state of a predetermined graphic 902. For example, the graphic 902 is a graphic representing the first narrow-angle image 6b, and the graphic 903 is a graphic representing the second narrow-angle image 6c. Note that the broken line frame indicates a region where the corresponding narrow-angle image is present for easy understanding. On the second screen, the display state can be changed by an operation such as scrolling or enlarging / reducing according to the user operation.

第2画面でユーザにより所望の第2画像の図形が選択操作される。選択操作は、例えば図形のタップである。その場合、撮像装置1は、選択された第2画像を表示する第3表示モードの第3画面へ遷移させる。また、第2画面で、第1表示モードへ戻るための所定の操作が行われた場合、撮像装置1は、第1表示モードの第1画面へ戻す。所定の操作は、例えば、第1表示モード指定入力、あるいは戻るボタン押下、等である。   On the second screen, the user selects and selects a desired second image figure. The selection operation is, for example, a figure tap. In that case, the imaging apparatus 1 makes a transition to the third screen in the third display mode for displaying the selected second image. When a predetermined operation for returning to the first display mode is performed on the second screen, the imaging device 1 returns to the first screen in the first display mode. The predetermined operation is, for example, a first display mode designation input or a return button press.

第3表示モードは、指定された単一の画像、例えば狭角画像に関する詳細表示を行うモードである。本例では、第3画面で単一の第2画像904である狭角画像を表示する例を示しているが、単一の広角画像の表示も同様に可能である。第3表示モードの第3画面で、ユーザ操作に従い、スクロールや拡大縮小等により表示状態を変えることも可能である。第3画面で、ユーザにより所定の操作、例えば第2表示モード指定入力や、第2画像904の領域のタップがされた場合、撮像装置1は、第2表示モードの第2画面に戻す。   The third display mode is a mode for performing detailed display regarding a specified single image, for example, a narrow-angle image. In this example, a narrow-angle image that is a single second image 904 is displayed on the third screen, but a single wide-angle image can be displayed in the same manner. On the third screen in the third display mode, it is also possible to change the display state by scrolling, enlarging / reducing, or the like according to a user operation. When the user performs a predetermined operation on the third screen, for example, a second display mode designation input or a tap on the area of the second image 904, the imaging device 1 returns to the second screen in the second display mode.

また、ユーザが広角画像のみを閲覧したい場合、撮像装置1は、所定の操作に応じて、表示画面に第1画像のみを詳細表示する。例えば、撮像装置1は、第2画面での所定の操作に応じて、第2画像の図形を非表示状態にし、これにより第1画像のみを表示する。撮像装置1は、その状態からの所定の操作に応じて、第2画像の図形を再び表示状態に戻す。あるいは、撮像装置1は、第2画面での所定の操作、例えば第1画像の上の第2画像の図形が無い領域のタップ等に応じて、第1画像を詳細表示させる第3画面へ遷移させる。   Further, when the user wants to browse only the wide-angle image, the imaging device 1 displays only the first image in detail on the display screen in accordance with a predetermined operation. For example, in response to a predetermined operation on the second screen, the imaging apparatus 1 hides the graphic of the second image, thereby displaying only the first image. The imaging device 1 returns the graphic of the second image to the display state again in response to a predetermined operation from that state. Alternatively, the imaging apparatus 1 transitions to a third screen that displays the first image in detail in response to a predetermined operation on the second screen, for example, a tap on a region where there is no figure of the second image on the first image. Let

[表示画面(2)−第2表示モード]
図11は、第2表示モードの第2画面の例を示す。本例は、図7等の具体例と対応しており、広角画像6aを選択して表示する場合を示す。広角画像6aに対し、第1狭角画像6b及び第2狭角画像6cが関連付けられている場合を示す。表示制御部12は、画像ファイル24及び管理情報21に基づいて、第2画面を表示する。第2画面では、第1画像である広角画像6aを全体に表示し、その第1画像の上に、各々の第2画像である狭角画像を表す図形を重ね合わせて表示する。
[Display screen (2)-second display mode]
FIG. 11 shows an example of the second screen in the second display mode. This example corresponds to the specific example of FIG. 7 and the like, and shows a case where the wide-angle image 6a is selected and displayed. A case where the first narrow-angle image 6b and the second narrow-angle image 6c are associated with the wide-angle image 6a is shown. The display control unit 12 displays the second screen based on the image file 24 and the management information 21. On the second screen, the wide-angle image 6a that is the first image is displayed as a whole, and a graphic representing each narrow-angle image that is the second image is superimposed on the first image.

図11では、表示画面401内における方位角に対応した画面内水平方向をx方向、仰角に対応する画面内垂直方向をy方向として示している。表示画面401のx方向の横幅をW、y方向の縦幅をHとする。   In FIG. 11, the horizontal direction in the screen corresponding to the azimuth angle in the display screen 401 is shown as the x direction, and the vertical direction in the screen corresponding to the elevation angle is shown as the y direction. The horizontal width of the display screen 401 in the x direction is W, and the vertical width in the y direction is H.

点p1は、表示画面401の中央の点を示す。最初、スクロールや拡大縮小等の動作がされていない状態では、広角画像6aの全体が表示画面401内に表示されている。最初、点p1に、広角画像6aの撮影方向63aに対応する中心点の位置座標(Xa,Ya)が配置されるように表示される。位置座標(Xa,Ya)は、(方位角,仰角)で表して(θ1=+10°,φ1=0°)に対応する点である。   A point p <b> 1 indicates a central point on the display screen 401. Initially, the entire wide-angle image 6a is displayed in the display screen 401 in a state in which operations such as scrolling and enlargement / reduction are not performed. Initially, the position coordinate (Xa, Ya) of the center point corresponding to the shooting direction 63a of the wide-angle image 6a is displayed at the point p1. The position coordinates (Xa, Ya) are points corresponding to (θ1 = + 10 °, φ1 = 0 °) in terms of (azimuth angle, elevation angle).

広角画像6aの水平画角Ah1は120°であり、垂直画角Av1は80°である。広角画像6aは、表示画面401の横幅W及び縦幅Hに対応させて、水平画角Ah1に対応する水平サイズSh1、及び垂直画角Av1に対応する垂直サイズSv1で表示されている。右端の位置Xarは方位角で70°に対応し、左端の位置Xalは方位角で−50°に対応し、上端の位置Yatは仰角で40°に対応し、下端の位置Yabは仰角で−40°に対応する。   The horizontal angle of view Ah1 of the wide-angle image 6a is 120 °, and the vertical angle of view Av1 is 80 °. The wide-angle image 6a is displayed in a horizontal size Sh1 corresponding to the horizontal field angle Ah1 and a vertical size Sv1 corresponding to the vertical field angle Av1 in correspondence with the horizontal width W and the vertical width H of the display screen 401. The right end position Xar corresponds to an azimuth angle of 70 °, the left end position Xal corresponds to an azimuth angle of −50 °, the upper end position Yat corresponds to an elevation angle of 40 °, and the lower end position Yab corresponds to an elevation angle − Corresponds to 40 °.

広角画像6aの上に、狭角画像を表す図形であるマークが重ね合わされて表示されている。本例では、マークとして、第1狭角画像6bを表すマーク8b、第2狭角画像6cを表すマーク8cを示す。マークは、特に吹き出し形状の場合を示す。マークは、ユーザ設定に基づいて可変である。中心点p2は、第1狭角画像6bを表すマーク8bを表示する位置を示す。中心点p3は、第2狭角画像6cを表すマーク8cを表示する位置を示す。中心点p2の位置(Xb,Yb)は、(方位角,仰角)で(+45°,0°)に対応し、中心点p3の位置(Xc,Yc)は、(−20°,−10°)に対応する。   A mark, which is a graphic representing a narrow-angle image, is superimposed on the wide-angle image 6a. In this example, a mark 8b representing the first narrow-angle image 6b and a mark 8c representing the second narrow-angle image 6c are shown as marks. The mark particularly indicates a balloon shape. The mark is variable based on user settings. The center point p2 indicates a position where the mark 8b representing the first narrow-angle image 6b is displayed. The center point p3 indicates the position where the mark 8c representing the second narrow-angle image 6c is displayed. The position (Xb, Yb) of the center point p2 corresponds to (+ 45 °, 0 °) in (azimuth angle, elevation angle), and the position (Xc, Yc) of the center point p3 is (−20 °, −10 °). ).

表示制御部12は、第1画像に関連付けられる第2画像の撮影方向及び画角等の情報に基づいて、第1画像上の第2画像のマークの表示位置を決めて表示する。   The display control unit 12 determines and displays the display position of the mark of the second image on the first image based on information such as the shooting direction and the angle of view of the second image associated with the first image.

第1狭角画像6bの中心点p2の位置(Xb,Yb)は、広角歪み及び歪曲収差を無視した場合、広角画像6aの点p1からの方位角の差(35°)と仰角の差(0°)とを用いて、下記の式で得られる。   The position (Xb, Yb) of the center point p2 of the first narrow-angle image 6b is the difference between the azimuth angle (35 °) and the elevation angle difference (35 °) from the point p1 of the wide-angle image 6a when the wide-angle distortion and distortion are ignored. 0 °) is obtained by the following equation.

Xb=(W/2)×tan35°/tan60° ・・・(4)
Yb=(H/2)×tan0°/tan40°=0 ・・・(5)
第2狭角画像6cの中心点p3の位置(Xc,Yc)は、広角歪み及び歪曲収差を無視した場合、広角画像6aの点p1からの方位角の差(−30°)と仰角の差(−10°)とを用いて、下記の式で得られる。
Xb = (W / 2) × tan 35 ° / tan 60 ° (4)
Yb = (H / 2) × tan 0 ° / tan 40 ° = 0 (5)
The position (Xc, Yc) of the center point p3 of the second narrow-angle image 6c is the difference between the azimuth angle (−30 °) from the point p1 of the wide-angle image 6a and the elevation angle when the wide-angle distortion and distortion are ignored. (−10 °) and the following formula.

Xc=(W/2)×tan(−30°)/tan60° ・・・(6)
Yc=(H/2)×tan(−10°)/tan40° ・・・(7)
ユーザは、表示画面401で所望のマークを選択操作、例えばタップする。これにより、そのマークに対応する第2画像を選択し、第3表示モードの第3画面で表示させることができる。なお、図11の例は、表示画面401の大きさに対して、最初に広角画像6aの全体を表示できる場合を示す。表示制御部12は、表示画面401に広角画像の全体が表示できない場合、広角画像の一部、即ち画角の一部の状態で表示してもよいし、縮小して全体が収まる状態として表示してもよい。また、表示画面401内には、撮影方向や画角等の値を閲覧補助情報として表示するようにしてもよいし、スクロールや拡大縮小等の動作のためのアイコン等を表示してもよい。
Xc = (W / 2) × tan (−30 °) / tan 60 ° (6)
Yc = (H / 2) × tan (−10 °) / tan40 ° (7)
The user selects, for example, taps a desired mark on the display screen 401. Thereby, the second image corresponding to the mark can be selected and displayed on the third screen in the third display mode. Note that the example of FIG. 11 shows a case where the entire wide-angle image 6a can be initially displayed with respect to the size of the display screen 401. If the entire wide-angle image cannot be displayed on the display screen 401, the display control unit 12 may display a part of the wide-angle image, that is, a part of the angle of view, or display it as a state in which the entire image is reduced to fit. May be. In the display screen 401, values such as the shooting direction and the angle of view may be displayed as auxiliary browsing information, or icons for operations such as scrolling and enlarging / reducing may be displayed.

[表示画面(3)−第3表示モード]
図12は、第3表示モードの第3画面の表示例として、第1狭角画像6bのマーク8bを選択した場合の第1狭角画像6bの表示を示す。最初、表示画面401内の全体に第1狭角画像6bが表示される。表示画面401の中央の点p1には、第1狭角画像6b及びマーク8bの中心点p2が配置された状態で表示される。中心点p2の位置(Xb,Yb)は、撮影方向63bである{θ2=45°,φ2=0°}に対応している。
[Display screen (3)-Third display mode]
FIG. 12 shows a display of the first narrow-angle image 6b when the mark 8b of the first narrow-angle image 6b is selected as a display example of the third screen in the third display mode. First, the first narrow-angle image 6 b is displayed on the entire display screen 401. The center point p1 of the display screen 401 is displayed in a state where the center point p2 of the first narrow-angle image 6b and the mark 8b is arranged. The position (Xb, Yb) of the center point p2 corresponds to {θ2 = 45 °, φ2 = 0 °} which is the shooting direction 63b.

第1狭角画像6bの水平画角Ah2が21°、垂直画角Av2が14°である。表示画面401における、右端の位置Xbrは方位角で+55.5°、左端の位置Xblは方位角で+34.5°に対応し、上端の位置Ybtは仰角で+7°、下端の位置Ybbは仰角で−7°に対応する。   The first narrow-angle image 6b has a horizontal field angle Ah2 of 21 ° and a vertical field angle Av2 of 14 °. In the display screen 401, the right end position Xbr corresponds to + 55.5 ° in azimuth, the left end position Xbl corresponds to + 34.5 ° in azimuth, the upper end position Ybt corresponds to an elevation angle of + 7 °, and the lower end position Ybb corresponds to an elevation angle. Corresponds to −7 °.

図13は、第3表示モードの第3画面の例として、第2狭角画像6cのマーク8cを選択した場合の第2狭角画像6cの表示を示す。最初、表示画面401内の全体に第2狭角画像6cが表示される。表示画面401の中央の点p1には、第2狭角画像6c及びマーク8cの中心点p3が配置された状態で表示される。中心点p3の位置(Xc,Yc)は、撮影方向63cである{θ3=−20°,φ3=−10°}に対応している。   FIG. 13 shows a display of the second narrow-angle image 6c when the mark 8c of the second narrow-angle image 6c is selected as an example of the third screen in the third display mode. First, the second narrow-angle image 6 c is displayed on the entire display screen 401. The center point p1 of the display screen 401 is displayed with the second narrow-angle image 6c and the center point p3 of the mark 8c being arranged. The position (Xc, Yc) of the center point p3 corresponds to {θ3 = −20 °, φ3 = −10 °} which is the shooting direction 63c.

第2狭角画像6cの水平画角Ah3が21°、垂直画角Av3が14°である。表示画面401における、右端の位置Xcrは方位角で−9.5°、左端の位置Xclは方位角で−30.5°に対応し、上端の位置Yctは仰角で−3°、下端の位置Ycbは仰角で−17°に対応する。   The horizontal field angle Ah3 of the second narrow-angle image 6c is 21 °, and the vertical field angle Av3 is 14 °. In the display screen 401, the right end position Xcr corresponds to −9.5 ° in azimuth, the left end position Xcl corresponds to −30.5 ° in azimuth, the upper end position Yct corresponds to −3 ° in elevation, and the lower end position. Ycb corresponds to −17 ° in elevation.

なお、第2表示モードから第3表示モードへの遷移に限らず可能である。第1表示モードから所定の操作により第2表示モードを経由せずに直接的に第3表示モードに遷移させる動作モードも可能であり、ユーザ設定等に応じて動作モードを選択可能である。   Note that this is not limited to the transition from the second display mode to the third display mode. An operation mode in which the first display mode is changed directly to the third display mode by a predetermined operation without passing through the second display mode is also possible, and the operation mode can be selected according to user settings and the like.

[関連付け方式]
関連付け方式として、関連付けを行うタイミング等に関して、第1方式、第2方式を有する。第1方式は、撮像時に関連付けを行う方式であり、第2方式は、再生表示時に関連付けを行う方式である。実施の形態1では、撮像装置1は、第1方式を用い、表示装置2は、第2方式を用いる。
Association method
As the association method, there are a first method and a second method with respect to timing of associating. The first method is a method for performing association at the time of imaging, and the second method is a method for performing association at the time of reproduction display. In the first embodiment, the imaging device 1 uses the first method, and the display device 2 uses the second method.

第1方式では、撮像装置1は、画像を撮像した直後に、関連付け部15を用いて関連付け処理を行い、その結果、関連付け情報を、メタデータ22または管理情報21に記述する。撮像装置1は、その画像を再生表示する際には、メタデータ22または管理情報21の関連付け情報の参照から、複数の画像の関係を把握でき、表示画面に第2表示モードで表示する。   In the first method, the imaging device 1 performs association processing using the association unit 15 immediately after capturing an image, and as a result, the association information is described in the metadata 22 or the management information 21. When reproducing and displaying the image, the imaging apparatus 1 can grasp the relationship between the plurality of images from the reference to the association information of the metadata 22 or the management information 21 and displays the relationship on the display screen in the second display mode.

第2方式では、表示装置2は、画像ファイル24に基づいて表示画面に再生表示する際に、関連付け部215を用いて関連付け処理を行い、その結果、表示画面に第2表示モードで表示する。   In the second method, when the display device 2 reproduces and displays on the display screen based on the image file 24, the display device 2 performs an association process using the association unit 215, and as a result, displays on the display screen in the second display mode.

第2方式で、表示装置2は、再生表示の都度に関連付け処理を行うことにより、メタデータ22や管理情報21に関連付け情報を記述することを省略してもよい。あるいは、第2方式で、表示装置2は、ある画像の再生表示の初回に関連付け処理を行って、メタデータ22や管理情報21に関連付け情報を記述し、その後、その画像の2回目以降の再生表示の際には、関連付け情報を参照して関連付け処理を省略するようにしてもよい。   In the second method, the display device 2 may omit the description of the association information in the metadata 22 or the management information 21 by performing the association process for each reproduction display. Alternatively, in the second method, the display device 2 performs association processing at the first reproduction / display of an image, describes the association information in the metadata 22 and the management information 21, and then reproduces the image for the second and subsequent times. At the time of display, the association process may be omitted with reference to the association information.

なお、他の実施の形態の撮像装置1では、第2方式を採用してもよい。いずれの関連付け方式を採用するかについては、実装上固定である形態としてもよいし、ユーザ設定に応じて関連付け方式を選択及び設定可能である形態としてもよい。   Note that the second method may be employed in the imaging apparatus 1 according to another embodiment. Which of the association methods is adopted may be fixed in terms of mounting, or may be selected and set in accordance with user settings.

[処理フロー(1)]
図14及び図15は、実施の形態1の撮像装置1及び表示装置2の処理フローを示す。図14は、撮像装置1における画像の撮像時の制御処理のフローを示す。図14はステップS101〜S106を有する。画像の撮像毎に同様の処理の繰り返しである。以下、ステップの順に説明する。
[Processing flow (1)]
14 and 15 show a processing flow of the imaging device 1 and the display device 2 of the first embodiment. FIG. 14 shows a flow of control processing when an image is picked up by the image pickup apparatus 1. FIG. 14 includes steps S101 to S106. The same processing is repeated every time an image is captured. Hereinafter, it demonstrates in order of a step.

(S101) 制御部101は、ユーザ操作に基づいて、設定部14に対し画角等を設定する。撮像制御部11は、設定部14の設定情報に基づいて、画角等を把握する。   (S101) The control unit 101 sets an angle of view and the like for the setting unit 14 based on a user operation. The imaging control unit 11 grasps the angle of view and the like based on the setting information of the setting unit 14.

(S102) ユーザ操作に基づいて、撮像制御部11は、撮像部103を制御して画像を撮像し、画像データ23を得て記憶部102に格納する。撮像制御部11は、画角または画角関連情報を、画像ファイル24のメタデータ22、または管理情報21に記述する。   (S102) Based on the user operation, the imaging control unit 11 controls the imaging unit 103 to capture an image, obtains image data 23, and stores the image data 23 in the storage unit 102. The imaging control unit 11 describes the angle of view or the angle-of-view related information in the metadata 22 or the management information 21 of the image file 24.

(S103) 撮像時に関連付けを行う第1方式か再生表示時に関連付けを行う第2方式かで分岐を行う。第1方式の場合にはS104へ、第2方式の場合にはS106へ進む。即ち、実施の形態1の撮像装置1では第1方式を採用するためS104へ進み、他の実施の形態の撮像装置1で第2方式を採用する場合にはS106へ進む。   (S103) Branching is performed according to the first method in which association is performed during imaging or the second method in which association is performed during playback display. In the case of the first method, the process proceeds to S104, and in the case of the second method, the process proceeds to S106. That is, the imaging apparatus 1 of the first embodiment proceeds to S104 in order to employ the first method, and proceeds to S106 when the second system is employed in the imaging apparatus 1 of the other embodiments.

(S104) 関連付け部15は、所定の関連付け処理を行う。これにより、第1画像及び第2画像を含む複数の画像を関連付ける。   (S104) The associating unit 15 performs a predetermined associating process. Thus, a plurality of images including the first image and the second image are associated.

(S105) 関連付け部15は、関連付け処理の結果、関連付け情報を作成し、画像ファイル24のメタデータ22、または管理情報21に記述する。撮像制御部11は、画像ファイル24を記憶部102に格納し、記録部106の記録媒体107に記録させる。   (S105) The associating unit 15 creates association information as a result of the associating process, and describes it in the metadata 22 of the image file 24 or the management information 21. The imaging control unit 11 stores the image file 24 in the storage unit 102 and records it in the recording medium 107 of the recording unit 106.

(S106) 撮像制御部11は、この時点では関連付けを行わないので、関連付け情報を含まないメタデータ22や管理情報21を作成する。制御部101は、画像ファイル24を記憶部102に格納し、記録部106の記録媒体107に記録させる。   (S106) Since the imaging control unit 11 does not perform association at this time, the imaging control unit 11 creates metadata 22 and management information 21 that do not include association information. The control unit 101 stores the image file 24 in the storage unit 102 and records it on the recording medium 107 of the recording unit 106.

[処理フロー(2)]
図15は、撮像装置1または表示装置2における、画像の再生表示時の制御処理のフローを示す。図15の制御は、図10のように表示モードを遷移させる制御に対応する。図15はステップS201〜S210を有する。以下、ステップの順に説明する。以下、撮像装置1が主体である場合で説明するが、表示装置2が主体である場合も同様である。
[Processing flow (2)]
FIG. 15 shows a flow of control processing at the time of reproducing and displaying an image in the imaging device 1 or the display device 2. The control in FIG. 15 corresponds to the control for changing the display mode as shown in FIG. FIG. 15 includes steps S201 to S210. Hereinafter, it demonstrates in order of a step. Hereinafter, the case where the imaging device 1 is the main body will be described, but the same applies to the case where the display device 2 is the main body.

(S201) 制御部101は、ユーザ操作に基づいて、表示制御部12により、表示装置104の表示部41の表示画面401に、図10のように第1表示モードの第1画面を表示する。表示制御部12は、ユーザ入力操作に応じて、第1画面内の画像の選択等を受け付ける。   (S201) Based on the user operation, the control unit 101 causes the display control unit 12 to display the first screen in the first display mode on the display screen 401 of the display unit 41 of the display device 104 as shown in FIG. The display control unit 12 accepts selection of an image in the first screen in response to a user input operation.

(S202) 表示制御部12は、第1表示モードの第1画面で選択された画像が第1画像である広角画像か、第2画像である狭角画像であるかによって分岐を行う。第1画像である場合にはS203へ、第2画像である場合にはS209へ進む。   (S202) The display control unit 12 branches depending on whether the image selected on the first screen in the first display mode is a wide-angle image that is the first image or a narrow-angle image that is the second image. If it is the first image, the process proceeds to S203, and if it is the second image, the process proceeds to S209.

(S203) 表示制御部12は、第1方式か第2方式かによって分岐を行う。第2方式の場合にはS204へ、第1方式の場合にはS206へ進む。即ち、実施の形態1の撮像装置1の場合には第1方式であるためS206へ進み、表示装置2の場合には第2方式であるためS204へ進む。   (S203) The display control unit 12 performs branching according to the first method or the second method. In the case of the second method, the process proceeds to S204, and in the case of the first method, the process proceeds to S206. That is, in the case of the imaging apparatus 1 of Embodiment 1, since it is a 1st system, it progresses to S206, and in the case of the display apparatus 2, since it is a 2nd system, it progresses to S204.

(S204) 表示制御部12は、再生表示の直前に、関連付け部15を用いて、複数の画像の関連付け処理を行う。   (S204) The display control unit 12 performs a process of associating a plurality of images using the associating unit 15 immediately before reproduction display.

(S205) 表示制御部12は、S204の結果、第1画像に関連付けられる第2画像の画像データ23を読み出す。   (S205) As a result of S204, the display control unit 12 reads the image data 23 of the second image associated with the first image.

(S206) 第1方式の場合、既に関連付け処理が行われている。表示制御部12は、第1画像の画像ファイル24のメタデータ22または管理情報21における、関連付け情報を参照して、関連付けを確認する。表示制御部12は、第1画像に関連付けられる第2画像の画像データ23を読み出す。   (S206) In the case of the first method, association processing has already been performed. The display control unit 12 confirms the association with reference to the association information in the metadata 22 or the management information 21 of the image file 24 of the first image. The display control unit 12 reads the image data 23 of the second image associated with the first image.

(S207) 表示制御部12は、S205またはS206の結果の画像データ23を用いて、表示画面に第2表示モードで表示する。即ち、表示制御部12は、図11の第2画面のように、第1画像上に第2画像の図形を重ね合わせて関連付けた状態で表示する。表示制御部12は、ユーザ入力操作に応じて、第2画面内の第2画像の図形の選択等を受け付ける。ユーザは、例えば、第2画像を閲覧したい場合にはマークをタップし、第1画面に戻りたい場合には第1画像の領域をタップする。   (S207) The display control unit 12 displays the image data 23 as a result of S205 or S206 on the display screen in the second display mode. That is, the display control unit 12 displays the second image on the first image in a state of being associated with the first image, as in the second screen of FIG. The display control unit 12 accepts selection of a graphic of the second image in the second screen in accordance with a user input operation. For example, when the user wants to view the second image, the user taps the mark, and when he wants to return to the first screen, the user taps the area of the first image.

(S208) 表示制御部12は、第2表示モードの第2画面で選択された画像が第2画像を表すマークであるかによって分岐を行う。第2画像を表すマークである場合にはS209へ進む。他の操作、例えば、第1画像の領域の操作である場合、戻る動作に対応し、その場合にはS201へ戻る。   (S208) The display control unit 12 branches depending on whether the image selected on the second screen in the second display mode is a mark representing the second image. If it is a mark representing the second image, the process proceeds to S209. In the case of another operation, for example, an operation on the area of the first image, this corresponds to a return operation, and in this case, the process returns to S201.

(S209) 表示制御部12は、S208で選択されたマークに対応する第2画像の画像データ23を用いて、表示画面に第3表示モードで、図12等の第3画面のように、第2画像を詳細表示する。表示制御部12は、ユーザ入力操作に応じて、第3画面内での戻る動作等を受け付ける。ユーザは、例えば第2画面に戻りたい場合、第2画像の領域をタップする。   (S209) The display control unit 12 uses the image data 23 of the second image corresponding to the mark selected in S208, in the third display mode on the display screen, as in the third screen in FIG. Two images are displayed in detail. The display control unit 12 receives a return operation or the like in the third screen in response to a user input operation. For example, when the user wants to return to the second screen, the user taps the area of the second image.

(S210) 表示制御部12は、第3表示モードの第3画面で、戻る動作に対応する入力操作が有る場合には、A1で示すようにS207へ戻り、無い場合には、S209で第3表示モードの表示を継続する。なお、第3表示モードから、所定の入力操作に応じて、第1表示モードの第1画面へ戻るようにしてもよい。   (S210) If there is an input operation corresponding to the return operation on the third screen in the third display mode, the display control unit 12 returns to S207 as indicated by A1, and if there is no input operation, the display control unit 12 Continue to display the display mode. In addition, you may make it return to the 1st screen of 1st display mode from 3rd display mode according to predetermined | prescribed input operation.

[関連付け処理(1)]
関連付け部15は、複数の画像の関連付け処理を行う。関連付け処理は、第1処理、第2処理を含む。第1処理は、所定の選択方式の選択条件に基づいて、関連付けの候補となる画像を選択する処理である。所定の選択方式として、以下に示す第1選択方式、第2選択方式、第3選択方式がある。実施の形態1では、第1方式を用いる。変形例では、第2選択方式または第3選択方式を用いる。なお、いずれの選択方式を採用するかについては、実装上固定の形態でもよいし、ユーザ設定により可変に選択できる形態としてもよい。
[Association process (1)]
The associating unit 15 associates a plurality of images. The association process includes a first process and a second process. The first process is a process for selecting an image as a candidate for association based on a selection condition of a predetermined selection method. As the predetermined selection method, there are a first selection method, a second selection method, and a third selection method described below. In the first embodiment, the first method is used. In the modification, the second selection method or the third selection method is used. Note that which selection method is adopted may be a fixed form in terms of mounting or a form that can be variably selected by user settings.

[第1選択方式−撮影場所]
図16は、第1選択方式について示す説明図である。第1選択方式は、選択条件として、撮影場所に関する条件を用いる。第1選択方式では、撮影場所が概略的に同じであると判断される画像を候補として選択する。第1選択方式では、撮影場所の判断のために、位置検出部113による位置情報{緯度,経度,標高}を用いる。関連付け部15は、関連付けの際、例えば撮像時にメタデータ22の撮影場所項目に記述されている位置情報{緯度,経度}を参照する。{緯度,経度}を{LA,LO}で表す。
[First selection method-shooting location]
FIG. 16 is an explanatory diagram showing the first selection method. The first selection method uses a condition related to the shooting location as a selection condition. In the first selection method, images that are determined to have roughly the same shooting location are selected as candidates. In the first selection method, position information {latitude, longitude, altitude} by the position detection unit 113 is used to determine the shooting location. When associating, the associating unit 15 refers to the position information {latitude, longitude} described in the shooting location item of the metadata 22 at the time of imaging, for example. {Latitude, Longitude} is represented by {LA, LO}.

図16のように、関連付け部15は、第1画像である広角画像を基準として、空間、例えばX−Y平面において、第1画像の撮影場所を表す位置1601を中心点としてとる。位置1601は{LA1,LO1}で表される。位置範囲1600は、条件の閾値に相当し、位置1601を中心点とした、所定の半径距離による円領域を示す。なお、位置範囲1600を規定する半径距離は、設計上の固定の設定値でもよいし、ユーザ設定で可変できる設定値としてもよい。   As shown in FIG. 16, the associating unit 15 takes a position 1601 representing the shooting location of the first image in the space, for example, the XY plane, with the wide-angle image as the first image as a reference. The position 1601 is represented by {LA1, LO1}. A position range 1600 corresponds to a threshold value of a condition, and indicates a circular area having a predetermined radial distance with the position 1601 as a central point. The radial distance that defines the position range 1600 may be a fixed set value in design or a set value that can be varied by user setting.

関連付け部15は、第1画像の位置1601に対し、第2画像であるそれぞれの狭角画像の位置を比較する。本例では、広角画像の周りに、第1狭角画像の位置1602{LA2,LO2}、第2狭角画像の位置1603{LA3,LO3}、第3狭角画像の位置1604{LA4,LO4}がある場合を示す。関連付け部15は、第1画像の位置1601に対し、位置範囲1600内に含まれる画像を探す。本例では、位置範囲1600内に、第1狭角画像の位置1602、及び第2狭角画像の位置1603が含まれており、第3狭角画像の位置1604は含まれていない。   The associating unit 15 compares the position of each narrow-angle image that is the second image with the position 1601 of the first image. In this example, a first narrow-angle image position 1602 {LA2, LO2}, a second narrow-angle image position 1603 {LA3, LO3}, and a third narrow-angle image position 1604 {LA4, LO4 around the wide-angle image. } Is shown. The associating unit 15 searches for an image included in the position range 1600 with respect to the position 1601 of the first image. In this example, the position range 1600 includes the position 1602 of the first narrow-angle image and the position 1603 of the second narrow-angle image, and does not include the position 1604 of the third narrow-angle image.

関連付け部15は、位置範囲1600内に位置が含まれている第2画像を、第1画像と概略的に同じ撮影場所で撮像された画像であると判断し、関連付けの候補として選択する。同じ撮影場所の例としては、ユーザが、ある展望台において、手すりに沿って円周を周回しながら360°の各方向を撮影した場合が挙げられる。   The associating unit 15 determines that the second image whose position is included in the position range 1600 is an image captured at the same photographing location as the first image, and selects it as a candidate for association. As an example of the same photographing location, there is a case where a user photographs each direction of 360 ° while circling a circle along a handrail at a certain observation deck.

[第2選択方式−撮影日時]
図17は、第2選択方式について示す説明図である。第2選択方式は、選択条件として、撮影日時に関する条件を用いる。第2選択方式では、撮影日時が概略的に同じであると判断される画像を候補として選択する。関連付け部15は、関連付けの際、例えばメタデータ22の撮影日時項目に記述されている撮影日時(年月日時分秒)を参照する。
[Second selection method-shooting date and time]
FIG. 17 is an explanatory diagram showing the second selection method. The second selection method uses a condition related to the shooting date and time as a selection condition. In the second selection method, images that are determined to have substantially the same shooting date and time are selected as candidates. In association, the associating unit 15 refers to, for example, the shooting date (year / month / day / hour / minute / second) described in the shooting date / time item of the metadata 22.

関連付け部15は、撮影日時の時系列において、第1画像である広角画像を基準として、第1画像の撮影日時を表す時点t1をとる。本例では、時点t1は、日時DT3であるとする。日時範囲1700は、条件の閾値に相当し、時点t1を中心点としてその前後を含む、所定の時間による範囲を示す。なお、日時範囲1700を規定する時間は、設計上の固定の設定値でもよいし、ユーザ設定で可変できる設定値でもよい。日時範囲1700は、例えば1日(24時間)、1時間、5分等、設定可能である。   The associating unit 15 takes a time point t1 representing the shooting date and time of the first image with reference to the wide-angle image that is the first image in the time series of shooting date and time. In this example, it is assumed that the time point t1 is the date and time DT3. The date / time range 1700 corresponds to a threshold value of the condition, and indicates a range by a predetermined time including the time point t1 as a central point and before and after. Note that the time for defining the date and time range 1700 may be a fixed set value in design or a set value that can be varied by user setting. The date and time range 1700 can be set, for example, 1 day (24 hours), 1 hour, 5 minutes, or the like.

関連付け部15は、第1画像の撮影日時の時点t1に対し、所定の日時範囲1700内に含まれる第2画像を検索する。関連付け部15は、第1画像の撮影日時の時点t1に対し、第2画像であるそれぞれの狭角画像の撮影日時を比較する。本例では、時点t1の付近に、第1狭角画像の撮影日時の時点t2、第2狭角画像の時点t3、第3狭角画像の時点t4がある場合を示す。本例では、日時範囲1700内に、第1狭角画像の時点t2、及び第2狭角画像の時点t3が含まれており、第3狭角画像の時点t4は含まれていない。制御部101は、日時範囲1700内に時点が含まれている第2画像を、第1画像と概略的に同じ撮影日時に撮像された画像であると判断し、関連付けの候補として選択する。   The associating unit 15 searches for the second image included in the predetermined date and time range 1700 with respect to the time t1 of the shooting date and time of the first image. The associating unit 15 compares the shooting date and time of each narrow-angle image that is the second image with respect to the time t1 of the shooting date and time of the first image. In this example, there is shown a case where there is a time t2 of the first narrow-angle image shooting date, a time t3 of the second narrow-angle image, and a time t4 of the third narrow-angle image in the vicinity of the time t1. In this example, the time range 1700 includes the time point t2 of the first narrow-angle image and the time point t3 of the second narrow-angle image, and does not include the time point t4 of the third narrow-angle image. The control unit 101 determines that the second image whose time point is included in the date and time range 1700 is an image captured at approximately the same shooting date and time as the first image, and selects it as a candidate for association.

[第3選択方式−設定文字列]
図18は、第3選択方式について示す説明図である。第3選択方式は、選択条件として、ユーザにより任意に設定可能である設定文字列に関する条件を用いる。第3選択方式では、設定文字列が概略的に同じであると判断される画像を候補として選択する。関連付け部15は、関連付けの際、例えば撮像後に関連付け管理情報の設定文字列として設定されている文字列を参照する。
[Third selection method-setting character string]
FIG. 18 is an explanatory diagram showing the third selection method. The third selection method uses a condition relating to a set character string that can be arbitrarily set by the user as a selection condition. In the third selection method, images that are determined to have substantially the same set character string are selected as candidates. When associating, the associating unit 15 refers to, for example, a character string set as a setting character string of association management information after imaging.

図18では、第1表示モードの第1画面での複数の画像の情報の一覧表示の例を示す。この例では、各画像について、情報として、ファイル名、撮影日時、タグ、種別等を表示している。「タグ」項目は、設定文字列に相当する。ユーザは、編集作業で、「タグ」項目に、任意に文字列を設定することができる。本例では、ユーザは、「タグ」項目に、撮影場所を表す文字列を設定している。例えば、画像G1,G2,G3は、同じ公園で撮影された画像であり、文字列「A公園」が設定されている。画像G4,G5は、同じ展望台で撮影された画像であり、文字列「B展望台」が設定されている。なお、「種別」項目は、その画像の画角の種別として、「広角」または「狭角」を表示している。   FIG. 18 shows an example of a list display of information of a plurality of images on the first screen in the first display mode. In this example, for each image, a file name, shooting date / time, tag, type, and the like are displayed as information. The “tag” item corresponds to a setting character string. The user can arbitrarily set a character string in the “tag” item in the editing operation. In this example, the user sets a character string representing the shooting location in the “tag” item. For example, the images G1, G2, and G3 are images taken in the same park, and the character string “A park” is set. The images G4 and G5 are images taken at the same observatory, and the character string “B observatory” is set. The “type” item displays “wide angle” or “narrow angle” as the type of angle of view of the image.

関連付け部15は、ユーザにより選択された第1画像、例えば画像G1を基準として、その第1画像の「タグ」項目の設定文字列を参照する。関連付け部15は、第1画像の設定文字列に対し、他の第2画像であるそれぞれの狭角画像の設定文字列を参照して比較し、例えば同じ文字列を含んでいる設定文字列を持つ画像を探す。例えば、画像G1,G2,G3の設定文字列が同じである。関連付け部15は、それらの画像を、同じ撮影場所で撮像された画像であると判断し、関連付けの候補として選択する。   The associating unit 15 refers to the set character string of the “tag” item of the first image on the basis of the first image selected by the user, for example, the image G1. The associating unit 15 compares the set character string of the first image with reference to the set character string of each narrow-angle image that is the other second image, and, for example, sets the character string that includes the same character string. Find the image you have. For example, the set character strings of the images G1, G2, and G3 are the same. The associating unit 15 determines that these images are images taken at the same shooting location and selects them as candidates for association.

変形例として、制御部101は、撮像時等に、ユーザ操作に依らずに、自動的に、撮影場所を表す文字列を設定してもよい。例えば、制御部101は、位置情報{緯度,経度}に基づいて、撮影場所を表す文字列を決定してもよい。制御部101は、画像の「ファイル名」項目等に文字列を設定してもよい。制御部101は、例えば、所定の規則で、設定文字列を含むファイル名を自動的に付与してもよい。ファイル名の規則の例としては、[撮影日時]+[設定文字列(撮影場所)]+[個別順序番号]、が挙げられる。   As a modification, the control unit 101 may automatically set a character string representing a shooting location at the time of imaging or the like without depending on a user operation. For example, the control unit 101 may determine a character string representing a shooting location based on the position information {latitude, longitude}. The control unit 101 may set a character string in the “file name” item of the image. For example, the control unit 101 may automatically assign a file name including a set character string according to a predetermined rule. Examples of file name rules include [shooting date and time] + [setting character string (shooting location)] + [individual sequence number].

上記選択方式は、組み合わせでも適用可能である。例えば、第1選択方式の撮影場所の条件と、第2選択方式の撮影日時の条件とを組み合わせた条件としてもよい。その条件として例えば「同じ撮影場所で過去1年前まで」等と指定可能である。   The above selection methods can also be applied in combination. For example, the condition of the shooting location of the first selection method and the shooting date condition of the second selection method may be combined. As the condition, for example, “up to the past one year at the same shooting location” can be designated.

[関連付け処理(2)]
関連付け部15の関連付け処理における第2処理については以下である。第2処理では、第1処理で候補として選択された画像について、撮影方向及び画角の情報を用いて、関連付けの判断を行い、その判断結果に従って関連付けを行う。関連付け部15は、各画像ファイル24のメタデータ22、または管理情報21における、撮影方向及び画角の情報を参照する。関連付け部15は、条件として、基準となる第1画像である広角画像の画角{水平画角Ah,垂直画角Av}の範囲内に、候補の画像の撮影方向{方位角θ,仰角φ}が含まれているか否かを判断する。関連付け部15は、この条件を満たす画像を、関連付ける画像として決定する。
[Association process (2)]
The second process in the associating process of the associating unit 15 is as follows. In the second process, the image selected as the candidate in the first process is determined to be associated using information on the shooting direction and the angle of view, and is associated according to the determination result. The associating unit 15 refers to the shooting direction and angle of view information in the metadata 22 or the management information 21 of each image file 24. As a condition, the associating unit 15 sets the shooting direction of the candidate image {azimuth angle θ, elevation angle φ within the range of the angle of view {horizontal angle of view Ah, vertical angle of view Av} of the wide-angle image that is the first reference image. } Is included. The associating unit 15 determines an image satisfying this condition as an image to be associated.

前述の図7の例では、広角画像6aの水平画角Ah1の範囲(−50°〜+70°)内に、第1狭角画像6bの撮影方向63bの方位角θ2=45°が含まれており、第2狭角画像6cの撮影方向63cの方位角θ3=−20°が含まれている。また、図示しないが、広角画像6aの垂直画角Av1の範囲(−40°〜+40°)内に、第1狭角画像6bの撮影方向63bの仰角φ2=0°が含まれており、第2狭角画像6cの撮影方向63cの仰角φ3=−10°が含まれている。よって、広角画像6aに、第1狭角画像6b及び第2狭角画像6cが関連付けられる。   In the example of FIG. 7 described above, the azimuth angle θ2 = 45 ° of the shooting direction 63b of the first narrow-angle image 6b is included in the range (−50 ° to + 70 °) of the horizontal field angle Ah1 of the wide-angle image 6a. And the azimuth angle θ3 = −20 ° in the shooting direction 63c of the second narrow-angle image 6c is included. Although not shown, the elevation angle φ2 = 0 ° in the shooting direction 63b of the first narrow-angle image 6b is included in the range (−40 ° to + 40 °) of the vertical angle of view Av1 of the wide-angle image 6a. The elevation angle φ3 = −10 ° in the shooting direction 63c of the two narrow-angle image 6c is included. Therefore, the first narrow-angle image 6b and the second narrow-angle image 6c are associated with the wide-angle image 6a.

関連付け部15は、第1画像と第2画像とを関連付ける場合、前述のように、管理情報21に関連付け管理情報を記述してもよいし、各画像のメタデータ22に同様の情報を記述してもよい。   When associating the first image and the second image, the associating unit 15 may describe the association management information in the management information 21 as described above, or describe similar information in the metadata 22 of each image. May be.

[動画]
上記では主に静止画の場合を説明したが、動画の場合にも基本的に同様に適用可能である。撮像制御部11は、動画を撮影する場合、連続した撮影モードにおいて、電子ズーム倍率及び画角等を変更しながら撮影して動画の画像データ23を得る。撮像制御部11は、その動画の画像ファイル24について、時点に応じた電子ズーム倍率及び画角等の情報を、メタデータ22または管理情報21に記述する。また、動画の再生表示の際、表示制御部12は、第2表示モードの第2画面で、例えば動画の開始時点の画像フレームや、一時停止状態の画像フレームの位置に対応させて、マーク等を表示するようにしてもよい。
[Video]
In the above description, the case of a still image has been mainly described. However, the present invention is basically applicable to a case of a moving image. When shooting a moving image, the imaging control unit 11 acquires the moving image data 23 by changing the electronic zoom magnification and the angle of view in a continuous shooting mode. The imaging control unit 11 describes information such as the electronic zoom magnification and the angle of view corresponding to the time point in the metadata 22 or the management information 21 for the moving image file 24. In addition, when playing and displaying a moving image, the display control unit 12 displays a mark or the like on the second screen in the second display mode, for example, corresponding to the position of the image frame at the start of the moving image or the image frame in the paused state. May be displayed.

[効果等]
上記のように、実施の形態1の撮像装置1及び表示装置2によれば、広角画像及び狭角画像を含む複数の画像の関係を把握しやすく、より良い使い勝手を実現できる。表示画面で、広角画像の上に、関係を持つ狭角画像が自動的に重ね合わせて表示されるので、ユーザは、関係を持つ複数の画像を容易に認識でき、直感的に把握でき、好適に閲覧することができる。ユーザは、広角画像の画角内に存在する狭角画像を認識することができ、関連付けられている狭角画像を参照して素早く閲覧できる。ユーザは、表示モードを切り替えながら多数の画像を好適に閲覧できる。
[Effects]
As described above, according to the imaging device 1 and the display device 2 of Embodiment 1, it is easy to grasp the relationship between a plurality of images including wide-angle images and narrow-angle images, and better usability can be realized. On the display screen, the related narrow-angle image is automatically superimposed on the wide-angle image, so that the user can easily recognize a plurality of related images and intuitively understand it. Can be viewed. The user can recognize a narrow-angle image existing within the angle of view of the wide-angle image, and can browse quickly by referring to the associated narrow-angle image. The user can preferably browse a large number of images while switching the display mode.

実施の形態1の変形例として以下が挙げられる。変形例として、画像の種別に関して、画角の関係を相対的に判断してもよい。即ち、撮像装置1または表示装置2は、複数の画像における画角を参照し、それらのうちで最大の画角を持つ画像を、広角画像である第1画像とし、その第1画像以外の画像を、狭角画像である第2画像とする。   The following is given as a modification of the first embodiment. As a modification, the relationship between the angles of view may be relatively determined with respect to the type of image. That is, the imaging device 1 or the display device 2 refers to the angle of view in a plurality of images, and sets the image having the maximum angle of view as the first image that is a wide-angle image, and images other than the first image. Is a second image which is a narrow-angle image.

[変形例(1)−第2表示モード]
図19は、実施の形態1の変形例の撮像装置1における、第2表示モードの第2画面の例を示す。図19は、図7の具体例と対応している。図19の表示画面401では、第2画像を表す図形として、マークではなく、透過枠としている。例えば、透過枠9bは第1狭角画像6bを表し、透過枠9cは第2狭角画像6cを表す。透過枠は、矩形の四辺が線及び色で表示され、その内部は透過領域となっており、背景にある第1画像の部分がそのまま表示される。表示上の透過枠の領域のサイズは、特に、その第2画像の画角の大きさに対応させて決定される。これにより、広角画像内における狭角画像の関係をより把握しやすくできる。
[Modification (1)-Second Display Mode]
FIG. 19 shows an example of the second screen in the second display mode in the imaging apparatus 1 according to the modification of the first embodiment. FIG. 19 corresponds to the specific example of FIG. In the display screen 401 of FIG. 19, a graphic representing the second image is not a mark but a transparent frame. For example, the transmission frame 9b represents the first narrow-angle image 6b, and the transmission frame 9c represents the second narrow-angle image 6c. The transparent frame has four sides of a rectangle displayed with lines and colors, and the inside thereof is a transparent region, and the first image portion in the background is displayed as it is. The size of the transparent frame area on the display is determined in accordance with the size of the angle of view of the second image. This makes it easier to grasp the relationship between the narrow-angle images in the wide-angle image.

なお、図19の例では、最初、表示画面401に広角画像6aを図11と同様の基準位置で表示した状態から、ユーザ操作に基づいてスクロール及び拡大縮小がされて、表示上の中心点や画角範囲が移動及び変更された状態を示している。図19では、表示画面の中央の点p1に、広角画像6aの視点の位置(Xa,Ya)として、(方位角,仰角)で(+15°,+10°)に対応する点が配置されている。表示画面401に、広角画像6aの水平画角の120°の範囲のうちの90°の範囲、及び仰角の80°の範囲のうちの60°の範囲が、拡大で表示されている。位置Xaは方位角で15°であり、位置Yaは仰角で10°である。表示画面401における、右端の位置Xarは60°、左端の位置Xalは−30°に対応し、上端の位置Yatは40°、下端の位置Yabは−20°に対応する。   In the example of FIG. 19, first, the wide-angle image 6a is displayed on the display screen 401 at the reference position similar to that in FIG. 11, and then scrolled and enlarged / reduced based on the user operation. A state in which the angle of view range is moved and changed is shown. In FIG. 19, a point corresponding to (+ 15 °, + 10 °) in (azimuth angle, elevation angle) is arranged as the viewpoint position (Xa, Ya) of the wide-angle image 6a at the center point p1 of the display screen. . On the display screen 401, the range of 90 ° in the range of 120 ° of the horizontal angle of view of the wide-angle image 6a and the range of 60 ° in the range of 80 ° of the elevation angle are displayed in an enlarged manner. The position Xa is 15 ° in azimuth, and the position Ya is 10 ° in elevation. In the display screen 401, the right end position Xar corresponds to 60 °, the left end position Xal corresponds to −30 °, the upper end position Yat corresponds to 40 °, and the lower end position Yab corresponds to −20 °.

透過枠9bの中心点p2の位置座標(Xb,Yb)は、(方位角,仰角)で(+45°,0°)に対応する。透過枠9bの横幅は、水平画角Ah2=21°に対応したサイズであり、方位角で45°±10.5°の範囲であり、左端の位置Xblが+34.5°、右端の位置Xbrが+55.5°である。透過枠9bの縦幅は、垂直画角Av2=14°に対応したサイズであり、仰角で0°±7°の範囲であり、上端の位置Ybtが+7°、下端の位置Ybbが−7°である。   The position coordinate (Xb, Yb) of the center point p2 of the transmission frame 9b corresponds to (+ 45 °, 0 °) in (azimuth angle, elevation angle). The horizontal width of the transmission frame 9b is a size corresponding to the horizontal angle of view Ah2 = 21 °, the azimuth angle is in the range of 45 ° ± 10.5 °, the left end position Xbl is + 34.5 °, and the right end position Xbr Is + 55.5 °. The vertical width of the transmission frame 9b is a size corresponding to the vertical angle of view Av2 = 14 °, the elevation angle is in the range of 0 ° ± 7 °, the upper end position Ybt is + 7 °, and the lower end position Ybb is −7 °. It is.

透過枠9cについても同様に位置及びサイズが決定されている。透過枠9cの中心点p3の位置座標(Xc,Yc)は、(−20°,−10°)に対応する。透過枠9cの横幅は、水平画角Ah3=21°に対応したサイズであり、方位角で−20°±10.5°の範囲であり、左端の位置Xclが−30.5°、右端の位置Xcrが−9.5°である。透過枠9cの縦幅は、垂直画角Av3=14°に対応したサイズであり、仰角で−10°±7°の範囲であり、上端の位置Yctが−3°、下端の位置Ycbが−17°である。   Similarly, the position and size of the transmission frame 9c are determined. The position coordinates (Xc, Yc) of the center point p3 of the transmission frame 9c correspond to (−20 °, −10 °). The horizontal width of the transmission frame 9c is a size corresponding to the horizontal angle of view Ah3 = 21 °, the azimuth angle is in the range of −20 ° ± 10.5 °, the left end position Xcl is −30.5 °, and the right end is The position Xcr is −9.5 °. The vertical width of the transmission frame 9c is a size corresponding to the vertical angle of view Av3 = 14 °, the elevation angle is in the range of −10 ° ± 7 °, the upper end position Yct is −3 °, and the lower end position Ycb is −. 17 °.

透過枠9bの表示位置{Xbr,Xbl,Ybt,Ybb}、透過枠9cの表示位置{Xcr,Xcl,Yct,Ycb}は、広角歪み及び歪曲収差を無視した場合、下記の式で得られる。なお、係数Kw,係数Khとする。   The display position {Xbr, Xbl, Ybt, Ybb} of the transmission frame 9b and the display position {Xcr, Xcl, Yct, Ycb} of the transmission frame 9c are obtained by the following equations when ignoring wide-angle distortion and distortion aberration. Note that the coefficient Kw and the coefficient Kh are used.

Xbr=(W/2)−Kw(tan50°−tan55.5°) ・・・(8)
Xbl=(W/2)−Kw(tan50°−tan34.5°) ・・・(9)
Kw=W/(tan50°+tan40°) ・・・(10)
Ybt=(H/2)−Kh(tan40°−tan7°) ・・・(11)
Ybb=(H/2)−Kh(tan40°−tan(−7°)) ・・・(12)
Kh=H/(tan40°+tan20°) ・・・(13)
Xcr=(W/2)−Kw(tan50°−tan(−9.5°)) ・・・(14)
Xcl=(W/2)−Kw(tan50°−tan(−30.5°)) ・・・(15)
Yct=(H/2)−Kh(tan40°−tan(−3°)) ・・・(16)
Ycb=(H/2)−Kh(tan40°−tan(−17°)) ・・・(17)
また、図19の例では、画像の回転角に関する例を、点p5にある狭角画像を表す透過枠9eで示している。この狭角画像は、x方向に対する角度αを有する。
Xbr = (W / 2) −Kw (tan50 ° −tan55.5 °) (8)
Xbl = (W / 2) −Kw (tan 50 ° −tan 34.5 °) (9)
Kw = W / (tan50 ° + tan40 °) (10)
Ybt = (H / 2) −Kh (tan 40 ° −tan 7 °) (11)
Ybb = (H / 2) −Kh (tan 40 ° −tan (−7 °)) (12)
Kh = H / (tan 40 ° + tan 20 °) (13)
Xcr = (W / 2) −Kw (tan50 ° −tan (−9.5 °)) (14)
Xcl = (W / 2) −Kw (tan50 ° −tan (−30.5 °)) (15)
Yct = (H / 2) −Kh (tan 40 ° −tan (−3 °)) (16)
Ycb = (H / 2) −Kh (tan 40 ° −tan (−17 °)) (17)
In the example of FIG. 19, an example relating to the rotation angle of the image is indicated by a transmission frame 9e representing a narrow-angle image at the point p5. This narrow-angle image has an angle α with respect to the x direction.

表示制御部12は、画像データ23の画像の撮影方向及び画角の情報を用いて、透過枠のサイズを決定する。表示制御部12は、広角画像の表示における視点変更に対応するスクロールや拡大縮小がされた場合、変更後の表示状態に対応させるように、透過枠の位置及びサイズを決定する。   The display control unit 12 determines the size of the transmission frame using information on the shooting direction and angle of view of the image of the image data 23. The display control unit 12 determines the position and size of the transparent frame so as to correspond to the display state after the change when scrolling or enlargement / reduction corresponding to the viewpoint change in the display of the wide-angle image is performed.

この変形例では、透過枠の表示により、狭角画像の範囲、位置関係がわかりやすい利点がある。他の変形例として、透過枠の代わりに、同じサイズでサムネイルを表示するようにしてもよい。   This modification has the advantage that the range and positional relationship of the narrow-angle image can be easily understood by displaying the transparent frame. As another modification, thumbnails may be displayed with the same size instead of the transparent frame.

[変形例(2)−第2表示モード]
図20は、実施の形態1の変形例の撮像装置1における表示画面の例を示す。図20の上側には、第1表示モードの第1画面の例を示し、この第1画面では、広角画像のサムネイル及び狭角画像のサムネイルを縦横に並列配置で一覧表示している。その際、表示上のサムネイルのサイズについては、その画像の画角の大きさに応じた縦横のサイズに決定される。本例の広角画像のサムネイル2001は、水平画角が180°以上と大きいパノラマ画像のサムネイルである場合を示す。狭角画像のサムネイル2002は、水平画角が180°未満の画像のサムネイルである場合を示す。なお、並列配置する際の画像数は、一方向において2枚、3枚、4枚等、可変である。ユーザは、サムネイルの大きさから、広角と狭角との区別が可能である。
[Modification (2)-Second display mode]
FIG. 20 shows an example of a display screen in the imaging apparatus 1 according to the modification of the first embodiment. The upper side of FIG. 20 shows an example of the first screen in the first display mode. In this first screen, thumbnails of wide-angle images and thumbnails of narrow-angle images are displayed in a list in a vertical and horizontal arrangement. At this time, the size of the thumbnail on the display is determined to be a vertical and horizontal size corresponding to the angle of view of the image. A wide-angle image thumbnail 2001 in this example is a panoramic image thumbnail having a large horizontal angle of view of 180 ° or more. A thumbnail 2002 of a narrow-angle image indicates a case where the thumbnail is an image having a horizontal angle of view of less than 180 °. Note that the number of images when arranged in parallel is variable such as two, three, four, etc. in one direction. The user can distinguish between the wide angle and the narrow angle based on the size of the thumbnail.

図20の下側は、第2表示モードの第2画面の例を示す。表示画面401内で、主要な領域1001と、主要な領域1001以外の領域、本例では右辺の領域1002や下辺の領域1003と、を有する。主要な領域1001には、第2表示モードで第1画像上に第2画像のマーク等が重ね合わせて表示される。領域1001に第1画像の全体が表示しきれない場合、撮影方向を中心点として、一部の画角の範囲が最初に表示される。本例では、第1画面で選択された広角画像のうちの一部の水平画角に対応する範囲が、領域1001に表示されている。ユーザは、視点変更等に応じてスクロールや拡大縮小等によって、領域1001での第1画像の表示状態を変更できる。   The lower side of FIG. 20 shows an example of the second screen in the second display mode. The display screen 401 includes a main area 1001 and areas other than the main area 1001, in this example, a right-side area 1002 and a lower-side area 1003. In the main area 1001, a mark or the like of the second image is superimposed on the first image in the second display mode. When the entire first image cannot be displayed in the area 1001, a part of the angle of view is initially displayed with the shooting direction as the center point. In this example, a range corresponding to a part of the horizontal angle of view of the wide-angle image selected on the first screen is displayed in the area 1001. The user can change the display state of the first image in the region 1001 by scrolling, enlarging, reducing, or the like according to the viewpoint change or the like.

第2画像の図形は、画像の種別や撮影日時等の違いに応じて異なる図形を表示してもよい。本例では、図形として、円形、菱形、星形のマークを示す。画像の種別としては、例えば画角の違いに応じた種別がユーザ設定等に基づいて設定されてもよい。また、図形には、情報を付与して表示してもよい。本例では、マークに識別番号が付与されている。また、図形には、情報として、メタデータ22または管理情報21に基づいた撮影日時等の属性値を表示してもよいし、属性値のみを表示してもよい。   As the graphic of the second image, a different graphic may be displayed according to a difference in image type, shooting date, and the like. In this example, circular, diamond, and star marks are shown as figures. As the image type, for example, a type corresponding to the difference in the angle of view may be set based on user settings or the like. Further, information may be given to the graphic for display. In this example, an identification number is assigned to the mark. In addition, an attribute value such as a shooting date and time based on the metadata 22 or the management information 21 may be displayed as information on the graphic, or only the attribute value may be displayed.

右辺の領域1002では、第1画像に関連付けられている全ての複数の第2画像の情報、例えばマーク及び属性値等が、並列に表示されている。領域1001では、表示状態に応じて、一部の第2画像のマークが表示され、他の第2画像のマークが表示されていない状態となる。領域1002には、領域1001には表示されていない第2画像の情報も表示される。領域1001で第2画像のマークが選択された場合、または、領域1002で第2画像のマークが選択された場合に、第3表示モードへ遷移させてもよい。また、右下の領域には、最後に選択された第2画像のサムネイルがプレビューとして表示されている。   In the area 1002 on the right side, information of all the plurality of second images associated with the first image, such as marks and attribute values, are displayed in parallel. In the area 1001, some of the marks of the second image are displayed according to the display state, and the marks of the other second images are not displayed. In the area 1002, information on the second image that is not displayed in the area 1001 is also displayed. When the mark of the second image is selected in the area 1001 or when the mark of the second image is selected in the area 1002, the transition to the third display mode may be performed. In the lower right area, a thumbnail of the second image selected last is displayed as a preview.

下辺の領域1003には、表示モード、第1画像の情報、操作ボタン、設定情報等が表示されている。例えば、現在の表示モードが第2表示モードであること、及び第1画像の撮影日時等の属性値等の情報が表示されている。また、第2表示モードのマークの表示と非表示とを切り替えるためのボタンが設けられている。「ON」状態ではマークが表示され、「OFF」状態ではマークが非表示にされ、即ち第1画像のみが表示される。また、第2表示モードから第1表示モードに戻る動作のための戻るボタン等が設けられている。   A display mode, information on the first image, operation buttons, setting information, and the like are displayed in a lower area 1003. For example, information indicating that the current display mode is the second display mode and attribute values such as the shooting date and time of the first image are displayed. In addition, a button for switching between displaying and hiding the mark in the second display mode is provided. In the “ON” state, a mark is displayed, and in the “OFF” state, the mark is not displayed, that is, only the first image is displayed. In addition, a return button or the like for returning from the second display mode to the first display mode is provided.

また、第2表示モードの第2画面内で、第1画像上の概略的に同じ位置、同じ領域内に、関連付けられている複数の第2画像が密集して存在する場合に、個々のマークを重ねて表示するのではなく、1つの代表マークを表示する。本例では、代表マークとして星形としている。ユーザが、代表マークを選択操作すると、代表マークの位置に関連付けられている複数の第2画像の情報を表示する。その際に複数の第2画像の情報を表示する方式としては、例えば、第1画像の上にポップアップ領域1005を表示し、ポップアップ領域1005の中に複数の第2画像の情報を表示する。ユーザがポップアップ領域1005内から所望の第2画像を選択操作すると、選択された第2画像を詳細表示する第3表示モードへ遷移させる。   In addition, in the second screen of the second display mode, when there are a plurality of associated second images densely in the same position and the same region on the first image, individual marks One representative mark is displayed instead of overlapping. In this example, the representative mark is a star. When the user selects a representative mark, information on a plurality of second images associated with the position of the representative mark is displayed. In this case, as a method for displaying information on a plurality of second images, for example, a pop-up area 1005 is displayed on the first image, and information on the plurality of second images is displayed in the pop-up area 1005. When the user performs a selection operation on a desired second image from the pop-up area 1005, a transition is made to the third display mode in which the selected second image is displayed in detail.

他の方式としては、右辺の領域1002等に、代表マークに関連付けられている複数の第2画像の情報を表示してもよい。また、他の方式としては、代表マークの選択に応じて、所定の領域に、関連付けられている複数の第2画像を順次に表示、即ちスライドショー表示してもよい。例えば、同じ場所、同じ撮影方向で、異なる撮影日時に撮影した複数の画像が存在する場合に、それらの画像を関連付けて連続して再生表示することができる。   As another method, information on a plurality of second images associated with the representative mark may be displayed in the area 1002 or the like on the right side. As another method, a plurality of associated second images may be sequentially displayed in a predetermined area according to selection of a representative mark, that is, a slide show may be displayed. For example, when there are a plurality of images taken at the same place and in the same shooting direction at different shooting dates and times, these images can be linked and reproduced and displayed continuously.

また、他の方式として、代表マークの選択操作に応じて、複数の第2画像が密集している領域を拡大表示して、複数の第2画像のマークが区別できる表示状態にしてもよい。   As another method, an area where a plurality of second images are densely displayed may be enlarged according to a representative mark selection operation so that the marks of the plurality of second images can be distinguished.

[変形例(3)−外部機器連携]
撮像装置1や表示装置2は、外部の機器へ画像ファイル24を保存してもよいし、外部の機器から画像ファイル24を読み込んで再生表示してもよい。撮像装置1や表示装置2は、外部の機器へ送信する画像ファイル24を対象として関連付け処理を行い、関連付け情報を含む画像ファイル24を外部の機器へ送信してもよい。また、撮像装置1や表示装置2は、外部の機器から受信した画像ファイル24を対象として関連付け処理を行い、関連付け情報に基づいて関連付けた状態で再生表示してもよい。即ち、前述の第1方式及び第2方式以外の関連付け方式として、外部の機器へ画像ファイル24を送信する前に関連付けを行う方式や、外部の機器から画像ファイル24を受信する後に関連付けを行う方式を採用してもよい。また、撮像装置1や表示装置2は、外部の機器へ複数の画像ファイル24を送信する場合、画像ファイル24毎のメタデータ22として画角情報や関連付け情報を記述してもよいし、複数の画像ファイル24とは別の管理ファイルに記述して提供してもよい。
[Modification (3) -External Device Linkage]
The imaging device 1 and the display device 2 may store the image file 24 in an external device, or may read and reproduce the image file 24 from an external device. The imaging device 1 and the display device 2 may perform association processing for the image file 24 to be transmitted to an external device, and may transmit the image file 24 including the association information to the external device. In addition, the imaging device 1 and the display device 2 may perform association processing for the image file 24 received from an external device, and reproduce and display the image file 24 in a state of being associated based on the association information. That is, as an association method other than the first method and the second method described above, a method of performing association before transmitting the image file 24 to an external device, or a method of performing association after receiving the image file 24 from an external device. May be adopted. Further, when transmitting a plurality of image files 24 to an external device, the imaging device 1 and the display device 2 may describe angle-of-view information and association information as metadata 22 for each image file 24. It may be provided by being described in a management file different from the image file 24.

例えば、図1のシステムで、撮像装置1は、撮像した複数の画像について、サーバ3へ送信する前に、関連付け処理を行い、画角や関連付け情報を含む画像ファイル24を作成し、通信網4を通じてサーバ3へ送信して画像データDBに保存させる。撮像装置1または表示装置2は、通信網4を通じてサーバ3にアクセスし、サーバ3の画像データDBから、その画像ファイル24を取得する。なお、その際には、検索条件として例えば撮影日時や撮影場所等を指定して複数の画像ファイル24をまとめて取得可能である。撮像装置1または表示装置2は、取得した複数の画像ファイル24の画像データ23について、関連付け情報の参照に基づいて、関連付けた状態で再生表示する。   For example, in the system of FIG. 1, the imaging apparatus 1 performs an association process on a plurality of captured images before transmitting them to the server 3, creates an image file 24 including an angle of view and association information, and creates a communication network 4. To the server 3 and stored in the image data DB. The imaging device 1 or the display device 2 accesses the server 3 through the communication network 4 and acquires the image file 24 from the image data DB of the server 3. In this case, a plurality of image files 24 can be acquired collectively by specifying, for example, a shooting date and time, a shooting location, etc. as a search condition. The imaging device 1 or the display device 2 reproduces and displays the acquired image data 23 of the plurality of image files 24 in an associated state based on the reference of the association information.

また、例えば、撮像装置1は、撮像した複数の画像について、関連付け処理を行わずに、画角を含み関連付け情報を含まない画像ファイル24を、サーバ3へ送信して画像データDBに保存させる。撮像装置1または表示装置2は、通信網4を通じてサーバ3にアクセスし、サーバ3の画像データDBからその画像ファイル24を取得する。撮像装置1または表示装置2は、取得した複数の画像ファイル24について、関連付け処理を行い、画角及び関連付け情報に基づいて、関連付けた状態で再生表示する。   In addition, for example, the imaging device 1 transmits the image file 24 including the angle of view and not including the association information to the server 3 and saving the image data DB in the image data DB without performing association processing for the plurality of captured images. The imaging device 1 or the display device 2 accesses the server 3 through the communication network 4 and acquires the image file 24 from the image data DB of the server 3. The imaging device 1 or the display device 2 performs association processing on the acquired plurality of image files 24, and reproduces and displays them in an associated state based on the angle of view and the association information.

また、サーバ3が、画像データDBの複数の画像データ23を対象として関連付け処理を行ってもよい。サーバ3は、その関連付け処理を行って、関連付け情報を含む画像ファイル24として保存する。撮像装置1または表示装置2は、サーバ3から取得した複数の画像ファイル24について、関連付け情報の参照に基づいて再生表示する。   Further, the server 3 may perform association processing for a plurality of image data 23 in the image data DB. The server 3 performs the association process and stores it as an image file 24 including association information. The imaging device 1 or the display device 2 reproduces and displays the plurality of image files 24 acquired from the server 3 based on the association information reference.

また、例えば、撮像装置1は、撮像した複数の画像について、関連付け処理を行い、画角及び関連付け情報を含む画像ファイル24を、表示装置2へ送信する。表示装置2は、その画像ファイル24を取得し、取得した画像ファイル24の画像データ23を、関連付け情報の参照に基づいて、関連付けた状態で再生表示する。   In addition, for example, the imaging device 1 performs association processing for a plurality of captured images, and transmits an image file 24 including an angle of view and association information to the display device 2. The display device 2 acquires the image file 24, and reproduces and displays the image data 23 of the acquired image file 24 in an associated state based on the reference of the association information.

また、例えば、撮像装置1は、撮像した複数の画像について、関連付けを行わずに、画角を含み関連付け情報を含まない画像ファイル24を、表示装置2へ送信する。表示装置2は、その画像ファイル24を取得し、取得した画像ファイル24の画像データ23について、関連付け処理を行い、関連付け情報に基づいて、関連付けた状態で再生表示する。   Further, for example, the imaging apparatus 1 transmits the image file 24 including the angle of view and not including the association information to the display apparatus 2 without performing association for the plurality of captured images. The display device 2 acquires the image file 24, performs association processing on the image data 23 of the acquired image file 24, and reproduces and displays the image data 24 in an associated state based on the association information.

また、撮像装置1や表示装置2は、同じユーザの複数の機器から、それぞれの画像ファイル24を読み込んで、それらを統合して管理するようにしてもよい。例えば、図1の第1撮像装置1A及び第2撮像装置1Bは、それぞれ、撮像した画像の画像ファイル24を、関連付けを行わずに、第1表示装置2Aへ送信する。第1表示装置2Aは、それらの画像ファイル24について、関連付け処理を行い、関連付けた状態で再生表示する。   Further, the imaging device 1 and the display device 2 may read each image file 24 from a plurality of devices of the same user, and manage them by integrating them. For example, the first imaging device 1A and the second imaging device 1B in FIG. 1 each transmit the image file 24 of the captured image to the first display device 2A without associating. The first display device 2A performs association processing on these image files 24, and reproduces and displays them in the associated state.

この変形例によれば、複数の機器が連携するシステムで関連付け表示機能を実現でき、ユーザは多数の画像の関連付けや保存等を実現できる。   According to this modification, an association display function can be realized in a system in which a plurality of devices cooperate, and the user can realize association and storage of a large number of images.

[変形例(4)−編集機能]
変形例の撮像装置1及び表示装置2として、複数の画像の関連付けをユーザが判断して手動で設定、編集することができる編集機能を設ける。ユーザは、編集機能を用いて、表示画面内で、関連付ける画像の追加や削除や変更が可能であり、各画像の表示位置を変更可能である。
[Variation (4)-Editing function]
As the imaging device 1 and the display device 2 of the modified example, an editing function is provided that allows the user to determine the association of a plurality of images and manually set and edit them. Using the editing function, the user can add, delete, or change an associated image on the display screen, and can change the display position of each image.

図21は、変形例の撮像装置1及び表示装置2における第2表示モードの第2画面の例を示す。以下は編集機能を持つ撮像装置1の場合を示すが、編集機能を持つ表示装置2の場合も同様である。ユーザ設定または入力操作に基づいて、編集が有効な「ON」状態と、無効な「OFF」状態とを切り替え可能である。撮像装置1は、「ON」状態の場合、第2表示モードの第2画面で、第1画像に対する第2画像の関連付け、及び第2画像の図形の表示位置等を、ユーザ入力操作に基づいて可変に設定する。制御部101は、第2画像の図形の表示位置を、メタデータ22または管理情報21の1つとして保存及び管理する。制御部101は、再生表示の際には、その情報を参照して図形の表示位置を決める。   FIG. 21 shows an example of the second screen in the second display mode in the imaging device 1 and the display device 2 of the modification. The following shows the case of the imaging device 1 having an editing function, but the same applies to the case of the display device 2 having an editing function. Based on user settings or input operations, it is possible to switch between an “ON” state in which editing is valid and an “OFF” state in which editing is invalid. When the imaging device 1 is in the “ON” state, the second screen in the second display mode associates the second image with the first image, the display position of the graphic of the second image, and the like based on the user input operation. Set to variable. The control unit 101 stores and manages the display position of the graphic of the second image as one of the metadata 22 or the management information 21. At the time of reproduction display, the control unit 101 refers to the information and determines the graphic display position.

本例では、第2画像の図形として透過枠を表示する場合を示す。最初、撮像装置1は、実施の形態1と同様に、第2画像の表示位置を自動的に決定して表示する。例えば、第1狭角画像6bを表す透過枠9b1が表示される。ユーザは、第2画像の透過枠9b1を例えばタッチして所望の方向及び位置へ移動させる。制御部101は、ユーザ操作に従ってその図形の表示位置を移動させるように表示状態を更新する。本例では、透過枠9b1の移動後の状態を透過枠9b2として示している。第1狭角画像6bの中心点は、移動前の点p21から移動後の点p22となっている。制御部101は、第2画像の図形の移動後の位置を、新たな表示位置として保存するように、管理値を更新する。   In this example, a case where a transparent frame is displayed as a graphic of the second image is shown. Initially, the imaging apparatus 1 automatically determines and displays the display position of the second image, as in the first embodiment. For example, a transmission frame 9b1 representing the first narrow-angle image 6b is displayed. The user touches the transparent frame 9b1 of the second image, for example, and moves it to a desired direction and position. The control unit 101 updates the display state so as to move the display position of the graphic according to the user operation. In this example, the state after movement of the transmission frame 9b1 is shown as a transmission frame 9b2. The center point of the first narrow-angle image 6b is the point p22 after movement from the point p21 before movement. The control unit 101 updates the management value so as to store the moved position of the graphic of the second image as a new display position.

また、制御部101は、第2画像の図形の移動後に、表示位置の変更確認のための情報を表示して、変更及び保存するか否かをユーザに確認してもよい。制御部101は、例えば、移動後の位置の近くにポップアップ領域を表示し、「表示位置を移動しました。保存する/保存しない」等と表示する。ユーザは、それを確認して例えば「保存する」ボタンを押す。これにより、制御部101は、移動後の表示位置を保存する。   The control unit 101 may display information for confirming the change of the display position after the movement of the graphic of the second image and confirm with the user whether or not to change and save. For example, the control unit 101 displays a pop-up area near the moved position, and displays “The display position has been moved. Save / do not save” or the like. The user confirms this and presses a “save” button, for example. Thereby, the control part 101 preserve | saves the display position after a movement.

また、編集機能として、関連付ける第2画像を追加する機能、及び第2画像の関連付けを解除する機能を有する。追加の場合、ユーザは、表示画面内の所望の位置、例えば点p23をタッチし、追加を指定する。例えばポップアップ領域の追加ボタンにより、追加する第2画像をユーザにより選択可能とする。制御部101は、選択された第2画像に関する図形をその位置に表示し、その第2画像の表示位置を管理値に保存する。   In addition, the editing function includes a function of adding a second image to be associated and a function of releasing the association of the second image. In the case of addition, the user touches a desired position in the display screen, for example, the point p23 and designates addition. For example, the user can select the second image to be added by an add button in the pop-up area. The control unit 101 displays a graphic related to the selected second image at the position, and stores the display position of the second image in the management value.

解除の場合、ユーザは、表示画面内に表示されている第2画像の図形を選択し、解除を指定する。例えば、ユーザは、第2狭角画像6cの透過枠9cをタッチし、ポップアップ領域の解除ボタンを押す。制御部101は、解除が指定された第2画像の関連付けを解除し、表示を消去し、管理値を更新する。   In the case of cancellation, the user selects the figure of the second image displayed in the display screen and designates cancellation. For example, the user touches the transparent frame 9c of the second narrow-angle image 6c and presses the release button in the pop-up area. The control unit 101 cancels the association of the second image for which cancellation is specified, deletes the display, and updates the management value.

この変形例によれば、編集機能により、ユーザは、第2表示モードの複数の画像の関連付け表示に関して、自分が見やすい状態や把握しやすい状態となるように自由に編集可能である。   According to this modification, the editing function allows the user to freely edit the association display of the plurality of images in the second display mode so that the user can easily see and grasp the images.

(実施の形態2)
図22〜図25を用いて、本発明の実施の形態2の撮像装置及び表示装置について説明する。以下、実施の形態2の構成における実施の形態1の構成とは異なる部分について説明する。実施の形態2の撮像装置1では、広角画像として全天球画像を撮像する機能を有し、その広角画像を第1画像として関連付け表示する機能を有する。
(Embodiment 2)
The imaging device and display device according to the second embodiment of the present invention will be described with reference to FIGS. In the following, portions of the configuration of the second embodiment that are different from the configuration of the first embodiment will be described. The imaging device 1 according to the second embodiment has a function of capturing an omnidirectional image as a wide-angle image, and has a function of displaying the wide-angle image in association with the first image.

[全天球画像]
本明細書では、図7のように、撮像装置及び撮影者であるユーザの位置を中心点として設定した仮想の球面600を、全天球と称する。本明細書では、全天球画像とは、水平画角及び垂直画角の少なくとも一方の画角として360°を持つ画像とする。
[Spherical image]
In this specification, as shown in FIG. 7, a virtual spherical surface 600 set with the position of the user who is the imaging device and the photographer as the center point is referred to as an omnidirectional sphere. In this specification, the omnidirectional image is an image having 360 ° as an angle of view of at least one of a horizontal angle of view and a vertical angle of view.

図22は、実施の形態2における全天球画像について水平画角で示す。全天球に対応する球面600において、第1広角画像6Aと、第2広角画像6Bと、狭角画像6Cと、を有する。第1広角画像6Aは、撮像装置1の前面カメラ側から前方の撮影方向(例えば北向き)で見た水平画角で180°の撮影範囲2201を持つ広角画像である。第2広角画像6Bは、背面カメラ側から後方の撮影方向(例えば南向き)で見た水平画角で180°の撮影範囲2202を持つ広角画像である。狭角画像6Cは、前面カメラ側から所望の撮影方向(例えば北向き)で水平画角Ahの撮影範囲2203を持つ狭角画像である。第1広角画像6Aと第2広角画像6Bとの合成により、水平画角で360°の撮影範囲を持つ広角画像である全天球画像が構成される。図示しないが垂直画角Avに関しても同様であり、例えば第1広角画像6Aは垂直画角で180°の撮影範囲を持つ。   FIG. 22 shows the omnidirectional image in Embodiment 2 with a horizontal angle of view. The spherical surface 600 corresponding to the omnidirectional sphere has a first wide-angle image 6A, a second wide-angle image 6B, and a narrow-angle image 6C. The first wide-angle image 6A is a wide-angle image having a shooting range 2201 of 180 ° with a horizontal angle of view as viewed from the front camera side of the imaging device 1 in the front shooting direction (for example, northward). The second wide-angle image 6B is a wide-angle image having a shooting range 2202 of 180 ° in the horizontal angle of view as viewed from the rear camera side in the rear shooting direction (for example, southward). The narrow-angle image 6C is a narrow-angle image having a shooting range 2203 with a horizontal angle of view Ah in a desired shooting direction (for example, northward) from the front camera side. By combining the first wide-angle image 6A and the second wide-angle image 6B, an omnidirectional image that is a wide-angle image having a shooting range of 360 ° at a horizontal angle of view is formed. Although not shown, the same applies to the vertical angle of view Av. For example, the first wide-angle image 6A has a shooting range of 180 ° at the vertical angle of view.

[撮像装置]
図23は、撮像装置1のうち撮像部103に係わる部分の構成を示す。撮像装置1は、撮像部103として、第1撮像部103A、第2撮像部103B、第3撮像部103Cを有し、それらがインタフェース回路131に接続されている。
[Imaging device]
FIG. 23 shows a configuration of a part related to the imaging unit 103 in the imaging apparatus 1. The imaging apparatus 1 includes a first imaging unit 103A, a second imaging unit 103B, and a third imaging unit 103C as the imaging unit 103, and these are connected to the interface circuit 131.

第1撮像部103Aは、前面カメラに対応する撮像部であり、駆動部31a及びレンズ部32aを含む。レンズ部32aは、前面の水平画角及び垂直画角で180°の撮影範囲(即ち半天球)での第1広角画像6Aを撮像可能である超広角レンズとして第1レンズを備える。第2撮像部103Bは、背面カメラに対応する撮像部であり、駆動部31b及びレンズ部32bを含む。レンズ部32bは、背面の水平画角及び垂直画角で180°の撮影範囲(即ち半天球)での第2広角画像6Bを撮像可能である超広角レンズとして第2レンズを備える。   The first imaging unit 103A is an imaging unit corresponding to the front camera, and includes a drive unit 31a and a lens unit 32a. The lens unit 32a includes a first lens as a super-wide-angle lens that can capture the first wide-angle image 6A in the imaging range (ie, hemisphere) of 180 ° with the front horizontal and vertical angles of view. The second imaging unit 103B is an imaging unit corresponding to the rear camera, and includes a drive unit 31b and a lens unit 32b. The lens unit 32b includes a second lens as a super-wide-angle lens that can capture the second wide-angle image 6B in the imaging range of 180 ° (that is, a hemisphere) with the horizontal and vertical angle of view on the back.

第3撮像部103Cは、実施の形態1の撮像部103と同様の構成であり、駆動部31c及びレンズ部32cを含む。レンズ部32cは、前面の水平方向及び垂直方向で180°未満の設定された画角範囲内での狭角画像6Cを撮像可能である第3レンズを備える。撮像部103Cで撮像する際の画角は、180°未満の所定の画角範囲内でユーザ操作に基づいて設定可能である。例えば、水平画角Ahとして50°を持つ狭角画像6Cを撮像するとする。   The third imaging unit 103C has the same configuration as that of the imaging unit 103 of Embodiment 1, and includes a drive unit 31c and a lens unit 32c. The lens unit 32c includes a third lens that can capture a narrow-angle image 6C within a set field angle range of less than 180 ° in the horizontal and vertical directions of the front surface. The angle of view at the time of imaging by the imaging unit 103C can be set based on a user operation within a predetermined range of angle of view of less than 180 °. For example, assume that a narrow-angle image 6C having a horizontal angle of view Ah of 50 ° is captured.

制御部101は、全天球撮像制御部11A、撮像制御部11Bを含む。全天球撮像制御部11Aは、第1撮像部103A及び第2撮像部103Bを駆動制御して、全天球画像を撮影する。全天球撮像制御部11Aは、第1撮像部103Aでの第1広角画像6Aと、第2撮像部103Bでの第2広角画像6Bとを、同じタイミングで撮像するように制御する。全天球撮像制御部11Aは、信号処理部132等を通じて、それらの第1広角画像6A及び第2広角画像6Bを入力して合成することにより、360°の画角範囲を持つ全天球画像を撮像する。   The control unit 101 includes an omnidirectional imaging control unit 11A and an imaging control unit 11B. The omnidirectional imaging control unit 11A drives and controls the first imaging unit 103A and the second imaging unit 103B to capture an omnidirectional image. The omnidirectional imaging control unit 11A controls to capture the first wide-angle image 6A from the first imaging unit 103A and the second wide-angle image 6B from the second imaging unit 103B at the same timing. The omnidirectional imaging control unit 11A inputs and synthesizes the first wide-angle image 6A and the second wide-angle image 6B through the signal processing unit 132 and the like, thereby synthesizing the omnidirectional image having a 360 ° field angle range. Image.

なお、このように全天球画像を撮像可能とする光学系を含む撮像部103や制御部101等の構成については、公知技術を用いて実現できる。   In addition, about the structure of the imaging part 103, the control part 101, etc. which contain the optical system which can image an omnidirectional image in this way, it is realizable using a well-known technique.

全天球撮像制御部11Aは、撮像した全天球画像の画像データ23を、実施の形態1と同様に、画角等の情報を含むメタデータ22等と共に画像ファイル24として記憶部102に記憶する。撮像制御部11Bは、撮像した狭角画像の画像データ23を、実施の形態1と同様に、画角等の情報を含むメタデータ22等と共に画像ファイル24として記憶部102に記憶する。   The omnidirectional imaging control unit 11A stores the image data 23 of the captured omnidirectional image in the storage unit 102 as an image file 24 together with the metadata 22 including information such as the angle of view as in the first embodiment. To do. The imaging control unit 11B stores the image data 23 of the captured narrow-angle image in the storage unit 102 as the image file 24 together with the metadata 22 including information such as the angle of view as in the first embodiment.

撮像装置1の撮影モードにおいて、制御部101の制御に応じて、いずれの撮像部を用いて画像を撮像することも可能である。制御部101からの制御に基づいて、撮像部103A、撮像部103B、及び撮像部103Cでは、同時に一回での撮像が可能である。また、制御部101からの制御に基づいて、撮像部103A、撮像部103B、及び撮像部103Cでは、個別のタイミングでの撮像も可能である。撮像部103Aと撮像部103Bとの同時撮影及び合成により全天球画像が撮影できる。また、撮像部103Aと撮像部103Bとの一方を用いた撮影により、第1広角画像6Aまたは第2広角画像6Bによる半天球画像が撮影できる。また、撮像部103Aまたは撮像部103Bの一方と、撮像部103Cとの同時撮影も可能である。その場合、その一方の広角画像と狭角画像6Cとで撮影日時が同じであり自動的に関連付けが可能である。制御部101は、撮像した画像のメタデータ22または管理情報21に、全天球画像または半天球画像または狭角画像6Cを表す種別等の情報を付与してもよい。制御部101は、同時撮影した複数の画像について、メタデータ22等に関連付け情報を付与してもよい。   In the shooting mode of the imaging apparatus 1, it is possible to take an image using any imaging unit under the control of the control unit 101. Based on the control from the control unit 101, the imaging unit 103A, the imaging unit 103B, and the imaging unit 103C can simultaneously perform imaging at one time. Further, based on control from the control unit 101, the imaging unit 103A, the imaging unit 103B, and the imaging unit 103C can perform imaging at individual timings. An omnidirectional image can be photographed by simultaneous photographing and synthesis of the imaging unit 103A and the imaging unit 103B. Moreover, the hemisphere image by the 1st wide-angle image 6A or the 2nd wide-angle image 6B can be image | photographed by imaging | photography using one of the imaging part 103A and the imaging part 103B. Moreover, simultaneous imaging with one of the imaging unit 103A or the imaging unit 103B and the imaging unit 103C is also possible. In that case, the shooting date and time of the one wide-angle image and the narrow-angle image 6C are the same and can be automatically associated. The control unit 101 may add information such as the type representing the omnidirectional image, the hemispherical image, or the narrow-angle image 6C to the metadata 22 or the management information 21 of the captured image. The control unit 101 may give association information to the metadata 22 or the like for a plurality of images that have been taken simultaneously.

[撮像装置−外観]
図24は、撮像装置1の実装例の外観を示す。本例では、撮像装置1としてスマートフォンである場合を示す。図24の左側は、撮像装置1の筐体2400の前面カメラ側を示し、右側は背面カメラ側を示す。前面カメラ側において、筐体2400の所定位置に第1レンズ2401が設けられており、また、所定位置に第3レンズ2403が設けられている。背面カメラ側において、前面カメラ側の第1レンズ2401の位置に対応した反対側の所定位置に第2レンズ2402が設けられている。また、背面カメラ側において、表示装置104の表示画面2404や、操作ボタン2405等が設けられている。
[Imaging device-appearance]
FIG. 24 shows the appearance of an implementation example of the imaging apparatus 1. In this example, the case where it is a smart phone as the imaging device 1 is shown. 24 shows the front camera side of the housing 2400 of the imaging apparatus 1, and the right side shows the rear camera side. On the front camera side, a first lens 2401 is provided at a predetermined position of the housing 2400, and a third lens 2403 is provided at a predetermined position. On the rear camera side, a second lens 2402 is provided at a predetermined position on the opposite side corresponding to the position of the first lens 2401 on the front camera side. On the rear camera side, a display screen 2404 of the display device 104, operation buttons 2405, and the like are provided.

[表示画面−第2表示モード]
図25は、実施の形態2における第2表示モードの第2画面の例を示す。第1表示モードの第1画面は、実施の形態1と同様であり、全天球画像や狭角画像の情報を一覧表示可能である。表示制御部12は、第1表示モードの第1画面で全天球画像が選択操作された場合、図25のような第2表示モードの第2画面を表示する。
[Display screen-second display mode]
FIG. 25 shows an example of the second screen in the second display mode in the second embodiment. The first screen in the first display mode is the same as that in the first embodiment, and can display a list of information on the omnidirectional images and narrow-angle images. When the omnidirectional image is selected and operated on the first screen in the first display mode, the display control unit 12 displays the second screen in the second display mode as shown in FIG.

表示制御部12は、第2画面内において、円形の領域2500で示すように、全天球画像を表示する。表示制御部12は、最初、全天球画像の撮影方向(方位角及び仰角、例えば図22の北向き)が中心の点p0に位置する表示状態で領域2500を表示する。領域2500に対し、ユーザのタッチ入力操作等に応じて、視点変更に対応して表示状態を変えるように、スクロールや拡大縮小等の動作が可能である。例えば、領域2500内で、ユーザが左方向にスワイプ操作すると、全天球画像内での視点が、右方向、即ち水平画角で正方向に移動するように、領域2500内の表示状態が更新される。制御部101は、その際の表示状態を変更する画像処理を行う。なお、全天球画像の表示状態を変更する画像処理は公知技術である。また、特に、全天球画像の最初の表示状態での視点の位置としては、仰角として0°即ち水平方向としてもよいし、90°即ち天頂方向としてもよい。   The display control unit 12 displays an omnidirectional image as indicated by a circular area 2500 in the second screen. The display control unit 12 first displays the region 2500 in a display state in which the shooting direction (azimuth angle and elevation angle, for example, northward in FIG. 22) of the omnidirectional image is located at the center point p0. For area 2500, operations such as scrolling and enlarging / reducing can be performed so as to change the display state corresponding to the viewpoint change in accordance with the user's touch input operation or the like. For example, when the user swipes leftward in the region 2500, the display state in the region 2500 is updated so that the viewpoint in the omnidirectional image moves in the right direction, that is, in the positive direction at the horizontal angle of view. Is done. The control unit 101 performs image processing for changing the display state at that time. Note that image processing for changing the display state of the omnidirectional image is a known technique. In particular, the viewpoint position in the initial display state of the omnidirectional image may be 0 °, that is, the horizontal direction, or 90 °, that is, the zenith direction.

制御部101は、全天球画像に関連付けられている狭角画像が存在する場合、全天球画像の領域2500上において、それらの狭角画像を、実施の形態1と同様に所定の図形や縮小画像等で表示する。本例では、透過枠で表示する場合を示す。全天球画像の領域2500上に、3つの狭角画像が関連付けられている場合を示す。点p11には、第1狭角画像を表す透過枠2501を有し、点p12には、第2狭角画像を表す透過枠2502を有し、点p13には、第3狭角画像を表す透過枠2503を有する。全天球画像の領域2500内での表示状態の変更に伴い、狭角画像の図形の位置や形状やサイズ等も変更される。なお、透過枠に対応する狭角画像の領域は、全天球の球面内に配置されているため、形状としては、円周方向で歪み、即ち円弧部分を有する。本例では透過枠を簡易的に矩形で表示している。   When there is a narrow-angle image associated with the omnidirectional image, the control unit 101 displays the narrow-angle image on the omnidirectional image region 2500 as a predetermined figure or Display as a reduced image. In this example, a case of displaying with a transparent frame is shown. A case where three narrow-angle images are associated on the omnidirectional image region 2500 is shown. Point p11 has a transmission frame 2501 representing the first narrow-angle image, point p12 has a transmission frame 2502 representing the second narrow-angle image, and point p13 represents the third narrow-angle image. A transmission frame 2503 is included. Along with the change of the display state in the area 2500 of the omnidirectional image, the position, shape, size, etc. of the figure of the narrow-angle image are also changed. Note that the narrow-angle image region corresponding to the transmission frame is arranged in the spherical surface of the omnidirectional sphere, and therefore has a shape that is distorted in the circumferential direction, that is, has an arc portion. In this example, the transparent frame is simply displayed as a rectangle.

また、実施の形態1と同様に、第2表示モードの第2画面に対する所定の操作に基づいて、狭角画像の図形の表示のオン/オフの切り替えや、第1表示モードに戻る動作等も可能である。制御部101は、第2画面で、狭角画像を表す図形が選択操作されると、実施の形態1と同様に、その狭角画像を第3表示モードで詳細表示する。   Further, as in the first embodiment, based on a predetermined operation on the second screen in the second display mode, on / off switching of the display of the graphic of the narrow-angle image, an operation for returning to the first display mode, and the like are also possible. Is possible. When a graphic representing a narrow-angle image is selected and operated on the second screen, the control unit 101 displays the narrow-angle image in detail in the third display mode, as in the first embodiment.

[効果等]
実施の形態2によれば、広角画像として全天球画像を表示する際に、同じ撮影場所等の所定の関係を持つ狭角画像を関連付けて表示するので、ユーザは複数の画像の関係を把握しやすく、好適な閲覧ができる。
[Effects]
According to the second embodiment, when displaying an omnidirectional image as a wide-angle image, a narrow-angle image having a predetermined relationship such as the same shooting location is displayed in association with each other, so the user grasps the relationship between a plurality of images. Easy browsing and suitable browsing.

実施の形態2の変形例として以下が可能である。背面カメラ側の第2撮像部103Bを省略し、第1撮像部103Aを用いて前方の180°の画角範囲を持つ半天球画像を撮像する形態としてもよい。   The following is possible as a modification of the second embodiment. The second imaging unit 103B on the rear camera side may be omitted, and the first imaging unit 103A may be used to capture a hemispherical image having a forward 180 ° field angle range.

第2表示モードの第2画面では、全天球画像の領域2500を、円形ではなく、矩形の領域に変換して表示してもよい。その矩形の領域に、全天球画像のうちの一部の画角範囲に対応する画像が表示され、ユーザ操作に基づいて表示状態が変更される。   On the second screen in the second display mode, the omnidirectional image area 2500 may be converted into a rectangular area instead of a circle. In the rectangular area, an image corresponding to a part of the field angle range of the omnidirectional image is displayed, and the display state is changed based on a user operation.

撮像装置1は、自機器内で全天球画像を撮像し、外部の機器で撮像された狭角画像を取り込んで、関連付け表示を行ってもよい。逆に、撮像装置1は、自機器内で狭角画像を撮像し、外部の機器で撮像された全天球画像を取り込んで、関連付け表示を行ってもよい。例えば、図1の第2撮像装置1Bは、全天球画像を撮像し、第1撮像装置1Aで撮像された狭角画像や、サーバ3に登録されている狭角画像を、自機器に取得して、関連付け表示を行ってもよい。   The imaging device 1 may capture an omnidirectional image in its own device, capture a narrow-angle image captured by an external device, and perform association display. Conversely, the imaging device 1 may capture a narrow-angle image within its own device, capture an omnidirectional image captured by an external device, and perform association display. For example, the second imaging device 1B in FIG. 1 captures an omnidirectional image and acquires a narrow-angle image captured by the first imaging device 1A or a narrow-angle image registered in the server 3 in its own device. Then, the association display may be performed.

なお、360°の画角を有する画像は、カメラの撮影方向に係わらず全方位の画角を有している。このため、必ずしも撮影方向に応じて表示画面内の表示方向を変更する必要はない。そこで、第2表示モードまたは第3表示モードにおいて全天球画像の動画を再生表示する際には以下のような2種類の表示方法を選択できるようにしてもよい。第1に、狭角画像の再生表示と同様に、撮影時の撮影方向に応じて変化する画像をそのまま再生表示する。あるいは、第2に、動画撮影時にメタデータとして記録される撮影方向の情報に基づいて、例えば方位角に相当する角度だけ回転させ、撮影方向に係わらずに、画像の方向が固定されるようにし、その固定の方向で再生表示する。   Note that an image having an angle of view of 360 ° has an omnidirectional angle of view regardless of the shooting direction of the camera. For this reason, it is not always necessary to change the display direction in the display screen according to the shooting direction. Therefore, when the moving image of the omnidirectional image is reproduced and displayed in the second display mode or the third display mode, the following two types of display methods may be selected. First, similar to the reproduction display of the narrow-angle image, the image that changes according to the shooting direction at the time of shooting is reproduced and displayed as it is. Alternatively, secondly, based on the information on the shooting direction recorded as metadata at the time of moving image shooting, for example, it is rotated by an angle corresponding to the azimuth angle so that the image direction is fixed regardless of the shooting direction. , Play and display in that fixed direction.

また、動画、静止画に係わらず、画像を表示する際に、撮像装置1(表示装置2も同様)の方向を、撮影方向計測部111や位置検出部113を用いて検出し、検出した方向と画像の撮影方向とを一致させるように表示してもよい。   Moreover, when displaying an image regardless of whether it is a moving image or a still image, the direction of the imaging device 1 (the same applies to the display device 2) is detected using the shooting direction measurement unit 111 and the position detection unit 113, and the detected direction is detected. May be displayed so that the image capturing direction matches the image capturing direction.

(実施の形態3)
図26を用いて、本発明の実施の形態3の撮像装置及び表示装置について説明する。以下、実施の形態3の構成における実施の形態1の構成とは異なる部分について説明する。実施の形態3の撮像装置1では、複数の画像の関連付けを行うための特有の撮影モードを設ける。
(Embodiment 3)
The imaging device and display device according to Embodiment 3 of the present invention will be described with reference to FIG. Hereinafter, a different part from the structure of Embodiment 1 in the structure of Embodiment 3 is demonstrated. In the imaging apparatus 1 according to the third embodiment, a specific shooting mode for associating a plurality of images is provided.

[撮影モード]
実施の形態3の撮像装置1は、撮影モードとして、通常の撮影モードである第1撮影モードと、関連付けを行うための第2撮影モードとを有する。撮像装置1は、ユーザ入力操作やユーザ設定に基づいて、撮影モードの切り替えを行う。ユーザは、操作入力部105等を通じて、任意のタイミングで、第1撮影モードと第2撮影モードとを切り替える所定の操作を行う。所定の操作は、例えばモード切り替えボタンの押下としてもよい。
[Shooting mode]
The imaging apparatus 1 according to the third embodiment has a first shooting mode that is a normal shooting mode and a second shooting mode for performing association as shooting modes. The imaging device 1 switches the shooting mode based on a user input operation or a user setting. The user performs a predetermined operation for switching between the first shooting mode and the second shooting mode at an arbitrary timing through the operation input unit 105 or the like. The predetermined operation may be, for example, pressing of a mode switching button.

図26は、実施の形態3の撮像装置1における、時間軸における撮影モードの切り替え等を示す。撮像装置1は、最初、第1撮影モードの状態とし、第1撮影モードで撮像された個々の画像については、関連付け処理を行わない。例えば、時点t11で撮像された画像は、関連付けが行われず、メタデータ22等には関連付け情報が記述されない。   FIG. 26 shows switching of shooting modes on the time axis in the imaging apparatus 1 according to the third embodiment. The imaging apparatus 1 is initially in the state of the first shooting mode, and does not perform association processing for individual images captured in the first shooting mode. For example, the image captured at time t11 is not associated, and the association information is not described in the metadata 22 or the like.

ユーザは、所望のタイミング、例えば時点T2で、第1撮影モードから第2撮影モードへ切り替える操作を行う。撮像装置1は、第2撮影モードの状態では、その期間に撮像された個々の画像を対象にして、自動的に関連付ける処理を行う。例えば、第2撮影モード中の時点t1〜t4でそれぞれ画像が撮像されている。制御部101は、関連付け部15により、それらの画像に関して関連付け処理を行い、メタデータ22または管理情報21に関連付け情報を記述する。その際、関連付け部15は、それらの複数の画像を、グループとして関連付ける。本例では、時点t1〜t4の各画像は、第1グループとして関連付けられている。関連付け部15は、グループ識別情報を、メタデータ22または管理情報21の1つとして記述する。グループ識別情報は、例えば、第2撮影モードの期間の開始日時及び終了日時を用いた文字列でもよいし、第2撮影モードの発生回数を用いた文字列でもよい。また、それらの画像のファイル名やメタデータ22には、グループ識別情報と、個別の画像の撮影日時や順序番号とを組み合わせた文字列が付与されてもよい。   The user performs an operation of switching from the first shooting mode to the second shooting mode at a desired timing, for example, at time T2. In the state of the second shooting mode, the imaging device 1 performs a process of automatically associating each image captured during that period. For example, images are captured at time points t1 to t4 in the second shooting mode. The control unit 101 uses the associating unit 15 to perform associating processing on these images and describes the associating information in the metadata 22 or the management information 21. At that time, the associating unit 15 associates the plurality of images as a group. In this example, the images at time points t1 to t4 are associated as the first group. The associating unit 15 describes the group identification information as one of the metadata 22 or the management information 21. The group identification information may be, for example, a character string using the start date / time and end date / time of the second shooting mode period, or a character string using the number of occurrences of the second shooting mode. In addition, the file names and metadata 22 of these images may be provided with a character string that is a combination of the group identification information and the shooting date and sequence number of each individual image.

ユーザは、所望のタイミング、例えば時点T4で、第2撮影モードから第1撮影モードへ切り替える操作を行う。撮像装置1は、第1撮影モードで撮像された個々の画像、例えば時点t12で撮像された画像については、関連付けを行わない。制御部101は、第1撮影モードに戻った時点で関連付け処理を実行してもよい。   The user performs an operation of switching from the second shooting mode to the first shooting mode at a desired timing, for example, at time T4. The imaging device 1 does not associate individual images captured in the first imaging mode, for example, images captured at time t12. The control unit 101 may execute the association process when returning to the first imaging mode.

また、関連付け部15は、第2撮影モードの期間内において撮像された複数の画像について、広角画像、狭角画像の種別を判断する。関連付け部15は、広角画像及び狭角画像の一方しか存在しない場合には、関連付けを行わない。関連付け部15は、広角画像及び狭角画像の両方が存在する場合、広角画像である第1画像に対して、狭角画像である第2画像を関連付ける。   In addition, the associating unit 15 determines the type of wide-angle image and narrow-angle image for a plurality of images captured during the period of the second shooting mode. The association unit 15 does not perform association when only one of the wide-angle image and the narrow-angle image exists. When both the wide-angle image and the narrow-angle image exist, the associating unit 15 associates the second image that is the narrow-angle image with the first image that is the wide-angle image.

表示制御部12は、再生表示の際には、画像ファイル24や管理情報21におけるグループ識別情報等の参照に基づいて、関連付けを確認して関連付け表示を行う。   At the time of reproduction display, the display control unit 12 confirms the association based on the reference of the group identification information or the like in the image file 24 or the management information 21 and displays the association.

[効果等]
実施の形態3によれば、ユーザが撮影モードを切り替えて自分の判断で関連付けを行うことが容易にできる。実施の形態3は、前述の第2選択方式の撮影日時に関する判断を、特有の撮影モードを用いて自動化する形態に相当する。
[Effects]
According to the third embodiment, it is easy for the user to switch the shooting mode and perform association by his / her own judgment. The third embodiment corresponds to an embodiment in which the determination regarding the shooting date and time of the second selection method is automated using a specific shooting mode.

実施の形態3の変形例として以下が可能である。撮像装置1は、判断に応じて撮影モードの切り替えを自動的に行う。撮像装置1は、撮像時に、画像の画角の種別、例えば広角と狭角の区別を判断する。そして、撮像装置1は、撮像された画像が広角画像である場合に、自動的に第1撮影モードから第2撮影モードへ切り替える。撮像装置1は、その第2撮影モード内で撮像された狭角画像を判断し、最初の広角画像に対してその狭角画像を関連付ける。撮像装置1は、第2撮影モードに入ってから例えば設定に基づいた所定時間が経過したら、第2撮影モードから第1撮影モードへ戻す。   The following is possible as a modification of the third embodiment. The imaging device 1 automatically switches the shooting mode according to the determination. The imaging device 1 determines the type of angle of view of an image, for example, a distinction between a wide angle and a narrow angle at the time of imaging. The imaging device 1 automatically switches from the first shooting mode to the second shooting mode when the captured image is a wide-angle image. The imaging device 1 determines the narrow-angle image captured in the second shooting mode, and associates the narrow-angle image with the first wide-angle image. The imaging apparatus 1 returns from the second shooting mode to the first shooting mode when, for example, a predetermined time based on the setting elapses after entering the second shooting mode.

以上、本発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されず、その要旨を逸脱しない範囲で種々変更可能である。本発明の機能等は、一部または全部が、集積回路等のハードウェアで実現されてもよいし、ソフトウェアプログラム処理で実現されてもよい。   Although the present invention has been specifically described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention. Some or all of the functions and the like of the present invention may be realized by hardware such as an integrated circuit, or may be realized by software program processing.

1…撮像装置、2…表示装置、3…サーバ、4…通信網、11…撮像制御部、12…表示制御部、13…タッチ検出部、14…設定部、15…関連付け部、21…管理情報、22…メタデータ、23…画像データ、24…画像ファイル、101…制御部、102…記憶部、103…撮像部、104…表示装置、105…操作入力部、106…記録部、107…記録媒体、108…通信インタフェース部、111…撮影方向計測部、112…内部時計、113…位置検出部、131…インタフェース回路部、132…信号処理部、133…メモリ、901…第1画像、902,903…図形、904…第2画像。   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 2 ... Display apparatus, 3 ... Server, 4 ... Communication network, 11 ... Imaging control part, 12 ... Display control part, 13 ... Touch detection part, 14 ... Setting part, 15 ... Association part, 21 ... Management Information 22 ... Metadata 23 ... Image data 24 ... Image file 101 ... Control unit 102 ... Storage unit 103 ... Imaging unit 104 ... Display device 105 ... Operation input unit 106 ... Recording unit 107 ... Recording medium 108 ... Communication interface unit 111 ... Shooting direction measuring unit 112 ... Internal clock 113 ... Position detecting unit 131 ... Interface circuit unit 132 ... Signal processing unit 133 ... Memory 901 ... First image 902 , 903 ... a figure, 904 ... a second image.

Claims (18)

静止画または動画の画像を撮像して画像データを得る撮像部と、
前記画像データに基づいて前記画像を表示画面に再生表示する表示部と、
を備え、
前記画像の撮影方向として方位角及び仰角の少なくとも一方と、前記画像の画角または前記画角を計算可能である画角関連情報の少なくとも一方と、を含む第1情報を取得し、
前記撮像された複数の画像について、第1画像の第1撮影方向の第1画角の範囲内に、第2画像の第2撮影方向が含まれている場合に、前記第1画像に前記第2画像を関連付け、
ユーザの操作に基づいて選択された前記第1画像を前記表示画面内に表示すると共に、前記第1画像に関連付けられる前記第2画像を、前記第1画像の上に、前記第2画像または前記第2画像を表す第2情報として重ね合わせた状態で表示する、
撮像装置。
An imaging unit that captures a still image or a moving image to obtain image data;
A display unit that reproduces and displays the image on a display screen based on the image data;
With
Obtaining first information including at least one of an azimuth angle and an elevation angle as a shooting direction of the image, and at least one of the angle of view of the image or the angle of view related information capable of calculating the angle of view;
When the second image capturing direction of the second image is included in the first image angle range of the first image capturing direction of the first image, the first image includes the first image in the first image. Associate two images,
The first image selected based on a user operation is displayed in the display screen, and the second image associated with the first image is displayed on the first image with the second image or the second image. Displaying the second image as a second information representing the second image in a superimposed state;
Imaging device.
請求項1記載の撮像装置において、
前記画像データ及び前記第1情報を記憶する記憶部を備え、
前記画角関連情報は、電子ズーム倍率、焦点距離、及び、撮像素子の寸法または機種、を含み、
前記第1情報に前記画角関連情報を含む場合に、前記画角関連情報から前記画角を計算し、前記画角を前記第1情報に記述する、
撮像装置。
The imaging device according to claim 1,
A storage unit for storing the image data and the first information;
The angle-of-view related information includes an electronic zoom magnification, a focal length, and a size or model of an image sensor,
When the first information includes the angle-of-view related information, the angle of view is calculated from the angle-of-view related information, and the angle of view is described in the first information.
Imaging device.
請求項1記載の撮像装置において、
前記第2情報は、前記第2画像の縮小画像、所定の図形、透過枠、または、前記第2画像の属性値を有する、
撮像装置。
The imaging device according to claim 1,
The second information includes a reduced image of the second image, a predetermined graphic, a transparent frame, or an attribute value of the second image.
Imaging device.
請求項1記載の撮像装置において、
前記第2情報の表示のサイズは、前記第2画像の前記画角に対応させたサイズである、
撮像装置。
The imaging device according to claim 1,
The display size of the second information is a size corresponding to the angle of view of the second image.
Imaging device.
請求項1記載の撮像装置において、
前記第1画像の上の領域内に、前記関連付けられる複数の第2画像がある場合に、前記第2情報として、代表を表す図形を表示し、
前記代表を表す図形の選択操作に応じて、前記関連付けられる前記複数の第2画像に関する情報を表示して前記第2画像を選択可能とする、
撮像装置。
The imaging device according to claim 1,
When there are a plurality of associated second images in the area above the first image, a graphic representing a representative is displayed as the second information,
In response to a selection operation of a graphic representing the representative, information related to the plurality of second images associated with each other is displayed so that the second image can be selected.
Imaging device.
請求項1記載の撮像装置において、
前記撮像の際、前記第1情報を、前記画像データのメタデータまたは管理情報として作成して格納し、
前記撮像の後、前記関連付けを行い、前記第1画像に前記第2画像が関連付けられる場合には、前記第1画像と前記第2画像との関連付け情報を作成して前記メタデータまたは前記管理情報に記述し、
前記再生表示の際、前記関連付け情報を確認して、前記重ね合わせた状態で表示する、
撮像装置。
The imaging device according to claim 1,
At the time of imaging, the first information is created and stored as metadata or management information of the image data,
After the imaging, the association is performed, and when the second image is associated with the first image, association information between the first image and the second image is created and the metadata or the management information Described in
In the playback display, the association information is confirmed and displayed in the superimposed state.
Imaging device.
請求項1記載の撮像装置において、
前記撮像の際、前記第1情報を、前記画像データのメタデータまたは管理情報として作成して格納し、
前記再生表示の際、前記関連付けを行い、前記第1画像に前記第2画像が関連付けられる場合には、前記重ね合わせた状態で表示する、
撮像装置。
The imaging device according to claim 1,
At the time of imaging, the first information is created and stored as metadata or management information of the image data,
In the playback display, the association is performed, and when the second image is associated with the first image, the superimposed image is displayed in the superimposed state.
Imaging device.
請求項1記載の撮像装置において、
第1撮影モードと第2撮影モードとを切り替え、
前記第1撮影モードにおいて撮像された画像については、前記関連付けを行わず、
前記第2撮影モードにおいて撮像された複数の画像については、グループとして前記関連付けを行う、
撮像装置。
The imaging device according to claim 1,
Switch between the first shooting mode and the second shooting mode,
For the image captured in the first shooting mode, the association is not performed,
The plurality of images captured in the second shooting mode are associated as a group.
Imaging device.
請求項1記載の撮像装置において、
前記撮像の際、撮影場所を表す位置情報を、前記画像データのメタデータまたは管理情報として作成して格納し、
前記関連付けの際、前記第1画像の前記位置情報に対して前記第2画像の前記位置情報が所定の位置範囲内に含まれる場合に、前記関連付けの候補の画像として選択する、
撮像装置。
The imaging device according to claim 1,
At the time of imaging, position information representing a shooting location is created and stored as metadata or management information of the image data,
In the case of the association, when the position information of the second image is included in a predetermined position range with respect to the position information of the first image, the image is selected as an association candidate image.
Imaging device.
請求項1記載の撮像装置において、
前記撮像の際、撮影日時を含む情報を、前記画像データのメタデータまたは管理情報として作成して格納し、
前記関連付けの際、前記第1画像の前記撮影日時に対して前記第2画像の前記撮影日時が所定の時間範囲内に含まれる場合に、前記関連付けの候補の画像として選択する、
撮像装置。
The imaging device according to claim 1,
At the time of imaging, information including shooting date and time is created and stored as metadata or management information of the image data,
In the case of the association, when the shooting date / time of the second image is included in a predetermined time range with respect to the shooting date / time of the first image, the image is selected as the candidate image for association.
Imaging device.
請求項1記載の撮像装置において、
前記撮像の際または前記再生表示の際、前記ユーザの操作に基づいて設定された文字列を、前記画像データのメタデータまたは管理情報として作成して格納し、
前記関連付けの際、前記第1画像の前記文字列に対して前記第2画像の前記文字列が同じ文字列を含む場合に、前記関連付けの候補の画像として選択する、
撮像装置。
The imaging device according to claim 1,
A character string set based on the operation of the user is created and stored as metadata or management information of the image data at the time of the imaging or the reproduction display,
In the case of the association, when the character string of the second image includes the same character string with respect to the character string of the first image, the image is selected as a candidate image for the association.
Imaging device.
請求項1記載の撮像装置において、
前記撮像部は、180°以上で360°以内の画角を持つ広角画像を撮像可能であり、
前記広角画像を前記第1画像として前記関連付けを行う、
撮像装置。
The imaging device according to claim 1,
The imaging unit can capture a wide-angle image having an angle of view of 180 ° or more and 360 ° or less,
Performing the association with the wide-angle image as the first image;
Imaging device.
請求項1記載の撮像装置において、
前記再生表示の際、前記ユーザの操作に基づいて、前記表示画面において、
第1表示モードの第1画面として、前記複数の画像に関する情報を一覧表示し、
第2表示モードの第2画面として、前記第1画面内で選択された前記第1画像の上に、前記第1画像に関連付けられる前記第2画像または前記第2情報を前記重ね合わせた状態で表示し、
第3表示モードの第3画面として、前記第2画面内で選択された前記第2画像または前記第2情報に対応する前記第2画像を詳細表示する、
撮像装置。
The imaging device according to claim 1,
In the playback display, based on the user's operation, on the display screen,
As a first screen in the first display mode, a list of information on the plurality of images is displayed.
As the second screen in the second display mode, the second image or the second information associated with the first image is superimposed on the first image selected in the first screen. Display
As the third screen in the third display mode, the second image selected in the second screen or the second image corresponding to the second information is displayed in detail.
Imaging device.
請求項1記載の撮像装置において、
前記再生表示の際の前記表示画面での前記第2画像または前記第2情報の表示位置を、前記画像データのメタデータまたは管理情報の項目の1つとして格納し、
前記再生表示の際、前記表示画面に対する前記ユーザの操作に基づいて、
前記第1画像の上の前記第2画像または前記第2情報を移動させて、移動後の前記表示位置を前記項目に格納し、
前記第1画像の上の選択された位置に、前記第2画像の関連付けを追加し、
前記第1画像の上の選択された位置にある前記第2画像の関連付けを解除する、
撮像装置。
The imaging device according to claim 1,
The display position of the second image or the second information on the display screen at the time of the playback display is stored as one of metadata or management information items of the image data,
During the playback display, based on the user's operation on the display screen,
Moving the second image or the second information on the first image and storing the display position after the movement in the item;
Adding an association of the second image at a selected position on the first image;
Disassociating the second image at a selected position on the first image;
Imaging device.
外部の撮像装置で撮像された、静止画または動画の画像の画像データを入力して保持する入力部と、
前記画像データに基づいて前記画像を表示画面に再生表示する表示部と、
を備え、
前記画像の撮影方向として方位角及び仰角の少なくとも一方と、前記画像の画角または前記画角を計算可能である画角関連情報の少なくとも一方と、を含む第1情報を取得し、
前記撮像された複数の画像について、第1画像の第1撮影方向の第1画角の範囲内に、第2画像の第2撮影方向が含まれている場合に、前記第1画像に前記第2画像を関連付け、
ユーザの操作に基づいて選択された前記第1画像を前記表示画面内に表示すると共に、前記第1画像に関連付けられる前記第2画像を、前記第1画像の上に、前記第2画像または前記第2画像を表す第2情報として重ね合わせた状態で表示する、
表示装置。
An input unit for inputting and holding image data of a still image or a moving image captured by an external imaging device;
A display unit that reproduces and displays the image on a display screen based on the image data;
With
Obtaining first information including at least one of an azimuth angle and an elevation angle as a shooting direction of the image, and at least one of the angle of view of the image or the angle of view related information capable of calculating the angle of view;
When the second image capturing direction of the second image is included in the first image angle range of the first image capturing direction of the first image, the first image includes the first image in the first image. Associate two images,
The first image selected based on a user operation is displayed in the display screen, and the second image associated with the first image is displayed on the first image with the second image or the second image. Displaying the second image as a second information representing the second image in a superimposed state;
Display device.
撮像装置と表示装置とが接続された撮像表示システムであって、
前記撮像装置は、
静止画または動画の画像を撮像して画像データを得る撮像部を備え、
前記画像の撮影方向として方位角及び仰角の少なくとも一方と、前記画像の画角または前記画角を計算可能である画角関連情報の少なくとも一方と、を含む第1情報を取得し、
前記撮像された複数の画像について、第1画像の第1撮影方向の第1画角の範囲内に、第2画像の第2撮影方向が含まれている場合に、前記第1画像に前記第2画像を関連付け、
前記関連付けが行われた前記第1画像及び前記第2画像の前記画像データを含む画像ファイルを、前記表示装置に送信し、
前記表示装置は、
前記撮像装置で撮像された、前記画像データを含む前記画像ファイルを入力して保持する入力部と、
前記画像データに基づいて前記画像を表示画面に再生表示する表示部と、
を備え、
ユーザの操作に基づいて選択された前記第1画像を前記表示画面内に表示すると共に、前記第1画像に関連付けられる前記第2画像を、前記第1画像の上に、前記第2画像または前記第2画像を表す第2情報として重ね合わせた状態で表示する、
撮像表示システム。
An imaging display system in which an imaging device and a display device are connected,
The imaging device
An imaging unit that captures a still image or a moving image to obtain image data,
Obtaining first information including at least one of an azimuth angle and an elevation angle as a shooting direction of the image, and at least one of the angle of view of the image or the angle of view related information capable of calculating the angle of view;
When the second image capturing direction of the second image is included in the first image angle range of the first image capturing direction of the first image, the first image includes the first image in the first image. Associate two images,
Transmitting the image file including the image data of the first image and the second image to which the association has been performed, to the display device;
The display device
An input unit for inputting and holding the image file including the image data captured by the imaging device;
A display unit that reproduces and displays the image on a display screen based on the image data;
With
The first image selected based on a user operation is displayed in the display screen, and the second image associated with the first image is displayed on the first image with the second image or the second image. Displaying the second image as a second information representing the second image in a superimposed state;
Imaging display system.
撮像装置と表示装置とが接続された撮像表示システムであって、
前記撮像装置は、
静止画または動画の画像を撮像して画像データを得る撮像部を備え、
前記画像の撮影方向として方位角及び仰角の少なくとも一方と、前記画像の画角または前記画角を計算可能である画角関連情報の少なくとも一方と、を含む第1情報と、前記画像データと、を含む画像ファイルを、前記表示装置に送信し、
前記表示装置は、
前記撮像装置で撮像された、前記第1情報と前記画像データとを含む前記画像ファイルを入力して保持する入力部と、
前記画像データに基づいて前記画像を表示画面に再生表示する表示部と、
を備え、
前記表示装置は、
前記撮像された複数の画像について、第1画像の第1撮影方向の第1画角の範囲内に、第2画像の第2撮影方向が含まれている場合に、前記第1画像に前記第2画像を関連付け、
ユーザの操作に基づいて選択された前記第1画像を前記表示画面内に表示すると共に、前記第1画像に関連付けられる前記第2画像を、前記第1画像の上に、前記第2画像または前記第2画像を表す第2情報として重ね合わせた状態で表示する、
撮像表示システム。
An imaging display system in which an imaging device and a display device are connected,
The imaging device
An imaging unit that captures a still image or a moving image to obtain image data,
First information including at least one of an azimuth angle and an elevation angle as a shooting direction of the image, and at least one of the angle of view of the image or the angle of view related information capable of calculating the angle of view, the image data, An image file including
The display device
An input unit configured to input and hold the image file including the first information and the image data captured by the imaging device;
A display unit that reproduces and displays the image on a display screen based on the image data;
With
The display device
When the second image capturing direction of the second image is included in the first image angle range of the first image capturing direction of the first image, the first image includes the first image in the first image. Associate two images,
The first image selected based on a user operation is displayed in the display screen, and the second image associated with the first image is displayed on the first image with the second image or the second image. Displaying the second image as a second information representing the second image in a superimposed state;
Imaging display system.
撮像装置とサーバ装置と表示装置とが接続された撮像表示システムであって、
前記撮像装置は、
静止画または動画の画像を撮像して画像データを得る撮像部を備え、
前記画像の撮影方向として方位角及び仰角の少なくとも一方と、前記画像の画角または前記画角を計算可能である画角関連情報の少なくとも一方と、を含む第1情報と、前記画像データと、を含む画像ファイルを、前記サーバ装置に送信し、
前記サーバ装置は、
前記撮像装置から受信した前記画像ファイルをDBに蓄積し、
前記撮像装置で撮像された複数の画像について、第1画像の第1撮影方向の第1画角の範囲内に、第2画像の第2撮影方向が含まれている場合に、前記第1画像に前記第2画像を関連付け、前記関連付けが行われた前記第1画像及び前記第2画像の前記画像データを含む前記画像ファイルを、前記DBに格納し、
前記表示装置は、
前記サーバ装置から前記画像ファイルを取得して保持する入力部と、
前記画像データに基づいて前記画像を表示画面に再生表示する表示部と、
を備え、
ユーザの操作に基づいて選択された前記第1画像を前記表示画面内に表示すると共に、前記第1画像に関連付けられる前記第2画像を、前記第1画像の上に、前記第2画像または前記第2画像を表す第2情報として重ね合わせた状態で表示する、
撮像表示システム。
An imaging display system in which an imaging device, a server device, and a display device are connected,
The imaging device
An imaging unit that captures a still image or a moving image to obtain image data,
First information including at least one of an azimuth angle and an elevation angle as a shooting direction of the image, and at least one of the angle of view of the image or the angle of view related information capable of calculating the angle of view, the image data, An image file including
The server device
The image file received from the imaging device is accumulated in a DB,
When the second image capturing direction of the second image is included in the range of the first angle of view of the first image capturing direction of the first image for the plurality of images captured by the image capturing device, the first image And associating the second image with each other, storing the image file including the image data of the first image and the second image with which the association has been performed, in the DB,
The display device
An input unit for acquiring and holding the image file from the server device;
A display unit that reproduces and displays the image on a display screen based on the image data;
With
The first image selected based on a user operation is displayed in the display screen, and the second image associated with the first image is displayed on the first image with the second image or the second image. Displaying the second image as a second information representing the second image in a superimposed state;
Imaging display system.
JP2016121612A 2016-06-20 2016-06-20 Imaging device and imaging display system Active JP6704301B2 (en)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2016121612A JP6704301B2 (en) 2016-06-20 2016-06-20 Imaging device and imaging display system
CN202110783711.0A CN113542602A (en) 2016-06-20 2017-06-01 Image pickup apparatus, display apparatus, and image pickup display system
CN201780038305.3A CN109417598B (en) 2016-06-20 2017-06-01 Image pickup apparatus, display apparatus, and image pickup display system
CN202110783694.0A CN113542601B (en) 2016-06-20 2017-06-01 Image pickup apparatus, display apparatus, and image pickup display system
PCT/JP2017/020407 WO2017221659A1 (en) 2016-06-20 2017-06-01 Image capturing device, display device, and image capturing and displaying system
US16/311,631 US11004167B2 (en) 2016-06-20 2017-06-01 Image capturing apparatus having capability of recognizing a relationship among a plurality of images
US17/227,031 US11367158B2 (en) 2016-06-20 2021-04-09 Image capturing method and display method for recognizing a relationship among a plurality of images displayed on a display screen
US17/743,105 US11710205B2 (en) 2016-06-20 2022-05-12 Image capturing method and display method for recognizing a relationship among a plurality of images displayed on a display screen
US18/327,328 US20230306549A1 (en) 2016-06-20 2023-06-01 Image capturing method and display method for recognizing a relationship among a plurality of images displayed on a display screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016121612A JP6704301B2 (en) 2016-06-20 2016-06-20 Imaging device and imaging display system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020083554A Division JP6871458B2 (en) 2020-05-12 2020-05-12 Imaging display method

Publications (2)

Publication Number Publication Date
JP2017228828A true JP2017228828A (en) 2017-12-28
JP6704301B2 JP6704301B2 (en) 2020-06-03

Family

ID=60892000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016121612A Active JP6704301B2 (en) 2016-06-20 2016-06-20 Imaging device and imaging display system

Country Status (1)

Country Link
JP (1) JP6704301B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020129751A (en) * 2019-02-08 2020-08-27 キヤノン株式会社 Electronic device and control method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003259350A (en) * 2002-02-28 2003-09-12 Sharp Corp Omnidirectional monitor control system, omnidirectional monitor control method, and omnidirectional monitor control program
JP2008028648A (en) * 2006-07-20 2008-02-07 Nikon Corp Image reproducing device and image reproducing program
JP2010252258A (en) * 2009-04-20 2010-11-04 Sanyo Electric Co Ltd Electronic device and image capturing apparatus
JP2012142825A (en) * 2011-01-05 2012-07-26 Sony Corp Information processing apparatus, information display method and computer program
JP2013015907A (en) * 2011-06-30 2013-01-24 Canon Inc Image classification device, control method for image classification device, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003259350A (en) * 2002-02-28 2003-09-12 Sharp Corp Omnidirectional monitor control system, omnidirectional monitor control method, and omnidirectional monitor control program
JP2008028648A (en) * 2006-07-20 2008-02-07 Nikon Corp Image reproducing device and image reproducing program
JP2010252258A (en) * 2009-04-20 2010-11-04 Sanyo Electric Co Ltd Electronic device and image capturing apparatus
JP2012142825A (en) * 2011-01-05 2012-07-26 Sony Corp Information processing apparatus, information display method and computer program
JP2013015907A (en) * 2011-06-30 2013-01-24 Canon Inc Image classification device, control method for image classification device, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020129751A (en) * 2019-02-08 2020-08-27 キヤノン株式会社 Electronic device and control method thereof
JP7336200B2 (en) 2019-02-08 2023-08-31 キヤノン株式会社 Electronic device and its control method

Also Published As

Publication number Publication date
JP6704301B2 (en) 2020-06-03

Similar Documents

Publication Publication Date Title
WO2017221659A1 (en) Image capturing device, display device, and image capturing and displaying system
US10440309B2 (en) Controlling a content capturing and recording apparatus using an inclination angle of the apparatus
US9013589B2 (en) Digital image processing apparatus and digital image processing method capable of obtaining sensibility-based image
JPWO2017047012A1 (en) Imaging device and system including imaging device and server
US20140210941A1 (en) Image capture apparatus, image capture method, and image capture program
US8947558B2 (en) Digital photographing apparatus for multi-photography data and control method thereof
JP6741498B2 (en) Imaging device, display device, and imaging display system
KR101058025B1 (en) Image display device and method using dual thumbnail mode
JP4748442B2 (en) Imaging apparatus and program thereof
JP2010068247A (en) Device, method, program and system for outputting content
JP6704301B2 (en) Imaging device and imaging display system
JP5851133B2 (en) Image reproducing apparatus, image reproducing method and program
JP6871458B2 (en) Imaging display method
JP7024018B2 (en) Imaging display method
JP2015106843A (en) Imaging device, imaging control method and program
JP2010183565A (en) Image capturing apparatus, image retrieval device, and program
JP4968621B2 (en) Image playback system
JP5704945B2 (en) Imaging apparatus, control method therefor, and program
JP2005192097A (en) Imaging apparatus, moving image photography method, and photography control program
JP2016071212A (en) Photograph device, control method, and program
JP2016051939A (en) Imaging apparatus, control method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20171102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200512

R150 Certificate of patent or registration of utility model

Ref document number: 6704301

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250