JP2017118472A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2017118472A
JP2017118472A JP2016052641A JP2016052641A JP2017118472A JP 2017118472 A JP2017118472 A JP 2017118472A JP 2016052641 A JP2016052641 A JP 2016052641A JP 2016052641 A JP2016052641 A JP 2016052641A JP 2017118472 A JP2017118472 A JP 2017118472A
Authority
JP
Japan
Prior art keywords
image
wide
angle
processing apparatus
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016052641A
Other languages
Japanese (ja)
Other versions
JP6723512B2 (en
Inventor
喜博 高山
Yoshihiro Takayama
喜博 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to US15/282,537 priority Critical patent/US10440307B2/en
Priority to KR1020160138245A priority patent/KR20170074742A/en
Priority to CN201611033980.0A priority patent/CN107018316B/en
Publication of JP2017118472A publication Critical patent/JP2017118472A/en
Application granted granted Critical
Publication of JP6723512B2 publication Critical patent/JP6723512B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/241Devices for focusing
    • G02B21/244Devices for focusing using image analysis techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Human Computer Interaction (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a user with a fisheye image by clarifying a correspondence between the fisheye image and a prescribed subject reflected in the fisheye image.SOLUTION: A control part 21 of a body device 20 recognizes a prescribed subject (the face of a person) included in a wide-angle image (a fisheye image) photographed by an imaging device 10 to correct distortion of an image (a face image of the person) of its subject part, and performs processing for displaying, for example, a partial image of the wide-angle image and a corrected image of the subject part on a reproduction screen as processing for associating the partial image of the wide-angle image with the corrected image of the subject part.SELECTED DRAWING: Figure 1

Description

本発明は、広角で撮影された広角画像に対する処理を行う画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for processing a wide-angle image photographed at a wide angle.

デジタルスチルカメラなどの撮像装置に採用されている魚眼レンズは、例えば、画角が略180゜という広範囲な撮影が可能であるが、射影方式が採用されているために魚眼レンズで撮影された画像(魚眼画像)は、その中心部から端部(周辺部)の方に向かうほど、大きく歪んだものとなる。このような魚眼レンズを用いて撮影された魚眼画像を表示する技術としては、例えば、魚眼画像内から所定領域内の画像を切り出して、その切り出した領域内の画像に対して歪曲を補正する処理を施して歪の無い画像(補正画像)をユーザに提供するようにした技術が開示されている(特許文献1参照)。また、魚眼レンズを用いて会議の各参加者の顔を含む歪曲円形画像(魚眼画像)が撮影されると、各参加者の顔を認識して個々の参加者の発話時間と共に、各参加者の画像を切り出して表示するようにした技術が開示されている(特許文献2参照)。   For example, a fisheye lens used in an imaging apparatus such as a digital still camera can take a wide range of images with an angle of view of approximately 180 °. However, since a projection method is adopted, an image taken with a fisheye lens (fish The eye image) becomes more distorted as it goes from the center to the end (peripheral). As a technique for displaying a fish-eye image captured using such a fish-eye lens, for example, an image in a predetermined area is cut out from the fish-eye image, and distortion is corrected for the image in the cut-out area. A technique has been disclosed in which processing is provided to a user without distortion (corrected image) (see Patent Document 1). In addition, when a distorted circular image (fisheye image) including the face of each participant in the conference is captured using a fisheye lens, each participant's face is recognized and each participant's utterance time is displayed along with each participant's face. Is disclosed (see Patent Document 2).

実用新案登録第3066594号公報Utility Model Registration No. 3066594 特開2015−19162号公報JP, 2015-19162, A

上述した各特許文献の技術によれば、魚眼レンズを用いて広範囲な撮影を行った場合でもその一部分から切り出した領域内の画像については歪の無い画像を得ることが可能となるが、切り出された画像を単に表示するだけでは、どのような場面で撮影された人物であるかなど、魚眼画像との対応関係までもユーザは確認することは困難であった。   According to the technique of each patent document described above, even when a wide range of photographing is performed using a fisheye lens, it is possible to obtain an image without distortion with respect to an image in a region cut out from a part thereof, but the image is cut out. By simply displaying an image, it was difficult for the user to confirm the correspondence with the fisheye image, such as in what scene the person was photographed.

本発明の課題は、魚眼画像とその魚眼画像内に写っている所定の被写体との対応関係を明確にして、ユーザに提供できるようにすることである。   An object of the present invention is to clarify the correspondence between a fish-eye image and a predetermined subject appearing in the fish-eye image so that it can be provided to the user.

上述した課題を解決するために本発明は、
広角で撮影された広角画像内に含まれている所定の被写体を認識してその被写体部分の画像を検出する検出手段と、
前記検出手段により検出された被写体部分の画像の歪を補正する補正手段と、
前記広角画像の少なくとも一部分の画像と前記補正手段により補正された前記被写体部分の画像とを関連付ける処理を行う処理手段と、
を備えることを特徴とする画像処理装置である。
In order to solve the above-described problems, the present invention
Detecting means for recognizing a predetermined subject included in a wide-angle image photographed at a wide angle and detecting an image of the subject portion;
Correction means for correcting distortion of the image of the subject portion detected by the detection means;
Processing means for performing processing for associating at least a part of the wide-angle image with the image of the subject portion corrected by the correction means;
An image processing apparatus comprising:

本発明によれば、魚眼画像とその魚眼画像内に写っている所定の被写体との対応関係を明確にして、ユーザに提供することができる。   According to the present invention, it is possible to clarify the correspondence between a fish-eye image and a predetermined subject in the fish-eye image and provide it to the user.

(1)は、画像表示装置として適用したデジタルカメラを構成する撮像装置10と本体装置20とを一体的に組み合わせた状態を表す外観図、(2)は、撮像装置10と本体装置20とを分離した状態を表す外観図。(1) is an external view showing a state in which the imaging device 10 and the main body device 20 constituting a digital camera applied as an image display device are integrally combined, and (2) is a diagram illustrating the imaging device 10 and the main body device 20. The external view showing the separated state. (1)は、撮像装置10の構成を示すブロック図、(2)は、本体装置20の構成を示すブロック図。(1) is a block diagram showing a configuration of the imaging device 10, and (2) is a block diagram showing a configuration of the main device 20. (1)、(2)は、撮影時に撮像装置10の各種の姿勢を説明するための図。(1), (2) is a figure for demonstrating the various attitude | positions of the imaging device 10 at the time of imaging | photography. (1)、(2)は、魚眼レンズ16Bを用いて撮影された魚眼画像の表示例を示した図。(1), (2) is the figure which showed the example of a display of the fisheye image image | photographed using the fisheye lens 16B. (1)〜(4)は、魚眼画像(保存済み画像)を再生する場合の様子を説明するための図。(1)-(4) is a figure for demonstrating a mode in the case of reproducing a fish-eye image (saved image). 本体装置20側の画像管理テーブル23Cを説明するための図。The figure for demonstrating the image management table 23C by the side of the main body apparatus 20. FIG. 360°撮影を行う場合の本体装置20側の動作(第1実施形態の特徴部分の動作)を説明するためのフローチャート。The flowchart for demonstrating the operation | movement (operation | movement of the characteristic part of 1st Embodiment) by the side of the main body apparatus 20 in the case of 360 degree imaging | photography. 魚眼画像(保存済み画像)を再生する場合の本体装置20側の動作(第1実施形態の特徴部分の動作)を示したフローチャート。The flowchart which showed the operation | movement (operation | movement of the characteristic part of 1st Embodiment) by the side of the main body apparatus 20 in the case of reproducing a fish-eye image (saved image). 図8に続く動作を示したフローチャート。The flowchart which showed the operation | movement following FIG. 魚眼画像(保存済み画像)を再生する場合の本体装置20側の動作(第2実施形態の特徴部分の動作)を示したフローチャート。The flowchart which showed the operation | movement (operation | movement of the characteristic part of 2nd Embodiment) by the side of the main body apparatus 20 in the case of reproducing | regenerating a fisheye image (saved image). (1)〜(4)は、第2実施形態において、魚眼画像(保存済み画像)を再生する場合の様子を説明するための図。(1)-(4) is a figure for demonstrating a mode in the case of reproducing a fish-eye image (saved image) in 2nd Embodiment. 魚眼画像(保存済み画像)を再生する場合の本体装置20側の動作(第3実施形態の特徴部分の動作)を示したフローチャート。The flowchart which showed the operation | movement (operation | movement of the characteristic part of 3rd Embodiment) by the side of the main body apparatus 20 in the case of reproducing a fish-eye image (saved image). (1)〜(3)は、第3実施形態において、魚眼画像(保存済み画像)を再生する場合の様子を説明するための図。(1)-(3) is a figure for demonstrating a mode in the case of reproducing a fish-eye image (saved image) in 3rd Embodiment. (1)〜(3)は、第3実施形態において、魚眼画像(保存済み画像)を再生する場合の他の様子を説明するための図。(1)-(3) is a figure for demonstrating the other mode in the case of reproducing a fish-eye image (saved image) in 3rd Embodiment.

(第1実施形態)
以下、図1〜図9を参照して本発明の第1実施形態を説明する。
本実施形態は、画像処理装置としてデジタルカメラに適用した場合を例示したもので、このデジタルカメラは、後述する撮像部を備える撮像装置10と、後述する表示部を備える本体装置20とに分離可能なセパレート型デジタルカメラである。図1(1)は、撮像装置10と本体装置20とを一体的に組み合わせた状態を示し、図1(2)は、撮像装置10と本体装置20とを分離した状態を示した図である。このセパレート型デジタルカメラを構成する撮像装置10と本体装置20とは、それぞれが利用可能な無線通信を用いてペアリング(無線接続認識)が可能なもので、無線通信としては、無線LAN(Wi−Fi)又はBluetooth(登録商標)を使用している。本体装置20側では、撮像装置10側で撮影された画像を受信取得して、この撮影画像(ライブビュー画像)を表示するようにしている。なお、本実施形態において撮影画像とは、保存済みの画像に限らず、ライブビュー画面に表示されている画像(ライブビュー画像:保存前の画像)を意味している。
(First embodiment)
The first embodiment of the present invention will be described below with reference to FIGS.
The present embodiment exemplifies a case where the present invention is applied to a digital camera as an image processing device, and this digital camera can be separated into an imaging device 10 having an imaging unit to be described later and a main body device 20 having a display unit to be described later. This is a separate digital camera. FIG. 1A shows a state in which the imaging device 10 and the main body device 20 are integrally combined, and FIG. 1B shows a state in which the imaging device 10 and the main body device 20 are separated. . The imaging device 10 and the main body device 20 constituting the separate digital camera can be paired (wireless connection recognition) using wireless communication that can be used, and wireless communication includes wireless LAN (Wi-Fi). -Fi) or Bluetooth (registered trademark) is used. On the main device 20 side, an image captured on the imaging device 10 side is received and acquired, and this captured image (live view image) is displayed. In the present embodiment, the captured image is not limited to a saved image, but means an image displayed on the live view screen (live view image: image before saving).

図2(1)は、撮像装置10の構成を示すブロック図であり、図2(2)は、本体装置20の構成を示すブロック図である。
図2(1)において、撮像装置10は、制御部11、電源部12、記憶部13、通信部14、操作部15、撮像部16、姿勢検出部17を備えている。制御部11は、電源部(二次電池)12からの電力供給によって動作し、記憶部13内の各種のプログラムに応じてこの撮像装置10の全体動作を制御するもので、この制御部11には図示しないCPU(中央演算処理装置)やメモリなどが設けられている。記憶部13は、例えば、ROM、フラッシュメモリなどを有する構成で、本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されている。通信部14は、撮影画像を本体装置20側に送信したり、本体装置20からの操作指示信号などを受信したりする。操作部15は、電源スイッチなどの基本的な操作キー(ハードウェアキー)を備えている。
FIG. 2A is a block diagram illustrating a configuration of the imaging device 10, and FIG. 2B is a block diagram illustrating a configuration of the main body device 20.
2 (1), the imaging device 10 includes a control unit 11, a power supply unit 12, a storage unit 13, a communication unit 14, an operation unit 15, an imaging unit 16, and an attitude detection unit 17. The control unit 11 operates by supplying power from the power supply unit (secondary battery) 12 and controls the overall operation of the imaging apparatus 10 according to various programs in the storage unit 13. Are provided with a CPU (Central Processing Unit) and a memory (not shown). The storage unit 13 includes, for example, a ROM, a flash memory, and the like, and stores a program and various applications for realizing the present embodiment. The communication unit 14 transmits a captured image to the main device 20 side, or receives an operation instruction signal or the like from the main device 20. The operation unit 15 includes basic operation keys (hardware keys) such as a power switch.

撮像部16は、被写体を高精細に撮影可能なカメラ部を構成するもので、この撮像部16のレンズユニット16Aには、魚眼レンズ16B、撮像素子16Cなどが設けられている。なお、本実施形態のカメラは、通常の撮像レンズ(図示省略)と魚眼レンズ16Bとが交換可能なもので、図示の例は、魚眼レンズ16Bを装着した状態を示している。この魚眼レンズ16Bは、例えば、3枚構成のレンズ系からなり、画角が略180゜という広範囲な撮影が可能な円周魚眼レンズ(全周魚眼レンズ)であり、この魚眼レンズ16Bによって撮影された広角画像(魚眼画像)の全体は、円形の画像となる。この場合、射影方式を採用しているために、魚眼レンズ16Bで撮影された広角画像(魚眼画像)は、その中心から端部に向かう程、大きく歪んだものとなる。   The imaging unit 16 constitutes a camera unit capable of photographing a subject with high definition. The lens unit 16A of the imaging unit 16 is provided with a fisheye lens 16B, an imaging element 16C, and the like. In the camera of this embodiment, a normal imaging lens (not shown) and the fisheye lens 16B are interchangeable, and the illustrated example shows a state in which the fisheye lens 16B is mounted. The fish-eye lens 16B is a circumferential fish-eye lens (all-round fish-eye lens), which is composed of, for example, a three-lens lens system and can capture a wide range of angles of view of approximately 180 °, and a wide-angle image (taken by the fish-eye lens 16B) The whole (fish-eye image) is a circular image. In this case, since the projection method is adopted, the wide-angle image (fish-eye image) photographed by the fish-eye lens 16B is greatly distorted from the center toward the end.

すなわち、魚眼レンズ16Bは、その画角が略180゜という広範囲な撮影が可能な円周魚眼レンズであるため、魚眼画像の全体は、円形の画像となり、その中心部から端部(周辺部)の方に向かうほど、大きく歪んだものとなると共に、魚眼画像の中心部に比べてその周辺部は縮小された画像となるため、ユーザがその周辺部の内容を詳細に目視確認しょうとしてもその確認は極めて困難なものとなる。このような魚眼レンズ16Bによる被写体像(光学像)が撮像素子(例えば、CMOS又はCCD)16Cに結像されると、この撮像素子16Cによって光電変換された画像信号(アナログ値の信号)は、図示省略のA/D変換部によってデジタル信号に変換されると共に、所定の画像表示処理が施された後、本体装置20側に送信されてモニタ表示される。姿勢検出部17は、撮像装置10に加わる加速度を検出する3軸加速度センサで、撮像装置10の姿勢に応じて検出されたX・Y・Z方向の各加速度成分を制御部11に与える。   That is, since the fisheye lens 16B is a circumferential fisheye lens capable of taking a wide range of images with an angle of view of approximately 180 °, the entire fisheye image is a circular image, and extends from the center to the end (periphery). The image becomes more distorted as it goes further, and the periphery of the fisheye image is reduced compared to the center of the fisheye image, so even if the user tries to visually check the contents of the periphery in detail. Confirmation is extremely difficult. When a subject image (optical image) by such a fish-eye lens 16B is formed on an image sensor (for example, CMOS or CCD) 16C, an image signal (analog value signal) photoelectrically converted by the image sensor 16C is illustrated. The digital signal is converted into a digital signal by an omitted A / D converter, and after a predetermined image display process is performed, it is transmitted to the main device 20 side and displayed on a monitor. The posture detection unit 17 is a three-axis acceleration sensor that detects acceleration applied to the imaging device 10, and gives each of the acceleration components in the X, Y, and Z directions detected according to the posture of the imaging device 10 to the control unit 11.

図2(2)において、本体装置20は、魚眼レンズなどを使用して撮影された画像を再生する再生機能を有し、制御部21、電源部22、記憶部23、通信部24、操作部25、タッチ表示部26、姿勢検出部27を備えている。制御部21は、電源部(二次電池)22からの電力供給によって動作し、記憶部23内の各種のプログラムに応じてこの本体装置20の全体動作を制御するもので、この制御部21には図示しないCPU(中央演算処理装置)やメモリなどが設けられている。記憶部23は、例えば、ROM、フラッシュメモリなどを有する構成で、本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているプログラムメモリ23A、この本体装置20が動作するために必要となる各種の情報(例えば、フラグなど)を一時的に記憶するワークメモリ23Bと、後述する画像管理テーブル23Cなどを有している。   2 (2), the main device 20 has a reproduction function for reproducing an image photographed using a fisheye lens or the like, and includes a control unit 21, a power supply unit 22, a storage unit 23, a communication unit 24, and an operation unit 25. The touch display unit 26 and the posture detection unit 27 are provided. The control unit 21 operates by supplying power from the power source unit (secondary battery) 22 and controls the overall operation of the main body device 20 according to various programs in the storage unit 23. Are provided with a CPU (Central Processing Unit) and a memory (not shown). The storage unit 23 has a configuration including, for example, a ROM, a flash memory, and the like, and is necessary for operating the program memory 23A in which a program for realizing the present embodiment and various applications are stored, and the main body device 20 operate. A work memory 23B that temporarily stores various information (for example, flags) and an image management table 23C described later.

通信部24は、撮像装置10との間で各種のデータの送受信を行う。操作部25は、電源ボタン、レリーズボタンタン、露出やシャッタスピードなどの撮影条件を設定する設定ボタンなど、押しボタン式の各種のキーを備えたもので、制御部21は、この操作部25からの入力操作信号に応じた処理を実行したり、入力操作信号を撮像装置10に対して送信したりする。タッチ表示部26は、高精細液晶などのディスプレイ26A上にタッチパネル26Bを積層配置した構成で、その表示画面は、撮影された画像(魚眼画像)をリアルタイムに表示するモニタ画面(ライブビュー画面)となったり、撮影済み画像を再生する再生画面となったりする。姿勢検出部27は、本体装置20に加わる加速度を検出する3軸加速度センサで、本体装置20の姿勢に応じて検出されたX・Y・Z方向の各加速度成分を制御部21に与える。   The communication unit 24 transmits / receives various data to / from the imaging device 10. The operation unit 25 includes various buttons of a push button type, such as a power button, a release button button, and a setting button for setting shooting conditions such as exposure and shutter speed. The process according to the input operation signal is executed, or the input operation signal is transmitted to the imaging apparatus 10. The touch display unit 26 has a configuration in which a touch panel 26B is stacked on a display 26A such as a high-definition liquid crystal, and the display screen is a monitor screen (live view screen) that displays a captured image (fisheye image) in real time. Or a playback screen for playing back captured images. The posture detection unit 27 is a three-axis acceleration sensor that detects acceleration applied to the main body device 20, and gives the X, Y, and Z direction acceleration components detected according to the posture of the main body device 20 to the control unit 21.

本体装置20側において制御部21は、撮影を指示するレリーズボタンが操作されると、魚眼画像に対して現像処理を行って撮影画像を生成すると共に、画像圧縮処理を施して標準的なファイル形式に変換した後、記憶部23の記録メディアに記録保存させる。この場合、制御部21は、魚眼画像の歪曲を補正する処理を施すことによって補正画像を生成し、魚眼画像に対応付けてその補正画像を記録保存するようにしている。この場合、仮想球面モデル上の任意の点で接する平面をスクリーンとして、仮想球面モデル上の点を平面スクリーン上の点に座標変換することにより魚眼画像の歪を補正する技術を用いているが、魚眼画像の歪を補正する処理(魚眼歪補正処理)は、画像処理において一般的に用いられている周知技術を利用するようにしているため、その具体的な説明については省略するものとする。   When the release button for instructing photographing is operated on the main device 20 side, the control unit 21 performs development processing on the fisheye image to generate a photographed image, and performs image compression processing to perform a standard file. After conversion into the format, the data is recorded and saved on a recording medium in the storage unit 23. In this case, the control unit 21 generates a corrected image by performing processing for correcting the distortion of the fisheye image, and records and saves the corrected image in association with the fisheye image. In this case, a technology is used to correct distortion of the fisheye image by converting a point on the virtual spherical model into a point on the flat screen using a plane that touches an arbitrary point on the virtual spherical model as a screen. Since the processing for correcting the distortion of the fisheye image (fisheye distortion correction processing) uses a well-known technique that is generally used in image processing, its specific description is omitted. And

図3は、撮像装置10の姿勢を説明するための図である。
撮像装置10は、例えば、その全体が箱型を成し、その正面中央部に魚眼レンズ16Bを配置した構成となっている。図3(1)は、魚眼レンズ16Bの光軸方向が重力方向に対して略直交する状態、つまり、カメラが地面に対して略垂直となるようにして撮影した場合(垂直撮りを行った場合)を示し、更に、図中、破線で示した半球は、画角が略180゜という魚眼レンズ16Bの撮影範囲を示している。図3(2)は、カメラの正面方向(魚眼レンズ16Bの光軸方向)を天に向けた状態、つまり、魚眼レンズ16Bの光軸方向が重力方向に対して略逆方向となるようにして撮影した場合(水平撮りを行った場合)を示している。
FIG. 3 is a diagram for explaining the posture of the imaging apparatus 10.
The imaging device 10 has a configuration in which, for example, the whole is formed in a box shape, and a fisheye lens 16B is disposed at the front center portion thereof. FIG. 3 (1) shows a state where the optical axis direction of the fisheye lens 16B is substantially orthogonal to the direction of gravity, that is, when the camera is photographed so as to be substantially perpendicular to the ground (when vertical photographing is performed). In addition, the hemisphere indicated by the broken line in the drawing indicates the photographing range of the fisheye lens 16B having an angle of view of approximately 180 °. FIG. 3 (2) shows a state where the front direction of the camera (the optical axis direction of the fisheye lens 16B) is directed to the sky, that is, the optical axis direction of the fisheye lens 16B is substantially opposite to the direction of gravity. This shows the case (when horizontal shooting is performed).

図4は、魚眼レンズ16Bを用いて撮影された広角画像(魚眼画像)を例示した図で、本体装置20側のタッチ表示部26の再生画面に魚眼画像が表示された状態を示している。
図示の例は、図3(1)に示した垂直撮りで撮影した魚眼画像を示し、図4(1)は、撮影範囲として前方180°を垂直撮りした場合の魚眼画像、図4(2)は、撮影範囲として後方180°を垂直撮りした場合の魚眼画像である。このように360°撮影を行う場合には、前方180°撮影と後方180°撮影に分けて2回撮影を行うようにしている。なお、図示の例は、屋外で食卓を囲んでパーティを開いている様子を撮影したもので、前方180°を撮影した図4(1)の魚眼画像内には一組の親子が写っており、後方180°を撮影した図4(2)の魚眼画像内にも一組の親子が写っている場合を示している。このように360°撮影された各魚眼画像は、一組の魚眼画像群として一括して記憶保存される。
FIG. 4 is a diagram exemplifying a wide-angle image (fish-eye image) photographed using the fish-eye lens 16B, and shows a state where the fish-eye image is displayed on the reproduction screen of the touch display unit 26 on the main device 20 side. .
The example shown in the figure shows a fish-eye image taken by the vertical shooting shown in FIG. 3 (1), and FIG. 4 (1) shows a fish-eye image when the front 180 ° is taken vertically as the shooting range. 2) is a fish-eye image in the case where 180 ° is taken vertically as a photographing range. In this way, when 360-degree shooting is performed, shooting is performed twice, divided into 180-degree shooting at the front and 180-degree shooting at the rear. In the example shown in the figure, a party is held outdoors surrounding a dining table. A pair of parents and children are shown in the fish-eye image of FIG. In addition, a case is shown in which a pair of parent and child is also reflected in the fish-eye image of FIG. Thus, each fisheye image photographed at 360 ° is stored and saved as a group of fisheye images.

本体装置20の制御部21は、撮像装置10によって撮影された魚眼画像を受信取得してその画像全体の歪を補正する処理を行うと共に、その補正画像内に含まれている所定の被写体を認識してその被写体部分の画像をその被写体毎に検出した後、補正画像の一部分の画像と、検出した各被写体部分の画像とを関連付ける処理を行うようにしとている。すなわち、制御部21は、上述のようにして360°撮影された各魚眼画像に対してその歪曲を補正する処理を施してその補正画像を生成し、魚眼画像毎にその補正画像を対応付けて記録保存するようにしている。更に、補正画像毎にその画像を解析して補正画像内に含まれている所定の被写体(人物の顔)を全て検出する。なお、この顔検出処理は、顔パーツを検出したり、肌色を検出したりするなど、カメラにおいて一般的に用いられている技術であり、本実施形態ではその周知技術を利用するようにしているため、その具体的な説明については省略するものとする。   The control unit 21 of the main device 20 receives and obtains a fisheye image photographed by the imaging device 10 and corrects the distortion of the entire image, and selects a predetermined subject included in the corrected image. After recognizing and detecting an image of the subject portion for each subject, a process of associating a partial image of the corrected image with the detected image of the subject portion is performed. That is, the control unit 21 performs a process for correcting the distortion on each fisheye image photographed at 360 ° as described above to generate a corrected image, and corresponds the corrected image to each fisheye image. The record is saved. Further, for each corrected image, the image is analyzed to detect all predetermined subjects (human faces) included in the corrected image. Note that this face detection process is a technique commonly used in cameras, such as detecting face parts or detecting skin color, and in this embodiment, the well-known technique is used. Therefore, the specific description thereof will be omitted.

この顔検出処理の結果、補正画像内に含まれている全ての人物の顔を検出すると、制御部21は、その人物の輪郭に沿って人物毎にその被写体部分(顔部分)を切り出して顔画像を生成し、各顔画像をその魚眼画像に対応付けて記録保存するようにしている。なお、顔画像とは、人物を特定可能とするために顔を中心とした画像であるが、上半身(頭部、首、肩)を含む画像であってもよいし、また顔に限らず画像内から特徴点を検出して、当該特徴点に基づいた特徴領域を抽出するようにしてもよい。また、制御部21は、各顔画像を所定の形状及びサイズに揃える画像処理を行ってから記録保存するようにしている。   As a result of the face detection process, when all faces of persons included in the corrected image are detected, the control unit 21 cuts out the subject part (face part) for each person along the outline of the person, An image is generated, and each face image is recorded and stored in association with the fisheye image. The face image is an image centered on the face so that a person can be specified, but may be an image including the upper body (head, neck, shoulders), and is not limited to a face. A feature point may be detected from the inside, and a feature region based on the feature point may be extracted. Further, the control unit 21 records and saves after performing image processing for aligning each face image with a predetermined shape and size.

図5は、魚眼画像(保存済み画像)を再生する場合の様子を説明するための図である。
図5(1)、本体装置20側のタッチ表示部26に各種の魚眼画像(保存済み画像)がサムネイル表示された一覧画面を示し、図中の円形は、個々の魚眼画像を示し、3×3のマトリックス状に魚眼画像がサムネイル表示されている状態を示している。ここで、任意のサムネイル画像の位置がタッチされると、制御部21は、タッチされたサムネイル画像(魚眼画像)を再生対象として選択する。図5(2)は、再生対象として選択された魚眼画像を示し、上述の360°の魚眼画像のうち、前方180°を撮影した魚眼画像(図4(1)参照)を選択した場合である。
FIG. 5 is a diagram for explaining a situation when a fisheye image (stored image) is reproduced.
FIG. 5A shows a list screen in which various fisheye images (stored images) are displayed as thumbnails on the touch display unit 26 on the main device 20 side, and the circles in the figure indicate individual fisheye images, It shows a state in which fisheye images are displayed as thumbnails in a 3 × 3 matrix. Here, when the position of an arbitrary thumbnail image is touched, the control unit 21 selects the touched thumbnail image (fisheye image) as a reproduction target. FIG. 5 (2) shows a fish-eye image selected as a reproduction target, and a fish-eye image (see FIG. 4 (1)) obtained by photographing the front 180 ° is selected from the 360 ° fish-eye images described above. Is the case.

図5(3)は、再生対象として選択された魚眼画像に対応付けて記録保存されている補正画像から切り出される所定範囲内の画像を示している。この場合、補正画像内から所定範囲(例えば、長方形の切り出し枠)内の画像が切り出される。この切り出し枠(仮想枠)は、補正画像に相似するもので、例えば、補正画像の1/4の大きさの長方形枠であり、魚眼画像が選択された最初の時点では補正画像上の初期位置(中央部の位置)に設定されるが、ユーザ操作によって補正画像上の任意の位置に移動可能となっている。図示の例では、破線で示した長方形の切り出し枠内の画像(親子を含む画像)が切り出される場合を示している。   FIG. 5 (3) shows an image within a predetermined range cut out from the corrected image recorded and stored in association with the fisheye image selected as the reproduction target. In this case, an image within a predetermined range (for example, a rectangular cut frame) is cut out from the corrected image. This cutout frame (virtual frame) is similar to the corrected image, and is, for example, a rectangular frame having a size that is 1/4 of the corrected image, and at the initial point in time when the fisheye image is selected, Although it is set to a position (a central position), it can be moved to an arbitrary position on the corrected image by a user operation. In the illustrated example, a case where an image (an image including a parent and child) within a rectangular cut frame indicated by a broken line is cut out is illustrated.

図5(4)は、再生対象として選択された魚眼画像の再生画面を示した図である。この再生画面には、上述のように補正画像の一部の画像(切り出し枠内の画像)が拡大表示されると共に、魚眼画像に対応付けられている各人物の顔画像が一覧表示される。この場合、タッチ操作で選択された魚眼画像(例えば、図4(1)の魚眼画像)内に含まれている各人物の顔画像に限らず、この魚眼画像と組みを成している他の魚眼画像(例えば、図4(2)の魚眼画像)内に含まれている各人物の顔画像も併せて一覧表示される。その際、各人物の顔画像は、魚眼画像内の各人物の配列順序に応じてその順序どおりに並べて一覧表示される。なお、各人物の顔画像は、図示のように再生画面の下部分に直線上に並べて一覧表示される。この場合、図中、左側に並ぶ親子の顔画像は、図4(1)の魚眼画像に含まれている人物の顔画像であり、右側に並ぶ親子の顔画像は、図4(2)の魚眼画像に含まれている人物の顔画像である。   FIG. 5 (4) is a diagram showing a reproduction screen of a fisheye image selected as a reproduction target. On this playback screen, as described above, a part of the corrected image (image in the cutout frame) is enlarged and displayed, and a list of face images of each person associated with the fisheye image is displayed. . In this case, the image is not limited to the face image of each person included in the fish-eye image selected by the touch operation (for example, the fish-eye image in FIG. 4 (1)). The face images of each person included in the other fisheye images (for example, the fisheye image in FIG. 4B) are also displayed in a list. At that time, the face images of the persons are displayed in a list in accordance with the order of arrangement of the persons in the fisheye image. The face images of each person are displayed as a list in a straight line at the bottom of the playback screen as shown. In this case, the parent and child face images arranged on the left side in the figure are the face images of persons included in the fisheye image of FIG. 4 (1), and the parent and child face images arranged on the right side are shown in FIG. 4 (2). Is a face image of a person included in the fisheye image.

また、図中、拡大表示の画像(切り出し枠内の画像)の周囲に付した破線の矢印は、タッチ操作によって移動可能な切り出し枠の移動方向を示し、この切り出し枠は、タッチ表示部26上でのタッチ操作(スライド操作)によってそのスライド方向、スライド量に応じて移動される。これによって再生画面に表示される切り出し枠内の画像(拡大表示の画像)も切り出し枠の移動に応じてその内容が変化するようになる。なお、切り出し枠の移動方向は、上下左右の4方向に限らず、斜め方向への移動も可能としてもよい。このように再生画面上では上述のスライド操作の他に、連続した2回のタップ操作(ダブルタップ操作)も有効なタッチ操作となっており、任意の顔画像上でダブルタップ操作が行われると、制御部21は、補正画像の中からその顔画像を含む位置を検出し、その検出位置に切り出し枠を移動(ジャンプ)させることによって、再生画面上の拡大表示の画像(切り出し枠内の画像)にその顔画像を含ませるようにしている。   Also, in the figure, a broken-line arrow attached to the periphery of the enlarged display image (image in the cutout frame) indicates the moving direction of the cutout frame that can be moved by the touch operation, and this cutout frame is displayed on the touch display unit 26. It is moved according to the slide direction and slide amount by touch operation (slide operation). As a result, the content of the image within the clipping frame (enlarged display image) displayed on the reproduction screen also changes according to the movement of the clipping frame. Note that the moving direction of the clipping frame is not limited to the four directions of up, down, left, and right, and may be moved in an oblique direction. Thus, on the playback screen, in addition to the above-described slide operation, two consecutive tap operations (double tap operations) are also effective touch operations, and when a double tap operation is performed on any face image The control unit 21 detects a position including the face image from the corrected image, and moves (jumps) the cutout frame to the detection position, whereby an enlarged display image (an image in the cutout frame) is displayed. ) Is included in the face image.

図6は、本体装置20側の画像管理テーブル23Cを説明するための図である。
画像管理テーブル23Cは、魚眼画像(保存済み画像)とそれに関連する画像を管理するためのテーブルで、「魚眼画像ID」、「撮影種別」、「リンクID」、「補正画像ID」、「顔画像ID」、「顔画像ID」、…の各項目を有している。「魚眼画像ID」は、魚眼画像を管理するために、その魚眼画像ファイル(図示省略)を識別する情報(一連番号など)を記憶する項目で、図示の例は、“A0001”、“A0002”、…を記憶した場合を示している。「撮影種別」は、180°で撮影した魚眼画像であるか、360°で撮影した魚眼画像であるかを示す撮影の種類を記憶する項目で、図示の例は、「魚眼画像ID」が“A0002”、“A0003”の各画像は、360°撮影の1組の魚眼画像群であることを示している。
FIG. 6 is a diagram for explaining the image management table 23C on the main device 20 side.
The image management table 23C is a table for managing fish-eye images (stored images) and related images. The “fish-eye image ID”, “shooting type”, “link ID”, “corrected image ID”, Each item includes “face image ID”, “face image ID”,. The “fisheye image ID” is an item for storing information (serial number or the like) for identifying the fisheye image file (not shown) in order to manage the fisheye image. The case where “A0002”,... Is stored is shown. The “shooting type” is an item for storing a shooting type indicating whether it is a fisheye image shot at 180 ° or a fisheye image shot at 360 °. "A0002" and "A0003" indicate that each image group is a set of 360-degree fisheye images.

「リンクID」は、「撮影種別」が360°撮影の場合に組となる他の魚眼画像を示す「魚眼画像ID」が記憶される項目で、図示の例では、「魚眼画像ID」が“A0002”の「リンクID」には他の魚眼画像を示す「魚眼画像ID」として“A0003”が記憶され、“A0003”の「リンクID」には他の魚眼画像を示す「魚眼画像ID」として“A0002”が記憶される。「補正画像ID」は、魚眼画像に対応してその歪を補正した補正画像を管理するために、その補正画像ファイル(図示省略)を識別する情報(一連番号など)を記憶する項目で、図示の例は、“B0001”、“B0002”、…を記憶した場合を示している。「顔画像ID」は、魚眼画像に対応してその魚眼画像内に含まれる各人物の顔画像を管理するために、その顔画像ファイル(図示省略)を識別する情報(一連番号など)を記憶する項目で、図示の例では、“C0001”、“C0002”、…を記憶した場合を示している。   “Link ID” is an item in which “fish-eye image ID” indicating another fish-eye image that is paired when “shooting type” is 360 ° photographing is stored. "A0003" is stored in the "link ID" of "A0002" as "fisheye image ID" indicating another fisheye image, and the other "fisheye image" is displayed in the "link ID" of "A0003". “A0002” is stored as the “fisheye image ID”. The “corrected image ID” is an item for storing information (serial number or the like) for identifying a corrected image file (not shown) in order to manage a corrected image whose distortion has been corrected corresponding to a fisheye image. In the illustrated example, “B0001”, “B0002”,... Are stored. “Face image ID” is information (serial number or the like) for identifying the face image file (not shown) in order to manage the face image of each person included in the fish-eye image corresponding to the fish-eye image. In the illustrated example, “C0001”, “C0002”,... Are stored.

次に、第1実施形態における画像処理装置(デジタルカメラ)の動作概念を図7〜図9に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。すなわち、記録媒体の他に、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。なお、図7〜図9は、デジタルカメラの全体動作のうち、第1実施形態の特徴部分の動作概要を示したフローチャートであり、この図7〜図9のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。   Next, the operation concept of the image processing apparatus (digital camera) in the first embodiment will be described with reference to the flowcharts shown in FIGS. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. Further, it is possible to sequentially execute the operation according to the above-described program code transmitted via a transmission medium such as a network. In other words, in addition to the recording medium, an operation unique to the present embodiment can be executed using a program / data supplied externally via a transmission medium. 7 to 9 are flowcharts showing an outline of the operation of the characteristic part of the first embodiment of the overall operation of the digital camera. When the flow of FIGS. Return to the main flow of operation (not shown).

図7は、360°撮影を行う場合における本体装置20側の動作(本実施形態の特徴部分の動作)を説明するためのフローチャートである。なお、360°撮影は、各種の撮影モードを選択するメニュー画面の中からユーザ操作によって任意に選択されたメニュー項目であり、この360°撮影のメニュー項目が選択された場合に、図7の動作が実行開始される。
まず、本体装置20側の制御部21は、レリーズ操作の待ち状態において(ステップA1)、レリーズ操作が行われると(ステップA1でYES)、撮像装置10から受信取得した魚眼画像に対して現像処理を行って撮影画像を生成すると共に、画像圧縮処理を施して標準的なファイル形式に変換した後(ステップA2)、記憶部23の記録メディアに記録保存させる(ステップA3)。この場合、360°撮影が行われた2枚の魚眼画像を1組の画像として記録保存させると共に、新たな「魚眼画像ID」として、例えば、“A0002”を生成し、画像管理テーブル23Cに追加登録する。
FIG. 7 is a flowchart for explaining the operation on the main device 20 side (operation of the characteristic part of the present embodiment) when performing 360 ° imaging. Note that 360 ° shooting is a menu item arbitrarily selected by a user operation from a menu screen for selecting various shooting modes, and when this 360 ° shooting menu item is selected, the operation of FIG. 7 is performed. Is started.
First, the control unit 21 on the main body device 20 side develops the fisheye image received and acquired from the imaging device 10 when the release operation is performed (YES in step A1) in the waiting state for the release operation (step A1). Processing is performed to generate a captured image, and image compression processing is performed to convert the image into a standard file format (step A2), and then recording and saving is performed on a recording medium in the storage unit 23 (step A3). In this case, two fisheye images taken at 360 ° are recorded and stored as a set of images, and “A0002” is generated as a new “fisheye image ID”, for example, and the image management table 23C Register additional.

そして、制御部21は、この新たな「魚眼画像ID」に対応する「撮影種別」として“360°撮影”を画像管理テーブル23Cに登録すると共に、対応する「リンクID」を登録する処理を行うが(ステップA4)、この「リンクID」の登録は、360°撮影の2回目の撮影時に行われる。次に、制御部21は、その魚眼画像に対して歪曲を補正する処理を施してその補正画像を生成し(ステップA5)、その補正画像を記憶部23の記録メディアに記録保存させるが、その際、新たな「補正画像ID」として、例えば、“B0002”を生成し、「魚眼画像ID」の“A0002”に対応付けて画像管理テーブル23Cに登録する(ステップA6)。   Then, the control unit 21 registers “360 ° shooting” as the “shooting type” corresponding to the new “fisheye image ID” in the image management table 23C, and also registers the corresponding “link ID”. Although it is performed (step A4), the registration of the “link ID” is performed at the time of the second shooting of 360 ° shooting. Next, the control unit 21 performs processing for correcting the distortion on the fisheye image to generate the corrected image (step A5), and records and saves the corrected image on the recording medium of the storage unit 23. At this time, for example, “B0002” is generated as a new “corrected image ID”, and is registered in the image management table 23C in association with “A0002” of “fisheye image ID” (step A6).

更に、制御部21は、この補正画像の全体を解析することによって人物の顔を検出する(ステップA7)。その結果、人物の顔を検出することができたかを調べ(ステップA8)、人物の顔を検出することができなければ(ステップA8でNO)、ステップA11に移り、360°撮影が終了したかを調べる。いま、360°撮影の1回目の撮影が終わった場合であるから(ステップA11でNO)、上述のステップA1に戻り、360°撮影の2回目の撮影を指示するレリーズが操作されるまで待ち状態となる。   Further, the control unit 21 detects the face of the person by analyzing the entire corrected image (step A7). As a result, it is checked whether or not a person's face can be detected (step A8). If a person's face cannot be detected (NO in step A8), the process proceeds to step A11, and 360 ° shooting has been completed. Check out. Since it is a case where the first shooting of 360 ° shooting has been completed (NO in step A11), the process returns to the above-described step A1 and waits until the release that instructs the second shooting of 360 ° shooting is operated. It becomes.

いま、補正画像内の人物の顔を検出した場合には(ステップA8でYES)、その人物の輪郭に沿って人物毎に切り抜いてその顔画像を生成する(ステップA9)。この場合、補正画像内に含まれている全ての人物に対してその顔画像を生成するようにしているが、魚眼画像の周辺部に位置している人物のように顔の歪みが大きすぎて、その歪曲補正を施しても人物の顔を精度良く検出することができなかった場合でも、人物の可能性があれば、その顔画像を生成するようにしてもよい。このように人物毎に切り抜いて生成した各顔画像を所定の形状及びサイズに揃えた後、その魚眼画像に対応付けて記憶部23の記録メディアに記録保存させるが、この場合、「顔画像ID」として、例えば、“C0004”、“C0005”を生成し、「魚眼画像ID」の“A0002”に対応付けて画像管理テーブル23Cに登録する(ステップA10)。そして、360°撮影が終了するまで上述の動作(ステップA1〜A11)を繰り返すが、360°撮影が終了すると(ステップA11でYES)、図7のフローから抜ける。   If a face of a person in the corrected image is detected (YES in step A8), the face image is generated by cutting out each person along the outline of the person (step A9). In this case, the face images are generated for all the persons included in the corrected image, but the face distortion is too large like the person located in the periphery of the fisheye image. Even if the person's face cannot be detected with high accuracy even if the distortion correction is performed, the face image may be generated if there is a possibility of the person. After each face image generated by cutting out for each person in this way is arranged in a predetermined shape and size, it is recorded and stored in the recording medium of the storage unit 23 in association with the fisheye image. For example, “C0004” and “C0005” are generated as “ID”, and are registered in the image management table 23C in association with “A0002” of “fisheye image ID” (step A10). Then, the above-described operation (steps A1 to A11) is repeated until 360 ° shooting is completed, but when 360 ° shooting is completed (YES in step A11), the flow of FIG.

図8及び図9は、魚眼画像(保存済み画像)を再生する場合の本体装置20側の動作(本実施形態の特徴部分の動作)を示したフローチャートである。
まず、制御部21は、ユーザ操作によって魚眼画像(保存済み画像)の再生が指示されると、記憶部23の記録メディアに記録保存されている複数の魚眼画像(保存済み画像)を読み出して(ステップB1)、サムネイル画像に変換して一覧表示させる(ステップB2)。この状態において、この一覧画面の中から任意のサムネイル画像を再生対象として指定するタッチ操作が行われたかを調べ(ステップB3)、タッチ操作が行われなければ(ステップB3でNO)、操作部25の所定キーとして、再生終了を指示するキーが操作されたかを調べる(ステップB4)。ここで、再生終了が指示されなければ(ステップB4でNO)、上述のステップB3に戻るが、再生終了が指示された場合には(ステップB4でYES)、図8及び図9のフローから抜ける。
FIG. 8 and FIG. 9 are flowcharts showing operations on the main device 20 side (operations of characteristic portions of the present embodiment) when a fisheye image (stored image) is reproduced.
First, when an instruction to reproduce a fisheye image (stored image) is given by a user operation, the control unit 21 reads a plurality of fisheye images (stored images) recorded and stored in the recording medium of the storage unit 23. (Step B1), converted into thumbnail images and displayed as a list (step B2). In this state, it is checked whether or not a touch operation for designating an arbitrary thumbnail image as a reproduction target is performed from the list screen (step B3). If the touch operation is not performed (NO in step B3), the operation unit 25 is checked. It is checked whether a key for instructing the end of reproduction has been operated as a predetermined key (step B4). If the end of reproduction is not instructed (NO in step B4), the process returns to the above-described step B3. However, if the end of reproduction is instructed (YES in step B4), the process exits the flow of FIGS. .

いま、複数の魚眼画像がマトリックス状にサムネイル画像として一覧表示されている状態において、その中から任意のサムネイル画像の位置がタッチされると(ステップB3でYES)、制御部21は、その魚眼画像を再生対象として選択指定する(ステップB5)そして、この指定画像(魚眼画像)に対応して保存されている補正画像を読み出し(ステップB6)、この補正画像から長方形の領域(切り出し枠)内の画像を切り出す(ステップB7)。この場合、魚眼画像が選択された最初の時点では切り出し枠が補正画像上の初期位置(中央部の位置)に設定されているので、補正画像の中央部分の画像が切り出される。そして、切り出した画像を所定のサイズに拡大して、再生画面の中央部分に表示させる(ステップB8)。   Now, in a state where a plurality of fisheye images are displayed as a list of thumbnail images in a matrix, when the position of any thumbnail image is touched (YES in step B3), the control unit 21 controls the fish. An eye image is selected and designated as a reproduction target (step B5), and a correction image stored in correspondence with the designated image (fisheye image) is read (step B6), and a rectangular area (cutout frame) is read from the correction image. ) Are cut out (step B7). In this case, since the clipping frame is set to the initial position (center position) on the corrected image at the first time point when the fisheye image is selected, the image of the central portion of the corrected image is cut out. Then, the clipped image is enlarged to a predetermined size and displayed at the center of the reproduction screen (step B8).

次に、上述の指定画像(魚眼画像)に対応して保存されている各顔画像を読み出し(ステップB9)、この各顔画像を再生画面に一覧表示させる(ステップB10)。この場合、図5(4)に示すように、各顔画像を再生画面の下部に横一列に並べて一覧表示させるが、その並び順は、上述したように魚眼画像内の各人物の配列順なっている。そして。上述の指定画像(魚眼画像)と組みを成している他の魚眼画像、360°の他の魚眼画像は未指定であるかを調べ(ステップB11)、未指定の魚眼画像が残っていれば(ステップB11でYES)、その未指定の魚眼画像を再生対象として指定(ステップB12)した後、上述のステップB9に戻り、この新たな指定画像(魚眼画像)に対応して保存されている各顔画像を読み出し、この各顔画像を再生画面に一覧表示させる(ステップB10)。これによって360°撮影の各魚眼画像を全て指定し終わった場合には(ステップB11でNO)、図9のフローに移る。   Next, each face image stored corresponding to the above-mentioned designated image (fisheye image) is read (step B9), and each face image is displayed as a list on the reproduction screen (step B10). In this case, as shown in FIG. 5 (4), the face images are displayed in a list in a horizontal row at the bottom of the playback screen. The order of arrangement is the order of arrangement of the persons in the fisheye image as described above. It has become. And then. It is checked whether another fisheye image forming a pair with the above-described designated image (fisheye image) is undesignated for other fisheye images of 360 ° (step B11). If it remains (YES in step B11), the undesignated fisheye image is designated as a reproduction target (step B12), and then the process returns to step B9 described above to correspond to this new designated image (fisheye image). Each face image stored is read out and displayed in a list on the reproduction screen (step B10). As a result, when all the 360-degree fisheye images have been specified (NO in step B11), the flow proceeds to FIG.

このような再生画面がタッチ表示部26上に表示されている状態において、再生画面上でタッチ操作が行われると(ステップB13でYES)、そのタッチ操作は、一覧表示されている顔画像へのダブルタップ操作であるか(ステップB14)、拡大表示されている補正画像(切り出し枠内の画像)近辺でのスライド操作であるかを調べる(ステップB15)。いま、顔画像へのダブルタップ操作が行われた場合には(ステップB14でYES)、その補正画像内からその顔を含む位置を特定し、その検出位置に切り出し枠を移動させる(ステップB16)。例えば、図5(4)に示すように女の子の顔画像上でダブルタップ操作が行われた場合には、補正画像の中からその女の子の顔画像を特定し、その顔画像が切り出し枠の中心位置となるように切り出し枠を移動させる。そして、この切り出し枠内の画像を切り出して再生画面に拡大表示させる(ステップB17)。その後、ステップB13に戻る。   When such a reproduction screen is displayed on the touch display unit 26, when a touch operation is performed on the reproduction screen (YES in step B13), the touch operation is performed on the face images displayed in a list. It is checked whether the operation is a double tap operation (step B14) or a slide operation in the vicinity of the enlarged corrected image (image in the cutout frame) (step B15). If a double-tap operation is performed on the face image (YES in step B14), the position including the face is specified from the corrected image, and the clipping frame is moved to the detected position (step B16). . For example, as shown in FIG. 5 (4), when a double-tap operation is performed on a girl's face image, the girl's face image is specified from the corrected image, and the face image is the center of the cutout frame. The cutout frame is moved so that the position is reached. Then, the image within the cutout frame is cut out and enlarged and displayed on the reproduction screen (step B17). Thereafter, the process returns to Step B13.

また、再生画面上でのタッチ操作が、拡大表示されている補正画像(切り出し枠内の画像)近辺でのスライド操作であれば(ステップB15でYES)、そのスライド方向及びスライド量を検出し(ステップB18)、このスライド方向及びスライド量に応じて切り出し枠を補正画像上で移動させる(ステップB19)。そして、この補正画像から切り出し枠内の画像を切り出して再生画面に拡大表示(ステップB17)させた後、上述のステップB13に戻る。   If the touch operation on the playback screen is a slide operation near the corrected image (image in the cutout frame) displayed in an enlarged manner (YES in step B15), the slide direction and slide amount are detected ( In step B18), the cutout frame is moved on the corrected image in accordance with the slide direction and the slide amount (step B19). Then, the image within the cutout frame is cut out from the corrected image and enlarged and displayed on the reproduction screen (step B17), and then the process returns to step B13 described above.

一方、再生画面上でのタッチ操作ではなく(ステップB13でNO)、例えば、操作部25の所定キーとして、360°撮影の他の魚眼画像への切り替えを指示するキーが操作された場合には(ステップB20でYES)、360°撮影が行われた2枚の魚眼画像の中から他の魚眼画像を再生対象として指定(ステップB21)した後、その指定画像に対応して保存されている補正画像を読み出し(ステップB22)、この補正画像から切り出し枠内の画像を切り出して(ステップB23)、この切り出した画像を再生画面に拡大表示させる(ステップB24)。その後、ステップB13に戻る。そして、例えば、操作部25の所定キーとして、再生終了を指示するキーが操作された場合には(ステップB25でYES)、図7及び図8のフローから抜ける。   On the other hand, instead of a touch operation on the playback screen (NO in step B13), for example, when a key for instructing switching to another fisheye image of 360 ° shooting is operated as a predetermined key of the operation unit 25 (YES in step B20) After designating another fisheye image as a reproduction target from the two fisheye images shot at 360 ° (step B21), the image is saved corresponding to the designated image. The corrected image is read out (step B22), the image in the cutout frame is cut out from the corrected image (step B23), and the cutout image is enlarged and displayed on the reproduction screen (step B24). Thereafter, the process returns to Step B13. For example, when a key for instructing the end of reproduction is operated as a predetermined key of the operation unit 25 (YES in step B25), the process exits the flow of FIGS.

以上のように、第1実施形態においては本体装置20の制御部21は、撮像装置10によって撮影された広角画像(魚眼画像)内に含まれている所定の被写体を認識してその被写体部分の画像の歪を補正し、広角画像の一部分の画像と補正した被写体部分の画像とを関連付ける処理を行うようにしたので、魚眼画像とその魚眼画像内に写っている所定の被写体との対応関係を明確にして、ユーザに提供することができる。   As described above, in the first embodiment, the control unit 21 of the main device 20 recognizes a predetermined subject included in a wide-angle image (fisheye image) photographed by the imaging device 10 and recognizes the subject portion. Since the processing of correlating the image of the image and correlating the image of a part of the wide-angle image with the image of the corrected subject part is performed, the fish-eye image and a predetermined subject appearing in the fish-eye image are The correspondence can be clarified and provided to the user.

制御部21は、撮像装置10によって撮影された広角画像(魚眼画像)の歪を補正すると共に、その補正画像内に含まれている所定の被写体(人物の顔)を認識してその被写体部分の画像(顔画像)をその被写体(人物)毎に検出し、補正画像の一部分の画像と、検出した各被写体部分の画像(顔画像)とを関連付ける処理を行うようにしたので、所定の被写体を広角で撮影した広角画像を所定の被写体が見易くなるような形態に変換することができる。例えば、画像の表示時に、歪の大きい広角画像をそのまま表示するよりもその歪を補正した画像と、各人物の顔画像とを対応付けて表示するようにすれば、広角画像を見易い形態に変換して表示させることができ、ユーザにあってはその人物を容易に確認することが可能となる。   The control unit 21 corrects distortion of the wide-angle image (fisheye image) photographed by the imaging device 10, recognizes a predetermined subject (person's face) included in the corrected image, and detects the subject portion. Image (face image) is detected for each subject (person), and a process of associating a part of the corrected image with the detected image (face image) of each subject part is performed. Can be converted into a form that makes it easy to see a predetermined subject. For example, when displaying an image, if a wide-angle image with a large amount of distortion is displayed as it is and an image with the distortion corrected and the face image of each person are displayed in association with each other, the wide-angle image is converted into a form that is easy to see. The user can easily confirm the person.

制御部21は、補正画像の所定範囲(切り出し枠)内の画像を拡大表示させると共に、検出した各被写体部分の画像(顔画像)を一覧表示させるようにしたので、画像の再生時に、歪が大きい広角画像の全体を表示するよりも補正画像の一部分を表示すれば、広角画像を見易い形態で表示させることができる。すなわち、ユーザにあっては広角で撮影された補正画像の一部分に絞って被写体を確認することができ、また、補正画像の一部に表示されていない人物も含めて広角で撮影された画像内に含まれている全ての人物を確認することができる。   Since the control unit 21 enlarges and displays the image within the predetermined range (cutout frame) of the corrected image and displays a list of the images (face images) of each detected subject portion, distortion occurs during image reproduction. If a part of the corrected image is displayed rather than displaying the entire large wide-angle image, the wide-angle image can be displayed in an easy-to-see form. In other words, the user can check the subject by focusing only on a part of the corrected image taken at a wide angle, and can include a person who is not displayed on a part of the corrected image. All persons included in can be confirmed.

制御部21は、検出した各被写体部分の画像(顔画像)を一覧表示させる際に、広角画像上の各被写体(人物)の配列順序に応じてその順序にどおりに並べて一覧表示させるようにしたので、どこに誰がいたのかなどを顔画像の一覧表示を見るだけで容易に確認することができる。   When displaying a list of images (face images) of each detected subject portion, the control unit 21 displays the images in a list according to the arrangement order of each subject (person) on the wide-angle image. Therefore, it is possible to easily confirm where the person was and the like just by looking at the face image list display.

制御部21は、所定定範囲(切り出し枠)をユーザ操作(スライド操作)によって任意に移動させると共に、その切り出し枠の移動に応じて切り出した画像を拡大表示させるようにしたので、ユーザにあって補正画像の中から所望する部分の画像をその細部まで容易に確認することが可能となる。   The control unit 21 arbitrarily moves the predetermined fixed range (cutout frame) by a user operation (slide operation), and enlarges and displays the clipped image according to the movement of the cutout frame. It is possible to easily confirm the details of the desired portion of the corrected image.

制御部21は、撮影方向を変えて撮影された複数の広角画像を組とする広角画像群の中に含まれている全ての所定の被写体(人物の顔)を認識してその被写体部分の画像(顔画像)をその被写体毎に検出するようにしたので、例えば、前方180°撮影と後方180°撮影の2回に分けて360°撮影を行ったとしてもその周囲にいる全ての人物の顔を検出することができる。   The control unit 21 recognizes all the predetermined subjects (person's face) included in the wide-angle image group that includes a plurality of wide-angle images captured by changing the photographing direction, and images of the subject portions. Since the (face image) is detected for each subject, for example, even if 360 ° shooting is performed in two steps of 180 ° forward shooting and 180 ° backward shooting, the faces of all persons around the subject Can be detected.

制御部21は、撮影方向を変えて撮影された複数の広角画像を組とする広角画像群の中から表示対象の広角画像が指定された場合に、その指定された広角画像の補正画像と、広角画像群の中から検出された全ての被写体部分の画像(人物の顔)と、を対応付けて表示させるようにしたので、ユーザにあっては複数の画像(補正画像)の切り替え表示によってその複数の画像を見ることができる。   When a wide-angle image to be displayed is specified from a group of wide-angle images in which a plurality of wide-angle images captured by changing the imaging direction are specified, the control unit 21 includes a corrected image of the specified wide-angle image, Since all the images of the subject portion (person's face) detected from the wide-angle image group are displayed in association with each other, the user can change the display by switching between a plurality of images (corrected images). You can see multiple images.

制御部21は、撮影方向を変えて撮影された広角画像群の中からユーザ操作によって任意に選択された広角画像を表示対象として指定するようにしたので、ユーザにあっては撮影方向を変えて撮影された複数の画像(補正画像)の中から所望する画像に任意に切り替え指定してその画像の拡大表示を見ることができる。   The control unit 21 designates, as a display target, a wide-angle image arbitrarily selected by a user operation from a group of wide-angle images captured by changing the shooting direction. Therefore, the user changes the shooting direction. It is possible to arbitrarily switch to a desired image from a plurality of captured images (corrected images) and view an enlarged display of the image.

制御部21は、広角画像(魚眼画像)がサムネイル画像として一覧表示されている状態において、そのサムネイル画像の中から任意の広角画像がユーザ操作によって選択されると、その選択された広角画像の補正画像を拡大表示させると共に、検出した各被写体部分の画像(顔画像)を一覧表示させるようにしたので、ユーザにあっては多くの魚眼画像の中から所望する魚眼画像を任意に選択してその画像を見易い形態で確認することが可能となる。   When a wide-angle image (fisheye image) is displayed as a list of thumbnail images and any wide-angle image is selected from the thumbnail images by a user operation, the control unit 21 selects the selected wide-angle image. The correction image is enlarged and displayed, and the images (face images) of each detected subject portion are displayed in a list, so that the user can arbitrarily select a desired fisheye image from many fisheye images. Thus, the image can be confirmed in an easy-to-see form.

制御部21は、補正画像と各被写体部分の画像(顔画像)とを対応付けて記録保存するようにしたので、画像再生を行う毎に広角画像の歪補正を行ったり、補正画像から顔画像を切り出したりする処理が不要となる。   Since the control unit 21 records and saves the corrected image and the image (face image) of each subject portion in association with each other, the control unit 21 performs distortion correction of the wide-angle image every time image reproduction is performed, The process of cutting out is no longer necessary.

(変形例1)
上述した第1実施形態においては、撮影方向を変えて撮影された一組の魚眼画像群の中からユーザ操作によって任意に選択された魚眼画像を表示対象として指定するようにしたが、一定のタイミング毎に予め決められている順所にしたがって各魚眼画像を1枚ずつ順次選択してその補正画像を切り替え表示するようにしてもよい。これによってユーザは各魚眼画像(補正画像)を所定の順序で見ることができる。この場合、360°撮影において、表示中の魚眼画像(補正画像)内に含まれている人物の顔画像と、非表示の魚眼画像(補正画像)内に含まれている人物の顔画像とを識別して一覧表示するようにしてもよい。これによって魚眼画像(補正画像)と人物の顔画像との対応関係を容易に確認することができる。
(Modification 1)
In the first embodiment described above, a fisheye image arbitrarily selected by a user operation from a set of fisheye images captured by changing the shooting direction is designated as a display target. Each fisheye image may be sequentially selected one by one in accordance with a predetermined order at each timing, and the corrected images may be switched and displayed. As a result, the user can view each fisheye image (corrected image) in a predetermined order. In this case, in 360-degree shooting, the face image of a person included in a fisheye image (corrected image) being displayed and the face image of a person included in a non-displayed fisheye image (corrected image) May be identified and displayed in a list. As a result, the correspondence between the fisheye image (corrected image) and the person's face image can be easily confirmed.

(変形例2)
上述した第1実施形態においては、撮影方向を変えて撮影された一組の魚眼画像群内に含まれている全ての人物の顔画像を一覧表示するようにしたが、特定の顔画像を識別して表示するようにしてもよい。例えば、拡大表示中の補正画像の一部に含まれている人物を特定し、この人物の顔画像だけを識別表示(例えば、色分け表示、拡大表示)するようにしてもよい。これによって拡大表示中の補正画像の一部に含まれている人物と、補正画像内の非表示部分に含まれている人物とを識別して表示することができる。ここで、非表示部分に含まれている人物を拡大表示によって確認する場合には、その人物が切り出されるように切り出し枠を移動させればよい。
(Modification 2)
In the first embodiment described above, the face images of all the persons included in the set of fisheye images taken by changing the shooting direction are displayed as a list. You may make it identify and display. For example, a person included in a part of the corrected image being enlarged may be specified, and only the face image of the person may be identified and displayed (for example, color-coded display or enlarged display). As a result, it is possible to identify and display a person included in a part of the corrected image being enlarged and a person included in a non-display part in the corrected image. Here, when the person included in the non-display portion is confirmed by the enlarged display, the cutout frame may be moved so that the person is cut out.

(変形例3)
上述した第1実施形態においては、魚眼レンズ16Bとして円周魚眼レンズ(全周魚眼レンズ)を例示したが、対角魚眼レンズを使用してもよい。また、上述した実施形態においては、1つの魚眼レンズ16Bを用いて、前方180°撮影と後方180°撮影の2回に分けて360°撮影を行うようにしたが、2つの魚眼レンズ16Bを備えるようにすれば、例えば、カメラ筐体の表裏両面にそれぞれ魚眼レンズを備えれば、360°撮影の指示に応じて前方180°撮影と後方180°撮影を同時に行うことができる。また、超広角レンズを使用して複数回の撮影を行って360°撮影を行うようにしてもよい。
(Modification 3)
In 1st Embodiment mentioned above, although the circumference fisheye lens (all the circumference fisheye lens) was illustrated as the fisheye lens 16B, you may use a diagonal fisheye lens. In the above-described embodiment, the single fisheye lens 16B is used to perform 360 ° photographing in two steps of 180 ° forward photographing and 180 ° backward photographing. However, the two fisheye lenses 16B are provided. Thus, for example, if a fisheye lens is provided on each of the front and back surfaces of the camera housing, it is possible to perform forward 180 ° photographing and backward 180 ° photographing simultaneously in accordance with a 360 ° photographing instruction. Further, 360 ° photographing may be performed by performing photographing a plurality of times using an ultra-wide-angle lens.

(変形例4)
上述した第1実施形態において、本体装置20の制御部21は、撮像装置10によって撮影された魚眼画像を受信取得してその画像全体の歪を補正する処理を行うと共に、その補正画像内に含まれている所定の被写体を認識してその被写体部分の画像をその被写体毎に検出した後、補正画像の一部分の画像と、検出した各被写体部分の画像とを関連付ける処理を行うようにしとているが、それに限らず、本体装置20の制御部21は、撮像装置10によって撮影された魚眼画像を受信取得すると、魚眼画像の歪みを補正することなく、その魚眼画像内に含まれている所定の被写体を認識してその被写体部分の画像をその被写体毎に検出した後、魚眼画像の一部分の画像と、検出した各被写体部分の画像とを関連付ける処理を行うようにしてもよい。
(Modification 4)
In the first embodiment described above, the control unit 21 of the main body device 20 receives and acquires the fisheye image captured by the imaging device 10 and performs a process of correcting the distortion of the entire image, and within the corrected image. After recognizing a predetermined subject included and detecting an image of the subject portion for each subject, a process of associating a partial image of the corrected image with the detected image of the subject portion is performed. However, the present invention is not limited thereto, and when the control unit 21 of the main body device 20 receives and acquires the fisheye image photographed by the imaging device 10, it is included in the fisheye image without correcting the distortion of the fisheye image. After a predetermined subject is recognized and an image of the subject portion is detected for each subject, a process of associating a part of the fisheye image with the detected image of the subject portion may be performed. There.

この場合、検出した各被写体部分の画像は、歪みが依然として残ることになるので、所定のタイミング、例えば、上述した関連付ける処理を行うと同時、又はその前後のタイミングや、人物毎に被写体部分を切り出すと同時、又はその前後のタイミングなどで各被写体部分の画像に対して歪補正を行うようにしてもよい。このように歪をそのまま残した魚眼画像の一部分の画像と、補正した被写体部分の画像とを関連付ける処理として、例えば、魚眼画像の一部分の画像を再生画面に表示させると共に、補正した被写体部分の画像と再生に一覧表示させる処理を行うようにすれば、上述した実施形態と同様、魚眼画像とその魚眼画像内に写っている所定の被写体との対応関係を明確にして、ユーザに提供することができる。   In this case, since the detected image of each subject portion remains distorted, the subject portion is cut out at a predetermined timing, for example, at the same time as or before and after the association process described above, or for each person. The distortion correction may be performed on the image of each subject portion at the same time or before and after the timing. As a process of associating the image of a part of the fisheye image with the distortion left in this way and the image of the corrected subject part, for example, the image of the part of the fisheye image is displayed on the reproduction screen, and the corrected subject part is displayed. If the process of displaying a list of images and a list for playback is performed, the correspondence between the fisheye image and the predetermined subject in the fisheye image is clarified and Can be provided.

(変形例5)
上述した第1実施形態においては、再生対象として選択された魚眼画像に対応付けて記録保存されている補正画像から切り出される所定範囲内の画像を表示するようにしたが、それに限らず、再生対象として選択された魚眼画像そのものを表示してもよい。すなわち、歪が残っている魚眼画像と、検出した各被写体部分の画像(顔画像)とを一覧表示させるようにしてもよい。この場合においても上述した実施形態と同様、魚眼画像とその魚眼画像内に写っている所定の被写体との対応関係を明確にして、ユーザに提供することができる。
(Modification 5)
In the first embodiment described above, an image within a predetermined range cut out from the corrected image recorded and stored in association with the fisheye image selected as the reproduction target is displayed. You may display the fish-eye image itself selected as object. That is, a fisheye image in which distortion remains and a list of detected images (face images) of each subject portion may be displayed. Also in this case, as in the above-described embodiment, the correspondence between the fisheye image and a predetermined subject appearing in the fisheye image can be clarified and provided to the user.

(変形例6)
上述した第1実施形態においては、撮影方向を変えて撮影された複数の広角画像を組とする広角画像群の中から表示対象の広角画像がユーザ操作によって指定された場合に、その指定された広角画像の補正画像と、広角画像群の中から検出された全ての被写体部分の画像(人物の顔)と、を対応付けて表示するようにしたが、広角画像群の中から表示対象の広角画像がユーザ操作によって指定された場合に、その指定された広角画像(歪が残っている画像)と、広角画像群の中から検出された全ての被写体部分の画像(人物の顔)と、を対応付けて表示するようにしてもよい。これによってユーザにあっては複数の広角画像の切り替え表示によってその複数の広角画像を見ることができる。
(Modification 6)
In the above-described first embodiment, when a wide-angle image to be displayed is designated by a user operation from a wide-angle image group including a plurality of wide-angle images photographed by changing the photographing direction, the designation is made. The corrected image of the wide-angle image and the images of all the subject parts (person's face) detected from the wide-angle image group are displayed in association with each other. However, the wide-angle image to be displayed is selected from the wide-angle image group. When an image is designated by a user operation, the designated wide-angle image (an image in which distortion remains), and images of all subject parts (a person's face) detected from the wide-angle image group, You may make it display correspondingly. As a result, the user can view the plurality of wide-angle images by switching display of the plurality of wide-angle images.

なお、上述した第1実施形態においては、補正画像の所定範囲(切り出し枠)内の画像を拡大表示させると共に、検出した各被写体部分の画像(顔画像)を一覧表示させる構成としたが、それに限らず、再生対象として選択された魚眼画像に対応付けて記録保存されている補正画像の全体と、検出した各被写体部分の画像(顔画像)を一覧表示させてもよい。   In the first embodiment described above, the image within the predetermined range (cutout frame) of the corrected image is enlarged and displayed, and the detected images (face images) of each subject portion are displayed as a list. Not limited to this, the entire corrected image recorded and stored in association with the fisheye image selected as the reproduction target and the detected images (face images) of each subject portion may be displayed in a list.

上述した第1実施形態においては、魚眼画像、補正画像、各人物の顔画像を対応付けて記録保存するようにしたが、魚眼画像、補正画像、各人物の顔画像を、例えば、SDカード、USBメモリなどの着脱自在な可搬型メモリ(記録メディア)、又は通信手段を介して外部に出力して、外部機器で補正画像と各人物の顔画像とを対応付けて表示するようにしてもよい。   In the first embodiment described above, the fisheye image, the correction image, and the face image of each person are recorded and stored in association with each other. However, the fisheye image, the correction image, and the face image of each person are stored in, for example, SD. Output to the outside via a removable portable memory (recording medium) such as a card or USB memory, or communication means, and display the corrected image and each person's face image in association with each other on an external device. Also good.

上述した第1実施形態においては、魚眼画像を歪補正した補正画像の一部分(切り出し枠内の画像)を拡大して再生画面に表示するようにしたが、補正画像の全体を再生画面に表示するようにしてもよい。   In the first embodiment described above, a part of the corrected image obtained by correcting the distortion of the fisheye image (the image in the clipping frame) is enlarged and displayed on the playback screen. However, the entire corrected image is displayed on the playback screen. You may make it do.

上述した第1実施形態においては、前方180°撮影と後方180°撮影の2回に分けて360°撮影を行ってその複数の魚眼画像を組とするようにしたが、魚眼レンズ16Bを用いて撮影する範囲は、180°撮影に限らず、任意である。また、360°撮影に限らず、180°の範囲で撮影した撮影画像においても適応できるのは勿論である。   In the above-described first embodiment, 360 ° photographing is performed in two steps of 180 ° front photographing and 180 ° rear photographing, and the plurality of fisheye images are grouped, but the fisheye lens 16B is used. The shooting range is not limited to 180 ° shooting and is arbitrary. Needless to say, the present invention can be applied not only to 360 ° shooting but also to a shot image shot in the range of 180 °.

(第2実施形態)
以下、この発明の第2実施形態について図10及び図11を参照して説明する。
なお、上述した第1実施形態においては、魚眼画像(保存済み画像)を再生する場合に、複数の魚眼画像をサムネイル一覧画面に表示している状態において、その中から任意のサムネイル画像の表示位置がタッチされると、その魚眼画像に対応付けられている補正画像の一部の画像(切り出し枠内の画像)を切り替え表示するようにしたが、この第2実施形態においては、魚眼画像(サムネイル画像)がタッチされると、その魚眼画像に対応付けられている各人物の顔画像の一覧画面に切り替え表示するようにしたものである。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described with reference to FIGS.
In the first embodiment described above, when a fish-eye image (stored image) is reproduced, a plurality of fish-eye images are displayed on the thumbnail list screen. When the display position is touched, a part of the corrected image (image in the cutout frame) associated with the fisheye image is switched and displayed. In this second embodiment, the fish When an eye image (thumbnail image) is touched, the face image list screen of each person associated with the fisheye image is switched and displayed.

更に、第1実施形態では、補正画像と共に表示されている顔画像がタッチされると、補正画像の中からその顔画像を含む位置を検出し、その検出した位置に切り出し枠を移動させることによって、切り出し枠内の画像にその顔画像を含ませるように制御するようにしたが、この第2実施形態では、顔画像の一覧画面の中から任意の顔画像がタッチされると、その顔画像を含む魚眼画像(サムネイル一覧画面から選択された当該魚眼画像)に対応付けられている補正画像に切り替え表示するようにしたものである。ここで、両実施形態において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第2実施形態の特徴部分を中心に説明するものとする。   Furthermore, in the first embodiment, when a face image displayed together with the correction image is touched, a position including the face image is detected from the correction image, and the clipping frame is moved to the detected position. In the second embodiment, when an arbitrary face image is touched from the face image list screen, the face image is controlled so as to include the face image in the image within the cutout frame. Is switched to a corrected image associated with a fish-eye image including the image (the fish-eye image selected from the thumbnail list screen). Here, in both the embodiments, the same or the same names are denoted by the same reference numerals, the description thereof will be omitted, and the following description will focus on the features of the second embodiment. .

この第2実施形態における撮影時の動作は、上述した第1実施形態と同様であり、撮影された魚眼画像に対して現像処理を行って記憶部23の記録メディアに記録保存する場合に、この魚眼画像に対して歪曲を補正する処理を施してその補正画像を生成し、この補正画像をその魚眼画像に対応付けて記録保存するようにしている。更に、この補正画像内に含まれている各人物の顔を検出し、人物毎にその顔部分を切り出して顔画像(補正済みの画像)を生成し、その魚眼画像に対応付けて記録保存するようにしている。   The operation at the time of shooting in the second embodiment is the same as that of the first embodiment described above. When the shot fisheye image is developed and recorded in the recording medium of the storage unit 23, The fisheye image is subjected to a process for correcting distortion to generate a corrected image, and the corrected image is recorded and stored in association with the fisheye image. Further, the face of each person included in the corrected image is detected, the face part is cut out for each person to generate a face image (corrected image), and recorded and stored in association with the fisheye image. Like to do.

図10は、魚眼画像(保存済み画像)を再生する場合の本体装置20側の動作(第2実施形態の特徴部分の動作)を示したフローチャートである。
まず、制御部21は、ユーザ操作によって魚眼画像(保存済み画像)の再生が指示されると、記憶部23の記録メディアに記録保存されている複数の魚眼画像(保存済み画像)を読み出し(ステップC1)、この魚眼画像をサムネイル画像に変換して一覧表示させる(ステップC2)。図11(1)は、魚眼画像のサムネイル一覧画面を示し、図中、3×3のマトリックス状に配置した円形は、魚眼画像のサムネイル画像を示している。図11(2)は、このサムネイル一覧画面の一部を拡大して示した図である。
FIG. 10 is a flowchart showing the operation (operation of the characteristic part of the second embodiment) on the main device 20 side when a fisheye image (stored image) is reproduced.
First, when an instruction to reproduce a fisheye image (stored image) is given by a user operation, the control unit 21 reads a plurality of fisheye images (stored images) recorded and stored in the recording medium of the storage unit 23. (Step C1), this fisheye image is converted into a thumbnail image and displayed as a list (Step C2). FIG. 11 (1) shows a thumbnail list screen of fisheye images. In the figure, circles arranged in a 3 × 3 matrix form show thumbnail images of fisheye images. FIG. 11B is an enlarged view of a part of the thumbnail list screen.

このようなサムネイル一覧画面を表示している状態において、任意のサムネイル画像の表示位置に対して所定のタッチ操作(例えば、ダブルタップ操作)が行われたかを調べる(ステップC5)。いま、サムネイル画像上で2回続けて叩くダブルタップ操作が行われなければ(ステップC3でNO)、ステップC9に移るが、サムネイル画像上でダブルタップ操作が行われると(ステップC3でYES)、ダブルタップ操作された魚眼画像に対応付けて記録保存されている各人物の顔画像(補正済みの画像)を読み出し(ステップC4)、各顔画像を拡大して再生画面に切り替え表示させる(ステップC5)。図11(3)は、各人物の顔画像を一覧表示した画面を示し、例えば、矩形に切り抜かれた顔画像は、例えば、上述した第1実施形態と同様の並び順で配置表示される。   In a state where such a thumbnail list screen is displayed, it is checked whether a predetermined touch operation (for example, a double tap operation) has been performed on the display position of an arbitrary thumbnail image (step C5). If a double-tap operation is not performed for two consecutive hits on the thumbnail image (NO in step C3), the process proceeds to step C9. If a double-tap operation is performed on the thumbnail image (YES in step C3), Each person's face image (corrected image) recorded and saved in association with the double-tapped fisheye image is read (step C4), and each face image is enlarged and displayed on the playback screen (step S4). C5). FIG. 11 (3) shows a screen displaying a list of face images of each person. For example, the face images clipped into rectangles are arranged and displayed in the same order as in the first embodiment described above, for example.

このように顔画像の一覧画面が表示されている状態において、任意の顔画像の表示位置に対して所定のタッチ操作(例えば、ダブルタップ操作)が行われたかを調べる(ステップC6)。いま、顔画像上でダブルタップ操作が行われなければ(ステップC6でNO)、ステップC9に移るが、ダブルタップ操作が行われると(ステップC6でYES)、ダブルタップ操作された顔画像を含む魚眼画像に対応付けて記録保存されている補正画像を読み出し(ステップC7)、その補正画像に切り替え表示(全面表示)させる(ステップC8)。   In the state where the face image list screen is displayed as described above, it is checked whether a predetermined touch operation (for example, a double tap operation) is performed on the display position of an arbitrary face image (step C6). If the double tap operation is not performed on the face image (NO in step C6), the process proceeds to step C9. If the double tap operation is performed (YES in step C6), the face image subjected to the double tap operation is included. The correction image recorded and saved in association with the fisheye image is read (step C7), and the correction image is switched and displayed (entire display) (step C8).

この場合、タッチ指定された顔画像を含む魚眼画像として、サムネイル一覧画面で選択された当該魚眼画像を特定し、この魚眼画像に対応付けられている補正画像を読み出して切り替え表示させるが、その際、タッチ指定された顔画像が中央に位置するように補正画像からその顔画像を中心として切り出した画像を拡大して切り替え表示(全面表示)させるようにしている。図11(4)は、図11(3)に示したように女の子の顔画像がダブルタップされた場合に、その顔画像が含まれている魚眼画像に対応付けられている補正画像の一部を切り出して拡大表示した場合を例示した図で、女の子の顔を中心とした拡大画像が切り替え表示された場合である。   In this case, the fisheye image selected on the thumbnail list screen is specified as the fisheye image including the face image designated by touch, and the correction image associated with the fisheye image is read out and displayed for switching. At that time, an image cut out from the corrected image with the face image as the center is enlarged and switched and displayed (entire display) so that the face image designated by touch is located at the center. FIG. 11 (4) shows an example of a correction image associated with a fish-eye image that includes a face image of the girl when the face image of the girl is double-tapped as shown in FIG. 11 (3). It is the figure which illustrated the case where a part was cut out and enlarged and displayed, and is a case where the enlarged image centering on a girl's face is switched and displayed.

図11(5)は、図11(4)の表示例とは異なる他の表示例を説明するための図である。図11(4)の場合には、タッチ指定された顔画像を含む魚眼画像として、サムネイル一覧画面で選択された当該魚眼画像を特定するようにしたが、図11(5)では、当該魚眼画像以外でその顔画像を含む他の魚眼画像を特定し、その魚眼画像に対応付けられている補正画像からその一部分の画像を切り出して拡大表示させた場合である。この場合においても、タッチ指定された顔画像が中央に位置するように補正画像からその顔画像を中心として切り出した画像を拡大して切り替え表示(全面表示)させるようにしている。   FIG. 11 (5) is a diagram for explaining another display example different from the display example of FIG. 11 (4). In the case of FIG. 11 (4), the fisheye image selected on the thumbnail list screen is specified as the fisheye image including the touch-designated face image. This is a case where another fisheye image including the face image other than the fisheye image is specified, and a part of the image is cut out from the correction image associated with the fisheye image and enlarged and displayed. Also in this case, an image cut out from the corrected image with the face image as the center is enlarged and switched and displayed (entire display) so that the touch-designated face image is located at the center.

なお、タッチ指定された顔画像を含む魚眼画像として、サムネイル一覧画面で選択された当該魚眼画像を優先的に特定するようにしているが、当該魚眼画像、又は当該魚眼画像以外でタッチ指定された顔画像を含む他の魚眼画像の何れかを優先的に特定するかをユーザ操作によって予め設定しておいてもよい。また、タッチ指定された顔画像を含む魚眼画像として、当該魚眼画像と他の魚眼画像とをユーザ操作によって切り替えたり、一定時間後に自動的に切り替えたりしてもよい。更に、他の魚眼画像が複数枚保存されていれば、その複数の魚眼画像を切り替え操作によって順次特定して、その特定した魚眼画像に対応付けられている補正画像を読み出して切り替え表示させるようにしてもよい。   It should be noted that the fisheye image selected on the thumbnail list screen is preferentially specified as the fisheye image including the face image designated by touch, but the fisheye image or other than the fisheye image is selected. Whether to preferentially specify any of the other fisheye images including the face image designated for touch may be set in advance by a user operation. Further, as a fish-eye image including a face image designated for touch, the fish-eye image and another fish-eye image may be switched by a user operation, or may be automatically switched after a predetermined time. Further, if a plurality of other fisheye images are stored, the plurality of fisheye images are sequentially identified by a switching operation, and a correction image associated with the identified fisheye image is read and switched for display. You may make it make it.

このように補正画像が切り替え表示されている状態において、戻り指示操作が行われたかを調べ(ステップC9)、戻り指示操作が行われなければ(ステップC9でNO)、その他の指示操作が行われたかを調べる(ステップC10)。ここで、その他の指示操作(例えば、画像編集を指示する操作)が行われた場合には(ステップC10でYES)、その他の指示に応じた処理に移るが、戻り指示操作が行われた場合には(ステップC9でYES)、上述のステップC3に戻る。   In this state where the corrected image is switched and displayed, it is checked whether a return instruction operation has been performed (step C9). If the return instruction operation is not performed (NO in step C9), other instruction operations are performed. (Step C10). If another instruction operation (for example, an operation for instructing image editing) is performed (YES in step C10), the process proceeds to a process corresponding to the other instruction, but a return instruction operation is performed. (YES in step C9), the process returns to step C3 described above.

以上のように第2実施形態においては、広角画像をサムネイル画像として一覧表示している状態において、その中から任意の広角画像がユーザ操作によって選択されると、その広角画像内に含まれている所定の被写体部分の画像を一覧表示するようにしたので、画像全体が歪曲している広角画像をそのままの状態でサムネイル表示したとしても、ユーザは、その被写体を容易に視認することが可能となる。すなわち、広角画像(魚眼画像)は、画像全体が大きく歪んでいるため、そのサムネイル画像を見ても誰が写っているのかを正確に把握することは難しく、また、任意のサムネイル画像をユーザ操作によって指定しながら拡大表示させてその画像内に写っている顔を1人ずつ確認することは手間を要し、ユーザに負担をかけてしまうが、任意のサムネイル画像(魚眼画像)が選択された場合に、その魚眼画像内に含まれている各人物の顔画像が一覧表示されるので、ユーザにあってはサムネイル表示の魚眼画像によって撮影全域を把握しながら臨場感のある画像を見ることができると共に、人物の顔画像により誰が写っているのかを容易に視認することが可能となる。   As described above, in the second embodiment, when a wide-angle image is displayed as a list of thumbnail images and an arbitrary wide-angle image is selected by a user operation, the wide-angle image is included in the wide-angle image. Since a list of images of a predetermined subject portion is displayed, even if a wide-angle image in which the entire image is distorted is displayed as a thumbnail as it is, the user can easily view the subject. . In other words, because the wide-angle image (fish-eye image) is largely distorted, it is difficult to accurately determine who is in the thumbnail image, and any thumbnail image can be manipulated by the user. It is time-consuming and burdensome for the user to check the faces that appear in the image one by one, while enlarging the image while specifying it, but any thumbnail image (fisheye image) is selected. The face images of each person included in the fisheye image are displayed in a list, so that the user can display images with a sense of reality while grasping the entire shooting area using the fisheye images displayed in thumbnails. In addition to being able to see, it is possible to easily visually recognize who is in the person's face image.

更に、上述の顔画像が一覧表示されている状態において、その中から任意の顔画像がユーザ操作によって選択されると、その顔画像に含まれている広角画像の歪みを補正した補正画像を表示するようにしたので、ユーザにあっては歪みの無い広範囲な画像を見ることができる。   Furthermore, when any face image is selected by a user operation in a state where the above-described face images are displayed in a list, a corrected image in which distortion of the wide-angle image included in the face image is corrected is displayed. As a result, the user can see a wide range of images without distortion.

なお、上述した第2実施形態においては、撮影された魚眼画像の歪を補正する処理を行って補正画像を生成すると共に、その補正画像から切り出した各人物の顔画像を生成し、魚眼画像に対応付けて補正画像及び各人物の顔画像を記録保存し、各魚眼画像の再生時に、魚眼画像に対応付けられている各人物の顔画像を読み出して一覧表示するようにしたが、補正画像及び各人物の顔画像は、魚眼画像の再生時時に生成するようにしてもよい。すなわち、魚眼画像のサムネイル表示時に、任意に選択された魚眼画像に対してその歪を補正する処理を行って補正画像を生成した後、その補正画像から切り出した各人物の顔画像を生成するようにしてもよい。また、補正画像を生成してから各人物の顔部分を切り出す場合に限らず、魚眼画像から各人物の顔画像を切り出してその歪を補正することにより顔画像を生成するようにしてもよい。   In the second embodiment described above, a correction image is generated by performing processing for correcting the distortion of the captured fish-eye image, and a face image of each person cut out from the correction image is generated. The correction image and the face image of each person are recorded and stored in association with the image, and the face images of each person associated with the fisheye image are read and displayed as a list when each fisheye image is played back. The corrected image and the face image of each person may be generated when the fisheye image is reproduced. That is, when displaying a thumbnail of a fisheye image, a correction image is generated by correcting the distortion of an arbitrarily selected fisheye image, and then a face image of each person cut out from the corrected image is generated. You may make it do. Moreover, the face image may be generated by cutting out the face image of each person from the fisheye image and correcting the distortion, without being limited to cutting out the face portion of each person after generating the corrected image. .

上述した第2実施形態においては、魚眼画像をサムネイル表示する場合を示したが、この魚眼画像に対してその歪みを補正した補正画像をサムネイル表示するようにしてもよい。この場合においてもサムネイル画像(補正画像)がユーザ操作によって選択されると、その画像内に含まれている各人物の顔画像を一覧表示する画面に切り替えられることは第2実施形態と同様である。   In the second embodiment described above, a case where a fisheye image is displayed as a thumbnail has been shown, but a corrected image obtained by correcting the distortion of the fisheye image may be displayed as a thumbnail. In this case as well, when a thumbnail image (corrected image) is selected by a user operation, the screen is switched to a screen displaying a list of face images of each person included in the image, as in the second embodiment. .

なお、上述した第2実施形態においては、前方180°撮影と後方180°撮影の2回に分けて360°撮影を行ってその複数の魚眼画像を組とするようにしてもよいし、360°撮影に限らず、180°の範囲で撮影(180°撮影)した撮影画像に適応してもよいのは勿論である。   In the second embodiment described above, 360 ° photographing may be performed in two steps of 180 ° front photographing and 180 ° rear photographing, and the plurality of fisheye images may be grouped. Needless to say, the present invention is not limited to photographing, and may be applied to a photographed image photographed in a 180 ° range (180 ° photographing).

(第3実施形態)
以下、この発明の第3実施形態について図12〜図14を参照して説明する。
この第3実施形態においては、複数の魚眼画像をサムネイル画像に変換して一覧表示する際に、各サムネイル画像の近辺にその魚眼画像に対応して保存されている各人物の顔画像を一覧表示するようにしたものである。すなわち、サムネイル画像の周辺にその画像に関連する各人物の顔画像を併せて表示するようにしたものである。ここで、両実施形態において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第3実施形態の特徴部分を中心に説明するものとする。なお、この第3実施形態においても、例えば、図4(1)で示したように前方180°を垂直撮りした場合の魚眼画像と、図4(2)で示したように後方180°を垂直撮りした場合の魚眼画像、つまり、前方180°撮影と後方180°撮影に分けて2回撮影(360°撮影)した2枚の魚眼画像は、1組の画像として記録保存するようにしている。
(Third embodiment)
Hereinafter, a third embodiment of the present invention will be described with reference to FIGS.
In the third embodiment, when a plurality of fisheye images are converted into thumbnail images and displayed as a list, the face images of each person stored corresponding to the fisheye images are displayed in the vicinity of each thumbnail image. The list is displayed. That is, the face image of each person related to the image is also displayed around the thumbnail image. Here, in both the embodiments, the same or the same names are denoted by the same reference numerals, the description thereof will be omitted, and the following description will focus on the features of the third embodiment. . In the third embodiment, for example, as shown in FIG. 4 (1), a fisheye image obtained by vertically shooting 180 ° forward, and 180 ° backward as shown in FIG. 4 (2). The fisheye images in the case of vertical shooting, that is, two fisheye images shot twice (360 ° shooting) divided into 180 ° forward shooting and 180 ° backward shooting are recorded and saved as a set of images. ing.

図12は、魚眼画像(保存済み画像)を再生する場合の本体装置20側の動作(第2実施形態の特徴部分の動作)を示したフローチャートである。
まず、制御部21は、ユーザ操作によって魚眼画像の再生が指示されると、記録保存されている複数の魚眼画像を読み出し(ステップD1)、この魚眼画像をサムネイル画像に変換して一覧表示させる(ステップD2)。そして、各魚眼画像に対応付けて記録保存されている各人物の顔画像を魚眼画像毎に読み出し(ステップD3)、その魚眼画像(サムネイル画像)の近辺(周辺)に、対応する各顔画像を配置表示させる(ステップD4)。
FIG. 12 is a flowchart showing an operation (operation of the characteristic part of the second embodiment) on the main device 20 side when a fisheye image (stored image) is reproduced.
First, when a reproduction of a fisheye image is instructed by a user operation, the control unit 21 reads a plurality of recorded and stored fisheye images (step D1), converts the fisheye images into thumbnail images, and displays a list. Display (step D2). Then, the face image of each person recorded and stored in association with each fisheye image is read for each fisheye image (step D3), and each corresponding to the vicinity (periphery) of the fisheye image (thumbnail image). A face image is arranged and displayed (step D4).

図13(1)は、魚眼画像のサムネイル一覧画面の一例を示した図で、図中、3×3のマトリックス状に配置した円形は、魚眼画像のサムネイル画像を示し、この魚眼画像(サムネイル画像)の周辺に配置した縦長の小円(楕円)は、その魚眼画像に対応する各人物の顔画像を示している。図13(2)は、このサムネイル一覧画面の一部を拡大した図で、図示の例は、360°撮影ではない場合、つまり、180°撮影を行った場合の魚眼画像をサムネイル表示した状態を示し、その魚眼画像内に含まれている各人物の顔画像が当該サムネイル画像の周辺に一覧表示される。   FIG. 13 (1) is a diagram showing an example of a thumbnail list screen of fisheye images. In the figure, circles arranged in a 3 × 3 matrix form thumbnail images of fisheye images. A vertically long small circle (ellipse) arranged around the (thumbnail image) indicates a face image of each person corresponding to the fisheye image. FIG. 13B is an enlarged view of a part of the thumbnail list screen. In the example shown in the drawing, a fish-eye image is displayed as a thumbnail when 360 ° shooting is not performed, that is, when 180 ° shooting is performed. A face image of each person included in the fisheye image is displayed in a list around the thumbnail image.

図14(1)は、魚眼画像のサムネイル一覧画面を他の例を示した図で、図中、魚眼画像Aは、図4(1)で示したように前方180°を垂直撮りした場合の魚眼画像を示し、魚眼画像Bは、図4(2)で示したように後方180°を垂直撮りした場合の魚眼画像を示している。このように前方180°撮影と後方180°撮影に分けて2回撮影(360°撮影)した一組の魚眼画像の場合、その各サムネイル画像の周辺には、自己の魚眼画像内に含まれている人物の顔画像の他に、組みを成す他の魚眼画像内に含まれている人物の顔画像も配置表示される。   FIG. 14 (1) is a diagram showing another example of a thumbnail list screen of fisheye images. In the figure, fisheye image A was taken vertically 180 ° forward as shown in FIG. 4 (1). The fisheye image B shows the fisheye image in the case where the rear 180 ° is vertically photographed as shown in FIG. In this way, in the case of a set of fisheye images that are shot twice (360 ° shooting) divided into 180 ° forward shooting and 180 ° backward shooting, the periphery of each thumbnail image is included in the own fisheye image. In addition to the face image of the person, the face image of the person included in another fisheye image forming the set is also displayed.

図14(2)は、このサムネイル一覧画面の一部を拡大して示した図で、魚眼画像Aのサムネイル表示を示している。この場合、そのサムネイル画像の周辺には、魚眼画像A内に写っている親子の顔画像の他に、この魚眼画像Aと組みを成す他の魚眼画像B内に写っている親子の顔画像も併せて一覧表示される。また、この魚眼画像Bをサムネイル表示した場合も同様であり、図示省略したが、そのサムネイル画像の周辺には、魚眼画像B内に写っている親子の顔画像の他に、この魚眼画像Bと組みを成す他の魚眼画像A内に写っている親子の顔画像も併せて一覧表示される。   FIG. 14B is an enlarged view of a part of the thumbnail list screen and shows a thumbnail display of the fisheye image A. In this case, in the periphery of the thumbnail image, in addition to the face image of the parent and child shown in the fisheye image A, the parent and child shown in another fisheye image B that forms a pair with the fisheye image A A list of facial images is also displayed. The same applies when the fisheye image B is displayed as a thumbnail. Although not shown, the fisheye image B is displayed around the thumbnail image in addition to the parent-child face image shown in the fisheye image B. A list of the face images of the parent and child shown in another fisheye image A that forms a pair with the image B is also displayed.

なお、サムネイル画像の周辺に顔画像を配置表示する場合には、図13(2)、図14(2)に示したように各顔画像のサイズを揃えて等間隔にバランス良く配置するようにしている。このサムネイル一覧画面が表示されている状態において、その一覧画面内の顔画像の表示位置がタッチ(ダブルタップ)されたかを調べる(ステップD5)。いま、顔画像の表示位置がダブルタップされなければ(ステップD5でNO)、ステップD8に移るが、ダブルタップされると(ステップD5でYES)、ダブルタップされた顔画像から対応する魚眼画像を特定し、この魚眼画像に対応付けて記録保存されている補正画像を読み出し(ステップD6)、その補正画像をサムネイル一覧画面に切り替えて表示させる(ステップD7)。この場合においても上述した第2実施形態と同様に、サムネイル一覧画面で選択された当該魚眼画像、又は当該魚眼画像以外でタッチ指定された顔画像を含む他の魚眼画像を特定し、その特定した魚眼画像に対応付けられている補正画像を読み出して切り替え表示させるようにしている。   When face images are arranged and displayed around thumbnail images, the size of each face image is made uniform and arranged in a well-balanced manner as shown in FIGS. 13 (2) and 14 (2). ing. In a state where the thumbnail list screen is displayed, it is checked whether the display position of the face image in the list screen is touched (double tapped) (step D5). If the display position of the face image is not double-tapped (NO in step D5), the process proceeds to step D8, but if double-tapped (YES in step D5), the corresponding fisheye image from the double-tapped face image. The correction image recorded and stored in association with this fisheye image is read (step D6), and the correction image is switched to the thumbnail list screen and displayed (step D7). Also in this case, as in the second embodiment described above, the fisheye image selected on the thumbnail list screen or another fisheye image including a face image that is touch-designated other than the fisheye image is specified, The correction image associated with the specified fisheye image is read out and displayed for switching.

図13(3)は、図13(2)に示したように子供の顔画像がダブルタップされた場合に、その顔画像が含まれている補正画像を拡大表示させた場合を示している。図14(3)も同様にダブルタップされた子供の顔画像が含まれている補正画像を拡大表示させた場合を示しているが、図13(3)の場合にはサムネイル表示されている画像の補正画像であるが、図14(3)の場合にはサムネイル表示されている画像Aと組みを成す画像Bの補正画像が表示される。   FIG. 13 (3) shows a case where the corrected image including the face image is enlarged and displayed when the child's face image is double-tapped as shown in FIG. 13 (2). Similarly, FIG. 14 (3) shows a case where the corrected image including the face image of the double-tapped child is enlarged, but in the case of FIG. 13 (3), the image displayed as a thumbnail is displayed. In the case of FIG. 14 (3), the corrected image of the image B that forms a pair with the image A displayed as a thumbnail is displayed.

このように補正画像が切り替え表示されている状態において、戻り指示操作が行われたかを調べ(ステップD8)、戻り指示操作が行われなければ(ステップD8でNO)、その他の指示操作が行われたかを調べる(ステップD9)。ここで、その他の指示操作(例えば、画像編集を指示する操作)が行われた場合には(ステップD9でYES)、その他の指示に応じた処理に移るが、戻り指示操作が行われた場合には(ステップD8でYES)、上述のステップD2に戻り、サムネイル一覧画面を表示させる。   In this state where the corrected image is switched and displayed, it is checked whether a return instruction operation has been performed (step D8). If no return instruction operation is performed (NO in step D8), other instruction operations are performed. (Step D9). If another instruction operation (for example, an operation for instructing image editing) is performed (YES in step D9), the process proceeds to a process corresponding to the other instruction, but a return instruction operation is performed. (YES in step D8), the process returns to step D2 described above to display the thumbnail list screen.

以上のように、第3実施形態においては、広角画像をサムネイル画像として一覧表示すると共に、広角画像から切り出して生成した被写体部分の画像をそのサムネイル画像に対応付けて表示するようにしたので、画像全体が歪曲している広角画像をそのままの状態でサムネイル表示したとしても、ユーザは、その被写体を容易に視認することが可能となる。   As described above, in the third embodiment, the wide-angle image is displayed as a list of thumbnail images, and the image of the subject portion cut out from the wide-angle image is displayed in association with the thumbnail image. Even if a wide-angle image that is distorted as a whole is displayed as a thumbnail as it is, the user can easily visually recognize the subject.

また、制御部1は、撮影方向を変えて撮影された複数の広角画像を組とする広角画像群の中の何れかの広角画像をサムネイル表示させている場合に、その広角画像群に含まれている全ての被写体部分の画像をサムネイル画像に対応付けて表示させるようにしたので、ユーザにあっては広角画像群の中の何れかの広角画像のサムネイル表示を確認するだけでその広角画像群に含まれている全ての被写体部分の画像を確認することができる。例えば、前方180°撮影と後方180°撮影の2回に分けて360°撮影が行われた場合に、その前方180°撮影のサムネイル画像(魚眼画像)にはその魚眼画像に含まれている人物の顔画像と共に、後方180°撮影の魚眼画像に含まれている人物の顔画像も一緒に表示されるので、後方180°撮影の魚眼画像のサムネイル表示を確認しなくてもその魚眼画像に含まれている人物の顔画像を確認することができる。   In addition, the control unit 1 includes any wide-angle image in the wide-angle image group that includes a plurality of wide-angle images photographed by changing the photographing direction as thumbnails, and is included in the wide-angle image group. Since the images of all the subject portions are displayed in association with the thumbnail images, the user can check the thumbnail display of any wide-angle image in the wide-angle image group, and the wide-angle image group It is possible to confirm images of all the subject portions included in the. For example, when 360 ° shooting is performed in two steps of 180 ° forward shooting and 180 ° backward shooting, the thumbnail image (fisheye image) of the 180 ° forward shooting is included in the fisheye image. A face image of a person included in a fisheye image taken 180 ° behind is also displayed together with the face image of the person being photographed, so that without checking the thumbnail display of the fisheye image taken 180 ° behind The face image of the person included in the fisheye image can be confirmed.

なお、上述した第3実施形態においては、撮影された魚眼画像の歪を補正する処理を行って補正画像を生成すると共に、その補正画像から切り出した各人物の顔画像を生成し、魚眼画像に対応付けて補正画像及び各人物の顔画像を記録保存し、各魚眼画像のサムネイル表示時に、魚眼画像に対応付けられている各人物の顔画像を読み出して一覧表示し、この一覧表示の中から任意の顔画像がユーザ指定された場合には、その顔画像を含む補正画像を読み出して表示するようにしたが、補正画像及び各人物の顔画像は、魚眼画像のサムネイル表示時に生成するようにしてもよい。すなわち、魚眼画像のサムネイル表示時に魚眼画像の歪を補正する処理を行って補正画像を生成すると共に、その補正画像から切り出した各人物の顔画像を生成するようにしてもよい。また、補正画像を生成してからその補正画像から各人物の顔部分を切り出す場合に限らず、魚眼画像から各人物の顔画像を切り出してその歪を補正することにより顔画像を生成するようにしてもよい。   In the third embodiment described above, a correction image is generated by performing processing for correcting distortion of a captured fish-eye image, and a face image of each person cut out from the correction image is generated. The correction image and the face image of each person are recorded and stored in association with the image, and when displaying the thumbnails of each fisheye image, the face images of each person associated with the fisheye image are read out and displayed in a list. When an arbitrary face image is specified by the user from the display, a correction image including the face image is read and displayed. However, the correction image and each person's face image are displayed as thumbnails of fisheye images. Sometimes it may be generated. That is, a correction image may be generated by performing a process of correcting the distortion of the fisheye image when the thumbnail of the fisheye image is displayed, and a face image of each person cut out from the correction image may be generated. Further, not only when a face image of each person is cut out from the corrected image after the correction image is generated, but the face image is generated by cutting out the face image of each person from the fisheye image and correcting the distortion. It may be.

上述した第3実施形態においては、1つの魚眼レンズ16Bを用いて、前方180°撮影と後方180°撮影の2回に分けて360°撮影を行うようにしたが、2つの魚眼レンズ16Bを備えるようにすれば、例えば、カメラ筐体の表裏両面にそれぞれ魚眼レンズを備えれば、360°撮影の指示に応じて前方180°撮影と後方180°撮影を同時に行うことができる。また、超広角レンズを使用して複数回の撮影を行って360°撮影を行うようにしてもよい。   In the above-described third embodiment, the single fisheye lens 16B is used to perform 360 ° photography in two steps of 180 ° forward photography and 180 ° backward photography. However, the two fisheye lenses 16B are provided. Thus, for example, if a fisheye lens is provided on each of the front and back surfaces of the camera housing, it is possible to perform forward 180 ° photographing and backward 180 ° photographing simultaneously in accordance with a 360 ° photographing instruction. Further, 360 ° photographing may be performed by performing photographing a plurality of times using an ultra-wide-angle lens.

上述した各実施形態においては、画像処理装置としてデジタルカメラに適用した場合を示したが、これに限らず、例えば、パーソナルコンピュータ、PDA(個人向け携帯型情報通信機器)、タブレット端末装置、スマートフォンなどの携帯電話機、電子ゲーム、音楽プレイヤーなどであってもよい。   In each of the above-described embodiments, the case where the present invention is applied to a digital camera as an image processing apparatus has been described. However, the present invention is not limited thereto, and for example, a personal computer, a PDA (personal portable information communication device), a tablet terminal device, a smartphone, etc. Mobile phones, electronic games, music players, and the like.

また、上述した各実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。   Further, the “apparatus” and “unit” shown in each of the above-described embodiments may be separated into a plurality of cases by function, and are not limited to a single case. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.

また、上述した各実施形態においては、サムネイル画像として魚眼画像又は広角画像を表示するようにしたが、例えば、魚眼画像や広角画像の所定範囲の歪みを補正した画像など、これらの魚眼画像や広角画像に対応付けられている画像をサムネイル画像として表示するようにしてもよい。   In each of the above-described embodiments, a fisheye image or a wide-angle image is displayed as a thumbnail image. For example, a fisheye image or an image obtained by correcting distortion in a predetermined range of the wide-angle image may be used. Images associated with images and wide-angle images may be displayed as thumbnail images.

以上、この発明の実施形態について説明したが、この発明は、これに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下、本願出願の特許請求の範囲に記載された発明を付記する。
(付記)
(請求項1)
請求項1に記載の発明は、
広角で撮影された広角画像内に含まれている所定の被写体を認識してその被写体部分の画像を検出する検出手段と、
前記検出手段により検出された被写体部分の画像の歪を補正する補正手段と、
前記広角画像の少なくとも一部分の画像と前記補正手段により補正された前記被写体部分の画像とを関連付ける処理を行う処理手段と、
を備えることを特徴とする画像処理装置である。
(請求項2)
請求項2に記載の発明は、請求項1に記載の画像処理装置において、
前記補正手段は、前記広角画像の歪を更に補正し、
前記処理手段は、前記補正手段によって歪補正された広角画像の少なくとも一部分の画像と前記補正手段により補正された前記被写体部分の画像とを関連付ける処理を行う、
ことを特徴とする。
(請求項3)
請求項3に記載の発明は、請求項1に記載の画像処理装置において、
前記処理手段は、歪を有する前記広角画像の少なくとも一部分の画像と前記補正手段により補正された前記被写体部分の画像とを関連付ける処理を行う、
ことを特徴とする。
(請求項4)
請求項4に記載の発明は、請求項1乃至3の何れか1項に記載の画像処理装置において、
表示手段を更に備え、
前記処理手段は、前記広角画像の少なくとも一部分の画像を前記表示手段に表示させ、前記補正手段により補正された前記被写体部分の画像を前記表示手段に表示することで前記関連付ける処理を行う、
ことを特徴とする。
(請求項5)
請求項5に記載の発明は、請求項4に記載の画像処理装置において、
前記処理手段は、前記広角画像の少なくとも一部分の画像と、前記補正手段により補正された前記被写体部分の画像とを前記表示手段に同時に表示することで前記関連付ける処理を行う、
ことを特徴とする。
(請求項6)
請求項6に記載の発明は、請求項4又は5に記載の画像処理装置において、
前記広角画像の一部分として所定範囲内の画像を取得する取得手段を更に備え、
前記処理手段は、前記取得手段によって取得された所定範囲内の画像を前記表示手段に表示させ、前記検出手段によって検出された被写体部分の画像を前記表示手段に表示させることで、前記関連付ける処理を行う、
ことを特徴とする。
(請求項7)
請求項7に記載の発明は、請求項4乃至6の何れか1項に記載の画像処理装置において、
前記検出手段は、広角で撮影された広角画像内に含まれている所定の被写体を認識してその被写体部分の画像を検出し、
前記処理手段は、前記広角画像の少なくとも一部の画像を前記表示手段に表示させ、前記検出手段によって検出された被写体部分の画像を前記表示手段に一覧表示させることで前記関連付ける処理を行う
ことを特徴とする。
(請求項8)
請求項8に記載の発明は、請求項7に記載の画像処理装置において、
前記表示手段に前記被写体部分の画像が一覧表示されている状態において、その被写体部分の中から任意の被写体部分の画像をユーザ操作に応じて選択する第2の選択手段を更に備え、
前記処理手段は、前記第2の選択手段によって任意の被写体部分の画像が選択された際に、前記第2の選択手段によって選択された前記被写体部分に対応する、前記広角画像の少なくとも一部の画像を前記表示手段に表示することで前記関連付ける処理を行う、
ことを特徴とする。
(請求項9)
請求項9に記載の発明は、請求項7に記載の画像処理装置において、
前記補正手段は、前記第2の選択手段によって選択された被写体部分の画像を含む前記広角画像の所定範囲の歪みを更に補正し、
前記処理手段は、前記第2の選択手段によって任意の被写体部分の画像が選択された際に、前記補正手段によって補正された所定範囲の広角画像の補正画像を前記表示手段に表示することで前記関連付ける処理を行う、
ことを特徴とする。
(請求項10)
請求項10に記載の発明は、請求項7乃至9の何れか一項に記載の画像処理装置において、
前記処理手段は、前記被写体部分の画像が一覧表示されている状態から、前記広角画像の少なくとも一部の画像が表示されている状態になるように前記表示手段の表示を切り換えることで前記関連付ける処理を行う、
ことを特徴とする。
(請求項11)
請求項11に記載の発明は、請求項8又は9に記載の画像処理装置において、
前記処理手段は、前記被写体部分の画像が前記表示手段に一覧表示されている状態から、前記第2の選択手段によって選択された前記被写体部分に対応する、前記広角画像の少なくとも一部の画像が前記表示手段に表示されている状態になるように前記表示手段の表示を切り換えることで前記関連付ける処理を行う、
ことを特徴とする。
(請求項12)
請求項12に記載の発明は、請求項7乃至11の何れか1項に記載の画像処理装置において、
前記検出手段は、広角で撮影された広角画像内に含まれている所定の被写体を複数認識してその被写体部分の画像をその被写体毎に検出し、
前記処理手段は、前記検出手段によって検出された各被写体部分の画像を前記表示手段に一覧表示させる際に、前記広角画像上の各被写体の配列順序に応じてその順序どおりに並べて一覧表示させる、
ことを特徴とする。
(請求項13)
請求項13に記載の発明は、請求項6又は9に記載の画像処理装置において、
前記所定範囲をユーザ操作によって任意に移動させる移動指示手段を更に備え、
前記取得手段は、前記移動指示手段によって移動される所定範囲内の画像を取得する、
ことを特徴とする。
(請求項14)
請求項14に記載の発明は、請求項4乃至13の何れか1項に記載の画像処理装置において、
前記表示手段に前記広角画像又は前記広角画像に対応する対応画像がサムネイル画像として一覧表示されている状態においてそのサムネイル画像の中から任意の広角画像又は対応画像をユーザ操作に応じて選択する第1の選択手段を更に備え、
前記検出手段は、前記第1の選択手段によって選択された広角画像又は対応画像内に含まれている所定の被写体を認識してその被写体部分の画像を検出し、
前記処理手段は、前記第1の選択手段によって任意の広角画像又は対応画像が選択された際に、前記検出手段によって検出された被写体部分の画像であって前記補正手段により補正された画像を前記表示手段に一覧表示する、
ことを特徴とする。
(請求項15)
請求項に記載の発明は、請求項4乃至14の何れか1項に記載の画像処理装置において、
前記広角画像又は前記広角画像に対応する対応画像がサムネイル画像として一覧表示されている状態においてそのサムネイル画像の中から任意の広角画像又は対応画像をユーザ操作に応じて選択する第1の選択手段を更に備え、
前記処理手段は、前記第1の選択手段によって任意の広角画像又は対応画像が選択された際に、その広角画像又は対応する広角画像と前記補正手段により補正された前記被写体部分の画像とを前記表示手段に同時に表示させることで前記関連付ける処理を行う、
ことを特徴とする。
(請求項16)
請求項に記載の発明は、請求項4乃至15の何れか1項に記載の画像処理装置において、
前記検出手段は、撮影方向を変えて撮影された複数の広角画像を組とする広角画像群の中に含まれている全ての所定の被写体を認識してその被写体部分の画像をその被写体毎に検出し、
前記処理手段は、前記広角画像群の中の何れかの広角画像がサムネイル表示されている場合に、前記検出手段によって検出された当該広角画像群内に含まれている全ての被写体部分の画像であって前記補正手段により補正された画像を、前記サムネイル表示されている広角画像に対応付けて表示させる、
ことを特徴とする。
(請求項17)
請求項に記載の発明は、請求項1乃至16の何れか1項に記載の画像処理装置において、
前記検出手段は、撮影方向を変えて撮影された複数の広角画像を組とする広角画像群の中に含まれている全ての所定の被写体を認識してその被写体部分の画像をその被写体毎に検出する、
ことを特徴とする。
(請求項18)
請求項に記載の発明は、請求項17に記載の画像処理装置において、
撮影方向を変えて撮影された複数の広角画像を組とする広角画像群の中から一つの広角画像を指定する指定手段を更に備え、
前記処理手段は、前記指定手段によって指定された広角画像と、前記検出手段によって広角画像群の中から検出された全ての被写体部分の画像と、を関連付ける処理を行う、
ことを特徴とする。
(請求項19)
請求項19に記載の発明は、請求項1乃至18の何れか1項に記載の画像処理装置において、
前記処理手段は、前記広角画像と前記検出手段によって検出された前記被写体部分の画像とを対応付けて記録保存する処理を行う、
ことを特徴とする。
(請求項20)
請求項20に記載の発明は、請求項1乃至19の何れか1項に記載の画像処理装置において、
前記広角画像は、魚眼レンズを使用して撮影された魚眼画像である、
ことを特徴とする。
(請求項21)
請求項21に記載の発明は、
画像処理装置における画像処理方法であって、
広角で撮影された広角画像内に含まれている所定の被写体を認識してその被写体部分の画像を検出する処理と、
前記検出された被写体部分の画像の歪を補正する処理と、
前記広角画像の少なくとも一部分の画像と前記補正された前記被写体部分の画像とを関連付ける処理と、
を含むことを特徴とする。
(請求項22)
請求項22に記載の発明は、
画像処理装置のコンピュータに対して、
広角で撮影された広角画像内に含まれている所定の被写体を認識してその被写体部分の画像を検出する機能と、
前記検出された被写体部分の画像の歪を補正する機能と、
前記広角画像の少なくとも一部分の画像と前記補正された前記被写体部分の画像とを関連付ける機能と、
を実現させるためのプログラムである。
The embodiment of the present invention has been described above. However, the present invention is not limited to this, and includes the invention described in the claims and the equivalent scope thereof.
Hereinafter, the invention described in the claims of the present application will be appended.
(Appendix)
(Claim 1)
The invention described in claim 1
Detecting means for recognizing a predetermined subject included in a wide-angle image photographed at a wide angle and detecting an image of the subject portion;
Correction means for correcting distortion of the image of the subject portion detected by the detection means;
Processing means for performing processing for associating at least a part of the wide-angle image with the image of the subject portion corrected by the correction means;
An image processing apparatus comprising:
(Claim 2)
The invention according to claim 2 is the image processing apparatus according to claim 1,
The correction means further corrects distortion of the wide-angle image,
The processing means performs a process of associating at least a part of an image of the wide-angle image whose distortion has been corrected by the correction means with the image of the subject portion corrected by the correction means.
It is characterized by that.
(Claim 3)
The invention according to claim 3 is the image processing apparatus according to claim 1,
The processing means performs a process of associating an image of at least a part of the wide-angle image having distortion with an image of the subject portion corrected by the correction means.
It is characterized by that.
(Claim 4)
The invention according to claim 4 is the image processing apparatus according to any one of claims 1 to 3,
A display means,
The processing unit displays the image of at least a part of the wide-angle image on the display unit, and performs the association process by displaying the image of the subject portion corrected by the correction unit on the display unit.
It is characterized by that.
(Claim 5)
The invention according to claim 5 is the image processing apparatus according to claim 4,
The processing means performs the associating process by simultaneously displaying an image of at least a part of the wide-angle image and an image of the subject portion corrected by the correction means on the display means.
It is characterized by that.
(Claim 6)
The invention according to claim 6 is the image processing apparatus according to claim 4 or 5, wherein
An acquisition means for acquiring an image within a predetermined range as a part of the wide-angle image;
The processing unit displays the image within a predetermined range acquired by the acquisition unit on the display unit, and displays the image of the subject portion detected by the detection unit on the display unit, thereby performing the association process. Do,
It is characterized by that.
(Claim 7)
The invention according to claim 7 is the image processing apparatus according to any one of claims 4 to 6,
The detection means recognizes a predetermined subject included in a wide-angle image photographed at a wide angle, detects an image of the subject portion,
The processing means displays at least a part of the wide-angle image on the display means, and performs the association processing by causing the display means to display a list of images of the subject portions detected by the detection means. Features.
(Claim 8)
The invention according to claim 8 is the image processing apparatus according to claim 7,
A second selecting means for selecting an image of an arbitrary subject portion from the subject portions in accordance with a user operation in a state in which the images of the subject portions are displayed in a list on the display means;
The processing means, when an image of an arbitrary subject portion is selected by the second selection means, corresponds to at least a part of the wide-angle image corresponding to the subject portion selected by the second selection means. Performing the association process by displaying an image on the display means;
It is characterized by that.
(Claim 9)
The invention according to claim 9 is the image processing apparatus according to claim 7,
The correction means further corrects distortion in a predetermined range of the wide-angle image including the image of the subject portion selected by the second selection means,
The processing means displays a corrected image of a wide-angle image within a predetermined range corrected by the correcting means on the display means when an image of an arbitrary subject portion is selected by the second selecting means. Perform the association process,
It is characterized by that.
(Claim 10)
According to a tenth aspect of the present invention, in the image processing apparatus according to any one of the seventh to ninth aspects,
The processing unit switches the display of the display unit so that at least a part of the wide-angle image is displayed from a state in which the image of the subject portion is displayed as a list, and the association process is performed. I do,
It is characterized by that.
(Claim 11)
The invention according to claim 11 is the image processing apparatus according to claim 8 or 9, wherein
The processing means includes at least a part of the wide-angle image corresponding to the subject portion selected by the second selection means from a state in which the images of the subject portion are displayed as a list on the display means. Performing the associating process by switching the display of the display means so as to be in the state displayed on the display means;
It is characterized by that.
(Claim 12)
The invention according to claim 12 is the image processing apparatus according to any one of claims 7 to 11,
The detection means recognizes a plurality of predetermined subjects included in a wide-angle image photographed at a wide angle, detects an image of the subject portion for each subject,
The processing means, when displaying a list of images of each subject portion detected by the detection means on the display means, displays the list in order according to the arrangement order of the subjects on the wide-angle image,
It is characterized by that.
(Claim 13)
The invention according to claim 13 is the image processing apparatus according to claim 6 or 9, wherein
A movement instruction means for arbitrarily moving the predetermined range by a user operation;
The acquisition unit acquires an image within a predetermined range moved by the movement instruction unit;
It is characterized by that.
(Claim 14)
The invention according to claim 14 is the image processing apparatus according to any one of claims 4 to 13,
A first wide-angle image or a corresponding image is selected from the thumbnail images in response to a user operation in a state where the wide-angle image or the corresponding image corresponding to the wide-angle image is listed as a thumbnail image on the display means. Further comprising a selection means,
The detection means recognizes a predetermined subject included in the wide-angle image selected by the first selection means or the corresponding image, and detects an image of the subject portion;
The processing means converts an image of a subject portion detected by the detection means and corrected by the correction means when an arbitrary wide-angle image or corresponding image is selected by the first selection means. Display a list on the display means,
It is characterized by that.
(Claim 15)
The invention described in claim is the image processing apparatus according to any one of claims 4 to 14,
First selection means for selecting an arbitrary wide-angle image or corresponding image from the thumbnail images in response to a user operation in a state where the wide-angle image or the corresponding image corresponding to the wide-angle image is displayed as a list of thumbnail images. In addition,
The processing means, when an arbitrary wide-angle image or corresponding image is selected by the first selection means, displays the wide-angle image or corresponding wide-angle image and the image of the subject portion corrected by the correction means. Performing the association process by simultaneously displaying on the display means;
It is characterized by that.
(Claim 16)
The invention described in claim is the image processing apparatus according to any one of claims 4 to 15,
The detection means recognizes all predetermined subjects included in a wide-angle image group including a plurality of wide-angle images photographed by changing the photographing direction, and images of the subject portion for each subject. Detect
The processing means includes images of all the subject portions included in the wide-angle image group detected by the detection means when any wide-angle image in the wide-angle image group is displayed as a thumbnail. The image corrected by the correction means is displayed in association with the wide-angle image displayed as a thumbnail,
It is characterized by that.
(Claim 17)
The invention described in claim is the image processing apparatus according to any one of claims 1 to 16,
The detection means recognizes all predetermined subjects included in a wide-angle image group including a plurality of wide-angle images photographed by changing the photographing direction, and images of the subject portion for each subject. To detect,
It is characterized by that.
(Claim 18)
The invention described in claim is the image processing apparatus according to claim 17,
Further comprising designation means for designating one wide-angle image from a group of wide-angle images in which a plurality of wide-angle images photographed by changing the photographing direction are set;
The processing means performs a process of associating the wide-angle image designated by the designation means with the images of all the subject portions detected from the wide-angle image group by the detection means.
It is characterized by that.
(Claim 19)
The invention according to claim 19 is the image processing device according to any one of claims 1 to 18,
The processing means performs processing to record and save the wide-angle image and the image of the subject portion detected by the detection means in association with each other.
It is characterized by that.
(Claim 20)
The invention according to claim 20 is the image processing apparatus according to any one of claims 1 to 19,
The wide-angle image is a fish-eye image taken using a fish-eye lens.
It is characterized by that.
(Claim 21)
The invention according to claim 21
An image processing method in an image processing apparatus,
A process of recognizing a predetermined subject included in a wide-angle image taken at a wide angle and detecting an image of the subject portion;
Processing for correcting distortion of the image of the detected subject portion;
Associating at least a portion of the wide-angle image with the corrected image of the subject portion;
It is characterized by including.
(Claim 22)
The invention described in claim 22
For the computer of the image processing device,
A function of recognizing a predetermined subject included in a wide-angle image taken at a wide angle and detecting an image of the subject portion;
A function of correcting image distortion of the detected subject portion;
A function of associating at least a portion of the wide-angle image with the corrected image of the subject portion;
It is a program for realizing.

10 撮像装置
20 本体装置
11、21 制御部
13、23 記憶部
23A プログラムメモリ
23C 画像管理テーブル
14、24 通信部
16 撮像部
16B 魚眼レンズ
16C 撮像素子
25 操作部
26 タッチ表示部
DESCRIPTION OF SYMBOLS 10 Imaging apparatus 20 Main body apparatus 11, 21 Control part 13, 23 Storage part 23A Program memory 23C Image management table 14, 24 Communication part 16 Imaging part 16B Fisheye lens 16C Imaging element 25 Operation part 26 Touch display part

Claims (22)

広角で撮影された広角画像内に含まれている所定の被写体を認識してその被写体部分の画像を検出する検出手段と、
前記検出手段により検出された被写体部分の画像の歪を補正する補正手段と、
前記広角画像の少なくとも一部分の画像と前記補正手段により補正された前記被写体部分の画像とを関連付ける処理を行う処理手段と、
を備えることを特徴とする画像処理装置。
Detecting means for recognizing a predetermined subject included in a wide-angle image photographed at a wide angle and detecting an image of the subject portion;
Correction means for correcting distortion of the image of the subject portion detected by the detection means;
Processing means for performing processing for associating at least a part of the wide-angle image with the image of the subject portion corrected by the correction means;
An image processing apparatus comprising:
前記補正手段は、前記広角画像の歪を更に補正し、
前記処理手段は、前記補正手段によって歪補正された広角画像の少なくとも一部分の画像と前記補正手段により補正された前記被写体部分の画像とを関連付ける処理を行う、
ことを特徴とする請求項1に記載の画像処理装置。
The correction means further corrects distortion of the wide-angle image,
The processing means performs a process of associating at least a part of an image of the wide-angle image whose distortion has been corrected by the correction means with the image of the subject portion corrected by the correction means.
The image processing apparatus according to claim 1.
前記処理手段は、歪を有する前記広角画像の少なくとも一部分の画像と前記補正手段により補正された前記被写体部分の画像とを関連付ける処理を行う、
ことを特徴とする請求項1に記載の画像処理装置。
The processing means performs a process of associating an image of at least a part of the wide-angle image having distortion with an image of the subject portion corrected by the correction means.
The image processing apparatus according to claim 1.
表示手段を更に備え、
前記処理手段は、前記広角画像の少なくとも一部分の画像を前記表示手段に表示させ、前記補正手段により補正された前記被写体部分の画像を前記表示手段に表示することで前記関連付ける処理を行う、
ことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
A display means,
The processing unit displays the image of at least a part of the wide-angle image on the display unit, and performs the association process by displaying the image of the subject portion corrected by the correction unit on the display unit.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記処理手段は、前記広角画像の少なくとも一部分の画像と、前記補正手段により補正された前記被写体部分の画像とを前記表示手段に同時に表示することで前記関連付ける処理を行う、
ことを特徴とする請求項4に記載の画像処理装置。
The processing means performs the associating process by simultaneously displaying an image of at least a part of the wide-angle image and an image of the subject portion corrected by the correction means on the display means.
The image processing apparatus according to claim 4.
前記広角画像の一部分として所定範囲内の画像を取得する取得手段を更に備え、
前記処理手段は、前記取得手段によって取得された所定範囲内の画像を前記表示手段に表示させ、前記検出手段によって検出された被写体部分の画像を前記表示手段に表示させることで、前記関連付ける処理を行う、
ことを特徴とする請求項4又は5に記載の画像処理装置。
An acquisition means for acquiring an image within a predetermined range as a part of the wide-angle image;
The processing unit displays the image within a predetermined range acquired by the acquisition unit on the display unit, and displays the image of the subject portion detected by the detection unit on the display unit, thereby performing the association process. Do,
The image processing apparatus according to claim 4, wherein the image processing apparatus is an image processing apparatus.
前記検出手段は、広角で撮影された広角画像内に含まれている所定の被写体を認識してその被写体部分の画像を検出し、
前記処理手段は、前記広角画像の少なくとも一部の画像を前記表示手段に表示させ、前記検出手段によって検出された被写体部分の画像を前記表示手段に一覧表示させることで前記関連付ける処理を行う
ことを特徴とする請求項4乃至6の何れか1項に記載の画像処理装置。
The detection means recognizes a predetermined subject included in a wide-angle image photographed at a wide angle, detects an image of the subject portion,
The processing means displays at least a part of the wide-angle image on the display means, and performs the association processing by causing the display means to display a list of images of the subject portions detected by the detection means. The image processing apparatus according to claim 4, wherein the image processing apparatus is characterized.
前記表示手段に前記被写体部分の画像が一覧表示されている状態において、その被写体部分の中から任意の被写体部分の画像をユーザ操作に応じて選択する第2の選択手段を更に備え、
前記処理手段は、前記第2の選択手段によって任意の被写体部分の画像が選択された際に、前記第2の選択手段によって選択された前記被写体部分に対応する、前記広角画像の少なくとも一部の画像を前記表示手段に表示することで前記関連付ける処理を行う、
ことを特徴とする請求項7に記載の画像処理装置。
A second selecting means for selecting an image of an arbitrary subject portion from the subject portions in accordance with a user operation in a state in which the images of the subject portions are displayed in a list on the display means;
The processing means, when an image of an arbitrary subject portion is selected by the second selection means, corresponds to at least a part of the wide-angle image corresponding to the subject portion selected by the second selection means. Performing the association process by displaying an image on the display means;
The image processing apparatus according to claim 7.
前記補正手段は、前記第2の選択手段によって選択された被写体部分の画像を含む前記広角画像の所定範囲の歪みを更に補正し、
前記処理手段は、前記第2の選択手段によって任意の被写体部分の画像が選択された際に、前記補正手段によって補正された所定範囲の広角画像の補正画像を前記表示手段に表示することで前記関連付ける処理を行う、
ことを特徴とする請求項7に記載の画像処理装置。
The correction means further corrects distortion in a predetermined range of the wide-angle image including the image of the subject portion selected by the second selection means,
The processing means displays a corrected image of a wide-angle image within a predetermined range corrected by the correcting means on the display means when an image of an arbitrary subject portion is selected by the second selecting means. Perform the association process,
The image processing apparatus according to claim 7.
前記処理手段は、前記被写体部分の画像が一覧表示されている状態から、前記広角画像の少なくとも一部の画像が表示されている状態になるように前記表示手段の表示を切り換えることで前記関連付ける処理を行う、
ことを特徴とする請求項7乃至9の何れか1項に記載の画像処理装置。
The processing unit switches the display of the display unit so that at least a part of the wide-angle image is displayed from a state in which the image of the subject portion is displayed as a list, and the association process is performed. I do,
The image processing apparatus according to claim 7, wherein the image processing apparatus is an image processing apparatus.
前記処理手段は、前記被写体部分の画像が前記表示手段に一覧表示されている状態から、前記第2の選択手段によって選択された前記被写体部分に対応する、前記広角画像の少なくとも一部の画像が前記表示手段に表示されている状態になるように前記表示手段の表示を切り換えることで前記関連付ける処理を行う、
ことを特徴とする請求項8又は9に記載の画像処理装置。
The processing means includes at least a part of the wide-angle image corresponding to the subject portion selected by the second selection means from a state in which the images of the subject portion are displayed as a list on the display means. Performing the associating process by switching the display of the display means so as to be in the state displayed on the display means;
The image processing apparatus according to claim 8, wherein the image processing apparatus is an image processing apparatus.
前記検出手段は、広角で撮影された広角画像内に含まれている所定の被写体を複数認識してその被写体部分の画像をその被写体毎に検出し、
前記処理手段は、前記検出手段によって検出された各被写体部分の画像を前記表示手段に一覧表示させる際に、前記広角画像上の各被写体の配列順序に応じてその順序どおりに並べて一覧表示させる、
ことを特徴とする請求項7乃至11の何れか1項に記載の画像処理装置。
The detection means recognizes a plurality of predetermined subjects included in a wide-angle image photographed at a wide angle, detects an image of the subject portion for each subject,
The processing means, when displaying a list of images of each subject portion detected by the detection means on the display means, displays the list in order according to the arrangement order of the subjects on the wide-angle image,
The image processing apparatus according to claim 7, wherein the image processing apparatus is an image processing apparatus.
前記所定範囲をユーザ操作によって任意に移動させる移動指示手段を更に備え、
前記取得手段は、前記移動指示手段によって移動される所定範囲内の画像を取得する、
ことを特徴とする請求項6又は9に記載の画像処理装置。
A movement instruction means for arbitrarily moving the predetermined range by a user operation;
The acquisition unit acquires an image within a predetermined range moved by the movement instruction unit;
The image processing apparatus according to claim 6, wherein the image processing apparatus is an image processing apparatus.
前記表示手段に前記広角画像又は前記広角画像に対応する対応画像がサムネイル画像として一覧表示されている状態においてそのサムネイル画像の中から任意の広角画像又は対応画像をユーザ操作に応じて選択する第1の選択手段を更に備え、
前記検出手段は、前記第1の選択手段によって選択された広角画像又は対応画像内に含まれている所定の被写体を認識してその被写体部分の画像を検出し、
前記処理手段は、前記第1の選択手段によって任意の広角画像又は対応画像が選択された際に、前記検出手段によって検出された被写体部分の画像であって前記補正手段により補正された画像を前記表示手段に一覧表示する、
ことを特徴とする請求項4乃至13の何れか1項に記載の画像処理装置。
A first wide-angle image or a corresponding image is selected from the thumbnail images in response to a user operation in a state where the wide-angle image or the corresponding image corresponding to the wide-angle image is listed as a thumbnail image on the display means. Further comprising a selection means,
The detection means recognizes a predetermined subject included in the wide-angle image selected by the first selection means or the corresponding image, and detects an image of the subject portion;
The processing means converts an image of a subject portion detected by the detection means and corrected by the correction means when an arbitrary wide-angle image or corresponding image is selected by the first selection means. Display a list on the display means,
The image processing apparatus according to claim 4, wherein the image processing apparatus is an image processing apparatus.
前記広角画像又は前記広角画像に対応する対応画像がサムネイル画像として一覧表示されている状態においてそのサムネイル画像の中から任意の広角画像又は対応画像をユーザ操作に応じて選択する第1の選択手段を更に備え、
前記処理手段は、前記第1の選択手段によって任意の広角画像又は対応画像が選択された際に、その広角画像又は対応する広角画像と前記補正手段により補正された前記被写体部分の画像とを前記表示手段に同時に表示させることで前記関連付ける処理を行う、
ことを特徴とする請求項4乃至14の何れか1項に記載の画像処理装置。
First selection means for selecting an arbitrary wide-angle image or corresponding image from the thumbnail images in response to a user operation in a state where the wide-angle image or the corresponding image corresponding to the wide-angle image is displayed as a list of thumbnail images. In addition,
The processing means, when an arbitrary wide-angle image or corresponding image is selected by the first selection means, displays the wide-angle image or corresponding wide-angle image and the image of the subject portion corrected by the correction means. Performing the association process by simultaneously displaying on the display means;
The image processing apparatus according to claim 4, wherein the image processing apparatus is an image processing apparatus.
前記検出手段は、撮影方向を変えて撮影された複数の広角画像を組とする広角画像群の中に含まれている全ての所定の被写体を認識してその被写体部分の画像をその被写体毎に検出し、
前記処理手段は、前記広角画像群の中の何れかの広角画像がサムネイル表示されている場合に、前記検出手段によって検出された当該広角画像群内に含まれている全ての被写体部分の画像であって前記補正手段により補正された画像を、前記サムネイル表示されている広角画像に対応付けて表示させる、
ことを特徴とする請求項4乃至15の何れか1項に記載の画像処理装置。
The detection means recognizes all predetermined subjects included in a wide-angle image group including a plurality of wide-angle images photographed by changing the photographing direction, and images of the subject portion for each subject. Detect
The processing means includes images of all the subject portions included in the wide-angle image group detected by the detection means when any wide-angle image in the wide-angle image group is displayed as a thumbnail. The image corrected by the correction means is displayed in association with the wide-angle image displayed as a thumbnail,
The image processing apparatus according to claim 4, wherein the image processing apparatus is an image processing apparatus.
前記検出手段は、撮影方向を変えて撮影された複数の広角画像を組とする広角画像群の中に含まれている全ての所定の被写体を認識してその被写体部分の画像をその被写体毎に検出する、
ことを特徴とする請求項1乃至16の何れか1項に記載の画像処理装置。
The detection means recognizes all predetermined subjects included in a wide-angle image group including a plurality of wide-angle images photographed by changing the photographing direction, and images of the subject portion for each subject. To detect,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
撮影方向を変えて撮影された複数の広角画像を組とする広角画像群の中から一つの広角画像を指定する指定手段を更に備え、
前記処理手段は、前記指定手段によって指定された広角画像と、前記検出手段によって広角画像群の中から検出された全ての被写体部分の画像と、を関連付ける処理を行う、
ことを特徴とする請求項17に記載の画像処理装置。
Further comprising designation means for designating one wide-angle image from a group of wide-angle images in which a plurality of wide-angle images photographed by changing the photographing direction are set;
The processing means performs a process of associating the wide-angle image designated by the designation means with the images of all the subject portions detected from the wide-angle image group by the detection means.
The image processing apparatus according to claim 17.
前記処理手段は、前記広角画像と前記検出手段によって検出された前記被写体部分の画像とを対応付けて記録保存する処理を行う、
ことを特徴とする請求項1乃至18の何れか1項に記載の画像処理装置。
The processing means performs processing to record and save the wide-angle image and the image of the subject portion detected by the detection means in association with each other.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記広角画像は、魚眼レンズを使用して撮影された魚眼画像である、
ことを特徴とする請求項1乃至19の何れか1項に記載の画像処理装置。
The wide-angle image is a fish-eye image taken using a fish-eye lens.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
画像処理装置における画像処理方法であって、
広角で撮影された広角画像内に含まれている所定の被写体を認識してその被写体部分の画像を検出する処理と、
前記検出された被写体部分の画像の歪を補正する処理と、
前記広角画像の少なくとも一部分の画像と前記補正された前記被写体部分の画像とを関連付ける処理と、
を含むことを特徴とする画像処理方法。
An image processing method in an image processing apparatus,
A process of recognizing a predetermined subject included in a wide-angle image taken at a wide angle and detecting an image of the subject portion;
Processing for correcting distortion of the image of the detected subject portion;
Associating at least a portion of the wide-angle image with the corrected image of the subject portion;
An image processing method comprising:
画像処理装置のコンピュータに対して、
広角で撮影された広角画像内に含まれている所定の被写体を認識してその被写体部分の画像を検出する機能と、
前記検出された被写体部分の画像の歪を補正する機能と、
前記広角画像の少なくとも一部分の画像と前記補正された前記被写体部分の画像とを関連付ける機能と、
を実現させるためのプログラム。
For the computer of the image processing device,
A function of recognizing a predetermined subject included in a wide-angle image taken at a wide angle and detecting an image of the subject portion;
A function of correcting image distortion of the detected subject portion;
A function of associating at least a portion of the wide-angle image with the corrected image of the subject portion;
A program to realize
JP2016052641A 2015-12-22 2016-03-16 Image processing apparatus, image processing method and program Active JP6723512B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/282,537 US10440307B2 (en) 2015-12-22 2016-09-30 Image processing device, image processing method and medium
KR1020160138245A KR20170074742A (en) 2015-12-22 2016-10-24 Image processing device, image processing method amd program
CN201611033980.0A CN107018316B (en) 2015-12-22 2016-11-15 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015249410 2015-12-22
JP2015249410 2015-12-22

Publications (2)

Publication Number Publication Date
JP2017118472A true JP2017118472A (en) 2017-06-29
JP6723512B2 JP6723512B2 (en) 2020-07-15

Family

ID=59235032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016052641A Active JP6723512B2 (en) 2015-12-22 2016-03-16 Image processing apparatus, image processing method and program

Country Status (3)

Country Link
JP (1) JP6723512B2 (en)
KR (1) KR20170074742A (en)
CN (1) CN107018316B (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3460674A1 (en) * 2017-09-22 2019-03-27 Canon Kabushiki Kaisha Appartus, method and program for displaying thumbnails of fisheye images
JP2020129261A (en) * 2019-02-08 2020-08-27 キヤノン株式会社 Electronic device, control method of electronic device, program, and storage medium
JP2021029044A (en) * 2016-03-31 2021-02-25 ソニー株式会社 Information processing device, information processing method, program
JP2021051593A (en) * 2019-09-25 2021-04-01 株式会社リコー Image processing system, image processing device and method
US11733039B2 (en) 2018-10-02 2023-08-22 Maxell, Ltd. Information processing apparatus

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6688277B2 (en) * 2017-12-27 2020-04-28 本田技研工業株式会社 Program, learning processing method, learning model, data structure, learning device, and object recognition device
CN110611749A (en) * 2019-09-30 2019-12-24 深圳市大拿科技有限公司 Image processing method and device
CN110572578A (en) * 2019-09-30 2019-12-13 联想(北京)有限公司 Image processing method, apparatus, computing device, and medium
CN113496458A (en) * 2020-03-18 2021-10-12 杭州海康威视数字技术股份有限公司 Image processing method, device, equipment and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008061260A (en) * 2007-09-21 2008-03-13 Fujitsu Ltd Fisheye lens camera apparatus and image distortion correcting method thereof
JP2012029180A (en) * 2010-07-27 2012-02-09 Nippon Seiki Co Ltd Peripheral image display device and display method thereof
JP2015080107A (en) * 2013-10-17 2015-04-23 株式会社熊平製作所 Moving body display system and moving body display program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4674471B2 (en) * 2005-01-18 2011-04-20 株式会社ニコン Digital camera
JP4539729B2 (en) * 2008-02-15 2010-09-08 ソニー株式会社 Image processing apparatus, camera apparatus, image processing method, and program
CN103247031B (en) * 2013-04-19 2016-03-09 华为技术有限公司 A kind of method of distorted image correction, terminal and system
CN106993133B (en) * 2015-06-30 2019-08-30 Oppo广东移动通信有限公司 A kind of distortion correction method and terminal
CN104994281B (en) * 2015-06-30 2017-09-19 广东欧珀移动通信有限公司 A kind of method and terminal of face distortion correction

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008061260A (en) * 2007-09-21 2008-03-13 Fujitsu Ltd Fisheye lens camera apparatus and image distortion correcting method thereof
JP2012029180A (en) * 2010-07-27 2012-02-09 Nippon Seiki Co Ltd Peripheral image display device and display method thereof
JP2015080107A (en) * 2013-10-17 2015-04-23 株式会社熊平製作所 Moving body display system and moving body display program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021029044A (en) * 2016-03-31 2021-02-25 ソニー株式会社 Information processing device, information processing method, program
JP7017175B2 (en) 2016-03-31 2022-02-08 ソニーグループ株式会社 Information processing equipment, information processing method, program
US11417062B2 (en) 2016-03-31 2022-08-16 Sony Group Corporation Information processing device, information processing method, and program
EP3460674A1 (en) * 2017-09-22 2019-03-27 Canon Kabushiki Kaisha Appartus, method and program for displaying thumbnails of fisheye images
JP2019057891A (en) * 2017-09-22 2019-04-11 キヤノン株式会社 Information processing apparatus, imaging apparatus, information processing method, and program
JP7086552B2 (en) 2017-09-22 2022-06-20 キヤノン株式会社 Information processing equipment, imaging equipment, information processing methods and programs
US11733039B2 (en) 2018-10-02 2023-08-22 Maxell, Ltd. Information processing apparatus
JP2020129261A (en) * 2019-02-08 2020-08-27 キヤノン株式会社 Electronic device, control method of electronic device, program, and storage medium
JP7267764B2 (en) 2019-02-08 2023-05-02 キヤノン株式会社 ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2021051593A (en) * 2019-09-25 2021-04-01 株式会社リコー Image processing system, image processing device and method
JP7419723B2 (en) 2019-09-25 2024-01-23 株式会社リコー Image processing system, image processing device and method
US11997379B2 (en) 2019-09-25 2024-05-28 Ricoh Company, Ltd. Image processing system, image processing apparatus, and image processing method

Also Published As

Publication number Publication date
CN107018316A (en) 2017-08-04
CN107018316B (en) 2021-02-05
KR20170074742A (en) 2017-06-30
JP6723512B2 (en) 2020-07-15

Similar Documents

Publication Publication Date Title
JP6723512B2 (en) Image processing apparatus, image processing method and program
US10440307B2 (en) Image processing device, image processing method and medium
JP6627352B2 (en) Image display device, image display method, and program
JP6942940B2 (en) Image processing equipment, image processing methods and programs
US9307153B2 (en) Method and apparatus for previewing a dual-shot image
CN105991915A (en) Shooting method and apparatus, and terminal
CN106034206B (en) Electronic device and image display method
WO2017114048A1 (en) Mobile terminal and method for identifying contact
JP2019012881A (en) Imaging control device and control method of the same
JP2020010130A (en) Electronic device
US20220400243A1 (en) Image processing apparatus and image processing method
JP2017162371A (en) Image processing device, image processing method and program
JP6677900B2 (en) Image processing apparatus, image processing method, and program
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
JP2008245093A (en) Digital camera, and control method and control program of digital camera
JP7350511B2 (en) Electronic equipment, electronic equipment control method, program, and storage medium
JP6324079B2 (en) Imaging device, control method thereof, and control program
JP2008131559A (en) Imaging apparatus, group member determining method, and program
JP6450604B2 (en) Image acquisition apparatus and image acquisition method
EP3739864A1 (en) Electronic apparatus, control method of electronic apparatus, program, and computer readable medium
JP2021129293A (en) Image processing apparatus, image processing system, image processing method, and program
JP2021069045A (en) Display control device, display control method, program, and storage media
WO2022158201A1 (en) Image processing device, image processing method, and program
JP2013246189A (en) Imaging device and imaging processing method, and program
JP2011198050A (en) Photographed image conversion processing apparatus, photographed image conversion processing program, and photographed image conversion processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200607

R150 Certificate of patent or registration of utility model

Ref document number: 6723512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150