JP2008028606A - Imaging device and imaging system for panoramically expanded image - Google Patents

Imaging device and imaging system for panoramically expanded image Download PDF

Info

Publication number
JP2008028606A
JP2008028606A JP2006197848A JP2006197848A JP2008028606A JP 2008028606 A JP2008028606 A JP 2008028606A JP 2006197848 A JP2006197848 A JP 2006197848A JP 2006197848 A JP2006197848 A JP 2006197848A JP 2008028606 A JP2008028606 A JP 2008028606A
Authority
JP
Japan
Prior art keywords
image
panoramic
circle boundary
data
inner circle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006197848A
Other languages
Japanese (ja)
Inventor
Masayuki Ito
政幸 伊藤
Makoto Shinya
誠 新屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Opt KK
Original Assignee
Opt KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Opt KK filed Critical Opt KK
Priority to JP2006197848A priority Critical patent/JP2008028606A/en
Priority to PCT/JP2007/060193 priority patent/WO2008010345A1/en
Publication of JP2008028606A publication Critical patent/JP2008028606A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To photograph a 360° panoramic expanded image without a break of a subject. <P>SOLUTION: An imaging device 1 for panoramic expanded image generates the 360° panoramic expanded image by imaging. Then the imaging device has a memory 41 which stores positions or sizes of an inner circle boundary 42 and an outer circle boundary 43 defining the range of a ring shape to be used to generate the 360° panoramic expanded image in picked-up images generated by imaging means 27 and 36 through imaging by a fish-eye lens 22, a user updating means 55 of updating the position or size of at least one of the inner circle boundary 42 and outer circle boundary 43 stored in the memory 41 through user's operation, and a panoramic expanded image generating means 52 of generating the 360° panoramic expanded image based upon an image within the range of the ring shape sandwiched between the inner circle boundary 42 and outer circle boundary 43 stored in the memory 41 in the picked-up images generated by the imaging means 27 and 36. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、パノラマ展開画像撮像装置およびパノラマ展開画像撮像システムに関する。   The present invention relates to a panorama developed image imaging apparatus and a panorama developed image imaging system.

特許文献1は、全方位撮影装置を開示する。全方位撮影装置は、360度の環状映像を直接取込可能なレンズを有する1つのカメラモジュールにより撮影された映像を展開して表示したり、記録したりする。   Patent Document 1 discloses an omnidirectional photographing apparatus. The omnidirectional photographing device develops and displays or records a video photographed by one camera module having a lens capable of directly taking a 360-degree annular video.

特開2006−148787号公報(要約、発明の詳細な説明、図面、特に、段落0024、段落0049、図8、図9など)JP 2006-148787 A (summary, detailed description of the invention, drawings, especially paragraph 0024, paragraph 0049, FIG. 8, FIG. 9, etc.)

特許文献1において360度の環状映像を直接取り込むレンズは、特殊な凸型のガラスレンズであり、具体的には、天頂反射面と、その周りを取り囲むように形成された略円環状のレンズ面と、レンズ面の下側に配設される略円環状の奥側反射面と、奥側反射面により取り囲まれている透過面と、を有する。また、特許文献1は、この特殊な凸型のガラスレンズの変わりに、魚眼レンズを使用することが可能であることを示唆している。   The lens that directly captures a 360-degree annular image in Patent Document 1 is a special convex glass lens, specifically, a zenith reflecting surface and a substantially annular lens surface formed so as to surround the periphery. And a substantially annular rear reflection surface disposed below the lens surface, and a transmission surface surrounded by the rear reflection surface. Patent Document 1 suggests that a fish-eye lens can be used instead of this special convex glass lens.

しかしながら、特許文献1の全方位撮影装置では、360度の環状映像において、撮像可能な像高さに制限がある。この環状映像では、レンズ面の下側部位により屈折され、奥側反射面の外周部位で反射され、さらに天頂反射面の外周部位により反射される方向からの入射光から、レンズ面の上側部位を透過し、奥側反射面の内周部位で反射され、さらに天頂反射面の内周部位により反射される方向からの入射光までとなる画角範囲の画像しか得ることができない。環状映像の中央には、天頂反射面が円形に撮影される。特許文献1の全方位撮影装置では、このような特殊な凸型のガラスレンズなどを使用しているので、撮像可能な像高さに制限が生じる。   However, in the omnidirectional imaging device of Patent Document 1, there is a limit to the image height that can be captured in a 360-degree annular image. In this annular image, the upper portion of the lens surface is refracted by the lower portion of the lens surface, reflected from the outer peripheral portion of the back reflecting surface, and further incident from the direction reflected by the outer peripheral portion of the zenith reflecting surface. It is possible to obtain only an image in the range of angle of view that is transmitted and reflected by the inner peripheral part of the back-side reflecting surface and further incident light from the direction reflected by the inner peripheral part of the zenith reflecting surface. At the center of the ring image, the zenith reflecting surface is photographed in a circle. Since the omnidirectional imaging apparatus of Patent Document 1 uses such a special convex glass lens, the image height that can be captured is limited.

像高さに制限があるため、特許文献1の全方位撮影装置では、実用上、ガラスレンズと被写体との距離などに制限が生じる。たとえば、被写体がガラスレンズに近づきすぎてしまうと、360度の環状映像において被写体の頭などが切れてしまうことになる。被写体の頭などが切れてしまわないようにするためには、被写体に対するガラスレンズの距離を確保しなければならない。   Since the image height is limited, the omnidirectional imaging device of Patent Document 1 has a practical limit on the distance between the glass lens and the subject. For example, if the subject gets too close to the glass lens, the head of the subject will be cut off in a 360-degree annular image. In order to prevent the subject's head from being cut off, the distance of the glass lens to the subject must be secured.

特に、全方位撮影装置をテーブルの中央に置いて会議風景などを撮像しようとする場合、この実用上の距離制限が全方位撮影装置の利便性を大きく損なうことになる。たとえば小さな会議室では、被写体に対するガラスレンズの距離が確保できなくなり、被写体の頭などが切れないように撮影することができなくなってしまう可能性がある。   In particular, when the omnidirectional photographing apparatus is placed in the center of the table and an attempt is made to capture a conference scene or the like, this practical distance limitation greatly impairs the convenience of the omnidirectional photographing apparatus. For example, in a small meeting room, the distance of the glass lens with respect to the subject cannot be secured, and there is a possibility that photographing cannot be performed so that the head of the subject is not cut off.

本発明は、被写体が切れてしまうことなく、360度のパノラマ展開画像を撮影することができるパノラマ展開画像撮像装置およびパノラマ展開画像撮像システムを得ることを目的とする。   It is an object of the present invention to obtain a panorama developed image imaging apparatus and a panorama developed image imaging system that can capture a 360 ° panorama developed image without cutting off the subject.

本発明に係るパノラマ展開画像撮像装置は、撮像による360度のパノラマ展開画像を生成するものである。そして、パノラマ展開画像撮像装置は、魚眼レンズと、複数の受光素子が配列される受光面に魚眼レンズによる円形の像が結像し、円形画像を有する撮像画像のデータを生成する撮像手段と、撮像画像中の、360度のパノラマ展開画像の生成に使用するリング形状の範囲を規定する内円境界および外円境界の位置あるいはサイズを記憶するメモリと、ユーザの操作に基づいて、メモリに記憶される内円境界および外円境界の中の少なくとも一方の位置あるいはサイズを更新するユーザ更新手段と、撮像手段が生成する撮像画像中の、メモリに記憶される内円境界と外円境界とで挟まれるリング形状の範囲内の画像に基づいて、360度のパノラマ展開画像を生成するパノラマ展開画像生成手段と、を有する。   The panoramic expanded image imaging apparatus according to the present invention generates a 360-degree panoramic expanded image by imaging. The panoramic developed image imaging device includes a fish-eye lens, an imaging unit that forms a circular image with the fish-eye lens on a light-receiving surface on which a plurality of light-receiving elements are arranged, and generates captured image data having the circular image; Among them, a memory for storing the position or size of the inner circle boundary and the outer circle boundary that defines the range of the ring shape used for generating the 360 ° panoramic development image, and the memory based on the user's operation It is sandwiched between the inner circle boundary and the outer circle boundary stored in the memory in the captured image generated by the imaging means and the user update means that updates the position or size of at least one of the inner circle boundary and the outer circle boundary Panorama unfolded image generating means for generating a panorama unfolded image of 360 degrees based on an image within the range of the ring shape.

この構成を採用すれば、撮像手段には、魚眼レンズによる円形の像が結像する。撮像手段は、円形画像を有する撮像画像を生成する。円形画像内には、被写体の頭などが切れたりすることなく含まれる。   If this configuration is adopted, a circular image formed by a fisheye lens is formed on the imaging means. The imaging unit generates a captured image having a circular image. The circular image is included without the subject's head being cut off.

また、パノラマ展開画像生成手段は、この撮像画像の中の、内円境界と外円境界とに挟まれているリング形状の範囲内の画像に基づいて、360度のパノラマ展開画像を生成する。この内円境界および外円境界の位置およびサイズは、ユーザの操作に基づいて、ユーザ更新手段により更新することができる。したがって、たとえば被写体に対する魚眼レンズの距離を物理的に確保することがでなくても、ユーザの操作により内円境界の位置あるいは外円境界の位置を更新することで、円形画像内の被写体がリング形状の範囲内に収まるように調整することができる。その結果、被写体の頭などが切れていない360度のパノラマ展開画像を生成することができる。   Further, the panorama developed image generating means generates a 360 ° panorama developed image based on an image within a ring shape range sandwiched between the inner circle boundary and the outer circle boundary in the captured image. The positions and sizes of the inner circle boundary and the outer circle boundary can be updated by the user update unit based on the user's operation. Therefore, for example, even if it is not possible to physically secure the distance of the fisheye lens to the subject, the subject in the circular image can be changed into a ring shape by updating the position of the inner circle boundary or the outer circle boundary by a user operation. It can be adjusted so as to be within the range. As a result, it is possible to generate a 360-degree panoramic developed image in which the head of the subject is not cut off.

本発明に係るパノラマ展開画像撮像装置は、上述した発明の構成に加えて、以下の特徴を有するものである。すなわち、魚眼レンズは、立体射影方式のものである。メモリは、立体射影方式の魚眼レンズの入射角と像高との関係に基づいて得られる被写体の結像サイズのバランスを補正する像高補正テーブルを記憶する。パノラマ展開画像生成手段は、像高補正テーブルを参照し、被写体の結像サイズのバランスを整えた360度のパノラマ展開画像を生成する。   The panoramic developed image capturing apparatus according to the present invention has the following features in addition to the configuration of the invention described above. That is, the fisheye lens is of a three-dimensional projection system. The memory stores an image height correction table for correcting the balance of the imaging size of the subject obtained based on the relationship between the incident angle of the stereoscopic lens fisheye lens and the image height. The panoramic developed image generation means refers to the image height correction table and generates a 360-degree panoramic developed image in which the balance of the imaging size of the subject is adjusted.

この構成を採用すれば、一般的な等距離射影方式の魚眼レンズを使用する場合に比べて、魚眼レンズにより結像される画像中の周辺部のゆがみが少なく、且つ、周辺部の情報量が多くなる。したがって、パノラマ展開画像撮像装置を、その魚眼レンズを上向きにテーブルに載置したとき、その周囲にいる人物や黒板などの画像を、高分解能で得ることができる。黒板の文字などを、360度のパノラマ展開画像中に再現することができる。また、魚眼レンズの周囲にいる人物や黒板などの画像として、バランスが整ったものを得ることができる。   If this configuration is adopted, the peripheral portion in the image formed by the fisheye lens is less distorted and the amount of information in the peripheral portion is larger than when a general equidistant projection type fisheye lens is used. . Therefore, when the panoramic developed image pickup device is placed on the table with the fisheye lens facing upward, it is possible to obtain an image of a person, a blackboard, or the like around it with high resolution. Blackboard characters and the like can be reproduced in a 360-degree panoramic image. Moreover, a well-balanced image can be obtained as an image of a person or blackboard around the fisheye lens.

本発明に係るパノラマ展開画像撮像装置は、上述した発明の各構成に加えて、以下の特徴を有するものである。すなわち、ユーザ更新手段は、メモリに記憶される内円境界および外円境界の中の少なくとも一方の位置あるいはサイズを更新した後に、メモリに記憶される像高補正テーブルを、更新した内円境界および外円境界と、立体射影方式の魚眼レンズの入射角と像高との関係とに基づいて更新する。   The panoramic developed image capturing apparatus according to the present invention has the following characteristics in addition to the above-described components of the present invention. That is, the user update means updates the image height correction table stored in the memory after updating the position or size of at least one of the inner circle boundary and the outer circle boundary stored in the memory, and the updated inner circle boundary and Updating is performed based on the outer circle boundary and the relationship between the angle of incidence and the image height of the stereoscopic lens fisheye lens.

内円境界と外円境界との間隔が変更により変化する場合、それらの間の画像空間の、複数の画素による分割割合が変化する。また、内円境界および外円境界の位置が移動するだけであっても、それらの間の画像空間の、複数の画素による分割割合が変化する。この構成を採用すれば、像高補正テーブルを、これらと適合するものに維持することができる。   When the interval between the inner circle boundary and the outer circle boundary changes due to the change, the division ratio of the plurality of pixels in the image space between them changes. Even if only the positions of the inner circle boundary and the outer circle boundary move, the division ratio of the plurality of pixels in the image space between them changes. If this configuration is adopted, the image height correction table can be kept compatible with these.

本発明に係るパノラマ展開画像撮像装置は、上述した発明の各構成に加えて、以下の特徴を有するものである。すなわち、ユーザ更新手段は、内円境界あるいは外円境界の変更後のサイズが、所定の画素数以上の半径である場合、内円境界あるいは外円境界の変更指示に基づいて、メモリに記憶される内円境界あるいは外円境界を更新する。   The panoramic developed image capturing apparatus according to the present invention has the following characteristics in addition to the above-described components of the present invention. That is, the user update means stores the change in the inner circle boundary or the outer circle boundary in the memory based on the change instruction of the inner circle boundary or the outer circle boundary when the size after the change of the inner circle boundary or the outer circle boundary is a radius greater than a predetermined number of pixels. Update inner circle boundary or outer circle boundary.

仮にたとえば内円境界の半径が1画素になると、360度のパノラマ展開画像の最上段の複数の表示画素の画素値を得るために、撮像画像中の同じ画素が何度も利用されることになる。この場合、360度のパノラマ展開画像の画質が向上することなく、360度のパノラマ展開画像の生成負荷が増大する。この構成のように、内円境界あるいは外円境界の半径が所定の画素数より小さくなってしまうことを防止することで、そのような不利益が発生してしまうことを防止することができる。   For example, if the radius of the inner circle boundary becomes one pixel, the same pixel in the captured image is used many times in order to obtain the pixel values of the plurality of display pixels at the uppermost stage of the 360 ° panorama development image. Become. In this case, the generation load of the 360-degree panorama development image increases without improving the image quality of the 360-degree panorama development image. By preventing the radius of the inner circle boundary or outer circle boundary from becoming smaller than a predetermined number of pixels as in this configuration, it is possible to prevent such disadvantages from occurring.

本発明に係るパノラマ展開画像撮像装置は、上述した発明の各構成に加えて、以下の特徴を有するものである。すなわち、パノラマ展開画像生成手段は、360度のパノラマ展開画像の各表示画素の、円形画像の中心からの距離および方角を演算し、演算した距離および方角を用いて、各表示画素の、撮像画像での座標を演算し、演算した各座標に位置する撮像画像の画素の画素値を、各表示画素の画素値として取得する。   The panoramic developed image capturing apparatus according to the present invention has the following characteristics in addition to the above-described components of the present invention. That is, the panorama development image generation means calculates the distance and direction from the center of the circular image of each display pixel of the 360 degree panorama development image, and uses the calculated distance and direction to capture the captured image of each display pixel. And the pixel value of the pixel of the captured image located at each calculated coordinate is acquired as the pixel value of each display pixel.

この構成を採用すれば、撮像画像中の円形画像の画素の画素値をそのまま用いた、360度のパノラマ展開画像を生成することができる。360度のパノラマ展開画像の各表示画素の画素値そのものを演算により求める必要がない。演算により各表示画素の画素値を得る場合のように、演算による画質劣化が発生することはなく、1つのパノラマ展開画像の生成時間を短縮することができる。その結果、360度のパノラマ展開画像を短時間で生成することができる。また、パノラマ展開画像の生成処理を連続的に繰り返すことで、360度のパノラマ展開画像による、連続的な動きのある動画を得ることができる。   By adopting this configuration, it is possible to generate a 360-degree panoramic unfolded image using the pixel values of the circular image pixels in the captured image as they are. It is not necessary to obtain the pixel value of each display pixel of the 360 degree panoramic image by calculation. As in the case of obtaining the pixel value of each display pixel by calculation, image quality deterioration due to the calculation does not occur, and the generation time of one panoramic developed image can be shortened. As a result, a 360-degree panoramic image can be generated in a short time. In addition, by continuously repeating the panorama development image generation process, it is possible to obtain a moving image with continuous motion using a 360-degree panorama development image.

本発明に係るパノラマ展開画像撮像装置は、上述した発明の各構成に加えて、以下の特徴を有するものである。すなわち、パノラマ展開画像生成手段は、撮像画像中の、内円境界と外円境界とで挟まれる範囲を180度毎に2つの範囲に分割し、その分割した画像の範囲毎の2つの横長のパノラマ分割展開画像を生成する。また、2つの横長のパノラマ分割展開画像を上下に並べて表示させる表示データを生成する表示データ生成手段を有する。   The panoramic developed image capturing apparatus according to the present invention has the following characteristics in addition to the above-described components of the present invention. In other words, the panoramic developed image generation unit divides the range between the inner circle boundary and the outer circle boundary in the captured image into two ranges every 180 degrees, and generates two horizontally long images for each divided image range. A panorama divided development image is generated. In addition, there is provided display data generating means for generating display data for displaying two horizontally long panoramic divided developed images side by side.

この構成を採用すれば、仮にたとえばこれらが1つの展開画像である場合に比べて、表示データを表示する表示手段の表示画面を有効に利用することができる。表示手段に、360度のパノラマ展開画像を大きく表示することができる。   By adopting this configuration, it is possible to effectively use the display screen of the display means for displaying the display data, for example, as compared with the case where these are one developed image. A 360-degree panoramic developed image can be displayed large on the display means.

本発明に係るパノラマ展開画像撮像システムは、上述した発明の各構成に係るパノラマ展開画像撮像装置と、パノラマ展開画像撮像装置が生成する360度のパノラマ展開画像を、表示あるいは保存するコンピュータ装置と、を有するものである。   A panoramic unfolded image capturing system according to the present invention includes a panoramic unfolded image capturing apparatus according to each configuration of the invention described above, a computer device that displays or stores a panorama unfolded image generated by the panoramic unfolded image capturing apparatus, and It is what has.

この構成を採用すれば、360度のパノラマ展開画像を表示し、あるいは保存することができる。   If this configuration is adopted, a 360-degree panoramic image can be displayed or saved.

本発明では、被写体が切れてしまうことなく、360度のパノラマ展開画像を撮影することができる。   In the present invention, a 360-degree panoramic image can be taken without the subject being cut off.

以下、本発明の実施の形態に係るパノラマ展開画像撮像装置およびパノラマ展開画像撮像システムを、図面に基づいて説明する。パノラマ展開画像撮像装置は、会議用の360度ビデオカメラ装置を例として説明する。パノラマ展開画像撮像システムは、360度ビデオカメラ装置とパーソナルコンピュータとを接続したものを例として説明する。   Hereinafter, a panorama developed image imaging apparatus and a panorama developed image imaging system according to embodiments of the present invention will be described with reference to the drawings. The panorama development image capturing apparatus will be described by taking a conference 360-degree video camera apparatus as an example. The panorama development image capturing system will be described by taking an example in which a 360-degree video camera device and a personal computer are connected.

図1は、本発明の実施の形態に係るパノラマ展開画像撮像システムを示す斜視図である。パノラマ展開画像撮像システムは、パノラマ展開画像撮像装置としての360度ビデオカメラ装置1と、コンピュータ装置としてのPC(パーソナルコンピュータ)3とを有する。360度ビデオカメラ装置1は、USB(Universal Serial Bus)ケーブル2により、PC3に接続されている。   FIG. 1 is a perspective view showing a panoramic developed image imaging system according to an embodiment of the present invention. The panoramic developed image imaging system includes a 360-degree video camera device 1 as a panoramic developed image imaging device and a PC (personal computer) 3 as a computer device. The 360-degree video camera device 1 is connected to the PC 3 by a USB (Universal Serial Bus) cable 2.

PC3は、USBコネクタ11、液晶表示デバイス12、スピーカ13、入力デバイス14などを有する。また、図示外のCPU(Central Processing Unit:中央処理装置)が、図示外の記憶デバイスからプログラムを読み込んで実行することで、PC3には、通信処理部15、再生処理部16、コマンド生成部17などが実現される。   The PC 3 includes a USB connector 11, a liquid crystal display device 12, a speaker 13, an input device 14, and the like. Further, a CPU (Central Processing Unit) (not shown) reads a program from a storage device (not shown) and executes the program, so that the PC 3 has a communication processing unit 15, a reproduction processing unit 16, and a command generation unit 17. Etc. are realized.

通信処理部15は、USBコネクタ11を用いたデータ通信を制御する。再生処理部16は、液晶表示デバイス12で表示される内容などを制御し、スピーカ13に音を出力させる。コマンド生成部17は、入力デバイス14から入力される入力データに基づいてコマンドを生成する。入力デバイス14には、たとえばキーボード、ポインティングデバイスなどがある。   The communication processing unit 15 controls data communication using the USB connector 11. The reproduction processing unit 16 controls the content displayed on the liquid crystal display device 12 and causes the speaker 13 to output sound. The command generation unit 17 generates a command based on input data input from the input device 14. Examples of the input device 14 include a keyboard and a pointing device.

360度ビデオカメラ装置1は、立方体形状のハウジング21を有する。ハウジング21には、魚眼レンズ22、USBコネクタ23、ビデオ出力コネクタ24、音声出力コネクタ25などが配設される。魚眼レンズ22は、ハウジング21の上面に配設される。ハウジング21の上面には、マイクロフォン26用の通気孔20が形成される。USBコネクタ23、ビデオ出力コネクタ24および音声出力コネクタ25は、ハウジング21の側面に配設される。   The 360 degree video camera device 1 has a cubic-shaped housing 21. The housing 21 is provided with a fisheye lens 22, a USB connector 23, a video output connector 24, an audio output connector 25, and the like. The fisheye lens 22 is disposed on the upper surface of the housing 21. A vent hole 20 for the microphone 26 is formed on the upper surface of the housing 21. The USB connector 23, the video output connector 24, and the audio output connector 25 are disposed on the side surface of the housing 21.

図2は、図1中の360度ビデオカメラ装置1の電気回路を示すブロック図である。360度ビデオカメラ装置1のハウジング21の内部には、撮像による360度のパノラマ展開画像を生成するための電気回路が組み込まれている。   FIG. 2 is a block diagram showing an electric circuit of the 360 degree video camera apparatus 1 in FIG. An electric circuit for generating a 360-degree panoramic developed image by imaging is incorporated in the housing 21 of the 360-degree video camera device 1.

360度ビデオカメラ装置1は、魚眼レンズ22、USBコネクタ23、ビデオ出力コネクタ24、音声出力コネクタ25の他に、撮像手段の一部としてのイメージセンサ27、FPGA(Field Programable Gate Array)28、DSP(Digital Signal Processor)29、外部メモリ30、音声IC(Integrated Circuit)31、ビデオエンコーダ32などを有する。   In addition to the fish-eye lens 22, the USB connector 23, the video output connector 24, and the audio output connector 25, the 360-degree video camera apparatus 1 includes an image sensor 27, an FPGA (Field Programmable Gate Array) 28, and a DSP (DSP) as a part of the imaging unit. It has a digital signal processor (Digital Signal Processor) 29, an external memory 30, an audio IC (Integrated Circuit) 31, a video encoder 32, and the like.

図3は、魚眼レンズ22と、イメージセンサ27との光学的な配置を示す説明図である。   FIG. 3 is an explanatory diagram showing an optical arrangement of the fisheye lens 22 and the image sensor 27.

イメージセンサ27には、たとえばCMOS(Complementary Metal−Oxide Semiconductor )イメージセンサがある。イメージセンサ27は、受光面33を有する。受光面33には、図示外の複数の受光素子がたとえば縦横3:4の比率でマトリックス状に配列される。各受光素子は、受光光量に応じた値を出力する。イメージセンサ27は、複数の受光素子から出力される複数の受光光量値を有する輝度分布データを生成する。イメージセンサ27は、所定の周期で、輝度分布データを生成する。   The image sensor 27 includes, for example, a CMOS (Complementary Metal-Oxide Semiconductor) image sensor. The image sensor 27 has a light receiving surface 33. On the light receiving surface 33, a plurality of light receiving elements (not shown) are arranged in a matrix at a ratio of, for example, 3: 4 in length and width. Each light receiving element outputs a value corresponding to the amount of received light. The image sensor 27 generates luminance distribution data having a plurality of received light amount values output from the plurality of light receiving elements. The image sensor 27 generates luminance distribution data at a predetermined cycle.

魚眼レンズ22は、たとえば180度以上の広視野角を有するものであり、立体射影方式のものである。立体射影方式の魚眼レンズ22は、一般的な等距離射影方式の魚眼レンズに比べて、それにより結像される画像中の周辺部のゆがみが少なく、且つ、周辺部の情報量が多くなる。魚眼レンズ22の射影方式としては、立体射影方式や等距離射影方式の他にも、等立体射影方式や正射影方式などを採用することが可能である。但し、360度ビデオカメラ装置1を会議室のテーブル上に魚眼レンズ22が上向きとなる姿勢で置いて撮像する場合、周辺部に写る人物や黒板などの情報量が多くなるため、立体射影方式のものが最適である。   The fish-eye lens 22 has a wide viewing angle of, for example, 180 degrees or more, and is a stereoscopic projection system. The three-dimensional projection type fisheye lens 22 is less distorted in the peripheral part of the image formed by the image, and the amount of information in the peripheral part is larger than that of a general equidistant projection type fisheye lens. As a projection method of the fisheye lens 22, an equi-stereo projection method, an orthographic projection method, or the like can be adopted in addition to the stereoscopic projection method and the equidistant projection method. However, when the 360-degree video camera device 1 is placed on a table in a conference room with the fisheye lens 22 facing upward, the amount of information such as a person or blackboard that appears in the periphery increases, so that the stereoscopic projection method is used. Is the best.

この魚眼レンズ22は、イメージセンサ27の受光面33の上方に配設される。これにより、イメージセンサ27の受光面33には、魚眼レンズ22による円形の像(以下、円形画像とよぶ)が結像する。イメージセンサ27は、輝度分布データを周期的に生成し、FPGA28へ出力する。FPGA28では、撮像手段の一部としての色変換処理部36が実現される。   The fisheye lens 22 is disposed above the light receiving surface 33 of the image sensor 27. Thereby, a circular image (hereinafter referred to as a circular image) by the fisheye lens 22 is formed on the light receiving surface 33 of the image sensor 27. The image sensor 27 periodically generates luminance distribution data and outputs it to the FPGA 28. In the FPGA 28, a color conversion processing unit 36 as a part of the imaging unit is realized.

色変換処理部36は、図示外の色変換テーブルを用いて、輝度分布データの各画素のデータを置き換える。色変換処理部36は、たとえば円形画像中の画素のデータを、輝度分布データにおけるその画素の値および周辺画素の値を用いて、所定の色データへ置き換える。これにより、適当な色データを有する撮像画像データが生成される。   The color conversion processing unit 36 replaces the data of each pixel of the luminance distribution data using a color conversion table (not shown). The color conversion processing unit 36 replaces, for example, pixel data in a circular image with predetermined color data using the pixel value and the peripheral pixel values in the luminance distribution data. Thereby, captured image data having appropriate color data is generated.

図4は、色変換処理部36がイメージセンサ27の輝度分布データに基づいて生成する撮像画像の一例を示す図である。図4に示すように、撮像画像は、その中央部に、円形画像を有する。円形画像の内部には、被写体の像が結像する。色変換処理部36は、生成した撮像画像データを、DSP29へ出力する。   FIG. 4 is a diagram illustrating an example of a captured image generated by the color conversion processing unit 36 based on the luminance distribution data of the image sensor 27. As shown in FIG. 4, the captured image has a circular image at the center thereof. An image of the subject is formed inside the circular image. The color conversion processing unit 36 outputs the generated captured image data to the DSP 29.

マイクロフォン26は、音声に応じた波形信号を生成する。波形信号は、音声IC31により、音声信号へ変換され、音声出力コネクタ25へ供給される。音声出力コネクタ25には、たとえばスピーカユニット、ヘッドフォンなどが接続可能である。音声出力コネクタ25に接続されるスピーカユニットやヘッドフォンなどにより、音声を聞くことができる。また、音声IC31には、音声保存処理部37が実現される。音声保存処理部37は、マイクロフォン26から供給される波形信号をサンプリングし、そのサンプリングにより生成した音声データ38を、外部メモリ30に保存する。   The microphone 26 generates a waveform signal corresponding to the sound. The waveform signal is converted into an audio signal by the audio IC 31 and supplied to the audio output connector 25. For example, a speaker unit or headphones can be connected to the audio output connector 25. Audio can be heard through a speaker unit, headphones, or the like connected to the audio output connector 25. In addition, a voice storage processing unit 37 is realized in the voice IC 31. The sound storage processing unit 37 samples the waveform signal supplied from the microphone 26 and stores the sound data 38 generated by the sampling in the external memory 30.

DSP29は、メモリとしてのEEPROM(Electrically Erasable Programmable Read−Only Memory:不揮発性メモリの一種)41を有する。EEPROM41は、内円境界データ42、外円境界データ43、入射角像高テーブル44、像高補正テーブル45、方角テーブル46などを記憶する。   The DSP 29 includes an EEPROM (Electrically Erasable Programmable Read-Only Memory) 41 as a memory. The EEPROM 41 stores inner circle boundary data 42, outer circle boundary data 43, an incident angle image height table 44, an image height correction table 45, a direction table 46, and the like.

図5は、撮像画像に、内円境界の位置を示す円形のマーク47と、外円境界の位置を示す円形のマーク48とを重ねた画像を示す説明図である。内円境界および外円境界は、パノラマ展開画像として展開する画像範囲を指定する境界である。内円境界と外円境界との間の画像部分が、パノラマ展開画像として展開される。内円境界データ42は、内円境界の、撮像画像中の位置やサイズを示すデータである。外円境界データ43は、外円境界の、撮像画像中の位置やサイズを示すデータである。   FIG. 5 is an explanatory diagram showing an image in which a circular mark 47 indicating the position of the inner circle boundary and a circular mark 48 indicating the position of the outer circle boundary are superimposed on the captured image. The inner circle boundary and the outer circle boundary are boundaries that specify an image range to be developed as a panorama developed image. An image portion between the inner circle boundary and the outer circle boundary is developed as a panoramic development image. The inner circle boundary data 42 is data indicating the position and size of the inner circle boundary in the captured image. The outer circle boundary data 43 is data indicating the position and size of the outer circle boundary in the captured image.

図6は、立体射影方式の魚眼レンズ22の像高(画角差)特性図である。横軸は、魚眼レンズ22の光軸方向を画角0度としたときの相対画角であり、縦軸は、像高(画角差)である。図6の特性の立体射影方式の魚眼レンズ22を用いると、たとえば魚眼レンズ22の画角0度の方向に存在する被写体の像高(画角差)が約0.1の像高(画角差)となるとき、画角90度の方向に存在する被写体の像高(画角差)は、約0.2の大きさとなる。これは、魚眼レンズ22の周辺方向にある被写体は、中央方向にある被写体に比べて約2倍の大きさで結像することを意味する。また、被写体が周辺部から中央部にかけて写るとき、そのバランスが崩れることを意味する。入射角像高テーブル44は、この魚眼レンズ22の画角に対する像高(画角差)の特性をデータ化したものである。   FIG. 6 is an image height (field angle difference) characteristic diagram of the fisheye lens 22 of the stereoscopic projection method. The horizontal axis is the relative field angle when the optical axis direction of the fisheye lens 22 is set to 0 degree, and the vertical axis is the image height (field angle difference). 6 is used, for example, the image height (angle of view difference) of the subject existing in the direction of the angle of view of the fisheye lens 22 is about 0.1. Then, the image height (angle of view difference) of the subject existing in the direction of the angle of view of 90 degrees is about 0.2. This means that the subject in the peripheral direction of the fisheye lens 22 forms an image with a size about twice that of the subject in the central direction. Further, when the subject is photographed from the peripheral part to the central part, it means that the balance is lost. The incident angle image height table 44 is data of image height (view angle difference) characteristics with respect to the view angle of the fisheye lens 22.

魚眼レンズを使用したとき、一般的に、1つの被写体の画像は周辺へ行く程ひずむ。このひずみ具合を軽減し、周辺の情報量を多くする方式として立体射影方式が存在する。この立体射影方式の魚眼レンズ22を使用すると、被写体は、画角的に中心部に撮像される場合に比べて、周辺部に撮像される場合の方が大きく撮像される。中心部に撮像される被写体は、周辺部に撮像される被写体より画角的に小さく結像する。このことは、図6にイメージセンサ27の中心部寄りの4つの受光素子と、周辺部寄りの4つの受光素子とを図示するように、イメージセンサ27の画角0度に近い部位、すなわち天頂付近の受光素子には、イメージセンサ27の画角90度に近い部位、すなわち真横方向の受光素子に比べて、広い画角の像が結像することを意味する。   When a fisheye lens is used, an image of one subject is generally distorted as it goes to the periphery. A three-dimensional projection method exists as a method for reducing the degree of distortion and increasing the amount of information in the vicinity. When this stereoscopic projection type fish-eye lens 22 is used, the subject is imaged more greatly when imaged at the peripheral part than when imaged at the central part in terms of angle of view. The subject imaged in the central part forms an image with a smaller angle of view than the subject imaged in the peripheral part. This is because, as shown in FIG. 6, the four light receiving elements near the center of the image sensor 27 and the four light receiving elements near the peripheral part, that is, a portion near the angle of view of the image sensor 27, that is, the zenith. This means that an image with a wide angle of view is formed on the nearby light receiving elements, compared with a portion close to the angle of view of 90 degrees of the image sensor 27, that is, the light receiving element in the lateral direction.

このように立体射影方式は、従来の等距離射影方式の魚眼レンズと比べれば、周辺の情報が多いため、死角が少なくなり、ゆがみが少ない画像となる。しかし、ゆがみは少なくなるが、零とはならない。これに対して、パノラマ展開画像では、被写体は、本来の大きさのバランスで表示されることが望ましい。像高補正テーブル45は、立体射影方式の魚眼レンズ22によりイメージセンサ27に結像する画像から、被写体が本来のバランスとして写る展開画像を得るための補正データを記憶する。   As described above, the stereoscopic projection method has an image with less blind spots and less distortion than the conventional equidistant projection fish-eye lens because there is more peripheral information. However, distortion is reduced, but not zero. On the other hand, in the panorama developed image, it is desirable that the subject is displayed with a balance of the original size. The image height correction table 45 stores correction data for obtaining a developed image in which a subject appears as an original balance from an image formed on the image sensor 27 by the fisheye lens 22 of the three-dimensional projection method.

また、DSP29は、図示外のCPUを有する。このCPUがプログラムを実行することで、DSP29には、静止画保存処理部51、パノラマ展開画像生成手段としての展開静止画生成部52、圧縮静止画生成部53、表示データ生成手段としてのストリーミング生成部54、ユーザ更新手段としての処理管理部55、通信処理部56などが実現される。   The DSP 29 has a CPU (not shown). When the CPU executes the program, the DSP 29 generates a still image storage processing unit 51, a decompressed still image generating unit 52 as a panorama expanded image generating unit, a compressed still image generating unit 53, and streaming generation as a display data generating unit. A unit 54, a processing management unit 55 as a user updating unit, a communication processing unit 56, and the like are realized.

また、DSP29には、外部メモリ30が接続される。外部メモリ30は、SRAM(Static RAM)やDDR−SDRAM(Double Data Rate SDRAM)などの記憶デバイスにより構成され、DSP29のCPUがアクセス可能である。   Further, an external memory 30 is connected to the DSP 29. The external memory 30 is configured by a storage device such as SRAM (Static RAM) or DDR-SDRAM (Double Data Rate SDRAM), and is accessible to the CPU of the DSP 29.

外部メモリ30は、静止画データ39、音声データ38、2つの圧縮展開静止画データ61,62などを記憶する。また、外部メモリ30は、第一VRAM(VideoRAM)エリア63と、第二VRAMエリア64と、を有する。2つの圧縮展開静止画データ61,62の中の一方は、第一VRAMエリア63に記憶され、他方は、第二VRAMエリア64に記憶される。図2では、第一VRAMエリア63に、第n−1圧縮展開静止画データ61が記憶され、第二VRAMエリア64に、第n圧縮展開静止画データ62が記憶されている状態である。   The external memory 30 stores still image data 39, audio data 38, two compressed and expanded still image data 61 and 62, and the like. The external memory 30 has a first VRAM (Video RAM) area 63 and a second VRAM area 64. One of the two compressed and decompressed still image data 61 and 62 is stored in the first VRAM area 63, and the other is stored in the second VRAM area 64. In FIG. 2, the first VRAM area 63 stores n−1 compressed decompressed still image data 61, and the second VRAM area 64 stores nth compressed expanded still image data 62.

DSP29に実現される静止画保存処理部51は、色変換処理部36から、新たな撮像画像データが供給されると、その撮像画像データを、外部メモリ30に静止画データ39として保存する。   When new captured image data is supplied from the color conversion processing unit 36, the still image storage processing unit 51 realized in the DSP 29 stores the captured image data as still image data 39 in the external memory 30.

展開静止画生成部52は、外部メモリ30に記憶される静止画データ39から、展開静止画データを生成する。展開静止画データは、撮像画像中の円形画像を、360度のパノラマ展開画像に展開した画像のデータである。展開静止画生成部52は、第一VRAMエリア63および第二VRAMエリア64に交互に展開静止画データを生成し、保存する。   The expanded still image generation unit 52 generates expanded still image data from the still image data 39 stored in the external memory 30. The developed still image data is image data obtained by expanding a circular image in the captured image into a 360-degree panoramic image. The developed still image generating unit 52 generates and stores expanded still image data alternately in the first VRAM area 63 and the second VRAM area 64.

圧縮静止画生成部53は、第一VRAMエリア63あるいは第二VRAMエリア64に記憶される展開静止画データを圧縮する。展開静止画データの圧縮には、たとえばJPEG(Joint Photographic Coding Experts Group)圧縮方式やMPEG(Moving Picture Coding Experts Group)圧縮方式などの画像圧縮方式を用いればよい。これにより、第一VRAMエリア63には、圧縮展開静止画データ61が記憶され、第二VRAMエリア64には、圧縮展開静止画データ62が記憶される。   The compressed still image generation unit 53 compresses the expanded still image data stored in the first VRAM area 63 or the second VRAM area 64. For compressing the developed still image data, for example, an image compression method such as a JPEG (Joint Photographic Coding Experts Group) compression method or an MPEG (Moving Picture Coding Experts Group) compression method may be used. As a result, the compressed expanded still image data 61 is stored in the first VRAM area 63, and the compressed expanded still image data 62 is stored in the second VRAM area 64.

ストリーミング生成部54は、外部メモリ30から、圧縮展開静止画データ61,62および音声データ38を読み込み、これらのコンテンツデータを有するストリーミングデータを生成する。ストリーミングデータとしては、MPEG方式、div−X(ディビックス)方式などのストリーミングフォーマットを採用すればよい。   The streaming generation unit 54 reads the compressed and expanded still image data 61 and 62 and the audio data 38 from the external memory 30, and generates streaming data having these content data. As the streaming data, a streaming format such as an MPEG system or a div-X (divix) system may be adopted.

通信処理部56は、USBコネクタ23を用いたデータ通信を制御する。   The communication processing unit 56 controls data communication using the USB connector 23.

処理管理部55は、静止画保存処理部51、展開静止画生成部52、圧縮静止画生成部53、ストリーミング生成部54、通信処理部56などの実行を管理する。処理管理部55は、静止画保存処理部51、展開静止画生成部52、圧縮静止画生成部53、ストリーミング生成部54、通信処理部56などへ、それらの起動や停止などを指示する。   The process management unit 55 manages the execution of the still image storage processing unit 51, the developed still image generation unit 52, the compressed still image generation unit 53, the streaming generation unit 54, the communication processing unit 56, and the like. The process management unit 55 instructs the still image storage processing unit 51, the developed still image generation unit 52, the compressed still image generation unit 53, the streaming generation unit 54, the communication processing unit 56, and the like to start or stop them.

ビデオエンコーダ32は、外部メモリ30から、圧縮展開静止画データ61,62を読み込み、ビデオ信号を生成する。ビデオ信号には、たとえばNTSC(National TV Standards Committee)方式やPAL(Phase Alternating Line)方式のものがある。ビデオエンコーダ32は、生成したビデオ信号を、ビデオ出力コネクタ24へ出力する。ビデオ出力コネクタ24には、テレビジョン受信機などが接続可能である。ビデオ出力コネクタ24に接続されるテレビジョン受信機などにより、ビデオ信号を再生し、その映像を鑑賞することができる。   The video encoder 32 reads the compressed decompressed still image data 61 and 62 from the external memory 30 and generates a video signal. Video signals include, for example, those of NTSC (National TV Standards Committee) system and PAL (Phase Alternating Line) system. The video encoder 32 outputs the generated video signal to the video output connector 24. A television receiver or the like can be connected to the video output connector 24. With a television receiver or the like connected to the video output connector 24, the video signal can be reproduced and the video can be viewed.

次に、以上の構成を有するパノラマ展開画像撮像システムの動作を説明する。   Next, the operation of the panoramic developed image imaging system having the above configuration will be described.

360度ビデオカメラ装置1にたとえばUSBケーブル2から電力が供給されると、 DPS29などが動作し、360度ビデオカメラ装置1に、色変換処理部36、音声保存処理部37、静止画保存処理部51、展開静止画生成部52、圧縮静止画生成部53、ストリーミング生成部54、処理管理部55などが実現される。処理管理部55は、静止画保存処理部51、展開静止画生成部52、圧縮静止画生成部53、ストリーミング生成部54へそれらの起動を指示する。   When power is supplied to the 360-degree video camera device 1 from, for example, the USB cable 2, the DPS 29 and the like operate, and the 360-degree video camera device 1 includes a color conversion processing unit 36, an audio storage processing unit 37, and a still image storage processing unit. 51, a developed still image generation unit 52, a compressed still image generation unit 53, a streaming generation unit 54, a process management unit 55, and the like are realized. The process management unit 55 instructs the still image storage processing unit 51, the developed still image generation unit 52, the compressed still image generation unit 53, and the streaming generation unit 54 to start them.

360度ビデオカメラ装置1のイメージセンサ27には、魚眼レンズ22により集光される光による像が結像する。イメージセンサ27は、円形画像の輝度分布を含む輝度分布データを生成する。色変換処理部36は、図示外の色変換テーブルを用いて、輝度分布データから、図4に例示するような、円形画像を有する撮像画像データを生成する。静止画保存処理部51は、撮像画像データを、静止画データ39として外部メモリ30に保存する。   On the image sensor 27 of the 360-degree video camera device 1, an image formed by the light collected by the fisheye lens 22 is formed. The image sensor 27 generates luminance distribution data including the luminance distribution of the circular image. The color conversion processing unit 36 generates captured image data having a circular image as illustrated in FIG. 4 from the luminance distribution data using a color conversion table (not shown). The still image storage processing unit 51 stores the captured image data as still image data 39 in the external memory 30.

また、イメージセンサ27は、周期的に輝度分布データを生成する。そのため、外部メモリ30の静止画データ39は、所定の周期毎に、新たな撮像画像データへ更新される。   Further, the image sensor 27 periodically generates luminance distribution data. Therefore, the still image data 39 in the external memory 30 is updated to new captured image data every predetermined period.

外部メモリ30の静止画データ39が更新されると、展開静止画生成部52は、更新された静止画データ39から、展開静止画データを生成する。   When the still image data 39 in the external memory 30 is updated, the expanded still image generation unit 52 generates expanded still image data from the updated still image data 39.

展開静止画生成部52は、まず、EEPROM41から、内円境界データ42、外円境界データ43を読込み、更新された静止画データ39による撮像画像中の、パノラマ展開画像を生成するためのリング形状の範囲を決定する。また、展開静止画生成部52は、そのリング形状の画像範囲を180度ずつに均等に二分割した2つの分割範囲を決定する。図5中に、リング形状の画像範囲を水平に二分割する点線71,72を示す。展開静止画生成部52は、外円境界と内円境界との間のリング形状の画像を、たとえばこの2つの点線71,72で180度毎に2つに分割し、上下2つの分割画像範囲73,74毎に、分割展開画像の生成処理を実行する。   The expanded still image generation unit 52 first reads the inner circle boundary data 42 and the outer circle boundary data 43 from the EEPROM 41, and generates a ring shape for generating a panoramic expanded image in a captured image based on the updated still image data 39. Determine the range. Further, the developed still image generation unit 52 determines two division ranges obtained by equally dividing the ring-shaped image range into two at 180 degrees. FIG. 5 shows dotted lines 71 and 72 for horizontally dividing the ring-shaped image range into two. The developed still image generation unit 52 divides the ring-shaped image between the outer circle boundary and the inner circle boundary into two at 180 degrees, for example, by the two dotted lines 71 and 72, and the two divided image ranges on the upper and lower sides. A divided development image generation process is executed for each of 73 and 74.

図7は、1つの分割画像範囲73(74)に関する、展開静止画生成部52による分割展開画像の生成処理の流れを示すフローチャートである。展開静止画生成部52は、まず、最後に展開画像を生成した後に、EEPROM41に記憶される内円境界データ42や外円境界データ43が更新されたか否かを確認する(ステップST1)。   FIG. 7 is a flowchart showing the flow of the divided expanded image generation process by the expanded still image generation unit 52 for one divided image range 73 (74). The developed still image generation unit 52 first checks whether or not the inner circle boundary data 42 and the outer circle boundary data 43 stored in the EEPROM 41 have been updated after the last generation of the developed image (step ST1).

そして、最後の展開画像生成後に内円境界データ42や外円境界データ43が更新されている場合(ステップSTでNoの場合)、展開静止画生成部52は、分割展開画像の各展開画素列の、分割画像範囲73(74)における方向を演算し、方角テーブル46を生成する(ステップST2)。   When the inner circle boundary data 42 and the outer circle boundary data 43 are updated after the last developed image is generated (No in step ST), the developed still image generating unit 52 displays each developed pixel sequence of the divided developed image. The direction in the divided image range 73 (74) is calculated, and the direction table 46 is generated (step ST2).

図8は、分割展開画像の複数の表示画素の配列の一例を示す図である。説明を簡便にするため、この分割展開画像には複数の表示画素が縦3行×横4列に配列されている。この場合、展開静止画生成部52は、4つの展開画素列(1,Z)81、(2,Z)82、(3,Z)83、(4,Z)84毎に、リング形状の画像における方向(分割画像範囲73(74)における方向)を演算する。   FIG. 8 is a diagram illustrating an example of an array of a plurality of display pixels of the divided development image. In order to simplify the description, a plurality of display pixels are arranged in 3 rows × 4 columns in the divided development image. In this case, the developed still image generation unit 52 generates a ring-shaped image for each of four developed pixel columns (1, Z) 81, (2, Z) 82, (3, Z) 83, and (4, Z) 84. Is calculated (direction in the divided image range 73 (74)).

図9は、図8の各展開画素列81,82,83,84の、リング形状の画像における方向(分割画像範囲73(74)における方向)を図示する説明図である。展開静止画生成部52は、図9の2つの軸の交点を円形画像の中心と想定し、180度(=360度÷2)を列数(=4)で均等に分割した角度を演算する。   FIG. 9 is an explanatory diagram illustrating directions in the ring-shaped image (directions in the divided image range 73 (74)) of the expanded pixel columns 81, 82, 83, and 84 in FIG. The developed still image generation unit 52 calculates the angle obtained by equally dividing 180 degrees (= 360 degrees / 2) by the number of columns (= 4) assuming that the intersection of the two axes in FIG. 9 is the center of the circular image. .

図9に示すように、たとえば図8の第1列の展開画素列(1,Z)81が角度θ1の方向であるとすると、展開静止画生成部52は、第2列の展開画素列(2,Z)82の角度を「θ1+均等分割角度」として演算する。展開静止画生成部52は、第3列の展開画素列(3,Z)83の角度を「θ1+均等分割角度×2」として演算する。展開静止画生成部52は、第4列の展開画素列(4,Z)84の角度を「θ1+均等分割角度×3」として演算する。   As shown in FIG. 9, for example, if the developed pixel column (1, Z) 81 of the first column in FIG. 8 is in the direction of the angle θ1, the developed still image generation unit 52 uses the developed pixel column ( 2, the angle of Z) 82 is calculated as “θ1 + uniform division angle”. The expanded still image generation unit 52 calculates the angle of the third expanded pixel column (3, Z) 83 as “θ1 + equal division angle × 2”. The developed still image generation unit 52 calculates the angle of the fourth developed pixel row (4, Z) 84 as “θ1 + equal division angle × 3”.

展開静止画生成部52は、このように展開画素列81,82,83,84毎に、それぞれの方向を演算する。展開静止画生成部52は、複数の展開画素列81,82,83,84にそれぞれの方向を対応付けた方角テーブル46を生成する。展開静止画生成部52は、生成した方角テーブル46をEEPROM41に保存する。なお、方角テーブル46は、外部メモリ30などに保存してもよい。   The developed still image generating unit 52 calculates the respective directions for each of the developed pixel columns 81, 82, 83, and 84 as described above. The developed still image generating unit 52 generates a direction table 46 in which each direction is associated with a plurality of developed pixel columns 81, 82, 83, 84. The developed still image generation unit 52 stores the generated direction table 46 in the EEPROM 41. The direction table 46 may be stored in the external memory 30 or the like.

方角テーブル46を生成した後、展開静止画生成部52は、分割展開画像の最初の表示画素を特定する(ステップST3)。展開静止画生成部52は、たとえば分割展開画像の左上の表示画素(図8では(1,1))を特定する。内円境界データ42や外円境界データ43が更新されていない場合(ステップST1でYesの場合)にも、展開静止画生成部52は、分割展開画像の最初の表示画素を特定する(ステップST3)。   After generating the direction table 46, the expanded still image generating unit 52 specifies the first display pixel of the divided expanded image (step ST3). The expanded still image generation unit 52 specifies, for example, the upper left display pixel ((1, 1) in FIG. 8) of the divided expanded image. Even when the inner circle boundary data 42 and the outer circle boundary data 43 are not updated (Yes in step ST1), the developed still image generation unit 52 specifies the first display pixel of the divided developed image (step ST3). ).

そして、展開静止画生成部52は、特定した表示画素に対応する、撮像画像中の画素を特定し、その特定した撮像画像中の画素の画素値を取得し、取得した画素値を特定した表示画素の画素値として保存する。   Then, the developed still image generation unit 52 specifies the pixel in the captured image corresponding to the specified display pixel, acquires the pixel value of the pixel in the specified captured image, and displays the acquired pixel value Save as the pixel value of the pixel.

具体的には、展開静止画生成部52は、まず、像高補正テーブル45を参照し、特定した表示画素についての、元画像(円形画像)の中心からの距離Rを演算する(ステップST4)。展開静止画生成部52は、たとえば、像高補正テーブル45を参照しながら、分割展開画像の1つの展開画素列と、撮像画像のリング形状の範囲内の半径方向の画素配列とを比較し、特定表示画素に対応する元画像(円形画像)の位置の、ドーナッツの中心からの距離Rを演算する。   Specifically, the developed still image generation unit 52 first refers to the image height correction table 45 and calculates the distance R from the center of the original image (circular image) for the specified display pixel (step ST4). . The developed still image generation unit 52 compares, for example, one developed pixel row of the divided developed image with a radial pixel arrangement within the ring shape range of the captured image while referring to the image height correction table 45, A distance R from the center of the donut at the position of the original image (circular image) corresponding to the specific display pixel is calculated.

次に、展開静止画生成部52は、方角テーブル46に記憶される特定表示画素の方角と、演算した距離Rとから、特定表示画素の、元画像(円形画像)での横座標を演算する(ステップST5)。展開静止画生成部52は、方角テーブル46に記憶される特定表示画素の方角と、演算した距離Rとから、特定表示画素の、元画像(円形画像)での縦座標を演算する(ステップST6)。   Next, the developed still image generation unit 52 calculates the abscissa in the original image (circular image) of the specific display pixel from the direction of the specific display pixel stored in the direction table 46 and the calculated distance R. (Step ST5). The developed still image generation unit 52 calculates the ordinate in the original image (circular image) of the specific display pixel from the direction of the specific display pixel stored in the direction table 46 and the calculated distance R (step ST6). ).

図10は、特定表示画素の元画像(円形画像)での座標位置の説明図である。図10では、元画像(円形画像)の中心(IOX,IOY)が、内円境界の中心であり、且つ、外円境界の中心である。つまり、(IOX,IOY)は、内円境界および外円境界によるドーナッツの中心である。特定表示画素の中心からの距離がRであり、方角がθであるとすると、特定表示画素の、元画像(円形画像)での座標位置(IX,IY)は、以下の式1および式2により演算される。座標位置(IX,IY)は、元画像(円形画像)の左上が基準である。   FIG. 10 is an explanatory diagram of coordinate positions in the original image (circular image) of the specific display pixel. In FIG. 10, the center (IOX, IOY) of the original image (circular image) is the center of the inner circle boundary and the center of the outer circle boundary. That is, (IOX, IOY) is the center of the donut by the inner circle boundary and the outer circle boundary. When the distance from the center of the specific display pixel is R and the direction is θ, the coordinate position (IX, IY) of the specific display pixel in the original image (circular image) is expressed by the following formulas 1 and 2. Is calculated by The coordinate position (IX, IY) is based on the upper left of the original image (circular image).

IX = IOX+R×cosθ ・・・式1
IY = IOY−R×sinθ ・・・式2
IX = IOX + R × cos θ Formula 1
IY = IOY−R × sin θ Equation 2

特定表示画素の、元画像(円形画像)での座標位置(IX,IY)を演算すると、展開静止画生成部52は、その座標にある元画像(円形画像)の画素91の画素値を取得し、特定した表示画素の画素値として保存する。展開静止画生成部52は、外部メモリ30の第一VRAMエリア63あるいは第二VRAMエリア64に、特定した表示画素の画素値を保存する(ステップST7)。   When the coordinate position (IX, IY) in the original image (circular image) of the specific display pixel is calculated, the developed still image generation unit 52 obtains the pixel value of the pixel 91 of the original image (circular image) at that coordinate. And stored as the pixel value of the specified display pixel. The developed still image generation unit 52 stores the pixel value of the specified display pixel in the first VRAM area 63 or the second VRAM area 64 of the external memory 30 (step ST7).

以上のステップST4からST7までの処理により、展開静止画生成部52は、ステップST3で特定した1つの表示画素の画素値を決定し、保存する。その後、展開静止画生成部52は、分割展開画像の複数の表示画素の内、画素値を決定していない表示画素が残っているか否かを判断し、画素値を決定していない表示画素が無くなるまで、以上の表示画素の画素値の決定処理を繰り返す。   Through the processes from step ST4 to ST7, the developed still image generation unit 52 determines and stores the pixel value of one display pixel specified in step ST3. Thereafter, the developed still image generation unit 52 determines whether or not there remains a display pixel for which the pixel value is not determined among the plurality of display pixels of the divided expanded image, and the display pixel for which the pixel value is not determined is determined. The determination process of the pixel value of the above display pixels is repeated until there is no more.

具体的にはたとえば、展開静止画生成部52は、まず、分割展開画像の一列分の表示画素について画素値の決定が終了したか否かを判断する(ステップST8)。そして、一列分が終了してない場合(ステップST8でNoの場合)、展開静止画生成部52は、同じ列の次の行の表示画素を特定し(ステップST9)、その特定表示画素の画素値を決定する(ステップST4〜ST7)。   Specifically, for example, the developed still image generating unit 52 first determines whether or not the determination of the pixel value for the display pixels for one column of the divided developed image has been completed (step ST8). If one column has not been completed (No in step ST8), the developed still image generation unit 52 specifies the display pixel of the next row in the same column (step ST9), and the pixel of the specific display pixel The value is determined (steps ST4 to ST7).

一列分の表示画素についての画素値の決定が終了している場合(ステップST8でYesの場合)、展開静止画生成部52は、さらに分割展開画像のすべての列について画素値の決定が終了したか否かを判断する(ステップST10)。そして、すべての列について終了してない場合(ステップST10でNoの場合)、展開静止画生成部52は、次の列の上端(最も上の行)の表示画素を特定し(ステップST11)、その特定表示画素の画素値を決定する(ステップST4〜ST7)。   When the determination of the pixel values for the display pixels for one column has been completed (Yes in step ST8), the expanded still image generation unit 52 has further completed the determination of the pixel values for all the columns of the divided expanded image. Is determined (step ST10). If all columns have not been completed (No in step ST10), the developed still image generation unit 52 specifies the display pixel at the upper end (uppermost row) of the next column (step ST11). The pixel value of the specific display pixel is determined (steps ST4 to ST7).

分割展開画像のすべての列について画素値の決定が終了した場合(ステップST10でYesの場合)、展開静止画生成部52は、図7の分割展開画像の生成処理を終了する。これにより、1つの分割画像範囲73(74)に関する、分割展開画像の生成処理が終了する。   When the pixel values have been determined for all the columns of the divided expanded image (Yes in step ST10), the expanded still image generating unit 52 ends the divided expanded image generation process of FIG. Thus, the divided developed image generation process for one divided image range 73 (74) is completed.

その後、展開静止画生成部52は、残りの1つの分割画像範囲74(73)に関する、分割展開画像の生成処理を実行する。これにより、外部メモリ30の第一VRAMエリア63あるいは第二VRAMエリア64には、静止画データ39に基づく、2つの分割展開画像が保存される。   Thereafter, the developed still image generation unit 52 executes a divided expanded image generation process for the remaining one divided image range 74 (73). As a result, two divided expanded images based on the still image data 39 are stored in the first VRAM area 63 or the second VRAM area 64 of the external memory 30.

外部メモリ30の第一VRAMエリア63あるいは第二VRAMエリア64に2つの分割展開画像が保存されると、圧縮静止画生成部53は、その2つの分割展開画像を圧縮する。これにより、第一VRAMエリア63あるいは第二VRAMエリア64には、圧縮展開静止画データ61,62が記憶される。   When two divided expanded images are stored in the first VRAM area 63 or the second VRAM area 64 of the external memory 30, the compressed still image generation unit 53 compresses the two divided expanded images. Thereby, the compressed and expanded still image data 61 and 62 are stored in the first VRAM area 63 or the second VRAM area 64.

ストリーミング生成部54は、第一VRAMエリア63および第二VRAMエリア64から、圧縮展開静止画データ61,62を順番に読込み、且つ、外部メモリ30から音声データ38を読み込み、これらのコンテンツデータを有するストリーミングデータを生成する。ストリーミングデータにおいて、2つの分割展開画像は、上下に並べられている。   The streaming generation unit 54 sequentially reads the compressed and expanded still image data 61 and 62 from the first VRAM area 63 and the second VRAM area 64, and reads the audio data 38 from the external memory 30, and has these content data. Generate streaming data. In the streaming data, the two divided development images are arranged one above the other.

ストリーミング生成部54は、生成したストリーミングデータを通信処理部56へ供給する。360度ビデオカメラ装置1の通信処理部56は、USBコネクタ23、USBケーブル2およびPC3のUSBコネクタ11を介して、PC3の通信処理部15へストリーミングデータを送信する。   The streaming generation unit 54 supplies the generated streaming data to the communication processing unit 56. The communication processing unit 56 of the 360 degree video camera apparatus 1 transmits streaming data to the communication processing unit 15 of the PC 3 through the USB connector 23, the USB cable 2, and the USB connector 11 of the PC 3.

PC3の通信処理部15は、受信したストリーミングデータを再生処理部16へ供給する。PC3の再生処理部16は、ストリーミングデータから、圧縮された展開静止画データを抽出して復号し、2つの分割展開画像のデータを表示データとして液晶表示デバイス12へ供給する。液晶表示デバイス12は、2つの分割展開画像を表示する。また、PC3の再生処理部16は、ストリーミングデータから音声データを抽出し、スピーカ13へ供給する。スピーカ13は、抽出された音声データに基づく音を出力する。   The communication processing unit 15 of the PC 3 supplies the received streaming data to the reproduction processing unit 16. The playback processing unit 16 of the PC 3 extracts and decodes the compressed expanded still image data from the streaming data, and supplies the data of the two divided expanded images to the liquid crystal display device 12 as display data. The liquid crystal display device 12 displays two divided development images. Further, the reproduction processing unit 16 of the PC 3 extracts audio data from the streaming data and supplies it to the speaker 13. The speaker 13 outputs a sound based on the extracted audio data.

図11は、PC3の液晶表示デバイス12に表示される、撮像による360度のパノラマ展開画像の表示例である。液晶表示デバイス12には、撮像による360度のパノラマ展開画像が、上下に並んだ2つの分割展開画面101,102により表示される。2つの分割展開画面101,102が上下に並べられているので、仮にたとえばこれらが1つの展開画像である場合に比べて、液晶表示デバイス12の表示画面を有効に利用することができる。また、液晶表示デバイス12に、360度のパノラマ展開画像を大きく表示することができる。   FIG. 11 is a display example of a 360-degree panoramic developed image displayed on the liquid crystal display device 12 of the PC 3 by imaging. On the liquid crystal display device 12, a 360-degree panoramic developed image is displayed by two divided developed screens 101 and 102 arranged vertically. Since the two divided development screens 101 and 102 are arranged one above the other, the display screen of the liquid crystal display device 12 can be used more effectively than when these are one development image, for example. In addition, a 360-degree panoramic image can be displayed large on the liquid crystal display device 12.

なお、図11中の2つの分割展開画面101,102には、図5のリング形状の画像範囲を点線71,72で2つに分割して得られる180度毎の2つの分割展開画像が表示されている。2つの分割展開画像は、その両端において画像が互いに連続しており、全体として360度のパノラマ画像を切れ目なく表示する。この表示により、PC3のユーザは、360度ビデオカメラ装置1により撮像された360度のパノラマ展開画像を閲覧することができる。また、PC3のユーザは、スピーカ13が発する音により、360度ビデオカメラ装置1により取得された音を聞くことができる。   Note that two divided development images 101 and 102 in FIG. 11 display two divided development images at 180 degrees obtained by dividing the ring-shaped image range of FIG. 5 into two by dotted lines 71 and 72. Has been. The two divided development images are continuous with each other at both ends, and as a whole, a 360-degree panoramic image is displayed without a break. With this display, the user of the PC 3 can browse a 360-degree panoramic image captured by the 360-degree video camera device 1. Further, the user of the PC 3 can hear the sound acquired by the 360 degree video camera apparatus 1 by the sound emitted from the speaker 13.

なお、上述したように360度ビデオカメラ装置1のイメージセンサ27は、周期毎に輝度分布データを生成する。色変換処理部36は、輝度分布データから撮像画像データを生成する。静止画保存処理部51は、外部メモリ30の静止画データ39をこの周期毎に生成される撮像画像データで更新する。展開静止画生成部52は、外部メモリ30から静止画データ39を読込み、読み込んだ静止画データ39に基づく2つの分割展開画像のデータを、第一VRAMエリア63および第二VRAMエリア64に交互に書込む。ストリーミング生成部54は、この第一VRAMエリア63あるいは第二VRAMエリア64に書込まれた圧縮済みの2つの分割展開画像のデータを読み込んで、ストリーミングデータを生成する。   As described above, the image sensor 27 of the 360 degree video camera apparatus 1 generates luminance distribution data for each period. The color conversion processing unit 36 generates captured image data from the luminance distribution data. The still image storage processing unit 51 updates the still image data 39 in the external memory 30 with the captured image data generated every cycle. The expanded still image generation unit 52 reads the still image data 39 from the external memory 30, and alternately generates two divided expanded image data based on the read still image data 39 in the first VRAM area 63 and the second VRAM area 64. Write. The streaming generation unit 54 reads the data of two compressed divided expanded images written in the first VRAM area 63 or the second VRAM area 64, and generates streaming data.

したがって、ストリーミング生成部54が、第一VRAMエリア63および第二VRAMエリア64の中の一方のVRAMエリアから、圧縮済みの2つの分割展開画像のデータを読み込む間に、展開静止画生成部52は他方のVRAMエリアに2つの分割展開画像を生成し、且つ、圧縮静止画生成部53はその他方のVRAMエリアの2つの分割展開画像を圧縮することができる。ストリーミング生成部54は、イメージセンサ27が周期毎に生成する輝度分布データに基づく2つの分割展開画像を、画像抜け(フレーム抜け)を生じることなくストリーミングデータに割り付けることができる。これにより、PC3の液晶表示デバイス12には、イメージセンサ27により周期的に生成される輝度分布データに基づく動画が表示される。   Therefore, while the streaming generation unit 54 reads the data of two compressed divided expanded images from one of the first VRAM area 63 and the second VRAM area 64, the expanded still image generating unit 52 Two divided expanded images can be generated in the other VRAM area, and the compressed still image generating unit 53 can compress the two divided expanded images in the other VRAM area. The streaming generation unit 54 can allocate the two divided development images based on the luminance distribution data generated by the image sensor 27 for each period to the streaming data without causing image omission (frame omission). As a result, a moving image based on the luminance distribution data periodically generated by the image sensor 27 is displayed on the liquid crystal display device 12 of the PC 3.

次に、パノラマ展開画像をオートパンさせる動作を説明する。   Next, an operation for auto panning a panorama developed image will be described.

PC3のコマンド生成部17は、入力デバイス14から入力される入力データに基づいてオートパン指示コマンドを生成する。PC3の通信処理部15は、オートパン指示コマンドを、USBケーブル2を介して360度ビデオカメラ装置1の通信処理部56へ送信する。360度ビデオカメラ装置1の通信処理部56は、受信したオートパン指示コマンドを処理管理部55へ供給する。   The command generation unit 17 of the PC 3 generates an autopan instruction command based on input data input from the input device 14. The communication processing unit 15 of the PC 3 transmits an auto pan instruction command to the communication processing unit 56 of the 360 degree video camera device 1 via the USB cable 2. The communication processing unit 56 of the 360 degree video camera apparatus 1 supplies the received autopan instruction command to the process management unit 55.

オートパン指示コマンドが供給されると、処理管理部55は、EEPROM41に記憶される方角テーブル46を周期的に更新する。具体的には、処理管理部55は、周期的に、方角テーブル46の展開画素列毎の複数の方向のデータに、所定の一定角度を加算する処理を繰り返す。   When the auto pan instruction command is supplied, the process management unit 55 periodically updates the direction table 46 stored in the EEPROM 41. Specifically, the process management unit 55 periodically repeats the process of adding a predetermined constant angle to the data in a plurality of directions for each developed pixel column in the direction table 46.

これにより、展開静止画生成部52が図7のフローチャートにおいて特定表示画素の方角は、周期的に、所定の一定角度ずつ増加する。たとえば図9中の第1列の展開画素列(1,Z)81の角度θ1は、周期的に、所定の一定角度ずつ増加する。図7中のステップST5およびST6で使用する特定表示画素の方角も、周期的に、所定の一定角度ずつ増加する。   Thereby, the direction of the specific display pixel is periodically increased by a predetermined constant angle in the flowchart of FIG. For example, the angle θ1 of the developed pixel row (1, Z) 81 in the first row in FIG. 9 periodically increases by a predetermined constant angle. The direction of the specific display pixel used in steps ST5 and ST6 in FIG. 7 also periodically increases by a predetermined constant angle.

その結果、各特定表示画素の元画像(円形画像)での座標位置は一定角度ずつ回転し、各特定表示画素の画素値もその回転にしたがって変化する。その結果、分割展開画像中において、元画像(円形画像)中の被写体は、横へ移動する。360度のパノラマ展開画像においてオートパン動作が実現される。   As a result, the coordinate position of each specific display pixel in the original image (circular image) rotates by a certain angle, and the pixel value of each specific display pixel also changes according to the rotation. As a result, in the divided developed image, the subject in the original image (circular image) moves sideways. An auto pan operation is realized in a 360-degree panoramic image.

次に、パノラマ展開画像の高さ調整動作について説明する。   Next, the operation for adjusting the height of the panoramic image will be described.

PC3のコマンド生成部17は、入力デバイス14から入力される入力データに基づいて変更モード開始指示コマンドを生成する。PC3の通信処理部15は、変更モード開始指示コマンドを、USBケーブル2を介して360度ビデオカメラ装置1の通信処理部56へ送信する。360度ビデオカメラ装置1の通信処理部56は、受信した変更モード開始指示コマンドを処理管理部55へ供給する。   The command generation unit 17 of the PC 3 generates a change mode start instruction command based on input data input from the input device 14. The communication processing unit 15 of the PC 3 transmits a change mode start instruction command to the communication processing unit 56 of the 360 degree video camera device 1 via the USB cable 2. The communication processing unit 56 of the 360 degree video camera apparatus 1 supplies the received change mode start instruction command to the process management unit 55.

図12は、変更モードにおける処理管理部55の動作を示すフローチャートである。処理管理部55は、変更モード開始指示コマンドが供給される(ステップST21)と、ストリーミング生成部54へ、境界表示指示を供給する(ステップST22)。その後、処理管理部55は、境界変更指示コマンドと、変更モード終了指示コマンドとの受信待ち状態となる(ステップST23およびST24)。   FIG. 12 is a flowchart showing the operation of the process management unit 55 in the change mode. When the change mode start instruction command is supplied (step ST21), the process management unit 55 supplies a boundary display instruction to the streaming generation unit 54 (step ST22). Thereafter, the process management unit 55 waits to receive a boundary change instruction command and a change mode end instruction command (steps ST23 and ST24).

境界表示指示が供給されたストリーミング生成部54は、外部メモリ30から、静止画データ39を読み込む。ストリーミング生成部54は、この静止画データ39を読み込む度に、その読込みに続けて、EEPROM41から、内円境界データ42および外円境界データ43を読み込む。ストリーミング生成部54は、図5に示すように、静止画データ39の撮像画像に、内円境界のマーク47および外円境界のマーク48を重ねて表示する表示画像を生成する。なお、ストリーミング生成部54は、所定の複数回の静止画データ39の読み込みの度に、内円境界データ42および外円境界データ43を読み込むようにしてもよい。   The streaming generation unit 54 to which the boundary display instruction is supplied reads the still image data 39 from the external memory 30. Every time the still image data 39 is read, the streaming generation unit 54 reads the inner circle boundary data 42 and the outer circle boundary data 43 from the EEPROM 41 following the reading. As shown in FIG. 5, the streaming generation unit 54 generates a display image in which the inner circle boundary mark 47 and the outer circle boundary mark 48 are superimposed on the captured image of the still image data 39. Note that the streaming generation unit 54 may read the inner circle boundary data 42 and the outer circle boundary data 43 each time the still image data 39 is read a plurality of times.

さらに、ストリーミング生成部54は、生成した表示画像のデータを有するストリーミングデータを生成し、通信処理部56へ供給する。360度ビデオカメラ装置1の通信処理部56は、USBケーブル2を介して、PC3の通信処理部15へストリーミングデータを送信する。   Further, the streaming generation unit 54 generates streaming data including the generated display image data and supplies the streaming data to the communication processing unit 56. The communication processing unit 56 of the 360 degree video camera apparatus 1 transmits streaming data to the communication processing unit 15 of the PC 3 via the USB cable 2.

PC3の通信処理部15は、受信したストリーミングデータを再生処理部16へ供給する。PC3の再生処理部16は、ストリーミングデータから、表示画像のデータを抽出し、表示データとして液晶表示デバイス12へ供給する。液晶表示デバイス12は、図5に示すように、内円境界の円形のマーク47と、外円境界の円形のマーク48とが重ねられた撮像画像を表示する。   The communication processing unit 15 of the PC 3 supplies the received streaming data to the reproduction processing unit 16. The reproduction processing unit 16 of the PC 3 extracts display image data from the streaming data and supplies it to the liquid crystal display device 12 as display data. As shown in FIG. 5, the liquid crystal display device 12 displays a captured image in which a circular mark 47 on the inner circle boundary and a circular mark 48 on the outer circle boundary are superimposed.

PC3のコマンド生成部17は、入力デバイス14に対するユーザの操作に基づいて、内円境界および外円境界の位置を移動したり、内円境界および外円境界の半径を拡縮したりする境界変更指示コマンドを生成する。PC3の通信処理部15は、境界変更指示コマンドを、USBケーブル2を介して360度ビデオカメラ装置1の通信処理部56へ送信する。360度ビデオカメラ装置1の通信処理部56は、受信した境界変更指示コマンドを処理管理部55へ供給する。   The command generation unit 17 of the PC 3 moves the position of the inner circle boundary and the outer circle boundary, and expands / reduces the radius of the inner circle boundary and the outer circle boundary based on a user operation on the input device 14. Generate a command. The communication processing unit 15 of the PC 3 transmits a boundary change instruction command to the communication processing unit 56 of the 360 degree video camera device 1 via the USB cable 2. The communication processing unit 56 of the 360 degree video camera apparatus 1 supplies the received boundary change instruction command to the process management unit 55.

境界変更指示コマンドを受信する(ステップST23でYesとなる)と、処理管理部55は、まず、その指示の適否を判断する(ステップST25)。処理管理部55は、具体的にはたとえば、変更後の内円境界の半径あるいは変更後の外円境界の半径が、所定の半径(たとえば144ピクセル)以上であるか否かを判断する。   When the boundary change instruction command is received (Yes in step ST23), the process management unit 55 first determines whether or not the instruction is appropriate (step ST25). Specifically, for example, the process management unit 55 determines whether the radius of the inner circle boundary after the change or the radius of the outer circle boundary after the change is equal to or larger than a predetermined radius (for example, 144 pixels).

指示が適当であると判断する(ステップST25でYesとなる)と、処理管理部55は、その変更指示に基づいて、EEPROM41に記憶される内円境界データ42や外円境界データ43を更新する(ステップST26)。また、処理管理部55は、その新たな内円境界と外円境界との組合せに基づいて、EEPROM41に記憶される像高補正テーブル45を更新する(ステップST27)。   If it is determined that the instruction is appropriate (Yes in step ST25), the process management unit 55 updates the inner circle boundary data 42 and the outer circle boundary data 43 stored in the EEPROM 41 based on the change instruction. (Step ST26). Further, the process management unit 55 updates the image height correction table 45 stored in the EEPROM 41 based on the new combination of the inner circle boundary and the outer circle boundary (step ST27).

内円境界と外円境界との間隔が変更により変化する場合、撮像画像中の、内円境界と外円境界との間の複数の画素数は変化する。その結果、その複数の画素により撮像される空間の範囲が変化し、その撮像空間の、複数の画素による分割割合も変化する。   When the interval between the inner circle boundary and the outer circle boundary changes due to the change, the number of pixels between the inner circle boundary and the outer circle boundary in the captured image changes. As a result, the range of the space imaged by the plurality of pixels changes, and the division ratio of the imaging space by the plurality of pixels also changes.

また、立体射影方式の魚眼レンズ22を使用すると、被写体は、画角に応じて異なる大きさで結像する。したがって、図6において説明したように、内円境界と外円境界との間隔が更新により変化していない場合であっても、内円境界および外円境界の位置が移動するだけで、撮像空間の、複数の画素による分割割合が変化する。   Further, when the fisheye lens 22 of the three-dimensional projection method is used, the subject forms an image with different sizes depending on the angle of view. Therefore, as described with reference to FIG. 6, even when the distance between the inner circle boundary and the outer circle boundary is not changed by the update, only the positions of the inner circle boundary and the outer circle boundary move, and the imaging space The division ratio of a plurality of pixels changes.

処理管理部55は、これら内円境界と外円境界との変更に伴なう複数の画素の分割割合の変化に応じて、像高補正テーブル45を更新する。その後、処理管理部55は、境界変更指示コマンドおよび変更モード終了指示コマンドの受信待ち状態へ戻る(ステップST23およびST24)。   The process management unit 55 updates the image height correction table 45 in accordance with the change in the division ratio of the plurality of pixels accompanying the change between the inner circle boundary and the outer circle boundary. Thereafter, the process management unit 55 returns to the reception waiting state for the boundary change instruction command and the change mode end instruction command (steps ST23 and ST24).

指示が適当でない場合(ステップST25でNoの場合)、たとえば内円境界の半径が所定の半径より小さい場合、処理管理部55は、その変更指示を無視し、境界変更指示コマンドおよび変更モード終了指示コマンドの受信待ち状態へ戻る(ステップST23およびST24)。   If the instruction is not appropriate (No in step ST25), for example, if the radius of the inner circle boundary is smaller than the predetermined radius, the process management unit 55 ignores the change instruction, and changes the boundary change instruction command and change mode end instruction. Returning to the command reception waiting state (steps ST23 and ST24).

ところで、境界表示指示が供給されたストリーミング生成部54は、外部メモリ30から静止画データ39を読み込む度に、EEPROM41から、内円境界データ42および外円境界データ43を読み込んでいる。したがって、処理管理部55が内円境界データ42や外円境界データ43を更新した場合、ストリーミング生成部54が、円形マーク47,48の、撮像画像に対する重なりの位置やサイズも更新される。液晶表示デバイス12において撮像画像と重ねて表示させる円形マーク47,48の位置およびサイズは、境界変更指示コマンドに応じて変更される。ユーザは、液晶表示デバイス12の表示により、内円境界データ42や外円境界データ43が更新されたことを知ることができる。   By the way, the streaming generation unit 54 supplied with the boundary display instruction reads the inner circle boundary data 42 and the outer circle boundary data 43 from the EEPROM 41 every time the still image data 39 is read from the external memory 30. Therefore, when the process management unit 55 updates the inner circle boundary data 42 and the outer circle boundary data 43, the streaming generation unit 54 also updates the position and size of the overlap of the circular marks 47 and 48 with respect to the captured image. The positions and sizes of the circular marks 47 and 48 displayed on the liquid crystal display device 12 so as to overlap the captured image are changed according to the boundary change instruction command. The user can know that the inner circle boundary data 42 and the outer circle boundary data 43 have been updated by the display on the liquid crystal display device 12.

PC3のコマンド生成部17は、入力デバイス14に対するユーザの操作に基づいて、変更モード終了指示コマンドを生成する。PC3の通信処理部15は、変更モード終了指示コマンドを、USBケーブル2を介して360度ビデオカメラ装置1の通信処理部56へ送信する。360度ビデオカメラ装置1の通信処理部56は、受信した変更モード終了指示コマンドを処理管理部55へ供給する。変更モード終了指示コマンドを受信する(ステップST24においてYesとなる)と、処理管理部55は、図12の変更モードの処理を終了する。この変更モードの処理後には、内円境界データ42、外円境界データ43および像高補正テーブル45が新たなものへ変更され、360度ビデオカメラ装置1の展開静止画生成部52は、この変更されたデータを用いて、360度のパノラマ展開画像を生成するようになる。   The command generation unit 17 of the PC 3 generates a change mode end instruction command based on a user operation on the input device 14. The communication processing unit 15 of the PC 3 transmits a change mode end instruction command to the communication processing unit 56 of the 360 degree video camera apparatus 1 via the USB cable 2. The communication processing unit 56 of the 360 degree video camera apparatus 1 supplies the received change mode end instruction command to the process management unit 55. When the change mode end instruction command is received (Yes in step ST24), the process management unit 55 ends the change mode process of FIG. After the processing in this change mode, the inner circle boundary data 42, the outer circle boundary data 43, and the image height correction table 45 are changed to new ones, and the developed still image generation unit 52 of the 360-degree video camera device 1 performs this change. A 360-degree panoramic development image is generated using the processed data.

以上のように、この実施の形態によれば、360度ビデオカメラ装置1のイメージセンサ27には、魚眼レンズ22による円形の像が結像する。静止画保存処理部51は、このイメージセンサ27の輝度分布データに基づいて、円形画像を有する撮像画像データを生成する。この円形画像には、被写体の頭などが切れたりすることなく含まれる。   As described above, according to this embodiment, a circular image is formed by the fisheye lens 22 on the image sensor 27 of the 360-degree video camera device 1. The still image storage processing unit 51 generates captured image data having a circular image based on the luminance distribution data of the image sensor 27. This circular image is included without the subject's head being cut off.

また、展開静止画生成部52は、この撮像画像の中の、内円境界と外円境界とに挟まれているリング形状の範囲内の画像に基づいて、2つの分割展開画像による360度のパノラマ展開画像を生成する。内円境界および外円境界の位置およびサイズは、処理管理部55によりユーザが自由に設定することができる。   In addition, the developed still image generation unit 52 has a 360 degree image obtained by two divided developed images based on an image within a ring-shaped range sandwiched between the inner circle boundary and the outer circle boundary in the captured image. A panorama development image is generated. The position and size of the inner circle boundary and the outer circle boundary can be freely set by the user by the process management unit 55.

したがって、処理管理部55により内円境界あるいは外円境界の位置あるいはサイズを更新することで、円形画像内の被写体がリング形状の範囲内に収まるように調整することができる。その結果、たとえば被写体が魚眼レンズ22に近い位置に存在し、被写体に対する魚眼レンズ22の物理的な距離を確保することがでない場合であっても、内円境界の位置などを調整することで、被写体の頭などが切れていない360度のパノラマ展開画像を生成することができる。また、たとえば被写体としての人の頭と体とがバランス良く表示される360度のパノラマ展開画像を生成することができる。   Therefore, by updating the position or size of the inner circle boundary or the outer circle boundary by the processing management unit 55, it is possible to adjust the subject in the circular image to be within the ring shape range. As a result, for example, even when the subject exists at a position close to the fisheye lens 22 and the physical distance of the fisheye lens 22 to the subject cannot be ensured, by adjusting the position of the inner circle boundary, etc. It is possible to generate a 360-degree panoramic image with no head cut. Further, for example, it is possible to generate a 360-degree panoramic developed image in which a person's head and body as a subject are displayed with good balance.

また、180度毎の2つの横長の分割展開画像は、上下に並べてPC3の液晶表示デバイス12に表示される。したがって、仮にたとえば360度のパノラマ展開画像が1つの展開画像である場合に比べて、液晶表示デバイス12の表示画面を有効に利用することができる。液晶表示デバイス12に、360度のパノラマ展開画像を大きく表示することができる。   In addition, two horizontally long divided developed images every 180 degrees are displayed vertically on the liquid crystal display device 12 of the PC 3. Therefore, for example, the display screen of the liquid crystal display device 12 can be used more effectively than when a 360-degree panoramic image is a single expanded image. A 360-degree panoramic image can be displayed large on the liquid crystal display device 12.

また、この実施の形態では、魚眼レンズ22は、立体射影方式のものである。立体射影方式の魚眼レンズ22は、一般的な等距離射影方式の魚眼レンズを使用する場合に比べて、魚眼レンズ22により結像される画像中の周辺部のゆがみが少なく、且つ、周辺部の情報量が多くなる。また、EEPROM41は、この立体射影方式の魚眼レンズ22の入射角と像高との関係に基づいて得られる被写体の結像サイズのバランスを補正する像高補正テーブル45を記憶する。展開静止画生成部52は、像高補正テーブル45を参照し、被写体の結像サイズのバランスを整えた360度のパノラマ展開画像を生成する。   In this embodiment, the fisheye lens 22 is of a three-dimensional projection system. The three-dimensional projection type fisheye lens 22 is less distorted in the peripheral portion in the image formed by the fisheye lens 22 than the case where a general equidistant projection type fisheye lens is used, and the amount of information in the peripheral portion is small. Become more. The EEPROM 41 also stores an image height correction table 45 for correcting the balance of the imaging size of the subject obtained based on the relationship between the incident angle of the stereoscopic lens 22 and the image height. The developed still image generation unit 52 refers to the image height correction table 45 and generates a 360-degree panoramic developed image in which the balance of the imaging size of the subject is adjusted.

したがって、360度ビデオカメラ装置1を、その魚眼レンズ22を上向きにテーブルに載置したとき、その周囲にいる人物や黒板などの画像を、高分解能で得ることができる。黒板の文字などを、360度のパノラマ展開画像中に再現することができる。また、魚眼レンズ22の周囲にいる人物や黒板などの画像として、バランスが整ったものを得ることができる。   Therefore, when the 360 degree video camera device 1 is placed on the table with the fisheye lens 22 facing upward, it is possible to obtain an image of a person or blackboard around the high-resolution image. Blackboard characters and the like can be reproduced in a 360-degree panoramic image. Further, a well-balanced image can be obtained as an image of a person or blackboard around the fisheye lens 22.

また、この実施の形態では、EEPROM41に記憶される像高補正テーブル45は、内円境界データ42あるいは外円境界データ43が更新される度に、更新される。内円境界と外円境界との間隔が変更により変化する場合、それらの間の画像空間の、複数の画素による分割割合が変化する。また、内円境界および外円境界の位置が移動するだけであっても、それらの間の画像空間の、複数の画素による分割割合が変化する。このように内円境界データ42あるいは外円境界データ43の更新の度に像高補正テーブル45を更新することで、像高補正テーブル45は、これらと適合するものに維持される。   In this embodiment, the image height correction table 45 stored in the EEPROM 41 is updated every time the inner circle boundary data 42 or the outer circle boundary data 43 is updated. When the interval between the inner circle boundary and the outer circle boundary changes due to the change, the division ratio of the plurality of pixels in the image space between them changes. Even if only the positions of the inner circle boundary and the outer circle boundary move, the division ratio of the plurality of pixels in the image space between them changes. Thus, by updating the image height correction table 45 each time the inner circle boundary data 42 or the outer circle boundary data 43 is updated, the image height correction table 45 is maintained to be compatible with these.

また、この実施の形態では、EEPROM41に記憶される内円境界データ42および外円境界データ43は、変更後のサイズが144ピクセル以上の半径である場合に、更新される。仮にたとえば内円境界の半径が1画素になると、360度のパノラマ展開画像の最上段の複数の表示画素の画素値を得るために、撮像画像中の同じ画素が何度も利用されることになる。この場合、360度のパノラマ展開画像の画質が向上することなく、360度のパノラマ展開画像の生成負荷が増大してしまう。この実施の形態のように、内円境界あるいは外円境界の半径が144ピクセルより小さくなってしまうことを防止することで、そのような不利益が発生してしまうことを防止することができる。   In this embodiment, the inner circle boundary data 42 and the outer circle boundary data 43 stored in the EEPROM 41 are updated when the changed size is a radius of 144 pixels or more. For example, if the radius of the inner circle boundary becomes one pixel, the same pixel in the captured image is used many times in order to obtain the pixel values of the plurality of display pixels at the uppermost stage of the 360 ° panorama development image. Become. In this case, the image quality of the 360-degree panorama development image is not improved, and the generation load of the 360-degree panorama development image increases. By preventing the inner circle boundary or outer circle boundary radius from becoming smaller than 144 pixels as in this embodiment, it is possible to prevent such disadvantages from occurring.

また、この実施の形態では、展開静止画生成部52は、360度のパノラマ展開画像の各表示画素の、円形画像の中心からの距離Rおよび方角を演算し、演算した距離Rおよび方角を用いて、各表示画素の、撮像画像での座標(IX,IY)を演算し、演算した各座標(IX,IY)に位置する撮像画像の画素91の画素値を、各表示画素の画素値として取得する。   Further, in this embodiment, the developed still image generating unit 52 calculates the distance R and the direction from the center of the circular image of each display pixel of the 360 ° panorama developed image, and uses the calculated distance R and direction. Then, the coordinates (IX, IY) in the captured image of each display pixel are calculated, and the pixel value of the pixel 91 of the captured image located at each calculated coordinate (IX, IY) is used as the pixel value of each display pixel. get.

したがって、撮像画像中の円形画像の画素の画素値をそのまま用いた、360度のパノラマ展開画像を生成することができる。360度のパノラマ展開画像の各表示画素の画素値そのものを演算により求める必要がない。演算により各表示画素の画素値を得る場合のように、演算による画質劣化が発生することはない。また、1つのパノラマ展開画像の生成時間を短縮することができる。その結果、360度のパノラマ展開画像を短時間で生成することができる。また、パノラマ展開画像の生成処理を連続的に繰り返すことで、360度のパノラマ展開画像による、連続的な動きのある動画を得ることができる。   Therefore, it is possible to generate a 360-degree panoramic image using the pixel values of the circular image pixels in the captured image as they are. It is not necessary to obtain the pixel value of each display pixel of the 360 degree panoramic image by calculation. As in the case where the pixel value of each display pixel is obtained by computation, image quality degradation due to computation does not occur. In addition, the generation time of one panorama development image can be shortened. As a result, a 360-degree panoramic image can be generated in a short time. In addition, by continuously repeating the panorama development image generation process, it is possible to obtain a moving image with continuous motion using a 360-degree panorama development image.

以上に説明したように、この実施の形態は、本発明の好適な実施の形態の例であるが、本発明は、これに限定されるものではなく、発明の要旨を逸脱しない範囲において種々の変形や変更が可能である。   As described above, this embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the invention. Variations and changes are possible.

たとえば上記実施の形態では、魚眼レンズ22として、立体射影方式のものを利用している。この他にもたとえば、一般的な等距離射影方式のもの、等立体射影方式のもの、正射影方式のものなどを魚眼レンズ22として利用してもよい。   For example, in the above-described embodiment, the fish-eye lens 22 uses a stereoscopic projection type. In addition to this, for example, a common equidistant projection method, an isostereoscopic projection method, an orthographic projection method, or the like may be used as the fisheye lens 22.

上記実施の形態では、展開静止画生成部52は、360度のパノラマ展開画像として、180度毎の2つの分割展開画像を生成している。この他にもたとえば、展開静止画生成部52は、1つの360度のパノラマ展開画像を生成するようにしたり、三分割としたり、四分割としたりしてもよい。   In the embodiment described above, the developed still image generation unit 52 generates two divided developed images every 180 degrees as a 360 degrees panoramic developed image. In addition to this, for example, the developed still image generation unit 52 may generate a single 360-degree panoramic developed image, divide into three, or divide into four.

上記実施の形態では、処理管理部55は、ユーザの操作に基づいて、EEPROM41に記憶される内円境界データ42および外円境界データ43の両方を更新する。この他にもたとえば、処理管理部55は、ユーザの操作に基づいて、EEPROM41に記憶される内円境界データ42および外円境界データ43の中の一方のみを、更新するようにしてもよい。   In the above embodiment, the process management unit 55 updates both the inner circle boundary data 42 and the outer circle boundary data 43 stored in the EEPROM 41 based on a user operation. In addition, for example, the process management unit 55 may update only one of the inner circle boundary data 42 and the outer circle boundary data 43 stored in the EEPROM 41 based on a user operation.

上記実施の形態では、360度ビデオカメラ装置1には、USBケーブル2により、PC3が接続されている。この他にもたとえば、360度ビデオカメラ装置1には、USBケーブル2などにより、たとえばコマンドを出力する入力ボードなどが接続されていてもよい。   In the above embodiment, the PC camera 3 is connected to the 360 degree video camera apparatus 1 by the USB cable 2. In addition to this, for example, an input board for outputting a command may be connected to the 360 degree video camera apparatus 1 by a USB cable 2 or the like.

上記実施の形態では、360度ビデオカメラ装置1に接続されるPC3は、液晶表示デバイス12に、360度のパノラマ展開画像による動画を表示する。この他にもたとえば、PC3は、図示外の記憶デバイスに、360度のパノラマ展開画像による動画を保存するようにしてもよい。   In the above embodiment, the PC 3 connected to the 360 degree video camera apparatus 1 displays a moving image based on a 360 degree panoramic image on the liquid crystal display device 12. In addition to this, for example, the PC 3 may store a moving image based on a 360-degree panoramic image in a storage device (not shown).

本発明は、会議の様子などを撮像するためのパノラマ展開画像撮像装置およびパノラマ展開画像撮像システムなどとして、広く利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be widely used as a panorama developed image capturing apparatus and a panorama expanded image capturing system for capturing a meeting or the like.

本発明の実施の形態に係るパノラマ展開画像撮像システムを示す斜視図である。It is a perspective view which shows the panoramic expansion image imaging system which concerns on embodiment of this invention. 図1中の360度ビデオカメラ装置の電気回路を示すブロック図である。It is a block diagram which shows the electric circuit of the 360 degree video camera apparatus in FIG. 図1中の魚眼レンズとイメージセンサとの光学的な配置を示す説明図である。It is explanatory drawing which shows the optical arrangement | positioning of the fisheye lens and image sensor in FIG. 図1中の色変換処理部がイメージセンサの輝度分布データに基づいて生成する撮像画像の一例を示す図である。It is a figure which shows an example of the captured image which the color conversion process part in FIG. 1 produces | generates based on the luminance distribution data of an image sensor. 図1の360度ビデオカメラ装置において、撮像画像に、内円境界の位置を示す円形のマークと、外円境界の位置を示す円形のマークとを重ねた画像を示す説明図である。FIG. 3 is an explanatory diagram showing an image obtained by superimposing a circular mark indicating a position of an inner circle boundary and a circular mark indicating a position of an outer circle boundary on a captured image in the 360-degree video camera device of FIG. 1. 図1中の立体射影方式の魚眼レンズの像高(画角差)特性図である。FIG. 2 is an image height (angle of view difference) characteristic diagram of the three-dimensional projection type fisheye lens in FIG. 図1の360度ビデオカメラ装置において生成される、1つの分割画像範囲に関する、展開静止画生成部による分割展開画像の生成処理の流れを示すフローチャートである。6 is a flowchart showing a flow of a divided developed image generation process by a developed still image generation unit for one divided image range generated in the 360-degree video camera apparatus of FIG. 1. 図1の360度ビデオカメラ装置において生成される分割展開画像での複数の表示画素の配列の一例を示す図である。It is a figure which shows an example of the arrangement | sequence of several display pixels in the division | segmentation expansion | deployment image produced | generated in the 360 degree video camera apparatus of FIG. 図8の各展開画素列の、リング形状の画像における方向(分割画像範囲における方向)を図示する説明図である。FIG. 9 is an explanatory diagram illustrating directions in a ring-shaped image (directions in a divided image range) of each developed pixel row in FIG. 8. 図1の360度ビデオカメラ装置における特定表示画素の元画像(円形画像)での座標位置の説明図である。It is explanatory drawing of the coordinate position in the original image (circular image) of the specific display pixel in the 360 degree video camera apparatus of FIG. 図1中のPCの液晶表示デバイスに表示される、撮像による360度のパノラマ展開画像の表示例である。3 is a display example of a 360-degree panoramic unfolded image displayed by imaging, which is displayed on the liquid crystal display device of the PC in FIG. 1. 図1の360度ビデオカメラ装置の変更モードにおける処理管理部の動作を示すフローチャートである。3 is a flowchart showing an operation of a process management unit in a change mode of the 360 degree video camera apparatus of FIG. 1.

符号の説明Explanation of symbols

1 360度ビデオカメラ装置(パノラマ展開画像撮像装置)
3 パーソナルコンピュータ(コンピュータ装置)
22 魚眼レンズ
27 イメージセンサ(撮像手段の一部)
33 受光面
36 色変換処理部(撮像手段の一部)
41 EEPROM(メモリ)
45 像高補正テーブル
52 展開静止画生成部(パノラマ展開画像生成手段)
54 ストリーミング生成部(表示データ生成手段)
55 処理管理部(ユーザ更新手段)
1 360 degree video camera device (panoramic unfolding image pickup device)
3 Personal computer (computer device)
22 Fisheye lens 27 Image sensor (part of imaging means)
33 Light receiving surface 36 Color conversion processing unit (part of imaging means)
41 EEPROM (memory)
45 Image Height Correction Table 52 Expanded Still Image Generation Unit (Panorama Expanded Image Generation Unit)
54 Streaming generator (display data generator)
55 Process Management Unit (User Update Unit)

Claims (7)

撮像による360度のパノラマ展開画像を生成するパノラマ展開画像撮像装置であって、
魚眼レンズと、
複数の受光素子が配列される受光面に上記魚眼レンズによる円形の像が結像し、円形画像を有する撮像画像のデータを生成する撮像手段と、
上記撮像画像中の、360度のパノラマ展開画像の生成に使用するリング形状の範囲を規定する内円境界および外円境界の位置あるいはサイズを記憶するメモリと、
ユーザの操作に基づいて、上記メモリに記憶される上記内円境界および上記外円境界の中の少なくとも一方の位置あるいはサイズを更新するユーザ更新手段と、
上記撮像手段が生成する上記撮像画像中の、上記メモリに記憶される上記内円境界と上記外円境界とで挟まれるリング形状の範囲内の画像に基づいて、360度のパノラマ展開画像を生成するパノラマ展開画像生成手段と、
を有することを特徴とするパノラマ展開画像撮像装置。
A panoramic unfolded image imaging device that generates a 360-degree panoramic unfolded image by imaging,
With a fisheye lens,
An imaging unit that forms a circular image by the fisheye lens on a light receiving surface on which a plurality of light receiving elements are arranged, and generates data of a captured image having a circular image;
A memory for storing the position or size of the inner circle boundary and the outer circle boundary defining the range of the ring shape used for generating the 360-degree panoramic development image in the captured image;
User update means for updating the position or size of at least one of the inner circle boundary and the outer circle boundary stored in the memory based on a user operation;
A 360-degree panoramic unfolded image is generated based on an image within a ring-shaped range sandwiched between the inner circle boundary and the outer circle boundary stored in the memory in the captured image generated by the imaging means. Panoramic unfolded image generating means,
A panoramic developed image imaging device characterized by comprising:
前記魚眼レンズは、立体射影方式のものであり、
前記メモリは、前記立体射影方式の魚眼レンズの入射角と像高との関係に基づいて得られる被写体の結像サイズのバランスを補正する像高補正テーブルを記憶し、
前記パノラマ展開画像生成手段は、上記像高補正テーブルを参照し、被写体の結像サイズのバランスを整えた360度のパノラマ展開画像を生成すること、
を特徴とする請求項1記載のパノラマ展開画像撮像装置。
The fisheye lens is a three-dimensional projection method,
The memory stores an image height correction table for correcting a balance of the imaging size of a subject obtained based on a relationship between an incident angle of the stereoscopic projection type fisheye lens and an image height,
The panoramic unfolded image generating means refers to the image height correction table, and generates a 360 degree panoramic unfolded image in which the balance of the imaging size of the subject is adjusted;
The panoramic unfolded image imaging apparatus according to claim 1.
前記ユーザ更新手段は、前記メモリに記憶される前記内円境界および前記外円境界の中の少なくとも一方の位置あるいはサイズを更新した後に、前記メモリに記憶される前記像高補正テーブルを、更新した前記内円境界および前記外円境界と、前記立体射影方式の魚眼レンズの入射角と像高との関係とに基づいて更新することを特徴とする請求項2記載のパノラマ展開画像撮像装置。   The user update means updates the image height correction table stored in the memory after updating the position or size of at least one of the inner circle boundary and the outer circle boundary stored in the memory. 3. The panoramic unfolded image capturing apparatus according to claim 2, wherein updating is performed based on the inner circle boundary and the outer circle boundary, and a relationship between an incident angle and an image height of the stereoscopic eye fisheye lens. 前記ユーザ更新手段は、前記内円境界あるいは前記外円境界の変更後のサイズが、所定の画素数以上の半径である場合、前記内円境界あるいは前記外円境界の変更指示に基づいて、前記メモリに記憶される前記内円境界あるいは前記外円境界を更新することを特徴とする請求項1記載のパノラマ展開画像撮像装置。   The user update means, when the size of the inner circle boundary or the outer circle boundary after the change is a radius of a predetermined number of pixels or more, based on the change instruction of the inner circle boundary or the outer circle boundary, The panoramic developed image imaging apparatus according to claim 1, wherein the inner circle boundary or the outer circle boundary stored in a memory is updated. 前記パノラマ展開画像生成手段は、前記360度のパノラマ展開画像の各表示画素の、前記円形画像の中心からの距離および方角を演算し、演算した距離および方角を用いて、上記各表示画素の、前記撮像画像での座標を演算し、演算した上記各座標に位置する前記撮像画像の画素の画素値を、上記各表示画素の画素値として取得することを特徴とする請求項1記載のパノラマ展開画像撮像装置。   The panoramic expanded image generation means calculates a distance and a direction of each display pixel of the 360 ° panoramic expanded image from the center of the circular image, and uses the calculated distance and direction of each display pixel, 2. The panorama development according to claim 1, wherein coordinates in the captured image are calculated, and pixel values of the pixels of the captured image located at the calculated coordinates are acquired as pixel values of the display pixels. Imaging device. 前記パノラマ展開画像生成手段は、前記撮像画像中の、前記内円境界と前記外円境界とで挟まれる範囲を180度毎に2つの範囲に分割し、その分割した画像の範囲毎の2つの横長のパノラマ分割展開画像を生成し、
上記2つの横長のパノラマ分割展開画像を縦に並べて表示させる表示データを生成する表示データ生成手段を有すること、
を特徴とする請求項1記載のパノラマ展開画像撮像装置。
The panoramic expanded image generation means divides a range between the inner circle boundary and the outer circle boundary in the captured image into two ranges every 180 degrees, and two ranges for the divided image ranges Generate a horizontally long panoramic split image,
Having display data generation means for generating display data for displaying the two horizontally long panoramic divided developed images side by side;
The panoramic unfolded image imaging apparatus according to claim 1.
請求項1から6の中のいずれか1項記載のパノラマ展開画像撮像装置と、
前記パノラマ展開画像撮像装置が生成する360度のパノラマ展開画像を、表示あるいは保存するコンピュータ装置と、
を有することを特徴とするパノラマ展開画像撮像システム。
A panoramic unfolded image capturing apparatus according to any one of claims 1 to 6;
A computer device for displaying or storing a 360-degree panoramic image generated by the panoramic image-capturing device;
A panoramic unfolded image capturing system characterized by comprising:
JP2006197848A 2006-07-20 2006-07-20 Imaging device and imaging system for panoramically expanded image Pending JP2008028606A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006197848A JP2008028606A (en) 2006-07-20 2006-07-20 Imaging device and imaging system for panoramically expanded image
PCT/JP2007/060193 WO2008010345A1 (en) 2006-07-20 2007-05-18 Panorama image photographing system and panorama image photographing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006197848A JP2008028606A (en) 2006-07-20 2006-07-20 Imaging device and imaging system for panoramically expanded image

Publications (1)

Publication Number Publication Date
JP2008028606A true JP2008028606A (en) 2008-02-07

Family

ID=38956681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006197848A Pending JP2008028606A (en) 2006-07-20 2006-07-20 Imaging device and imaging system for panoramically expanded image

Country Status (2)

Country Link
JP (1) JP2008028606A (en)
WO (1) WO2008010345A1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009303053A (en) * 2008-06-16 2009-12-24 Fujinon Corp Omnidirectional imaging apparatus
JP2010068071A (en) * 2008-09-09 2010-03-25 Fujifilm Corp Imaging device and method, image processor and method, and image processing program
WO2011145322A1 (en) 2010-05-17 2011-11-24 パナソニック株式会社 Panoramic expansion image display device and method of displaying panoramic expansion image
WO2014091736A1 (en) * 2012-12-10 2014-06-19 パナソニック株式会社 Display device for panoramically expanded image
JP2015053573A (en) * 2013-09-06 2015-03-19 キヤノン株式会社 Image recording apparatus and imaging apparatus
JP2016076853A (en) * 2014-10-07 2016-05-12 キヤノン株式会社 Image processing apparatus, image processing method, and imaging apparatus
US10587799B2 (en) 2015-11-23 2020-03-10 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling electronic apparatus thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9349195B2 (en) 2012-03-19 2016-05-24 Google Inc. Apparatus and method for spatially referencing images
US9811946B1 (en) 2016-05-30 2017-11-07 Hong Kong Applied Science and Technology Research Institute Company, Limited High resolution (HR) panorama generation without ghosting artifacts using multiple HR images mapped to a low resolution 360-degree image
CN113612976B (en) * 2021-10-11 2021-12-17 成都派沃特科技股份有限公司 Security plan optimization method and security plan optimization device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3025255B1 (en) * 1999-02-19 2000-03-27 有限会社フィット Image data converter
JP2002325246A (en) * 2001-04-25 2002-11-08 Univ Waseda Relay system for athletic field
JP3698420B2 (en) * 2001-06-12 2005-09-21 シャープ株式会社 Image monitoring apparatus, image monitoring method, and image monitoring processing program
JP2006098942A (en) * 2004-09-30 2006-04-13 Elmo Co Ltd Fisheye lens and photographing apparatus with the same

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009303053A (en) * 2008-06-16 2009-12-24 Fujinon Corp Omnidirectional imaging apparatus
JP2010068071A (en) * 2008-09-09 2010-03-25 Fujifilm Corp Imaging device and method, image processor and method, and image processing program
WO2011145322A1 (en) 2010-05-17 2011-11-24 パナソニック株式会社 Panoramic expansion image display device and method of displaying panoramic expansion image
EP2574036A4 (en) * 2010-05-17 2015-11-11 Panasonic Corp Panoramic expansion image display device and method of displaying panoramic expansion image
US9374528B2 (en) 2010-05-17 2016-06-21 Panasonic Intellectual Property Management Co., Ltd. Panoramic expansion image display device and method of displaying panoramic expansion image
WO2014091736A1 (en) * 2012-12-10 2014-06-19 パナソニック株式会社 Display device for panoramically expanded image
JP2015053573A (en) * 2013-09-06 2015-03-19 キヤノン株式会社 Image recording apparatus and imaging apparatus
JP2016076853A (en) * 2014-10-07 2016-05-12 キヤノン株式会社 Image processing apparatus, image processing method, and imaging apparatus
US10587799B2 (en) 2015-11-23 2020-03-10 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling electronic apparatus thereof
US10992862B2 (en) 2015-11-23 2021-04-27 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling electronic apparatus thereof

Also Published As

Publication number Publication date
WO2008010345A1 (en) 2008-01-24

Similar Documents

Publication Publication Date Title
JP2008028606A (en) Imaging device and imaging system for panoramically expanded image
JP7226484B2 (en) Imaging system, imaging device, video display device, image processing device, method and program.
CN105979123B (en) Image processing system, image processing method, and program
CN110430355B (en) Imaging system and imaging apparatus
JP4345829B2 (en) Image display system, image display apparatus, image display method, and program
JP5743016B2 (en) Apparatus and method for generating images
JP2007318596A (en) Compression method of image data by wide angle lens, expansion display method, compression apparatus, wide angle camera apparatus, and monitor system
JP7205386B2 (en) IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
US20100020202A1 (en) Camera apparatus, and image processing apparatus and image processing method
JP2007184720A (en) Image photographing apparatus
US20220230275A1 (en) Imaging system, image processing apparatus, imaging device, and recording medium
JP2016171577A (en) Imaging apparatus and imaging system
JP2020204874A (en) Image processing system, imaging system, image processing apparatus, imaging apparatus and program
JP6394682B2 (en) Method and image processing apparatus
JP2008033607A (en) Imaging apparatus and imaging system
JP2020080194A (en) Image processing system, image processing method, and program
JP2006115091A (en) Imaging device
JP3066594U (en) Image conversion device
JPH11122521A (en) Digital image pickup device and image pickup method
JP2023139983A (en) Photographing apparatus, photographing method, and program
JP3934345B2 (en) Imaging device
WO2017086021A1 (en) Image processing device, image processing method, and computer program
JP2020102660A (en) Imaging apparatus
JP2019003676A (en) Image processing system, image processing method, and program
JPH10285474A (en) Image-pickup device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090706

A072 Dismissal of procedure [no reply to invitation to correct request for examination]

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20101109