JP2012119804A - Image recorder - Google Patents

Image recorder Download PDF

Info

Publication number
JP2012119804A
JP2012119804A JP2010265942A JP2010265942A JP2012119804A JP 2012119804 A JP2012119804 A JP 2012119804A JP 2010265942 A JP2010265942 A JP 2010265942A JP 2010265942 A JP2010265942 A JP 2010265942A JP 2012119804 A JP2012119804 A JP 2012119804A
Authority
JP
Japan
Prior art keywords
image
information
monitor
camera
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010265942A
Other languages
Japanese (ja)
Inventor
Hiroshi Hosoe
洋 細江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010265942A priority Critical patent/JP2012119804A/en
Publication of JP2012119804A publication Critical patent/JP2012119804A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To generate an appropriate monitor image which does not damage convenience of a super-wide-angle camera and to facilitate retrieval of a desired subject range from a recorded super-wide-angle image.SOLUTION: An image reader is provided with: imaging means for imaging a super-wide-angle image; recording means for recording data of the captured image; detection means for detecting change in the posture of the imaging means; image cutout means for cutting out a part of the captured image; cutout image change means for changing a position or area of the cutout image in accordance with the detection result by the detection means; and display means for displaying the cutout image. Information on the detection result is added to the image data and recorded. Alternatively, information on the position or area of the cutout image is added to the image data and recorded.

Description

本発明は、画像記録装置ないし画像記録再生装置に関し、特に超広角撮像系を備えた画像記録ないし記録再生装置、さらにその画像記録方法および画像再生方法、に関するものである。   The present invention relates to an image recording apparatus or an image recording / reproducing apparatus, and more particularly to an image recording or recording / reproducing apparatus having an ultra-wide-angle imaging system, and an image recording method and an image reproducing method thereof.

デジタルカメラやビデオカメラなどの撮像装置には、光学情報を電子データに変換する手段としてCCDやCMOSなどの撮像素子が用いられている。また、変倍機構によりユーザが撮影画角を自由に変更できるように撮像光学系を構成し、様々な撮影シーンに対応できるようになっている。   Imaging devices such as digital cameras and video cameras use imaging elements such as CCDs and CMOSs as means for converting optical information into electronic data. In addition, the imaging optical system is configured so that the user can freely change the shooting angle of view by the zooming mechanism so that it can cope with various shooting scenes.

昨今、撮像素子の多画素化が進み、テレビモニタなどのモニタ装置で再生できる画素数より十分に多画素の撮像素子が得られるようになっている。これにより、いわゆる電子ズームや電子式手ブレ補正機能が実現されている。   Recently, an increase in the number of pixels of an image sensor has progressed, and an image sensor having a number of pixels sufficiently larger than the number of pixels that can be reproduced by a monitor device such as a television monitor can be obtained. Thereby, a so-called electronic zoom and an electronic camera shake correction function are realized.

図13から図17を参照して、従来のビデオカメラの例を説明する。   An example of a conventional video camera will be described with reference to FIGS.

図13は、従来のビデオカメラ1301の撮影時の様子を模式的に表している。変倍機構により撮影画角1302が設定され、その画角内にある被写体1303が撮影できる。ビデオカメラなど手持ちの撮像装置は撮影中に静止させておくことが難しく、カメラ本体が動いてしまうことで撮影した映像がブレてしまうことがある。いわゆる手ブレである。この手ブレを補正して、安定した映像を記録できるようにするための機能が手ブレ補正である。手ブレ補正機能には、一つには、変倍機構を構成するレンズなどの一部の光学素子を物理的に動かしてブレを打ち消す、いわゆる光学式手ブレ補正がある。または、以下に説明する電子式手ブレ補正がある。図14は、ビデオカメラの電子式手ブレ補正機能に関わる構成を表したブロック図である。図15は、撮像素子1401上の撮像領域を模式的に表す図である。   FIG. 13 schematically shows a state in which the conventional video camera 1301 is photographed. A shooting angle of view 1302 is set by the zoom mechanism, and a subject 1303 within the angle of view can be shot. A hand-held image pickup device such as a video camera is difficult to keep stationary during shooting, and the shot image may be blurred as the camera body moves. This is so-called camera shake. A function for correcting the camera shake so that a stable video can be recorded is a camera shake correction. One of the camera shake correction functions is so-called optical camera shake correction in which a part of optical elements such as a lens constituting a zoom mechanism is physically moved to cancel the shake. Alternatively, there is an electronic camera shake correction described below. FIG. 14 is a block diagram showing a configuration related to an electronic camera shake correction function of a video camera. FIG. 15 is a diagram schematically illustrating an imaging region on the imaging element 1401.

電子式手ブレ補正は、映像信号を生成するのに必要な画素数より多い撮像素子1401を利用し、撮像素子1401により取得した全撮像領域から、後に説明するブレ情報に応じて所定範囲の撮像データを抽出(切り出しとも言う)して映像信号を生成するものである。   Electronic camera shake correction uses an image sensor 1401 that is larger than the number of pixels necessary to generate a video signal, and from a total image area acquired by the image sensor 1401, captures a predetermined range according to blur information described later. Data is extracted (also referred to as clipping) to generate a video signal.

図15に示すように、所定の映像信号を生成するのに必要な撮像領域1501に対して、撮像素子1401の全撮像領域1503は大きい。黒破線で示す範囲1501が映像信号を生成するために必要な範囲であり、通常は黒破線範囲1501の撮像データを抽出して映像信号を生成する。手ブレを検知すると、映像信号を生成するために抽出する撮像領域をブレを打ち消す方向に移動させる。図15の灰破線1502は、ブレを打ち消す方向に移動した撮像領域を表す。   As shown in FIG. 15, the entire imaging area 1503 of the imaging device 1401 is larger than the imaging area 1501 necessary for generating a predetermined video signal. A range 1501 indicated by a black broken line is a range necessary for generating a video signal. Normally, image data of the black broken line range 1501 is extracted to generate a video signal. When a camera shake is detected, an imaging region to be extracted to generate a video signal is moved in a direction to cancel the camera shake. A gray broken line 1502 in FIG. 15 represents an imaging region that has moved in a direction to cancel the blur.

電子式手ブレにおいてブレを検知する方法には、代表的には二通りある。   There are typically two methods for detecting blur in electronic camera shake.

図14(A)は、ビデオカメラ1301の手ブレによる姿勢変化をジャイロセンサ1402、1403を用いて検出する構成を示している。一般には、ビデオカメラのヨー角とピッチ角の変化をそれぞれジャイロセンサで検知する。ジャイロセンサ1402、1403による検知結果に応じて、制御部1404にてビデオカメラ1301の姿勢変化を相殺するために必要な抽出領域の移動量を算出する。信号処理回路1405にて、撮像領域の抽出と所定の映像信号への変換が行われる。   FIG. 14A illustrates a configuration in which a change in posture due to camera shake of the video camera 1301 is detected using gyro sensors 1402 and 1403. Generally, changes in the yaw angle and pitch angle of a video camera are detected by gyro sensors, respectively. In accordance with the detection results of the gyro sensors 1402 and 1403, the control unit 1404 calculates the amount of movement of the extraction area necessary for canceling the change in posture of the video camera 1301. The signal processing circuit 1405 extracts an imaging region and converts it into a predetermined video signal.

または、図14(B)は、撮像データを用いて被写体像の移動を検知する構成を示している。現在の撮像データと、フレームメモリなどに格納された直前の撮像データとを動きベクトル検出器1407にて比較評価し、その比較データから撮像領域内での特徴点の移動方向および移動量を算出する。信号処理回路1406では、動きベクトルを相殺する方向および量だけ抽出領域を移動する。   Alternatively, FIG. 14B illustrates a configuration in which movement of a subject image is detected using imaging data. The current image data and the immediately preceding image data stored in the frame memory or the like are compared and evaluated by the motion vector detector 1407, and the moving direction and moving amount of the feature point in the imaging area are calculated from the comparison data. . In the signal processing circuit 1406, the extraction region is moved by the direction and amount that cancel the motion vector.

以上のような構成により、信号処理回路1405、1406から記録再生回路1408に伝送される映像信号はブレ成分が相殺されて安定した映像(図16)となり、記録メモリ1409に記録される。   With the above-described configuration, the video signal transmitted from the signal processing circuits 1405 and 1406 to the recording / reproducing circuit 1408 becomes a stable video (FIG. 16) with the blur component canceled, and is recorded in the recording memory 1409.

図17は、以上に説明したビデオカメラ1301の動作を説明するフローチャートである。   FIG. 17 is a flowchart for explaining the operation of the video camera 1301 described above.

図17(A)は撮影時の動作フローである。ユーザによる録画ボタンの操作に応じて、撮像素子から信号処理回路へ撮像データが取り込まれる(Step1701)。先述した手ブレ検知手段による手ブレ情報に応じて、撮像領域の抽出が行われる(Step1702)。結果、手ブレ成分が除去されて安定した映像が記録される。   FIG. 17A is an operation flow at the time of shooting. In accordance with the operation of the recording button by the user, imaging data is captured from the imaging device to the signal processing circuit (Step 1701). The imaging region is extracted in accordance with the camera shake information by the camera shake detection means described above (Step 1702). As a result, the camera shake component is removed and a stable video is recorded.

図17(B)は上記の記録された映像を再生する時の動作フローである。ユーザによる再生ボタンの操作に応じて、記録されている映像データが読み出される(Step1703)。記録された映像データは、既に手ブレ成分が除去された映像であるので、そのままモニタ装置で再生して鑑賞できる。   FIG. 17B is an operation flow when the recorded video is reproduced. The recorded video data is read in response to the user operating the playback button (Step 1703). Since the recorded video data is a video from which the camera shake component has already been removed, the recorded video data can be reproduced and viewed as it is on the monitor device.

さて、画像処理ICの高速化、画像生成アルゴリズムの改善などによって、撮像素子によって得た撮像データからリアルタイムで様々な画像が生成できるようになってきている。また、撮像素子の多画素化によって画像の高精彩化が実現されたため、画像の一部を拡大表示しても鑑賞画質を維持することができる。例えば、電子ズームや再生時ズームといった機能として商品化されている。   Now, various images can be generated in real time from image data obtained by an image sensor by increasing the speed of an image processing IC, improving an image generation algorithm, and the like. In addition, since the high-resolution image is realized by increasing the number of pixels of the image sensor, it is possible to maintain the viewing image quality even when a part of the image is enlarged. For example, it has been commercialized as a function such as electronic zoom and zoom during playback.

以上のように、十分に高精彩な画像を得ることができ、また、撮像データをリアルタイム処理または後処理することで所望の映像を得ることができるようになり、新たな形態の電子カメラが提案されている。一例として、魚眼レンズなどによる超広角画像を高精彩で撮影するカメラがある。得られた撮像データの一部を使って後処理により所望の画像を得るので、撮影画角を操作する必要が無く、従って変倍機構が不要であり、機器の小型化、低コスト化が期待できる。さらには、超広角画像でカメラ周囲の状況を一度に記録することができるので、被写体がカメラ周囲にありさえすれば撮影でき、再生時の操作によって見たい被写体像を拡大すれば良い。常に被写体にカメラを向けて構え、被写体の動きを注視して撮影していた従来に対し、撮影者の負担が減って利便性が向上する。   As described above, a sufficiently high-definition image can be obtained, and a desired image can be obtained by real-time processing or post-processing of imaging data, and a new form of electronic camera is proposed. Has been. As an example, there is a camera that captures a super wide-angle image by a fisheye lens or the like with high definition. Since a desired image is obtained by post-processing using a part of the obtained image data, there is no need to manipulate the shooting angle of view, and therefore no zooming mechanism is required, and miniaturization and cost reduction of the device are expected. it can. Furthermore, since the situation around the camera can be recorded at once with an ultra-wide-angle image, it is possible to shoot as long as the subject is around the camera, and it is only necessary to enlarge the subject image to be viewed by the operation during playback. Compared to the conventional case where the camera is always pointed at the subject and the subject's movement is watched, the burden on the photographer is reduced and convenience is improved.

従来のカメラより広角画像を撮影でき、後処理によって所望の画像を得るカメラ装置としては、例えば特許文献1、特許文献2を挙げる提案がある。   For example, Patent Document 1 and Patent Document 2 have been proposed as camera devices that can capture a wide-angle image from a conventional camera and obtain a desired image by post-processing.

特許文献1には、広角カメラを備えるテレビインターホンが開示されている。来訪者の画像をモニターテレビに表示させるに当たって、画面内での来訪者の表示位置を指定する。その後は、指定した位置に常に来訪者を表示するように、来訪者の動きに追従して表示範囲を変化させる。   Patent Document 1 discloses a television interphone provided with a wide-angle camera. When displaying the visitor's image on the monitor TV, the display position of the visitor on the screen is designated. Thereafter, the display range is changed following the movement of the visitor so that the visitor is always displayed at the designated position.

特許文献2には、魚眼またはその他の超広角カメラを備えるテレビカメラ装置が開示されている。マイクロフォンを備え、音源方向を判別し、音源方向を追尾し、音源方向の画面を抽出して映像信号を生成する。   Patent Document 2 discloses a television camera device including a fish-eye or other ultra-wide-angle camera. A microphone is provided, the sound source direction is determined, the sound source direction is tracked, and a screen of the sound source direction is extracted to generate a video signal.

いずれも、カメラの姿勢が固定された状態の中で、外部情報に応じて広角画像の中から表示する範囲を変化させるものである。   In either case, the display range of the wide-angle image is changed according to external information in a state where the camera posture is fixed.

特開平6−38214号公報Japanese Patent Laid-Open No. 6-38214 特開平11−331827号公報Japanese Patent Laid-Open No. 11-331827

さて、ビデオカメラのようなモバイル機器に超広角カメラを備えた場合、その撮影中のモニタ画像の表示方法には工夫が必要である。モバイル機器は小型軽量が求められており、従って、液晶ディスプレイ(LCD)など表示装置の大きさには制約がある。超広角カメラで撮影した画像全体は主被写体を含む非常に広い画角の画像であるので、小型LCDでは全体画像の中から所望の主被写体の様子を確認することが困難である。そのため、参考文献に挙げたように、広角画像の中から所定の範囲のみを切り出してモニタ表示することが考えられる。しかしながら、ビデオカメラのようなモバイル機器においては、機器の姿勢自体が常に変化し得ること、さらに先述の手ブレが発生するため、表示範囲を決定する条件を考慮しなければならない。先述した超広角カメラの特徴である、後処理によって所望の画像を得るため撮影中のカメラ姿勢に注意を払う必要が無い、という利便性を損なわないために、撮影中のモニタ画像も適切に生成しなければならない。   Now, when a mobile device such as a video camera is equipped with an ultra-wide-angle camera, it is necessary to devise a method for displaying a monitor image during photographing. Mobile devices are required to be small and light, and thus there are restrictions on the size of a display device such as a liquid crystal display (LCD). Since the entire image captured by the super wide-angle camera is an image having a very wide angle of view including the main subject, it is difficult to confirm the state of the desired main subject from the entire image on the small LCD. Therefore, as mentioned in the reference literature, it is conceivable to cut out only a predetermined range from the wide-angle image and display it on the monitor. However, in a mobile device such as a video camera, since the posture of the device itself can always change, and the above-described camera shake occurs, the conditions for determining the display range must be taken into consideration. Appropriately generate monitor images during shooting so as not to impair the convenience of paying attention to the camera posture during shooting in order to obtain a desired image by post-processing, which is a feature of the ultra-wide-angle camera described above. Must.

また、超広角画像を再生鑑賞する際には、全体画像の中から所望の被写体像を探して拡大し、さらに、全体画像内での被写体像の動きに追従させて表示範囲を移動することが必要である。モバイル機器のカメラで撮影した超広角画像においては、被写体自身の移動に加えてカメラ自身の姿勢変化や手ブレがあり、主被写体は全体画像の中で複雑な移動をする。再生時に被写体像を安定して鑑賞するために、工夫が必要である。   In addition, when reproducing and viewing an ultra-wide-angle image, a desired subject image can be searched and enlarged from the entire image, and the display range can be moved following the movement of the subject image in the entire image. is necessary. In an ultra-wide-angle image taken with a camera of a mobile device, there is a change in posture of the camera itself and camera shake in addition to the movement of the subject itself, and the main subject moves in a complex manner in the entire image. It is necessary to devise in order to stably view the subject image during reproduction.

以上のことを鑑み、本発明の目的は、超広角カメラの利便性を損なうことのない適切なモニタ画像を生成し、使い勝手の良い撮像装置を提供することにある。   In view of the above, an object of the present invention is to provide an easy-to-use imaging apparatus that generates an appropriate monitor image without impairing the convenience of an ultra-wide-angle camera.

また、記録した超広角画像の中から所望の被写体範囲を検索しやすくし、再生鑑賞時における利便性を向上することにある。   Another object of the present invention is to make it easier to search a desired subject range from recorded super-wide-angle images, and to improve convenience during playback viewing.

本発明の画像記録装置は、
超広角画像を撮影する撮像手段、前記撮像手段の姿勢変化を検出する検出手段、前記超広角画像の一部を切り出すモニタ画像切り出し手段、前記検出結果に応じて、前記モニタ画像切り出し位置ないし領域を変更する切り出し画像変更手段、該切り出し画像を表示する表示手段、を備える。
また、前記超広角画像を記録する画像記録手段を備える。
あるいは、撮像手段に含む光学素子の歪曲収差情報を記憶する記憶手段を備え、該歪曲収差情報に応じて前記超広角画像から生成した画像を記録する画像記録手段を備える。
また、前記検出情報を前記画像データに付加して記録する。
あるいは、前記画像切り出し位置ないし領域の情報を前記画像データに付加して記録する。
さらに、前記画像データに付加された読み出した前記情報に応じて、前記画像データ全体を加工し再生画像を生成する。そして該再生画像を表示する表示手段、ないし外部表示手段へ出力する出力手段、を備える。
または、読み出した前記情報に応じて、前記画像データから所定の範囲ないし領域を切り出して再生画像を生成する。そして該再生画像を表示する表示手段、ないし外部表示手段へ出力する出力手段を備える。
The image recording apparatus of the present invention comprises:
An imaging unit that captures a super-wide-angle image, a detection unit that detects a change in the attitude of the imaging unit, a monitor-image clipping unit that clips a part of the super-wide-angle image, and the monitor image clipping position or region according to the detection result A cut-out image changing unit for changing, and a display unit for displaying the cut-out image are provided.
In addition, an image recording means for recording the super wide-angle image is provided.
Alternatively, a storage unit that stores distortion information of an optical element included in the imaging unit is provided, and an image recording unit that records an image generated from the super-wide-angle image according to the distortion information.
The detection information is added to the image data and recorded.
Alternatively, the image cutout position or region information is added to the image data and recorded.
Further, the entire image data is processed according to the read information added to the image data to generate a reproduced image. Then, a display means for displaying the reproduced image or an output means for outputting to the external display means is provided.
Alternatively, a reproduction image is generated by cutting out a predetermined range or region from the image data according to the read information. Then, a display means for displaying the reproduced image or an output means for outputting to the external display means is provided.

さらには、撮像手段に含む光学素子の歪曲収差情報を記憶する記憶手段を備え、該歪曲収差情報と前記情報に応じて、前記画像データを加工し再生画像を生成する。   Furthermore, a storage unit that stores distortion information of an optical element included in the imaging unit is provided, and the image data is processed according to the distortion information and the information to generate a reproduced image.

以上説明したように、本発明の画像記録装置によれば、
撮像手段により超広角画像を撮像し、該撮像手段の姿勢変化を検出して、その検出結果に応じて、超広角画像の一部を位置ないし領域を変更して切り出して画像を生成し、表示手段に表示する。
As described above, according to the image recording apparatus of the present invention,
An ultra wide-angle image is captured by the imaging means, a change in the attitude of the imaging means is detected, and a part of the ultra-wide-angle image is changed in position or area according to the detection result, and an image is generated and displayed. Display on means.

さらに、前記超広角画像を記録する。または、記憶した撮像手段に含む光学素子の歪曲収差情報に応じて、前記超広角画像から生成した画像を記録する。   Further, the super wide-angle image is recorded. Alternatively, an image generated from the super-wide-angle image is recorded according to the distortion information of the optical element included in the stored imaging means.

また、前記撮像手段の姿勢変化情報を画像データに付加して記録する。あるいは、前記撮像手段の姿勢変化情報により変更された前記画像切り出し位置ないし領域の情報を、画像データに付加して記録する。   Further, posture change information of the image pickup means is added to the image data and recorded. Alternatively, the information of the image cutout position or region changed by the posture change information of the imaging unit is added to the image data and recorded.

さらに、画像データに付加された前記情報を読み出し、該情報に応じて前記画像データ全体を加工し再生画像を生成する。または、記録された画像データから所定の範囲ないし領域を切り出して再生画像を生成する。生成した再生画像は、表示手段に表示するか、あるいは外部表示手段へ出力する。さらには、撮像手段に含む光学素子の歪曲収差情報を記憶しており、該歪曲収差情報と前記情報に応じて再生画像を生成する。   Further, the information added to the image data is read, and the entire image data is processed according to the information to generate a reproduced image. Alternatively, a reproduction image is generated by cutting out a predetermined range or region from the recorded image data. The generated reproduced image is displayed on the display means or output to the external display means. Further, distortion information of an optical element included in the imaging unit is stored, and a reproduced image is generated according to the distortion aberration information and the information.

第一の実施形態である、魚眼レンズを備えたビデオカメラの外観図である。It is an external view of the video camera provided with the fisheye lens which is 1st embodiment. 第一の実施形態のビデオカメラを装着した図である。It is the figure which equipped the video camera of 1st embodiment. 第一の実施形態のビデオカメラのブロック図である。It is a block diagram of the video camera of a first embodiment. 第一の実施形態のビデオカメラで撮影できる全体画像を表す図である。It is a figure showing the whole picture which can be photoed with the video camera of a first embodiment. 第一の実施形態のビデオカメラにおけるモニタ画像領域の移動の様子を表す。The state of the movement of the monitor image area in the video camera of the first embodiment is shown. 第一の実施形態のビデオカメラの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the video camera of 1st embodiment. 第二の実施形態である、全方位カメラを備えたビデオカメラの外観図である。It is an external view of the video camera provided with the omnidirectional camera which is 2nd embodiment. 第二の実施形態のビデオカメラのブロック図である。It is a block diagram of the video camera of a second embodiment. 第二の実施形態のビデオカメラで撮影できる全方位画像を表す図である。It is a figure showing the omnidirectional image which can be image | photographed with the video camera of 2nd embodiment. 第二の実施形態のビデオカメラにおけるモニタ画像領域の移動の様子を表す。The state of the movement of the monitor image area in the video camera of the second embodiment is shown. 第二の実施形態のビデオカメラにおける再生画像領域の移動の様子を表す。The state of the movement of the reproduction | regeneration image area | region in the video camera of 2nd embodiment is represented. 第二の実施形態のビデオカメラの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the video camera of 2nd embodiment. 従来のビデオカメラでの撮影時の様子を表す図である。It is a figure showing the mode at the time of imaging | photography with the conventional video camera. 従来のビデオカメラにおける電子式手ブレ補正機能を説明するブロック図である。It is a block diagram explaining the electronic camera-shake correction function in the conventional video camera. 従来のビデオカメラにおける撮像素子上の撮像領域を表す図である。It is a figure showing the imaging area on the image pick-up element in the conventional video camera. 従来のビデオカメラにおける手ブレ補正が適用された画像の例である。It is an example of the image to which the camera shake correction in the conventional video camera was applied. 従来のビデオカメラの手ブレ補正機能に関するフローチャートである。It is a flowchart regarding the camera shake correction function of a conventional video camera.

以下、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described.

実施例1では、魚眼レンズを用いた超広角カメラにおいて、撮影中のモニタ画像の生成方法、および再生画像の生成方法について説明する。   In the first embodiment, a method for generating a monitor image during shooting and a method for generating a reproduction image in an ultra-wide-angle camera using a fisheye lens will be described.

実施例2では、ミラーを用いてカメラの全周囲画像を撮影可能なカメラ(全方位カメラ)において、撮影中のモニタ画像の生成方法、および再生画像の生成方法について説明する。   In the second embodiment, a method for generating a monitor image during shooting and a method for generating a reproduction image in a camera (omnidirectional camera) capable of shooting an omnidirectional image of the camera using a mirror will be described.

[実施例1]
図1は、本実施形態におけるビデオカメラ101の外観を表し、図2は本ビデオカメラ101の使用時の様子を表す。図3は本ビデオカメラ101の構成を表すブロック図である。
[Example 1]
FIG. 1 shows the appearance of the video camera 101 according to the present embodiment, and FIG. 2 shows a state when the video camera 101 is used. FIG. 3 is a block diagram showing the configuration of the video camera 101.

本ビデオカメラ101は、魚眼レンズ301を用いた略180°の超広角画像を撮影可能なビデオカメラであり、カメラ部102は記録部103から分離され伝送ケーブル104で接続している。また、図2のように、ヘッドバンド105によりカメラ部102を撮影者の頭部に装着して使用する。先述の通り、超広角カメラは撮影方向や画角を意識する必要が少ない。そのため、手で持って構えずとも頭部に装着しておけば、撮影者が注目した被写体およびその周囲の状況を含む、撮影者の顔正面方向の略180°の範囲全体を撮影することができる。   The video camera 101 is a video camera that can capture a super-wide-angle image of approximately 180 ° using a fisheye lens 301, and the camera unit 102 is separated from the recording unit 103 and connected by a transmission cable 104. Further, as shown in FIG. 2, the camera unit 102 is mounted on the photographer's head by the headband 105 and used. As described above, the ultra-wide-angle camera has little need to be aware of the shooting direction and the angle of view. Therefore, if it is worn on the head without being held by hand, the entire range of approximately 180 ° in the front direction of the face of the photographer can be photographed, including the subject noted by the photographer and the surrounding situation. it can.

記録部103は、表示装置としてLCDモニタ302を備えている。カメラ部102で撮影された超広角の全体画像から、後述するモニタ画像をLCDモニタ302に表示し、被写体像を確認できる。また、記録部103には本ビデオカメラ101の電源をON/OFFする電源スイッチ303と、録画開始/停止を操作する録画ボタン304、記録されている画像を再生する再生ボタン305、後述するモニタ画像の切り出し範囲を操作する方向レバー306を備えている。   The recording unit 103 includes an LCD monitor 302 as a display device. A monitor image, which will be described later, is displayed on the LCD monitor 302 from the entire super wide-angle image captured by the camera unit 102, and the subject image can be confirmed. The recording unit 103 includes a power switch 303 for turning on / off the power of the video camera 101, a recording button 304 for operating recording start / stop, a playback button 305 for reproducing recorded images, and a monitor image to be described later. The direction lever 306 for operating the cutout range is provided.

図4は、本ビデオカメラ101で撮影できる画像と、その後処理について説明する模式図である。   FIG. 4 is a schematic diagram for explaining an image that can be captured by the video camera 101 and its subsequent processing.

図5は、全体画像の中でのモニタ画像の切り出し範囲を表している。   FIG. 5 shows the cutout range of the monitor image in the entire image.

さらに図6は、本ビデオカメラ101の動作を説明するフローチャートである。   FIG. 6 is a flowchart for explaining the operation of the video camera 101.

以上を参照して、本ビデオカメラ101の動作を説明する。   The operation of the video camera 101 will be described with reference to the above.

図4は本ビデオカメラ101で撮影できる全体画像を模式的に表す。魚眼レンズでは被写体像を球面として捉えるため、図4(A)のように周辺に向かうほど実像が歪曲した画像が得られる。なお、図4(A)に示す破線は、実像の垂直線および水平線がどのように投射されるかを模式的に表している。こうして得られた像が撮像素子307に投射され、信号処理回路308を経て記録部103に伝送する。記録部103に備えた画像処理部309にて、記憶されている魚眼レンズ301の歪曲収差情報を参照して演算を行い、図4(B)に示すような歪曲を補正し矩形に整形した全体画像401を得る。例えば、図4(A)に示す破線丸402の領域は、撮影画角の中心にあり歪曲が少ないので、歪みの補正量は少ない。一方、破線丸403の領域は撮影画角の周辺にあって歪曲が強く、補正後の全体画像401においては破線丸404のように周辺に向かって伸長した画像に補正される。   FIG. 4 schematically shows an entire image that can be taken by the video camera 101. Since the fisheye lens captures the subject image as a spherical surface, an image in which the real image is distorted toward the periphery as shown in FIG. 4A is obtained. Note that the broken lines shown in FIG. 4A schematically represent how the vertical and horizontal lines of the real image are projected. The image thus obtained is projected onto the image sensor 307 and transmitted to the recording unit 103 via the signal processing circuit 308. The image processing unit 309 provided in the recording unit 103 performs an operation with reference to the stored distortion information of the fisheye lens 301, corrects the distortion as shown in FIG. 401 is obtained. For example, the area of the broken-line circle 402 shown in FIG. 4A is at the center of the shooting angle of view and has little distortion, so the amount of distortion correction is small. On the other hand, the area of the broken-line circle 403 is around the shooting angle of view and is strongly distorted, and the corrected whole image 401 is corrected to an image expanded toward the periphery as indicated by a broken-line circle 404.

歪曲補正された全体画像401は、録画ボタン304の操作に応じ、メモリ制御部310を介して記録媒体たるメモリーカード311に記録する。また、モニタ画像処理部312にて、歪曲補正された全体画像401からLCDモニタ302に表示するモニタ画像を切り出す。モニタ画像には、キャラクタジェネレータ313にて生成されたキャラクタ情報(ビデオカメラの動作モード情報など)を重畳し、LCDモニタ302に表示する。   The distortion-corrected whole image 401 is recorded on a memory card 311 as a recording medium via the memory control unit 310 in accordance with an operation of the recording button 304. Further, the monitor image processing unit 312 cuts out a monitor image to be displayed on the LCD monitor 302 from the entire image 401 subjected to distortion correction. Character information (such as operation mode information of the video camera) generated by the character generator 313 is superimposed on the monitor image and displayed on the LCD monitor 302.

さて、本ビデオカメラ101は、カメラ部102の姿勢を検知するジャイロセンサ314、315を搭載している。ジャイロセンサ314、315は、それぞれカメラ部102のヨー角とピッチ角の変化を検出し、その検出結果を演算器316で演算し、カメラ部102の姿勢変化情報として記録部103に備える制御部317に伝送する。カメラ部102から伝送される姿勢変化情報は、所定間隔で検出された差分情報である。また、姿勢変化情報の伝送は電源スイッチ303を操作して電源がONとなった時点から開始される(図6、Step601)。制御部317にて該姿勢変化情報を積分することで、電源ONの時点を基準として、カメラ部102の姿勢が現在どうなっているかを知ることができる。   The video camera 101 includes gyro sensors 314 and 315 that detect the posture of the camera unit 102. The gyro sensors 314 and 315 respectively detect changes in the yaw angle and pitch angle of the camera unit 102, calculate the detection results by the calculator 316, and a control unit 317 provided in the recording unit 103 as posture change information of the camera unit 102. Transmit to. The posture change information transmitted from the camera unit 102 is difference information detected at a predetermined interval. The transmission of the posture change information is started from the time when the power is turned on by operating the power switch 303 (FIG. 6, Step 601). By integrating the posture change information in the control unit 317, it is possible to know the current posture of the camera unit 102 with reference to the time when the power is turned on.

なお、カメラ部102の動き成分は、撮影者の頭部の動きなどによる振幅の大きい比較的ゆっくりとした低周波成分と、背景技術にて説明した手ブレのような、振幅の小さい、速い振動による高周波成分とがある。本実施形態においては、後に説明するモニタ画像の切り出し位置の算出を簡易にするため、演算器316において、検出されたカメラ部102の姿勢変化情報から前記高周波成分を除去する。従って、カメラ部102の姿勢変化情報のうち低周波成分、すなわち、撮影者が頭部の向きを変えた時などの比較的大きな動き情報のみが、制御部317へ伝送される。この高周波成分と低周波成分との切り分けは、カメラ部102への振動伝達特性などによって適切に定めれば良い。例えば、カメラ部102をヘッドバンド105にゴムなどのダンパー部材を介して取り付ける場合と、リジットに取り付ける場合とでは、カメラ部102へ伝達する振動特性が異なる。   The movement component of the camera unit 102 includes a relatively slow low-frequency component having a large amplitude due to the movement of the photographer's head and the like, and a fast vibration with a small amplitude such as the camera shake described in the background art. There are high frequency components. In the present embodiment, the calculator 316 removes the high-frequency component from the detected posture change information of the camera unit 102 in order to simplify the calculation of the cutout position of the monitor image described later. Accordingly, only the low frequency component of the posture change information of the camera unit 102, that is, relatively large movement information such as when the photographer changes the direction of the head, is transmitted to the control unit 317. The separation between the high frequency component and the low frequency component may be appropriately determined according to the vibration transmission characteristic to the camera unit 102 or the like. For example, the vibration characteristics transmitted to the camera unit 102 differ between when the camera unit 102 is attached to the headband 105 via a damper member such as rubber and when attached to the rigid.

以上の構成により、カメラ部102の姿勢がどう変化したかを監視する。カメラ部102の姿勢変化に対応して、制御部317にて、カメラ部102の姿勢変化を打ち消すようにモニタ画像の切り出し位置の移動方向と移動量を算出し、モニタ画像処理部312へモニタ画像の切り出し位置座標を送出する。先述の通り、全体画像401は魚眼レンズ301で得られた周辺歪曲の強い画像を補正して得たものであるから、カメラ部102の移動量と、全体画像401の中の被写体像の移動量とは一定の関係には無い。そのため、魚眼レンズ301の歪曲収差情報を参照した演算によって、カメラ部102の移動量を歪曲補正された全体画像401の中での移動量に変換する。   With the above configuration, how the posture of the camera unit 102 changes is monitored. Corresponding to the posture change of the camera unit 102, the control unit 317 calculates the moving direction and moving amount of the cutout position of the monitor image so as to cancel the posture change of the camera unit 102, and sends the monitor image to the monitor image processing unit 312. Sends out the cut-out position coordinates. As described above, since the entire image 401 is obtained by correcting an image with strong peripheral distortion obtained by the fisheye lens 301, the movement amount of the camera unit 102, the movement amount of the subject image in the entire image 401, and the like. Are not in a fixed relationship. For this reason, the amount of movement of the camera unit 102 is converted into the amount of movement in the entire image 401 subjected to distortion correction, by calculation referring to the distortion aberration information of the fisheye lens 301.

図5は、全体画像401の中でのモニタ画像の移動の様子を表している。図5(A)にて、全体画像401の中の左下のある領域501がモニタ画像として切り出されている。この時、カメラ部102を装着した撮影者が左下方向へ顔を向けたとすると、当初に領域501中にあった被写体像は、図5(B)に示すように全体画像401の右上の領域502に移動することとなる。カメラ部102の光軸方向が左下方向へ姿勢変化したことを検出し、全体画像401から切り出すモニタ画像の位置は、カメラ部102の移動量を全体画像401中の移動量に変換した量で、カメラ部102の移動方向とは逆の方向へ移動する。つまり、領域501から領域502へ、モニタ画像として切り出す範囲を変更する。これによりカメラ部102の姿勢変化を打ち消して、カメラ部102の姿勢に因らず、常に一定の方角、一定の範囲の被写体像をモニタ画像として切り出すことができる。   FIG. 5 shows how the monitor image moves in the entire image 401. In FIG. 5A, a lower left region 501 in the entire image 401 is cut out as a monitor image. At this time, if the photographer wearing the camera unit 102 turns his face in the lower left direction, the subject image originally in the area 501 is the upper right area 502 of the whole image 401 as shown in FIG. Will be moved to. Detecting that the optical axis direction of the camera unit 102 has changed to the lower left direction, and the position of the monitor image cut out from the entire image 401 is an amount obtained by converting the movement amount of the camera unit 102 into the movement amount in the entire image 401. The camera unit 102 moves in the opposite direction to the moving direction. That is, a range to be cut out as a monitor image is changed from the area 501 to the area 502. Accordingly, the change in the posture of the camera unit 102 can be canceled, and a subject image in a certain direction and a certain range can always be cut out as a monitor image regardless of the posture of the camera unit 102.

さて、初期におけるモニタ画像の切り出し範囲は、撮影者の操作に因って設定する(図6、Step602)。操作者がLCDモニタ302を見ながら方向レバー306を操作すると、歪曲補正された全体画像401から切り出し範囲を順次移動し、従ってLCDモニタ302上では画像がスクロールしていく。他の操作ボタンによって拡大縮小を行っても良いし、アスペクト比を変更しても良い。   Now, the initial cutout range of the monitor image is set according to the operation of the photographer (FIG. 6, Step 602). When the operator operates the direction lever 306 while looking at the LCD monitor 302, the cutout range is sequentially moved from the entire image 401 corrected for distortion, and thus the image is scrolled on the LCD monitor 302. Enlargement / reduction may be performed by other operation buttons, or the aspect ratio may be changed.

撮影者が録画ボタン304を押す(図6、Step603)と、制御部317は、歪曲補正された全体画像401をメモリ制御部310を介してメモリーカード311へ記録する。   When the photographer presses the recording button 304 (FIG. 6, Step 603), the control unit 317 records the distortion-corrected whole image 401 on the memory card 311 via the memory control unit 310.

撮影中に撮影者が頭部を動かしても、先述の通り、カメラ部102の姿勢変化として撮影者の頭部の動きを監視し、モニタ画像の切り出し位置を順次変更していく。従って、LCDモニタ302上には、撮影者が設定した初期切り出し範囲と同じ方角の画像が、同じ拡大率やアスペクト比で表示されることととなる(図6、Step604)。   Even if the photographer moves his / her head during photographing, as described above, the movement of the photographer's head is monitored as the posture of the camera unit 102, and the cut-out position of the monitor image is sequentially changed. Therefore, an image in the same direction as the initial cutout range set by the photographer is displayed on the LCD monitor 302 with the same magnification and aspect ratio (FIG. 6, Step 604).

また、録画中は、カメラ部102の姿勢変化情報を、画像のタイムコードと関連付けて画像データに付与する。   Further, during recording, the posture change information of the camera unit 102 is added to the image data in association with the time code of the image.

さて、全体画像401からモニタ画像を切り出す領域は、先述の通り、カメラ部102の姿勢変化から高周波成分を除いた情報を元に算出されている。従って、カメラ部102の姿勢変化の内、高周波成分の揺れが残った状態のモニタ画像となる。そこで、全体画像401から切り出されたモニタ画像を、動きベクトル検出器318にてフレームメモリ319に記憶された直前のモニタ画像と比較評価し、動きベクトルを検出してモニタ画像処理部312へフィードバックする。動きベクトルを元に、モニタ画像処理部312はモニタ画像切り出し範囲を微調整して高周波成分の画像揺れを相殺除去し、安定した画像としてLCDモニタ302に表示を行う(図6、Step605)。   Now, as described above, the region where the monitor image is cut out from the entire image 401 is calculated based on information obtained by removing high-frequency components from the posture change of the camera unit 102. Therefore, the monitor image is a state in which the vibration of the high frequency component remains in the posture change of the camera unit 102. Therefore, the monitor image cut out from the entire image 401 is compared and evaluated with the previous monitor image stored in the frame memory 319 by the motion vector detector 318, and the motion vector is detected and fed back to the monitor image processing unit 312. . Based on the motion vector, the monitor image processing unit 312 finely adjusts the monitor image cutout range to cancel out the high-frequency component image fluctuation, and displays it on the LCD monitor 302 as a stable image (Step 605 in FIG. 6).

次に、メモリーカード311に記録された画像の再生について説明する。   Next, reproduction of images recorded on the memory card 311 will be described.

メモリーカード311には、歪曲補正された全体画像401が記録されている。再生ボタン305の操作によって、メモリ制御部310により全体画像401が読み出され(図6(B)、Step606)、モニタ画像処理部312へ送られる。鑑賞者は、方向レバー306を操作して切り出し範囲を移動し、所望の範囲をLCDモニタ302に表示させて鑑賞する(図6(B)、Step607)。もちろん、他の操作に応じて、拡大縮小やアスペクト比の変更、さらには解像度の変更を行ってもよい。   On the memory card 311, an entire image 401 whose distortion has been corrected is recorded. When the playback button 305 is operated, the entire image 401 is read by the memory control unit 310 (FIG. 6B, Step 606) and sent to the monitor image processing unit 312. The viewer moves the cutout range by operating the direction lever 306 and displays the desired range on the LCD monitor 302 for viewing (FIG. 6B, Step 607). Of course, according to other operations, enlargement / reduction, aspect ratio change, and resolution change may be performed.

さて、記録されている全体画像401は、撮影時のカメラ部102の動きによる被写体像の動きや揺れが除去されていないため、撮影時のカメラ部102の動きに対応して、所望の被写体像が全体画像401の中で移動していく。   Since the recorded whole image 401 does not remove the movement and shaking of the subject image due to the movement of the camera unit 102 at the time of shooting, the desired subject image corresponding to the movement of the camera unit 102 at the time of shooting. Moves in the entire image 401.

制御部317は、画像データに付与されたカメラ部102の姿勢変化情報を参照し、鑑賞者が設定した所望の範囲を基準として、撮影時のカメラ部102の姿勢変化によって生ずる被写体像の全体画像中の移動を打ち消すように、再生切り出し範囲を順次変化させていく(図6(B)、Step608)。この様子は図5を流用して説明できる。図5(A)に示す領域501が鑑賞者の所望の再生範囲であったとき、撮影時にカメラ部102の光軸方向が左下方向へ姿勢変化したことを示すカメラ部姿勢情報により、その動きを打ち消すように、領域501から領域502へ再生切り出し範囲を変更する。   The control unit 317 refers to the posture change information of the camera unit 102 given to the image data, and uses the desired range set by the viewer as a reference, and the entire image of the subject image generated by the change in the posture of the camera unit 102 at the time of shooting. The reproduction cutout range is sequentially changed so as to cancel the movement in the middle (FIG. 6B, Step 608). This can be explained with reference to FIG. When the area 501 shown in FIG. 5A is the viewer's desired reproduction range, the movement is determined by the camera unit attitude information indicating that the optical axis direction of the camera unit 102 has changed to the lower left direction at the time of shooting. The reproduction cutout range is changed from the area 501 to the area 502 so as to cancel.

さらにカメラ部姿勢情報は、演算器316において、カメラ部102の姿勢変化情報から高周波成分を除去された情報であるので、高周波成分の画像揺れが残った再生画像となっている。そこで、先述の撮影時のモニタ画像と同様、動きベクトル検出器318を介して動きベクトルを検出する。動きベクトルを元に、モニタ画像処理部312にて再生切り出し範囲を微調整し、高周波成分の画像揺れを相殺除去して安定した画像をLCDモニタ302に表示する(図6(B)、Step609)。   Furthermore, since the camera unit posture information is information obtained by removing the high frequency component from the posture change information of the camera unit 102 in the calculator 316, it is a reproduced image in which the image shake of the high frequency component remains. Therefore, the motion vector is detected via the motion vector detector 318 as in the monitor image at the time of shooting described above. Based on the motion vector, the monitor image processing unit 312 finely adjusts the reproduction cutout range, cancels out the high-frequency component image fluctuation, and displays a stable image on the LCD monitor 302 (FIG. 6B, Step 609). .

再生時において、ユーザの意向により、カメラ部102の姿勢変化情報による再生画像の切り出し範囲移動を行わないことも可能である。その場合でも、モニタ画像処理部312において高周波成分の画像揺れを除去できる構成となっている。また、全体画像は周辺歪曲が強い画像を補正して得るものであるので、撮影時の手ブレによる画像揺れは画像を切り出す位置によって程度が異なる。撮影時のモニタ画像切り出し、および再生時の再生画像切り出しに共通であるが、ジャイロセンサ314、315の検出結果を用いて高周波の画像揺れの除去を行っても良い。しかしながら、画像切り出し位置に応じて、ジャイロ出力を元に複雑な変換演算を行う必要が生じる。そのため、ジャイロセンサ314、315はカメラ部102の大きな動きを検出する手段として用い、ブレなどの高周波の画像揺れに対しては、切り出し画像単位の処理により、当該画像のブレ量に応じて補正を行うものである。   At the time of reproduction, it is possible not to move the cutout range of the reproduced image based on the posture change information of the camera unit 102 according to the intention of the user. Even in such a case, the monitor image processing unit 312 is configured to remove high-frequency component image fluctuations. Further, since the entire image is obtained by correcting an image with strong peripheral distortion, the degree of image shake due to camera shake during shooting varies depending on the position where the image is cut out. Although common to the cutout of the monitor image at the time of shooting and the cutout of the reproduced image at the time of reproduction, high-frequency image shaking may be removed using the detection results of the gyro sensors 314 and 315. However, it is necessary to perform a complex conversion operation based on the gyro output according to the image cutout position. Therefore, the gyro sensors 314 and 315 are used as means for detecting a large movement of the camera unit 102, and for high-frequency image fluctuations such as blurring, correction is performed according to the amount of blurring of the image by processing in units of cutout images. Is what you do.

以上に説明したビデオカメラ101の構成によって、超広角画像の一部分をモニタ画像として切り出して表示するにあたり、不意にカメラ部102が動いても、所望のモニタ範囲を見失うことなく追従させることができる。例えば、本ビデオカメラ101において言えば、撮影者が記録部103で何かの操作を行う時や、足元に注意を向けた時など、主被写体方向から顔を背けてしまう状況が考えられる。そのような場合でも、LCDモニタ302上のモニタ画像は、常に初期に設定された方角の画像を表示し続ける。モニタ画像を見れば、設定した方角の被写体の様子を確認することができ、安心して撮影を続けることができる。   With the configuration of the video camera 101 described above, when a part of the super-wide-angle image is cut out and displayed as a monitor image, even if the camera unit 102 moves unexpectedly, the desired monitor range can be followed. For example, in the present video camera 101, there may be a situation in which the photographer turns away from the main subject direction, for example, when the photographer performs an operation on the recording unit 103, or when attention is directed to the foot. Even in such a case, the monitor image on the LCD monitor 302 always displays the image in the direction set in the initial state. By looking at the monitor image, it is possible to confirm the state of the subject in the set direction, and to continue shooting with peace of mind.

また、再生時においては、超広角画像の一部分を切り出して再生鑑賞するにあたり、鑑賞者による操作を要せず安定して所望の領域の画像を切り出すことができ、利便性が高まる。   Further, during playback, when a part of a super-wide-angle image is cut out for playback and viewing, an image of a desired area can be stably cut out without requiring an operation by the viewer, and convenience is improved.

[実施例2]
図7は、本実施形態におけるビデオカメラ701の外観を表す。
[Example 2]
FIG. 7 shows the appearance of the video camera 701 in the present embodiment.

図8は、同ビデオカメラ701の構成を示すブロック図である。   FIG. 8 is a block diagram showing the configuration of the video camera 701.

本ビデオカメラ701は、略円錐状で所定の曲率を持ったミラー801を撮像素子802に対向して配置し、本ビデオカメラ701を中心として360°全周囲の画像(以降、全方位画像と記す。)を撮影できるように構成したものである。   In this video camera 701, a mirror 801 having a substantially conical shape and having a predetermined curvature is arranged to face the image sensor 802, and an image around 360 ° around the video camera 701 (hereinafter referred to as an omnidirectional image). .) Can be photographed.

また、表示装置としてLCDモニタ803を備えている。LCDモニタ803には、後述するように全方位画像から一部分を切り出してモニタ表示する。さらに、本ビデオカメラ701の電源をON/OFFする電源スイッチ804と、録画開始/停止を操作する録画ボタン805、記録されている画像を再生する再生ボタン806、後述するモニタ画像の切り出し範囲を操作する方向レバー807を備えている。   In addition, an LCD monitor 803 is provided as a display device. A part of the omnidirectional image is cut out and displayed on the LCD monitor 803 as will be described later. Further, a power switch 804 for turning on / off the power of the video camera 701, a recording button 805 for operating recording start / stop, a playback button 806 for reproducing recorded images, and a monitor image clipping range described later are operated. A direction lever 807 is provided.

図9は、本ビデオカメラ701で撮影できる全方位画像を模式的に表す。図9(A)は、撮像素子802に投射される全方位画像910を表している。撮像素子802には、自己位置を中心とした全方位の画像がドーナツ状に繋がった画像として投射される。ミラー801表面の曲率によって実像に対する垂直方向の画角が決定されると共に、撮像素子802には実像が歪みを持って投射される。図9(A)に示す破線は、実像の垂直線および水平線がどのように投射されるかを模式的に表している。実像の垂直線は半径方向に放射状に投射され、同じく水平線はミラーの曲率に応じて粗密の変化した同心円状に投射される。このような画像を一般のモニタ装置で再生するためには、図9(B)に示すような、歪を補正した矩形の平面画像902に展開することが知られている。図9(A)に示す全方位画像は、自己位置を中心とした全周囲の画像がドーナツ状に繋がって形成された画像である。従って、矩形の画像に展開するにはどこかの方位で切断する必要がある。ここでは、矢印901で示した方位を切断部として全方位画像910を切断し矩形画像に補正展開すると、図9(B)に示すような平面画像902を得る。図9(A)において画像の中心にある破線丸903の領域は、図9(B)において画像の底辺全幅に渡る矩形領域904に展開され、また、破線丸領域905、906はそれぞれ歪を補正して変形した領域907、908、909に展開される。特に、切断部(矢印901で示す方位)を跨ぐ領域906は、補正展開された画像の両端に分離された領域908、909となる。   FIG. 9 schematically shows an omnidirectional image that can be taken by the video camera 701. FIG. 9A shows an omnidirectional image 910 projected on the image sensor 802. The image sensor 802 projects an omnidirectional image centered on its own position as an image connected in a donut shape. The angle of view in the vertical direction with respect to the real image is determined by the curvature of the surface of the mirror 801, and the real image is projected on the image sensor 802 with distortion. The broken line shown in FIG. 9A schematically represents how the vertical and horizontal lines of the real image are projected. The vertical lines of the real image are projected radially in the radial direction, and the horizontal lines are projected in a concentric manner in which the density changes according to the curvature of the mirror. In order to reproduce such an image on a general monitor device, it is known to develop it into a rectangular flat image 902 with corrected distortion as shown in FIG. 9B. The omnidirectional image shown in FIG. 9A is an image formed by connecting all the surrounding images around the self-position in a donut shape. Therefore, in order to develop into a rectangular image, it is necessary to cut in some direction. Here, when the omnidirectional image 910 is cut using the azimuth indicated by the arrow 901 as a cutting portion and corrected and developed into a rectangular image, a planar image 902 as shown in FIG. 9B is obtained. In FIG. 9A, the area of the broken line circle 903 at the center of the image is expanded into a rectangular area 904 over the entire width of the bottom of the image in FIG. 9B, and the broken line circle areas 905 and 906 each correct distortion. Thus, the deformed areas 907, 908, and 909 are developed. In particular, a region 906 straddling the cut portion (the direction indicated by the arrow 901) is regions 908 and 909 separated at both ends of the corrected and developed image.

図12は、本ビデオカメラ701の動作を説明するフローチャートである。   FIG. 12 is a flowchart for explaining the operation of the video camera 701.

図8、および図12を参照して、本ビデオカメラ701の動作を説明する。   The operation of the video camera 701 will be described with reference to FIGS.

本ビデオカメラ701は、撮像素子802に投射された図9(A)に示すドーナツ状の全方位画像を、信号処理回路808を経てメモリ制御部809に送り、撮影者の録画ボタン805の操作に応じて、メモリーカード810に記録する。   The video camera 701 sends the donut-shaped omnidirectional image shown in FIG. 9A projected on the image sensor 802 to the memory control unit 809 via the signal processing circuit 808, and operates the recording button 805 of the photographer. In response, the data is recorded on the memory card 810.

本ビデオカメラ701は、本機の姿勢変化を検出するジャイロセンサ811、812、813を搭載している。ジャイロセンサ811、812、813は、それぞれ本ビデオカメラ701のヨー角とピッチ角、さらにミラー801中心軸周りのローテーション角の変化を検出し、その検出結果を演算器814で演算し、姿勢変化情報を制御部815に伝送する。姿勢変化情報は所定間隔で検出された差分情報であり、姿勢変化情報の伝送は電源スイッチ804を操作して本機が電源がONとなった時点から開始される(図12、Step1201)。制御部815にて該姿勢変化情報を積分することで、電源ONの時点を基準として、本ビデオカメラ701の姿勢が現在どうなっているかを知ることができる。   This video camera 701 is equipped with gyro sensors 811, 812, 813 for detecting a change in posture of this apparatus. The gyro sensors 811, 812, 813 detect changes in the yaw angle and pitch angle of the video camera 701 and the rotation angle around the center axis of the mirror 801, respectively, and the detection results are calculated by the calculator 814 to obtain posture change information. Is transmitted to the control unit 815. The posture change information is difference information detected at a predetermined interval, and transmission of the posture change information is started when the power source switch 804 is operated to turn on the power of the apparatus (FIG. 12, Step 1201). By integrating the posture change information in the control unit 815, it is possible to know the current posture of the video camera 701 with reference to the time when the power is turned on.

なお、本実施形態においても実施例1と同様に、演算器814において、検出された本ビデオカメラ701の姿勢変化情報から前記高周波成分を除去する。従って、ビデオカメラ701の動きの内、比較的大きな動きに起因する低周波成分が制御部815へ伝送される。   In this embodiment as well, as in the first embodiment, the calculator 814 removes the high frequency component from the detected posture change information of the video camera 701. Accordingly, a low-frequency component resulting from a relatively large movement among the movements of the video camera 701 is transmitted to the control unit 815.

さらに、撮影者が録画ボタン805を操作することによって、全方位画像の記録が開始される(図12、Step1203)。   Furthermore, when the photographer operates the recording button 805, the recording of the omnidirectional image is started (FIG. 12, Step 1203).

さて、本ビデオカメラ701は自己の姿勢がどう変化したかを監視し、全方位画像の中からLCDモニタ803に表示するモニタ画像を抽出する位置を制御する(図12、Step1204)。以降に、モニタ画像を抽出する位置の制御について説明する。   Now, the video camera 701 monitors how the posture of the video camera 701 has changed, and controls the position where the monitor image to be displayed on the LCD monitor 803 is extracted from the omnidirectional image (FIG. 12, Step 1204). Hereinafter, the control of the position where the monitor image is extracted will be described.

図10は、本ビデオカメラ701のモニタ画像領域の切り出しの様子を示している。図10(A−1)に示すように、全方位画像において、人物の顔近辺1001がモニタ位置に指定されているとする。モニタ画像のために抽出した領域が全方位画像のどこに位置するかの情報として、方位(矢印1004が示す位置)と切り出し範囲中心の半径方向の位置を、画像のタイムコードと関連付けて画像データに付与する(図12、Step1205)。   FIG. 10 shows how the monitor image area of the video camera 701 is cut out. As shown in FIG. 10A-1, it is assumed that a person's face vicinity 1001 is designated as the monitor position in the omnidirectional image. As information on where the region extracted for the monitor image is located in the omnidirectional image, the azimuth (the position indicated by the arrow 1004) and the radial position of the center of the cutout range are associated with the time code of the image in the image data. It gives (FIG. 12, Step 1205).

さてモニタ画像処理部816は、記憶されているミラー曲率情報を参照し、LCDモニタ803のアスペクト比に対応して適切な画像サイズに歪補正できる領域を算出し、図10(A−2)に示す略扇状の領域1002の画像を抽出する。抽出された略扇状の領域1002の画像について歪補正を行って、図10(A−3)に示す矩形のモニタ画像1003を得る(図12、Step1206)。先述の様に、全方位画像は粗密が変化した画像であるので、同じ画像サイズに歪補正する場合でも、抽出する位置によって領域の形状は変化する。   Now, the monitor image processing unit 816 refers to the stored mirror curvature information, calculates an area in which distortion can be corrected to an appropriate image size corresponding to the aspect ratio of the LCD monitor 803, and FIG. An image of a substantially fan-shaped region 1002 shown is extracted. Distortion correction is performed on the extracted image of the substantially fan-shaped region 1002 to obtain a rectangular monitor image 1003 shown in FIG. 10A-3 (FIG. 12, Step 1206). As described above, since the omnidirectional image is an image in which the density is changed, the shape of the region changes depending on the extraction position even when the distortion is corrected to the same image size.

モニタ画像は、キャラクタジェネレータ817にて生成したキャラクタ情報を重畳してLCDモニタ803に表示する。   The monitor image is displayed on the LCD monitor 803 with the character information generated by the character generator 817 superimposed.

全方位画像から抽出されたモニタ画像領域は、先述の通り、ビデオカメラ701の姿勢変化から高周波成分を除いた情報を元に算出されている。従って、ビデオカメラ701の姿勢変化の内、高周波成分の揺れが残った状態のモニタ画像となる。そこで、動きベクトル検出器818にてフレームメモリ819に記憶された直前のモニタ画像と比較評価し、動きベクトルを検出してモニタ画像処理部816へフィードバックする。動きベクトルを元に、モニタ画像処理部816はモニタ画像切り出し範囲を微調整して画像揺れを相殺除去し、安定した画像としてLCDモニタ803に表示を行う(図12、Step1207)。   As described above, the monitor image area extracted from the omnidirectional image is calculated based on information obtained by removing the high frequency component from the posture change of the video camera 701. Therefore, the monitor image is a state in which the high-frequency component still remains in the posture change of the video camera 701. Therefore, the motion vector detector 818 compares and evaluates the previous monitor image stored in the frame memory 819, detects the motion vector, and feeds it back to the monitor image processing unit 816. Based on the motion vector, the monitor image processing unit 816 finely adjusts the monitor image cutout range to cancel out the image shake, and displays the image on the LCD monitor 803 as a stable image (Step 1207 in FIG. 12).

さて、撮影中に本ビデオカメラ701が動いた時、全方位画像の中で被写体像の位置が変化する。本ビデオカメラ701は、本機の姿勢変化をジャイロセンサ811、812、813にて監視しているので、検出された姿勢変化に対応して、それを打ち消す方向へモニタ画像抽出領域を移動させる。例えば、図10(B−1)は、本ビデオカメラ701がミラー801中心軸周りに回転した場合の全方位画像を示している。それまでのモニタ画像抽出領域にあった所望の被写体像は、ビデオカメラ701の姿勢が変化したことで、全方位画像中でも新たな位置1005に移動している。モニタ画像処理部816は、本ビデオカメラ701の姿勢変化情報を参照して、それを打ち消すように、モニタ画像を抽出する領域の方位、および半径方向の位置を変更する(図12、Step1204)。   Now, when the video camera 701 moves during shooting, the position of the subject image changes in the omnidirectional image. Since the video camera 701 monitors the attitude change of the apparatus by the gyro sensors 811, 812, and 813, the monitor image extraction area is moved in a direction to cancel the change corresponding to the detected attitude change. For example, FIG. 10B-1 shows an omnidirectional image when the video camera 701 rotates around the center axis of the mirror 801. The desired subject image in the monitor image extraction area until then has moved to a new position 1005 even in the omnidirectional image due to the change in the attitude of the video camera 701. The monitor image processing unit 816 refers to the posture change information of the video camera 701, and changes the orientation of the region from which the monitor image is extracted and the position in the radial direction so as to cancel the information (FIG. 12, Step 1204).

さらに、変更されたモニタ画像抽出領域が全方位画像のどこに位置するかの情報として、方位(矢印1008が示す)と半径方向の位置を画像のタイムコードと関連付けて画像データに付与する。   Furthermore, as information on where the changed monitor image extraction region is located in the omnidirectional image, the azimuth (indicated by the arrow 1008) and the radial position are associated with the time code of the image and are added to the image data.

そして、記憶されているミラー曲率情報を参照して、歪補正後に適切にLCDモニタに表示できる新たな抽出領域を算出する。先述の通り、全方位画像の粗密によって抽出領域の形状は変化し得る。算出結果に基づいて画像領域1006(図10(B−2))を抽出し、歪補正を行ってモニタ画像1007(図10(B−3))を生成する(図12、Step1206)。そして、先述と同様に、動きベクトル検出により、高周波成分の画像揺れを除去してLCDモニタ803に表示する(図12、Step1207)。   Then, with reference to the stored mirror curvature information, a new extraction area that can be appropriately displayed on the LCD monitor after distortion correction is calculated. As described above, the shape of the extraction region can change depending on the density of the omnidirectional image. Based on the calculation result, an image region 1006 (FIG. 10B-2) is extracted, and distortion correction is performed to generate a monitor image 1007 (FIG. 10B-3) (FIG. 12, Step 1206). In the same manner as described above, the motion vector detection removes high-frequency component image fluctuations and displays them on the LCD monitor 803 (FIG. 12, Step 1207).

以上に説明したモニタ位置の変更とその位置情報の記録は、本ビデオカメラ701の姿勢変化がある限り繰り返し行われる。   The change of the monitor position and the recording of the position information described above are repeated as long as the attitude of the video camera 701 is changed.

以上のようにして、本ビデオカメラ701では、本機の姿勢変化に関わらず、常に一定の方位で一定の位置をモニタ画像として表示する。   As described above, the video camera 701 always displays a certain position as a monitor image in a certain azimuth regardless of a change in the posture of the apparatus.

なお、初期におけるモニタ画像の位置は、実施例1と同様に撮影者が方向レバー807を操作するなどして設定して良い(図12、Step1202)。また、別の操作によって画像の拡大縮小や画像サイズの設定がなされている時は、それらをパラメータとして、抽出するモニタ画像領域を算出すれば良い。   Note that the initial position of the monitor image may be set by the photographer operating the direction lever 807 as in the first embodiment (FIG. 12, Step 1202). When the image is enlarged or reduced or the image size is set by another operation, the monitor image area to be extracted may be calculated using these as parameters.

次に、メモリーカード810に記録された画像の再生について説明する。   Next, reproduction of images recorded on the memory card 810 will be described.

メモリーカード810には図9(A)に示すような全方位画像が記録されている。全方位画像は人間の視野と大きく異なるので、一般のテレビモニタなどでの再生には向かない。そのため、先述の通り歪を補正した矩形の平面画像に展開する。さらに展開後の平面画像も、全周囲360°を撮影した画像であってワイドスパンの画像であって、一般のモニタ装置とはアスペクト比が大きく異なる。そのため、平面画像の一部分を切り出して鑑賞するのが現実的である。   An omnidirectional image as shown in FIG. 9A is recorded in the memory card 810. An omnidirectional image is very different from the human field of view, so it is not suitable for playback on a general television monitor. For this reason, as described above, the image is developed into a rectangular planar image with distortion corrected. Further, the flat image after the development is an image obtained by photographing the entire circumference of 360 ° and is a wide span image, and the aspect ratio is greatly different from that of a general monitor device. Therefore, it is realistic to cut out and appreciate a part of the planar image.

さて、再生ボタン806の操作によって、メモリ制御部809により全方位画像が読み出され、画像処理部820へ送られる(図12、Step1208)。画像処理部820では、図9を用いて説明したように、ドーナツ状の全方位画像をどこかの方位で切断し、歪補正を行って矩形の平面画像に展開する(図12、Step1209)。   By the operation of the playback button 806, the omnidirectional image is read out by the memory control unit 809 and sent to the image processing unit 820 (FIG. 12, Step 1208). As described with reference to FIG. 9, the image processing unit 820 cuts the donut-shaped omnidirectional image at some direction, performs distortion correction, and develops it into a rectangular planar image (FIG. 12, Step 1209).

ここで、ドーナツ状の全方位画像を切断展開する方位は、画像データに付与されている撮影時のモニタ位置の方位情報を用いる。   Here, the orientation information for cutting and developing the donut-shaped omnidirectional image uses the orientation information of the monitor position at the time of shooting given to the image data.

図11に、画像再生時における全方位画像の補正展開の様子を示す。撮影時にLCDモニタ803上に表示していたモニタ抽出領域の方位情報が画像データに付与されており、その方位情報は撮影時の本ビデオカメラ701の動きに応じて刻々と変化している。図11(A)と図11(B)に、画像データに付与されているモニタ位置の方位情報が変化する例を示す。撮影中に本ビデオカメラ701がミラー801中心軸周りに回転したことによって、モニタ位置の方位は図11(A)の矢印1101が示す位置であったものが、図11(B)の矢印1102が示す方位へ変化している。画像処理部820は、画像データから撮影時のモニタ抽出領域の方位情報を読み取り、ドーナツ状の全方位画像の切断位置を変化させ、撮影時のモニタ抽出領域の方位が常に平面画像の中心になるよう補正展開する。すなわち、図11(A)と図11(B)に示す全方位画像は、共に図11(C)のように、撮影時にモニタ位置とした人物の位置1103が平面画像1104の中心に来るように補正展開される。   FIG. 11 shows a state of correction development of an omnidirectional image during image reproduction. The orientation information of the monitor extraction area displayed on the LCD monitor 803 at the time of photographing is given to the image data, and the orientation information changes every moment according to the movement of the video camera 701 at the time of photographing. FIGS. 11A and 11B show examples in which the orientation information of the monitor position given to the image data changes. When the video camera 701 rotates around the central axis of the mirror 801 during shooting, the orientation of the monitor position is the position indicated by the arrow 1101 in FIG. 11A, but the arrow 1102 in FIG. The direction has changed. The image processing unit 820 reads the orientation information of the monitor extraction area at the time of shooting from the image data, changes the cutting position of the donut-shaped omnidirectional image, and the orientation of the monitor extraction area at the time of shooting always becomes the center of the planar image. The correction is expanded. That is, in the omnidirectional images shown in FIGS. 11A and 11B, as shown in FIG. 11C, the position 1103 of the person as the monitor position at the time of shooting is positioned at the center of the planar image 1104. The correction is expanded.

以上のように全方位画像が平面画像に展開された後は、鑑賞者が方向レバー807を操作して、所望の被写体像がモニタ画面に現れるように切り出し位置を変更する(図12、Step1210)。具体的には、図11(C)に破線で示すように、モニタ画面を見ながら鑑賞者が方向レバー807を操作すると、再生切り出し範囲を順次移動し、従ってモニタ画面上では画像がスクロールしていく。結果、当初の再生画面は図11(D)のように人物の顔近辺の範囲1105であったものが、図11(E)のように周辺の風景の範囲1106へ変化する。もちろん、別の操作によって拡大、縮小を行っても良いし、画面のアスペクト比を変更しても良い。   After the omnidirectional image is developed into a flat image as described above, the viewer operates the direction lever 807 to change the cutout position so that a desired subject image appears on the monitor screen (FIG. 12, Step 1210). . Specifically, as shown by a broken line in FIG. 11C, when the viewer operates the direction lever 807 while looking at the monitor screen, the reproduction cutout range is sequentially moved, so that the image scrolls on the monitor screen. Go. As a result, the initial reproduction screen is changed from the range 1105 near the face of the person as shown in FIG. 11D to the surrounding landscape range 1106 as shown in FIG. 11E. Of course, enlargement or reduction may be performed by another operation, or the aspect ratio of the screen may be changed.

以上のようにして生成した再生画像は、撮影時と同様に、動きベクトル検出器818によって動きベクトルを検出し、モニタ画像処理部816へフィードバックする。動きベクトルを元に、モニタ画像処理部816は再生画像切り出し範囲を微調整して、撮影時のブレなどに起因する高周波成分の画像揺れを除去し、再生画像を安定化する(図12、Step1211)。   In the reproduced image generated as described above, the motion vector is detected by the motion vector detector 818 and fed back to the monitor image processing unit 816 in the same manner as at the time of shooting. Based on the motion vector, the monitor image processing unit 816 finely adjusts the reproduction image cut-out range to remove high-frequency component image fluctuations due to blurring at the time of shooting and stabilize the reproduction image (FIG. 12, Step 1211). ).

以上のように本ビデオカメラ701によれば、全方位画像の一部分をモニタ画像として切り出して表示するにあたり、不意にビデオカメラ701が動いても、所望のモニタ位置を見失うことなく追従し、常に初期に設定されたモニタ位置の画像を表示し続ける。モニタ画像を見れば、設定した被写体の様子を確認することができ、安心して撮影を続けることができる。   As described above, according to the present video camera 701, when a part of an omnidirectional image is cut out and displayed as a monitor image, even if the video camera 701 moves unexpectedly, the desired monitor position is tracked without being lost. Continue to display the image of the monitor position set to. By looking at the monitor image, it is possible to confirm the state of the set subject, and to continue shooting with peace of mind.

また、再生時においては、全方位画像の一部分を切り出して再生鑑賞するにあたり、常に撮影時にモニタ方向とした方位が平面画像の中央になるため、所望の被写体を検索し易くなり、利便性が高まる。   Also, during playback, when a part of an omnidirectional image is cut out and viewed for viewing, the orientation in the monitor direction at the time of shooting is always the center of the planar image, making it easier to search for a desired subject and increasing convenience. .

101‥‥ビデオカメラ
102‥‥カメラ部
103‥‥記録部
104‥‥伝送ケーブル
105‥‥ヘッドバンド
301‥‥魚眼レンズ
302‥‥LCDモニタ
303‥‥電源スイッチ
304‥‥録画ボタン
305‥‥再生ボタン
306‥‥方向レバー
307‥‥撮像素子
308‥‥信号処理回路
309‥‥画像処理部
310‥‥メモリ制御部
311‥‥メモリーカード
312‥‥モニタ画像処理部
313‥‥キャラクタジェネレータ
314‥‥ジャイロセンサ
315‥‥ジャイロセンサ
316‥‥演算器
317‥‥制御部
318‥‥動きベクトル検出器
319‥‥フレームメモリ
701‥‥ビデオカメラ
801‥‥ミラー
802‥‥撮像素子
803‥‥LCDモニタ
804‥‥電源スイッチ
805‥‥録画ボタン
806‥‥再生ボタン
807‥‥方向レバー
808‥‥信号処理回路
809‥‥メモリ制御部
810‥‥メモリーカード
811‥‥ジャイロセンサ
812‥‥ジャイロセンサ
813‥‥ジャイロセンサ
814‥‥演算器
815‥‥制御部
816‥‥モニタ画像処理部
817‥‥キャラクタジェネレータ
818‥‥動きベクトル検出器
819‥‥フレームメモリ
820‥‥画像処理部
1301‥‥ビデオカメラ
1302‥‥撮影画角
1303‥‥被写体
1401‥‥撮像素子
1402‥‥ジャイロセンサ
1403‥‥ジャイロセンサ
1404‥‥制御部
1405‥‥信号処理回路
1406‥‥信号処理回路
1407‥‥動きベクトル検出器
1408‥‥記録再生回路
1409‥‥記録メモリ
1501‥‥撮像領域
1502‥‥撮像領域
1503‥‥撮像素子の全撮像領域
101 Video camera 102 Camera unit 103 Recording unit 104 Transmission cable 105 Headband 301 Fisheye lens 302 LCD monitor 303 Power switch 304 Recording button 305 Playback button 306 Direction lever 307 Image sensor 308 Signal processing circuit 309 Image processing unit 310 Memory control unit 311 Memory card 312 Monitor image processing unit 313 Character generator 314 Gyro sensor 315 ... Gyro sensor 316 ... Operation unit 317 ... Control unit 318 ... Motion vector detector 319 ... Frame memory 701 ... Video camera 801 ... Mirror 802 ... Imaging device 803 ... LCD monitor 804 ... Power switch 805 ... Record button 806 ... Play button 807 Direction lever 808 Signal processing circuit 809 Memory control unit 810 Memory card 811 Gyro sensor 812 Gyro sensor 813 Gyro sensor 814 Operation unit 815 Control unit 816 Monitor image Processing unit 817 ... Character generator 818 ... Motion vector detector 819 ... Frame memory 820 ... Image processing part 1301 ... Video camera 1302 ... Shooting angle of view 1303 ... Subject 1401 ... Imaging element 1402 ... Gyro sensor 1403 ... Gyro sensor 1404 ... Control unit 1405 ... Signal processing circuit 1406 ... Signal processing circuit 1407 ... Motion vector detector 1408 ... Recording / playback circuit 1409 ... Recording memory 1501 ... Imaging area 1502 ... Imaging area 1503... All imaging areas of the image sensor

Claims (8)

超広角画像を撮影する撮像手段と、
前記撮像手段の姿勢変化を検出する検出手段と、
前記超広角画像から一部を切り出すモニタ画像切り出し手段と、
前記検出手段の検出結果に応じて、前記モニタ画像切り出し位置ないし領域を変更する切り出し画像変更手段と、
該切り出し画像を表示する表示手段と、
を備える画像記録装置。
An imaging means for capturing an ultra-wide-angle image;
Detecting means for detecting a change in posture of the imaging means;
Monitor image cutout means for cutting out a part from the super wide-angle image;
In accordance with the detection result of the detection means, cut-out image change means for changing the monitor image cut-out position or region;
Display means for displaying the clipped image;
An image recording apparatus comprising:
撮影された前記超広角画像を記録する画像記録手段を備える請求項1に記載の画像記録装置。 The image recording apparatus according to claim 1, further comprising an image recording unit that records the captured ultra-wide angle image. 撮像手段に含む光学素子の歪曲収差情報を記憶する記憶手段と、
該歪曲収差情報に応じて、前記超広角画像から生成した画像を記録する画像記録手段と、
を備える請求項1又は請求項2に記載の画像記録装置。
Storage means for storing distortion information of optical elements included in the imaging means;
Image recording means for recording an image generated from the super-wide-angle image according to the distortion aberration information;
An image recording apparatus according to claim 1 or 2, further comprising:
前記検出情報を前記画像データに付加して記録する画像記録手段を備える請求項2又は請求項3に記載の画像記録装置。 The image recording apparatus according to claim 2, further comprising an image recording unit that records the detection information added to the image data. 前記モニタ画像切り出し位置ないし領域の情報を前記画像データに付加して記録する画像記録手段を備える請求項2乃至請求項4のいずれか1項に記載の画像記録装置。 5. The image recording apparatus according to claim 2, further comprising an image recording unit configured to record the monitor image cutout position or the region information in addition to the image data. 前記画像データに付加された前記情報を読み出す情報読み出し手段と、
該情報に応じて、前記画像データを加工し再生画像を生成する再生画像生成手段と、
該再生画像を表示する表示手段、ないし外部表示手段へ出力する出力手段と、
を備える請求項2乃至請求項5のいずれか1項に記載の画像記録装置。
Information reading means for reading the information added to the image data;
Reproduction image generation means for processing the image data and generating a reproduction image according to the information;
Display means for displaying the reproduced image, or output means for outputting to the external display means;
The image recording apparatus according to claim 2, further comprising:
前記画像データに付加された前記情報を読み出す情報読み出し手段と、
該情報に応じて、前記画像データから所定の位置ないし領域を切り出して画像を生成する再生画像生成手段と、
該再生画像を表示する表示手段と
外部表示手段へ出力する出力手段と、
を備える請求項2乃至請求項5のいずれか1項に記載の画像記録装置。
Information reading means for reading the information added to the image data;
In accordance with the information, reproduced image generating means for cutting out a predetermined position or region from the image data and generating an image;
Display means for displaying the reproduced image and output means for outputting to the external display means;
The image recording apparatus according to claim 2, further comprising:
撮像手段に含む光学素子の歪曲収差情報を記憶する記憶手段と、
該歪曲収差情報と前記情報に応じて、前記画像データを加工し再生画像を生成する再生画像生成手段と、
を備える請求項2乃至請求項7のいずれか1項に記載の画像記録装置。
Storage means for storing distortion information of optical elements included in the imaging means;
Reproduction image generation means for processing the image data and generating a reproduction image according to the distortion aberration information and the information,
An image recording apparatus according to claim 2, comprising:
JP2010265942A 2010-11-30 2010-11-30 Image recorder Pending JP2012119804A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010265942A JP2012119804A (en) 2010-11-30 2010-11-30 Image recorder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010265942A JP2012119804A (en) 2010-11-30 2010-11-30 Image recorder

Publications (1)

Publication Number Publication Date
JP2012119804A true JP2012119804A (en) 2012-06-21

Family

ID=46502193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010265942A Pending JP2012119804A (en) 2010-11-30 2010-11-30 Image recorder

Country Status (1)

Country Link
JP (1) JP2012119804A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015061235A (en) * 2013-09-19 2015-03-30 カシオ計算機株式会社 Image processing apparatus, image processing method and program
WO2015162947A1 (en) * 2014-04-22 2015-10-29 ソニー株式会社 Information reproduction device, information reproduction method, information recording device, and information recording method
JP2017005339A (en) * 2015-06-05 2017-01-05 リコーイメージング株式会社 Moving image creation system, moving image creation method, and moving image creation program
JP2017063276A (en) * 2015-09-24 2017-03-30 カシオ計算機株式会社 Video display device, video display method and program
JP2017147682A (en) * 2016-02-19 2017-08-24 株式会社ザクティ Imaging system for entire celestial sphere
EP3407599A1 (en) 2017-05-25 2018-11-28 Canon Kabushiki Kaisha Display control apparatus, display control method, and program
US10992861B2 (en) 2017-03-14 2021-04-27 Nikon Corporation Image processing device and electronic device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015061235A (en) * 2013-09-19 2015-03-30 カシオ計算機株式会社 Image processing apparatus, image processing method and program
WO2015162947A1 (en) * 2014-04-22 2015-10-29 ソニー株式会社 Information reproduction device, information reproduction method, information recording device, and information recording method
JP2017005339A (en) * 2015-06-05 2017-01-05 リコーイメージング株式会社 Moving image creation system, moving image creation method, and moving image creation program
JP2017063276A (en) * 2015-09-24 2017-03-30 カシオ計算機株式会社 Video display device, video display method and program
JP2017147682A (en) * 2016-02-19 2017-08-24 株式会社ザクティ Imaging system for entire celestial sphere
US10992861B2 (en) 2017-03-14 2021-04-27 Nikon Corporation Image processing device and electronic device
US11716539B2 (en) 2017-03-14 2023-08-01 Nikon Corporation Image processing device and electronic device
EP3407599A1 (en) 2017-05-25 2018-11-28 Canon Kabushiki Kaisha Display control apparatus, display control method, and program
US11190747B2 (en) 2017-05-25 2021-11-30 Canon Kabushiki Kaisha Display control apparatus, display control method, and storage medium

Similar Documents

Publication Publication Date Title
JP4212109B2 (en) Imaging apparatus and imaging method
JP4268220B2 (en) Imaging apparatus, imaging method, and program
JP5111088B2 (en) Imaging apparatus and image reproduction apparatus
JP4695972B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5868618B2 (en) Information processing apparatus, image processing system, and program
US8208017B2 (en) Imaging device, product package, and semiconductor integrated circuit
US20060251409A1 (en) Imaging apparatus and method for processing imaging results
JP4356621B2 (en) Imaging apparatus and imaging method
JP2012119804A (en) Image recorder
KR101109532B1 (en) Image capturing device, image capturing method, and a storage medium recording thereon a image capturing program
JP2012199752A (en) Image processing apparatus, image processing method, and program
JP2007116309A (en) Image information reproduction apparatus
US10447944B2 (en) Imaging apparatus, control method thereof and program
CN113574856A (en) Image processing apparatus, image processing method, and program
US20190098250A1 (en) Information processing apparatus, imaging apparatus, information processing method, and recording medium
JP5143172B2 (en) Imaging apparatus and image reproduction apparatus
JP4748442B2 (en) Imaging apparatus and program thereof
JP6312426B2 (en) Imaging apparatus and control method thereof
US9137448B2 (en) Multi-recording image capturing apparatus and control method for multi-recording image capturing apparatus for enabling the capture of two image areas having two different angles of view
JP2007221711A (en) Sensor unit, and electronic device
WO2017104102A1 (en) Imaging device
JP2004248171A (en) Moving image recorder, moving image reproduction device, and moving image recording and reproducing device
EP3836540B1 (en) Image processing apparatus and image capturing apparatus
JP4888829B2 (en) Movie processing device, movie shooting device, and movie shooting program
JP4665826B2 (en) Imaging apparatus and image processing program