JP2010199971A - Image pickup apparatus, imaging method, and program - Google Patents

Image pickup apparatus, imaging method, and program Download PDF

Info

Publication number
JP2010199971A
JP2010199971A JP2009042288A JP2009042288A JP2010199971A JP 2010199971 A JP2010199971 A JP 2010199971A JP 2009042288 A JP2009042288 A JP 2009042288A JP 2009042288 A JP2009042288 A JP 2009042288A JP 2010199971 A JP2010199971 A JP 2010199971A
Authority
JP
Japan
Prior art keywords
image
imaging
unit
storage
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009042288A
Other languages
Japanese (ja)
Other versions
JP2010199971A5 (en
Inventor
Morio Yamauchi
労雄 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009042288A priority Critical patent/JP2010199971A/en
Publication of JP2010199971A publication Critical patent/JP2010199971A/en
Publication of JP2010199971A5 publication Critical patent/JP2010199971A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To simply image an omni-directional three-dimensional image by a general user, without the use of special apparatuses. <P>SOLUTION: A control part (CPU) 20 obtains, in real time, the pitch angle, yaw angle, and roll angle of a sensor measured by a three-axis magnetic sensor 34, in a state with a half-pushed shutter button during imaging of omni-directional three-dimensions. The optical axis coordinates of a digital camera, the rotational angle of a digital camera, and the spherical coordinates of a shot image are calculated by the pitch, the yaw, and the roll to calculate a memory address, to which the shot image in the direction should be recorded according to the optical axis coordinate, the rotational angle, and the spherical coordinate, accessing an image memory 31 according to the memory address which displays the imaged area in monochrome (transluscence), in an identifiable manner together with a through-image on a display part 25, when the previously photographed imaged data (hereinafter, to be referred to as "photographed image") is recorded. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像装置、撮像方法、及びプログラムに関する。   The present invention relates to an imaging apparatus, an imaging method, and a program.

従来より、デジタルカメラにおいて、左(右)から右(左)へと順番に撮影し、撮影した画像を結合することにより、横方向360°パノラマ撮影を行う技術や、同様に下(上)から上(下)へと順番に撮影し、撮影した画像を結合することにより、縦方向の連続した撮影を行う技術が知られている(例えば、特許文献1、2参照)。いずれの場合も、画像が途切れることのないように、撮影する度に1つ前の撮影済み画像の一部を表示部に半透明に表示しておき、次の撮影時のスルー画像をその半透明の撮影済み画像に合わせるように、構図(撮影位置、撮影方向)を決めさせるよう、ユーザに案内するようになっている。   Conventionally, in a digital camera, images are taken in order from left (right) to right (left), and the captured images are combined to perform 360 ° panoramic shooting in the horizontal direction, as well as from the bottom (top). A technique is known in which images are taken in order upward (down), and the images taken are combined to perform continuous vertical shooting (see, for example, Patent Documents 1 and 2). In either case, each time a photograph is taken, a part of the previous photographed image is displayed semi-transparently on the display unit so that the image is not interrupted. The user is guided to determine the composition (photographing position, photographing direction) so as to match the transparent photographed image.

また、近年、インターネット上で2次元の地図の所望する位置を指定することで、その位置における横方向360°の撮影画像を見ることができる技術が知られている(例えば、非特許文献1参照)。この技術では、自動車のルーフに少なくとも4方向(前後左右)に向いた4つのデジタルカメラを設置しておき、道路を走行しながら、所定の間隔で上記4つのデジタルカメラで一度に撮影し、これを合成することで、横方向360°の撮影画像を得ている。   In recent years, a technique has been known in which a desired image of a two-dimensional map can be specified on the Internet so that a photographed image of 360 ° in the horizontal direction at that position can be viewed (for example, see Non-Patent Document 1). ). In this technology, four digital cameras facing at least four directions (front / rear / left / right) are installed on the roof of an automobile, and the above four digital cameras are photographed at a predetermined interval while traveling on the road. Are combined to obtain a captured image of 360 ° in the horizontal direction.

特開2007−174301号公報JP 2007-174301 A 特開2005−184533号公報JP 2005-184533 A

“Gollgleストリービュー、日本の主要都市でも始動”、[平成21年2月9日検索]、インターネット<URL:http://www.google.co.jp/intl/ja/press/pressrel/20080805.html>“Gallgle View, starting in major cities in Japan”, [Search February 9, 2009], Internet <URL: http://www.google.co.jp/intl/ja/press/pressrel/20080805. html>

ところで、近年、デジタルカメラが普及することで、様々な特殊撮影技術を手軽に(あるいは自動的に)誰でもが楽しめるようになってきているが、まだ、全立体方位で撮影するための技術は提案されていない。しかしながら、特殊レンズ(魚眼レンズ)を用いて天頂方向を撮影する技術は、銀塩カメラでも知られているが、この場合、撮影画像がひどく歪んでしまうという問題がある。   By the way, with the widespread use of digital cameras in recent years, it has become possible for anyone to enjoy various special shooting techniques easily (or automatically), but there are still techniques for shooting in all three-dimensional directions. Not proposed. However, a technique for photographing the zenith direction using a special lens (fisheye lens) is also known for a silver salt camera, but in this case, there is a problem that a photographed image is severely distorted.

また、上記従来技術による、水平方向360°パノラマ撮影、あるいは垂直方向連続撮影を行うデジタルカメラでは、予め決められた方向、すなわち、水平方向360°、および/または垂直方向でしか連続画像を撮影することができないという問題がある。   In addition, in the digital camera that performs 360 ° panoramic shooting in the horizontal direction or continuous shooting in the vertical direction according to the conventional technique, continuous images are shot only in a predetermined direction, that is, 360 ° in the horizontal direction and / or the vertical direction. There is a problem that can not be.

また、前述したように、横方向360°の撮影画像を一度に撮影する技術も実用化されてはいるが、やはり横方向360°でしか撮影することができず、あくまで特殊な装置であり、一般的でなく、通常のユーザが手軽に用いることはできないという問題がある。   In addition, as described above, a technique for capturing a horizontal 360 ° captured image at a time has been put into practical use, but it can also be captured only in the lateral 360 °, and is a special device to the last. There is a problem that it is not common and cannot be easily used by normal users.

このように、従来、特殊な装置を用いることなく、一般のユーザが手軽に全立体方位で撮影することができる技術は知られていない。しかしながら、全立体方位の撮影画像があると、写真の楽しみ方を広げることができることは明らかである。全立体方位となると、2次元的にどの部分が撮影済みかを、ユーザが記憶して撮影することが困難となるため、例えば、水平方向にはうまく重ね合わせて撮影されても、縦方向には未撮影の隙間が残ったり、重複部分が多くなりすぎたりし、失敗なく効率的に撮影を行なうことは不可能である問題がある。   Thus, conventionally, there is no known technique that allows a general user to easily shoot in all three-dimensional directions without using a special device. However, it is clear that if there are captured images in all three-dimensional directions, it is possible to broaden the enjoyment of photography. When it becomes all three-dimensional orientation, it becomes difficult for the user to memorize and photograph which part has been photographed two-dimensionally. However, there is a problem that it is impossible to take an image efficiently without failure because there are unphotographed gaps or excessive overlapping portions.

そこで本発明は、特殊な装置を用いることなく、一般のユーザが手軽に全立体方位で撮影することができる撮像装置、撮像方法、及びプログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an imaging apparatus, an imaging method, and a program that allow a general user to easily perform imaging in all three-dimensional directions without using a special apparatus.

上記目的達成のため、この発明は、撮像手段と、表示手段と、前記撮像手段の撮影方向をリアルタイムに検知する検知手段と、前記撮像手段により撮像される全方位における撮影済みの画像を、前記検知手段により検知された撮影方向に対応付けて記憶する記憶手段と、前記検知手段により検知された撮影方向に対する前記記憶手段による画像の記憶状況をリアルタイムに読み出し、その記憶状況を前記表示手段に表示する表示制御手段とを備えることを特徴とする撮像装置である。   In order to achieve the above object, the present invention provides an image pickup means, a display means, a detection means for detecting the shooting direction of the image pickup means in real time, and images taken in all directions taken by the image pickup means, Storage means for storing in association with the shooting direction detected by the detection means, and storage status of the image by the storage means for the shooting direction detected by the detection means is read in real time, and the storage status is displayed on the display means An image pickup apparatus comprising: a display control means for performing the above operation.

また、好ましい態様として、例えば請求項2記載のように、請求項1に記載の撮像装置において、前記表示手段は、前記撮像手段により撮像される全方位における画像をスルー表示し、前記表示制御手段は、前記検知手段により検知された撮影方向に対する前記記憶手段による画像の記憶状況をリアルタイムに読み出し、前記表示手段にスルー表示されている画像上に、撮影済み領域と非撮影済み領域とを識別可能に表示する、ことを特徴とする、ことを特徴とする。   Further, as a preferred aspect, for example, as in claim 2, in the imaging device according to claim 1, the display means displays an image in all directions captured by the imaging means, and the display control means Can read in real time the storage status of the image by the storage unit with respect to the shooting direction detected by the detection unit, and can identify the captured region and the non-photographed region on the through-displayed image on the display unit It is characterized by displaying.

また、好ましい態様として、例えば請求項3記載のように、請求項2に記載の撮像装置において、前記表示制御手段は、前記表示手段にスルー表示されている画像上で、非撮影済み領域をカラー表示し、撮影済み領域をモノクロ表示する、ことを特徴とする、ことを特徴とする。   Further, as a preferred aspect, for example, as in claim 3, in the imaging apparatus according to claim 2, the display control means sets the non-photographed area on the image displayed through on the display means in color. It is characterized in that it is displayed and the photographed area is displayed in monochrome.

また、好ましい態様として、例えば請求項4記載のように、請求項1に記載の撮像装置において、前記表示手段は、前記撮像手段により撮像される全方位における画像をスルー表示し、前記表示制御手段は、前記記憶手段に撮影方向に対応付けて記憶されている撮影済みの画像を、前記検知手段により検知された撮影方向に基づいてリアルタイムに読み出し、前記表示手段にスルー表示されている画像上に識別可能に合成して表示する、ことを特徴とする。   Further, as a preferred aspect, for example, as in claim 4, in the imaging apparatus according to claim 1, the display means displays an image in all directions captured by the imaging means, and the display control means Reads the captured image stored in the storage unit in association with the shooting direction in real time based on the shooting direction detected by the detection unit, and displays the image on the through-displayed image on the display unit. It is characterized by combining and displaying so that it can be identified.

また、好ましい態様として、例えば請求項5記載のように、請求項4に記載の撮像装置において、前記表示制御手段は、撮影済みの画像を、前記表示手段にスルー表示されている画像上に半透明で識別可能に合成して表示する、ことを特徴とする。   Further, as a preferred aspect, for example, as in claim 5, in the imaging device according to claim 4, the display control means half-shoots the photographed image on the image displayed through on the display means. It is characterized by being displayed in a transparent and identifiable manner.

また、好ましい態様として、例えば請求項6記載のように、請求項1乃至5のいずれかに記載の撮像装置において、前記検知手段は、前記撮像手段による撮影方向として、上下方向、左右方向、及び回転方向を検出する、
ことを特徴とする。
Further, as a preferable aspect, for example, as in claim 6, in the imaging apparatus according to any one of claims 1 to 5, the detection unit has a vertical direction, a left-right direction, and a shooting direction as the imaging unit. Detect the direction of rotation,
It is characterized by that.

また、好ましい態様として、例えば請求項7記載のように、請求項1乃至6のいずれかに記載の撮像装置において、全方位に対する全ての撮影を完了したことを判定して通知する撮影完了通知手段を更に備えることを特徴とする。   Further, as a preferred aspect, for example, as described in claim 7, in the imaging device according to any one of claims 1 to 6, a photographing completion notifying unit that determines and notifies that all photographing in all directions has been completed. Is further provided.

また、好ましい態様として、例えば請求項8記載のように、請求項1乃至7のいずれかに記載の撮像装置において、前記検知手段により検知された前記撮像手段による撮影方向を、前記記憶手段の記憶領域アドレスに変換する変換手段を更に備え、前記記憶手段は、前記変換手段に変換された記憶領域アドレスで示される記憶領域に前記撮像手段により撮像される全方位における撮影済みの画像を記憶する、ことを特徴とする。   Further, as a preferred aspect, for example, as in claim 8, in the imaging device according to any one of claims 1 to 7, the shooting direction by the imaging unit detected by the detection unit is stored in the storage unit. The image processing apparatus further includes conversion means for converting to an area address, and the storage means stores a captured image in all directions imaged by the imaging means in a storage area indicated by the storage area address converted by the conversion means. It is characterized by that.

また、上記目的達成のため、請求項9記載の発明は、撮像部により撮像した画像を表示部に表示するとともに、記憶部に記憶する撮像方法であって、前記撮像部の撮影方向をリアルタイムに検知するステップと、前記撮像部により撮像される全方位における撮影済みの画像を、前記検知された撮影方向に対応付けて前記記憶部に記憶するステップと、前記検知された撮影方向に対する前記記憶部による画像の記憶状況をリアルタイムに読み出し、その記憶状況を前記表示部に表示するステップとを含むことを特徴とする撮像方法である。   In order to achieve the above object, an invention according to claim 9 is an imaging method for displaying an image captured by an imaging unit on a display unit and storing the image in a storage unit, wherein the imaging direction of the imaging unit is set in real time. A step of detecting, a step of storing, in the storage unit, images taken in all directions imaged by the imaging unit in association with the detected shooting direction, and the storage unit for the detected shooting direction And reading out the storage state of the image in real time in real time and displaying the storage state on the display unit.

また、好ましい態様として、例えば請求項10記載のように、請求項9に記載の撮像装置において、全方位に対する全ての撮影を完了したことを判定して通知するステップを更に含むことを特徴とする。   Further, as a preferred aspect, for example, as described in claim 10, the imaging apparatus according to claim 9 further includes a step of determining and notifying that all photographing in all directions is completed. .

また、好ましい態様として、例えば請求項11記載のように、請求項9または10に記載の撮像装置において、前記検知された前記撮像部による撮影方向を、前記記憶部の記憶領域アドレスに変換するステップと、前記変換された記憶領域アドレスで示される記憶領域に前記撮像部により撮像される全方位における撮影済みの画像を記憶するステップとを更に含むことを特徴とする。   Further, as a preferred aspect, for example, as in claim 11, in the imaging device according to claim 9 or 10, the step of converting the detected shooting direction by the imaging unit into a storage area address of the storage unit And storing the captured images in all directions imaged by the imaging unit in the storage area indicated by the converted storage area address.

また、上記目的達成のため、請求項12記載の発明は、撮像部と、該撮像部により撮像した画像を表示する表示部と、撮影した画像を記憶する記憶部とを備える撮像装置のコンピュータに、前記撮像部の撮影方向をリアルタイムに検知するステップと、前記撮像部により撮像される全方位における撮影済みの画像を、前記検知された撮影方向に対応付けて前記記憶部に記憶するステップと、前記検知された撮影方向に対する前記記憶部による画像の記憶状況をリアルタイムに読み出し、その記憶状況を前記表示部に表示するステップとを実行させることを特徴とするプログラムである。   In order to achieve the above object, an invention according to claim 12 is provided in a computer of an imaging apparatus including an imaging unit, a display unit that displays an image captured by the imaging unit, and a storage unit that stores the captured image. Detecting the shooting direction of the imaging unit in real time; storing the captured images in all directions captured by the imaging unit in the storage unit in association with the detected shooting direction; A program that reads out in real time a storage state of an image by the storage unit with respect to the detected shooting direction, and displays the storage state on the display unit.

この発明によれば、特殊な装置を用いることなく、一般のユーザが手軽に全立体方位で撮影することができるという利点が得られる。   According to the present invention, there is an advantage that a general user can easily shoot in all three-dimensional directions without using a special device.

本発明の実施形態によるデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera by embodiment of this invention. 本実施形態によるデジタルカメラでの全立体方位撮影でのカメラの光軸座標と撮影画像の球座標とを説明するための概念図である。It is a conceptual diagram for demonstrating the optical-axis coordinate of the camera and the spherical coordinate of a picked-up image in the all-solid-direction imaging | photography with the digital camera by this embodiment. 本実施形態によるデジタルカメラをある方向に向けてシャッタ半押し状態にした場合の様子を説明するための模式図である。It is a schematic diagram for demonstrating a mode when the digital camera by this embodiment is made into the shutter half-pressed state toward a certain direction. 本実施形態によるデジタルカメラをある方向に向けてシャッタ半押し状態にした場合のスルー画像の表示例を示す模式図である。It is a schematic diagram which shows the example of a through image display when the digital camera by this embodiment is made into the shutter half-pressed state toward a certain direction. 本実施形態によるデジタルカメラにおいて、全立体方位の撮影状況をユーザに知らせるための一表示例を示す模式図である。In the digital camera by this embodiment, it is a schematic diagram which shows the example of a display for notifying a user of the imaging condition of all the three-dimensional directions. 本実施形態によるデジタルカメラの全立体方位撮影時の動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement at the time of the all-solid-directional imaging | photography of the digital camera by this embodiment. 本実施形態によるデジタルカメラにおいて、既撮影済画像との重ね具合を適切にガイドする場合の表示例を示す模式図である。In the digital camera by this embodiment, it is a schematic diagram which shows the example of a display in the case of guiding appropriately the overlap condition with the already image | photographed image.

以下、本発明の実施の形態を、図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

A.実施形態の構成
図1は、本発明の実施形態によるデジタルカメラの構成を示すブロック図である。図において、画像取得部10は、レンズ11、シャッタ12、LPF13からなる。レンズ11は、通常の光学レンズであり、非球面レンズを重ねたレンズ群からなる。シャッタ12は、シャッタボタンが操作されると、制御部20によって駆動されるドライバ14により動作する、所謂メカニカルシャッタである。なお、デジタルカメラによっては、メカニカルシャッタを備えない場合もあり、沈胴式のレンズ構造、メカニカルズームを搭載する機種の場合、これらの駆動制御もドライバ14で行なう。LPF13は、水晶ローパスフィルタであり、モアレの発生を防ぐために搭載されている。
A. Configuration of Embodiment FIG. 1 is a block diagram showing a configuration of a digital camera according to an embodiment of the present invention. In the figure, the image acquisition unit 10 includes a lens 11, a shutter 12, and an LPF 13. The lens 11 is a normal optical lens and includes a lens group in which aspherical lenses are stacked. The shutter 12 is a so-called mechanical shutter that is operated by a driver 14 driven by the control unit 20 when a shutter button is operated. Depending on the digital camera, a mechanical shutter may not be provided, and in the case of a model equipped with a retractable lens structure and mechanical zoom, these drivers are also controlled by the driver 14. The LPF 13 is a crystal low-pass filter and is mounted to prevent the occurrence of moire.

次に、アナログ信号処理部15は、撮像センサ(CCD,CMOS)16、サンプリング/信号増幅処理部17、A/Dコンバータ18からなる。撮像センサ16は、被写体画像(イメージ)を結像し、RGBの各色の光の強さを、電流値に変換する。サンプリング/信号増幅処理部17は、ノイズや色むらを抑えるための相関二重サンプリング処理や信号増幅処理を行なう。A/Dコンバータ18は、アナログフロントエンドとも呼ばれ、サンプリング・増幅したアナログ信号をデジタル信号に変換する(RGB,CMYG各色について12bitデータに変換してバスラインに出力する)。   Next, the analog signal processing unit 15 includes an image sensor (CCD, CMOS) 16, a sampling / signal amplification processing unit 17, and an A / D converter 18. The imaging sensor 16 forms a subject image (image), and converts the intensity of light of each color of RGB into a current value. The sampling / signal amplification processing unit 17 performs correlated double sampling processing and signal amplification processing for suppressing noise and color unevenness. The A / D converter 18 is also called an analog front end, and converts the sampled / amplified analog signal into a digital signal (converts each color of RGB and CMYG into 12-bit data and outputs it to the bus line).

次に、画像メモリ31は、撮影された画像データを全立体方位における位置情報と対応付けて記録するためのメモリであり、全立体方位における全ての撮影済み部分の画像データを記録管理するとともに、全立体方位における撮影済み領域と非撮影済み領域とを管理する役割を果たすものである。このような全立体方位を考慮して画像データと撮影済み領域を管理するための具体的な方法としては、いくつかの方法が考えられるが、1つの方法は、撮影された各々の画像データは通常の画像ファイルとして個別に記録するとともに、各画像ファイルと対応付けて全立体方位における撮影位置(撮影領域)の情報を記録する方法である。   Next, the image memory 31 is a memory for recording captured image data in association with position information in all stereoscopic orientations, recording and managing image data of all captured portions in all stereoscopic orientations, It plays a role of managing a photographed area and a non-photographed area in all three-dimensional directions. Several methods are conceivable as specific methods for managing image data and photographed areas in consideration of all three-dimensional orientations, but one method is as follows: In this method, the information is recorded individually as a normal image file, and information on shooting positions (shooting areas) in all three-dimensional directions is recorded in association with each image file.

他の方法は、全立体方位の各位置と相互にアドレス変換可能な1つの大きなビットマップメモリを設け、撮影して得られた画像データを、このビットマップメモリ上に上書き合成していく方法であり、未撮影の部分は初期状態で黒(または白)で塗りつぶしておくことにより、黒(または白)で塗りつぶされている領域部分を画像処理などによって検出することにより撮影済み領域と非撮影済み領域とを判断することが可能である。   The other method is a method in which one large bitmap memory capable of mutual address conversion with each position in all three-dimensional directions is provided, and image data obtained by photographing is overwritten and synthesized on this bitmap memory. Yes, unphotographed areas are filled with black (or white) in the initial state, and areas that are filled with black (or white) are detected by image processing etc. It is possible to determine the area.

上記いずれの方法を用いてもよいが、ここでは後者の方法を用いるものとする。また、これらの方法は周知技術であるため詳細な説明は省略する。   Any of the above methods may be used, but the latter method is used here. Moreover, since these methods are well-known techniques, detailed description is abbreviate | omitted.

次に、制御部(CPU)20は、後述するプログラムメモリ30に格納されるプログラムを実行してデジタルカメラ(撮像装置)の全体を制御する。特に、本実施形態では、制御部(CPU)20は、全立体方位撮影中に、シャッタ半押し状態でリアルタイムに、後述する3軸磁気センサ34により計測されたセンサのピッチ(方位角θ)、ヨー(仰角φ)、ロール(回転角ψ)を取得し、これらピッチ(方位角θ)、ヨー(仰角φ)、ロール(回転角ψ)からデジタルカメラの光軸座標、デジタルカメラの回転角、及び撮影画像の球座標を算出し、該光軸座標、回転角、及び球座標に従って、その方向で撮影された画像が記録されるべき、メモリアドレスを算出し、該メモリアドレスに従って画像メモリ31をアクセスし、既に撮影済みの画像データ(以下、既撮影済画像という)が一部でも記録されている場合には、スルー画像上における既撮影済み部分に対応する領域をモノクロ(半透明)で識別表示するように制御する。また、このときに、スルー画像上をモノクロ(半透明)で識別表示するのではなく、既撮影済み画像の一部をモノクロ(半透明)で、スルー画像に合成して表示部25に表示するよう制御してもよい。まだ一度もその方向で撮影されていない場合には、当然、モノクロ(半透明)で識別表示されたり、既撮影済画像が表示されたりしない。   Next, the control unit (CPU) 20 executes a program stored in a program memory 30 described later to control the entire digital camera (imaging device). In particular, in the present embodiment, the control unit (CPU) 20 performs a sensor pitch (azimuth angle θ) measured by a triaxial magnetic sensor 34, which will be described later, in real time when the shutter is half-pressed during all-stereoscopic shooting. The yaw (elevation angle φ) and roll (rotation angle ψ) are acquired, and the pitch (azimuth angle θ), yaw (elevation angle φ), and roll (rotation angle ψ) from the optical axis coordinates of the digital camera, the rotation angle of the digital camera, And the spherical coordinates of the photographed image are calculated, a memory address at which an image photographed in that direction is to be recorded is calculated according to the optical axis coordinate, the rotation angle, and the spherical coordinate, and the image memory 31 is stored according to the memory address. When accessing and already recorded image data (hereinafter referred to as an already imaged image) is recorded, the area corresponding to the already imaged portion on the through image is monochrome (translucent) In controls to identification. Further, at this time, instead of identifying and displaying on the through image in monochrome (semi-transparent), a part of the already photographed image is combined with the through image in monochrome (semi-transparent) and displayed on the display unit 25. You may control so. If the image has not yet been photographed in that direction, the image is naturally displayed in monochrome (semi-transparent) and the already photographed image is not displayed.

したがって、ユーザがシャッタ半押し状態でデジタルカメラを任意の方向に振ると、一度でも撮影されている場合には、リアルタイムで既撮影済み領域がモノクロ(半透明)で識別表示されることになる(または、リアルタイムで既撮影済画像がモノクロ(半透明)でスルー画像に合成されて表示部25に表示されることになる)。ユーザは、スルー画像と既撮影済画像との位置関係をリアルタイムで確認しながら、既撮影済画像と連続するように撮影レームを定めることが可能となる。すなわち、全立体方位の画像を隙間なく撮影するためには、ユーザは、表示部25に既撮影済み領域がモノクロ(半透明)で識別表示されるように撮影フレームを定めればよい。   Therefore, if the user shakes the digital camera in an arbitrary direction while the shutter is half-pressed, if the image has been taken even once, the already taken area is identified and displayed in monochrome (semi-transparent) in real time ( (Alternatively, the already captured image is combined with the through image in monochrome (translucent) in real time and displayed on the display unit 25). The user can determine the shooting frame so as to be continuous with the already shot image while confirming the positional relationship between the through image and the already shot image in real time. That is, in order to capture an image in all three-dimensional directions without a gap, the user may determine a shooting frame so that the already-photographed area is identified and displayed on the display unit 25 in monochrome (translucent).

制御部(CPU)20は、シャッタが全押しされると、その時点において3軸磁気センサ34により計測されたピッチ(方位角θ)、ヨー(仰角φ)、ロール(回転角ψ)を元に算出または変換されたメモリアドレスに従って、撮影画像データを画像メモリ31に保存する。したがって、既撮影済画像部分がある場合には、該既撮影済画像部分、すなわち重複部分は上書きされ、未撮影部分は、新たに記録されることになる。   When the shutter is fully pressed, the control unit (CPU) 20 is based on the pitch (azimuth angle θ), yaw (elevation angle φ), and roll (rotation angle ψ) measured by the triaxial magnetic sensor 34 at that time. The captured image data is stored in the image memory 31 in accordance with the calculated or converted memory address. Therefore, when there is a pre-photographed image portion, the pre-photographed image portion, that is, the overlapping portion is overwritten, and the non-photographed portion is newly recorded.

なお、本実施形態では、従来技術のように撮影する順番が決まっておらず、任意の位置を任意の(ランダムな)順番で撮影することが可能となっている。また、本実施形態では、デジタルカメラの光軸座標、及び撮影画像の球座標から画像メモリ31のメモリアドレスへの変換は、光軸座標、回転角、及び撮影画像の球座標とメモリアドレスとを対応付けた変換テーブルを用意し、該変換テーブルを介して変換してもよし、所定の演算式に従って算出してもよい。   In the present embodiment, the order of shooting is not determined as in the prior art, and it is possible to shoot at an arbitrary position in an arbitrary (random) order. In the present embodiment, the conversion from the optical axis coordinates of the digital camera and the spherical coordinates of the photographed image to the memory addresses of the image memory 31 is performed using the optical axis coordinates, the rotation angle, and the spherical coordinates of the photographed image and the memory address. An associated conversion table may be prepared and converted via the conversion table, or may be calculated according to a predetermined arithmetic expression.

プレビューエンジン22は、録画モード(記録モード、撮影モードともいう)において、画像取得部10、アナログ信号処理部15を介して入力されたデジタルデータ、もしくはシャッタ操作検出直後、イメージバッファ26に格納されたデジタルデータ、および、画像メモリ31に格納されたデジタルデータを表示部25に表示させるために間引き処理を行なう。   The preview engine 22 is stored in the image buffer 26 immediately after detection of digital data input via the image acquisition unit 10 and the analog signal processing unit 15 in the recording mode (also referred to as recording mode or photographing mode) or shutter operation detection. Thinning processing is performed in order to display the digital data and the digital data stored in the image memory 31 on the display unit 25.

D/Aコンバータ23は、プレビューエンジン22により間引き処理されたデジタルデータを変換し、後段のドライバ24に出力する。ドライバ24は、後段の表示部25に表示されるデジタルデータを一時記憶するバッファ領域を備え、キー操作部27、制御部20を介して入力された制御信号に基づいて表示部25を駆動させる。表示部25は、カラーTFT液晶や、STN液晶などからなり、プレビュー画像や、撮影後の画像データ、設定メニューなどを表示する。   The D / A converter 23 converts the digital data thinned out by the preview engine 22 and outputs it to the driver 24 at the subsequent stage. The driver 24 includes a buffer area for temporarily storing digital data displayed on the display unit 25 at the subsequent stage, and drives the display unit 25 based on a control signal input via the key operation unit 27 and the control unit 20. The display unit 25 includes a color TFT liquid crystal, an STN liquid crystal, or the like, and displays a preview image, image data after shooting, a setting menu, and the like.

イメージバッファ26は、アナログ信号処理部15、もしくはデジタル信号処理部28を介して入力され、デジタル信号処理部28に渡すまで一時的に撮影直後のデジタルデータを格納する。キー操作部27は、シャッタボタン7を含め、記録/再生モードの切り換えキー、十字キー、メニューキー等などの各種操作キーなどからなる。デジタル信号処理部28は、アナログ信号処理部15を介して入力されたデジタルデータ(非圧縮のRAWイメージデータ)に対して、ホワイトバランス処理、色処理、階調処理、輸郭強調を行なう。画像圧縮/伸張処理部29は、デジタル信号処理部28を介して入力されたデジタルデータ(非圧縮のRAWイメージデータ)をJPEG方式に圧縮符号化したり、再生モードにおいては、JPEG形式のファイルを伸張する。   The image buffer 26 temporarily stores digital data immediately after photographing until it is input via the analog signal processing unit 15 or the digital signal processing unit 28 and passed to the digital signal processing unit 28. The key operation unit 27 includes a shutter button 7 and various operation keys such as a recording / reproducing mode switching key, a cross key, and a menu key. The digital signal processing unit 28 performs white balance processing, color processing, gradation processing, and outline emphasis on the digital data (uncompressed RAW image data) input via the analog signal processing unit 15. The image compression / decompression processing unit 29 compresses and encodes digital data (uncompressed RAW image data) input via the digital signal processing unit 28 into the JPEG format, or decompresses a JPEG format file in the playback mode. To do.

プログラムメモリ30は、制御部20にロードされる各種プログラムなどを格納する。画像メモリ31は、各種ファイル形式に変換されたデジタルデータを格納する。カードI/F32は、外部記録媒体33と撮像装置本体との間のデータ交換を制御する。外部記録媒体33は、コンパクトフラッシュ(登録商標)、メモリースティック、SDカード等からなる。   The program memory 30 stores various programs loaded on the control unit 20. The image memory 31 stores digital data converted into various file formats. The card I / F 32 controls data exchange between the external recording medium 33 and the imaging apparatus main body. The external recording medium 33 includes a compact flash (registered trademark), a memory stick, an SD card, and the like.

3軸磁気センサ34は、3軸それぞれの磁気レベルを計測するセンサであり、センサのピッチ(方位角θ)、ヨー(仰角φ)、ロール(回転角ψ)(または、姿勢を唯一に規定する3つの角度)を取得する。該センサによりピッチ(方位角θ)、ヨー(仰角φ)、ロール(回転角ψ)を取得することにより、シャッタ半押し状態時、またはシャッタ全押し状態時(撮影時)のカメラの光軸方向(光軸の東西南北の方位角と仰角)と、カメラの回転角(光軸を回転軸としてどれだけ傾いているかを示す情報)とを算出することが可能となる。なお、全立体方位撮影でのカメラの光軸座標と撮影画像の球座標との詳細については後述する。   The triaxial magnetic sensor 34 is a sensor that measures the magnetic level of each of the three axes, and uniquely defines the sensor pitch (azimuth angle θ), yaw (elevation angle φ), and roll (rotation angle ψ) (or posture). Three angles). By acquiring the pitch (azimuth angle θ), yaw (elevation angle φ), and roll (rotation angle ψ) by the sensor, the optical axis direction of the camera when the shutter is half-pressed or when the shutter is fully pressed (shooting) It is possible to calculate (the azimuth and elevation angles of the east, west, north, and south of the optical axis) and the rotation angle of the camera (information indicating how much the optical axis is tilted about the rotation axis). Note that details of the optical axis coordinates of the camera and the spherical coordinates of the captured image in all stereoscopic shooting will be described later.

マイクロフォン36は、動画撮影時などに音声を入力する。スピーカ37は、動画再生時などに音声を出力する。音声処理部38は、所定のコーディックにより符号化(圧縮)/復号化(伸張)などを行うことにより、スピーカ37へ出力する音声データのアナログ化、マイクロフォン36からの音声信号のデジタル化などを行う。   The microphone 36 inputs sound when shooting a moving image. The speaker 37 outputs sound when playing back a moving image. The audio processing unit 38 performs encoding (compression) / decoding (decompression) or the like using a predetermined codec, thereby converting the audio data output to the speaker 37 into an analog signal and digitizing the audio signal from the microphone 36. .

図2は、本実施形態によるデジタルカメラでの全立体方位撮影でのカメラの光軸座標と撮影画像の球座標とを説明するための概念図である。例えば、デジタルカメラをある方向に向けてシャッタ半押し状態とすると、図2に示すように、そのときの3軸磁気センサ34のピッチ(方位角θ)、ヨー(仰角φ)、ロール(回転角ψ)が取得される。そして、ピッチ(方位角θ)、ヨー(仰角φ)、ロール(回転角ψ)からシャッタ半押し状態時、またはシャッタ全押し状態時(撮影時)における、カメラの光軸方向(1,θ,φ)と、カメラの回転角(ψ)と、撮影画像の球座標(1,θ,φ)、(1,θ,φ)、(1,θ,φ)、(1,θ,φ)とが算出される。 FIG. 2 is a conceptual diagram for explaining the optical axis coordinates of the camera and the spherical coordinates of the photographed image in omnidirectional photographing with the digital camera according to the present embodiment. For example, when the digital camera is turned halfway toward a certain direction, as shown in FIG. 2, the pitch (azimuth angle θ), yaw (elevation angle φ), roll (rotation angle) of the three-axis magnetic sensor 34 at that time is shown. ψ) is obtained. Then, from the pitch (azimuth angle θ), yaw (elevation angle φ), and roll (rotation angle ψ), when the shutter is half-pressed or when the shutter is fully pressed (shooting), the optical axis direction (1, θ, and phi), rotation angle of the camera and ([psi), spherical coordinates of the captured image (1, θ 0, φ 0 ), (1, θ 1, φ 1), (1, θ 2, φ 2), (1 , Θ 3 , φ 3 ) are calculated.

制御部(CPU)20は、シャッタが半押し、または全押しされると、撮影範囲が球面のどの部分であるかを、上記カメラの光軸方向(1,θ,φ)と、カメラの回転角(ψ)と、撮影画像の球座標(1,θ,φ)、(1,θ,φ)、(1,θ,φ)、(1,θ,φ)とから判別し、対応するメモリアドレスへ変換、または算出する。 When the shutter is half-pressed or fully pressed, the control unit (CPU) 20 determines which part of the spherical surface the shooting range is in the optical axis direction (1, θ, φ) of the camera and the rotation of the camera. Angle (ψ) and spherical coordinates (1, θ 0 , φ 0 ), (1, θ 1 , φ 1 ), (1, θ 2 , φ 2 ), (1, θ 3 , φ 3 ) of the captured image And converted to a corresponding memory address or calculated.

図3は、本実施形態によるデジタルカメラをある方向に向けてシャッタ半押し状態にした場合の様子を説明するための模式図である。ある風景において、斜線部分A1、A2は、既に撮影した部分であり、矩形枠L1は、現在、デジタルカメラが向けられている方向で、撮影されるフレーム(画角)に相当する。   FIG. 3 is a schematic diagram for explaining a state in which the digital camera according to the present embodiment is in a half-pressed state toward a certain direction. In a certain landscape, hatched portions A1 and A2 are portions that have already been shot, and the rectangular frame L1 corresponds to a frame (view angle) that is shot in the direction in which the digital camera is currently directed.

図4は、本実施形態によるデジタルカメラをある方向に向けてシャッタ半押し状態にした場合のスルー画像の表示例を示す模式図である。上述した図3に示すような場合、デジタルカメラの表示部25には、図4に示すように、既撮影済部分(斜線部分A1、A2に相当する)Aがモノクロ(半透明)でスルー画像上に識別表示されることになる。ユーザは、表示部25に表示されているスルー画像を見ることで、まだ撮影されていない部分を容易に識別することができ、容易に全立体方位の画像を隙間なく撮影することができる。   FIG. 4 is a schematic diagram illustrating a display example of a through image when the digital camera according to the present embodiment is in a half-pressed state toward a certain direction. In the case shown in FIG. 3, the digital camera display unit 25 has a monochrome (semi-transparent) through image as shown in FIG. 4 where the already photographed part (corresponding to the hatched parts A1 and A2) A is monochrome. It will be identified and displayed above. By viewing the through image displayed on the display unit 25, the user can easily identify a portion that has not yet been photographed, and can easily photograph images in all three-dimensional directions without gaps.

図5は、本実施形態によるデジタルカメラにおいて、全立体方位の撮影状況をユーザに知らせるための一表示例を示す模式図である。前述したように、撮影時には表示部25に既撮影済部分がモノクロ(半透明)で表示される。これに加え、図5に示すように、撮影済み部分(斜線部分)と未撮影部分(白抜き部分)とを色分けなどして区別するとともに、仮想球面と現在のデジタルカメラの向き(▲)との関係を表示するようにしてもよい。   FIG. 5 is a schematic diagram showing a display example for informing the user of the shooting situation of all stereoscopic directions in the digital camera according to the present embodiment. As described above, at the time of shooting, the already shot portion is displayed in monochrome (translucent) on the display unit 25. In addition to this, as shown in FIG. 5, the photographed portion (shaded portion) and the unphotographed portion (outlined portion) are distinguished by color coding, and the virtual spherical surface and the current digital camera orientation (▲) The relationship may be displayed.

A−2.実施形態の動作
次に、上述した実施形態の動作について説明する。
図6は、本実施形態によるデジタルカメラの全立体方位撮影時の動作を説明するためのフローチャートである。全立体方位撮影モードが選択されると、まず、スルー画像を表示部25に表示し(ステップS10)、シャッタ半押しであるか否かを判断する(ステップS12)。そして、シャッタ半押しでない場合には、ステップS10に戻り、通常撮影と同様に、スルー画像の表示を継続する。
A-2. Operation of Embodiment Next, the operation of the above-described embodiment will be described.
FIG. 6 is a flowchart for explaining the operation of the digital camera according to this embodiment at the time of photographing in all stereoscopic directions. When the omnidirectional shooting mode is selected, first, a through image is displayed on the display unit 25 (step S10), and it is determined whether the shutter is half-pressed (step S12). If the shutter is not half-pressed, the process returns to step S10, and the through image display is continued as in the normal shooting.

一方、シャッタ半押し操作された場合には、3軸磁気センサ34からピッチ(方位角θ)、ヨー(仰角φ)、ロール(回転角ψ)を取得し(ステップS14)、該ピッチ(方位角θ)、ヨー(仰角φ)、ロール(回転角ψ)から光軸方向(1,θ,φ)と、カメラの回転角(ψ)と、撮影画像の球座標(1,θ,φ)、(1,θ,φ)、(1,θ,φ)、(1,θ,φ)とを算出する(ステップS16)。次に、光軸方向(1,θ,φ)と、カメラの回転角(ψ)と、撮影画像の球座標(1,θ,φ)、(1,θ,φ)、(1,θ,φ)、(1,θ,φ)とを、画像メモリ31のメモリアドレスに変換し(ステップS18)、メモリアドレスに従って画像メモリ31から撮影画角内の撮影データを読み出す(ステップS20)。 On the other hand, when the shutter is half-pressed, the pitch (azimuth angle θ), yaw (elevation angle φ), and roll (rotation angle ψ) are obtained from the triaxial magnetic sensor 34 (step S14). θ), yaw (elevation angle φ), roll (rotation angle ψ) to optical axis direction (1, θ, φ), camera rotation angle (ψ), and spherical coordinates (1, θ 0 , φ 0 of the captured image) ), (1, θ 1 , φ 1 ), (1, θ 2 , φ 2 ), (1, θ 3 , φ 3 ) are calculated (step S 16). Next, the optical axis direction (1, θ, φ), the rotation angle (ψ) of the camera, and the spherical coordinates (1, θ 0 , φ 0 ), (1, θ 1 , φ 1 ), ( 1, θ 2 , φ 2 ), (1, θ 3 , φ 3 ) are converted into memory addresses of the image memory 31 (step S 18), and the shooting data within the shooting angle of view is converted from the image memory 31 according to the memory addresses. Read (step S20).

次に、読み出した撮影データに撮影済み部分があるか否かを判断し(ステップS22)、既撮影済画像部分がある場合には、既撮影済画像部分をモノクロ(半透明)でスルー画像に識別可能に表示する(ステップS24)。なお、ここで、撮影済み部分があるか否かの判断は、読み出した撮影データに初期状態の黒(または白)のままのデータ領域があるか否かで判断する。また、撮影済み領域と非撮影済み領域を示す管理データを別途記憶している場合であれば、領域の座標データを比較することで判断してもよい。次に、シャッタが全押しされたか否かを判断し(ステップS26)、シャッタが全押しされなければ、ステップS10に戻り、上述した処理を繰り返す。   Next, it is determined whether or not there is a photographed portion in the read photographing data (step S22). If there is a photographed image portion, the photographed image portion is converted into a through image in monochrome (translucent). It displays so that it can be identified (step S24). Here, whether or not there is a captured part is determined by whether or not there is a data area that remains in the initial black (or white) in the read captured data. Further, if management data indicating the photographed area and the non-photographed area is separately stored, the determination may be made by comparing the coordinate data of the areas. Next, it is determined whether or not the shutter is fully pressed (step S26). If the shutter is not fully pressed, the process returns to step S10 and the above-described processing is repeated.

一方、既撮影済画像部分がない場合には、そのままシャッタが全押しされたか否かを判断し(ステップS26)、シャッタが全押しされなければ、ステップS10に戻り、上述した処理を繰り返す。   On the other hand, if there is no already captured image portion, it is determined whether or not the shutter is fully pressed (step S26). If the shutter is not fully pressed, the process returns to step S10 and the above-described processing is repeated.

したがって、ユーザがシャッタ半押し状態でデジタルカメラを任意の方向に振ると、一度でも撮影されている場合には、リアルタイムで既撮影済画像部分がモノクロ(半透明)でスルー画像上に識別可能に表示されることになる。ユーザは、スルー画像と既撮影済画像との位置関係をリアルタイムで確認しながら、既撮影済画像と連続するように、あるいは既撮影済部分を除外するように撮影レームを定めることが可能となる。すなわち、全立体方位の画像を隙間なく、かつできるだけ重複することなく撮影するためには、ユーザは、表示部25に既撮影済画像部分がモノクロ(半透明)で識別表示されないように撮影フレームを定めればよい。   Therefore, if the user shakes the digital camera in any direction with the shutter half-pressed, the captured image portion can be identified on the through image in monochrome (semi-transparent) in real time if it has been captured even once. Will be displayed. The user can determine the shooting frame so as to be continuous with the already shot image or to exclude the already shot portion while confirming the positional relationship between the through image and the already shot image in real time. . That is, in order to shoot images in all three-dimensional directions with no gaps and without overlapping as much as possible, the user sets a shooting frame so that the already-taken image portion is not displayed in monochrome (semi-transparent) on the display unit 25. You just have to decide.

一方、シャッタが全押しされると、上記メモリアドレスに従って撮影画像データを画像メモリ31に記録する(ステップS28)。すなわち、既撮影済画像部分がある場合には、該既撮影済画像部分、すなわち重複部分は上書きされ、未撮影部分は、新たに記録されることになる。次に、仮想球面上の全ての領域が撮影されたか否かを判断し(ステップS30)、全ての領域が撮影されていない場合には、ステップ10に戻り、上述した処理を繰り返す。一方、仮想球面上の全ての領域が撮影された場合には、全立体方位の撮影終了をモニタ等で告知し(ステップS32)、当該処理を終了する。なお、ここで、仮想球面上の全ての領域が撮影されたか否かの判断は、画像メモリ31の全体に初期状態の黒(または白)のままのデータ領域があるか否かで判断する。   On the other hand, when the shutter is fully pressed, the photographed image data is recorded in the image memory 31 according to the memory address (step S28). In other words, if there is a pre-photographed image portion, the pre-photographed image portion, that is, the overlapping portion is overwritten, and the non-photographed portion is newly recorded. Next, it is determined whether or not all areas on the virtual spherical surface have been imaged (step S30). If all areas have not been imaged, the process returns to step 10 to repeat the above-described processing. On the other hand, when all the regions on the virtual spherical surface have been photographed, the end of photographing in all three-dimensional directions is notified on a monitor or the like (step S32), and the processing is finished. Here, whether or not all the areas on the virtual spherical surface have been photographed is determined based on whether or not there is a data area that remains black (or white) in the initial state in the entire image memory 31.

上述した実施形態によれば、特殊な装置を用いることなく、一般のユーザが手軽に全立体方位の画像を撮影することができる。また、本実施形態では、従来技術のように撮影する順番が決まっておらず、任意の位置を任意の(ランダムな)順番で撮影することができ、全立体方位の画像を隙間なく容易に撮影することができる。   According to the above-described embodiment, a general user can easily take an image in all three-dimensional directions without using a special device. Further, in this embodiment, the shooting order is not determined as in the prior art, and any position can be shot in any (random) order, and images in all three-dimensional directions can be easily shot without gaps. can do.

なお、上述した実施形態において、全立体方位の写真撮影は、理想的には、撮像素子を中心としてカメラを回転させるように動かすことで、全方向に向けて行なわれるべきものである。しかしながら、デジタルカメラの形態は、専用のものではなく、通常のものであるから、異なる方向を撮影するたびに、若干の平行移動成分も含まれてしまうことが考えられる。これらの平行移動が激しいと、撮影対象までの距離との兼ね合いによっては、パノラマ合成のときに画像のつながりがうまくいかないこともあり得るが、本発明では、大きな破綻が起きない程度には、平行移動成分が含まれる可能性もあるとする。   Note that, in the above-described embodiment, photography in all three-dimensional directions should ideally be performed in all directions by moving the camera around the image sensor so as to rotate. However, since the form of the digital camera is not a dedicated one but a normal one, it is conceivable that some parallel movement components are included every time a different direction is photographed. If these parallel movements are intense, depending on the balance with the distance to the subject, the images may not be connected properly during panorama synthesis.In the present invention, however, the parallel movements do not cause a major breakdown. Ingredients may also be included.

この場合、撮影済みの領域をユーザに表示する目的で、その領域だけを明度を下げて表示部25に識別表示するときに、それまで写真を撮るたびに求めた4隅分の球座標上の点を結んだ線をそのまま撮影済み領域との境界線としてしまうと、平行移動成分があったときに、ユーザの撮影の重ね方が少ない場合には、撮り残し領域が発生してしまう可能性がある。これをできるだけ避けるため、撮影済みの領域を表示部25に識別表示するときには、求めた4隅の球座棟点よりも、若干内側の点を結んだ四角形を撮影済み領域として表示するようにすればよい。   In this case, in order to display the photographed area for the user, when only the area is identified and displayed on the display unit 25 with reduced brightness, the four corners on the spherical coordinates obtained each time a picture is taken are displayed. If the line connecting the points is used as the boundary line with the captured area as it is, if there is a parallel movement component and there are few ways to overlap the shooting of the user, there is a possibility that an unrecorded area will occur. is there. In order to avoid this as much as possible, when the captured area is identified and displayed on the display unit 25, a quadrilateral connecting points slightly inside the four corner stake points is displayed as the captured area. That's fine.

あるいは、図7(a)、(b)に示すように、表示部25にガイド25−1を表示し、同図(a)に示すように、識別表示される既撮影済部分A1、A2がガイド25−1より外側に位置する場合には、取り残し領域が発生する可能性が高いので、ユーザに警告し(例えば、ガイド25−1を赤色で点滅表示し、シャッタの全押しを無効とする)、同図(b)に示すように、識別表示される既撮影済部分A3がガイド25−1より内側に位置する場合には、非警告(例えば、ガイド25−1を青や緑で表示し、シャッタの全押しを有効とする)とするようにしてもよい。   Alternatively, as shown in FIGS. 7A and 7B, a guide 25-1 is displayed on the display unit 25. As shown in FIG. 7A, the already photographed portions A1 and A2 that are identified and displayed are displayed. If it is located outside the guide 25-1, there is a high possibility that a left-over area will occur, so a warning is given to the user (for example, the guide 25-1 blinks in red to disable full-pressing of the shutter). ), When the already photographed portion A3 to be identified and displayed is located inside the guide 25-1, as shown in FIG. 5B, a non-warning (for example, the guide 25-1 is displayed in blue or green). It is also possible to make full pressing of the shutter effective).

また、上述した実施形態では、仮想球面上の全ての領域の撮影が終了するまで全立体方位の撮影を継続するようにしたが、仮想球面上の全ての領域が撮影される前に、ユーザ操作により全立体方位撮影を中断可能にしてもよい。   Further, in the above-described embodiment, shooting in all three-dimensional directions is continued until shooting of all areas on the virtual sphere is completed. However, user operation is performed before all areas on the virtual sphere are shot. Thus, it may be possible to interrupt the photographing in all three-dimensional directions.

10 画像取得部
11 レンズ
12 シャッタ
13 LPF
14 ドライバ
15 アナログ信号処理部
16 撮像センサ
17 サンプリング/信号増幅処理部
18 A/Dコンバータ
20 制御部(CPU)
22 プレビューエンジン
23 D/Aコンバータ
24 ドライバ
25 表示部
26 イメージバッファ
27 キー操作部
28 デジタル信号処理部
29 画像圧縮/伸張処理部
30 プログラムメモリ
31 画像メモリ
32 カードI/F
33 外部記録媒体
34 3軸磁気センサ
38 音声処理部
36 マイクロフォン
37 スピーカ
10 Image Acquisition Unit 11 Lens 12 Shutter 13 LPF
14 Driver 15 Analog Signal Processing Unit 16 Imaging Sensor 17 Sampling / Signal Amplification Processing Unit 18 A / D Converter 20 Control Unit (CPU)
22 Preview Engine 23 D / A Converter 24 Driver 25 Display Unit 26 Image Buffer 27 Key Operation Unit 28 Digital Signal Processing Unit 29 Image Compression / Expansion Processing Unit 30 Program Memory 31 Image Memory 32 Card I / F
33 External recording medium 34 Triaxial magnetic sensor 38 Audio processor 36 Microphone 37 Speaker

Claims (12)

撮像手段と、
表示手段と、
前記撮像手段の撮影方向をリアルタイムに検知する検知手段と、
前記撮像手段により撮像される全方位における撮影済みの画像を、前記検知手段により検知された撮影方向に対応付けて記憶する記憶手段と、
前記検知手段により検知された撮影方向に対する前記記憶手段による画像の記憶状況をリアルタイムに読み出し、その記憶状況を前記表示手段に表示する表示制御手段と
を備えることを特徴とする撮像装置。
Imaging means;
Display means;
Detection means for detecting the shooting direction of the imaging means in real time;
Storage means for storing images taken in all directions imaged by the imaging means in association with imaging directions detected by the detection means;
An image pickup apparatus comprising: a display control unit that reads out in real time an image storage state by the storage unit with respect to the photographing direction detected by the detection unit, and displays the storage state on the display unit.
前記表示手段は、
前記撮像手段により撮像される全方位における画像をスルー表示し、
前記表示制御手段は、
前記検知手段により検知された撮影方向に対する前記記憶手段による画像の記憶状況をリアルタイムに読み出し、前記表示手段にスルー表示されている画像上に、撮影済み領域と非撮影済み領域とを識別可能に表示する、
ことを特徴とする請求項1記載の撮像装置。
The display means includes
Through-display images in all directions imaged by the imaging means,
The display control means includes
The storage state of the image by the storage unit with respect to the shooting direction detected by the detection unit is read in real time, and the photographed area and the non-photographed area are displayed on the through-displayed image on the display unit in a distinguishable manner. To
The imaging apparatus according to claim 1.
前記表示制御手段は、
前記表示手段にスルー表示されている画像上で、非撮影済み領域をカラー表示し、撮影済み領域をモノクロ表示する、
ことを特徴とする請求項2記載の撮像装置。
The display control means includes
A non-photographed area is displayed in color on the through-displayed image on the display means, and the photographed area is displayed in monochrome.
The imaging apparatus according to claim 2.
前記表示手段は、
前記撮像手段により撮像される全方位における画像をスルー表示し、
前記表示制御手段は、
前記記憶手段に撮影方向に対応付けて記憶されている撮影済みの画像を、前記検知手段により検知された撮影方向に基づいてリアルタイムに読み出し、前記表示手段にスルー表示されている画像上に識別可能に合成して表示する、
ことを特徴とする請求項1記載の撮像装置。
The display means includes
Through-display images in all directions imaged by the imaging means,
The display control means includes
A captured image stored in the storage means in association with the shooting direction can be read out in real time based on the shooting direction detected by the detection means, and can be identified on the through-displayed image on the display means Synthesize and display
The imaging apparatus according to claim 1.
前記表示制御手段は、
撮影済みの画像を、前記表示手段にスルー表示されている画像上に半透明で識別可能に合成して表示する、
ことを特徴とする請求項4記載の撮像装置。
The display control means includes
A photographed image is displayed in a semi-transparent and identifiable manner on the through-displayed image on the display means.
The imaging apparatus according to claim 4.
前記検知手段は、
前記撮像手段による撮影方向として、上下方向、左右方向、及び回転方向を検出する、
ことを特徴とする請求項1乃至5のいずれかに記載の撮像装置。
The detection means includes
Detecting a vertical direction, a horizontal direction, and a rotation direction as a shooting direction by the imaging means,
The imaging apparatus according to claim 1, wherein the imaging apparatus is an imaging apparatus.
全方位に対する全ての撮影を完了したことを判定して通知する撮影完了通知手段を更に備えることを特徴とする請求項1乃至6のいずれかに記載の撮像装置。   The imaging apparatus according to claim 1, further comprising imaging completion notification means for determining and notifying that all imaging for all directions has been completed. 前記検知手段により検知された前記撮像手段による撮影方向を、前記記憶手段の記憶領域アドレスに変換する変換手段を更に備え、
前記記憶手段は、
前記変換手段に変換された記憶領域アドレスで示される記憶領域に前記撮像手段により撮像される全方位における撮影済みの画像を記憶する、
ことを特徴とする請求項1乃至7のいずれかに記載の撮像装置。
Further comprising conversion means for converting the shooting direction by the imaging means detected by the detection means into a storage area address of the storage means,
The storage means
Storing captured images in all directions captured by the imaging unit in the storage area indicated by the storage area address converted by the conversion unit;
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
撮像部により撮像した画像を表示部に表示するとともに、記憶部に記憶する撮像方法であって、
前記撮像部の撮影方向をリアルタイムに検知するステップと、
前記撮像部により撮像される全方位における撮影済みの画像を、前記検知された撮影方向に対応付けて前記記憶部に記憶するステップと、
前記検知された撮影方向に対する前記記憶部による画像の記憶状況をリアルタイムに読み出し、その記憶状況を前記表示部に表示するステップと
を含むことを特徴とする撮像方法。
An image capturing method for displaying an image captured by an image capturing unit on a display unit and storing the image in a storage unit,
Detecting the shooting direction of the imaging unit in real time;
Storing images taken in all directions imaged by the imaging unit in the storage unit in association with the detected shooting direction;
An image capturing method comprising: reading out in real time a storage state of an image stored in the storage unit with respect to the detected shooting direction, and displaying the storage state on the display unit.
全方位に対する全ての撮影を完了したことを判定して通知するステップを更に含むことを特徴とする請求項9記載の撮像方法。   The imaging method according to claim 9, further comprising a step of determining and notifying that all photographing in all directions has been completed. 前記検知された前記撮像部による撮影方向を、前記記憶部の記憶領域アドレスに変換するステップと、
前記変換された記憶領域アドレスで示される記憶領域に前記撮像部により撮像される全方位における撮影済みの画像を記憶するステップと
を更に含むことを特徴とする請求項9または10に記載の撮像方法。
Converting the detected shooting direction of the imaging unit into a storage area address of the storage unit;
The imaging method according to claim 9, further comprising: storing captured images in all directions captured by the imaging unit in a storage area indicated by the converted storage area address. .
撮像部と、該撮像部により撮像した画像を表示する表示部と、撮影した画像を記憶する記憶部とを備える撮像装置のコンピュータに、
前記撮像部の撮影方向をリアルタイムに検知するステップと、
前記撮像部により撮像される全方位における撮影済みの画像を、前記検知された撮影方向に対応付けて前記記憶部に記憶するステップと、
前記検知された撮影方向に対する前記記憶部による画像の記憶状況をリアルタイムに読み出し、その記憶状況を前記表示部に表示するステップと
を実行させることを特徴とするプログラム。

In a computer of an imaging apparatus comprising an imaging unit, a display unit that displays an image captured by the imaging unit, and a storage unit that stores the captured image,
Detecting the shooting direction of the imaging unit in real time;
Storing images taken in all directions imaged by the imaging unit in the storage unit in association with the detected shooting direction;
A program that reads in real time the image storage state of the storage unit with respect to the detected shooting direction and displays the storage state on the display unit.

JP2009042288A 2009-02-25 2009-02-25 Image pickup apparatus, imaging method, and program Pending JP2010199971A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009042288A JP2010199971A (en) 2009-02-25 2009-02-25 Image pickup apparatus, imaging method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009042288A JP2010199971A (en) 2009-02-25 2009-02-25 Image pickup apparatus, imaging method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013200915A Division JP2014003715A (en) 2013-09-27 2013-09-27 Imaging apparatus, imaging method and program

Publications (2)

Publication Number Publication Date
JP2010199971A true JP2010199971A (en) 2010-09-09
JP2010199971A5 JP2010199971A5 (en) 2012-03-29

Family

ID=42824234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009042288A Pending JP2010199971A (en) 2009-02-25 2009-02-25 Image pickup apparatus, imaging method, and program

Country Status (1)

Country Link
JP (1) JP2010199971A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4763847B1 (en) * 2010-08-30 2011-08-31 楽天株式会社 Image conversion apparatus, image processing apparatus, and image processing system
JP4783859B1 (en) * 2010-08-30 2011-09-28 楽天株式会社 Image conversion apparatus, image processing system, image conversion method, program, and information recording medium
JP2012222541A (en) * 2011-04-07 2012-11-12 Casio Comput Co Ltd Imaging apparatus, image compositing method and program
JP2013003259A (en) * 2011-06-14 2013-01-07 Pentax Ricoh Imaging Co Ltd Azimuth measurement method and azimuth measurement instrument using three-axis electronic compass
JP2014053794A (en) * 2012-09-07 2014-03-20 Nintendo Co Ltd Information processing program, information processing apparatus, information processing system, and information processing method
JP2014509126A (en) * 2011-01-31 2014-04-10 サムスン エレクトロニクス カンパニー リミテッド Photographing device for photographing a panoramic image and its panoramic photographing method
EP2779114A1 (en) 2013-03-11 2014-09-17 Dai Nippon Printing Co., Ltd. Apparatus for interactive virtual walkthrough
JP2016095310A (en) * 2015-12-04 2016-05-26 リコーイメージング株式会社 Bearing measurement method and bearing measurement device
JP2016134921A (en) * 2015-01-19 2016-07-25 株式会社リコー Preview image acquisition user interface for linear panoramic image stitching
US9594980B1 (en) 2015-01-19 2017-03-14 Ricoh Co., Ltd. Image acquisition user interface for linear panoramic image stitching

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06259557A (en) * 1993-03-09 1994-09-16 Toshiba Corp Picture input device
JPH1169293A (en) * 1997-08-21 1999-03-09 Sony Corp Image processing system and camcorder
JPH1175108A (en) * 1997-08-28 1999-03-16 Casio Comput Co Ltd Camera device and image pickup method
JP2001057652A (en) * 1999-08-18 2001-02-27 Ricoh Co Ltd Image input device and image input method
JP2001298652A (en) * 2000-04-17 2001-10-26 Sony Corp Method and device for compressing image and software storage medium
JP2007174301A (en) * 2005-12-22 2007-07-05 Toshiba Corp Image photographing apparatus
JP2007266667A (en) * 2006-03-27 2007-10-11 Nec Electronics Corp Camera-equipped mobile apparatus, control method thereof, and photographing support method thereof
JP2008306284A (en) * 2007-06-05 2008-12-18 Olympus Imaging Corp Photographing apparatus, display method and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06259557A (en) * 1993-03-09 1994-09-16 Toshiba Corp Picture input device
JPH1169293A (en) * 1997-08-21 1999-03-09 Sony Corp Image processing system and camcorder
JPH1175108A (en) * 1997-08-28 1999-03-16 Casio Comput Co Ltd Camera device and image pickup method
JP2001057652A (en) * 1999-08-18 2001-02-27 Ricoh Co Ltd Image input device and image input method
JP2001298652A (en) * 2000-04-17 2001-10-26 Sony Corp Method and device for compressing image and software storage medium
JP2007174301A (en) * 2005-12-22 2007-07-05 Toshiba Corp Image photographing apparatus
JP2007266667A (en) * 2006-03-27 2007-10-11 Nec Electronics Corp Camera-equipped mobile apparatus, control method thereof, and photographing support method thereof
JP2008306284A (en) * 2007-06-05 2008-12-18 Olympus Imaging Corp Photographing apparatus, display method and program

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4783859B1 (en) * 2010-08-30 2011-09-28 楽天株式会社 Image conversion apparatus, image processing system, image conversion method, program, and information recording medium
JP4763847B1 (en) * 2010-08-30 2011-08-31 楽天株式会社 Image conversion apparatus, image processing apparatus, and image processing system
US10498956B2 (en) 2011-01-31 2019-12-03 Samsung Electronics Co., Ltd. Photographing apparatus for photographing panoramic image using visual elements on a display, and method thereof
JP2014509126A (en) * 2011-01-31 2014-04-10 サムスン エレクトロニクス カンパニー リミテッド Photographing device for photographing a panoramic image and its panoramic photographing method
US11317022B2 (en) 2011-01-31 2022-04-26 Samsung Electronics Co., Ltd. Photographing apparatus for photographing panoramic image using visual elements on a display, and method thereof
US11025820B2 (en) 2011-01-31 2021-06-01 Samsung Electronics Co., Ltd. Photographing apparatus for photographing panoramic image using visual elements on a display, and method thereof
JP2012222541A (en) * 2011-04-07 2012-11-12 Casio Comput Co Ltd Imaging apparatus, image compositing method and program
US9253365B2 (en) 2011-04-07 2016-02-02 Casio Computer Co., Ltd. Image processing device for generating composite image having predetermined aspect ratio
JP2013003259A (en) * 2011-06-14 2013-01-07 Pentax Ricoh Imaging Co Ltd Azimuth measurement method and azimuth measurement instrument using three-axis electronic compass
JP2014053794A (en) * 2012-09-07 2014-03-20 Nintendo Co Ltd Information processing program, information processing apparatus, information processing system, and information processing method
EP2779114A1 (en) 2013-03-11 2014-09-17 Dai Nippon Printing Co., Ltd. Apparatus for interactive virtual walkthrough
CN105809620A (en) * 2015-01-19 2016-07-27 株式会社理光 Preview image acquisition user interface for linear panoramic image stitching
US9626589B1 (en) 2015-01-19 2017-04-18 Ricoh Co., Ltd. Preview image acquisition user interface for linear panoramic image stitching
JP2017120653A (en) * 2015-01-19 2017-07-06 株式会社リコー Preview image acquisition user interface for linear panoramic image stitching
US9852356B2 (en) 2015-01-19 2017-12-26 Ricoh Company, Ltd. Image acquisition user interface for linear panoramic image stitching
US9961260B2 (en) 2015-01-19 2018-05-01 Ricoh Company, Ltd. Preview image acquisition user interface for linear panoramic image stitching
US9594980B1 (en) 2015-01-19 2017-03-14 Ricoh Co., Ltd. Image acquisition user interface for linear panoramic image stitching
US10511768B2 (en) 2015-01-19 2019-12-17 Ricoh Company, Ltd. Preview image acquisition user interface for linear panoramic image stitching
JP2016134921A (en) * 2015-01-19 2016-07-25 株式会社リコー Preview image acquisition user interface for linear panoramic image stitching
JP2016095310A (en) * 2015-12-04 2016-05-26 リコーイメージング株式会社 Bearing measurement method and bearing measurement device

Similar Documents

Publication Publication Date Title
JP2010199971A (en) Image pickup apparatus, imaging method, and program
US11711618B2 (en) Image processing apparatus, image processing method, and program
US11102402B2 (en) Image processing apparatus, image processing method, and program
JP5428210B2 (en) Information processing apparatus, imaging system, recording control method, and program
JP5235798B2 (en) Imaging apparatus and control method thereof
KR101694689B1 (en) Method for generating video data and image photographing device thereof
US11716537B2 (en) Image processing device, image processing method, and program
WO2010073619A1 (en) Image capture device
JP2009171268A (en) Electronic camera
JP4748442B2 (en) Imaging apparatus and program thereof
JP6312426B2 (en) Imaging apparatus and control method thereof
CN114073069A (en) Imaging system, image processing apparatus, imaging device, and recording medium
JP2020204874A (en) Image processing system, imaging system, image processing apparatus, imaging apparatus and program
JP2014003715A (en) Imaging apparatus, imaging method and program
JP2009253925A (en) Imaging apparatus and imaging method, and imaging control program
JP4888829B2 (en) Movie processing device, movie shooting device, and movie shooting program
JP2009094741A (en) Imaging device, imaging method and program
JP2012151708A (en) Imaging device
WO2021014598A1 (en) Imaging device, imaging system, image processing device, imaging method, image processing method, and program
JP2017085466A (en) Imaging apparatus and its control method
JP2008065851A (en) Information processing apparatus and recording medium
JP2007096809A (en) Imaging apparatus, moving picture storage method, and moving picture storage program
US20230103051A1 (en) Image processing apparatus, image processing method, and program
JP7270052B2 (en) Display method and image processing method
JP2013251840A (en) Imaging apparatus, imaging method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130314

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130704