JP2024011370A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2024011370A JP2024011370A JP2022113308A JP2022113308A JP2024011370A JP 2024011370 A JP2024011370 A JP 2024011370A JP 2022113308 A JP2022113308 A JP 2022113308A JP 2022113308 A JP2022113308 A JP 2022113308A JP 2024011370 A JP2024011370 A JP 2024011370A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- imaging unit
- imaging device
- lens
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 215
- 230000002093 peripheral effect Effects 0.000 claims abstract description 10
- 238000001514 detection method Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 26
- 238000012545 processing Methods 0.000 description 24
- 238000000034 method Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 9
- 230000009466 transformation Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Accessories Of Cameras (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置に関し、特に複数の撮像部を有する撮像装置に関するものである。 The present invention relates to an imaging device, and particularly to an imaging device having a plurality of imaging units.
従来より、超広角レンズを搭載しカメラの周囲360度を見渡せる全方位カメラが知られている。この全方位カメラは、一台で広域の監視が可能であり、広い範囲を俯瞰して監視することや、複数の監視対象を一つのカメラで監視することが可能である(特許文献1)。 2. Description of the Related Art Omnidirectional cameras equipped with an ultra-wide-angle lens and capable of viewing 360 degrees around the camera have been known. This omnidirectional camera is capable of monitoring a wide area with a single camera, and it is possible to monitor a wide area with a bird's-eye view, and to monitor a plurality of monitoring targets with a single camera (Patent Document 1).
しかしながら、上述の特許文献1に開示された従来技術では超広角レンズの特性により、レンズの周辺部の収差が大きくなるという課題やレンズ周辺部に位置する被写体の歪みが大きくなるという課題もある。
However, in the conventional technology disclosed in
そこで、本発明の目的は、広範囲を撮影可能であって、かつ周辺部の被写体を歪みなく撮像することのできる撮像装置を提供することである。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an imaging device that is capable of imaging a wide range of images and that can also image objects in peripheral areas without distortion.
上記目的を達成するために、撮像装置は、全方位カメラと、前記全方位カメラを中心に円状に配置され、前記全方位カメラよりの焦点距離よりも長い焦点距離を有する複数のカメラと、を備え、前記複数のカメラは、前記全方位カメラにより取得された画像における周辺部に対応する位置を撮像するように配置されることを特徴とする。 To achieve the above object, the imaging device includes an omnidirectional camera, and a plurality of cameras arranged in a circle around the omnidirectional camera and having a focal length longer than that of the omnidirectional camera. The plurality of cameras are arranged so as to capture a position corresponding to a peripheral part of the image acquired by the omnidirectional camera.
本発明によれば、広範囲を撮影可能であって、かつ周辺部の被写体を歪みなく撮像することのできる撮像装置を提供することができる。 Advantageous Effects of Invention According to the present invention, it is possible to provide an imaging device that is capable of photographing a wide range and can also image a subject in the peripheral area without distortion.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail based on the accompanying drawings.
<実施形態1>
以下、本発明の第1の実施形態について説明する。図1は、本発明の実施形態にかかわる撮像装置の構成のブロック図である。撮像装置1000は、撮像部1001、撮像部1002、撮像部1003、撮像部1004、撮像部1005と、信号処理部1006および配信部1007を有する。
<
A first embodiment of the present invention will be described below. FIG. 1 is a block diagram of the configuration of an imaging device according to an embodiment of the present invention. The
撮像部1001は、レンズ1011及び不図示のCCDやCMOS等の撮像素子から構成され、レンズから入射した光を撮像素子により電気信号へと変換する。また、レンズ1011は魚眼レンズ等の超広角レンズであり、水平画角は180°以上であるものとする。
The
撮像部1002は、レンズ1012及びCCDやCMOS等の撮像素子から構成され、レンズから入射した光を撮像素子により電気信号へと変換する。レンズ1012は、水平画角が180°より小さく、レンズ1011よりも狭角である。すなわち、レンズ1012の焦点距離は、レンズ1011の焦点距離より長い。
The
撮像部1003は、レンズ1013及びCCDやCMOS等の撮像素子から構成され、レンズから入射した光を撮像素子により電気信号へと変換する。レンズ1013は、水平画角が180°より小さく、レンズ1011よりも狭角である。すなわち、レンズ1013の焦点距離は、レンズ1011の焦点距離より長い。
The
撮像部1004は、レンズ1014及びCCDやCMOS等の撮像素子から構成され、レンズから入射した光を撮像素子により電気信号へと変換する。レンズ1014は、水平画角が180°より小さく、レンズ1011よりも狭角である。すなわち、レンズ1014の焦点距離は、レンズ1011の焦点距離より長い。
The
撮像部1005は、レンズ1015及びCCDやCMOS等の撮像素子から構成され、レンズ1015から入射した光を撮像素子により電気信号へと変換する。レンズ1015は、水平画角が180°より小さく、レンズ1011よりも狭角である。すなわち、レンズ1015の焦点距離は、レンズ1011の焦点距離より長い。レンズ1012からレンズ1015は、すべて同じ焦点距離である。また、レンズ1012からレンズ1015は、固定焦点(焦点距離が一定)であり、ズーム機能を有していない。
The
信号処理部1006は、撮像部1001、撮像部1002、撮像部1003、撮像部1004および撮像部1005より出力された電気信号に対し、所定の画像処理、圧縮符号化処理を行い、画像データを生成する。
The
また、撮像部1001、撮像部1002、撮像部1003、撮像部1004および撮像部1005へ撮影条件の設定値を送信しそれぞれの撮像部の駆動状態を変更する。ここで、撮影条件にはゲイン条件、ガンマ条件、ダイナミックレンジ条件、露出条件、フォーカス条件等を含む。
Further, setting values of shooting conditions are transmitted to the
配信部1007はネットワーク1500と接続されており、さらに、ネットワーク1500上には端末1600が接続されている。ここで、端末1600とは、パーソナルコンピューター等であり、ディスプレイ等の表示装置とキーボードやマウス等のユーザーインターフェイスを有する機器である。配信部1007は、信号処理部1006から出力された画像データを適切な信号形式へと変換しネットワーク1500へと配信する。配信された画像データは端末1600によりユーザーへと表示される。またユーザーより端末1600へと入力された情報は、ネットワーク1500を介して通信部1007へと送信され、適切な形式に変換されたのち信号処理部1006へと送信される。
The
次に、図2を用いて撮像装置1000における、撮像部1001、撮像部1002、撮像部1003、撮像部1004および撮像部1005の位置関係を説明する。図2(a)は撮像装置1000の側面図であり、図2(b)は撮像装置1000の上面図である。各撮像部は、撮像部1001を中心とした同心円状に配置され、撮像部1002、撮像部1003、撮像部1004、撮像部1005はそれぞれ90度間隔で配置されている。つまり、複数のカメラ(撮像部1002、撮像部1003、撮像部1004、撮像部1005)は、円状に等間隔を空けて配置されている。なお、この撮像部の配置は一例であり、撮像部1001を中心としそれを囲むようにその他の撮像部が配置されていればよいものとし、例えば、楕円形状等でもよいものとする。
Next, the positional relationship among the
続いて、図3から図5を用いて、撮像部1001、撮像部1002、撮像部1003、撮像部1004および撮像部1005の撮影範囲とその関係を説明する。
Next, the photographing ranges of the
まず、図3を用いて撮像部1001の撮影範囲を説明する。撮像部1001の撮影範囲を範囲3001で示す。前述のように、撮像部1001のレンズ1011は、水平画角180°であり撮像部1001は、その周囲360°の範囲を撮影することが可能である。そのため、範囲3001は半球状となる。ここで説明のために範囲3001の中心を点Oとする。
First, the imaging range of the
図4を用いて、撮像部1002から撮像部1005の撮影範囲を説明する。撮像部1002から撮像部1005は、撮像部1001が撮影している範囲3001の周辺部を撮影する。撮像部1002の光軸をL2とし撮影範囲を範囲3002とすると、範囲3002はL2に直交する四角形ABCDとなる。ここで四角形ABCDの大きさはレンズ1012の焦点距離や撮像部1002の被写界深度等から適切に設定される範囲である。
The imaging range of the
また、撮像部1003、撮像部1004および撮像部1005の光軸をそれぞれL3、L4、L5とし撮影範囲をそれぞれ範囲3003、範囲3004および範囲3005とする。この場合、範囲3003から範囲3005は、範囲3002と同形状であり、点Oを中心に90度ごとに配置されている。図5に各撮像装部の撮影範囲を垂直方向からみた位置関係を示す。このように、撮像部1002、撮像部1003、撮像部1004および撮像部1005は、撮像範囲を分担することで、撮像部1001により取得された画像における周辺部に対応する範囲である360度を撮像可能である。なお、上記で説明した各撮像部の撮影範囲は一例であり、撮像部の性能や撮影対象により適切に設定されるものとする。
Furthermore, the optical axes of the
信号処理部1006には、前述の図3に示した撮像部1002から撮像部1005の撮影範囲が撮像部1001の撮影範囲3001内において、どの部分に位置するかが二次元座標情報として保持されている。図6から図8を用いてこの座標情報に関して説明する。
The
図6は、撮像部1001の撮影範囲3001に対する撮像部1002の撮影範囲3002の位置関係である。ここで、点A1、点B1、点C1、点D1で囲まれた領域3012が撮影範囲3001内における撮像部1002の撮影位置である。さらに図7(a)に示す様に、領域3012と同様に撮像部1003、撮像部1004および撮像部1005に関して、撮影範囲3001内における撮影位置がそれぞれ領域3013、領域3014および領域3015として設定される。
FIG. 6 shows the positional relationship between the
また、図7(b)に示す様に、これらの情報が、撮影範囲3001上の二次元の座標情報として格納されている。なお、この座標情報は、図1のブロック図には不図示の不揮発メモリ等に記録されており、その情報を信号処理部1006により読み出し使用されるものとする。
Furthermore, as shown in FIG. 7(b), this information is stored as two-dimensional coordinate information on the photographing
次に、図8を使用して実施形態1の処理フローについて説明する。図8のフロー図は、信号処理部1006によって、各処理ブロックを制御し実行される処理手順を図示したものである。また、本フローは信号処理部1006(判定手段)により図1のブロック図には不図示の不揮発メモリ等に格納されているプログラムを展開し実行することにより実現される。
Next, the processing flow of the first embodiment will be described using FIG. 8. The flowchart in FIG. 8 illustrates a processing procedure executed by controlling each processing block by the
本フローが開始されると、まずS100で撮像部1001により撮影した映像を適切な形式に変換して、ネットワーク1500を介して端末1600へと配信する。次に、S101により、ユーザーにより注目したい位置が指定されたか否かを判定する。言いかえると、ユーザーが指定した位置に関する位置情報を取得したか否か判定する。ユーザーは、撮像部1001により撮像した画像上で注目したい位置を指定している。
When this flow starts, first in S100, a video imaged by the
ここで、図9(a)に示す様に、端末のマウス等のインターフェイスを介して、ユーザーから注視したい箇所として点H(xh,Yh)が指定されたとする。この場合、端末に1600より点Hの座標情報がネットワークを介して撮像装置1000に送信される。撮像装置1000はこの座標情報を受信した場合に、S102にすすむ。ユーザーから位置の指定がない場合には、位置が指定されるまで場合は本フローで待機する。
Here, as shown in FIG. 9A, it is assumed that a point H (xh, Yh) is specified by the user as a point to be gazed at via an interface such as a mouse of a terminal. In this case, the coordinate information of point H is transmitted from the terminal 1600 to the
続いて、S102では、指定された点Hの位置の座標が、撮像部の撮影領域内か否かを判定する。ここでは、撮像部1002から撮像部1005の撮影範囲である領域3012から領域3015までのどれかに存在するか否かを判定する。図9(a)および図9(b)に示す全方位映像4001と領域3001の座標は対応している。入力された全方位映像4001上の座標Hに対して、下記の式1に示す様に適切な変換係数αを掛け座標変換を行うことにより領域3001上のH1(xh1,yh1)が算出される。
Subsequently, in S102, it is determined whether the coordinates of the designated point H are within the imaging area of the imaging unit. Here, it is determined whether the object exists in any of the
続いて、算出したH1(xh1,yh1)が領域3011、領域3012、領域3013、領域3014および領域3015いずれかの領域に存在するかを判定する。この場合、H1は領域3012に存在すると判定される。いずれかの領域に存在する場合にはS103に進み、どの領域にも存在しない場合にはS101に進む。
Next, it is determined whether the calculated H1 (xh1, yh1) exists in any of the
S103では、指定された点H1の存在する領域がどの撮像部の撮影領域かを判定しその情報を保持する。S102で領域3012に点H1が存在すると判定されたため、ここでは撮像部1002が選択される。すなわち、撮像部1001によって取得された画像上で指定された位置情報に基づいて、複数の撮像部から指定された位置を撮像する撮像部を判定する。
In S103, it is determined which imaging unit has the region in which the designated point H1 exists, and the information is retained. Since it is determined in S102 that the point H1 exists in the
S104では、選択された撮像部の映像が端末1600に送信される。ここでは、撮像部1002の映像が送信される。上記処理を行い、フローを終了する。端末1600上では送信された撮像部の撮影映像が表示される。図10に表示の一例を示す。ここでは、撮像部1001の撮影映像4000に隣接する位置に撮像部1002の撮影映像4002が表示される。
In S104, the video of the selected imaging unit is transmitted to the
以上のような構成により、レンズ1011の周辺部に注目被写体が存在する場合でも、注目被写体を正確に視認することのできる撮像装置を提供することができる。
With the above configuration, it is possible to provide an imaging device that can accurately visually recognize the subject of interest even when the subject of interest exists in the periphery of the
<実施形態2>
以下、本発明の実施形態2について説明する。図11は、本発明の実施形態にかかわる撮像装置2000の模式図であるである。図11(a)は正面図であり、図11(b)は上面図である。撮像装置2000の撮像部2002、撮像部2003、撮像部2004および撮像部2005はそれぞれX軸、Y軸、Z軸周りに角度を変更することが可能である。つまり、撮像装置2000の撮像部2002、撮像部2003、撮像部2004および撮像部2005は撮像方向を変更可能となっている。図12に撮像部2002の回転動作の一例を示す。ここでは、X軸周りにθp、Y軸周りにθt、Z軸周りθrだけ角度を変更した状態である。撮像部2002と同様の回転動作が撮像部2003、撮像部2004および撮像部2005でもそれぞれ独立して行えるものとする。
<Embodiment 2>
Embodiment 2 of the present invention will be described below. FIG. 11 is a schematic diagram of an
図13に本実施形態における撮像装置2000のブロック図を示す。実施形態1のブロック図に対して、撮像部それぞれの回転角度を検出するための回転角度検出部が新しく追加された構造である。回転角度検出部はロータリーエンコーダー等の角度を検出可能な機器で構成されている。
FIG. 13 shows a block diagram of an
ここで、撮像部2002に対して回転角度検出部2022がX軸、Y軸、Z軸それぞれに対する角度検出を行う。同様に撮像部2003、撮像部2004、撮像部2005に対してはそれぞれ回転角度検出部2023、回転角度検出部2024、回転角度検出部2025が角度の検出を行う。回転角度検出部で検出した角度情報は信号処理部2006に適切な形式で送られる。それ以外のブロックに関しては実施形態1の図1のブロック図と同様の機能を有するものとする。
Here, a rotation
次に、図14を使用して実施形態2の処理フローについて説明する。図14のフロー図は、信号処理部2006によって、各処理ブロックを制御し実行される処理手順を図示したものである。また、本フローは信号処理部2006により図13のブロック図には不図示の不揮発メモリ等に格納されているプログラムを展開し実行することにより実現される。
Next, the processing flow of the second embodiment will be described using FIG. 14. The flowchart in FIG. 14 illustrates a processing procedure executed by the
本フローが開始されると、まずS200で、回転角度検出部よりそれぞれの撮像部の角度を取得する。以下、簡略のため、撮像部2002に関してのみ本実施形態を説明するが、撮像部2003、撮像部2004、撮像部2005においても同様の処理が行われるものとする。また、本フローでは前述の図12に示す様に撮像部2002が、X軸周りにθp、Y軸周りにθt、Z軸周りθrだけ角度が変更された場合を説明する。
When this flow starts, first in S200, the angle of each imaging unit is acquired from the rotation angle detection unit. Hereinafter, for the sake of brevity, this embodiment will be described only with respect to the
S200では、撮像部2001の撮影範囲に対する各撮像部の撮影領域を判定する。図15を用いて算出方法の一例について説明する。図15(a)に示す様に、撮像部2001の撮影範囲を範囲5001とすると、範囲5001は半球状となる。また図15(b)に示す様に、あらかじめ信号処理部2006には、撮像部2002に付随のレンズ2012の画角に応じた撮影領域5002の情報が格納されている。ここで、撮像部2002に対しあらかじめ設定された初期位置での光軸と撮像部5001の交点を点N2とし、領域5002の頂点をそれぞれ点S0、点T0、点U0、点V0とする。次に、X軸周りにθp、Y軸周りにθt、Z軸周りにθr回転動した後の撮像部2002の光軸と領域5001との交点を点M2とする。ここで、点N2と点M2の座標をそれぞれN2(n2x,n2y,n2z)とM2(m2x,m2y,m2z)とすると。N2からM2の変換は下記(式2)であらわされる。
In S200, the imaging area of each imaging unit relative to the imaging range of the
N2からM2へ変換と同様の座標変換を点S0、点T0、点U0、点V0に行い点S、点T、点U、点Vの座法を求める。この点S、点T、点U、点Vに囲まれる領域が撮像部2002の回転動作後の撮影路領域でありここでは領域5012とする。S201では領域5012を算出し次のステップへと進む。
A coordinate transformation similar to the transformation from N2 to M2 is performed on points S0, T0, U0, and V0 to find the coordinates of points S, T, U, and V. The area surrounded by points S, T, U, and V is the imaging path area after the rotation operation of the
S201では、S201で求めた点S、点T、点U、点Vに対して適切な係数をかけることで図16(a)に示す領域5001上の点S1、点T1、点U1、点V1を求める。またこの点S1、点T1、点U1、点V1で囲まれた領域が撮像部2001の撮影領域である領域5001における撮像部2002の撮影領域となり、ここではこの領域を領域5022とする。S202では領域5022を算出し、図16-2の様に領域5001上における二次元の座標として領域5022を算出してS203へと進む。
In S201, points S1, T1, U1, and V1 on the
S202では、撮像部2001により撮影した映像を適切な形式に変換して、ネットワーク1500を介して端末1600へと配信する。S203では、ユーザーにより注目したい位置の座標が指定されたか否かを判定する。言いかえると、ユーザーが指定した位置に関する位置情報を取得したか否かを判定する。
In S202, the image captured by the
ここで、図17(a)に示す様に、撮像部2001の撮影映像を映像6001とし、その映像6001に対して端末のマウス等のインターフェイスを介して、ユーザーから注視したい箇所として点H(xh,yh)が指定されたとする。この場合、端末1600により点Hの座標情報がネットワークを介して撮像装置1000に送信される。撮像装置1000はこの座標情報を受信した場合に、S204にすすむ。ユーザーから座標の指定がない場合には、座標が入力されるまで場合は本フローで待機する。
Here, as shown in FIG. 17(a), the image captured by the
S204では、指定された点Hの座標が、撮像部2002から撮像部2005の撮影範囲である領域5022から領域5025までのどれかに存在するか否かを判定する。ここでは、S102と同様の座標変換処理を行い領域5001上のH1(xh1,yh1)を算出する。さらに、このH1が領域5022~5025内に存在するか否かを判定する。図17(a)の場合、H1は領域5022に存在すると判定される。領域5022から領域5025のいずれかの領域に存在する場合にはS205に進み、どの領域にも存在しない場合にはS203に進む。
In S204, it is determined whether the coordinates of the specified point H exist in any of the
S205では、指定された点H1の存在する領域がどの撮像部の撮影領域かを判定しその情報を保持する。ここでは、領域5022に点H1が存在すると判定されたため、撮像部2002が選択される。
In S205, it is determined which imaging unit has the region in which the designated point H1 exists, and that information is retained. Here, since it is determined that the point H1 exists in the
S206では、選択された撮像部の映像が端末に送信される。ここでは、撮像部2002の映像が送信される。上記処理を行い、フローを終了する。端末1600上では受信した撮影映像が表示される。図18に表示の一例を示す。ここでは、撮像部2001の撮影映像6001に隣接する位置に撮像部2002の撮影映像6002が表示される。
In S206, the video of the selected imaging unit is transmitted to the terminal. Here, the video from the
以上のような構成により、レンズ1011の周辺部に注目被写体が存在する場合でも、注目被写体を正確に視認することのできる撮像装置を提供することができる。本実施形態では角度変更のみに関して説明したが、ズーム倍率の変更等に関しても適切な座標変換の処理を加えることにより対応することが可能である。
With the above configuration, it is possible to provide an imaging device that can accurately visually recognize the subject of interest even when the subject of interest exists in the periphery of the
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the invention.
1000 撮像装置
1001 撮像部
1002 撮像部
1003 撮像部
1004 撮像部
1005 撮像部
1006 信号処理部
1011 レンズ
1012 レンズ
1013 レンズ
1014 レンズ
1015 レンズ
1600 端末
2000 撮像装置
1000
Claims (8)
前記全方位カメラを中心に円状に配置され、前記全方位カメラよりの焦点距離よりも長い焦点距離を有する複数のカメラと、を備え、
前記複数のカメラは、前記全方位カメラにより取得された画像における周辺部に対応する位置を撮像するように配置されることを特徴とする撮像装置。 an omnidirectional camera; and a plurality of cameras arranged in a circle around the omnidirectional camera and having a focal length longer than the focal length of the omnidirectional camera,
The imaging device is characterized in that the plurality of cameras are arranged so as to capture a position corresponding to a peripheral part of the image acquired by the omnidirectional camera.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022113308A JP2024011370A (en) | 2022-07-14 | 2022-07-14 | Imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022113308A JP2024011370A (en) | 2022-07-14 | 2022-07-14 | Imaging apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024011370A true JP2024011370A (en) | 2024-01-25 |
Family
ID=89621543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022113308A Pending JP2024011370A (en) | 2022-07-14 | 2022-07-14 | Imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024011370A (en) |
-
2022
- 2022-07-14 JP JP2022113308A patent/JP2024011370A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6721065B2 (en) | Imaging device, image processing device and method | |
KR101657039B1 (en) | Image processing apparatus, image processing method, and imaging system | |
WO2017020150A1 (en) | Image processing method, device and camera | |
JP2017208619A (en) | Image processing apparatus, image processing method, program and imaging system | |
US9436973B2 (en) | Coordinate computation device and method, and an image processing device and method | |
CN108805938B (en) | Detection method of optical anti-shake module, mobile terminal and storage medium | |
JP2006352851A (en) | Method and device for acquiring image of scene using composite camera | |
EP3765815B1 (en) | Imaging device, image processing apparatus, and image processing method | |
CN111246080B (en) | Control apparatus, control method, image pickup apparatus, and storage medium | |
JP2015046044A (en) | Image processing apparatus, image processing method, program, and imaging system | |
JP6544978B2 (en) | Image output apparatus, control method therefor, imaging apparatus, program | |
JP6665917B2 (en) | Image processing device | |
JP6222205B2 (en) | Image processing device | |
WO2020107320A1 (en) | Camera calibration method, apparatus, device and storage medium | |
JP6291748B2 (en) | Imaging apparatus, imaging method, and program | |
CN115049548A (en) | Method and apparatus for restoring image obtained from array camera | |
JP7383911B2 (en) | Imaging system, image processing device, imaging device and program | |
CN111353945B (en) | Fisheye image correction method, device and storage medium | |
CN103546680A (en) | Deformation-free omni-directional fisheye photographic device and method for implementing same | |
JP7051365B2 (en) | Image processing equipment, image processing methods, and programs | |
JP2024011370A (en) | Imaging apparatus | |
JP2005275789A (en) | Three-dimensional structure extraction method | |
JP2020057967A (en) | Image processing device, imaging device, control method of image processing device, and program | |
WO2017159014A1 (en) | Image processing device, image processing method and image processing system | |
KR100736565B1 (en) | Method of taking a panorama image and mobile communication terminal thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |