JP2024011370A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2024011370A
JP2024011370A JP2022113308A JP2022113308A JP2024011370A JP 2024011370 A JP2024011370 A JP 2024011370A JP 2022113308 A JP2022113308 A JP 2022113308A JP 2022113308 A JP2022113308 A JP 2022113308A JP 2024011370 A JP2024011370 A JP 2024011370A
Authority
JP
Japan
Prior art keywords
imaging
imaging unit
imaging device
lens
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022113308A
Other languages
Japanese (ja)
Inventor
昂佑 川▲畔▼
Kosuke Kawabata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022113308A priority Critical patent/JP2024011370A/en
Publication of JP2024011370A publication Critical patent/JP2024011370A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Accessories Of Cameras (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of capturing a wide area and capturing a subject in the periphery without distortion.
SOLUTION: The imaging apparatus includes an omnidirectional camera and a plurality of cameras arranged in a circle around the omnidirectional camera and having a focal length longer than the focal length of the omnidirectional camera. The plurality of cameras is arranged to capture positions corresponding to peripheral areas in an image acquired by the omnidirectional camera.
SELECTED DRAWING: Figure 2
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、撮像装置に関し、特に複数の撮像部を有する撮像装置に関するものである。 The present invention relates to an imaging device, and particularly to an imaging device having a plurality of imaging units.

従来より、超広角レンズを搭載しカメラの周囲360度を見渡せる全方位カメラが知られている。この全方位カメラは、一台で広域の監視が可能であり、広い範囲を俯瞰して監視することや、複数の監視対象を一つのカメラで監視することが可能である(特許文献1)。 2. Description of the Related Art Omnidirectional cameras equipped with an ultra-wide-angle lens and capable of viewing 360 degrees around the camera have been known. This omnidirectional camera is capable of monitoring a wide area with a single camera, and it is possible to monitor a wide area with a bird's-eye view, and to monitor a plurality of monitoring targets with a single camera (Patent Document 1).

特開2019-32448JP2019-32448

しかしながら、上述の特許文献1に開示された従来技術では超広角レンズの特性により、レンズの周辺部の収差が大きくなるという課題やレンズ周辺部に位置する被写体の歪みが大きくなるという課題もある。 However, in the conventional technology disclosed in Patent Document 1 mentioned above, due to the characteristics of the ultra-wide-angle lens, there are problems in that aberrations in the peripheral part of the lens become large and distortion in objects located in the peripheral part of the lens increases.

そこで、本発明の目的は、広範囲を撮影可能であって、かつ周辺部の被写体を歪みなく撮像することのできる撮像装置を提供することである。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an imaging device that is capable of imaging a wide range of images and that can also image objects in peripheral areas without distortion.

上記目的を達成するために、撮像装置は、全方位カメラと、前記全方位カメラを中心に円状に配置され、前記全方位カメラよりの焦点距離よりも長い焦点距離を有する複数のカメラと、を備え、前記複数のカメラは、前記全方位カメラにより取得された画像における周辺部に対応する位置を撮像するように配置されることを特徴とする。 To achieve the above object, the imaging device includes an omnidirectional camera, and a plurality of cameras arranged in a circle around the omnidirectional camera and having a focal length longer than that of the omnidirectional camera. The plurality of cameras are arranged so as to capture a position corresponding to a peripheral part of the image acquired by the omnidirectional camera.

本発明によれば、広範囲を撮影可能であって、かつ周辺部の被写体を歪みなく撮像することのできる撮像装置を提供することができる。 Advantageous Effects of Invention According to the present invention, it is possible to provide an imaging device that is capable of photographing a wide range and can also image a subject in the peripheral area without distortion.

本発明の実施形態1に係る撮像装置の構成を表すブロック図A block diagram showing the configuration of an imaging device according to Embodiment 1 of the present invention 本発明の実施形態1に係る撮像装置の撮像部の配置に関する模式図A schematic diagram regarding the arrangement of an imaging unit of an imaging device according to Embodiment 1 of the present invention 本発明の実施形態1に係る撮像部1001の撮影範囲を表す図A diagram showing the imaging range of the imaging unit 1001 according to Embodiment 1 of the present invention 本発明の実施形態1に係る撮像部1002の撮影範囲を表す図A diagram showing the imaging range of the imaging unit 1002 according to Embodiment 1 of the present invention 本発明の実施形態1に係る撮像部1002から撮像部1003の撮影範囲を表す図A diagram showing the photographing range of the imaging unit 1002 to the imaging unit 1003 according to Embodiment 1 of the present invention 本発明の実施形態1に係る撮影範囲の関係を表す図A diagram showing the relationship between shooting ranges according to Embodiment 1 of the present invention 本発明の実施形態1に係る範囲3001における撮像部1002から撮像部1005の撮影範囲を表す図A diagram showing the photographing range from the imaging unit 1002 to the imaging unit 1005 in the range 3001 according to the first embodiment of the present invention 本発明の実施形態1に係るフロー図Flow diagram according to Embodiment 1 of the present invention 本発明の実施形態1に係るユーザーからの入力の一例を表す図A diagram showing an example of input from a user according to Embodiment 1 of the present invention 本発明の実施形態1に係る表示の一例を表す図A diagram showing an example of a display according to Embodiment 1 of the present invention 本発明の実施形態2に係る撮像装置の撮像部の配置に関する模式図A schematic diagram regarding the arrangement of an imaging unit of an imaging device according to Embodiment 2 of the present invention 本発明の実施形態2に係る撮像装置の撮像部の回転動作に関する模式図Schematic diagram regarding rotational operation of the imaging unit of the imaging device according to Embodiment 2 of the present invention 本発明の実施形態2に係る撮像装置の構成を表すブロック図A block diagram showing the configuration of an imaging device according to Embodiment 2 of the present invention 本発明の実施形態2に係るフロー図Flow diagram according to Embodiment 2 of the present invention 本発明の実施形態2に係る撮影範囲の関係を表す図A diagram showing the relationship between photographing ranges according to Embodiment 2 of the present invention 本発明の実施形態2に係る範囲5001における撮像部2002から撮像部2005の撮影範囲を表す図A diagram showing the photographing range from the imaging unit 2002 to the imaging unit 2005 in the range 5001 according to the second embodiment of the present invention 本発明の実施形態2に係るユーザーからの入力の一例を表す図A diagram showing an example of input from a user according to Embodiment 2 of the present invention 本発明の実施形態2に係る表示の一例を表す図A diagram showing an example of a display according to Embodiment 2 of the present invention

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail based on the accompanying drawings.

<実施形態1>
以下、本発明の第1の実施形態について説明する。図1は、本発明の実施形態にかかわる撮像装置の構成のブロック図である。撮像装置1000は、撮像部1001、撮像部1002、撮像部1003、撮像部1004、撮像部1005と、信号処理部1006および配信部1007を有する。
<Embodiment 1>
A first embodiment of the present invention will be described below. FIG. 1 is a block diagram of the configuration of an imaging device according to an embodiment of the present invention. The imaging apparatus 1000 includes an imaging unit 1001, an imaging unit 1002, an imaging unit 1003, an imaging unit 1004, an imaging unit 1005, a signal processing unit 1006, and a distribution unit 1007.

撮像部1001は、レンズ1011及び不図示のCCDやCMOS等の撮像素子から構成され、レンズから入射した光を撮像素子により電気信号へと変換する。また、レンズ1011は魚眼レンズ等の超広角レンズであり、水平画角は180°以上であるものとする。 The imaging unit 1001 includes a lens 1011 and an image sensor (not shown) such as a CCD or CMOS, and converts light incident from the lens into an electrical signal by the image sensor. Further, the lens 1011 is an ultra-wide-angle lens such as a fisheye lens, and the horizontal angle of view is 180° or more.

撮像部1002は、レンズ1012及びCCDやCMOS等の撮像素子から構成され、レンズから入射した光を撮像素子により電気信号へと変換する。レンズ1012は、水平画角が180°より小さく、レンズ1011よりも狭角である。すなわち、レンズ1012の焦点距離は、レンズ1011の焦点距離より長い。 The imaging unit 1002 includes a lens 1012 and an imaging device such as a CCD or CMOS, and the imaging device converts light incident from the lens into an electrical signal. Lens 1012 has a horizontal angle of view smaller than 180°, which is narrower than lens 1011. That is, the focal length of lens 1012 is longer than the focal length of lens 1011.

撮像部1003は、レンズ1013及びCCDやCMOS等の撮像素子から構成され、レンズから入射した光を撮像素子により電気信号へと変換する。レンズ1013は、水平画角が180°より小さく、レンズ1011よりも狭角である。すなわち、レンズ1013の焦点距離は、レンズ1011の焦点距離より長い。 The imaging unit 1003 includes a lens 1013 and an imaging device such as a CCD or CMOS, and the imaging device converts light incident from the lens into an electrical signal. Lens 1013 has a horizontal angle of view smaller than 180°, which is narrower than lens 1011. That is, the focal length of lens 1013 is longer than the focal length of lens 1011.

撮像部1004は、レンズ1014及びCCDやCMOS等の撮像素子から構成され、レンズから入射した光を撮像素子により電気信号へと変換する。レンズ1014は、水平画角が180°より小さく、レンズ1011よりも狭角である。すなわち、レンズ1014の焦点距離は、レンズ1011の焦点距離より長い。 The imaging unit 1004 includes a lens 1014 and an imaging device such as a CCD or CMOS, and the imaging device converts light incident from the lens into an electrical signal. Lens 1014 has a horizontal angle of view smaller than 180°, which is narrower than lens 1011 . That is, the focal length of lens 1014 is longer than the focal length of lens 1011.

撮像部1005は、レンズ1015及びCCDやCMOS等の撮像素子から構成され、レンズ1015から入射した光を撮像素子により電気信号へと変換する。レンズ1015は、水平画角が180°より小さく、レンズ1011よりも狭角である。すなわち、レンズ1015の焦点距離は、レンズ1011の焦点距離より長い。レンズ1012からレンズ1015は、すべて同じ焦点距離である。また、レンズ1012からレンズ1015は、固定焦点(焦点距離が一定)であり、ズーム機能を有していない。 The imaging unit 1005 includes a lens 1015 and an imaging device such as a CCD or CMOS, and the imaging device converts light incident from the lens 1015 into an electrical signal. Lens 1015 has a horizontal angle of view smaller than 180°, which is narrower than lens 1011. That is, the focal length of lens 1015 is longer than the focal length of lens 1011. Lenses 1012 to 1015 all have the same focal length. Further, the lenses 1012 to 1015 have a fixed focus (the focal length is constant) and do not have a zoom function.

信号処理部1006は、撮像部1001、撮像部1002、撮像部1003、撮像部1004および撮像部1005より出力された電気信号に対し、所定の画像処理、圧縮符号化処理を行い、画像データを生成する。 The signal processing unit 1006 performs predetermined image processing and compression encoding processing on the electrical signals output from the imaging unit 1001, imaging unit 1002, imaging unit 1003, imaging unit 1004, and imaging unit 1005, and generates image data. do.

また、撮像部1001、撮像部1002、撮像部1003、撮像部1004および撮像部1005へ撮影条件の設定値を送信しそれぞれの撮像部の駆動状態を変更する。ここで、撮影条件にはゲイン条件、ガンマ条件、ダイナミックレンジ条件、露出条件、フォーカス条件等を含む。 Further, setting values of shooting conditions are transmitted to the imaging unit 1001, imaging unit 1002, imaging unit 1003, imaging unit 1004, and imaging unit 1005 to change the driving state of each imaging unit. Here, the photographing conditions include gain conditions, gamma conditions, dynamic range conditions, exposure conditions, focus conditions, and the like.

配信部1007はネットワーク1500と接続されており、さらに、ネットワーク1500上には端末1600が接続されている。ここで、端末1600とは、パーソナルコンピューター等であり、ディスプレイ等の表示装置とキーボードやマウス等のユーザーインターフェイスを有する機器である。配信部1007は、信号処理部1006から出力された画像データを適切な信号形式へと変換しネットワーク1500へと配信する。配信された画像データは端末1600によりユーザーへと表示される。またユーザーより端末1600へと入力された情報は、ネットワーク1500を介して通信部1007へと送信され、適切な形式に変換されたのち信号処理部1006へと送信される。 The distribution unit 1007 is connected to a network 1500, and a terminal 1600 is further connected to the network 1500. Here, the terminal 1600 is a personal computer or the like, and is a device having a display device such as a display and a user interface such as a keyboard and a mouse. The distribution unit 1007 converts the image data output from the signal processing unit 1006 into an appropriate signal format and distributes it to the network 1500. The distributed image data is displayed to the user by the terminal 1600. Further, information input by the user to the terminal 1600 is transmitted to the communication unit 1007 via the network 1500, converted into an appropriate format, and then transmitted to the signal processing unit 1006.

次に、図2を用いて撮像装置1000における、撮像部1001、撮像部1002、撮像部1003、撮像部1004および撮像部1005の位置関係を説明する。図2(a)は撮像装置1000の側面図であり、図2(b)は撮像装置1000の上面図である。各撮像部は、撮像部1001を中心とした同心円状に配置され、撮像部1002、撮像部1003、撮像部1004、撮像部1005はそれぞれ90度間隔で配置されている。つまり、複数のカメラ(撮像部1002、撮像部1003、撮像部1004、撮像部1005)は、円状に等間隔を空けて配置されている。なお、この撮像部の配置は一例であり、撮像部1001を中心としそれを囲むようにその他の撮像部が配置されていればよいものとし、例えば、楕円形状等でもよいものとする。 Next, the positional relationship among the imaging section 1001, the imaging section 1002, the imaging section 1003, the imaging section 1004, and the imaging section 1005 in the imaging apparatus 1000 will be described using FIG. 2. 2(a) is a side view of the imaging device 1000, and FIG. 2(b) is a top view of the imaging device 1000. The imaging units are arranged concentrically with the imaging unit 1001 at the center, and the imaging units 1002, 1003, 1004, and 1005 are each arranged at 90-degree intervals. That is, the plurality of cameras (imaging unit 1002, imaging unit 1003, imaging unit 1004, and imaging unit 1005) are arranged in a circle at equal intervals. Note that the arrangement of the imaging units is merely an example, and other imaging units may be arranged so as to surround the imaging unit 1001, for example, in an elliptical shape.

続いて、図3から図5を用いて、撮像部1001、撮像部1002、撮像部1003、撮像部1004および撮像部1005の撮影範囲とその関係を説明する。 Next, the photographing ranges of the imaging section 1001, the imaging section 1002, the imaging section 1003, the imaging section 1004, and the imaging section 1005 and their relationships will be described using FIGS. 3 to 5.

まず、図3を用いて撮像部1001の撮影範囲を説明する。撮像部1001の撮影範囲を範囲3001で示す。前述のように、撮像部1001のレンズ1011は、水平画角180°であり撮像部1001は、その周囲360°の範囲を撮影することが可能である。そのため、範囲3001は半球状となる。ここで説明のために範囲3001の中心を点Oとする。 First, the imaging range of the imaging unit 1001 will be explained using FIG. 3. The photographing range of the imaging unit 1001 is indicated by a range 3001. As described above, the lens 1011 of the imaging unit 1001 has a horizontal angle of view of 180°, and the imaging unit 1001 can photograph a 360° range around it. Therefore, the range 3001 has a hemispherical shape. Here, for the sake of explanation, the center of the range 3001 is assumed to be a point O.

図4を用いて、撮像部1002から撮像部1005の撮影範囲を説明する。撮像部1002から撮像部1005は、撮像部1001が撮影している範囲3001の周辺部を撮影する。撮像部1002の光軸をL2とし撮影範囲を範囲3002とすると、範囲3002はL2に直交する四角形ABCDとなる。ここで四角形ABCDの大きさはレンズ1012の焦点距離や撮像部1002の被写界深度等から適切に設定される範囲である。 The imaging range of the imaging units 1002 to 1005 will be described using FIG. 4. The imaging units 1002 to 1005 photograph the peripheral portion of the range 3001 that the imaging unit 1001 is photographing. When the optical axis of the imaging unit 1002 is L2 and the imaging range is a range 3002, the range 3002 becomes a rectangle ABCD orthogonal to L2. Here, the size of the rectangle ABCD is within a range that is appropriately set based on the focal length of the lens 1012, the depth of field of the imaging unit 1002, and the like.

また、撮像部1003、撮像部1004および撮像部1005の光軸をそれぞれL3、L4、L5とし撮影範囲をそれぞれ範囲3003、範囲3004および範囲3005とする。この場合、範囲3003から範囲3005は、範囲3002と同形状であり、点Oを中心に90度ごとに配置されている。図5に各撮像装部の撮影範囲を垂直方向からみた位置関係を示す。このように、撮像部1002、撮像部1003、撮像部1004および撮像部1005は、撮像範囲を分担することで、撮像部1001により取得された画像における周辺部に対応する範囲である360度を撮像可能である。なお、上記で説明した各撮像部の撮影範囲は一例であり、撮像部の性能や撮影対象により適切に設定されるものとする。 Furthermore, the optical axes of the imaging unit 1003, the imaging unit 1004, and the imaging unit 1005 are L3, L4, and L5, respectively, and the imaging ranges are a range 3003, a range 3004, and a range 3005, respectively. In this case, ranges 3003 to 3005 have the same shape as range 3002, and are arranged every 90 degrees around point O. FIG. 5 shows the positional relationship of the imaging range of each imaging device when viewed from the vertical direction. In this way, the imaging unit 1002, the imaging unit 1003, the imaging unit 1004, and the imaging unit 1005 can image a 360-degree range corresponding to the peripheral part of the image acquired by the imaging unit 1001 by sharing the imaging range. It is possible. Note that the imaging range of each imaging unit described above is an example, and is appropriately set depending on the performance of the imaging unit and the object to be photographed.

信号処理部1006には、前述の図3に示した撮像部1002から撮像部1005の撮影範囲が撮像部1001の撮影範囲3001内において、どの部分に位置するかが二次元座標情報として保持されている。図6から図8を用いてこの座標情報に関して説明する。 The signal processing unit 1006 stores, as two-dimensional coordinate information, the position of the imaging range of the imaging units 1002 to 1005 shown in FIG. 3 in the imaging range 3001 of the imaging unit 1001. There is. This coordinate information will be explained using FIGS. 6 to 8.

図6は、撮像部1001の撮影範囲3001に対する撮像部1002の撮影範囲3002の位置関係である。ここで、点A1、点B1、点C1、点D1で囲まれた領域3012が撮影範囲3001内における撮像部1002の撮影位置である。さらに図7(a)に示す様に、領域3012と同様に撮像部1003、撮像部1004および撮像部1005に関して、撮影範囲3001内における撮影位置がそれぞれ領域3013、領域3014および領域3015として設定される。 FIG. 6 shows the positional relationship between the imaging range 3001 of the imaging unit 1001 and the imaging range 3002 of the imaging unit 1002. Here, an area 3012 surrounded by points A1, B1, C1, and D1 is the shooting position of the imaging unit 1002 within the shooting range 3001. Furthermore, as shown in FIG. 7A, similarly to the area 3012, the imaging positions within the imaging range 3001 are set as an area 3013, an area 3014, and an area 3015, respectively, regarding the imaging unit 1003, the imaging unit 1004, and the imaging unit 1005. .

また、図7(b)に示す様に、これらの情報が、撮影範囲3001上の二次元の座標情報として格納されている。なお、この座標情報は、図1のブロック図には不図示の不揮発メモリ等に記録されており、その情報を信号処理部1006により読み出し使用されるものとする。 Furthermore, as shown in FIG. 7(b), this information is stored as two-dimensional coordinate information on the photographing range 3001. Note that this coordinate information is recorded in a nonvolatile memory or the like not shown in the block diagram of FIG. 1, and the information is read out and used by the signal processing unit 1006.

次に、図8を使用して実施形態1の処理フローについて説明する。図8のフロー図は、信号処理部1006によって、各処理ブロックを制御し実行される処理手順を図示したものである。また、本フローは信号処理部1006(判定手段)により図1のブロック図には不図示の不揮発メモリ等に格納されているプログラムを展開し実行することにより実現される。 Next, the processing flow of the first embodiment will be described using FIG. 8. The flowchart in FIG. 8 illustrates a processing procedure executed by controlling each processing block by the signal processing unit 1006. Further, this flow is realized by the signal processing unit 1006 (determination means) developing and executing a program stored in a nonvolatile memory or the like (not shown in the block diagram of FIG. 1).

本フローが開始されると、まずS100で撮像部1001により撮影した映像を適切な形式に変換して、ネットワーク1500を介して端末1600へと配信する。次に、S101により、ユーザーにより注目したい位置が指定されたか否かを判定する。言いかえると、ユーザーが指定した位置に関する位置情報を取得したか否か判定する。ユーザーは、撮像部1001により撮像した画像上で注目したい位置を指定している。 When this flow starts, first in S100, a video imaged by the imaging unit 1001 is converted into an appropriate format and distributed to the terminal 1600 via the network 1500. Next, in S101, it is determined whether the user has designated a position of interest. In other words, it is determined whether position information regarding the position specified by the user has been acquired. The user specifies a position of interest on the image captured by the imaging unit 1001.

ここで、図9(a)に示す様に、端末のマウス等のインターフェイスを介して、ユーザーから注視したい箇所として点H(xh,Yh)が指定されたとする。この場合、端末に1600より点Hの座標情報がネットワークを介して撮像装置1000に送信される。撮像装置1000はこの座標情報を受信した場合に、S102にすすむ。ユーザーから位置の指定がない場合には、位置が指定されるまで場合は本フローで待機する。 Here, as shown in FIG. 9A, it is assumed that a point H (xh, Yh) is specified by the user as a point to be gazed at via an interface such as a mouse of a terminal. In this case, the coordinate information of point H is transmitted from the terminal 1600 to the imaging device 1000 via the network. When the imaging device 1000 receives this coordinate information, it proceeds to S102. If the user does not specify a location, the process waits in this flow until the location is specified.

続いて、S102では、指定された点Hの位置の座標が、撮像部の撮影領域内か否かを判定する。ここでは、撮像部1002から撮像部1005の撮影範囲である領域3012から領域3015までのどれかに存在するか否かを判定する。図9(a)および図9(b)に示す全方位映像4001と領域3001の座標は対応している。入力された全方位映像4001上の座標Hに対して、下記の式1に示す様に適切な変換係数αを掛け座標変換を行うことにより領域3001上のH1(xh1,yh1)が算出される。 Subsequently, in S102, it is determined whether the coordinates of the designated point H are within the imaging area of the imaging unit. Here, it is determined whether the object exists in any of the areas 3012 to 3015, which are the imaging ranges of the imaging units 1002 to 1005. The coordinates of the omnidirectional image 4001 and the area 3001 shown in FIGS. 9(a) and 9(b) correspond. H1 (xh1, yh1) on the area 3001 is calculated by multiplying the coordinate H on the input omnidirectional image 4001 by an appropriate conversion coefficient α and performing coordinate transformation as shown in Equation 1 below. .

Figure 2024011370000002
Figure 2024011370000002

続いて、算出したH1(xh1,yh1)が領域3011、領域3012、領域3013、領域3014および領域3015いずれかの領域に存在するかを判定する。この場合、H1は領域3012に存在すると判定される。いずれかの領域に存在する場合にはS103に進み、どの領域にも存在しない場合にはS101に進む。 Next, it is determined whether the calculated H1 (xh1, yh1) exists in any of the areas 3011, 3012, 3013, 3014, and 3015. In this case, it is determined that H1 exists in region 3012. If it exists in any area, the process advances to S103; if it does not exist in any area, the process advances to S101.

S103では、指定された点H1の存在する領域がどの撮像部の撮影領域かを判定しその情報を保持する。S102で領域3012に点H1が存在すると判定されたため、ここでは撮像部1002が選択される。すなわち、撮像部1001によって取得された画像上で指定された位置情報に基づいて、複数の撮像部から指定された位置を撮像する撮像部を判定する。 In S103, it is determined which imaging unit has the region in which the designated point H1 exists, and the information is retained. Since it is determined in S102 that the point H1 exists in the area 3012, the imaging unit 1002 is selected here. That is, based on the positional information specified on the image acquired by the imaging unit 1001, the imaging unit that images the specified position is determined from among the plurality of imaging units.

S104では、選択された撮像部の映像が端末1600に送信される。ここでは、撮像部1002の映像が送信される。上記処理を行い、フローを終了する。端末1600上では送信された撮像部の撮影映像が表示される。図10に表示の一例を示す。ここでは、撮像部1001の撮影映像4000に隣接する位置に撮像部1002の撮影映像4002が表示される。 In S104, the video of the selected imaging unit is transmitted to the terminal 1600. Here, the video from the imaging unit 1002 is transmitted. The above process is performed and the flow ends. On the terminal 1600, the transmitted image taken by the imaging unit is displayed. FIG. 10 shows an example of the display. Here, a captured image 4002 of the imaging unit 1002 is displayed at a position adjacent to a captured image 4000 of the imaging unit 1001.

以上のような構成により、レンズ1011の周辺部に注目被写体が存在する場合でも、注目被写体を正確に視認することのできる撮像装置を提供することができる。 With the above configuration, it is possible to provide an imaging device that can accurately visually recognize the subject of interest even when the subject of interest exists in the periphery of the lens 1011.

<実施形態2>
以下、本発明の実施形態2について説明する。図11は、本発明の実施形態にかかわる撮像装置2000の模式図であるである。図11(a)は正面図であり、図11(b)は上面図である。撮像装置2000の撮像部2002、撮像部2003、撮像部2004および撮像部2005はそれぞれX軸、Y軸、Z軸周りに角度を変更することが可能である。つまり、撮像装置2000の撮像部2002、撮像部2003、撮像部2004および撮像部2005は撮像方向を変更可能となっている。図12に撮像部2002の回転動作の一例を示す。ここでは、X軸周りにθp、Y軸周りにθt、Z軸周りθrだけ角度を変更した状態である。撮像部2002と同様の回転動作が撮像部2003、撮像部2004および撮像部2005でもそれぞれ独立して行えるものとする。
<Embodiment 2>
Embodiment 2 of the present invention will be described below. FIG. 11 is a schematic diagram of an imaging device 2000 according to an embodiment of the present invention. FIG. 11(a) is a front view, and FIG. 11(b) is a top view. The imaging unit 2002, the imaging unit 2003, the imaging unit 2004, and the imaging unit 2005 of the imaging apparatus 2000 can change their angles around the X-axis, Y-axis, and Z-axis, respectively. In other words, the imaging direction of the imaging unit 2002, imaging unit 2003, imaging unit 2004, and imaging unit 2005 of the imaging apparatus 2000 can be changed. FIG. 12 shows an example of the rotation operation of the imaging unit 2002. Here, the angle is changed by θp around the X-axis, θt around the Y-axis, and θr around the Z-axis. It is assumed that the same rotational operation as that of the imaging unit 2002 can be performed independently in the imaging unit 2003, the imaging unit 2004, and the imaging unit 2005.

図13に本実施形態における撮像装置2000のブロック図を示す。実施形態1のブロック図に対して、撮像部それぞれの回転角度を検出するための回転角度検出部が新しく追加された構造である。回転角度検出部はロータリーエンコーダー等の角度を検出可能な機器で構成されている。 FIG. 13 shows a block diagram of an imaging device 2000 in this embodiment. This is a structure in which a rotation angle detection unit for detecting the rotation angle of each imaging unit is newly added to the block diagram of the first embodiment. The rotation angle detection section is composed of a device capable of detecting an angle, such as a rotary encoder.

ここで、撮像部2002に対して回転角度検出部2022がX軸、Y軸、Z軸それぞれに対する角度検出を行う。同様に撮像部2003、撮像部2004、撮像部2005に対してはそれぞれ回転角度検出部2023、回転角度検出部2024、回転角度検出部2025が角度の検出を行う。回転角度検出部で検出した角度情報は信号処理部2006に適切な形式で送られる。それ以外のブロックに関しては実施形態1の図1のブロック図と同様の機能を有するものとする。 Here, a rotation angle detection unit 2022 performs angle detection for each of the X-axis, Y-axis, and Z-axis with respect to the imaging unit 2002. Similarly, a rotation angle detection unit 2023, a rotation angle detection unit 2024, and a rotation angle detection unit 2025 detect the angles of the imaging units 2003, 2004, and 2005, respectively. The angle information detected by the rotation angle detection section is sent to the signal processing section 2006 in an appropriate format. The other blocks have the same functions as those in the block diagram of FIG. 1 of the first embodiment.

次に、図14を使用して実施形態2の処理フローについて説明する。図14のフロー図は、信号処理部2006によって、各処理ブロックを制御し実行される処理手順を図示したものである。また、本フローは信号処理部2006により図13のブロック図には不図示の不揮発メモリ等に格納されているプログラムを展開し実行することにより実現される。 Next, the processing flow of the second embodiment will be described using FIG. 14. The flowchart in FIG. 14 illustrates a processing procedure executed by the signal processing unit 2006 to control each processing block. Further, this flow is realized by the signal processing unit 2006 developing and executing a program stored in a nonvolatile memory or the like (not shown in the block diagram of FIG. 13).

本フローが開始されると、まずS200で、回転角度検出部よりそれぞれの撮像部の角度を取得する。以下、簡略のため、撮像部2002に関してのみ本実施形態を説明するが、撮像部2003、撮像部2004、撮像部2005においても同様の処理が行われるものとする。また、本フローでは前述の図12に示す様に撮像部2002が、X軸周りにθp、Y軸周りにθt、Z軸周りθrだけ角度が変更された場合を説明する。 When this flow starts, first in S200, the angle of each imaging unit is acquired from the rotation angle detection unit. Hereinafter, for the sake of brevity, this embodiment will be described only with respect to the imaging unit 2002, but it is assumed that similar processing is performed in the imaging unit 2003, imaging unit 2004, and imaging unit 2005 as well. Further, in this flow, a case will be described in which the angle of the imaging unit 2002 is changed by θp around the X axis, θt around the Y axis, and θr around the Z axis, as shown in FIG. 12 described above.

S200では、撮像部2001の撮影範囲に対する各撮像部の撮影領域を判定する。図15を用いて算出方法の一例について説明する。図15(a)に示す様に、撮像部2001の撮影範囲を範囲5001とすると、範囲5001は半球状となる。また図15(b)に示す様に、あらかじめ信号処理部2006には、撮像部2002に付随のレンズ2012の画角に応じた撮影領域5002の情報が格納されている。ここで、撮像部2002に対しあらかじめ設定された初期位置での光軸と撮像部5001の交点を点N2とし、領域5002の頂点をそれぞれ点S0、点T0、点U0、点V0とする。次に、X軸周りにθp、Y軸周りにθt、Z軸周りにθr回転動した後の撮像部2002の光軸と領域5001との交点を点M2とする。ここで、点N2と点M2の座標をそれぞれN2(n2x,n2y,n2z)とM2(m2x,m2y,m2z)とすると。N2からM2の変換は下記(式2)であらわされる。 In S200, the imaging area of each imaging unit relative to the imaging range of the imaging unit 2001 is determined. An example of the calculation method will be described using FIG. 15. As shown in FIG. 15A, if the imaging range of the imaging unit 2001 is a range 5001, the range 5001 has a hemispherical shape. Further, as shown in FIG. 15(b), the signal processing unit 2006 stores in advance information on a photographing area 5002 corresponding to the angle of view of the lens 2012 attached to the imaging unit 2002. Here, the intersection of the optical axis and the imaging section 5001 at an initial position preset for the imaging section 2002 is set as a point N2, and the vertices of the area 5002 are set as a point S0, a point T0, a point U0, and a point V0, respectively. Next, the intersection of the optical axis of the imaging unit 2002 and the region 5001 after rotating by θp around the X-axis, θt around the Y-axis, and θr around the Z-axis is defined as a point M2. Here, let the coordinates of point N2 and point M2 be N2 (n2x, n2y, n2z) and M2 (m2x, m2y, m2z), respectively. The conversion from N2 to M2 is expressed by the following (Equation 2).

Figure 2024011370000003
Figure 2024011370000003

N2からM2へ変換と同様の座標変換を点S0、点T0、点U0、点V0に行い点S、点T、点U、点Vの座法を求める。この点S、点T、点U、点Vに囲まれる領域が撮像部2002の回転動作後の撮影路領域でありここでは領域5012とする。S201では領域5012を算出し次のステップへと進む。 A coordinate transformation similar to the transformation from N2 to M2 is performed on points S0, T0, U0, and V0 to find the coordinates of points S, T, U, and V. The area surrounded by points S, T, U, and V is the imaging path area after the rotation operation of the imaging unit 2002, and is referred to as an area 5012 here. In S201, the area 5012 is calculated and the process proceeds to the next step.

S201では、S201で求めた点S、点T、点U、点Vに対して適切な係数をかけることで図16(a)に示す領域5001上の点S1、点T1、点U1、点V1を求める。またこの点S1、点T1、点U1、点V1で囲まれた領域が撮像部2001の撮影領域である領域5001における撮像部2002の撮影領域となり、ここではこの領域を領域5022とする。S202では領域5022を算出し、図16-2の様に領域5001上における二次元の座標として領域5022を算出してS203へと進む。 In S201, points S1, T1, U1, and V1 on the area 5001 shown in FIG. 16A are obtained by multiplying the points S, T, U, and V obtained in S201 by appropriate coefficients. seek. Further, the area surrounded by the point S1, the point T1, the point U1, and the point V1 becomes the imaging area of the imaging unit 2002 in the area 5001, which is the imaging area of the imaging unit 2001, and this area is referred to as an area 5022 here. In S202, a region 5022 is calculated, and as shown in FIG. 16-2, the region 5022 is calculated as two-dimensional coordinates on the region 5001, and the process proceeds to S203.

S202では、撮像部2001により撮影した映像を適切な形式に変換して、ネットワーク1500を介して端末1600へと配信する。S203では、ユーザーにより注目したい位置の座標が指定されたか否かを判定する。言いかえると、ユーザーが指定した位置に関する位置情報を取得したか否かを判定する。 In S202, the image captured by the imaging unit 2001 is converted into an appropriate format and distributed to the terminal 1600 via the network 1500. In S203, it is determined whether the user has specified the coordinates of a position of interest. In other words, it is determined whether position information regarding the position specified by the user has been acquired.

ここで、図17(a)に示す様に、撮像部2001の撮影映像を映像6001とし、その映像6001に対して端末のマウス等のインターフェイスを介して、ユーザーから注視したい箇所として点H(xh,yh)が指定されたとする。この場合、端末1600により点Hの座標情報がネットワークを介して撮像装置1000に送信される。撮像装置1000はこの座標情報を受信した場合に、S204にすすむ。ユーザーから座標の指定がない場合には、座標が入力されるまで場合は本フローで待機する。 Here, as shown in FIG. 17(a), the image captured by the imaging unit 2001 is defined as an image 6001, and a point H(xh , yh) are specified. In this case, coordinate information of point H is transmitted by terminal 1600 to imaging device 1000 via the network. When the imaging device 1000 receives this coordinate information, it proceeds to S204. If the user does not specify coordinates, this flow waits until the coordinates are input.

S204では、指定された点Hの座標が、撮像部2002から撮像部2005の撮影範囲である領域5022から領域5025までのどれかに存在するか否かを判定する。ここでは、S102と同様の座標変換処理を行い領域5001上のH1(xh1,yh1)を算出する。さらに、このH1が領域5022~5025内に存在するか否かを判定する。図17(a)の場合、H1は領域5022に存在すると判定される。領域5022から領域5025のいずれかの領域に存在する場合にはS205に進み、どの領域にも存在しない場合にはS203に進む。 In S204, it is determined whether the coordinates of the specified point H exist in any of the areas 5022 to 5025, which are the shooting ranges of the imaging units 2002 to 2005. Here, coordinate transformation processing similar to that in S102 is performed to calculate H1 (xh1, yh1) on the area 5001. Furthermore, it is determined whether this H1 exists within the regions 5022 to 5025. In the case of FIG. 17(a), it is determined that H1 exists in region 5022. If it exists in any of the areas 5022 to 5025, the process advances to S205, and if it does not exist in any area, the process advances to S203.

S205では、指定された点H1の存在する領域がどの撮像部の撮影領域かを判定しその情報を保持する。ここでは、領域5022に点H1が存在すると判定されたため、撮像部2002が選択される。 In S205, it is determined which imaging unit has the region in which the designated point H1 exists, and that information is retained. Here, since it is determined that the point H1 exists in the region 5022, the imaging unit 2002 is selected.

S206では、選択された撮像部の映像が端末に送信される。ここでは、撮像部2002の映像が送信される。上記処理を行い、フローを終了する。端末1600上では受信した撮影映像が表示される。図18に表示の一例を示す。ここでは、撮像部2001の撮影映像6001に隣接する位置に撮像部2002の撮影映像6002が表示される。 In S206, the video of the selected imaging unit is transmitted to the terminal. Here, the video from the imaging unit 2002 is transmitted. The above process is performed and the flow ends. The received captured video is displayed on the terminal 1600. FIG. 18 shows an example of the display. Here, a captured image 6002 of the imaging unit 2002 is displayed at a position adjacent to a captured image 6001 of the imaging unit 2001.

以上のような構成により、レンズ1011の周辺部に注目被写体が存在する場合でも、注目被写体を正確に視認することのできる撮像装置を提供することができる。本実施形態では角度変更のみに関して説明したが、ズーム倍率の変更等に関しても適切な座標変換の処理を加えることにより対応することが可能である。 With the above configuration, it is possible to provide an imaging device that can accurately visually recognize the subject of interest even when the subject of interest exists in the periphery of the lens 1011. In this embodiment, only the angle change has been described, but it is also possible to deal with changes in the zoom magnification and the like by adding appropriate coordinate transformation processing.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the invention.

1000 撮像装置
1001 撮像部
1002 撮像部
1003 撮像部
1004 撮像部
1005 撮像部
1006 信号処理部
1011 レンズ
1012 レンズ
1013 レンズ
1014 レンズ
1015 レンズ
1600 端末
2000 撮像装置
1000 Imaging device 1001 Imaging unit 1002 Imaging unit 1003 Imaging unit 1004 Imaging unit 1005 Imaging unit 1006 Signal processing unit 1011 Lens 1012 Lens 1013 Lens 1014 Lens 1015 Lens 1600 Terminal 2000 Imaging device

Claims (8)

全方位カメラと
前記全方位カメラを中心に円状に配置され、前記全方位カメラよりの焦点距離よりも長い焦点距離を有する複数のカメラと、を備え、
前記複数のカメラは、前記全方位カメラにより取得された画像における周辺部に対応する位置を撮像するように配置されることを特徴とする撮像装置。
an omnidirectional camera; and a plurality of cameras arranged in a circle around the omnidirectional camera and having a focal length longer than the focal length of the omnidirectional camera,
The imaging device is characterized in that the plurality of cameras are arranged so as to capture a position corresponding to a peripheral part of the image acquired by the omnidirectional camera.
前記複数のカメラは、前記円状に等間隔を空けて配置されることを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the plurality of cameras are arranged at equal intervals in the circle. 前記複数のカメラは、撮像範囲を分担することで、前記全方位カメラにより取得された画像における周辺部に対応する範囲である360度を撮像可能であることを特徴とする請求項1に記載の撮像装置。 The plurality of cameras are capable of capturing images of 360 degrees, which is a range corresponding to the peripheral part of the image acquired by the omnidirectional camera, by sharing the imaging range. Imaging device. 前記全方位カメラによって取得された画像上で指定された位置情報に基づいて、前記複数のカメラから前記指定された位置を撮像するカメラを判定する判定手段を備えることを特徴とする請求項1に記載の撮像装置。 2. The apparatus according to claim 1, further comprising determining means for determining which camera takes an image of the designated position from among the plurality of cameras, based on positional information designated on the image acquired by the omnidirectional camera. The imaging device described. 前記全方位カメラは、水平画角が180°以上であることを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the omnidirectional camera has a horizontal angle of view of 180° or more. 前記複数のカメラは、水平画角が180°より小さく、焦点距離が一定であることを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the plurality of cameras have a horizontal angle of view smaller than 180° and a constant focal length. 前記複数のカメラは、撮像方向を変更可能であることを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the plurality of cameras are capable of changing imaging directions. 撮像部それぞれの回転角度を検出するための回転角度検出部を備えることを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, further comprising a rotation angle detection section for detecting a rotation angle of each of the imaging sections.
JP2022113308A 2022-07-14 2022-07-14 Imaging apparatus Pending JP2024011370A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022113308A JP2024011370A (en) 2022-07-14 2022-07-14 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022113308A JP2024011370A (en) 2022-07-14 2022-07-14 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2024011370A true JP2024011370A (en) 2024-01-25

Family

ID=89621543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022113308A Pending JP2024011370A (en) 2022-07-14 2022-07-14 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2024011370A (en)

Similar Documents

Publication Publication Date Title
JP6721065B2 (en) Imaging device, image processing device and method
KR101657039B1 (en) Image processing apparatus, image processing method, and imaging system
WO2017020150A1 (en) Image processing method, device and camera
JP2017208619A (en) Image processing apparatus, image processing method, program and imaging system
US9436973B2 (en) Coordinate computation device and method, and an image processing device and method
CN108805938B (en) Detection method of optical anti-shake module, mobile terminal and storage medium
JP2006352851A (en) Method and device for acquiring image of scene using composite camera
EP3765815B1 (en) Imaging device, image processing apparatus, and image processing method
CN111246080B (en) Control apparatus, control method, image pickup apparatus, and storage medium
JP2015046044A (en) Image processing apparatus, image processing method, program, and imaging system
JP6544978B2 (en) Image output apparatus, control method therefor, imaging apparatus, program
JP6665917B2 (en) Image processing device
JP6222205B2 (en) Image processing device
WO2020107320A1 (en) Camera calibration method, apparatus, device and storage medium
JP6291748B2 (en) Imaging apparatus, imaging method, and program
CN115049548A (en) Method and apparatus for restoring image obtained from array camera
JP7383911B2 (en) Imaging system, image processing device, imaging device and program
CN111353945B (en) Fisheye image correction method, device and storage medium
CN103546680A (en) Deformation-free omni-directional fisheye photographic device and method for implementing same
JP7051365B2 (en) Image processing equipment, image processing methods, and programs
JP2024011370A (en) Imaging apparatus
JP2005275789A (en) Three-dimensional structure extraction method
JP2020057967A (en) Image processing device, imaging device, control method of image processing device, and program
WO2017159014A1 (en) Image processing device, image processing method and image processing system
KR100736565B1 (en) Method of taking a panorama image and mobile communication terminal thereof

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213