JP2016058886A - Imaging device, imaging system, image processing method and program - Google Patents

Imaging device, imaging system, image processing method and program Download PDF

Info

Publication number
JP2016058886A
JP2016058886A JP2014183703A JP2014183703A JP2016058886A JP 2016058886 A JP2016058886 A JP 2016058886A JP 2014183703 A JP2014183703 A JP 2014183703A JP 2014183703 A JP2014183703 A JP 2014183703A JP 2016058886 A JP2016058886 A JP 2016058886A
Authority
JP
Japan
Prior art keywords
unit
imaging
image
imaging unit
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014183703A
Other languages
Japanese (ja)
Inventor
翔 池村
Sho Ikemura
翔 池村
山中 睦裕
Mutsuhiro Yamanaka
睦裕 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014183703A priority Critical patent/JP2016058886A/en
Priority to PCT/JP2015/004169 priority patent/WO2016038805A1/en
Publication of JP2016058886A publication Critical patent/JP2016058886A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device, an imaging system, an image processing method and a program that can obtain an image suitable for user's browsing according to the setup orientation of an imaging unit.SOLUTION: An imaging device 1 has an imaging unit for picking up an image, a detector for detecting the tilt of the imaging unit with respect to the vertical direction V of an actual space, and an image processor for performing image processing on an image picked up by the imaging unit. The image processor has a selection part and a conversion part. On the basis of the tilt detected by the detector, the selection part selects a projection face from plural kinds of projection faces 101, 102 which are virtual faces set in the actual space and different in shape from each other. The conversion unit converts an image picked up by the imaging unit so that the image picked up by the imaging unit is mapped on the projection face selected by the selection unit.SELECTED DRAWING: Figure 1

Description

本発明は、一般に、撮像装置、撮像システム、画像処理方法、およびプログラムに関し、より詳細には撮像部で生成される画像に対して適宜の画像処理を施す撮像装置、撮像システム、画像処理方法、およびプログラムに関する。   The present invention generally relates to an imaging apparatus, an imaging system, an image processing method, and a program, and more specifically, an imaging apparatus, an imaging system, an image processing method, and an image processing apparatus that perform appropriate image processing on an image generated by an imaging unit. And program.

従来、180度以上の画角を有する魚眼レンズ(超広角レンズ)を利用し、2つの撮像素子(いわゆる2眼)を用いることにより、全方位(全天球)を一度に撮影可能とした撮像装置が提案されている(たとえば特許文献1参照)。   2. Description of the Related Art Conventionally, an imaging apparatus capable of photographing all directions (omnidirectional sphere) at once by using a fisheye lens (super wide angle lens) having an angle of view of 180 degrees or more and using two imaging elements (so-called two eyes). Has been proposed (see, for example, Patent Document 1).

特許文献1に記載の撮像装置は、鉛直方向に対する傾きを検出する傾き検出手段と、平面座標値を球面座標値に変換する変換データと、傾きに応じて変換データを補正する補正手段とを含んでいる。この撮像装置は、全方位(全天球)画像の生成を行うに際して、鉛直方向を検出し、画像処理に用いる変換テーブルに対して鉛直方向に応じた補正を行う。これにより、撮像装置は、鉛直方向に対する装置の任意の傾きに対応して、鉛直方向の正しい全方位(全天球)画像を生成することができる。   The imaging apparatus described in Patent Literature 1 includes an inclination detection unit that detects an inclination with respect to a vertical direction, conversion data that converts a plane coordinate value into a spherical coordinate value, and a correction unit that corrects the conversion data according to the inclination. It is out. When generating an omnidirectional (omnidirectional) image, this imaging apparatus detects the vertical direction and corrects the conversion table used for image processing according to the vertical direction. Thereby, the imaging device can generate a correct omnidirectional (omnidirectional) image in the vertical direction in response to an arbitrary inclination of the device with respect to the vertical direction.

この撮像装置は、基本的には垂直方向(鉛直方向)に向けて使用されるが、鉛直方向に対して傾いている場合、撮影される画像の天頂部がずれ水平線が歪むことがある。このような場合でも、特許文献1に記載の撮像装置は、鉛直方向に対する傾きに応じて変換データを補正することで、鉛直方向に対して傾くことなく設置された場合と同等に水平線の歪みを抑えた画像を得ることができる。   This imaging apparatus is basically used in the vertical direction (vertical direction), but when tilted with respect to the vertical direction, the zenith portion of the captured image may be shifted and the horizontal line may be distorted. Even in such a case, the image pickup apparatus described in Patent Document 1 corrects the conversion data according to the inclination with respect to the vertical direction, and thus the distortion of the horizontal line is equivalent to the case where it is installed without being inclined with respect to the vertical direction. A suppressed image can be obtained.

特開2013−214947号公報JP 2013-214947 A

ところで、特許文献1に記載の撮像装置では、変換後の画像の天頂部を実空間の天頂部に合わせるように、変換後の画像の向きが鉛直方向に対して一意に決まっている。そのため、たとえば水平画角が360度の撮像装置であれば、撮像装置が天井に取り付けられた場合でも、撮像装置が壁に取り付けられた場合でも、同じように水平画角が360度の画像が得られることになる。そうすると、撮像装置が壁に取り付けられている場合、画像の約半分には壁しか映らないことになり、ユーザの閲覧には適さない画像となる可能性がある。   By the way, in the imaging device described in Patent Document 1, the orientation of the converted image is uniquely determined with respect to the vertical direction so that the zenith portion of the converted image matches the zenith portion of the real space. Therefore, for example, if the imaging device has a horizontal angle of view of 360 degrees, an image with a horizontal angle of view of 360 degrees is the same regardless of whether the imaging device is attached to the ceiling or the imaging device is attached to a wall. Will be obtained. Then, when the imaging device is attached to the wall, only the wall is reflected in about half of the image, and there is a possibility that the image is not suitable for the user's browsing.

本発明は上記事由に鑑みて為されており、撮像部の設置される向きに応じ、ユーザの閲覧に適した画像を得ることができる撮像装置、撮像システム、画像処理方法、およびプログラムを提供することを目的とする。   The present invention has been made in view of the above reasons, and provides an imaging apparatus, an imaging system, an image processing method, and a program capable of obtaining an image suitable for a user's browsing according to the direction in which the imaging unit is installed. For the purpose.

本発明の撮像装置は、画像を撮像する撮像部と、実空間の鉛直方向に対する前記撮像部の傾きを検出する検出部と、前記撮像部で撮像された画像に画像処理を施す画像処理部とを備え、前記画像処理部は、前記実空間に設定される仮想面であって互いに形状の異なる複数種類の投影面の中から、前記検出部で検出された前記傾きに基づいて投影面を選択する選択部と、前記選択部で選択された前記投影面に前記撮像部で撮像された画像がマッピングされるように、前記撮像部で撮像された画像を変換する変換部とを有することを特徴とする。   An imaging apparatus according to the present invention includes an imaging unit that captures an image, a detection unit that detects an inclination of the imaging unit with respect to a vertical direction of real space, and an image processing unit that performs image processing on an image captured by the imaging unit. The image processing unit selects a projection plane based on the inclination detected by the detection unit from a plurality of types of projection planes that are virtual planes set in the real space and have different shapes. And a conversion unit that converts the image captured by the imaging unit so that the image captured by the imaging unit is mapped to the projection plane selected by the selection unit. And

本発明の撮像システムは、画像を撮像する撮像部と、実空間の鉛直方向に対する前記撮像部の傾きを検出する検出部と、前記撮像部および前記検出部からデータを取得し、前記撮像部で撮像された画像に画像処理を施す画像処理ユニットとを備え、前記画像処理ユニットは、前記実空間に設定される仮想面であって互いに形状の異なる複数種類の投影面の中から、前記検出部で検出された前記傾きに基づいて投影面を選択する選択部と、前記選択部で選択された前記投影面に前記撮像部で撮像された画像がマッピングされるように、前記撮像部で撮像された画像を変換する変換部とを有することを特徴とする。   The imaging system of the present invention acquires data from an imaging unit that captures an image, a detection unit that detects an inclination of the imaging unit with respect to a vertical direction of real space, and the imaging unit and the detection unit to obtain data. An image processing unit that performs image processing on the captured image, and the image processing unit is a virtual plane set in the real space, and the detection unit is selected from a plurality of types of projection planes having different shapes. A selection unit that selects a projection plane based on the inclination detected in step (b), and an image captured by the imaging unit so that an image captured by the imaging unit is mapped to the projection plane selected by the selection unit. And a conversion unit for converting the image.

本発明の画像処理方法は、実空間に設定される仮想面であって互いに形状の異なる複数種類の投影面の中から、前記実空間の鉛直方向に対する撮像部の傾きに基づいて投影面を選択する第1ステップと、前記第1ステップで選択された前記投影面に前記撮像部で撮像された画像がマッピングされるように、前記撮像部で撮像された画像を変換する第2ステップとを含むことを特徴とする。   The image processing method of the present invention selects a projection plane based on the inclination of the imaging unit with respect to the vertical direction of the real space from a plurality of types of projection planes that are virtual planes set in the real space and have different shapes. And a second step of converting the image captured by the imaging unit so that the image captured by the imaging unit is mapped onto the projection plane selected in the first step. It is characterized by that.

本発明のプログラムは、画像を撮像する撮像部に接続されたコンピュータを、実空間に設定される仮想面であって互いに形状の異なる複数種類の投影面の中から、前記実空間の鉛直方向に対する前記撮像部の傾きに基づいて投影面を選択する選択部、前記選択部で選択された前記投影面に前記撮像部で撮像された画像がマッピングされるように、前記撮像部で撮像された画像を変換する変換部として機能させる。   The program according to the present invention allows a computer connected to an image capturing unit that captures an image to be a virtual plane set in the real space and a plurality of types of projection planes having different shapes from each other with respect to the vertical direction of the real space. A selection unit that selects a projection plane based on the tilt of the imaging unit, and an image captured by the imaging unit so that an image captured by the imaging unit is mapped to the projection plane selected by the selection unit To function as a conversion unit for converting.

本発明は、撮像部の設置される向きに応じ、ユーザの閲覧に適した画像を得ることができる、という利点がある。   The present invention has an advantage that an image suitable for viewing by the user can be obtained according to the direction in which the imaging unit is installed.

図1Aは実施形態1に係る撮像装置の天井に取り付けられた状態の斜視図、図1Bは実施形態1に係る撮像装置の壁に取り付けられた状態の斜視図である。1A is a perspective view of a state where the imaging apparatus according to Embodiment 1 is attached to a ceiling, and FIG. 1B is a perspective view of a state where the imaging apparatus according to Embodiment 1 is attached to a wall. 実施形態1に係る撮像装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging apparatus according to a first embodiment. 図3Aは実施形態1に係る撮像装置の下向きに設置された状態の側面図、図3Bは実施形態1に係る撮像装置の上向きに設置された状態の側面図、図3Bは実施形態1に係る撮像装置の横向きに設置された状態の側面図である。3A is a side view of the imaging apparatus according to Embodiment 1 installed in a downward direction, FIG. 3B is a side view of the imaging apparatus according to Embodiment 1 installed in an upward direction, and FIG. It is a side view of the state installed sideways of the imaging device. 図4Aは比較例における変換画像の概略図、図4Bは実施形態1に係る撮像装置で得られる変換画像の概略図である。4A is a schematic diagram of a converted image in the comparative example, and FIG. 4B is a schematic diagram of a converted image obtained by the imaging apparatus according to the first embodiment. 実施形態2に係る撮像装置を示す斜視図である。6 is a perspective view showing an imaging apparatus according to Embodiment 2. FIG. 実施形態2に係る撮像装置の動作を示すフローチャートである。6 is a flowchart illustrating an operation of the imaging apparatus according to the second embodiment. 実施形態2に係る撮像装置を示す斜視図である。6 is a perspective view showing an imaging apparatus according to Embodiment 2. FIG. 図8Aは変形例に係る撮像装置の上向きに設置された状態の斜視図、図8Bは変形例に係る撮像装置の斜め上向きに設置された状態の斜視図、図8Cは変形例に係る撮像装置の斜め下向きに設置された状態の斜視図である。8A is a perspective view of a state in which the imaging device according to the modification is installed upward, FIG. 8B is a perspective view of a state in which the imaging device according to the modification is installed obliquely upward, and FIG. 8C is an imaging device according to the modification. It is a perspective view of the state installed diagonally downward. 実施形態に係る撮像システムの構成を示すブロック図である。It is a block diagram which shows the structure of the imaging system which concerns on embodiment.

(実施形態1)
本実施形態に係る撮像装置1は、図2に示すように、画像を撮像する撮像部2と、実空間の鉛直方向V(図1A参照)に対する撮像部2の傾きを検出する検出部3と、撮像部2で撮像された画像に画像処理を施す画像処理部4とを備えている。
(Embodiment 1)
As shown in FIG. 2, the imaging apparatus 1 according to the present embodiment includes an imaging unit 2 that captures an image, and a detection unit 3 that detects the inclination of the imaging unit 2 with respect to the vertical direction V of real space (see FIG. 1A). The image processing unit 4 performs image processing on the image captured by the image capturing unit 2.

画像処理部4は、選択部41と、撮像部2で撮像された画像を変換する変換部42とを有している。ここで、選択部41は、図1Aおよび図1Bに示すように前記実空間に設定される仮想面であって互いに形状の異なる複数種類の投影面101,102の中から、検出部3で検出された前記傾きに基づいて投影面を選択する。変換部42は、選択部41で選択された前記投影面に撮像部2で撮像された画像がマッピングされるように、(撮像部2で撮像された)画像を変換する。   The image processing unit 4 includes a selection unit 41 and a conversion unit 42 that converts an image captured by the imaging unit 2. Here, as shown in FIGS. 1A and 1B, the selection unit 41 is detected by the detection unit 3 from a plurality of types of projection planes 101 and 102 which are virtual planes set in the real space and have different shapes. A projection plane is selected based on the tilt. The conversion unit 42 converts the image (captured by the imaging unit 2) so that the image captured by the imaging unit 2 is mapped to the projection plane selected by the selection unit 41.

この構成によれば、本実施形態の撮像装置1は、実空間に設定される仮想面であって互いに形状の異なる複数種類の投影面のうち、いずれの投影面に画像をマッピングするかを、実空間の鉛直方向Vに対する撮像部2の傾きに基づいて選択する。すなわち、撮像装置1は、撮像部2で撮像された画像に画像処理部4で画像処理を施すことにより、いずれかの投影面に画像がマッピングされるように、撮像部2で撮像された画像を変換している。ここで、撮像部2で撮像された画像のマッピングされる投影面は、実空間の鉛直方向Vに対する撮像部2の傾きに基づいて自動的に選択される。したがって、本実施形態の撮像装置1は、撮像部2の設置される向きに応じ、ユーザの閲覧に適した画像を得ることができる、という利点がある。   According to this configuration, the imaging apparatus 1 according to the present embodiment determines which projection plane to map an image from among a plurality of types of projection planes that are virtual planes set in real space and have different shapes. The selection is made based on the inclination of the imaging unit 2 with respect to the vertical direction V of the real space. In other words, the imaging device 1 performs image processing on the image captured by the imaging unit 2 by the image processing unit 4 so that the image is mapped to any one of the projection planes. Has been converted. Here, the projection plane onto which the image captured by the imaging unit 2 is mapped is automatically selected based on the inclination of the imaging unit 2 with respect to the vertical direction V of the real space. Therefore, the imaging apparatus 1 of the present embodiment has an advantage that an image suitable for the user's browsing can be obtained according to the direction in which the imaging unit 2 is installed.

以下、本実施形態の撮像装置1について詳しく説明する。ただし、以下に説明する撮像装置1は、本発明の一例に過ぎず、本発明は、下記実施形態に限定されることはなく、この実施形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能である。   Hereinafter, the imaging device 1 of the present embodiment will be described in detail. However, the imaging apparatus 1 described below is only an example of the present invention, and the present invention is not limited to the following embodiment, and the technical idea according to the present invention is not limited to this embodiment. As long as it does not deviate from the above, various changes can be made according to the design and the like.

以下の実施形態では、防犯等の目的で、撮像装置1が監視カメラとして建物(たとえば戸建住宅、集合住宅、事務所、店舗、工場等)の天井、あるいは壁に取り付けられる場合を例として説明する。また、撮像装置1は、ここでは動画を撮像するカメラであると仮定するが、静止画を撮像するカメラ(スチルカメラ)であってもよい。   In the following embodiments, for the purpose of crime prevention or the like, a case where the imaging device 1 is attached to the ceiling or wall of a building (for example, a detached house, an apartment house, an office, a store, a factory, etc.) as a monitoring camera will be described as an example. To do. In addition, the imaging apparatus 1 is assumed to be a camera that captures a moving image here, but may be a camera (still camera) that captures a still image.

<撮像装置の構成>
本実施形態に係る撮像装置1は、図2に示すように、上述した撮像部2、検出部3、および画像処理部4を、1つの筐体5内に備えている。
<Configuration of imaging device>
As shown in FIG. 2, the imaging apparatus 1 according to the present embodiment includes the imaging unit 2, the detection unit 3, and the image processing unit 4 described above in one housing 5.

撮像部2は、撮像素子21と、光学系22とを1つずつ有している。撮像素子21は、CCD(Charge Coupled Devices)イメージセンサやCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどの二次元イメージセンサである。撮像素子21は、撮像対象からの光を光学系22によって撮像面(受光面)上に結像させ、電気信号に変換して出力する。光学系22は、本実施形態では180度以上の画角を持つ魚眼レンズ(超広角レンズ)を含んでいる。   The imaging unit 2 has one imaging element 21 and one optical system 22. The image sensor 21 is a two-dimensional image sensor such as a charge coupled devices (CCD) image sensor or a complementary metal-oxide semiconductor (CMOS) image sensor. The imaging element 21 forms an image of light from the imaging target on the imaging surface (light receiving surface) by the optical system 22, converts it into an electrical signal, and outputs it. In this embodiment, the optical system 22 includes a fisheye lens (super wide angle lens) having an angle of view of 180 degrees or more.

これにより、撮像素子21の撮像面には、光学系22を通して画角180度の画像が投影される。本実施形態では、撮像素子21の撮像面に投影される画像は、魚眼レンズの表面となる半球面上の像を、該半球の底面となる平面に垂直に投影した正射影の画像である。すなわち、撮像部2で撮像される画像(以下、「原画像」という)は、実空間において撮像部(撮像素子21)2を中心として設定された半球面状の仮想面に投影される画像となる。このように、撮像により得られる画像が投影されているとみなされる実空間上の仮想面を、以下では投影面と呼び、特に原画像に対応する投影面(上述した半球面上の仮想面)を原投影面100(図1A参照)と呼ぶ。   As a result, an image with an angle of view of 180 degrees is projected through the optical system 22 onto the imaging surface of the imaging element 21. In the present embodiment, the image projected on the imaging surface of the imaging device 21 is an orthographic image obtained by projecting an image on the hemisphere, which is the surface of the fisheye lens, perpendicularly to the plane, which is the bottom surface of the hemisphere. That is, an image picked up by the image pickup unit 2 (hereinafter referred to as “original image”) is an image projected onto a hemispherical virtual surface set around the image pickup unit (image pickup element 21) 2 in real space. Become. In this way, a virtual surface in real space in which an image obtained by imaging is regarded as being projected is hereinafter referred to as a projection surface, and in particular, a projection surface corresponding to the original image (the virtual surface on the hemisphere described above). Is called the original projection plane 100 (see FIG. 1A).

本実施形態においては、撮像素子21の撮像面に含まれるX軸およびY軸と、撮像部2の光軸に当たるZ軸とで規定されるXYZ直交座標系をカメラ座標系とし、原画像の中心座標を(x,y,z)=(0,0,0)とする。ここでいうカメラ座標系は、撮像部2の向きを基準として実空間上に設定される座標系である。カメラ座標系(XYZ直交座標系)は、以下のようにして原画像におけるUV座標系へ変換される。ここでは、U軸はX軸に平行、V軸はY軸に平行であり、且つ(u,v)=(α,β)が原画像の中心位置((x,y)=(0,0))であると仮定する。   In the present embodiment, an XYZ orthogonal coordinate system defined by the X axis and the Y axis included in the imaging surface of the imaging device 21 and the Z axis corresponding to the optical axis of the imaging unit 2 is a camera coordinate system, and the center of the original image The coordinates are (x, y, z) = (0, 0, 0). The camera coordinate system here is a coordinate system set on the real space with reference to the orientation of the imaging unit 2. The camera coordinate system (XYZ orthogonal coordinate system) is converted to the UV coordinate system in the original image as follows. Here, the U axis is parallel to the X axis, the V axis is parallel to the Y axis, and (u, v) = (α, β) is the center position of the original image ((x, y) = (0, 0). )).

まず、直交座標系であるカメラ座標系が極座標系へ変換されることにより、原投影面100上のP点の位置は(θ,φ,R)で表される。ここで、θは原画像の中心と原投影面100上のP点とを結ぶ直線と撮像部2の光軸(Z軸)とのなす角度、φはP点を原投影面100の底面となる平面に垂直に投影した点と原画像の中心とを結ぶ直線とX軸とのなす角度、Rは原投影面100の半径である。   First, the position of the point P on the original projection plane 100 is represented by (θ, φ, R) by converting the camera coordinate system, which is an orthogonal coordinate system, into a polar coordinate system. Here, θ is an angle formed by a straight line connecting the center of the original image and the point P on the original projection plane 100 and the optical axis (Z axis) of the imaging unit 2, and φ is the point P and the bottom surface of the original projection plane 100. An angle formed by a straight line connecting the point projected perpendicularly to the plane and the center of the original image and the X axis, R is the radius of the original projection plane 100.

Figure 2016058886
Figure 2016058886

Figure 2016058886
Figure 2016058886

さらに、上記θ、R、および正射影の投影関数を用いれば、原画像上に投影されたP点の原画像中心からの距離(半径)rは、r=R×sinθで表される。そのため、原画像におけるUV座標系でのP点の位置(u,v)は、上記rおよびφを用いて以下のように表される。   Furthermore, if the above θ, R and orthographic projection functions are used, the distance (radius) r of the P point projected on the original image from the center of the original image is represented by r = R × sin θ. Therefore, the position (u, v) of the point P in the UV coordinate system in the original image is expressed as follows using the above r and φ.

u=r cosφ+α
v=r sinφ+β
ただし、魚眼レンズの射影方式は、上述したような正射影に限らず、たとえば等立体角射影、立体射影、あるいは等距離射影などであってもよい。正射影以外の射影方式の場合、投影関数が変わるため、上記説明のうちrを表す式が変わることになる。すなわち、等立体角射影であればr=R×2sin(θ/2)、立体射影であればr=R×2tan(θ/2)、投距離射影であればr=R×θにより、rが表されることになる。
u = r cosφ + α
v = r sinφ + β
However, the projection method of the fisheye lens is not limited to the orthographic projection as described above, and may be, for example, an equisolid angle projection, an orthographic projection, or an equidistant projection. In the case of a projection method other than orthographic projection, since the projection function changes, the expression representing r in the above description changes. That is, r = R × 2 sin (θ / 2) for equisolid angle projection, r = R × 2 tan (θ / 2) for stereo projection, and r = R × θ for throw distance projection. Will be represented.

撮像部2は、撮像した画像(原画像)を、たとえばJPEG形式や、H.264あるいはH.265などの画像圧縮方式で圧縮し、画像データとして、画像処理部4へ出力するように構成されている。なお、光学系22は魚眼レンズに限らず、他の広角レンズ、あるいは全方位ミラーのような曲面ミラーを用いて構成されていてもよい。   The imaging unit 2 can use a captured image (original image) as, for example, JPEG format or H.264. H.264 or H.264 The image data is compressed by an image compression method such as H.265, and is output to the image processing unit 4 as image data. The optical system 22 is not limited to a fisheye lens, and may be configured using another wide-angle lens or a curved mirror such as an omnidirectional mirror.

検出部3は、少なくとも実空間の鉛直方向(上下方向)Vに対する撮像部2の傾きの大きさ(傾斜角)を計測する。検出部3には、たとえば加速度センサが用いられる。本実施形態では一例として3軸加速度センサが検出部3に用いられている。   The detection unit 3 measures at least the magnitude (inclination angle) of the imaging unit 2 with respect to the vertical direction (vertical direction) V of the real space. For the detection unit 3, for example, an acceleration sensor is used. In the present embodiment, a triaxial acceleration sensor is used for the detection unit 3 as an example.

検出部3は、撮像部2の光軸(Z軸)と実空間の鉛直方向Vとのなす角度を第1の角度θ1として計測し、第1の角度θ1に応じた値を画像処理部4へ出力する。すなわち、検出部3は、撮像部2の光軸と実空間の鉛直方向Vとのなす角度を、上記の傾きに含めて検出するように構成されている。   The detection unit 3 measures an angle formed by the optical axis (Z axis) of the imaging unit 2 and the vertical direction V of the real space as the first angle θ1, and a value corresponding to the first angle θ1 is measured by the image processing unit 4. Output to. In other words, the detection unit 3 is configured to detect the angle formed by the optical axis of the imaging unit 2 and the vertical direction V of the real space in the above inclination.

たとえば、図3Aに示すように撮像部2の光軸(Z軸)が鉛直方向Vと一致し且つ下方(重力の作用する方向)を向いている場合には、検出部3で計測される第1の角度θ1は0度となる。図3Bに示すように撮像部2の光軸(Z軸)が鉛直方向Vと一致し且つ上方を向いている場合には、検出部31で計測される第1の角度θ1は180度となる。一方、図3Cに示すように撮像部2の光軸(Z軸)が水平方向と一致している場合には、検出部31で計測される第1の角度θ1は90度となる。   For example, as shown in FIG. 3A, when the optical axis (Z-axis) of the imaging unit 2 coincides with the vertical direction V and faces downward (the direction in which gravity acts), the first measured by the detection unit 3. The angle θ1 of 1 is 0 degree. As shown in FIG. 3B, when the optical axis (Z-axis) of the imaging unit 2 coincides with the vertical direction V and faces upward, the first angle θ1 measured by the detection unit 31 is 180 degrees. . On the other hand, as shown in FIG. 3C, when the optical axis (Z axis) of the imaging unit 2 coincides with the horizontal direction, the first angle θ1 measured by the detection unit 31 is 90 degrees.

画像処理部4は、本実施形態では、図2に示すように、上述した選択部41および変換部42に加え、判定部43と記憶部44と出力部45とをさらに有している。画像処理部4は、たとえばマイコン(マイクロコンピュータ)など、CPU(Central Processing Unit)およびメモリを備えたコンピュータを主構成とする。この画像処理部4は、メモリに記憶されているプログラムをCPUで実行することにより、コンピュータを選択部41、変換部42として機能させる。プログラムは、予めメモリに書き込まれていてもよいが、電気通信回線を通じて、あるいはメモリカードなどの記録媒体に記録されて提供されてもよい。   In the present embodiment, the image processing unit 4 further includes a determination unit 43, a storage unit 44, and an output unit 45 in addition to the selection unit 41 and the conversion unit 42 described above, as shown in FIG. The image processing unit 4 is mainly composed of a computer including a CPU (Central Processing Unit) and a memory such as a microcomputer (microcomputer). The image processing unit 4 causes the computer to function as the selection unit 41 and the conversion unit 42 by executing a program stored in the memory by the CPU. The program may be written in the memory in advance, or may be provided by being recorded through a telecommunication line or in a recording medium such as a memory card.

判定部43は、検出部3の出力値に基づいて、実空間における撮像部2の向きを判定する。本実施形態では、判定部43は、撮像部2が「縦向き」、「横向き」のいずれであるかを判定する。ここでいう「縦向き」は撮像部2の光軸(Z軸)が実空間における鉛直方向(上方または下方)Vに沿う状態であり、「横向き」は撮像部2の光軸(Z軸)が実空間における水平方向に沿う状態である。   The determination unit 43 determines the orientation of the imaging unit 2 in the real space based on the output value of the detection unit 3. In the present embodiment, the determination unit 43 determines whether the imaging unit 2 is “vertical” or “horizontal”. Here, “vertical” is a state in which the optical axis (Z-axis) of the imaging unit 2 is along the vertical direction (upward or downward) V in real space, and “lateral” is the optical axis (Z-axis) of the imaging unit 2. Is a state along the horizontal direction in real space.

具体的には、判定部43は、検出部3で計測された第1の角度θ1と所定の閾値とを比較し、その比較結果によって、「縦向き」か「横向き」かを判定する。ここで、第1の角度θ1と比較される閾値は1つの値に限らず、たとえば2つ以上の値であってもよい。本実施形態では、閾値として45度(第1の閾値)と135度(第2の閾値)との2値が設定されている。そして、判定部43は、第1の角度θ1が第1の閾値よりも小さい場合(0≦θ1<45)、並びに第1の角度θ1が第2の閾値よりも大きい場合(135<θ1≦180)、撮像部2が「縦向き」であると判定する。一方、第1の角度θ1が第1の閾値以上で且つ第2の閾値以下である場合(45≦θ1≦135)、判定部43は、撮像部2が「横向き」であると判定する。   Specifically, the determination unit 43 compares the first angle θ1 measured by the detection unit 3 with a predetermined threshold value, and determines whether it is “vertical” or “horizontal” based on the comparison result. Here, the threshold value to be compared with the first angle θ1 is not limited to one value, and may be two or more values, for example. In the present embodiment, binary values of 45 degrees (first threshold value) and 135 degrees (second threshold value) are set as threshold values. Then, the determination unit 43 determines that the first angle θ1 is smaller than the first threshold (0 ≦ θ1 <45) and the first angle θ1 is larger than the second threshold (135 <θ1 ≦ 180). ), It is determined that the imaging unit 2 is “vertical”. On the other hand, when the first angle θ1 is greater than or equal to the first threshold and less than or equal to the second threshold (45 ≦ θ1 ≦ 135), the determination unit 43 determines that the imaging unit 2 is “landscape”.

なお、判定部43は、「縦向き」と「横向き」の2段階の判定に限らず、3段階以上の判定を行う構成であってもよい。   The determination unit 43 is not limited to the two-stage determination of “vertical” and “horizontal”, and may be configured to perform determination of three or more stages.

選択部41は、互いに形状の異なる複数種類の投影面の中から、判定部43の判定結果に基づいて投影面を選択する。つまり、選択部41は、判定部43の判定結果を受け、撮像部2が「縦向き」であるか「横向き」であるかによって異なる投影面を選択する。本実施形態では、選択部41は、後述する第1投影面101(図1A参照)と第2投影面102(図1B参照)との2種類の投影面から投影面を選択する。   The selection unit 41 selects a projection plane from a plurality of types of projection planes having different shapes based on the determination result of the determination unit 43. That is, the selection unit 41 receives the determination result of the determination unit 43 and selects different projection planes depending on whether the imaging unit 2 is “vertical” or “horizontal”. In the present embodiment, the selection unit 41 selects a projection plane from two types of projection planes, which are a first projection plane 101 (see FIG. 1A) and a second projection plane 102 (see FIG. 1B), which will be described later.

ここで、選択部41は、複数種類の投影面の中から、実空間の鉛直方向Vに沿い、且つ実空間の水平面内で湾曲した形状の投影面を選択するように構成されている。そのため、選択部41は、撮像部2が「縦向き」であれば第1投影面101を選択し、撮像部2が「横向き」であれば第2投影面102を選択する。第1投影面101および第2投影面102の具体的な形状については後述する。   Here, the selection unit 41 is configured to select, from a plurality of types of projection planes, a projection plane having a shape along the vertical direction V of the real space and curved in the horizontal plane of the real space. Therefore, the selection unit 41 selects the first projection plane 101 if the imaging unit 2 is “vertical”, and selects the second projection plane 102 if the imaging unit 2 is “horizontal”. Specific shapes of the first projection plane 101 and the second projection plane 102 will be described later.

変換部42は、選択部41で選択された投影面に撮像部2で撮像された原画像がマッピングされるように、原画像を変換する。実際には、変換部42は、選択部41で選択された投影面に対応する変換式を用いて原画像の座標変換を行う。このとき、変換部42は、変換後の画像(以下、「変換画像」という)の歪みを抑えるように、歪補正並びに補間処理を原画像の変換と併せて行う。   The conversion unit 42 converts the original image so that the original image captured by the imaging unit 2 is mapped to the projection plane selected by the selection unit 41. Actually, the conversion unit 42 performs coordinate conversion of the original image using a conversion formula corresponding to the projection plane selected by the selection unit 41. At this time, the conversion unit 42 performs distortion correction and interpolation processing together with conversion of the original image so as to suppress distortion of the converted image (hereinafter referred to as “converted image”).

記憶部44は、互いに形状の異なる複数種類の投影面に対応する情報を、判定部43の判定結果に対応付けて予め記憶している。本実施形態では、記憶部44は、変換部42で用いられる変換式を、判定部43の判定結果に対応付けて記憶している。これにより、選択部41は、判定部43の判定結果を受け、判定部43の判定結果に対応する変換式を記憶部44から読み出すことにより、判定部43の判定結果に基づいて変換後の投影面を選択することができる。   The storage unit 44 stores in advance information corresponding to a plurality of types of projection planes having different shapes in association with the determination result of the determination unit 43. In the present embodiment, the storage unit 44 stores the conversion formula used by the conversion unit 42 in association with the determination result of the determination unit 43. As a result, the selection unit 41 receives the determination result of the determination unit 43 and reads the conversion formula corresponding to the determination result of the determination unit 43 from the storage unit 44, thereby performing projection after conversion based on the determination result of the determination unit 43. A face can be selected.

出力部45は、外部装置と通信可能に構成されている。出力部45は、画像処理後、つまり変換部42で変換後の画像(変換画像)を、たとえば構内通信網(LAN:local area network)からなるネットワークを介して外部装置へ送信する。外部装置は、変換画像を記憶するストレージ装置、変換画像を表示するモニタ装置などである。なお、出力部45は、変換画像を外部装置へ送信する構成に限らず、内蔵メモリ、あるいはメモリカード等の記録媒体に変換画像を書き込む構成であってもよい。   The output unit 45 is configured to be able to communicate with an external device. The output unit 45 transmits the image after image processing, that is, the image converted by the conversion unit 42 (converted image) to an external device via a network including a local area network (LAN), for example. The external device is a storage device that stores the converted image, a monitor device that displays the converted image, or the like. The output unit 45 is not limited to the configuration for transmitting the converted image to the external device, but may be configured to write the converted image to a recording medium such as a built-in memory or a memory card.

<撮像装置の動作>
上述のように構成される撮像装置1は、撮像部2で得られる原画像に画像処理部4で画像処理を施すことにより、変換画像を生成する。このとき、画像処理部4は、図1Aおよび図1Bに示すように、画像が投影されているとみなされる実空間上の仮想面、つまり画像がマッピングされる投影面を、原投影面100から、第1投影面101あるいは第2投影面102へ切り替える。ここで、画像処理部4は、互いに形状の異なる複数種類の投影面の中から、検出部3で検出された撮像部2の傾きに基づいて投影面を選択する。
<Operation of imaging device>
The imaging device 1 configured as described above generates a converted image by performing image processing on the original image obtained by the imaging unit 2 by the image processing unit 4. At this time, as shown in FIG. 1A and FIG. 1B, the image processing unit 4 moves the virtual plane in the real space where the image is assumed to be projected, that is, the projection plane onto which the image is mapped, from the original projection plane 100. , Switching to the first projection plane 101 or the second projection plane 102. Here, the image processing unit 4 selects a projection plane based on the inclination of the imaging unit 2 detected by the detection unit 3 from a plurality of types of projection planes having different shapes.

本実施形態では、画像処理部4は、検出部3で検出された撮像部2の傾きに基づき、撮像部2が「縦向き」であれば第1投影面101(図1A参照)を選択し、「横向き」であれば第2投影面102(図1B参照)を選択するように構成されている。   In the present embodiment, the image processing unit 4 selects the first projection plane 101 (see FIG. 1A) based on the inclination of the imaging unit 2 detected by the detection unit 3 if the imaging unit 2 is “vertical”. In the case of “landscape”, the second projection plane 102 (see FIG. 1B) is selected.

すなわち、撮像装置1は、撮像部2が「縦向き」であれば、図1Aに示すように撮像部2の光軸(Z軸)を中心軸とする円筒状(円柱の周面形状)の投影面(第1投影面)101を、選択部41で選択する。図1Aは撮像装置1が建物の天井に取り付けられた状態を表しており、図1Aに示す撮像装置1は撮像部2の光軸を下方に向けた状態にある。したがって、第1投影面101は、実空間における撮像装置1の下方において、撮像部2を通る鉛直方向Vの中心軸周りに設定されることになる。言い換えれば、図1Aの状態においては、第1投影面101は、実空間の鉛直方向Vに沿い、且つ実空間の水平面内で湾曲した形状の投影面である。   That is, when the imaging unit 2 is “vertical”, the imaging device 1 has a cylindrical shape (circumferential shape of a column) having the optical axis (Z axis) of the imaging unit 2 as a central axis as shown in FIG. 1A. A projection plane (first projection plane) 101 is selected by the selection unit 41. FIG. 1A illustrates a state in which the imaging device 1 is attached to the ceiling of a building, and the imaging device 1 illustrated in FIG. 1A is in a state in which the optical axis of the imaging unit 2 is directed downward. Accordingly, the first projection plane 101 is set around the central axis in the vertical direction V passing through the imaging unit 2 below the imaging device 1 in real space. In other words, in the state of FIG. 1A, the first projection plane 101 is a projection plane having a shape along the vertical direction V of the real space and curved in the horizontal plane of the real space.

この場合、撮像装置1は、第1投影面101に、撮像部2で撮像された原画像がマッピングされるように、変換部42にて原画像を変換する。つまり、変換部42は、記憶部44に記憶されている変換式のうち、第1投影面101に対応する変換式を用いて原画像の変換を行う。ここで、出力部45より出力される変換画像は、円筒状の第1投影面101に投影された画像を平面状に展開した二次元画像である。これにより、撮像装置1は、実空間における水平画角が360度のパノラマ画像を、変換画像として出力部45から出力することができる。   In this case, the imaging device 1 converts the original image by the conversion unit 42 so that the original image captured by the imaging unit 2 is mapped to the first projection plane 101. That is, the conversion unit 42 converts the original image using a conversion formula corresponding to the first projection plane 101 among the conversion formulas stored in the storage unit 44. Here, the converted image output from the output unit 45 is a two-dimensional image obtained by expanding the image projected on the cylindrical first projection plane 101 into a planar shape. Thereby, the imaging apparatus 1 can output a panoramic image having a horizontal angle of view of 360 degrees in the real space from the output unit 45 as a converted image.

一方、撮像部2が「横向き」であれば、図1Bに示すように撮像部2の光軸(Z軸)と交差し、且つ実空間の鉛直方向Vに直交する断面が円弧状となる投影面(第2投影面)102を、選択部41で選択する。ここで、第2投影面102は、撮像部2の撮像面を含むXY平面に対向し、且つX軸方向においてY軸から離れるにつれてXY平面に近づくように湾曲した曲面である。図1Bは撮像装置1が建物の壁に取り付けられた状態を表しており、図1Bに示す撮像装置1は撮像部2の光軸を前方(壁の正面方向)に向けた状態にある。したがって、第2投影面102は、実空間における撮像装置1の前方において、撮像部2を通る鉛直方向Vの中心軸周りに設定されることになる。言い換えれば、図1Bの状態においては、第2投影面102は、実空間の鉛直方向Vに沿い、且つ実空間の水平面内で湾曲した形状の投影面である。   On the other hand, if the imaging unit 2 is “landscape”, a projection that intersects the optical axis (Z-axis) of the imaging unit 2 and is orthogonal to the vertical direction V of the real space is an arc shape as shown in FIG. 1B. The plane (second projection plane) 102 is selected by the selection unit 41. Here, the second projection surface 102 is a curved surface that faces the XY plane including the imaging surface of the imaging unit 2 and is curved so as to approach the XY plane as the distance from the Y axis increases in the X axis direction. FIG. 1B shows a state where the imaging device 1 is attached to the wall of the building, and the imaging device 1 shown in FIG. 1B is in a state where the optical axis of the imaging unit 2 is directed forward (front direction of the wall). Therefore, the second projection plane 102 is set around the central axis in the vertical direction V passing through the imaging unit 2 in front of the imaging device 1 in real space. In other words, in the state of FIG. 1B, the second projection plane 102 is a projection plane having a shape along the vertical direction V of the real space and curved in the horizontal plane of the real space.

この場合、撮像装置1は、第2投影面102に、撮像部2で撮像された原画像がマッピングされるように、変換部42にて原画像を変換する。つまり、変換部42は、記憶部44に記憶されている変換式のうち、第2投影面102に対応する変換式を用いて原画像の変換を行う。ここで、出力部45より出力される変換画像は、湾曲した第2投影面102に投影された画像を平面状に展開した二次元画像である。これにより、撮像装置1は、実空間における水平画角が180度程度のパノラマ画像を、変換画像として出力部45から出力することができる。   In this case, the imaging apparatus 1 converts the original image by the conversion unit 42 so that the original image captured by the imaging unit 2 is mapped to the second projection plane 102. That is, the conversion unit 42 converts the original image using a conversion formula corresponding to the second projection plane 102 among the conversion formulas stored in the storage unit 44. Here, the converted image output from the output unit 45 is a two-dimensional image obtained by expanding the image projected on the curved second projection plane 102 into a planar shape. Thereby, the imaging device 1 can output a panoramic image having a horizontal angle of view of about 180 degrees in the real space from the output unit 45 as a converted image.

ところで、本実施形態のように検出部3が傾きの大きさ(角度)を計測することは必須ではなく、検出部3は、たとえば「縦向き」か「横向き」かによって接点の開閉が切り替わるだけの構成であってもよい。このように「縦向き」か「横向き」かによって検出部3の出力が切り替わる構成であれば、画像処理部4において、判定部43は省略可能である。   By the way, it is not indispensable for the detection unit 3 to measure the magnitude (angle) of the inclination as in the present embodiment, and the detection unit 3 simply switches the opening and closing of the contact depending on whether it is “vertical” or “horizontal”, for example. It may be configured as follows. In this way, in the image processing unit 4, the determination unit 43 can be omitted if the output of the detection unit 3 is switched depending on “vertical” or “horizontal”.

あるいは、検出部3は、センサに代えて、画像処理により鉛直方向Vに対する検出部3が傾きを検出する構成であってもよい。この場合、検出部3は、たとえば原画像の中から床面等の水平面を抽出し、この水平面の法線ベクトルから鉛直方向Vを特定する。   Alternatively, the detection unit 3 may be configured such that the detection unit 3 with respect to the vertical direction V detects an inclination by image processing instead of the sensor. In this case, the detection unit 3 extracts a horizontal plane such as a floor from the original image, for example, and specifies the vertical direction V from the normal vector of the horizontal plane.

また、撮像装置1は、ユーザによる操作入力を受け付ける入力部を備え、入力部からの入力に従って投影面を選択できるように構成されていてもよい。この場合、ユーザは、選択部41によって自動的に選択される投影面とは別の投影面を、手動で選択することが可能になる。   The imaging device 1 may include an input unit that receives an operation input by a user, and may be configured to select a projection plane according to an input from the input unit. In this case, the user can manually select a projection plane different from the projection plane automatically selected by the selection unit 41.

<効果>
以上説明したように、本実施形態の撮像装置1は、実空間に設定される仮想面であって互いに形状の異なる複数種類の投影面のうち、いずれの投影面に画像をマッピングするかを、実空間の鉛直方向Vに対する撮像部2の傾きに基づいて選択する。すなわち、撮像装置1は、撮像部2で撮像された画像に画像処理部4で画像処理を施すことにより、いずれかの投影面に画像がマッピングされるように、撮像部2で撮像された画像を変換する。ここで、撮像部2で撮像された画像のマッピングされる投影面は、実空間の鉛直方向Vに対する撮像部2の傾きに基づいて、形状の異なる第1投影面101および第2投影面102から自動的に選択される。したがって、本実施形態の撮像装置1は、実空間の鉛直方向Vに対する撮像部2の傾きに基づいて、原画像に対し異なる画像処理(変換)が施されることになる。結果的に、撮像装置1は、撮像部2の設置される向きに応じ、ユーザの閲覧に適した画像を得ることができる、という利点がある。
<Effect>
As described above, the imaging apparatus 1 according to the present embodiment determines which projection plane to map an image from among a plurality of types of projection planes that are virtual planes set in real space and have different shapes. The selection is made based on the inclination of the imaging unit 2 with respect to the vertical direction V of the real space. In other words, the imaging device 1 performs image processing on the image captured by the imaging unit 2 by the image processing unit 4 so that the image is mapped to any one of the projection planes. Convert. Here, the projection plane onto which the image captured by the imaging unit 2 is mapped is based on the inclination of the imaging unit 2 with respect to the vertical direction V of the real space, from the first projection plane 101 and the second projection plane 102 having different shapes. Automatically selected. Therefore, the image pickup apparatus 1 according to the present embodiment performs different image processing (conversion) on the original image based on the inclination of the image pickup unit 2 with respect to the vertical direction V of the real space. As a result, there is an advantage that the imaging apparatus 1 can obtain an image suitable for the user's browsing according to the direction in which the imaging unit 2 is installed.

また、本実施形態のように、選択部41は、複数種類の投影面の中から、実空間の鉛直方向Vに沿い、且つ実空間の水平面内で湾曲した形状の投影面を選択するように構成されていることが好ましい。この構成によれば、撮像装置1は、実空間の鉛直方向Vに沿った直線の歪曲が低減された変換画像(変換部42で変換後の画像)を生成することができる。この点について説明するため、以下に、撮像装置1で実空間において鉛直方向Vに直立している対象物200を撮像する場合を考える。   Further, as in the present embodiment, the selection unit 41 selects a projection surface that is curved along the vertical direction V of the real space and curved in the horizontal plane of the real space from among a plurality of types of projection surfaces. It is preferable to be configured. According to this configuration, the imaging apparatus 1 can generate a converted image (image converted by the converting unit 42) in which straight line distortion along the vertical direction V of the real space is reduced. In order to explain this point, consider the case where the imaging device 1 captures an image of the object 200 standing upright in the vertical direction V in real space.

この場合において、選択部41が、実空間の水平方向に沿い、且つ実空間の鉛直面内で湾曲した形状の投影面を選択するとすれば、図4Aに示すように、変換画像Im1における対象物200の歪みは比較的大きくなる。とくに、変換画像Im1における水平方向の両端に近い位置では、対象物200の歪みは大きくなる。これに対し、本実施形態のように、選択部41が、実空間の鉛直方向Vに沿い、且つ実空間の水平面内で湾曲した形状の投影面を選択すると、図4Bに示すように、変換画像Im2における対象物200の歪みは低減される。このように実空間において鉛直方向Vに直立している対象物200の歪曲を低減できることは、防犯等の目的で設置される監視カメラのように直立状態の人を対象物とする撮像装置1では特に有用である。   In this case, if the selection unit 41 selects a projection surface that is curved along the horizontal direction of the real space and is curved in the vertical plane of the real space, as shown in FIG. 4A, the object in the converted image Im1 The distortion of 200 is relatively large. In particular, the distortion of the object 200 increases at positions near both ends in the horizontal direction in the converted image Im1. On the other hand, as shown in FIG. 4B, when the selection unit 41 selects a projection surface having a curved shape in the horizontal plane of the real space along the vertical direction V of the real space as in the present embodiment, the conversion is performed. The distortion of the object 200 in the image Im2 is reduced. In this way, the distortion of the object 200 standing upright in the vertical direction V in the real space can be reduced in the imaging apparatus 1 that uses an upright person as the object, such as a surveillance camera installed for the purpose of crime prevention or the like. It is particularly useful.

また、本実施形態のように、検出部3は、撮像部2の光軸と実空間の鉛直方向Vとのなす角度を、上記傾き(実空間の鉛直方向Vに対する撮像部2の傾き)に含めて検出するように構成されていることが好ましい。この構成によれば、たとえば撮像装置1が天井に取り付けられた場合と、撮像装置1が壁に取り付けられた場合とで、原画像に対し異なる画像処理(変換)が施されることになる。したがって、撮像装置1が壁に取り付けられている場合に画像の約半分に壁しか映らない、というような事態を回避でき、ユーザの閲覧に適した画像を得ることができる。   Further, as in the present embodiment, the detection unit 3 sets the angle formed by the optical axis of the imaging unit 2 and the vertical direction V of the real space to the inclination (the inclination of the imaging unit 2 with respect to the vertical direction V of the real space). It is preferable to be configured to include and detect. According to this configuration, for example, different image processing (conversion) is performed on the original image when the imaging device 1 is attached to the ceiling and when the imaging device 1 is attached to the wall. Therefore, when the imaging device 1 is attached to a wall, it is possible to avoid a situation in which only the wall appears in about half of the image, and an image suitable for user browsing can be obtained.

また、本実施形態のように、選択部41は、複数種類の投影面の中から、検出部3で検出された傾きの大きさと所定の閾値との比較結果に基づいて、投影面を選択するように構成されていることが好ましい。この構成によれば、検出部3で検出された傾きの大きさが異なる場合でも、傾きの大きさと閾値との比較結果が同じであれば、選択部41は、同一の投影面を選択することになる。したがって、撮像装置1は、鉛直方向Vに対する撮像部2の傾きの大きさが時間経過に伴って微妙に変化する場合でも、原画像に対して同一の画像処理で足りるため、処理負荷の増加を抑えることができる。   Further, as in the present embodiment, the selection unit 41 selects a projection plane from a plurality of types of projection planes based on a comparison result between the magnitude of the inclination detected by the detection unit 3 and a predetermined threshold value. It is preferable that it is comprised. According to this configuration, even when the magnitudes of inclinations detected by the detection unit 3 are different, the selection unit 41 selects the same projection plane as long as the comparison result between the magnitude of the inclination and the threshold value is the same. become. Therefore, even when the magnitude of the inclination of the imaging unit 2 with respect to the vertical direction V slightly changes with time, the imaging apparatus 1 is sufficient for the original image to perform the same image processing. Can be suppressed.

(実施形態2)
本実施形態に係る撮像装置1は、検出部3が、撮像部2について設定され撮像部2の光軸(Z軸)と直交する一方向である基準方向と、実空間の鉛直方向Vとのなす角度を、実空間の鉛直方向Vに対する撮像部2の傾きに含めて検出するように構成されている。以下、実施形態1と同様の構成については共通の符号を付して適宜説明を省略する。
(Embodiment 2)
In the imaging apparatus 1 according to the present embodiment, the detection unit 3 has a reference direction that is set for the imaging unit 2 and is orthogonal to the optical axis (Z-axis) of the imaging unit 2 and a vertical direction V in real space. The angle formed is included in the inclination of the imaging unit 2 with respect to the vertical direction V of the real space and is detected. Hereinafter, the same configurations as those of the first embodiment are denoted by common reference numerals, and description thereof will be omitted as appropriate.

<撮像装置の構成>
本実施形態では、一例として、カメラ座標系のY軸方向を基準方向とする。検出部3は、基準方向としてのY軸方向と、実空間の鉛直方向Vとのなす角度を第2の角度θ2として計測し、第2の角度θ2に応じた値を画像処理部4へ出力する。
<Configuration of imaging device>
In the present embodiment, as an example, the Y-axis direction of the camera coordinate system is set as the reference direction. The detection unit 3 measures the angle between the Y-axis direction as the reference direction and the vertical direction V of the real space as the second angle θ2, and outputs a value corresponding to the second angle θ2 to the image processing unit 4. To do.

たとえば、図5に示すように撮像部2の光軸(Z軸)が水平方向と一致している場合(第1の角度θ1が90度の場合)において、撮像部2のY軸方向が水平方向と一致していると、検出部31で計測される第2の角度θ2は90度となる。一方、撮像部2の光軸(Z軸)が水平方向と一致している場合において、撮像部2のY軸が鉛直方向Vと一致し且つ下方(重力の作用する方向)を向いていると、検出部3で計測される第2の角度θ2は0度となる。また、撮像部2の光軸(Z軸)が水平方向と一致している場合において、撮像部2のY軸が鉛直方向Vと一致し且つ上方を向いていると、検出部3で計測される第2の角度θ2は180度となる。   For example, as shown in FIG. 5, when the optical axis (Z-axis) of the imaging unit 2 coincides with the horizontal direction (when the first angle θ1 is 90 degrees), the Y-axis direction of the imaging unit 2 is horizontal. If it coincides with the direction, the second angle θ2 measured by the detector 31 is 90 degrees. On the other hand, when the optical axis (Z-axis) of the imaging unit 2 matches the horizontal direction, the Y-axis of the imaging unit 2 matches the vertical direction V and faces downward (the direction in which gravity acts). The second angle θ2 measured by the detection unit 3 is 0 degree. Further, when the optical axis (Z axis) of the imaging unit 2 matches the horizontal direction, if the Y axis of the imaging unit 2 matches the vertical direction V and faces upward, it is measured by the detection unit 3. The second angle θ2 is 180 degrees.

判定部43は、撮像部2が「横向き」の場合に、検出部3で検出される基準方向と実空間の鉛直方向Vとのなす角度に基づいて、光軸周りの「回転あり」、光軸周りの「回転なし」のいずれであるかを判定する。ここで、「回転あり」の状態とは、基準方向が実空間の水平方向に沿う状態であり、「回転なし」の状態とは、基準方向が実空間の鉛直方向Vに沿う状態である。   When the imaging unit 2 is “landscape”, the determination unit 43 performs “rotation” around the optical axis based on the angle between the reference direction detected by the detection unit 3 and the vertical direction V of the real space, It is determined whether it is “no rotation” around the axis. Here, the “with rotation” state is a state in which the reference direction is along the horizontal direction of the real space, and the “without rotation” state is a state in which the reference direction is along the vertical direction V of the real space.

具体的には、判定部43は、検出部3で計測された第2の角度θ2と所定の閾値とを比較し、その比較結果によって、「回転あり」か「回転なし」かを判定する。ここで、第2の角度θ2と比較される閾値は1つの値に限らず、たとえば2つ以上の値であってもよい。本実施形態では、閾値として45度(第3の閾値)と135度(第4の閾値)との2値が設定されている。そして、判定部43は、第2の角度θ2が第3の閾値よりも小さい場合(0≦θ2<45)、並びに第2の角度θ2が第4の閾値よりも大きい場合(135<θ2≦180)、「回転あり」と判定する。一方、第2の角度θ2が第3の閾値以上で且つ第4の閾値以下である場合(45≦θ2≦135)、判定部43は、「回転なし」と判定する。   Specifically, the determination unit 43 compares the second angle θ2 measured by the detection unit 3 with a predetermined threshold value, and determines whether “with rotation” or “without rotation” based on the comparison result. Here, the threshold value compared with the second angle θ2 is not limited to one value, and may be two or more values, for example. In the present embodiment, binary values of 45 degrees (third threshold value) and 135 degrees (fourth threshold value) are set as threshold values. Then, the determination unit 43 determines that the second angle θ2 is smaller than the third threshold (0 ≦ θ2 <45) and the second angle θ2 is larger than the fourth threshold (135 <θ2 ≦ 180). ), “Rotation” is determined. On the other hand, when the second angle θ2 is not less than the third threshold and not more than the fourth threshold (45 ≦ θ2 ≦ 135), the determination unit 43 determines “no rotation”.

選択部41は、互いに形状の異なる複数種類の投影面の中から、判定部43の判定結果に基づいて投影面を選択する。つまり、選択部41は、判定部43の判定結果を受け、撮像部2が「縦向き」であるか「横向き」であるか、さらに「横向き」の場合には光軸周りの「回転あり」か「回転なし」かによって異なる投影面を選択する。本実施形態では、選択部41は、第1投影面101(図1A参照)と第2投影面102(図1B参照)と後述する第3投影面103(図7参照)との3種類の投影面から投影面を選択する。   The selection unit 41 selects a projection plane from a plurality of types of projection planes having different shapes based on the determination result of the determination unit 43. That is, the selection unit 41 receives the determination result of the determination unit 43, and when the imaging unit 2 is “vertical” or “horizontal”, or “horizontal”, “rotates” around the optical axis. Different projection planes are selected depending on whether or not “no rotation”. In the present embodiment, the selection unit 41 has three types of projections: a first projection plane 101 (see FIG. 1A), a second projection plane 102 (see FIG. 1B), and a third projection plane 103 (see FIG. 7) described later. Select a projection plane from the plane.

ここで、選択部41は、複数種類の投影面の中から、実空間の鉛直方向Vに沿い、且つ実空間の水平面内で湾曲した形状の投影面を選択するように構成されている。そのため、選択部41は、撮像部2が「縦向き」であれば第1投影面101を選択し、撮像部2が「横向き」であれば第2投影面102を選択する。第3投影面103の具体的な形状については後述する。   Here, the selection unit 41 is configured to select, from a plurality of types of projection planes, a projection plane having a shape along the vertical direction V of the real space and curved in the horizontal plane of the real space. Therefore, the selection unit 41 selects the first projection plane 101 if the imaging unit 2 is “vertical”, and selects the second projection plane 102 if the imaging unit 2 is “horizontal”. The specific shape of the third projection plane 103 will be described later.

<撮像装置の動作>
上述のように構成される撮像装置1は、撮像部2で得られる原画像に画像処理部4で画像処理を施すことにより、変換画像を生成する。このとき、画像処理部4は、画像が投影されているとみなされる実空間上の仮想面、つまり画像がマッピングされる投影面を、原投影面100から、第1投影面101、第2投影面102、あるいは第3投影面103へ切り替える。ここで、画像処理部4は、互いに形状の異なる複数種類の投影面の中から、検出部3で検出された撮像部2の傾きに基づいて投影面を選択する。
<Operation of imaging device>
The imaging device 1 configured as described above generates a converted image by performing image processing on the original image obtained by the imaging unit 2 by the image processing unit 4. At this time, the image processing unit 4 converts the virtual plane in the real space where the image is projected, that is, the projection plane onto which the image is mapped, from the original projection plane 100 to the first projection plane 101 and the second projection. Switch to the plane 102 or the third projection plane 103. Here, the image processing unit 4 selects a projection plane based on the inclination of the imaging unit 2 detected by the detection unit 3 from a plurality of types of projection planes having different shapes.

本実施形態では、画像処理部4は、図6に示すように、検出部3で検出された撮像部2の傾きに基づき、撮像部2が「縦向き」であれば(S1:Yes)、第1投影面101を選択する(S3)。一方、撮像部2が「横向き」である場合(S1:No)、画像処理部4は、検出部3で検出された撮像部2の傾きに基づき、光軸周りの「回転あり」か「回転なし」かを判定する(S2)。このとき、画像処理部4は、「回転あり」であれば(S2:Yes)、第3投影面103を選択し(S4)、「回転なし」であれば(S2:No)、第2投影面102を選択する(S5)。   In the present embodiment, as illustrated in FIG. 6, the image processing unit 4 is based on the inclination of the imaging unit 2 detected by the detection unit 3 and if the imaging unit 2 is “vertical” (S1: Yes). The first projection plane 101 is selected (S3). On the other hand, when the imaging unit 2 is “landscape” (S1: No), the image processing unit 4 is “rotated” or “rotated” around the optical axis based on the inclination of the imaging unit 2 detected by the detection unit 3. It is determined whether it is “none” (S2). At this time, if the image processing unit 4 is “with rotation” (S2: Yes), the third projection plane 103 is selected (S4). If it is “without rotation” (S2: No), the second projection is performed. The surface 102 is selected (S5).

すなわち、撮像装置1は、撮像部2が「横向き」で、且つ光軸周りの「回転あり」であれば、図7に示すように撮像部2の光軸(Z軸)と交差し、且つ実空間の鉛直方向Vに直交する断面が円弧状となる投影面(第3投影面)103を、選択部41で選択する。ここで、第3投影面103は、撮像部2の撮像面を含むXY平面に対向し、且つY軸方向においてX軸から離れるにつれてXY平面に近づくように湾曲した曲面である。図7は撮像装置1が建物の壁に取り付けられた状態を表しており、図7に示す撮像装置1は撮像部2の光軸を前方(壁の正面方向)に向けた状態にある。したがって、第3投影面103は、実空間における撮像装置1の前方において、撮像部2を通る鉛直方向Vの中心軸周りに設定されることになる。言い換えれば、図7の状態においては、第3投影面103は、実空間の鉛直方向Vに沿い、且つ実空間の水平面内で湾曲した形状の投影面である。   That is, the imaging device 1 intersects with the optical axis (Z axis) of the imaging unit 2 as shown in FIG. 7 if the imaging unit 2 is “laterally” and “rotates” around the optical axis, and The selection unit 41 selects a projection plane (third projection plane) 103 whose cross section perpendicular to the vertical direction V of the real space is an arc. Here, the third projection surface 103 is a curved surface that faces the XY plane including the imaging surface of the imaging unit 2 and is curved so as to approach the XY plane as the distance from the X axis increases in the Y axis direction. FIG. 7 illustrates a state in which the imaging device 1 is attached to the wall of the building, and the imaging device 1 illustrated in FIG. 7 is in a state in which the optical axis of the imaging unit 2 is directed forward (front direction of the wall). Therefore, the third projection plane 103 is set around the central axis in the vertical direction V passing through the imaging unit 2 in front of the imaging device 1 in real space. In other words, in the state of FIG. 7, the third projection plane 103 is a projection plane having a shape along the vertical direction V of the real space and curved in the horizontal plane of the real space.

この場合、撮像装置1は、第3投影面103に、撮像部2で撮像された原画像がマッピングされるように、変換部42にて原画像を変換する。つまり、変換部42は、記憶部44に記憶されている変換式のうち、第3投影面103に対応する変換式を用いて原画像の変換を行う。ここで、出力部45より出力される変換画像は、湾曲した第3投影面103に投影された画像を平面状に展開した二次元画像である。これにより、撮像装置1は、実空間における水平画角が180度程度のパノラマ画像を、変換画像として出力部45から出力することができる。   In this case, the imaging device 1 converts the original image by the conversion unit 42 so that the original image captured by the imaging unit 2 is mapped to the third projection plane 103. That is, the conversion unit 42 converts the original image using a conversion formula corresponding to the third projection plane 103 among the conversion formulas stored in the storage unit 44. Here, the converted image output from the output unit 45 is a two-dimensional image obtained by expanding the image projected on the curved third projection plane 103 into a planar shape. Thereby, the imaging device 1 can output a panoramic image having a horizontal angle of view of about 180 degrees in the real space from the output unit 45 as a converted image.

<効果>
以上説明したように、本実施形態の撮像装置1は、検出部3が、撮像部2について設定され撮像部2の光軸(Z軸)と直交する一方向である基準方向と、実空間の鉛直方向Vとのなす角度を、実空間の鉛直方向Vに対する撮像部2の傾きに含めて検出する。この構成によれば、撮像部2が「縦向き」か「横向き」かだけでなく、光軸周りの「回転あり」か「回転なし」かによって、画像処理部4にて原画像に対し異なる画像処理(変換)を施すことができる。したがって、本実施形態の撮像装置1は、ユーザの閲覧により適した画像を得ることができる。
<Effect>
As described above, in the imaging device 1 according to the present embodiment, the detection unit 3 is set for the imaging unit 2 and the reference direction that is one direction orthogonal to the optical axis (Z axis) of the imaging unit 2 and the real space. The angle formed with the vertical direction V is detected by being included in the inclination of the imaging unit 2 with respect to the vertical direction V in the real space. According to this configuration, the image processing unit 4 differs from the original image depending on whether the image pickup unit 2 is “vertical” or “horizontal”, and “rotation” or “no rotation” around the optical axis. Image processing (conversion) can be performed. Therefore, the imaging device 1 of the present embodiment can obtain an image that is more suitable for the user's browsing.

(変形例)
実施形態1および実施形態2に係る撮像装置1において、選択部41が、検出部3で検出された傾きに基づいてどのような形状の投影面を選択するかは、上述の例に限らず、適宜変更可能である。
(Modification)
In the imaging device 1 according to the first and second embodiments, the shape of the projection plane that the selection unit 41 selects based on the inclination detected by the detection unit 3 is not limited to the above example. It can be changed as appropriate.

たとえば、撮像装置1は、図8Aに示すように撮像部2の光軸(Z軸)が鉛直方向Vの上方に向けられている場合、撮像部2の光軸(Z軸)を中心軸とする円筒状(円柱の周面形状)の投影面(第4投影面)104を、選択部41で選択してもよい。第4投影面104は、実空間における撮像装置1の上方において、撮像部2を通る鉛直方向Vの中心軸周りに設定される。   For example, when the optical axis (Z axis) of the imaging unit 2 is directed upward in the vertical direction V as illustrated in FIG. 8A, the imaging device 1 uses the optical axis (Z axis) of the imaging unit 2 as a central axis. The selection unit 41 may select a cylindrical projection surface (fourth projection surface) 104 to be cylindrical. The fourth projection plane 104 is set around the central axis in the vertical direction V passing through the imaging unit 2 above the imaging device 1 in real space.

また、撮像装置1は、図8Bに示すように撮像部2の光軸(Z軸)が斜め上方に向けられている場合、撮像部2の光軸(Z軸)と交差し、且つX軸方向(水平方向)に直交する断面が円弧状となる投影面(第5投影面)105を、選択部41で選択する。ここで、第5投影面105は、撮像部2の撮像面を含むXY平面に対向し、且つY軸方向においてX軸から離れるにつれてXY平面に近づくように湾曲した曲面である。   8B, when the optical axis (Z axis) of the imaging unit 2 is directed obliquely upward as shown in FIG. 8B, the imaging device 1 intersects the optical axis (Z axis) of the imaging unit 2 and the X axis. The selection unit 41 selects a projection plane (fifth projection plane) 105 in which a cross section perpendicular to the direction (horizontal direction) has an arc shape. Here, the fifth projection surface 105 is a curved surface that faces the XY plane including the imaging surface of the imaging unit 2 and is curved so as to approach the XY plane as the distance from the X axis increases in the Y axis direction.

さらに、撮像装置1は、図8Cに示すように撮像部2の光軸(Z軸)が斜め下方に向けられている場合、撮像部2の光軸(Z軸)と交差し、且つX軸方向(水平方向)に直交する断面が円弧状となる投影面(第6投影面)106を、選択部41で選択する。ここで、第6投影面106は、撮像部2の撮像面を含むXY平面に対向し、且つY軸方向においてX軸から離れるにつれてXY平面に近づくように湾曲した曲面である。   Furthermore, when the optical axis (Z-axis) of the imaging unit 2 is directed obliquely downward as illustrated in FIG. 8C, the imaging device 1 intersects the optical axis (Z-axis) of the imaging unit 2 and the X-axis. The selection unit 41 selects a projection plane (sixth projection plane) 106 in which a cross section perpendicular to the direction (horizontal direction) has an arc shape. Here, the sixth projection surface 106 is a curved surface that faces the XY plane including the imaging surface of the imaging unit 2 and is curved so as to approach the XY plane as the distance from the X axis increases in the Y axis direction.

本変形例は、実施形態1および実施形態2のいずれの構成とも組み合わせ可能である。   This modification can be combined with any of the configurations of the first and second embodiments.

(撮像システム)
上述した撮像装置1と同様の機能は、図9に示すように複数のユニットを組み合わせた撮像システム10であっても実現することができる。
(Imaging system)
Functions similar to those of the imaging apparatus 1 described above can be realized even in an imaging system 10 in which a plurality of units are combined as shown in FIG.

図9に示す撮像システム10は、画像を撮像する撮像部2と、実空間の鉛直方向に対する撮像部2の傾きを検出する検出部3と、画像処理ユニット40とを備えている。画像処理ユニット40は、撮像部2および検出部3からデータを取得し、撮像部2で撮像された画像に画像処理を施すように構成されている。   The imaging system 10 illustrated in FIG. 9 includes an imaging unit 2 that captures an image, a detection unit 3 that detects the inclination of the imaging unit 2 with respect to the vertical direction of real space, and an image processing unit 40. The image processing unit 40 is configured to acquire data from the imaging unit 2 and the detection unit 3 and to perform image processing on the image captured by the imaging unit 2.

画像処理ユニット40は、選択部41と、撮像部2で撮像された画像を変換する変換部42とを有している。ここで、選択部41は、前記実空間に設定される仮想面であって互いに形状の異なる複数種類の投影面の中から、検出部3で検出された前記傾きに基づいて投影面を選択する。変換部42は、選択部41で選択された前記投影面に撮像部2で撮像された画像がマッピングされるように、(撮像部2で撮像された)画像を変換する。   The image processing unit 40 includes a selection unit 41 and a conversion unit 42 that converts an image captured by the imaging unit 2. Here, the selection unit 41 selects a projection plane based on the inclination detected by the detection unit 3 from a plurality of types of projection planes that are virtual planes set in the real space and have different shapes. . The conversion unit 42 converts the image (captured by the imaging unit 2) so that the image captured by the imaging unit 2 is mapped to the projection plane selected by the selection unit 41.

この撮像システム10の基本的な構成は上記の撮像装置1と共通であるから、撮像装置1と同様の構成については共通の符号を付して適宜説明を省略する。   Since the basic configuration of the imaging system 10 is the same as that of the imaging device 1 described above, the same configuration as the imaging device 1 is denoted by the same reference numeral, and description thereof is omitted as appropriate.

図8の例では、撮像システム10は、撮像部2と検出部3とを一体化した撮像ユニット20を備えている。撮像ユニット20の筐体51は、画像処理ユニット40の筐体52とは別体である。そのため、撮像ユニット20は、画像処理ユニット40との間で通信可能に構成されている。撮像ユニット20と画像処理ユニット40との通信方式は、有線方式、無線方式のいずれであってもよい。また、撮像ユニット20は、画像処理ユニット40と、たとえばインターネットなどのネットワークを介して接続されていてもよい。画像処理ユニット40は、取得部46を有しており、撮像部2からの原画像の画像データと、検出部3の出力値とを取得部46で取得する。   In the example of FIG. 8, the imaging system 10 includes an imaging unit 20 in which the imaging unit 2 and the detection unit 3 are integrated. The housing 51 of the imaging unit 20 is separate from the housing 52 of the image processing unit 40. Therefore, the imaging unit 20 is configured to be able to communicate with the image processing unit 40. The communication method between the imaging unit 20 and the image processing unit 40 may be a wired method or a wireless method. Further, the imaging unit 20 may be connected to the image processing unit 40 via a network such as the Internet. The image processing unit 40 includes an acquisition unit 46, and the acquisition unit 46 acquires the image data of the original image from the imaging unit 2 and the output value of the detection unit 3.

この構成によれば、撮像システム10は、実空間に設定される仮想面であって互いに形状の異なる複数種類の投影面のうち、いずれの投影面に画像をマッピングするかを、実空間の鉛直方向Vに対する撮像部2の傾きに基づいて選択できる。したがって、この撮像システム10によれば、撮像部2の設置される向きに応じ、ユーザの閲覧に適した画像を得ることができる、という利点がある。   According to this configuration, the imaging system 10 determines which of the plurality of types of projection planes, which are virtual planes set in the real space and have different shapes, is mapped to the vertical plane in the real space. The selection can be made based on the inclination of the imaging unit 2 with respect to the direction V. Therefore, according to this imaging system 10, there exists an advantage that the image suitable for a user's browsing can be obtained according to the direction in which the imaging part 2 is installed.

(画像処理方法)
上記の撮像装置1並びに撮像システム100に適用し得る画像処理方法は、実空間に設定される仮想面であって互いに形状の異なる複数種類の投影面の中から、前記実空間の鉛直方向Vに対する撮像部2の傾きに基づいて投影面を選択する第1ステップを含む。さらに、画像処理方法は、前記第1ステップで選択された前記投影面に撮像部2で撮像された画像がマッピングされるように、撮像部2で撮像された画像を変換する第2ステップを含む。
(Image processing method)
An image processing method that can be applied to the imaging apparatus 1 and the imaging system 100 described above is a virtual plane set in the real space, and a plurality of types of projection planes having different shapes from each other with respect to the vertical direction V of the real space. A first step of selecting a projection plane based on the inclination of the imaging unit 2 is included. Furthermore, the image processing method includes a second step of converting the image captured by the imaging unit 2 so that the image captured by the imaging unit 2 is mapped to the projection plane selected in the first step. .

この方法によれば、実空間に設定される仮想面であって互いに形状の異なる複数種類の投影面のうち、いずれの投影面に画像をマッピングするかを、実空間の鉛直方向Vに対する撮像部2の傾きに基づいて選択できる。したがって、この方法によれば、撮像部2の設置される向きに応じ、ユーザの閲覧に適した画像を得ることができる、という利点がある。   According to this method, an imaging unit with respect to the vertical direction V of the real space, to which of the plurality of types of projection planes that are set in the real space and have different shapes is mapped. Can be selected based on the slope of 2. Therefore, according to this method, there is an advantage that an image suitable for user browsing can be obtained according to the direction in which the imaging unit 2 is installed.

(プログラム)
上記の撮像装置1並びに撮像システム100に適用し得るプログラムは、画像を撮像する撮像部2に接続されたコンピュータを、選択部41、撮像部で撮像された画像を変換する変換部42として機能させる。選択部41は、実空間に設定される仮想面であって互いに形状の異なる複数種類の投影面の中から、前記実空間の鉛直方向に対する撮像部2の傾きに基づいて投影面を選択する。変換部42は、選択部41で選択された前記投影面に撮像部2で撮像された画像がマッピングされるように、(撮像部2で撮像された)画像を変換する。
(program)
A program that can be applied to the imaging apparatus 1 and the imaging system 100 causes a computer connected to the imaging unit 2 that captures an image to function as the selection unit 41 and the conversion unit 42 that converts the image captured by the imaging unit. . The selection unit 41 selects a projection plane based on the inclination of the imaging unit 2 with respect to the vertical direction of the real space from a plurality of types of projection planes that are virtual planes set in the real space and have different shapes. The conversion unit 42 converts the image (captured by the imaging unit 2) so that the image captured by the imaging unit 2 is mapped to the projection plane selected by the selection unit 41.

なお、ここでいうコンピュータは、たとえば上述した撮像装置1の画像処理部4、あるいは撮像システム100の画像処理ユニット40によって実現される。   In addition, the computer here is implement | achieved by the image processing part 4 of the imaging device 1 mentioned above, or the image processing unit 40 of the imaging system 100, for example.

1 撮像装置
10 撮像システム
101,102,103,104,105,106 投影面
2 撮像部
3 検出部
4 画像処理部
40 画像処理ユニット
41 選択部
42 変換部
DESCRIPTION OF SYMBOLS 1 Imaging device 10 Imaging system 101,102,103,104,105,106 Projection surface 2 Imaging part 3 Detection part 4 Image processing part 40 Image processing unit 41 Selection part 42 Conversion part

Claims (8)

画像を撮像する撮像部と、
実空間の鉛直方向に対する前記撮像部の傾きを検出する検出部と、
前記撮像部で撮像された画像に画像処理を施す画像処理部とを備え、
前記画像処理部は、
前記実空間に設定される仮想面であって互いに形状の異なる複数種類の投影面の中から、前記検出部で検出された前記傾きに基づいて投影面を選択する選択部と、
前記選択部で選択された前記投影面に前記撮像部で撮像された画像がマッピングされるように、前記撮像部で撮像された画像を変換する変換部とを有する
ことを特徴とする撮像装置。
An imaging unit that captures an image;
A detection unit for detecting an inclination of the imaging unit with respect to a vertical direction of the real space;
An image processing unit that performs image processing on an image captured by the imaging unit;
The image processing unit
A selection unit that selects a projection plane based on the inclination detected by the detection unit from a plurality of types of projection planes that are virtual planes set in the real space and have different shapes;
An imaging apparatus comprising: a conversion unit that converts an image captured by the imaging unit so that an image captured by the imaging unit is mapped to the projection plane selected by the selection unit.
前記選択部は、前記複数種類の投影面の中から、前記実空間の鉛直方向に沿い、且つ前記実空間の水平面内で湾曲した形状の投影面を選択するように構成されている
ことを特徴とする請求項1に記載の撮像装置。
The selection unit is configured to select, from the plurality of types of projection surfaces, a projection surface having a curved shape along a vertical direction of the real space and within a horizontal plane of the real space. The imaging apparatus according to claim 1.
前記検出部は、前記撮像部の光軸と前記実空間の鉛直方向とのなす角度を、前記傾きに含めて検出するように構成されている
ことを特徴とする請求項1または2に記載の撮像装置。
The said detection part is comprised so that the angle which the optical axis of the said imaging part and the perpendicular direction of the said real space make may be included in the said inclination, The detection part of Claim 1 or 2 characterized by the above-mentioned. Imaging device.
前記検出部は、前記撮像部について設定され前記撮像部の光軸と直交する一方向である基準方向と、前記実空間の鉛直方向とのなす角度を、前記傾きに含めて検出するように構成されている
ことを特徴とする請求項1〜3のいずれか1項に記載の撮像装置。
The detection unit is configured to detect an angle formed by a reference direction which is set for the imaging unit and is perpendicular to the optical axis of the imaging unit and a vertical direction of the real space, included in the inclination. The imaging apparatus according to any one of claims 1 to 3, wherein the imaging apparatus is configured.
前記選択部は、前記複数種類の投影面の中から、前記検出部で検出された傾きの大きさと所定の閾値との比較結果に基づいて、投影面を選択するように構成されている
ことを特徴とする請求項1〜4のいずれか1項に記載の撮像装置。
The selection unit is configured to select a projection plane from the plurality of types of projection planes based on a comparison result between the magnitude of the inclination detected by the detection unit and a predetermined threshold value. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized.
画像を撮像する撮像部と、
実空間の鉛直方向に対する前記撮像部の傾きを検出する検出部と、
前記撮像部および前記検出部からデータを取得し、前記撮像部で撮像された画像に画像処理を施す画像処理ユニットとを備え、
前記画像処理ユニットは、
前記実空間に設定される仮想面であって互いに形状の異なる複数種類の投影面の中から、前記検出部で検出された前記傾きに基づいて投影面を選択する選択部と、
前記選択部で選択された前記投影面に前記撮像部で撮像された画像がマッピングされるように、前記撮像部で撮像された画像を変換する変換部とを有する
ことを特徴とする撮像システム。
An imaging unit that captures an image;
A detection unit for detecting an inclination of the imaging unit with respect to a vertical direction of the real space;
An image processing unit that acquires data from the imaging unit and the detection unit and performs image processing on an image captured by the imaging unit;
The image processing unit includes:
A selection unit that selects a projection plane based on the inclination detected by the detection unit from a plurality of types of projection planes that are virtual planes set in the real space and have different shapes;
An imaging system comprising: a conversion unit that converts an image captured by the imaging unit such that an image captured by the imaging unit is mapped to the projection plane selected by the selection unit.
実空間に設定される仮想面であって互いに形状の異なる複数種類の投影面の中から、前記実空間の鉛直方向に対する撮像部の傾きに基づいて投影面を選択する第1ステップと、
前記第1ステップで選択された前記投影面に前記撮像部で撮像された画像がマッピングされるように、前記撮像部で撮像された画像を変換する第2ステップとを含む
ことを特徴とする画像処理方法。
A first step of selecting a projection plane based on the inclination of the imaging unit with respect to the vertical direction of the real space from a plurality of types of projection planes that are virtual planes set in real space and have different shapes;
And a second step of converting the image picked up by the image pickup unit so that the image picked up by the image pickup unit is mapped onto the projection plane selected in the first step. Processing method.
画像を撮像する撮像部に接続されたコンピュータを、
実空間に設定される仮想面であって互いに形状の異なる複数種類の投影面の中から、前記実空間の鉛直方向に対する前記撮像部の傾きに基づいて投影面を選択する選択部、
前記選択部で選択された前記投影面に前記撮像部で撮像された画像がマッピングされるように、前記撮像部で撮像された画像を変換する変換部
として機能させるプログラム。
A computer connected to an imaging unit that captures an image,
A selection unit that selects a projection plane based on an inclination of the imaging unit with respect to a vertical direction of the real space from a plurality of types of projection planes that are virtual planes set in real space and have different shapes from each other,
A program that functions as a conversion unit that converts an image captured by the imaging unit so that an image captured by the imaging unit is mapped to the projection plane selected by the selection unit.
JP2014183703A 2014-09-09 2014-09-09 Imaging device, imaging system, image processing method and program Pending JP2016058886A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014183703A JP2016058886A (en) 2014-09-09 2014-09-09 Imaging device, imaging system, image processing method and program
PCT/JP2015/004169 WO2016038805A1 (en) 2014-09-09 2015-08-20 Imaging device, imaging system, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014183703A JP2016058886A (en) 2014-09-09 2014-09-09 Imaging device, imaging system, image processing method and program

Publications (1)

Publication Number Publication Date
JP2016058886A true JP2016058886A (en) 2016-04-21

Family

ID=55458580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014183703A Pending JP2016058886A (en) 2014-09-09 2014-09-09 Imaging device, imaging system, image processing method and program

Country Status (2)

Country Link
JP (1) JP2016058886A (en)
WO (1) WO2016038805A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3088754B1 (en) * 2018-11-15 2021-07-02 Renault Sa METHOD OF CREATING A VIEW FROM AN IMAGE CAPTURED BY AN INCLINED WIDE ANGLE CAMERA

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009015313A (en) * 2007-06-05 2009-01-22 Yamaha Corp Camera system
JP2013214947A (en) * 2012-03-09 2013-10-17 Ricoh Co Ltd Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009015313A (en) * 2007-06-05 2009-01-22 Yamaha Corp Camera system
JP2013214947A (en) * 2012-03-09 2013-10-17 Ricoh Co Ltd Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program

Also Published As

Publication number Publication date
WO2016038805A1 (en) 2016-03-17

Similar Documents

Publication Publication Date Title
KR101657039B1 (en) Image processing apparatus, image processing method, and imaging system
CN110060206B (en) Image processing system, image generating apparatus, and method of generating image
JP5136060B2 (en) Image processing apparatus, image processing method, program thereof, recording medium recording the program, and imaging apparatus
JP6919334B2 (en) Image processing device, image processing method, program
JP2017208619A (en) Image processing apparatus, image processing method, program and imaging system
US8675090B2 (en) Image generating apparatus, image generating method, and recording medium
JP2017017689A (en) Imaging system and program of entire-celestial-sphere moving image
US10897573B2 (en) Image capturing system, terminal and computer readable medium which correct images
KR20180129667A (en) Display control apparatus, display control method, and storage medium
KR20200087816A (en) Image processing apparatus, image processing system, image processing method and recording medium
JP2017090420A (en) Three-dimensional information restoration device and three-dimensional information restoration method
JP2019015553A (en) Information processing device, information processing method, and solid-state imaging device
JP5215097B2 (en) Conversion method of captured image
WO2016038805A1 (en) Imaging device, imaging system, image processing method, and program
JP6256513B2 (en) Imaging system, imaging apparatus, method, and program
JP5955114B2 (en) Imaging apparatus, control method thereof, and program
JP6625654B2 (en) Projection device, projection method, and program
JP2017184025A (en) Communication terminal, image communication system, image transmission method, image display method, and program
JP6213640B2 (en) Image processing apparatus, image processing method, imaging apparatus, and system
JP6234506B2 (en) Computer apparatus, control method thereof, and program
JP2020088571A (en) Management system, information processing system, information processing method and program
KR20140030585A (en) Camera system using super wide angle camera
US11928775B2 (en) Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image
JP2019062451A (en) Image processing apparatus, image processing method, and program
JP7321459B2 (en) Mobile terminal, operation method, and program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180410

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181016