JP2016148602A - Angle detection system, program, and angle detection method - Google Patents

Angle detection system, program, and angle detection method Download PDF

Info

Publication number
JP2016148602A
JP2016148602A JP2015025998A JP2015025998A JP2016148602A JP 2016148602 A JP2016148602 A JP 2016148602A JP 2015025998 A JP2015025998 A JP 2015025998A JP 2015025998 A JP2015025998 A JP 2015025998A JP 2016148602 A JP2016148602 A JP 2016148602A
Authority
JP
Japan
Prior art keywords
image information
boundary
ceiling
detected
horizontal direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015025998A
Other languages
Japanese (ja)
Other versions
JP6521658B2 (en
Inventor
隆裕 青木
Takahiro Aoki
隆裕 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2015025998A priority Critical patent/JP6521658B2/en
Publication of JP2016148602A publication Critical patent/JP2016148602A/en
Application granted granted Critical
Publication of JP6521658B2 publication Critical patent/JP6521658B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an angle detection system, program, and angle detection method with which image information can be browsed, which is not inclined and easily recognized, while a burden on a person in charge of installation work is reduced when a camera is installed.SOLUTION: A browsing device 3 in an angle detection system comprises: a boundary detection part 300 that detects a boundary of the ceiling and a first wall surface adjacent to the ceiling photographed in image information 240 obtained by photographing the boundary; a horizontal direction detection part 301 that detects the horizontal direction in the image information 240 with the detected boundary according to the boundary detected by the boundary detection part 300; and a rotation angle calculation part 302 that calculates a rotation angle with respect to a real space in the image information 240 on the basis of the horizontal direction in the image information 240 detected by the horizontal direction detection part 301.SELECTED DRAWING: Figure 4

Description

本発明は、未較正のカメラによって撮像された画像情報における実空間に対する回転角を、当該画像情報に基づいて検出する技術に関する。   The present invention relates to a technique for detecting a rotation angle with respect to a real space in image information captured by an uncalibrated camera based on the image information.

昨今、周囲を撮像するカメラを設置して、周囲を監視する監視システムが広く運用されるようになっている。このような監視システムにおいて、所望の画像情報を撮像するためには、カメラの設置位置や向きなどを正確に調整する必要がある。例えば、ドーム形状(半球形状)の全方位カメラは、壁などに取り付ける設置面の平面視形状が「円」であるために、当該円の中心を中心とした回転位置の正常位置が外見上不明確であり、設置工事担当者は注意深くカメラの姿勢を決定して設置しなければならない。   Nowadays, surveillance systems that monitor the surroundings by installing a camera that captures the surroundings are widely used. In such a monitoring system, in order to capture desired image information, it is necessary to accurately adjust the installation position and orientation of the camera. For example, a dome-shaped (hemispherical) omnidirectional camera has a “circle” as the planar shape of the installation surface to be attached to a wall or the like, so that the normal position of the rotational position around the center of the circle is not visually apparent. It is clear that the installer must carefully determine the camera posture and install it.

したがって、監視システムに用いるカメラにおいて、その形状や取付構造等から設置する際のカメラの姿勢を容易に決定することができないと予想されるときには、当該カメラの上下左右方向などを確認するための指標をカメラの筐体表面などに設ける技術が知られている。このような技術を採用することにより、設置工事担当者は、筐体表面に設けられた指標を参考にしつつ、カメラの姿勢を決定して当該カメラを設置することができる。   Therefore, in the camera used in the surveillance system, when it is expected that the posture of the camera when installed from its shape, mounting structure, etc. cannot be easily determined, an index for confirming the vertical and horizontal directions of the camera There is known a technique for providing a sensor on the surface of a camera casing. By adopting such a technique, the person in charge of installation work can determine the posture of the camera and install the camera while referring to the index provided on the surface of the casing.

しかし、筐体表面に設けられる指標を参考にしたとしても、設置作業は手作業であるために、厳密に姿勢を決定することは困難であり、カメラの撮像領域が実空間に対して傾いた状態で、画像情報が撮像されるという問題があった。したがって、設置工事担当者は、最終的には、撮像された画像情報を参照しつつ、試行錯誤的にカメラの姿勢を調整する必要があった。   However, even with reference to the indicators provided on the housing surface, it is difficult to determine the posture strictly because the installation work is manual work, and the imaging area of the camera is tilted with respect to real space In this state, there is a problem that image information is captured. Therefore, the person in charge of installation work must finally adjust the posture of the camera by trial and error while referring to the captured image information.

従来より、設置されたカメラの姿勢を較正する技術としては、例えば、車の車載カメラについて当該車載カメラの姿勢のズレ(誤差)を検出する技術が提案されている。従来技術を用いれば、試行錯誤的に調整作業を行わなくても、検出されたズレを修正するだけで所望の画像情報を得ることができる。   Conventionally, as a technique for calibrating the attitude of an installed camera, for example, a technique for detecting a deviation (error) of the attitude of an in-vehicle camera for an in-vehicle camera has been proposed. By using the conventional technique, it is possible to obtain desired image information only by correcting the detected deviation without performing adjustment work by trial and error.

特開2013−229692号公報JP 2013-229692 A

ところが、監視システムでは、カメラによって撮像された画像情報を閲覧するための閲覧装置が当該カメラとは離れた場所に設置されるものであり、当該画像情報を当該カメラの設置場所において確認することが困難である。したがって、一旦、カメラが誤った姿勢で設置されると、特許文献1に記載されている技術を用いてその誤差を検出したとしても、その修正作業は膨大になり、設置工事担当者の負担が増大するという問題があった。   However, in the monitoring system, a browsing device for browsing image information captured by the camera is installed at a location away from the camera, and the image information can be confirmed at the installation location of the camera. Have difficulty. Therefore, once the camera is installed in a wrong posture, even if the error is detected using the technique described in Patent Document 1, the correction work becomes enormous, and the burden on the person in charge of installation work is reduced. There was a problem of increasing.

また、そもそも筐体表面に設けられた指標を参照しつつ作業を行うことは、当該指標を意識することを設置工事担当者に強いるものであり、それ自体が設置工事担当者の負担となるという問題もある。   Also, working with reference to the index provided on the surface of the housing in the first place forces the installer in charge to be aware of the index, and that itself is a burden on the installer. There is also a problem.

本発明は、上記課題に鑑みてなされたものであり、カメラを設置する際の設置工事担当者の負担を軽減しつつ、傾きのない見やすい画像情報を閲覧できる技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of browsing easy-to-read image information without tilting while reducing the burden on a person in charge of installation work when installing a camera. .

上記の課題を解決するため、請求項1の発明は、角度検出システムであって、天井と前記天井に隣接する第1壁面との境界を画像情報として撮像する撮像手段と、前記撮像手段により撮像された画像情報に撮像されている前記境界を検出する境界検出手段と、前記境界検出手段により検出された境界に応じて、当該境界が検出された画像情報における水平方向を検出する水平方向検出手段と、前記水平方向検出手段により検出された画像情報における水平方向に基づいて、当該画像情報の実空間に対する回転角を演算する回転角演算手段とを備える。   In order to solve the above-mentioned problem, the invention of claim 1 is an angle detection system, wherein an imaging means for imaging a boundary between a ceiling and a first wall surface adjacent to the ceiling as image information, and imaging by the imaging means Boundary detection means for detecting the boundary imaged in the captured image information, and horizontal direction detection means for detecting a horizontal direction in the image information in which the boundary is detected according to the boundary detected by the boundary detection means And rotation angle calculation means for calculating the rotation angle of the image information with respect to the real space based on the horizontal direction in the image information detected by the horizontal direction detection means.

また、請求項2の発明は、請求項1の発明に係る角度検出システムであって、前記境界検出手段は、前記撮像手段により撮像された画像情報から前記天井が撮像されている天井領域を検出し、検出した前記天井領域の周縁部に応じて前記境界を検出する。   The invention according to claim 2 is the angle detection system according to claim 1, wherein the boundary detection means detects a ceiling area where the ceiling is imaged from image information captured by the imaging means. And the said boundary is detected according to the peripheral part of the detected said ceiling area | region.

また、請求項3の発明は、請求項2の発明に係る角度検出システムであって、前記境界検出手段は、前記撮像手段により撮像された画像情報に含まれる各画素の画素値に応じて、照明が撮像されている照明領域を検出することにより、前記天井領域を検出する。   Further, the invention of claim 3 is the angle detection system according to the invention of claim 2, wherein the boundary detection means is in accordance with a pixel value of each pixel included in the image information imaged by the imaging means. The ceiling area is detected by detecting an illumination area in which illumination is imaged.

また、請求項4の発明は、請求項3の発明に係る角度検出システムであって、前記境界検出手段は、前記撮像手段により撮像された画像情報において、当該画像情報から検出した照明領域の周囲の領域を所定数の画素を含むブロックに分割し、前記ブロックに含まれる画素の画素値によるヒストグラムを前記ブロックごとに求め、前記ブロックのヒストグラムの類似度に応じて前記天井領域を検出する。   Further, the invention according to claim 4 is the angle detection system according to the invention of claim 3, wherein the boundary detection means is the periphery of the illumination area detected from the image information in the image information imaged by the imaging means. Is divided into blocks including a predetermined number of pixels, a histogram based on pixel values of the pixels included in the block is obtained for each block, and the ceiling region is detected according to the similarity of the histograms of the blocks.

また、請求項5の発明は、請求項1ないし4のいずれかの発明に係る角度検出システムであって、前記回転角演算手段により演算された回転角に応じて、前記画像情報を回転させた修正画像情報を作成する画像修正手段をさらに備える。   The invention according to claim 5 is the angle detection system according to any one of claims 1 to 4, wherein the image information is rotated in accordance with the rotation angle calculated by the rotation angle calculation means. Image correction means for generating corrected image information is further provided.

また、請求項6の発明は、請求項1ないし5のいずれかの発明に係る角度検出システムであって、前記回転角演算手段により演算された回転角に応じて、前記撮像手段における水平方向を回転させる回転手段をさらに備える。   A sixth aspect of the present invention is the angle detection system according to any one of the first to fifth aspects of the present invention, wherein the horizontal direction of the imaging means is determined in accordance with the rotation angle calculated by the rotation angle calculation means. Rotating means for rotating is further provided.

また、請求項7の発明は、請求項1ないし6のいずれかの発明に係る角度検出システムであって、前記撮像手段は、前記第1壁面に対向する第2壁面に設置された全方位カメラである。   The invention according to claim 7 is the angle detection system according to any one of claims 1 to 6, wherein the imaging means is an omnidirectional camera installed on a second wall surface facing the first wall surface. It is.

また、請求項8の発明は、コンピュータ読み取り可能なプログラムであって、前記コンピュータによる前記プログラムの実行は、前記コンピュータを、天井と前記天井に隣接する第1壁面との境界を画像情報として撮像する撮像手段と、前記撮像手段により撮像された画像情報に撮像されている前記境界を検出する境界検出手段と、前記境界検出手段により検出された境界に応じて、当該境界が検出された画像情報における水平方向を検出する水平方向検出手段と、前記水平方向検出手段により検出された画像情報における水平方向に基づいて、当該画像情報の実空間に対する回転角を演算する回転角演算手段とを備える角度検出システムとして機能させる。   The invention according to claim 8 is a computer-readable program, and the execution of the program by the computer images the computer as image information on a boundary between the ceiling and a first wall surface adjacent to the ceiling. In the image information in which the boundary is detected according to the boundary detected by the imaging unit, the boundary detection unit that detects the boundary captured in the image information captured by the imaging unit, and the boundary detected by the boundary detection unit Angle detection means comprising: a horizontal direction detection means for detecting a horizontal direction; and a rotation angle calculation means for calculating a rotation angle of the image information with respect to a real space based on the horizontal direction in the image information detected by the horizontal direction detection means. Make it function as a system.

また、請求項9の発明は、角度検出方法であって、天井と前記天井に隣接する第1壁面との境界を画像情報として撮像する工程と、撮像された画像情報に撮像されている前記境界を検出する工程と、検出された境界に応じて、当該境界が検出された画像情報における水平方向を検出する工程と、検出された画像情報における水平方向に基づいて、当該画像情報の実空間に対する回転角を演算する工程とを有する。   The invention according to claim 9 is an angle detection method, the step of imaging a boundary between a ceiling and a first wall surface adjacent to the ceiling as image information, and the boundary imaged in the captured image information Detecting the horizontal direction in the image information in which the boundary is detected, and detecting the horizontal direction in the detected image information based on the detected boundary. Calculating a rotation angle.

請求項1ないし9に記載の発明は、天井と前記天井に隣接する第1壁面との境界を画像情報として撮像し、撮像された画像情報に撮像されている境界を検出し、検出された境界に応じて、当該境界が検出された画像情報における水平方向を検出し、検出された画像情報における水平方向に基づいて、当該画像情報の実空間に対する回転角を演算することにより、画像情報に基づいて、当該画像情報の実空間に対する回転角を求めることができる。したがって、人手を要することなく、負担を軽減することができる。   According to the first to ninth aspects of the present invention, the boundary between the ceiling and the first wall surface adjacent to the ceiling is captured as image information, the boundary captured in the captured image information is detected, and the detected boundary is detected. Accordingly, the horizontal direction in the image information in which the boundary is detected is detected, and the rotation angle of the image information with respect to the real space is calculated based on the horizontal direction in the detected image information. Thus, the rotation angle of the image information with respect to the real space can be obtained. Therefore, the burden can be reduced without requiring human labor.

角度検出システムを示す図である。It is a figure which shows an angle detection system. 全方位カメラのブロック図である。It is a block diagram of an omnidirectional camera. 閲覧装置のブロック図である。It is a block diagram of a browsing apparatus. 閲覧装置が備える機能ブロックをデータの流れとともに示す図である。It is a figure which shows the functional block with which a browsing apparatus is provided with the flow of data. 角度検出システムの動作を示す流れ図である。It is a flowchart which shows operation | movement of an angle detection system. 撮像部によって撮像された画像情報を例示する図である。It is a figure which illustrates the image information imaged by the imaging part. 境界検出処理を示す流れ図である。It is a flowchart which shows a boundary detection process. 図6に示す画像情報に対して、天井照明領域をラベリングした状態を概念的に示す図である。It is a figure which shows notionally the state which labeled the ceiling illumination area | region with respect to the image information shown in FIG. 図6に示す画像情報に対して、天井候補領域を抽出した様子を示す図である。It is a figure which shows a mode that the ceiling candidate area | region was extracted with respect to the image information shown in FIG. 周縁部が曲線形状として検出された場合の境界を決定する様子を示す図である。It is a figure which shows a mode that a boundary is determined when a peripheral part is detected as a curve shape.

以下、本発明の好適な実施の形態について、添付の図面を参照しつつ、詳細に説明する。ただし、以下の説明において特に断らない限り、方向や向きに関する記述は、当該説明の便宜上、図面に対応するものであり、例えば実施品、製品または権利範囲等を限定するものではない。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. However, unless otherwise specified in the following description, descriptions of directions and orientations correspond to the drawings for the convenience of the description, and do not limit, for example, a product, a product, or a scope of rights.

<1. 実施の形態>
図1は、角度検出システム1を示す図である。
<1. Embodiment>
FIG. 1 is a diagram showing an angle detection system 1.

角度検出システム1は、ドーム形状の全方位カメラ2と、一般的なパーソナルコンピュータである閲覧装置3とがネットワーク8を介して接続された形態である。角度検出システム1は、全方位カメラ2によって撮像された画像を閲覧装置3において閲覧することにより、監視システムとしての機能を有している。   The angle detection system 1 is a form in which a dome-shaped omnidirectional camera 2 and a browsing device 3 that is a general personal computer are connected via a network 8. The angle detection system 1 has a function as a monitoring system by browsing an image captured by the omnidirectional camera 2 on the browsing device 3.

なお、図1に示す部屋9は、角度検出システム1の全方位カメラ2が設置される空間を形成している。部屋9は、天井90、当該天井90に隣接する第1壁面91、第1壁面91に対向する第2壁面92、および、天井90と第1壁面91との境界93から形成されている。図1に示す例では、全方位カメラ2は、第2壁面92に設置される。   1 forms a space in which the omnidirectional camera 2 of the angle detection system 1 is installed. The room 9 is formed by a ceiling 90, a first wall surface 91 adjacent to the ceiling 90, a second wall surface 92 facing the first wall surface 91, and a boundary 93 between the ceiling 90 and the first wall surface 91. In the example shown in FIG. 1, the omnidirectional camera 2 is installed on the second wall surface 92.

また、図1に示すように、実空間における鉛直方向上向きのU軸、U軸に対して垂直なV軸、U軸およびV軸に対して垂直なW軸を定義する。これにより、V軸およびW軸は、水平面内に定義される軸となる。   In addition, as shown in FIG. 1, a U-axis that is vertically upward in real space, a V-axis that is perpendicular to the U-axis, and a W-axis that is perpendicular to the U-axis and the V-axis are defined. Thereby, the V-axis and the W-axis become axes defined in the horizontal plane.

また、ネットワーク8は、有線を用いる通信網であってもよいし、無線を用いるものであってもよい。また、ネットワーク8は、全方位カメラ2および閲覧装置3以外の装置を接続する機能を有していてもよい。さらに、角度検出システム1が備える全方位カメラ2および閲覧装置3は、いずれも1台の装置に限定されるものではない。   Further, the network 8 may be a communication network using a wire or may be a wireless network. Further, the network 8 may have a function of connecting devices other than the omnidirectional camera 2 and the browsing device 3. Furthermore, the omnidirectional camera 2 and the browsing device 3 included in the angle detection system 1 are not limited to one device.

図2は、全方位カメラ2のブロック図である。全方位カメラ2は、CPU20、記憶装置21、操作部22、表示部23、撮像部24および通信部25を備えている。   FIG. 2 is a block diagram of the omnidirectional camera 2. The omnidirectional camera 2 includes a CPU 20, a storage device 21, an operation unit 22, a display unit 23, an imaging unit 24, and a communication unit 25.

CPU20は、記憶装置21に格納されているプログラム210を読み取りつつ実行し、各種データの演算や制御信号の生成等を行う。これにより、CPU20は、全方位カメラ2が備える各構成を制御するとともに、各種データを演算し作成する機能を有している。すなわち、全方位カメラ2は、一般的なコンピュータとして構成されている。   The CPU 20 reads and executes the program 210 stored in the storage device 21, and performs various data calculations, control signal generation, and the like. Thereby, CPU20 has the function to calculate and produce various data while controlling each structure with which the omnidirectional camera 2 is provided. That is, the omnidirectional camera 2 is configured as a general computer.

記憶装置21は、全方位カメラ2において各種データを記憶する機能を提供する。言い換えれば、記憶装置21が全方位カメラ2において電子的に固定された情報を保存する。   The storage device 21 provides a function of storing various data in the omnidirectional camera 2. In other words, the storage device 21 stores information electronically fixed in the omnidirectional camera 2.

記憶装置21としては、CPU20の一時的なワーキングエリアとして使用されるRAMやバッファ、読み取り専用のROM、不揮発性のメモリ(例えばNANDメモリなど)、専用の読み取り装置に装着される可搬性の記憶媒体(PCカード、SDカード、USBメモリなど)等が該当する。図2においては、記憶装置21を、あたかも1つの構造物であるかのように図示している。しかし、通常、記憶装置21は、上記例示した各種装置(あるいは媒体)のうち、必要に応じて採用される複数種類の装置から構成されるものである。すなわち、記憶装置21は、データを記憶する機能を有する装置群の総称である。   As the storage device 21, a RAM or buffer used as a temporary working area of the CPU 20, a read-only ROM, a non-volatile memory (such as a NAND memory), and a portable storage medium attached to the dedicated reading device (PC card, SD card, USB memory, etc.). In FIG. 2, the storage device 21 is illustrated as if it were one structure. However, the storage device 21 is usually composed of a plurality of types of devices that are employed as necessary among the various devices (or media) exemplified above. That is, the storage device 21 is a generic name for a group of devices having a function of storing data.

また、現実のCPU20は高速にアクセス可能なRAMを内部に備えた電子回路である。しかし、このようなCPU20が備える記憶装置も、説明の都合上、記憶装置21に含めて説明する。すなわち、一時的にCPU20自体が記憶するデータも、記憶装置21が記憶するとして説明する。図2では、記憶装置21がプログラム210のみを記憶するかのように示している。しかし、例えば、画像情報240など他の情報を記憶するために記憶装置21を使用してもよい。   The actual CPU 20 is an electronic circuit provided with a RAM that can be accessed at high speed. However, the storage device included in the CPU 20 is also included in the storage device 21 for convenience of explanation. That is, description will be made assuming that the storage device 21 also stores data temporarily stored in the CPU 20 itself. In FIG. 2, the storage device 21 is shown as storing only the program 210. However, the storage device 21 may be used to store other information such as the image information 240, for example.

操作部22は、全方位カメラ2に対してオペレータ等が指示を入力するために操作するハードウェアである。操作部22としては、例えば、電源ボタン(撮像開始ボタン)などが想定される。ただし、操作部22は、これに限定されるものではなく、各種キーやボタン類、スイッチ、タッチパネル、ポインティングデバイスなどであってもよい。   The operation unit 22 is hardware that an operator or the like operates to input instructions to the omnidirectional camera 2. As the operation unit 22, for example, a power button (imaging start button) or the like is assumed. However, the operation unit 22 is not limited to this, and may be various keys and buttons, a switch, a touch panel, a pointing device, and the like.

表示部23は、各種データを表示することによりオペレータ等に対して出力する機能を有するハードウェアである。表示部23としては、例えば、撮像が正常に実行されていることを示すLEDなどが想定される。ただし、表示部23はLEDに限定されるものではなく、各種ランプや液晶ディスプレイ、液晶パネルなどであってもよい。   The display unit 23 is hardware having a function of outputting various data to an operator or the like. As the display unit 23, for example, an LED or the like indicating that imaging is being executed normally is assumed. However, the display unit 23 is not limited to the LED, and may be various lamps, a liquid crystal display, a liquid crystal panel, or the like.

撮像部24は、図示しない光電変換素子を備えており、周囲を撮像することにより、画像情報240を取得する機能を有している。図示を省略するが、撮像部24が撮像する画像情報240において上向きの軸を「X軸」、X軸に垂直な軸を「Y軸」、X軸およびY軸に垂直な軸を「Z軸」と定義する。全方位カメラ2において、X軸およびY軸は全方位カメラ2を取り付けるための平坦な設置面(図示せず。)と平行となり、Z軸は当該設置面と垂直となる。このようなX軸、Y軸およびZ軸は、全方位カメラ2が設計・製造されるときに決定される。   The imaging unit 24 includes a photoelectric conversion element (not shown), and has a function of acquiring image information 240 by imaging the surroundings. Although not shown, in the image information 240 captured by the imaging unit 24, the upward axis is “X axis”, the axis perpendicular to the X axis is “Y axis”, and the axes perpendicular to the X axis and Y axis are “Z axis”. Is defined. In the omnidirectional camera 2, the X axis and the Y axis are parallel to a flat installation surface (not shown) for mounting the omnidirectional camera 2, and the Z axis is perpendicular to the installation surface. Such X axis, Y axis, and Z axis are determined when the omnidirectional camera 2 is designed and manufactured.

撮像部24は、Z軸を中心とした全方位を撮像する機能を有している。さらに、撮像部24は、天井90と天井90に隣接する第1壁面91との境界93を画像情報240として撮像する。言い換えれば、オペレータは、撮像部24が、境界93を撮像することができるように全方位カメラ2を第2壁面92に設置する。   The imaging unit 24 has a function of imaging all directions around the Z axis. Further, the imaging unit 24 images the boundary 93 between the ceiling 90 and the first wall surface 91 adjacent to the ceiling 90 as image information 240. In other words, the operator installs the omnidirectional camera 2 on the second wall surface 92 so that the imaging unit 24 can image the boundary 93.

一般的なオフィスなどでは、部屋9によって形成される空間が略直方体となるように設計されており、第1壁面91と第2壁面92とは互いに対向し、第1壁面91および第2壁面92はいずれも平坦面である。このように、第1壁面91が曲面ではなく平坦面であることから、境界93は直線状となる。また、オペレータが全方位カメラ2を、第1壁面91に対向する第2壁面92に設置することにより、全方位カメラ2のZ軸方向に平行な方向と境界93とが互いに垂直の位置関係となる。   In a general office or the like, the space formed by the room 9 is designed to be a substantially rectangular parallelepiped. The first wall surface 91 and the second wall surface 92 face each other, and the first wall surface 91 and the second wall surface 92 are arranged. Are flat surfaces. Thus, since the 1st wall surface 91 is not a curved surface but a flat surface, the boundary 93 becomes a linear form. Further, when the operator installs the omnidirectional camera 2 on the second wall surface 92 facing the first wall surface 91, the direction parallel to the Z-axis direction of the omnidirectional camera 2 and the boundary 93 are in a vertical positional relationship. Become.

通信部25は、撮像部24により取得された画像情報240をネットワーク8を介して閲覧装置3に向けて送信する機能を有している。なお、通信部25は、画像情報240以外の情報を送信する機能を有していてもよいし、閲覧装置3から送信される各種情報を受信する機能を有していてもよい。   The communication unit 25 has a function of transmitting the image information 240 acquired by the imaging unit 24 to the browsing device 3 via the network 8. Note that the communication unit 25 may have a function of transmitting information other than the image information 240 or may have a function of receiving various types of information transmitted from the browsing device 3.

図3は、閲覧装置3のブロック図である。閲覧装置3は、CPU30、記憶装置31、操作部32、表示部33および通信部35を備えている。   FIG. 3 is a block diagram of the browsing device 3. The browsing device 3 includes a CPU 30, a storage device 31, an operation unit 32, a display unit 33, and a communication unit 35.

CPU30は、記憶装置31に格納されているプログラム310を読み取りつつ実行し、各種データの演算や制御信号の生成等を行う。これにより、CPU30は、閲覧装置3が備える各構成を制御するとともに、各種データを演算し作成する機能を有している。すなわち、閲覧装置3は、一般的なコンピュータとして構成されている。   The CPU 30 reads and executes the program 310 stored in the storage device 31, and performs various data calculations and control signal generation. Thereby, CPU30 has the function which calculates and produces various data while controlling each structure with which the browsing apparatus 3 is provided. That is, the browsing device 3 is configured as a general computer.

記憶装置31は、閲覧装置3において各種データを記憶する機能を提供する。言い換えれば、記憶装置31が閲覧装置3において電子的に固定された情報を保存する。   The storage device 31 provides a function of storing various data in the browsing device 3. In other words, the storage device 31 stores information electronically fixed in the browsing device 3.

記憶装置31としては、CPU30の一時的なワーキングエリアとして使用されるRAMやバッファ、読み取り専用のROM、不揮発性のメモリ(例えばNANDメモリなど)、比較的大容量の情報を記憶するハードディスク、専用の読み取り装置に装着される可搬性の記憶媒体(CD−ROM、DVD−ROM、PCカード、SDカード、USBメモリなど)等が該当する。図3においては、記憶装置31を、あたかも1つの構造物であるかのように図示している。しかし、通常、記憶装置31は、上記例示した各種装置(あるいは媒体)のうち、必要に応じて採用される複数種類の装置から構成されるものである。すなわち、記憶装置31は、データを記憶する機能を有する装置群の総称である。   As the storage device 31, a RAM or buffer used as a temporary working area of the CPU 30, a read-only ROM, a non-volatile memory (such as a NAND memory), a hard disk for storing relatively large capacity information, a dedicated memory A portable storage medium (a CD-ROM, a DVD-ROM, a PC card, an SD card, a USB memory, or the like) mounted on the reading device is applicable. In FIG. 3, the storage device 31 is illustrated as if it were one structure. However, normally, the storage device 31 is composed of a plurality of types of devices that are employed as necessary among the various devices (or media) exemplified above. That is, the storage device 31 is a generic name for a group of devices having a function of storing data.

また、現実のCPU30は高速にアクセス可能なRAMを内部に備えた電子回路である。しかし、このようなCPU30が備える記憶装置も、説明の都合上、記憶装置31に含めて説明する。すなわち、一時的にCPU30自体が記憶するデータも、記憶装置31が記憶するとして説明する。図3に示すように、記憶装置31は、プログラム310、画像情報240および修正画像情報311を記憶する。ただし、記憶装置31が記憶する情報は、これらの情報に限定されるものではない。   Further, the actual CPU 30 is an electronic circuit provided with a RAM that can be accessed at high speed. However, such a storage device included in the CPU 30 is also included in the storage device 31 for convenience of explanation. That is, description will be made assuming that the storage device 31 also stores data temporarily stored in the CPU 30 itself. As illustrated in FIG. 3, the storage device 31 stores a program 310, image information 240, and corrected image information 311. However, the information stored in the storage device 31 is not limited to such information.

操作部32は、閲覧装置3に対してオペレータ等が指示を入力するために操作するハードウェアである。操作部32としては、例えば、各種キーやボタン類、スイッチ、タッチパネル、ポインティングデバイス、ジョグダイヤルなどが該当する。   The operation unit 32 is hardware that an operator or the like operates to input an instruction to the browsing device 3. Examples of the operation unit 32 include various keys and buttons, switches, a touch panel, a pointing device, and a jog dial.

表示部33は、各種データを表示することによりオペレータ等に対して出力する機能を有するハードウェアである。特に、表示部33は、修正画像情報311を表示する。表示部33としては、例えば、CRTや液晶ディスプレイ、液晶パネルなどが該当する。ただし、表示部33は、各種ランプやLEDなどを含んでいてもよい。   The display unit 33 is hardware having a function of outputting various data to an operator or the like. In particular, the display unit 33 displays the corrected image information 311. Examples of the display unit 33 include a CRT, a liquid crystal display, and a liquid crystal panel. However, the display unit 33 may include various lamps, LEDs, and the like.

通信部35は、全方位カメラ2から送信された画像情報240をネットワーク8を介して受信する機能を有している。なお、通信部35は、画像情報240以外の情報を受信する機能を有していてもよいし、閲覧装置3から全方位カメラ2に向けて各種情報を送信する機能を有していてもよい。   The communication unit 35 has a function of receiving the image information 240 transmitted from the omnidirectional camera 2 via the network 8. Note that the communication unit 35 may have a function of receiving information other than the image information 240 or may have a function of transmitting various information from the browsing device 3 to the omnidirectional camera 2. .

図4は、閲覧装置3が備える機能ブロックをデータの流れとともに示す図である。図4に示す境界検出部300、水平方向検出部301、回転角演算部302、および、画像修正部303は、CPU30がプログラム310に従って動作することにより実現される機能ブロックである。   FIG. 4 is a diagram illustrating functional blocks included in the browsing device 3 together with a data flow. The boundary detection unit 300, the horizontal direction detection unit 301, the rotation angle calculation unit 302, and the image correction unit 303 illustrated in FIG. 4 are functional blocks that are realized by the CPU 30 operating according to the program 310.

境界検出部300は、全方位カメラ2の撮像部24により撮像され、通信部35により受信された画像情報240に撮像されている境界93を検出する。すなわち、境界検出部300は、画像処理(詳細は後述する。)によって画像情報240に撮像されてい被写体から境界93を認識し、抽出する機能を有している。このように境界検出部300によって境界93として検出された画像(境界93と推定された画像部分)は、境界情報312に記録される。   The boundary detection unit 300 detects the boundary 93 captured in the image information 240 captured by the imaging unit 24 of the omnidirectional camera 2 and received by the communication unit 35. That is, the boundary detection unit 300 has a function of recognizing and extracting the boundary 93 from the subject captured in the image information 240 by image processing (details will be described later). The image detected as the boundary 93 by the boundary detection unit 300 (the image portion estimated as the boundary 93) is recorded in the boundary information 312.

水平方向検出部301は、境界検出部300により検出された境界93(境界情報312)に応じて、当該境界93が検出された画像情報240における水平方向を検出する。水平方向検出部301によって検出された水平方向を示す情報は、水平方向情報313として記録される。   The horizontal direction detection unit 301 detects the horizontal direction in the image information 240 from which the boundary 93 is detected according to the boundary 93 (boundary information 312) detected by the boundary detection unit 300. Information indicating the horizontal direction detected by the horizontal direction detection unit 301 is recorded as horizontal direction information 313.

回転角演算部302は、水平方向情報313を参照し、水平方向検出部301により検出された画像情報240における水平方向に基づいて、当該画像情報240の実空間に対する回転角(以下、「回転角Δθ」と称する。)を演算により推定する。回転角演算部302により求められる回転角(回転角Δθの推定値。以下、「回転角Δω」と称する。)は、回転角情報314に記録される。   The rotation angle calculation unit 302 refers to the horizontal direction information 313, and based on the horizontal direction in the image information 240 detected by the horizontal direction detection unit 301, the rotation angle of the image information 240 with respect to the real space (hereinafter referred to as “rotation angle”). (Referred to as “Δθ”). The rotation angle obtained by the rotation angle calculation unit 302 (estimated value of the rotation angle Δθ; hereinafter referred to as “rotation angle Δω”) is recorded in the rotation angle information 314.

画像修正部303は、回転角情報314を参照し、回転角演算部302により演算された回転角Δωに応じて、画像情報240を回転させた修正画像情報311を作成する。このように、全方位カメラ2が設置されたときの撮像部24のズレ角(回転角Δθ)を、画像修正部303が較正するのである。   The image correction unit 303 refers to the rotation angle information 314 and creates corrected image information 311 obtained by rotating the image information 240 according to the rotation angle Δω calculated by the rotation angle calculation unit 302. Thus, the image correcting unit 303 calibrates the deviation angle (rotation angle Δθ) of the imaging unit 24 when the omnidirectional camera 2 is installed.

以上が、角度検出システム1の構成および機能の説明である。次に、角度検出システム1を用いて回転角Δθを演算する角度検出方法について説明する。   The above is the description of the configuration and function of the angle detection system 1. Next, an angle detection method for calculating the rotation angle Δθ using the angle detection system 1 will be described.

図5は、角度検出システム1の動作を示す流れ図である。なお、図5に示す各工程が開始されるまでに、全方位カメラ2が設置され、全方位カメラ2と閲覧装置3との間のデータ通信が可能な状態にされているものとする。   FIG. 5 is a flowchart showing the operation of the angle detection system 1. It is assumed that the omnidirectional camera 2 is installed and data communication between the omnidirectional camera 2 and the browsing device 3 is possible before each process shown in FIG. 5 is started.

角度検出システム1は、運用が開始されると、所定の初期設定を実行した後に、撮像タイミングと、動作モードが解析モードであるか否かと、表示タイミングとをそれぞれ監視する状態となる(ステップS11,S16,S22)。角度検出システム1におけるこの状態を、以下、「待機状態」と称する。   When the operation is started, the angle detection system 1 is in a state of monitoring the imaging timing, whether or not the operation mode is the analysis mode, and the display timing after executing predetermined initial settings (step S11). , S16, S22). Hereinafter, this state in the angle detection system 1 is referred to as a “standby state”.

なお、解析モードとは、角度検出システム1に定義される動作モードであって、画像情報240を解析して回転角Δωを求めるための動作モードである。また、角度検出システム1において、全方位カメラ2と閲覧装置3との間のデータ通信が確立され最初の画像情報240が閲覧装置3に記録されたときに、自動的に動作モードが解析モードに移行するものとする。ただし、解析モードへの移行契機はこれに限定されるものではなく、例えば、オペレータが、全方位カメラ2の操作部22を操作し、動作モードを解析モードに移行させるための指示を入力した場合などにおいても、動作モードが移行するように構成してもよい。   The analysis mode is an operation mode defined in the angle detection system 1 and is an operation mode for analyzing the image information 240 to obtain the rotation angle Δω. In the angle detection system 1, when data communication between the omnidirectional camera 2 and the browsing device 3 is established and the first image information 240 is recorded in the browsing device 3, the operation mode is automatically set to the analysis mode. Shall be migrated. However, the trigger to shift to the analysis mode is not limited to this, for example, when the operator operates the operation unit 22 of the omnidirectional camera 2 and inputs an instruction to shift the operation mode to the analysis mode. For example, the operation mode may be changed.

待機状態において、撮像タイミングが到来すると、全方位カメラ2のCPU20がステップS11においてYesと判定し、周囲の被写体を撮像するように撮像部24を制御する。これにより、撮像部24が撮像を行い(ステップS12)、画像情報240が作成される。   When the imaging timing arrives in the standby state, the CPU 20 of the omnidirectional camera 2 determines Yes in step S11, and controls the imaging unit 24 so as to capture the surrounding subject. Thereby, the imaging unit 24 performs imaging (step S12), and image information 240 is created.

図6は、撮像部24によって撮像された画像情報240aを例示する図である。なお、一般的な全方位カメラにおいては、魚眼レンズなどを用いることにより、全方位を撮像するように設計されている場合がある。このように魚眼レンズなどを用いた場合、画像情報240の画像は歪んだ画像となり、画像情報240における水平方向も直線とはならない。しかし、以下では、説明を簡単にするために、図6に示すように、このような歪みのない補正された画像(いわゆるノーマル展開された画像)で説明する。このような補正は、例えば、撮像部24が備える魚眼レンズの曲率(既知)などに基づいて容易に実行することができるため、ここでは詳細な説明を省略する。   FIG. 6 is a diagram illustrating image information 240a captured by the imaging unit 24. As illustrated in FIG. Note that a general omnidirectional camera may be designed to capture an omnidirectional image by using a fisheye lens or the like. When a fisheye lens or the like is used in this way, the image of the image information 240 is a distorted image, and the horizontal direction in the image information 240 is not a straight line. However, in the following, in order to simplify the description, as shown in FIG. 6, description will be made with a corrected image without such distortion (a so-called normally developed image). Such correction can be easily executed based on, for example, the curvature (known) of the fisheye lens included in the imaging unit 24, and thus detailed description thereof is omitted here.

全方位カメラ2は、図1に示すように、第2壁面92に設置され、部屋9内を撮像することによって、天井90と、第1壁面91とを撮像する。このように天井90と、天井90に隣接する第1壁面91とが撮像されることにより、天井90と第1壁面91との境である境界93も撮像される。   As shown in FIG. 1, the omnidirectional camera 2 is installed on the second wall surface 92 and images the interior of the room 9 to image the ceiling 90 and the first wall surface 91. Thus, by imaging the ceiling 90 and the first wall surface 91 adjacent to the ceiling 90, the boundary 93 that is the boundary between the ceiling 90 and the first wall surface 91 is also imaged.

言い換えれば、全方位カメラ2の設置工事担当者は、少なくとも天井90と第1壁面91とが撮像されるように、全方位カメラ2を設置する。一般的な全方位カメラは、平坦面に取り付ける際に、当該平坦面に対する法線方向を中心とした全方位を撮像するように設計されている。したがって、オペレータは、全方位カメラ2を第2壁面92に設置さえすれば、特に意識しなくても、図6に示すような画像情報240a(境界93を含むように撮像された画像情報240)を撮像させることができる。すなわち、全方位カメラ2を設置するときに、境界93を撮像するように設置することをオペレータに要求したとしても、オペレータの負担は大きなものとはならない。   In other words, the person in charge of the installation work of the omnidirectional camera 2 installs the omnidirectional camera 2 so that at least the ceiling 90 and the first wall surface 91 are imaged. A general omnidirectional camera is designed to capture an omnidirectional image centered on a normal direction to the flat surface when attached to the flat surface. Therefore, as long as the operator installs the omnidirectional camera 2 on the second wall surface 92, image information 240a (image information 240 imaged to include the boundary 93) as shown in FIG. Can be imaged. In other words, even when the operator is requested to install the omnidirectional camera 2 so as to capture the boundary 93, the burden on the operator is not great.

一方で、オペレータは、撮像部24の回転位置(Z軸を中心軸とした回転位置)については、正確に調整することなく、アバウトに設置する。このように、オペレータが撮像部24の回転位置について意識することなく適当に設置すると、全方位カメラ2によって撮像される画像は、図6に示す画像情報240aのように、画像情報240における水平方向が実空間の水平方向に対して傾いた画像となる。   On the other hand, the operator installs the rotational position of the imaging unit 24 (the rotational position with the Z axis as the central axis) in the about without being adjusted accurately. As described above, when the operator appropriately installs without being aware of the rotational position of the imaging unit 24, the image captured by the omnidirectional camera 2 is the horizontal direction in the image information 240 as in the image information 240a shown in FIG. Becomes an image inclined with respect to the horizontal direction of the real space.

このようにして画像情報240に生じる実空間に対する傾きは、「回転角Δθ」である。すでに説明したように、この「回転角Δθ」は、オペレータが全方位カメラ2を設置した際に生じるズレ(誤差)である。したがって、全方位カメラ2の姿勢が改められない限り(すなわち、全方位カメラ2が設置しなおされない限り)、当該回転角Δθは変化することはなく、一定である。   The inclination with respect to the real space generated in the image information 240 in this way is “rotation angle Δθ”. As described above, the “rotation angle Δθ” is a deviation (error) generated when the operator installs the omnidirectional camera 2. Therefore, as long as the attitude of the omnidirectional camera 2 is not changed (that is, unless the omnidirectional camera 2 is re-installed), the rotation angle Δθ does not change and is constant.

さらに、図6から明らかなように、ここに例示する画像情報240aには、床面95も撮像されており、第1壁面91と床面95とによって形成される境界96も撮像されている。また、天井90には、複数の照明94が設置され、撮像されている。   Further, as is apparent from FIG. 6, the image information 240 a illustrated here also captures the floor surface 95, and also captures the boundary 96 formed by the first wall surface 91 and the floor surface 95. A plurality of lights 94 are installed on the ceiling 90 and imaged.

図5に示すステップS12が実行されて、画像情報240が取得されると、通信部25は、取得された画像情報240を閲覧装置3に向けて送信する(ステップS13)。   When step S12 shown in FIG. 5 is executed and the image information 240 is acquired, the communication unit 25 transmits the acquired image information 240 to the browsing device 3 (step S13).

なお、図5に示す例では、画像情報240が撮像されると、新たに作成された画像情報240が直ちに閲覧装置3に向けて送信される。しかし、ステップS12とステップS13との間にタイムラグがあってもよい。例えば、撮像された画像情報240を、一旦、記憶装置21に格納し、所定の期間が経過し、送信タイミングが到来したときに、記憶装置21に格納されている画像情報240がまとめて送信されるように構成してもよい。   In the example illustrated in FIG. 5, when the image information 240 is captured, the newly created image information 240 is immediately transmitted to the browsing device 3. However, there may be a time lag between step S12 and step S13. For example, the captured image information 240 is temporarily stored in the storage device 21, and when a predetermined period has elapsed and the transmission timing has arrived, the image information 240 stored in the storage device 21 is collectively transmitted. You may comprise.

全方位カメラ2から画像情報240が送信されると、閲覧装置3の通信部35がネットワーク8を介して当該画像情報240を受信し(ステップS14)、記憶装置31に記録する(ステップS15)。このようにして、角度検出システム1は、撮像タイミングが到来するたびに、閲覧装置3に新たな画像情報240が送信され、順次、蓄積される。なお、ステップS15を実行すると、角度検出システム1は、待機状態に戻る。   When the image information 240 is transmitted from the omnidirectional camera 2, the communication unit 35 of the browsing device 3 receives the image information 240 via the network 8 (step S14) and records it in the storage device 31 (step S15). In this way, the angle detection system 1 transmits new image information 240 to the browsing device 3 every time the imaging timing arrives, and sequentially accumulates it. In addition, if step S15 is performed, the angle detection system 1 will return to a standby state.

待機状態において、動作モードが解析モードになると、閲覧装置3のCPU30がステップS16においてYesと判定し、境界検出処理を実行する(ステップS17)。なお、境界検出処理とは、画像情報240から境界93を検出する処理である。詳細は後述するが、境界検出部300は、画像情報240から、天井90に相当する画素で構成される領域を検出し、当該領域の周縁部として境界93に相当する画素を検出する。   In the standby state, when the operation mode becomes the analysis mode, the CPU 30 of the browsing device 3 determines Yes in step S16 and executes boundary detection processing (step S17). The boundary detection process is a process for detecting the boundary 93 from the image information 240. Although details will be described later, the boundary detection unit 300 detects a region composed of pixels corresponding to the ceiling 90 from the image information 240, and detects a pixel corresponding to the boundary 93 as a peripheral portion of the region.

図7は、境界検出処理を示す流れ図である。   FIG. 7 is a flowchart showing the boundary detection process.

境界検出処理が開始されると、まず、境界検出部300は、記憶装置31に記憶されている画像情報240から、演算に使用する画像情報240を特定して読み出す(ステップS31)。   When the boundary detection process is started, first, the boundary detection unit 300 identifies and reads out the image information 240 used for calculation from the image information 240 stored in the storage device 31 (step S31).

なお、ステップS31において読み出される画像情報240は、これまでに回転角Δωを演算するための対象となっていなかったものであることが好ましい。また、ステップS31において読み出される画像情報240は1つに限定されるものではなく、複数の画像情報240に基づいて回転角Δωを演算するように構成してもよい。   In addition, it is preferable that the image information 240 read in step S31 has not been a target for calculating the rotation angle Δω so far. The image information 240 read in step S31 is not limited to one, and the rotation angle Δω may be calculated based on a plurality of image information 240.

次に、境界検出部300は、画像情報240に含まれる複数の画素について、それぞれ輝度値を取得し(ステップS32)、取得した輝度値が閾値(以下、「閾値Q」と称する。)以上の画素を、天井照明領域を示す画素としてラベリングする(ステップS33)。   Next, the boundary detection unit 300 acquires a luminance value for each of the plurality of pixels included in the image information 240 (step S32), and the acquired luminance value is equal to or greater than a threshold (hereinafter referred to as “threshold Q”). The pixels are labeled as pixels indicating the ceiling illumination area (step S33).

なお、ステップS33において使用する閾値Qは、点灯状態の照明に相当する画素を判別するための閾値であり、比較的高い値として設定することが好ましい。この閾値Qを高い値として設定することにより、例えば、第1壁面91に窓などの比較的明るい被写体が存在する場合にも当該窓を天井照明領域と誤認識することを防止することができる。   Note that the threshold value Q used in step S33 is a threshold value for determining a pixel corresponding to the lighting in the lighting state, and is preferably set as a relatively high value. By setting the threshold value Q as a high value, for example, even when a relatively bright subject such as a window exists on the first wall surface 91, it is possible to prevent the window from being erroneously recognized as a ceiling illumination area.

図8は、図6に示す画像情報240aに対して、天井照明領域をラベリングした状態を概念的に示す図である。ステップS33が実行されたことにより、照明94に相当する画素の領域は、天井照明領域70,71,72,73,74,75,76としてラベリングされる。   FIG. 8 is a diagram conceptually showing a state where the ceiling illumination area is labeled with respect to the image information 240a shown in FIG. By executing step S33, the pixel areas corresponding to the illumination 94 are labeled as ceiling illumination areas 70, 71, 72, 73, 74, 75, and 76.

一方で、図8に示すように、画像情報240aにおいて人物の白い服を示す画素であった領域も、輝度値が比較的高くなるため、天井照明領域77としてラベリングされている。この天井照明領域77は、天井90に設けられた照明94を示す画素ではなく、天井照明領域としては誤検出である。   On the other hand, as shown in FIG. 8, an area that is a pixel indicating white clothes of a person in the image information 240 a is also labeled as a ceiling illumination area 77 because the luminance value is relatively high. The ceiling illumination area 77 is not a pixel indicating the illumination 94 provided on the ceiling 90, but is erroneously detected as the ceiling illumination area.

このように、画素の輝度値を閾値Qと比較するだけでは、例に示すように、白い服を示す画素や机上の照明を示す画素、あるいは、照明光を反射している物体などを天井照明領域として誤って検出してしまう。これらの誤検出に対する対処方法は、後述する。   Thus, by simply comparing the luminance value of the pixel with the threshold value Q, as shown in the example, the pixel indicating white clothes, the pixel indicating desk lighting, or the object reflecting the illumination light is ceiling-lit. It will be detected by mistake as a region. A method for dealing with these erroneous detections will be described later.

図7に戻って、天井照明領域のラベリングが終了すると、境界検出部300は、検出された各天井照明領域70ないし77の面積(画素数)に応じた数の画素を含む統合用ブロックを、各天井照明領域70ないし77に対してそれぞれ定義する。そして、定義した当該統合用ブロックを、対応する天井照明領域70ないし77の周囲を囲むように配置し、各統合用ブロックに含まれる画素の輝度値のヒストグラムを求める(ステップS34)。   Returning to FIG. 7, when the labeling of the ceiling illumination area is completed, the boundary detection unit 300 adds an integration block including a number of pixels corresponding to the area (number of pixels) of each detected ceiling illumination area 70 to 77. The definition is made for each ceiling illumination area 70 to 77. Then, the defined integration block is arranged so as to surround the corresponding ceiling illumination areas 70 to 77, and a histogram of luminance values of pixels included in each integration block is obtained (step S34).

さらに、境界検出部300は、ステップS34において求めたヒストグラムが互いに類似する統合用ブロックに含まれる画素を、1つの天井候補領域を構成する画素として統合する(ステップS35)。なお、ヒストグラムの類似度を判定する手法としては、例えば、バタチャリア距離を演算する手法を用いることができるが、これに限定されるものではない。   Further, the boundary detection unit 300 integrates pixels included in the integration block whose histograms obtained in step S34 are similar to each other as pixels constituting one ceiling candidate region (step S35). Note that, as a method of determining the similarity of histograms, for example, a method of calculating a virtual distance can be used, but the method is not limited to this.

図9は、図6に示す画像情報240に対して、天井候補領域60,61を抽出した様子を示す図である。   FIG. 9 is a diagram illustrating a state where the ceiling candidate areas 60 and 61 are extracted from the image information 240 illustrated in FIG. 6.

図9に示すように、天井照明領域70ないし76の周囲に配置された統合用ブロックのヒストグラムについて、類似する統合用ブロックに含まれる画素を統合した結果、天井候補領域60が抽出されている。また、天井照明領域77の周囲に配置された統合用ブロックのヒストグラムについて、類似する統合用ブロックに含まれる画素を統合した結果、天井候補領域61が抽出されている。なお、天井候補領域60と天井候補領域61との境は、天井候補領域60の周縁部5として検出されている。   As shown in FIG. 9, as a result of integrating the pixels included in similar integration blocks with respect to the histograms of the integration blocks arranged around the ceiling illumination areas 70 to 76, the ceiling candidate area 60 is extracted. Further, as a result of integrating the pixels included in similar integration blocks with respect to the histogram of the integration blocks arranged around the ceiling illumination area 77, the ceiling candidate area 61 is extracted. The boundary between the ceiling candidate area 60 and the ceiling candidate area 61 is detected as the peripheral edge 5 of the ceiling candidate area 60.

多数の天井照明領域として検出された天井照明領域70ないし76は、いずれも照明94に相当する画素の領域であり、天井90に相当する画素が周囲に存在する。したがって、天井照明領域70ないし76の周囲に配置された統合用ブロックのヒストグラムは互いに類似し、これらの統合用ブロックを構成する画素が1つの天井候補領域60に統合される。   The ceiling illumination areas 70 to 76 detected as a large number of ceiling illumination areas are all pixel areas corresponding to the illumination 94, and pixels corresponding to the ceiling 90 exist around the area. Accordingly, the histograms of the integration blocks arranged around the ceiling illumination areas 70 to 76 are similar to each other, and the pixels constituting these integration blocks are integrated into one ceiling candidate area 60.

また、天井照明領域77は、照明94に相当する画素ではない画素の領域であるが、たまたま周囲に第1壁面91に相当する画素が存在している。したがって、天井照明領域77の周囲に配置された統合用ブロックのヒストグラムは互いに類似し、これらの統合用ブロックを構成する画素が1つの天井候補領域61に統合される。天井候補領域61は、天井照明領域77が誤検出され、かつ、天井照明領域77の周囲に配置された複数の統合用ブロックのヒストグラムが互いに類似するような被写体(第1壁面91)が当該天井照明領域77の周囲に撮像されていたために誤検出されたものである。   The ceiling illumination region 77 is a pixel region that is not a pixel corresponding to the illumination 94, but a pixel corresponding to the first wall surface 91 happens to be present around. Therefore, the histograms of the integration blocks arranged around the ceiling illumination area 77 are similar to each other, and the pixels constituting these integration blocks are integrated into one ceiling candidate area 61. In the ceiling candidate area 61, a subject (first wall surface 91) whose ceiling illumination area 77 is erroneously detected and whose histograms of a plurality of integration blocks arranged around the ceiling illumination area 77 are similar to each other is the ceiling. Since the image was taken around the illumination area 77, it was erroneously detected.

しかし、例えば、天井照明領域77以外に誤検出された天井照明領域が存在したとしても、その周囲に配置された複数の統合用ブロックのヒストグラムが互いに類似するような被写体が当該誤検出された天井照明領域の周囲に撮像されていない場合には、誤検出された天井照明領域によって、天井候補領域が誤検出されることはない。   However, for example, even if there is an erroneously detected ceiling illumination area other than the ceiling illumination area 77, the erroneously detected subject whose histograms of the plurality of integration blocks arranged around it are similar to each other is detected. When the image is not captured around the illumination area, the ceiling candidate area is not erroneously detected by the erroneously detected ceiling illumination area.

例えば、机上には卓上の照明装置が設置されることがあり、これが天井照明領域として誤検出される事態は容易に想定される。しかし、一般に、机上には、様々な被写体が混在する。したがって、当該誤検出された天井照明領域の周囲に複数の統合用ブロックを配置した場合、これらのヒストグラムが互いに類似する事態は想定しにくい。すなわち、ステップS34,S35を実行することにより、実際の天井90以外の場所で誤検出された天井照明領域の影響を、かなり排除することができる。   For example, a desk lighting device may be installed on the desk, and it is easily assumed that this is erroneously detected as a ceiling lighting area. However, in general, various subjects are mixed on the desk. Therefore, when a plurality of integration blocks are arranged around the erroneously detected ceiling illumination area, it is difficult to assume a situation where these histograms are similar to each other. That is, by executing steps S34 and S35, the influence of the ceiling illumination area erroneously detected in a place other than the actual ceiling 90 can be considerably eliminated.

また、天井90に相当する画素ではない画素を含む統合用ブロックのヒストグラムと、天井90に相当する画素を含む統合用ブロックのヒストグラムとは、類似しない蓋然性が高い。すなわち、統合用ブロックのヒストグラムの類似度によって当該統合用ブロックに含まれる画素の統合を行うことにより、天井候補領域60が天井90に相当する画素ではない画素の領域まで拡大(統合)されることも防止される。したがって、例えば、図9に示す天井候補領域61が抽出されない場合でも、天井候補領域60さえ検出されていれば、当該天井候補領域60の周縁部5は検出される。   In addition, there is a high probability that the histogram of the integration block including pixels that are not pixels corresponding to the ceiling 90 and the histogram of the integration block including pixels corresponding to the ceiling 90 are not similar. That is, by integrating the pixels included in the integration block according to the similarity of the histogram of the integration block, the ceiling candidate area 60 is expanded (integrated) to a pixel area that is not a pixel corresponding to the ceiling 90. Is also prevented. Therefore, for example, even if the ceiling candidate area 61 shown in FIG. 9 is not extracted, if only the ceiling candidate area 60 is detected, the peripheral portion 5 of the ceiling candidate area 60 is detected.

図7に戻って、ステップS35を実行すると、境界検出部300は、天井候補領域が複数検出されたか否かを判定する(ステップS36)。   Returning to FIG. 7, when step S35 is executed, the boundary detection unit 300 determines whether or not a plurality of ceiling candidate regions are detected (step S36).

ステップS35によって検出された天井候補領域が1つの場合(ステップS36においてNo。)、当該天井候補領域を天井領域として決定する(ステップS37)。   If there is one ceiling candidate area detected in step S35 (No in step S36), the ceiling candidate area is determined as the ceiling area (step S37).

一方で、ステップS35によって検出された天井候補領域が複数の場合(ステップS36においてYes。)、境界検出部300は、検出された各天井候補領域をラスタースキャンするためのスキャンブロックを定義する。このとき定義されるスキャンブロックは4以上の画素を含むサイズとして定義され、当該スキャンブロックには縦方向および横方向にそれぞれ2分割された4つの分割領域が定義される。すなわち、4つの分割領域は、それぞれが1以上の画素から成り、スキャンブロック内において2行2列に配置される。   On the other hand, when there are a plurality of ceiling candidate areas detected in step S35 (Yes in step S36), the boundary detection unit 300 defines a scan block for raster scanning each detected ceiling candidate area. The scan block defined at this time is defined as a size including four or more pixels. In the scan block, four divided regions each divided into two in the vertical direction and the horizontal direction are defined. That is, each of the four divided regions is composed of one or more pixels, and is arranged in 2 rows and 2 columns in the scan block.

次に、境界検出部300は、定義したスキャンブロックを用いて、各天井候補領域をそれぞれラスタースキャンし(ステップS38)、各天井候補領域にカウント条件を満たす回数をカウントする。ここでは、カウント条件は、スキャンブロック内に定義される4つの分割領域のうち、右下に配置される分割領域のみが天井照明領域(高輝度画素領域)となり、他の3つの分割領域が天井候補領域(低輝度画素領域)となった状態とする。このようなカウント条件を満たす回数は、各天井候補領域内に存在する天井照明領域の数に対応して増加するとみなせる。   Next, the boundary detection unit 300 performs a raster scan for each ceiling candidate area using the defined scan block (step S38), and counts the number of times that satisfies the count condition for each ceiling candidate area. Here, the counting condition is that among the four divided areas defined in the scan block, only the divided area arranged at the lower right is the ceiling illumination area (high luminance pixel area), and the other three divided areas are the ceiling. A candidate region (low luminance pixel region) is assumed to be in a state. The number of times satisfying such a count condition can be considered to increase corresponding to the number of ceiling illumination areas existing in each ceiling candidate area.

そこで、境界検出部300は、検出された複数の天井候補領域のうち、カウントされたカウント条件を満たす回数が最も多かった天井候補領域を天井領域として決定する(ステップS39)。   Therefore, the boundary detection unit 300 determines the ceiling candidate region that has the highest number of times that satisfy the counted count condition as the ceiling region among the plurality of detected ceiling candidate regions (step S39).

一般的なオフィスなどでは、天井には多くの照明が設置される。したがって、照明が多く存在しているとみなせる領域を、より天井らしいとみなし、天井領域として決定することにより、複数の天井候補領域の中から、最も天井領域らしい領域を選択することができる。   In general offices, many lights are installed on the ceiling. Therefore, an area that can be regarded as having a lot of illumination is regarded as more likely to be a ceiling, and by determining the area as a ceiling area, an area that most likely represents a ceiling area can be selected from a plurality of ceiling candidate areas.

図9に示す例では、天井候補領域60の方が天井候補領域61よりも天井照明領域を多く内包している。したがって、スキャンブロックによるラスタースキャンの結果、天井候補領域60の方が天井候補領域61よりもカウントされる回数が多くなる。これにより、ステップS39において天井候補領域60が天井領域として決定される。このようにして、境界検出部300は、複数の天井候補領域60,61の中から1つの天井領域を決定し、誤検出された天井候補領域61を除外する。   In the example shown in FIG. 9, the ceiling candidate area 60 includes more ceiling illumination areas than the ceiling candidate area 61. Therefore, as a result of the raster scan by the scan block, the number of times that the ceiling candidate area 60 is counted more than the ceiling candidate area 61 is increased. Thereby, the ceiling candidate area | region 60 is determined as a ceiling area | region in step S39. In this way, the boundary detection unit 300 determines one ceiling area from among the plurality of ceiling candidate areas 60 and 61, and excludes the erroneously detected ceiling candidate area 61.

なお、画像情報240において複数の天井候補領域が検出された場合、いずれの天井候補領域を天井領域として決定するかについては、他の手法を用いることもできる。例えば、画像情報240内における各天井候補領域の位置関係や、各天井候補領域の形状などから判定することも想定できる。また、このような複数の手法を重畳的に用いて、最も天井領域らしい天井候補領域を決定してもよい。ただし、回転角Δθの大きさによっては、天地が逆転して撮像されることもあり得るため、単純に位置関係のみで決定すると、誤検出を招くおそれもある。   In addition, when a plurality of ceiling candidate areas are detected in the image information 240, other methods can be used as to which of the ceiling candidate areas is determined as the ceiling area. For example, it can be assumed that the determination is based on the positional relationship between the ceiling candidate areas in the image information 240, the shape of each ceiling candidate area, and the like. Further, a ceiling candidate area that is most likely to be a ceiling area may be determined by using a plurality of such methods in a superimposed manner. However, depending on the magnitude of the rotation angle Δθ, the top-and-bottom may be imaged in the reverse direction, and if it is simply determined based only on the positional relationship, erroneous detection may occur.

また、カウント条件は上記例に示した条件に限定されるものではない。例えば、スキャンブロック内に定義される4つの分割領域のうち、左下に配置される分割領域のみが天井照明領域(高輝度画素領域)となり、他の3つの分割領域が天井候補領域(低輝度画素領域)となった状態をカウント条件とすることもできる。   Further, the count condition is not limited to the condition shown in the above example. For example, among the four divided areas defined in the scan block, only the divided area arranged at the lower left is a ceiling illumination area (high luminance pixel area), and the other three divided areas are ceiling candidate areas (low luminance pixels). The state that has become (region) can also be used as the count condition.

ステップS37またはステップS39が実行され、天井領域を決定すると、境界検出部300は、画像情報240から検出した天井領域に基づいて、当該画像情報240から境界93を検出し、境界情報312を作成する(ステップS40)。   When step S37 or step S39 is executed and the ceiling area is determined, the boundary detection unit 300 detects the boundary 93 from the image information 240 based on the ceiling area detected from the image information 240, and creates boundary information 312. (Step S40).

具体的には、境界検出部300は、検出した天井領域の周縁部5(画像情報240内における、天井領域とその他の領域との境界)と、撮像領域241の周縁部との交点(2点存在する。)から、それぞれ仮想の境界線(ただし、周縁部5以外の天井領域内の画素を含まない線)を引き、2本の仮想の境界線のうち、周縁部5と一致する画素の数が多い方を境界93とみなす。   Specifically, the boundary detection unit 300 detects the intersection (two points) between the detected peripheral portion 5 of the ceiling region (the boundary between the ceiling region and other regions in the image information 240) and the peripheral portion of the imaging region 241. Each virtual boundary line (however, a line that does not include a pixel in the ceiling area other than the peripheral portion 5) is drawn from each of the two virtual boundary lines, and the pixel that matches the peripheral portion 5 is extracted. The one with the larger number is regarded as the boundary 93.

図9に示す例は、周縁部5が直線として検出されており、いわば理想的な検出例である。このような場合において、周縁部5と、撮像領域241の周縁部との交点からそれぞれ仮想の境界線を引くと、2本の仮想の境界線がいずれも周縁部5に一致する(2本の仮想の境界線の傾きが一致する。)。したがって、図9に示す例では、2本の仮想の境界線がそのまま境界93として検出される。   The example shown in FIG. 9 is an ideal detection example because the peripheral edge 5 is detected as a straight line. In such a case, when a virtual boundary line is drawn from the intersection between the peripheral edge 5 and the peripheral edge of the imaging region 241, each of the two virtual boundary lines coincides with the peripheral edge 5 (two lines). The slopes of the virtual borders match.) Therefore, in the example shown in FIG. 9, two virtual boundary lines are detected as the boundary 93 as they are.

図10は、周縁部5が曲線形状として検出された場合の境界93を決定する様子を示す図である。   FIG. 10 is a diagram illustrating how the boundary 93 is determined when the peripheral edge 5 is detected as a curved shape.

まず、天井領域の周縁部5と、撮像領域241の周縁部との交点として、点Aと点Bとを決定する。次に、点Aから仮想の境界線100を引くとともに、点Bから仮想の境界線101を引く。先述のように、このようにして引かれた2本の境界線100,101を比較して、周縁部5と一致する画素の数が多い方を境界93とみなすので、図10に示す例では、境界線101が境界93として検出される。   First, point A and point B are determined as intersections between the peripheral edge 5 of the ceiling area and the peripheral edge of the imaging area 241. Next, the virtual boundary line 100 is drawn from the point A and the virtual boundary line 101 is drawn from the point B. As described above, the two boundary lines 100 and 101 drawn in this way are compared, and the one having the larger number of pixels matching the peripheral edge portion 5 is regarded as the boundary 93. Therefore, in the example shown in FIG. The boundary line 101 is detected as the boundary 93.

なお、図示は省略するが、2本の仮想の境界線の傾きが互いに一致せず、かつ、周縁部5と一致する画素の数が同数であった場合は、2本の仮想の境界線の中間の傾きの仮想の境界線をさらに引き、これを境界93とする。   Although illustration is omitted, if the inclinations of the two virtual boundary lines do not coincide with each other and the number of pixels matching the peripheral portion 5 is the same, the two virtual boundary lines A virtual boundary line with an intermediate inclination is further drawn, and this is defined as a boundary 93.

境界情報312が作成されると、角度検出システム1は、図7に示す境界検出処理を終了して、図5に示す処理に戻る。   When the boundary information 312 is created, the angle detection system 1 ends the boundary detection process shown in FIG. 7 and returns to the process shown in FIG.

図5に戻って、ステップS17の境界検出処理が終了すると、水平方向検出部301が、画像情報240における水平方向を検出する(ステップS18)。   Returning to FIG. 5, when the boundary detection process in step S17 is completed, the horizontal direction detection unit 301 detects the horizontal direction in the image information 240 (step S18).

画像情報240における水平方向は、当該画像情報240から検出された境界93の傾きと平行な方向である。言い換えれば、そのように画像情報240が撮像されている。また、すでに説明したように、画像情報240から検出される境界93は、当該画像情報240において必ず直線である。   The horizontal direction in the image information 240 is a direction parallel to the inclination of the boundary 93 detected from the image information 240. In other words, the image information 240 is captured as such. Further, as already described, the boundary 93 detected from the image information 240 is always a straight line in the image information 240.

したがって、ステップS18において、水平方向検出部301は、境界情報312を参照することにより、境界検出部300によって検出された境界93(厳密には現実の境界93と一致するとは限らない。)の画像を参照し、当該境界93の傾きを、画像情報240における水平方向として検出する。具体的には、画像情報240から検出された境界93によってXY平面(X軸およびY軸に平行な面)上に描かれる直線の傾きを、画像情報240における水平方向として検出し、水平方向情報313を作成する。   Therefore, in step S <b> 18, the horizontal direction detection unit 301 refers to the boundary information 312, and thus the image of the boundary 93 (which is not necessarily coincident with the actual boundary 93) detected by the boundary detection unit 300. , The inclination of the boundary 93 is detected as the horizontal direction in the image information 240. Specifically, the inclination of a straight line drawn on the XY plane (a plane parallel to the X axis and the Y axis) by the boundary 93 detected from the image information 240 is detected as the horizontal direction in the image information 240, and the horizontal direction information is detected. 313 is created.

境界93によって描かれる直線は、例えば、以下に示す式1で表現できる。   The straight line drawn by the boundary 93 can be expressed by, for example, Expression 1 shown below.

y=αx+β ・・・ 式1   y = αx + β Equation 1

ただし、式1において、x,yはX軸およびY軸の座標であり、α,βは定数である。   In Equation 1, x and y are the coordinates of the X axis and the Y axis, and α and β are constants.

境界93によって描かれる直線が式1で表現される場合、水平方向検出部301は、水平方向情報313を「α」とする。   When the straight line drawn by the boundary 93 is expressed by Equation 1, the horizontal direction detection unit 301 sets the horizontal direction information 313 to “α”.

次に、回転角演算部302が、水平方向情報313に基づいて、以下に示す式2により回転角Δωを演算する(ステップS19)。   Next, the rotation angle calculation unit 302 calculates the rotation angle Δω according to the following equation 2 based on the horizontal direction information 313 (step S19).

Δω=arctan(α) ・・・ 式2   Δω = arctan (α) (2)

また、回転角Δωが求まると、回転角演算部302は、求めた回転角Δωに基づいて回転角情報314を作成する(ステップS20)。   When the rotation angle Δω is obtained, the rotation angle calculation unit 302 creates the rotation angle information 314 based on the obtained rotation angle Δω (step S20).

回転角情報314が作成されると、角度検出システム1は、解析モードを終了して(ステップS21)、再び、待機状態に戻る。   When the rotation angle information 314 is created, the angle detection system 1 ends the analysis mode (step S21) and returns to the standby state again.

待機状態において、表示タイミングが到来すると、CPU30がステップS22においてYesと判定し、画像修正部303が修正画像情報を作成する(ステップS23)。   When the display timing comes in the standby state, the CPU 30 determines Yes in step S22, and the image correction unit 303 creates corrected image information (step S23).

画像修正部303は、記憶装置31に記憶されている回転角情報314を読み出して、当該回転角情報314に格納されている回転角Δωを取得する。そして、取得した回転角Δωに応じて、画像情報240に含まれる各画素の位置を座標変換して、修正画像情報311を作成する。したがって、画像情報240の画像が回転角Δωを打ち消すように回転した画像(修正画像情報311)が作成される。すでに説明したように、回転角Δωは、回転角Δθとみなせるので、修正画像情報311は、全方位カメラ2(撮像部24)の回転角Δθを較正した画像となる。   The image correction unit 303 reads the rotation angle information 314 stored in the storage device 31 and acquires the rotation angle Δω stored in the rotation angle information 314. Then, according to the acquired rotation angle Δω, the position of each pixel included in the image information 240 is coordinate-transformed to create the corrected image information 311. Therefore, an image (corrected image information 311) in which the image of the image information 240 is rotated so as to cancel the rotation angle Δω is created. As described above, since the rotation angle Δω can be regarded as the rotation angle Δθ, the corrected image information 311 is an image obtained by calibrating the rotation angle Δθ of the omnidirectional camera 2 (imaging unit 24).

修正画像情報311が作成されると、表示部33は、修正画像情報311を表示する(ステップS24)。これにより、オペレータは、設置時に発生した全方位カメラ2(撮像部24)の回転角Δθを適切に較正した画像を閲覧することができ、オペレータによる視認性が向上する。   When the corrected image information 311 is created, the display unit 33 displays the corrected image information 311 (step S24). Thus, the operator can view an image in which the rotation angle Δθ of the omnidirectional camera 2 (imaging unit 24) generated at the time of installation is appropriately calibrated, and visibility by the operator is improved.

以上のように、角度検出システム1は、天井90と天井90に隣接する第1壁面91との境界93を画像情報240として撮像する撮像部24と、撮像部24により撮像された画像情報240に撮像されている境界93を境界情報312として検出する境界検出部300と、境界検出部300により検出された境界情報312に応じて、当該境界93が検出された画像情報240における水平方向を水平方向情報313として検出する水平方向検出部301と、水平方向検出部301により検出された画像情報240における水平方向に基づいて、当該画像情報240の実空間に対する回転角Δθを演算により推定する回転角演算部302とを備える。これにより、画像情報240に基づいて、当該画像情報240の実空間に対する回転角Δθを求めることができる。したがって、人手を要することなく、負担を軽減することができる。   As described above, the angle detection system 1 includes the imaging unit 24 that captures the boundary 93 between the ceiling 90 and the first wall surface 91 adjacent to the ceiling 90 as the image information 240, and the image information 240 captured by the imaging unit 24. The boundary detection unit 300 that detects the imaged boundary 93 as the boundary information 312, and the horizontal direction in the image information 240 in which the boundary 93 is detected in accordance with the boundary information 312 detected by the boundary detection unit 300 is the horizontal direction Based on the horizontal direction in the image information 240 detected by the horizontal direction detection unit 301 and the horizontal direction detection unit 301 detected as the information 313, a rotation angle calculation that estimates the rotation angle Δθ of the image information 240 with respect to the real space by calculation. Unit 302. Thereby, based on the image information 240, the rotation angle Δθ with respect to the real space of the image information 240 can be obtained. Therefore, the burden can be reduced without requiring human labor.

また、境界検出部300は、撮像部24により撮像された画像情報240から天井90が撮像されている天井領域を検出し、検出した当該天井領域の周縁部5に応じて境界93を検出する。これにより、容易に、かつ、精度よく境界93を検出することができる。   Further, the boundary detection unit 300 detects a ceiling region where the ceiling 90 is imaged from the image information 240 captured by the imaging unit 24, and detects a boundary 93 according to the detected peripheral portion 5 of the ceiling region. Thereby, the boundary 93 can be detected easily and accurately.

また、境界検出部300は、撮像部24により撮像された画像情報240に含まれる各画素の画素値(輝度値)に応じて、照明94が撮像されている天井照明領域を検出することにより、天井領域を検出する。これにより、照明94を示す蓋然性の高い天井照明領域に基づいて、照明94が設置されている天井90を示す天井領域を検出することで、天井領域の検出精度が向上する。   In addition, the boundary detection unit 300 detects the ceiling illumination area in which the illumination 94 is imaged according to the pixel value (luminance value) of each pixel included in the image information 240 captured by the imaging unit 24. Detect ceiling area. Thereby, the detection accuracy of a ceiling area improves by detecting the ceiling area which shows the ceiling 90 in which the illumination 94 is installed based on the highly probable ceiling illumination area which shows the illumination 94.

また、境界検出部300は、撮像部24により撮像された画像情報240において、当該画像情報240から検出した天井照明領域の周囲の領域を所定数の画素を含む統合用ブロックに分割し、当該統合用ブロックに含まれる画素の画素値によるヒストグラムを統合用ブロックごとに求め、これら統合用ブロックのヒストグラムの類似度に応じて天井領域を検出する。これにより、誤検出された天井照明領域を排除することができる。   In addition, the boundary detection unit 300 divides the area around the ceiling illumination area detected from the image information 240 into the integration blocks including a predetermined number of pixels in the image information 240 captured by the imaging unit 24, and performs the integration. A histogram based on pixel values of pixels included in the block for use is obtained for each integration block, and a ceiling area is detected according to the similarity of the histograms of the blocks for integration. Thereby, the erroneously detected ceiling illumination area can be eliminated.

また、回転角演算部302により演算された回転角Δθに応じて、画像情報240を回転させた修正画像情報311を作成する画像修正部303をさらに備えることにより、実空間に対して忠実な画像に関する情報を作成することができる。   In addition, the image correction unit 303 that generates the corrected image information 311 obtained by rotating the image information 240 in accordance with the rotation angle Δθ calculated by the rotation angle calculation unit 302 further includes an image faithful to the real space. Information about can be created.

なお、図6に示す画像情報240aには、第1壁面91と床面95との境界96も撮像されている。そして、境界96の画像情報240a内における傾きも境界93の場合と同様に、回転角Δθを推定するために用いることができる。しかし、通常、部屋9の床面95には様々な物体が置かれるため、これらの物体によって境界96が遮られる。すなわち、境界96は、撮像部24により確実に撮像されるとは限らない。したがって、境界96を検出するのではなく、角度検出システム1のように境界93を検出するように構成することが好ましい。   In the image information 240a shown in FIG. 6, the boundary 96 between the first wall surface 91 and the floor surface 95 is also imaged. The inclination of the boundary 96 in the image information 240a can be used to estimate the rotation angle Δθ as in the case of the boundary 93. However, since various objects are usually placed on the floor surface 95 of the room 9, the boundary 96 is blocked by these objects. That is, the boundary 96 is not always reliably imaged by the imaging unit 24. Therefore, it is preferable not to detect the boundary 96 but to detect the boundary 93 as in the angle detection system 1.

<2. 変形例>
以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
<2. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made.

例えば、上記実施の形態に示した各工程は、あくまでも例示であって、上記に示した順序や内容に限定されるものではない。すなわち、同様の効果が得られる範囲内において、適宜、順序や内容が変更されてもよい。   For example, each process shown in the above embodiment is merely an example, and is not limited to the order and contents shown above. That is, the order and contents may be changed as appropriate within a range in which similar effects can be obtained.

また、上記実施の形態に示した機能ブロック(例えば、境界検出部300や水平方向検出部301など)は、CPU30がプログラム310に従って動作することにより、ソフトウェア的に実現されると説明した。しかし、これらの機能ブロックの一部または全部を専用の論理回路で構成し、ハードウェア的に実現してもよい。   Further, it has been described that the functional blocks (for example, the boundary detection unit 300 and the horizontal direction detection unit 301) shown in the above embodiment are realized as software by the CPU 30 operating according to the program 310. However, some or all of these functional blocks may be configured by a dedicated logic circuit and realized in hardware.

また、閲覧装置3が備える機能ブロックのうちの一部が全方位カメラ2に設けられていてもよい。例えば、回転角Δωを全方位カメラ2のCPU20が演算するとともに、画像情報240を修正した修正画像情報311に相当する情報を作成してから、閲覧装置3に向けて当該情報を送信するように構成してもよい。   Moreover, some of the functional blocks included in the browsing device 3 may be provided in the omnidirectional camera 2. For example, the CPU 20 of the omnidirectional camera 2 calculates the rotation angle Δω, creates information corresponding to the corrected image information 311 obtained by correcting the image information 240, and transmits the information to the browsing device 3. It may be configured.

また、全方位カメラ2および閲覧装置3が一体的な装置によって構成されていてもよい。すなわち、角度検出システム1は、必ずしもネットワーク8によって複数の装置が接続される形態に限定されるものではない。   Moreover, the omnidirectional camera 2 and the browsing apparatus 3 may be comprised by the integrated apparatus. That is, the angle detection system 1 is not necessarily limited to a form in which a plurality of devices are connected by the network 8.

また、角度検出システム1は、回転角演算部302によって演算された回転角情報314に応じて、全方位カメラ2の撮像部24を回転させることにより、撮像部24の姿勢を較正する回転機構をさらに備えていてもよい。すなわち、回転角情報314を全方位カメラ2に向けて送信し、CPU20が当該回転機構を制御して、撮像部24のZ軸を中心軸として当該撮像部24を回転角情報314に応じて回転させることにより、撮像部24の水平方向(姿勢)を較正してもよい。このように構成することにより、調整後は、実空間に対して忠実な画像情報240を撮像することができる。   In addition, the angle detection system 1 includes a rotation mechanism that calibrates the posture of the imaging unit 24 by rotating the imaging unit 24 of the omnidirectional camera 2 in accordance with the rotation angle information 314 calculated by the rotation angle calculation unit 302. Furthermore, you may provide. That is, the rotation angle information 314 is transmitted to the omnidirectional camera 2, and the CPU 20 controls the rotation mechanism to rotate the imaging unit 24 according to the rotation angle information 314 with the Z axis of the imaging unit 24 as the central axis. By doing so, the horizontal direction (posture) of the imaging unit 24 may be calibrated. With this configuration, after adjustment, image information 240 that is faithful to the real space can be captured.

また、閲覧装置3は、所定の時間間隔で回転角Δωを演算し、検出した回転角Δωの絶対値が閾値以下となったときに、較正不要を示す一致情報を全方位カメラ2に向けて送信するようにしてもよい。この場合、全方位カメラ2は、当該一致情報を受信したときに、表示部23にその旨を示す情報を表示してもよい。表示の仕方としては、例えば、一致情報を受信したときに、表示部23のランプの光を「赤」から「緑」に変更するなどが想定される。この場合、設置工事担当者は、表示部23のランプが「緑」になるまでは、全方位カメラ2の姿勢を動かし、当該ランプが「緑」になったことを確認したときに、その姿勢で全方位カメラ2を固定し設置するようにする。このように構成することにより、設置工事担当者は、直接、閲覧装置3の表示部33を閲覧して画像情報240を確認する必要がなく、設置工事担当者の負担が軽減されるとともに、全方位カメラ2に回転機構などを設ける必要もない。   Further, the browsing device 3 calculates the rotation angle Δω at a predetermined time interval, and when the absolute value of the detected rotation angle Δω is equal to or smaller than the threshold value, coincidence information indicating that calibration is unnecessary is directed to the omnidirectional camera 2. You may make it transmit. In this case, when the omnidirectional camera 2 receives the matching information, the omnidirectional camera 2 may display information indicating that on the display unit 23. As a display method, for example, when matching information is received, it is assumed that the light of the lamp of the display unit 23 is changed from “red” to “green”. In this case, the person in charge of the installation work moves the posture of the omnidirectional camera 2 until the lamp of the display unit 23 becomes “green”, and confirms that the lamp has turned “green”. The omnidirectional camera 2 is fixed and installed. With this configuration, the person in charge of installation work does not need to directly check the image information 240 by browsing the display unit 33 of the browsing device 3, and the burden on the person in charge of installation work is reduced. There is no need to provide a rotation mechanism or the like in the direction camera 2.

1 角度検出システム
2 全方位カメラ
20,30 CPU
21,31 記憶装置
210,310 プログラム
22,32 操作部
23,33 表示部
24 撮像部
240,240a 画像情報
241 撮像領域
25,35 通信部
3 閲覧装置
300 境界検出部
301 水平方向検出部
302 回転角演算部
303 画像修正部
311 修正画像情報
312 境界情報
313 水平方向情報
314 回転角情報
5 周縁部
60,61 天井候補領域
70,71,72,73,74,75,76,77 天井照明領域
8 ネットワーク
9 部屋
90 天井
91 第1壁面
92 第2壁面
93,96 境界
94 照明
95 床面
1 Angle detection system 2 Omnidirectional camera 20,30 CPU
21, 31 Storage device 210, 310 Program 22, 32 Operation unit 23, 33 Display unit 24 Imaging unit 240, 240a Image information 241 Imaging region 25, 35 Communication unit 3 Browsing device 300 Boundary detection unit 301 Horizontal direction detection unit 302 Rotation angle Arithmetic unit 303 Image correction unit 311 Modified image information 312 Boundary information 313 Horizontal direction information 314 Rotation angle information 5 Peripheral part 60, 61 Ceiling candidate area 70, 71, 72, 73, 74, 75, 76, 77 Ceiling illumination area 8 Network 9 rooms 90 ceiling 91 first wall 92 second wall 93,96 boundary 94 lighting 95 floor

Claims (9)

天井と前記天井に隣接する第1壁面との境界を画像情報として撮像する撮像手段と、
前記撮像手段により撮像された画像情報に撮像されている前記境界を検出する境界検出手段と、
前記境界検出手段により検出された境界に応じて、当該境界が検出された画像情報における水平方向を検出する水平方向検出手段と、
前記水平方向検出手段により検出された画像情報における水平方向に基づいて、当該画像情報の実空間に対する回転角を演算する回転角演算手段と、
を備える角度検出システム。
Imaging means for imaging the boundary between the ceiling and the first wall surface adjacent to the ceiling as image information;
Boundary detection means for detecting the boundary imaged in the image information imaged by the imaging means;
In accordance with the boundary detected by the boundary detection means, horizontal direction detection means for detecting the horizontal direction in the image information in which the boundary is detected;
Based on the horizontal direction in the image information detected by the horizontal direction detection means, a rotation angle calculation means for calculating the rotation angle of the image information with respect to the real space;
An angle detection system comprising:
請求項1に記載の角度検出システムであって、
前記境界検出手段は、前記撮像手段により撮像された画像情報から前記天井が撮像されている天井領域を検出し、検出した前記天井領域の周縁部に応じて前記境界を検出する角度検出システム。
The angle detection system according to claim 1,
The angle detection system, wherein the boundary detection unit detects a ceiling region where the ceiling is imaged from image information captured by the imaging unit, and detects the boundary according to a detected peripheral edge of the ceiling region.
請求項2に記載の角度検出システムであって、
前記境界検出手段は、前記撮像手段により撮像された画像情報に含まれる各画素の画素値に応じて、照明が撮像されている照明領域を検出することにより、前記天井領域を検出する角度検出システム。
The angle detection system according to claim 2,
The boundary detection unit detects the ceiling region by detecting an illumination region in which illumination is imaged according to a pixel value of each pixel included in image information captured by the imaging unit. .
請求項3に記載の角度検出システムであって、
前記境界検出手段は、前記撮像手段により撮像された画像情報において、当該画像情報から検出した照明領域の周囲の領域を所定数の画素を含むブロックに分割し、前記ブロックに含まれる画素の画素値によるヒストグラムを前記ブロックごとに求め、前記ブロックのヒストグラムの類似度に応じて前記天井領域を検出する角度検出システム。
The angle detection system according to claim 3,
The boundary detection unit divides a region around the illumination region detected from the image information in the image information captured by the imaging unit into blocks including a predetermined number of pixels, and pixel values of the pixels included in the block An angle detection system that obtains the histogram for each block and detects the ceiling area according to the similarity of the histograms of the blocks.
請求項1ないし4のいずれかに記載の角度検出システムであって、
前記回転角演算手段により演算された回転角に応じて、前記画像情報を回転させた修正画像情報を作成する画像修正手段をさらに備える角度検出システム。
The angle detection system according to any one of claims 1 to 4,
An angle detection system further comprising image correction means for creating corrected image information obtained by rotating the image information according to the rotation angle calculated by the rotation angle calculation means.
請求項1ないし5のいずれかに記載の角度検出システムであって、
前記回転角演算手段により演算された回転角に応じて、前記撮像手段における水平方向を回転させる回転手段をさらに備える角度検出システム。
An angle detection system according to any one of claims 1 to 5,
An angle detection system further comprising a rotation unit that rotates a horizontal direction of the imaging unit according to the rotation angle calculated by the rotation angle calculation unit.
請求項1ないし6のいずれかに記載の角度検出システムであって、
前記撮像手段は、前記第1壁面に対向する第2壁面に設置された全方位カメラである角度検出システム。
The angle detection system according to any one of claims 1 to 6,
The angle detection system, wherein the imaging means is an omnidirectional camera installed on a second wall surface facing the first wall surface.
コンピュータ読み取り可能なプログラムであって、前記コンピュータによる前記プログラムの実行は、前記コンピュータを、
天井と前記天井に隣接する第1壁面との境界を画像情報として撮像する撮像手段と、
前記撮像手段により撮像された画像情報に撮像されている前記境界を検出する境界検出手段と、
前記境界検出手段により検出された境界に応じて、当該境界が検出された画像情報における水平方向を検出する水平方向検出手段と、
前記水平方向検出手段により検出された画像情報における水平方向に基づいて、当該画像情報の実空間に対する回転角を演算する回転角演算手段と、
を備える角度検出システムとして機能させるプログラム。
A computer-readable program, wherein execution of the program by the computer causes the computer to
Imaging means for imaging the boundary between the ceiling and the first wall surface adjacent to the ceiling as image information;
Boundary detection means for detecting the boundary imaged in the image information imaged by the imaging means;
In accordance with the boundary detected by the boundary detection means, horizontal direction detection means for detecting the horizontal direction in the image information in which the boundary is detected;
Based on the horizontal direction in the image information detected by the horizontal direction detection means, a rotation angle calculation means for calculating the rotation angle of the image information with respect to the real space;
A program that functions as an angle detection system.
天井と前記天井に隣接する第1壁面との境界を画像情報として撮像する工程と、
撮像された画像情報に撮像されている前記境界を検出する工程と、
検出された境界に応じて、当該境界が検出された画像情報における水平方向を検出する工程と、
検出された画像情報における水平方向に基づいて、当該画像情報の実空間に対する回転角を演算する工程と、
を有する角度検出方法。
Imaging a boundary between a ceiling and a first wall surface adjacent to the ceiling as image information;
Detecting the boundary imaged in the imaged image information;
Detecting a horizontal direction in the image information in which the boundary is detected according to the detected boundary;
A step of calculating a rotation angle of the image information with respect to a real space based on a horizontal direction in the detected image information;
An angle detection method comprising:
JP2015025998A 2015-02-13 2015-02-13 Angle detection system, program and angle detection method Expired - Fee Related JP6521658B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015025998A JP6521658B2 (en) 2015-02-13 2015-02-13 Angle detection system, program and angle detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015025998A JP6521658B2 (en) 2015-02-13 2015-02-13 Angle detection system, program and angle detection method

Publications (2)

Publication Number Publication Date
JP2016148602A true JP2016148602A (en) 2016-08-18
JP6521658B2 JP6521658B2 (en) 2019-05-29

Family

ID=56691173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015025998A Expired - Fee Related JP6521658B2 (en) 2015-02-13 2015-02-13 Angle detection system, program and angle detection method

Country Status (1)

Country Link
JP (1) JP6521658B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236509A (en) * 2000-02-24 2001-08-31 Minolta Co Ltd Device and method for detecting inclination of subject
JP2013029991A (en) * 2011-07-28 2013-02-07 Toa Corp Image processing device, and electronic camera and image reproducing device including the image processing device
JP2013524593A (en) * 2010-03-26 2013-06-17 アルカテル−ルーセント Methods and configurations for multi-camera calibration

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236509A (en) * 2000-02-24 2001-08-31 Minolta Co Ltd Device and method for detecting inclination of subject
JP2013524593A (en) * 2010-03-26 2013-06-17 アルカテル−ルーセント Methods and configurations for multi-camera calibration
JP2013029991A (en) * 2011-07-28 2013-02-07 Toa Corp Image processing device, and electronic camera and image reproducing device including the image processing device

Also Published As

Publication number Publication date
JP6521658B2 (en) 2019-05-29

Similar Documents

Publication Publication Date Title
CN106558026B (en) Deviating user interface
CN108989777B (en) Projection apparatus, control method of projection apparatus, and non-transitory storage medium
US9295141B2 (en) Identification device, method and computer program product
KR101146119B1 (en) Method and apparatus for determining positions of robot
US20120176303A1 (en) Gesture recognition apparatus and method of gesture recognition
CN106558027B (en) Method for estimating deviation error in camera pose
JP7058471B2 (en) Image processing device, image processing method
US20230040665A1 (en) Air-conditioning operation terminal, computer-readable medium and air-conditioning system
JP5019478B2 (en) Marker automatic registration method and system
US9606639B2 (en) Pointing system and display having improved operable range
US8692879B2 (en) Image capturing system, image capturing device, information processing device, and image capturing method
US11195328B2 (en) 3D model generation system and method
JP5631065B2 (en) Video distribution system, control terminal, network camera, control method and program
JPWO2005096130A1 (en) Method and apparatus for detecting designated position of imaging apparatus, and program for detecting designated position of imaging apparatus
CN106464823A (en) Method and apparatus for interacting with display screen
WO2021004413A1 (en) Handheld input device and blanking control method and apparatus for indication icon of handheld input device
JP2021027584A (en) Image processing device, image processing method, and program
WO2020066711A1 (en) Interior finishing material inspection system and interior finishing material inspection method
JP6686319B2 (en) Image projection device and image display system
JP2016148602A (en) Angle detection system, program, and angle detection method
JP5960471B2 (en) Image monitoring device
JP7272118B2 (en) Intrusion detection devices, programs and intrusion detection systems
JP2018182712A (en) Monitor system and imaging direction control device
JP6427888B2 (en) Image display system, image display apparatus, and image display method
US20220030206A1 (en) Information processing apparatus, information processing method, program, and projection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181114

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190423

R150 Certificate of patent or registration of utility model

Ref document number: 6521658

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees