JP2007255955A - Attitude angle detector and camera - Google Patents

Attitude angle detector and camera Download PDF

Info

Publication number
JP2007255955A
JP2007255955A JP2006078014A JP2006078014A JP2007255955A JP 2007255955 A JP2007255955 A JP 2007255955A JP 2006078014 A JP2006078014 A JP 2006078014A JP 2006078014 A JP2006078014 A JP 2006078014A JP 2007255955 A JP2007255955 A JP 2007255955A
Authority
JP
Japan
Prior art keywords
angle
video
image
vector
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006078014A
Other languages
Japanese (ja)
Inventor
Tetsuji Naoi
哲二 直井
Takashi Kurokawa
孝 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2006078014A priority Critical patent/JP2007255955A/en
Publication of JP2007255955A publication Critical patent/JP2007255955A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To measure an attitude angle even of a moving body whose small mounting weight and small mounting space. <P>SOLUTION: First, a horizontal line detecting section 9 extracts horizontal lines from the longitudinal video and side video of the moving body photographed by a camera system 7. Next, the horizontal line detecting section 9 calculates the pitch angle ϕ and roll angle θ, based on the position of the horizontal line in the longitudinal video and the position of the horizontal line in the side video. A target extraction section 11 extracts a known object from at least one of the longitudinal video and side video. Next, the target extraction section 11 calculates the vector P<SB>1</SB>showing the direction from the moving body to the known object based on the longitudinal video and side video. An attitude angle calculation section 14 calculates the vector P<SB>0</SB>showing the direction from the moving body to the known object based on the positioning coordinate of the moving body positioned by a GPS (Global Positioning System) 33 and a known coordinate of the known object. The attitude angle calculation section 14 calculates the yaw angle ψ, based on the vector P<SB>0</SB>, vector P<SB>1</SB>, pitch angle ϕ and roll angle θ. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、例えば、移動体の姿勢角を検出するシステムにおける姿勢角検出装置とカメラに関するものである。   The present invention relates to an attitude angle detection device and a camera in a system that detects an attitude angle of a moving body, for example.

移動体の姿勢角を検出する手段として、すでに多くの手法が存在し、一般的には姿勢角検出に特化した装置を移動体へ搭載している。   Many means already exist as means for detecting the posture angle of the moving body, and generally a device specialized for posture angle detection is mounted on the moving body.

このようなシステムの一例として、ジャイロ等による機構的なセンサによって、姿勢角を検知する従来技術が知られている(たとえば、特許文献1)。   As an example of such a system, a conventional technique for detecting an attitude angle by a mechanical sensor such as a gyro is known (for example, Patent Document 1).

また、小型の移動体では、搭載ペイロード(重量およびスペース)が限られているため、撮影を行うためのカメラ以外に、このような姿勢角を計測する専用の装置を搭載できない。
特開2000−97637号公報
In addition, since a small mobile body has a limited payload (weight and space), a dedicated device for measuring such an attitude angle cannot be mounted in addition to a camera for performing shooting.
JP 2000-97637 A

つまり、従来は、小型の移動体にカメラ等のセンサを搭載し、観測システムを構築する場合、搭載重量および搭載スペースの面から、姿勢角を検出するようなシステムを搭載することが困難であった。
この場合、撮影を行うためのカメラを共有した姿勢角の検出システムが必要となる。
また、観測システムで取得した映像の位置を特定するためには、映像中の道路や河川等の特徴と地図上の道路や河川とを照合して映像位置を判断する必要があり、時間がかかっていた。
In other words, in the past, when a sensor such as a camera was mounted on a small mobile body and an observation system was constructed, it was difficult to mount a system that detects the posture angle from the viewpoint of mounting weight and mounting space. It was.
In this case, a posture angle detection system sharing a camera for shooting is required.
In addition, in order to identify the position of the video acquired by the observation system, it is necessary to determine the video position by comparing the characteristics of roads and rivers in the video with the roads and rivers on the map. It was.

本発明は、例えば、搭載重量が少なく、搭載スペースが小さい移動体でも姿勢角を計測できるようにすることを目的とする。
また、例えば、映像と地図とを照合する必要なく姿勢角を計測できるようにすることを目的とする。
An object of the present invention is to make it possible to measure a posture angle even with a moving body that has a small mounting weight and a small mounting space.
Another object of the present invention is to make it possible to measure a posture angle without having to collate a video with a map.

本発明の姿勢角検出装置は、移動体の姿勢角としてピッチ角φとロール角θとヨー角ψとを検出する姿勢角検出装置であり、カメラにより撮影された移動体の前方と後方との少なくともいずれかを表わす前後映像とカメラにより撮影された移動体の右側方と左側方との少なくともいずれかを表わす側方映像とを記憶する映像記憶機器と、前記映像記憶機器から前後映像と側方映像とを取得し取得した前後映像と側方映像とから水平線を中央処理装置を用いて抽出する水平線抽出部と、前記水平線抽出部が前後映像から抽出した水平線の前後映像における位置と前記水平線抽出部が側方映像から抽出した水平線の側方映像における位置とに基づいてピッチ角φとロール角θとを中央処理装置を用いて算出するピッチ−ロール算出部と、測位機により測位された移動体の測位座標と既知物の既知座標とに基づいて移動体から既知物への方向ベクトルPを中央処理装置を用いて算出するベクトルP算出部と、前記映像記憶機器から前後映像と側方映像とを取得し取得した前後映像と側方映像との少なくともいずれかから既知物を中央処理装置を用いて抽出する既知物抽出部と、前記既知物抽出部が抽出した既知物の前後映像と側方映像との少なくともいずれかにおける位置に基づいて移動体から既知物への方向ベクトルPを中央処理装置を用いて算出するベクトルP算出部と、前記ベクトルP算出部が算出した方向ベクトルPと前記ベクトルP算出部が算出した方向ベクトルPと前記ピッチ−ロール算出部が算出したピッチ角φと前記ピッチ−ロール算出部が算出したロール角θとに基づいて中央処理装置を用いてヨー角ψを算出するヨー角ψ算出部とを備えたことを特徴とする。 The posture angle detection device of the present invention is a posture angle detection device that detects a pitch angle φ, a roll angle θ, and a yaw angle ψ as a posture angle of a moving body, and includes a front and rear of the moving body photographed by a camera. A video storage device for storing at least one of the front and rear video images and a side video image of at least one of the right side and the left side of the moving object photographed by the camera; A horizontal line extraction unit that extracts a horizontal line from a front and rear image and a side image acquired by using a central processing unit, and a position of the horizontal line extracted from the front and rear image by the horizontal line extraction unit and the horizontal line extraction A pitch-roll calculating unit that calculates a pitch angle φ and a roll angle θ using a central processing unit based on the position in the side image of the horizontal line extracted from the side image by the unit, and a positioning device A vector P 0 calculation unit for calculating a direction vector P 0 from the moving object to the known object using the central processing unit based on the positioning coordinates of the measured moving object and the known coordinates of the known object, and the video storage device A known object extraction unit that extracts a known object using a central processing unit from at least one of the front and rear image and the side image obtained by acquiring the front and rear image and the side image, and the known object extracted by the known object extraction unit A vector P 1 calculation unit that calculates a direction vector P 1 from the moving object to the known object using a central processing unit based on a position in at least one of the front and rear images and the side image of the object, and the vector P 0 calculation the parts with the direction vector P 0 calculated is the vector P 1 calculation unit and the direction vector P 1 calculated pitch - the pitch angle φ of the roll calculating unit has calculated pitch - b roll calculating unit has calculated And a yaw angle ψ calculating unit for calculating a yaw angle ψ using a central processing unit based on the control angle θ.

本発明によれば、カメラが撮影した画像に基づいて移動体の姿勢角を検出することにより、姿勢角の検出のためにジャイロなどを別途搭載する必要がないため、搭載重量が少なく、搭載スペースが小さい移動体でも姿勢角を計測できる。
また、地図との照合を必要とせず姿勢角の検出時間を短縮することができる。
According to the present invention, since the posture angle of the moving body is detected based on the image taken by the camera, it is not necessary to separately mount a gyro etc. for detecting the posture angle, so the mounting weight is small and the mounting space is small. The posture angle can be measured even with a small moving body.
In addition, the posture angle detection time can be shortened without the need for collation with the map.

実施の形態1.
図1は、実施の形態1における姿勢角を検出する移動体(姿勢角検出システム)の構成図である。
実施の形態1における姿勢角検出システムである移動体の構成と移動体の姿勢角を検出する姿勢角検出装置30の構成とについて図1に基づいて以下に説明する。
Embodiment 1 FIG.
FIG. 1 is a configuration diagram of a mobile body (posture angle detection system) that detects a posture angle in the first embodiment.
The configuration of the moving body that is the posture angle detection system in the first embodiment and the configuration of the posture angle detection apparatus 30 that detects the posture angle of the moving body will be described below with reference to FIG.

姿勢角検出システムである移動体はカメラシステム7、GPS33および姿勢角検出装置30を備える。移動体は、例えば、航空機、車両、無人飛行機、自律歩行ロボットなどである。
カメラシステム7(カメラ)は水平方向に360°、垂直方向も広い角度(180°以上)の視野方向について撮影を行う。カメラシステム7の詳細については別途説明する(実施の形態2参照)。また、カメラシステム7は図1のように上方を向いていなくても構わない。例えば、カメラシステム7は下方を向いていても構わない。
GPS33(測位機)はGPS(Global Positioning System)を利用して移動体の測位を行う。一般的に観測システムは位置の検出のためにGPS33を備えている。
姿勢角検出装置30はカメラシステム7から映像信号8を入力し、移動体の姿勢角としてヨー角ψ(Yaw角:方位角)とピッチ角φ(Pitch角:仰角)とロール角θ(Roll角:回転角)とを検出する。
A mobile body that is an attitude angle detection system includes a camera system 7, a GPS 33, and an attitude angle detection device 30. The moving body is, for example, an aircraft, a vehicle, an unmanned airplane, an autonomous walking robot, or the like.
The camera system 7 (camera) performs imaging in a viewing direction of 360 ° in the horizontal direction and a wide angle (180 ° or more) in the vertical direction. Details of the camera system 7 will be described separately (see Embodiment 2). Further, the camera system 7 does not have to face upward as shown in FIG. For example, the camera system 7 may face downward.
The GPS 33 (positioning device) performs positioning of the moving object using GPS (Global Positioning System). In general, the observation system includes a GPS 33 for detecting the position.
The posture angle detection device 30 receives the video signal 8 from the camera system 7, and the yaw angle ψ (Yaw angle: azimuth angle), pitch angle φ (Pitch angle: elevation angle), and roll angle θ (Roll angle) as the posture angle of the moving body. : Rotation angle).

重力方向をZ方向、重力方向と直角な水平面において移動体の前後方向をY方向、側方方向をX方向とした場合、ヨー角ψは移動体が左右に向いた姿勢であり移動体がY−Z面に成すX方向の角度であり、ピッチ角φは移動体が見上げているまたは見下ろしている姿勢であり移動体がX−Y面に対して成すZ方向の角度であり、ロール角θは移動体がY方向を回転軸として回転したときのX−Y面またはY−Z面に対して成す角度である。   When the gravity direction is the Z direction, the front-rear direction of the moving body is the Y direction, and the lateral direction is the X direction on a horizontal plane perpendicular to the gravity direction, the yaw angle ψ is the posture in which the moving body is directed left and right. The angle in the X direction formed on the −Z plane, the pitch angle φ is the posture that the moving body is looking up or looking down, the angle in the Z direction that the moving body forms with respect to the XY plane, and the roll angle θ Is an angle formed with respect to the XY plane or the YZ plane when the moving body rotates about the Y direction as a rotation axis.

また、姿勢角検出装置30は水平線検出部9、目標抽出部11、姿勢角算出部14、映像記憶機器31および位置記憶機器32を備える。
映像記憶機器31はカメラシステム7(カメラ)から映像信号8を入力し、カメラシステム7により撮影された移動体の前方と後方との少なくともいずれかを表わす前後映像と、カメラシステム7により撮影された移動体の右側方と左側方との少なくともいずれかを表わす側方映像とを記憶する。
水平線検出部9(水平線抽出部、ピッチ−ロール算出部)は映像記憶機器31から前後映像と側方映像とを取得し、取得した前後映像と側方映像とから水平線をCPU911(図2参照)を用いて抽出する。また、水平線検出部9は前後映像から抽出した水平線の前後映像における位置と、側方映像から抽出した水平線の側方映像における位置とに基づいて、ピッチ角φとロール角θとをCPU911を用いて算出する。水平線検出部9は算出したピッチ角φとロール角θとを水平線位置情報10として姿勢角算出部14に出力する。
位置記憶機器32はGPS33からカメラ位置情報13を入力し、GPS33が測位した移動体の座標(測位座標)を記憶する。また、位置記憶機器32は太陽、月、北極星等の既知物の座標(既知座標)が記憶されている。
目標抽出部11(既知物抽出部、ベクトルP算出部)は映像記憶機器31から前後映像と側方映像とを取得し、取得した前後映像と側方映像との少なくともいずれかから既知物をCPU911を用いて抽出する。また、目標抽出部11は、抽出した既知物の前後映像と側方映像との少なくともいずれかにおける位置に基づいて、移動体から既知物への極座標ベクトルP(方向ベクトルP)をCPU911を用いて算出する。目標抽出部11は算出した極座標ベクトルP(方向ベクトルP)を既知目標方向12として姿勢角算出部14に出力する。
姿勢角算出部14(ベクトルP算出部、ヨー角ψ算出部)は、位置記憶機器32に記憶された移動体の測位座標と既知物の既知座標とに基づいて、移動体から既知物への極座標ベクトルP(方向ベクトルP)をCPU911を用いて算出する。また、姿勢角算出部14は、自ら算出した極座標ベクトルP(方向ベクトルP)と目標抽出部11が算出した極座標ベクトルP(方向ベクトルP)と水平線検出部9が算出したピッチ角φとロール角θとに基づいて、CPU911を用いて、ヨー角ψを算出する。
姿勢角算出部14は、姿勢角を記憶機器に記憶する。また、姿勢角算出部14は、姿勢角を通信機を用いて送信してもよいし、ディスプレイを用いて表示してもよいし、プリンタを用いて印刷してもよい。
In addition, the posture angle detection device 30 includes a horizontal line detection unit 9, a target extraction unit 11, a posture angle calculation unit 14, a video storage device 31, and a position storage device 32.
The video storage device 31 receives the video signal 8 from the camera system 7 (camera), and the front and rear images representing at least one of the front and rear of the moving object photographed by the camera system 7 and the camera system 7 photographed. A side image representing at least one of the right side and the left side of the moving body is stored.
The horizontal line detection unit 9 (horizontal line extraction unit, pitch-roll calculation unit) acquires the front and rear images and the side images from the video storage device 31, and the CPU 911 (see FIG. 2) determines the horizontal lines from the acquired front and rear images and the side images. Extract using. Further, the horizontal line detection unit 9 uses the CPU 911 to calculate the pitch angle φ and the roll angle θ based on the position of the horizontal line extracted from the front and back images in the front and rear images and the position of the horizontal line extracted from the side images in the side images. To calculate. The horizontal line detection unit 9 outputs the calculated pitch angle φ and roll angle θ as horizontal line position information 10 to the posture angle calculation unit 14.
The position storage device 32 receives the camera position information 13 from the GPS 33 and stores the coordinates (positioning coordinates) of the moving body measured by the GPS 33. Further, the position storage device 32 stores coordinates (known coordinates) of known objects such as the sun, the moon, and the North Star.
Target extracting unit 11 (known extraction unit, a vector P 1 calculation unit) acquires the front and rear image and the lateral image from the video storage device 31, a known material from at least one of the acquired longitudinal image and the side image Extraction is performed using the CPU 911. Further, the target extraction unit 11 sends the polar coordinate vector P 1 (direction vector P 1 ) from the moving object to the known object to the CPU 911 based on the position of at least one of the front and rear images and the side image of the extracted known object. Use to calculate. The target extraction unit 11 outputs the calculated polar coordinate vector P 1 (direction vector P 1 ) to the attitude angle calculation unit 14 as the known target direction 12.
The attitude angle calculation unit 14 (vector P 0 calculation unit, yaw angle ψ calculation unit) changes from the moving object to the known object based on the positioning coordinates of the moving object and the known coordinates of the known object stored in the position storage device 32. The polar coordinate vector P 0 (direction vector P 0 ) is calculated using the CPU 911. The posture angle calculation unit 14 also calculates the polar coordinate vector P 0 (direction vector P 0 ) calculated by itself, the polar coordinate vector P 1 (direction vector P 1 ) calculated by the target extraction unit 11, and the pitch angle calculated by the horizontal line detection unit 9. Based on φ and the roll angle θ, the CPU 911 is used to calculate the yaw angle ψ.
The posture angle calculation unit 14 stores the posture angle in a storage device. Further, the posture angle calculation unit 14 may transmit the posture angle using a communication device, may display the posture angle using a display, or may print using a printer.

図2は、実施の形態1における姿勢角検出装置30のハードウェア資源の一例を示す図である。
図2において、姿勢角検出装置30は、プログラムを実行するCPU911(Central・Processing・Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサともいう)を備えている。CPU911は、バス912を介してROM913、RAM914、通信ボード915、磁気ディスク装置920と接続され、これらのハードウェアデバイスを制御する。磁気ディスク装置920の代わりに、光ディスク装置、メモリカード読み書き装置などの記憶装置でもよい。
RAM914は、揮発性メモリの一例である。ROM913、磁気ディスク装置920の記憶媒体は、不揮発性メモリの一例である。これらは、記憶機器、記憶装置あるいは記憶部の一例である。
通信ボード915は入出力機器、入出力装置あるいは入出力部の一例である。
FIG. 2 is a diagram illustrating an example of hardware resources of the attitude angle detection device 30 according to the first embodiment.
In FIG. 2, the attitude angle detection device 30 includes a CPU 911 (also referred to as a central processing unit, a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, or a processor) that executes a program. The CPU 911 is connected to the ROM 913, the RAM 914, the communication board 915, and the magnetic disk device 920 via the bus 912, and controls these hardware devices. Instead of the magnetic disk device 920, a storage device such as an optical disk device or a memory card read / write device may be used.
The RAM 914 is an example of a volatile memory. The storage medium of the ROM 913 and the magnetic disk device 920 is an example of a nonvolatile memory. These are examples of a storage device, a storage device, or a storage unit.
The communication board 915 is an example of an input / output device, an input / output device, or an input / output unit.

通信ボード915は、有線または無線で、LAN(Local Area Network)、インターネット、ISDN等のWAN(ワイドエリアネットワーク)、電話回線などの通信網に接続されている。
磁気ディスク装置920には、OS921(オペレーティングシステム)、プログラム群923、ファイル群924が記憶されている。プログラム群923のプログラムは、CPU911、OS921により実行される。
The communication board 915 is wired or wirelessly connected to a communication network such as a LAN (Local Area Network), the Internet, a WAN (Wide Area Network) such as ISDN, and a telephone line.
The magnetic disk device 920 stores an OS 921 (operating system), a program group 923, and a file group 924. The programs in the program group 923 are executed by the CPU 911 and the OS 921.

上記プログラム群923には、実施の形態の説明において「〜部」として説明する機能を実行するプログラムが記憶されている。プログラムは、CPU911により読み出され実行される。
ファイル群924には、実施の形態の説明において、「〜部」の機能を実行した際の「〜の判定結果」、「〜の計算結果」、「〜の処理結果」などの結果データ、「〜部」の機能を実行するプログラム間で受け渡しするデータ、その他の情報やデータや信号値や変数値やパラメータが、「〜ファイル」や「〜データベース」の各項目として記憶されている。「〜ファイル」や「〜データベース」は、ディスクやメモリなどの記録媒体に記憶される。ディスクやメモリなどの記憶媒体に記憶された情報やデータや信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示などのCPUの動作に用いられる。抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示・抽出のCPUの動作の間、情報やデータや信号値や変数値やパラメータは、メインメモリやキャッシュメモリやバッファメモリに一時的に記憶される。
また、実施の形態の説明において説明するフローチャートの矢印の部分は主としてデータや信号の入出力を示し、データや信号値は、RAM914のメモリ、磁気ディスク装置920の磁気ディスク、その他の記録媒体に記録される。また、データや信号値は、バス912や信号線やケーブルその他の伝送媒体によりオンライン伝送される。
The program group 923 stores a program for executing a function described as “˜unit” in the description of the embodiment. The program is read and executed by the CPU 911.
In the file group 924, in the description of the embodiment, result data such as “determination result of”, “calculation result of”, “processing result of”, and the like when the “˜part” function is executed, Data to be passed between programs that execute the function of “˜part”, other information and data, signal values, variable values, and parameters are stored as items of “˜file” and “˜database”. The “˜file” and “˜database” are stored in a recording medium such as a disk or a memory. Information, data, signal values, variable values, and parameters stored in a storage medium such as a disk or memory are read out to the main memory or cache memory by the CPU 911 via a read / write circuit, and extracted, searched, referenced, compared, and calculated. Used for CPU operations such as calculation, processing, output, printing, and display. Information, data, signal values, variable values, and parameters are stored in the main memory, cache memory, and buffer memory during the CPU operations of extraction, search, reference, comparison, operation, calculation, processing, output, printing, display, and extraction. Temporarily stored.
In addition, arrows in the flowcharts described in the description of the embodiment mainly indicate input / output of data and signals, and the data and signal values are recorded in the memory of the RAM 914, the magnetic disk of the magnetic disk device 920, and other recording media. Is done. Data and signal values are transmitted online via a bus 912, signal lines, cables, or other transmission media.

また、実施の形態の説明において「〜部」として説明するものは、「〜回路」、「〜装置」、「〜機器」、「手段」であってもよく、また、「〜ステップ」、「〜手順」、「〜処理」であってもよい。すなわち、「〜部」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、素子・デバイス・基板・配線などのハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。ファームウェアとソフトウェアは、プログラムとして、磁気ディスクやその他の記録媒体に記憶される。プログラムはCPU911により読み出され、CPU911により実行される。すなわち、プログラムは、「〜部」としてコンピュータを機能させるものである。あるいは、「〜部」の手順や方法をコンピュータに実行させるものである。   In addition, what is described as “˜unit” in the description of the embodiment may be “˜circuit”, “˜device”, “˜device”, “means”, and “˜step”, “ ~ Procedure "," ~ process ". That is, what is described as “˜unit” may be realized by firmware stored in the ROM 913. Alternatively, it may be implemented only by software, or only by hardware such as elements, devices, substrates, and wirings, by a combination of software and hardware, or by a combination of firmware. Firmware and software are stored as programs on a magnetic disk or other recording medium. The program is read by the CPU 911 and executed by the CPU 911. That is, the program causes the computer to function as “to part”. Alternatively, the procedure or method of “to part” is executed by a computer.

図3は、実施の形態1における移動体(姿勢角検出システム)の姿勢角検出方法を示すフローチャートである。
実施の形態1における姿勢角検出装置30、カメラシステム7およびGPS33が実行する姿勢角検出処理について、図3に基づいて以下に説明する。
FIG. 3 is a flowchart showing a posture angle detection method of the moving body (posture angle detection system) in the first embodiment.
Attitude angle detection processing executed by the attitude angle detection device 30, the camera system 7, and the GPS 33 in the first embodiment will be described below with reference to FIG.

<S101:撮影処理>
まず、カメラシステム7が移動体のほぼ全周囲の映像を撮影する。
カメラシステム7は後述する実施の形態2のカメラシステムまたは複数のカメラによりほぼ全周囲を撮影できるカメラシステムで映像信号8を出力する。なお、カメラシステム7を移動体へ取り付けた際に移動体の機体軸に対してカメラシステム7の機体軸のズレを測定し、測定したズレ分を補正することにより、カメラシステム7で撮影した映像上の位置を移動体の機体軸の座標系(極座標)で表わすことができる。そして、カメラシステム7で撮影した映像上の位置を移動体から見た方向を示す極座標ベクトルで表わすことができる。姿勢角検出装置30は、例えば、カメラシステム7で撮影した映像上の一点についてロール角θ、ピッチ角φ、ヨー角ψの少なくともいずれかで表わすことができる。
姿勢角検出装置30はカメラシステム7が出力した映像信号8の示す映像(前方映像、側方映像、特定映像など)を映像記憶機器31に記憶する。
<S101: Shooting process>
First, the camera system 7 captures an image of almost the entire periphery of the moving body.
The camera system 7 outputs the video signal 8 by a camera system according to a second embodiment described later or a camera system capable of photographing almost the entire periphery using a plurality of cameras. Note that when the camera system 7 is attached to the moving body, the displacement of the body axis of the camera system 7 is measured with respect to the body axis of the moving body, and the image taken by the camera system 7 is corrected by correcting the measured displacement. The upper position can be expressed by the coordinate system (polar coordinates) of the body axis of the moving body. And the position on the image | video image | photographed with the camera system 7 can be represented by the polar coordinate vector which shows the direction seen from the moving body. The attitude angle detection device 30 can be expressed by, for example, at least one of a roll angle θ, a pitch angle φ, and a yaw angle ψ for one point on an image captured by the camera system 7.
The attitude angle detection device 30 stores the video (front video, side video, specific video, etc.) indicated by the video signal 8 output from the camera system 7 in the video storage device 31.

<S102:測位処理>
また、GPS33が移動体の位置を測位する。
GPS33はカメラシステム7による撮影時に移動体が位置する座標を測位し、測位した座標を示すカメラ位置情報13を出力する。GPS33が測位した座標と移動体の極座標とはそれぞれの座標系で表わすことができる。例えば、姿勢角検出装置30はGPS33が測位した座標を極座標に変換することができる。
姿勢角検出装置30はGPS33が出力したカメラ位置情報13の示す移動体の座標を位置記憶機器32に記憶する。
<S102: Positioning process>
The GPS 33 measures the position of the moving body.
The GPS 33 measures the coordinates at which the moving body is located at the time of photographing by the camera system 7 and outputs camera position information 13 indicating the measured coordinates. The coordinates determined by the GPS 33 and the polar coordinates of the moving body can be represented by respective coordinate systems. For example, the attitude angle detection device 30 can convert coordinates measured by the GPS 33 into polar coordinates.
The attitude angle detection device 30 stores the coordinates of the moving body indicated by the camera position information 13 output from the GPS 33 in the position storage device 32.

そして、姿勢角検出装置30はCPU911を用いて以下の処理(S103〜S108)を実行し移動体の姿勢角を検出する。   Then, the posture angle detection device 30 executes the following processing (S103 to S108) using the CPU 911 to detect the posture angle of the moving body.

<S103、S104:水平線抽出処理、ピッチ−ロール算出処理>
まず、水平線検出部9が映像記憶機器31に記憶された映像から水平線を抽出し(S103)、次に、水平線検出部9がカメラシステム7の焦点距離と水平線とが成すピッチ角φ・ロール角θを算出する(S104)。
<S103, S104: Horizontal Line Extraction Processing, Pitch-Roll Calculation Processing>
First, the horizontal line detection unit 9 extracts a horizontal line from the video stored in the video storage device 31 (S103), and then the horizontal line detection unit 9 forms a pitch angle φ / roll angle formed by the focal length of the camera system 7 and the horizontal line. θ is calculated (S104).

図4、図5は、実施の形態1における水平線検出部9のピッチ−ロール算出方法を示す概念図である。
図4は映像16を左側方から見た斜視図である。
図5は映像16を左側方から見た側面図であり、映像16とレンズ2との関係を示した関係図である。
水平線検出部9が実行する水平線抽出処理(S103)とピッチ−ロール算出処理(S104)とについて、図4と図5とに基づいて以下に説明する。
4 and 5 are conceptual diagrams illustrating a pitch-roll calculation method of the horizontal line detection unit 9 according to the first embodiment.
FIG. 4 is a perspective view of the image 16 viewed from the left side.
FIG. 5 is a side view of the image 16 as viewed from the left side, and is a relationship diagram showing the relationship between the image 16 and the lens 2.
The horizontal line extraction process (S103) and the pitch-roll calculation process (S104) executed by the horizontal line detection unit 9 will be described below with reference to FIGS.

水平線検出部9は、図4に示すように、映像信号8が示す映像16を画像処理し水平線15を抽出する(S103)。このとき水平線検出部9は、例えば、水平線15上方の空と水平線15下方の地平面との輝度や明度の違いを検出し、空と地平面との境を水平線15として抽出する。
ここで、カメラシステム7は、移動体が重力方向に直角な水平面に位置している場合に、映像16の中心17を通る横軸に水平線15が映るように移動体に取り付けられているものとする。つまり、映像16の中心17を通る横軸からの水平線15までの距離(中心17から交点18までの距離)が長いほど移動体のピッチ角φ、ロール角θが大きいことを示す。
そこでまず、水平線検出部9は、図4に示すように、移動体の前方の映像16(前後映像)および両側方の映像16(側方映像)に対し、中心17と水平線15とが最短距離となる交点18を求める。交点18は映像の中心17から水平線15に対する垂線と水平線15とが交わる点である。
次に、水平線検出部9は、図4、図5に示すように、カメラシステム7のレンズ2の焦点距離19から水平線15と中心17とが成す変位角20を求める。そして、水平線検出部9は前方の映像16における変位角20を移動体のピッチ角φとし、側方の映像16における変位角20を移動体のロール角θとして出力する。
上記において、「カメラシステム7は、移動体が重力方向に直角な水平面に位置している場合に、映像の中心17を通る横軸に水平線15が映るように移動体に取り付けられている」という条件にしたが、カメラシステム7はこの条件を満たしていなくてもよい。
条件を満たしていない場合は、移動体にカメラシステム7を取り付けた際に、移動体が重力方向に直角な水平面に位置しているときの映像の中心17を通る横軸と水平線15との角度差を計測する。そして、水平線検出部9は、計測した角度差を差し引いた水平線15の変位角20を移動体のピッチ角φとロール角θとして算出することができる。
As shown in FIG. 4, the horizontal line detection unit 9 performs image processing on the video 16 indicated by the video signal 8 and extracts the horizontal line 15 (S103). At this time, for example, the horizontal line detection unit 9 detects a difference in brightness and brightness between the sky above the horizontal line 15 and the ground plane below the horizontal line 15, and extracts the boundary between the sky and the ground plane as the horizontal line 15.
Here, the camera system 7 is attached to the moving body so that the horizontal line 15 appears on the horizontal axis passing through the center 17 of the image 16 when the moving body is located on a horizontal plane perpendicular to the direction of gravity. To do. That is, the longer the distance from the horizontal axis passing through the center 17 of the video 16 to the horizontal line 15 (the distance from the center 17 to the intersection 18), the larger the pitch angle φ and roll angle θ of the moving body.
Therefore, first, as shown in FIG. 4, the horizontal line detection unit 9 has the shortest distance between the center 17 and the horizontal line 15 with respect to the front image 16 (front and rear images) and both side images 16 (side images) of the moving body. The intersection 18 is obtained. The intersection 18 is a point where a perpendicular to the horizontal line 15 and the horizontal line 15 intersect from the center 17 of the image.
Next, as shown in FIGS. 4 and 5, the horizontal line detection unit 9 obtains a displacement angle 20 formed by the horizontal line 15 and the center 17 from the focal length 19 of the lens 2 of the camera system 7. Then, the horizon detection unit 9 outputs the displacement angle 20 in the front image 16 as the pitch angle φ of the moving object, and outputs the displacement angle 20 in the side image 16 as the roll angle θ of the moving object.
In the above, “the camera system 7 is attached to the moving body so that the horizontal line 15 appears on the horizontal axis passing through the center 17 of the image when the moving body is located on a horizontal plane perpendicular to the direction of gravity”. However, the camera system 7 may not satisfy this condition.
When the condition is not satisfied, when the camera system 7 is attached to the moving body, the angle between the horizontal axis passing through the center 17 of the image and the horizontal line 15 when the moving body is positioned on a horizontal plane perpendicular to the direction of gravity. Measure the difference. And the horizontal line detection part 9 can calculate the displacement angle 20 of the horizontal line 15 which deducted the measured angle difference as the pitch angle (phi) and roll angle (theta) of a moving body.

<S105、S106:既知物抽出処理、ベクトルP算出処理>
図3において、目標抽出部11が映像から目標物を抽出し(S105)、目標抽出部11が映像に基づいて移動体から目標物への極座標ベクトルP(X,Y,Z)を算出する(S106)。
このとき、目標抽出部11は、映像信号8が示す映像16から、太陽、月、北極星等の座標が既知である目標(既知物)を抽出する(S105)。目標抽出部11は、例えば、映像中の輝度や明度や大きさを判別する画像処理を行って目標を抽出する。
そして、目標抽出部11は映像上の目標の位置に基づいて目標の極座標ベクトルP(X,Y,Z)を算出し、既知目標方向12として出力する。目標抽出部11は、例えば、映像中心から目標までの画素数に基づいて目標の極座標ベクトルP(X,Y,Z)を算出する。目標抽出部11は、例えば、映像中心から目標までのX方向とY方向とZ方向との画素数の比率を目標の極座標ベクトルP(X,Y,Z)とする。極座標ベクトルP(X,Y,Z)は移動体から目標への方向を示す単位ベクトルであり、映像に基づいて算出した測定値である。
なお、目標は地上の建物や人工衛星等でもよい。
<S105, S106: known extraction process, the vector P 1 calculation processing>
In FIG. 3, the target extraction unit 11 extracts a target from the video (S105), and the target extraction unit 11 polar coordinates vector P 1 (X 1 , Y 1 , Z 1 ) from the moving object to the target based on the video. Is calculated (S106).
At this time, the target extraction unit 11 extracts a target (known object) having known coordinates such as the sun, the moon, and the north pole from the video 16 indicated by the video signal 8 (S105). For example, the target extraction unit 11 performs image processing for determining luminance, brightness, and size in the video and extracts the target.
Then, the target extraction unit 11 calculates a target polar coordinate vector P 1 (X 1 , Y 1 , Z 1 ) based on the target position on the video and outputs it as the known target direction 12. The target extraction unit 11 calculates a target polar coordinate vector P 1 (X 1 , Y 1 , Z 1 ) based on, for example, the number of pixels from the video center to the target. For example, the target extraction unit 11 sets the ratio of the number of pixels in the X direction, the Y direction, and the Z direction from the video center to the target as a target polar coordinate vector P 1 (X 1 , Y 1 , Z 1 ). The polar coordinate vector P 1 (X 1 , Y 1 , Z 1 ) is a unit vector indicating the direction from the moving object to the target, and is a measured value calculated based on the video.
The target may be a building on the ground or an artificial satellite.

<S107:ベクトルP算出処理>
次に、姿勢角算出部14が測位座標に基づいて移動体から目標物への極座標ベクトルP(X,Y,Z)を算出する。
このとき、姿勢角算出部14は、GPS33が出力したカメラ位置情報13が示す移動体の座標値を既知目標の座標値から減算して、移動体の位置から見た既知目標の方向を示す極座標ベクトルP(X,Y,Z)を算出する。極座標ベクトルP(X,Y,Z)は移動体から目標への方向を示す単位ベクトルであり、座標値に基づいて算出した理論値である。
<S107: vector P 0 calculation process>
Next, the attitude angle calculation unit 14 calculates a polar coordinate vector P 0 (X 0 , Y 0 , Z 0 ) from the moving object to the target based on the positioning coordinates.
At this time, the attitude angle calculation unit 14 subtracts the coordinate value of the moving object indicated by the camera position information 13 output from the GPS 33 from the coordinate value of the known target, and shows the polar coordinates indicating the direction of the known target viewed from the position of the moving object. A vector P 0 (X 0 , Y 0 , Z 0 ) is calculated. The polar coordinate vector P 0 (X 0 , Y 0 , Z 0 ) is a unit vector indicating the direction from the moving body to the target, and is a theoretical value calculated based on the coordinate value.

<S108:ヨー角ψ算出処理>
そして、姿勢角算出部14が理論値である極座標ベクトルPと測定値である極座標ベクトルPとピッチ角φとロール角θとに基づいてヨー角ψを算出する。
このとき、姿勢角算出部14は、水平線検出部9が算出した移動体のピッチ角φと移動体のロール角θ、既知目標方向12が算出した極座標ベクトルP、自らが算出した極座標ベクトルPを以下の式1に代入して移動体のヨー角ψを算出する。姿勢角算出部14は(ヨー角ψ,ピッチ角φ,ロール角θ)を移動体の絶対空間座標に対する移動体の姿勢角とする。
<S108: Yaw Angle ψ Calculation Process>
Then, the posture angle calculator 14 calculates the yaw angle ψ, based on the polar coordinate vector P 1 and the pitch angle φ and the roll angle θ is measured and polar coordinate vector P 0 is a theoretical value.
At this time, the posture angle calculation unit 14 calculates the polar angle vector P 1 calculated by the pitch angle φ of the moving object and the roll angle θ of the moving object, the known target direction 12 calculated by the horizontal line detection unit 9, and the polar coordinate vector P calculated by itself. The yaw angle ψ of the moving object is calculated by substituting 0 into the following formula 1. The posture angle calculation unit 14 sets (yaw angle ψ, pitch angle φ, roll angle θ) as the posture angle of the moving body with respect to the absolute space coordinates of the moving body.

Figure 2007255955
Figure 2007255955

上記実施の形態1において、水平線の検出と既知の1つの目標を使用することで、ジャイロなどの姿勢角測定用の専用機器を装備することなく、また、地図との照合を行うことなく、カメラシステム7のみで、移動体の絶対空間座標に対する移動体の姿勢角を検出できる観測システム(姿勢角検出システム)について説明した。
上記実施の形態1における姿勢角検出装置30は、移動体の前方と側方の水平線の傾きを検出することでピッチ角φとロール角θを検出することを一つの特徴とする。
また、既知の目標(太陽、月など)の映像位置からヨー角ψを検出することを一つの特徴とする。
In the first embodiment, by using the detection of the horizon and one known target, the camera can be used without installing a dedicated device for posture angle measurement such as a gyro, and without matching with a map. The observation system (attitude angle detection system) that can detect the attitude angle of the moving object relative to the absolute space coordinates of the moving object only by the system 7 has been described.
The posture angle detection device 30 in the first embodiment is characterized in that the pitch angle φ and the roll angle θ are detected by detecting the inclinations of the horizontal lines on the front and side of the moving body.
Another feature is to detect the yaw angle ψ from the image position of a known target (sun, moon, etc.).

実施の形態2.
実施の形態2では、水平方向に360°、垂直方向も広い角度(180°以上)の視野方向、つまりほぼ全周囲について撮影を行うカメラシステム7について説明する。
Embodiment 2. FIG.
In the second embodiment, a camera system 7 that performs imaging in a viewing direction of 360 ° in the horizontal direction and a wide angle (180 ° or more) in the vertical direction, that is, almost the entire periphery will be described.

図6は、実施の形態2におけるカメラシステム7を側面から見た断面図であり、上記実施の形態1で説明した図1におけるカメラシステム7のA−A線断面図である。
図7は、実施の形態2におけるカメラシステム7のレンズ方向から見た断面図であり、上記実施の形態1で説明した図1におけるカメラシステム7をB方向から見たときの断面図である。
6 is a cross-sectional view of the camera system 7 according to the second embodiment as viewed from the side, and is a cross-sectional view taken along the line AA of the camera system 7 in FIG. 1 described in the first embodiment.
FIG. 7 is a cross-sectional view of the camera system 7 in the second embodiment as viewed from the lens direction, and is a cross-sectional view of the camera system 7 in FIG. 1 described in the first embodiment as viewed from the B direction.

カメラシステム7が有する素子1はFPA(Focal Plane Array)のレンズ2次元配列の受光素子であり、レンズ2を通して視野3を形成する。そして、素子1は映像の記録と記録した映像の映像記憶機器31への出力とを周期的行う。また、カメラシステム7は視野3内に半月状の反射鏡4を有する。また、カメラシステム7が有する駆動装置34は、レンズ2の光軸を回転軸として、映像取得周期内に反射鏡4を回転方向の全周に配置するように反射鏡4を回転させる。駆動装置34は、例えば、映像取得周期当たりに1回転以上の速さで反射鏡4を回転させる。そして、素子1は反射鏡4が位置しない側の前方視野5と反射鏡4が位置する側の側方視野6とを同時に撮影する。また、素子1が記録した映像を出力している間だけ駆動装置34は反射鏡4をステップ回転させる。なお、反射鏡4は、視野3が反射鏡4の接線となる接点を有して曲面を構成することで、前方視野5と側方視野6をつなぎ合わせたときに、前方視野5と側方視野6とが連続し、映像の抜けが無いようにすることができる。つまり、反射鏡4は曲面状を成す。そして、反射鏡4は曲面の接線が光軸に対して成す角αがレンズ2の入光角βと同じ(または入光角β未満)になる接点Dを有する曲面を構成する。このとき、角αと入光角βとはレンズ2の焦点Cを基点とし、入光角βはレンズ2が素子1に入光できる角でありレンズ2の光軸と視野3とが成す角である。   An element 1 included in the camera system 7 is a light receiving element having a two-dimensional array of FPA (Focal Plane Array) lenses, and forms a visual field 3 through the lens 2. The element 1 periodically performs video recording and output of the recorded video to the video storage device 31. Further, the camera system 7 has a half-moon-like reflecting mirror 4 in the visual field 3. In addition, the drive device 34 included in the camera system 7 rotates the reflecting mirror 4 so that the reflecting mirror 4 is arranged on the entire circumference in the rotation direction within the image acquisition cycle, with the optical axis of the lens 2 as the rotation axis. For example, the driving device 34 rotates the reflecting mirror 4 at a speed of one rotation or more per video acquisition period. The element 1 simultaneously photographs the front visual field 5 on the side where the reflecting mirror 4 is not located and the side visual field 6 on the side where the reflecting mirror 4 is located. Further, the drive device 34 rotates the reflecting mirror 4 stepwise only while the image recorded by the element 1 is output. The reflecting mirror 4 has a contact point where the field of view 3 is a tangent to the reflecting mirror 4 to form a curved surface, so that when the front field of view 5 and the side field of view 6 are joined together, The visual field 6 is continuous, and it is possible to prevent missing of the image. That is, the reflecting mirror 4 has a curved surface shape. The reflecting mirror 4 constitutes a curved surface having a contact point D at which the angle α formed by the tangent of the curved surface with respect to the optical axis is the same as (or less than the light incident angle β) the light incident angle β of the lens 2. At this time, the angle α and the incident angle β are based on the focal point C of the lens 2, and the incident angle β is an angle at which the lens 2 can enter the element 1, and an angle formed by the optical axis of the lens 2 and the visual field 3. It is.

図8は、実施の形態2におけるカメラシステム7の撮影処理(S101)を示すフローチャートである。
1映像取得周期におけるカメラシステム7の撮影処理(S101)について、図8に基づいて以下に説明する。
1秒間に30回撮影する場合、カメラシステム7は以下の処理(S201〜S206)を1秒間に30回実行する。またこの場合、1映像取得周期は1/30秒であり、1/4周期は1/120秒である。
FIG. 8 is a flowchart showing the photographing process (S101) of the camera system 7 according to the second embodiment.
The shooting process (S101) of the camera system 7 in one video acquisition cycle will be described below with reference to FIG.
When shooting 30 times per second, the camera system 7 executes the following processing (S201 to S206) 30 times per second. In this case, one video acquisition cycle is 1/30 seconds, and a quarter cycle is 1/120 seconds.

<S201:映像取得処理1(1/4周期目)>
映像取得周期の最初の1/4周期において、素子1は、反射鏡4が位置しない側の半周部分から前方視野5の映像を取得すると共に、反射鏡4が位置する半周部分から側方視野6の映像を取得する。ここで、反射鏡4はレンズ2の左側に位置するとする。つまり、反射鏡4はレンズ右側の前方視野5の映像とレンズ左側の側方視野6の映像とを取得する。
<S202:レンズ移動処理1(2/4周期目)>
映像取得周期の次の1/4周期において、駆動装置34は反射鏡4を回転方向に半周回転する。
<S203:映像出力処理1(2/4周期目)>
駆動装置34が反射鏡4を回転させるのと並行して、素子1は取得したレンズ右側の前方視野5の映像とレンズ左側の側方視野6の映像とを映像記憶機器31に出力する。
<S204:映像取得処理2(3/4周期目)>
映像取得周期の次の1/4周期において、素子1は、反射鏡4が位置しない側の半周部分から前方視野5の映像を取得すると共に、反射鏡4が位置する半周部分から側方視野6の映像を取得する。このとき、反射鏡4はレンズ2の右側に位置し、反射鏡4はレンズ左側の前方視野5の映像とレンズ右側の側方視野6の映像とを取得する。
<S205:レンズ移動処理2(4/4周期目)>
映像取得周期の次の1/4周期において、駆動装置34は反射鏡4を回転方向に半周回転する。
<S206:映像出力処理2(4/4周期目)>
駆動装置34が反射鏡4を回転させるのと並行して、素子1は取得したレンズ左側の前方視野5の映像とレンズ右側の側方視野6の映像とを映像記憶機器31に出力する。
<S201: Image Acquisition Process 1 (1/4 period)>
In the first quarter period of the image acquisition period, the element 1 acquires the image of the front visual field 5 from the half-circumferential part on the side where the reflecting mirror 4 is not located, and the side visual field 6 from the half-circular part where the reflective mirror 4 is located. Get the video. Here, it is assumed that the reflecting mirror 4 is located on the left side of the lens 2. That is, the reflecting mirror 4 acquires an image of the front visual field 5 on the right side of the lens and an image of the side visual field 6 on the left side of the lens.
<S202: Lens Movement Processing 1 (2/4 Period)>
In the next ¼ period of the image acquisition period, the driving device 34 rotates the reflecting mirror 4 half a turn in the rotation direction.
<S203: Video Output Process 1 (2/4 Period)>
In parallel with the driving device 34 rotating the reflecting mirror 4, the element 1 outputs the acquired image of the front visual field 5 on the right side of the lens and the image of the side visual field 6 on the left side of the lens to the video storage device 31.
<S204: Video Acquisition Process 2 (3/4 Period)>
In the next 1/4 period of the image acquisition period, the element 1 acquires the image of the front visual field 5 from the half-circumferential part on the side where the reflecting mirror 4 is not located, and the side visual field 6 from the half-circular part where the reflecting mirror 4 is located. Get the video. At this time, the reflecting mirror 4 is positioned on the right side of the lens 2, and the reflecting mirror 4 acquires an image of the front visual field 5 on the left side of the lens and an image of the side visual field 6 on the right side of the lens.
<S205: Lens Movement Processing 2 (4/4 Period)>
In the next ¼ period of the image acquisition period, the driving device 34 rotates the reflecting mirror 4 half a turn in the rotation direction.
<S206: Video Output Process 2 (4/4 Period)>
In parallel with the driving device 34 rotating the reflecting mirror 4, the element 1 outputs the acquired image of the front visual field 5 on the left side of the lens and the image of the side visual field 6 on the right side of the lens to the video storage device 31.

実施の形態2におけるカメラシステム7は、上記のようなカメラ構成および撮影処理により、1台のカメラでほぼ全周の撮影を実現できる。   The camera system 7 according to the second embodiment can realize almost all-round photographing with one camera by the above-described camera configuration and photographing processing.

上記では反射鏡4を半月状(半円状)で説明した。つまり、回転方向に成す角度d(図7参照)を180°として反射鏡4を説明したが、反射鏡4の回転方向に成す角度dは180°より大きくても小さくても構わない。
また、上記では映像の取得時間と反射鏡4の回転時間(および映像の出力時間)を同じ長さの時間(1/4周期)として説明したが、同じ長さの時間でなくても構わない。
つまり、実施の形態2におけるカメラシステム7の撮影処理(S101)について図9のように表わすこともできる。
In the above description, the reflecting mirror 4 has been described in a semimoon shape (semicircular shape). That is, the reflecting mirror 4 has been described with the angle d (see FIG. 7) formed in the rotation direction being 180 °, but the angle d formed in the rotation direction of the reflecting mirror 4 may be larger or smaller than 180 °.
In the above description, the video acquisition time and the rotation time of the reflecting mirror 4 (and the video output time) have been described as having the same length of time (1/4 cycle), but the time may not be the same. .
That is, the shooting process (S101) of the camera system 7 in the second embodiment can be expressed as shown in FIG.

図9は、実施の形態2におけるカメラシステム7の撮影処理(S101)を示すフローチャートである。
カメラシステム7の撮影処理(S101)について、図9に基づいて以下に説明する。
FIG. 9 is a flowchart showing the photographing process (S101) of the camera system 7 according to the second embodiment.
The photographing process (S101) of the camera system 7 will be described below based on FIG.

<S301:映像取得処理>
素子1は、反射鏡4が位置しない方向から前方視野5の映像を取得すると共に、反射鏡4が位置する方向から側方視野6の映像を取得する。
<S302:レンズ移動処理>
駆動装置34は反射鏡4を特定の角度だけ回転方向に回転する。駆動装置34は、例えば、反射鏡4が回転方向に成す角度dだけ反射鏡4を回転する。
<S303:映像出力処理>
駆動装置34が反射鏡4を回転させるのと並行して、素子1は取得した前方視野5の映像と側方視野6の映像とを映像記憶機器31に出力する。
<S301: Video Acquisition Process>
The element 1 acquires the image of the front visual field 5 from the direction where the reflecting mirror 4 is not located, and acquires the image of the side visual field 6 from the direction where the reflecting mirror 4 is located.
<S302: Lens Movement Processing>
The drive device 34 rotates the reflecting mirror 4 in the rotation direction by a specific angle. For example, the driving device 34 rotates the reflecting mirror 4 by an angle d formed by the reflecting mirror 4 in the rotation direction.
<S303: Video Output Processing>
In parallel with the driving device 34 rotating the reflecting mirror 4, the element 1 outputs the acquired image of the front visual field 5 and the image of the side visual field 6 to the video storage device 31.

カメラシステム7は上記処理(S301〜S303)を繰り返して撮影処理を行う。
レンズ移動処理(S302)において駆動装置34が反射鏡4を角度dだけ回転させる場合、カメラシステム7は上記処理(S301〜S303)を1映像取得周期当たり“360[°]/d[°]”回繰り返す。
The camera system 7 performs the photographing process by repeating the above processes (S301 to S303).
When the driving device 34 rotates the reflecting mirror 4 by the angle d in the lens movement process (S302), the camera system 7 performs the above process (S301 to S303) as “360 [°] / d [°]” per one image acquisition period. Repeat once.

上記ではレンズ移動処理(S202、S205、S302)と映像出力処理(S203、S206、S303)とを並行して行うと説明したが、処理を並行して行わなくても構わない。つまり、レンズ移動処理後に映像出力処理を実行してもよいし、映像出力処理後にレンズ移動処理を実行してもよいし、レンズ移動処理の一部と映像出力処理の一部とだけを並行して実行しても構わない。
但し、レンズ移動処理と映像出力処理とを並行して行うと映像取得周期を短くすることができ、単位時間においてより多くの映像を撮影することが可能となる。
Although it has been described above that the lens movement process (S202, S205, S302) and the video output process (S203, S206, S303) are performed in parallel, the process may not be performed in parallel. In other words, the video output process may be executed after the lens movement process, the lens movement process may be executed after the video output process, or only part of the lens movement process and part of the video output process are performed in parallel. Can be executed.
However, if the lens movement process and the video output process are performed in parallel, the video acquisition cycle can be shortened, and more videos can be taken in a unit time.

上記実施の形態2において、回転する反射鏡4を設けることで、地上を映した際にカメラの視野をほぼ全周に広げることができるカメラシステム7について説明した。   In the second embodiment, the camera system 7 has been described in which, by providing the reflecting mirror 4 that rotates, the field of view of the camera can be expanded to almost the entire circumference when the ground is projected.

また、実施の形態2において以下に示すような撮影方法について説明した。
レンズ2と、レンズ2への入射光に基づいて映像を生成する素子1(映像生成部)と、入射した光を反射してレンズ2に入射させる反射鏡4と、レンズ2の光軸を回転軸にして反射鏡4を回転させる駆動装置34とを備えるカメラシステム7(カメラ)の撮影方法。
この撮影方法では、駆動装置34は映像を生成する映像取得周期内に反射鏡4を回転方向の全周に配置する速度で反射鏡4を回転させるレンズ移動処理(回転処理)を行う。
また、素子1はレンズ2が直接入射した入射光を映像取得周期内に回転軸の全周方向から入力すると共にレンズ2が反射鏡4から入射した入射光を映像取得周期内に回転軸の全周方向から入力し映像を取得する入光処理(映像取得処理の一部)を行う。
また、素子1は入力した入射光に基づいて前方視野5の映像(レンズ2の入光角方向の映像)と側方視野6の映像(反射鏡4の入光角方向の映像)とを同一時刻(同一映像取得周期)における映像として生成する映像生成処理(映像取得処理の一部)を行う。
In addition, the following imaging method has been described in the second embodiment.
A lens 2, an element 1 (image generator) that generates an image based on light incident on the lens 2, a reflecting mirror 4 that reflects incident light to enter the lens 2, and an optical axis of the lens 2 is rotated. An imaging method of a camera system 7 (camera) including a driving device 34 that rotates the reflecting mirror 4 about an axis.
In this photographing method, the driving device 34 performs a lens movement process (rotation process) for rotating the reflecting mirror 4 at a speed at which the reflecting mirror 4 is arranged on the entire circumference in the rotation direction within an image acquisition period for generating an image.
Further, the element 1 inputs incident light directly incident on the lens 2 from the entire circumference of the rotation axis within the image acquisition cycle, and receives incident light incident from the reflecting mirror 4 on the rotation axis within the image acquisition cycle. A light incident process (part of the video acquisition process) is performed for acquiring images by inputting from the circumferential direction.
Further, the element 1 has the same image of the front visual field 5 (image in the incident angle direction of the lens 2) and the image of the side visual field 6 (image in the incident angle direction of the reflecting mirror 4) based on the input incident light. A video generation process (a part of the video acquisition process) for generating a video at time (same video acquisition cycle) is performed.

実施の形態3.
実施の形態3では、前記実施の形態1に対して姿勢角検出装置30が水平線検出部9を備えない移動体(姿勢角検出システム)について以下に説明する。
ここで、前記実施の形態1における移動体と異なる事項について説明し、その他の事項は前記実施の形態1と同様である。
Embodiment 3 FIG.
In the third embodiment, a mobile body (posture angle detection system) in which the posture angle detection device 30 does not include the horizon detection unit 9 as compared with the first embodiment will be described below.
Here, matters different from the moving body in the first embodiment will be described, and other matters are the same as those in the first embodiment.

図10は、実施の形態3における姿勢角を検出する移動体(姿勢角検出システム)の構成図である。
実施の形態3における姿勢角検出システムである移動体の構成と移動体の姿勢角を検出する姿勢角検出装置30の構成とについて図10に基づいて以下に説明する。
FIG. 10 is a configuration diagram of a mobile body (posture angle detection system) that detects a posture angle in the third embodiment.
The configuration of the moving body that is the posture angle detection system according to the third embodiment and the configuration of the posture angle detection apparatus 30 that detects the posture angle of the moving body will be described below with reference to FIG.

姿勢角検出システムである移動体は前記実施の形態1と同様にカメラシステム7、GPS33および姿勢角検出装置30を備える。
実施の形態3では前記実施の形態1と比較して姿勢角検出装置30が水平線検出部9を有さない点が異なる。
A mobile body that is an attitude angle detection system includes a camera system 7, a GPS 33, and an attitude angle detection device 30 as in the first embodiment.
The third embodiment is different from the first embodiment in that the attitude angle detection device 30 does not have the horizontal line detection unit 9.

映像記憶機器31は、前記実施の形態1と同様に、カメラシステム7から映像信号8を入力し、カメラシステム7により撮影された移動体の前方と後方との少なくともいずれかを表わす前後映像と、カメラシステム7により撮影された移動体の右側方と左側方との少なくともいずれかを表わす側方映像とを記憶する。
位置記憶機器32は、前記実施の形態1と同様に、GPS33からカメラ位置情報13を入力し、GPS33が測位した移動体の座標(測位座標)を記憶する。また、位置記憶機器32は太陽、月、北極星等の既知物の座標(既知座標)が記憶されている。
目標抽出部11(既知物抽出部、ベクトルP算出部)は、前記実施の形態1と同様に、映像記憶機器31から前後映像と側方映像とを取得し、取得した前後映像と側方映像との少なくともいずれかから既知物をCPU911を用いて抽出する。また、目標抽出部11は、抽出した既知物の前後映像と側方映像との少なくともいずれかにおける位置に基づいて、移動体から既知物への極座標ベクトルP(方向ベクトルP)をCPU911を用いて算出する。目標抽出部11は算出した極座標ベクトルP(方向ベクトルP)を既知目標方向12として姿勢角算出部14に出力する。ここで、実施の形態3における目標抽出部11は、前記実施の形態1における目標抽出部11と比較して、既知物を3つ以上抽出する点と、極座標ベクトルP11と極座標ベクトルP12と極座標ベクトルP13との3つの極座標ベクトルP(方向ベクトルP)を算出する点とが異なる。
姿勢角算出部14(ベクトルP算出部)は、前記実施の形態1と同様に、位置記憶機器32に記憶された移動体の測位座標と既知物の既知座標とに基づいて、移動体から既知物への極座標ベクトルP(方向ベクトルP)をCPU911を用いて算出する。また、姿勢角算出部14は、自ら算出した極座標ベクトルP(方向ベクトルP)と目標抽出部11が算出した極座標ベクトルP(方向ベクトルP)とに基づいてCPU911を用いてピッチ角φとロール角θとヨー角ψとを算出する。ここで、実施の形態3における姿勢角算出部14は、前記実施の形態1における姿勢角算出部14と比較して、極座標ベクトルP01と極座標ベクトルP02と極座標ベクトルP03との3つの極座標ベクトルP(方向ベクトルP)を算出する点と、ピッチ角φとロール角θについても自ら算出する点とが異なる。
As in the first embodiment, the video storage device 31 receives the video signal 8 from the camera system 7, and the front and rear images representing at least one of the front and the rear of the moving object photographed by the camera system 7, A side image representing at least one of the right side and the left side of the moving object photographed by the camera system 7 is stored.
As in the first embodiment, the position storage device 32 receives the camera position information 13 from the GPS 33 and stores the coordinates of the moving body (positioning coordinates) measured by the GPS 33. Further, the position storage device 32 stores coordinates (known coordinates) of known objects such as the sun, the moon, and the North Star.
The target extraction unit 11 (known object extraction unit, vector P 1 calculation unit) acquires the front and rear video and the side video from the video storage device 31 as in the first embodiment, and acquires the acquired front and rear video and the side video. A known object is extracted from at least one of the images using the CPU 911. Further, the target extraction unit 11 sends the polar coordinate vector P 1 (direction vector P 1 ) from the moving object to the known object to the CPU 911 based on the position of at least one of the front and rear images and the side image of the extracted known object. Use to calculate. The target extraction unit 11 outputs the calculated polar coordinate vector P 1 (direction vector P 1 ) to the attitude angle calculation unit 14 as the known target direction 12. Here, the target extraction unit 11 according to the third embodiment is different from the target extraction unit 11 according to the first embodiment in that three or more known objects are extracted, and the polar coordinate vector P 11 and the polar coordinate vector P 12 . The difference is that three polar coordinate vectors P 1 (direction vector P 1 ) with the polar coordinate vector P 13 are calculated.
As in the first embodiment, the attitude angle calculation unit 14 (vector P 0 calculation unit) is based on the positioning coordinates of the moving object stored in the position storage device 32 and the known coordinates of the known object. A polar coordinate vector P 0 (direction vector P 0 ) to a known object is calculated using the CPU 911. Further, the posture angle calculation unit 14 uses the CPU 911 based on the polar coordinate vector P 0 (direction vector P 0 ) calculated by itself and the polar coordinate vector P 1 (direction vector P 1 ) calculated by the target extraction unit 11 to use the pitch angle. φ, roll angle θ, and yaw angle ψ are calculated. Here, the posture angle calculation unit 14 according to the third embodiment has three polar coordinates of a polar coordinate vector P 01 , a polar coordinate vector P 02, and a polar coordinate vector P 03 compared to the posture angle calculation unit 14 according to the first embodiment. The point that the vector P 0 (direction vector P 0 ) is calculated is different from the point that the pitch angle φ and the roll angle θ are also calculated.

実施の形態3における姿勢角検出装置30のハードウェア資源は前記実施の形態1における姿勢角検出装置30と同様である。   The hardware resources of the posture angle detection device 30 in the third embodiment are the same as those in the posture angle detection device 30 in the first embodiment.

図11は、実施の形態3における移動体(姿勢角検出システム)の姿勢角検出方法を示すフローチャートである。
実施の形態3における姿勢角検出装置30、カメラシステム7およびGPS33が実行する姿勢角検出処理について、図11に基づいて以下に説明する。
FIG. 11 is a flowchart showing a posture angle detection method for a moving body (posture angle detection system) in the third embodiment.
The attitude angle detection process executed by the attitude angle detection device 30, the camera system 7, and the GPS 33 in the third embodiment will be described below with reference to FIG.

<S401:撮影処理>
まず、カメラシステム7が、前記実施の形態1(S101)と同様に、撮影を行う。
<S402:測位処理>
また、GPS33が、前記実施の形態1(S102)と同様に、測位を行う。
<S401: Shooting Process>
First, the camera system 7 performs imaging in the same manner as in the first embodiment (S101).
<S402: Positioning process>
The GPS 33 performs positioning in the same manner as in the first embodiment (S102).

そして、姿勢角検出装置30はCPU911を用いて以下の処理(S403〜S406)を実行し移動体の姿勢角を検出する。   Then, the posture angle detection device 30 executes the following processing (S403 to S406) using the CPU 911 to detect the posture angle of the moving body.

<S403、S404::既知物抽出処理、ベクトルP算出処理>
目標抽出部11が、前記実施の形態1(S105、S106)と同様にして、映像から目標物を3つ抽出し(S403)、目標抽出部11が映像に基づいて移動体から目標物への極座標ベクトルPを3つ算出する(S404)。
このとき、実施の形態3における目標抽出部11は映像から抽出する目標物の数が3つである点が前記実施の形態1と異なる。また、実施の形態3における目標抽出部11は3つの目標物について極座標ベクトルPの算出を行い、算出する極座標ベクトルPの数が極座標ベクトルP11(X11,Y11,Z11)と極座標ベクトルP12(X12,Y12,Z12)と極座標ベクトルP13(X13,Y13,Z13)との3つである点が前記実施の形態1と異なる。
<S403, S404 :: known extraction process, the vector P 1 calculation processing>
The target extraction unit 11 extracts three targets from the video in the same manner as in the first embodiment (S105, S106) (S403), and the target extraction unit 11 moves from the moving object to the target based on the video. the polar vector P 1 3 one calculates (S404).
At this time, the target extracting unit 11 in the third embodiment is different from the first embodiment in that the number of targets to be extracted from the video is three. The target extracting section 11 in the third embodiment performs the calculation of the polar coordinate vector P 1 for three targets, polar coordinate vector P 1 number is polar vector P 11 to calculate the (X 11, Y 11, Z 11) The third embodiment is different from the first embodiment in that there are three polar coordinate vectors P 12 (X 12 , Y 12 , Z 12 ) and polar coordinate vectors P 13 (X 13 , Y 13 , Z 13 ).

<S405:ベクトルP算出処理>
次に、姿勢角算出部14が、前記実施の形態1(S107)と同様に、測位座標に基づいて移動体から目標物への極座標ベクトルPを3つ算出する。
このとき、実施の形態3における姿勢角算出部14は算出する極座標ベクトルPの数が極座標ベクトルP01(X01,Y01,Z01)と極座標ベクトルP02(X02,Y02,Z02)と極座標ベクトルP03(X03,Y03,Z03)との3つである点が前記実施の形態1と異なる。
極座標ベクトルPに対応する3つの目標物は、極座標ベクトルPに対応する3つの目標物と同じである。
<S405: vector P 0 calculation process>
Next, the posture angle calculation unit 14 calculates three polar coordinate vectors P 0 from the moving object to the target based on the positioning coordinates, as in the first embodiment (S107).
At this time, the posture angle calculation unit 14 according to the third embodiment calculates the number of polar coordinate vectors P 0 as polar coordinate vectors P 01 (X 01 , Y 01 , Z 01 ) and polar coordinate vectors P 02 (X 02 , Y 02 , Z 02 ) and polar coordinate vector P 03 (X 03 , Y 03 , Z 03 ) are different from the first embodiment.
Three targets corresponding to polar coordinates vector P 0 is the same as the three targets that correspond to the polar coordinates vector P 1.

<S406:姿勢角算出処理>
そして、姿勢角算出部14が極座標ベクトルPと極座標ベクトルPとに基づいてピッチ角φ・ロール角θ・ヨー角ψを算出する。
このとき、姿勢角算出部14は3つの目標物に対して前記実施の形態1(S108)で示した式1を生成し、生成した式で三元連立方程式を解き移動体のピッチ角φ・ロール角θ・ヨー角ψを算出する。つまり、極座標ベクトルP01(X01,Y01,Z01)と極座標ベクトルP11(X11,Y11,Z11)とを以下の式2に代入し、極座標ベクトルP02(X02,Y02,Z02)と極座標ベクトルP12(X12,Y12,Z12)とを以下の式3に代入し、極座標ベクトルP03(X03,Y03,Z03)と極座標ベクトルP13(X13,Y13,Z13)とを以下の式4に代入して3つの式を生成する。そして、姿勢角算出部14は生成した式2と式3と式4との三元連立方程式を計算して未知数であるピッチ角φとロール角θとヨー角ψとを算出する。
<S406: Attitude angle calculation process>
Then, the attitude angle calculation unit 14 calculates the pitch angle φ, the roll angle θ, and the yaw angle ψ based on the polar coordinate vector P 0 and the polar coordinate vector P 1 .
At this time, the posture angle calculation unit 14 generates Formula 1 shown in the first embodiment (S108) for the three targets, solves the ternary simultaneous equation with the generated formula, and the pitch angle φ · The roll angle θ and yaw angle ψ are calculated. That is, the polar coordinate vector P 01 (X 01 , Y 01 , Z 01 ) and the polar coordinate vector P 11 (X 11 , Y 11 , Z 11 ) are substituted into the following equation 2 to obtain the polar coordinate vector P 02 (X 02 , Y 02 , Z 02 ) and the polar coordinate vector P 12 (X 12 , Y 12 , Z 12 ) are substituted into the following Expression 3, and the polar coordinate vector P 03 (X 03 , Y 03 , Z 03 ) and the polar coordinate vector P 13 ( X 13 , Y 13 , Z 13 ) are substituted into the following formula 4 to generate three formulas. Then, the attitude angle calculation unit 14 calculates the generated ternary simultaneous equations of Equation 2, Equation 3, and Equation 4 to calculate the unknown pitch angle φ, roll angle θ, and yaw angle ψ.

Figure 2007255955
Figure 2007255955

上記実施の形態3において、既知の3つの目標を使用することで、ジャイロなどの姿勢角測定用の専用機器を装備することなく、また、地図との照合を行うことなく、カメラシステム7のみで、移動体の絶対空間座標に対する移動体の姿勢角を検出できる観測システム(姿勢角検出システム)について説明した。
上記実施の形態3における姿勢角検出装置30は、既知の3つの目標の映像位置からヨー角、ピッチ角、ロール角を検出することを一つの特徴とする。
In the third embodiment, by using three known targets, it is possible to use only the camera system 7 without providing a dedicated device for posture angle measurement such as a gyro, and without matching with a map. The observation system (attitude angle detection system) that can detect the attitude angle of the moving object relative to the absolute space coordinates of the moving object has been described.
The posture angle detection device 30 according to the third embodiment is characterized by detecting a yaw angle, a pitch angle, and a roll angle from three known target image positions.

実施の形態4.
実施の形態4では、移動体の姿勢角3種類(ヨー角ψ、ピッチ角φ、ロール角θ)のうち、1つの角度を検出するためのシステムについて説明する。
以下ではヨー角ψを検出する場合について記載する。
ピッチ角φ、ロール角θもヨー角ψと同様に検出できる。
ここで、前記実施の形態1における移動体と異なる事項について説明し、その他の事項は前記実施の形態1と同様である。
Embodiment 4 FIG.
In the fourth embodiment, a system for detecting one of three types of posture angles (yaw angle ψ, pitch angle φ, roll angle θ) of a moving body will be described.
Hereinafter, a case where the yaw angle ψ is detected will be described.
The pitch angle φ and roll angle θ can also be detected in the same manner as the yaw angle ψ.
Here, matters different from the moving body in the first embodiment will be described, and other matters are the same as those in the first embodiment.

図12は、実施の形態4における姿勢角を検出する移動体(姿勢角検出システム)の構成図である。
実施の形態4における姿勢角検出システムである移動体の構成と移動体の姿勢角を検出する姿勢角検出装置30の構成とについて図12に基づいて以下に説明する。
FIG. 12 is a configuration diagram of a mobile body (posture angle detection system) that detects a posture angle in the fourth embodiment.
The configuration of the moving body that is the posture angle detection system according to the fourth embodiment and the configuration of the posture angle detection apparatus 30 that detects the posture angle of the moving body will be described below with reference to FIG.

姿勢角検出システムである移動体は前記実施の形態1と同様にカメラシステム7、GPS33および姿勢角検出装置30を備える。
実施の形態4では前記実施の形態1と比較して姿勢角検出装置30が水平線検出部9と目標抽出部11とを有さず移動方向検出部21を有する点が異なる。
A mobile body that is an attitude angle detection system includes a camera system 7, a GPS 33, and an attitude angle detection device 30 as in the first embodiment.
The fourth embodiment is different from the first embodiment in that the posture angle detection device 30 does not have the horizontal line detection unit 9 and the target extraction unit 11 but has a movement direction detection unit 21.

映像記憶機器31は、前記実施の形態1と同様に、カメラシステム7から映像信号8を入力し、カメラシステム7により時刻Tに撮影された移動体の特定方向を表わす映像P(特定映像P)とカメラシステム7により時刻Tに撮影された移動体の前記特定方向を表わす映像P(特定映像P)とを記憶する。ここで、「特定方向」は時刻Tと時刻Tとにおいて同一の方向であればよく、下方、上方、前方、後方、右側方、左側方のいずれであっても構わない。以下において、「特定方向」を“下方”とする。実施の形態4では、カメラシステム7が異なる時刻Tと時刻Tとにおいて撮影する点と、映像記憶機器31が時刻Tにおける映像Pと時刻Tにおける映像Pとを記憶する点とが前記実施の形態1と異なる。
移動方向検出部21(特定物抽出部、姿勢角変化量算出部)は、前記実施の形態1の目標抽出部11と同様に、映像記憶機器31から映像Pと映像Pとを取得し、取得した映像と映像とから同一の特定物をCPU911を用いて抽出する。ここで、「特定物」は映像Pと映像Pとにおいて同一の物であればよく、地上の建物でも、人工衛星でも、太陽でも、月でも、北極星でも構わない。また、移動方向検出部21は、自らが抽出した特定物の映像Pにおける位置と映像Pにおける位置とに基づいて時刻Tから時刻Tまでのヨー角ψの変化量をCPU911を用いて算出する。
姿勢角算出部14は、移動方向検出部21が算出したヨー角ψの変化量を時刻Tにおけるヨー角ψに加算して時刻Tにおけるヨー角ψをCPU911を用いて算出する。
As in the first embodiment, the video storage device 31 receives the video signal 8 from the camera system 7 and the video P 0 (specific video) representing the specific direction of the moving object photographed at the time T 0 by the camera system 7. P 0 ) and an image P 1 (specific image P 1 ) representing the specific direction of the moving object photographed at time T 1 by the camera system 7 are stored. Here, the “specific direction” only needs to be the same direction at time T 1 and time T 2, and may be any of downward, upward, forward, backward, right side, and left side. Hereinafter, the “specific direction” is defined as “downward”. In the fourth embodiment, that stores the point where the camera system 7 is taken at different times T 0 and time T 1 Tokyo, a video P 1 video storage device 31 in the image P 0 and time T 1 at time T 0 Is different from the first embodiment.
The movement direction detection unit 21 (specific object extraction unit, posture angle change amount calculation unit) acquires the video P 0 and the video P 1 from the video storage device 31 as in the target extraction unit 11 of the first embodiment. The same specific object is extracted from the acquired video 0 and video 1 using the CPU 911. Here, the “specific object” only needs to be the same in the image P 0 and the image P 1, and may be a building on the ground, an artificial satellite, the sun, the moon, or an arctic star. Further, the movement direction detection unit 21 uses the CPU 911 to calculate the amount of change in the yaw angle ψ from time T 0 to time T 1 based on the position of the specific object extracted by the moving direction detection unit 21 in the image P 0 and the position in the image P 1 . To calculate.
The attitude angle calculation unit 14 adds the amount of change in the yaw angle ψ calculated by the moving direction detection unit 21 to the yaw angle ψ at time T 0 to calculate the yaw angle ψ at time T 1 using the CPU 911.

実施の形態4における姿勢角検出装置30のハードウェア資源は前記実施の形態1における姿勢角検出装置30と同様である。   The hardware resources of the posture angle detection device 30 in the fourth embodiment are the same as those in the posture angle detection device 30 in the first embodiment.

図13は、実施の形態4における移動体(姿勢角検出システム)の姿勢角検出方法を示すフローチャートである。
実施の形態4における姿勢角検出装置30、カメラシステム7およびGPS33が実行する姿勢角検出処理について、図13に基づいて以下に説明する。
FIG. 13 is a flowchart showing a posture angle detection method for a moving body (posture angle detection system) in the fourth embodiment.
A posture angle detection process performed by the posture angle detection device 30, the camera system 7, and the GPS 33 in the fourth embodiment will be described below with reference to FIG.

<S501:撮影処理1>
まず、カメラシステム7が、前記実施の形態1(S101)と同様に、時刻Tに下方の映像Pを撮影する。
<S502:測位処理1>
また、GPS33が、前記実施の形態1(S102)と同様に、時刻Tの移動体の位置Lを測位する。
<S503:撮影処理2>
まず、カメラシステム7が、前記実施の形態1(S101)と同様に、時刻Tに下方の映像Pを撮影する。
<S504:測位処理2>
また、GPS33が、前記実施の形態1(S102)と同様に、時刻Tの移動体の位置Lを測位する。
<S501: Shooting process 1>
First, the camera system 7 captures the lower video P 0 at time T 0 as in the first embodiment (S101).
<S502: Positioning process 1>
Further, the GPS 33 measures the position L 0 of the moving body at time T 0 as in the first embodiment (S102).
<S503: Shooting process 2>
First, the camera system 7, in the same manner as the first embodiment (S101), capturing an image P 1 of the downward time T 1.
<S504: Positioning process 2>
Further, the GPS 33 measures the position L 1 of the moving body at time T 1 as in the first embodiment (S102).

そして、姿勢角検出装置30はCPU911を用いて以下の処理(S505〜S507)を実行し移動体の姿勢角を検出する。   Then, the posture angle detection device 30 executes the following processing (S505 to S507) using the CPU 911 to detect the posture angle of the moving body.

<S505:特定物抽出処理>
まず、移動方向検出部21が、前記実施の形態1の目標抽出部11(S105、S106)と同様にして、映像Pと映像Pとから同一の目標物(特定物)を抽出する(S505)。
<S506:ヨー角ψ変化量算出処理>
次に、移動方向検出部21が映像Pに映る目標物と映像Pに映る目標物とに基づいてヨー角ψの変化量を算出する。
このとき、移動方向検出部21は、撮影時間の異なる連続した映像(映像P、映像P)を比較し、移動体の機体軸に対して特徴点(目標物)が映像の中心(例えば、移動体直下)に対して回転した角度を検出し、映像の回転角量22(変化量)として出力する。
また、移動方向検出部21は、撮影時間の異なる連続した映像を比較し、移動体の進んだ方向から、映像の上側の方位を映像基準方位23として出力する。
<S505: Specific object extraction process>
First, the moving direction detection unit 21 extracts the same target (specific object) from the video P 0 and the video P 1 in the same manner as the target extraction unit 11 (S105, S106) of the first embodiment ( S505).
<S506: yaw angle ψ variation calculation process>
Next, the moving direction detector 21 calculates the amount of change in the yaw angle ψ based on the target shown in the video P 0 and the target shown in the video P 1 .
At this time, the moving direction detection unit 21 compares consecutive videos (video P 0 , video P 1 ) with different shooting times, and the feature point (target) is the center of the video (for example, the target object) with respect to the body axis of the mobile The angle rotated with respect to the moving object is detected and output as a rotation angle amount 22 (change amount) of the image.
In addition, the moving direction detection unit 21 compares consecutive videos with different shooting times, and outputs the upper azimuth of the video as the video reference azimuth 23 from the direction in which the moving body has advanced.

<S507:ヨー角ψ算出処理>
そして、姿勢角算出部14が時刻Tのヨー角ψにヨー角ψの変化量を加算して時刻Tのヨー角ψを算出する。
このとき、姿勢角算出部14は、回転角量22(変化量)と映像基準方位23とを時刻Tにおけるヨー角ψに加算し、移動体のヨー角ψを算出する。
<S507: Yaw Angle ψ Calculation Process>
Then, the attitude angle calculation unit 14 adds the amount of change in the yaw angle ψ to the yaw angle ψ at time T 0 to calculate the yaw angle ψ at time T 1 .
At this time, the posture angle calculation unit 14 adds the rotation angle amount 22 (change amount) and the video reference orientation 23 to the yaw angle ψ at time T 0 to calculate the yaw angle ψ of the moving object.

図14は、実施の形態4における移動方向検出部21と姿勢角算出部14が実行するヨー角ψ変化量算出処理(S506)とヨー角ψ算出処理(S507)とを示す概念図である。
図14に、移動方向検出部21と姿勢角算出部14により、移動体のヨー角ψを算出する例を示す。
FIG. 14 is a conceptual diagram showing a yaw angle ψ variation calculation process (S506) and a yaw angle ψ calculation process (S507) executed by the movement direction detection unit 21 and the posture angle calculation unit 14 in the fourth embodiment.
FIG. 14 shows an example in which the yaw angle ψ of the moving body is calculated by the moving direction detection unit 21 and the posture angle calculation unit 14.

ここで、GPS33から出力される移動体のカメラ位置情報13に基づいて、撮影時間の異なる連続した映像(映像P、映像P)を取得した位置(位置L、位置L)の変化方向が、図14に示すように移動体が「北」に進行したことを示した場合、移動方向検出部21は「北」を映像基準方位23(ヨー角=0°)として出力する。
また、移動方向検出部21は図14に示す時刻Tと時刻Tで撮影した映像Pと映像Pを重ね合わせた際の特徴点の変化量であるヨー角ψを回転角量22として出力する。
そして、姿勢角算出部14は映像の上側の方位(北)と回転角量22(ヨー角ψ)を加算することで、移動体の絶対空間座標に対するヨー角ψを求めることができる。
Here, based on the camera position information 13 of the moving body output from the GPS 33, changes in the positions (positions L 0 , L 1 ) at which continuous images (video P 0 , video P 1 ) with different shooting times are acquired are obtained. When the direction indicates that the moving body has traveled to “north” as shown in FIG. 14, the moving direction detector 21 outputs “north” as the video reference azimuth 23 (yaw angle = 0 °).
Further, the moving direction detection unit 21 uses the yaw angle ψ, which is the amount of change in the feature point when the video P 0 and the video P 1 captured at time T 0 and time T 1 shown in FIG. Output as.
Then, the attitude angle calculation unit 14 can obtain the yaw angle ψ with respect to the absolute space coordinates of the moving body by adding the upper direction (north) of the video and the rotation angle amount 22 (yaw angle ψ).

上記実施の形態4において、ジャイロなどの姿勢角測定用の専用機器を装備することなく、また、地図との照合を行うことなく、カメラシステム7のみで、移動体の姿勢角3種類(ヨー角ψ、ピッチ角φ、ロール角θ)のうち1つの角度を検出できる観測システム(移動体、姿勢角検出システム)について説明した。
上記実施の形態4における姿勢角検出装置30は、撮影時間の異なる連続した映像を比較することで角度の変化量を検出できることを一つの特徴とする。
また、GPS33により移動体の移動方向と映像の流れた方向から基準方位(例えば、ヨー角ψの場合は北)から比較した2映像のうち古い時間に撮影したときのヨー角ψが分かることを一つの特徴とする。
また、ヨー角ψ、ピッチ角φ、ロール角θのうち1つのみ検出できれば良い場合は、この2つを加算することで、新しい時間における1つの角(例えば、ヨー角ψ)が分かることを一つの特徴とする。
In the fourth embodiment, three types of posture angles (yaw angles) of the moving body can be obtained by using only the camera system 7 without providing a dedicated device for posture angle measurement such as a gyro and without collating with a map. An observation system (moving body, posture angle detection system) that can detect one angle among (ψ, pitch angle φ, roll angle θ) has been described.
One feature of the posture angle detection device 30 in the fourth embodiment is that the amount of change in angle can be detected by comparing consecutive images with different shooting times.
Also, the GPS 33 can know the yaw angle ψ when shooting at an old time out of two images compared from the reference direction (for example, north in the case of the yaw angle ψ) from the moving direction of the moving object and the direction in which the image flows. One feature.
If only one of yaw angle ψ, pitch angle φ, and roll angle θ can be detected, it is possible to know one angle (for example, yaw angle ψ) at a new time by adding the two. One feature.

実施の形態5.
実施の形態5では、前記実施の形態1と前記実施の形態4とを合わせ、移動体の姿勢角を検出するためのシステムについて説明する。
ここで、前記実施の形態1における移動体と異なる事項について説明し、その他の事項は前記実施の形態1と同様である。
Embodiment 5 FIG.
In the fifth embodiment, a system for detecting the posture angle of a moving body will be described by combining the first embodiment and the fourth embodiment.
Here, matters different from the moving body in the first embodiment will be described, and other matters are the same as those in the first embodiment.

図15は、実施の形態5における姿勢角を検出する移動体(姿勢角検出システム)の構成図である。
実施の形態5における姿勢角検出システムである移動体の構成と移動体の姿勢角を検出する姿勢角検出装置30の構成とについて図15に基づいて以下に説明する。
FIG. 15 is a configuration diagram of a mobile body (posture angle detection system) that detects a posture angle in the fifth embodiment.
The configuration of the moving body that is the posture angle detection system according to the fifth embodiment and the configuration of the posture angle detection apparatus 30 that detects the posture angle of the moving body will be described below with reference to FIG.

姿勢角検出システムである移動体は前記実施の形態1と同様にカメラシステム7、GPS33および姿勢角検出装置30を備え、また、姿勢角検出装置30は前記実施の形態1と同様に水平線検出部9、姿勢角算出部14、映像記憶機器31、位置記憶機器32を備え、前記実施の形態4と同様に移動方向検出部21を備える。   The mobile body, which is an attitude angle detection system, includes the camera system 7, the GPS 33, and the attitude angle detection device 30 as in the first embodiment, and the attitude angle detection device 30 has a horizontal line detection unit as in the first embodiment. 9, the posture angle calculation unit 14, the video storage device 31, and the position storage device 32, and the movement direction detection unit 21 as in the fourth embodiment.

実施の形態5における姿勢角検出装置30のハードウェア資源は前記実施の形態1における姿勢角検出装置30と同様である。   The hardware resources of the posture angle detection device 30 in the fifth embodiment are the same as those in the posture angle detection device 30 in the first embodiment.

図16は、実施の形態5における移動体(姿勢角検出システム)の姿勢角検出方法を示すフローチャートである。
実施の形態5における姿勢角検出装置30、位置記憶機器32およびGPS33が実行する姿勢角検出処理について、図16に基づいて以下に説明する。
図16において、S601〜S604は前記実施の形態5におけるS501〜S504と同様であり、S605〜S606は前記実施の形態1のおけるS103〜S104と同様であり、S607〜S609は前記実施の形態5におけるS505〜S507と同様である。
FIG. 16 is a flowchart showing a posture angle detection method for a moving body (posture angle detection system) in the fifth embodiment.
Attitude angle detection processing executed by the attitude angle detection device 30, the position storage device 32, and the GPS 33 in the fifth embodiment will be described below with reference to FIG.
In FIG. 16, S601 to S604 are the same as S501 to S504 in the fifth embodiment, S605 to S606 are the same as S103 to S104 in the first embodiment, and S607 to S609 are the fifth embodiment. Same as S505 to S507.

つまり、水平線検出部9は前記実施の形態1で示したように水平線位置情報10によりピッチ角φとロール角θを算出する。また、姿勢角算出部14は、撮影時間の異なる連続した映像中の特徴点をピッチ角φとロール角θで逆回転させて、ピッチ角φとロール角θによる影響を取り除く。そして、姿勢角算出部14は取り除いた映像に対して前記実施の形態4の処理を行うことで、移動体のヨー角ψを求め、移動体の絶対空間座標に対する移動体の姿勢角を算出する。   That is, the horizontal line detection unit 9 calculates the pitch angle φ and the roll angle θ from the horizontal line position information 10 as shown in the first embodiment. Further, the posture angle calculation unit 14 reversely rotates the feature points in the continuous video having different shooting times by the pitch angle φ and the roll angle θ, and removes the influence of the pitch angle φ and the roll angle θ. Then, the attitude angle calculation unit 14 performs the process of the fourth embodiment on the removed video to obtain the yaw angle ψ of the moving object, and calculates the attitude angle of the moving object with respect to the absolute space coordinates of the moving object. .

上記実施の形態5において、ジャイロなどの姿勢角測定用の専用機器を装備することなく、また、地図との照合を行うことなく、カメラシステムのみで、水平線の検出と下方映像の流れる方向に基づいて移動体の絶対空間座標に対する移動体の姿勢角を検出できる観測システムについて説明した。
上記実施の形態5における姿勢角検出装置30は、前記実施の形態1のように、移動体の前方、側方の水平線の傾きを検出することでピッチ角φとロール角θを検出することを一つの特徴とする。また、上記実施の形態5における姿勢角検出装置30は、前記実施の形態4のように映像の流れる方向からヨー角ψを検出することを一つの特徴とする。
In the fifth embodiment, based on the detection of the horizontal line and the direction in which the lower image flows, only with the camera system, without providing a dedicated device for posture angle measurement such as a gyro, and without matching with a map. The observation system that can detect the attitude angle of the moving body relative to the absolute space coordinates of the moving body is explained.
As in the first embodiment, the posture angle detection device 30 in the fifth embodiment detects the pitch angle φ and the roll angle θ by detecting the inclination of the horizontal line on the front and side of the moving body. One feature. Further, the posture angle detection device 30 in the fifth embodiment is characterized in that the yaw angle ψ is detected from the direction in which the image flows as in the fourth embodiment.

各実施の形態において、姿勢角検出装置30は移動体に搭載されていても搭載されていなくてもよい。   In each embodiment, the attitude angle detection device 30 may or may not be mounted on the moving body.

実施の形態1における姿勢角を検出する移動体(姿勢角検出システム)の構成図。FIG. 3 is a configuration diagram of a mobile body (posture angle detection system) that detects a posture angle in the first embodiment. 実施の形態1における姿勢角検出装置30のハードウェア資源の一例を示す図。FIG. 3 is a diagram illustrating an example of hardware resources of the attitude angle detection device 30 according to the first embodiment. 実施の形態1における移動体(姿勢角検出システム)の姿勢角検出方法を示すフローチャート。3 is a flowchart showing a posture angle detection method for a moving body (posture angle detection system) in the first embodiment. 実施の形態1における水平線検出部9のピッチ−ロール算出方法を示す概念図。FIG. 3 is a conceptual diagram illustrating a pitch-roll calculation method of the horizontal line detection unit 9 according to the first embodiment. 実施の形態1における水平線検出部9のピッチ−ロール算出方法を示す概念図。FIG. 3 is a conceptual diagram illustrating a pitch-roll calculation method of the horizontal line detection unit 9 according to the first embodiment. 実施の形態2におけるカメラシステム7を側面から見た断面図。Sectional drawing which looked at the camera system 7 in Embodiment 2 from the side surface. 実施の形態2におけるカメラシステム7のレンズ方向から見た断面図。Sectional drawing seen from the lens direction of the camera system 7 in Embodiment 2. FIG. 実施の形態2におけるカメラシステム7の撮影処理(S101)を示すフローチャート。9 is a flowchart illustrating a shooting process (S101) of the camera system 7 according to the second embodiment. 実施の形態2におけるカメラシステム7の撮影処理(S101)を示すフローチャート。9 is a flowchart illustrating a shooting process (S101) of the camera system 7 according to the second embodiment. 実施の形態3における姿勢角を検出する移動体(姿勢角検出システム)の構成図。FIG. 9 is a configuration diagram of a mobile body (posture angle detection system) that detects a posture angle in the third embodiment. 実施の形態3における移動体(姿勢角検出システム)の姿勢角検出方法を示すフローチャート。10 is a flowchart showing a posture angle detection method for a moving body (posture angle detection system) in the third embodiment. 実施の形態4における姿勢角を検出する移動体(姿勢角検出システム)の構成図。The block diagram of the mobile body (posture angle detection system) which detects the posture angle in Embodiment 4. FIG. 実施の形態4における移動体(姿勢角検出システム)の姿勢角検出方法を示すフローチャート。10 is a flowchart showing a posture angle detection method for a moving body (posture angle detection system) in the fourth embodiment. 実施の形態4における移動方向検出部21と姿勢角算出部14が実行するヨー角ψ変化量算出処理(S506)とヨー角ψ算出処理(S507)とを示す概念図。The conceptual diagram which shows the yaw angle (psi) change amount calculation process (S506) and the yaw angle (psi) calculation process (S507) which the moving direction detection part 21 and the attitude angle calculation part 14 in Embodiment 4 perform. 実施の形態5における姿勢角を検出する移動体(姿勢角検出システム)の構成図。FIG. 10 is a configuration diagram of a mobile body (posture angle detection system) that detects a posture angle in the fifth embodiment. 実施の形態5における移動体(姿勢角検出システム)の姿勢角検出方法を示すフローチャート。10 is a flowchart showing a posture angle detection method for a moving object (posture angle detection system) in the fifth embodiment.

符号の説明Explanation of symbols

1 素子、2 レンズ、3 視野、4 反射鏡、5 前方視野、6 側方視野、7 カメラシステム、8 映像信号、9 水平線検出部、10 水平線位置情報、11 目標抽出部、12 既知目標方向、13 カメラ位置情報、14 姿勢角算出部、15 水平線、16 映像、17 中心、18 交点、19 焦点距離、20 変位角、21 移動方向検出部、22 回転角量、23 映像基準方位、30 姿勢角検出装置、31 映像記憶機器、32 位置記憶機器、33 GPS、34 駆動装置、911 CPU、912 バス、913 ROM、914 RAM、915 通信ボード、920 磁気ディスク装置、921 OS、923 プログラム群、924 ファイル群。   1 element, 2 lens, 3 field of view, 4 reflector, 5 forward field of view, 6 side field of view, 7 camera system, 8 video signal, 9 horizontal line detection unit, 10 horizontal line position information, 11 target extraction unit, 12 known target direction, 13 camera position information, 14 posture angle calculation unit, 15 horizontal line, 16 images, 17 center, 18 intersection, 19 focal length, 20 displacement angle, 21 movement direction detection unit, 22 rotation angle amount, 23 image reference azimuth, 30 posture angle Detection device, 31 video storage device, 32 position storage device, 33 GPS, 34 drive device, 911 CPU, 912 bus, 913 ROM, 914 RAM, 915 communication board, 920 magnetic disk device, 921 OS, 923 program group, 924 file group.

Claims (11)

移動体の姿勢角としてピッチ角φとロール角θとヨー角ψとを検出する姿勢角検出装置であり、
カメラにより撮影された移動体の前方と後方との少なくともいずれかを表わす前後映像とカメラにより撮影された移動体の右側方と左側方との少なくともいずれかを表わす側方映像とを記憶する映像記憶機器と、
前記映像記憶機器から前後映像と側方映像とを取得し取得した前後映像と側方映像とから水平線を中央処理装置を用いて抽出する水平線抽出部と、
前記水平線抽出部が前後映像から抽出した水平線の前後映像における位置と前記水平線抽出部が側方映像から抽出した水平線の側方映像における位置とに基づいてピッチ角φとロール角θとを中央処理装置を用いて算出するピッチ−ロール算出部と、
測位機により測位された移動体の測位座標と既知物の既知座標とに基づいて移動体から既知物への方向ベクトルPを中央処理装置を用いて算出するベクトルP算出部と、
前記映像記憶機器から前後映像と側方映像とを取得し取得した前後映像と側方映像との少なくともいずれかから既知物を中央処理装置を用いて抽出する既知物抽出部と、
前記既知物抽出部が抽出した既知物の前後映像と側方映像との少なくともいずれかにおける位置に基づいて移動体から既知物への方向ベクトルPを中央処理装置を用いて算出するベクトルP算出部と、
前記ベクトルP算出部が算出した方向ベクトルPと前記ベクトルP算出部が算出した方向ベクトルPと前記ピッチ−ロール算出部が算出したピッチ角φと前記ピッチ−ロール算出部が算出したロール角θとに基づいて中央処理装置を用いてヨー角ψを算出するヨー角ψ算出部と
を備えたことを特徴とする姿勢角検出装置。
A posture angle detection device that detects a pitch angle φ, a roll angle θ, and a yaw angle ψ as a posture angle of a moving body,
Video storage for storing front and rear images representing at least one of the front and rear of the moving object photographed by the camera and a side image representing at least one of the right side and the left side of the moving object photographed by the camera Equipment,
A horizontal line extraction unit that extracts a horizontal line from the front and rear video and the side video obtained by acquiring the front and rear video and the side video from the video storage device using a central processing unit;
The pitch angle φ and the roll angle θ are centrally processed based on the positions of the horizontal lines extracted from the front and rear images by the horizontal line extraction unit in the front and rear images and the positions of the horizontal lines extracted from the side images by the horizontal line extraction unit. A pitch-roll calculating unit that calculates using an apparatus;
A vector P 0 calculation unit for calculating a direction vector P 0 from the moving object to the known object based on the positioning coordinates of the moving object measured by the positioning machine and the known coordinates of the known object using a central processing unit;
A known object extraction unit for extracting a known object from at least one of the front and rear images and the side images obtained by acquiring the front and rear images and the side images from the image storage device; and
Vector P 1 calculated using the central processing unit direction vector P 1 to a known object from the moving body based on the position of at least one of the front and rear image and a lateral image of the known object extraction unit known product extracted by the A calculation unit;
The vector P 0 calculator and direction vectors P 0 calculated is the vector P 1 calculation section and the direction vector P 1 calculated the pitch - the pitch angle φ of the roll calculating unit has calculated pitch - roll calculating unit has calculated A posture angle detection device comprising: a yaw angle ψ calculation unit that calculates a yaw angle ψ using a central processing unit based on the roll angle θ.
前記ヨー角ψ算出部は以下の式に基づいてヨー角ψを算出することを特徴とする請求項1記載の姿勢角検出装置。
Figure 2007255955
The posture angle detection device according to claim 1, wherein the yaw angle ψ calculating unit calculates the yaw angle ψ based on the following equation.
Figure 2007255955
前記ピッチ−ロール算出部は、
前後映像の中心線から前後映像の水平線までの距離とカメラのレンズの焦点距離とに基づいてピッチ角φを中央処理装置を用いて算出し側方映像の中心線から側方映像の水平線までの距離とカメラのレンズの焦点距離とに基づいてロール角θを中央処理装置を用いて算出する
ことを特徴とする請求項1〜請求項2いずれかに記載の姿勢角検出装置。
The pitch-roll calculating unit
Based on the distance from the center line of the front and rear images to the horizontal line of the front and rear images and the focal length of the camera lens, the pitch angle φ is calculated using a central processing unit, and the distance from the center line of the side images to the horizontal line of the side images is calculated. The posture angle detection device according to claim 1, wherein the roll angle θ is calculated using a central processing unit based on the distance and the focal length of the camera lens.
移動体の姿勢角としてピッチ角φとロール角θとヨー角ψとを検出する姿勢角検出装置であり、
カメラにより撮影された移動体の前方と後方との少なくともいずれかを表わす前後映像とカメラにより撮影された移動体の右側方と左側方との少なくともいずれかを表わす側方映像との少なくともいずれかを記憶する映像記憶機器と、
測位機により測位された移動体の測位座標と3つ以上の既知物の既知座標とに基づいて移動体から各既知物への方向ベクトルP01と方向ベクトルP02と方向ベクトルP03とを中央処理装置を用いて算出するベクトルP算出部と、
前記映像記憶機器から前後映像と側方映像とを取得し取得した前後映像と側方映像との少なくともいずれかから3つ以上の当該既知物を中央処理装置を用いて抽出する既知物抽出部と、
前記既知物抽出部が抽出した各既知物の前後映像と側方映像との少なくともいずれかにおける位置に基づいて移動体から各既知物への方向ベクトルP11と方向ベクトルP12と方向ベクトルP13とを中央処理装置を用いて算出するベクトルP算出部と、
前記ベクトルP算出部が算出した方向ベクトルP01と方向ベクトルP02と方向ベクトルP03と前記ベクトルP算出部が算出した方向ベクトルP11と方向ベクトルP12と方向ベクトルP13とに基づいて中央処理装置を用いてピッチ角φとロール角θとヨー角ψとを算出する姿勢角算出部と
を備えたことを特徴とする姿勢角検出装置。
A posture angle detection device that detects a pitch angle φ, a roll angle θ, and a yaw angle ψ as a posture angle of a moving body,
At least one of a front and rear image representing at least one of the front and rear of the moving object photographed by the camera and a side image representing at least one of the right side and the left side of the moving object photographed by the camera. A video storage device to store,
Based on the positioning coordinates of the moving body measured by the positioning machine and the known coordinates of three or more known objects, the direction vector P 01 , the direction vector P 02 and the direction vector P 03 from the moving body to each known object are centered. A vector P 0 calculation unit to be calculated using a processing device;
A known object extraction unit that extracts three or more known objects from at least one of the front and rear images and the side images obtained by acquiring the front and rear images and the side images from the image storage device; ,
The known product direction vector P 11 and the direction vector P 12 of the extraction unit based on the position of at least one of the front and rear image and the side image of each known product extracted from the mobile to the known object and the direction vector P 13 And a vector P 1 calculation unit that calculates using a central processing unit;
Based on the direction vector P 01 , the direction vector P 02 , the direction vector P 03 calculated by the vector P 0 calculation unit, the direction vector P 11 , the direction vector P 12, and the direction vector P 13 calculated by the vector P 1 calculation unit. And a posture angle calculation unit that calculates a pitch angle φ, a roll angle θ, and a yaw angle ψ using a central processing unit.
前記姿勢角算出部は以下の連立方程式に基づいてピッチ角φとロール角θとヨー角ψとを算出することを特徴とする請求項4記載の姿勢角検出装置。
Figure 2007255955
The posture angle detection device according to claim 4, wherein the posture angle calculation unit calculates a pitch angle φ, a roll angle θ, and a yaw angle ψ based on the following simultaneous equations.
Figure 2007255955
移動体の姿勢角としてヨー角ψとピッチ角φとロール角θとのいずれかを検出する姿勢角検出装置であり、
カメラにより時刻Tに撮影された移動体の特定方向を表わす特定映像Pとカメラにより時刻Tに撮影された移動体の前記特定方向を表わす特定映像Pとを記憶する映像記憶機器と、
前記映像記憶機器から特定映像Pと特定映像Pとを取得し特定映像Pと特定映像Pとから同一の特定物を中央処理装置を用いて抽出する特定物抽出部と、
前記特定物抽出部が抽出した特定物の特定映像Pにおける位置と特定映像Pにおける位置とに基づいて時刻Tから時刻Tまでのヨー角ψとピッチ角φとロール角θとのいずれかの変化量を中央処理装置を用いて算出する姿勢角変化量算出部と、
前記姿勢角変化量算出部が算出したヨー角ψとピッチ角φとロール角θとのいずれかの変化量を時刻Tにおけるヨー角ψとピッチ角φとロール角θとのいずれかに加算して時刻Tにおけるヨー角ψとピッチ角φとロール角θとのいずれかを中央処理装置を用いて算出する姿勢角算出部と
を備えたことを特徴とする姿勢角検出装置。
A posture angle detection device that detects any of a yaw angle ψ, a pitch angle φ, and a roll angle θ as a posture angle of a moving body,
A video storage device for storing a specific video P 0 representing a specific direction of the moving body photographed by the camera at time T 0 and a specific video P 1 representing the specific direction of the mobile body photographed by the camera at time T 1 ; ,
A specific object extraction unit for extracting with a central processing unit of the same specific object from a specific image P 0 and the specific image P 1 and the specific image P 0 to obtain specific image P 1 Metropolitan from the video storage device,
The yaw angle ψ, the pitch angle φ, and the roll angle θ from time T 0 to time T 1 based on the position of the specific object extracted by the specific object extraction unit in the specific image P 0 and the position in the specific image P 1 . A posture angle change amount calculation unit for calculating any change amount using a central processing unit;
The change amount of any one of the yaw angle ψ, the pitch angle φ, and the roll angle θ calculated by the posture angle change amount calculation unit is added to any of the yaw angle ψ, the pitch angle φ, and the roll angle θ at time T 0 . And a posture angle calculation unit that calculates any one of the yaw angle ψ, the pitch angle φ, and the roll angle θ at time T1 using a central processing unit.
移動体の姿勢角としてピッチ角φとロール角θとヨー角ψとを検出する姿勢角検出装置であり、
カメラにより撮影された移動体の前方と後方との少なくともいずれかを表わす前後映像とカメラにより撮影された移動体の右側方と左側方との少なくともいずれかを表わす側方映像とカメラにより時刻Tに撮影された移動体の特定方向を表わす特定映像Pとカメラにより時刻Tに撮影された移動体の特定方向を表わす特定映像Pとを記憶する映像記憶機器と、
前記映像記憶機器から前後映像と側方映像とを取得し取得した前後映像と側方映像とから水平線を中央処理装置を用いて抽出する水平線抽出部と、
前記水平線抽出部が前後映像から抽出した水平線の前後映像における位置と前記水平線抽出部が側方映像から抽出した水平線の側方映像における位置とに基づいてピッチ角φとロール角θとを中央処理装置を用いて算出するピッチ−ロール算出部と、
前記映像記憶機器から特定映像Pと特定映像Pとを取得し特定映像Pと特定映像Pとから同一の特定物を中央処理装置を用いて抽出する特定物抽出部と、
前記特定物抽出部が抽出した特定物の特定映像Pにおける位置と特定映像Pにおける位置とに基づいて時刻Tから時刻Tまでのヨー角ψの変化量を算出するヨー角ψ変化量算出部と、
前記ヨー角ψ変化量算出部が算出したヨー角ψの変化量を時刻Tにおけるヨー角ψに加算して時刻Tにおけるヨー角ψを算出するヨー角ψ算出部と
を備えたことを特徴とする姿勢角検出装置。
A posture angle detection device that detects a pitch angle φ, a roll angle θ, and a yaw angle ψ as a posture angle of a moving body,
Time T 0 by the front and rear images representing at least one of the front and rear of the moving object photographed by the camera, the side image representing at least one of the right and left sides of the moving object photographed by the camera, and the camera. A video storage device that stores a specific video P 0 representing a specific direction of the moving body photographed at a time T1 and a specific video P 1 representing a specific direction of the moving body photographed by the camera at time T 1 ;
A horizontal line extraction unit that extracts a horizontal line from the front and rear video and the side video obtained by acquiring the front and rear video and the side video from the video storage device using a central processing unit;
The pitch angle φ and the roll angle θ are centrally processed based on the positions of the horizontal lines extracted from the front and rear images by the horizontal line extraction unit in the front and rear images and the positions of the horizontal lines extracted from the side images by the horizontal line extraction unit. A pitch-roll calculating unit that calculates using an apparatus;
A specific object extraction unit for extracting with a central processing unit of the same specific object from a specific image P 0 and the specific image P 1 and the specific image P 0 to obtain specific image P 1 Metropolitan from the video storage device,
The yaw angle ψ change for calculating the change amount of the yaw angle ψ from time T 0 to time T 1 based on the position of the specific object extracted by the specific object extraction unit in the specific video P 0 and the position in the specific video P 1 . A quantity calculator;
A yaw angle ψ calculating unit that calculates the yaw angle ψ at time T 1 by adding the change amount of the yaw angle ψ calculated by the yaw angle ψ change amount calculating unit to the yaw angle ψ at time T 0 . A characteristic posture angle detection device.
レンズへの入射光に基づいて映像を生成するカメラにおいて、
入射した光を反射してレンズに入射させる反射鏡と、
レンズの光軸を回転軸にして前記反射鏡を回転させる駆動装置と
を備えたことを特徴とするカメラ。
In a camera that generates an image based on light incident on a lens,
A reflecting mirror that reflects incident light and enters the lens;
A camera comprising: a driving device that rotates the reflecting mirror with the optical axis of the lens as a rotation axis.
前記反射鏡は曲面状を成し曲面の接線とレンズの光軸とが成す角がレンズの入光角以下になる曲面を有する
ことを特徴とする請求項8記載のカメラ。
9. The camera according to claim 8, wherein the reflecting mirror has a curved surface and an angle formed by a tangent to the curved surface and an optical axis of the lens is equal to or smaller than a light incident angle of the lens.
前記駆動装置は映像を生成する映像取得周期内に前記反射鏡を回転方向の全周に配置して前記反射鏡を回転させる
ことを特徴とする請求項8〜請求項9いずれかに記載のカメラ。
The camera according to any one of claims 8 to 9, wherein the driving device rotates the reflecting mirror by arranging the reflecting mirror around the entire circumference in a rotation direction within an image acquisition cycle for generating an image. .
前記反射鏡は半円形であり、
前記駆動装置は映像を生成する映像取得周期当たりに1回転以上の速さで前記反射鏡を回転させる
ことを特徴とする請求項8〜請求項9いずれかに記載のカメラ。
The reflector is semicircular;
The camera according to any one of claims 8 to 9, wherein the driving device rotates the reflecting mirror at a speed of one rotation or more per image acquisition period for generating an image.
JP2006078014A 2006-03-22 2006-03-22 Attitude angle detector and camera Withdrawn JP2007255955A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006078014A JP2007255955A (en) 2006-03-22 2006-03-22 Attitude angle detector and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006078014A JP2007255955A (en) 2006-03-22 2006-03-22 Attitude angle detector and camera

Publications (1)

Publication Number Publication Date
JP2007255955A true JP2007255955A (en) 2007-10-04

Family

ID=38630363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006078014A Withdrawn JP2007255955A (en) 2006-03-22 2006-03-22 Attitude angle detector and camera

Country Status (1)

Country Link
JP (1) JP2007255955A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100926760B1 (en) * 2007-12-17 2009-11-16 삼성전자주식회사 Location recognition and mapping method of mobile robot
US8873802B2 (en) 2012-01-18 2014-10-28 Samsung Electronics Co., Ltd. Method and apparatus for camera tracking
US9285460B2 (en) * 2014-04-14 2016-03-15 Saab Vricon Systems Ab Method and system for estimating information related to a vehicle pitch and/or roll angle
WO2019239460A1 (en) * 2018-06-11 2019-12-19 三菱電機株式会社 Camera calibration device
CN114018108A (en) * 2021-09-17 2022-02-08 中国人民解放军63875部队 Single-station attitude processing method based on matching of linear vector direction and image length

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100926760B1 (en) * 2007-12-17 2009-11-16 삼성전자주식회사 Location recognition and mapping method of mobile robot
US8873802B2 (en) 2012-01-18 2014-10-28 Samsung Electronics Co., Ltd. Method and apparatus for camera tracking
US9285460B2 (en) * 2014-04-14 2016-03-15 Saab Vricon Systems Ab Method and system for estimating information related to a vehicle pitch and/or roll angle
WO2019239460A1 (en) * 2018-06-11 2019-12-19 三菱電機株式会社 Camera calibration device
CN114018108A (en) * 2021-09-17 2022-02-08 中国人民解放军63875部队 Single-station attitude processing method based on matching of linear vector direction and image length
CN114018108B (en) * 2021-09-17 2023-03-28 中国人民解放军63875部队 Single-station attitude processing method based on matching of linear vector direction and image length

Similar Documents

Publication Publication Date Title
JP5832341B2 (en) Movie processing apparatus, movie processing method, and movie processing program
EP3228986B1 (en) Surveying system
US8723953B2 (en) Generation of aerial images
JP6658001B2 (en) Position estimation device, program, position estimation method
US7733342B2 (en) Method of extracting 3D building information using shadow analysis
JP5992184B2 (en) Image data processing apparatus, image data processing method, and image data processing program
CN112219087A (en) Pose prediction method, map construction method, movable platform and storage medium
CN107560603B (en) Unmanned aerial vehicle oblique photography measurement system and measurement method
JP4619962B2 (en) Road marking measurement system, white line model measurement system, and white line model measurement device
CN105324792B (en) For estimating method of the moving element relative to the angular displacement of reference direction
CN108780577A (en) Image processing method and equipment
US20180075614A1 (en) Method of Depth Estimation Using a Camera and Inertial Sensor
US10401175B2 (en) Optical inertial measurement apparatus and method
JP2010014450A (en) Position measurement method, position measurement device, and program
JP2009501996A (en) Image geometric correction method and apparatus
KR101575954B1 (en) Apparatus for augmented reality using 3d reconstruction and mehhod thereof
CN111247389B (en) Data processing method and device for shooting equipment and image processing equipment
US11566896B2 (en) Surveying system with image-based measuring
JP4077385B2 (en) Global coordinate acquisition device using image processing
JP2007255955A (en) Attitude angle detector and camera
JP4361913B2 (en) Motion calculation device
JP6482856B2 (en) Monitoring system
JP2006309450A (en) Image recognition device and image recognition method
WO2018100230A1 (en) Method and apparatuses for determining positions of multi-directional image capture apparatuses
JP2015220623A (en) Mobile body imaging system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080711

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090616