JP2011151636A - Compound eye camera and camera application equipment - Google Patents

Compound eye camera and camera application equipment Download PDF

Info

Publication number
JP2011151636A
JP2011151636A JP2010011707A JP2010011707A JP2011151636A JP 2011151636 A JP2011151636 A JP 2011151636A JP 2010011707 A JP2010011707 A JP 2010011707A JP 2010011707 A JP2010011707 A JP 2010011707A JP 2011151636 A JP2011151636 A JP 2011151636A
Authority
JP
Japan
Prior art keywords
camera
information
image
cameras
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010011707A
Other languages
Japanese (ja)
Inventor
Masao Watari
雅男 渡
Makoto Sasaki
良 佐々木
Norihiro Tsukiyama
典弘 築山
Toshiyuki Kobayashi
利行 小林
Machiko Niina
真知子 新名
Shozo Aoi
正三 青井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MATHEMATEC CORP
Original Assignee
MATHEMATEC CORP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MATHEMATEC CORP filed Critical MATHEMATEC CORP
Priority to JP2010011707A priority Critical patent/JP2011151636A/en
Publication of JP2011151636A publication Critical patent/JP2011151636A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a compound eye camera which generates an image having an expanded viewing angle, and measures distance of an object with a viewing angle nearly equal to that of a camera image from the camera image, and to provide camera application equipment which attains a new functions, is low-cost and has high performance. <P>SOLUTION: A wide image with a visual field of 2α is generated and the distance is measured by arranging two cameras a, b with the same horizontal view angle α in such a manner that the optical axes of the cameras a, b cross each other at the same angle α as a horizontal view angle α on a plane including the lens centers of the two cameras a, b, and by compositing images. Furthermore, in the case of a four-eye camera which is similarly arranged, a picture with a visual field of 2βis generated also in the vertical direction, and a distance measurement range is also similarly expanded. In addition, an image information data amount of transmission and recording is reduced, and at the same time storage of things left behind and place finding game, etc. are played by storing a background image to record change of background by a moving object/person extraction part, body type information of the person is left as growth record from motion start part information, and a function such as grading of dance, etc. is provided from comparison with motion information of a teacher. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、複眼カメラおよびカメラ応用機器に関し、特に複数のカメラ画像から視野角を拡大した画像を合成すると共に、同じ視野角で被写体の距離を測定可能とした複眼カメラ、およびゲーム機、自動車、WEBなどにおいて、新規の機能を実現するカメラ応用機器に関する。   The present invention relates to a compound-eye camera and a camera application device, and more particularly to a compound-eye camera, a game machine, an automobile, and an apparatus capable of synthesizing an image with an enlarged viewing angle from a plurality of camera images and measuring a subject distance at the same viewing angle. The present invention relates to a camera application device that realizes a new function in WEB or the like.

近年、ゲーム機、家電機器、防犯、自動車、ロボットなどの多くの分野において、画像認識技術と距離測定技術とを併用した応用の実用化が活発化している。画像認識技術では、一般の高画質デジタルカメラと異なり、画素数が比較的少なく、安価なカメラが多く用いられているが、今後ワイド画面の提供なども含め機能や性能をより魅力あるものにするために広視野角のカメラが期待される。   In recent years, in many fields such as game machines, home appliances, crime prevention, automobiles, and robots, practical application of image recognition technology and distance measurement technology in combination has become active. Unlike general high-quality digital cameras, image recognition technology uses a relatively small number of inexpensive cameras with a relatively small number of pixels. In the future, functions and performance will become more attractive, including the provision of wide screens. Therefore, a camera with a wide viewing angle is expected.

広視野角のカメラを実現するには、広角レンズを用いる方法や、複眼カメラの撮像された画像を合成処理して実現する方法がある。しかし広角レンズは高価であると同時に樽型歪が生じる為の歪補正処理を必要とする問題があり、また標準レンズ向けの撮像素子で広視野画像の取得を行う為、解像度が劣化する問題がある。   In order to realize a camera with a wide viewing angle, there are a method using a wide-angle lens and a method for realizing by combining a captured image of a compound eye camera. However, wide-angle lenses are expensive and have a problem that requires distortion correction processing to cause barrel distortion. Also, since a wide-field image is acquired with an image sensor for a standard lens, there is a problem that resolution deteriorates. is there.

複眼カメラを用いる方法は、二倍の画角の画像取得する方法として二眼パノラマが多く提案されている。例えば、特許文献1の「パノラマカメラの配置方法及びその構築法」の提案では、撮像レンズを垂直方向に重なるように配置し、水平方向のレンズ中心を揃え視差の少ない方法が考案されている。しかしこの方法でも視差は残り、また垂直方向の近接画像での垂直画角のずれという大きな問題と垂直方向の視差の問題が残る。   As a method using a compound eye camera, many binocular panoramas have been proposed as a method for acquiring an image having a double angle of view. For example, in the proposal of “Panorama Camera Arrangement Method and its Construction Method” in Patent Document 1, a method has been devised in which imaging lenses are arranged so as to overlap in the vertical direction, the center of the lens in the horizontal direction is aligned, and there is little parallax. However, even with this method, parallax remains, and there remains a major problem of vertical field angle shift in a close image in the vertical direction and a problem of vertical parallax.

一方距離測定技術では、車載応用はミリ波レーダや超音波ソナーが、その他の応用は赤外線が主に利用されている。しかし電波、音波、赤外線の発信器が必要であり、反射の時間差を利用した距離測定を行うことから複数点の距離を同時計測する場合には高価なセンサーが必要であり、また広い角度の範囲の距離測定は実現していない。さらに画像認識結果との直接的な関係付けが困難であるなど連動処理上の問題がある。   On the other hand, in the distance measurement technology, millimeter wave radar and ultrasonic sonar are mainly used for in-vehicle applications, and infrared rays are mainly used for other applications. However, radio waves, sound waves, and infrared transmitters are required, and distance measurement is performed using the time difference of reflection. Therefore, when measuring multiple points at the same time, an expensive sensor is required, and a wide angle range is required. No distance measurement has been realized. In addition, there is a problem in linked processing such as difficulty in directly relating to the image recognition result.

その為、画像認識と距離測定をカメラ画像情報から同時に行い連動させるアプローチが検討されている。その代表は車載応用で検討されているステレオカメラのアプローチである。しかし従来のステレオカメラでは、レンズの水平画角以上の視野角の合成画像が得られない問題と距離計算可能角度範囲がレンズの水平画角以下である問題がある。   Therefore, an approach in which image recognition and distance measurement are performed simultaneously from camera image information is being studied. A representative example is the stereo camera approach that is being studied for in-vehicle applications. However, the conventional stereo camera has a problem that a composite image having a viewing angle larger than the horizontal angle of view of the lens cannot be obtained and a range in which the distance can be calculated is less than the horizontal angle of view of the lens.

次にカメラ画像や距離情報を利用した応用に目を向けると、例えばゲーム機や家電機器のモーションコントロールなどで動き認識を利用したものがある。しかし距離情報を用いるアプローチのほとんどは例えばTOF(Time Of Flight)方式の赤外線センサーなどを用いたものや、画像と加速度センサーなどを利用したリモコンを用いるなど、使用形態の制限が大きく、またゲーム機などではカメラ情報をゲーム機本体で処理を行うなど、ゲーム機の計算負担が大きいなどの問題がある。また防犯カメラでも単に映像をディスプレイで見るか記録するなどの機能が殆どであり、画像認識を利用したものも真に有効な機能は極めて少ないのが現状である。   Next, looking at applications using camera images and distance information, for example, there are those using motion recognition in motion control of game machines and home appliances. However, most of the approaches using distance information are, for example, those using a TOF (Time Of Flight) type infrared sensor or the like, or using a remote control using an image and an acceleration sensor. However, there is a problem that the calculation burden of the game machine is heavy, such as processing camera information on the game machine body. Also, security cameras have almost all functions such as simply viewing or recording video on a display, and there are very few functions that are truly effective using image recognition.

特開2002−369060号公報JP 2002-369060 A

本発明は、このような問題点を解決するためになされたもので、レンズの画角の2倍以上の広視野角のカメラを実現し、同時に画像情報から距離測定を広視野角に対して可能とする複眼カメラを提供すること、およびカメラ応用機器では特に固定点で使用するカメラにおいて新たな機能を実現することを目的とする。   The present invention has been made to solve such problems, and has realized a camera with a wide viewing angle that is twice or more the angle of view of a lens, and at the same time, distance measurement from image information with respect to a wide viewing angle. An object of the present invention is to provide a compound eye camera that can be used, and to realize a new function in a camera application device, particularly in a camera used at a fixed point.

請求項1の発明においては、水平画角α(または垂直画角β)の同一の2つのカメラa、bを具備し、カメラa,bのレンズ中心を含む平面上でカメラaの光軸a2とカメラbの光軸b2を水平画角α(または垂直画角β)と同じ角度α(またはβ)で交差するように配置する。尚、2つの光軸の交差する点を通り、かつ同一平面上の直線で2つの光軸と同じ角度(つまりα/2またはβ/2)の直線を以下では平均光軸Xabと表すことにする。   In the first aspect of the present invention, two optical cameras a and b having the same horizontal angle of view α (or vertical angle of view β) are provided, and the optical axis a2 of the camera a on a plane including the lens centers of the cameras a and b. And the optical axis b2 of the camera b are arranged so as to intersect at the same angle α (or β) as the horizontal angle of view α (or vertical angle of view β). In the following, a straight line passing through a point where two optical axes intersect and having the same angle as the two optical axes (that is, α / 2 or β / 2) on the same plane will be expressed as an average optical axis Xab. To do.

請求項2の発明においては、水平画角αの同一の4つのカメラa,b,c,dの内、カメラa,bまたはカメラc,dの両方が請求項1記載の複眼カメラであり、4つのレンズ中心を含む平面上でカメラaの光軸とカメラcの光軸を平行にし、カメラbの光軸とカメラdの光軸を平行になるように配置する。 In the invention of claim 2, among the four cameras a, b, c, d having the same horizontal angle of view α, both of the cameras a, b or cameras c, d are the compound eye cameras of claim 1, The optical axis of the camera a and the optical axis of the camera c are arranged in parallel on a plane including the four lens centers, and the optical axis of the camera b and the optical axis of the camera d are arranged in parallel.

請求項3の発明においては、水平画角α、垂直画角βの4つの同一のカメラa,b,e,fを具備し、カメラa,bおよびカメラe,fの両方が請求項1記載の複眼カメラであり、カメラa,bの平均光軸Xabとカメラe,fの平均光軸Xefの成す平面上で角度βで交差するように配置する。 According to a third aspect of the present invention, there are provided four identical cameras a, b, e, and f having a horizontal angle of view α and a vertical angle of view β, and both the cameras a and b and the cameras e and f are described in the first aspect. Are arranged so as to intersect at an angle β on a plane formed by the average optical axis Xab of the cameras a and b and the average optical axis Xef of the cameras e and f.

また請求項4の発明のように、請求項1ないし請求項3の複眼カメラを少なくとも1つ具備し、これら複眼カメラ(/および1眼カメラ)を組み合わせて構成してもよい。   Further, as in the invention of claim 4, at least one compound eye camera of claims 1 to 3 may be provided, and these compound eye cameras (/ and single camera) may be combined.

また請求項5の発明のように、請求項1ないし請求項4の複眼カメラを設け、画像合成部を設けてもよい。   Further, as in the invention of claim 5, the compound-eye camera of claims 1 to 4 may be provided, and an image composition unit may be provided.

また請求項6の発明のように、請求項1ないし請求項5の複眼カメラを設け、画角の重なり領域の距離計算を行う距離計算部を設ける構成としてもよい。   Further, as in the invention of claim 6, the compound eye camera of claims 1 to 5 may be provided, and a distance calculation unit for calculating the distance of the overlapping region of view angles may be provided.

また請求項7の発明のように、複眼カメラ、被写体三次元座標計算部、仮想カメラ情報入力部、仮想撮像情報距離計算部を具備し、複眼カメラの複数のカメラの画像出力から被写体三次元座標計算部で被写体の三次元座標値を計算し、この三次元座標値と仮想カメラ情報入力部からの仮想レンズ中心座標値と仮想光軸ベクトル値から、仮想撮像情報距離計算部で計算し、仮想レンズ中心にあるピンホールカメラと同等の合成画像を得る構成とする。   According to a seventh aspect of the invention, a compound eye camera, a subject three-dimensional coordinate calculation unit, a virtual camera information input unit, and a virtual imaging information distance calculation unit are provided, and subject three-dimensional coordinates are obtained from image outputs of a plurality of cameras of the compound eye camera. The calculation unit calculates the three-dimensional coordinate value of the subject, calculates the virtual imaging information distance calculation unit from the three-dimensional coordinate value, the virtual lens center coordinate value and the virtual optical axis vector value from the virtual camera information input unit, A composite image equivalent to a pinhole camera at the center of the lens is obtained.

また請求項8の発明のように、請求項7記載の複眼カメラに関し、光軸収束点計算部を具備し、仮想カメラ情報入力部からは仮想3Dカメラの2つの仮想光軸ベクトルおよび被写体三次元座標計算部で計算された被写体の三次元座標値を光軸収束点計算部に入力し、光軸収束点を再計算により2つの再計算光軸ベクトルを計算し、計算結果を仮想撮像情報距離計算部で、2つのレンズに対応する仮想撮像情報を計算し、2チャンネルの合成画像データおよび距離データを出力する構成とする。   Further, as in the eighth aspect of the invention, the compound-eye camera according to the seventh aspect includes an optical axis convergence point calculation unit, and from the virtual camera information input unit, two virtual optical axis vectors of the virtual 3D camera and a three-dimensional object. The three-dimensional coordinate value of the subject calculated by the coordinate calculation unit is input to the optical axis convergence point calculation unit, and two recalculated optical axis vectors are calculated by recalculating the optical axis convergence point. The calculation unit calculates virtual imaging information corresponding to the two lenses, and outputs 2-channel composite image data and distance data.

次に本発明の請求項9から請求項17のカメラ応用機器に関する課題解決の手段を示す。請求項9の発明においてカメラ、背景画像記憶部、移動物人物付随物抽出部、背景画像計算制御部を具備し、カメラからの撮像情報と移動物人物付随物抽出部からの現移動物人物付随物情報と現背景画像の3つの情報を背景画像計算制御部に入力し、移動物人物付随物情報から付随物が移動物または(/および)人物から離脱したと判断できる時に、付随物の離脱判断部分を現背景画像に上書きし、次背景画像として背景画像記憶部を更新することを特徴とする。   Next, means for solving the problems related to the camera application apparatus according to claims 9 to 17 of the present invention will be described. The invention according to claim 9 comprises a camera, a background image storage unit, a moving object person incidental extraction unit, and a background image calculation control unit, and includes imaging information from the camera and the present moving object person from the moving object person extraction unit. When the object information and the current background image are input to the background image calculation control unit and it can be determined from the moving object person accompanying information that the accompanying object has left the moving object or / and the person, the accompanying object is removed. The determination part is overwritten on the current background image, and the background image storage unit is updated as the next background image.

また請求項10の発明において、請求項9記載のカメラ応用機器に関し、背景変化記憶部、タイマー、背景変化確認制御部、初期背景画像記憶部を具備し、背景画像記憶部を更新すると同時に、更新時の背景と異なった変化画像情報を時系列情報とともに、背景変化記憶部に格納し、背景変化確認制御部の指示で、指定された時間の背景画像を初期背景画像記憶部の画像と背景変化記憶部の画像から随時で背景画像の再生成処理を行い確認できることを特徴とする。   The invention according to claim 10 relates to the camera application device according to claim 9, comprising a background change storage unit, a timer, a background change confirmation control unit, and an initial background image storage unit, and simultaneously updating the background image storage unit. The change image information different from the background of the time is stored in the background change storage unit together with the time series information, and the background image at the specified time is changed from the image of the initial background image storage unit and the background change by the instruction of the background change confirmation control unit. It is characterized in that a background image can be regenerated and confirmed at any time from an image in a storage unit.

また請求項11の発明のように、請求項9記載のカメラ応用機器に関し、ホスト機器または(/および)カメラ内画像記憶装置を具備し、予めホスト機器または(/および)カメラ内画像記憶装置に背景画像記憶部の初期情報を送信し、その後は、背景画像記憶部が更新される毎に更新情報をホストに送信し、また移動物・人物抽出部の情報は随時送信し、データ通信量を減らし、カメラ情報の送信情報量や記憶装置容量を削減する構成とする。   Further, as in the invention of claim 11, the camera application device of claim 9 is provided with a host device or / and an in-camera image storage device, and the host device or / and the in-camera image storage device in advance. The initial information of the background image storage unit is transmitted, and thereafter, the update information is transmitted to the host every time the background image storage unit is updated, and the information of the moving object / person extraction unit is transmitted as needed to The transmission information amount of camera information and the storage device capacity are reduced.

また請求項12の発明のように、請求項9記載のカメラ応用機器に関し、ホスト機器および移動物人物付随物抽出部からの動き情報を抽出する動き抽出部を具備し、通信回線を通して動き情報だけをホスト機器等へ送信し、ホスト機器へのデータ通信量を減らすことを特徴とする構成としてもよい。   Further, as in the twelfth aspect of the present invention, the camera application device according to the ninth aspect includes a motion extraction unit that extracts motion information from the host device and the moving object human accompanying extraction unit, and only the motion information is transmitted through a communication line. May be transmitted to the host device or the like to reduce the amount of data communication to the host device.

また請求項13の発明のように、請求項11または請求項12記載のホスト機器へのデータ送信を同時に実現する構成としてもよい。   Further, as in the invention of the thirteenth aspect, the data transmission to the host device of the eleventh or twelfth aspect may be realized at the same time.

また請求項14の発明のように、請求項13記載のカメラ応用機器に関し、画像表示装置およびホスト側に送られた動き情報とホスト側の教師動き情報を比較し採点する動き採点部を具備し、画像表示装置で教師画像と人物のカメラ画像を分割した表示領域に同時に表示し、逐次採点を行う構成としてもよい。   Further, as in the invention of claim 14, the camera application device according to claim 13 is provided with a motion scoring unit for scoring by comparing the motion information sent to the image display device and the host side with the teacher motion information on the host side. The teacher image and the human camera image may be simultaneously displayed on the divided display area on the image display device, and the scoring may be performed sequentially.

また請求項15の発明のように、請求項9記載のカメラ応用機器に関し、エッジ抽出部、体形情報計算部を具備し、移動物人物付随物抽出部から得られる人物画像情報からエッジ抽出部でエッジ情報を抽出し、人物が回転して得られる全方位のエッジ情報を収集し、カメラ内またはホスト機器に送り体形情報を計算する構成としてもよい。   Further, as in the fifteenth aspect of the present invention, the camera application device according to the ninth aspect of the present invention includes an edge extraction unit and a body shape information calculation unit, and the edge extraction unit uses the human image information obtained from the moving object person accompaniment extraction unit. A configuration may be adopted in which edge information is extracted, edge information in all directions obtained by rotation of a person is collected, and feed body shape information is calculated in the camera or to the host device.

また請求項16の発明のように、請求項15記載のカメラ応用機器に関し、表示装置、体形情報記憶部、タイマー、体形表示制御部を具備し、測定した体形情報と同時に体形測定時の年月日及び時間情報を体形情報記憶部に記録し、時間的変化を表示可能とした構成としてもよい。   Further, as in the invention of claim 16, the camera application device of claim 15 is provided with a display device, a body shape information storage unit, a timer, and a body shape display control unit. The date and time information may be recorded in the body shape information storage unit so that temporal changes can be displayed.

また請求項17の発明のように、請求項9ないし請求項16記載のカメラ応用機器に関し、請求項1ないし請求項8記載の複眼カメラを具備した構成としてもよい。   Further, as in the invention of the seventeenth aspect, the camera application apparatus according to the ninth to sixteenth aspects may include the compound eye camera according to the first to eighth aspects.

なお、この発明は装置またはシステムとして実現できるのみでなく、方法としても実現可能である。また、そのような発明の一部をソフトウェアとして構成することができることはもちろんである。またそのようなソフトウェアをコンピュータに実行させるために用いるソフトウェア製品もこの発明の技術的な範囲に含まれることも当然である。   The present invention can be realized not only as an apparatus or a system but also as a method. Of course, a part of the invention can be configured as software. Of course, software products used to cause a computer to execute such software are also included in the technical scope of the present invention.

この発明の上述の側面および他の側面は特許請求の範囲に記載され、以下、実施例等を用いて詳述される。   The above-described aspects and other aspects of the present invention are described in the claims, and will be described in detail below using examples and the like.

請求項1の発明のように、水平画角αの2つのカメラのレンズ中心を含む平面上で2つのカメラの光軸を角度αで交差するように配置したことで、角度2αでのカメラ画像情報の取得が可能になり、請求項5の画像合成部で処理すれば、1つの広角画像を生成できる。   As in the first aspect of the invention, by arranging the optical axes of the two cameras so as to intersect at an angle α on a plane including the lens centers of the two cameras having a horizontal angle of view α, a camera image at an angle 2α is obtained. Information can be acquired, and if it is processed by the image composition unit of claim 5, one wide-angle image can be generated.

さらに請求項2の発明のように水平画角αの4つのカメラの光軸を同一平面内で、2つは角度αで交差させ。この2つの光軸に残り2つの光軸を平行に位置付けることで、2αの角度で、三角測量原理などを用いた請求項6の距離計算部で処理すれば距離測定が可能になる。   Further, as in the invention of claim 2, the optical axes of the four cameras having the horizontal angle of view α intersect in the same plane and the two intersect at an angle α. By locating the remaining two optical axes in parallel with the two optical axes, the distance can be measured by processing the distance calculation unit of claim 6 using the triangulation principle at an angle of 2α.

また請求項3の発明のようにこれらのレンズが垂直画角βのレンズであれば、垂直方向に対しても同様の手段を講ずれば、水平方向の2α、垂直方向の2βの角度でのカメラ画像の取得と同時に画像合成部、距離計算部で処理すれば2次元的に広い画像の生成や距離測定が可能となる。尚、画角αやβの倍数が180度未満の範囲であれば、画像取得と距離測定の角度を3倍、4倍と拡大することが可能となる。   Further, if these lenses are lenses having a vertical angle of view β as in the invention of claim 3, if the same measures are taken in the vertical direction, the angle at the angle of 2α in the horizontal direction and 2β in the vertical direction is obtained. If processing is performed by the image composition unit and the distance calculation unit simultaneously with the acquisition of the camera image, a two-dimensionally wide image can be generated and the distance can be measured. Note that if the multiples of the angle of view α and β are in the range of less than 180 degrees, it is possible to enlarge the angle of image acquisition and distance measurement to 3 times and 4 times.

また請求項7の発明のように被写体三次元情報計算部と光軸収束点計算部を備えれば、これらの複眼カメラから得られた情報により、2チャンネルの3D映像情報を計算により求めることが可能になる。   If the subject three-dimensional information calculation unit and the optical axis convergence point calculation unit are provided as in the seventh aspect of the invention, 2-channel 3D image information can be obtained by calculation using information obtained from these compound-eye cameras. It becomes possible.

次に請求項9から請求項17のカメラ応用機器に関する発明によれば、記憶した初期の背景画像に移動物(車や人物など)と共に付随した物が写った場合に、背景画像との差異を変化判定部で移動物から離れたことを判定した時点で、背景に変化がある場合には移動物以外のものが背景に置かれたと判断できた時に背景を更新する手段を講じることで、背景変化の履歴を記憶すれば、置物を時間を遡って確認するなどが可能になり、忘れ物捜しや新規のゲームなどに繋がる。また背景はこの変化部分だけを随時記憶やホストへの転送などデータ量の削減も可能になる。   Next, according to the invention relating to the camera application device of claim 9 to claim 17, when an object accompanying the moving object (such as a car or a person) appears in the stored initial background image, the difference from the background image is determined. When the change determination unit determines that the object has moved away from the moving object, if there is a change in the background, it can be determined that something other than the moving object has been placed in the background. If a history of changes is stored, figurines can be checked back in time, leading to lost object searches, new games, and the like. In addition, it is possible to reduce the amount of data by storing only this changed part and transferring it to the host at any time.

このように、請求項1ないし請求項4の複眼カメラの場合には、カメラの水平画角の2倍以上の画角にしたり、垂直画角も2倍以上の画角にしたり、広い視野角の撮像情報を取得可能とでき、さらに画角の重なりをもった領域に関しては距離測定情報を取得可能とできるカメラが実現できる。パソコンなどの画像入力用カメラとして用いればパソコン内でパノラマ合成法のような画像合成を行うなどで広視野角の画像を作ることができ、また距離計算ソフトを用いた距離計算が可能になる効果がある。   As described above, in the case of the compound eye camera according to any one of claims 1 to 4, the angle of view more than twice the horizontal angle of view of the camera, the angle of view of the vertical angle of view more than twice, and a wide viewing angle. It is possible to realize a camera that can acquire the imaging information, and can acquire the distance measurement information with respect to the region having the overlapping angle of view. When used as an image input camera such as a personal computer, an image with a wide viewing angle can be created by performing image composition such as the panoramic composition method in a personal computer, and distance calculation using distance calculation software is possible. There is.

請求項5の複眼カメラでは、画像合成部を内蔵するためカメラ単独で広視野角の画像を作ることができ、請求項6の複眼カメラでは、距離計算部を内蔵するためカメラ単独で距離を測定できる効果がある。   The compound eye camera according to claim 5 has a built-in image synthesizing unit, so that an image with a wide viewing angle can be created by the camera alone, and the compound eye camera according to claim 6 has a built-in distance calculation unit to measure the distance by the camera alone. There is an effect that can be done.

請求項7の複眼カメラの場合には、被写体の各点の三次元情報を計算により取得できることから、仮想的なピンホールカメラで撮影した画像や、仮想レンズ中心との距離を同時取得でき、特に遠近が混在するような被写体に対してはパノラマ合成技術より優れた広視野角の画像を得ることができる効果がある。   In the case of the compound eye camera according to claim 7, since the three-dimensional information of each point of the subject can be obtained by calculation, the image taken by the virtual pinhole camera and the distance from the center of the virtual lens can be obtained simultaneously. For an object with both near and near, it is possible to obtain an image with a wide viewing angle superior to the panorama synthesis technique.

請求項8の複眼カメラの場合には、光軸収束部による判定機能により、最近傍の被写点に光軸の交点を合わせることができなど、3D立体映像に相応しい2チャンネル映像の撮影が可能になる効果がある。   In the case of the compound eye camera according to claim 8, the determination function by the optical axis converging unit allows the intersection of the optical axes to be matched with the nearest object point, and the two-channel video suitable for 3D stereoscopic video can be taken. There is an effect to become.

請求項9のカメラ応用機器は、ある期間固定の位置に設置したカメラ応用機器を想定したもので、車などの移動物や人物および人物が手に持った物などの付随物を随時処理し、背景画像を逐次更新することができる効果がある。   The camera application device according to claim 9 is assumed to be a camera application device installed at a fixed position for a certain period of time, and processes an incidental object such as a moving object such as a car or a person and an object held by a person at any time, There is an effect that the background image can be sequentially updated.

請求項10のカメラ応用機器の場合には、初期画面記憶部と背景変化記憶部の情報から時間を指定した背景画面の生成ができる効果がある。   In the camera application device according to the tenth aspect, there is an effect that it is possible to generate a background screen in which time is specified from information in the initial screen storage unit and the background change storage unit.

請求項11のカメラ応用機器の場合には、カメラから撮像情報を初期背景情報とその後の変化する移動物人物付随物情報とに分けて処理することで、カメラ内記憶装置の容量やホストへの通信容量を減らせる効果がある。   In the case of the camera application device according to the eleventh aspect, by processing the imaging information from the camera into initial background information and subsequent moving object person accompaniment information, processing to the capacity of the in-camera storage device or to the host There is an effect that the communication capacity can be reduced.

請求項12のカメラ応用機器の場合には、動き情報だけをホスト機器に送信する構成であることから、例えば3Dグラフィックなどで処理能力が限界であるようなゲーム機などホスト機器の処理負担を減らした形で、モーションコントロールなどのアプリケーションを実現できる効果がある。   In the case of the camera application device according to the twelfth aspect, since only the motion information is transmitted to the host device, the processing load on the host device such as a game machine whose processing capability is limited by 3D graphics or the like is reduced. In this way, applications such as motion control can be realized.

請求項13のカメラ応用機器の場合には、請求項11および請求項12を同時に実現する効果がある。   In the case of the camera application device according to the thirteenth aspect, there is an effect that the eleventh and twelfth aspects can be realized simultaneously.

請求項14のカメラ応用機器の場合には、教師とユーザの両方を画面表示しつつ採点を行うダンス採点ゲームのようなアプリケーションを実現できる効果がある。   In the case of the camera application device according to the fourteenth aspect, it is possible to realize an application such as a dance scoring game in which scoring is performed while both the teacher and the user are displayed on the screen.

請求項15のカメラ応用機器の場合には、人物の体形情報を取得できる効果がある。請求項16のカメラ応用機器の場合には、人物の体形情報を記録し、確認したい時期の体形情報を観たり、成長のグラフを見たりなど体形情報により成長記録のいう従来にない機能を実現できる効果がある。   In the camera application device according to the fifteenth aspect, there is an effect that it is possible to acquire the human body shape information. In the case of the camera-applied device according to claim 16, the body shape information of the person is recorded, the body shape information at the time when it is desired to be confirmed, and the growth graph is viewed by the body shape information such as the growth graph is realized. There is an effect that can be done.

請求項17のカメラ応用機器の場合には、カメラ部を請求項1ないし請求項8の複眼カメラとすることで、請求項9から請求項15の効果を広視野角映像のカメラ情報に拡張でき、特に部屋中で遊ぶゲーム応用や広視野の防犯カメラや参加者の全員が写るテレビ会議など広範囲な応用に繋がる効果がある。   In the case of the camera application device of claim 17, the effect of claims 9 to 15 can be extended to camera information of a wide viewing angle image by using the compound eye camera of claims 1 to 8 for the camera unit. In particular, it has the effect of connecting to a wide range of applications, such as playing games in the room, wide-screen security cameras, and video conferencing where all participants are shown.

本発明の第1の実施例の複眼カメラ構成図である。It is a compound eye camera lineblock diagram of the 1st example of the present invention. 本発明の第1の実施例の複眼カメラ画角重なり図である。It is a compound-eye camera field angle overlapping figure of the 1st example of the present invention. 本発明の第2の実施例の複眼カメラ構成図である。It is a compound-eye camera block diagram of the 2nd Example of this invention. 本発明の第2の実施例の複眼カメラ画角重なり図である。It is a compound-eye camera field angle overlap figure of the 2nd example of the present invention. 本発明の第3の実施例の複眼カメラ構成図である。It is a compound-eye camera block diagram of the 3rd Example of this invention. 本発明の第3の実施例の複眼カメラ画角重なり図である。It is a compound-eye camera field angle overlap figure of the 3rd example of the present invention. 本発明の第4の実施例の複眼カメラ構成の側面図である。It is a side view of the compound eye camera structure of the 4th Example of this invention. 本発明の第5の実施例の複眼カメラ構成図である。It is a compound eye camera block diagram of the 5th Example of this invention. 本発明の第5の実施例の複眼カメラ画角重なり図である。It is a compound-eye camera field angle overlap figure of the 5th example of the present invention. 本発明の第6の実施例の複眼カメラ構成図である。It is a compound eye camera block diagram of the 6th Example of this invention. 本発明の第6の実施例の複眼カメラのパソコンを利用した形態図である。It is a form figure using the personal computer of the compound eye camera of the 6th example of the present invention. 本発明の第7の実施例の複眼カメラ構成図である。It is a compound eye camera block diagram of the 7th Example of this invention. 本発明の第8の実施例の複眼カメラ構成図である。It is a compound eye camera block diagram of the 8th Example of this invention. 本発明の第9の実施例の複眼カメラ構成図である。It is a compound eye camera block diagram of the 9th Example of this invention. 本発明の第10の実施例の複眼カメラ構成図である。It is a compound eye camera block diagram of the 10th Example of this invention. 本発明の第11の実施例のカメラ応用機器構成図である。It is a camera application apparatus block diagram of the 11th Example of this invention. 本発明の第11の実施例の付随物離脱処理説明図である。It is an accompanying detachment process explanatory drawing of the 11th Example of this invention. 本発明の第12の実施例のカメラ応用機器構成図である。It is a camera application apparatus block diagram of the 12th Example of this invention. 本発明の第13の実施例のカメラ応用機器構成図である。It is a camera application apparatus block diagram of the 13th Example of this invention. 本発明の第14の実施例のカメラ応用機器構成図である。It is a camera application apparatus block diagram of the 14th Example of this invention. 本発明の第17の実施例のカメラ応用機器構成図である。It is a camera application apparatus block diagram of the 17th Example of this invention. 本発明の第18の実施例のカメラ応用機器構成図である。It is a camera application apparatus block diagram of the 18th Example of this invention.

以下、この発明の実施例の情報閲覧システムについて説明する。   The information browsing system according to the embodiment of the present invention will be described below.

先ず、本発明の複眼カメラの実施例を説明する。   First, an embodiment of the compound eye camera of the present invention will be described.

[第1の実施例]
図1は、請求項1に関する本発明の第1の実施例の複眼カメラ構成図である。図1においては同じ水平画角αのレンズからなるレンズ中心a1のカメラaとレンズ中心b1のカメラbで構成され、それぞれの光軸はa2とb2、撮像素子はa3とb3とし、レンズ中心a1とb1を含む平面上で、光軸a2と光軸b2が角度αで交差するように配置することで、カメラaとカメラbとの撮像素子に写る画角の範囲の合計は2αとすることが可能となる。本発明のカメラは、その用途に応じて静止画用でもよいし、動画用でもよい。
[First embodiment]
FIG. 1 is a block diagram of a compound eye camera according to a first embodiment of the present invention relating to claim 1. In FIG. 1, the camera is composed of a camera a having a lens center a1 and a camera b having a lens center b1, which are lenses having the same horizontal angle of view α. The optical axes are a2 and b2, the imaging elements are a3 and b3, and the lens center a1. And b1 are arranged so that the optical axis a2 and the optical axis b2 intersect at an angle α, so that the total range of angle of view in the image sensor of the camera a and the camera b is 2α. Is possible. The camera of the present invention may be used for still images or moving images depending on the application.

図2は図1のカメラa,bの配置における2つのカメラの画角の重なる部分をグレー色の中にa,bと記して示した本発明の第1の実施例の複眼カメラ画角重なり図である。従来提案されている複眼カメラの重なり配置は、撮像素子に写る画角の範囲の合計が2α未満になるのに対して、請求項1のカメラ配置は、撮像素子に写る角度範囲を2αにでき、かつパノラマ合成処理などで必要とされる画像の水平方向の重なり部分を保証できる配置となる。さらに重なりのある部分では、三角測量の原理に基づき距離測定が可能となる。   FIG. 2 shows the overlapping view angle overlap of the first embodiment of the present invention in which the overlapping portions of the view angles of the two cameras a and b in FIG. FIG. In the conventional arrangement of compound eye cameras, the total range of angles of view shown on the image sensor is less than 2α, whereas the camera arrangement of claim 1 can set the angle range shown on the image sensor to 2α. In addition, the arrangement is such that an overlapping portion in the horizontal direction of an image required for panorama synthesis processing or the like can be guaranteed. Further, in the overlapping portion, distance measurement is possible based on the principle of triangulation.

[第2の実施例]
図3は、請求項2に関する本発明の第2の実施例の複眼カメラ構成図である。図3においては請求項1のa,bからなる複眼カメラとc,dからなる複眼カメラを同一平面上でカメラaとカメラcの光軸が平行にし、カメラbとカメラdの光軸を平行して、カメラa,bが、カメラc.,dの内側に配置した構成である。これはc,bからなる請求項1の複眼カメラとa,dからなる請求項1の複眼カメラからなると見ることもできる。図4は請求項2に関する本発明の第2の実施例の複眼カメラ画角重なり図である。
[Second Embodiment]
FIG. 3 is a block diagram of a compound-eye camera according to a second embodiment of the present invention relating to claim 2. In FIG. 3, the compound-eye camera comprising a and b of claim 1 and the compound-eye camera comprising c and d are parallel to each other on the same plane, and the optical axes of the camera b and camera d are parallel to each other. Then, the cameras a and b are connected to the camera c. , D are arranged inside. This can also be viewed as comprising the compound eye camera of claim 1 comprising c and b and the compound eye camera of claim 1 comprising a and d. FIG. 4 is an overlapping view of compound eye camera angles of view according to a second embodiment of the present invention relating to claim 2.

図4から分かるように、三角測量の方法で必要となるカメラの画角の水平方向の重なりを有した角度範囲は、4つのカメラの相互の重なりを総合すれば、2αに及ぶ配置になっている。従って距離測定可能な範囲を2αにできる。   As can be seen from FIG. 4, the angle range having the horizontal overlap of the camera angle of view required by the triangulation method is an arrangement extending to 2α if the overlap of the four cameras is combined. Yes. Therefore, the distance measurable range can be 2α.

また図4から中央の重なりは、カメラa,bとa,cとa,dとb,cとb,dとc,dの6つの組み合わせから距離計算ができることから平均化処理などで距離の精度を高めることができる。中央部分の距離計算精度を上げたい場合に特に有効である。   Also, the overlap in the center from FIG. 4 indicates that the distance can be calculated by averaging processing or the like because distances can be calculated from six combinations of cameras a, b and a, c and a, d and b, c and b, d and c and d. Accuracy can be increased. This is particularly effective when it is desired to increase the distance calculation accuracy in the central portion.

[第3の実施例]
図5は、請求項2に関する本発明の第3の実施例の複眼カメラ構成図である。図5においては請求項1のa,bからなる複眼カメラとc,dからなる複眼カメラを対称な位置関係で配置した構成である。図6は請求項2に関する本発明の第3の実施例の複眼カメラ画角重なり図である。図6は、図4と同様に2つのカメラの画角の水平方向の重なりを有した角度範囲は、2αに及ぶ配置になっている。従って距離測定可能な範囲は2αにできる。三角測量では、距離の遠い場所の距離測定精度を上げる場合、レンズ間の距離を大きくした方が有利であることが知られていることから、遠距離の距離精度を優先する場合に有効な実施例である。
[Third embodiment]
FIG. 5 is a structural view of a compound eye camera according to a third embodiment of the present invention relating to claim 2. In FIG. 5, the compound-eye camera consisting of a and b and the compound-eye camera consisting of c and d are arranged in a symmetrical positional relationship. FIG. 6 is an overlapping view of compound-eye camera angles of view according to the third embodiment of the present invention relating to claim 2. FIG. 6 shows an arrangement in which the angle range having the horizontal overlap of the field angles of the two cameras is 2α as in FIG. Therefore, the distance measurable range can be 2α. In triangulation, it is known that it is advantageous to increase the distance between lenses when increasing the distance measurement accuracy in a distant place, so it is effective when priority is given to distance accuracy over long distances. It is an example.

[第4の実施例]
図7は、請求項3に関する本発明の第4の実施例の複眼カメラ構成の側面図である。図7においては、同じ水平画角α、垂直画角βの4つのカメラa,b,e,fからなり、カメラa,bおよびカメラe,fの両方が請求項1記載の複眼カメラとし、カメラa,bの平均光軸Xabとカメラe、fの平均光軸Xefの成す平面上でXabとXefが角度βで交差するように配置することで、カメラa,b,c,dの撮像素子に写る画角の範囲は、水平方向の合計は2αであると同時に、垂直方向の合計が2βとすることが可能となる。図を示さないが、垂直方向にも重なりの部分を有し、距離測定可能な範囲を有する。
[Fourth embodiment]
FIG. 7 is a side view of the compound-eye camera configuration of the fourth embodiment of the present invention relating to claim 3. In FIG. 7, the camera includes four cameras a, b, e, and f having the same horizontal angle of view α and vertical angle of view β, and both the cameras a and b and the cameras e and f are the compound-eye cameras according to claim 1. By arranging Xab and Xef so as to intersect at an angle β on the plane formed by the average optical axis Xab of cameras a and b and the average optical axis Xef of cameras e and f, imaging of cameras a, b, c and d is performed. With respect to the range of the angle of view shown in the element, the total in the horizontal direction is 2α, and the total in the vertical direction can be 2β. Although not shown in the figure, there is also an overlapping portion in the vertical direction and a range in which distance measurement is possible.

[第5の実施例]
図8は、請求項4に関する本発明の第5の実施例の複眼カメラ構成図である。図9は請求項4に関する本発明の第5の実施例の複眼カメラ画角重なり図である。
[Fifth embodiment]
FIG. 8 is a block diagram of a compound eye camera according to the fifth embodiment of the present invention relating to claim 4. FIG. 9 is an overlapping view of compound eye camera angles of view of the fifth embodiment of the present invention relating to claim 4.

図8においては、第3の実施例である図5の構成の中央に1眼カメラeを配置した構成にする。このことで、図9から分かるように、画角の重なりを増やすことで、距離測定の精度を高めることができる点と、例えば被写体が1名の場合などカメラeのみで撮影可能な場合など、他の4つのカメラの電源をオフできる利点がある。   In FIG. 8, a single-lens camera e is arranged in the center of the configuration of FIG. 5 which is the third embodiment. As can be seen from FIG. 9, the accuracy of distance measurement can be increased by increasing the overlap of the angle of view, and for example, when shooting is possible only with the camera e, such as when there is only one subject, There is an advantage that the power of the other four cameras can be turned off.

[第6の実施例]
図10は、請求項1および請求項4に関する本発明の第6の実施例の複眼カメラ構成図である。図10においては、水平画角αの同一のカメラa,b,cから構成し、a,bは請求項1の複眼カメラに該当し、請求項4に該当する1眼カメラcを追加したカメラであるが、カメラb,cの2つもまた請求項1の複眼となる構成であることを特徴とする。この場合、カメラa,b,cの撮像素子に写る画角の範囲の合計は3αとすることが可能となる。また画角の加算あり領域がV字状の2つの領域ができ距離測定が可能な領域となる。レンズ歪の少ない標準レンズなどから広角の撮影情報を得る場合などで有効である。尚、第6の実施例と同様に水平方向に限らずまた3眼カメラに限らず、本発明の請求項1から請求項4に従い、垂直方向にも、また4眼以上で同様の構成が実現できることは明らかである。
[Sixth embodiment]
FIG. 10 is a block diagram of a compound eye camera according to the sixth embodiment of the present invention relating to claims 1 and 4. In FIG. 10, the cameras a, b, and c having the same horizontal angle of view α are configured. The cameras a and b correspond to the compound-eye camera of claim 1 and the single-lens camera c corresponding to claim 4 is added. However, the two cameras b and c also have the structure of the compound eye of claim 1. In this case, the total range of the angle of view shown on the image sensors of the cameras a, b, and c can be 3α. In addition, the area with the addition of the angle of view has two V-shaped areas, and the distance can be measured. This is effective for obtaining wide-angle shooting information from a standard lens with little lens distortion. Similar to the sixth embodiment, the present invention is not limited to the horizontal direction and is not limited to the trinocular camera, and according to claims 1 to 4 of the present invention, the same configuration is realized in the vertical direction and with four or more eyes. Obviously we can do it.

また本発明の請求項1ないし請求項4については、複眼カメラの構成に関する発明である点から、画像合成および(/または)距離計算に関してはパソコンを利用する構成でも実現できる。 図11は、複眼カメラ1101からの撮像情報1102をパソコン1103に入れ、パソコン1103でパノラマ合成手法などの画像合成ソフトで画像合成データ1104を出力する構成を示した本発明の第6の実施例の複眼カメラのパソコンを利用した形態図である。画像合成の代わりに距離計算を行う場合や両方を計算する場合も同じ構成で実現できる。   In addition, since the first to fourth aspects of the present invention are inventions related to the configuration of a compound eye camera, the image synthesis and / or distance calculation can be realized by a configuration using a personal computer. FIG. 11 shows the configuration of the sixth embodiment of the present invention showing a configuration in which imaging information 1102 from the compound eye camera 1101 is input to the personal computer 1103 and the personal computer 1103 outputs the image composition data 1104 with image composition software such as a panorama composition method. It is a form figure using the personal computer of a compound eye camera. The same configuration can be used when distance calculation is performed instead of image synthesis or both are calculated.

[第7の実施例]
図12は、請求項5に関する本発明の第7の実施例の複眼カメラ構成図である。図12においては、複眼カメラ1201からの撮像情報1202を画像合成部1203に入れ、画像合成部1203ではパノラマ合成などの画像合成処理を行い、画像合成データ1204を出力する。このことで、ワイドな画面情報を出力することができる。
[Seventh embodiment]
FIG. 12 is a block diagram of a compound eye camera according to the seventh embodiment of the present invention relating to claim 5. In FIG. 12, imaging information 1202 from the compound-eye camera 1201 is input to the image composition unit 1203, and the image composition unit 1203 performs image composition processing such as panorama composition and outputs image composition data 1204. As a result, wide screen information can be output.

[第8の実施例]
図13は、請求項6に関する本発明の第8の実施例の複眼カメラ構成図である。図13においては、複眼カメラ1301からの撮像情報1302を距離計算部1303に入れ、距離計算部1303では例えば三角測量の原理に基づく距離計算処理を行い、距離計算データ1304を出力する。このことで画角の重なり領域の距離計算結果を出力することができる。
[Eighth embodiment]
FIG. 13 is a structural view of a compound eye camera according to an eighth embodiment of the present invention relating to claim 6. In FIG. 13, imaging information 1302 from the compound-eye camera 1301 is input to the distance calculation unit 1303, and the distance calculation unit 1303 performs distance calculation processing based on the principle of triangulation, for example, and outputs distance calculation data 1304. This makes it possible to output the distance calculation result of the overlapping region of view angles.

[第9の実施例]
図14は、請求項7に関する本発明の第9の実施例の複眼カメラ構成図である。図14においては、複眼カメラ1401からの撮像情報1402を被写体三次元座標計算部1403に入れ、被写体三次元座標値1404を計算し出力する。仮想撮像情報距離計算部1408は、仮想カメラ情報入力部1407から入力されたレンズ中心座標値1405および光軸ベクトル1406および被写体三次元座標値1404を入力として合成画像データ1409および距離計算データ1410を計算し出力する。このことで、仮想レンズ中心にあるピンホールカメラに対応する合成画像と距離情報を同時に得ることができる。
[Ninth Embodiment]
FIG. 14 is a structural view of a compound eye camera according to the ninth embodiment of the present invention relating to claim 7. In FIG. 14, the imaging information 1402 from the compound eye camera 1401 is input to the subject three-dimensional coordinate calculation unit 1403, and the subject three-dimensional coordinate value 1404 is calculated and output. The virtual imaging information distance calculation unit 1408 calculates the composite image data 1409 and the distance calculation data 1410 with the lens center coordinate value 1405, the optical axis vector 1406, and the subject three-dimensional coordinate value 1404 input from the virtual camera information input unit 1407 as inputs. And output. This makes it possible to simultaneously obtain a composite image and distance information corresponding to the pinhole camera at the center of the virtual lens.

[第10の実施例]
図15は、請求項8に関する本発明の第10の実施例の複眼カメラ構成図である。図15においては、複眼カメラ1501からの撮像情報1502を被写体三次元座標計算部1503にいれ、被写体三次元座標値1504を計算し出力する。光軸収束点計算部1509は、仮想カメラ情報入力部1505から入力された自動オンオフスイッチ1508とマニュアルで予め設定された3Dカメラの2つの光軸ベクトル1507および被写体三次元座標値1504を入力し、自動オンオフスイッチ1508がオンの時には、例えば被写体の最近傍の被写体の点が収束点になるよう2つの光軸ベクトル1507を修正計算し、2つの修正光軸ベクトル1510を出力する。出力の2つのレンズ中心座標値1509は、仮想撮像情報距離計算部1511は、被写体三次元座標値1504および2つの修正光軸ベクトル1510および仮想カメラ情報入力部からの2つのレンズ中心座標値1506を入力し、2つの修正光軸を視線方向とした2つの仮想レンズからの撮像情報として計算し、2チャンネル合成画像データ1512および必要があれば2チャンネル画素点距離データ1513を計算し出力する。
[Tenth embodiment]
FIG. 15 is a block diagram of a compound eye camera according to the tenth embodiment of the present invention relating to claim 8. In FIG. 15, the imaging information 1502 from the compound-eye camera 1501 is input to the subject three-dimensional coordinate calculation unit 1503, and the subject three-dimensional coordinate value 1504 is calculated and output. The optical axis convergence point calculation unit 1509 receives the automatic on / off switch 1508 input from the virtual camera information input unit 1505, the two optical axis vectors 1507 of the 3D camera set in advance manually, and the subject three-dimensional coordinate value 1504, When the automatic on / off switch 1508 is on, for example, two optical axis vectors 1507 are corrected and calculated so that the point of the subject closest to the subject becomes a convergence point, and two corrected optical axis vectors 1510 are output. The output two lens center coordinate values 1509, the virtual imaging information distance calculation unit 1511, the subject three-dimensional coordinate value 1504, the two corrected optical axis vectors 1510, and the two lens center coordinate values 1506 from the virtual camera information input unit. Input, and calculate as imaging information from two virtual lenses with two corrected optical axes as the line-of-sight direction, and calculate and output 2-channel composite image data 1512 and, if necessary, 2-channel pixel point distance data 1513.

自動オンオフスイッチ1508がオフの時には、光軸収束点計算部1509は、修正光軸ベクトル1510とし2つの光軸ベクトル1507を出力し、仮想撮像情報距離計算部1511は、被写体三次元座標値1504および2つの修正光軸ベクトル1510および仮想カメラ情報入力部からの2つのレンズ中心座標値1506を入力し、2つの修正光軸を視線方向とした2つの仮想レンズからの撮像情報として計算し、2チャンネル合成画像データ1512および必要があれば2チャンネル画素点距離データ1513を計算し出力する。   When the automatic on / off switch 1508 is off, the optical axis convergence point calculation unit 1509 outputs two optical axis vectors 1507 as the corrected optical axis vector 1510, and the virtual imaging information distance calculation unit 1511 outputs the subject three-dimensional coordinate value 1504 and Two corrected optical axis vectors 1510 and two lens center coordinate values 1506 from the virtual camera information input unit are input and calculated as imaging information from two virtual lenses with the two corrected optical axes as the line-of-sight directions. Composite image data 1512 and, if necessary, 2-channel pixel point distance data 1513 are calculated and output.

[第11の実施例]
次に本発明のカメラ応用機器の実施の形態を説明する。
[Eleventh embodiment]
Next, an embodiment of the camera application device of the present invention will be described.

以後の本実施例の説明では、実施の形態を明確化する意味でカメラ応用機器の時間単位は画像の取得単位であるフレーム単位で示すものとする。   In the following description of the present embodiment, the time unit of the camera applied device is indicated by a frame unit that is an image acquisition unit in order to clarify the embodiment.

図16は、請求項9に関する本発明の第11の実施例のカメラ応用機器構成図である。図16においては、カメラ1601からの撮像情報1602は背景画像計算制御部1603および移動物人物抽出部1608にフレーム単位で入力される。背景画像計算制御部1603は背景リセット信号1604がオンの時には、その時点の撮像情報1602を、次背景画像1605として何も計算せず出力し、背景画像記憶部1607にも記憶する。移動物人物付随物抽出部1608は、撮像情報1602と背景画像記憶部1607から現背景画像1609として入力しエッジ抽出後にエッジ内のみの情報を抜き取り計算し、車や人物のような移動物と車に搭載したものや人物が手にもった付随物を含めた情報である移動物人物付随物情報1610として出力する。 FIG. 16 is a block diagram of a camera-applied device according to an eleventh embodiment of the present invention relating to claim 9. In FIG. 16, imaging information 1602 from the camera 1601 is input to the background image calculation control unit 1603 and the moving object person extraction unit 1608 in units of frames. When the background reset signal 1604 is ON, the background image calculation control unit 1603 outputs the imaging information 1602 at that time without calculating anything as the next background image 1605, and also stores it in the background image storage unit 1607. The moving object person accompaniment extraction unit 1608 inputs the imaging information 1602 and the background image storage unit 1607 as the current background image 1609, extracts and calculates only the information within the edge after the edge extraction, and calculates the moving object such as a car or a person and the vehicle. Is output as moving object person accompaniment information 1610 which is information including the accompaniment held by the person and the accompaniment held by the person.

この計算は、背景リセット信号1604がオンとなりリセットされた次のフレームから背景リセット信号1604がオフである限りフレーム毎に計算するが、同じフレーム時間内で他の処理を行う時間(以下残余時間と呼ぶ)を有するよう高速処理で実現する。   This calculation is performed for each frame as long as the background reset signal 1604 is turned on since the background reset signal 1604 is turned on, and the background reset signal 1604 is turned off. However, the time for performing other processing within the same frame time (hereinafter referred to as the remaining time) To achieve high-speed processing.

背景画像計算制御部1603は、背景リセット信号1604がオフの時には、撮像情報1602と背景画像記憶部1607からの現背景画像1609と移動物人物付随物抽出部1608からの移動物人物付随物情報1610の3つの情報を入力し、残余時間内で付随物が移動物または人物から確実に離脱したと判断できる付随物の全部または一部の領域の画像を背景画像に上書きし、更新された次背景画像1605として出力し、背景画像記憶部1607に記憶する。以後この付随物の離脱判断部分の背景への上書き処理を付随物離脱処理と呼ぶことにする。   When the background reset signal 1604 is off, the background image calculation control unit 1603 captures image information 1602, the current background image 1609 from the background image storage unit 1607, and the moving object person incidental information 1610 from the moving object person incidental extraction unit 1608. The following background is updated by overwriting the background image with an image of all or part of the appendage that can be determined that the appendage has surely left the moving object or person within the remaining time. The image is output as an image 1605 and stored in the background image storage unit 1607. Hereinafter, the process of overwriting the accompanying part withdrawing determination part in the background is referred to as an accompanying part leaving process.

以上のように構成することで、背景画像は随時更新され、車のような移動物または(/および)人物から付随物が離脱して十分後のフレームでは、背景画像記憶部1607には、離脱後の付随物が背景画像に置かれた状態の画像とすることができる。   With the above configuration, the background image is updated as needed, and the background image storage unit 1607 leaves the background image sufficiently after the moving object such as a car or / and the accompanying object leaves the person. It can be set as the image of the state which the subsequent appendage put on the background image.

図17は、請求項9に関する本発明の第11の実施例の付随物離脱処理説明図である。図17においては、1行目は撮像情報1602を、2行目は移動物人物付随物情報1610を、3行目は現背景情報1609を、4行目は次背景情報1605を、5フレームの時間に亘っての変化の様子を示したもので、付随物が移動物または人物から確実に離脱したとする判断は、例えば人物や車の形状判断処理を背景画像計算制御部で行うことで、フレーム=4の連結していない2つの画像領域部の何れが付随物であるかの判断ができる。また人物や車の形状判断処理を行わない方法としては、移動物人物付随物情報の時間的な推移を追跡し、動かなくなった領域を付随物情報と判断する方法でも実現できる。   FIG. 17 is an explanatory diagram of an attachment removal process according to an eleventh embodiment of the present invention relating to claim 9. In FIG. 17, the first line is imaging information 1602, the second line is moving person / accompanying person information 1610, the third line is current background information 1609, the fourth line is next background information 1605, and 5 frames. It shows the state of change over time, and it is determined that the accompanying object has surely left the moving object or person, for example, by performing the shape determination process of the person or car in the background image calculation control unit, It is possible to determine which of the two unconnected image area portions of frame = 4 is the accompanying object. Further, as a method of not performing the shape determination process of the person or the car, it is possible to realize a method of tracking the temporal transition of the moving object person accompaniment information and determining the area that has stopped moving as the accompaniment information.

以上のように本発明の請求項9によれば、第11の実施例のように固定カメラの撮像情報から背景画像の自動更新が実現できる。   As described above, according to the ninth aspect of the present invention, the background image can be automatically updated from the imaging information of the fixed camera as in the eleventh embodiment.

[第12の実施例]
図18は、請求項10に関する本発明の第12の実施例のカメラ応用機器構成図である。図18においては、破線で囲われた部分は、図16の構成と同じ構成とする。1801〜1810は1601〜1610と同じ機能および信号とする。ただし、背景リセット信号1804がオンになった時に、初期背景画像記憶部1820に背景変化確認制御部1817を経由して初期背景画像が格納され、背景画像計算制御部1803で背景が更新された時に背景更新信号1811と背景画像の変化情報である付随物情報1812を出力し、タイマー1812からの更新時点の時間1814と同時に背景変化記憶部1815に記憶する。また破線部からは現背景情報1809を出力する構成とする。
[Twelfth embodiment]
FIG. 18 is a block diagram of a camera application apparatus according to the twelfth embodiment of the present invention relating to claim 10. In FIG. 18, the portion surrounded by a broken line has the same configuration as that of FIG. 16. Reference numerals 1801 to 1810 denote the same functions and signals as 1601 to 1610. However, when the background reset signal 1804 is turned on, the initial background image is stored in the initial background image storage unit 1820 via the background change confirmation control unit 1817, and the background is updated by the background image calculation control unit 1803. The background update signal 1811 and the accompanying information 1812 which is background image change information are output and stored in the background change storage unit 1815 simultaneously with the update time 1814 from the timer 1812. The current background information 1809 is output from the broken line.

過去の何時までの時点の背景を確認したいかなどの指示信号である背景履歴確認指示信号1819を背景変化確認制御部1817が受け取ると、背景変化確認制御部1817は、初期背景画像記憶部1820を元に、背景変化記憶部1815から順次、時間付随物情報1816を読み、背景履歴確認指示信号1819の指示される時間までの再生背景画像1818を生成し出力する。
本発明の第12の実施例により、例えば防犯カメラにおける不審物の発見や、部屋における置き場所記憶などの応用が可能になる。
When the background change confirmation control unit 1817 receives a background history confirmation instruction signal 1819 that is an instruction signal for confirming the background at what time in the past, the background change confirmation control unit 1817 stores the initial background image storage unit 1820. Originally, the time associated information 1816 is sequentially read from the background change storage unit 1815, and a reproduced background image 1818 up to the time designated by the background history confirmation instruction signal 1819 is generated and output.
According to the twelfth embodiment of the present invention, for example, it is possible to find a suspicious object in a security camera or store a place in a room.

[第13の実施例]
図19は、請求項11に関する本発明の第13の実施例のカメラ応用機器構成図である。図19においては、図16の構成のカメラ応用機器1901に加え、カメラ内画像記憶装置1902を設け、図16の構成のカメラ応用機器1901の出力である次背景情報1903および移動物人物付随物情報1904をカメラ内画像記憶装置1902に格納する構成である。
[Thirteenth embodiment]
FIG. 19 is a block diagram of a camera application apparatus according to the thirteenth embodiment of the present invention relating to claim 11. 19, in-camera image storage device 1902 is provided in addition to the camera application device 1901 having the configuration shown in FIG. 16, and the next background information 1903 and the moving object human accompanying information which are the outputs of the camera application device 1901 having the configuration shown in FIG. 1904 is stored in the in-camera image storage device 1902.

このことで、室内の撮影映像の情報を大幅に削減して再生することができる。また図19のカメラ内画像記憶装置を設ける代わりにPCやゲーム機などのホスト機器に置き換え、通信回線で図16の構成のカメラ応用機器からの次背景情報1903および移動物人物付随物情報1904をホストに送信し、ホスト内の記憶装置に格納する構成でも情報削減した映像記録が実現できる。   As a result, it is possible to greatly reduce and reproduce the information of the captured video in the room. Further, instead of providing the in-camera image storage device of FIG. 19, it is replaced with a host device such as a PC or a game machine, and the next background information 1903 and the moving object person accompanying information 1904 from the camera application device having the configuration of FIG. Video recording with reduced information can also be realized by a configuration in which the information is transmitted to the host and stored in a storage device in the host.

[第14の実施例]
図20は、請求項12に関する本発明の第14の実施例のカメラ応用機器構成図である。図20においては、図16の構成のカメラ応用機器2001からの出力である移動物人物付随物情報2002から動き情報抽出部2003で動き情報2004を抽出し、ホスト機器2005に送信する構成である。この構成により例えば動き情報を利用したモーションコントロール型のゲームにおいて、情報送信量が少ないと同時に、ゲーム機側で動き抽出を行う必要がないため、レスポンスの速いゲームが実現できる。
[Fourteenth embodiment]
FIG. 20 is a block diagram of a camera application apparatus according to the fourteenth embodiment of the present invention relating to claim 12. In FIG. 20, the motion information 2004 is extracted by the motion information extraction unit 2003 from the moving object person incidental information 2002, which is the output from the camera application device 2001 having the configuration shown in FIG. 16, and is transmitted to the host device 2005. With this configuration, for example, in a motion control type game using motion information, the amount of information transmitted is small, and at the same time, it is not necessary to perform motion extraction on the game machine side, so that a quick response game can be realized.

[第15の実施例]
請求項13に関する本発明の第13の実施例と第14の実施例を同時に実装した構成とする本発明の第15の実施例にすることで、ゲーム機の負担を減らした形で、リアルな画像をホスト側で表示し、かつモーションコントロールを行うようなゲームの実現が可能になる。
[Fifteenth embodiment]
In the fifteenth embodiment of the present invention in which the thirteenth embodiment and the fourteenth embodiment of the present invention relating to claim 13 are implemented at the same time, it is realistic in the form of reducing the burden on the game machine. It is possible to realize a game in which images are displayed on the host side and motion control is performed.

[第16の実施例]
請求項14に関する本発明の第15の実施例に、ホスト側に送られた動き情報と教師動き情報を比較し採点する動き採点部と画面表示装置を設けた構成とする本発明の第16の実施例にすることで、ダンス教育ゲームのゲームソフトなどが実現できる。
[Sixteenth embodiment]
A fifteenth embodiment of the present invention relating to claim 14 is a sixteenth embodiment of the present invention comprising a motion scoring unit and a screen display device for comparing and scoring the motion information sent to the host side and the teacher motion information. By using the embodiment, game software for a dance education game can be realized.

[第17の実施例]
図21は、請求項15に関する本発明の第17の実施例のカメラ応用機器構成図である。図21においては、図16の構成のカメラ応用機器2101からの出力である移動物人物付随物情報2102からエッジ抽出部2103でエッジ情報2104を抽出し、体形情報計算部2105で体形情報2106を計算する構成とすることで、カメラに向かって人物が回転するなどにより収集された人物の全方位エッジ情報から全身の採寸を可能とすることができる。なお、カメラ内に体形情報計算部の代わりにエッジ情報をホスト側に送信し、体形情報の計算をホスト側で行う構成でもよい。
[Seventeenth embodiment]
FIG. 21 is a block diagram of a camera-applied device according to the seventeenth embodiment of the present invention relating to claim 15. In FIG. 21, edge information 2104 is extracted by the edge extraction unit 2103 from the moving object person incidental information 2102 that is output from the camera application device 2101 having the configuration shown in FIG. 16, and the body shape information 2106 is calculated by the body shape information calculation unit 2105. By adopting such a configuration, it is possible to measure the whole body from the omnidirectional edge information collected by rotating the person toward the camera. In addition, instead of the body shape information calculation unit in the camera, edge information may be transmitted to the host side, and body shape information may be calculated on the host side.

[第18の実施例]
図22は、請求項16に関する本発明の第18の実施例のカメラ応用機器構成図である。図22においては、図21の構成のカメラ応用機器2201からの出力である体形情報2202をタイマー2206からの日時情報2207と一緒に体形情報記憶部2203に記憶し、体形表示制御部2208の指示により体形表示指示信号2209を体形情報記憶部2203および表示装置2205に指示を出し、体形の時間的変化を表示可能とした構成にすることで、子供の成長記録をとり、成長の履歴を確認したりすることができる。
[Eighteenth embodiment]
FIG. 22 is a block diagram of a camera-applied device according to an eighteenth embodiment of the present invention relating to claim 16. In FIG. 22, body shape information 2202 that is output from the camera application device 2201 having the configuration shown in FIG. 21 is stored in the body shape information storage unit 2203 together with the date and time information 2207 from the timer 2206, and in response to an instruction from the body shape display control unit 2208. The body shape display instruction signal 2209 is instructed to the body shape information storage unit 2203 and the display device 2205 so that the temporal change of the body shape can be displayed, so that the child's growth record can be taken and the growth history can be confirmed. can do.

[第19の実施例]
請求項17に関する本発明の第19の実施例は、請求項9ないし請求項16におけるカメラを請求項1ないし請求項8の複眼カメラとすることで、広視野角での防犯カメラや、ゲーム機用カメラなどが実現できる。
[Nineteenth embodiment]
According to a nineteenth embodiment of the present invention relating to claim 17, the camera according to claim 9 to claim 16 is the compound-eye camera of claims 1 to 8, so that a security camera or a game machine with a wide viewing angle is obtained. Camera can be realized.

以上で実施例の説明を終了する。   This is the end of the description of the embodiment.

なお、この発明は上述の実施例に限定されることなく、その趣旨を逸脱しない範囲で種々変更が可能である。   The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the invention.

a,b,c,d,e,f カメラの識別記号
a1,b1,e1,f1 レンズ中心
a2,b2,c2,d2,e2,f2 光軸
a3,b3,e3,f3 撮像素子
α カメラの水平画角
β カメラの垂直画角
Xab,Xef 平均光軸
a, b, c, d, e, f Camera identification symbols a1, b1, e1, f1 Lens centers a2, b2, c2, d2, e2, f2 Optical axes a3, b3, e3, f3 Image sensor α Camera horizontal Angle of view β Camera vertical angle of view Xab, Xef Average optical axis

Claims (17)

水平画角α(または垂直画角β)の同一の2つのカメラa、bを具備し、カメラa,bのレンズ中心を含む平面上でカメラa,bの光軸を水平画角α(または垂直画角β)と同じ角度α(またはβ)で交差するように配置したことを特徴とする複眼カメラ。   Two cameras a and b having the same horizontal angle of view α (or vertical angle of view β) are provided, and the optical axes of the cameras a and b are set on the plane including the lens centers of the cameras a and b. A compound-eye camera characterized by being arranged so as to intersect at the same angle α (or β) as the vertical field angle β). 水平画角α(または垂直画角β)の同一の4つのカメラa,b,c,dを具備し、カメラa,bおよびカメラc,dの両方が請求項1記載の複眼カメラであり、4つのレンズ中心を含む平面上でカメラaの光軸とカメラcの光軸を平行にし、カメラbの光軸とカメラdの光軸を平行になるように配置したことを特徴とする複眼カメラ。   The same four cameras a, b, c, d having a horizontal angle of view α (or vertical angle of view β), both of the cameras a, b and cameras c, d being the compound-eye camera according to claim 1, A compound eye camera characterized in that the optical axis of camera a and the optical axis of camera c are parallel to each other on a plane including four lens centers, and the optical axis of camera b and the optical axis of camera d are parallel. . 水平画角α、垂直画角βの4つの同一のカメラa,b,e,fを具備し、カメラa,bおよびカメラe,fの両方が請求項1記載の複眼カメラとし、カメラa,bの平均光軸Xabとカメラe,fの平均光軸Xefの成す平面上でXabとXefを角度βで交差するように配置したことを特徴とする複眼カメラ。   The camera includes four identical cameras a, b, e, and f having a horizontal angle of view α and a vertical angle of view β, and both the cameras a and b and the cameras e and f are the compound-eye cameras according to claim 1. A compound eye camera, wherein Xab and Xef are arranged so as to intersect at an angle β on a plane formed by an average optical axis Xab of b and an average optical axis Xef of cameras e and f. 請求項1ないし請求項3の複眼カメラを少なくとも1つ具備し、これら複眼カメラ(/および1眼カメラ)を組み合わせて構成したことを特徴とする複眼カメラ。   A compound eye camera comprising at least one compound eye camera according to any one of claims 1 to 3, and a combination of these compound eye cameras (and / or single lens cameras). 請求項1ないし請求項4の複眼カメラを具備し、画像合成部を具備したことを特徴とする複眼カメラ。   5. A compound eye camera comprising the compound eye camera according to claim 1 and an image composition unit. 請求項1ないし請求項5の複眼カメラを具備し、画角の重なり領域の距離計算を行う距離計算部を具備したことを特徴とする複眼カメラ。   6. A compound-eye camera comprising the compound-eye camera according to claim 1, further comprising a distance calculation unit that calculates a distance of an overlapping region of view angles. 複眼カメラ、被写体三次元座標計算部、仮想カメラ情報入力部、仮想撮像情報距離計算部を具備し、複眼カメラから撮像情報を被写体三次元座標計算部に入力し、計算された出力の被写体三次元座標情報と仮想カメラ情報入力部からの仮想レンズ中心座標および仮想光軸ベクトルを、仮想撮像情報距離計算部に入力し、仮想撮像情報距離計算部で計算した合成画像データおよび距離データを出力することで、仮想レンズ中心にあるピンホールカメラに対応する合成画像と距離情報を同時に得ることを特徴とする複眼カメラ。   A compound eye camera, a subject three-dimensional coordinate calculation unit, a virtual camera information input unit, and a virtual imaging information distance calculation unit are provided, and imaging information from the compound eye camera is input to the subject three-dimensional coordinate calculation unit, and the calculated subject three-dimensional output Coordinate information, virtual lens center coordinates and virtual optical axis vector from the virtual camera information input unit are input to the virtual imaging information distance calculation unit, and composite image data and distance data calculated by the virtual imaging information distance calculation unit are output. Thus, a compound-eye camera that simultaneously obtains a composite image and distance information corresponding to a pinhole camera at the center of the virtual lens. 光軸収束点計算部を具備し、仮想カメラ情報入力部からの仮想3Dカメラの2つの仮想光軸ベクトルおよび入力被写体三次元座標計算部で計算された被写体の三次元座標値を光軸収束点計算部に入力し、光軸収束点を計算により2つの光軸ベクトルを再計算し、計算結果を仮想撮像情報距離計算部で、2つのレンズに対応する仮想撮像情報を計算し、2チャンネルの合成画像データおよび距離データを出力することを特徴とする請求項7記載の複眼カメラ。   The optical axis convergence point calculation unit is provided, and the two virtual optical axis vectors of the virtual 3D camera from the virtual camera information input unit and the three-dimensional coordinate value of the subject calculated by the input subject three-dimensional coordinate calculation unit are used as the optical axis convergence point. Input to the calculation unit, recalculate the two optical axis vectors by calculating the optical axis convergence point, calculate the virtual imaging information corresponding to the two lenses in the virtual imaging information distance calculation unit, and calculate the two channels 8. The compound eye camera according to claim 7, wherein composite image data and distance data are output. カメラ、背景画像記憶部、移動物人物付随物抽出部、背景画像計算制御部を具備し、カメラからの撮像情報と移動物人物付随物抽出部からの現移動物人物付随物情報と現背景画像の3つの情報を背景画像計算制御部に入力し、移動物人物付随物情報から付随物が移動物または(/および)人物から離脱したと判断できる時に、付随物の離脱判断部分を現背景画像に上書きし、次背景画像として背景画像記憶部を更新することを特徴とするカメラ応用機器。   A camera, a background image storage unit, a moving object person accompaniment extraction unit, and a background image calculation control unit, and includes imaging information from the camera, current moving object person accompaniment information from the moving object person accompaniment extraction unit, and the current background image. Are input to the background image calculation control unit, and when it can be determined from the moving object person accompanying information that the accompanying object has left the moving object or / and the person, the attachment determination part of the accompanying object is used as the current background image. And a background image storage unit as a next background image. 背景変化記憶部、タイマー、背景変化確認制御部、初期背景画像記憶部を具備し、背景画像記憶部を更新すると同時に、更新時の背景と異なった変化画像情報を時系列情報とともに、背景変化記憶部に格納し、背景変化確認制御部の指示で、指定された時間の背景画像を初期背景画像記憶部の画像と背景変化記憶部の画像から随時で背景画像の再生成処理を行い確認できることを特徴とする請求項9記載のカメラ応用機器。   A background change storage unit, a timer, a background change confirmation control unit, and an initial background image storage unit are updated. At the same time, the background image storage unit is updated, and at the same time, the change image information different from the background at the time of update is stored together with the time series information. The background change confirmation control unit can store the background image for the specified time from the image in the initial background image storage unit and the image in the background change storage unit at any time and confirm it by regenerating the image. The camera application device according to claim 9, wherein ホスト機器または(/および)カメラ内画像記憶装置を具備し、予めホスト機器または(/および)カメラ内画像記憶装置に背景画像記憶部の初期情報を送信し、その後は、背景画像記憶部が更新される毎に更新情報をホストに送信し、また移動物人物付随物抽出部からの移動物人物付随物情報は随時ホストまたは(/および)カメラ内画像記憶装置に送信し、データ通信量を減らし、カメラ情報の送信情報量やカメラ内画像記憶装置の容量を削減することを特徴とする請求項9記載のカメラ応用機器。   It has a host device or (/ and) in-camera image storage device, and transmits the initial information of the background image storage unit to the host device or (/ and) in-camera image storage device in advance. Update information is sent to the host each time it is sent, and the moving object person accompaniment information from the moving object person accompaniment extraction unit is transmitted to the host or / and the in-camera image storage device at any time to reduce the amount of data communication. 10. The camera application device according to claim 9, wherein the amount of transmission information of camera information and the capacity of the image storage device in the camera are reduced. ホスト機器および移動物人物付随物抽出部からの動き情報を抽出する動き抽出部を具備し、通信回線を通して動き情報だけをホスト機器等へ送信し、ホスト機器へのデータ通信量を減らすことを特徴とする請求項9記載のカメラ応用機器。   It is equipped with a motion extraction unit that extracts motion information from the host device and the moving object person accompaniment extraction unit, and transmits only the motion information to the host device through a communication line, thereby reducing the amount of data communication to the host device. The camera application device according to claim 9. 請求項11および請求項12記載のホスト機器へのデータ送信を同時に実現することを特徴とするカメラ応用機器。   13. A camera application device that simultaneously realizes data transmission to the host device according to claim 11 and claim 12. 画像表示装置およびホスト側に送られた動き情報とホスト側の教師動き情報を比較し採点する動き採点部を具備し、画像表示装置で教師画像と人物のカメラ画像を分割した表示領域に同時に表示し、逐次採点を行うことを特徴とする請求項13記載のカメラ応用機器。   A motion scoring unit that compares and grades motion information sent to the image display device and the host side with teacher motion information on the host side, and simultaneously displays the teacher image and the camera image of the person on the display area divided by the image display device 14. The camera application device according to claim 13, wherein scoring is performed sequentially. エッジ抽出部、体形情報計算部を具備し、移動物人物付随物抽出部から得られる人物画像情報からエッジ抽出部でエッジ情報を抽出し、人物が回転して得られる全方位のエッジ情報を収集し、カメラ内またはホスト機器に送り体形情報を計算することを特徴とする請求項9記載のカメラ応用機器。   It has an edge extraction unit and body shape information calculation unit. Edge information is extracted by the edge extraction unit from the person image information obtained from the moving object person attachment extraction unit, and edge information in all directions obtained by rotating the person is collected. 10. The camera application device according to claim 9, wherein the feed body shape information is calculated in the camera or in the host device. 表示装置、体形情報記憶部、タイマー、体形表示制御部を具備し、測定した体形情報と同時に体形測定時の年月日及び時間情報を体形情報記憶部に記録し、時間的変化を表示可能としたことを特徴とする請求項15記載のカメラ応用機器。   It is equipped with a display device, body information storage unit, timer, body shape display control unit, and records the time and date information at the time of body measurement at the same time as the measured body shape information, and can display temporal changes. The camera application device according to claim 15, wherein the device is a camera application device. 請求項1ないし請求項8記載の複眼カメラを具備し、請求項9ないし請求項16を実現したことを特徴とするカメラ応用機器。   A camera application device comprising the compound-eye camera according to claim 1, and realizing claims 9 to 16.
JP2010011707A 2010-01-22 2010-01-22 Compound eye camera and camera application equipment Withdrawn JP2011151636A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010011707A JP2011151636A (en) 2010-01-22 2010-01-22 Compound eye camera and camera application equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010011707A JP2011151636A (en) 2010-01-22 2010-01-22 Compound eye camera and camera application equipment

Publications (1)

Publication Number Publication Date
JP2011151636A true JP2011151636A (en) 2011-08-04

Family

ID=44538228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010011707A Withdrawn JP2011151636A (en) 2010-01-22 2010-01-22 Compound eye camera and camera application equipment

Country Status (1)

Country Link
JP (1) JP2011151636A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113194234A (en) * 2021-04-29 2021-07-30 杭州海康威视数字技术股份有限公司 Camera for monitoring high-altitude area
CN116994075A (en) * 2023-09-27 2023-11-03 安徽大学 Small target rapid early warning and identifying method based on compound eye event imaging

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113194234A (en) * 2021-04-29 2021-07-30 杭州海康威视数字技术股份有限公司 Camera for monitoring high-altitude area
CN116994075A (en) * 2023-09-27 2023-11-03 安徽大学 Small target rapid early warning and identifying method based on compound eye event imaging
CN116994075B (en) * 2023-09-27 2023-12-15 安徽大学 Small target rapid early warning and identifying method based on compound eye event imaging

Similar Documents

Publication Publication Date Title
JP4642723B2 (en) Image generating apparatus and image generating method
US20200288113A1 (en) System and method for creating a navigable, three-dimensional virtual reality environment having ultra-wide field of view
US20170078653A1 (en) Systems and methods for producing a surround view
JP6126820B2 (en) Image generation method, image display method, image generation program, image generation system, and image display apparatus
US20130155205A1 (en) Image processing device, imaging device, and image processing method and program
JP6126821B2 (en) Image generation method, image display method, image generation program, image generation system, and image display apparatus
JP2017532847A (en) 3D recording and playback
JP5483027B2 (en) 3D image measurement method and 3D image measurement apparatus
US20130162786A1 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2008140271A (en) Interactive device and method thereof
US11812009B2 (en) Generating virtual reality content via light fields
JP4403173B2 (en) 3D display file generation method and apparatus, and display control method and apparatus
KR101198557B1 (en) 3D stereoscopic image and video that is responsive to viewing angle and position
JP3032414B2 (en) Image processing method and image processing apparatus
JP2010181826A (en) Three-dimensional image forming apparatus
AU2018390994B2 (en) Camera projection technique system and method
JP2849313B2 (en) Image recording and playback device
US20160127617A1 (en) System for tracking the position of the shooting camera for shooting video films
JP2011151636A (en) Compound eye camera and camera application equipment
JPH09114979A (en) Camera system
JP2842735B2 (en) Multi-viewpoint three-dimensional image input device, image synthesizing device, and image output device thereof
JP3206874B2 (en) Image system for remote construction support
WO1997031484A1 (en) Wide visual-field recognizing system
JP2011182003A (en) Panorama camera and 360-degree panorama stereoscopic video system
KR101868057B1 (en) Method for generating panoramic image and apparatus thereof

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130402