JPH09305796A - Image information processor - Google Patents

Image information processor

Info

Publication number
JPH09305796A
JPH09305796A JP8121588A JP12158896A JPH09305796A JP H09305796 A JPH09305796 A JP H09305796A JP 8121588 A JP8121588 A JP 8121588A JP 12158896 A JP12158896 A JP 12158896A JP H09305796 A JPH09305796 A JP H09305796A
Authority
JP
Japan
Prior art keywords
image
subject
image pickup
data
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8121588A
Other languages
Japanese (ja)
Inventor
Katsumi Iijima
克己 飯島
Sunao Kurahashi
直 倉橋
Shigeki Okauchi
茂樹 岡内
Masayoshi Sekine
正慶 関根
Satoshi Katayama
達嗣 片山
Kotaro Yano
光太郎 矢野
Nobuo Fukushima
信男 福島
Masakazu Matsugi
優和 真継
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP8121588A priority Critical patent/JPH09305796A/en
Priority to US08/686,683 priority patent/US6640004B2/en
Publication of JPH09305796A publication Critical patent/JPH09305796A/en
Priority to US10/429,686 priority patent/US7164786B2/en
Pending legal-status Critical Current

Links

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily obtain an object image at an optional visual point by inputting an image while moving it around the object via a monocullar or ommateal pickup system and synthesizing the image data into an image. SOLUTION: A three-dimensional image data calculation part 6 calculates the three-dimensional image data on an object that is photographed based on the image data stored in a memory 5 and on the position information on a camera head 1 corresponding to the image data. A two-dimensional image data calculation means 7 calculates the two-dimensional image data viewed at a position where the object is first photographed and in an image form that is selected from the three-dimensional image data on the object by an operation means 11. The two-dimensional image data are displayed on a monitor 8. When a user operates the means 11 under such conditions, the means 7 performs the corresponding operation and changes the object image shown on the monitor 8 into an image that is viewed at an optional visual point.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は撮像したあるいは撮
像している画像を表示する表示手段を有する撮像装置を
用いて、CGやCAD等において利用する事を可能とす
る必要な物体及び環境の3次元情報を抽出し、或いは文
章ファイルと合成する事を可能とした画像処理装置に関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention uses an image pickup device having a display means for displaying a picked up image or an image being picked up, and is capable of being used in CG, CAD, etc. The present invention relates to an image processing device capable of extracting dimensional information or synthesizing it with a text file.

【0002】[0002]

【従来の技術】従来より、物体の三次元形状を求める技
術として、大別して受動的手法と能動的手法がある。受
動的手法の代表的なものがステレオ画像法であり、2台
のカメラを用いて三角測量を行うものである。この方法
では左右の画像から同じ物が写っている場所を探索し、
その位置のずれ量から被写体の三次元位置を計測する。
2. Description of the Related Art Conventionally, techniques for obtaining a three-dimensional shape of an object are roughly classified into a passive technique and an active technique. A typical passive method is a stereo image method in which triangulation is performed using two cameras. With this method, search for the same object in the left and right images,
The three-dimensional position of the subject is measured from the amount of displacement of the position.

【0003】また、能動的手法の代表的なものとして、
光を投影して反射して帰ってくるまでの時間を計測して
距離を求める光レーダ型のレンジファインダやスリット
状の光パターンを投影して被写体に写るパターン形状の
変位から三次元計上を測定するスリット光投影法などが
ある。
Further, as a typical active method,
Measuring the time it takes to project light, reflect it, and return to determine the distance Optical radar type range finder and slit-shaped light patterns are projected to measure the three-dimensional recording from the displacement of the pattern shape reflected on the subject There is a slit light projection method.

【0004】そして得られた被写体の3次元データから
被写体を任意の視点から見た場合の被写体映像を2次元
のディスプレイなどに再生することは行われてきた。
From the obtained three-dimensional data of the subject, a subject image when the subject is viewed from an arbitrary viewpoint is reproduced on a two-dimensional display or the like.

【0005】又、パーソナルコンピュータの普及に伴
い、電子カメラで撮像した画像が取り込まれて編集する
ことも可能となってきた。例えば電子カメラで複数の画
像に分けて風景を撮影したとする。このとき撮像された
画像には重複した部分で存在するように撮影される。
With the spread of personal computers, it has become possible to capture and edit images taken by electronic cameras. For example, suppose that an electronic camera divides a landscape into a plurality of images and shoots the landscape. At this time, the captured images are captured so as to exist in the overlapping portion.

【0006】そして撮像された画像はパーソナルコンピ
ュータに取り込まれてアプリケーションソフトにより合
成処理が施される。具体的には上記重複領域が重なるよ
うにして画像を合成していくのである。これによって電
子カメラで撮像できる撮像画角よりはるかに広い画角の
画像を入手できるのである。
Then, the picked-up image is taken into a personal computer and subjected to a combining process by application software. Specifically, the images are combined so that the overlapping areas overlap. As a result, it is possible to obtain an image with an angle of view that is much wider than the angle of view that can be captured with an electronic camera.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上記ス
テレオ画像法においては、カメラが設置されている特定
の位置からの距離情報算出が主目的であり、ある被写体
の立体形状そのものを計測するものではない。
However, in the above-mentioned stereo image method, the main purpose is to calculate distance information from a specific position where the camera is installed, and not to measure the stereoscopic shape itself of a certain subject. .

【0008】また、能動的手法ではレーザー等を物体に
照射するために、利用の点で煩雑であった。さらに、い
ずれの方式においても、ある物体の周囲を移動しながら
撮像するような動的な撮像方式においても柔軟に対応で
きるようなカメラ制御は行われていない。
Further, in the active method, since an object is irradiated with a laser or the like, it is complicated to use. Furthermore, in any of the methods, camera control that can flexibly deal with a dynamic imaging method in which an image is taken while moving around a certain object is not performed.

【0009】又、従来の2台のカメラを用いる受動的方
法ではビューファインダを2つ設ける必要が有り、かつ
それらを見比べながら撮像するといった、コスト的にも
操作性に関しても不具合があった。
Further, in the conventional passive method using two cameras, it is necessary to provide two viewfinders, and there are problems in terms of cost and operability, such as taking images while comparing them.

【0010】例えば、フレーミング時に時間がかかった
り、立体形状を求めようとした場合には重複領域が少な
すぎて実施不可能となる不具合といった問題点がある。
For example, there are problems in that it takes time during framing, and when a three-dimensional shape is to be obtained, the overlapping area is too small to be implemented.

【0011】更に、オフィスなどで一般に扱う画像は最
終的には紙に出力されることが多く、しかも使用する画
像形態は自然画の場合もあれば、被写体を輪郭線のみで
表す線画の場合もある。しかし前記従来例は、被写体の
立体形状データを得て2次元ディスプレイに忠実に表示
することに主眼が置かれていたため、オフィスでは使わ
れることはなかった。
Further, an image generally handled in an office or the like is finally output on paper in many cases, and the image form used may be a natural image or a line image in which a subject is represented only by a contour line. is there. However, the above-mentioned conventional example is not used in the office because the main purpose is to obtain the stereoscopic shape data of the subject and display it faithfully on the two-dimensional display.

【0012】そこで本願に係る第1の課題は、単数もし
くは複数の撮像系により被写体を撮像し立体形状及び画
素情報を得る装置において、得られた被写体の形状デー
タを任意の視点から見た画像を目的に応じた画像形態に
して利用可能にすることにある。
Therefore, a first object of the present invention is to obtain an image of the obtained shape data of an object viewed from an arbitrary viewpoint in an apparatus for capturing an object by a single or a plurality of imaging systems to obtain stereoscopic shape and pixel information. The purpose is to make it available in an image format according to the purpose.

【0013】本願に係る第2の課題は、単数もしくは複
数の撮像系により被写体を撮像し立体形状及び画素情報
を得る装置において、撮像手段の相対的な位置変化を検
知する位置検知手段を備え、複数の画像データを統合
し、被写体の立体形状データを演算する手段を備え、得
られた被写体の形状データを任意の視点から見た画像を
目的に応じた画像形態にして利用可能にすることにあ
る。
A second object of the present invention is to provide an apparatus for obtaining a stereoscopic shape and pixel information by capturing an image of a subject with a single or a plurality of image capturing systems, and including position detecting means for detecting a relative positional change of the image capturing means. A method of integrating a plurality of image data and calculating a three-dimensional shape data of a subject, and making the obtained shape data of the subject available from an arbitrary viewpoint in an image form according to the purpose. is there.

【0014】本出願に係る第3の課題は、単数もしくは
複数の撮像系により被写体を撮像し立体形状及び画素情
報を得る装置において、焦点距離及び焦点合わせを自動
的に実行し、以前に撮像された撮像領域に対して現在撮
像している撮像領域に対応する形状をモニタとしてのフ
ァインダ上に表示して、既に撮像した画像と現在撮像し
ている画像との重複領域を容易に認識しながら撮像が可
能とし、精度のよい形状抽出を実現すると共に撮影者の
負荷を低減し、得られた被写体の形状データを任意の視
点から見た画像を目的に応じた画像形態にして利用可能
にすることである。即ち他のファイルとの合成を可能と
する事にある。
A third object of the present application is to automatically perform focal length and focusing in an apparatus for obtaining a three-dimensional shape and pixel information by picking up an image of a subject with a single or a plurality of image pickup systems. A shape corresponding to the currently captured image area is displayed on the finder as a monitor for the captured area, and the image is captured while easily recognizing the overlapping area between the already captured image and the currently captured image. It is possible to realize accurate shape extraction, reduce the load on the photographer, and use the obtained shape data of the subject in an image viewed from an arbitrary viewpoint in an image format according to the purpose. Is. That is, it is possible to combine with other files.

【0015】本出願に係る第4の課題は、得られた被写
体の形状データを任意の視点から見た画像を目的に応じ
た画像形態にして利用可能にする為に画像データを2次
元画像データとして演算し利用可能とする事にある。
The fourth object of the present application is to use the obtained shape data of the object as a two-dimensional image data so that the image viewed from an arbitrary viewpoint can be used in an image form according to the purpose. Is calculated and made available.

【0016】本出願に係る第5の課題は、文章ファイル
と合成して画像データを利用可能にする事にある。
A fifth object of the present application is to combine image data with a text file so that image data can be used.

【0017】本出願に係る第6の課題は、複数のパッド
に関する情報を保持し、撮像手段の相対的な位置変化を
検知することを可能とする事にある。
A sixth object of the present application is to hold information regarding a plurality of pads and to detect a relative positional change of the image pickup means.

【0018】本出願に係る第7の課題は、撮像系での立
体視の機能を備えた画像情報処理装置を提供する事にあ
る。
A seventh object of the present application is to provide an image information processing apparatus having a stereoscopic function in an image pickup system.

【0019】本出願に係る第8の課題は、撮像装置が光
学式ファインダーを備え、低コストで装置が構成可能と
する事にある。
An eighth object of the present application is that the image pickup apparatus has an optical finder, and the apparatus can be constructed at low cost.

【0020】本出願に係る第9の課題は、複数の撮像光
学系により被写体を撮像し、被写体の画素情報を出力す
る装置をもちいて、計算機中のソフトウエアが被写体の
立体形状データを演算する事を可能とした画像情報処理
装置を提供する事にある。
A ninth object of the present application is to use a device for picking up an image of a subject by a plurality of image pickup optical systems and outputting pixel information of the subject, and software in a computer calculates three-dimensional shape data of the subject. An object is to provide an image information processing device that makes things possible.

【0021】[0021]

【課題を解決するための手段】上記第1の課題を達成す
る為に本出願に係る請求項1に記載の発明は、単数もし
くは複数の撮像手段により被写体を撮像し、被写体の立
体形状及び画素情報を出力する装置であって、前記立体
形状データから被写体を任意の位置から見たときの所定
の画像形態に変換しファイルを形成する手段を備えた画
像情報処理装置にある。
In order to achieve the first object, the invention according to claim 1 of the present application is to capture an image of a subject by a single or a plurality of image pickup means, and to obtain a stereoscopic shape and pixels of the subject. An apparatus for outputting information, which is an image information processing apparatus including means for forming a file by converting the stereoscopic shape data into a predetermined image form when a subject is viewed from an arbitrary position.

【0022】上記第2の課題を達成する為に本出願に係
る請求項2に記載の発明は、単数もしくは複数の撮像手
段により被写体を撮像し、被写体の立体形状及び画素情
報を出力する装置であって、前記撮像手段の相対的な位
置変化を検知する位置検知手段を備え、前記撮像手段に
よって得られた複数の画像データとそれぞれの画像デー
タに対応する前記位置検知手段によって得られた前記撮
像手段の相対的位置関係から被写体の立体形状データを
演算する手段を備え、前記立体形状データから被写体を
任意の位置から見たときの所定の画像形態に変換する演
算手段を有し、前記画像データのファイルと他のファイ
ルとを合成する手段を備えた画像情報処理装置にある。
In order to achieve the above-mentioned second object, the invention according to claim 2 of the present application is an apparatus for picking up an image of a subject by a single or a plurality of image pickup means and outputting the three-dimensional shape of the subject and pixel information. And a plurality of image data obtained by the image pickup unit and the image pickup obtained by the position detection unit corresponding to each image data. The image data includes a means for calculating three-dimensional shape data of the subject from the relative positional relationship of the means, and a calculation means for converting the three-dimensional shape data into a predetermined image form when the subject is viewed from an arbitrary position. The image information processing apparatus is provided with means for synthesizing the above file and another file.

【0023】上記第3の課題を達成する為に本出願に係
る請求項3に記載の発明は、単数もしくは複数の撮像手
段の撮像光学系により被写体を撮像し、被写体の立体形
状及び画素情報を出力する装置において、主被写体が各
々の撮像系の重複領域に収まると共に主被写体が焦点深
度内に収まるように撮像パラメータを自動的に調整する
立体形状抽出装置を備える画像情報処理装置にある。
In order to achieve the above-mentioned third object, the invention according to claim 3 of the present application captures an image of a subject by an image pickup optical system of a single or a plurality of image pickup means, and obtains the three-dimensional shape and pixel information of the subject. In the output device, there is an image information processing apparatus including a stereoscopic shape extraction device that automatically adjusts imaging parameters so that the main subject fits within the overlapping area of each imaging system and the main subject fits within the depth of focus.

【0024】上記第4の課題を達成する為に本出願に係
る請求項4に記載の発明は、前記立体形状データから被
写体を任意の位置から見た時の所定の画像形態に変換す
る演算手段は、画像データを2次元画像データとして演
算するようにした画像情報処理装置にある。
In order to achieve the fourth object, the invention according to claim 4 of the present application is a calculation means for converting from the three-dimensional shape data into a predetermined image form when a subject is viewed from an arbitrary position. Is in an image information processing apparatus configured to calculate image data as two-dimensional image data.

【0025】上記第5の課題を達成する為に本出願に係
る請求項5に記載の発明は、画像データのファイルと他
のファイルとを合成する手段は、他のファイルは文章フ
ァイルである事を特徴とする画像情報処理装置にある。
In order to achieve the fifth object, the invention according to claim 5 of the present application is that the means for synthesizing the image data file and the other file is that the other file is a text file. The image information processing apparatus is characterized by

【0026】上記第6の課題を達成する為に本出願に係
る請求項6に記載の発明は、請求項1,2において、撮
像手段の相対的な位置変化を検知する位置検知手段を、
複数のパッドに関する情報を保持するようにした画像情
報処理装置にある。
In order to achieve the sixth object, the invention according to claim 6 of the present application is, in claims 1 and 2, a position detecting means for detecting a relative position change of the image pickup means,
An image information processing device is configured to hold information regarding a plurality of pads.

【0027】上記第7の課題を達成する為に本出願に係
る請求項7に記載の発明は、単数もしくは複数の撮像光
学系により被写体を撮像し、被写体の立体形状及び画素
情報を出力する装置であって、撮像手段の相対的な位置
変化を検知する位置検知手段を備え、前記撮像手段によ
って得られた複数の画像データとそれぞれの画像データ
に対応する前記位置検知手段によって得られた前記撮像
手段の相対的位置関係から被写体の立体形状データを演
算する手段を備え、前記立体形状データから被写体を任
意の位置から見たときの所定の画像形態に変換する演算
手段を有し、前記画像データのファイルと他のファイル
とを合成する手段を有し、更に立体視の機能を備えた画
像情報処理装置にある。
In order to achieve the seventh subject, the invention according to claim 7 of the present application is an apparatus for capturing an image of a subject by a single or a plurality of image pickup optical systems, and outputting a stereoscopic shape of the subject and pixel information. A plurality of image data obtained by the image pickup means and the image pickup obtained by the position detection means corresponding to each of the image data. The image data includes a means for calculating three-dimensional shape data of the subject from the relative positional relationship of the means, and a calculation means for converting the three-dimensional shape data into a predetermined image form when the subject is viewed from an arbitrary position. The image information processing apparatus has a means for synthesizing the above file and another file and further has a stereoscopic function.

【0028】上記第8の課題を達成する為に本出願に係
る請求項8に記載の発明は、単数もしくは複数の撮像光
学系により被写体を撮像し、被写体の立体形状及び画素
情報を出力する装置であって、撮像装置が光学式ファイ
ンダーを備え、撮像手段の相対的な位置変化を検知する
位置検知手段を備え、前記撮像手段によって得られた複
数の画像データとそれぞれの画像データに対応する前記
位置検知手段によって得られた前記撮像手段の相対的位
置関係から被写体の立体形状データを演算する手段を備
え、前記立体形状データから被写体を任意の位置から見
たときの所定の画像形態に変換する演算手段を有し、前
記画像データのファイルと他のファイルとを合成する手
段を備えた画像情報処理装置にある。
In order to achieve the above-mentioned eighth object, the invention according to claim 8 of the present application is an apparatus for picking up an image of a subject by a single or a plurality of image pickup optical systems and outputting the stereoscopic shape of the subject and pixel information. The image pickup device includes an optical finder, position detection means for detecting a relative position change of the image pickup means, and a plurality of image data obtained by the image pickup means and the image data corresponding to each of the image data. The stereoscopic shape data of the subject is calculated from the relative positional relationship of the image pickup means obtained by the position detection means, and the stereoscopic shape data is converted into a predetermined image form when the subject is viewed from an arbitrary position. An image information processing apparatus having a calculation means and a means for synthesizing the image data file and another file.

【0029】上記第9の課題を達成する為に本出願に係
る請求項9に記載の発明は、単数もしくは複数の撮像光
学系により被写体を撮像し、画素情報を出力する装置で
あって、撮像手段の相対的な位置変化を検知する位置検
知手段を備え、前記撮像手段によって得られた複数の画
像データとそれぞれの画像データに対応する前記位置検
知手段によって得られた前記撮像手段の相対的位置関係
から被写体の立体形状データを計算機中のソフトウエア
が演算する手段を備え、前記立体形状データから被写体
を任意の位置から見たときの所定の画像形態に変換する
演算手段を有し、前記画像データのファイルと他のファ
イルとを合成する手段を有したことを特徴とする画像情
報処理装置にある。
In order to achieve the ninth subject, the invention according to claim 9 of the present application is a device for picking up an image of a subject by a single or plural image pickup optical systems and outputting pixel information. A plurality of image data obtained by the image pickup means and relative positions of the image pickup means obtained by the position detection means corresponding to the respective image data. A software for calculating the three-dimensional shape data of the subject based on the relationship is provided, and the three-dimensional shape data has a calculation means for converting the three-dimensional shape data into a predetermined image form when the subject is viewed from an arbitrary position. An image information processing apparatus having a means for synthesizing a data file and another file.

【0030】[0030]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

(第1の実施形態)以下、本発明の画像処理装置を各図
を参照しながらその実施形態について詳述する。
(First Embodiment) An image processing apparatus of the present invention will be described in detail below with reference to the drawings.

【0031】尚、撮像系の概略、画像取り込み時のファ
インダーの構成、立体情報抽出、撮像パラメータ補正方
法、立体情報、画像テクスチャと文章ファイルの合成及
び出力の順に説明する。は、撮像系の構成、画像の取り
込みのシーケンス、立体形状抽出ブロックの構成及び動
作の順に行う。
The outline of the image pickup system, the structure of the finder at the time of image capturing, the three-dimensional information extraction, the image pickup parameter correction method, the three-dimensional information, the combination of the image texture and the text file, and the output will be described in this order. Is performed in the order of the configuration of the imaging system, the sequence of capturing images, the configuration and operation of the three-dimensional shape extraction block.

【0032】1.撮像系の概略 撮像系の構成 画像取り込み処理等のシーケンス 立体形状抽出ブロックの構成、動作の詳細 2.画像取り込み時のファインダーの構成 3.立体情報抽出 ステレオ画像より距離画像の抽出 距離情報の時系列的統合 4.撮像パラメータ補正方法 5.立体情報、画像テクスチャと文章ファイルの合成、
出力
1. Outline of imaging system Configuration of imaging system Sequence of image capture processing, etc. Configuration and operation details of 3D shape extraction block 2. Finder configuration when capturing images 3. Stereoscopic information extraction Extraction of range image from stereo image Time series integration of range information 4. Imaging parameter correction method 5. 3D information, composition of image texture and text file,
output

【0033】(撮像系の概略)撮像系の構成、画像の取
り込み等のシーケンスについて説明する。
(Outline of Imaging System) The configuration of the imaging system and the sequence of image capturing will be described.

【0034】図1は、本発明に係わる立体形状抽出装置
とこれが使用される環境を示す概略図である。
FIG. 1 is a schematic diagram showing a three-dimensional shape extraction apparatus according to the present invention and an environment in which it is used.

【0035】同図において、1は本発明に係わる立体形
状抽出装置の撮像ヘッド部(カメラヘッド部)で、この
撮像ヘッド部はいわゆる複眼撮像系をなしており、10
0L、100Rはそれぞれ左右の撮像レンズ、10L,
10Rはそれぞれ左右の撮像レンズ100L、100R
の撮像範囲を示している。また立体画像を撮像するため
には、これらの撮像範囲は互いにオーバーラップしてい
ることが必要である。
In the figure, reference numeral 1 is an image pickup head section (camera head section) of the three-dimensional shape extraction apparatus according to the present invention, and this image pickup head section constitutes a so-called compound eye image pickup system.
0L and 100R are the left and right imaging lenses, 10L,
10R are left and right imaging lenses 100L and 100R, respectively.
Are shown. Further, in order to capture a stereoscopic image, it is necessary that these imaging ranges overlap each other.

【0036】2は検出物すなわち被写体、3は被写体2
の背景となる背面、200は被写体を照明するための照
明部である。照明部は撮像環境に応じて照明光を照射す
る。
Reference numeral 2 is a detected object, that is, a subject, and 3 is a subject 2.
The back surface, which is the background of the, and an illumination unit 200 for illuminating the subject. The illumination unit emits illumination light according to the imaging environment.

【0037】4は撮像ヘッド1の撮像位置を検出する位
置検出手段としての位置検知部で、背面3から得られる
情報を基に画像処理によって撮像ヘッド1の位置を検出
して位置情報を出力する手段と、ジャイロ等のセンサに
より物理的に撮像ヘッド1の位置を検出して位置情報を
出力する手段を備えている。
Reference numeral 4 denotes a position detecting section as a position detecting means for detecting the image pickup position of the image pickup head 1, which detects the position of the image pickup head 1 by image processing based on the information obtained from the back surface 3 and outputs the position information. And means for physically detecting the position of the imaging head 1 by a sensor such as a gyro and outputting position information.

【0038】立体形状抽出装置の撮像ヘッド部1は、撮
像開始位置A0より撮像終了位置Anまで移動しながら
被写体2を撮像する。また、このときA0−An間の各
撮像地点における立体形状抽出装置の撮像ヘッド部1の
位置は前述の位置検出部によって検出され、その位置情
報が出力される。
The image pickup head unit 1 of the three-dimensional shape extraction apparatus picks up an image of the subject 2 while moving from the image pickup start position A0 to the image pickup end position An. At this time, the position of the image pickup head unit 1 of the three-dimensional shape extraction device at each image pickup point between A0 and An is detected by the position detection unit described above, and the position information is output.

【0039】5はカメラヘッド1で得られた画像データ
と前記位置検出手段4で得られたカメラヘッド1の位置
情報を記憶するメモリである。
Reference numeral 5 is a memory for storing the image data obtained by the camera head 1 and the position information of the camera head 1 obtained by the position detecting means 4.

【0040】6は前記メモリ5に記憶された画像データ
とそれに対応するカメラヘッド1の位置情報を基に被写
体の立体形状を演算する3次元画像データ演算部であ
る。
Reference numeral 6 is a three-dimensional image data calculation unit for calculating the three-dimensional shape of the subject based on the image data stored in the memory 5 and the positional information of the camera head 1 corresponding thereto.

【0041】7は前記3次元画像データ演算部6で得ら
れた被写体の3次元画像データから使用者の指定する画
像形態で任意の視点から見たときの被写体の2次元画像
データを演算する2次元画像データ演算部である。
Reference numeral 7 calculates the two-dimensional image data of the subject when viewed from an arbitrary viewpoint in the image form designated by the user from the three-dimensional image data of the subject obtained by the three-dimensional image data computing unit 2 It is a three-dimensional image data calculation unit.

【0042】尚、本実施例では図2に示すように使用者
は、被写体を12の自然画、又は被写体のエッジを線で
表わした線画(図中13)、又は被写体の表面を所定の
大きさの平面の連続体として表すポリゴン画(図中1
4)の3つの画像形態に、後述する操作手段11によっ
て選択可能なものとする。
In the present embodiment, as shown in FIG. 2, the user has 12 natural images of the object, or a line drawing (13 in the drawing) in which the edges of the object are represented by lines, or the surface of the object has a predetermined size. Polygon image expressed as a continuum of the plane of Sasano (1 in the figure
It is assumed that the three image forms of 4) can be selected by the operation means 11 described later.

【0043】1001はテキストなどの文書データを作
成したりする文章データ作成手段で、1000はその文
書データと前記2次元画像データ演算手段によって得ら
れた被写体データを合成したり、編集するなどの加工が
可能なデータ合成手段である。
Reference numeral 1001 is a text data creating means for creating document data such as text. Reference numeral 1000 is processing for synthesizing or editing the document data and subject data obtained by the two-dimensional image data calculating means. Is a data synthesizing means capable of

【0044】8は被写体の2次元画像データや文書デー
タを表示するためのモニタである。
Reference numeral 8 is a monitor for displaying two-dimensional image data and document data of the subject.

【0045】9は被写体の2次元画像データや文書デー
タを紙などにプリントするプリンタである。
A printer 9 prints two-dimensional image data of a subject and document data on paper or the like.

【0046】11は被写体を見る視点を移動させたり、
被写体の画像形態を変更したり、前記データ合成手段1
000による各データの合成及び編集作業をするための
各種操作を行う操作手段である。
11 is for moving the viewpoint for seeing the subject,
The image form of the subject can be changed, and the data synthesizing means 1 can be used.
000 is an operating means for performing various operations for synthesizing and editing each data.

【0047】前述した様に、まず使用者はカメラヘッド
1を被写体2に向け、図示しないレリーズボタンを操作
すると被写体の撮影が行われ、最初の画像データがメモ
リ5に記憶される。次に使用者はカメラヘッド1を被写
体を中心にA0からAnへ移動させる。
As described above, when the user points the camera head 1 at the subject 2 and operates a release button (not shown), the subject is photographed and the first image data is stored in the memory 5. Next, the user moves the camera head 1 from A0 to An centering on the subject.

【0048】A0からAnへ移動している最中に、まず
最初の位置A0に対して位置および方向が所定量変化し
たことを位置検出手段4が検知すると2度目の撮影が行
われ、以下順々にn度目まで撮像が行われていく。この
時、画像データと位置検出手段により得られたカメラヘ
ッド1が最初に被写体2を撮影した位置および方向に対
する変位量がメモリ5に記録される。
During the movement from A0 to An, when the position detecting means 4 detects that the position and direction have changed by a predetermined amount with respect to the first position A0, the second photographing is performed, and the following sequence is performed. Imaging is performed up to the nth time. At this time, the image data and the amount of displacement of the camera head 1 obtained by the position detection means with respect to the position and direction in which the subject 2 is first photographed are recorded in the memory 5.

【0049】このとき位置検知部4によってカメラヘッ
ド1の位置および移動方向の少なくとも一方が所定より
大きく変位していた場合には後述する警告手段により警
告を行う。以下この動作を数回繰り返し、被写体の3次
元画像データを演算するのに十分な画像データが得られ
ると図示しない撮影終了報知手段でその旨を使用者に知
らせて撮影を終了する。
At this time, when at least one of the position and the moving direction of the camera head 1 is displaced by the position detecting section 4 by a larger amount than a predetermined value, a warning means to be described later gives a warning. Thereafter, this operation is repeated several times, and when the image data sufficient for calculating the three-dimensional image data of the subject is obtained, the photographing end notifying means (not shown) notifies the user of the fact and the photographing is ended.

【0050】次に3次元画像データ演算部6ではメモリ
5に記憶された画像データとそれぞれの画像データに対
応するカメラヘッド1の位置情報から撮影した被写体の
3次元画像データを演算する。
Next, the three-dimensional image data calculation unit 6 calculates the three-dimensional image data of the photographed subject from the image data stored in the memory 5 and the position information of the camera head 1 corresponding to each image data.

【0051】2次元画像データ演算手段は被写体の3次
元画像データから操作手段11によって選択された画像
形態(図2参照)で、かつ被写体を最初に撮影した位置
から見た2次元画像データを演算し、モニタ8に表示す
る。
The two-dimensional image data calculating means calculates the two-dimensional image data in the image form selected by the operating means 11 from the three-dimensional image data of the subject (see FIG. 2) and seen from the position where the subject is first photographed. Then, it is displayed on the monitor 8.

【0052】このとき使用者は操作手段11を操作する
と2次元画像データ演算手段7はそれに応じて演算を行
い、図3のようにモニタ8に表示された被写体像15を
16〜21のように任意の視点から見た被写体像に変更
することができる。また操作手段11を操作することに
よってモニタ8に表示された被写体を図2のように画像
形態に変更することもできる。
At this time, when the user operates the operation means 11, the two-dimensional image data operation means 7 performs an operation according to the operation, and the subject image 15 displayed on the monitor 8 as shown in FIG. It is possible to change to a subject image viewed from an arbitrary viewpoint. Further, by operating the operating means 11, the subject displayed on the monitor 8 can be changed to an image form as shown in FIG.

【0053】そして使用者は撮影した被写体を目的に応
じて視点、画像形態を変更した後、プリンタ8に出力す
ることもできる。また使用者はデータ合成手段1000
によって予め作成した文書データと前記2次元画像デー
タ演算部によって演算された被写体データをモニタ8に
表示しながら合成及び編集作業を行うことも可能であ
る。またこのときも被写体の画像形態や視点を変更した
い場合は操作手段11を操作することにより可能であ
る。
Then, the user can change the viewpoint and the image form of the photographed object according to the purpose and then output the image to the printer 8. In addition, the user uses the data synthesizing means 1000.
It is also possible to perform composition and editing work while displaying on the monitor 8 the document data created in advance and the subject data calculated by the two-dimensional image data calculation unit. Also at this time, if it is desired to change the image form or the viewpoint of the subject, it is possible by operating the operating means 11.

【0054】次に立体形状抽出ブロックの構成、動作の
詳細について説明する。
Next, the details of the configuration and operation of the three-dimensional shape extraction block will be described.

【0055】図4は、本発明に係わる立体形状抽出ブロ
ック図を示す。これは図1におけるヘッドと処理部の詳
細である。
FIG. 4 shows a block diagram of a solid shape extraction according to the present invention. This is a detail of the head and the processing unit in FIG.

【0056】図4においては、100L,100Rは左
右の撮像レンズであり、ズームレンズで構成されてい
る。101L,101Rは絞り、102L,102Rは
イメージセンサであり、CCD等の撮像素子が用いられ
ている。
In FIG. 4, reference numerals 100L and 100R denote left and right image pickup lenses, which are zoom lenses. 101L and 101R are diaphragms, 102L and 102R are image sensors, and image pickup devices such as CCDs are used.

【0057】103L,103Rは、イメージセンサ1
02L,102Rより出力された画像信号をデジタル信
号に変換するA/D変換部であり、104L,104R
はA/D変換部103L,103Rでデジタル信号に変
換された画像信号を規格化された映像信号に変換する映
像信号処理部である。
Image sensors 103L and 103R are image sensors 1.
An A / D converter that converts the image signals output from the 02L and 102R into digital signals.
Is a video signal processing unit that converts the image signal converted into a digital signal by the A / D conversion units 103L and 103R into a standardized video signal.

【0058】105L,105Rは映像信号処理部10
4L,104R部より出力された映像信号中から立体情
報を抽出しようとする物体(被写体)の画像と背面の画
像とを分離する被写体分離部である。
105L and 105R are video signal processing units 10
The subject separation unit separates the image of the object (subject) from which the stereoscopic information is to be extracted from the image signals output from the 4L and 104R units, and the image on the back side.

【0059】106L,106Rはズーム制御部で、ズ
ームレンズの焦点距離の調整を行うものであり、107
L,107Rはフォーカス制御部であり焦点位置の調整
を行うものである。また、108L,108Rは絞り制
御部であり、絞り量の調整を行う。
Reference numerals 106L and 106R denote zoom control units for adjusting the focal length of the zoom lens.
L and 107R are focus control units for adjusting the focus position. Further, 108L and 108R are diaphragm control units, which adjust the diaphragm amount.

【0060】4は撮像ヘッド1の位置を検知する位置検
知部に相当するカメラ姿勢検出部である。
Reference numeral 4 denotes a camera posture detecting section corresponding to a position detecting section for detecting the position of the image pickup head 1.

【0061】210は本立体形状抽出装置の各処理を統
括的に制御するためのシステムコントローラであり、マ
イクロコンピュータによって構成されている。
Reference numeral 210 denotes a system controller for integrally controlling each process of the present three-dimensional shape extraction apparatus, which is composed of a microcomputer.

【0062】システムコントローラ210は、図5に示
すように、マイクロコンピュータ900、メモリ910
及び画像演算処理部920から構成されている。
As shown in FIG. 5, the system controller 210 includes a microcomputer 900 and a memory 910.
And an image calculation processing unit 920.

【0063】220は画像処理部であり、図1の概念図
で示した5,6,7を実現するものである。各々の撮像
レンズ100L,100Rによって撮影された被写体像
に対応する映像信号から被写体の立体情報を抽出すると
ともに、抽出された各撮像地点における被写体の立体情
報をカメラ姿勢検出部4により得られる各撮像位置にお
けるカメラヘッドの姿勢に関する情報に基づいて統合
し、出力する。
Reference numeral 220 denotes an image processing unit, which realizes 5, 6 and 7 shown in the conceptual diagram of FIG. Each stereoscopic information of the subject is extracted from the video signal corresponding to the subject image captured by each of the imaging lenses 100L and 100R, and the stereoscopic information of the subject at each of the captured image points is obtained by the camera attitude detection unit 4. It is integrated and output based on the information on the posture of the camera head at the position.

【0064】以下、図4により本発明の立体形状抽出装
置のカメラ部分の詳細な動作について説明する。
The detailed operation of the camera portion of the three-dimensional shape extracting apparatus of the present invention will be described below with reference to FIG.

【0065】被写体像は各々撮像レンズ100R及び1
00Lを通して入力される。入力された被写体像はイメ
ージセンサ102R及び102Lにおいて電気信号に変
換される。変換された信号は、各々A/D変換部103
R及び103Lにおいてアナログからデジタルの信号に
変換されて映像信号処理部104R及び104Lに供給
される。
The subject images are image pickup lenses 100R and 100R, respectively.
It is input through 00L. The input subject image is converted into an electric signal by the image sensors 102R and 102L. The converted signals are output to the A / D conversion unit 103, respectively.
The analog signals are converted into digital signals in R and 103L and supplied to the video signal processing units 104R and 104L.

【0066】各々の映像信号処理部104R及び104
Lにおいては、デジタル化された被写体の信号を、適切
な形態の輝度信号及び色信号に変換処理する。被写体分
離部105R及び105Lにおいては、各々映像信号処
理部104R及び104Lより得られる信号をもとに、
撮像される被写体において、立体形状を計測したい主被
写体と背面とを分離する。
Each of the video signal processing units 104R and 104
In L, the signal of the digitized subject is converted into a luminance signal and a chrominance signal of appropriate forms. In the subject separation units 105R and 105L, based on the signals obtained from the video signal processing units 104R and 104L, respectively,
In the imaged subject, the main subject whose stereoscopic shape is desired to be measured and the back face are separated.

【0067】分離の方法としては、例えば予め背面の映
像を撮像しておき、その画像をメモリに保持しその後測
定したい主被写体を置いて撮像を行う。撮像した映像と
予めメモリに保持している背面の映像とのマッチング及
び差分処理を施し背面領域を分離する等の方法を用い
る。分離の方法としては、これに限るものではなく色あ
るいはテクスチャの情報を基に分離してもよい。
As a separating method, for example, a back image is picked up in advance, the image is held in a memory, and then a main subject to be measured is placed and picked up. A method of performing matching and difference processing between the imaged image and the image of the rear face held in the memory in advance to separate the rear face region is used. The separation method is not limited to this, and separation may be performed based on color or texture information.

【0068】分離された主被写体の映像は画像処理部2
20に与えられ、画像処理部220において撮像時の各
パラメータを基に立体形状の抽出処理が施される。
The image of the separated main subject is the image processing unit 2.
20 and the image processing unit 220 performs a three-dimensional shape extraction process based on each parameter at the time of imaging.

【0069】次に、図6のフローチャートにより、本発
明に係る立体形状抽出装置のカメラ部の処理シーケンス
について説明する。
Next, the processing sequence of the camera unit of the three-dimensional shape extraction device according to the present invention will be described with reference to the flowchart of FIG.

【0070】電源がONとなり映像信号が入力されると
コントローラ210は、各々の被写体分離部105R及
び105Lにより得られる映像信号を画像演算処理部9
20により積分処理して図1に示す主被写体2の輝度レ
ベルを算出し、輝度が不足し、立体形状抽出には不十分
であると判断した場合には、照明200を点灯する。こ
のとき照明強度レベルは算出された輝度レベルに応じて
可変としてもよい。
When the power is turned on and the video signal is input, the controller 210 converts the video signal obtained by each of the subject separation units 105R and 105L into the image calculation processing unit 9
The luminance level of the main subject 2 shown in FIG. 1 is calculated through integration processing by 20, and when it is determined that the luminance is insufficient and the three-dimensional shape extraction is insufficient, the illumination 200 is turned on. At this time, the illumination intensity level may be variable according to the calculated brightness level.

【0071】適切な輝度レベルに設定された各々の映像
信号を用いて次に焦点位置の調整を行う。焦点位置は図
7に示すようにまず主被写体A上に合わせ、その後背面
Bに合わせる。合焦状態の検出は、合焦検出部270に
おいて行う。検出の方式としては、エッジの鮮鋭度ある
いはボケ量を検知し鮮鋭度が最大、ボケ量が最小となる
ように撮影レンズを駆動するような周知の方式が利用で
きる。
Next, the focus position is adjusted using each video signal set to an appropriate brightness level. As shown in FIG. 7, the focus position is first adjusted on the main subject A and then on the back surface B. The focus state is detected by the focus detection unit 270. As a detection method, a well-known method can be used in which the sharpness or blur amount of an edge is detected and the photographing lens is driven so that the sharpness is maximum and the blur amount is minimum.

【0072】各々において焦点合わせを行った距離をX
1及びX2とすると、合焦検出部270はこの値をコン
トローラ210に出力する。コントローラ210は、こ
の値をもとに計測時に焦点合わせを行う距離Xを決定
し、各々のフォーカス制御部107R及び107Lに制
御信号を出力する。距離Xは例えばX1及びX2の中間
の位置X=(X1+X2)としてもよいし、適当な重み
付けを行いX=(mX1+nX2)として求めてもよ
い。m,nは重み付けを決定するための定数である。
The distance at which focusing is performed in each case is X.
If the values are 1 and X2, the focus detection unit 270 outputs this value to the controller 210. The controller 210 determines the distance X for focusing at the time of measurement based on this value, and outputs a control signal to each of the focus control units 107R and 107L. The distance X may be, for example, an intermediate position X = (X1 + X2) between X1 and X2, or may be determined as X = (mX1 + nX2) by appropriate weighting. m and n are constants for determining weighting.

【0073】距離Xに焦点位置を合わせた場合に焦点深
度内に収まる範囲は、距離X1′からX2′の範囲で以
下のように表すことができる。
The range within the depth of focus when the focus position is adjusted to the distance X can be expressed as follows in the range from the distance X1 'to X2'.

【0074】 X1′=Xf2/(f2+δF(X−f)(式1) X2′=Xf2/(f2−δF(X−f) ここで、δは最小錯乱円形を表わし例えばイメージセン
サの画素サイズとしてもよい。
X1 ′ = Xf 2 / (f 2 + δF (X−f) (Equation 1) X2 ′ = Xf 2 / (f 2 −δF (X−f) where δ represents a circle of least confusion and represents, for example, an image. The pixel size of the sensor may be used.

【0075】コントローラ210は、X1及びX2とX
1′及びX2′がほぼ一致するようにFナンバーを設定
するために、絞り制御部108R及び108Lに制御信
号を与える。この操作により輝度レベルがある程度以上
に変化した場合には、照明200の強度を変化させて対
応する。あるいは、AGC(オートゲインコントロー
ル)回路を組み込み電気的にレベル補正を行ってもよ
い。
The controller 210 uses X1 and X2 and X
In order to set the F number so that 1'and X2 'substantially match, a control signal is given to the aperture control units 108R and 108L. When the brightness level is changed to a certain extent or more by this operation, the intensity of the illumination 200 is changed to handle it. Alternatively, an AGC (auto gain control) circuit may be incorporated to perform level correction electrically.

【0076】焦点位置合わせを実行した後、ズームの調
整を行う。
After performing the focus position adjustment, the zoom is adjusted.

【0077】図8は、ズーム調整の概略を示したもので
ある。主被写体がほぼ焦点深度内に収まった状態で、各
々の撮像系1R及び1Lから得られる映像をコントロー
ラ210のメモリ910に保持すると共に、画像演算処
理部920においてオーバーラップ領域の検出を行う。
検出の方式は相関演算処理やテンプレートマッチング処
理等を利用する。
FIG. 8 shows an outline of zoom adjustment. In a state where the main subject is substantially within the depth of focus, the images obtained from the respective imaging systems 1R and 1L are held in the memory 910 of the controller 210, and the image calculation processing unit 920 detects the overlap area.
The detection method uses correlation calculation processing, template matching processing, or the like.

【0078】図8に示すように最初の状態でオーバーラ
ップ領域500を検出し、次にこの領域の面積が画面内
で大きくなる方向にコントローラ210はズーム値を設
定し、各々のズーム制御部106R及び106Lに制御
信号を出力する。
As shown in FIG. 8, the overlap area 500 is detected in the initial state, and then the controller 210 sets the zoom value in the direction in which the area of this area becomes larger on the screen, and the respective zoom control units 106R. And 106L to output control signals.

【0079】図9に一連のズーム調整による画面内のオ
ーバーラップ領域の変化の概略を示す。図9においてオ
ーバーラップ領域の面積Pがピークとなるfをコントロ
ーラ210の画像演算処理部920が算出し、各々のズ
ーム制御部106R及び106Lに制御信号を与える。
FIG. 9 shows an outline of changes in the overlap area in the screen due to a series of zoom adjustments. In FIG. 9, the image calculation processing unit 920 of the controller 210 calculates f at which the area P of the overlap region has a peak, and gives a control signal to each of the zoom control units 106R and 106L.

【0080】なお、この操作により焦点距離fが変化
し、その結果焦点深度の範囲がある程度以上に変化した
場合には(1)式によりX1及びX2とX1′及びX
2′がほぼ一致するようにFナンバーを設定するため
に、図6のパラメータ再調整のステップS2に従い、絞
り制御部108R及び108Lに制御信号を与える。
When the focal length f is changed by this operation and the range of the depth of focus is changed to some extent or more as a result, X1 and X2 and X1 'and X are obtained by the equation (1).
In order to set the F number so that 2'substantially match each other, a control signal is given to the aperture control units 108R and 108L according to step S2 of the parameter readjustment in FIG.

【0081】また、以上の一連の調整ステップS1後に
パラメータ再調整及び左右差補正のステップS2を施
す。左右差補正は左右差検出部260において露光量、
焦点位置及びズーム値を映像信号より検出する。検出さ
れた信号に基づきコントローラ210は各々のズーム制
御部106R及び106L、フォーカス制御部107R
及び107L、絞り制御部108R及び108Lに制御
信号を与える。
After the series of adjustment steps S1 described above, a step S2 of parameter readjustment and left / right difference correction is performed. The left / right difference correction is performed by the left / right difference detection unit 260.
The focus position and zoom value are detected from the video signal. Based on the detected signals, the controller 210 controls the zoom control units 106R and 106L and the focus control unit 107R.
And 107L and diaphragm control units 108R and 108L.

【0082】さらに、距離情報は以下の式により表すこ
とができる。
Further, the distance information can be expressed by the following equation.

【0083】Z=fb/d(式2) ここで、Z:距離、f:焦点距離、b:基線長、d:視
差を示す。
Z = fb / d (Equation 2) Here, Z: distance, f: focal length, b: base line length, and d: parallax.

【0084】従って、焦点距離は視差によりきまる距離
分解能をパラメータとして以下のようになる。
Therefore, the focal length is as follows with the distance resolution determined by parallax as a parameter.

【0085】∂Z/∂d=−fb/d2よって(式3) f=(−d2/b)・(∂Z/∂d)(式4)∂Z / ∂d = −fb / d 2 (Equation 3) f = (− d 2 / b) · (∂Z / ∂d) (Equation 4)

【0086】従って、外部入力I/F760を通してコ
ンピュータ等から分解能を設定し、この値を基に焦点距
離を設定することも可能である。
Therefore, it is also possible to set the resolution from a computer or the like through the external input I / F 760 and set the focal length based on this value.

【0087】S1及びS2のステップにより撮像パラメ
ータが調整されると、コントローラ210は、表示部2
40に信号を与えパラメータ設定の終了を撮影者に知ら
せる。表示部はCRT、LCD等のディスプレイでもよ
いし、LED等による簡易表示でもよい。また表示と合
わせて音を発生してもよいことは言うまでもない。
When the imaging parameters are adjusted in steps S1 and S2, the controller 210 causes the display unit 2 to
A signal is given to 40 to notify the photographer of the end of parameter setting. The display unit may be a display such as a CRT or LCD, or may be a simple display such as an LED. It goes without saying that a sound may be generated together with the display.

【0088】撮影者は、LED等の表示を確認し立体形
状の抽出作業を開始する。
The photographer confirms the display of the LED or the like and starts the work of extracting the three-dimensional shape.

【0089】撮影者が不図示の入力開始ボタンを押す
と、カメラ姿勢検出部201の検出信号が初期化され
る。
When the photographer presses an input start button (not shown), the detection signal of the camera posture detection unit 201 is initialized.

【0090】次に、画像取り込み時のファインダーの構
成を説明する。
Next, the structure of the finder at the time of capturing an image will be described.

【0091】図4のブロック図を用いて、画像取り込み
時のファインダーの構成を示す。図4において、73、
75、83、85は画像メモリ、104L、104Rは
左右の撮像系の映像信号処理部、240は表示部、92
は左右画像のオーバーラップ検出部、97は発音体であ
る。
The block diagram of FIG. 4 is used to show the structure of the finder at the time of image capturing. In FIG. 4, 73,
75, 83 and 85 are image memories, 104L and 104R are video signal processing units of the left and right imaging systems, 240 is a display unit, and 92.
Is a left and right image overlap detector, and 97 is a sounding body.

【0092】例えば一つの物体を複数の視点から撮影
し、そこで得られた画像を元にその物体の立体形状を求
めることを行うわけであるが、この時、撮影された画像
は関連している画像として記録される。
For example, one object is photographed from a plurality of viewpoints, and the three-dimensional shape of the object is obtained based on the images obtained there. At this time, the photographed images are related. It is recorded as an image.

【0093】またこのときは、直近に撮像された画像を
画像メモリ75、85に格納し、そこに格納された画像
と現在撮像されている画像、すなわち第1の画像メモリ
73、83に格納されている画像とのオーバーラップ部
をオーバーラップ検出部92により左右画像とも検出す
る。そしてその出力はシステムコントロール210に入
力され、その出力結果に応じて前画像と現画像のオーバ
ーラップ部を表示部(EVF)240上に表示する。
At this time, the most recently captured image is stored in the image memories 75 and 85, and the image stored therein and the currently captured image, that is, the first image memories 73 and 83 are stored. The overlap detection unit 92 detects the overlapped portion with the displayed image as the left and right images. The output is input to the system control 210, and the overlap portion of the previous image and the current image is displayed on the display unit (EVF) 240 according to the output result.

【0094】外部入力I/F760を立体形状入力にし
て、物体をある視点から撮影する場合、EVF240に
はオーバーラップ部分の右側撮像系に対応した部分のみ
表示され、オーバーラップ部分以外の部分は黒色で表示
されている。そこでEVF240を覗いて決定された画
像を1枚撮影する。このとき記録部250には左右のオ
ーバーラップ部分のみがそれぞれたとえば圧縮方式の一
つであるJPEGで圧縮され記録される。これは立体形
状を求められるのはオーバーラップ部分のみなので無駄
な情報を省くためである。
When the external input I / F 760 is used as a three-dimensional shape input and an object is photographed from a certain viewpoint, only a portion corresponding to the right side imaging system of the overlapping portion is displayed on the EVF 240, and a portion other than the overlapping portion is black. Is displayed. Then, one image determined by looking through the EVF 240 is photographed. At this time, only the left and right overlapping portions are respectively compressed and recorded in the recording unit 250 by, for example, JPEG which is one of the compression methods. This is because the three-dimensional shape is required only in the overlapping portion, and unnecessary information is omitted.

【0095】つづいて次のフレーミングを行う場合、E
VF240上には図10に表示されるように現在の画像
と直近に撮像された画像とのオーバーラップ部が表示さ
れる。図では、左右の画像でオーバーラップしていない
場所では黒表示なっており、ファーストショットで撮像
した場所は枠で表示されている。
Next, when performing the next framing, E
On the VF 240, an overlap portion between the current image and the most recently captured image is displayed as shown in FIG. In the figure, a black display is shown in a place where the left and right images do not overlap, and a place where the first shot is picked up is displayed in a frame.

【0096】そしてオーバーラップ部が画面に入るよう
な画角でレリーズボタン230を押す。このときオーバ
ーラップ部が画角内に入らない状態でレリーズボタン2
30を押すと前画像と現画像とに相関が無いということ
で警告音が発音体97より発せられる。これにより撮像
者は前画像と現画像に相関が無いことに気付くが、それ
でもかまわない場合はレリーズボタン230を押しきる
ことで撮影は可能になっている。
Then, the release button 230 is pressed with an angle of view such that the overlap portion is displayed on the screen. At this time, release button 2 with the overlap part not in the angle of view.
When the user presses 30, the warning sound is emitted from the sounding body 97 because there is no correlation between the previous image and the current image. As a result, the photographer notices that there is no correlation between the previous image and the current image, but if that does not matter, shooting is possible by pressing the release button 230 all the way.

【0097】このようにして物体を様々の視点でかつぬ
けが無いように複数枚画像を撮影した後、記録部250
を撮像装置本体からはずし、パーソナルコンピュータに
接続する。パーソナルコンピュータ上のアプリケーショ
ンソフトで使用する事が可能である。
In this way, after recording a plurality of images of the object from various viewpoints and without omission, the recording unit 250
Is removed from the main body of the imaging device and connected to a personal computer. It can be used with application software on a personal computer.

【0098】又、撮像系自身に立体形状の構築を行う機
能があるので、得られた立体形状データをコンピュータ
で用いることも可能である。
Further, since the imaging system itself has a function of constructing a three-dimensional shape, it is possible to use the obtained three-dimensional shape data in a computer.

【0099】コンピュータ内で、利用する際には、画像
の付帯情報からグループ化のフラグを見て自動的に画像
を選択して、パーソナルコンピュータ上に表示し、それ
ぞれの左右画像を利用するのである。
When used in the computer, the grouping flag is automatically selected from the supplementary information of the image, the image is automatically selected and displayed on the personal computer, and the left and right images are used. .

【0100】このように、以前に記録された画像に対し
て現画像のオーバーラップ部がどこであるかがわかるよ
うにEVF240上に表示することにより、撮影の失敗
を防ぐことができる。
As described above, by displaying on the EVF 240 so that the overlap portion of the current image with respect to the previously recorded image can be known, it is possible to prevent the photographing failure.

【0101】またオーバーラップ部がない状態で撮影し
ようとした場合は警告を発することにより更なる撮影の
失敗を防止するものである。
Further, when an attempt is made to take a picture without the overlapping portion, a warning is issued to prevent further failure of the picture taking.

【0102】また撮影を一つのグループとして関連付け
たい場合に、画像の付帯情報としてそのグループ化情報
を記録することによってパーソナルコンピュータ上での
処理を容易にすることができる。
Further, when it is desired to associate photographing as one group, the grouping information is recorded as the supplementary information of the image, so that the processing on the personal computer can be facilitated.

【0103】更に左右の撮像領域のオーバーラップ部の
みEVFに表示するようにしたので、立体表現のできる
部分が一目瞭然とすることができる。また、左右のオー
バーラップ部のみ記録するようにしたのでメモリの無駄
な消費を押さえることが可能となった。
Further, since only the overlapping portions of the left and right image pickup areas are displayed on the EVF, it is possible to make the portions capable of stereoscopic representation obvious. In addition, since only the left and right overlapping portions are recorded, it is possible to suppress unnecessary consumption of memory.

【0104】本実施形態の他の例としては、左右のオー
バーラップ部を画像の相関で求めるのではなく撮像装置
のパラメータ、すなわち焦点距離と被写体距離と基線長
と輻輳角から求めることができる。それを表示すること
により画像の相関で行うよりは精度は落ちるが、画像メ
モリを節約でき低コスト化が図れる。
As another example of the present embodiment, the left and right overlapping portions can be obtained from the parameters of the image pickup apparatus, that is, the focal length, the subject distance, the base line length, and the vergence angle, instead of being obtained from the image correlation. By displaying it, the accuracy is lower than that performed by the correlation of images, but the image memory can be saved and the cost can be reduced.

【0105】次に立体情報抽出について説明する。ま
ず、ステレオ画像より距離画像の抽出を説明する。
Next, the stereoscopic information extraction will be described. First, extraction of a distance image from a stereo image will be described.

【0106】図11にステレオ画像より距離画像の抽出
する処理手順を示す。図11において、110は画像メ
モリに蓄えられたステレオ画像である。それぞれを左画
像と右画像と称す。111はエッジ抽出処理部で、ステ
レオ画像からそれぞれエッジを抽出した画像を生成す
る。113は対応点抽出処理部で、ステレオ画像のそれ
ぞれの画素がどういう対応関係になっているかを抽出す
る処理部である。
FIG. 11 shows a processing procedure for extracting a distance image from a stereo image. In FIG. 11, 110 is a stereo image stored in the image memory. Each is called a left image and a right image. An edge extraction processing unit 111 generates an image in which each edge is extracted from the stereo image. A corresponding point extraction processing unit 113 is a processing unit that extracts what correspondence relationship each pixel of the stereo image has.

【0107】112もエッジ画像対応点抽出処理部であ
る。但し、これはエッジ抽出処理部111にてエッジ画
像にされた2つの画像中のそれぞれの画素がどういう対
応関係になっているかを抽出する処理部である。
Reference numeral 112 is also an edge image corresponding point extraction processing section. However, this is a processing unit that extracts the correspondence relationship between the respective pixels in the two images formed into the edge images by the edge extraction processing unit 111.

【0108】114は対応点抽出処理部113、エッジ
画像対応点抽出処理部112のそれぞれで求まった、対
応関係に矛盾する事はないかを判別し、矛盾箇所は除去
する処理部である。
Reference numeral 114 is a processing unit that determines whether or not there is a contradiction in the correspondence relationship obtained by the corresponding point extraction processing unit 113 and the edge image corresponding point extraction processing unit 112, and removes the contradiction.

【0109】115は求まった対応点箇所と、対応点を
求める途中で使用している相関の程度を表す指数、例え
ば残差でオクルージョン領域を判断する処理部である。
Reference numeral 115 is a processing unit for judging the occlusion area based on the obtained corresponding point portion and an index indicating the degree of correlation used in the process of obtaining the corresponding point, for example, the residual.

【0110】116は対応点関係から三角測量の原理で
距離分布を算出する処理部、117は背面部の特徴点を
同定する処理部、118は背面部の特徴点を利用して、
撮像パラメータや姿勢や移動関係を取得する処理部であ
る。
Reference numeral 116 denotes a processing unit for calculating a distance distribution based on the principle of triangulation from the corresponding point relation, 117 denotes a processing unit for identifying a characteristic point on the back side, and 118 uses a characteristic point on the back side.
It is a processing unit that acquires imaging parameters, postures, and movement relationships.

【0111】まず画像メモリに蓄えられたステレオ画像
から2つの処理が行われる。それは後述する処理方法を
用いて対応点抽出処理部113で、ステレオ画像の輝度
値からそれぞれの画素がどういう対応関係になっている
かを抽出する処理である。
First, two processes are performed from the stereo image stored in the image memory. This is a process in which the corresponding point extraction processing unit 113 uses a processing method described later to extract from the luminance value of the stereo image what correspondence each pixel has.

【0112】また、後述する処理方法を用いて、エッジ
画像対応点抽出処理部112で、エッジ抽出処理部11
1にてエッジ画像にされた2つの画像中のそれぞれの画
素がどういう対応関係になっているかを抽出する処理で
ある。エッジ画像の生成に関しては、後述する処理方法
を用いたエッジ抽出処理部111を経て生成されるもの
とする。
Further, the edge image corresponding point extraction processing unit 112 uses the edge extraction processing unit 11 by using the processing method described later.
This is a process of extracting the correspondence relationship between the respective pixels in the two images formed into the edge image in 1. Regarding the generation of the edge image, it is assumed that the edge image is generated through the edge extraction processing unit 111 using the processing method described later.

【0113】次に矛盾箇所は除去処理部114で、それ
ぞれの対応点処理部からの出力より対応関係の矛盾等を
判断する。輝度部からの対応関係とエッジ部からの対応
関係が一致しない時は、信頼性が低いとしてその対応関
係は排除するのが適当である。或いはそれぞれの関係に
重み付けをして判断する事も可能である。
Next, in the inconsistent portion, the removal processing unit 114 determines the inconsistency or the like in the correspondence relationship from the output from each corresponding point processing unit. When the correspondence relationship from the luminance part and the correspondence relationship from the edge part do not match, it is appropriate to exclude the correspondence relationship because the reliability is low. Alternatively, it is also possible to make a determination by weighting each relationship.

【0114】次のステップは、求まった対応点箇所と、
対応点を求める途中で使用している相関の程度を表す指
数、例えば残差でオクルージョン領域を判断する処理で
ある。
The next step is to find the corresponding points and
This is a process of determining an occlusion area based on an index indicating the degree of correlation used in the process of obtaining corresponding points, for example, a residual.

【0115】これは対応点処理が一応の結果を出すもの
のその信頼性を付加しようとする処理である。相関の程
度を表す指数として、相関係数或いは残差を用いて、そ
の残差が非常に大きい時、或いは相関係数が低い時は対
応関係の信頼性が低いとする。この低い所をオクルージ
ョン領域或いは対応がない領域として取り扱う。
This is a process in which the corresponding point process gives a tentative result, but its reliability is added. A correlation coefficient or a residual is used as an index indicating the degree of correlation, and when the residual is extremely large or when the correlation coefficient is low, the reliability of the correspondence is determined to be low. This low place is treated as an occlusion area or an uncorresponding area.

【0116】上記ステップを経て、求められた対応関係
を用いて三角測量の原理を用いて被写体の距離情報を算
出する。三角測量は式2で説明した通りである。
Through the above steps, the distance information of the object is calculated using the principle of triangulation using the obtained correspondence. Triangulation is as described in Equation 2.

【0117】対応点抽出法を説明するが、その代表とし
てテンプレートマッチング法による手法を説明する。図
17に示される様にN*N画素のテンプレート画像を例
えば左の撮像系から得られた画像から切り出す。これを
右の撮像系から得られた画像のM*M画素の入力画像内
の探索領域範囲、(M−N+1)2上で動かし、
The corresponding point extraction method will be described. A representative method thereof is the template matching method. As shown in FIG. 17, a template image of N * N pixels is cut out from an image obtained from the left imaging system, for example. This is moved on the search area range (M−N + 1) 2 in the input image of M * M pixels of the image obtained from the right imaging system,

【0118】[0118]

【外1】 の残差R(a、b)が最小になる様なテンプレート画像
の位置を求めて、N*Nテンプレート画像の中心画素を
一致箇所として求める。
[Outside 1] The position of the template image that minimizes the residual R (a, b) of is calculated, and the central pixel of the N * N template image is calculated as the matching point.

【0119】但し、(a、b)は画像内におけるテンプ
レート画像の左上位置を示し、IR(a,b)(i、j)は右
画像の部分画像、TL(i、j)は左画像から切り出し
たテンプレート画像である。
However, (a, b) indicates the upper left position of the template image in the image, I R (a, b) (i, j) is a partial image of the right image, and T L (i, j) is the left image. It is a template image cut out from an image.

【0120】また、エッジ抽出方法は、たとえばロバー
トフィルタ等の手法が用いられる。或いはゾーベルフィ
ルタを用いる事も可能である。
As the edge extraction method, a method such as a Robert filter is used. Alternatively, a Sobel filter can be used.

【0121】ロバートフィルタは、入力画像f(i、
j)、出力画像g(i、j)とすると g(i、j)=sqrt({f(i、j)−f(i+l、j+l)}2) +{f(i+l、j)−f(i、j+l)}2) (式6) 或いは g(i、j)=abs{f(i、j)−f(i+l、j+i)} +abs{f(i+l、j)−f(i、j+l)}で求まる。
The Robert filter uses the input image f (i,
j) and output image g (i, j) g (i, j) = sqrt ({f (i, j) -f (i + 1, j + l)} 2 ) + {f (i + 1, j) -f ( i, j + l)} 2 ) (Equation 6) or g (i, j) = abs {f (i, j) -f (i + 1, j + i)} + abs {f (i + l, j) -f (i, j + l) } To obtain.

【0122】 (式7) ゾーベルフィルタの場合、(Equation 7) In the case of a Sobel filter,

【0123】[0123]

【外2】 θ=tan-1(fy/fx) (式10) で計算される。[Outside 2] is calculated by θ = tan -1 (f y / f x) ( Equation 10).

【0124】この様にしてエッジ部が強調された画像に
対して2値化処理を行ってエッジ成分を抽出する。2値
化は適当な閾値を用いて行う。
The image in which the edge portion is emphasized in this way is binarized to extract the edge component. Binarization is performed using an appropriate threshold.

【0125】次に上記の手段で得られた距離情報の時系
列的統合を説明する。
Next, the time series integration of the distance information obtained by the above means will be described.

【0126】図12に上記の手段によって得られたステ
レオ画像からの距離情報を時々刻々統合する手順を示
す。
FIG. 12 shows a procedure for integrating the distance information from the stereo image obtained by the above means moment by moment.

【0127】図12において、120は前記手段で求ま
った、1対のステレオ画像からの距離情報である。
In FIG. 12, 120 is distance information from the pair of stereo images obtained by the above means.

【0128】121は1対のステレオ画像からの距離情
報120を統一された座標系に変換する手段である。
Reference numeral 121 is means for converting the distance information 120 from a pair of stereo images into a unified coordinate system.

【0129】122は統一された座標系に変換されたそ
れぞれの距離情報を統合していく手段である。ここでい
う統合とは、同一点は同一とする事、求められた各点の
座標の間を補間する事、撮像系の深度情報からのフラグ
を基に点の座標の信頼性判断する事、オクルージョン部
検知情報による取捨選択する事等を含むものとする。
Reference numeral 122 is a means for integrating the respective distance information converted into a unified coordinate system. The integration here means that the same points are the same, that the coordinates of the obtained points are interpolated, and the reliability of the coordinates of the points is judged based on the flag from the depth information of the imaging system. This includes selection based on the occlusion part detection information.

【0130】123はオクルージョン情報を送出する手
段である。124は統合された距離情報を表示する手段
である。125は本発明に係る撮像ヘッドの移動量や方
向等を検知する手段である。
Reference numeral 123 is a means for transmitting occlusion information. Reference numeral 124 is a means for displaying integrated distance information. Reference numeral 125 is a means for detecting the movement amount, direction, etc. of the imaging head according to the present invention.

【0131】まず上記説明手段によって得られたステレ
オ画像からの距離情報120は時々刻々生成される。
First, the distance information 120 from the stereo image obtained by the above-mentioned explanation means is generated every moment.

【0132】一方撮像ヘッドの移動量や方向等を検知す
る手段125からはその情報が送出されてくる。これら
を用いて後述する処理方法で、得られた距離情報を統合
された座標系に変換する。このように統一座標系に変換
することにより時々刻々得られた情報を統合し易くする
のである。
On the other hand, the information is sent from the means 125 for detecting the moving amount and direction of the image pickup head. The obtained distance information is converted into an integrated coordinate system by a processing method described later using these. By converting to the unified coordinate system in this way, it is easy to integrate the information obtained moment by moment.

【0133】次に同一の座標系に変換された距離情報
を、統合していく。これはまずそれぞれ距離情報中、同
一の点を示す場合、情報量を削減する意味でも、どちら
かひとつだけを用いる。同一と判断すると基準として
は、 (x0−x12+(y0−y12+(z0−z12<ε1 (式11) 或いは a(x0−x12+b(y0−y12+c(z0−z12<ε2 (式12) 等を用いる。
Next, the distance information converted into the same coordinate system is integrated. In the case where the same point is shown in each of the distance information, only one of them is used to reduce the amount of information. If they are judged to be the same, the criteria are (x 0 −x 1 ) 2 + (y 0 −y 1 ) 2 + (z 0 −z 1 ) 2 <ε 1 (equation 11) or a (x 0 −x 1 ) 2 + b (y 0 -y 1) 2 + c (z 0 -z 1) 2 <ε2 used (equation 12), and the like.

【0134】但しε1、ε2は基準値、a、b、c、d
は適当な係数である。
However, ε1 and ε2 are reference values, a, b, c and d.
Is an appropriate coefficient.

【0135】例えばa=b=1、c=2とし距離の違い
に対してより敏感に判定することも可能である。
For example, it is possible to make the determination more sensitive to the difference in distance by setting a = b = 1 and c = 2.

【0136】次に求められた点の座標から補間を行う。
補間としては、図13に示す例えば中間点を求めてい
く。
Interpolation is performed from the coordinates of the obtained points.
As the interpolation, for example, an intermediate point shown in FIG. 13 is obtained.

【0137】図13において○、●は抽出されたデー
タ、□は中間点補間で求められたデータである。
In FIG. 13, ◯ and ● are the extracted data, and □ are the data obtained by the intermediate point interpolation.

【0138】補間方法としては、線形補間、スプライン
補間等を用いることができる。
As the interpolation method, linear interpolation, spline interpolation or the like can be used.

【0139】次に、撮像系の深度情報からのフラグを基
に点の座標の信頼性判断する。これは撮像系の光学系の
焦点深度情報を利用して信頼性の低い所は排除するとと
もに、オクルージョン部検知情報による取捨選択するも
のである。
Next, the reliability of the coordinates of the point is judged based on the flag from the depth information of the image pickup system. This is to use the depth of focus information of the optical system of the image pickup system to eliminate places of low reliability, and to select the information based on the occlusion part detection information.

【0140】距離情報を統合された座標系に変換する方
法としては、図18(a)、(b)に示す。図18にお
いて、2は被写体であり、3はパッドである。パッドは
被写体の背景としての背面に相当する。
A method for converting distance information into an integrated coordinate system is shown in FIGS. 18 (a) and 18 (b). In FIG. 18, 2 is a subject and 3 is a pad. The pad corresponds to the back surface as the background of the subject.

【0141】1800〜1804は被写体2に対する撮
像ヘッドの距離情報を登録する為の仮想的な投影面であ
る。
Reference numerals 1800 to 1804 are virtual projection planes for registering the distance information of the image pickup head with respect to the subject 2.

【0142】1810〜1814は仮想的な投影面の中
心軸(光軸)である。
1810 to 1814 are the central axes (optical axes) of the virtual projection plane.

【0143】ここで統一された座標系とは5セットの基
準座標(x、y、z軸)の事である。すなわち上記に示
す仮想的な投影面を形成するための軸、例えば、x、
y、z軸といったものが1800から1804分、5つ
あることを示す。
The unified coordinate system here means five sets of reference coordinates (x, y, z axes). That is, an axis for forming the virtual projection plane shown above, for example, x,
It shows that there are five y and z axes from 1800 to 1804.

【0144】まず前記の方法で求められた距離情報Zt
ijを各投影面(5面)に投影する。投影は各基準座標に
沿う様、回転、並進等の変換が行われる。その様子が図
18(b)に示されている。これは投影面1803に関
しての模式図であるがその他の投影面に関しても同様に
行う。次の距離情報Zt+δ t ijに関しても同様に行うの
であるが、投影する際には先に書かれた時点の物に順に
上書きしていく。
First, the distance information Z t obtained by the above method
ij is projected on each projection surface (5 surfaces). Transformation such as rotation and translation is performed so that the projection follows each reference coordinate. This is shown in FIG. 18 (b). Although this is a schematic diagram regarding the projection surface 1803, the same is applied to the other projection surfaces. The next distance information Z t + δ t ij is similarly processed , but when projecting, the objects at the previously written time points are sequentially overwritten.

【0145】従ってある被写体に対して5つの基準軸に
沿った距離情報かが得られる。例えば一つの点が(x
0、y0、z0)、(x1、y1、z1)、(x2、y
2、z2)、(x3、y3、z3)、(x4、y4、z
4)の5つで表現されている。
Therefore, the distance information along the five reference axes is obtained for a certain subject. For example, one point is (x
0, y0, z0), (x1, y1, z1), (x2, y
2, z2), (x3, y3, z3), (x4, y4, z
It is expressed by 5 of 4).

【0146】次に、撮像パラメータ補正方法を説明す
る。
Next, the image pickup parameter correction method will be described.

【0147】図14に撮像パラメータ補正方法を示す。FIG. 14 shows an image pickup parameter correction method.

【0148】補正手段はセンサからの情報と画像処理手
段からの情報の2つから求める。まず画像処理手段から
の方法を説明する。
The correction means obtains from the information from the sensor and the information from the image processing means. First, the method from the image processing means will be described.

【0149】パッドの座標系をX、Y、Zとすると、任
意の場所の複眼撮像系の座標軸は、それぞれ以下の様に
なる。
Assuming that the coordinate system of the pad is X, Y, Z, the coordinate axes of the compound-eye image pickup system at any place are as follows.

【0150】左の撮像系は、The imaging system on the left is

【0151】[0151]

【外3】 R、BR、CRも同様である。[Outside 3] The same applies to A R , B R and C R.

【0152】例えば、X軸に沿って撮像系が基線長B、
離れている場合、
For example, the image pickup system has a base line length B along the X axis,
If they are far apart,

【0153】[0153]

【外4】 [Outside 4]

【0154】今P0(x、y、z)の撮像点p1(x
11)、pr(xrr)の関係が特徴点抽出処理でそれ
ぞれ抽出され求まったとすると、 (uv)=(x11)−(xrr) (式20) (x11)=f(XL/ZLL/ZL) (式21) (xrr)=f(XR/ZRR/ZR)から (式22) (uv)=f(XL/ZLL/ZL)−f(XR/ZRR/ZR)(式23) 簡単の為に、複眼撮像系が輻輳角無しで、AL=BL=C
L=E(単位行列)、AR=BR=CR=E(単位行列)、
U=B、V=W=0とすると、
Now, the image pickup point p 1 (x) of P 0 (x, y, z)
Supposing that the relations of 1 y 1 ) and p r (x r y r ) are extracted and obtained by the feature point extraction processing, (uv) = (x 1 y 1 ) − (x r y r ) (Equation 20) ( x 1 y 1 ) = f (X L / Z L Y L / Z L ) (Formula 21) From (x r y r ) = f (X R / Z R Y R / Z R ) (Formula 22) (uv ) = F (X L / Z L Y L / Z L ) −f (X R / Z R Y R / Z R ) (Equation 23) For the sake of simplicity, the compound-eye imaging system has no convergence angle and A L = BL = C
L = E (identity matrix), A R = BR = CR = E (identity matrix),
If U = B and V = W = 0,

【0155】[0155]

【外5】 (uv)=(f/ZL)・(B 0)から (式25) ZL=ZR=fB/uが求まる。 (式26)[Outside 5] From (uv) = (f / Z L ) · (B 0) (Equation 25) Z L = Z R = fB / u is obtained. (Equation 26)

【0156】このようにしてパッドと撮像系の関係が求
まる。
In this way, the relationship between the pad and the image pickup system is obtained.

【0157】また上記説明は簡略化したものであるが一
般性は失われない。また本出願人による特願平4−34
4556号公報(特開平6−195446号公報)に更
なる詳細が記述されている。
The above description is a simplified one, but the generality is not lost. In addition, Japanese Patent Application No. 4-34 by the present applicant
Further details are described in Japanese Patent No. 4556 (Japanese Patent Laid-Open No. 6-195446).

【0158】次にセンサ系からの出力との整合性を取る
事が必要である。簡単には画像処理系からの出力とセン
サ系からの出力との平均を取る事が良い。
Next, it is necessary to take consistency with the output from the sensor system. It is preferable to simply take the average of the output from the image processing system and the output from the sensor system.

【0159】或いはセンサ系からの出力を初期値とし
て、画像処理からの処理時間を短縮する事が考えられ
る。
Alternatively, it is possible to shorten the processing time from the image processing by setting the output from the sensor system as an initial value.

【0160】次に立体情報、画像テクスチャと文章ファ
イルの合成、出力処理について説明する。
Next, the stereoscopic information, the combination of the image texture and the text file, and the output processing will be described.

【0161】図16に上記説明手段によって得られた立
体情報、画像テクスチャを文章ファイルと合成する手段
を示す。
FIG. 16 shows a means for synthesizing the stereoscopic information and the image texture obtained by the above-described means with a text file.

【0162】図16において、160はフィッティング
処理手段で、抽出距離情報1600に対して、距離テン
プレート162を用いて修正していく手段である。
In FIG. 16, 160 is a fitting processing means for correcting the extracted distance information 1600 using the distance template 162.

【0163】161はテクスキチャ貼り付け手段で、修
正された距離情報1601に画像テクスチャ1602を
貼り付ける手段である。
Reference numeral 161 is a texture sticking means, which is means for pasting the image texture 1602 to the corrected distance information 1601.

【0164】163はファイル合成処理手段で、修正さ
れた距離情報1601と画像テクスチャ1602と文章
ファイル1603を合成しひとつのファイルを生成す
る。1604は2D(2次元)/3D(3次元)ファイ
ル出力で、上記の生成されたファイルを示す。
Reference numeral 163 denotes a file synthesizing processing unit which synthesizes the corrected distance information 1601, the image texture 1602 and the text file 1603 to generate one file. Reference numeral 1604 denotes a 2D (two-dimensional) / 3D (three-dimensional) file output, which indicates the generated file.

【0165】まず前述の手段で求められた抽出距離情報
1600と予め保持している距離テンプレート162と
の比較を行い、160のフィッティング処理手段で微修
正する。図20にフィッティング処理の流れを示す。図
20において、2001は抽出画像、2000はモデル
画像、2002、2003は抽出画像2001とモデル
画像2000との差分である。
First, the extracted distance information 1600 obtained by the above-mentioned means is compared with the distance template 162 held in advance, and the fitting processing means 160 makes a fine correction. FIG. 20 shows the flow of the fitting process. In FIG. 20, reference numeral 2001 is an extracted image, 2000 is a model image, and 2002 and 2003 are differences between the extracted image 2001 and the model image 2000.

【0166】フィッティング処理は2画像を図20の様
に表示して、例えば入力ペンで修正したりする。或いは
2画像の差分2002を取り一様な差分2003となる
様に自動的に修正される。
In the fitting process, two images are displayed as shown in FIG. 20, and correction is performed with, for example, an input pen. Alternatively, the difference 2002 of the two images is taken and automatically corrected so as to become a uniform difference 2003.

【0167】そして図16に示す様に、修正された距離
情報1601にテクスチャ貼り付け手段で、画像テクス
チャ1602を貼り付ける。これはCG等で使われてい
る手法と同じである。
Then, as shown in FIG. 16, the image texture 1602 is pasted to the corrected distance information 1601 by the texture pasting means. This is the same as the method used in CG and the like.

【0168】これで画像側の準備は出来た訳であるが、
文章ファイル1603と合成を行い例えばプレゼンテー
ション用のファイルを形成する。
Now that the image side is ready,
By combining with the text file 1603, a file for presentation, for example, is formed.

【0169】この形成方法としては文章中の画像が挿入
される領域の指定する情報と、合成される各々のファイ
ルに相手先の情報が付加される。
As the forming method, the information designated by the area where the image in the sentence is inserted and the information of the other party are added to each of the files to be combined.

【0170】図19にその一例を示すが、図19におい
て、1901は文章ファイル、1902、1903は画
像ファイルである。
An example of this is shown in FIG. 19. In FIG. 19, 1901 is a text file, and 1902 and 1903 are image files.

【0171】19001、19002はリンク情報で、
文章ファイルと画像ファイルの接続関係を示す。190
03、19005、19007は文章データである。1
9004、19006は画像挿入フラグで画像が挿入さ
れる箇所を示し、リンク情報とまじえて画像ファイルを
指し示す。19008、19009は画像座標情報であ
る。
Reference numerals 19001 and 19002 are link information.
The connection relation between a text file and an image file is shown. 190
03, 19005, 19007 are text data. 1
Reference numerals 9004 and 19006 are image insertion flags, which indicate the positions where the image is inserted, and indicate the image file in combination with the link information. 19008 and 19009 are image coordinate information.

【0172】文章ファイルの構成は、リンク情報、画像
挿入フラグ、文章データからなる。画像挿入フラグの場
所に画像ファイルが挿入される。画像ファイルには画像
座標情報が入っているので、その情報に基づき、任意の
視点からの図に変換されて実際には挿入される。言い換
えれば画像座標情報は、基の画像に対する変換の関係を
示した情報である。このように作成されたファイルが最
終的に利用される。
The structure of the text file is composed of link information, an image insertion flag, and text data. The image file is inserted at the position of the image insertion flag. Since the image file contains image coordinate information, it is actually inserted after being converted into a figure from an arbitrary viewpoint based on that information. In other words, the image coordinate information is information indicating the conversion relationship for the original image. The file created in this way is finally used.

【0173】(第2の実施形態)次に、本発明に係る第
2の実施形態について説明する。
(Second Embodiment) Next, a second embodiment according to the present invention will be described.

【0174】図21は、本発明に係る立体形状抽出装置
の第2の実施形態の概略を示したものである。
FIG. 21 shows the outline of the second embodiment of the three-dimensional shape extraction device according to the present invention.

【0175】図21において、2101は主被写体で、
2100は本立体抽出装置、100は撮像レンズ、20
0は照明部である。
In FIG. 21, reference numeral 2101 is the main subject,
2100 is the present stereoscopic extraction device, 100 is an imaging lens, 20
Reference numeral 0 is an illumination unit.

【0176】また、2102は、キャリブレーションパ
ッドであり立体抽出装置はこのパッドの映像を基に姿勢
の検出を行う。
Reference numeral 2102 is a calibration pad, and the three-dimensional extraction device detects the posture based on the image of this pad.

【0177】尚、パッド2102上の文字A、B、C、
Dは装置2100の姿勢検出のための特徴部であり、こ
れら特徴部の方向、歪み等から姿勢の算出を行う。
The characters A, B, C, on the pad 2102
D is a characteristic part for detecting the posture of the device 2100, and the posture is calculated from the direction, distortion and the like of these characteristic portions.

【0178】図22は、本実施例に係る立体形状抽出装
置2100のブロック図である。
FIG. 22 is a block diagram of the three-dimensional shape extraction device 2100 according to this embodiment.

【0179】尚、図22において第1の実施例とL及び
Rの記号部を除いて同様の番号を付すものは、機能及び
動作が同じであるので説明を省略する。
It is to be noted that, in FIG. 22, those having the same numbers as those in the first embodiment except for the symbol portions of L and R have the same functions and operations, and therefore the description thereof will be omitted.

【0180】図22において、100は撮像レンズであ
り、ズームレンズ等が用いられる。
In FIG. 22, reference numeral 100 is an image pickup lens, and a zoom lens or the like is used.

【0181】101は絞りであり、102はCCD等の
イメージセンサである。
Reference numeral 101 is an aperture, and 102 is an image sensor such as a CCD.

【0182】103は、A/D変換部であり、イメージ
センサ102から得られるアナログの信号をデジタル信
号に変換する。
Reference numeral 103 is an A / D converter which converts an analog signal obtained from the image sensor 102 into a digital signal.

【0183】104は映像信号処理部であり、105は
被写体分離部である。
Reference numeral 104 is a video signal processing section, and 105 is a subject separation section.

【0184】4は、カメラ姿勢位置検出部でありパッド
2102の特徴部の方向、歪み等から装置2100の姿
勢を検出するものである。220は、画像処理部であ
り、映像信号と姿勢情報から被写体の立体形状を抽出す
る。
Reference numeral 4 denotes a camera posture position detection unit which detects the posture of the apparatus 2100 from the direction and distortion of the characteristic portion of the pad 2102. An image processing unit 220 extracts the three-dimensional shape of the subject from the video signal and the posture information.

【0185】また、270は合焦検出部であり単眼であ
ることを除いて、機能及び動作は第1の実施形態と同様
である。
Further, the function and operation are the same as those in the first embodiment except that the focus detection unit 270 is a monocular.

【0186】又、210はシステムコントローラであり
装置全体の制御を行う。
A system controller 210 controls the entire apparatus.

【0187】次に、動作について説明する。図23は、
本発明に係る立体形状抽出装置の処理を示すフローであ
る。
Next, the operation will be described. FIG.
It is a flow which shows the processing of the solid shape extraction device concerning the present invention.

【0188】本実施形態が第1の実施形態と異なる点
は、ズームの調整法である。本例の装置は、パッド21
02との組み合わせにより姿勢検出を行うため、撮像の
際にパッド2102が適切な範囲で得られることが必要
となる。
The present embodiment differs from the first embodiment in the zoom adjusting method. The device of this example has a pad 21
Since the posture detection is performed in combination with 02, it is necessary to obtain the pad 2102 in an appropriate range at the time of imaging.

【0189】そこで、まず被写体分離部105は、予め
保持しているパッド2102の特徴部(図21の四隅の
A,B,C,D)と現在得られている映像との間で相関
演算あるいはテンプレートマッチング処理を施し、検出
信号をシステムコントローラ210に出力する。システ
ムコントローラ210は、パッド2102が視野内に適
切な範囲で収まるように焦点距離を設定する。同時に焦
点距離の情報をシステムコントローラ210内のメモリ
910に保持する。
Therefore, first, the subject separating section 105 performs a correlation calculation between the characteristic portions (A, B, C, D at the four corners in FIG. 21) of the pad 2102 held in advance and the image currently obtained, or Template matching processing is performed and a detection signal is output to the system controller 210. The system controller 210 sets the focal length so that the pad 2102 falls within an appropriate range within the field of view. At the same time, the information on the focal length is held in the memory 910 in the system controller 210.

【0190】これにより、パッド全体を常に視野におさ
めることができるので、特徴部の形状より常に姿勢の検
出が可能な状態となる。
As a result, the entire pad can be kept in the visual field at all times, so that the posture can always be detected from the shape of the characteristic portion.

【0191】図23のフローに示すように、光学系のパ
ラメータが設定されると、表示部240のLEDを点灯
し、撮影者に入力可能な状態であることを知らせる。
As shown in the flow chart of FIG. 23, when the parameters of the optical system are set, the LED of the display section 240 is turned on to inform the photographer that the input is possible.

【0192】撮影者は、この表示をうけて入力を開始
し、装置2100を移動させながら適当な間隔でシャッ
ター230をきり、映像を入力する。このとき、被写体
分離部105の情報を基にシステムコントローラ210
は主被写体を含むパッド2102の特徴部が常に適切な
範囲で視野に収まるように焦点距離を設定する。同時に
各撮像位置における焦点距離を含む撮像パラメータ情報
をメモリ910に保持する。これにより特徴部の状態か
ら姿勢検出部4が姿勢を検出する。
Upon receipt of this display, the photographer starts the input and, while moving the device 2100, releases the shutter 230 at appropriate intervals to input the image. At this time, based on the information of the subject separation unit 105, the system controller 210
Sets the focal length so that the characteristic portion of the pad 2102 including the main subject always fits within the visual field within an appropriate range. At the same time, the imaging parameter information including the focal length at each imaging position is held in the memory 910. As a result, the posture detection unit 4 detects the posture from the state of the characteristic portion.

【0193】画像処理部220は、画像メモリ73、7
5に保持されている複数の映像信号を読みだし、システ
ムコントローラ内のメモリ910に保持されている撮像
パラメータ情報を基に画像を変換し、同一焦点距離の画
像に補正する。さらに、画像処理部220は、補正され
た映像信号と4により得られる姿勢信号から、被写体の
立体形状を抽出し記録部250に与える。記録部250
は、得られる信号を適切なフォーマットに変換し記録媒
体に記録する。
The image processing section 220 has the image memories 73, 7
5 is read out, the image is converted based on the imaging parameter information stored in the memory 910 in the system controller, and corrected to an image with the same focal length. Further, the image processing unit 220 extracts the three-dimensional shape of the subject from the corrected video signal and the posture signal obtained by 4, and supplies it to the recording unit 250. Recording unit 250
Converts the obtained signal into an appropriate format and records it on a recording medium.

【0194】(第3の実施形態)図24は、本発明に係
る立体形状抽出装置の第3の実施形態を示すブロック図
である。図24において第1及び第2実施形態と同様の
番号を付するものは機能及び動作が同じであるものとし
説明は省略する。
(Third Embodiment) FIG. 24 is a block diagram showing a third embodiment of the three-dimensional shape extraction device according to the present invention. In FIG. 24, components having the same numbers as those in the first and second embodiments have the same functions and operations, and the description thereof will be omitted.

【0195】図24において2400はメモリであり、
パッドに関する情報を保持するものである。本実施例は
このパッドに関する情報を複数持つ事が特徴である。
In FIG. 24, 2400 is a memory,
It holds information about the pad. The present embodiment is characterized by having a plurality of pieces of information regarding this pad.

【0196】また760は、外部入力I/F部であり例
えばコンピュータ等と接続して、情報の入力を行うもの
である。
Reference numeral 760 denotes an external input I / F section, which is connected to, for example, a computer to input information.

【0197】また、外部入力I/F部によりパッドの種
類等を選択する事が可能である。
The type of pad and the like can be selected by the external input I / F section.

【0198】記録部250は立体形状と共に撮像パラメ
ータも同時に記録する。また必要に応じて記録した情報
を読みだす機能も有するものである。210はコントロ
ーラであり全体の制御を行う。
The recording section 250 records the three-dimensional shape and the imaging parameter at the same time. It also has a function of reading the recorded information as needed. Reference numeral 210 denotes a controller, which performs overall control.

【0199】2401はマッチング処理部であり、記録
部250により読みだされる予め記録された立体形状及
び画素情報を基に、現在撮像されている映像との間でマ
ッチング処理を施すものである。
A matching processing unit 2401 performs matching processing with the currently picked-up image on the basis of the three-dimensional shape and pixel information recorded in advance by the recording unit 250.

【0200】以下、動作について説明する。また図25
に本実施例のフローを示す。
The operation will be described below. Also in FIG.
The flow of this embodiment is shown in FIG.

【0201】本実施形態の装置においては撮影者が入力
開始時にパッドの種類を選択する。システムコントロー
ラ210は選択された情報に基づいてパッド用メモリ2
400から情報を読みだし、焦点距離やフォーカス等パ
ラメータの制御及び姿勢検出等に利用する。
In the apparatus of this embodiment, the photographer selects the type of pad at the start of input. The system controller 210 operates the pad memory 2 based on the selected information.
Information is read from 400 and used for controlling parameters such as focal length and focus, and for posture detection.

【0202】以下フローに示すように第2の実施の形態
と同様の制御を行い、入力を開始し立体形状を抽出す
る。ここで、入力中に取り直しを行いたい場合、外部入
力I/F部により取り直しモードを選択する。
As shown in the flow below, the same control as in the second embodiment is performed to start the input and extract the three-dimensional shape. Here, if it is desired to perform the retake during input, the retake mode is selected by the external input I / F section.

【0203】このとき、記録部250はこれまでに記録
した信号を読みだし、現在撮像されている映像との間で
マッチング演算処理を実施する。
At this time, the recording section 250 reads out the signals recorded so far, and carries out a matching calculation process with the image currently being imaged.

【0204】マッチング演算処理により現在撮像されて
いる領域と読みだされた信号との間に対応が取れると表
示240のLED等を点灯し、撮影者に入力準備が整っ
たことを知らせる。
When a correspondence between the currently imaged area and the read signal is obtained by the matching calculation processing, the LED or the like of the display 240 is turned on to notify the photographer that the input preparation is completed.

【0205】尚、この取り直しを行う場合パッド210
2上の被写体2101の配置を変えることも可能であ
り、この場合も以前に記録された信号との間でマッチン
グ処理を施し対応が取れた領域を基点に入力を開始す
る。
In the case where this re-taking is performed, the pad 210
It is also possible to change the arrangement of the subject 2101 on the second object, and in this case as well, matching processing is performed with the previously recorded signal, and input is started based on the area where the correspondence has been achieved.

【0206】また、一旦入力作業を終了し再度やり直す
場合には、記録部250は以前に記録された立体形状及
び画素信号に加えて撮像パラメータを読みだし、以前に
撮像したときと同じ撮像パラメータに設定して入力を行
う。
When the input work is ended and the process is redone, the recording unit 250 reads out the imaging parameters in addition to the previously recorded three-dimensional shape and pixel signal, and the imaging parameters are the same as those previously captured. Set and enter.

【0207】さらに、予めメモリ2400に登録されて
いないパッド2102を用いたい場合などは外部入力I
/F760を通じてコンピュータ等から設定を行う。
Further, when it is desired to use the pad 2102 which is not registered in the memory 2400 in advance, the external input I
Setting is performed from a computer or the like through / F760.

【0208】(第4の実施形態)第1の実施形態で述べ
た撮像系を用いて、立体形状入力のみならず、立体撮影
モードを行うことが出来る。すなわち複数の撮像系を用
いて、立体視可能な系を提供することが出来る。
(Fourth Embodiment) By using the image pickup system described in the first embodiment, not only the stereoscopic shape input but also the stereoscopic photographing mode can be performed. That is, it is possible to provide a stereoscopic system by using a plurality of imaging systems.

【0209】その選択は外部入力I/F760を用い
て、立体撮影モード或いは立体形状入力スモードのどち
らかを選択できるようになっている。
For selection, either the stereoscopic photographing mode or the stereoscopic shape input mode can be selected by using the external input I / F 760.

【0210】次に立体撮影モードの際の、本複眼撮像装
置の動作について説明する。
Next, the operation of the compound-eye image pickup device in the stereoscopic photographing mode will be described.

【0211】外部入力I/F760により立体撮影モー
ドが選択された場合、左右の撮像系で撮像された画像は
出力端子の動画として出力される。
When the stereoscopic photographing mode is selected by the external input I / F 760, the images picked up by the left and right image pickup systems are output as a moving image at the output terminal.

【0212】またEVF240には、第1の画像メモリ
73、83の相関を求めることにより、左右の画像のオ
ーバーラップ部がわかるので、オーバーラップ部分の右
側撮像系に対応した部分がわかるように、図26の如く
重腹していない部分の輝度を低く表示している。図で
は、テーブル上の被写体を撮像する場合、画面の両端は
低輝度部分となっており、図中の左側のボールは低輝度
部分に有るため、立体表現ができないことが撮影者にわ
かる。
Further, since the EVF 240 can find the overlapped portion of the left and right images by obtaining the correlation between the first image memories 73 and 83, the portion corresponding to the right side image pickup system of the overlapped portion can be seen. As shown in FIG. 26, the brightness of the part which is not hungry is displayed low. In the figure, when a subject on the table is imaged, the photographer understands that both ends of the screen are low-intensity parts and the ball on the left side in the figure is in the low-intensity part, so stereoscopic representation is not possible.

【0213】一方中央のツリーと皿は立体表現ができる
ことがわかる。このように立体表現ができる部分はどこ
かが一目瞭然でわかる。そしてレリーズボタン230を
押すたびに左右の画像がJPEGで圧縮され記録部25
0に記録される。
On the other hand, it can be seen that the tree and the plate in the center can be three-dimensionally expressed. You can see at a glance where the three-dimensional representation is possible. Each time the release button 230 is pressed, the left and right images are compressed in JPEG and the recording unit 25
Recorded as 0.

【0214】(第5の実施形態)本発明の撮像装置を低
コストで提供しようとすると、EVF240の光学式化
が考えられる。そうすると、光学式であると、以前に撮
像された画像をファインダ上に表現することは不可能で
ある。
(Fifth Embodiment) In order to provide the image pickup apparatus of the present invention at low cost, it is conceivable that the EVF 240 will be an optical type. Then, if it is optical, it is impossible to represent a previously captured image on the viewfinder.

【0215】またTTLファインダでない限り、撮像領
域とファインダでの観察領域とがずれるため、重複領域
を持ちながらの撮影を失敗する可能性が生じる。
Also, unless it is the TTL viewfinder, the imaging area and the observation area in the viewfinder are deviated from each other, so that there is a possibility that the photographing with the overlapping area may fail.

【0216】そこで本発明の第5の実施形態として、低
コストでかつ本明細書中その他の実施例の機能を提供す
るものである。具体的には光学ファインダーの視野内あ
るいはその近傍にLEDを設け、上記相関検出回路の出
力に応じて点滅させる。つまり、オーバーラップ部があ
る場合にはLEDを点灯、ない場合にはLEDを点滅と
いう具合にする。これにより、撮像装置を低コストで提
供できる。
Therefore, as a fifth embodiment of the present invention, the functions of other examples in this specification are provided at low cost. Specifically, an LED is provided in the visual field of the optical finder or in the vicinity thereof, and the LED is turned on and off according to the output of the correlation detection circuit. That is, the LED is turned on when there is an overlapping portion, and the LED is blinked when there is no overlapping portion. Thereby, the imaging device can be provided at low cost.

【0217】またLEDを表示部のX,Y方向に複数個
ずつ設け、オーバーラップ部はLEDを点灯させるよう
にする。そうすると、オーバーラップ部の有無だけでな
く、オーバーラップ部の表示領域に対する割合やその他
の位置も認識できるようになり、更にわかりやすい。
Further, a plurality of LEDs are provided in the X and Y directions of the display section, and the overlapping section lights the LEDs. This makes it possible to recognize not only the presence or absence of the overlapping portion but also the ratio of the overlapping portion to the display area and other positions, which is easier to understand.

【0218】また、ファインダを電子式のままでLED
を設けても、映像信号処理回路の低コスト化は実現でき
る。
[0218] Further, the viewfinder is an electronic type LED
Even if the above is provided, cost reduction of the video signal processing circuit can be realized.

【0219】また更に、光学ファインダの視野枠を液晶
で構成することにより、LEDより更に細かくオーバー
ラップ部を表現できる。
Furthermore, by forming the visual field frame of the optical finder from liquid crystal, the overlapping portion can be expressed more finely than the LED.

【0220】(第6の実施形態)第6実施形態の三次形
状抽出装置における三次元形状抽出の概念及び基本構成
は図1と同様である。
(Sixth Embodiment) The concept and basic configuration of three-dimensional shape extraction in the tertiary shape extraction apparatus of the sixth embodiment are the same as in FIG.

【0221】但し三次元形状の入力の機能が撮像系の中
になく例えばコンピュータの画像入力プログラムを起動
することによって行われる。この時、使用者はまず被計
測物体を補正パッドの上に置く。
However, the function of inputting a three-dimensional shape is performed by activating an image input program of a computer, for example, not in the image pickup system. At this time, the user first places the measured object on the correction pad.

【0222】そして、コンピュータの画像入力プログラ
ムを入力装置からのコマンドにより起動するとコンピュ
ータの表示装置にカメラのファインダーに相当するウイ
ンドウ(以下、ファインダーウインドウと称する)が生
成され、カメラのスイッチを入れるとウインドウ内にカ
メラで撮像した画像が表示される。
Then, when the image input program of the computer is started by a command from the input device, a window corresponding to the finder of the camera (hereinafter referred to as finder window) is generated on the display device of the computer, and the window is opened when the camera is switched on. An image captured by the camera is displayed inside.

【0223】使用者はこの表示された画像を見ながら被
計測物体が画面のほぼ中央にくるようにフレーミングを
行い、シャッターを押す。そして、そのまま被計測物体
のスキャニングを行い、被計測物体の画像データを取得
する。この画像データがカメラ専用処理装置と処理装置
によって処理され、被計測物体の三次元データが得られ
る。
The user views the displayed image, performs framing so that the object to be measured is almost in the center of the screen, and presses the shutter. Then, the object to be measured is directly scanned, and the image data of the object to be measured is acquired. This image data is processed by the camera-dedicated processing device and the processing device to obtain three-dimensional data of the measured object.

【0224】[0224]

【発明の効果】以上述べたように、本願における請求項
1に記載の画像処理装置によれば、単眼あるいは複眼の
撮像系を用いて被写体の周囲を移動しながら画像を入力
し、それらの各画像データを画像合成して、任意の視点
における被写体像を容易に得ることができる。
As described above, according to the image processing apparatus of claim 1 of the present application, an image is input while moving around a subject using a monocular or compound eye imaging system, and each of them is input. By subjecting the image data to image synthesis, a subject image at an arbitrary viewpoint can be easily obtained.

【0225】また本願における請求項2に記載の画像処
理装置によれば、さらに撮像手段の各撮像位置を撮像画
像とともに記憶することにより、複数の画像データを統
合することによって、任意の視点における立体形状を容
易に合成することができるとともに、画像データファイ
ルとそれ以外のデータファイルとを合成、管理して画像
生成に用いることが可能となる。
Further, according to the image processing apparatus of the second aspect of the present application, each image pickup position of the image pickup means is further stored together with the picked-up image, and a plurality of image data are integrated, so that a stereoscopic image at an arbitrary viewpoint is obtained. The shapes can be easily combined, and the image data file and the other data files can be combined and managed to be used for image generation.

【0226】また本願における請求項3に記載の画像処
理装置によれば、ファインダにより、画像処理上その被
写体の形状を得る装置において、立体形状を得るために
適切な状態画像が入力されるように撮像パラメータを自
動的に調整し得るようにするとともに、モニタに以前に
撮像された撮像領域に対して現在撮像している撮像領域
に対応する形状を表示することにより、既に撮像した画
像と現在撮像している画像との重複領域を容易に認識し
ながら撮像を行うことを可能としたので、精度のよい形
状抽出を実現でき、任意の視点における画像の合成を容
易にかつ確実に行うことが可能となる。
According to the image processing apparatus of the third aspect of the present invention, in the apparatus for obtaining the shape of the subject in the image processing by the finder, the appropriate state image for obtaining the three-dimensional shape can be input. By making it possible to automatically adjust the imaging parameters and displaying the shape corresponding to the imaging area currently being imaged with respect to the previously captured imaging area on the monitor, the already captured image and the current imaging Since it is possible to perform imaging while easily recognizing the overlapping area with the image being processed, it is possible to realize accurate shape extraction and easily and reliably combine images from any viewpoint. Becomes

【0227】また本願における請求項4に記載の発明に
よれば、被写体形状データを任意の視点から見た画像
を、2次元画像データとして演算するようにしたので、
目的に応じた画像形態にして利用することが可能とな
る。
Further, according to the invention of claim 4 in the present application, the image of the subject shape data viewed from an arbitrary viewpoint is calculated as the two-dimensional image data.
It becomes possible to use the image format according to the purpose.

【0228】また本願における請求項5に記載の発明に
よれば、文章ファイルと合成して画像データを利用可能
にしたので、画像データを各種付加情報を対応させて表
示、処理することができ、画像データベース構築を容易
にするとともに、種々の利用形態が可能となる。
According to the invention described in claim 5 of the present application, since the image data can be used by combining with the text file, the image data can be displayed and processed in association with various additional information. The image database can be easily constructed and various usage forms are possible.

【0229】また本願における請求項6に記載の発明に
よれば、被写体の背景となるパッドの画像情報を複数保
持しておくことにより、撮像手段の位置情報をパッドの
画像情報から知ることができ、処理が容易となるととも
に、撮像手段の位置変化の検知を容易に且つ確実にする
効果がある。
According to the invention of claim 6 in the present application, by holding a plurality of pieces of image information of the pad which is the background of the subject, the position information of the image pickup means can be known from the image information of the pad. The processing is easy, and the position change of the image pickup means can be easily and surely detected.

【0230】また本願における請求項7に記載の発明に
よれば、撮像手段の各撮像位置を撮像画像とともに記憶
することにより、複数の画像データを統合することによ
って、任意の視点における立体形状を容易に合成するこ
とができるとともに、画像データファイルとそれ以外の
データファイルとを合成、管理して画像生成に用いるこ
とが可能となる。
According to the invention described in claim 7 of the present application, each image pickup position of the image pickup means is stored together with the picked-up image, and a plurality of image data are integrated, so that a three-dimensional shape can be easily obtained from an arbitrary viewpoint. The image data file and the other data files can be combined and managed and used for image generation.

【0231】また本願における請求項8に記載の発明に
よれば、撮像手段の各撮像位置を撮像画像とともに記憶
することにより、複数の画像データを統合することによ
って、任意の視点における立体形状を容易に合成するこ
とができるとともに、画像データファイルとそれ以外の
データファイルとを合成、管理して画像生成に用いるこ
とが可能となるとともに、撮像装置に光学式ファインダ
を備えたので、低コストで装置を実現することができ
る。
According to the invention of claim 8 of the present application, each image pickup position of the image pickup means is stored together with the picked-up image, and a plurality of image data are integrated, so that the three-dimensional shape at any arbitrary viewpoint can be easily obtained. The image data file and other data files can be combined and managed to be used for image generation, and the imaging device is equipped with an optical finder, so the device can be manufactured at low cost. Can be realized.

【0232】また本願における請求項9に記載の発明に
よれば、撮像手段の各撮像位置を撮像画像とともに記憶
することにより、複数の画像データを統合することによ
って、任意の視点における立体形状を容易に合成するこ
とができるとともに、画像データファイルとそれ以外の
データファイルとを合成、管理して画像生成に用いるこ
とが可能となるとともに計算器中のソフトウエアによっ
て被写体の立体形状データを演算することが可能とな
る。
According to the invention described in claim 9 of the present application, each image pickup position of the image pickup means is stored together with the picked-up image, and a plurality of image data are integrated, so that the three-dimensional shape can be easily obtained from an arbitrary viewpoint. It can be used for image generation by synthesizing and managing image data files and other data files as well as calculating the three-dimensional shape data of the subject by software in the calculator. Is possible.

【0233】以上のように、立体形状を得るために適切
な状態で画像が入力されるように撮像パラメータを自動
的に調整することにより、複数枚の画像から被写体の立
体形状を求める場合に、容易に画像間の重複領域を持た
せることができ、また得られた形状から任意の視点から
の画像に変換し、文章ファイルと合体することが可能な
り、画像データベースにおいても有効である。
As described above, when the three-dimensional shape of the subject is obtained from a plurality of images by automatically adjusting the imaging parameters so that the image is input in an appropriate state to obtain the three-dimensional shape, It is possible to easily provide overlapping areas between images, and it is possible to convert the obtained shape into an image from an arbitrary viewpoint and combine it with a text file, which is also effective in an image database.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の画像情報処理装置の第1の実施形態を
示すブロック図である。
FIG. 1 is a block diagram showing a first embodiment of an image information processing apparatus of the invention.

【図2】被写体の画像形態を示す図である。FIG. 2 is a diagram showing an image form of a subject.

【図3】被写体を見る視点を変化させた状態を示す図で
ある。
FIG. 3 is a diagram showing a state in which a viewpoint for viewing a subject is changed.

【図4】本発明に係る装置のブロック図である。FIG. 4 is a block diagram of an apparatus according to the present invention.

【図5】本発明に係る第1の実施形態のコントローラの
構成を示す図である。
FIG. 5 is a diagram showing a configuration of a controller according to the first embodiment of the present invention.

【図6】本発明に係る装置の制御フローを示す図であ
る。
FIG. 6 is a diagram showing a control flow of the device according to the present invention.

【図7】本発明に係る装置の焦点合わせの概略を示す図
である。
FIG. 7 is a diagram showing an outline of focusing of an apparatus according to the present invention.

【図8】本発明に係る装置のズーム調整の概略を示す図
である。
FIG. 8 is a diagram showing an outline of zoom adjustment of the apparatus according to the present invention.

【図9】本発明に係る装置のズーム制御の概略を示す図
である。
FIG. 9 is a diagram showing an outline of zoom control of the apparatus according to the present invention.

【図10】本発明に係るファインダーの状況を示す図で
ある。
FIG. 10 is a diagram showing a state of a finder according to the present invention.

【図11】本発明に係るステレオ画像から距離情報の算
出の概略を示す図である。
FIG. 11 is a diagram showing an outline of calculation of distance information from a stereo image according to the present invention.

【図12】本発明に係る距離情報の統合の概略を示す図
である。
FIG. 12 is a diagram showing an outline of integration of distance information according to the present invention.

【図13】本発明に係る中間点補間方法の概略を示す図
である。
FIG. 13 is a diagram showing an outline of an intermediate point interpolation method according to the present invention.

【図14】本発明に係る撮像系の座標系の概略を示す図
である。
FIG. 14 is a diagram showing an outline of a coordinate system of an image pickup system according to the present invention.

【図15】本発明に係る撮像系が回転した際の概略を示
す図である。
FIG. 15 is a diagram showing an outline when the imaging system according to the present invention is rotated.

【図16】本発明に係る文章ファイルと画像情報と距離
情報が合成される流れの概略を示す図である。
FIG. 16 is a diagram showing an outline of a flow of synthesizing a text file, image information, and distance information according to the present invention.

【図17】本発明に係るテンプレートマッチングを示す
図である。
FIG. 17 is a diagram showing template matching according to the present invention.

【図18】本発明に係る距離情報の統一された座標系に
変換する方法を示す図である。
FIG. 18 is a diagram showing a method of converting distance information into a unified coordinate system according to the present invention.

【図19】本発明に係る文章ファイルと画像情報ファイ
ルが結合されている事を示す図である。
FIG. 19 is a diagram showing that a text file and an image information file according to the present invention are combined.

【図20】本発明に係る画像情報がモデル画像に対して
フィテイングされていく流れを示す図である。
FIG. 20 is a diagram showing a flow in which image information according to the present invention is fitted to a model image.

【図21】本発明に係る第2の実施形態の立体形状抽出
装置の概略を示す図である。
FIG. 21 is a diagram showing an outline of a three-dimensional shape extraction device according to a second embodiment of the present invention.

【図22】本発明に係る第2の実施形態の立体形状抽出
装置のブロック概略図である。
FIG. 22 is a block schematic diagram of a three-dimensional shape extraction device according to a second embodiment of the present invention.

【図23】本発明に係る第2の実施形態の立体形状抽出
装置のフローの概略を示す図である。
FIG. 23 is a diagram showing an outline of a flow of a three-dimensional shape extraction device according to a second embodiment of the present invention.

【図24】本発明に係る第3の実施形態の立体形状抽出
装置のブロック概略図である。
FIG. 24 is a block schematic diagram of a three-dimensional shape extraction device according to a third embodiment of the present invention.

【図25】本発明に係る第3の実施形態の立体形状抽出
装置のフローの概略を示す図である。
FIG. 25 is a diagram showing an outline of a flow of a three-dimensional shape extraction device of a third embodiment according to the present invention.

【図26】本発明に係る第4の実施形態のファインダー
の状況を示す図である。
FIG. 26 is a diagram showing a state of a finder according to a fourth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 立体形状抽出装置の撮像ヘッド部(カメラヘッド
部) 2 主被写体 4 位置検出手段(位置検出部) 5 メモリ 6 3次元画像データ演算手段 7 2次元画像データ演算手段 8 モニタ 9 プリンタ 1000 データ合成手段 1001 文章データ作成手段 11 操作手段 10R、10L 撮像光学系 100R、100L 撮影レンズ 101R、101L 絞り 102R、102L イメージセンサ 103R、103L A/D変換部 104R、104L 映像信号処理部 105R、105L 被写体分離部 106R、106L ズーム制御部 107R、107L フォーカス制御部 108R、108L 絞り制御部 200 照明 201 カメラ姿勢検出部 210 コントローラ 220 画像処理部 230 シャッター 240 表示部 250 記録部 260 左右差検出部 270 合焦検出部 760 外部入力I/F 900 マイクロコンピュータ 910 メモリ 920 画像演算処理部 110 ステレオ画像 111 エッジ抽出処理部 112 エッジ画像対応点抽出処理部 113 対応点抽出処理部 114 矛盾箇所は除去する処理部 115 オクルージョン領域を判断する処理部 116 距離分布を算出する処理部 117 背面部の特徴点を同定する処理部 118 撮像パラメータや姿勢や移動関係を取得する処
理部 120 距離情報 121 座標系の変換 122 距離情報の統合 123 オクルージョン領域情報 120 表示部 160 フィティング処理手段 161 テクスチャ貼り付け 162 距離テンプレート 163 ファイル合成手段 1600 抽出距離情報 1601 修正距離画像 1602 テクスチャ画像 1603 文章ファイル 1604 2D/3Dファイル出力 1800〜1804 距離情報を登録する為の仮想的な
投影面 1810〜1814 仮想的な投影面の中心軸(光軸) 1901 文章ファイル 1902、1903 画像ファイル 19001、19002 リンク情報 19003、19005、19007 文章データ 19004、19006 画像挿入フラグ 19008、19009 画像座標情報 2001 抽出画像 2000 モデル画像 2002、2003 抽出画像とモデル画像との差分 2101 主被写体 2100 本立体抽出装置 2102 キャリブレーションパッド A、B、C、D キャリブレーションパッド上に文字で
姿勢検出のための特徴部
1 Imaging Head Unit (Camera Head Unit) of 3D Shape Extraction Device 2 Main Subject 4 Position Detection Unit (Position Detection Unit) 5 Memory 6 3D Image Data Calculation Unit 7 2D Image Data Calculation Unit 8 Monitor 9 Printer 1000 Data Synthesis Unit 1001 Text data creating means 11 Operating means 10R, 10L Imaging optical system 100R, 100L Shooting lens 101R, 101L Aperture 102R, 102L Image sensor 103R, 103L A / D converter 104R, 104L Video signal processor 105R, 105L Subject separation unit 106R , 106L Zoom control unit 107R, 107L Focus control unit 108R, 108L Aperture control unit 200 Illumination 201 Camera attitude detection unit 210 Controller 220 Image processing unit 230 Shutter 240 Display unit 250 Recording unit 260 Right difference detection unit 270 Focus detection unit 760 External input I / F 900 Microcomputer 910 Memory 920 Image calculation processing unit 110 Stereo image 111 Edge extraction processing unit 112 Edge image corresponding point extraction processing unit 113 Corresponding point extraction processing unit 114 Contradiction point Is a processing unit to be removed 115 A processing unit to determine an occlusion area 116 A processing unit to calculate a distance distribution 117 A processing unit to identify a feature point on the back surface 118 A processing unit to acquire imaging parameters, postures and movement relationships 120 Distance information 121 Coordinate System conversion 122 Integration of distance information 123 Occlusion area information 120 Display 160 Fitting processing means 161 Texture pasting 162 Distance template 163 File combining means 1600 Extracted distance information 1601 Corrected distance image 1602 Texture Image 1603 Text file 1604 2D / 3D file output 1800 to 1804 Virtual projection plane 1810 to 1814 for registering distance information Central axis (optical axis) of virtual projection plane 1901 Text file 1902, 1903 Image file 19001, 19002 Link information 19003, 19005, 19007 Text data 19004, 19006 Image insertion flag 19008, 19909 Image coordinate information 2001 Extracted image 2000 Model image 2002, 2003 Difference between extracted image and model image 2101 Main subject 2100 Stereoscopic extraction device 2102 Calibration Pads A, B, C, D Characteristic for posture detection with characters on the calibration pad

───────────────────────────────────────────────────── フロントページの続き (72)発明者 関根 正慶 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 (72)発明者 片山 達嗣 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 (72)発明者 矢野 光太郎 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 (72)発明者 福島 信男 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 (72)発明者 真継 優和 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Masayoshi Sekine, Inventor Masayoshi Sekine, 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (72) Inventor, Tatsutsugu Katayama 3-30-2 Shimomaruko, Ota-ku, Tokyo (72) Inventor Kotaro Yano 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (72) Inventor Nobuo Fukushima 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (72) Inventor Masatsugu Yuwa Canon Inc. 3-30-2 Shimomaruko, Ota-ku, Tokyo

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 単数もしくは複数の撮像手段により被写
体を撮像し、被写体の立体形状及び画像情報を出力する
装置であって、 前記立体形状データから被写体を任意の位置から見たと
きの所定の画像形態に変換しファイルを形成する手段を
有することを特徴とする画像情報処理装置。
1. A device for picking up an image of a subject by a single or a plurality of image pickup means, and outputting a stereoscopic shape and image information of the subject, the predetermined image when the subject is viewed from an arbitrary position from the stereoscopic shape data. An image information processing apparatus comprising means for converting into a form and forming a file.
【請求項2】 単数もしくは複数の撮像手段により被写
体を撮像し、被写体の立体形状及び画像情報を出力する
装置であって、 前記撮像手段の相対的な位置変化を検知する位置検知手
段を備え、 前記撮像手段によって得られた複数の画像データとそれ
ぞれの画像データに対応する前記位置手段によって得ら
れた前記撮像手段の相対的位置関係から被写体の立体形
状データを演算する手段を備え、 前記立体形状データから被写体を任意の位置から見たと
きの所定の画像形成に変換する演算手段を有し、 前記画像データのファイルと他のファイルとを合成する
手段を有したことを特徴とする画像情報処理装置。
2. An apparatus for picking up an image of a subject by a single or a plurality of image pickup means, and outputting a stereoscopic shape and image information of the subject, comprising position detection means for detecting a relative positional change of the image pickup means, The stereoscopic shape data of the subject is calculated from the relative positional relationship between the plurality of image data obtained by the image pickup means and the image pickup means obtained by the position means corresponding to the respective image data. Image information processing characterized by having arithmetic means for converting data into a predetermined image formation when a subject is viewed from an arbitrary position, and having means for synthesizing the image data file and another file apparatus.
【請求項3】 請求項1または請求項2において、 前記単数もしくは複数の撮像手段は、撮像光学系を含
み、前記撮像光学系は、主被写体が各々の撮像系の重複
領域に収まると共に主被写体が焦点深度内に収まるよう
に撮像パラメータを自動的に調整する手段と、 前記撮像手段による撮像領域を表示可能なモニタと、を
備えたことを特徴とする画像情報処理装置。
3. The image pickup means according to claim 1 or 2, wherein the one or more image pickup means includes an image pickup optical system, and the image pickup optical system is configured such that the main subject is set in an overlapping region of the respective image pickup systems and the main subject is included. An image information processing apparatus comprising: a unit that automatically adjusts an imaging parameter so that the image is within the depth of focus; and a monitor that can display an imaging region of the imaging unit.
【請求項4】 請求項1または請求項2において、前記
立体形状データから被写体を任意の位置から見たときの
所定の画像形態に変換する演算手段は、画像データを2
次元画像データとして演算する事を特徴とする画像情報
処理装置。
4. The arithmetic unit according to claim 1 or 2, wherein the arithmetic means converts the three-dimensional shape data into a predetermined image form when a subject is viewed from an arbitrary position.
An image information processing device characterized by being calculated as three-dimensional image data.
【請求項5】 請求項2において、画像データのファイ
ルと他のファイルとを合成する手段は、他のファイルは
文章ファイルである事を特徴とする画像情報処理装置。
5. The image information processing apparatus according to claim 2, wherein the unit for synthesizing the image data file and the other file is a text file.
【請求項6】 請求項1または請求項2において、前記
撮像手段の相対的な位置変化を検知する位置検知手段
は、複数のパッドに関する情報を保持する事を特徴とす
る画像情報入出力装置。
6. The image information input / output device according to claim 1, wherein the position detection unit that detects a relative position change of the image pickup unit holds information regarding a plurality of pads.
【請求項7】 単数もしくは複数の撮像手段により被写
体を撮像し、被写体の立体形状及び画素情報を出力する
装置であって、 撮像手段の相対的な位置変化を検知する位置検知手段を
備え、 前記撮像手段によって得られた複数の画像データとそれ
ぞれの画像データに対応する前記位置検知手段によって
得られた前記撮像手段の相対位置関係から被写体の立体
形状データを演算する手段を備え、 前記立体形状データから被写体を任意の位置から見たと
きの所定の画像形成に変換する演算手段を有し、 前記画像データのファイルと他のファイルとを合成する
合成手段を有し、 前記合成手段の出力にもとづいて、画像データを立体視
する手段を備えた画像情報処理装置。
7. An apparatus for capturing an image of a subject by a single or a plurality of image pickup means, and outputting a stereoscopic shape of the subject and pixel information, comprising position detection means for detecting a relative positional change of the image pickup means, A plurality of image data obtained by the image pickup means and a means for calculating three-dimensional shape data of the subject from the relative positional relationship of the image pickup means obtained by the position detection means corresponding to each image data, A calculation means for converting the subject into a predetermined image formation when viewed from an arbitrary position, and a synthesizing means for synthesizing the image data file and another file, based on the output of the synthesizing means. An image information processing apparatus including means for stereoscopically viewing image data.
【請求項8】 単数もしくは複数の撮像光学系により被
写体を撮像し、被写体の立体形状及び画素情報を出力す
る装置であって、 撮像装置が光学式ファインダーを備え、 撮像手段の相対的な位置変化を検知する位置検知手段を
備え、 前記撮像手段によって得られた複数の画像データとそれ
ぞれの画像データに対応する前記位置検知手段によって
得られた前記撮像手段の相対的位置関係から被写体の立
体形状データを演算する手段を備え、 前記立体形状データから被写体を任意の位置から見たと
きの所定の画像形成に変換する演算手段を有し、 前記画像データのファイルと他のファイルとを合成する
手段を有したことを特徴とする画像情報処理装置。
8. An apparatus for picking up an image of a subject by a single or a plurality of image pickup optical systems and outputting the stereoscopic shape and pixel information of the subject, wherein the image pickup apparatus includes an optical finder, and a relative position change of the image pickup means. A plurality of image data obtained by the image pickup means and the relative positional relationship of the image pickup means obtained by the position detection means corresponding to each image data And a means for synthesizing the file of the image data with another file, which has a means for computing from the stereoscopic shape data into a predetermined image formation when the subject is viewed from an arbitrary position. An image information processing apparatus characterized by having.
【請求項9】 単数もしくは複数の撮像光学系により被
写体を撮像し、画素情報を出力する装置であって、 撮像手段の相対的な位置変化を検知する位置検知手段
と、 前記撮像手段によって得られた複数の画像データとそれ
ぞれの画像データに対応する前記位置検知手段によって
得られた前記撮像手段の相対的位置関係から被写体の立
体形状データを撮像光学系と別体で演算する手段と、 前記立体形状データから被写体を任意の位置から見たと
きの所定の画像形態に変換する演算手段と、 前記画像データのファイルと他のファイルとを合成する
手段とを備えたことを特徴とする画像情報処理装置。
9. An apparatus for picking up an image of a subject by a single or a plurality of image pickup optical systems and outputting pixel information, comprising: position detecting means for detecting a relative positional change of the image pickup means; A plurality of image data and means for calculating three-dimensional shape data of the subject separately from the image pickup optical system from the relative positional relationship of the image pickup means obtained by the position detection means corresponding to each image data; Image information processing, comprising: arithmetic means for converting the shape data into a predetermined image form when the subject is viewed from an arbitrary position; and means for synthesizing the image data file and another file. apparatus.
JP8121588A 1995-07-28 1996-05-16 Image information processor Pending JPH09305796A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP8121588A JPH09305796A (en) 1996-05-16 1996-05-16 Image information processor
US08/686,683 US6640004B2 (en) 1995-07-28 1996-07-26 Image sensing and image processing apparatuses
US10/429,686 US7164786B2 (en) 1995-07-28 2003-05-05 Image sensing and image processing apparatuses

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8121588A JPH09305796A (en) 1996-05-16 1996-05-16 Image information processor

Publications (1)

Publication Number Publication Date
JPH09305796A true JPH09305796A (en) 1997-11-28

Family

ID=14814968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8121588A Pending JPH09305796A (en) 1995-07-28 1996-05-16 Image information processor

Country Status (1)

Country Link
JP (1) JPH09305796A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000007373A1 (en) * 1998-07-31 2000-02-10 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image
WO2000064175A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
JP2002114098A (en) * 2000-06-30 2002-04-16 Matsushita Electric Ind Co Ltd Rendering device
JP2003043341A (en) * 2001-07-26 2003-02-13 Fuji Photo Film Co Ltd Apparatus and method for distance information acquisition, program, and imaging unit
US6809771B1 (en) 1999-06-29 2004-10-26 Minolta Co., Ltd. Data input apparatus having multiple lens unit
US7277123B1 (en) 1998-10-08 2007-10-02 Matsushita Electric Industrial Co., Ltd. Driving-operation assist and recording medium
JP2012073679A (en) * 2010-09-27 2012-04-12 Fujitsu Ltd Imaging device, image evaluation method, and focus adjustment control program
US8186289B2 (en) 2008-02-28 2012-05-29 Brother Kogyo Kabushiki Kaisha Sewing machine and computer-readable medium storing control program executable on sewing machine
US8267024B2 (en) 2008-01-24 2012-09-18 Brother Kogyo Kabushiki Kaisha Sewing machine and computer-readable medium storing control program executable on sewing machine
JP2013518340A (en) * 2010-01-26 2013-05-20 サーブ アクティエボラーグ Automated 3D mapping method
JP2018073044A (en) * 2016-10-27 2018-05-10 Kddi株式会社 Object tracking device, method and program

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000007373A1 (en) * 1998-07-31 2000-02-10 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image
US7307655B1 (en) 1998-07-31 2007-12-11 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying a synthesized image viewed from a virtual point of view
US8077202B2 (en) 1998-10-08 2011-12-13 Panasonic Corporation Driving-operation assist and recording medium
US9272731B2 (en) 1998-10-08 2016-03-01 Panasonic Intellectual Property Corporation Of America Driving-operation assist and recording medium
US8111287B2 (en) 1998-10-08 2012-02-07 Panasonic Corporation Driving-operation assist and recording medium
US7277123B1 (en) 1998-10-08 2007-10-02 Matsushita Electric Industrial Co., Ltd. Driving-operation assist and recording medium
WO2000064175A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
US7161616B1 (en) 1999-04-16 2007-01-09 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
US6809771B1 (en) 1999-06-29 2004-10-26 Minolta Co., Ltd. Data input apparatus having multiple lens unit
JP2002114098A (en) * 2000-06-30 2002-04-16 Matsushita Electric Ind Co Ltd Rendering device
JP2003043341A (en) * 2001-07-26 2003-02-13 Fuji Photo Film Co Ltd Apparatus and method for distance information acquisition, program, and imaging unit
US8267024B2 (en) 2008-01-24 2012-09-18 Brother Kogyo Kabushiki Kaisha Sewing machine and computer-readable medium storing control program executable on sewing machine
US8186289B2 (en) 2008-02-28 2012-05-29 Brother Kogyo Kabushiki Kaisha Sewing machine and computer-readable medium storing control program executable on sewing machine
US8522701B2 (en) 2008-02-28 2013-09-03 Brother Kogyo Kabushiki Kaisha Sewing machine and computer-readable medium storing control program executable on sewing machine
JP2013518340A (en) * 2010-01-26 2013-05-20 サーブ アクティエボラーグ Automated 3D mapping method
US9224242B2 (en) 2010-01-26 2015-12-29 Saab Ab Automated three dimensional mapping method
JP2012073679A (en) * 2010-09-27 2012-04-12 Fujitsu Ltd Imaging device, image evaluation method, and focus adjustment control program
JP2018073044A (en) * 2016-10-27 2018-05-10 Kddi株式会社 Object tracking device, method and program

Similar Documents

Publication Publication Date Title
US7164786B2 (en) Image sensing and image processing apparatuses
US6445814B2 (en) Three-dimensional information processing apparatus and method
JP4657313B2 (en) Stereoscopic image display apparatus and method, and program
TWI433530B (en) Camera system and image-shooting method with guide for taking stereo photo and method for automatically adjusting stereo photo
US20090058878A1 (en) Method for displaying adjustment images in multi-view imaging system, and multi-view imaging system
TWI399972B (en) Image generating apparatus and program
KR20100109525A (en) Imaging apparatus, imaging control method, and recording medium
US8072487B2 (en) Picture processing apparatus, picture recording apparatus, method and program thereof
TWI394085B (en) Method of identifying the dimension of a shot subject
JPH09305796A (en) Image information processor
TW201225641A (en) Imaging inspection device of 3D camera module and imaging inspection method, imaging inspection control program, imaging correction method, imaging correction control program, readable recording medium, and electronic information apparatus thereof
JP2000112019A (en) Electronic triplet lens camera apparatus
JPH1021401A (en) Three-dimensional information processor
JP4581512B2 (en) Three-dimensional image processing apparatus, optical axis adjustment method, and optical axis adjustment support method
JPH1023311A (en) Image information input method and device therefor
JP2020191624A (en) Electronic apparatus and control method for the same
JPH09231370A (en) Picture information input device
JP6257260B2 (en) Imaging apparatus and control method thereof
US6697573B1 (en) Hybrid stereoscopic motion picture camera with film and digital sensor
JPH09231369A (en) Picture information input device
JPH10170227A (en) Display device
JP2019062436A (en) Image processing apparatus, image processing method, and program
JPH0946730A (en) Three-dimensional shape extraction device
JP5351878B2 (en) Stereoscopic image display apparatus and method, and program
JPH09229648A (en) Input/output method and device for image information

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050412

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050802