JPH10255071A - Image processing system - Google Patents

Image processing system

Info

Publication number
JPH10255071A
JPH10255071A JP9055314A JP5531497A JPH10255071A JP H10255071 A JPH10255071 A JP H10255071A JP 9055314 A JP9055314 A JP 9055314A JP 5531497 A JP5531497 A JP 5531497A JP H10255071 A JPH10255071 A JP H10255071A
Authority
JP
Japan
Prior art keywords
dimensional
image
information
moving image
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9055314A
Other languages
Japanese (ja)
Inventor
Kazuo Iwane
和郎 岩根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IWANE KENKYUSHO KK
Original Assignee
IWANE KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IWANE KENKYUSHO KK filed Critical IWANE KENKYUSHO KK
Priority to JP9055314A priority Critical patent/JPH10255071A/en
Publication of JPH10255071A publication Critical patent/JPH10255071A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To shorten time required for finding out an optical flow and to improve accuracy by acquiring the moving image of a road, generating a three- dimensional(3D) model, extracting information to be required in displaying a 3D moving image from the generated 3D model, transmitting the extracted information, and displaying the transmitted information on a remote image processor. SOLUTION: A 3D model information acquiring device 2 comprises a frame memory 21, an optical flow generation part 22, a depth information calculation part 23, and a 3D model generation part 24. In the device 2, the generation part 22 executes optical flow generation processing for generating the optical flow of each frame or plural frames of a moving image. The calculation part 23 executes depth information calculation processing for calculating depth information based on the optical flow generated by the generation part 22 and the generation part 24 executes 3D model generation processing for a road based on the optical flow and the depth information.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ビデオカメラ乃至
録画されたビデオ画像から取得された二次元動画像から
三次元画像情報を取得し、その取得した三次元情報を遠
隔にある画像処理装置に伝送して、二次元、三次元動画
像、または三次元モデルを表示する三次元画像生成シス
テムに関し、特に、ビデオカメラ乃至録画されたビデオ
画像から取得された二次元の道路動画像から三次元情報
を得て遠隔にある画像処理装置に伝送して道路の二次
元、三次元動画像、または三次元モデルを生成する三次
元画像生成システムに適用して有効な技術に関するもの
である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for obtaining three-dimensional image information from a two-dimensional moving image obtained from a video camera or a recorded video image, and transmitting the obtained three-dimensional information to a remote image processing apparatus. The present invention relates to a three-dimensional image generation system for transmitting and displaying a two-dimensional, three-dimensional moving image, or three-dimensional model, and more particularly to three-dimensional information from a two-dimensional road moving image obtained from a video camera or a recorded video image. The present invention relates to a technology that is effective when applied to a three-dimensional image generation system that generates a two-dimensional, three-dimensional moving image or three-dimensional model of a road by transmitting the obtained image data to a remote image processing device.

【0002】[0002]

【従来の技術】従来において、ビデオカメラ乃至録画さ
れたビデオ画像から取得された二次元画像から三次元情
報を得るものとして、例えば、静的シーンを一定速度で
移動する一台のカメラが捉えた動画像より得られるオプ
ティカルフローの場から奥行き分布を推定する運動立体
視と呼ばれる方法がある。また、二台のカメラを用いて
動的シーンを解析する動的立体視と呼ばれる方法もあ
る。
2. Description of the Related Art Heretofore, as one for obtaining three-dimensional information from a two-dimensional image obtained from a video camera or a recorded video image, for example, one camera that moves a static scene at a constant speed has been used. There is a method called motion stereoscopic vision for estimating a depth distribution from an optical flow field obtained from a moving image. There is also a method called dynamic stereoscopic vision in which a dynamic scene is analyzed using two cameras.

【0003】そして、三次元情報の伝送では特定の座標
系において面および面の性状(テクスチャー)や立体を
三次元モデルとして定義し、その三次元モデルを見る視
点および視点の移動情報を伝送する方法がある。
[0003] In the transmission of three-dimensional information, a method is used in which a surface and the properties (texture) and solid of the surface are defined as a three-dimensional model in a specific coordinate system, and the viewpoint for viewing the three-dimensional model and the movement information of the viewpoint are transmitted. There is.

【0004】[0004]

【発明が解決しようとする課題】上述した従来の方法で
は、オプティカルフローを求めるために相関を取得する
ブロックを探索する方向について全方向で行っていたた
め探索に要する時間が長くかかってしまい、三次元情報
を得るための時間がかかってしまうという問題点があっ
た。
In the above-mentioned conventional method, since the search is performed in all directions with respect to the search direction of the block for obtaining the correlation in order to obtain the optical flow, the time required for the search is long, and the three-dimensional search is performed. There is a problem that it takes time to obtain information.

【0005】また、相関の計算時に見かけ上の大きさの
変化を考慮していないため、得られる相関の度合いが低
く、得られるオプティカルフローの精度も低いという問
題点があった。
In addition, since the apparent change in magnitude is not taken into account when calculating the correlation, there is a problem that the degree of the obtained correlation is low and the accuracy of the obtained optical flow is low.

【0006】さらに、二次元動画像の伝送においては、
従来、画像内の静止部分と動きのある部分を分離し、動
きのある部分のみを送ることで伝送の情報量を減らして
いるが、画面内の全てが動いているような画像に対して
は有効な方法とはならない。また、三次元情報の伝送に
おいては二次元情報と比較し非常に大きいデータ容量と
なるため伝送レート、伝送時間が大きくなるという問題
点があった。
Further, in transmission of a two-dimensional moving image,
Conventionally, the amount of information transmitted has been reduced by separating the still part and the moving part in the image and sending only the moving part.However, for an image where the entire screen is moving, It is not an effective method. Further, in the transmission of three-dimensional information, there is a problem that the transmission rate and the transmission time are increased because the data capacity is much larger than that of the two-dimensional information.

【0007】本発明の目的は、オプティカルフローを求
める時間を短縮し、精度を向上することが可能な技術を
提供することにある。
An object of the present invention is to provide a technique capable of reducing the time required for obtaining an optical flow and improving the accuracy.

【0008】本発明の他の目的は、動画像ないし三次元
モデルを表示するための情報の伝送レートを小さくする
ことが可能な技術を提供することにある。
Another object of the present invention is to provide a technique capable of reducing a transmission rate of information for displaying a moving image or a three-dimensional model.

【0009】[0009]

【課題を解決するための手段】本願において開示される
発明のうち、代表的なものの概要を簡単に説明すれば、
下記のとおりである。
SUMMARY OF THE INVENTION Among the inventions disclosed in the present application, the outline of a representative one will be briefly described.
It is as follows.

【0010】ビデオカメラ、またはビデオ再生機から取
得された二次元動画像を基に三次元動画像の情報を取得
する三次元動画像情報取得手段を備えた画像処理システ
ムであって、前記三次元動画像情報取得手段は、取得さ
れた二次元動画像をフレーム毎に読み込み格納するフレ
ームメモリと、前記フレームメモリに格納された各フレ
ームの動きの無限遠点の位置を求め、前記動きの無限遠
点の位置が同一であるフレーム群に対し、前記動きの無
限遠点から放射状に広がる方向を同一画像部分の探索方
向と定めてその探索方向に同一画像部分を探索する探索
ブロックを所定長ずつ移動させて、各フレーム間で探索
ブロックの画像の相関を取っていき、その相関が最も高
い部分を同一画像部分と検出し、その同一画像部分の前
記動きの無限遠点に対する移動方向と移動の割合を求め
ていき、取得された二次元動画像のオプティカルフロー
を生成するオプティカルフロー生成手段と、前記生成さ
れたオプティカルフローから取得された二次元動画像の
奥行情報を求める奥行情報算出手段と、前記取得された
二次元動画像の構成部品を種別認識し、その種別認識さ
れた各構成部品に対応した三次元部品モデルを前記オプ
ティカルフロー及び奥行情報を基にそれぞれ配置してい
き、取得された二次元動画像の三次元モデルを生成する
三次元モデル生成手段とからなる。
[0010] An image processing system comprising three-dimensional moving image information acquiring means for acquiring three-dimensional moving image information based on a two-dimensional moving image acquired from a video camera or a video player, The moving image information obtaining means reads and stores the obtained two-dimensional moving image for each frame, and obtains a position of an infinity point of a motion of each frame stored in the frame memory, and obtains an infinity of the motion. For a frame group having the same point position, the direction radiating from the point at infinity of the movement is defined as the search direction of the same image portion, and a search block for searching the same image portion is moved in the search direction by a predetermined length. Then, the image of the search block is correlated between the respective frames, the portion having the highest correlation is detected as the same image portion, and the infinity point of the motion of the same image portion is detected. Optical flow generation means for generating an optical flow of the obtained two-dimensional moving image, and obtaining depth information of the two-dimensional moving image obtained from the generated optical flow. Depth information calculating means, type-recognizing the components of the acquired two-dimensional moving image, and arranging three-dimensional component models corresponding to the type-recognized components based on the optical flow and the depth information, respectively. And a three-dimensional model generating means for generating a three-dimensional model of the acquired two-dimensional moving image.

【0011】また、前記オプティカルフロー生成手段
は、動きの無限遠点から放射状に広がる方向に同一画像
部分を探索する探索ブロックを所定長移動させていき、
各フレーム間で相関を取るときに、相関を取る現フレー
ムにおける動きの無限遠点から探索ブロックまでの距離
に、相関を取る対象フレームにおける動きの無限遠点か
ら探索ブロックまでの距離の逆数を掛け合わせてなる比
例定数を求め、前記相関を取る対象フレームにおける探
索ブロック内の画像の大きさをその比例定数倍に拡大し
て、それぞれ現フレームと一つ前のフレームとの探索ブ
ロック間の画像の相関を取っていく手段を備える。
The optical flow generating means moves a search block for searching for the same image portion in a direction radially expanding from an infinity point of the movement by a predetermined length,
When correlating between frames, multiply the distance from the infinity point of motion in the current frame to be correlated to the search block by the reciprocal of the distance from the infinity point of motion in the target frame to be correlated to the search block. Obtain the proportionality constant obtained by combining them, enlarge the size of the image in the search block in the target frame to be correlated by the proportionality constant times, and respectively increase the image between the search block of the current frame and the previous frame. It has a means to take correlation.

【0012】また、複数個の三次元部品モデルが配置形
成された三次元モデルから三次元動画像を表示するため
の情報を取得し、その情報をネットワークを介して第二
の画像処理装置に伝送する三次元動画像伝送手段とを備
えた第一の画像処理装置と、前記三次元動画像伝送手段
により伝送されてきた三次元動画像の情報を基に三次元
動画像を出力する第二の画像処理装置とを有する画像処
理システムであって、前記三次元動画像伝送手段は、三
次元動画像を出力する位置を示す視点情報を第二の画像
処理装置から取得する手段と、前記視点情報に基づき、
前記三次元モデルの二次元投射画像を順次取得していく
手段と、前記二次元投射画像の動きの無限遠点を求める
手段と、前記求められた動きの無限遠点に対する各三次
元部品モデルの見かけ上の移動する方向とその大きさを
示すベクトル情報を求める手段と、前記求められたベク
トル情報から、元のオプティカルフローのベクトルと比
較し、ベクトルを補正し精度を向上させる手段と、前記
各三次元部品モデルの情報とそのベクトル情報、及び動
きの無限遠点の情報を伝送する手段とを備え、前記第二
の画像処理装置は、前記各三次元部品モデルの情報とそ
のベクトル情報、及び動きの無限遠点の情報を基に前記
三次元モデルを構築する手段と、前記構築された三次元
モデルの二次元投射画像を表示する手段と備える。
Also, information for displaying a three-dimensional moving image is obtained from a three-dimensional model in which a plurality of three-dimensional part models are arranged and transmitted to a second image processing apparatus via a network. A first image processing apparatus having a three-dimensional video transmission unit, and a second image processor that outputs a three-dimensional video based on information of the three-dimensional video transmitted by the three-dimensional video transmission unit. An image processing system having an image processing device, wherein the three-dimensional moving image transmission unit acquires, from a second image processing device, viewpoint information indicating a position at which a three-dimensional moving image is output, and the viewpoint information Based on
Means for sequentially acquiring a two-dimensional projected image of the three-dimensional model, means for determining an infinite point of the motion of the two-dimensional projected image, and A means for obtaining vector information indicating an apparent moving direction and its magnitude; a means for comparing the obtained vector information with a vector of the original optical flow, correcting the vector to improve accuracy, and Means for transmitting information of the three-dimensional part model and its vector information, and information of the point at infinity of motion, the second image processing apparatus, the information of each of the three-dimensional part model and its vector information, and The apparatus includes means for constructing the three-dimensional model based on information on a point at infinity of motion, and means for displaying a two-dimensional projected image of the constructed three-dimensional model.

【0013】また、複数個の三次元部品モデルが配置形
成された三次元モデルから三次元動画像を表示するため
の情報を取得し、その情報をネットワークを介して第二
の画像処理装置に伝送する三次元動画像伝送手段とを備
えた第一の画像処理装置と、前記複数個の三次元部品モ
デル情報を有し、前記三次元動画像伝送手段により伝送
されてきた三次元動画像の情報を基に三次元動画像を出
力する第二の画像処理装置とを有する画像処理システム
であって、前記三次元動画像伝送手段は、三次元動画像
を出力する位置を示す視点情報を第二の画像処理装置か
ら取得する手段と、前記視点情報の視界範囲内に存在す
る前記三次元部品モデルを順次抽出していく手段と、前
記抽出した各三次元部品モデルの種別を認識する手段
と、前記抽出した各三次元部品モデルの配置情報を取得
する手段と、前記認識された三次元部品モデルの種別情
報と前記取得された三次元部品モデルの配置情報とを伝
送する手段を備え、前記第二の画像処理装置は、伝送さ
れた前記各三次元部品モデルの種別情報を基に、対象と
なる三次元部品モデルを抽出する手段と、伝送された前
記配置情報を基に、前記抽出された三次元部品モデルを
配置して三次元モデルを構築する手段と、前記構築され
た三次元モデルの二次元投射画像を表示する手段を備え
る。
Further, information for displaying a three-dimensional moving image is obtained from a three-dimensional model in which a plurality of three-dimensional component models are arranged and transmitted to a second image processing device via a network. A first image processing apparatus having a three-dimensional video image transmitting means, and information on the three-dimensional video image transmitted by the three-dimensional video image transmitting means, having the plurality of three-dimensional part model information. And a second image processing device that outputs a three-dimensional moving image based on the three-dimensional moving image transmitting means, wherein the three-dimensional moving image transmitting unit transmits viewpoint information indicating a position at which the three-dimensional moving image is output to the second image processing device. Means for acquiring from the image processing device, means for sequentially extracting the three-dimensional part model present within the field of view of the viewpoint information, and means for recognizing the type of each extracted three-dimensional part model, Each of the extracted Means for acquiring arrangement information of a three-dimensional part model, means for transmitting type information of the recognized three-dimensional part model and arrangement information of the acquired three-dimensional part model, the second image processing apparatus Means for extracting a target three-dimensional part model based on the transmitted type information of each three-dimensional part model, and extracting the extracted three-dimensional part model based on the transmitted arrangement information. It comprises means for arranging and constructing a three-dimensional model, and means for displaying a two-dimensional projected image of the constructed three-dimensional model.

【0014】また、複数個の三次元部品モデルが配置形
成された三次元モデルから三次元動画像を表示するため
の情報を取得し、その情報をネットワークを介して第二
の画像処理装置に伝送する三次元動画像伝送手段とを備
えた第一の画像処理装置と、前記複数個のパラメトリッ
クな三次元部品モデル情報を有し、前記三次元動画像伝
送手段により伝送されてきた三次元動画像の情報を基に
三次元動画像を出力する第二の画像処理装置とを有する
画像処理システムであって、前記三次元動画像伝送手段
は、三次元動画像を出力する位置を示す視点情報を第二
の画像処理装置から取得する手段と、前記視点情報の視
界範囲内に存在する前記三次元部品モデルを順次抽出し
ていく手段と、前記抽出した各三次元部品モデルの種別
とそのサイズを認識する手段と、前記抽出した各三次元
部品モデルの配置情報を取得する手段と、前記認識され
た三次元部品モデルの種別とそのサイズを示すパラメー
タ情報、及び前記取得された三次元部品モデルの配置情
報とを伝送する手段を備え、前記第二の画像処理装置
は、伝送された前記各三次元部品モデルの種別情報を基
に、対象となる三次元部品モデルを抽出する手段と、前
記抽出された三次元部品モデルに対し、伝送された前記
パラメータ情報を基に、前記実サイズの三次元部品モデ
ルを取得する手段と、伝送された前記配置情報を基に、
前記取得された三次元部品モデルを配置して三次元モデ
ルを構築する手段と、前記構築された三次元モデルの二
次元投射画像を表示する手段を備える。
Further, information for displaying a three-dimensional moving image is obtained from a three-dimensional model in which a plurality of three-dimensional part models are arranged and transmitted to a second image processing device via a network. A first image processing apparatus having a three-dimensional moving image transmitting unit, and a plurality of parametric three-dimensional part model information, and a three-dimensional moving image transmitted by the three-dimensional moving image transmitting unit. And a second image processing device that outputs a three-dimensional video based on the information of the three-dimensional video, the three-dimensional video transmission means, the viewpoint information indicating the position to output the three-dimensional video, Means for acquiring from the second image processing device, means for sequentially extracting the three-dimensional component models present within the field of view of the viewpoint information, and the type and size of each of the extracted three-dimensional component models. Recognition Means for acquiring the arrangement information of each of the extracted three-dimensional part models, parameter information indicating the type and size of the recognized three-dimensional part model, and arrangement of the acquired three-dimensional part model Means for transmitting information and the second image processing apparatus, based on the transmitted type information of each of the three-dimensional component models, means for extracting a target three-dimensional component model, For the three-dimensional part model, based on the transmitted parameter information, based on the means for acquiring the actual size of the three-dimensional part model, based on the transmitted arrangement information,
The apparatus includes means for arranging the obtained three-dimensional part model to construct a three-dimensional model, and means for displaying a two-dimensional projected image of the constructed three-dimensional model.

【0015】また、ビデオカメラ、またはビデオ再生機
から二次元動画像を表示するための情報を取得する二次
元動画像表示情報取得手段とその情報をネットワークを
介して第二の画像処理装置に伝送する伝送手段とを備え
た第一の画像処理装置と、前記伝送手段により伝送され
てきた二次元動画像の表示情報を受信する手段とその受
信した表示情報を基に二次元動画像を出力する二次元動
画像出力手段とを備えた第二の画像処理装置とを有する
画像処理システムであって、前記二次元動画像表示情報
取得手段は、ビデオカメラ、またはビデオ再生機から取
得された二次元動画像をフレーム毎に読み込み格納する
フレームメモリと、前記フレームメモリに格納された各
フレームの動きの無限遠点の位置を求め、前記動きの無
限遠点の位置が同一であるフレーム群に対し、前記動き
の無限遠点に対する移動方向と移動の割合を求めてい
き、取得された二次元動画像のオプティカルフローを生
成する手段と、前記生成されたオプティカルフローの連
続している領域部分にそれぞれ分割して部分的な二次元
画像としてそれぞれ抽出していき、各フレームの前記部
分的な二次元画像における動きの無限遠点に対する移動
の割合から前記部分的な二次元画像全体の移動速度を規
格化速度として算出し、前記部分的な二次元画像の出現
位置、出現時間、存在時間を抽出し、前記伝送手段に前
記部分的な二次元画像と、その移動方向と規格化速度と
から成るベクトル情報と、出現位置、出現時間、及び存
在時間とからなる表示情報を伝送手段に転送する手段と
を備え、前記二次元動画像出力手段は、伝送された表示
情報を基に、出力するためのフレーム毎の前記部分的な
二次元画像毎の貼り付け位置とその大きさを求め、その
求めた貼り付け位置と大きさで前記部分的な二次元画像
を前記各フレームに貼り付け、その貼り付けられたフレ
ームを出力していく手段を備える。
Further, a two-dimensional moving image display information acquiring means for acquiring information for displaying a two-dimensional moving image from a video camera or a video player, and transmitting the information to a second image processing apparatus via a network. A first image processing apparatus having a transmitting means for transmitting the two-dimensional moving image transmitted from the transmitting means, and outputting a two-dimensional moving image based on the received display information. And a second image processing apparatus having a two-dimensional moving image output unit, wherein the two-dimensional moving image display information acquiring unit is a video camera, or a two-dimensional moving image acquired from a video player. A frame memory for reading and storing a moving image for each frame and a position of an infinity point of the motion of each frame stored in the frame memory are obtained. Means for generating the optical flow of the acquired two-dimensional moving image, and calculating the moving direction and the ratio of the moving with respect to the infinite point of the motion, and the continuous of the generated optical flow. The partial two-dimensional image is divided and extracted as a partial two-dimensional image, and the partial two-dimensional image is extracted from the rate of movement of each frame with respect to the point at infinity in the partial two-dimensional image. The entire moving speed is calculated as a normalized speed, and the appearance position, appearance time, and existence time of the partial two-dimensional image are extracted, and the transmission means transmits the partial two-dimensional image, the moving direction and the standard. Means for transferring display information consisting of vector information consisting of the conversion speed and the appearance position, appearance time, and existence time to the transmission means, and the two-dimensional video output means Based on the transmitted display information, a paste position and a size of each of the partial two-dimensional images for each frame to be output are obtained, and the partial position and the size are obtained based on the obtained paste position and the size. A means is provided for pasting a two-dimensional image to each frame and outputting the pasted frame.

【0016】また、ビデオカメラ、またはビデオ再生機
から三次元動画像または三次元モデルを表示するための
表示情報を取得する三次元動画像・三次元モデル表示情
報取得手段とその表示情報をネットワークを介して第二
の画像処理装置に伝送する伝送手段とを備えた第一の画
像処理装置と、前記伝送手段により伝送されてきた動画
像の表示情報を受信する手段とその受信した表示情報を
基に三次元動画像または三次元モデルを出力する三次元
動画像・三次元モデル出力手段とを備えた第二の画像処
理装置とを有する画像処理システムであって、前記三次
元動画像・三次元モデル表示情報取得手段は、ビデオカ
メラ、またはビデオ再生機から取得された二次元動画像
をフレーム毎に読み込み格納するフレームメモリと、前
記フレームメモリに格納された各フレームの動きの無限
遠点の位置を求め、前記動きの無限遠点の位置が同一で
あるフレーム群に対し、前記動きの無限遠点に対する移
動方向と移動の割合を求めていき、取得された二次元動
画像のオプティカルフローを生成する生成手段と、前記
生成されたオプティカルフローの連続している領域部分
にそれぞれ分割して部分的な二次元画像としてそれぞれ
抽出していき、各フレームの前記部分的な二次元画像に
おける動きの無限遠点に対する移動の割合から前記部分
的な二次元画像全体の移動速度を規格化速度として算出
し、前記伝送手段に前記部分的な二次元画像と、その移
動方向と規格化速度とから成るベクトル情報と、その出
現位置と、動きの無限遠点とからなる表示情報を伝送手
段に転送する手段とを備え、前記三次元動画像・三次元
モデル出力手段は、前記伝送された前記表示情報を基
に、前記各二次元画像の奥行情報を求め、前記各二次元
画像の構成部品を種別認識し、その種別認識された各構
成部品に対応した三次元部品モデルを前記奥行情報を基
にそれぞれ配置していくことで三次元モデルを生成し、
その三次元モデルを基に三次元動画像を表示したり、ま
たは三次元モデルそのまま表示する手段とからなる。
Further, a three-dimensional moving image / three-dimensional model display information obtaining means for obtaining display information for displaying a three-dimensional moving image or a three-dimensional model from a video camera or a video player, and a network for transmitting the display information to the network. A first image processing apparatus having transmission means for transmitting to a second image processing apparatus via the first image processing apparatus; a means for receiving display information of a moving image transmitted by the transmission means; A three-dimensional video / three-dimensional model output means for outputting a three-dimensional video or three-dimensional model to a second image processing apparatus, wherein the three-dimensional video / three-dimensional A model display information acquisition unit, a frame memory for reading and storing a two-dimensional moving image acquired from a video camera or a video player for each frame, and the frame memory; The position of the stored infinite point of the motion of each frame is obtained, and the moving direction and the ratio of the moving to the infinite point of the motion are obtained for the frame group in which the position of the infinite point of the motion is the same. Generating means for generating an optical flow of the obtained two-dimensional moving image, and each of the generated optical flows is divided into continuous regions and extracted as partial two-dimensional images, The moving speed of the entire partial two-dimensional image is calculated as a normalized speed from the ratio of the movement of the frame in the partial two-dimensional image with respect to the point at infinity, and the transmission unit transmits the partial two-dimensional image. Means for transferring display information consisting of vector information comprising the moving direction and the normalized speed, the appearance position thereof, and the point at infinity of movement to the transmission means, The original moving image / three-dimensional model output means obtains depth information of each of the two-dimensional images based on the transmitted display information, and performs type recognition of the component parts of each of the two-dimensional images. Generate a three-dimensional model by arranging a three-dimensional part model corresponding to each component part based on the depth information,
Means for displaying a three-dimensional moving image based on the three-dimensional model or for displaying the three-dimensional model as it is.

【0017】または、二次元または三次元の画像を表示
するための情報を取得し、その情報をネットワークを介
して第二の画像処理装置に伝送する画像伝送手段とを備
えた第一の画像処理装置と、前記画像伝送手段により伝
送されてきた画像を出力する第二の画像処理装置とを有
する画像処理システムであって、前記第一の画像処理装
置は、伝送する画像に対して行う伝送前のデータ処理及
び、伝送後のデータ処理をシミュレートする手段と、前
記シミュレートした結果である予想出力画像と伝送前の
データ処理を行う前の原画像との差分を取り、その誤差
信号を取得する手段と、前記取得した誤差信号に対して
補正信号を取得する手段と、前記取得された補正信号と
伝送前のデータ処理を行った画像信号とを伝送する手段
とを備え、前記第二の画像処理装置は、伝送された画像
信号に対して伝送後のデータ処理を行う手段と、前記伝
送後のデータ処理後の画像信号に前記伝送された補正信
号を合成して出力する手段とを備える。
[0017] Alternatively, a first image processing apparatus comprising: image transmission means for acquiring information for displaying a two-dimensional or three-dimensional image and transmitting the information to a second image processing apparatus via a network. An image processing system having an apparatus and a second image processing apparatus that outputs an image transmitted by the image transmission unit, wherein the first image processing apparatus is configured to perform an image transmission before transmission. Means for simulating data processing and data processing after transmission, and obtaining a difference between an expected output image as a result of the simulation and an original image before data processing before transmission, and obtaining an error signal thereof Means, and means for acquiring a correction signal for the acquired error signal, and means for transmitting the acquired correction signal and an image signal that has been subjected to data processing before transmission, the The image processing apparatus includes: a unit that performs post-transmission data processing on a transmitted image signal; and a unit that combines the transmitted correction signal with the transmitted data processed image signal and outputs the combined signal. Prepare.

【0018】[0018]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

(実施の形態1)図1は、本発明の実施の形態1にかか
る動画像処理システムの構成を説明するための図であ
る。なお、本実施形態1では、道路の動画像を取得し、
三次元モデルを生成し、その生成された三次元モデルか
ら三次元動画像を表示する際に必要となる情報を抽出し
て伝送し、遠隔の画像処理装置に表示する処理を行う道
路の動画像処理システムについて説明していく。
(First Embodiment) FIG. 1 is a diagram for explaining a configuration of a moving image processing system according to a first embodiment of the present invention. In the first embodiment, a moving image of a road is acquired,
A moving image of a road that generates a three-dimensional model, extracts information necessary for displaying a three-dimensional moving image from the generated three-dimensional model, transmits the extracted information, and displays the information on a remote image processing device. The processing system will be described.

【0019】本実施形態1の道路動画像処理システム
は、図1に示すように、ビデオカメラまたはビデオ再生
機1とそのビデオカメラまたはビデオ再生機1から入力
された画像を記録するビデオ記録装置11と、ビデオ記
録装置11に記録された動画像から三次元モデル情報を
取得する三次元モデル情報取得装置2と、取得した三次
元モデル情報を表示する表示装置3と、取得した三次元
モデル情報を記録する三次元モデル情報記録装置4と、
三次元動画像表示情報生成部51と伝送部52からな
り、記録された三次元モデル情報から動画像の三次元表
示に必要となる三次元動画像表示情報をネットワーク6
(LAN、ネットワーク等)を介して伝送する三次元動
画像表示情報伝送装置5と、受信部71と三次元動画像
表示部72とからなり、伝送された三次元動画像表示情
報を処理して三次元動画像を表示する三次元動画像表示
情報処理装置7と、その三次元動画像表示情報処理装置
7に接続された入力装置8と表示装置9とデータ記録装
置10とから構成される。
As shown in FIG. 1, the road moving image processing system according to the first embodiment includes a video camera or a video player 1 and a video recorder 11 for recording an image input from the video camera or the video player 1. A three-dimensional model information acquiring device 2 for acquiring three-dimensional model information from a moving image recorded on the video recording device 11, a display device 3 for displaying the acquired three-dimensional model information, A three-dimensional model information recording device 4 for recording;
A three-dimensional moving image display information generation unit 51 and a transmission unit 52 are provided to transmit three-dimensional moving image display information necessary for three-dimensional display of moving images from the recorded three-dimensional model information to a network 6.
(A LAN, a network, etc.), a three-dimensional moving image display information transmitting apparatus 5, a receiving unit 71, and a three-dimensional moving image display unit 72, which process the transmitted three-dimensional moving image display information. It comprises a three-dimensional moving image display information processing device 7 for displaying a three-dimensional moving image, an input device 8, a display device 9, and a data recording device 10 connected to the three-dimensional moving image display information processing device 7.

【0020】また、上述した三次元モデル情報取得装置
2は、記録された動画像をフレーム毎に読み込み格納す
るフレームメモリ21と、格納された動画像の各フレー
ム毎または複数フレームでオプティカルフローを生成す
るオプティカルフロー生成部22と、生成されたオプテ
ィカルフローから奥行情報を求める奥行情報算出部23
と、各フレーム毎または複数フレームのオプティカルフ
ロー及び奥行情報から道路の三次元モデルを生成する三
次元モデル生成部24とからなる。
The above-described three-dimensional model information acquiring apparatus 2 generates a frame memory 21 for reading and storing a recorded moving image for each frame, and generates an optical flow for each frame or a plurality of frames of the stored moving image. Optical flow generating unit 22 for performing depth information calculating unit 23 for obtaining depth information from the generated optical flow
And a three-dimensional model generation unit 24 that generates a three-dimensional model of a road from optical flow and depth information of each frame or a plurality of frames.

【0021】次に、上述した三次元モデル情報取得装置
2の各部の処理について説明する。
Next, the processing of each unit of the above-described three-dimensional model information acquiring device 2 will be described.

【0022】三次元モデル情報取得装置2では、まず、
オプティカルフロー生成部22で動画像の各フレーム毎
または複数フレームのオプティカルフローを生成するオ
プティカルフロー生成処理を行い、その生成されたオプ
ティカルフローを基に奥行情報算出部23で奥行情報を
算出する奥行情報算出処理を行い、そのオプティカルフ
ロー及び奥行情報により三次元モデル生成部24で道路
の三次元モデルを生成する三次元モデル生成処理を行
う。
In the three-dimensional model information acquisition device 2, first,
Depth information for performing optical flow generation processing for generating an optical flow for each frame of a moving image or for a plurality of frames in the optical flow generation unit 22 and calculating depth information in the depth information calculation unit 23 based on the generated optical flow The calculation process is performed, and the three-dimensional model generation unit 24 performs a three-dimensional model generation process of generating a three-dimensional model of the road based on the optical flow and the depth information.

【0023】以下に、上述した各処理について詳細に説
明する。
Hereinafter, each of the above-described processes will be described in detail.

【0024】図2は、オプティカルフロー生成処理を説
明するためのフローチャートである。
FIG. 2 is a flowchart for explaining the optical flow generation processing.

【0025】オプティカルフロー生成処理は、図2に示
すように、まず、各フレームにおける動きの無限遠点の
座標を画像内の2箇所以上での相関をとることで、動き
のベクトルを求め、そのベクトルの交点として求める
(ステップ201)。
In the optical flow generation processing, as shown in FIG. 2, first, a motion vector is obtained by correlating the coordinates of the infinite point of the motion in each frame at two or more points in the image. It is determined as an intersection of vectors (step 201).

【0026】この動きの無限遠点の求める技術は、例え
ば、「ロボットビジョン」(谷内田正彦著、昭晃堂発
行)の227〜231ページに開示されている。
The technique for obtaining the infinity point of the movement is disclosed, for example, in "Robot Vision" (published by Shokodo by Masahiko Yauchida, pp. 227-231).

【0027】そして、動きの無限遠点が同一位置と見な
せるフレーム内で対応する同一画像部分を検出するため
に、探索する方向を図3に示すように動きの無限遠点か
ら放射状に広がる方向とその近傍とに限定し、その探索
方向を決定するために、それぞれ動きの無限遠点と探索
方向とを結ぶ角度θ1を求める(ステップ202)。
Then, in order to detect the same image portion corresponding to a frame in which the infinite point of the motion can be regarded as the same position, the search direction is set to the direction radiating from the infinite point of the motion as shown in FIG. In order to limit the search direction to the vicinity and determine the search direction, an angle θ1 connecting the infinite point of the motion and the search direction is obtained (step 202).

【0028】その後、求めた角度の延長線上(探索方
向)において物体の無限遠点からの距離に比例して変化
する所定長ずつ探索するエリア(以下、探索ブロックと
記す)の位置をずらし、かつ、所定長移動による形状拡
大比(表示の遠近により生じる寸法変化比)を示す比例
定数を求め、その求めた比例定数を掛けた探索ブロック
で相関を取り、複数のフレームの画像とで相関係数を求
める(ステップ203)。
Thereafter, the position of an area (hereinafter, referred to as a search block) to be searched for by a predetermined length that changes in proportion to the distance from the infinity point of the object on the extension line (search direction) of the obtained angle is shifted, and , A proportional constant indicating a shape enlargement ratio (a dimensional change ratio caused by the distance of the display) by a predetermined length movement is obtained, a correlation is obtained by a search block multiplied by the obtained proportional constant, and a correlation coefficient is obtained with images of a plurality of frames. Is obtained (step 203).

【0029】次に、所定の探索範囲内での相関係数の最
大地点を抽出する(ステップ204)。
Next, the maximum point of the correlation coefficient within a predetermined search range is extracted (step 204).

【0030】そして、比較の元の位置と相関係数の最大
地点との位置関係からオプティカルフローを求める(ス
テップ205)。
Then, an optical flow is obtained from the positional relationship between the original position of the comparison and the maximum point of the correlation coefficient (step 205).

【0031】例えば、図4(a)に示す場合では、d1
の位置からd2の位置を探索するときには、d1の距離
に比例したd1/cの単位長で探索を行っていき、d2
の位置からd3の位置を探索するときには、d2の距離
に比例したd2/cの単位長で検索していく。ここでの
cは定数であって扱う画像の精細度などによって変化す
る。
For example, in the case shown in FIG.
When searching for the position of d2 from the position of d1, the search is performed with a unit length of d1 / c proportional to the distance of d1, and d2
When searching for the position of d3 from the position of, the search is performed with a unit length of d2 / c proportional to the distance of d2. Here, c is a constant and varies depending on the definition of the image to be handled.

【0032】次に、比例定数とは、相関を取るそれぞれ
探索ブロックから動きの無限遠点までの距離の比で表さ
れ、図4(b)の場合では、それぞれd2/d1、d4
/d3となる。ここでd1、d3はある時刻における物
体a,bと動きの無限遠点までの距離を示し、d2、d
4はある時刻から所定時刻経過後の物体a,bと動きの
無限遠点までの距離を示している。
Next, the proportionality constant is represented by the ratio of the distance from each search block to be correlated to the point at infinity of motion, and in the case of FIG. 4B, d2 / d1 and d4 respectively.
/ D3. Here, d1 and d3 indicate the distances between the objects a and b and the infinite point of the movement at a certain time, and d2 and d
Reference numeral 4 denotes the distance between the objects a and b and the infinite point of the movement after a predetermined time has elapsed from a certain time.

【0033】上述したように、物体a,bの大きさは、
近くにある場合と遠くにある場合とでは、大きさが違う
ため、従来のようにそのまま相関を取ると、精度が低下
してしまう。このため、遠くに見える物体を探索する探
索ブロックにこの求めた比例定数を掛けて探索するブロ
ックの大きさを揃えることにより、高い相関を得ること
ができる。
As described above, the size of the objects a and b is
Since the magnitude is different between the case where the object is near and the case where the object is distant, if the correlation is directly obtained as in the related art, the accuracy is reduced. Therefore, a high correlation can be obtained by multiplying a search block for searching for a distantly visible object by the obtained proportionality constant to make the sizes of the blocks to be searched uniform.

【0034】また、上述した相関における比例定数につ
いて、図5に示すように、道路実写画像の動きの無限遠
点から点線に示す放射状方向とその近傍に探索範囲を決
め、相関の探索を行う探索ブロックを街灯の点灯部分と
する場合を取り挙げ、具体的に説明する。
As shown in FIG. 5, a search range is determined from the infinity point of the motion of the actual road image to the radial direction indicated by the dotted line and its vicinity, and the search for the correlation is performed. The case where the block is a lighting part of a streetlight will be described specifically.

【0035】図5(a)は相関を行う探索ブロックAを
示した道路実写画像を示しており、図5(b)は図5
(a)の所定時間後の道路実写画像を示しており、相関
を行う探索ブロックAに対応する部分は、探索ブロック
Bとなる。
FIG. 5A shows a photographed road image showing a search block A for performing correlation, and FIG.
(A) shows a road photographed image after a predetermined time, and a portion corresponding to a search block A for performing correlation is a search block B.

【0036】このときの探索ブロックA,Bを図6に示
す。
FIG. 6 shows search blocks A and B at this time.

【0037】図6に示すように、探索ブロックA内にお
ける街灯の点灯部分(図6(a))と、探索ブロックB
内おける街灯の点灯部分(図6(b))とは、共に実物
では同一の寸法でありながら、表示する際にサイズが違
ってくる。
As shown in FIG. 6, the lighting part of the street lamp in the search block A (FIG. 6A) and the search block B
The lighting part of the streetlight (FIG. 6B) in the inside has the same dimensions as the actual thing, but the size differs when displayed.

【0038】従来では、このサイズを補正することなく
相関を取っていたので、必ずしも正確な相関が取れてい
なかったが、本発明では互いに同一サイズで相関を取れ
るように、上述した比例定数を掛けて図6(a)、図6
(b)に示した探索ブロック内の寸法をそれぞれ一致さ
せ、相関度を高める。
In the prior art, the correlation was obtained without correcting this size, so that an accurate correlation was not always obtained. However, in the present invention, the above-mentioned proportionality constant is multiplied so as to obtain a correlation with the same size. 6 (a) and 6
The dimensions in the search block shown in (b) are matched with each other to increase the degree of correlation.

【0039】なお、従来の相関、オプティカルフローの
生成の詳細についての技術は、「パソコンによる動画像
処理」(森北出版株式会社発行)の149〜169ペー
ジに開示されている。
The technique of the conventional correlation and generation of the optical flow is disclosed in “Moving Image Processing by Personal Computer” (published by Morikita Publishing Co., Ltd.), pp. 149-169.

【0040】また、より高精度なオプティカルフローを
求めるため、以下のように、オプティカルフローを補正
してもかまわない。
In order to obtain a more accurate optical flow, the optical flow may be corrected as follows.

【0041】求めたオプティカル・フローから三次元画
像を生成し、それを再びパースペクティブ変換して、二
次元画像に戻し、その二次元画像と原画像とを比較して
オプティカルフローを修正し、それを繰り返すことで精
度が高いオプティカルフローを得る。
A three-dimensional image is generated from the obtained optical flow, and the three-dimensional image is again subjected to a perspective transformation to return to a two-dimensional image. The two-dimensional image is compared with the original image to correct the optical flow. An optical flow with high precision is obtained by repeating.

【0042】次に、生成したオプティカルフローの情報
を基に、奥行情報を生成する奥行情報生成処理について
説明する。
Next, a depth information generation process for generating depth information based on the generated optical flow information will be described.

【0043】奥行情報D(m)は、次式(1)で示すこ
とができる。
The depth information D (m) can be expressed by the following equation (1).

【0044】 D(x,y)=α/v(x,y) ....(1) α:カメラ定数 v:オプティカルフローの大きさ(ピクセル/フレー
ム) これを用いてそれぞれの三次元の座標位置を求めること
ができる。
D (x, y) = α / v (x, y) (1) α: camera constant v: size of optical flow (pixel / frame) The coordinate position can be obtained.

【0045】このように、ビデオカメラ1等から入力さ
れた二次元動画像から、物体の動きのベクトルを抽出す
る際に画像内の殆どの物体は、大地に固定された物体で
あり、静止座標系とみなすことができ、また、車が移動
する事で、視点が移動し、静止座標系全体が移動してい
るように見える。
As described above, when extracting a motion vector of an object from a two-dimensional moving image input from the video camera 1 or the like, most of the objects in the image are objects fixed to the ground and stationary coordinates. It can be regarded as a system, and when the car moves, the viewpoint moves, and the entire stationary coordinate system appears to move.

【0046】静止座標系上の物体の相互位置関係は変化
しないので、その動きには以下のような法則性がある。
Since the mutual positional relationship between the objects on the stationary coordinate system does not change, the movement has the following rule.

【0047】視点の移動する動画像は、全ての物体が動
きの無限遠点から湧き出してくるように映る。この湧き
出しの方向は、全ての物体は動画像の無限遠点から外側
に向かう放射状であり、湧き出す速さは、動きの無限遠
点からの距離に比例するため、湧き出す物体の大きさ
は、動きの無限遠点からの距離に比例する。
A moving image in which the viewpoint moves appears as if all the objects gush from an infinite point of movement. The direction of this source is that all objects are radial from the infinity point of the video to the outside, and the speed of the source is proportional to the distance from the infinity point of the motion. Is proportional to the distance of the movement from the point at infinity.

【0048】すなわち、全ての物体の見かけの移動は、
動きの無限遠点を中心とする、放射状に湧き出すよう
に、拡大しながら、その速さを増加しながら変化するの
で、相関をとる場合は、その移動方向のみに着目して、
他の方向は無視できることになるため、全ての方向にと
る従来の相関に比べて、極めて効率的に処理できる。
That is, the apparent movement of all objects is
It changes while increasing its speed while expanding so that it radially springs out at the point at infinity of movement, so when taking a correlation, pay attention to only the moving direction,
The other directions are negligible and can be processed much more efficiently than conventional correlations in all directions.

【0049】また、探索する物体はの大きさは、動きの
無限遠点からの距離に比例するため、探索ブロックの大
きさを動きの無限遠点からの距離に比例した大きさにす
ることにより、相関の精度を向上させることができる。
Since the size of the object to be searched is proportional to the distance from the point at infinity of the motion, the size of the search block is set to a size proportional to the distance from the point at infinity of the motion. , The accuracy of the correlation can be improved.

【0050】次に、三次元モデル生成処理について説明
する。
Next, the three-dimensional model generation processing will be described.

【0051】図7は、三次元モデル生成処理を説明する
ためのフローチャートである。
FIG. 7 is a flowchart for explaining the three-dimensional model generation processing.

【0052】本実施形態の三次元モデル生成処理は、図
7に示すように、上述のオプティカルフロー生成処理で
生成されたオプティカルフローの連続している部分を上
述で求めた奥行情報を基に、一つの領域として抽出して
いき(ステップ701)、その抽出した各領域を構成し
ている部品の種別をパターン認識を行い認識する(ステ
ップ702)。
As shown in FIG. 7, in the three-dimensional model generation processing of this embodiment, a continuous portion of the optical flow generated by the above-described optical flow generation processing is determined based on the depth information obtained above. The regions are extracted as one region (step 701), and the types of components constituting each extracted region are recognized by performing pattern recognition (step 702).

【0053】その認識された部品種別が共有三次元部品
モデル(予め登録されている道路、街灯等の三次元部品
モデル)で表現できるか、または固有三次元部品モデル
(予め登録されていない風景、ビルディング等の三次元
モデルで表現しなければならないかを判定する(ステッ
プ703)。
The recognized part type can be represented by a shared three-dimensional part model (a pre-registered three-dimensional part model such as a road or a streetlight) or a unique three-dimensional part model (a scene that is not registered in advance, It is determined whether it is necessary to represent the building with a three-dimensional model (step 703).

【0054】判定結果が共有三次元部品モデルである場
合は、その三次元部品モデルの形状及び画像内の基準と
なる部分(例えば、道路のセンタライン6m)を基に求
めたサイズからパラメータを決定して、その領域に該当
する三次元部品モデルを生成する(ステップ704)。
If the determination result is a shared three-dimensional part model, parameters are determined from the shape of the three-dimensional part model and a size obtained based on a reference portion (for example, a center line 6 m of a road) in an image. Then, a three-dimensional part model corresponding to the area is generated (step 704).

【0055】判定結果が固有三次元部品モデルである場
合は、その領域の画像上の特徴点を抽出し、画像内の基
準となる部分(例えば、道路のセンタライン6m)を基
にサイズを求め、その領域に該当する簡易三次元部品モ
デルを生成する(ステップ705)。
If the result of the determination is a unique three-dimensional part model, the feature points on the image in that region are extracted, and the size is determined based on a reference portion (for example, a road center line 6 m) in the image. Then, a simple three-dimensional part model corresponding to the area is generated (step 705).

【0056】その後、運動情報記録装置11の情報や道
路の交差点等の位置により、生成された共有、固有三次
元部品モデルのローカル座標及びグローバル座標を求め
る(ステップ706)。この場合の座標は、それぞれ共
有、固有三次元部品モデルの基準点について求める。
Thereafter, the local coordinates and global coordinates of the generated shared, unique three-dimensional part model are obtained from the information of the motion information recording device 11 and the position of the intersection of the road (step 706). The coordinates in this case are obtained for the reference points of the shared and unique three-dimensional part models.

【0057】そして、そのグローバル座標を基に、生成
された共有、固有三次元部品モデルを貼り付け、道路の
三次元モデルを生成し(ステップ707)、三次元モデ
ル情報記録装置4に格納する(ステップ708)。
Then, based on the global coordinates, the generated shared and unique three-dimensional part model is pasted, a three-dimensional model of the road is generated (step 707), and stored in the three-dimensional model information recording device 4 (step 707). Step 708).

【0058】上述したように、動きの無限遠点から放射
状に広がる方向に同一画像部分を探索する探索ブロック
を所定長移動させていき、各フレーム間で相関を取ると
きに、相関を取る現フレームにおける動きの無限遠点か
ら探索ブロックまでの距離に、相関を取る対象フレーム
における動きの無限遠点から探索ブロックまでの距離の
逆数を掛け合わせてなる比例定数を求め、前記相関を取
る対象フレームにおける探索ブロック内の画像の大きさ
をその比例定数倍に拡大して、それぞれ現フレームと一
つ前のフレームとの探索ブロック間の画像の相関を取っ
ていくことにより、オプティカルフローを求める時間を
短縮することができ、かつ精度を向上することができ
る。
As described above, when a search block for searching for the same image portion is moved by a predetermined length in a direction radially expanding from an infinity point of the motion, and a correlation is obtained between frames, a current frame to be correlated is obtained. The distance from the infinity point of the motion in the search block to the search block is calculated by multiplying the inverse of the distance from the infinity point of the motion in the target frame to the search block in the target frame to be correlated. Reduces the time required to find the optical flow by expanding the size of the image in the search block by a multiple of its proportional constant and correlating the image between the search block of the current frame and the previous frame, respectively. And the accuracy can be improved.

【0059】次に、格納された三次元モデル上を移動す
る動画像、もしくは擬似的に生成された三次元の動画像
を伝送する図1に示す三次元動画像表示情伝送装置5の
三次元動画像表示情報生成部51の処理と、伝送された
三次元動画像表示情報を受信して三次元動画像を表示す
る三次元動画像表示情報処理装置7の三次元動画像表示
部72の処理について説明する。なお、本実施形態1で
は、三通りの伝送の仕方について説明する。
Next, the three-dimensional moving image display information transmitting apparatus 5 shown in FIG. 1 for transmitting the moving image moving on the stored three-dimensional model or the pseudo three-dimensional moving image is transmitted. Processing of the moving image display information generation unit 51 and processing of the three-dimensional moving image display unit 72 of the three-dimensional moving image display information processing device 7 that receives the transmitted three-dimensional moving image display information and displays the three-dimensional moving image Will be described. In the first embodiment, three transmission methods will be described.

【0060】まず、三次元動画像表示情報伝送装置5と
三次元動画像表示情報処理装置7の第一の処理例につい
て説明する。
First, a first processing example of the three-dimensional video display information transmitting device 5 and the three-dimensional video display information processing device 7 will be described.

【0061】この第一の処理例は、三次元動画像表示情
伝送装置5から各部品モデルの情報とそのベクトルデー
タ、及び動きの無限遠点情報を伝送し、三次元動画像を
表示する処理である。
The first processing example is a processing for transmitting information on each part model, its vector data, and information on the point at infinity of motion from the three-dimensional video display information transmitting apparatus 5 and displaying a three-dimensional video. It is.

【0062】図8は、三次元動画像表示情報生成部51
の第一の処理例を示したフローチャートである。
FIG. 8 shows a three-dimensional moving image display information generator 51.
5 is a flowchart showing a first processing example of the first embodiment.

【0063】この三次元動画像表示情報生成部51の処
理は、図8に示すように、まず、表示する動画像の視点
情報を取得し(ステップ801)、その視点情報に基づ
き、三次元モデル情報記録装置4に格納された三次元モ
デルに対してパースペクティブ変換を行い、二次元画像
を投射する(ステップ802)。
As shown in FIG. 8, the processing of the three-dimensional moving image display information generating unit 51 first obtains viewpoint information of a moving image to be displayed (step 801), and, based on the viewpoint information, obtains a three-dimensional model. The perspective conversion is performed on the three-dimensional model stored in the information recording device 4 to project a two-dimensional image (step 802).

【0064】投射された二次元画像における動きの無限
遠点を前述同様に求め(ステップ803)、その動きの
無限遠点に対する各部品モデルの基準点の移動方向を求
める(ステップ804)。
The infinity point of the motion in the projected two-dimensional image is obtained in the same manner as described above (step 803), and the moving direction of the reference point of each part model with respect to the infinity point of the motion is obtained (step 804).

【0065】そして、各部品モデルのグローバル座標を
基に各部品モデルに対する奥行情報を求め(ステップ8
05)、視点情報における視点移動速度から各部品モデ
ルの見かけ上の移動速度を求め(ステップ806)、各
部品モデルの移動方向及び移動速度から各部品モデルの
ベクトルデータを生成し(ステップ807)、各部品モ
デルの情報とそのベクトルデータ、及び動きの無限遠点
情報を伝送部52に転送する(ステップ808)。な
お、本実施形態では、説明を簡単にするために、画面上
のピクセルと座標を1:1で対応させている。
Then, depth information for each part model is obtained based on the global coordinates of each part model (step 8).
05), the apparent movement speed of each part model is obtained from the viewpoint movement speed in the viewpoint information (step 806), and the vector data of each part model is generated from the movement direction and movement speed of each part model (step 807). The information of each part model, its vector data, and the information on the point at infinity of movement are transferred to the transmission unit 52 (step 808). In the present embodiment, for simplicity of description, pixels on the screen are associated with the coordinates on a one-to-one basis.

【0066】また、この動きの無限遠点情報は、動きの
無限遠点が変った場合にだけ転送するようにしても良
い。そして、伝送部52によりネットワーク6を介して
伝送される。
The infinity point information of the movement may be transferred only when the infinity point of the movement changes. The data is transmitted by the transmission unit 52 via the network 6.

【0067】具体的には、図9に示すような街灯のベク
トルデータと動きの無限遠点情報とが伝送される。
Specifically, the vector data of the streetlight and the information on the infinity point of the movement as shown in FIG. 9 are transmitted.

【0068】そして、三次元動画像表示情報処理装置7
の第一の処理例は、図10に示すように、受信部71で
伝送された各部品モデルの情報とそのベクトルデータ、
及び動きの無限遠点情報を三次元動画像表示部72に転
送し(ステップ1001)、三次元動画像表示部72で
は各部品モデルの情報とそのベクトルデータ、及び動き
の無限遠点情報を基に三次元モデルを生成し(ステップ
1002)、その生成された三次元モデルを上述したパ
ースペクティブ変換により二次元投射して動画像を表示
する(ステップ1003)。
Then, the three-dimensional moving image display information processing device 7
In the first processing example, as shown in FIG. 10, the information of each part model transmitted by the receiving unit 71 and its vector data,
Then, the infinite point information of the motion is transferred to the three-dimensional moving image display unit 72 (step 1001), and the three-dimensional moving image display unit 72 uses the information of each part model, its vector data, and the infinite point information of the motion. A three-dimensional model is generated (step 1002), and the generated three-dimensional model is two-dimensionally projected by the above-described perspective transformation to display a moving image (step 1003).

【0069】これにより、三次元動画像を表示する際に
伝送される情報は、各部品モデルの情報とそのベクトル
データ、及び動きの無限遠点情報だけであるため、三次
元動画像のデータの全てを伝送するより、低い伝送レー
トで行うことができる。
As a result, the information transmitted when displaying a three-dimensional video is only the information of each part model and its vector data, and the information on the point at infinity of the motion. It can be performed at a lower transmission rate than transmitting all.

【0070】次に、三次元動画像表示情報伝送装置5と
三次元動画像表示情報処理装置7の第二の処理例につい
て説明する。
Next, a second processing example of the three-dimensional moving image display information transmitting device 5 and the three-dimensional moving image display information processing device 7 will be described.

【0071】この第二の処理は、三次元動画像表示情報
処理装置7のデータ記録装置10に予め、各部品モデル
の情報を格納しておき、各部品モデルの配置情報だけ伝
送することによって三次元動画像を表示させる処理であ
る。
This second processing is performed by storing information of each component model in advance in the data recording device 10 of the three-dimensional moving image display information processing device 7 and transmitting only the placement information of each component model. This is a process for displaying the original moving image.

【0072】図11は、三次元動画像表示情報生成部5
1の第二の処理例を示したフローチャートである。
FIG. 11 shows a three-dimensional moving image display information generator 5.
6 is a flowchart illustrating a second example of the first process.

【0073】三次元動画像表示情報生成部51の第二の
処理例は、まず、入力装置8により視点情報を取得し
(ステップ1101)、その視点情報の視界範囲内の部
品モデルを三次元モデル情報記録装置4から抽出し(ス
テップ1102)、その各部品モデルの基準点における
グローバル座標を配置情報として抽出し(ステップ11
03)、各部品モデルの種別とそのグローバル座標を伝
送部52に転送する(ステップ1104)。
In the second processing example of the three-dimensional moving image display information generation unit 51, first, viewpoint information is acquired by the input device 8 (step 1101), and a part model within the field of view of the viewpoint information is converted into a three-dimensional model. It is extracted from the information recording device 4 (step 1102), and global coordinates at the reference point of each component model are extracted as arrangement information (step 11).
03), the type of each part model and its global coordinates are transferred to the transmission unit 52 (step 1104).

【0074】そして、同様に、伝送部52によりネット
ワーク6を介して伝送される。
Then, similarly, the data is transmitted by the transmission unit 52 via the network 6.

【0075】具体的に、図12に示す街灯を例に挙げる
と、街灯の種別と、「+」で示した各街灯の位置情報が
伝送される。
Specifically, taking the streetlights shown in FIG. 12 as an example, the type of the streetlights and the position information of each streetlight indicated by “+” are transmitted.

【0076】そして、三次元動画像表示情報処理装置7
の第二の処理例は、図13に示すように、受信部71で
伝送された各部品モデル種別の情報及びそのグローバル
座標を三次元動画像表示部72に転送し(ステップ13
01)、三次元動画像表示部72では各部品モデルの種
別により予めデータ記録装置10に格納されている部品
モデルを抽出し(ステップ1302)、その部品モデル
のグローバル座標を基に三次元モデルを生成し(ステッ
プ1303)、その生成された三次元モデルを二次元投
射して動画像を表示する(ステップ1304)。
Then, the three-dimensional moving image display information processing device 7
In the second processing example, as shown in FIG. 13, the information of each component model type and its global coordinates transmitted by the receiving unit 71 are transferred to the three-dimensional moving image display unit 72 (step 13).
01), the three-dimensional video display unit 72 extracts a part model stored in the data recording device 10 in advance according to the type of each part model (step 1302), and generates a three-dimensional model based on the global coordinates of the part model. A three-dimensional model is generated (step 1303), and the generated three-dimensional model is two-dimensionally projected to display a moving image (step 1304).

【0077】これにより、予め三次元部品モデルを記録
しておくことにより、三次元動画像を表示する際に伝送
される情報は、各部品モデルの種別とそのグローバル座
標だけであるため、三次元動画像のデータの全てを伝送
するより、低い伝送レートで行うことができる。
By recording a three-dimensional part model in advance, the information transmitted when displaying a three-dimensional moving image is only the type of each part model and its global coordinates. This can be performed at a lower transmission rate than transmitting all of the moving image data.

【0078】次に、三次元動画像表示情報伝送装置5と
三次元動画像表示情報処理装置7の第三の処理例につい
て説明する。
Next, a third processing example of the three-dimensional moving image display information transmitting device 5 and the three-dimensional moving image display information processing device 7 will be described.

【0079】第三の処理は、三次元動画像表示情報処理
装置7のデータ記録装置10に予めパラメトリックな三
次元部品モデルの情報を格納しておき、各部品モデルの
パラメータとその配置情報を伝送することによって三次
元動画像を表示させる処理である。
In the third process, the information of the parametric three-dimensional part model is stored in the data recording device 10 of the three-dimensional moving image display information processing device 7 in advance, and the parameters of each part model and the arrangement information thereof are transmitted. Is a process of displaying a three-dimensional moving image.

【0080】このようにすることで第二の処理よりも三
次元部品モデルの格納量を少なくすることができる。
In this way, the storage amount of the three-dimensional part model can be reduced as compared with the second processing.

【0081】図14は、三次元動画像表示情報生成部5
1の第三の処理例を示したフローチャートである。
FIG. 14 shows a three-dimensional video display information generating unit 5.
11 is a flowchart illustrating a third processing example of No. 1;

【0082】三次元動画像表示情報生成部51の第三の
処理例は、まず、図14に示すように、入力装置8によ
り視点情報を取得し(ステップ1401)、その視点情
報の視界範囲内の部品モデルを三次元モデル情報記録装
置4から抽出し(ステップ1402)、その部品モデル
のパラメータを、例えば基準となるセンタライン長を基
に取得し(ステップ1403)、その各部品モデルの基
準点におけるグローバル座標を配置情報として抽出し
(ステップ1103)、各部品モデルの種別及びパラメ
ータとそのグローバル座標を伝送部52に転送する(ス
テップ1104)。
In the third processing example of the three-dimensional moving image display information generating section 51, first, as shown in FIG. 14, viewpoint information is acquired by the input device 8 (step 1401), and the viewpoint information is set within the view range of the viewpoint information. Is extracted from the three-dimensional model information recording device 4 (step 1402), and the parameters of the part model are obtained based on, for example, a center line length serving as a reference (step 1403), and the reference point of each part model is obtained. Are extracted as arrangement information (step 1103), and the type and parameter of each part model and their global coordinates are transferred to the transmission unit 52 (step 1104).

【0083】そして、同様に、伝送部52によりネット
ワーク6を介して伝送される。
Then, similarly, the data is transmitted by the transmission unit 52 via the network 6.

【0084】具体的に、図15に示す道路を例に挙げる
と、道路の種別と長さ等のパラメータL1,W1,W
2,W3,D1、及び各道路の位置情報が伝送される。
Specifically, taking the road shown in FIG. 15 as an example, parameters L1, W1, W
2, W3, D1, and the position information of each road are transmitted.

【0085】そして、三次元動画像表示情報処理装置7
の第三の処理例は、図16に示すように、受信部71で
伝送された各部品モデル種別、パラメータの情報及びそ
のグローバル座標を三次元動画像表示部72に転送し
(ステップ1601)、三次元動画像表示部72では各
部品モデルの種別により予めデータ記録装置10に格納
されている部品モデルを抽出し(ステップ1602)、
そのパラメータにより実際の形状、大きさの部品モデル
を得(ステップ1603)、その部品モデルのグローバ
ル座標を基に三次元モデルを生成し(ステップ160
4)、その生成された三次元モデルを二次元投射して動
画像を表示する(ステップ1605)。
Then, the three-dimensional moving image display information processing device 7
In the third processing example, as shown in FIG. 16, each component model type, parameter information and its global coordinates transmitted by the receiving unit 71 are transferred to the three-dimensional video display unit 72 (step 1601). The three-dimensional moving image display unit 72 extracts a part model stored in the data recording device 10 in advance according to the type of each part model (step 1602).
A part model having an actual shape and size is obtained based on the parameters (step 1603), and a three-dimensional model is generated based on the global coordinates of the part model (step 160).
4) The generated three-dimensional model is two-dimensionally projected to display a moving image (step 1605).

【0086】これにより、三次元動画像を表示する際に
伝送される情報は、各部品モデルの種別とパラメータ、
及びそのグローバル座標だけであるため、三次元動画像
のデータの全てを伝送するより、低い伝送レートで行う
ことができる。
Thus, the information transmitted when displaying a three-dimensional moving image includes the type and parameter of each part model,
And only the global coordinates thereof, the transmission can be performed at a lower transmission rate than when all the data of the three-dimensional moving image is transmitted.

【0087】(実施の形態2)図17は、本発明の実施
の形態2にかかる動画像処理システムの構成を説明する
ための図である。
(Embodiment 2) FIG. 17 is a diagram for explaining the configuration of a moving image processing system according to Embodiment 2 of the present invention.

【0088】本実施形態2は、道路の動画像を取得し、
オプティカルフローを生成後、三次元モデルを生成せず
に、三次元動画像、または二次元動画像を表示する際に
必要となるベクトル付き二次元画像表示情報を抽出して
伝送し、遠隔の画像処理装置に表示する処理を行う道路
の動画像処理システムについて説明していく。
In the second embodiment, a moving image of a road is acquired,
After generating an optical flow, without generating a 3D model, extract and transmit 2D image display information with a vector required for displaying a 3D moving image or a 2D moving image, and transmit a remote image. A road moving image processing system that performs processing to be displayed on the processing device will be described.

【0089】本実施形態の道路動画像処理システムは、
図17に示すように、車に搭載されたビデオカメラ1と
そのビデオカメラ1から入力された画像を記録するビデ
オ記録装置11と、ビデオ記録装置11に記録された動
画像から二次元、三次元動画像、または三次元モデルを
表示するためのベクトル付き二次元画像情報を取得して
伝送する動画像表示情報取得伝送装置170と、取得し
たベクトル付き二次元画像情報を表示する表示装置3
と、受信部1711と動画像表示部1712とからな
り、伝送されたベクトル付き二次元画像情報を処理して
二次元、三次元動画像、三次元モデルを表示する動画像
表示情報処理装置171と、その動画像表示情報処理装
置171に接続された入力装置8と表示装置9とデータ
記録装置10とから構成される。
The road moving image processing system according to the present embodiment
As shown in FIG. 17, a video camera 1 mounted on a car, a video recording device 11 for recording an image input from the video camera 1, and two-dimensional and three-dimensional moving images recorded on the video recording device 11. A moving image display information acquisition / transmission device 170 that acquires and transmits two-dimensional image information with a vector for displaying a moving image or a three-dimensional model, and a display device 3 that displays the acquired two-dimensional image information with a vector
A moving image display information processing device 171 for processing the transmitted two-dimensional image information with a vector and displaying a two-dimensional, three-dimensional moving image, and a three-dimensional model, comprising a receiving unit 1711 and a moving image display unit 1712; It comprises an input device 8, a display device 9, and a data recording device 10 connected to the moving image display information processing device 171.

【0090】また、上述した動画像表示情報取得伝送装
置170は、記録された動画像をフレーム毎に読み込み
格納するフレームメモリ21と、格納された動画像の各
フレーム毎または複数フレームでオプティカルフローを
生成するオプティカルフロー生成部22と、オプティカ
ルフローの連続している領域部分を部分的な二次元画像
として抽出し、その二次元画像の移動方向及び移動速度
を基にベクトル付き二次元画像情報を生成するベクトル
付き二次元画像情報生成部1701と、生成されたベク
トル付き二次元画像情報をネットワーク6(LAN、ネ
ットワーク等)を介して伝送する伝送部1702とから
なる。なお、本実施形態2において、実施形態1と同一
符号の各部は、実施形態1と同一の処理を行うこととし
て、その説明を省略する。
The above-described moving picture display information acquiring / transmitting apparatus 170 includes a frame memory 21 for reading and storing a recorded moving picture for each frame, and an optical flow for each or a plurality of frames of the stored moving picture. The optical flow generation unit 22 to generate, extracts a continuous area portion of the optical flow as a partial two-dimensional image, and generates two-dimensional image information with a vector based on a moving direction and a moving speed of the two-dimensional image. And a transmission unit 1702 for transmitting the generated two-dimensional image information with a vector via the network 6 (LAN, network, etc.). In the second embodiment, the units having the same reference numerals as in the first embodiment perform the same processes as those in the first embodiment, and a description thereof will be omitted.

【0091】次に、ベクトル付き二次元画像情報生成部
1701及び伝送部1702の処理について説明する。
Next, the processing performed by the vector-added two-dimensional image information generation unit 1701 and the transmission unit 1702 will be described.

【0092】まず、ベクトル付き二次元画像情報生成部
1701の処理は、図18に示すように、オプティカル
フロー生成部23により生成されたオプティカルフロー
の連続している領域部分を部分的な二次元画像として抽
出し(ステップ1801)、オプティカルフローのベク
トル情報を基にその部分的な二次元画像の規格化速度を
算出し(ステップ1802)、動きの無限遠点、その二
次元画像の出現位置、出現時間、存在時間情報を求め
(ステップ1803)、動きの無限遠点と、規格化ベク
トルと二次元画像とからなるベクトル付き二次元画像
と、その出現位置、出現時間、存在時間情報からなるベ
クトル付き二次元画像情報を伝送部1702に転送する
(ステップ1804)。
First, as shown in FIG. 18, the process of the vector-added two-dimensional image information generating unit 1701 is to convert a continuous area of the optical flow generated by the optical flow generating unit 23 into a partial two-dimensional image. (Step 1801), and calculates the normalized speed of the partial two-dimensional image based on the vector information of the optical flow (Step 1802), the infinity point of the motion, the appearance position of the two-dimensional image, and the appearance Time and existence time information are obtained (step 1803). A two-dimensional image with a vector composed of a point at infinity of motion, a normalized vector and a two-dimensional image, and a vector composed of its appearance position, appearance time, and existence time information are attached. The two-dimensional image information is transferred to the transmission unit 1702 (Step 1804).

【0093】ステップ1802における規格化速度は以
下のように定義して算出する。
The normalized speed in step 1802 is calculated by defining as follows.

【0094】動きの無限遠点から物体までの距離をdと
し、オプティカルフローで生成されたベクトルの大きさ
(画面上での物体の見かけの速さ)をvとし、画面上で
の物体の移動距離をsとすると、見かけの速さのベクト
ルvはv=s/△tとなる。
The distance from the infinity point of the motion to the object is d, the magnitude of the vector generated by the optical flow (the apparent speed of the object on the screen) is v, and the movement of the object on the screen Assuming that the distance is s, the apparent speed vector v is v = s / △ t.

【0095】ここで、規格化速度Vを次のように定義す
る。
Here, the normalized speed V is defined as follows.

【0096】V=v/d=s/(△t・d) 伝送の際に送るベクトルの大きさをこの規格化速度Vと
すると、各フレーム毎に変化するvを送る必要がなくな
り、伝送量は少なくなる。
V = v / d = s / (△ t · d) If the size of the vector to be transmitted at the time of transmission is the standardized speed V, it is not necessary to transmit v that changes for each frame, and the amount of transmission Is less.

【0097】伝送部1702は、後述する動画像表示情
報処理装置171が二次元画像を表示するときは、動き
の無限遠点と、ベクトル付き二次元画像と、その出現位
置、出現時間、存在時間情報からなるベクトル付き二次
元画像情報をネットワーク6を介して動画像表示情報処
理装置171に伝送する処理を行い、後述する動画像表
示情報処理装置171が三次元動画像または三次元モデ
ルを表示するときは、動きの無限遠点とベクトル付き二
次元画像とその出現位置をネットワーク6を介して動画
像表示情報処理装置171に伝送する処理を行う。
When the moving image display information processing device 171 to be described later displays a two-dimensional image, the transmission unit 1702 transmits the infinite point of the motion, the two-dimensional image with the vector, its appearance position, appearance time, and existence time. A process of transmitting two-dimensional image information with a vector including information to the moving image display information processing device 171 via the network 6 is performed, and the moving image display information processing device 171 described later displays a three-dimensional moving image or a three-dimensional model. At this time, a process of transmitting the infinity point of the motion, the two-dimensional image with the vector, and the appearance position to the moving image display information processing device 171 via the network 6 is performed.

【0098】次に、伝送されたベクトル付き二次元画像
情報を受信して二次元動画像、三次元動画像、または三
次元モデルを表示する動画像表示情報処理装置171の
動画像表示部1712の処理について説明する。なお、
本実施形態2では、二次元動画像表示と、三次元動画像
及び三次元モデルの表示と、二通りの伝送の仕方につい
て説明する。
Next, the moving image display unit 1712 of the moving image display information processing device 171 that receives the transmitted two-dimensional image information with a vector and displays a two-dimensional moving image, a three-dimensional moving image, or a three-dimensional model is displayed. The processing will be described. In addition,
In the second embodiment, a two-dimensional moving image display, a three-dimensional moving image and a three-dimensional model display, and two transmission methods will be described.

【0099】まず、動画像表示部1712における二次
元動画像表示処理について説明する。
First, the two-dimensional moving image display processing in the moving image display unit 1712 will be described.

【0100】動画像表示部1712における二次元画像
表示処理は、図19に示すように、受信部1711で受
信した動きの無限遠点と、ベクトル付き二次元画像と、
その出現位置、出現時間、存在時間情報を基に、各表示
フレームにおける二次元画像の貼り付け位置を求め(ス
テップ1901)、動きの無限遠点と、ベクトル付き二
次元画像と、その出現位置、出現時間、存在時間情報に
より各フレームの二次元画像の大きさを決定し(ステッ
プ1902)、各フレームに大きさが決定した二次元画
像を貼り付けて二次元動画像として表示する(ステップ
1903)。
As shown in FIG. 19, the two-dimensional image display processing in the moving image display unit 1712 includes the infinite point of the motion received by the reception unit 1711, the two-dimensional image with the vector,
Based on the appearance position, appearance time, and existence time information, a paste position of the two-dimensional image in each display frame is determined (step 1901), and a point at infinity of motion, a two-dimensional image with a vector, the appearance position, The size of the two-dimensional image of each frame is determined based on the appearance time and existence time information (step 1902), and the determined two-dimensional image is pasted on each frame and displayed as a two-dimensional moving image (step 1903). .

【0101】これにより、オプティカル・フローのベク
トル情報を加味した規格化ベクトル付きの二次元画像情
報という少ない情報だけで二次元画像の全ての点におけ
る動きの方向が指定されたことになり、伝送或いは記録
には極めて便利となる。
As a result, the direction of motion at all points of the two-dimensional image is designated by only a small amount of information, that is, two-dimensional image information with a normalized vector taking into account the vector information of the optical flow. It is very convenient for recording.

【0102】また、車が移動して、視点が変われば、移
動したために新しく現れた画像の一部だけの画像情報と
ベクトルを付加して伝送することで、その画像が見えて
いる限りは、古い画像も全て捨てないで使われ、かつ、
ベクトルが変化しない範囲では、全てのフレームを伝送
する必要はなく、初めの画像と、その画像内の全ての点
のベクトルを送れば、それで後の動きを予想することが
できる。
When the car moves and the viewpoint changes, by adding and transmitting image information and a vector of only a part of the image newly appearing due to the movement, as long as the image is visible, All old images are used without being thrown away, and
As long as the vector does not change, it is not necessary to transmit all the frames. If the initial image and the vectors of all points in the image are sent, the subsequent motion can be predicted.

【0103】すなわち、このベクトル付き二次元画像情
報は、従来の二次元画像の動画像よりも、極めて高効率
の伝送が可能になる。
That is, this vectored two-dimensional image information can be transmitted at a much higher efficiency than a conventional two-dimensional moving image.

【0104】次に、動画像表示部1712における三次
元画像、及び三次元モデルの表示処理について説明す
る。
Next, a process of displaying a three-dimensional image and a three-dimensional model in the moving image display unit 1712 will be described.

【0105】動画像表示部1712における三次元画
像、及び三次元モデルの表示処理は、図20に示すよう
に、受信部1711で受信したベクトル付き二次元画像
を構成している部品の種別をパターン認識を行い認識す
る(ステップ2001)。
As shown in FIG. 20, the processing of displaying the three-dimensional image and the three-dimensional model in the moving image display unit 1712 is performed by patterning the types of the parts constituting the two-dimensional image with vector received by the receiving unit 1711. Recognition is performed (step 2001).

【0106】その認識された部品種別が共有三次元部品
モデルで表現できるか、または固有三次元部品モデルで
表現しなければならないかを判定する(ステップ200
2)。
It is determined whether the recognized part type can be represented by a shared three-dimensional part model or must be represented by a unique three-dimensional part model (step 200).
2).

【0107】判定結果が共有三次元部品モデルである場
合は、その三次元部品モデルの形状及び画像内の基準と
なる部分を基に求めたサイズからその二次元画像に該当
する三次元部品モデルを生成する(ステップ200
3)。
If the judgment result is a shared three-dimensional part model, the three-dimensional part model corresponding to the two-dimensional image is determined from the shape of the three-dimensional part model and the size obtained based on the reference part in the image. Generate (Step 200
3).

【0108】判定結果が固有三次元部品モデルである場
合は、その二次元画像上の特徴点を抽出し、画像内の基
準となる部分を基にサイズを求め、その二次元画像に該
当する簡易三次元部品モデルを生成する(ステップ20
04)。
If the result of the determination is a unique three-dimensional part model, the feature points on the two-dimensional image are extracted, the size is determined based on a reference portion in the image, and the simple point corresponding to the two-dimensional image is obtained. Generate a three-dimensional part model (Step 20)
04).

【0109】その後、二次元画像の出現位置と規格化ベ
クトルとその動きの無限遠点により実施の形態1のよう
に奥行情報を求め、生成された共有、固有三次元部品モ
デルのグローバル座標を求める(ステップ2005)。
この場合の座標は、それぞれ共有、固有三次元部品モデ
ルの基準点について求める。
Thereafter, depth information is obtained from the appearance position of the two-dimensional image, the normalized vector, and the infinite point of the movement, as in Embodiment 1, and the global coordinates of the generated shared, unique three-dimensional part model are obtained. (Step 2005).
The coordinates in this case are obtained for the reference points of the shared and unique three-dimensional part models.

【0110】そして、そのグローバル座標を基に、生成
された共有、固有三次元部品モデルを貼り付け、三次元
モデルを生成し(ステップ2006)、ホログラフィー
等の三次元モデルで表示する場合は、それを表示し(ス
テップ2007)、三次元画像を表示する場合は、その
三次元モデルをある視点でパースペクティブ変換して二
次元投射して表示する(ステップ2008)。
Then, based on the global coordinates, the generated shared and unique three-dimensional part model is pasted, and a three-dimensional model is generated (step 2006). Is displayed (step 2007), and when a three-dimensional image is displayed, the three-dimensional model is perspectively transformed from a certain viewpoint and two-dimensionally projected and displayed (step 2008).

【0111】これにより、ベクトル付き二次元画像情報
という少ない情報を伝送するだけで、伝送先では三次元
座標、及び三次元部品モデルを抽出でき、これを基に三
次元画像や三次元モデルを表示することができるため、
極めて高効率の伝送が可能になる。
By transmitting only a small amount of information, that is, two-dimensional image information with a vector, three-dimensional coordinates and a three-dimensional part model can be extracted at the transmission destination, and a three-dimensional image or a three-dimensional model can be displayed based on this. Because you can
Extremely efficient transmission becomes possible.

【0112】なお、本実施形態において、二次元画像は
前後にしか視点移動ができない二次元画像を示し、三次
元画像は自由に視点移動できる二次元画像を示してい
る。
In this embodiment, a two-dimensional image is a two-dimensional image whose viewpoint can be moved only forward and backward, and a three-dimensional image is a two-dimensional image whose viewpoint can be freely moved.

【0113】(実施の形態3)実施形態3では、上述し
た実施形態1または実施形態2における伝送情報量を圧
縮等の前処理を行うことによってさらに伝送情報量を小
さくする場合の処理について説明する。この場合、圧縮
等の前処理、または展開等の後処理によって生じる画像
情報の劣化を補正することが必要となる。
(Embodiment 3) In Embodiment 3, a description will be given of processing in the case where the amount of transmission information is further reduced by performing preprocessing such as compression on the amount of transmission information in the above-described Embodiment 1 or 2. . In this case, it is necessary to correct deterioration of image information caused by pre-processing such as compression or post-processing such as decompression.

【0114】ここでは、例えば、実施形態1に示した三
次元モデル情報記録装置4により、得られた三次元モデ
ルの二次元投射画像に対して、三次元動画像表示情報伝
送装置5でその画像に対して伝送量を少なくするための
圧縮等の前処理を行って伝送し、三次元動画像表示情報
処理装置7において伝送されたものに対して展開等の後
処理、及び前処理、によって影響を受ける部分を画像補
正して伝送する補正信号付加画像の伝送について説明す
る。
Here, for example, the two-dimensional projected image of the three-dimensional model obtained by the three-dimensional model information recording device 4 shown in the first embodiment is used by the three-dimensional moving image display information transmitting device 5 to transmit the image. And performs pre-processing such as compression to reduce the amount of transmission, and transmits the processed data. The transmission of a correction signal-added image in which a received portion is image corrected and transmitted will be described.

【0115】図21は、実施形態1に示す三次元動画像
表示情報生成部5における補正信号付加画像の伝送の処
理を示すフローチャートである。
FIG. 21 is a flowchart showing a process of transmitting a correction signal-added image in the three-dimensional moving image display information generating section 5 shown in the first embodiment.

【0116】三次元動画像表示情報生成部51の補正信
号付加画像の伝送の処理は、まず、図21に示すよう
に、二次元投射画像を三次元モデル情報記録装置4の三
次元モデルから取得し(ステップ2101)、取得した
二次元投射画像に対して圧縮等の前処理、展開等の後処
理をシミュレーション(画像データの圧縮展開後にどの
ように画像データが劣化するどうかを検証する)し(ス
テップ2102)、シミュレートした結果である予想出
力画像を取得し(ステップ2103)、その予想出力画
像と原画像である二次元投射画像との差分を取り(ステ
ップ2104)、誤差信号を取得する(ステップ210
5)。
The processing of transmitting the correction signal-added image by the three-dimensional moving image display information generating section 51 first obtains a two-dimensional projected image from the three-dimensional model of the three-dimensional model information recording device 4 as shown in FIG. Then, the pre-processing such as compression and post-processing such as decompression are simulated for the obtained two-dimensional projection image (post-processing such as how the image data is degraded after the compression and decompression of the image data) (step 2101). (Step 2102), an expected output image as a simulated result is obtained (Step 2103), and a difference between the expected output image and the two-dimensional projected image as an original image is obtained (Step 2104), and an error signal is obtained (Step 2104). Step 210
5).

【0117】そして、この誤差信号に対して補正信号を
得(ステップ2106)、その補正信号に原画像である
二次元投射画像を合成し(ステップ2107)、その合
成画像に対して再度シミュレーションを行って(ステッ
プ2108)、予想出力画像を得(ステップ210
9)、その得られた予想出力画像と原画像である二次元
投射画像とで差分を取り(ステップ2110)、誤差信
号を取得し(ステップ2111)、その誤差信号が所定
値より小さい場合は(ステップ2112)、その補正信
号と画像信号を前処理(圧縮等)して伝送部52に転送
する(ステップ2113)。また、大きい場合は、ステ
ップ2106に戻る。
Then, a correction signal is obtained for the error signal (step 2106), a two-dimensional projected image as an original image is synthesized with the correction signal (step 2107), and the simulation is performed again on the synthesized image. (Step 2108) to obtain an expected output image (Step 210).
9), a difference is obtained between the obtained predicted output image and the two-dimensional projected image as an original image (step 2110), and an error signal is obtained (step 2111). If the error signal is smaller than a predetermined value, (Step 2112), the correction signal and the image signal are preprocessed (compressed, etc.) and transferred to the transmission unit 52 (Step 2113). If it is larger, the process returns to step 2106.

【0118】そして、同様に、伝送部52によりネット
ワーク6を介して伝送される。
Then, similarly, the data is transmitted by the transmission unit 52 via the network 6.

【0119】次に、三次元動画像表示情報処理装置7の
補正信号付加画像の伝送の処理は、図22に示すよう
に、受信部71で伝送された補正信号と画像信号を三次
元動画像表示部72に転送し(ステップ2201)、三
次元動画像表示部72では、それら補正信号と画像信号
とに対して後処理(展開等)を行い(ステップ220
2)、それらを合成して動画像を表示する(ステップ2
203)。
Next, as shown in FIG. 22, the processing of transmitting the correction signal-added image by the three-dimensional moving image display information processing apparatus 7 is performed by combining the correction signal and the image signal transmitted by the receiving unit 71 with the three-dimensional moving image. The image data is transferred to the display unit 72 (step 2201), and the three-dimensional moving image display unit 72 performs post-processing (decompression or the like) on the correction signal and the image signal (step 220).
2), combine them and display a moving image (step 2)
203).

【0120】これにより、伝送レートを低くするために
行う圧縮等の前処理、及び展開によって生じる画質の劣
化を低減させることができ、高画質、高精度な三次元情
報伝送が可能となる。
As a result, it is possible to reduce deterioration in image quality caused by pre-processing such as compression performed to reduce the transmission rate and decompression, thereby enabling high-quality and highly accurate three-dimensional information transmission.

【0121】なお、本実施形態3では、情報の伝送を少
なくするための圧縮等の前処理として説明してきたが、
本発明はこれに限定されず、例えば、記録装置等に情報
を記録するときに、情報の記録量を少なくするための圧
縮等の前処理と置き換えることもでき、画像に対して前
処理と後処理を行うものに対しては種々適応可能であ
る。
Although the third embodiment has been described as preprocessing such as compression to reduce information transmission,
The present invention is not limited to this. For example, when information is recorded on a recording device or the like, it can be replaced with pre-processing such as compression to reduce the amount of information to be recorded. Various adaptations are possible for those that perform processing.

【0122】以上、本発明者によってなされた発明を、
前記実施形態に基づき具体的に説明したが、本発明は、
前記実施形態に限定されるものではなく、その要旨を逸
脱しない範囲において種々変更可能であることは勿論で
ある。
As described above, the invention made by the present inventors is described below.
Although specifically described based on the embodiment, the present invention
It is needless to say that the present invention is not limited to the above-described embodiment, but can be variously modified without departing from the scope of the invention.

【0123】[0123]

【発明の効果】本願において開示される発明のうち代表
的なものによって得られる効果を簡単に説明すれば、下
記のとおりである。
The effects obtained by the representative ones of the inventions disclosed in the present application will be briefly described as follows.

【0124】1.オプティカルフローを求める時間を短
縮し、かつ精度を向上することが可能となる。
[0124] 1. It is possible to shorten the time required for obtaining the optical flow and improve the accuracy.

【0125】2.動画像を表示する情報の伝送レートを
小さくすることが可能となる。
[0125] 2. It is possible to reduce the transmission rate of information for displaying a moving image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1にかかる動画像処理シス
テムの構成を説明するための図である。
FIG. 1 is a diagram for explaining a configuration of a moving image processing system according to a first embodiment of the present invention;

【図2】オプティカルフロー生成処理を説明するための
フローチャートである。
FIG. 2 is a flowchart illustrating an optical flow generation process.

【図3】相関の探索方向を示した図である。FIG. 3 is a diagram illustrating a search direction of a correlation.

【図4】相関の探索を行うときの探索方向への位置ズレ
とそのときの探索ブロックの大きさを説明するための図
である。
FIG. 4 is a diagram for explaining a positional deviation in a search direction when a correlation search is performed and a size of a search block at that time.

【図5】撮影時間の違う道路実写画像を用いて相関時の
物体の大きさの違いを説明するための図である。
FIG. 5 is a diagram for explaining a difference in the size of an object at the time of correlation using road photographed images having different photographing times.

【図6】比例定数を掛けた探索ブロックでの相関を詳細
に説明するための図である。
FIG. 6 is a diagram for explaining in detail a correlation in a search block multiplied by a proportional constant;

【図7】三次元モデル生成処理を説明するためのフロー
チャートである。
FIG. 7 is a flowchart illustrating a three-dimensional model generation process.

【図8】三次元動画像表示情報生成部51の処理を示す
フローチャートである。
FIG. 8 is a flowchart illustrating a process of a three-dimensional moving image display information generation unit 51;

【図9】伝送される三次元部品モデルとそのベクトル、
及び動きの無限遠点を具体的に示した図である。
FIG. 9 shows a transmitted three-dimensional part model and its vector,
FIG. 3 is a diagram specifically showing the infinity point of the movement.

【図10】三次元動画像表示情報処理装置7の第一の処
理例を示すフローチャートである。
FIG. 10 is a flowchart illustrating a first processing example of the three-dimensional moving image display information processing apparatus 7.

【図11】三次元動画像表示情報生成部51の第二の処
理例を示したフローチャートである。
FIG. 11 is a flowchart illustrating a second processing example of the three-dimensional moving image display information generation unit 51;

【図12】伝送される配置位置を具体的に示した図であ
る。
FIG. 12 is a diagram specifically showing an arrangement position to be transmitted;

【図13】三次元動画像表示情報処理装置7の第二の処
理例を示すフローチャートである。
FIG. 13 is a flowchart illustrating a second processing example of the three-dimensional moving image display information processing apparatus 7.

【図14】三次元動画像表示情報生成部51の第三の処
理例を示すフローチャートである。
FIG. 14 is a flowchart illustrating a third processing example of the three-dimensional moving image display information generation unit 51;

【図15】伝送されるパラメトリックな三次元モデル部
品の具体例を示した図である。
FIG. 15 is a diagram showing a specific example of a transmitted parametric three-dimensional model part.

【図16】三次元動画像表示情報処理装置7の第三の処
理例を示すフローチャートである。
FIG. 16 is a flowchart illustrating a third processing example of the three-dimensional video display information processing apparatus 7;

【図17】本発明の実施の形態2にかかる動画像処理シ
ステムの構成を説明するための図である。
FIG. 17 is a diagram for explaining a configuration of a moving image processing system according to a second embodiment of the present invention;

【図18】ベクトル付き二次元画像情報生成部1701
の処理を示すフローチャートである。
FIG. 18 is a two-dimensional image information generation unit with vector 1701.
6 is a flowchart showing the processing of FIG.

【図19】動画像表示部1712における二次元動画像
表示処理を示すフローチャートである。
FIG. 19 is a flowchart illustrating a two-dimensional moving image display process in the moving image display unit 1712.

【図20】動画像表示部1712における三次元画像、
及び三次元モデルの表示処理を示すフローチャートであ
る。
FIG. 20 shows a three-dimensional image in the moving image display unit 1712,
6 is a flowchart showing a display process of a three-dimensional model.

【図21】三次元動画像表示情報生成部51の補正信号
付加画像の伝送の処理を示したフローチャートである。
FIG. 21 is a flowchart illustrating a process of transmitting a correction signal-added image by the three-dimensional moving image display information generation unit 51.

【図22】三次元動画像表示情報処理装置7の補正信号
付加画像の伝送の処理を示したフローチャートである。
FIG. 22 is a flowchart showing a process of transmitting a correction signal-added image by the three-dimensional video display information processing apparatus 7.

【符号の説明】[Explanation of symbols]

1…ビデオカメラまたはビデオ再生機、2…三次元モデ
ル情報取得部、3…表示装置、4…三次元モデル情報記
録装置、5…三次元動画像表示情報伝送装置、6…ネッ
トワーク、7…三次元動画像表示情報処理装置、8…入
力装置、9…表示装置、10…データ記録装置、11…
ビデオ記録装置、21…フレームメモリ、22…オプテ
ィカルフロー生成部、23…奥行情報算出部、24…三
次元モデル生成部、51…三次元動画像表示情報生成
部、52…伝送部、71…受信部、72…三次元動画像
表示部。
DESCRIPTION OF SYMBOLS 1 ... Video camera or video reproducing device, 2 ... 3D model information acquisition part, 3 ... Display device, 4 ... 3D model information recording device, 5 ... 3D moving image display information transmission device, 6 ... Network, 7 ... Tertiary Original moving image display information processing device, 8 ... input device, 9 ... display device, 10 ... data recording device, 11 ...
Video recording device, 21: Frame memory, 22: Optical flow generator, 23: Depth information calculator, 24: 3D model generator, 51: 3D video display information generator, 52: Transmission unit, 71: Reception Unit, 72 ... three-dimensional moving image display unit.

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 ビデオカメラ、またはビデオ再生機から
取得された二次元動画像を基に三次元動画像の情報を取
得する三次元動画像情報取得手段を備えた画像処理シス
テムであって、 前記三次元動画像情報取得手段は、取得された二次元動
画像をフレーム毎に読み込み格納するフレームメモリ
と、 前記フレームメモリに格納された各フレームの動きの無
限遠点の位置を求め、前記動きの無限遠点の位置が同一
であるフレーム群に対し、前記動きの無限遠点から放射
状に広がる方向を同一画像部分の探索方向と定めてその
探索方向に同一画像部分を探索する探索ブロックを所定
長ずつ移動させて、各フレーム間で探索ブロックの画像
の相関を取っていき、その相関が最も高い部分を同一画
像部分と検出し、その同一画像部分の前記動きの無限遠
点に対する移動方向と移動の割合を求めていき、取得さ
れた二次元動画像のオプティカルフローを生成するオプ
ティカルフロー生成手段と、 前記生成されたオプティカルフローから取得された二次
元動画像の奥行情報を求める奥行情報算出手段と、 前記取得された二次元動画像の構成部品を種別認識し、
その種別認識された各構成部品に対応した三次元部品モ
デルを前記オプティカルフロー及び奥行情報を基にそれ
ぞれ配置していき、取得された二次元動画像の三次元モ
デルを生成する三次元モデル生成手段とからなることを
特徴とする画像処理システム。
1. An image processing system comprising a three-dimensional moving image information acquiring unit for acquiring information of a three-dimensional moving image based on a two-dimensional moving image acquired from a video camera or a video player. The three-dimensional moving image information obtaining means reads and stores the obtained two-dimensional moving image for each frame, and obtains the position of an infinite point of the motion of each frame stored in the frame memory, and For a frame group in which the position of the point at infinity is the same, a direction in which the movement radiates from the point at infinity is determined as a search direction of the same image portion, and a search block for searching the same image portion in the search direction is set to a predetermined length. The search block image is correlated between each frame, the portion having the highest correlation is detected as the same image portion, and the movement of the same image portion at infinity is detected. Optical flow generating means for generating the optical flow of the obtained two-dimensional moving image, and calculating the depth information of the two-dimensional moving image obtained from the generated optical flow. Depth information calculation means, Type recognition of the components of the obtained two-dimensional moving image,
A three-dimensional model generating means for arranging a three-dimensional part model corresponding to each component whose type has been recognized based on the optical flow and the depth information to generate a three-dimensional model of the acquired two-dimensional moving image; An image processing system comprising:
【請求項2】 前記請求項1に記載の画像処理システム
において、 前記オプティカルフロー生成手段は、動きの無限遠点か
ら放射状に広がる方向に同一画像部分を探索する探索ブ
ロックを所定長移動させていき、各フレーム間で相関を
取るときに、相関を取る現フレームにおける動きの無限
遠点から探索ブロックまでの距離に、相関を取る対象フ
レームにおける動きの無限遠点から探索ブロックまでの
距離の逆数を掛け合わせてなる比例定数を求め、前記相
関を取る対象フレームにおける探索ブロック内の画像の
大きさをその比例定数倍に拡大して、それぞれ現フレー
ムと一つ前のフレームとの探索ブロック間の画像の相関
を取っていく手段を備えたことを特徴とする画像処理シ
ステム。
2. The image processing system according to claim 1, wherein the optical flow generation means moves a search block for searching for the same image portion in a direction radially expanding from an infinity point of the movement by a predetermined length. When calculating the correlation between each frame, the reciprocal of the distance from the infinity point of the motion in the target frame to be correlated to the search block is set to the distance from the infinity point of the motion in the current frame to be correlated to the search block. The proportionality constant obtained by the multiplication is obtained, and the size of the image in the search block in the target frame to be correlated is enlarged by the proportionality constant times, and the image between the search block of the current frame and the search block of the immediately preceding frame is obtained. An image processing system comprising means for calculating the correlation of
【請求項3】 前記請求項1、または請求項2に記載の
画像処理システムにおいて、 前記オプティカルフロー生成手段の探索ブロックの移動
における所定長は、前記動きの無限遠点からの探索ブロ
ックまでの距離に比例した単位長であることを特徴とす
る画像処理システム。
3. The image processing system according to claim 1, wherein the predetermined length of movement of the search block of the optical flow generation means is a distance from an infinite point of the movement to the search block. An image processing system, characterized in that the unit length is proportional to.
【請求項4】 複数個の三次元部品モデルが配置形成さ
れた三次元モデルから三次元動画像を表示するための情
報を取得し、その情報をネットワークを介して第二の画
像処理装置に伝送する三次元動画像伝送手段とを備えた
第一の画像処理装置と、前記三次元動画像伝送手段によ
り伝送されてきた三次元動画像の情報を基に三次元動画
像を出力する第二の画像処理装置とを有する画像処理シ
ステムであって、 前記三次元動画像伝送手段は、三次元動画像を出力する
位置を示す視点情報を第二の画像処理装置から取得する
手段と、 前記視点情報に基づき、前記三次元モデルの二次元投射
画像を順次取得していく手段と、 前記二次元投射画像の動きの無限遠点を求める手段と、 前記求められた動きの無限遠点に対する各三次元部品モ
デルの見かけ上の移動する方向とその大きさを示すベク
トル情報を求める手段と、 前記各三次元部品モデルの情報とそのベクトル情報、及
び動きの無限遠点の情報を伝送する手段とを備え、 前記第二の画像処理装置は、前記各三次元部品モデルの
情報とそのベクトル情報、及び動きの無限遠点の情報を
基に前記三次元モデルを構築する手段と、 前記構築された三次元モデルの二次元投射画像を表示す
る手段を備えたことを特徴とする画像処理システム。
4. Acquiring information for displaying a three-dimensional moving image from a three-dimensional model in which a plurality of three-dimensional component models are arranged and transmitting the information to a second image processing device via a network. A first image processing apparatus having a three-dimensional video transmission unit, and a second image processor that outputs a three-dimensional video based on information of the three-dimensional video transmitted by the three-dimensional video transmission unit. An image processing system having an image processing device, wherein the three-dimensional moving image transmitting unit acquires, from the second image processing device, viewpoint information indicating a position at which a three-dimensional moving image is output, and the viewpoint information A means for sequentially acquiring a two-dimensional projected image of the three-dimensional model, a means for obtaining an infinite point of the motion of the two-dimensional projected image, and a three-dimensional image for the infinite point of the obtained motion. Part model look Means for obtaining vector information indicating the direction of movement and the magnitude thereof, and means for transmitting information on each of the three-dimensional part models and their vector information, and information on the infinite point of movement, Means for constructing the three-dimensional model based on the information of each of the three-dimensional part models and its vector information, and information on the point at infinity of motion; and a two-dimensional model of the constructed three-dimensional model. An image processing system comprising means for displaying a projection image.
【請求項5】 複数個の三次元部品モデルが配置形成さ
れた三次元モデルから三次元動画像を表示するための情
報を取得し、その情報をネットワークを介して第二の画
像処理装置に伝送する三次元動画像伝送手段とを備えた
第一の画像処理装置と、前記複数個の三次元部品モデル
情報を有し、前記三次元動画像伝送手段により伝送され
てきた三次元動画像の情報を基に三次元動画像を出力す
る第二の画像処理装置とを有する画像処理システムであ
って、 前記三次元動画像伝送手段は、三次元動画像を出力する
位置を示す視点情報を第二の画像処理装置から取得する
手段と、 前記視点情報の視界範囲内に存在する前記三次元部品モ
デルを順次抽出していく手段と、 前記抽出した各三次元部品モデルの種別を認識する手段
と、 前記抽出した各三次元部品モデルの配置情報を取得する
手段と、 前記認識された三次元部品モデルの種別情報と前記取得
された三次元部品モデルの配置情報とを伝送する手段を
備え、 前記第二の画像処理装置は、伝送された前記各三次元部
品モデルの種別情報を基に、対象となる三次元部品モデ
ルを抽出する手段と、 伝送された前記配置情報を基に、前記抽出された三次元
部品モデルを配置して三次元モデルを構築する手段と、 前記構築された三次元モデルの二次元投射画像を表示す
る手段を備えたことを特徴とする画像処理システム。
5. Acquiring information for displaying a three-dimensional moving image from a three-dimensional model in which a plurality of three-dimensional part models are arranged and transmitting the information to a second image processing device via a network. A first image processing apparatus having a three-dimensional video image transmitting means, and information on the three-dimensional video image transmitted by the three-dimensional video image transmitting means, having the plurality of three-dimensional part model information. And a second image processing apparatus that outputs a three-dimensional video based on the three-dimensional video transmission means, wherein the three-dimensional video transmission means transmits viewpoint information indicating a position at which the three-dimensional video is output to the second Means for acquiring from the image processing device, means for sequentially extracting the three-dimensional component models present within the field of view of the viewpoint information, and means for recognizing the type of each of the extracted three-dimensional component models, Each extracted three Means for acquiring arrangement information of the original part model; means for transmitting the type information of the recognized three-dimensional part model and the acquired arrangement information of the three-dimensional part model, the second image processing apparatus Means for extracting a target three-dimensional part model based on the transmitted type information of each of the three-dimensional part models; anda means for extracting the extracted three-dimensional part model based on the transmitted arrangement information. An image processing system comprising: means for arranging and constructing a three-dimensional model; and means for displaying a two-dimensional projected image of the constructed three-dimensional model.
【請求項6】 複数個の三次元部品モデルが配置形成さ
れた三次元モデルから三次元動画像を表示するための情
報を取得し、その情報をネットワークを介して第二の画
像処理装置に伝送する三次元動画像伝送手段とを備えた
第一の画像処理装置と、前記複数個のパラメトリックな
三次元部品モデル情報を有し、前記三次元動画像伝送手
段により伝送されてきた三次元動画像の情報を基に三次
元動画像を出力する第二の画像処理装置とを有する画像
処理システムであって、 前記三次元動画像伝送手段は、三次元動画像を出力する
位置を示す視点情報を第二の画像処理装置から取得する
手段と、 前記視点情報の視界範囲内に存在する前記三次元部品モ
デルを順次抽出していく手段と、 前記抽出した各三次元部品モデルの種別とそのサイズを
認識する手段と、 前記抽出した各三次元部品モデルの配置情報を取得する
手段と、 前記認識された三次元部品モデルの種別とそのサイズを
示すパラメータ情報、及び前記取得された三次元部品モ
デルの配置情報とを伝送する手段を備え、 前記第二の画像処理装置は、伝送された前記各三次元部
品モデルの種別情報を基に、対象となる三次元部品モデ
ルを抽出する手段と、 前記抽出された三次元部品モデルに対し、伝送された前
記パラメータ情報を基に、前記実サイズの三次元部品モ
デルを取得する手段と、 伝送された前記配置情報を基に、前記取得された三次元
部品モデルを配置して三次元モデルを構築する手段と、 前記構築された三次元モデルの二次元投射画像を表示す
る手段を備えたことを特徴とする画像処理システム。
6. Acquiring information for displaying a three-dimensional moving image from a three-dimensional model in which a plurality of three-dimensional part models are arranged and transmitting the information to a second image processing apparatus via a network. A first image processing apparatus having a three-dimensional moving image transmitting unit, and a plurality of parametric three-dimensional part model information, and a three-dimensional moving image transmitted by the three-dimensional moving image transmitting unit. And a second image processing device that outputs a three-dimensional moving image based on the information of the three-dimensional moving image, wherein the three-dimensional moving image transmitting unit outputs viewpoint information indicating a position at which the three-dimensional moving image is output. Means for acquiring from the second image processing apparatus, means for sequentially extracting the three-dimensional component models present within the field of view of the viewpoint information, and the type and size of each of the extracted three-dimensional component models. Recognize Means for acquiring arrangement information of each of the extracted three-dimensional part models; parameter information indicating the type and size of the recognized three-dimensional part model; and arrangement of the acquired three-dimensional part model. And means for transmitting information, based on the transmitted type information of each of the three-dimensional component models, means for extracting a target three-dimensional component model, and the extracted Means for acquiring the three-dimensional part model of the actual size based on the transmitted parameter information for the three-dimensional part model transmitted, and the acquired three-dimensional part model based on the transmitted arrangement information. An image processing system, comprising: means for constructing a three-dimensional model by arranging the three-dimensional model; and means for displaying a two-dimensional projected image of the constructed three-dimensional model.
【請求項7】 ビデオカメラ、またはビデオ再生機から
二次元動画像を表示するための情報を取得する二次元動
画像表示情報取得手段とその情報をネットワークを介し
て第二の画像処理装置に伝送する伝送手段とを備えた第
一の画像処理装置と、前記伝送手段により伝送されてき
た二次元動画像の表示情報を受信する手段とその受信し
た表示情報を基に二次元動画像を出力する二次元動画像
出力手段とを備えた第二の画像処理装置とを有する画像
処理システムであって、 前記二次元動画像表示情報取得手段は、ビデオカメラ、
またはビデオ再生機から取得された二次元動画像をフレ
ーム毎に読み込み格納するフレームメモリと、 前記フレームメモリに格納された各フレームの動きの無
限遠点の位置を求め、前記動きの無限遠点の位置が同一
であるフレーム群に対し、前記動きの無限遠点に対する
移動方向と移動の割合を求めていき、取得された二次元
動画像のオプティカルフローを生成する手段と、 前記生成されたオプティカルフローの連続している領域
部分にそれぞれ分割して部分的な二次元画像としてそれ
ぞれ抽出していき、各フレームの前記部分的な二次元画
像における動きの無限遠点に対する移動の割合から前記
部分的な二次元画像全体の移動速度を規格化速度として
算出し、前記部分的な二次元画像の出現位置、出現時
間、存在時間を抽出し、前記伝送手段に前記部分的な二
次元画像と、その移動方向と規格化速度とから成るベク
トル情報と、出現位置、出現時間、及び存在時間とから
なる表示情報を伝送手段に転送する手段とを備え、 前記二次元動画像出力手段は、伝送された表示情報を基
に、出力するためのフレーム毎の前記部分的な二次元画
像毎の貼り付け位置とその大きさを求め、その求めた貼
り付け位置と大きさで前記部分的な二次元画像を前記各
フレームに貼り付け、その貼り付けられたフレームを出
力していく手段を備えたことを特徴とする画像処理シス
テム。
7. A two-dimensional moving image display information acquiring means for acquiring information for displaying a two-dimensional moving image from a video camera or a video player, and transmitting the information to a second image processing apparatus via a network. A first image processing apparatus having a transmitting means for transmitting the two-dimensional moving image transmitted from the transmitting means, and outputting a two-dimensional moving image based on the received display information. And a second image processing apparatus having a two-dimensional moving image output unit, wherein the two-dimensional moving image display information obtaining unit is a video camera,
Or, a frame memory that reads and stores a two-dimensional moving image obtained from a video player for each frame, and obtains the position of the infinite point of the motion of each frame stored in the frame memory, and calculates the position of the infinite point of the motion. Means for generating the optical flow of the obtained two-dimensional moving image by calculating the moving direction and the moving ratio of the motion with respect to the point at infinity for the frame group having the same position, and the generated optical flow Are divided into continuous area portions and extracted as partial two-dimensional images, and the partial two-dimensional images are extracted from the ratio of the movement of each frame in the partial two-dimensional image with respect to the point at infinity. The moving speed of the entire two-dimensional image is calculated as a normalized speed, the appearance position, appearance time, and existence time of the partial two-dimensional image are extracted, and the transmission is performed. Means for transferring to the transmission means display information consisting of the partial two-dimensional image, vector information comprising the moving direction and the normalized speed, and the appearance position, appearance time, and existence time, The two-dimensional moving image output means obtains, based on the transmitted display information, a pasting position and a size of the partial two-dimensional image for each frame to be output, and the obtained pasting position. An image processing system comprising: a means for pasting the partial two-dimensional image to each of the frames with a size and outputting the pasted frames.
【請求項8】 ビデオカメラ、またはビデオ再生機から
三次元動画像または三次元モデルを表示するための表示
情報を取得する三次元動画像・三次元モデル表示情報取
得手段とその表示情報をネットワークを介して第二の画
像処理装置に伝送する伝送手段とを備えた第一の画像処
理装置と、前記伝送手段により伝送されてきた動画像の
表示情報を受信する手段とその受信した表示情報を基に
三次元動画像または三次元モデルを出力する三次元動画
像・三次元モデル出力手段とを備えた第二の画像処理装
置とを有する画像処理システムであって、 前記三次元動画像・三次元モデル表示情報取得手段は、
ビデオカメラ、またはビデオ再生機から取得された二次
元動画像をフレーム毎に読み込み格納するフレームメモ
リと、 前記フレームメモリに格納された各フレームの動きの無
限遠点の位置を求め、前記動きの無限遠点の位置が同一
であるフレーム群に対し、前記動きの無限遠点に対する
移動方向と移動の割合を求めていき、取得された二次元
動画像のオプティカルフローを生成する生成手段と、 前記生成されたオプティカルフローの連続している領域
部分にそれぞれ分割して部分的な二次元画像としてそれ
ぞれ抽出していき、各フレームの前記部分的な二次元画
像における動きの無限遠点に対する移動の割合から前記
部分的な二次元画像全体の移動速度を規格化速度として
算出し、前記伝送手段に前記部分的な二次元画像と、そ
の移動方向と規格化速度とから成るベクトル情報と、そ
の出現位置と、動きの無限遠点とからなる表示情報を伝
送手段に転送する手段とを備え、 前記三次元動画像・三次元モデル出力手段は、前記伝送
された前記表示情報を基に、前記各二次元画像の奥行情
報を求め、前記各二次元画像の構成部品を種別認識し、
その種別認識された各構成部品に対応した三次元部品モ
デルを前記奥行情報を基にそれぞれ配置していくことで
三次元モデルを生成し、その三次元モデルを基に三次元
動画像を表示したり、または三次元モデルそのまま表示
する手段とからなることを特徴とする画像処理システ
ム。
8. A three-dimensional moving image / three-dimensional model display information acquiring means for acquiring display information for displaying a three-dimensional moving image or a three-dimensional model from a video camera or a video player, and a network for transmitting the display information. A first image processing apparatus having transmission means for transmitting to a second image processing apparatus via the first image processing apparatus; a means for receiving display information of a moving image transmitted by the transmission means; And a second image processing apparatus having a three-dimensional video / three-dimensional model output unit that outputs a three-dimensional video or three-dimensional model to the three-dimensional video / three-dimensional model. The model display information acquisition means is:
A frame memory for reading and storing a two-dimensional moving image obtained from a video camera or a video player for each frame, and obtaining a position of an infinity point of a motion of each frame stored in the frame memory; Generating means for obtaining a moving direction and a moving ratio of the movement with respect to the infinite point of the movement with respect to a frame group in which the position of the far point is the same, and generating an optical flow of the obtained two-dimensional moving image; The optical flow is divided into continuous area portions and extracted as partial two-dimensional images, and the movement rate of each frame in the partial two-dimensional image relative to the point at infinity is calculated as follows. The moving speed of the whole of the partial two-dimensional image is calculated as a normalized speed, and the transmitting means transmits the partial two-dimensional image and the moving direction thereof. Means for transferring display information consisting of vector information consisting of normalized speed, its appearance position, and the point at infinity of movement to a transmission means, the three-dimensional video / three-dimensional model output means, Based on the transmitted display information, determine the depth information of each of the two-dimensional images, type recognition of the components of each of the two-dimensional images,
A three-dimensional model is generated by arranging a three-dimensional part model corresponding to each of the component parts whose type is recognized based on the depth information, and displaying a three-dimensional moving image based on the three-dimensional model. And a means for displaying the three-dimensional model as it is.
【請求項9】 二次元または三次元の画像を表示するた
めの情報を取得し、その情報をネットワークを介して第
二の画像処理装置に伝送する画像伝送手段とを備えた第
一の画像処理装置と、前記画像伝送手段により伝送され
てきた画像を出力する第二の画像処理装置とを有する画
像処理システムであって、 前記第一の画像処理装置は、伝送する画像に対して行う
伝送前のデータ処理及び、伝送後のデータ処理をシミュ
レートする手段と、 前記シミュレートした結果である予想出力画像と伝送前
のデータ処理を行う前の原画像との差分を取り、その誤
差信号を取得する手段と、 前記取得した誤差信号に対して補正信号を取得する手段
と、 前記取得された補正信号と伝送前のデータ処理を行った
画像信号とを伝送する手段とを備え、 前記第二の画像処理装置は、伝送された画像信号に対し
て伝送後のデータ処理を行う手段と、 前記伝送後のデータ処理後の画像信号に前記伝送された
補正信号を合成して出力する手段とを備えたことを特徴
とする画像処理システム。
9. A first image processing apparatus comprising: an image transmission unit that acquires information for displaying a two-dimensional or three-dimensional image and transmits the information to a second image processing device via a network. An image processing system comprising: a device; and a second image processing device that outputs an image transmitted by the image transmission unit, wherein the first image processing device performs transmission on an image to be transmitted. Means for simulating data processing and data processing after transmission, and obtaining a difference between an expected output image as a result of the simulation and an original image before performing data processing before transmission and obtaining an error signal thereof Means for acquiring a correction signal for the acquired error signal, and means for transmitting the acquired correction signal and an image signal that has been subjected to data processing before transmission, the second The image processing apparatus includes means for performing post-transmission data processing on the transmitted image signal, and means for combining the transmitted correction signal with the transmitted image signal after data transmission and outputting the combined signal. An image processing system characterized in that:
JP9055314A 1997-03-10 1997-03-10 Image processing system Pending JPH10255071A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9055314A JPH10255071A (en) 1997-03-10 1997-03-10 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9055314A JPH10255071A (en) 1997-03-10 1997-03-10 Image processing system

Publications (1)

Publication Number Publication Date
JPH10255071A true JPH10255071A (en) 1998-09-25

Family

ID=12995107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9055314A Pending JPH10255071A (en) 1997-03-10 1997-03-10 Image processing system

Country Status (1)

Country Link
JP (1) JPH10255071A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004008744A1 (en) * 2002-07-12 2004-01-22 Iwane Laboratories, Ltd. Road and other flat object video plan-view developing image processing method, reverse developing image conversion processing method, plan-view developing image processing device, and reverse developing image conversion processing device
JP2005056295A (en) * 2003-08-07 2005-03-03 Iwane Kenkyusho:Kk 360-degree image conversion processing apparatus
JP2006172170A (en) * 2004-12-16 2006-06-29 Kazuo Iwane Coordinate system separation recording/reproduction apparatus
WO2014077170A1 (en) * 2012-11-19 2014-05-22 Ricoh Company, Ltd. Moving object recognizer
WO2014199929A1 (en) * 2013-06-11 2014-12-18 ヤマハ発動機株式会社 Monocular-motion-stereo distance estimation method, and monocular-motion-stereo distance estimation apparatus
JP2016110312A (en) * 2014-12-04 2016-06-20 株式会社東芝 Image processing method, and image processor and program
WO2019181284A1 (en) * 2018-03-23 2019-09-26 ソニー株式会社 Information processing device, movement device, method, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004008744A1 (en) * 2002-07-12 2004-01-22 Iwane Laboratories, Ltd. Road and other flat object video plan-view developing image processing method, reverse developing image conversion processing method, plan-view developing image processing device, and reverse developing image conversion processing device
JP2005056295A (en) * 2003-08-07 2005-03-03 Iwane Kenkyusho:Kk 360-degree image conversion processing apparatus
JP2006172170A (en) * 2004-12-16 2006-06-29 Kazuo Iwane Coordinate system separation recording/reproduction apparatus
JP4502795B2 (en) * 2004-12-16 2010-07-14 株式会社岩根研究所 Coordinate system recording / reproducing device
WO2014077170A1 (en) * 2012-11-19 2014-05-22 Ricoh Company, Ltd. Moving object recognizer
JP2014115978A (en) * 2012-11-19 2014-06-26 Ricoh Co Ltd Mobile object recognition device, notification apparatus using the device, mobile object recognition program for use in the mobile object recognition device, and mobile object with the mobile object recognition device
US9607400B2 (en) 2012-11-19 2017-03-28 Ricoh Company, Ltd. Moving object recognizer
WO2014199929A1 (en) * 2013-06-11 2014-12-18 ヤマハ発動機株式会社 Monocular-motion-stereo distance estimation method, and monocular-motion-stereo distance estimation apparatus
JP2016110312A (en) * 2014-12-04 2016-06-20 株式会社東芝 Image processing method, and image processor and program
WO2019181284A1 (en) * 2018-03-23 2019-09-26 ソニー株式会社 Information processing device, movement device, method, and program
CN112119282A (en) * 2018-03-23 2020-12-22 索尼公司 Information processing apparatus, mobile apparatus, method, and program

Similar Documents

Publication Publication Date Title
US10547822B2 (en) Image processing apparatus and method to generate high-definition viewpoint interpolation image
US20200051269A1 (en) Hybrid depth sensing pipeline
JP4297197B2 (en) Calibration processing apparatus, calibration processing method, and computer program
US10789765B2 (en) Three-dimensional reconstruction method
EP2328125B1 (en) Image splicing method and device
US6864903B2 (en) Internet system for virtual telepresence
US8928736B2 (en) Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program
JP7058277B2 (en) Reconstruction method and reconfiguration device
EP3367334B1 (en) Depth estimation method and depth estimation apparatus of multi-view images
WO2014069247A1 (en) Image processing device, image processing method, and program
JPH11331874A (en) Image processing unit, depth image measuring device, composite reality presenting system, image processing method, depth image measuring method, composite reality presenting method and storage medium for program
WO2019124248A1 (en) Image processing device, content processing device, content processing system, and image processing method
WO2019230813A1 (en) Three-dimensional reconstruction method and three-dimensional reconstruction device
US20110096169A1 (en) Camera tracking system and method, and live video compositing system
JP2009205193A (en) Image processing apparatus, method, and program
CN114298946B (en) Deep learning point cloud completion method for enhancing frame details
EP3832600A1 (en) Image processing device and three-dimensional measuring system
JPH10255071A (en) Image processing system
WO2020184174A1 (en) Image processing device and image processing method
JPH11250273A (en) Image synthesizing device
WO2021149509A1 (en) Imaging device, imaging method, and program
US11847784B2 (en) Image processing apparatus, head-mounted display, and method for acquiring space information
JP2008203991A (en) Image processor
CN107478227B (en) Interactive large space positioning algorithm
CN112615993A (en) Depth information acquisition method, binocular camera module, storage medium and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070417