JP2000163596A - Animation processor - Google Patents
Animation processorInfo
- Publication number
- JP2000163596A JP2000163596A JP10340609A JP34060998A JP2000163596A JP 2000163596 A JP2000163596 A JP 2000163596A JP 10340609 A JP10340609 A JP 10340609A JP 34060998 A JP34060998 A JP 34060998A JP 2000163596 A JP2000163596 A JP 2000163596A
- Authority
- JP
- Japan
- Prior art keywords
- color
- data
- pixel
- pixels
- marker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は動画処理装置に関す
る。The present invention relates to a moving image processing device.
【0002】[0002]
【従来の技術】画像処理分野においては、フィルタリン
グやパターンマッチング等によるノイズ除去や画像補
正、あるいは雑多な画像情報が混在している中で所望の
画像情報のみを効率的に抽出する画像抽出等の技術が種
々開発されている。画像データは一般に処理対象データ
量が膨大となるため、入手が容易なハードウェアの処理
能力を考慮して、従来は静止画像の分野への適用が専ら
検討される形となっていた。しかし、近年はデジタル画
像技術の発達がめざましく、安価で高性能なコンピュー
タが普及したことも相俟って状況は一変し、動画像処理
技術に対する関心が各分野にて急速に高まりつつある。
その応用分野は極めて広いが、例えばデジタル放送をは
じめ、コンピュータグラフィック(CG)、モーション
キャプチャシステム、あるいは工業検査技術などへの適
用を例示することができる。2. Description of the Related Art In the field of image processing, there are techniques such as noise removal and image correction by filtering and pattern matching, and image extraction for efficiently extracting only desired image information in a mixture of various image information. Various technologies have been developed. Since the amount of image data to be processed is generally enormous, application to the field of still images has conventionally been considered exclusively in consideration of the processing capability of easily available hardware. However, in recent years, digital image technology has been remarkably developed, and the situation has changed drastically in conjunction with the spread of inexpensive and high-performance computers, and interest in moving image processing technology is rapidly increasing in each field.
Although its application field is extremely wide, it can be applied to, for example, digital broadcasting, computer graphics (CG), motion capture systems, and industrial inspection techniques.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、動画像
処理への関心や要望の高まりがあまりに急であり、ま
た、従前の画像処理技術の蓄積が主に静止画像の分野で
なされていたことから、画像補正や画像抽出等の具体的
な手法については、静止画像処理の分野と比較して未だ
立ち遅れていることは否めない。特に、フルカラー画像
や多階調グレースケール画像の場合、モデル画像と認識
対象画像との照合によるパターンマッチングを直接的に
行うことは、ソフトウェア的な手法を用いやすい静止画
像の分野ではある程度可能であっても、動画フレームを
多数含み、しかもリアルタイム処理が要求されることが
多い動画像の処理では、大型コンピュータ等を用いない
限り実現不能であると言わざるを得ない。However, interest in and demand for moving image processing has grown so rapidly that the accumulation of conventional image processing technology has been mainly performed in the field of still images. It cannot be denied that specific techniques such as image correction and image extraction are still behind in the field of still image processing. In particular, in the case of a full-color image or a multi-tone grayscale image, it is possible to some extent to directly perform pattern matching by comparing a model image with a recognition target image in the field of still images in which a software method is easily used. However, it cannot be said that processing of a moving image including a large number of moving image frames and requiring real-time processing is often impossible unless a large-sized computer or the like is used.
【0004】なお、動画データが二値画像データである
場合は、例えば各動画フレームのデータを記憶装置に取
り込んで、そのフレーム毎に、認識対象画像に対し簡略
な二値画像パターンの部分的なマッチングを繰り返すこ
とにより、処理時間を短縮する手法も、ソフトウェア的
なベースにおいては検討されている。カラー動画の場
合、特定の色のみに着目した二値画像とみなせば、これ
と同様の手法を適用することが可能と思われる。しかし
ながら、これには次のような欠点があり、用途も限定さ
れる。 (1)2以上の色が混在した画像を直接的に認識できな
い。着目色を変更しながら二値のマッチング処理を繰り
返すことも考えられるが、データ処理回数が増えるばか
りでなく、色の異なる領域同士の相対的な位置関係(例
えば赤色の領域と青色の領域とが常に隣接しているかど
うかなど)に関する情報が全く得られない。 (2)動画撮影あるいは動画再生しながらのリアルタイ
ム処理が困難である。If the moving image data is binary image data, for example, the data of each moving image frame is fetched into a storage device, and a partial binary image pattern of a simple binary image pattern is stored for each frame. A technique for shortening the processing time by repeating matching is also being studied on a software basis. In the case of a color moving image, if it is considered that the image is a binary image focusing only on a specific color, it seems that a similar method can be applied. However, this has the following disadvantages, and its use is also limited. (1) An image in which two or more colors are mixed cannot be directly recognized. It is conceivable to repeat the binary matching process while changing the color of interest, but this not only increases the number of data processing operations but also the relative positional relationship between regions having different colors (for example, the red region and the blue region Information about whether they are always adjacent to each other). (2) Real-time processing while capturing or reproducing moving images is difficult.
【0005】他方、目的によっては、例えばカラー画像
の中から、目的とする少数の色の画像のみを抽出したい
というようなことも、しばしば発生しうる。具体例を挙
げれば、モーションキャプチャシステムにおいて、被写
体に取り付けたカラーマーカを検出するような場合であ
る。しかし、カラー画像を扱うモーションキャプチャシ
ステムでは、カラー画像データの情報量がグレースケー
ル画像とは桁違いに大きいため、相当の容量のメモリと
高速のCPUが必要となって、システムが大規模化・高
価格化するため、簡単には導入しにくい問題がある。特
にカラー画像による複数台のカメラを用いるシステムを
導入しようとすれば、必要なメモリ量は膨大となり、シ
ステムの複雑化・高価格化の問題が顕著となってその普
及のネックとなっている。また、被写体の体に付けるマ
ーカの色は、異なる位置のマーカ同士の識別を容易にす
るために、色度図上の隔たりがある程度大きいもの同士
を採用しなければならないので色数が限られ、結果とし
てマーカ数も精々15色程度に限定されてしまう欠点が
ある。[0005] On the other hand, depending on the purpose, for example, it is often the case that it is desired to extract only a desired number of colors from a color image. A specific example is a case where a color marker attached to a subject is detected in a motion capture system. However, in a motion capture system that handles color images, the amount of information of color image data is orders of magnitude larger than that of a grayscale image, so a considerable amount of memory and a high-speed CPU are required, and the system becomes larger. There is a problem that it is difficult to introduce easily because of the high price. In particular, if an attempt is made to introduce a system using a plurality of cameras for color images, the amount of required memory becomes enormous, and the problem of system complexity and high price becomes remarkable, which has become a bottleneck for its widespread use. In addition, the colors of the markers attached to the body of the subject are limited in the number of colors because the markers on the chromaticity diagram must have a certain degree of separation in order to facilitate identification of markers at different positions. As a result, there is a disadvantage that the number of markers is limited to at most about 15 colors.
【0006】本発明の課題は、簡略なパターンマッチ
ング手法を用いつつ、2以上の色が混在した画像を直接
的にかつ精度高く認識可能な動画処理装置を提供するこ
と、において、特有のハードウェア構成を用いるこ
とにより処理速度を飛躍的に高め、リアルタイム処理に
も容易に対応できる動画処理装置を提供すること、モ
ーションキャプチャシステムに適用した場合に、使用で
きるマーカの数を大幅に増大できる動画処理装置を提供
すること、にある。An object of the present invention is to provide a moving picture processing apparatus capable of directly and accurately recognizing an image in which two or more colors are mixed while using a simple pattern matching technique. To provide a video processing device that can dramatically increase the processing speed by using the configuration and easily cope with real-time processing. When applied to a motion capture system, the number of usable markers can be greatly increased Providing a device.
【0007】[0007]
【課題を解決するための手段及び作用・効果】上記の課
題を解決するために、本発明の動画処理装置の第一の構
成(請求項1)は、色彩及び/又は濃度(以下、両者を
総称して広義に「色」という)の出力設定が互いに異な
る3種類以上の画素が混在したカラー又は濃淡階調の動
画像の、各フレームの画像データに対し、予め定められ
た形状及び大きさの仮想的なマスク領域を、その画像デ
ータの画素平面上において移動可能に設定するマスク領
域設定手段と、各画素に対し設定される3種類以上の色
のうち、2以上のものを判別指定色として同時に指定
し、また、パターン条件として、各判別指定色の画素が
マスク領域内に共存していることを必須とし、かつ判別
指定色画素のマスク領域内における個数、判別指定色画
素のマスク領域内における位置、及び判別指定色画素が
複数含まれる場合においてはそれらの相対的な配置関
係、の少なくとも1つを含むものを予め定め、画素平面
上に設定されたマスク領域において各判別指定色の画素
が、そのパターン条件に適合しているか否かを判別する
パターン適合判別手段と、設定されたマスク領域と所定
の位置関係を満足する1又は複数の画素を対象画素とし
て、その対象画素に対しパターン適合判別手段による判
別結果に応じた特定の出力状態を規定する対象画素デー
タを生成する対象画素データ生成手段と、を含むことを
特徴とする。Means for Solving the Problems and Action / Effects In order to solve the above-mentioned problems, a first structure (claim 1) of the moving image processing apparatus according to the present invention comprises a color and / or density (hereinafter, referred to as both). A predetermined shape and size of image data of each frame of a color or grayscale moving image in which three or more types of pixels having different output settings (generally referred to as “color”) are different from each other are mixed. Area setting means for setting the virtual mask area to be movable on the pixel plane of the image data, and determining two or more colors among three or more colors set for each pixel by designating a specified color As the pattern condition, it is essential that the pixels of the respective designated colors coexist in the mask area, and the number of the designated designated color pixels in the mask area, the mask area of the designated designated color pixels Within In the case where a plurality of pixels of the specified color are included, a pixel including at least one of the relative arrangement relations is predetermined, and the pixels of each specified color are set in the mask area set on the pixel plane. Is a pattern matching determining means for determining whether or not the pattern condition is satisfied. One or a plurality of pixels satisfying a predetermined positional relationship with a set mask area are set as target pixels, and a pattern A target pixel data generating unit that generates target pixel data that defines a specific output state according to a result of the determination by the matching determining unit.
【0008】上記の装置構成では、画素平面上に移動可
能に設定されるマスク領域に対し、2以上の判別指定色
を同時に指定し、パターン条件として、各判別指定色の
画素がマスク領域内に共存していることを必須として定
め、画素平面上に設定されたマスク領域において各判別
指定色の画素が、そのパターン条件に適合しているか否
かを判別するようにした。これにより、マスク内におい
て2以上の色の画素を同時検出する形でパターンマッチ
ング(適合)が行われるので、2以上の色が混在した画
像を直接的にかつ精度高く認識可能となる。また、判別
の条件は、判別指定色画素の個数と位置、及び判別指定
色画素が複数含まれる場合においてはそれらの相対的な
配置関係、の少なくとも1つを含むものが使用されるの
で処理内容が簡略化でき、リアルタイム処理への適用も
容易に図ることができる。なお、画素の個数や位置ある
いは相対位置は、同一色の画素のみに着目して検出を行
ってもよいし、色の異なる画素同士の合計個数や相対位
置等を検出するようにしてもよい。In the above-described apparatus configuration, two or more discriminating designated colors are simultaneously designated for a mask area set to be movable on a pixel plane, and a pixel of each discriminating designated color is included in the mask area as a pattern condition. The coexistence is defined as essential, and it is determined whether or not the pixel of each specified color in the mask area set on the pixel plane conforms to the pattern condition. Thereby, pattern matching (adaptation) is performed in such a manner that pixels of two or more colors are simultaneously detected in the mask, so that an image in which two or more colors are mixed can be directly and accurately recognized. In addition, since the discrimination conditions include at least one of the number and position of the discrimination-designated color pixels and, when a plurality of discrimination-designated color pixels are included, their relative arrangement relations, the processing contents Can be simplified, and application to real-time processing can be easily achieved. The number, position, or relative position of pixels may be detected by focusing only on pixels of the same color, or the total number, relative position, or the like of pixels having different colors may be detected.
【0009】また、本発明の動画処理装置の第二の構成
(請求項3)は、原動画映像信号のデコード処理を通じ
て各映像信号に含まれる色情報を特定数の色グループに
統合・集約することにより、デコード前の映像信号より
もデータ数の少ない色統合画像データの形で、色彩及び
/又は濃度(以下、両者を総称して広義に「色」とい
う)の出力設定が互いに異なる3種類以上の画素が混在
したカラー又は濃淡階調の動画像の、各フレームの画像
データを生成する色統合画像データ生成手段と、その画
像データに対し、予め定められた形状及び大きさの仮想
的なマスク領域を、その画像データの画素平面上におい
て移動可能に設定するマスク領域設定手段と、各画素に
対し設定される3種類以上の色のうち、1又は2以上の
ものを判別指定色として指定し、また、パターン条件と
して、判別指定色画素のマスク領域内における個数、判
別指定色画素のマスク領域内における位置、及び判別指
定色画素が複数含まれる場合においてはそれらの相対的
な配置関係、の少なくとも1つを含むものを予め定め、
画素平面上に設定されたマスク領域において各判別指定
色の画素が、そのパターン条件に適合しているか否かを
判別するパターン適合判別手段と、設定されたマスク領
域と所定の位置関係を満足する1又は複数の画素を対象
画素として、その対象画素に対しパターン適合判別手段
による判別結果に応じた特定の出力状態を規定する対象
画素データを生成する対象画素データ生成手段と、を含
むことを特徴とする。A second configuration of the moving picture processing apparatus of the present invention (claim 3) integrates and aggregates color information included in each video signal into a specific number of color groups through decoding processing of an original moving picture video signal. Thus, in the form of color-integrated image data having a smaller number of data than the video signal before decoding, three types of output settings of color and / or density (hereinafter, collectively referred to as “color” in a broad sense) different from each other A color integrated image data generating means for generating image data of each frame of a moving image of a color or shade of gradation in which the above pixels are mixed, and a virtual shape having a predetermined shape and size for the image data; A mask area setting means for setting a mask area so as to be movable on a pixel plane of the image data; and determining one or more of three or more colors set for each pixel as a discrimination designated color. In addition, as pattern conditions, the number of discrimination-designated color pixels in the mask area, the position of the discrimination-designated color pixel in the mask area, and, when a plurality of discrimination-designated color pixels are included, their relative arrangement A relationship including at least one of:
A pattern matching judging unit for judging whether or not a pixel of each discrimination designated color conforms to the pattern condition in a mask area set on the pixel plane; and a predetermined positional relationship with the set mask area is satisfied. Target pixel data generation means for generating one or more pixels as target pixels and generating target pixel data for defining a specific output state according to a result of the determination by the pattern matching determination means for the target pixels. And
【0010】例えば、フルカラー画像や多階調濃淡画像
において原画像データをそのまま用いた場合、判別指定
色に厳密に一致する画素はむしろ稀であり、現実的に意
味のある処理を行うには、判別指定色の数を極端に増や
さなければならなくなる。他方、判別指定色と実際の画
素の設定値との間での濃度や色彩の値の差をその都度演
算して、閾値と比較する処理を行うことも考えられる
が、いずれにしてもシステムの大規模化・高価格化と、
処理速度の低下は避けがたくなる。しかしながら、上記
本発明の第二の構成では、例えばRGB映像信号の膨大
な色情報を、特定数の色グループに統合・集約すること
で情報量を劇的に少なくすることができ、全体のシステ
ムが大幅に簡素化され、上記の問題が一挙に解決され
る。For example, when the original image data is used as it is in a full-color image or a multi-tone grayscale image, pixels that exactly match the discrimination designation color are rather rare. The number of discrimination designated colors must be extremely increased. On the other hand, it is conceivable to perform a process of calculating the difference between the density or color value between the discrimination designated color and the actual pixel setting value each time and comparing the difference with the threshold value. Large scale and high price,
A reduction in processing speed is unavoidable. However, the second configuration of the present invention can dramatically reduce the amount of information by integrating and aggregating enormous color information of, for example, RGB video signals into a specific number of color groups. Is greatly simplified, and the above problem is solved at once.
【0011】次に、対象画素データ生成手段は、判別指
定色の画素の配列がパターン条件に適合すると判別され
た場合には、対象画素の出力状態を第一の出力状態に設
定するデータを生成する一方、非適合と判別された場合
には、対象画素の出力状態を第一の出力状態とは異なる
第二の出力状態に設定するデータを生成するとすること
ができる。この構成は、パターン条件に適合する画素集
合を、二値の画像領域として認識したい場合に特に有効
である。Next, the target pixel data generating means generates data for setting the output state of the target pixel to the first output state when it is determined that the arrangement of the pixels of the specified color matches the pattern condition. On the other hand, if it is determined that the pixel is non-conforming, it is possible to generate data for setting the output state of the target pixel to a second output state different from the first output state. This configuration is particularly effective when it is desired to recognize a pixel set that meets the pattern condition as a binary image area.
【0012】また、本発明の動画処理装置では、マスク
領域を画素平面上で走査するマスク領域走査手段と、各
走査位置のマスク領域に対応する対象画素のうち、パタ
ーン条件に適合と判別された画素(以下、適合画素とい
う)を抽出する適合画素抽出手段とを設けることができ
る。これにより、パターン条件に適合する画素からなる
領域を容易に抽出できる。具体的には、抽出された適合
画素のデータを、適合画素の集合として表される抽出画
像のデータとして出力する抽出画像データ出力手段を設
ける形とする。なお、色の違い、あるいは色の組み合わ
せの違い等により、2種以上の画像領域を互いに区別し
た形で抽出したい場合には、それぞれの種別を特定する
ための情報を適合画素データに付加する形で生成すれば
よい。Further, in the moving picture processing apparatus of the present invention, the mask area scanning means for scanning the mask area on the pixel plane and the target pixel corresponding to the mask area at each scanning position are determined to be suitable for the pattern condition. A suitable pixel extracting means for extracting a pixel (hereinafter, referred to as a suitable pixel) can be provided. This makes it possible to easily extract a region composed of pixels that meet the pattern condition. More specifically, an extracted image data output unit that outputs the data of the extracted suitable pixels as data of an extracted image represented as a set of suitable pixels is provided. If it is desired to extract two or more types of image areas in a form that is distinguished from each other due to a difference in color or a combination of colors, information for specifying each type is added to the matching pixel data. Can be generated by:
【0013】また、抽出された適合画素の画素平面上の
位置情報に基づいて、適合画素の集合として表される抽
出画像の位置データを生成する抽出画像位置データ生成
手段を設けることもできる。これによれば、動画中の特
定のオブジェクト(例えば後述するカラーマーカであ
る)を抽出画像として抽出し、その位置データを生成す
ることで、動画中でのオブジェクトの動きを容易にデー
タ化することが可能となる。An extracted image position data generating means for generating position data of an extracted image represented as a set of suitable pixels based on the position information of the extracted suitable pixels on the pixel plane may be provided. According to this, a specific object (for example, a color marker to be described later) in a moving image is extracted as an extracted image and its position data is generated, so that the movement of the object in the moving image can be easily converted into data. Becomes possible.
【0014】その最も有効な適用例の一つとしてモーシ
ョンキャプチャシステムを例示できる。これに対応する
動画処理装置は、具体的には以下の要件を有するものと
なる。すなわち、被写体にカラーマーカを取り付ける
か、又はその被写体の一部をカラーマーカとして定めた
状態において、その被写体の動作を撮影するカラーカメ
ラを備え、パターン適合判別手段は、カラーマーカの画
像情報を抽出するために、そのカラーマーカに含まれる
1又は2以上の色を判別指定色として、マスク領域内に
おいてその判別指定色の画素の配列がパターン条件に適
合しているか否かを判別するものとされており、適合画
素抽出手段は、適合画素として、カラーマーカの画像
(以下、マーカ画像という)の構成画素(以下、マーカ
画素ともいう)の少なくとも一部を抽出するものであ
り、抽出画像位置データ生成手段は、抽出されたマーカ
画素の画素平面上の位置情報に基づいて、マーカ画素の
集合として表されるマーカ画像の位置データを生成する
マーカ位置データ生成手段であり、さらに、各動画フレ
ーム毎に生成されたマーカ画像の位置データを、被写体
の動作データとして出力する動作データ出力手段を含
む。これにより、被写体に取り付けたカラーマーカの位
置から動作データを容易に作成することができる。One of the most effective applications is a motion capture system. The corresponding moving image processing device specifically has the following requirements. That is, a color camera is provided for photographing the movement of the subject in a state where a color marker is attached to the subject or a part of the subject is defined as the color marker, and the pattern matching determination unit extracts the image information of the color marker. Therefore, one or more colors included in the color marker are set as the discrimination designated colors, and it is decided whether or not the arrangement of pixels of the discrimination designated color in the mask area conforms to the pattern condition. The compatible pixel extracting means extracts at least a part of constituent pixels (hereinafter, also referred to as marker pixels) of a color marker image (hereinafter, referred to as a marker image) as suitable pixels, and extracts extracted image position data. The generation unit is configured to generate a marker image represented as a set of marker pixels based on position information of the extracted marker pixels on a pixel plane. A marker position data generating means for generating position data further includes position data of the marker images generated for each video frame, the motion data output means for outputting the operation data of the subject. This makes it possible to easily create operation data from the position of the color marker attached to the subject.
【0015】次に、本発明の動画処理装置の第三の構成
(請求項9)は、1個のカラーマーカの表面が、2以上
の異なるマーカ色にて着色された複数領域に区分された
ものを用い、被写体にそのカラーマーカを取り付ける
か、又はその被写体の一部をカラーマーカとして定めた
状態において、その被写体の動作を撮影するカラーカメ
ラと、撮影された被写体の動画像の、各フレームの画像
データにおいて、マーカ色に対応する特定の2以上の色
が混在して存在する領域をマーカ画像として特定するマ
ーカ画像特定手段と、その特定されたマーカ画像を構成
するマーカ画素の画素平面上の位置情報に基づいて、マ
ーカ画素の集合として表されるマーカ画像の位置データ
を生成するマーカ位置データ生成手段と、各動画フレー
ム毎に生成されたマーカ画像の位置データを、被写体の
動作データとして出力する動作データ出力手段と、を備
えたことを特徴とする。Next, according to a third configuration of the moving image processing apparatus of the present invention (claim 9), the surface of one color marker is divided into a plurality of areas colored with two or more different marker colors. A color camera for photographing the motion of the subject and a frame of a moving image of the photographed subject in a state where the color marker is attached to the subject or a part of the subject is defined as a color marker. A marker image specifying means for specifying, as a marker image, an area in which two or more specific colors corresponding to the marker colors are present in the image data of (a), a pixel plane of the marker pixels constituting the specified marker image Marker position data generating means for generating position data of a marker image represented as a set of marker pixels based on the position information of The position data of the mosquito image, characterized in that and an operation data output means for outputting the operation data of the subject.
【0016】この構成も、被写体の動作データを得るた
めのモーションキャプチャシステムとして有効に活用で
きる。そして、被写体の体に付けるマーカの色として、
1個のカラーマーカの表面が、2以上の異なるマーカ色
にて着色された複数領域に区分されたものを用い、マー
カ色に対応する特定の2以上の色が混在して存在する領
域をマーカ画像として特定するようにした。その結果、
色の組み合わせの異なるマーカ同士は、一部の領域が同
色に着色されていたとしても、異なるマーカとして識別
されるので、従来のモーションキャプチャシステムと比
較してマーカ数も大幅に増やすことが可能となる。例え
ば、15色を識別色として採用する場合、2色を組み合
わせたマーカでは最大では28種類、3色を組み合わせ
たマーカでは最大で48種類ものマーカの識別が可能と
なる。This configuration can also be effectively used as a motion capture system for obtaining motion data of a subject. And as the color of the marker attached to the body of the subject,
The surface of one color marker is divided into a plurality of regions colored by two or more different marker colors, and a region where two or more specific colors corresponding to the marker colors are present is used as a marker. Specified as an image. as a result,
Markers with different color combinations are identified as different markers even if some areas are colored in the same color. Become. For example, when 15 colors are used as identification colors, a maximum of 28 markers can be identified with a combination of two colors, and a maximum of 48 markers can be identified with a combination of three colors.
【0017】この場合も、原動画映像信号のデコード処
理を通じて各映像信号に含まれる色情報を特定数の色グ
ループに統合・集約することにより、デコード前の映像
信号よりもデータ数の少ない色統合画像データを生成す
る色統合画像データ生成手段を設けることができ、マー
カ画像特定手段は、色統合画像データにおいてマーカ画
像を特定するものとすることができる。例えば、色の数
を設定マーカ色と同数程度に集約統合することで、マー
カ識別に必要十分な量の情報を残して、あとのデータを
削減できるので、装置構成を大幅に簡略化でき、リアル
タイム処理への対応も容易となる。Also in this case, by integrating and aggregating the color information included in each video signal into a specific number of color groups through the decoding processing of the original moving image video signal, color integration with a smaller number of data than the video signal before decoding is performed. Color integrated image data generating means for generating image data can be provided, and the marker image specifying means can specify a marker image in the color integrated image data. For example, by consolidating and integrating the number of colors to the same number as the set marker colors, a sufficient amount of information necessary for marker identification can be left, and subsequent data can be reduced. It is easy to deal with processing.
【0018】また、上記第三の構成には、各フレームの
画像データに対し、予め定められた形状及び大きさの仮
想的なマスク領域を、その画像データの画素平面上にお
いて移動可能に設定するマスク領域設定手段と、各画素
に対し設定される複数の色のうち、1又は2以上のもの
をマーカ色に対する判別指定色として指定し、また、パ
ターン条件として、判別指定色画素のマスク領域内にお
ける個数、判別指定色画素のマスク領域内における位
置、及び判別指定色画素が複数含まれる場合においては
それらの相対的な配置関係、の少なくとも1つを含むも
のを予め定め、画素平面上に設定されたマスク領域にお
いて各判別指定色の画素が、そのパターン条件に適合し
ているか否かを判別するパターン適合判別手段と、マス
ク領域を画素平面上で走査するマスク領域走査手段と、
各走査位置のマスク領域に対応する対象画素のうち、パ
ターン条件に適合と判別された画素(以下、適合画素と
いう)を抽出する適合画素抽出手段とをを付加すること
ができる。この場合、マーカ位置データ生成手段は、そ
の抽出された適合画素の画素平面上の位置情報に基づい
てマーカ位置情報を生成するものとすることができる。
この構成では、第三の構成に第一の構成の機能が付加さ
れる形となり、複数色に塗り分けられたカラーマーカの
認識を、さらに高能率かつ高精度で行うことができるよ
うになる。In the third configuration, a virtual mask area having a predetermined shape and size is set movably on a pixel plane of the image data for each frame of image data. A mask area setting means for designating one or more colors among a plurality of colors set for each pixel as a discrimination designated color for a marker color; , A position including at least one of the number, the position of the discrimination designated color pixel in the mask area, and the relative arrangement relation between the discrimination designated color pixels when a plurality of discrimination designated color pixels are included, is set on the pixel plane. Pattern matching determining means for determining whether or not the pixels of each specified color in the mask area conform to the pattern condition; and setting the mask area on a pixel plane. A mask region scanning means for scanning,
It is possible to add a suitable pixel extracting means for extracting, from the target pixels corresponding to the mask area at each scanning position, a pixel determined to be suitable for the pattern condition (hereinafter referred to as a suitable pixel). In this case, the marker position data generating means may generate the marker position information based on the position information on the pixel plane of the extracted suitable pixel.
In this configuration, the function of the first configuration is added to the third configuration, and the recognition of the color marker painted in a plurality of colors can be performed with higher efficiency and higher accuracy.
【0019】以上の本発明の動画処理装置において、マ
スク領域設定手段は、マスク領域内の各画素に対応する
色データ格納メモリ部が画素転送の時系列順に配列され
るとともに、画素転送クロックに同期して、それら色デ
ータ格納メモリ部に対し、各画素の色データを配列上流
側から順送り的に転送・格納する転送制御機能を有した
転送制御機能付きメモリ回路部を含むものとして構成で
きる。これによれば、画素平面上でのマスクの設定及び
移動が、画素転送クロックに同期したパイプライン処理
によってハードウェア的になされるので、処理速度が飛
躍的に向上し、動画再生しながらあるいは動画撮影しな
がらのリアルタイム処理等も容易に実現できる。In the above-described moving image processing apparatus of the present invention, the mask area setting means includes a color data storage memory section corresponding to each pixel in the mask area arranged in chronological order of pixel transfer and synchronized with a pixel transfer clock. The memory circuit unit having a transfer control function having a transfer control function of sequentially transferring and storing the color data of each pixel from the upstream side of the array can be configured to the color data storage memory unit. According to this, the setting and movement of the mask on the pixel plane are performed in hardware by pipeline processing synchronized with the pixel transfer clock, so that the processing speed is dramatically improved, Real-time processing while shooting can be easily realized.
【0020】また、パターン適合判別手段は、設定され
たマスク領域内の各画素に対応して、該画素が判別指定
色に設定されているか否かが二値入力される色データ入
力端子を備え、それら色データ入力端子の入力状態の組
み合わせに一対一に対応する形で二値の判別結果を生成
・出力するハードウェアロジック判別回路を含むものと
して構成することができる。この構成によれば、パター
ン適合判別手段が、CPU等で構成された制御主体に負
担をかけないハードウェアロジックで構成されるので処
理速度が飛躍的に向上し、動画再生しながらあるいは動
画撮影しながらのリアルタイム処理等も容易に実現でき
る。なお、ハードウェアロジック判別回路は、例えば論
理回路あるいはプログラマブルロジックデバイス(PL
D)、さらにはルックアップテーブルメモリ等で構成で
きる。In addition, the pattern matching determining means has a color data input terminal corresponding to each pixel in the set mask area, for binaryly inputting whether or not the pixel is set to the specified color for determination. And a hardware logic determination circuit that generates and outputs a binary determination result in a one-to-one correspondence with a combination of the input states of the color data input terminals. According to this configuration, the pattern matching determination unit is configured by hardware logic that does not impose a burden on a control unit configured by a CPU or the like, so that the processing speed is dramatically improved, and the moving image is reproduced or the moving image is captured. Real-time processing and the like can be easily realized. The hardware logic determination circuit is, for example, a logic circuit or a programmable logic device (PL)
D), and furthermore, a look-up table memory or the like.
【0021】また、判別指定色として2種以上のものが
指定される場合、判別回路はその判別指定色に等しい数
だけ設けることができる。この場合、対象画素データ生
成手段は、各判別指定色の判別回路からの判別結果が二
値入力される複数の判別結果入力端子を備え、それら判
別結果入力端子の入力状態の組み合わせに一対一に対応
する形で、第一の出力状態及び第二の出力状態のいずれ
かを対象画素データとして出力するハードウェアロジッ
クデータ生成回路を含むものとして構成することができ
る。この構成によれば、対象画素データ生成手段が、C
PUに負担をかけないハードウェアロジックで構成され
るので処理速度が飛躍的に向上し、動画再生しながらあ
るいは動画撮影しながらのリアルタイム処理等も容易に
実現できる。When two or more types of designated colors are designated, the same number of distinguishing circuits as the designated colors can be provided. In this case, the target pixel data generating means includes a plurality of determination result input terminals to which the determination result from the determination circuit for each determination designation color is binary-input, and one-to-one corresponding to a combination of the input states of the determination result input terminals. In a corresponding manner, the present invention can be configured to include a hardware logic data generation circuit that outputs one of the first output state and the second output state as target pixel data. According to this configuration, the target pixel data generation unit sets C
The processing speed is drastically improved because of hardware logic that does not impose a load on the PU, and real-time processing or the like while reproducing a moving image or photographing a moving image can be easily realized.
【0022】次に、本発明の動画処理装置の第四の構成
(請求項15)は、色彩及び/又は濃度の出力設定状態
が互いに異なる2種類以上の画素が混在した動画像の、
各フレームの画像データに対し、予め定められた形状及
び大きさの仮想的なマスク領域を、その画像データの画
素平面上において移動可能に設定するマスク領域設定手
段と、画素に設定可能な出力設定状態のうち、1又は2
以上のものを判別指定状態として指定し、また、パター
ン条件として、判別指定状態画素のマスク領域内におけ
る個数、判別指定状態画素のマスク領域内における位
置、及び判別指定状態画素が複数含まれる場合において
はそれらの相対的な配置関係、の少なくとも1つを含む
ものを予め定め、設定されたマスク領域における判別指
定状態の画素が、予め定められたパターン条件に適合し
ているか否かを判別するパターン適合判別手段と、設定
されたマスク領域と所定の位置関係を満足する1又は複
数の画素を対象画素として、その対象画素に対しパター
ン適合判別手段による判別結果に応じた特定の出力状態
を規定する、対象画素データを生成する対象画素データ
生成手段とを含み、マスク領域設定手段は、マスク領域
内の各画素に対応する状態データ格納メモリ部が画素転
送の時系列順に配列されるとともに、画素転送クロック
に同期して、それら状態データ格納メモリ部に対し、各
画素の出力設定状態データを配列上流側から順送り的に
転送・格納する転送制御機能を有した転送制御機能付き
メモリ回路部を有し、パターン適合判別手段設定された
マスク領域内の各画素に対応して、該画素が判別指定状
態に設定されているか否かが二値入力される出力設定状
態データ入力端子を備え、それら出力設定状態データ入
力端子の入力状態の組み合わせに一対一に対応する形で
二値の判別結果を生成・出力するハードウェアロジック
判別回路を有することを特徴とする。Next, a fourth configuration of the moving picture processing apparatus according to the present invention (claim 15) is to provide a moving picture processing apparatus in which two or more types of pixels having different color and / or density output setting states are mixed.
Mask area setting means for setting a virtual mask area of a predetermined shape and size movably on a pixel plane of the image data for each frame of image data; 1 or 2 of the states
In the case where the above is designated as the discrimination designated state, and the pattern condition includes a plurality of discrimination designated state pixels in the mask area, the position of the discrimination designated state pixel in the mask area, and a plurality of discrimination designated state pixels, Are patterns including at least one of their relative arrangement relationships, and a pattern for determining whether or not a pixel in a determined masking state in a determined designation state conforms to a predetermined pattern condition. A matching determination unit, and a specific output state according to a determination result by the pattern matching determination unit with respect to one or a plurality of pixels satisfying a predetermined positional relationship with the set mask area as a target pixel; And target pixel data generating means for generating target pixel data, wherein the mask area setting means corresponds to each pixel in the mask area. The state data storage memory section is arranged in chronological order of pixel transfer, and the output setting state data of each pixel is sequentially transferred to the state data storage memory section from the arrangement upstream side in synchronization with the pixel transfer clock. A memory circuit unit having a transfer control function having a transfer control function for storing, and corresponding to each pixel in the mask area set by the pattern matching determination means, whether or not the pixel is set to a determination designation state Hardware logic discrimination that generates and outputs a binary decision result in a one-to-one correspondence to a combination of the input states of the output setting state data input terminals. It has a circuit.
【0023】この構成では、動画フレーム上に移動可能
に設定されるマスク領域に対し、判別指定色を1以上指
定し、パターン条件として、画素平面上に設定されたマ
スク領域において各判別指定色の画素が、そのパターン
条件に適合しているか否かを判別するようにした。さら
に、マスク領域設定手段は、前記した転送制御機能付き
メモリ回路部とハードウェアロジック判別回路とを主体
に構成されるので、従来のようにソフトウェア的なベー
スにより行っていた動画像におけるパターンマッチング
処理がハードウェア的に実現され、処理速度が飛躍的に
向上する結果、動画再生しながらあるいは動画撮影しな
がらのリアルタイム処理等も容易に実現できる。In this configuration, one or more discriminating designated colors are designated for a mask area set to be movable on a moving image frame, and as a pattern condition, each discriminating designated color in the masked area set on the pixel plane is specified. It is determined whether or not a pixel meets the pattern condition. Further, since the mask area setting means is mainly composed of the memory circuit section with the transfer control function and the hardware logic discriminating circuit, the pattern matching processing in the moving image, which has been conventionally performed on a software basis, is performed. As a result, the processing speed is dramatically improved, and as a result, real-time processing while reproducing a moving image or photographing a moving image can be easily realized.
【0024】また、本発明の動画処理装置には、カラー
映像信号を、そのデコード処理を通じて輝度の情報であ
る輝度情報と、色彩成分の情報である色彩情報とに分離
する情報分離手段と、その輝度情報により色彩情報を補
正する色彩情報補正手段とを設けることができる。この
場合、色統合画像データ生成手段は、その補正された色
彩情報を主体としてこれを特定数の色グループに統合・
集約することにより色統合画像データを生成するものと
することができる。これにより、前記したシステムの簡
素化とともに、光量変化の影響を受けにくいシステム構
成が実現される。The moving picture processing apparatus according to the present invention further comprises: an information separating means for separating a color video signal into luminance information as luminance information and color information as color component information through decoding processing; Color information correcting means for correcting the color information based on the luminance information can be provided. In this case, the color integrated image data generating means integrates the corrected color information into a specific number of color groups mainly.
Aggregation makes it possible to generate color integrated image data. Thereby, the system configuration is simplified and the system configuration is less likely to be affected by a change in light amount.
【0025】また、カラー映像信号をデジタル変換する
映像信号デジタル変換手段と、そのデジタル変換された
カラー映像信号を所定の時間間隔にて取り込むことによ
り、被写体の画像データを生成する画像データ生成手段
とを設けることができる。この場合、情報分離手段は、
画像データの画素の色彩情報に対しこれを単一の成分か
らなる輝度情報と、第一色彩成分と第二色彩成分との2
成分からなる色彩情報とに分離するものとされ、色統合
画像データ生成手段は、第一色彩成分情報と第二色彩成
分情報とをそれぞれ特定数のグループに分割した場合
の、それら第一色彩成分情報グループと第二色彩成分情
報グループとの各組合せと、統合後の色彩情報(以下、
統合後色彩情報という)との対応関係を記憶した色彩統
合用ルックアップテーブルメモリを備え、各画素につい
て、その第一色彩成分と第二色彩成分とが対応する統合
後色彩情報を色統合用ルックアップテーブルメモリから
字引的に読み出して、これをその画素の色彩データとす
るものとして構成することができる。この構成によれ
ば、カラー画像データの2つの色彩成分の統合処理を、
ルックアップテーブル(以下、LUTと略記する場合が
ある)メモリを用いて迅速に行うことができ、これによ
って演算に関与するデータ量が大幅に減少させることが
できるから、簡素な回路構成で動画処理を迅速に行うこ
とができるようになる。[0025] Also, video signal digital conversion means for digitally converting a color video signal, and image data generation means for generating image data of a subject by taking in the digitally converted color video signal at predetermined time intervals. Can be provided. In this case, the information separation means
With respect to the color information of the pixel of the image data, the color information is divided into luminance information composed of a single component, and a first color component and a second color component.
And color information composed of color components, and the color integrated image data generating means, when the first color component information and the second color component information are divided into a specific number of groups, respectively, Each combination of the information group and the second color component information group and the integrated color information (hereinafter, referred to as
And a color integration look-up table memory storing the correspondence relationship with the integrated color information. For each pixel, the integrated color information corresponding to the first color component and the second color component is stored in the color integration lookup table. It can be configured such that it is read out from the up-table memory in a character-by-character manner and is used as color data of the pixel. According to this configuration, the integration processing of the two color components of the color image data is performed by
This process can be performed quickly using a look-up table (hereinafter, sometimes abbreviated as LUT) memory, and the amount of data involved in the calculation can be greatly reduced. Can be done quickly.
【0026】具体的には、色彩情報補正手段は、統合後
色彩情報と輝度情報とをそれぞれ特定数のグループに分
割した場合の、それら統合後色彩情報グループと輝度情
報グループとの各組合せと、輝度補正後の色彩情報との
対応関係を記憶した補正用ルックアップテーブルメモリ
を備え、各画素について、その統合後色彩情報と輝度情
報とが対応する輝度補正後色彩情報を、その画素の補正
後色データとして補正用ルックアップテーブルメモリか
ら字引的に読み出すものとすることができる。この構成
では、補正用ルックアップテーブルメモリの使用により
輝度情報を統合後色彩情報に組み込む形で補正を行うこ
とにより、情報量の削減を一層効果的に行うことが可能
となり、かつ光量変化の影響もより受けにくくなるの
で、生成されるマーカ位置データの精度も高くなる。More specifically, the color information correction means, when the integrated color information and the luminance information are divided into a specific number of groups, respectively, combines each of the integrated color information group and the luminance information group, A correction look-up table memory storing the correspondence relationship with the color information after the luminance correction is provided. For each pixel, the corrected color information corresponding to the integrated color information and the luminance information corresponds to the corrected color information of the pixel. The color data may be read from the correction look-up table memory in a text-based manner. In this configuration, the amount of information can be reduced more effectively by performing correction by incorporating the luminance information into the integrated color information by using the correction look-up table memory. Therefore, the accuracy of the generated marker position data also increases.
【0027】なお、上記構成では、2種の色彩情報を統
合後に、輝度情報の繰り込み(補正)を行うようにして
いたが、この順序を逆とすること、すなわち、色彩情報
をそれぞれ輝度により補正した後、それらを統合するよ
うに構成してもよい。具体的には色彩情報補正手段は、
第一色彩成分及び第二色彩成分のそれぞれに対応して、
その色彩情報と輝度情報とをそれぞれ特定数のグループ
に分割した場合の、それら色彩情報グループと輝度情報
グループとの各組合せと、輝度補正後の色彩情報との対
応関係を記憶した第一及び第二の補正用ルックアップテ
ーブルメモリを備え、各画素について、各色彩情報と輝
度情報とが対応する輝度補正後色彩成分情報を、その画
素の補正後色彩成分情報として、それぞれ対応する補正
用ルックアップテーブルメモリから字引的に読み出すも
のとする。そして、色統合画像データ生成手段におい
て、第一色彩成分情報と第二色彩成分情報とはそれぞれ
輝度補正後のものを使用するようにする。In the above-described configuration, the two types of color information are integrated, and then the luminance information is renormalized (corrected). However, this order is reversed, that is, each of the color information is corrected by the luminance. Then, they may be configured to be integrated. Specifically, the color information correction means
For each of the first color component and the second color component,
When each of the color information and the luminance information is divided into a specific number of groups, a first and a second storing a correspondence relationship between each combination of the color information group and the luminance information group and the color information after the luminance correction. A correction look-up table memory for each pixel, and for each pixel, the corrected color component information corresponding to each color information and the luminance information is used as the corrected color component information of the pixel as the corresponding correction lookup table. It shall be read out from the table memory. Then, in the color integrated image data generating means, the first color component information and the second color component information each used after the luminance correction are used.
【0028】また、適合画素の集合として表される抽出
画像の位置データを生成する抽出画像位置データ生成手
段は、画像データ毎の、指定色画素データに基づく抽出
画像位置データの演算・出力を、画素の転送周期(例え
ば、画素の転送クロックパルスの周期)と同期して逐次
行うものとして構成することができる。この構成によれ
ば、画素の転送周期に同期(例えば、転送クロックパル
スの周波数は8〜30MHz程度である)させて、各画
像フレームの抽出画像位置データの演算をパイプライン
的に高速で行うことができるから、例えばモーションキ
ャプチャシステムの場合、フレーム毎のマーカ位置デー
タを含む動作データの作成を撮影時にリアルタイムで行
うことが可能となる。特に、10MHz(例えば14〜
15MHz)以上のクロックパルス周波数を採用するこ
とにより、例えば動作データのリアルタイム作成にとり
わけ好適な高速処理環境を実現することができる。Further, the extracted image position data generating means for generating position data of the extracted image represented as a set of matching pixels, calculates and outputs the extracted image position data based on the designated color pixel data for each image data. It can be configured such that the transfer is performed sequentially in synchronization with the transfer cycle of the pixel (for example, the cycle of the transfer clock pulse of the pixel). According to this configuration, the calculation of the extracted image position data of each image frame is performed at a high speed in a pipeline manner in synchronization with the transfer cycle of the pixels (for example, the frequency of the transfer clock pulse is about 8 to 30 MHz). Therefore, for example, in the case of a motion capture system, it is possible to create operation data including marker position data for each frame in real time during shooting. In particular, 10 MHz (for example, 14 to
By employing a clock pulse frequency of 15 MHz or higher, a high-speed processing environment particularly suitable for, for example, real-time creation of operation data can be realized.
【0029】一般に、カラー画像データは、RGBの三
原色表示において各色成分を8ビット(256段階)の
データとして記述した場合(輝度成分と2種の色彩成分
のそれぞれを8ビットで記述した場合も同じ)、28×
28×28=1677万通りもの膨大な情報量となり、
パソコン等に使用される低廉なCPUの処理能力ではリ
アルタイム演算は到底不可能に近い。しかしながら、上
記本発明の方式のように、色情報の統合・集約により情
報量を減ずることにより、処理速度の比較的遅い低廉な
CPU(コンピュータ)においてもリアルタイム演算が
可能となるのである。In general, color image data is described in a case where each color component is described as 8-bit (256 steps) data in RGB three-primary color display (the same applies when a luminance component and two kinds of color components are each described in 8 bits). ) 28 ×
2 8 × 2 8 = 16.77 million ways of information volume,
Real-time calculations are almost impossible with the processing power of inexpensive CPUs used in personal computers and the like. However, by reducing the amount of information by integrating and aggregating color information as in the method of the present invention described above, real-time operations can be performed even with a low-cost CPU (computer) having a relatively slow processing speed.
【0030】この場合、抽出画像位置データ生成手段
は、各画像データのフレームに対し、抽出画像領域に含
まれる画素の水平方向の座標成分xの総和Σxと、同じ
く垂直方向の座標成分yの総和Σyと、各領域中の画素
総数nとを含む抽出画像位置データを演算・出力するも
のとして構成することができる。これによれば、得られ
るΣx、Σy及びnのデータをもとに、抽出画像(例え
ばカラーマーカの画像)の重心位置Gを、(Σx/n,
Σy/n)により簡単に求めることができる。重心位置
は、例えばカラーマーカの回転移動の影響を受けないの
で動作データとして扱いやすく、動画加工処理に有用で
ある。In this case, the extracted image position data generating means generates, for each frame of the image data, the sum Σx of the horizontal coordinate components x of the pixels included in the extracted image area and the sum of the vertical coordinate components y similarly. It can be configured to calculate and output extracted image position data including Σy and the total number n of pixels in each area. According to this, based on the obtained data of Σx, Σy, and n, the center of gravity G of the extracted image (for example, the image of the color marker) is calculated as (Σx / n,
Σy / n). Since the center of gravity is not affected by, for example, the rotational movement of the color marker, it is easy to handle as motion data, and is useful for moving image processing.
【0031】かつ、Σx及びΣyは、例えば通常の走査
方式によるビデオ撮影装置系に必ず設けられている画像
の同期制御部を流用して、簡単に演算できる利点があ
る。すなわち、撮影装置からの映像信号は画素に分解さ
れ、走査線毎に区切られてシーケンシャルに転送され
る。この転送時において、画素データ列には、水平方向
及び垂直方向の同期信号が挿入されるのが通常であるか
ら、画素転送クロック周期が一定であれば、受像側でそ
の水平同期信号を受けてからの転送画素の個数をカウン
トすることで、各画素の画面上における水平方向座標を
特定することが可能となる。なお、転送画素のカウント
は、当然のことながら画素転送クロックパルスを利用で
きるので、迅速処理が可能であることはいうまでもな
い。他方、垂直同期信号を受けてから、所期の画素位置
までの走査線本数(例えば1走査線毎に挿入される水平
同期信号の数と等価である)をカウントすることによ
り、垂直方向座標も特定することができる。また、Σ
x、Σy及びnは、いずれも単純な加算量であるから、
加算器を用いた極めて簡単な回路構成により迅速な処理
が可能であり、前記したリアルタイム演算を行う上でも
有利である。Further, Δx and Δy have the advantage that they can be easily calculated, for example, by diverting an image synchronization control unit always provided in a video photographing apparatus system using a normal scanning method. That is, the video signal from the photographing device is decomposed into pixels, separated for each scanning line, and sequentially transferred. At the time of this transfer, the horizontal and vertical synchronization signals are usually inserted into the pixel data string. Therefore, if the pixel transfer clock cycle is constant, the image receiving side receives the horizontal synchronization signal. By counting the number of transfer pixels from, the horizontal coordinate of each pixel on the screen can be specified. Since the transfer pixel count can of course use the pixel transfer clock pulse, it goes without saying that quick processing is possible. On the other hand, by counting the number of scanning lines (e.g., equivalent to the number of horizontal synchronization signals inserted for each scanning line) from the reception of the vertical synchronization signal to the intended pixel position, the vertical coordinates are also calculated. Can be identified. Also, Σ
Since x, Σy and n are all simple addition amounts,
A very simple circuit configuration using an adder enables quick processing, which is advantageous in performing the above-described real-time calculation.
【0032】次に、本発明にてルックアップテーブルメ
モリを使用する場合、第一及び第二の色彩成分情報、輝
度情報あるいは統合後色彩情報等の、読出し対象データ
特定情報をアドレス線にて指定することにより、そのア
ドレスにて指定されるメモリセルから、読出し対象デー
タ特定情報にて特定される読出し対象データが字引的に
読み出されるものとして構成することができる。また、
各画像データに対する、ルックアップテーブルメモリか
らの読出し対象データの読出し処理を、画素の転送周期
と同期して逐次的に行わせる読出し制御手段が設けるこ
とができる。上記構成のルックアップテーブルメモリの
採用により、読出し対象データ特定情報をアドレス線に
て指定することで、読出し対象データに迅速にアクセス
できる。その結果、画素転送周期と同期した高速処理が
実現し、前記したリアルタイム処理も無理なく行うこと
が可能となる。Next, when a lookup table memory is used in the present invention, read target data specifying information such as first and second color component information, luminance information or integrated color information is specified by an address line. By doing so, the read target data specified by the read target data specifying information can be read from the memory cell specified by the address in a text-based manner. Also,
It is possible to provide read control means for sequentially performing read processing of read target data from the look-up table memory for each image data in synchronization with a pixel transfer cycle. By adopting the look-up table memory having the above configuration, the read target data can be quickly accessed by specifying the read target data specifying information by the address line. As a result, high-speed processing synchronized with the pixel transfer cycle is realized, and the above-described real-time processing can be performed without difficulty.
【0033】[0033]
【発明の実施の形態】図1は、本発明の一実施例たる動
画処理装置1の電気的構成を示すブロック図である。こ
の実施例では、動画処理装置1はモーションキャプチャ
システムに適用した態様を例に取って説明するが、本発
明の適用分野はこれに限られるものではない。まず、動
画処理装置1の中核をなすのは動作データ作成システム
2であり、ホストコンピュータ8に接続されている。動
作データ作成システム2は、大きく分けて画像入出力部
(画像データ生成手段)4、画像抽出機構部5、抽出画
像データ出力制御部6及びマーカ画素計数部(抽出画像
位置データ生成手段、動作データ出力手段)7の4つの
部分を備えており、I/Fボード69を介してアニメー
ションやCG動画等を作成するためのホストコンピュー
タ8に接続されている。また、動作データ作成システム
2には、画素転送クロックパルスを与えるクロックパル
ス発生回路や、その他、画像入出力部4における各種制
御を司るシステムコントローラ3が設けられている。FIG. 1 is a block diagram showing an electrical configuration of a moving picture processing apparatus 1 according to one embodiment of the present invention. In this embodiment, the moving image processing apparatus 1 will be described by taking an example in which the moving image processing apparatus 1 is applied to a motion capture system. However, the application field of the present invention is not limited to this. First, the core of the moving image processing device 1 is the operation data creation system 2, which is connected to the host computer 8. The operation data creation system 2 is roughly divided into an image input / output unit (image data generation unit) 4, an image extraction mechanism unit 5, an extracted image data output control unit 6, and a marker pixel counting unit (extracted image position data generation unit, operation data The output unit 7 includes four parts, and is connected via an I / F board 69 to a host computer 8 for creating animations, CG moving images, and the like. The operation data creation system 2 is provided with a clock pulse generation circuit that supplies a pixel transfer clock pulse, and a system controller 3 that manages various controls in the image input / output unit 4.
【0034】図2は、画像入出力部4の詳細を示すブロ
ック図である。被写体(例えば俳優等の人間のモデル)
を撮影するためのこれらカラーカメラ15は、よく知ら
れたCCDカメラであり、ビデオデコーダ16に接続さ
れている。カラーカメラ15のR(赤色信号)、G(緑
色信号)及びB(青色信号)の各映像信号(あるいはビ
デオコンポジット信号)は、輝度と色を分離した1表現
形式であるY、Cr、Cvによるデジタル信号にデコー
ドされる。なお、この実施例では、装置の概念をわかり
やすくするために、各信号のデータビット数は6ビット
と、やや小さく設定されているが、当然のことながら信
号のデータビット数はこれに限られるものではなく、ま
た、6ビット以外のものが採用されたとしても装置の基
本的な構成は全く変わらない(一般的には、各色の信号
としては8ビットのものが使用されることが多いようで
ある)。FIG. 2 is a block diagram showing details of the image input / output unit 4. Subject (for example, a human model such as an actor)
These color cameras 15 for photographing are well-known CCD cameras, and are connected to a video decoder 16. Each video signal (or video composite signal) of R (red signal), G (green signal), and B (blue signal) of the color camera 15 is represented by Y, Cr, and Cv, which are one expression format in which luminance and color are separated. Decoded to a digital signal. In this embodiment, the number of data bits of each signal is set slightly smaller at 6 bits in order to make the concept of the device easier to understand, but the number of data bits of the signal is naturally limited to this. The basic configuration of the device is not changed at all even if a signal other than 6 bits is used (generally, signals of each color are often 8 bits). Is).
【0035】ここでY、Cr、Cvによる映像の表現形
式は公知であるため、詳しい説明は省略するが、Yは輝
度の信号、Cr,Cvは、彩度と色相が特定された色情
報の信号であり、色相と彩度とを独立パラメータとした
二次元座標空間を張るものとなる(第一及び第二の色彩
成分情報に相当する)。このような表現形式を用いるこ
とで、色は色相と彩度の二次元空間で表わされるため色
指定が容易になり、また輝度が独立しているため、照明
の影響を受けにくい処理が可能となる利点がある。Here, since the expression format of the video by Y, Cr, and Cv is known, detailed description is omitted, but Y is a luminance signal, and Cr and Cv are color information of specified chroma and hue. It is a signal, and forms a two-dimensional coordinate space using hue and saturation as independent parameters (corresponding to first and second color component information). By using such an expression format, colors are represented in a two-dimensional space of hue and saturation, making it easy to specify colors. Also, since the luminance is independent, processing that is not easily affected by lighting can be performed. There are advantages.
【0036】デコードされたY、Cr、Cvの各デジタ
ル信号は、ルックアップテーブルメモリ群18(以下、
ルックアップテーブルメモリを「LUT」と略記する場
合がある)に入力される。LUT群18には、2つのL
UT回路19,20が設けられている。公知のように、
ルックアップテーブルメモリは、予め全ての入力データ
に対する演算結果をメモリに登録しておき、アドレス線
をデータ入力に用いて、登録されたデータを選択出力す
ることにより字引的に演算結果を出力する機能を有する
ものである。The decoded Y, Cr, and Cv digital signals are stored in a look-up table memory group 18 (hereinafter, referred to as a look-up table memory group 18).
The look-up table memory may be abbreviated as “LUT”). The LUT group 18 includes two L
UT circuits 19 and 20 are provided. As is known,
The look-up table memory has a function of registering calculation results for all input data in the memory in advance and outputting the calculation results in a subscripted manner by selectively outputting the registered data using an address line for data input. It has.
【0037】データ処理の流れを概略的に言えば、色彩
統合用LUT回路20で画像データを限られた数の色グ
ループに分割・統合して、所定種類(例えば6ビットで
あれば64種類、8ビットであれば256種類)の色グ
ループに統合する。また、輝度組込用LUT回路19
は、輝度の信号により統合後の色彩データに補正をかけ
る。まず色彩統合用LUT回路20には、Crデータと
Cvデータとが入力される。そして、カラーマーカとし
て使用される複数種の色グループに統合(集約)され、
輝度組込用LUT回路19において輝度を含めて必要な
色グループに分割・統合される。ここでは、COR(色)
1〜COR6の6ビットの色グループ番号情報として出力
されるようになっている。Generally speaking, the flow of data processing is as follows. Image data is divided and integrated into a limited number of color groups by the color integration LUT circuit 20, and a predetermined type (for example, 64 types if 6 bits, (8 bits, 256 types). Also, the LUT circuit 19 for incorporating a luminance
Corrects the integrated color data with a luminance signal. First, Cr data and Cv data are input to the color integration LUT circuit 20. Then, they are integrated (aggregated) into multiple types of color groups used as color markers,
The luminance is incorporated into the necessary color groups including the luminance in the luminance-incorporating LUT circuit 19. Here, COR (color)
The information is output as 6-bit color group number information of 1 to COR6.
【0038】例えば8ビットの場合を例にとれば、Cr
成分が8ビット、Cv成分が8ビットであるから、特定
される色成分は6万数千通りあるが、これが256種類
の色グループに分割・統合される。概念的に言えば、必
要な色グループが1から256まで256通り予め設定
(登録)され、これが輝度組込用LUT回路19に登録
されている。Crデータ及びCvデータ等の全ての組合
せは、これら256通りの色グループのいずれかに属す
るようにLUT回路20,19でいわば順次ふるい分け
られる(分類される)。言い換えれば、色データ(色彩
あるいは輝度)の全ての入力データ(16ビットのデー
タの個々)に対する演算結果(256の色グループ)を
メモリに登録し、アドレス線をデータ入力に用いて、予
め登録されたデータ(すなわち256色グループのいず
れか)を選択出力することにより、16ビットの色成分
が8ビットの色グループに統合されることになる。図4
は、そのLUT回路のメモリセル部の一例をごく概念的
に示すものであり、16ビットの入力データをデータA
及びデータBとして、それらの内容に対応したアドレス
線の選択により、対応するセルの登録データDR11,D
R12‥‥等のいずれかが読み出される二次元テーブルと
なっている。For example, in the case of 8 bits, Cr
Since the component is 8 bits and the Cv component is 8 bits, there are 60,000 thousands of specified color components, which are divided and integrated into 256 types of color groups. Conceptually speaking, 256 necessary color groups from 1 to 256 are set (registered) in advance, and are registered in the luminance-incorporated LUT circuit 19. All combinations of Cr data, Cv data, and the like are sorted (classified) by the LUT circuits 20 and 19 so as to belong to one of these 256 color groups. In other words, the operation results (256 color groups) of all input data (individual 16-bit data) of color data (color or luminance) are registered in the memory, and registered in advance using address lines for data input. By selectively outputting the data (that is, any one of the 256 color groups), the 16-bit color components are integrated into the 8-bit color group. FIG.
Schematically shows an example of a memory cell portion of the LUT circuit, and 16-bit input data is converted to data A
By selecting an address line corresponding to those contents as the data B and the data B, the registration data DR11, D
R2 の is a two-dimensional table to be read.
【0039】なお、LUT回路19,20には、スタテ
ィックラム(SRAM)が用いられており、256通り
の色データは任意に設定することができる。SRAMは
リフレッシュのための回路部が不要であるから、システ
ム全体の簡略化に貢献している。例えば、入力画像24
ビット(Y:8ビット、Cr:8ビット、Cv:8ビッ
ト)の約1677万色の色表現をカラーカメラ毎に統合
・分割し、256種類の色グループ信号として出力する
ことにより、情報量を約1/6万にまとめることで容易
な計算が実現されるのである。Note that a static ram (SRAM) is used for the LUT circuits 19 and 20, and 256 kinds of color data can be arbitrarily set. The SRAM does not require a circuit section for refreshing, thus contributing to simplification of the entire system. For example, input image 24
The amount of information can be reduced by integrating and dividing the color representation of about 16.77 million colors (Y: 8 bits, Cr: 8 bits, Cv: 8 bits) for each color camera and outputting 256 types of color group signals. An easy calculation can be realized by reducing the number to about 1 / 60,000.
【0040】各LUT回路19又は20は同一のハード
ウェア構成を有し、これをより詳細に示したものが図3
である。この図3全体が1つのLUT回路を構成し、例
えば図2の色彩統合用LUT回路20に相当するものと
なる。図3でデータA及びデータBの各入力信号は、そ
れぞれCr、Cvに相当するもので、それがODの6ビ
ットの信号となって出力される。LUTメモリ160に
は、LUTメモリコントローラ159(以下、LMCN
と記す:この実施例では、図2のシステムコントローラ
3に組み込まれている)が付属し、また、そのデータの
入力側に、D型フリップフロップ回路161,162
が、また、出力側にD型フリップフロップ回路164が
設けられている(以下、本明細書ではD型フリップフロ
ップ回路のことをDラッチと称する)。これらのDラッ
チは、いずれもアウトプットコントロール端子(インヒ
ビット入力端子)OCを有するものが使用されている。Each LUT circuit 19 or 20 has the same hardware configuration, which is shown in more detail in FIG.
It is. 3 constitutes one LUT circuit, and corresponds to, for example, the color integration LUT circuit 20 in FIG. In FIG. 3, the input signals of data A and data B correspond to Cr and Cv, respectively, and are output as 6-bit signals of OD. The LUT memory 160 includes an LUT memory controller 159 (hereinafter, LMCN).
In this embodiment, the D-type flip-flop circuits 161 and 162 are provided on the input side of the data.
However, a D-type flip-flop circuit 164 is provided on the output side (hereinafter, the D-type flip-flop circuit is referred to as a D-latch in this specification). Each of these D-latches has an output control terminal (inhibit input terminal) OC.
【0041】ホストコンピュータ8からのデータバス
は、双方向バストランシーババッファ166を介してL
UTメモリ160に接続される。また、ホストコンピュ
ータ8からのアドレスバスは、バスバッファ168,1
69を介してLUTメモリ160のデータA用のアドレ
スとデータB用のアドレスとにそれぞれつながってい
る。The data bus from the host computer 8 is connected to the L through a bidirectional bus transceiver buffer 166.
Connected to UT memory 160. The address bus from the host computer 8 is connected to a bus buffer 168,1.
An address for the data A and an address for the data B in the LUT memory 160 are connected to each other via 69.
【0042】LUT回路に初期設定を行う場合、ホスト
コンピュータ8はLUTメモリ制御信号(LMCNT)
を用いてLMCN159にバス要求命令を送る。これに
従い、LMCN159は、Dラッチ161,162,1
64のアウトプットコントロール信号(OC)を制御
し、Dラッチ161,162,164の出力を非能動状
態とするとともに、双方向バストランシーババッファ1
66及びバスバッファ168,169の出力イネーブル
信号Gを制御し、これらの出力を能動状態にする。これ
により、ホストコンピュータ8がLUTメモリ160に
対し読み書きができる状態になり、初期設定が行われ
る。When initializing the LUT circuit, the host computer 8 sends the LUT memory control signal (LMCNT)
To send a bus request command to the LMCN 159. Accordingly, the LMCN 159 outputs the D latches 161, 162, 1
64 output control signals (OC), the outputs of the D latches 161, 162, 164 are made inactive, and the bidirectional bus transceiver buffer 1
66 and the output enable signals G of the bus buffers 168 and 169 are controlled to make their outputs active. As a result, the host computer 8 becomes readable and writable with respect to the LUT memory 160, and initialization is performed.
【0043】LUTメモリ160へのデータ入力終了
後、ホストコンピュータ8は前記LMCNTを用いてL
MCN159にバス解放命令(演算実行命令)を送る。
これにより、LMCN159は双方向バストランシーバ
バッファ166及びバスバッファ168,169の出力
イネーブル信号Gを制御し、Dラッチ161,162,
164のアウトプットコントロール信号(OC)を制御
し、Dラッチ161,162,164の出力を能動状態
にする。その結果、LUTメモリ160への入力データ
AとデータBにより字引的に求められた演算結果がOD
に出力されるようになる。ここで、Dラッチ161,1
62その他は処理を行う画素の転送クロックパルスを用
いてこれに同期して動作させることで、高速演算処理を
実現している。なお、各DラッチにおけるCKはクロッ
クパルス入力の端子であり、双方向バストランシーババ
ッファ166のDIRはバス方向制御信号入力の端子で
ある。そして、前述の通りクロックパルスは、システム
コントローラ3(図2)に組み込まれたパルス発生回路
が発する画素転送クロックパルスが使用される。After the data input to the LUT memory 160 is completed, the host computer 8 uses the LMCNT to
A bus release instruction (operation execution instruction) is sent to the MCN 159.
Thus, the LMCN 159 controls the output enable signal G of the bidirectional bus transceiver buffer 166 and the bus buffers 168 and 169, and the D latches 161 and 162.
The output control signal (OC) 164 is controlled, and the outputs of the D latches 161, 162, and 164 are activated. As a result, the calculation result obtained by the indexing based on the input data A and the data B to the LUT memory 160 becomes OD.
Will be output to Here, the D latch 161, 1
62 and others use a transfer clock pulse of a pixel to be processed and operate in synchronization with the transfer clock pulse, thereby realizing high-speed arithmetic processing. Note that CK in each D latch is a clock pulse input terminal, and DIR of the bidirectional bus transceiver buffer 166 is a bus direction control signal input terminal. As described above, a pixel transfer clock pulse generated by a pulse generation circuit incorporated in the system controller 3 (FIG. 2) is used as the clock pulse.
【0044】こうして情報量を減じられ、例えばCOR1
〜COR6の6ビット情報にまとめられた画像データは、
図2において一旦フレームメモリ21に蓄積された後、
図1の画像抽出部5に入力される。フレームメモリ21
では、飛越し走査にて出力されてくるカメラからの映像
信号を奇数走査メモリ22と偶数走査メモリ23とにそ
れぞれ格納し、これを合成することで、順次走査信号に
走査変換する役割を果たす。なお、LUTメモリ群18
とフレームメモリ21とへのデータの読み書き制御は、
システムコントローラからの制御信号LTCNT及びF
MCNTにより行われる。In this way, the amount of information can be reduced.
Image data summarized in 6-bit information of ~ COR6
In FIG. 2, after being temporarily stored in the frame memory 21,
It is input to the image extraction unit 5 of FIG. Frame memory 21
Then, the video signal output from the camera output by the interlaced scanning is stored in the odd-numbered scanning memory 22 and the even-numbered scanning memory 23, respectively, and is synthesized to perform scan conversion into a sequential scanning signal. The LUT memory group 18
The control of reading and writing data to and from the frame memory 21 is as follows.
Control signals LTCNT and F from system controller
Performed by MCNT.
【0045】以下、画像抽出部5で行われる処理の内容
を概略説明し、次いでその処理機能がハードウェア的に
どのように実現されるかについて説明する。まず、この
装置では、モーションキャプチャとして動作データを生
成するために、人間や動物などの被写体にカラーマーカ
(以下、単にマーカともいう)を取り付けてこれを撮影
する。カラーマーカとしては全体が単色に着色されたも
のを使用してもよいが、本実施例では、1個のマーカの
表面が、2以上の異なるマーカ色にて着色された複数領
域に区分されたものを用いる。図24(a)〜(o)
は、プレート状に形成したマーカMKの各種例を示して
いる。図にも示す通り、マーカの外形は種々のものが採
用可能であり、その塗り分けパターンも、平行分割
((a)、(g)、(h)、)、放射状分割((b)、
(c)、(d)、(f)、(i)、(k)、(l)、
(m)、(n))、同心円状分割((e)、(j)、
(p))等、さまざまなものが可能である。このうち、
(a)、(b)、(e)、(f)、(k)、(n)は2
色マーカ、(c)、(g)、(j)、(l)は3色マー
カ、(h)、(m)、(o)は4色マーカの例である。
また、マーカ寸法は最大さしわたしで2〜8cm程度
(例えば5cm程度)のものを使用することが、被写体
に着用の違和感がなく、かつマーカ認識の精度を確保す
る観点から望ましいといえる。Hereinafter, the contents of the processing performed by the image extracting unit 5 will be briefly described, and then, how the processing function is realized by hardware will be described. First, in this apparatus, in order to generate motion data as motion capture, a color marker (hereinafter, also simply referred to as a marker) is attached to a subject such as a human or an animal and photographed. As the color markers, those which are entirely colored in a single color may be used, but in the present embodiment, the surface of one marker is divided into a plurality of regions colored with two or more different marker colors. Use something. FIG. 24 (a) to (o)
Shows various examples of the marker MK formed in a plate shape. As shown in the figure, various shapes of the marker can be adopted, and the coloring pattern is also divided into parallel divisions ((a), (g), (h)), radial divisions ((b),
(C), (d), (f), (i), (k), (l),
(M), (n)), concentric divisions ((e), (j),
Various things such as (p)) are possible. this house,
(A), (b), (e), (f), (k) and (n) are 2
The color markers (c), (g), (j), and (l) are examples of three-color markers, and (h), (m), and (o) are examples of four-color markers.
Further, it can be said that it is desirable to use a marker having a maximum dimension of about 2 to 8 cm (for example, about 5 cm) from the viewpoint of preventing the subject from feeling uncomfortable wearing and ensuring the accuracy of marker recognition.
【0046】一方、プレート状のマーカの場合、例えば
横方向からマーカが撮影されると死角に入ってマーカ色
が識別不能となる場合がある。このような不具合を解消
するためには立体形状マーカを使用することが有効であ
る。この実施例では、マーカ上の色をマーカ指定色とし
て、全ての色が同時検出された場合にのみマーカ検出と
判別されるので、見る角度によって一部の色しか現われ
なくなるような塗り分けパターンは、マーカ検出されな
い場合がありうるので望ましくない。従って、任意の方
向において全てのマーカ色が視認できるよう、各色の領
域が分散あるいは入り組んで形成された形のものが望ま
しいといえる。図25〜図27には、その立体マーカの
いくつかの例を示している。例えば図25及び図26で
は、マーカ全体を球状に形成しており、図25では、そ
の球表面を六角形状の領域と五角形状の領域とで隙間な
く埋め尽くした、サッカーボール状の塗り分けパターン
を採用している。(a)は2色マーカ、(b)は3色マ
ーカの例であり、(c)は各領域をそれぞれ放射状に分
割して、さらに細かく3色で塗り分けた例を示してい
る。On the other hand, in the case of a plate-shaped marker, for example, when the marker is photographed from the lateral direction, the marker may enter a blind spot and the marker color cannot be identified. In order to solve such a problem, it is effective to use a three-dimensional shape marker. In this embodiment, since the color on the marker is set as the marker designated color, it is determined that the marker is detected only when all the colors are detected at the same time. This is not desirable because the marker may not be detected. Therefore, it can be said that it is desirable that each color region is formed in a dispersed or intricate manner so that all marker colors can be visually recognized in an arbitrary direction. 25 to 27 show some examples of the three-dimensional marker. For example, in FIG. 25 and FIG. 26, the entire marker is formed in a spherical shape, and in FIG. Has been adopted. (A) shows an example of a two-color marker, (b) shows an example of a three-color marker, and (c) shows an example in which each area is radially divided and further divided into three colors.
【0047】また、図26(a)、(b)は、経線状の
区分線Vにより、同図(c)及び(d)は緯線状の区分
線Tにより球表面を区分して、それぞれ2色又は3色に
塗り分けた例を示す。また、(e)は、背景領域Mと、
これに分散させた不定形状の分散領域Dとを3色にて塗
り分けた例を示している。また、立体形状のマーカは、
球状のものに限らず、各種形状のものを採用できる。例
えば、図27は、球状の本体表面から、角状(あるいは
針状)の突出部が複数突出した外形を有し、各突出部の
外面を3色に塗り分けた例である。FIGS. 26 (a) and 26 (b) show the sphere surface divided by a meridian dividing line V, and FIGS. 26 (c) and (d) divide the spherical surface by a parallel dividing line T. An example in which a color or three colors are applied is shown. (E) shows a background area M,
An example is shown in which an irregularly shaped dispersion region D dispersed therein is painted in three colors. The three-dimensional marker is
Not only a spherical shape but also various shapes can be adopted. For example, FIG. 27 shows an example in which a plurality of angular (or needle-like) protrusions have an outer shape protruding from a spherical main body surface, and the outer surface of each protrusion is painted in three colors.
【0048】このような、複数色に塗り分けたマーカM
Kを採用することにより、互いに識別可能なマーカの数
を、単色のマーカを使用する場合と比較して大幅に増や
すことができる。例えば6色(COR1〜COR6)のマーカ
指定色から任意のものを選択して、マーカ色としてこれ
を使用する場合を考えると、単色マーカの場合は、表1
に示す通り、色の数に等しい6種類のマーカのみが可能
である。表中、「1」は採用する色を示し、「0」は採
用しない色を示す。また、MK1〜MK6は、それぞれ
マーカの番号を表す。Such a marker M painted in a plurality of colors
By employing K, the number of markers that can be distinguished from each other can be significantly increased as compared with the case where a single-color marker is used. For example, consider a case where an arbitrary color is selected from the six marker colors (COR1 to COR6) and used as the marker color.
As shown, only six types of markers equal to the number of colors are possible. In the table, “1” indicates a color to be adopted, and “0” indicates a color not to be adopted. MK1 to MK6 each represent a marker number.
【0049】[0049]
【表1】 [Table 1]
【0050】しかしながら、2色マーカの場合は表2に
示す通り、6から2を選択する組み合わせの数
(6C2)に等しい種類のマーカを使用できるようにな
る。また、3色マーカでは表3に示す通り、6C3=2
0通りのマーカが使用可能となる。例えば、表3のMK
#2は、COR1,COR2及びCOR4の3色にてマーカ表面
が塗り分けられていることを意味する。[0050] However, in the case of two-color marker will be able to use the same type of marker to the number of combinations for selecting as shown in Table 2, from 6 2 (6 C 2). As shown in Table 3, for the three-color marker, 6 C 3 = 2
Zero markers can be used. For example, MK in Table 3
# 2 means that the marker surface is painted in three colors of COR1, COR2 and COR4.
【0051】[0051]
【表2】 [Table 2]
【0052】[0052]
【表3】 [Table 3]
【0053】さて、画像抽出部5(図1)では、撮影さ
れた画像上に上記のようなカラー間の画像が存在するか
否かを、次のような流れにて判別し、そのマーカの抽出
画像データを生成・出力する。すなわち、図12に示す
ように、図2のフレームメモリ21から出力される動画
フレームの画素平面SC上に、所定の大きさ及び形状の
マスク領域(以下、単にマスクともいう)MKを、該画
素平面上にて縦横に移動可能に設定する。具体的には、
マスクMSKは、走査線の例えば左端から右端に向けて
水平移動し、右端に到達したら、走査線1本分だけ下に
移動して左端に戻り、同様に水平移動を繰り返す形で画
素平面SC上を走査される。The image extracting section 5 (FIG. 1) determines whether or not an image between the colors exists in the photographed image in the following flow. Generate and output extracted image data. That is, as shown in FIG. 12, a mask area (hereinafter, also simply referred to as a mask) MK of a predetermined size and shape is placed on the pixel plane SC of the moving image frame output from the frame memory 21 of FIG. Set to be movable vertically and horizontally on a plane. In particular,
The mask MSK moves horizontally, for example, from the left end to the right end of the scanning line, and when reaching the right end, moves down by one scanning line and returns to the left end, and similarly repeats the horizontal movement on the pixel plane SC. Is scanned.
【0054】例えば、図12(a)に示すように、マス
クMSKが画素平面SC上のある位置に存在している場
合を考える。ここでは、マスクMSKとして、水平方向
(走査線と平行な方向)に3個、垂直方向(走査線と直
交する方向)に3個の、P0〜P9の都合9個の画素をマ
トリックス状に配列しているものを採用するが、マスク
MSKの形態はこれに限られるものではなく、例えば図
14に示すように水平方向に一列に画素が並ぶもの、あ
るいは円状のものなど、各種採用することができる。For example, as shown in FIG. 12A, a case is considered where the mask MSK exists at a certain position on the pixel plane SC. Here, three pixels in the horizontal direction (direction parallel to the scanning line) and three pixels in the vertical direction (direction orthogonal to the scanning line), that is, nine pixels P0 to P9 are arranged in a matrix form as the mask MSK. However, the form of the mask MSK is not limited to this. For example, as shown in FIG. 14, various kinds of pixels such as a pixel arranged in a line in a horizontal direction or a circular shape may be used. Can be.
【0055】例えばCOR1とCOR2とからなる2色のマー
カ(例えば図24(a)に示すようなもの)を使用して
いる場合、その像が撮影されれば、図12に示すように
画素平面SC上に、COR1の画像領域(以下、COR1領域
という)とCOR2の画像領域(以下、COR2領域という)
とが隣接して現われているはずである。例えば、マスク
MSKがCOR1領域とCOR2領域との境界BDにまたがる
形で位置している場合、マスクMSK内においてはCOR
1の画素とCOR2の画素とが同時に検出される形とな
る。他方、この境界BDから外れてマスクMSKが位置
している場合は、COR1とCOR2とは全く検出されない
か、一方のみが検出される形となる。しかし、たとえ一
方の色が検出されたとしても、それがマーカの画像に由
来するものであるかどうかは判別がつかない。なぜな
ら、別のマーカMKでその色を使用している可能性もあ
るからである。従って、このような場合は、マスクMS
KはマーカMKを検出していないと判別するのである。
なお、マーカとして識別が可能となるためには、マーカ
MKの背景部分が、マーカ色であるCOR1及びCOR2のい
ずれとも異なる色(例えばCOR3)になっていなければ
ならない。従って、使用する画像データは、最低3つの
色の画素が混在したものが使用される形となっているこ
とは自明であろう。For example, when a two-color marker composed of COR1 and COR2 (for example, as shown in FIG. 24A) is used, and if the image is taken, the pixel plane as shown in FIG. On the SC, an image area of COR1 (hereinafter referred to as COR1 area) and an image area of COR2 (hereinafter referred to as COR2 area)
Should appear adjacent to each other. For example, when the mask MSK is located so as to extend over the boundary BD between the COR1 region and the COR2 region, the COR
One pixel and the COR2 pixel are detected simultaneously. On the other hand, when the mask MSK is located outside the boundary BD, COR1 and COR2 are not detected at all, or only one of them is detected. However, even if one color is detected, it cannot be determined whether or not it is derived from the image of the marker. This is because there is a possibility that another marker MK uses that color. Therefore, in such a case, the mask MS
K determines that the marker MK has not been detected.
Note that the background portion of the marker MK must be a different color (for example, COR3) from any of the marker colors COR1 and COR2 to be able to be identified as a marker. Therefore, it is obvious that the image data to be used is one in which pixels of at least three colors are mixed.
【0056】さて、マスクMSKがマーカMKを検出し
ているかどうかを最も簡便に判別するには、マスクMS
K内に全てのマーカ指定色の画素がそれぞれ1個でも含
まれているかどうかをチェックすればよい。この場合、
マスク内に指定色の画素が1個でも存在していれば、図
17に示すいずれか1つのパターン条件に適合するはず
である。図中、ハッチングを施した画素が指定色の画素
であり、他はそれ以外の色の画素であることを示してい
る。従って、各画素毎の色データのうち、指定色の色デ
ータを含む画素が、図17のいずれかのパターンに当て
はまっているかどうかを、マーカMKに含まれる全ての
色について順次チェックすればよいわけである。このチ
ェックは、例えば指定色の色データが2値のデータであ
れば、各画素P0〜P8に対する指定色の設定状態をx
(0)〜x(8)として、それらの論理和をとることで簡単に
調べることができる。The simplest way to determine whether the mask MSK has detected the marker MK is to use the mask MSK.
It is sufficient to check whether or not K contains at least one pixel of each marker-specified color. in this case,
If at least one pixel of the designated color exists in the mask, it should satisfy any one of the pattern conditions shown in FIG. In the drawing, hatched pixels indicate pixels of the designated color, and the others indicate pixels of other colors. Therefore, among the color data for each pixel, it is only necessary to sequentially check whether or not the pixel including the color data of the designated color applies to any of the patterns in FIG. 17 for all the colors included in the marker MK. It is. In this check, for example, if the color data of the designated color is binary data, the setting state of the designated color for each of the pixels P0 to P8 is x
It can be easily checked by taking the logical sum of (0) to x (8).
【0057】しかしながら、指定色の画素が1個存在す
るか否かのみでチェックを行おうとすると、図19
(a)のに示すように、ノイズ等の影響で突発的に発
生した孤立画素PCの影響を受けて、マーカを誤検出し
てしまう危険性がある。この場合は、例えばマスク内に
最低2以上の指定色の画素が存在しているか否か、ある
いはさらに厳しい条件として、複数の画素が特定の位置
関係を満足した形で存在しているか否かを調べるように
する。例えば、指定色の画素が、上下左右のいずれかに
2以上隣接して存在しているか否かを調べるためのパタ
ーン条件を、図18に示している。このようなパターン
条件を採用すれば、マーカ検出と判別されるのは、図1
9の及びのようなパターンであり、やはマーカ
なしと判別される。なお、斜めの隣接画素をパターン条
件に含めることで、図19ののパターンもマーカ検出
と判別されうることは容易に理解されるであろう。However, if an attempt is made to check only whether or not one pixel of the designated color exists, FIG.
As shown in (a), there is a risk that a marker is erroneously detected under the influence of an isolated pixel PC suddenly generated due to the influence of noise or the like. In this case, for example, it is determined whether at least two or more pixels of the specified color exist in the mask, or as a more severe condition, whether or not a plurality of pixels exist in a form satisfying a specific positional relationship. Try to find out. For example, FIG. 18 shows a pattern condition for checking whether two or more pixels of the designated color are adjacent to any of the upper, lower, left, and right sides. If such a pattern condition is adopted, it is determined that the marker is detected as shown in FIG.
This is a pattern like 9 and, and it is determined that there is no marker. It should be easily understood that by including the diagonally adjacent pixels in the pattern condition, the pattern of FIG. 19 can also be determined as the marker detection.
【0058】さて、マスクMSK内の指定色の画素配列
に対し、上記のようなパターンマッチングを行うことに
より、マーカ検出と判別された場合には、そのマスクM
SKの位置を代表する画素(対象画素)を、マーカ画素
(抽出画素)として抽出し、その画素のアドレスに対し
て、検出された指定色の組み合わせに合致するマーカ番
号のデータを出力する。なお、図13に示すように、対
象画素SPCは、本実施例では、マスクMSK内の左下
の画素P6 として定めるが、これに限定されるものでは
なく、また、マスクMSKと一定の位置関係を保持する
条件さえ満たしていれば、対象画素SPCをマスクMS
Kの外に設定してもよい。By performing the above-described pattern matching on the pixel array of the designated color in the mask MSK, if it is determined that a marker has been detected, the mask M
A pixel (target pixel) representing the position of the SK is extracted as a marker pixel (extracted pixel), and data of a marker number that matches the detected combination of the designated colors is output to the address of the pixel. As shown in FIG. 13, the target pixel SPC is defined as the lower left pixel P6 in the mask MSK in the present embodiment, but is not limited to this. If the condition for holding is satisfied, the target pixel SPC is masked MS
It may be set outside K.
【0059】例えば特定のマーカ番号に着目して見た場
合、画素平面上のある対象画素のアドレスについて、そ
のマーカ番号のデータが格納されていれば、対象画素の
出力状態は第一の出力状態になっており、同じく格納さ
れていなければ、対象画素の出力状態は第二の出力状態
になっていると考えることができる。そして、第一の出
力状態になっている対象画素は、そのマーカ番号のマー
カ画素である。For example, when attention is paid to a specific marker number, if the data of the marker number is stored for the address of a certain target pixel on the pixel plane, the output state of the target pixel becomes the first output state. , And if not stored, it can be considered that the output state of the target pixel is the second output state. Then, the target pixel in the first output state is the marker pixel of the marker number.
【0060】図12(a)に示すマーカMKの場合、CO
R1とCOR2とをマーカMK指定色として、図18のパタ
ーン条件にてマッチングを行いながら、マスクMSKを
画素平面SC上で走査した場合、マーカ画素は図12
(b)のような形で抽出される。これらマーカ画素は、
図12(a)の境界BDの左側に沿って縦3個、横2個
の形で配列して抽出マーカ画像を形成する。この抽出マ
ーカ画像は、ものとのマーカMKの画像のうち、境界B
Dに沿う一部領域のみを取り出したものに相当する。In the case of the marker MK shown in FIG.
When the mask MSK is scanned on the pixel plane SC while performing the matching under the pattern conditions of FIG. 18 using R1 and COR2 as the marker MK designated colors, the marker pixel becomes as shown in FIG.
It is extracted in the form as shown in (b). These marker pixels are
An extracted marker image is formed by arranging three vertically and two horizontally along the left side of the boundary BD in FIG. This extracted marker image is the boundary B among the images of the marker MK.
This is equivalent to extracting only a partial area along D.
【0061】なお、図22には、各種マーカにおける抽
出マーカ画像EIの例を示している((a)〜(c)は
図24の(a)〜(c)の、(d)は図25(a)の各
マーカを使用した場合をそれぞれ示している)。なお、
Gは、抽出マーカ画像EIの各画素の位置座標から後述
する方法にて算出される、マーカ重心位置である。FIG. 22 shows examples of extracted marker images EI for various markers ((a) to (c) are FIGS. 24 (a) to (c), and (d) is FIG. 25. (A) shows a case where each marker is used.) In addition,
G is a marker centroid position calculated from the position coordinates of each pixel of the extracted marker image EI by a method described later.
【0062】他方、複数色のマーカ検出(あるいはモー
ションキャプチャとしての使用)という目的を離れ、例
えば特定のある1つの色のみを指定色として設定した場
合、マスクMSKと一定の位置関係を保持する画素を対
象画素とし、パターンマッチングした場合にこれを抽出
画素として設定することで、画像抽出部5(図1)を、
指定色に対する一種の画像フィルタとして利用すること
ができる(これは、例えば工業検査技術等へ応用するこ
とが可能である)。例えば、図18のパターン条件を採
用すると、図19(a)のやのパターンは、図21
(b)に示すように、マスクMSKをどのように位置合
わせしてみてもパターンマッチングしないから、図19
(b)に示すように抽出画素が現われず、いわばノイズ
除去される形となる。他方やのパターンでは、異な
る位置のマスクMSKに対して同じ画素が共通にマッチ
ングする結果、画素が補われて画像が強化される。例え
ばのパターンの中央に開いた穴は、図21(a)に示
すマスクMSK位置で抽出画素EPCが現われる結果、
埋められる形となる。On the other hand, when the purpose of detecting a marker of a plurality of colors (or use as a motion capture) is deviated and, for example, only one specific color is set as a designated color, a pixel holding a certain positional relationship with the mask MSK. Is set as an extraction pixel when pattern matching is performed, so that the image extraction unit 5 (FIG. 1)
It can be used as a kind of image filter for a designated color (this can be applied to, for example, industrial inspection technology). For example, if the pattern condition of FIG. 18 is adopted, the pattern of “ya” in FIG.
As shown in FIG. 19B, no matter how the mask MSK is aligned, no pattern matching is performed.
As shown in (b), no extracted pixel appears, so that noise is removed. In the other pattern, the same pixel is commonly matched to the mask MSK at a different position, so that the pixel is supplemented and the image is enhanced. For example, a hole opened in the center of the pattern indicates that the extracted pixel EPC appears at the mask MSK position shown in FIG.
It will be filled.
【0063】図20(a)〜(i)は、マスクMSKの
走査により、図19(a)ののパターンに対してフィ
ルタリング処理が施される様子を表している。それぞれ
右側の図では、マスクMSKを実線により表し、対象画
素は右下がりのハッチングで、フィルタリング前の指定
色画素は右上がりのハッチングでそれぞれ示している
(対象画素とフィルタリング前の指定色画素とが重なる
場合は、双方のハッチングが入っている)。また、左側
の図では、抽出画素を右下がりのハッチングで表してい
る。(c)のステップでは、図18のいずれのパターン
にもマッチングしていないから、その前の(b)の段階
とで抽出画素の状態は変化していない。それ以外のステ
ップは、全てパターンマッチングしている場合であり、
対応する新たな抽出画素が増えていることがわかる。FIGS. 20 (a) to 20 (i) show how the filtering process is performed on the pattern of FIG. 19 (a) by scanning the mask MSK. In each of the diagrams on the right side, the mask MSK is represented by a solid line, the target pixel is indicated by downward-sloping hatching, and the designated color pixel before filtering is indicated by upward-sloping hatching (the target pixel and the designated color pixel before filtering are indicated by hatching). If they overlap, they are both hatched.) Further, in the left-hand drawing, the extracted pixels are represented by hatching falling to the right. In the step (c), since the pattern does not match any of the patterns in FIG. 18, the state of the extracted pixel has not changed from the previous step (b). All other steps are for pattern matching,
It can be seen that the number of corresponding new extracted pixels has increased.
【0064】上記のような画像抽出部5の機能は、例え
ば図5及び図7に示すハードウェア構成により実現する
ことができる。まず、図2のフレームメモリ21からの
6つの色データCOR1〜COR6は、画像抽出部5の前段部
分を構成する図5のマスク設定処理回路30に入力され
る。マスク設定処理回路30はマスク領域設定手段とし
て機能するものであり、マスクMSK内の各画素に対応
するデータ格納メモリ部32が画素転送の時系列順に、
すなわち上流側から直列的に配列された構成を有し、画
素転送クロックに同期して、それらデータ格納メモリ部
32に対し、各画素の色データ(COR1〜COR6:出力設
定状態データ)を配列上流側から順送り的に転送・格納
する、データ転送制御機能を有した転送制御機能付きメ
モリ回路部として作動する。The function of the image extracting unit 5 as described above can be realized by the hardware configuration shown in FIGS. 5 and 7, for example. First, the six color data COR1 to COR6 from the frame memory 21 in FIG. 2 are input to the mask setting processing circuit 30 in FIG. The mask setting processing circuit 30 functions as a mask area setting unit. The data storage memory unit 32 corresponding to each pixel in the mask MSK stores the data in the time series of pixel transfer.
That is, it has a configuration in which the color data (COR1 to COR6: output setting state data) of each pixel is arranged upstream in the data storage memory unit 32 in synchronization with the pixel transfer clock. It operates as a memory circuit unit with a transfer control function having a data transfer control function for sequentially transferring and storing data from the side.
【0065】具体的には、動画フレームの走査方向と平
行に隣接配列する複数の画素(走査方向配列画素:ここ
では、図13においてP0〜P2、P3〜P5、P6〜P8の
各3個ずつ)を包含する形でマスク領域を設定するため
に、各データ格納メモリ部32は1種のシフトメモリ回
路として構成されている(従って、それら自身転送制御
機能付きメモリ回路部として機能するものである)。具
体的には、走査方向配列画素に1対1に対応する複数の
メモリセル33を有し、画素転送クロックを受ける毎に
対応する画素の色データを、転送時系列順にメモリシフ
トしながら順次格納するものとして機能する。各シフト
メモリ回路32の各メモリセル33の色データは、マス
ク内の対応する画素の色データとして、データ出力部3
4から出力される。シフトメモリを採用することで、マ
スクMSKに対する走査線方向の相対的な画素転送、す
なわちマスクMSKの走査線方向の相対移動処理が、パ
イプライン処理の形で実現される。これにより、画素平
面上でのマスクMSKの移動を迅速に行うことができ、
リアルタイム処理等への対応上一層有利となる。More specifically, a plurality of pixels (pixels arranged in the scanning direction: three pixels P0 to P2, P3 to P5, and P6 to P8 in FIG. ), The data storage memory sections 32 are configured as one type of shift memory circuit (therefore, they themselves function as a memory circuit section with a transfer control function). ). Specifically, a plurality of memory cells 33 corresponding one-to-one to the pixels arranged in the scanning direction are provided, and each time a pixel transfer clock is received, the color data of the corresponding pixel is sequentially stored while being memory-shifted in the transfer time series. It acts as something to do. The color data of each memory cell 33 of each shift memory circuit 32 is used as the color data of the corresponding pixel in the mask as the data output unit 3.
4 is output. By adopting the shift memory, the pixel transfer relative to the mask MSK in the scanning line direction, that is, the relative movement processing of the mask MSK in the scanning line direction is realized in the form of pipeline processing. Thereby, the mask MSK can be moved quickly on the pixel plane,
This is more advantageous for real-time processing.
【0066】シフトメモリ回路32の個々のメモリセル
33は、色データの入力方向上流側に位置するもののデ
ータ出力端子が、その下流側に位置するもののデータ入
力端子に接続される形で直列配置され、各クロック入力
端子に画素転送クロック(PCK)が入力されるD型フ
リップフロップ回路(Dラッチ)により構成されてい
る。そして、各Dラッチのデータ出力端子から、データ
出力部としてのデータ出力線34が分岐して設けられて
いる。Dラッチの組み合わせにより、パイプライン処理
回路が安価に実現されている。なお、31は、色データ
入力の入力ラッチ用のD型フリップフロップ回路であ
る。The individual memory cells 33 of the shift memory circuit 32 are arranged in series in such a manner that the data output terminal is located on the upstream side in the color data input direction, but the data output terminal is connected to the data input terminal on the downstream side. And a D-type flip-flop circuit (D-latch) in which a pixel transfer clock (PCK) is input to each clock input terminal. Then, a data output line 34 as a data output unit is branched from a data output terminal of each D latch. A pipeline processing circuit is realized at low cost by combining the D latches. Reference numeral 31 denotes a D-type flip-flop circuit for input latch of color data.
【0067】他方、動画フレームの走査方向と直角に隣
接配列する画素(走査直交方向配列画素:ここでは、図
13においてP0,P3,P6、P1,P4,P7、P2,P
5,P8の各3個ずつ)を包含する形でマスク領域を設定
するために、各データ格納メモリ部32は、入力最先頭
側に位置するもの(32(A))を除いた残余のメモリ
部(後続メモリ部:32(B),32(C))に個別に
対応して設けられ、各後続メモリ回路に格納すべき画素
の1つ前の走査線上の画素の色データを記憶するライン
メモリ回路35(LN−1,LN−2)を備えている。
これらラインメモリ回路35は、先頭メモリ回路32
(A)に入力される画素に走査線上の転送位置が対応す
る画素の色データを、対応するメモリエリアから読み出
して、対応する後続メモリ回路32(B),32(C)
に対し転送する。1走査線前の画素の色データをライン
メモリに一時退避させることで、複数走査線にまたがる
マスク設定及びその移動処理が安価にかつ高速で実現さ
れる。On the other hand, pixels arranged adjacently at right angles to the scanning direction of the moving image frame (pixels arranged in the scanning orthogonal direction: here, P0, P3, P6, P1, P4, P7, P2, P2 in FIG. 13)
In order to set the mask area in such a manner as to include three mask areas (5 and P8 each), each data storage memory section 32 has a memory area other than the memory area (32 (A)) located on the input topmost side. Line (subsequent memory unit: 32 (B), 32 (C)), which is provided individually for each of the following memory circuits and stores color data of a pixel on a scanning line immediately before a pixel to be stored in each subsequent memory circuit. The memory circuit 35 (LN-1, LN-2) is provided.
These line memory circuits 35 are
The color data of the pixel whose transfer position on the scanning line corresponds to the pixel input to (A) is read from the corresponding memory area, and the corresponding subsequent memory circuit 32 (B), 32 (C) is read.
Forward to By temporarily saving the color data of the pixel one scanning line before in the line memory, the mask setting over a plurality of scanning lines and the moving process thereof can be realized at low cost and at high speed.
【0068】なお、図5では、図面が煩雑化することを
避けるため、データ出力部としてのデータ出力線34
は、COR1に関係する出力C10〜C18のみを示して
いる。また、各出力のマスクMSK内の対応位置を図6
に示している。ただし、実際は、COR2〜COR6の各出力
C20〜C28、‥‥、C60〜C68からもデータ出
力線34が分岐しており、それぞれ対応色のマスクMS
Kが形成されるようになっていることはいうまでもな
い。In FIG. 5, in order to avoid complication of the drawing, the data output line 34 as a data output unit is used.
Shows only outputs C10 to C18 related to COR1. FIG. 6 shows a corresponding position in the mask MSK of each output.
Is shown in However, actually, the data output lines 34 are also branched from the outputs C20 to C28,..., C60 to C68 of the COR2 to COR6, and the masks MS of the corresponding colors are respectively provided.
It goes without saying that K is formed.
【0069】図15は、COR1〜COR6の特定の1つのも
のに着目して見た場合の、マスクMSK内のデータの流
れ、及びラインメモリ回路35(LN−1,LN−2)
内のデータ格納状態を示すものである。(a)では、1
番目の走査線の先頭の3つの画素がマスクMSK内に入
った状態を示している。この状態では、後続メモリ回路
32(B)のラインメモリ回路LN−1に対し、その1
番目の走査線のデータが順次書き込まれていく。この状
態で新しい画素の転送を1個受けると、データ格納メモ
リ部32がシフトメモリになっていることから、マスク
内の最も古い画素の色データが、新しくマスクMSK内
に入る画素の色データに押し出される形でメモリシフト
し、マスクMSKは1画素分だけ画素平面上にて右側に
移動する。FIG. 15 shows the flow of data in the mask MSK and the line memory circuit 35 (LN-1, LN-2) when focusing on one specific one of COR1 to COR6.
1 shows the data storage state of the data. In (a), 1
This shows a state where the first three pixels of the second scanning line have entered the mask MSK. In this state, the line memory circuit LN-1 of the succeeding memory circuit 32 (B) is
The data of the scanning line is sequentially written. When one new pixel is transferred in this state, the color data of the oldest pixel in the mask is replaced with the color data of the pixel newly entering the mask MSK because the data storage memory unit 32 is a shift memory. The memory shift is performed in an extruded manner, and the mask MSK moves rightward on the pixel plane by one pixel.
【0070】図15(b)は1ライン目の画素転送が終
わって水平同期信号を受け、2ライン目の画素転送に入
った状態を示している。図5に示すよう、各ラインメモ
リ回路35は、水平同期信号HSNCがリセット信号と
して入力されるようになっており、水平同期信号HSN
Cを受けて新たなラインの画素が転送される際には、そ
の画素の格納アドレスがリセットされ、図15(b)の
ラインメモリ回路LN−1のように、再び先頭側から上
書きする形でデータが書き込まれてゆく。また、図5に
示すように、ラインメモリ回路LN−1のデータはライ
ンメモリ回路LN−2にシリアル転送されコピーされ
る。その結果、ラインメモリ回路LN−2は、先頭メモ
リ回路32(A)から見れば、2ライン前のデータを記
憶するものとなる。そして、図15(c)に示すよう
に、2ライン目の画素転送が1個進む毎に、先のライン
の対応するデータをラインメモリ回路LN−1から読み
出しては、後続メモリ回路32(B)に出力を行う。FIG. 15B shows a state in which the pixel transfer of the first line is completed, the horizontal synchronization signal is received, and the pixel transfer of the second line is started. As shown in FIG. 5, each line memory circuit 35 receives the horizontal synchronizing signal HSNC as a reset signal and outputs the horizontal synchronizing signal HSN.
When a pixel of a new line is transferred in response to C, the storage address of the pixel is reset and, as in the line memory circuit LN-1 in FIG. Data is written. Further, as shown in FIG. 5, the data of the line memory circuit LN-1 is serially transferred to the line memory circuit LN-2 and copied. As a result, the line memory circuit LN-2 stores data two lines before as seen from the top memory circuit 32 (A). Then, as shown in FIG. 15C, every time the pixel transfer of the second line advances by one, the corresponding data of the previous line is read out from the line memory circuit LN-1, and is read out from the subsequent memory circuit 32 (B ).
【0071】図15(d)は、3ライン目の画素転送に
入った状態を示し、ラインメモリ回路LN−1からは前
述した通り後続メモリ回路32(B)へのデータ転送が
行われ、ラインメモリ回路LN−2からは後続メモリ回
路32(C)へのデータ転送が行われる。(e)は3ラ
イン目の先頭の3つの画素のデータがマスクMSK内に
入った状態を示し、図16(a)に示すように、画素平
面SC上の左上の9個の画素がマスクMSKに覆われた
形に対応する。この状態で1個の画素が転送される毎
に、マスクMSKは1画素分ずつ走査方向に移動してゆ
き、右端まで行き着いて水平同期信号を受けると、1ラ
イン下がった位置において左端に戻り、再び走査を開始
する。こうして画面の下端まで到達して垂直同期信号
(VSNC)を受けるとフレームがクリアされ、再び次
のフレームに対して同じ処理が動画フレーム切り替えに
同期してリアルタイムに進んでゆくこととなる。FIG. 15D shows a state in which the pixel transfer of the third line has been started. Data transfer from the line memory circuit LN-1 to the subsequent memory circuit 32 (B) is performed as described above. Data transfer from the memory circuit LN-2 to the subsequent memory circuit 32 (C) is performed. FIG. 16E shows a state in which the data of the first three pixels on the third line have entered the mask MSK. As shown in FIG. 16A, the upper left nine pixels on the pixel plane SC have the mask MSK. Corresponding to the shape covered by In this state, each time one pixel is transferred, the mask MSK moves one pixel at a time in the scanning direction. When the mask MSK reaches the right end and receives the horizontal synchronizing signal, it returns to the left end at a position one line lower, Start scanning again. When the frame reaches the lower end of the screen and receives the vertical synchronization signal (VSNC), the frame is cleared, and the same process for the next frame proceeds in real time in synchronization with the moving image frame switching.
【0072】さて、各色のマスクMSKの色データ(マ
スク内の画素数に対応したビット数:個々では9ビッ
ト)は、マスク設定処理回路30からそれぞれデータ出
力線34を経て、図7に示すパターン適合判別・出力回
路40内の、ハードウェアロジック判別回路41(パタ
ーン適合判別手段)に入力される。ハードウェアロジッ
ク判別回路41は、指定色の種類(COR1〜COR6)に対
応した数だけ設けられており、マスク設定処理回路30
からの各画素の色データが二値入力されるデータ入力端
子44(ここでは9入力となる)を備え、それらデータ
入力端子44の入力状態の組み合わせに一対一に対応す
る形で二値の判別結果を生成・出力するものとなってい
る。The color data of the mask MSK for each color (the number of bits corresponding to the number of pixels in the mask: 9 bits each) is transmitted from the mask setting processing circuit 30 via the data output line 34 to the pattern shown in FIG. It is input to a hardware logic determining circuit 41 (pattern matching determining means) in the matching determining / outputting circuit 40. The hardware logic determination circuits 41 are provided by the number corresponding to the types of designated colors (COR1 to COR6), and the mask setting processing circuit 30
, And has a data input terminal 44 (here, 9 inputs) into which the color data of each pixel is binary-inputted. It generates and outputs results.
【0073】ハードウェアロジック判別回路41は、具
体的には論理回路にて構成できる。例えば、図17のパ
ターン条件を使用する場合は、これを9入力のOR回路
1個で簡単に構成できる。他方、図18のように、特定
の2個の画素の色が判別指定色に設定されているか否か
を判別する場合では、図8(a)に示すように、各パタ
ーンにおいて判別指定色となるべき画素の入力と、そう
でない入力とを互いに反転させた9入力AND回路47
を、調べるべきパターン条件の種類だけ設けた回路を例
示できる。このような論理回路は、例えばプログラマブ
ルロジックデバイス(PLD)により実現してもよい。
また、複数のパターン条件からいずれかのものを選択し
て用いることができるように、各パターン条件に対応す
る複数の判別回路を組み込んでおき、セレクタ入力(こ
こではSL1とSL2の2ビット入力)により切替可能
としておけば便利である。なお、本実施例では、各ハー
ドウェアロジック判別回路41へのセレクタ入力は、レ
ジスタ43を介してホストコンピュータ8により与えら
れるようになっている。The hardware logic discriminating circuit 41 can be specifically constituted by a logic circuit. For example, when the pattern condition shown in FIG. 17 is used, the pattern condition can be easily constituted by one 9-input OR circuit. On the other hand, as shown in FIG. 18, when it is determined whether or not the colors of two specific pixels are set as the discrimination designated colors, as shown in FIG. 9-input AND circuit 47 in which the input of the pixel to be formed and the input of the other pixel are mutually inverted.
Can be exemplified by the types of pattern conditions to be examined. Such a logic circuit may be realized by, for example, a programmable logic device (PLD).
Also, a plurality of discriminating circuits corresponding to each pattern condition are incorporated so that any one of the plurality of pattern conditions can be selected and used, and selector inputs (here, 2-bit inputs of SL1 and SL2) are provided. It is convenient if it can be switched by. In this embodiment, the selector input to each hardware logic determination circuit 41 is provided by the host computer 8 through the register 43.
【0074】他方、ハードウェアロジック判別回路41
は、図8(b)に示すように、各画素の色設定状態の全
ての組み合わせP1〜PN(ここでは9ビットなのでN=
512)に対応する出力OPを記憶したLUT回路48
を用いてもよい。ここでは、セレクタ入力毎にパターン
条件が切り替えられるよう、2次元のLUT回路が使用
されている。この場合、マスク設定処理回路30からの
各画素の色データの入力(及びセレクタ入力)は、LU
T回路48に対しアドレス線入力される形となる。On the other hand, the hardware logic determination circuit 41
As shown in FIG. 8B, all combinations P1 to PN of the color setting state of each pixel (here, 9 bits, N =
LUT circuit 48 storing the output OP corresponding to (512)
May be used. Here, a two-dimensional LUT circuit is used so that the pattern condition can be switched for each selector input. In this case, the input (and the selector input) of the color data of each pixel from the mask setting processing circuit 30 is LU
An address line is input to the T circuit 48.
【0075】図7に戻り、各ハードウェアロジック判別
回路41からの判別結果出力(すなわち、各色COR1〜C
OR6のパターンマッチング結果)は、ハードウェアロジ
ックデータ生成回路42に入力される。ハードウェアロ
ジックデータ生成回路42は、各判別指定色の判別回路
からの判別結果が二値入力され、それら判別結果入力端
子の入力状態の組み合わせに一対一に対応する形で、第
一の出力状態及び第二出力状態のいずれかを対象画素デ
ータとして出力する。ここでは、マーカ検出の場合には
マーカ番号のデータを第一の出力状態として出力し、マ
ーカ検出でない場合はマーカ番号のどれにも対応しない
出力を第二の出力状態として出力する。また、ハードウ
ェアロジックデータ生成回路42は、6ビット入力5ビ
ット出力のデコーダで構成されており、マーカ指定色の
設定をセレクタ入力SL1,SL2により選択し(すな
わち、4色マーカまでの設定が可能である)、COR1〜C
OR6の判別結果出力に基づいてマーカ番号のデータを出
力するようになっている。例えば、表2において、セレ
クタ入力SL1,SL2によりCOR1とCOR2とがマーカ
指定色として選択された場合は、COR1とCOR2との判別
入力がアクティブの場合にマーカ番号1を出力するので
ある。なお、この実施例では、COR1〜COR6のうちCOR
1側が優先されるようになっており、多数検出による誤
符号化を抑制するようにしている。Returning to FIG. 7, the judgment result output from each hardware logic judgment circuit 41 (that is, each of the colors COR1 to CORC)
The pattern matching result of OR6) is input to the hardware logic data generation circuit 42. The hardware logic data generation circuit 42 receives the discrimination result from the discrimination circuit of each discrimination designated color as a binary value, and outputs the first output state in a form corresponding to the combination of the input states of the discrimination result input terminals on a one-to-one basis. And the second output state is output as target pixel data. Here, in the case of marker detection, the data of the marker number is output as the first output state, and in the case of not detecting the marker, an output corresponding to none of the marker numbers is output as the second output state. The hardware logic data generation circuit 42 is composed of a decoder of 6-bit input and 5-bit output, and the setting of the marker designation color is selected by the selector inputs SL1 and SL2 (that is, setting of up to four color markers is possible. ), COR1-C
Marker number data is output based on the determination result output of OR6. For example, in Table 2, when COR1 and COR2 are selected as the marker designation colors by the selector inputs SL1 and SL2, the marker number 1 is output when the input for discriminating between COR1 and COR2 is active. In this embodiment, among the COR1 to COR6, the COR
One is prioritized, and erroneous encoding due to multiple detection is suppressed.
【0076】こうして生成されたマーカ番号のデータ
は、抽出画像(マーカ画像)のデータとして、図1の抽
出画像データ出力制御部6とマーカ画素計数部7とに送
られる。図9に示すように、マーカ画素計数部7は、指
定されたマーカ番号の画素のx座標値の和Σx、同y座
標値の和Σy、及び画素数nを各々演算する3つの加算
器55〜57を含んでいる。各加算器の出力累計はデー
タメモリ58に記憶されるとともに、その結果がホスト
コンピュータ8に出力される。データメモリ58には、
Σx−メモリ、Σyメモリ及びnメモリが形成されてい
る。The marker number data thus generated is sent to the extracted image data output control unit 6 and the marker pixel counting unit 7 in FIG. 1 as the data of the extracted image (marker image). As shown in FIG. 9, the marker pixel counting unit 7 includes three adders 55 for calculating the sum Σx of the x coordinate values of the pixels of the designated marker number, the sum Σy of the same y coordinate values, and the number of pixels n. ~ 57. The output total of each adder is stored in the data memory 58, and the result is output to the host computer 8. In the data memory 58,
Σx-memory, Σy memory and n-memory are formed.
【0077】Σx−メモリは、初期状態においてゼロク
リアされている。サブコントローラ54は、ホストコン
ピュータ8からのアドレス情報に基づいて、各マーカ色
毎のΣxデータの格納エリアのアドレスを指定するアド
レスコントローラを内蔵し、画素の色に応じて、対応す
るアドレスのメモリエリアを選択する。初めの処理画素
が入ってくると、その画素のマーカ番号データがアドレ
スコントローラを経てΣx−メモリのアドレス線に入力
されることとなる。The $ x-memory is cleared to zero in the initial state. The sub-controller 54 has a built-in address controller that specifies the address of the storage area of the $ x data for each marker color based on the address information from the host computer 8, and stores the memory area of the corresponding address according to the color of the pixel. Select When the first processed pixel comes in, the marker number data of that pixel is input to the address line of the $ x-memory via the address controller.
【0078】そして、画像転送の同期制御部(図2のシ
ステムコントローラ3に内蔵されている)により生成さ
れる水平同期信号を基準として、xカウンタ52が、対
象となる画素が転送されてくるまでの転送画素個数をカ
ウントし、その画素の画面上における水平方向座標値と
して加算器55に入力される。なお、画素の転送制御
は、図2のシステムコントローラ3内のクロックパルス
発生部が発するクロックパルス信号に従って制御され
る。他方、Σx−メモリのその時点での記憶値は加算器
55へフィードバックされ、xカウンタ52からのカウ
ント値(すなわち、新たな画素のx座標値)とΣx−メ
モリの累積加算値とが加算器55により加算され、さら
に図示しないバッファ等を通じて、Σx−メモリの同じ
アドレスに再び書き込まれて加算記憶値が更新され、1
画素の処理が終了する。Then, based on the horizontal synchronizing signal generated by the image transfer synchronizing control unit (built-in to the system controller 3 in FIG. 2), the x counter 52 operates until the target pixel is transferred. Is transferred to the adder 55 as a horizontal coordinate value of the pixel on the screen. The transfer control of the pixels is controlled according to a clock pulse signal generated by a clock pulse generator in the system controller 3 of FIG. On the other hand, the currently stored value of the Σx-memory is fed back to the adder 55, and the count value (ie, the x coordinate value of the new pixel) from the x counter 52 and the cumulative addition value of the Σx-memory are added to the adder 55. 55, and is written again to the same address of the $ x-memory through a buffer or the like (not shown) to update the added storage value.
The processing of the pixel ends.
【0079】次に、画素のΣyを演算するための加算器
56は、Σy−メモリと対をなす。作動は、Σxの演算
系と略同様であるが、加算器56に入力されるのは、画
素のy座標値、すなわち同期制御部からの垂直同期信号
を受けてから、対象となる画素位置までの走査線本数
(例えば1走査線毎に挿入される水平同期信号の数で代
用できる)をカウントするyカウンタ53のカウント出
力値であり、その加算出力値は、該y座標の累積加算値
である。Next, an adder 56 for calculating Σy of a pixel is paired with Σy-memory. The operation is substantially the same as that of the arithmetic system of が x, except that the input to the adder 56 is from the y-coordinate value of the pixel, that is, from the reception of the vertical synchronization signal from the synchronization control unit to the target pixel position. Is the count output value of the y counter 53 for counting the number of scanning lines (for example, the number of horizontal synchronization signals inserted for each scanning line), and the added output value is the cumulative addition value of the y coordinate. is there.
【0080】また、nを演算するための加算器57は、
その出力累計を記憶するnメモリと対をなす。作動は、
Σxの演算系と略同様であるが、加算器57に入力され
るのは、指定のマーカ番号の画素が一個入る毎にカウン
トパルスを一個発する画素カウンタ(図示せず)の出力
であり、その加算出力値は、対応するカラーマーカの画
像領域(マーカ画像)の総画素数nである。The adder 57 for calculating n is
It forms a pair with the n memory that stores the output total. The operation is
The operation system is substantially the same as that of the calculation system of Σx, but what is input to the adder 57 is the output of a pixel counter (not shown) that emits one count pulse each time one pixel of the designated marker number enters. The addition output value is the total number n of pixels of the image area (marker image) of the corresponding color marker.
【0081】この一連の動作を、現在作動状態にあるカ
ラーカメラ15(図2)の画面全体に行うと、各カラー
マーカ(CM)のx座標の総和ΣxがΣx−メモリに、
同じくy座標の総和ΣyがΣy−メモリに、さらに、画
素総数nがnメモリに、それぞれ演算結果として記憶さ
れた状態となる。この記憶値は、それぞれホストコンピ
ュータ8に転送される。そして、1フレームの画像デー
タの処理が終了すると、フレームカウンタからの信号に
より各メモリの内容がクリアされ、次のフレームの画像
データに対して同じ処理が繰り返される。こうして、カ
ラーカメラ15の撮影により逐次生成される画像データ
に対し、各カラーマーカの上記Σx、Σy及びnの値
が、マーカ位置データとしてリアルタイムにて演算・生
成され、ホストコンピュータ82に出力されることとな
る。When this series of operations is performed on the entire screen of the color camera 15 (FIG. 2) that is currently in operation, the total Σx of the x coordinate of each color marker (CM) is stored in Σx-memory,
Similarly, a state is obtained in which the sum Σy of the y-coordinates is stored in the 、 y-memory and the total number of pixels n is stored in the n-memory as a calculation result. The stored values are transferred to the host computer 8, respectively. When the processing of the image data of one frame is completed, the contents of each memory are cleared by the signal from the frame counter, and the same processing is repeated for the image data of the next frame. In this way, the values of Δx, Δy, and n of each color marker are calculated and generated in real time as marker position data with respect to the image data sequentially generated by photographing with the color camera 15, and output to the host computer 82. It will be.
【0082】例えば図11のフローチャートに示すよう
に、図1のホストコンピュータ8側では、S1で指定さ
れたカラーマーカの番号(アドレス)を出力し、S2〜
S4で、そのカラーマーカのΣx、Σy及びnの値をリ
ードする。そして、これを用いることにより、例えば図
22等に示すように、抽出されたマーカ画像の重心座標
Gを演算し、これを被写体の動作データとして取得する
ことができる。この動作データは、例えばホストコンピ
ュータ8により、CGデータ記憶部12に記憶されたア
ニメーション等のCGデータ中に、動画キャラクタの動
作データとして組み込むことができ、モニタ10上にて
これをデモ出力することができる。For example, as shown in the flowchart of FIG. 11, the host computer 8 of FIG. 1 outputs the number (address) of the color marker designated in S1, and
At step S4, the values of the color markers Σx, Σy and n are read. Then, by using this, as shown in FIG. 22, for example, the barycentric coordinates G of the extracted marker image can be calculated, and this can be obtained as motion data of the subject. This motion data can be incorporated as motion data of the moving image character into CG data such as an animation stored in the CG data storage unit 12 by the host computer 8, for example, and the demo data can be output on the monitor 10. Can be.
【0083】一方、抽出画像データ出力制御部6は、マ
ーカ番号のデータを画素アドレスと対応付けた形でフレ
ームメモリ21に蓄積してマーカ画像データとなし、こ
れをホストコンピュータ8側からの要求に従いこれに転
送する。ホストコンピュータ8側ではこのマーカ画像デ
ータにより、例えばマーカ画像の形状解析等を行うこと
が可能となる。On the other hand, the extracted image data output control unit 6 accumulates the data of the marker number in the frame memory 21 in a form associated with the pixel address to make the marker image data, and according to the request from the host computer 8 side, Transfer to this. With the marker image data, the host computer 8 can perform, for example, shape analysis of the marker image.
【0084】なお、3色以上に塗り分けたマーカを使用
する場合、一部のマーカ色を無視して、これを見掛け
上、少ない色で塗り分けられたマーカとして認識するこ
とも可能である。このような処理は、図7において、ハ
ードウェアロジックデータ生成回路42に対する指定色
の設定数を減ずるだけで、簡単に行うことができる。図
23は、このような処理の応用例を示している。すなわ
ち、(a)に示すマーカMKは、本来COR1〜COR3の3
色で塗り分けられているのであるが、このうちCOR1とC
OR2のみを採用すると、COR3の領域はマーカMKに属
していないものと判断されるので、マーカ画像EI1
は、COR1とCOR2の境界付近に現われ、重心位置G1も
マーカ画像EI1内のものとして演算される。他方、CO
R2とCOR3のみを採用すると、COR1の領域はマーカM
Kに属していないものと判断されるので、マーカ画像E
I2は、COR2とCOR3の境界付近に現われ、重心位置G
2はマーカ画像EI2内のものとして演算される。これ
らの重心位置G1,G2は、元のマーカMK内において異
なる座標値を有するものとなるから、例えば画像上のG
1,G2の値から、マーカMKのカメラに対する姿勢を検
出できる。例えば、図23(b)は、線分G1G2の水平
線Xに対する傾斜角度から、マーカMKの水平線Xに対
する傾斜角度θを求める例を示すものであり、(c)
は、線分G1G2の長さから、鉛直面z(紙面と一致させ
ている)に対する前後方向の傾斜角度φを求める例を示
している。When using markers that are painted in three or more colors, it is possible to ignore some of the marker colors and apparently recognize them as markers painted in fewer colors. Such processing can be easily performed only by reducing the number of designated colors set in the hardware logic data generation circuit 42 in FIG. FIG. 23 shows an application example of such processing. That is, the marker MK shown in (a) is originally three of COR1 to COR3.
They are painted in different colors, of which COR1 and C
If only OR2 is adopted, it is determined that the area of COR3 does not belong to the marker MK.
Appears near the boundary between COR1 and COR2, and the barycentric position G1 is also calculated as that in the marker image EI1. On the other hand, CO
If only R2 and COR3 are adopted, the area of COR1 is the marker M
Since it is determined that the image does not belong to K, the marker image E
I2 appears near the boundary between COR2 and COR3, and the center of gravity G
2 is calculated as that in the marker image EI2. Since these barycentric positions G1 and G2 have different coordinate values in the original marker MK, for example, G1 on the image
The attitude of the marker MK with respect to the camera can be detected from the values of 1, G2. For example, FIG. 23B shows an example in which the inclination angle θ of the marker MK with respect to the horizontal line X is obtained from the inclination angle of the line segment G1G2 with respect to the horizontal line X, and FIG.
Shows an example in which the inclination angle φ in the front-rear direction with respect to the vertical plane z (coincident with the paper surface) is obtained from the length of the line segment G1G2.
【0085】上記動画処理装置1においては、図10に
示すように、ホストコンピュータ8からの指令により作
動するビデオスイッチ3に複数のカラーカメラ15を接
続し、あるカメラ15において被写体上の所定のカラー
マーカが死角に入った場合に、死角に入っていないカメ
ラ15に適宜切り替えて使用するようにしてもよい。In the moving picture processing apparatus 1, as shown in FIG. 10, a plurality of color cameras 15 are connected to a video switch 3 which is operated in accordance with a command from the host computer 8, and a predetermined color on a subject in one camera 15 is determined. When the marker enters the blind spot, the camera may be appropriately switched to the camera 15 not located in the blind spot.
【0086】なお、前述の通り、本発明の動画処理装置
の適用分野はモーションキャプチャシステムに限られる
ものではなく、例えば前述したフィルタ機能を利用する
形で動画の画像補正システムや動画を用いた検査装置等
へも応用することができる。また、対象となる動画像は
カラー画像に限られるものではなく、グレースケールや
二値の動画像への適用も図ることができる。As described above, the field of application of the moving image processing apparatus of the present invention is not limited to the motion capture system. It can also be applied to devices and the like. Further, the target moving image is not limited to a color image, and can be applied to a grayscale or binary moving image.
【図1】本発明の一実施例たる動画処理装置の電気的構
成を全体的に示すブロック図。FIG. 1 is a block diagram showing an overall electrical configuration of a moving image processing apparatus according to an embodiment of the present invention.
【図2】その画像入出力部の内容を示すブロック図。FIG. 2 is a block diagram showing the contents of the image input / output unit.
【図3】ルックアップテーブルメモリ回路の具体的な構
成例を示す回路図。FIG. 3 is a circuit diagram showing a specific configuration example of a look-up table memory circuit.
【図4】二次元ルックアップテーブルのデータ内容を概
念的に示す図。FIG. 4 is a diagram conceptually showing data contents of a two-dimensional lookup table.
【図5】画像抽出部のマスク設定処理回路の一例を示す
回路図。FIG. 5 is a circuit diagram showing an example of a mask setting processing circuit of the image extracting unit.
【図6】データ出力線の位置とマスク領域内の画素位置
との対応関係を示す説明図。FIG. 6 is an explanatory diagram showing a correspondence relationship between a position of a data output line and a pixel position in a mask area.
【図7】画像抽出部のパターン適合判別・出力回路の一
例を示す回路図。FIG. 7 is a circuit diagram showing an example of a pattern matching determination / output circuit of the image extraction unit.
【図8】ハードウェアロジック判別回路をゲート又はル
ックアップテーブルメモリを用いて構成する例を示す
図。FIG. 8 is a diagram illustrating an example in which a hardware logic determination circuit is configured using a gate or a lookup table memory.
【図9】抽出画像データ出力制御部とマーカ画素計数部
の構成例を示す回路図。FIG. 9 is a circuit diagram showing a configuration example of an extracted image data output control unit and a marker pixel counting unit.
【図10】複数のカメラの切替回路の例を示すブロック
図。FIG. 10 is a block diagram illustrating an example of a switching circuit of a plurality of cameras.
【図11】カラーマーカの重心位置演算の一例を示すフ
ローチャート。FIG. 11 is a flowchart illustrating an example of calculating the center of gravity of a color marker.
【図12】画素平面上のマスク領域設定状態と、それに
基づくマーカ抽出状態の一例を示す説明図。FIG. 12 is an explanatory diagram showing an example of a mask area setting state on a pixel plane and a marker extraction state based on the state.
【図13】マスク領域の説明図。FIG. 13 is an explanatory diagram of a mask region.
【図14】マスク領域の別の例を示す説明図。FIG. 14 is an explanatory diagram showing another example of a mask region.
【図15】マスク領域とラインメモリの作動説明図。FIG. 15 is an explanatory diagram of the operation of a mask area and a line memory.
【図16】画素平面上にてマスク領域を走査する様子を
示す説明図。FIG. 16 is an explanatory diagram showing a state of scanning a mask area on a pixel plane.
【図17】1画素検出を行う場合のパターン条件のいく
つかの例を示す説明図。FIG. 17 is an explanatory diagram showing some examples of pattern conditions when performing one-pixel detection.
【図18】隣接2画素の検出を行う場合のパターン条件
のいくつかの例を示す説明図。FIG. 18 is an explanatory diagram showing some examples of pattern conditions when detecting two adjacent pixels.
【図19】パターンマッチングによる動画フィルタ処理
のいくつかの例を示す説明図。FIG. 19 is an explanatory diagram showing some examples of moving image filter processing by pattern matching.
【図20】その処理の流れの一例を示す説明図。FIG. 20 is an explanatory diagram showing an example of the processing flow.
【図21】同じく別の例を示す説明図。FIG. 21 is an explanatory view showing another example.
【図22】マーカ抽出の各種例を示す説明図。FIG. 22 is an explanatory diagram showing various examples of marker extraction.
【図23】3色以上のマーカを、それよりも少数色のマ
ーカとして認識する方法と、そのいくつかの利用例を示
す説明図。FIG. 23 is an explanatory diagram showing a method of recognizing a marker of three or more colors as a marker of a smaller number of colors, and some usage examples thereof.
【図24】プレート状マーカの各種例を示す正面図。FIG. 24 is a front view showing various examples of a plate-shaped marker.
【図25】立体マーカの各種例を示す正面図。FIG. 25 is a front view showing various examples of a three-dimensional marker.
【図26】同じく別のいくつかの例を示す正面図。FIG. 26 is a front view showing some other examples.
【図27】同じくさらに別の例を示す正面図。FIG. 27 is a front view showing still another example.
1 動画処理装置 2 動作データ作成システム 3 システムコントローラ 4 画像入出力制御部(色統合画像データ生成手段) 5 画像抽出部 6 抽出画像データ出力制御部 7 マーカ画素計数部(抽出画像位置データ生成手段、
動作データ出力手段) 8 ホストコンピュータ 9 I/Fボード 10 モニタ 11 マイクロプロセッサ 12 CGデータ記憶部 15 カラーカメラ 16 ビデオデコーダ 18 ルックアップテーブルメモリ回路 30 マスク設定処理回路(マスク領域設定手段、マス
ク領域走査手段) 32 データ格納メモリ部(色データ格納メモリ部、状
態データ格納メモリ部、転送制御機能付きメモリ回路
部) 33 D型フリップフロップ回路(メモリセル) 34 データ出力線(データ出力部) 35 ラインメモリ回路 40 パターン適合判別・出力回路 41 ハードウェアロジック判別回路(パターン適合判
別手段) 42 ハードウェアロジックデータ生成回路(対象画素
データ生成手段、適合画素抽出手段、抽出画素データ出
力手段) 44 色データ入力端子 45 判別結果入力端子 47 ゲート 48 ルックアップテーブルメモリ 52 xカウンタ 53 yカウンタ 55 加算器 56 加算器 57 加算器 58 データメモリ MSK マスク領域 SC 画素平面 SPC 対象画素 MK カラーマーカReference Signs List 1 moving image processing device 2 operation data creation system 3 system controller 4 image input / output control unit (color integrated image data generation unit) 5 image extraction unit 6 extracted image data output control unit 7 marker pixel counting unit (extraction image position data generation unit,
8 Host computer 9 I / F board 10 Monitor 11 Microprocessor 12 CG data storage unit 15 Color camera 16 Video decoder 18 Lookup table memory circuit 30 Mask setting processing circuit (mask area setting means, mask area scanning means) 32) data storage memory section (color data storage memory section, state data storage memory section, memory circuit section with transfer control function) 33 D-type flip-flop circuit (memory cell) 34 data output line (data output section) 35 line memory circuit 40 pattern matching judgment / output circuit 41 hardware logic judgment circuit (pattern matching judgment means) 42 hardware logic data generation circuit (target pixel data generation means, matching pixel extraction means, extracted pixel data output means) 44 color data input terminal 45 discrimination result input terminal 47 gate 48 look-up table memory 52 x counter 53 y counter 55 adder 56 adder 57 adder 58 data memory MSK mask area SC pixel plane SPC target pixel MK color marker
Claims (18)
して広義に「色」という)の出力設定が互いに異なる3
種類以上の画素が混在したカラー又は濃淡階調の動画像
の、各フレームの画像データに対し、予め定められた形
状及び大きさの仮想的なマスク領域を、その画像データ
の画素平面上において移動可能に設定するマスク領域設
定手段と、 前記各画素に対し設定される3種類以上の色のうち、2
以上のものを判別指定色として同時に指定し、また、パ
ターン条件として、各判別指定色の画素が前記マスク領
域内に共存していることを必須とし、かつ判別指定色画
素のマスク領域内における個数、判別指定色画素のマス
ク領域内における位置、及び判別指定色画素が複数含ま
れる場合においてはそれらの相対的な配置関係、の少な
くとも1つを含むものを予め定め、前記画素平面上に設
定されたマスク領域において各判別指定色の画素が、そ
のパターン条件に適合しているか否かを判別するパター
ン適合判別手段と、 設定された前記マスク領域と所定の位置関係を満足する
1又は複数の画素を対象画素として、その対象画素に対
し前記パターン適合判別手段による判別結果に応じた特
定の出力状態を規定する対象画素データを生成する対象
画素データ生成手段と、 を含むことを特徴とする動画処理装置。An output setting of a color and / or a density (hereinafter, collectively referred to as “color” in a broad sense) is different from each other.
A virtual mask area of a predetermined shape and size is moved on the pixel plane of the image data for the image data of each frame of the moving image of the color or the gray scale in which more than two types of pixels are mixed. Mask area setting means for setting possible, and two or more of three or more types of colors set for each pixel.
The above items are simultaneously designated as the discrimination designated colors, and the pattern condition requires that pixels of each discrimination designated color coexist in the mask area, and the number of discrimination designated color pixels in the mask area. The position including at least one of the position of the discrimination-designated color pixel in the mask area, and the relative positional relationship between the discrimination-designated color pixels when a plurality of discrimination-designated color pixels are included, is set in advance on the pixel plane. Pattern matching determining means for determining whether or not a pixel of each determination designated color in the mask area matches the pattern condition; and one or more pixels satisfying a predetermined positional relationship with the set mask area. Is used as a target pixel, and target pixel data that defines a specific output state corresponding to the result of the determination by the pattern matching determination unit with respect to the target pixel is generated. A moving image processing device comprising: elephant pixel data generating means.
各映像信号に含まれる色情報を特定数の色グループに統
合・集約することにより、デコード前の映像信号よりも
データ数の少ない色統合画像データを生成する色統合画
像データ生成手段を含み、 前記パターン適合判別手段による前記パターン条件への
適合判別が、その色統合画像データ上の画素に対して行
われる請求項1記載の動画処理装置。2. A color integrated image data having a smaller number of data than a video signal before decoding by integrating and aggregating color information included in each video signal into a specific number of color groups through decoding processing of an original moving image video signal. The moving image processing apparatus according to claim 1, further comprising: a color integrated image data generating unit configured to generate a color integrated image data, wherein the pattern matching determining unit determines whether or not the pattern condition is satisfied with respect to pixels on the color integrated image data.
各映像信号に含まれる色情報を特定数の色グループに統
合・集約することにより、デコード前の映像信号よりも
データ数の少ない色統合画像データの形で、色彩及び/
又は濃度(以下、両者を総称して広義に「色」という)
の出力設定が互いに異なる3種類以上の画素が混在した
カラー又は濃淡階調の動画像の、各フレームの画像デー
タを生成する色統合画像データ生成手段と、 その画像データに対し、予め定められた形状及び大きさ
の仮想的なマスク領域を、その画像データの画素平面上
において移動可能に設定するマスク領域設定手段と、 前記各画素に対し設定される3種類以上の色のうち、1
又は2以上のものを判別指定色として指定し、また、パ
ターン条件として、判別指定色画素のマスク領域内にお
ける個数、判別指定色画素のマスク領域内における位
置、及び判別指定色画素が複数含まれる場合においては
それらの相対的な配置関係、の少なくとも1つを含むも
のを予め定め、前記画素平面上に設定されたマスク領域
において各判別指定色の画素が、そのパターン条件に適
合しているか否かを判別するパターン適合判別手段と、 設定された前記マスク領域と所定の位置関係を満足する
1又は複数の画素を対象画素として、その対象画素に対
し前記パターン適合判別手段による判別結果に応じた特
定の出力状態を規定する対象画素データを生成する対象
画素データ生成手段と、 を含むことを特徴とする動画処理装置。3. A color integrated image data having a smaller number of data than a video signal before decoding by integrating and aggregating color information included in each video signal into a specific number of color groups through decoding processing of an original moving image video signal. In the form of colors and / or
Or density (hereinafter, both are collectively referred to as "color" in a broad sense)
A color integrated image data generating means for generating image data of each frame of a color or grayscale moving image in which three or more types of pixels having different output settings from each other are mixed; A mask area setting means for setting a virtual mask area having a shape and a size so as to be movable on a pixel plane of the image data; and one of three or more types of colors set for each pixel.
Alternatively, two or more colors are designated as the discrimination designated colors, and the pattern condition includes a plurality of discrimination designated color pixels in the mask area, positions of the discrimination designated color pixels in the mask area, and a plurality of discrimination designated color pixels. In this case, it is determined in advance that at least one of the relative arrangement relations is determined, and whether or not the pixels of the respective designated colors match the pattern condition in the mask area set on the pixel plane. Pattern matching determining means for determining whether or not one or more pixels satisfying a predetermined positional relationship with the set mask area are set as target pixels, and the target pixel is determined based on a result of the determination by the pattern matching determining means. A moving image processing device, comprising: target pixel data generating means for generating target pixel data that defines a specific output state.
別指定色の画素の配列が前記パターン条件に適合すると
判別された場合には、前記対象画素の出力状態を第一の
出力状態に設定するデータを生成する一方、非適合と判
別された場合には、前記対象画素の出力状態を前記第一
の出力状態とは異なる第二の出力状態に設定するデータ
を生成するものである請求項1ないし3のいずれかに記
載の動画処理装置。4. The target pixel data generating means sets an output state of the target pixel to a first output state when it is determined that the arrangement of the pixels of the specified color matches the pattern condition. 2. The method according to claim 1, further comprising: generating data for setting an output state of the target pixel to a second output state different from the first output state when the data is determined to be non-conforming. 4. The moving image processing device according to any one of items 1 to 3.
するマスク領域走査手段と、 各走査位置のマスク領域に対応する対象画素のうち、前
記パターン条件に適合と判別された画素(以下、適合画
素という)を抽出する適合画素抽出手段とを含む請求項
1ないし4のいずれかに記載の動画処理装置。5. A mask area scanning unit that scans the mask area on the pixel plane, and a pixel determined to be suitable for the pattern condition among target pixels corresponding to the mask area at each scanning position (hereinafter referred to as an adaptive pixel). 5. The moving image processing apparatus according to claim 1, further comprising: a suitable pixel extracting unit that extracts a pixel.
記適合画素の集合として表される抽出画像のデータとし
て出力する抽出画像データ出力手段を含む請求項5記載
の動画処理装置。6. The moving image processing apparatus according to claim 5, further comprising an extracted image data output unit that outputs the extracted data of the relevant pixels as data of an extracted image represented as a set of the relevant pixels.
上の位置情報に基づいて、前記適合画素の集合として表
される抽出画像の位置データを生成する抽出画像位置デ
ータ生成手段を含む請求項5又は6に記載の動画処理装
置。7. An extracted image position data generating means for generating position data of an extracted image represented as a set of the suitable pixels based on the position information of the extracted suitable pixels on the pixel plane. 7. The moving image processing device according to 5 or 6.
又はその被写体の一部をカラーマーカとして定めた状態
において、その被写体の動作を撮影するカラーカメラを
備え、 前記パターン適合判別手段は、前記カラーマーカの画像
情報を抽出するために、そのカラーマーカに含まれる1
又は2以上の色を前記判別指定色として、前記マスク領
域内においてその判別指定色の画素の配列が前記パター
ン条件に適合しているか否かを判別するものとされてお
り、 前記適合画素抽出手段は、前記適合画素として、カラー
マーカの画像(以下、マーカ画像という)の構成画素
(以下、マーカ画素という)の少なくとも一部を抽出す
るものであり、 前記抽出画像位置データ生成手段は、抽出された前記マ
ーカ画素の前記画素平面上の位置情報に基づいて、前記
マーカ画素の集合として表されるマーカ画像の位置デー
タを生成するマーカ位置データ生成手段であり、さら
に、 各動画フレーム毎に生成された前記マーカ画像の位置デ
ータを、前記被写体の動作データとして出力する動作デ
ータ出力手段を含む請求項1ないし7のいずれかに記載
の動画処理装置。8. A method for attaching a color marker to a subject,
Or, in a state in which a part of the subject is defined as a color marker, a color camera for photographing the movement of the subject is provided, and the pattern matching determination unit includes a color camera for extracting image information of the color marker. 1 included
Or, as two or more colors as the discrimination designated colors, it is determined whether or not the arrangement of pixels of the discrimination designated colors in the mask area conforms to the pattern condition. Extracts at least a part of constituent pixels (hereinafter, referred to as marker pixels) of a color marker image (hereinafter, referred to as a marker image) as the compatible pixels. The extracted image position data generating means, Marker position data generating means for generating position data of a marker image represented as a set of the marker pixels based on the position information of the marker pixels on the pixel plane, and further generated for each moving image frame. 8. An operation data output means for outputting the position data of the marker image as operation data of the subject. The placing of the moving image processing apparatus.
異なるマーカ色にて着色された複数領域に区分されたも
のを用い、被写体にそのカラーマーカを取り付けるか、
又はその被写体の一部をカラーマーカとして定めた状態
において、その被写体の動作を撮影するカラーカメラ
と、 前記撮影された被写体の動画像の、各フレームの画像デ
ータにおいて、前記マーカ色に対応する特定の2以上の
色が混在して存在する領域をマーカ画像として特定する
マーカ画像特定手段と、 その特定されたマーカ画像を構成するマーカ画素の前記
画素平面上の位置情報に基づいて、前記マーカ画素の集
合として表されるマーカ画像の位置データを生成するマ
ーカ位置データ生成手段と、 各動画フレーム毎に生成された前記マーカ画像の位置デ
ータを、前記被写体の動作データとして出力する動作デ
ータ出力手段と、 を備えたことを特徴とする動画処理装置。9. A method in which the surface of one color marker is divided into a plurality of regions colored by two or more different marker colors, and the color marker is attached to a subject,
Or, in a state in which a part of the subject is defined as a color marker, a color camera for photographing the motion of the subject, and specifying the color corresponding to the marker color in image data of each frame of the moving image of the photographed subject. A marker image specifying means for specifying, as a marker image, an area in which two or more colors coexist, and the marker pixel based on position information on the pixel plane of the marker pixel constituting the specified marker image Marker position data generating means for generating position data of a marker image represented as a set of motion image data; and motion data output means for outputting the position data of the marker image generated for each moving image frame as motion data of the subject. A moving image processing apparatus, comprising:
て各映像信号に含まれる色情報を特定数の色グループに
統合・集約することにより、デコード前の映像信号より
もデータ数の少ない色統合画像データを生成する色統合
画像データ生成手段を含み、 前記マーカ画像特定手段は、前記色統合画像データにお
いて前記マーカ画像を特定するものである請求項9記載
の動画処理装置。10. Color integrated image data having a smaller number of data than a video signal before decoding by integrating and aggregating color information included in each video signal into a specific number of color groups through decoding processing of an original moving image video signal. The moving image processing apparatus according to claim 9, further comprising a color integrated image data generating unit that generates the marker image, wherein the marker image specifying unit specifies the marker image in the color integrated image data.
定められた形状及び大きさの仮想的なマスク領域を、そ
の画像データの画素平面上において移動可能に設定する
マスク領域設定手段と、 前記各画素に対し設定される複数の色のうち、1又は2
以上のものを前記マーカ色に対する判別指定色として指
定し、また、パターン条件として、判別指定色画素のマ
スク領域内における個数、判別指定色画素のマスク領域
内における位置、及び判別指定色画素が複数含まれる場
合においてはそれらの相対的な配置関係、の少なくとも
1つを含むものを予め定め、前記画素平面上に設定され
たマスク領域において各判別指定色の画素が、そのパタ
ーン条件に適合しているか否かを判別するパターン適合
判別手段と、 前記マスク領域を前記画素平面上で走査するマスク領域
走査手段と、 各走査位置のマスク領域に対応する対象画素のうち、前
記パターン条件に適合と判別された画素(以下、適合画
素という)を抽出する適合画素抽出手段とを含み、 前記マーカ位置データ生成手段は、その抽出された前記
適合画素の前記画素平面上の位置情報に基づいて前記マ
ーカ位置情報を生成するものである請求項9又は10に
記載の動画処理装置。11. A mask area setting means for setting a virtual mask area having a predetermined shape and size to be movable on a pixel plane of the image data for image data of each frame; 1 or 2 among a plurality of colors set for the pixel
The above are designated as the discrimination designated colors for the marker color, and the number of discrimination designated color pixels in the mask area, the position of the discrimination designated color pixels in the mask area, and the plurality of discrimination designated color pixels are specified as the pattern conditions. In the case where it is included, a pixel that includes at least one of their relative arrangement relations is determined in advance, and in the mask area set on the pixel plane, the pixel of each discrimination designated color matches the pattern condition. Pattern matching determining means for determining whether or not there is a mask area; mask area scanning means for scanning the mask area on the pixel plane; and determining that the target pixel corresponding to the mask area at each scanning position matches the pattern condition. Pixel extraction means for extracting the extracted pixels (hereinafter referred to as “adapted pixels”). Video processing apparatus according to claim 9 or 10 and generates the marker position information based on position information on the pixel plane of the adaptation pixel.
ク領域内の各画素に対応する色データ格納メモリ部が画
素転送の時系列順に配列されるとともに、画素転送クロ
ックに同期して、それら色データ格納メモリ部に対し、
各画素の色データを配列上流側から順送り的に転送・格
納する、転送制御機能を有した転送制御機能付きメモリ
回路部を含む請求項1〜8及び11のいずれかに記載の
動画処理装置。12. The mask area setting means, wherein color data storage memory sections corresponding to respective pixels in the mask area are arranged in chronological order of pixel transfer, and the color data storage memory sections are synchronized with a pixel transfer clock. For the storage memory part,
12. The moving image processing apparatus according to claim 1, further comprising a memory circuit unit having a transfer control function having a transfer control function for sequentially transferring and storing the color data of each pixel from the upstream side of the array.
定されたマスク領域内の各画素に対応して、該画素が前
記判別指定色に設定されているか否かが二値入力される
色データ入力端子を備え、それら色データ入力端子の入
力状態の組み合わせに一対一に対応する形で二値の判別
結果を生成・出力するハードウェアロジック判別回路を
含む請求項1〜8、11及び12のいずれかに記載の動
画処理装置。13. A color data input unit for binaryly inputting, for each pixel in the set mask area, whether or not the pixel is set to the specified color, in accordance with each pixel in the set mask area. 13. A hardware logic discriminating circuit comprising a terminal, and a hardware logic discriminating circuit for generating and outputting a binary discrimination result in a form corresponding to a combination of the input states of the color data input terminals on a one-to-one basis. A moving image processing apparatus according to any one of the above.
が指定されるようになっており、前記判別回路はその判
別指定色に等しい数だけ設けられるとともに、 前記対象画素データ生成手段は、各判別指定色の判別回
路からの判別結果が二値入力される複数の判別結果入力
端子を備え、それら判別結果入力端子の入力状態の組み
合わせに一対一に対応する形で、前記第一の出力状態及
び第二の出力状態のいずれかを前記対象画素データとし
て出力するハードウェアロジックデータ生成回路を含む
請求項4〜8及び11〜13のいずれかに記載の動画処
理装置。14. The discrimination designating color is designated by two or more kinds, and the discriminating circuits are provided in a number equal to the discriminating designated color. A plurality of determination result input terminals into which a determination result from the determination circuit of the determination designation color is binary-inputted, and the first output state is provided in a form corresponding to a combination of input states of the determination result input terminals on a one-to-one basis. The moving image processing device according to any one of claims 4 to 8, and 11 to 13, further comprising a hardware logic data generation circuit that outputs any one of a second output state and a second output state as the target pixel data.
互いに異なる2種類以上の画素が混在した動画像の、各
フレームの画像データに対し、予め定められた形状及び
大きさの仮想的なマスク領域を、その画像データの画素
平面上において移動可能に設定するマスク領域設定手段
と、 前記画素に設定可能な前記出力設定状態のうち、1又は
2以上のものを判別指定状態として指定し、また、パタ
ーン条件として、判別指定状態画素のマスク領域内にお
ける個数、判別指定状態画素のマスク領域内における位
置、及び判別指定状態画素が複数含まれる場合において
はそれらの相対的な配置関係、の少なくとも1つを含む
ものを予め定め、前記設定されたマスク領域における前
記判別指定状態の画素が、予め定められたパターン条件
に適合しているか否かを判別するパターン適合判別手段
と、 設定された前記マスク領域と所定の位置関係を満足する
1又は複数の画素を対象画素として、その対象画素に対
し前記パターン適合判別手段による判別結果に応じた特
定の出力状態を規定する、対象画素データを生成する対
象画素データ生成手段とを含み、 前記マスク領域設定手段は、前記マスク領域内の各画素
に対応する状態データ格納メモリ部が画素転送の時系列
順に配列されるとともに、画素転送クロックに同期し
て、それら状態データ格納メモリ部に対し、各画素の出
力設定状態データを配列上流側から順送り的に転送・格
納する転送制御機能を有した転送制御機能付きメモリ回
路部を有し、 前記パターン適合判別手段は、前記設定されたマスク領
域内の各画素に対応して、該画素が前記判別指定状態に
設定されているか否かが二値入力される出力設定状態デ
ータ入力端子を備え、それら出力設定状態データ入力端
子の入力状態の組み合わせに一対一に対応する形で二値
の判別結果を生成・出力するハードウェアロジック判別
回路を有することを特徴とする動画処理装置。15. A virtual mask having a predetermined shape and size for image data of each frame of a moving image in which two or more types of pixels having different color and / or density output setting states are mixed. Mask area setting means for setting an area to be movable on a pixel plane of the image data; and specifying one or more of the output setting states that can be set for the pixel as a discrimination designation state; At least one of the number of the pixels designated in the masking area in the mask area, the position of the pixel designated in the masking area in the mask area, and the relative positional relationship between a plurality of pixels designated in the masking state when the pattern includes a plurality of pixels. Are determined in advance, and the pixels in the discrimination designation state in the set mask area satisfy the predetermined pattern condition. Pattern matching determining means for determining whether or not one or more pixels satisfying a predetermined positional relationship with the set mask region are set as target pixels, and the determination result of the pattern matching determining means for the target pixel is A target pixel data generating unit that generates target pixel data that defines a specific output state in accordance with the specified output state. The mask area setting unit includes a state data storage memory unit corresponding to each pixel in the mask area, and And a transfer control function for sequentially transferring and storing the output setting state data of each pixel from the upstream side of the arrangement to the state data storage memory section in synchronization with the pixel transfer clock. A memory circuit unit having a transfer control function, wherein the pattern matching determination unit determines that each pixel in the set mask area is It has an output setting state data input terminal for binary input of whether or not it is set to the discrimination designation state, and performs binary judgment in a form corresponding to a combination of the input states of the output setting state data input terminals on a one-to-one basis. A moving image processing device having a hardware logic determination circuit for generating and outputting a result.
隣接配列する複数の画素(以下、走査方向配列画素とい
う)を包含する形で前記マスク領域を設定するために、
前記転送制御機能付きメモリ回路部は、 前記走査方向配列画素に1対1に対応する複数のメモリ
セルを有し、画素転送クロックを受ける毎に対応する画
素の色データ又は出力設定状態データを、転送時系列順
にメモリシフトしながら順次格納するシフトメモリ回路
と、 そのシフトメモリ回路の各メモリセルの色データ又は出
力設定状態を、前記マスク領域内の対応する画素の色デ
ータ又は出力設定状態データとして出力するデータ出力
部とを備えている請求項12ないし15のいずれかに記
載の動画処理装置。16. In order to set the mask area so as to include a plurality of pixels (hereinafter, referred to as scanning direction array pixels) that are arranged adjacently in parallel to the scanning direction of the moving image frame,
The memory circuit unit with the transfer control function has a plurality of memory cells corresponding one-to-one to the pixels arranged in the scanning direction, and each time a pixel transfer clock is received, color data or output setting state data of the corresponding pixel is A shift memory circuit for sequentially storing the data while shifting the memory in the order of transfer time series, and using the color data or output setting state of each memory cell of the shift memory circuit as color data or output setting state data of a corresponding pixel in the mask area. The moving picture processing device according to any one of claims 12 to 15, further comprising a data output unit for outputting.
セルは、色データの入力方向上流側に位置するもののデ
ータ出力端子が、その下流側に位置するもののデータ入
力端子に接続される形で直列配置され、各クロック入力
端子に前記画素転送クロックが入力されるD型フリップ
フロップ回路により構成されており、各D型フリップフ
ロップ回路のデータ出力端子から、前記データ出力部と
してのデータ出力線が分岐して設けられている請求項1
6記載の動画処理装置。17. The individual memory cells of the shift memory circuit are arranged in series such that a data output terminal is located on the upstream side in the color data input direction but is connected to a data input terminal on the downstream side. And a D-type flip-flop circuit in which the pixel transfer clock is input to each clock input terminal. A data output line as the data output unit branches from a data output terminal of each D-type flip-flop circuit. Claim 1 provided with
7. The moving image processing device according to 6.
隣接配列する画素(以下、走査直交方向配列画素とい
う)を包含する形で前記マスク領域を設定するために、
前記転送制御機能付きメモリ回路部は、 前記走査直交方向配列画素に1対1に対応して配列さ
れ、それら画素の色データ又は出力設定状態データを転
送の時系列順に順次個別に格納する前記データ格納メモ
リ部と、 前記配列されたデータ格納メモリ部のうち、入力最先頭
側に位置するもの(以下、先頭メモリ部という)を除い
た残余のメモリ部(以下、後続メモリ部という)に個別
に対応して設けられ、各後続メモリ回路に格納すべき画
素の1つ前の走査線上の画素の色データ又は出力設定状
態データを記憶するラインメモリ回路とを備え、 画素転送クロックを受ける毎に前記ラインメモリ回路
は、対応する後続メモリ回路に対し、前記先頭メモリ回
路に入力される画素に走査線上の転送位置が対応する画
素の色データ又は出力設定状態データを転送する請求項
12ないし17のいずれかに記載の動画処理装置。18. A method for setting the mask area so as to include pixels arranged adjacently at right angles to a scanning direction of the moving image frame (hereinafter referred to as pixels arranged in a scanning orthogonal direction).
The memory circuit unit with the transfer control function is arranged so as to correspond to the pixels arranged in the scanning orthogonal direction in a one-to-one correspondence, and stores the color data or the output setting state data of those pixels sequentially and individually in chronological order of transfer. A storage memory unit, and a remaining memory unit (hereinafter, referred to as a subsequent memory unit) except for a data storage memory unit arranged in the array, excluding a memory unit located at the input head (hereinafter, referred to as a head memory unit). And a line memory circuit for storing color data or output setting state data of a pixel on a scanning line immediately before a pixel to be stored in each succeeding memory circuit. The line memory circuit outputs color data or output setting state data of the pixel whose transfer position on the scanning line corresponds to the pixel input to the head memory circuit with respect to the corresponding subsequent memory circuit. Video processing apparatus according to any one of claims 12 to 17 for transferring data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10340609A JP2000163596A (en) | 1998-11-30 | 1998-11-30 | Animation processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10340609A JP2000163596A (en) | 1998-11-30 | 1998-11-30 | Animation processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000163596A true JP2000163596A (en) | 2000-06-16 |
Family
ID=18338625
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10340609A Pending JP2000163596A (en) | 1998-11-30 | 1998-11-30 | Animation processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000163596A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010508609A (en) * | 2006-11-01 | 2010-03-18 | ソニー株式会社 | Surface capture in motion pictures |
JP2010541035A (en) * | 2007-09-04 | 2010-12-24 | ソニー株式会社 | Integrated motion capture |
JP2018534557A (en) * | 2015-10-15 | 2018-11-22 | プラネット・インテレクチュアル・プロパティ・エンタープライゼズ・ピーティーワイ・リミテッド | Device for reading IVD assays |
-
1998
- 1998-11-30 JP JP10340609A patent/JP2000163596A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010508609A (en) * | 2006-11-01 | 2010-03-18 | ソニー株式会社 | Surface capture in motion pictures |
JP2010541035A (en) * | 2007-09-04 | 2010-12-24 | ソニー株式会社 | Integrated motion capture |
JP2013080473A (en) * | 2007-09-04 | 2013-05-02 | Sony Corp | Integrated motion capture |
JP2018534557A (en) * | 2015-10-15 | 2018-11-22 | プラネット・インテレクチュアル・プロパティ・エンタープライゼズ・ピーティーワイ・リミテッド | Device for reading IVD assays |
JP2022000633A (en) * | 2015-10-15 | 2022-01-04 | ルーモス・ダイアグノスティクス・アイピー・ピーティーワイ・リミテッド | Device for reading IVD assay |
US11300513B2 (en) | 2015-10-15 | 2022-04-12 | Lumos Diagnostics IP Pty Ltd | Device for reading an IVD assay |
JP7343551B2 (en) | 2015-10-15 | 2023-09-12 | ルーモス・ダイアグノスティクス・アイピー・ピーティーワイ・リミテッド | Device for reading IVD assays |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6803920B2 (en) | Method and apparatus for digital image segmentation using an iterative method | |
US20060251329A1 (en) | Multi-image-frame sprite recognition in animated sequences | |
EP1969561A1 (en) | Segmentation of video sequences | |
JPH0381886A (en) | Hidden face processor | |
JPS61112284A (en) | Method and apparatus for implementing expansive and erosive deformation in gray scale image processing | |
US11039153B2 (en) | Efficient processing of translucent objects in video keying | |
JP2000163596A (en) | Animation processor | |
EP2169622A1 (en) | Apparatus and method of image analysis | |
CN102752622B (en) | A kind of color space 3 D displaying method | |
CN111681317A (en) | Data processing method and device, electronic equipment and storage medium | |
JPH11136664A (en) | Automatic moving object tracking system | |
JP2865168B1 (en) | Motion data creation system | |
JP2005250778A (en) | Vertical direction decision of image | |
CN105991937A (en) | Virtual exposure method and device based on Bayer format image | |
JP2000134638A (en) | Image processor | |
Johnston et al. | Optimisation of a colour segmentation and tracking algorithm for real-time FPGA implementation | |
US20050105819A1 (en) | Quick blur approximation | |
US6377626B1 (en) | Motion data preparation system | |
US20240169552A1 (en) | Image processing apparatus, image processing method, and storage medium | |
CN111724449B (en) | Image processing method, device and equipment | |
JP2010146026A (en) | Display control device | |
JP3745306B2 (en) | Operation data creation system | |
US7587086B2 (en) | Identifying selected pixels in a digital image | |
JP2005128774A (en) | Image area extracting device and method | |
JP4065308B2 (en) | Median extraction circuit and image processing apparatus using the same |