JPH01303582A - Motion pattern analyzing device - Google Patents

Motion pattern analyzing device

Info

Publication number
JPH01303582A
JPH01303582A JP63132616A JP13261688A JPH01303582A JP H01303582 A JPH01303582 A JP H01303582A JP 63132616 A JP63132616 A JP 63132616A JP 13261688 A JP13261688 A JP 13261688A JP H01303582 A JPH01303582 A JP H01303582A
Authority
JP
Japan
Prior art keywords
motion
image
analyzed
moving body
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63132616A
Other languages
Japanese (ja)
Inventor
Masabumi Tamura
正文 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP63132616A priority Critical patent/JPH01303582A/en
Publication of JPH01303582A publication Critical patent/JPH01303582A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To analyze the motion pattern of a body in motion easily and efficiently by indicating a position of the body in motion to be analyzed and supplying knowledge regarding the motion of the position. CONSTITUTION:An indication part 7 indicates the position to be analyzed in an initial image of the moving body displayed on a display part 6 and knowledge information on characteristic property regarding the motion of the position is indicated and inputted. For the purpose, image processing technique and the knowledge regarding the motion are used to make the object positions correspond to each other between continuous image pickup input images of the body in motion. Consequently, the motion of the object positions can be tracked and the motion pattern can be analyzed. Consequently, the motion patterns of various bodies in motion are easily and efficiently in a natural state.

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は移動体の特定部位の運動パターンを簡易に解析
することのできる運動パターン解析装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Industrial Application Field) The present invention relates to a movement pattern analysis device that can easily analyze the movement pattern of a specific part of a moving body.

(従来の技術) 種々の運動体の運動パターンの解析は、従来では専ら上
記運動体に目印を付け、この目印の動きを追跡すること
により行なわれている。具体的には、例えば小型のLE
D発光器を運動体の運動パターン解析対象部位に取付け
、周囲を暗くした状態で上記運動体を運動させる。そし
てこの状態を録画記録し、しかる後、記録画像を1シー
ンずつコマ送り再生して前記LED発光器の動きを追跡
することで、その運動パターン解析が行なわれている。
(Prior Art) Analysis of motion patterns of various moving bodies has conventionally been carried out solely by attaching marks to the moving bodies and tracking the movements of the marks. Specifically, for example, a small LE
A D light emitter is attached to the part of the moving body to be analyzed for the movement pattern, and the moving body is moved in a darkened environment. Then, this state is recorded and then the motion pattern is analyzed by playing back the recorded images one scene at a time and tracing the movement of the LED light emitter.

然し乍ら、記録画像を1シーンずつ再生してLED発光
器の動きを追跡する作業には多大な労力と処理時間を必
要とする。しかも複数の運動パターン解析対象部位を同
時に解析処理しようとする場合、各シーン毎の解析対象
部位の対応付けを行なう作業が非常に大変である。
However, the work of reproducing recorded images scene by scene and tracking the movement of the LED light emitters requires a great deal of effort and processing time. Moreover, when attempting to simultaneously analyze a plurality of motion pattern analysis target parts, it is very difficult to associate the analysis target parts for each scene.

これにもまして、運動体の運動パターン解析対象部位に
LED発光器を取付けること自体が困難であることが多
くある。例えば人や機械の動きを解析する場合には比較
的容易にLED発光器を取付けることができるが、任意
の動物の動きを解析しようとする場合には、その取付け
が非常に困難である。しかも解析対象が動物である場合
、周囲を暗くした状態でその動きを録画記録しようとす
ると、本来の動きとは異なる運動パターンをとる虞れが
ある。この為、自然な状況下での運動体の運動パターン
を解析することが非常に困難である等の問題があった。
To make matters worse, it is often difficult to attach an LED light emitting device to a part of a moving body whose movement pattern is to be analyzed. For example, when analyzing the movement of a person or a machine, it is relatively easy to install an LED light emitting device, but when trying to analyze the movement of an arbitrary animal, it is extremely difficult to install it. Moreover, when the analysis target is an animal, if you attempt to record its movements in a darkened environment, there is a risk that the animal may adopt a movement pattern different from its original movement. For this reason, there have been problems such as it being extremely difficult to analyze the movement pattern of a moving body under natural conditions.

(発明が解決しようとする課題) このように従来にあっては、例えば運動体の運動パター
ンの解析対象とする部位に目印を付けたり、解析処理の
容易化を図る為に運動体の動きを録画記録するに際して
その周囲を暗くする必要がある等の種々の制約があり、
任意の移動体の運動パターンを自然な環境下で簡易に解
析することが困難であると云う大きな問題があった。
(Problem to be Solved by the Invention) In this way, in the past, for example, marks were placed on parts to be analyzed in the movement pattern of a moving body, and movements of the moving body were marked to facilitate analysis processing. There are various restrictions such as the need to darken the surrounding area when recording.
A major problem has been that it is difficult to easily analyze the movement pattern of any moving object in a natural environment.

本発明はこのような事情を考慮してなされたもので、そ
の目的とするところは、運動体の解析対象部位に目印を
付ける等の煩わしさを伴うことなしに自然な環境下で種
々の運動体の運動パターンを簡易に、且つ効率的に解析
することのでさる運動パターン解析装置を提t3(する
ことにある。
The present invention was made in consideration of these circumstances, and its purpose is to enable various movements in a natural environment without the hassle of marking the analysis target part of a moving body. The purpose of the present invention is to provide a movement pattern analysis device that can easily and efficiently analyze body movement patterns.

[発明の構成コ (課題を解決するための手段) 本発明に係る運動パターン解析装置は、運動パターンの
解析対象とする運動体を連続的に撮像入力するテレビカ
メラ等の撮像手段と、撮像入力された運動体の像の少な
くともその初期画像を画像表示する手段と、この表示画
像に対して上記運動体の解析対象とする部位(運動点)
を指示すると共に、その部位の運動に関する知識(他の
運動点との関係やその運動固有の性質等)を与える手段
とを備え、 連続的に撮像入力される画像間での前記運動体における
解析対象部位を上記知識に従って順次対応付けていくこ
とにより、その運動パターンを解析するようにしたこと
を特徴とするものである。
[Configuration of the Invention (Means for Solving the Problems) A motion pattern analysis device according to the present invention includes an imaging means such as a television camera that continuously captures and inputs images of a moving body whose motion pattern is to be analyzed; a means for displaying at least an initial image of the image of the moving body, and a part (motion point) of the moving body to be analyzed with respect to the displayed image;
analysis of the moving body between images that are continuously captured and input. The present invention is characterized in that the movement pattern of the target parts is analyzed by sequentially associating the target parts according to the above-mentioned knowledge.

つまり画像処理技術と運動に関する知識とを用いて、運
動体を連続的に撮像入力した画像間における解析対象部
位を相互に対応付けていくことにより、上記解析対象部
位の動きを追跡するようにし、これによって上記解析対
象部位の運動パターンを解析するようにしたことを特徴
とするものである。
In other words, by using image processing technology and knowledge about motion, the movement of the analysis target part is tracked by correlating the analysis target part between consecutive images of a moving body. The present invention is characterized in that the motion pattern of the above-mentioned region to be analyzed is thereby analyzed.

(作用) 本発明によれば、運動体を連続的に撮像入力した画像の
少なくとも初期画像に対して解析対象とする部位(運動
点)、およびその部位の運動に関する知識(他の運動点
との関係やその運動固有の性質等)を与えることにより
、画像処理技術と上記運動に関する知識とを用いて、運
動体を連続的に撮像入力した画像間における解析対象部
位が順次対応付けられていく。この連続画像における解
析対象部位の対応付けによって、上記解析対象部位の動
きを追跡することが可能となり、その運動パターンを解
析することが可能となる。
(Function) According to the present invention, a part (motion point) to be analyzed for at least an initial image of images of a moving body that is continuously captured and input, and knowledge regarding the motion of that part (i.e., how it compares with other motion points). By using image processing technology and the knowledge regarding the above-mentioned motion, the parts to be analyzed are sequentially correlated between images obtained by continuously capturing and inputting images of a moving body. By associating the parts to be analyzed in the continuous images, it becomes possible to track the movement of the parts to be analyzed, and it becomes possible to analyze the movement pattern thereof.

従って従来のように運動体の運動パターンの解析対象部
位に目印を付けたり、解析処理の容易化を図る為に運動
体の動きを録画記録するに際してその周囲を暗くする必
要がなくなり、自然な状況下で種々の運動体の運動パタ
ーンを簡易に、効率良(解析することが可能となる。
Therefore, it is no longer necessary to mark the area to be analyzed in the movement pattern of a moving object or to darken the surrounding area when recording the movement of the moving object to facilitate analysis processing, as in the past. The motion patterns of various moving bodies can be analyzed easily and efficiently.

(実施例) 以下、図面を参照して本発明の一実施例につき説明する
(Example) Hereinafter, an example of the present invention will be described with reference to the drawings.

第1図は本発明の実施例に係る運動パターン解析装置の
システム的な概略構成図で、■は解析対象とする運動体
を連続的に撮像入力するTV左カメラある。このTVカ
メラlを介して撮像入力された上記移動体の像(画像デ
ータ)はA/D変換器2を介して制御部(プロセッサ等
によって構成される装置本体部)3に取込まれ、画像メ
モリ4に順次格納される。この画像メモリ4は、光ディ
スク・ファイルのようなものであっても良い。
FIG. 1 is a schematic system configuration diagram of a motion pattern analysis device according to an embodiment of the present invention, where ◯ indicates a TV left camera that continuously captures and inputs images of a moving body to be analyzed. The image (image data) of the moving object captured and inputted via this TV camera 1 is taken in to the control section (device main body section composed of a processor etc.) 3 via the A/D converter 2, and the image is The data are sequentially stored in the memory 4. This image memory 4 may be something like an optical disk file.

しかして前記TV左カメラにて撮像入力され、画像メモ
リ4に格納される移動体の像はD/A変換器5を介して
出力され、表示部Gにて画像表示される。この表示部6
にて表示される前記移動体の初期画像に対して指示部7
から解析対象とする部位の指示が行なわれ、またその部
位の運動に関する固有の性質等の知識情報が指示入力さ
れる。
The image of the moving body inputted by the TV left camera and stored in the image memory 4 is outputted via the D/A converter 5 and displayed as an image on the display section G. This display section 6
The instruction unit 7
The part to be analyzed is specified from the ``controller'', and knowledge information such as specific properties regarding the movement of the part is inputted.

この指示部7からの解析対象部位の指示入力は、例えば
スタイラスペンを用いて表示画像中の運動体部分の境界
をトレースして運動体画像を第2図(a)に示すように
切出し、その後、その運動体画像中の解析対象部位、例
えば関節部分とその繋がりの関係等を第2図(b)に示
すように指示して行なわれる。その上で上記各解析対象
部位の予め知られている固有の運動性質等を、運動に関
する知識として情報人力する。
The instructions for the analysis target region are inputted from the instruction unit 7 by, for example, using a stylus pen to trace the boundaries of the moving body part in the displayed image and cutting out the moving body image as shown in FIG. 2(a). This is done by specifying the parts to be analyzed in the moving body image, such as the joints and their connections, as shown in FIG. 2(b). Then, information such as the unique motion properties known in advance of each of the above-mentioned analysis target parts is inputted as knowledge regarding motion.

この解析対象部位の情報とその運動に関する知識情報は
、例えば第3図(a)に示すように関節部分を示す回転
軸A、B、C,Dとその接続関係を示す情報、および各
回転軸の回転許容角とその回転の向き等として与えられ
る。このような指示情報がテーブル8に格納され、その
後の運動パターン解析処理に用いられる。
The information on the analysis target part and the knowledge information regarding its motion include, for example, as shown in FIG. It is given as the permissible rotation angle and the direction of rotation. Such instruction information is stored in the table 8 and used for subsequent movement pattern analysis processing.

物体認識部9は所定の画像処理技術に従って撮像入力さ
れた画像中から運動体画像を切出し、その特徴抽出を行
なって移動体を認識するものである。具体的には前述し
た如く運動体画像が指示された初期画像から背景画像を
求め、この背景画像に基づいて連続的に入力された各画
像から運動体画像をそれぞれ切出す。そしてこれらの各
画像における特徴抽出処理を行ない、その特徴抽出部分
の照合と前記知識情報に基づき判断処理とによって、前
述した如く指示された解析対象部位の対応部分を順次束
めるように構成されている。
The object recognition unit 9 cuts out a moving body image from the input image according to a predetermined image processing technique, extracts its features, and recognizes the moving body. Specifically, as described above, a background image is obtained from the initial image in which the moving body image is specified, and based on this background image, the moving body images are respectively cut out from each successively inputted image. Then, feature extraction processing is performed on each of these images, and corresponding parts of the designated analysis target region are sequentially bundled as described above by collating the feature extraction parts and judgment processing based on the knowledge information. ing.

第4図は実施例装置における運動パターン解析処理の概
略的な流れを示すもので、この処理は運動体の連続的に
撮像入力された画像(動画像)を入力して起動される(
ステップa)。このようにして運動体の画像が入力され
ると、先ずその初期画像の表示が行なわれ(ステップb
)、この表示画像に対して前述したように解析対象部位
(観測点)の情報が指示入力される(ステップC)。こ
の指示情報は、例えば第4図に例示するような形式でテ
ーブル8に格納される。
FIG. 4 shows a schematic flow of motion pattern analysis processing in the embodiment device, and this processing is started by inputting continuously captured images (moving images) of a moving body (
Step a). When an image of a moving body is input in this way, first, the initial image is displayed (step b
), information on the region to be analyzed (observation point) is input to this display image as described above (step C). This instruction information is stored in the table 8 in the format illustrated in FIG. 4, for example.

以上のようにして解析対象部位が特定された後、先ずそ
の初期画像についての特徴抽出処理が行なわれる(ステ
ップd)。この特徴抽出処理は、例えば初期画像から背
景画像部分を除いて運動体画像を切出し、この運動体画
像を細線化することから行なわれる。そしてこの細線化
画像に対して、前述した如く指示入力されてテーブル8
に格納されている情報に基づいてその解析対象部位(関
節部)をそれぞれ特定することで、その特徴情報を求め
て行なわれる。
After the region to be analyzed is specified as described above, first, feature extraction processing is performed on the initial image (step d). This feature extraction process is performed, for example, by cutting out a moving object image by removing the background image portion from the initial image and thinning the moving object image. Then, instructions are inputted to this thinned image as described above, and the table 8
Characteristic information is obtained by specifying each of the analysis target parts (joints) based on the information stored in the .

しか゛る後、次のシーンの画像に対して同様に特徴抽出
処理を実行しくステップe)、先に求められている画像
での特徴点との間で照合する(ステップf)。この特徴
点の照合は前述した運動に関する知識を用いて、画像間
での特徴点の対応関係を調べることにより行なわれる。
After that, the feature extraction process is similarly performed on the image of the next scene (step e), and the feature points are compared with the previously obtained feature points in the image (step f). This matching of feature points is performed by examining the correspondence of feature points between images using the knowledge regarding motion described above.

例えば初期画像において第3図(a)に示されるように
定義された゛ 特徴点に対して、次画面から第3図(b
)に示すような特徴点が抽出された場合、先ず各回転軸
間の接続関係が対応しているか否かが調べられ、しかる
後、各回転軸での回転角が前述した知識情報で示される
回転制約条件を満たしているか否かが調べられる。そし
てこれらの条件が満たされているとき、その特徴点を先
に求められている特徴点に対応するものとして、その対
応付けを行なう(ステップg)。このようにして対応付
けられた特徴点の情報が、例えば第4図に示すように解
析データメモリlOに回転軸の移動に伴って変化する座
標値の系列として順次格納される。
For example, for the feature points defined as shown in Figure 3(a) in the initial image, from the next screen to Figure 3(b).
) When the feature points shown in ) are extracted, it is first checked whether the connection relationships between the rotation axes correspond, and then the rotation angles of each rotation axis are indicated using the knowledge information described above. It is checked whether the rotation constraint conditions are satisfied. When these conditions are met, the feature point is associated with the feature point previously determined (step g). Information on the feature points associated in this manner is sequentially stored in the analysis data memory IO as a series of coordinate values that change as the rotation axis moves, for example, as shown in FIG.

ちなみに第3図(c)に示すように特徴点の情報が求め
られた場合には、回転軸Bを中心とする回転軸Cの回転
角が前述した回転制約条件を満たさないことから、これ
らの特徴点は相互に対応するものではないと判定され、
その対応付けの対象から除外される。
Incidentally, when the information on the feature points is obtained as shown in Figure 3(c), since the rotation angle of the rotation axis C around the rotation axis B does not satisfy the rotation constraint conditions described above, these It is determined that the feature points do not correspond to each other,
Excluded from the mapping.

以上の特徴点の照合処理は、運動体の画像について次画
面がある限り、1つ前の画面で求められた特徴点の情報
に対して繰返し実行される(ステップh)。そして各シ
ーンの画像間での特徴点の対応付けが終了したとき、前
記表示部6を用いて特徴点の動きが表示され、その運動
パターンが解折される(ステップi)。
The above feature point matching process is repeatedly performed on the feature point information obtained in the previous screen as long as there is a next screen for the image of the moving object (step h). When the correspondence between the feature points between the images of each scene is completed, the movement of the feature points is displayed using the display section 6, and the motion pattern is resolved (step i).

以上のような処理手続きによって入力画像の各シーンか
らそれぞれ特徴抽出によって取出された解析対象部位の
特徴点の対応付けが行なわれ、対応付けられた各特徴点
の動きの情報が求められることになる。そして対応付け
られた特徴点の画像上の位置を順に辿ることにより、そ
の特徴点の運動パターンを効果的に解析することが可能
となる。
Through the processing procedure described above, the feature points of the analysis target region extracted by feature extraction from each scene of the input image are associated, and information on the movement of each associated feature point is obtained. . By sequentially tracing the positions of the associated feature points on the image, it becomes possible to effectively analyze the motion pattern of the feature points.

従って従来のように運動体に目印を付けたり、周囲を暗
くして運動体を撮像入力する等の煩わしさを伴うことな
く、自然環境下におかれた運動体の動きをそのまま連続
的に撮像入力するだけで、その運動パターン解析を簡易
に、効率的に行なうことが可能となる。これ故、動物等
の目印の付は難い運動体の運動パターンを解析するよう
な場合、その自然環境を妨げる妨げることがないので、
自然な状態でその運動(行動)パターンを解析すること
ができる等の大きな効果が奏せられる。また特徴点の対
応付けに際して用いる運動体固有の運動性質等の知識は
、解析対象とする運動体やその解析対象部位に応じて与
えれば良いものであるから、種々の対象に対してその運
動パターンを効果的に解析することが可能となる等の効
果が奏せられる。
Therefore, the movement of a moving object placed in a natural environment can be continuously imaged as it is without the hassle of marking the moving object or inputting images of the moving object in a darkened environment as in the past. Just by inputting the information, you can easily and efficiently analyze the movement pattern. Therefore, when analyzing the movement patterns of moving bodies such as animals that are difficult to mark, the natural environment is not disturbed.
Great effects can be achieved, such as being able to analyze movement (behavior) patterns in a natural state. In addition, the knowledge of the motion properties specific to the moving object used when associating feature points can be provided depending on the moving object to be analyzed and its parts to be analyzed, so the motion patterns of various objects can be Effects such as making it possible to analyze effectively can be achieved.

尚、本発明は上述した実施例に限定されるものではない
。例えば撮像入力された画像中に示される複数の運動体
について同時にその運動パターンを解析することも勿論
可能であり、その他、本発明はその要旨を逸脱しない範
囲で種々変形して実施することが可能である。
Note that the present invention is not limited to the embodiments described above. For example, it is of course possible to simultaneously analyze the motion patterns of a plurality of moving bodies shown in an image inputted, and the present invention can be implemented with various modifications without departing from the gist thereof. It is.

[発明の効果コ 以上説明したように本発明によれば、種々の運動体の運
動パターンを、その運動体に同等制約を加えることなし
に自然な環境下で簡易に効率良く解析することが可能と
なる等の実用上多大なる効果が奏せられる。
[Effects of the Invention] As explained above, according to the present invention, it is possible to easily and efficiently analyze the motion patterns of various moving bodies in a natural environment without imposing equivalent constraints on the moving bodies. A great practical effect can be achieved, such as:

【図面の簡単な説明】[Brief explanation of the drawing]

図は本発明の一実施例に係る運動パターン解析装置を示
すもので、第1図は実施例装置のシステム的な概略構成
図、第2図は解析対象とする運動体画像とその解析対象
部位の例を示す図、第3図は画像から抽出された特徴点
とその対応付けを説明する為の模式図、第4図は運動パ
ターン解析処理手続きの流れを示す図である。 l・・・TVカメラ、3・・・制御部、4・・・画像メ
モリ、6・・・表示部、7・・・指示部、8・・・テー
ブル、9・・・物体認詭部。 出願人代理人 弁理士 鈴江武彦 第1 図
The figures show a movement pattern analysis device according to an embodiment of the present invention. Fig. 1 is a schematic system configuration diagram of the embodiment device, and Fig. 2 shows a moving body image to be analyzed and its region to be analyzed. FIG. 3 is a schematic diagram for explaining feature points extracted from an image and their correspondence, and FIG. 4 is a diagram showing the flow of a movement pattern analysis process procedure. l...TV camera, 3...control unit, 4...image memory, 6...display unit, 7...instruction unit, 8...table, 9...object recognition unit. Applicant's agent Patent attorney Takehiko Suzue Figure 1

Claims (1)

【特許請求の範囲】[Claims] 運動パターンの解析対象とする運動体を連続的に撮像入
力する手段と、撮像入力された運動体の像を画像表示す
る手段と、この表示画像に対して上記運動体の解析対象
とする部位を指示すると共に、その部位の運動に関する
知識を与える手段と、連続的に撮像入力される画像間で
の前記運動体における解析対象部位を上記知識に従って
順次対応付ける手段とを具備したことを特徴とする運動
パターン解析装置。
means for continuously capturing and inputting images of a moving body whose movement pattern is to be analyzed; means for displaying the image of the moving body that has been imaged and input; A motion characterized by comprising means for instructing and giving knowledge regarding the movement of the part, and means for sequentially associating the analysis target part of the moving body between continuously captured and input images according to the knowledge. Pattern analysis device.
JP63132616A 1988-06-01 1988-06-01 Motion pattern analyzing device Pending JPH01303582A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63132616A JPH01303582A (en) 1988-06-01 1988-06-01 Motion pattern analyzing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63132616A JPH01303582A (en) 1988-06-01 1988-06-01 Motion pattern analyzing device

Publications (1)

Publication Number Publication Date
JPH01303582A true JPH01303582A (en) 1989-12-07

Family

ID=15085496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63132616A Pending JPH01303582A (en) 1988-06-01 1988-06-01 Motion pattern analyzing device

Country Status (1)

Country Link
JP (1) JPH01303582A (en)

Similar Documents

Publication Publication Date Title
US20210365492A1 (en) Method and apparatus for identifying input features for later recognition
JP3419050B2 (en) Input device
KR101929077B1 (en) Image identificaiton method and image identification device
EP2406697B1 (en) Program and system for detecting an object on a display screen
US20230190404A1 (en) Systems and methods for capturing, displaying, and manipulating medical images and videos
JPH06161533A (en) Control system for three-dimensional measuring device
JP2000180162A (en) Task analyzer
JP2932193B2 (en) Graphic processing unit
JPH04270476A (en) Line width detecting method for linear picture
US20020051009A1 (en) Method and apparatus for extracting object from video image
US20210287718A1 (en) Providing a user interface for video annotation tools
JP3907344B2 (en) Movie anchor setting device
JPH01303582A (en) Motion pattern analyzing device
US20220005284A1 (en) Method for automatically capturing data from non-networked production equipment
JP2720807B2 (en) Scenario editing device
EP3432204A1 (en) Telepresence framework for region of interest marking using headmount devices
JP2735197B2 (en) Graphic input device
EP0316003A2 (en) Line figure encoder
JPH11175692A (en) Collector of data on joint motion
JP2000163599A (en) Area-of-interest setting device and method and outline extractor
JP2020119368A (en) Video information management system and video information management method
JPH04112378A (en) Tracking start point input system
TWI823327B (en) Monitoring area setting device, monitoring area setting method and monitoring area setting program
CN115376114B (en) Multi-mode view finding method and system for image of automobile camera
JP2021131853A (en) Change detection method using ar overlay and system therefor