JP2023082755A - 計算機システム及び監視オブジェクトのトラッキング方法 - Google Patents

計算機システム及び監視オブジェクトのトラッキング方法 Download PDF

Info

Publication number
JP2023082755A
JP2023082755A JP2021196653A JP2021196653A JP2023082755A JP 2023082755 A JP2023082755 A JP 2023082755A JP 2021196653 A JP2021196653 A JP 2021196653A JP 2021196653 A JP2021196653 A JP 2021196653A JP 2023082755 A JP2023082755 A JP 2023082755A
Authority
JP
Japan
Prior art keywords
trajectory
position data
image
computer
monitoring object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021196653A
Other languages
English (en)
Inventor
徳夫 合田
Norio Aida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2021196653A priority Critical patent/JP2023082755A/ja
Publication of JP2023082755A publication Critical patent/JP2023082755A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】個体を識別し、かつ、高い精度で監視オブジェクトをトラッキングする。【解決手段】計算機システムは、レーザ光の照射によって監視オブジェクトの位置を計測する第1計測装置、及び画像を取得する第2計測装置と接続する計算機を備え、第1計測装置から、監視オブジェクトの位置を含む第1位置データを取得し、画像に対して監視オブジェクト識別処理を実行することによって、画像中の監視オブジェクトの位置を含む第2位置データを生成し、第1位置データを用いて第1軌道を生成し、第2位置データを用いて第2軌道を生成し、第1軌道及び第2軌道を比較することによって、第1位置データ及び第2位置データのいずれかを補完し、第2位置データに対応する画像に対して個体識別処理を実行し、識別結果を第2位置データに対応づける。【選択図】図1

Description

本発明は、監視オブジェクトのトラッキング技術に関する。
近年、様々な分野で監視オブジェクトのトラッキング技術が活用されている。監視オブジェクトのトラッキングは、カメラ又はレーザレーダ等の計測装置から取得されたデータを用いて行われる。また、複数の計測装置を用いた画像トラッキング技術も存在する。
例えば、特許文献1には、「空間の混雑度を測定してトラッキングに利用するもので、方向成分では、混雑度が低ければレーザレンジセンサの計測値を重視し、混雑度が高くなると画像処理結果を重視したセンサフュージョンを行い、得られた移動物体推定方向に対してレーザレンジセンサの計測結果から距離を求める。」ことが記載されている。
特開2009-52940号公報
レーザレーダから取得したデータを用いた監視オブジェクトのトラッキングは、監視オブジェクトの位置を正確に計測できるが、個体を識別できないという特徴がある。また、オクルージョンによって監視オブジェクトをロストする可能性がある。カメラから取得したデータを用いた監視オブジェクトのトラッキングでは、個体を識別することができるが、位置の精度が低いという特徴がある。また、監視オブジェクトの急激な移動によって監視オブジェクトをロストする可能性がある。特許文献1に記載の技術では、上記のような特性については考慮されていない。
本発明は、監視オブジェクトの個体を識別し、かつ、高い精度でトラッキングが可能な技術を実現することを目的とする。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、監視オブジェクトをトラッキングする計算機システムであって、レーザ光の照射によって前記監視オブジェクトの位置を計測する第1計測装置及び画像を取得する第2計測装置と接続する、少なくとも一つの計算機を備え、前記少なくとも一つの計算機は、前記第1計測装置から、前記監視オブジェクトの位置を含む第1位置データを取得し、前記画像に対して監視オブジェクト識別処理を実行することによって、前記画像中の前記監視オブジェクトの位置を特定し、当該位置を含む第2位置データを生成し、前記第1位置データを用いて第1軌道を生成し、前記第2位置データを用いて第2軌道を生成し、前記第1軌道及び前記第2軌道を比較することによって、前記監視オブジェクトの軌道が途切れないように、前記第1位置データ及び前記第2位置データのいずれかを補完し、前記第2位置データに対応する前記画像に対して個体識別処理を実行することによって、前記監視オブジェクトの個体を識別し、識別結果を前記第2位置データに対応づける。
本発明によれば、システムは、監視オブジェクトの個体を識別し、かつ、高い精度でトラッキングができる。上記した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
実施例1のシステムの構成例を示す図である。 実施例1のレーザレーダシステムによって生成される位置データのデータ構造の一例を示す図である。 実施例1の解析システムに含まれる計算機の構成例を示す図である。 実施例1の解析システムが実行する処理の一例を説明するフローチャートである。 実施例1の解析システムによって生成される位置データのデータ構造の一例を示す図である。 実施例1の軌道補完処理の効果を説明する図である。
以下、本発明の実施例を、図面を用いて説明する。ただし、本発明は以下に示す実施例の記載内容に限定して解釈されるものではない。本発明の思想ないし趣旨から逸脱しない範囲で、その具体的構成を変更し得ることは当業者であれば容易に理解される。
以下に説明する発明の構成において、同一又は類似する構成又は機能には同一の符号を付し、重複する説明は省略する。
本明細書等における「第1」、「第2」、「第3」等の表記は、構成要素を識別するために付するものであり、必ずしも、数又は順序を限定するものではない。
図面等において示す各構成の位置、大きさ、形状、及び範囲等は、発明の理解を容易にするため、実際の位置、大きさ、形状、及び範囲等を表していない場合がある。したがって、本発明では、図面等に開示された位置、大きさ、形状、及び範囲等に限定されない。
図1は、実施例1のシステムの構成例を示す図である。図2は、実施例1のレーザレーダシステム103によって生成される位置データのデータ構造の一例を示す図である。図3は、実施例1の解析システム100に含まれる計算機の構成例を示す図である。
システム10は、監視オブジェクトが存在する空間の監視を行うシステムであって、解析システム100、記録システム101、ストレージシステム102、レーザレーダシステム103、及び画像取得システム104を含む。実施例1のシステム10は、ケージ150内の動物を監視するものとする。
解析システム100、記録システム101、ストレージシステム102、及びレーザレーダシステム103は、スイッチ105を介して接続され、記録システム101は画像取得システム104と直接接続する。なお、接続形式は一例であって前述の接続形式に限定されない。
レーザレーダシステム103は、複数のレーザレーダ110を含み、ケージ150内の動物の位置等を計測する。レーザレーダ110は、赤外線等の光を所定の範囲に照射し、反射光を計測する。レーザレーダシステム103は、計測結果に基づいて、監視オブジェクトを特定し、時刻及び監視オブジェクトの3次元座標を含む位置データ200を生成する。レーザレーダシステム103は、IMM(Interacting Multiple Model)フィルタを用いて、同一監視オブジェクトの位置データ200を特定し、同一の軌道IDを設定する。なお、位置データ200には、時系列が前後する位置データ200を用いて算出可能な速度、方向、加速度、及び角速度等を含めてもよい。レーザレーダシステム103は、位置データ200を記録システム101に送信する。
なお、位置データ200の生成方法は一例であってこれに限定されない。例えば、特許文献1に記載の技術等を用いてもよい。なお、位置データ200は、解析システム100が生成してもよい。この場合、レーザレーダシステム103は、計測結果を解析システム100に送信する。
画像取得システム104は、複数のカメラ111を含み、ケージ150の内部の画像を取得する。カメラ111は、所定のフレームレートの動画を出力する。動画は、記録システム101に送信される。
記録システム101は、少なくとも一つの計算機を有する計算機システムであって、レーザレーダシステム103及び画像取得システム104から送信されたデータの記録及び管理を行う。
ストレージシステム102は、各種データの記録及び管理を行うシステムであって、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等の記憶装置を複数有する。ストレージシステム102は、位置データ管理DB120、画像データ管理DB121、及び位置データ管理DB122を管理する。
位置データ管理DB120は、レーザレーダシステム103から取得した位置データ200を管理するためのデータベースである。画像データ管理DB121は、画像取得システム104から取得した動画を管理するためのデータベースである。画像データ管理DB121には動画が格納される。位置データ管理DB122は、動物の位置に関するデータ、すなわち、位置データ500(図5を参照)を管理するためのデータベースである。
解析システム100は、動画を用いて位置データ500を生成し、位置データ200及び位置データ500から特定される軌道に基づいていずれか一方の位置データを補完し、さらに、各軌道の個体識別を行う。解析システム100は、例えば、図3に示すような計算機300を有する。計算機300は、プロセッサ301、メモリ302、及びネットワークインタフェース303を有する。プロセッサ301、メモリ302、及びネットワークインタフェース303は、内部バス304を介した互いに接続される。計算機300は、記憶装置を有してもよいし、また、キーボード、マウス、及びタッチパネル等の入力装置、並びに、ディスプレイ等の出力装置を有してもよい。
プロセッサ301は、メモリ302に格納されるプログラムを実行する。プロセッサ301がプログラムにしたがって処理を実行することによって、特定の機能を実現する機能部(モジュール)として動作する。以下の説明では、機能部を主語に処理を説明する場合、プロセッサ301が当該機能部を実現するプログラムを実行していることを示す。
メモリ302は、プロセッサ301が実行するプログラム及びプログラムが実行する情報を格納する。メモリ302はワークエリアとしても用いられる。本実施例1のメモリ302は、画像トラッキング部310、キャリブレーション部311、軌道補完部312、個体識別部313、画像切出部314、及びリンク生成部315を実現するプログラムを格納する。
画像トラッキング部310は、動画を用いて、監視オブジェクトのトラッキングを行う。キャリブレーション部311は、キャリブレーションを行う。軌道補完部312は、位置データ500を生成する。個体識別部313は、各位置データにおける監視オブジェクトの個体を識別する。画像切出部314は、動画を構成する画像から監視オブジェクトが移った領域の画像を切り出す。リンク生成部315は、位置データ500に切り出された画像へのリンクを生成する。
なお、計算機300が有する各機能部については、複数の機能部を一つの機能部にまとめてもよいし、一つの機能部を機能毎に複数の機能部に分けてもよい。
ネットワークインタフェース303は、ネットワークを介して、外部装置と通信するためのインタフェースである。
図4は、実施例1の解析システム100が実行する処理の一例を説明するフローチャートである。図5は、実施例1の解析システム100によって生成される位置データのデータ構造の一例を示す図である。
解析システム100の画像トラッキング部310は、実行指示を受信した場合、又は、周期的に以下で説明する処理を実行する。
解析システム100は、動画を用いて画像トラッキングを実行する(ステップS101)。具体的には、以下のような処理が実行される。
(S101-1)解析システム100の画像トラッキング部310は、画像データ管理DB121から、指定時間範囲の動画を取得する。なお、取得する動画のレートは、元の動画のレートより低いものとする。
(S101-2)画像トラッキング部310は、動画を構成する画像を時系列順に選択し、当該画像に対して監視オブジェクトの識別を行う。識別方法は、例えば、CNN(Convolutional Neural Network)等の公知の技術を用いる。なお、本ステップの識別は、個体の識別ではなく、監視オブジェクトの識別を意味する。例えば、画像中の「ヒト」又は「車両」の識別であって、個人又は車種の識別ではない。
(S101-3)画像に監視オブジェクトが含まれる場合、画像トラッキング部310は、画像に対応する時刻、及び当該画像から識別された監視オブジェクトの3次元座標を含む位置データ500を生成し、位置データ管理DB122に格納する。画像に監視オブジェクトが含まれない場合、解析システム100はS101-4に進む。
(S101-4)画像トラッキング部310は、動画に含まれる全ての画像を処理したか否かを判定する。動画に含まれる全ての画像の処理が完了していない場合、画像トラッキング部310はS101-2に戻る。
(S101-5)動画に含まれる全ての画像の処理が完了した場合、画像トラッキング部310は、IMM(Interacting Multiple Model)フィルタ等を用いて、同一監視オブジェクトの位置データ500を特定し、同一の軌道IDを設定する。以上がステップS101の処理の説明である。
次に、解析システム100のキャリブレーション部311は、画像及びレーザレーダの計測結果のキャリブレーションを行う(ステップS102)。例えば、ArUcoマーカを用いたカメラ111の位置のキャリブレーション等が行われる。
次に、解析システム100の軌道補完部312は、軌道補完処理を実行する(ステップS103)。本実施例では、レーザレーダシステム103によって生成された位置データ200を用いて、位置データ500の補完を行う軌道補完処理について説明する。
(S103-1)軌道補完部312は、位置データ管理DB120から所定の時間範囲の位置データ200を取得し、また、位置データ管理DB122から所定の時間範囲の位置データ500を取得する。時間範囲は任意に設定できる。軌道補完部312は、同一の軌道IDの位置データ200を用いて軌道(第1軌道)を生成し、同一の軌道IDの位置データ500を用いて軌道(第2軌道)を生成する。
(S103-2)軌道補完部312は、第1軌道を一つ選択する。
(S103-3)軌道補完部312は、第1軌道より短い第2軌道であって、第1軌道に重なる第2軌道を特定する。なお、所定の範囲のズレは考慮しない。
(S103-4)軌道補完部312は、特定された第2軌道が二つ以上の場合、各第2軌道を構成する位置データ500の軌道IDを同一の識別子に変更する。これによって、同じ軌道を構成する位置データ500に修正される。また、軌道補完部312は、第1軌道に基づいて、特定された第2軌道の間を接続するように位置データ500を補完する。すなわち、位置データ500が生成される。
(S103-5)軌道補完部312は、全ての第1軌道について処理が完了したか否かを判定する。全ての第1軌道について処理が完了していない場合、軌道補完部312は、S103-2に戻り、同様の処理を実行する。全ての第1軌道について処理が完了した場合、軌道補完部312は軌道補完処理を終了する。このとき、軌道補完部312は、軌道を構成する軌道IDを個体識別部313に通知する。
なお、上記の処理の位置データ200及び位置データ500を入れ替えることによって、位置データ500を用いて位置データ200を補完できる。解析システム100は、どちらの軌道を補完するかを選択するためのインタフェースをユーザに提示してもよい。
次に、解析システム100の個体識別部313は、各軌道について、軌道に対応する監視オブジェクトの個体識別を行う(ステップS104)。具体的には、以下のような処理が実行される。
(S104-1)個体識別部313は、通知された軌道IDの中から一つの軌道IDを選択し、位置データ管理DB122から選択した軌道IDが設定された位置データ500を取得する。
(S104-2)個体識別部313は、位置データ500の時刻に対応する画像を画像データ管理DB121から取得し、位置データ500の座標周辺の画像を用いて個体識別を行う。個体の識別はCNN等を用いて行われる。なお、個体の画像特徴量は予め学習されているものとする。個体の画像特徴量としては、顔、色、及び形状等が考えられる。複数の画像特徴量を組み合わせてもよい。
(S104-3)個体識別部313は、位置データ500に識別された個体の個体IDを設定する。
(S104-4)個体識別部313は、通知された全ての軌道IDについて処理が完了したか否かを判定する。通知された全ての軌道IDについて処理が完了していない場合、個体識別部313は、S104-1に戻り、同様の処理を実行する。軌道IDについて処理が完了した場合、個体識別部313は処理を終了する。このとき、個体識別部313は軌道を構成する軌道IDを画像切出部314に通知する。
個体IDが同一である位置データ500を用いることによって、同一の監視オブジェクトの軌道を生成することができる。これによって、個体単位の動きのトラッキングが可能となる。
次に、解析システム100の画像切出部314は、各軌道について、軌道に対応する個体の画像を切り出し、リンク生成部315は、軌道に切り出された画像のリンクを生成する(ステップS105)。その後、解析システム100は一連の処理を終了する。具体的には、以下のような処理が実行される。
(S105-1)画像切出部314は、通知された軌道IDの中から一つの軌道IDを選択し、位置データ管理DB122から選択した軌道IDが設定された位置データ500を取得する。
(S105-2)画像切出部314は、位置データ500の時刻に対応する画像を画像データ管理DB121から取得し、位置データ500の座標周辺の画像を切出す。画像切出部314は、元の画像とリンクするように、切り出された画像を画像データ管理DB121に格納する。
(S105-3)画像切出部314は、リンク生成部315にリンクの生成を師事する。リンク生成部315は、位置データ500に切り出された画像へのリンクを設定する。
(S105-4)画像切出部314は、通知された全ての軌道IDについて処理が完了したか否かを判定する。通知された全ての軌道IDについて処理が完了していない場合、画像切出部314は、S105-1に戻り、同様の処理を実行する。通知された全ての軌道IDについて処理が完了した場合、画像切出部314は処理を終了する。
なお、画像の切出しは、位置データ500単位ではなく、任意の時間幅単位で行ってもよい。この場合、一つの時間帯に対して画像が一つ切り出され、当該時間帯に含まれる位置データ500には同じ画像へのリンクが設定される。
図6は、実施例1の軌道補完処理の効果を説明する図である。
図6に示すように、画像に基づくトラッキング中に監視オブジェクトをロストした場合、軌道が描けなくなる。本実施例の解析システム100は、同一の監視オブジェクトの軌道に対応する位置データ200に基づいて軌道を補完することができる。したがって、監視オブジェクトのトラッキングを継続することができる。すなわち、図6に示すような出力座標から構成される軌道を提示することができる。
本実施例の解析システム100は、軌道に対応する監視オブジェクトの個体を識別しているため、個体単位のトラッキングが可能となる。
本実施例の解析システム100は、軌道に切り出された画像をリンクさせているため、軌道に沿った監視オブジェクトの動きを表示することができる。また、個体の画像特徴を学習に使用する画像の管理が容易になるという効果もある。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Python、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD-RW、CD-R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。
上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。
10 システム
100 解析システム
101 記録システム
102 ストレージシステム
103 レーザレーダシステム
104 画像取得システム
105 スイッチ
110 レーザレーダ
111 カメラ
120、122 位置データ管理DB
121 画像データ管理DB
150 ケージ
200、500 位置データ
300 計算機
301 プロセッサ
302 メモリ
303 ネットワークインタフェース
304 内部バス
310 画像トラッキング部
311 キャリブレーション部
312 軌道補完部
313 個体識別部
314 画像切出部
315 リンク生成部

Claims (10)

  1. 監視オブジェクトをトラッキングする計算機システムであって、
    レーザ光の照射によって前記監視オブジェクトの位置を計測する第1計測装置及び画像を取得する第2計測装置と接続する、少なくとも一つの計算機を備え、
    前記少なくとも一つの計算機は、
    前記第1計測装置から、前記監視オブジェクトの位置を含む第1位置データを取得し、
    前記画像に対して監視オブジェクト識別処理を実行することによって、前記画像中の前記監視オブジェクトの位置を特定し、当該位置を含む第2位置データを生成し、
    前記第1位置データを用いて第1軌道を生成し、
    前記第2位置データを用いて第2軌道を生成し、
    前記第1軌道及び前記第2軌道を比較することによって、前記監視オブジェクトの軌道が途切れないように、前記第1位置データ及び前記第2位置データのいずれかを補完し、
    前記第2位置データに対応する前記画像に対して個体識別処理を実行することによって、前記監視オブジェクトの個体を識別し、識別結果を前記第2位置データに対応づけることを特徴とする計算機システム。
  2. 請求項1に記載の計算機システムであって、
    前記少なくとも一つの計算機は、
    前記第2軌道に対応する前記画像から前記監視オブジェクト周辺の部分画像を切出し、
    前記第2軌道と対応づけて前記部分画像を管理することを特徴とする計算機システム。
  3. 請求項1に記載の計算機システムであって、
    前記監視オブジェクトは生物であって、
    前記少なくとも一つの計算機は、前記監視オブジェクトの特徴に基づく前記個体の識別処理を実行することを特徴とする計算機システム。
  4. 請求項3に記載の計算機システムであって、
    前記監視オブジェクトの特徴は、顔及び色の少なくともいずれかであることを特徴とする計算機システム。
  5. 請求項1に記載の計算機システムであって、
    前記少なくとも一つの計算機は、前記第1位置データ及び前記第2位置データのいずれを補完するかを選択するためのインタフェースを提示することを特徴とする計算機システム。
  6. 計算機システムが実行する、監視オブジェクトのトラッキング方法であって、
    前記計算機システムは、レーザ光の照射によって前記監視オブジェクトの位置を計測する第1計測装置及び画像を取得する第2計測装置と接続する、少なくとも一つの計算機を有し、
    前記監視オブジェクトのトラッキング方法は、
    前記少なくとも一つの計算機が、前記第1計測装置から、前記監視オブジェクトの位置を含む第1位置データを取得する第1のステップと、
    前記少なくとも一つの計算機が、前記画像に対して監視オブジェクト識別処理を実行することによって、前記画像中の前記監視オブジェクトの位置を特定し、当該位置を含む第2位置データを生成する第2のステップと、
    前記少なくとも一つの計算機が、前記第1位置データを用いて第1軌道を生成する第3のステップと、
    前記少なくとも一つの計算機が、前記第2位置データを用いて第2軌道を生成する第4のステップと、
    前記少なくとも一つの計算機が、前記第1軌道及び前記第2軌道を比較することによって、前記監視オブジェクトの軌道が途切れないように、前記第1位置データ及び前記第2位置データのいずれかを補完する第5のステップと、
    前記少なくとも一つの計算機が、前記第2位置データに対応する前記画像に対して個体識別処理を実行することによって、前記監視オブジェクトの個体を識別し、識別結果を前記第2位置データに対応づける第6のステップと、
    を含むことを特徴とする監視オブジェクトのトラッキング方法。
  7. 請求項6に記載の監視オブジェクトのトラッキング方法であって、
    前記少なくとも一つの計算機が、前記第2軌道に対応する前記画像から前記監視オブジェクト周辺の部分画像を切り出すステップと、
    前記少なくとも一つの計算機が、前記第2軌道と対応づけて前記部分画像を管理するステップと、を含むことを特徴とする監視オブジェクトのトラッキング方法。
  8. 請求項6に記載の監視オブジェクトのトラッキング方法であって、
    前記監視オブジェクトは生物であって、
    前記第6のステップは、前記少なくとも一つの計算機が、前記監視オブジェクトの特徴に基づく前記個体の識別処理を実行するステップを含むことを特徴とする監視オブジェクトのトラッキング方法。
  9. 請求項8に記載の監視オブジェクトのトラッキング方法であって、
    前記監視オブジェクトの特徴は、顔及び色の少なくともいずれかであることを特徴とする監視オブジェクトのトラッキング方法。
  10. 請求項6に記載の監視オブジェクトのトラッキング方法であって、
    前記少なくとも一つの計算機が、前記第1位置データ及び前記第2位置データのいずれを補完するかを選択するためのインタフェースを提示するステップを含むことを特徴とする監視オブジェクトのトラッキング方法。
JP2021196653A 2021-12-03 2021-12-03 計算機システム及び監視オブジェクトのトラッキング方法 Pending JP2023082755A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021196653A JP2023082755A (ja) 2021-12-03 2021-12-03 計算機システム及び監視オブジェクトのトラッキング方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021196653A JP2023082755A (ja) 2021-12-03 2021-12-03 計算機システム及び監視オブジェクトのトラッキング方法

Publications (1)

Publication Number Publication Date
JP2023082755A true JP2023082755A (ja) 2023-06-15

Family

ID=86728663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021196653A Pending JP2023082755A (ja) 2021-12-03 2021-12-03 計算機システム及び監視オブジェクトのトラッキング方法

Country Status (1)

Country Link
JP (1) JP2023082755A (ja)

Similar Documents

Publication Publication Date Title
Dunn et al. Geometric deep learning enables 3D kinematic profiling across species and environments
KR101880246B1 (ko) 수술영상 재생제어 방법, 장치 및 프로그램
JP4686595B2 (ja) クリティカルポイント解析に基づくポーズ推定
US11803974B2 (en) Automated system to measure multi-animal body part dynamics
JP2019192207A (ja) アプリケーションプログラム生成のための深層ニューラルネットワーク訓練
US9147114B2 (en) Vision based target tracking for constrained environments
US20180365842A1 (en) Searching trees: live time-lapse cell-cycle progression modeling and analysis
KR102506029B1 (ko) 영상 기반 가축 개체 성장 추이 모니터링 장치 및 방법
KR20220068711A (ko) 영상 기반 가축의 급이 행동 분석 장치 및 방법
JPWO2019111932A1 (ja) モデル学習装置、モデル学習方法及びコンピュータプログラム
WO2017134735A1 (ja) ロボットシステム、ロボットの最適化システム、およびロボットの動作計画学習方法
JP2009217448A (ja) 画像情報を用いた人物追跡システム
Patel et al. Animal pose tracking: 3d multimodal dataset and token-based pose optimization
JP2023082755A (ja) 計算機システム及び監視オブジェクトのトラッキング方法
KR102276862B1 (ko) 수술영상 재생제어 방법, 장치 및 프로그램
KR102488901B1 (ko) 수술 중 환자 위치를 추적하는 방법 및 시스템
US20220383652A1 (en) Monitoring Animal Pose Dynamics from Monocular Images
Kumar et al. Vision-based decision-support and safety systems for robotic surgery
US10390798B2 (en) Computer-aided tracking and motion analysis with ultrasound for measuring joint kinematics
CN113129340B (zh) 操作设备的运动轨迹分析方法、装置、介质和计算设备
US11062520B2 (en) Ergonomic assessment using a wearable device
KR102236802B1 (ko) 진단 모델용 데이터의 특징 추출 장치 및 방법
CN111652911B (zh) 目标监控方法、装置和设备
Meier et al. Augmenting humans in the loop: Towards an augmented reality object labeling application for crowdsourcing Communities
CN117274495A (zh) 一种室内场景的模型构建方法、装置、介质及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240417