JPWO2019097784A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JPWO2019097784A1 JPWO2019097784A1 JP2019520655A JP2019520655A JPWO2019097784A1 JP WO2019097784 A1 JPWO2019097784 A1 JP WO2019097784A1 JP 2019520655 A JP2019520655 A JP 2019520655A JP 2019520655 A JP2019520655 A JP 2019520655A JP WO2019097784 A1 JPWO2019097784 A1 JP WO2019097784A1
- Authority
- JP
- Japan
- Prior art keywords
- label
- constraint
- learning
- information processing
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
1.第1の実施形態
1.1.概要
1.2.情報処理装置10の機能構成例
1.3.制約ラベルを用いた学習
1.4.学習対象の具体例
2.ハードウェア構成例
3.まとめ
<<1.1.概要>>
まず、本開示の一実施形態の概要について説明する。上述したように、近年では、収集情報に基づく推定や予測を行う種々の技術が開発されている。当該技術には、例えば、物体検出、位置推定、センサ値推定などの連続値に係る推定技術が広く含まれる。また、ディープラーニングなどの機械学習手法を用いて、上記のような推定を実現する技術も知られている。
まず、本開示の一実施形態に係る情報処理方法を実現する情報処理装置10の機能構成例について説明する。図1は、本実施形態に係る情報処理装置10の機能構成例を示すブロック図である。図1を参照すると、本実施形態に係る情報処理装置10は、入力部110、制御部120、学習部130、および出力部140を備える。
本実施形態に係る入力部110は、ユーザによる入力操作を受け付ける機能を有する。本実施形態に係る入力部110は、入力部110は、例えば、各種のボタン、キーボード、タッチパネル、マウス、スイッチなどにより実現され得る。また、入力部110は、マイクロフォンなどを含んでよい。
本実施形態に係る制御部120は、情報処理装置10が備える各構成の制御を行う。また、制御部120は、学習部130が学習した知識を用いて被検出物体のトラッキングを行う機能を有してもよい。
本実施形態に係る学習部130は、制約ラベルが付与された学習用データを用いて機械学習を行う機能を有する。上述したように、本実施形態に係る制約ラベルは、通常ラベルが従うべき制約の種別を定義したラベルであってよい。本実施形態に係る学習部130が有する機能の詳細については別途後述する。
出力部140は、ユーザに視覚情報や聴覚情報を提示する機能を有する。このために、出力部140は、例えば、ディスプレイ装置やスピーカを含んで構成され得る。ここで、上記のディスプレイ装置は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置、タッチパネル、プロジェクタなどにより実現されてもよい。
次に、本実施形態に係る制約ラベルを用いた学習について詳細に説明する。本実施形態に係る情報処理方法は、制約ラベルを用いた学習を行うことで、教師ラベルの付与負担を大幅に軽減しながら、一度の学習において、被検出物体の複数の動作種別を学習することを可能とする。
次に、本実施形態に係る学習対象について具体例を挙げながら説明する。
まず、歩行者を検出するトラッカーを生成するための学習について述べる。この際、精度の高いトラッカーを生成するためには、歩行者に係る様々な見え方、また見え方の変化を学習させる必要がある。このために、学習用データセットを収集する際には、撮像対象者に歩行に係る自然な動きを行ってもらい、当該動きを撮影することが想定される。
次に、人の関節点の動きを検出するトラッカーを生成するための学習について述べる。人の関節点を検出したい場合の例としては、例えば、スポーツやダンスにおけるプレーヤや演者の特定動作の検出が挙げられる。
次に、車両を検出するためのトラッカーを生成するための学習について述べる。ここでは、車両の位置推定器を学習させるために、車両の動きに係るセンサ情報や、動画を学習用データセットとして用いることを想定する。
次に、本開示の一実施形態に係る情報処理装置10のハードウェア構成例について説明する。図21は、本開示の一実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。図21を参照すると、情報処理装置10は、例えば、プロセッサと、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
プロセッサ871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
ROM872は、プロセッサ871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、プロセッサ871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
プロセッサ871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
以上説明したように、本開示の一実施形態に係る情報処理装置10は、制約ラベルが付与された学習用データを用いて機械学習を行う学習部130を備える。また、上記の制約ラベルは、通常ラベルが従うべき制約の種別を定義したラベルであってよい。係る構成によれば、ラベル付与の負担を低減すると共により柔軟な学習を実現することが可能となる。
(1)
制約ラベルが付与された学習用データを用いて機械学習を行う学習部、
を備え、
前記制約ラベルは、通常ラベルが従うべき制約の種別を定義したラベルである、
情報処理装置。
(2)
前記学習部は、前記制約ラベルに基づいて、学習モデルを選択する、
前記(1)に記載の情報処理装置。
(3)
前記学習部は、前記制約ラベルに基づいて、前記学習モデルに係るネットワークを選択する、
前記(2)に記載の情報処理装置。
(4)
前記学習部は、前記制約ラベルに基づいて、前記学習モデルに係るロス関数を選択する、
前記(2)または(3)に記載の情報処理装置。
(5)
前記学習部は、前記学習用データに基づいて前記制約ラベルを推定する制約ラベル推定器、を有する、
前記(1)〜(4)のいずれかに記載の情報処理装置。
(6)
前記学習用データは、時系列における被検出対象の動作情報を含み、
前記通常ラベルは、前記被検出対象の位置情報である、
前記(1)〜(5)のいずれかに記載の情報処理装置。
(7)
前記学習用データは、動画におけるフレーム画像の集合であり、
前記通常ラベルは、前記フレーム画像における被検出対象の位置情報である、
前記(1)〜(6)のいずれかに記載の情報処理装置。
(8)
前記学習用データは、前記被検出対象の動作に係るセンサ情報である、
前記(6)に記載の情報処理装置。
(9)
前記制約ラベルは、前記被検出対象の動作種別を定義したモーションラベルである、
前記(6)〜(8)のいずれかに記載の情報処理装置。
(10)
前記モーションラベルは、物理法則に従う前記被検出対象の動作種別を定義したラベルである、
前記(9)に記載の情報処理装置。
(11)
前記物理法則に従う前記被検出対象の動作種別は、等速運動、等加速度運動、または円運動のうち少なくともいずれかを含む、
前記(10)に記載の情報処理装置。
(12)
前記モーションラベルは、前記被検出対象の特定動作を定義したラベルである、
前記(9)に記載の情報処理装置。
(13)
前記モーションラベルは、特定行動に伴う前記被検出対象の動作を定義したラベルである、
前記(9)に記載の情報処理装置。
(14)
前記制約ラベルは、時系列データの分類に係るカテゴリ情報である、
前記(1)〜(13)のいずれかに記載の情報処理装置。
(15)
前記学習部は、同一の前記制約を共有するデータごとにグループ化された前記学習用データを用いた機械学習を行う、
前記(1)〜(14)のいずれかに記載の情報処理装置。
(16)
前記グループ化は、被検出対象の同一の特定動作に係る時系列データごとに行われる、前記(15)に記載の情報処理装置。
(17)
前記グループ化は、前記制約ラベル、および前記制約に係るパラメータに基づいて行われる、
前記(15)または(16)に記載の情報処理装置。
(18)
前記グループ化は、時系列データに対するインデックスの付与により行われる、
前記(15)〜(17)のいずれかに記載の情報処理装置。
(19)
プロセッサが、制約ラベルが付与された学習用データを用いて機械学習を行うこと、
を含み、
前記制約ラベルは、通常ラベルが従うべき制約の種別を定義したラベルである、
情報処理方法。
(20)
コンピュータを、
制約ラベルが付与された学習用データを用いて機械学習を行う学習部、
を備え、
前記制約ラベルは、通常ラベルが従うべき制約の種別を定義したラベルである、
情報処理装置、
として機能させるためのプログラム。
110 入力部
120 制御部
130 学習部
140 出力部
Claims (20)
- 制約ラベルが付与された学習用データを用いて機械学習を行う学習部、
を備え、
前記制約ラベルは、通常ラベルが従うべき制約の種別を定義したラベルである、
情報処理装置。 - 前記学習部は、前記制約ラベルに基づいて、学習モデルを選択する、
請求項1に記載の情報処理装置。 - 前記学習部は、前記制約ラベルに基づいて、前記学習モデルに係るネットワークを選択する、
請求項2に記載の情報処理装置。 - 前記学習部は、前記制約ラベルに基づいて、前記学習モデルに係るロス関数を選択する、
請求項2に記載の情報処理装置。 - 前記学習部は、前記学習用データに基づいて前記制約ラベルを推定する制約ラベル推定器、を有する、
請求項1に記載の情報処理装置。 - 前記学習用データは、時系列における被検出対象の動作情報を含み、
前記通常ラベルは、前記被検出対象の位置情報である、
請求項1に記載の情報処理装置。 - 前記学習用データは、動画におけるフレーム画像の集合であり、
前記通常ラベルは、前記フレーム画像における被検出対象の位置情報である、
請求項1に記載の情報処理装置。 - 前記学習用データは、前記被検出対象の動作に係るセンサ情報である、
請求項6に記載の情報処理装置。 - 前記制約ラベルは、前記被検出対象の動作種別を定義したモーションラベルである、
請求項6に記載の情報処理装置。 - 前記モーションラベルは、物理法則に従う前記被検出対象の動作種別を定義したラベルである、
請求項9に記載の情報処理装置。 - 前記物理法則に従う前記被検出対象の動作種別は、等速運動、等加速度運動、または円運動のうち少なくともいずれかを含む、
請求項10に記載の情報処理装置。 - 前記モーションラベルは、前記被検出対象の特定動作を定義したラベルである、
請求項9に記載の情報処理装置。 - 前記モーションラベルは、特定行動に伴う前記被検出対象の動作を定義したラベルである、
請求項9に記載の情報処理装置。 - 前記制約ラベルは、時系列データの分類に係るカテゴリ情報である、
請求項1に記載の情報処理装置。 - 前記学習部は、同一の前記制約を共有するデータごとにグループ化された前記学習用データを用いた機械学習を行う、
請求項1に記載の情報処理装置。 - 前記グループ化は、被検出対象の同一の特定動作に係る時系列データごとに行われる、請求項15に記載の情報処理装置。
- 前記グループ化は、前記制約ラベル、および前記制約に係るパラメータに基づいて行われる、
請求項15に記載の情報処理装置。 - 前記グループ化は、時系列データに対するインデックスの付与により行われる、
請求項15に記載の情報処理装置。 - プロセッサが、制約ラベルが付与された学習用データを用いて機械学習を行うこと、
を含み、
前記制約ラベルは、通常ラベルが従うべき制約の種別を定義したラベルである、
情報処理方法。 - コンピュータを、
制約ラベルが付与された学習用データを用いて機械学習を行う学習部、
を備え、
前記制約ラベルは、通常ラベルが従うべき制約の種別を定義したラベルである、
情報処理装置、
として機能させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017221008 | 2017-11-16 | ||
JP2017221008 | 2017-11-16 | ||
PCT/JP2018/030270 WO2019097784A1 (ja) | 2017-11-16 | 2018-08-14 | 情報処理装置、情報処理方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2019097784A1 true JPWO2019097784A1 (ja) | 2020-10-01 |
Family
ID=66539498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019520655A Ceased JPWO2019097784A1 (ja) | 2017-11-16 | 2018-08-14 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11295455B2 (ja) |
EP (1) | EP3576026A4 (ja) |
JP (1) | JPWO2019097784A1 (ja) |
WO (1) | WO2019097784A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10810725B1 (en) * | 2018-12-07 | 2020-10-20 | Facebook, Inc. | Automated detection of tampered images |
CN111352965B (zh) * | 2020-02-18 | 2023-09-08 | 腾讯科技(深圳)有限公司 | 序列挖掘模型的训练方法、序列数据的处理方法及设备 |
JP7272510B2 (ja) * | 2020-09-23 | 2023-05-12 | 日本電気株式会社 | 照合装置、照合方法、プログラム |
CN115439686B (zh) * | 2022-08-30 | 2024-01-09 | 一选(浙江)医疗科技有限公司 | 一种基于扫描影像的关注对象检测方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013030984A1 (ja) * | 2011-08-31 | 2013-03-07 | 株式会社日立エンジニアリング・アンド・サービス | 設備状態監視方法およびその装置 |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8218818B2 (en) * | 2009-09-01 | 2012-07-10 | Behavioral Recognition Systems, Inc. | Foreground object tracking |
EP2826029A4 (en) * | 2012-03-15 | 2016-10-26 | Behavioral Recognition Sys Inc | ALERT DIRECTIVES AND TARGETED ALERT DIRECTIVES IN A BEHAVIORAL RECOGNITION SYSTEM |
US20140328570A1 (en) * | 2013-01-09 | 2014-11-06 | Sri International | Identifying, describing, and sharing salient events in images and videos |
EP2728513A1 (en) * | 2012-10-31 | 2014-05-07 | Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO | Detection of human actions from video data |
CN104881881B (zh) * | 2014-02-27 | 2018-04-10 | 株式会社理光 | 运动对象表示方法及其装置 |
US9158971B2 (en) * | 2014-03-03 | 2015-10-13 | Xerox Corporation | Self-learning object detectors for unlabeled videos using multi-task learning |
US10083233B2 (en) * | 2014-09-09 | 2018-09-25 | Microsoft Technology Licensing, Llc | Video processing for motor task analysis |
US9858484B2 (en) * | 2014-12-30 | 2018-01-02 | Facebook, Inc. | Systems and methods for determining video feature descriptors based on convolutional neural networks |
IL241863A0 (en) * | 2015-10-06 | 2016-11-30 | Agent Video Intelligence Ltd | A method and system for classifying objects from a sequence of images |
US10019652B2 (en) * | 2016-02-23 | 2018-07-10 | Xerox Corporation | Generating a virtual world to assess real-world video analysis performance |
US10423892B2 (en) * | 2016-04-05 | 2019-09-24 | Omni Ai, Inc. | Trajectory cluster model for learning trajectory patterns in video data |
CN107273782B (zh) * | 2016-04-08 | 2022-12-16 | 微软技术许可有限责任公司 | 使用递归神经网络的在线动作检测 |
US20190156202A1 (en) * | 2016-05-02 | 2019-05-23 | Scopito Aps | Model construction in a neural network for object detection |
US20180007382A1 (en) * | 2016-06-30 | 2018-01-04 | Facebook, Inc. | Systems and methods for determining motion vectors |
WO2018033156A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 视频图像的处理方法、装置和电子设备 |
CN108062505B (zh) * | 2016-11-09 | 2022-03-18 | 微软技术许可有限责任公司 | 用于基于神经网络的动作检测的方法和设备 |
US20180136332A1 (en) * | 2016-11-15 | 2018-05-17 | Wheego Electric Cars, Inc. | Method and system to annotate objects and determine distances to objects in an image |
US10733428B2 (en) * | 2017-02-01 | 2020-08-04 | The Government Of The United States Of America, As Represented By The Secretary Of The Navy | Recognition actions on event based cameras with motion event features |
GB2560177A (en) * | 2017-03-01 | 2018-09-05 | Thirdeye Labs Ltd | Training a computational neural network |
CN106897714B (zh) * | 2017-03-23 | 2020-01-14 | 北京大学深圳研究生院 | 一种基于卷积神经网络的视频动作检测方法 |
JP2019008519A (ja) * | 2017-06-23 | 2019-01-17 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 移動体検出方法、移動体学習方法、移動体検出装置、移動体学習装置、移動体検出システム、および、プログラム |
US20180373980A1 (en) * | 2017-06-27 | 2018-12-27 | drive.ai Inc. | Method for training and refining an artificial intelligence |
CN107451553B (zh) * | 2017-07-26 | 2019-08-02 | 北京大学深圳研究生院 | 一种基于超图转变的视频中暴力事件检测方法 |
US10210391B1 (en) * | 2017-08-07 | 2019-02-19 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for detecting actions in videos using contour sequences |
KR102425578B1 (ko) * | 2017-08-08 | 2022-07-26 | 삼성전자주식회사 | 객체를 인식하는 방법 및 장치 |
CA3016953A1 (en) * | 2017-09-07 | 2019-03-07 | Comcast Cable Communications, Llc | Relevant motion detection in video |
CN109522902B (zh) * | 2017-09-18 | 2023-07-07 | 微软技术许可有限责任公司 | 空-时特征表示的提取 |
US10740620B2 (en) * | 2017-10-12 | 2020-08-11 | Google Llc | Generating a video segment of an action from a video |
US10739775B2 (en) * | 2017-10-28 | 2020-08-11 | Tusimple, Inc. | System and method for real world autonomous vehicle trajectory simulation |
EP3493154A1 (en) * | 2017-12-01 | 2019-06-05 | Koninklijke Philips N.V. | Segmentation system for segmenting an object in an image |
US11902705B2 (en) * | 2019-09-03 | 2024-02-13 | Nvidia Corporation | Video prediction using one or more neural networks |
-
2018
- 2018-08-14 JP JP2019520655A patent/JPWO2019097784A1/ja not_active Ceased
- 2018-08-14 WO PCT/JP2018/030270 patent/WO2019097784A1/ja unknown
- 2018-08-14 US US16/471,127 patent/US11295455B2/en active Active
- 2018-08-14 EP EP18878279.1A patent/EP3576026A4/en not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013030984A1 (ja) * | 2011-08-31 | 2013-03-07 | 株式会社日立エンジニアリング・アンド・サービス | 設備状態監視方法およびその装置 |
Non-Patent Citations (1)
Title |
---|
村尾 和哉 ほか: "「行動の順序制約を用いた加速度データのラベリング手法」", 情報処理学会論文誌, vol. 第55巻, 第1号, JPN6018044242, 2014, pages 519 - 530, ISSN: 0004881430 * |
Also Published As
Publication number | Publication date |
---|---|
US20200034977A1 (en) | 2020-01-30 |
US11295455B2 (en) | 2022-04-05 |
EP3576026A4 (en) | 2020-12-16 |
WO2019097784A1 (ja) | 2019-05-23 |
EP3576026A1 (en) | 2019-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPWO2019097784A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2022134344A1 (zh) | 目标检测方法、系统、设备及存储介质 | |
JP6911866B2 (ja) | 情報処理装置および情報処理方法 | |
Krantz et al. | Beyond the nav-graph: Vision-and-language navigation in continuous environments | |
US20230367809A1 (en) | Systems and Methods for Geolocation Prediction | |
JP2022505775A (ja) | 画像分類モデルの訓練方法、画像処理方法及びその装置、並びにコンピュータプログラム | |
CN104794733B (zh) | 对象跟踪方法和装置 | |
Jalal et al. | Human depth sensors‐based activity recognition using spatiotemporal features and hidden Markov model for smart environments | |
US20150325046A1 (en) | Evaluation of Three-Dimensional Scenes Using Two-Dimensional Representations | |
EP3555815B1 (en) | Unsupervised learning techniques for temporal difference models | |
US20160085310A1 (en) | Tracking hand/body pose | |
CN110234085B (zh) | 基于对抗迁移网络的室内位置指纹地图生成方法及系统 | |
JP2013206273A (ja) | 情報処理装置、情報処理方法、および情報処理システム | |
CN114283316A (zh) | 一种图像识别方法、装置、电子设备和存储介质 | |
CN113723378B (zh) | 一种模型训练的方法、装置、计算机设备和存储介质 | |
KR101813805B1 (ko) | 머신 러닝을 이용한 사용자의 구매 확률 예측 방법 및 장치 | |
JP2018010626A (ja) | 情報処理装置、情報処理方法 | |
Padmaja et al. | A comparison on visual prediction models for MAMO (multi activity-multi object) recognition using deep learning | |
JP2023513613A (ja) | 適応共蒸留モデル | |
KR20200099966A (ko) | 명목형 데이터를 포함하는 데이터를 기반으로 하는 학습 방법 및 장치 | |
CN114372999A (zh) | 一种对象检测方法、装置、电子设备和存储介质 | |
WO2023091131A1 (en) | Methods and systems for retrieving images based on semantic plane features | |
WO2023058433A1 (ja) | 学習装置、学習方法、センシングデバイス及びデータ収集方法 | |
Bisagno et al. | Virtual crowds: An LSTM-based framework for crowd simulation | |
US20230169754A1 (en) | Information processing device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210727 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220927 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20230131 |