JP6734653B2 - コンピュータ視覚ベースのプロセス認識 - Google Patents

コンピュータ視覚ベースのプロセス認識 Download PDF

Info

Publication number
JP6734653B2
JP6734653B2 JP2016008870A JP2016008870A JP6734653B2 JP 6734653 B2 JP6734653 B2 JP 6734653B2 JP 2016008870 A JP2016008870 A JP 2016008870A JP 2016008870 A JP2016008870 A JP 2016008870A JP 6734653 B2 JP6734653 B2 JP 6734653B2
Authority
JP
Japan
Prior art keywords
activity
array
keyframe
video stream
monitored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016008870A
Other languages
English (en)
Other versions
JP2016146176A (ja
Inventor
ロバート・ピー・ローズ
ベイレイ・シュウ
エドガー・エイ・バナール
サウラブ・プラブハット
ウェンチェン・ウー
Original Assignee
コンデュエント ビジネス サービシーズ エルエルシー
コンデュエント ビジネス サービシーズ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コンデュエント ビジネス サービシーズ エルエルシー, コンデュエント ビジネス サービシーズ エルエルシー filed Critical コンデュエント ビジネス サービシーズ エルエルシー
Publication of JP2016146176A publication Critical patent/JP2016146176A/ja
Application granted granted Critical
Publication of JP6734653B2 publication Critical patent/JP6734653B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Description

本開示は、コンピュータ視覚ベースのプロセス認識に関し、より具体的には、コンピュータ視覚技術を使用して、段階、物体、および分量をプロセスにおいて検証する、検証方法およびシステムに関する。
製薬会社および薬局は、薬剤を製造または配送するための安全で信頼できるプロセスを確保しなければならない。製品の品質を確保するために、会社は、制御された手順を生産の全ての局面で実施する。加えて、製薬会社は、一般的に、有効化要件を統合して、医薬製品を生産するために使用されるプロセスを評価する。同様の要件は、食品の調理および包装など、他の産業において実施されている。
先行技術における1つの手法では、後の点検のためにカメラでプロセスを監視する。人間の点検者は、静止画像または画像フレームを精査して、薬剤が適切に調合されたこと、すなわち、全ての段階が正確に実行されたこと、を検証する。この手法は、手動の段階を行う技術者に依存して、画像を精査している人間の点検者に警告を与えてよい。例えば、技術者は、プロセスの一部を行っている際、手動でバーコードを走査し得る。別の例において、技術者は、薬剤成分を測定または混合する際に測定データを入力し得る。例えば、技術者は、エントリを入力としてコンピュータ内へキー入力し得る。人間の点検者は、測定の任意の記録に対して警告が生じた画像を検索し得る。例えば、先行技術の手法において、人間の点検者は、既知の位置の目盛りを撮像画像において検索することができ、目盛りの示度が技術者により入力される測定値と一致することを検証し得る。これらの検証方法は、技術者により行われる第1の手動の段階、および、検証動作のために人間の点検者により行われる第2の手動の点検、が必要であるため、重複している。代替的に、人間の点検者は、技術者により提供される対応の入力を伴わない、画像の目盛りの示度を検索し得る。この手法は、製品を生産するために使用される薬剤成分の分量を有効化するため、製品の品質が確保される。
撮像された画像データを点検する人間の実施者に依存する任意の検証プロセスは、コストの増大および非効率性をもたらし得る。さらに、人間の実施者は、画像コンテンツの誤読、または、不適切な技術者による取扱いの見逃しなど、エラーの影響を受けやすい。さらに、人間の実施者が画像を手動で処理するために必要な持続時間は、顧客への製品の配送に遅延を生じさせる可能性があり、最終的に会社の潜在的な利益を失わせ得る。
製品が正確に調合されることを検証するために、より頑健性が高く効率的な検証プロセスが、望まれている。複雑で多段階の活動の中で行動を検証する検証プロセスが、望まれている。追加的に、製品の製造において、分量を自動的に有効化する方法およびシステムが、望まれている。
本開示の1つの実施形態は、人間の実施者の活動ワークフローを有効化するためのコンピュータ視覚ベースの方法に関する。本方法は、対象の活動と関連付けられる、行動の予期配列を判定することを含む。本方法は、映像ストリームを、関連する人間の実施者により行われる活動を監視する画像撮像デバイスから受信することを含む。本方法は、外部キューを映像ストリームにおいて判定することを含む。本方法は、外部キューを撮像するフレームを、キーフレーム配列における第1のフレームと見なすことを含む。本方法は、関連する人間の実施者により行われる行動を、キーフレーム配列において判定することを含む。キーフレーム配列における行動が、対象の活動における予期行動と一致すると判定することに応答して、本方法は、監視される活動において行われる行動を検証することを含む。キーフレーム配列における行動を判定しないことに応答して、本方法は、監視される活動においてエラーを示す警告を生成することを含む。
本開示の別の実施形態は、人間の実施者の活動ワークフローを有効化するためのシステムに関する。システムは、プロセッサと通信するメモリを含むコンピュータデバイスを含む。プロセッサは、対象の活動と関連付けられる、行動の予期配列を判定するよう構成される。プロセッサは、映像ストリームを、関連する人間実施者により行われる活動を監視する画像撮像デバイスから受信するよう構成される。プロセッサは、外部キューを映像ストリームにおいて判定するよう構成される。さらに、プロセッサは、外部キューを撮像するフレームを、キーフレーム配列における第1のフレームと見なすよう構成される。プロセッサは、関連する人間の実施者により行われる行動をキーフレーム配列において判定するよう構成される。キーフレーム配列における行動が、対象の活動における予期行動と一致すると判定することに応答して、プロセッサは、監視される活動において行われる行動を検証するよう構成される。キーフレーム配列における行動を判定しないことに応答して、プロセッサは、監視される活動においてエラーを示す警告を生成/誘引するよう構成される。
本開示の別の実施形態は、人間の実施者の活動ワークフローを有効化するためのコンピュータ視覚ベースの方法に関する。本方法は、対象の活動を特定することを含む。本方法は、対象の活動と関連付けられる行動の予期配列を判定することを含む。本方法は、映像ストリームを、関連する人間の実施者により行われる活動を監視する画像撮像デバイスから受信することを含む。本方法は、関連する人間の実施者により行われる行動を、監視される映像ストリームにおいて判定することを含む。行動が、監視される映像ストリームにおける予期行動と一致すると判定することに応答して、本方法は、監視される活動において行われる行動を検証することを含む。監視される映像ストリームにおける行動を判定しないことに応答して、本方法は、監視される活動においてエラーを示す警告を生成することを含む。
図1は、人間の実施者の活動ワークフローを検証する方法の概略を描写するフローチャートである。 図2は、プロセス検証のためのコンピュータ視覚ベースのシステムの概略図である。 図3は、人間の実施者の活動ワークフローを有効化する方法を描写する、詳細なフローチャートである。 図4Aは、定量化のための物体の実例的な例である。 図4Bは、撮像された画像フレームから分離された図4Aの物体を示す二値画像である。 図4Cは、水平方向に回転された図4Bの配置物体を示す。 図4Dは、図4Cの回転された二値画像を描いた画素加算を示す。 図5は、錠剤を含む物体を示す。
本開示は、コンピュータ視覚ベースのプロセス認識に関し、より具体的には、コンピュータ視覚技術を使用して、段階、物体、および分量を、製品を生産するために使用される品質評価のためのプロセスにおいて検証する、検証方法およびシステムに関する。
本明細書に開示される検証プロセスは、製薬業界における用途を考慮しているが、本開示の用途は、任意の1つの業界に限定されない。本開示は、食品(包装)業界および化粧品業界など、品質評価測定を実施する他の同様の業界に適用され得る。具体的には、製薬会社は、医薬品を生産するのに使用される段階、装置(「物体」)、および、(例えば、医薬成分の)分量、を検証し得る。それらに関わらず、本開示は、人間の実施者により行われるプロセスを検証するために考慮され、それにより、人間は、物体を使用して段階を行い、および/または、成分の分量を測定または混合する。
本明細書において使用される「行動」という用語は、プロセスにおける段階を指す。行動は、段階、プロセスの一部またはサブプロセス、を指し得る。
本明細書において使用される「活動(単数または複数)」という用語は、行動の配列を指し、一部の実施形態において、プロセス全体における段階の配列を指す。
本明細書において使用される「対象の活動」という用語は、特定の製品または結果を産み出すために必要なプロセスを指す。
「予期行動」は、特定の製品または結果を生成するための対象の活動に含まれる段階である。
図1は、人間の実施者の活動ワークフローを検証する方法10の概略を描写するフローチャートである。本方法は、S12で開始される。前処理の局面において、システムは、分類器を活動における行動に関して訓練する。処理の局面において、システムは、S14で、人間の実施者によるジェスチャーなどの外部キューを、ジェスチャー認識を使用して判定することにより、関連画像フレームを判定する。代替的に、システムは、以下のような他のキューを使用して、関連画像フレームを判定し得る:物体検出による特定の物体の外観;動きの欠落を含むセグメントを検出するための映像分析;音響フィードバック;音声認識;および、例えば、GUIでの人間の実施者およびシステムによる、キーストロークまたはバーコードの走査の入力。本明細書において、検証プロセスを誘引するために使用される行動またはジェスチャーの種類に対する限定はない。考慮される実施形態において、監視エリアにおいて撮像される人間の実施者は、システムに、配列におけるフレームおよび/または後続フレームを撮像させる、または、継続撮像モードが使用される場合、開始フレームの位置をラベル化させる、ジェスチャーを行い得る。このジェスチャーは、人間の実施者により故意に行われ得る。代替的に、ジェスチャーは、予期される手の動きまたは物体の配置など、人間の実施者による自然な動きの一部であり得る。ジェスチャーは、行動が発生する外部キューとして扱われる。主として、ジェスチャーを認識することに応答して、システムは、S16で、撮像された映像において発生する行動に対するキー画像フレームを処理する。1つの実施形態において、システムは、特性をキー画像フレームから抽出して、訓練された分類器を特性に適用することができ、動作クラスを出力する。S18で、システムは、検出/分類された行動の配列を、対象の活動に対する予期配列と比較して、全ての行動が存在し、順番に行われるか判定する。システムは、S20で、行動が欠けている場合、または、順番から外れて行われる場合、警告を生成する。S22で、システムは、検出/分類された行動が予期行動および/または行動の配列と一致する場合、活動が人間の実施者により正確に行われたことを検証する。
さらに、ジェスチャーを認識することに応答して、システムは、追加的な検証データに対するキー画像フレームを処理する。システムは、S24で、行動と関連付けられる物体を検出して、映像フレームから分離する。システムは、S26で、物体に対応する画像データを処理して、物体と関連付けられる測定値を判定する。1つの実施形態において、システムは、S28で、測定情報を映像データにメタデータとして埋め込み得る。埋め込まれた測定情報は、S30で、所定の値と比較されて、行動(「物体指向性の行動」)を行うために使用される物体に対応する分量を検証し得る。システムは、S20で、測定値が所定の値と一致しない場合、警告を生成する。システムは、S22で、測定値が所定の値と一致する場合、活動が人間の実施者により正確に行われたことを検証する。本方法は、S32で終了する。
図2は、プロセス検証のためのコンピュータ視覚ベースのシステム(「システム100」)の概略図である。システム100は、本明細書においてネットワークと称される通信リンクにより相互に結合される、プロセス検証ユニット102およびユーザデバイス104を含む。1つの実施形態において、システム100は、さらに、画像撮像デバイス106と通信してよい。これらのコンポーネントは、以下に詳細に記載される。
図2に図示されるプロセス検証ユニット102は、プロセス検証ユニット102の一部であるか、または、プロセス検証ユニット102と関連付けられる、コントローラ110を含む。例示的なコントローラ110は、システム100により受信される映像データの分析を制御するために適用される。コントローラ110は、プロセッサ112と接続されるメモリ114に保存される処理命令の実行により、プロセス検証ユニット102の動作全体を制御する、プロセッサ112を含む。
メモリ114は、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、磁気ディスクまたはテープ、光ディスク、フラッシュメモリ、または、ホログラフィックメモリなど、任意の種類の有形のコンピュータ可読媒体を表してよい。1つの実施形態において、メモリ114は、ランダムアクセスメモリと読み出し専用メモリとの組合せを備える。デジタルプロセッサ112は、単一コアプロセッサ、デュアルコアプロセッサ(または、より一般的には、マルチコアプロセッサ)、デジタルプロセッサおよび協働数値演算コプロセッサ、デジタルコントローラなどにより、様々に具現化され得る。デジタルプロセッサは、プロセス検証ユニット102の動作を制御することに加えて、メモリ114に保存される、図1および図3に概要が記載される方法の一部を行うための命令を実行する。一部の実施形態において、プロセッサ112およびメモリ114は、単一チップにおいて組み合わされてよい。
プロセス検証ユニット102は、画像撮像デバイス106などのネットワーク接続デバイスにおいて具現化されてよいが、さらに、プロセス検証ユニット102は、セントラルサーバ、ネットワーク接続コンピュータなど、システム100が接続されるネットワーク上の任意の場所に配置されてよく、または、ネットワーク全体に分散されてよく、または、アクセス可能であってよいことが、考慮される。言い換えると、処理は、画像撮像デバイス106内において現地で、または、中央処理オフラインで、または、サーバコンピュータで、映像データを、ネットワークを介して伝達した後に行われ得る。1つの実施形態において、画像撮像デバイス106が適用されて、映像データ132をプロセス検証ユニット102へ中継および/または送信し得る。別の実施形態において、映像データ132は、ワークステーション、データベース、ディスクなどのメモリ保存デバイスなど、任意の適切なソースから入力されてよい。画像撮像デバイス106は、プロセッサ112およびメモリ114を包含するコントローラ110と通信する。
本明細書に開示される段階は、プロセッサ112により、メモリ114に包含される命令にしたがって行われる。具体的には、メモリ114は以下を保存する:映像データ132から抽出される特性を、動作クラスに属すると分類するよう動作する、事前に訓練された分類器116(例えば、サポートベクターマシン(SVM)、ニューラルネットワーク、ランダムフォレスト(RF)など);映像データを画像撮像デバイス106から取得する、映像取得/緩衝モジュール118;映像データを処理して、撮像される動作を映像データにおいて判定する、動作認識モジュール120;映像データにおいて行われる動作の配列を判定して、活動が配列を使用して適切に行われたか判定する、活動認識モジュール122;所定の物体(複数可)を検索および検出するために映像データを処理する、物体検出モジュール124;および、検出物体に関する定量化を行って、物体と関連付けられる測定量を判定する、定量化モジュール126。これらの命令が、単一モジュールにおいて、または、異なるデバイスにおいて具現化される複数のモジュールとして、保存され得る実施形態が、考慮される。モジュール116〜126は、例示的な方法を参照して、後に記載される。
本明細書において使用されるソフトウェアモジュールは、プロセス検証ユニット102または他のデジタルシステムにより実行可能な、命令の任意の集合またはセットを網羅して、コンピュータまたは他のデジタルシステムを、ソフトウェアの意図するタスクを行うよう構成することを意図する。本明細書において使用される「ソフトウェア」という用語は、RAM、ハードディスク、光ディスクなどの保存媒体に保存される、このような命令を網羅することを意図しており、さらに、ROMなどに保存されるソフトウェアである、いわゆる「ファームウェア」を網羅することを意図する。このようなソフトウェアは様々な手法で体系化されてよく、ライブラリ、リモートサーバなどに保存されるインターネットベースのプログラム、ソースコード、解釈コード、オブジェクトコード、直接的に実行可能なコードなどとして体系化される、ソフトウェアコンポーネントを含んでよい。ソフトウェアは、システムレベルのコード、または、サーバ(図示せず)または他の位置に常駐する他のソフトウェアに対する呼出し、を起動して、特定の機能を行うことが、考慮される。プロセス検証ユニット102の様々なコンポーネントは、バス128により全て接続されてよい。
引き続き図2を参照すると、プロセス検証ユニット102は、さらに、ネットワークインタフェースなど、外部デバイスと通信するための1つ以上の通信インタフェース130を含む。通信インタフェース130は、例えば、モデム、ルータ、ケーブル、および/またはイーサネット(登録商標)ポートなど、を含んでよい。通信インタフェース130は、映像データ132を入力として受信するよう適用されてよい。
プロセス検証ユニット102は、サーバコンピュータ、コントローラ、または、例示的な方法を行うための命令を実行可能な任意の他の計算デバイスなど、1つ以上の専用または汎用計算デバイスを含んでよい。
画像撮像デバイス106は、ビデオカメラまたは静止ショットカメラを含み得る。考慮される実施形態において、画像撮像デバイスは、例えば、1つの例において実験室など、対象エリアから、映像を撮像する1つ以上の監視カメラ(「ビデオカメラ106」)を含む。カメラの数は、監視されるエリアの規模により様々であってよい。複数のカメラの組み合わされた視界は、典型的には、監視エリアを取り囲むエリア全体を包含することが考慮される。ビデオカメラ106は、対象エリアの選択部分を拡大するよう動作する拡大鏡を含み得る。
引き続き図2を参照すると、システム100は、プロセス検証ユニット102の一部であるか、または、プロセス検証ユニット102と通信する、保存デバイス108を含み得る。考慮される実施形態において、プロセス検証ユニット102は、保存デバイス108などの処理デバイスおよびメモリを含むか、または、対象の活動と関連付けられる予期行動および配列を保存するための保存デバイス108へアクセス可能な、サーバ(図示せず)と通信し得る。
映像データ132は、プロセス検証ユニット102により処理され、検証データ(例えば、定量的データが埋め込まれた映像データ、および、警告など)134を出力する。さらに、システム100は、出力134を適切な形式でグラフィックユーザインタフェース(GUI)136上に表示し得る。GUI136は、情報をユーザへ表示するためのディスプレイ、および、命令を入力として受信するための、キーボードまたはタッチスクリーンまたは書き込み可能スクリーンなどのユーザ入力デバイス、および/または、ユーザ入力情報および命令選択をプロセッサ112へ伝達するための、マウス、タッチパッド、トラックボールなどのカーソル制御デバイス、を含み得る。代替的に、プロセス検証ユニット102は、検証出力をユーザデバイス104へ、さらなるユーザ点検のために提供し得る。
図3は、人間の実施者の活動ワークフローを有効化するための方法300を描写する詳細なフローチャートを示す。本方法は、S302で開始される。映像緩衝モジュール118は、S304で、映像データを画像撮像デバイスから取得する。S306で、行動認識モジュール120は、映像データのキーフレームを処理して、人間の実施者により行われる行動を映像ストリームにおいて判定する。1つの実施形態においてキーフレームを特定するために、システムにより監視および認識される人間の実施者によるジェスチャーは、システムが、システムに対する意図的なジェスチャーを行うことにより処理して認識するべきフレームに、信号を送り得る。代替的に、キーフレームは、音響フィードバックおよび音声認識など、他のキューを介して特定される。さらに、別の代替手段において、キーフレームは、例えば、人間の実施者によるキーストロークまたはバーコードの走査などのGUIと、プロセス検証ユニット102と、の間の通信を介して、特定される。他の実施形態において、キーフレームは、特定の物体の外観により物体検出を介して、特定され得る。さらなる実施形態において、キーフレームは、映像データに対する映像分析を介して特定され、動きの欠落を含むセグメントを検出し得る。別の実施形態において、システムは、予期行動の知識を有し、映像データの予期行動と一致する行動を、人間の実施者が指示することなく検索する。
モジュール120は、映像データのキーフレームにおいて行われる行動を、行動を局所化することにより判定する。人間の行動を映像データにおいて検出および分類するために使用される、1つの当該の手法は、同時係属で米国整理番号第14/596592号が共通して割り当てられている、2015年1月14日出願のJayant Kumarらによる開示「Adaptive Sampling For Efficient Analysis Of Egocentric Videos(一人称視点の映像の効率的な分析のための適応サンプリング)」に提供されている。この手法は、映像の重要な(サブ)領域において高密度のサンプリングを、および、重要でない領域において低密度のサンプリングを、生じさせる。適応サンプリングは、サンプリングを、フレームのサブ領域に特定の期間にわたって行って、時空間(ST)パッチまたは記述子をサブ領域から取得する。
行動が行われるか判定しようとする際、モジュール120は、映像ストリームの行動または物体移動などの視覚表現(すなわち、オプティカルフロー)を検索し得る。必然的に、モジュール120は、予期行動の近辺を認識しようとする。一般的に、モジュール120は、S308で、映像フレームにおける対象領域(または、STパッチ)の周囲の特性の縮小セットを抽出する。映像から抽出される特性の種類に対する限定はないが、限定されない例は、SIFT(スケール不変特徴量変換)およびHOG(勾配方向のヒストグラム)特性、局所的な二値パターン(LBP)、3D化された特性を、空間時間対象点(STIP)等と併せて、含み得る。対象領域は、映像フレームに現れることが予期される物体(例えば、人間実施者の手など)の位置を含み得る。
実例的な例として、適応サンプリングは、人間の実施者の手を含むサブ領域において行われてよい。手は、同時係属の開示に記載されている、ハンドセグメンテーションアルゴリズムを介して検出されてよい。1つ以上の特性は、人間の実施者の手を含むサブ領域内で特定されるSTパッチから抽出されてよい。言い換えると、この手法は、手のジェスチャーを認識することにより行動を分割する。ジェスチャー認識は、後続の映像フレームにおいて行動が生じる可能性があるシステムを警告する。したがって、システムは、行動を既知の行動と一致させることを目的とする。したがって、S310で、行動分類器は、その後1つ以上の特性に適用されて、適応的にサンプリングされる1つ以上のフレームにおいて起こっている行動を特定する。
分類器が行動クラスを出力することに応答して、モジュール120は、出力を、人間の実施者により行われる行動と見なす。言い換えると、システムは、行動を、監視される映像ストリームにおける予期行動と一致すると見なす。システムは、S312で、監視される活動において人間の実施者により適切に果たされたと認識される行動を検証する。分類器が低い分類スコアを出力することに応答して、モジュール120は、出力を、予期行動が監視活動に存在しないことを示すと見なす。監視される映像ストリームにおいて行動が検出されないことに応答して、システムは、S314で、監視される活動におけるエラーを表す警告を生成し得る。
引き続き図3を参照すると、行動モジュール120は、検出/認識された行動を、行動の配列を使用して活動を認識する、活動認識モジュール122へ提供する。前処理の局面の間、活動認識モジュール122は、映像ストリームにおいて行われることが予期される対象の活動に関する入力を受信する。この対象の活動は、検証プロセスにおいて使用される基準活動として扱われる。モジュール122は、保存デバイスから、対象の活動と関連付けられる、行動の予期配列を取得する。言い換えれば、モジュール122は、映像ストリームにおいて検出されるべき段階の配列を判定して、監視される活動が適合していること、および/または、適切に行われること、を検証する。
活動認識モジュール122は、検出/認識された行動を、行動認識モジュール120から受信する。1つの実施形態において、行動認識モジュール120は、各々が検出される際に、行動をリアルタイムで、活動認識モジュール122へ送信し得る。活動認識モジュール122は、各行動を予期配列と比較し得る。別の実施形態において、行動認識モジュール120は、検出された行動の数を併せて活動認識モジュール122へ送信し得る。活動認識モジュール122は、行動を、映像データにおいて行動が検出された配列内へ順序付ける。モジュール120は、S316で、検出された行動の配列を、行動の予期配列と比較する。判定された行動の配列が行動の予期配列と一致することに応答して、システムは、S318で、人間の実施者により適切に果たされたとして活動を検証する。判定された行動の配列が予期配列と一致しないことに応答して、システムは、S314で、監視される活動におけるエラーを示す警告を生成/誘引し得る。
同様に、検出された行動が、配列において予期行動を満たすが、配列に属さない(すなわち、順番から外れている)ことに応答して、システムは、監視される活動におけるエラーを示す警告を生成/誘引し得る。しかしながら、対象の活動が、動作の順番において余裕を容認する場合、活動認識モジュール122は、保存デバイスから、予期行動が現れるべき所定の配列の範囲を受信し得る。モジュール122は、認識された行動が行動の配列において検出された箇所に閾値化動作を行い、活動が正確に行われたか否か判定する。検出された行動が所定の配列の範囲内にあることに応答して、システムは、活動が正確に行われたことを検証し得る。検出された行動が所定の配列の範囲内にないことに応答して、システムは、監視される活動におけるエラーを示す警告を生成/誘引し得る。
1つの実施形態において、警告はリアルタイムで、例えば、GUI上のメッセージ、可聴メッセージ、または触覚メッセージとして、提供され得る。別の実施形態において、システムにより生成される警告は、ユーザデバイス104へ提供される通知を含み得る。1つの考慮される実施形態において、通知は、特定の段階またはプロセス全体が、さらなる精査を受けることを提案および/または表示し得る。追加的な精査を支援するために、以下に述べられるように、警告には、映像データにシステムにより埋め込まれた情報が提供され得る。
引き続き図3を参照すると、この精査または追加的な検証を支援するために、システムは、映像データから抽出される表現または物体を分析する。特定の物体は、予期行動と関連付けられる。これらの物体は、人間の実施者が行動を行う際に使用する機器を含み得る。人間の実施者(実験助手など)が成分を測定または混合する、実例的な例において、物体は、注射器、秤皿、または小瓶などを含み得る。行動を検出することに応答して、システムは、物体の分析、または、物体に対応する測定の読み込み、を行って、行動が適切に行われたか判定し得る。
本明細書において、物体を構成するものに対する限定はないが、本開示は、予期される測定値が活動の特定の局面で物体と関連付けられ得ることを考慮している。主として、保存デバイスは、物体および/または予期行動に対応する所定の測定データを保存する。1つの実施形態において、定量化モジュール126は、物体を領域画像において分析し、物体と関連付けられる定量化を判定する。例えば、予期行動が、成分を注射器内へ注入することを含んだ場合、および、認識プロセスが、行動が行われたと判定した場合、本開示は、さらに、正しい量の成分が注射器内へ注入されたことを、定量化を所定の測定値と比較することにより検証し得る。図4Aは、注射器400を含む物体の実例的な例である。注射器は、プラスチックの円筒/注射器管402、プランジャーヘッド404、およびゴムのプランジャーヘッド/ストッパ406を含む。
物体が注射器または同様の機器/デバイスを含む場合、定量化は、液体の必要量測定を含み得る。同様に、予期行動が、小瓶をカプセルで満たすことを含む場合、および、認識プロセスが、行動が適切に行われたことを判定した場合、システムは、さらに、正確な錠剤数が実際に小瓶に追加されたことを検証し得る。行動が、ボトル、容器、または小瓶を満たす場合、物体(複数可)は、小瓶内へ配送する製品である。図5は、錠剤を含む物体を示す。
最初に、物体検出モジュール124は、物体が行動の配列中に現れる時点に対応する、映像フレームを選択し得る。したがって、物体検出モジュール124は、S320で、物体を検出する。対象の物体は、関連する映像フレームにおいて、物体検出および位置確認のための任意の既知のコンピュータ視覚アルゴリズムを使用して、検出されてよい。1つの実施形態において、モジュール124は、二値画像(または、濃淡画像)を生成して、物体が画像フレームにおいて配置されている場所を判定する。図4Bは、撮像された画像フレームと分離された、図4Aの注射器/対象物体を示す二値画像である。物体の色、形状、および、変形可能なパートモデル(Deformable Part Model)などの技術は、画像において物体を分離して、充填または未充填部分を分割し得る。より洗練された方法が、背景シーンが、より複雑になる場合、および、物体が異なる形状である場合に、適用され得る。
実例的な例において、注射器は、関連する映像フレームにおいて検出され、人間の検閲者が後に円筒402の液体の量を検証する。定量化モジュール126は、S322で、物体/注射器と関連付けられる測定値を判定する。1つの実施形態において、定量化モジュール126は、ストッパの位置を、二値画像の画素を合計することにより特定し得る。この動作を緩和するために、二値画像は、水平または垂直位置へ回転され得る。図4Cは、水平方向に回転された、図4Bの注射器の二値画像を示す。図4Dは、列指標として画素和により描画された、回転された二値画像の画素加算を示す。定量化モジュール126は、プロットにおけるストッパの位置を特定し、このプロット位置を使用して、円筒402に収容される液体の容量または充填レベルを、計算または判定し得る。1つの実施形態において、保存デバイスは、ストッパ位置を充填レベルと関連付けるLUTを保存することができ、モジュール126は、LUTにアクセスして、プロットにおけるストッパの相対的な位置を、注射器における液体の容量(「測定値」)で変換し得る。しかしながら、本明細書において、液体の充填レベルを計算するために使用される手法に限定はない。
上述したように、物体検出および分割技術により、システムは、連続した分量の測定を行うことができる。類似の技術は、定量化モジュール126により使用されて、錠剤などの可算分量に対する測定値(すなわち、数)を判定し得る(図5参照)。定量化/測定値は、さらに、OCRを秤皿のデジタル読み出しに対して行うなど、機器から数字を読み込むことにより、記録され得る。
図3に戻ると、定量化モジュール126は、S324で、測定値を映像ストリームまたは画像フレーム内へメタデータとして埋め込み得る。この方法の1つの態様では、人間の実施者は中断された中間タスクではなく、手動で値をコンピュータへ入力する。言い換えると、定量化特性により、例えば、行動が精査を受けるべきであることを警告が示す際、後の自動または手動の点検のための自動測定判定が可能となる。潜在性または活動ワークフローと関連付けられる潜在的エラーの表示を受信することに応答して、システムは、埋め込まれた映像データをユーザデバイスへ提供し得る。別の実施形態において、システムは、埋め込まれた測定値を映像データから抽出し、抽出された測定値をユーザデバイスへ提供し得る。さらに別の実施形態において、システムは、抽出された測定値を所定の値と比較し得る。抽出された測定値と所定の値との間の差が、所定の閾値を満たし、所定の閾値より大きいことに応答して、警告通知(および/または、埋め込まれた映像データ、測定値など)を、ユーザデバイスへ提供し得る。さらに別の実施形態において、システムは、活動が検証されることに応答して、埋め込まれた映像データをユーザデバイスへ提供し得る。本方法は、S326で終了する。
活動が限定された人物により制御設定下で繰り返し行われる、特定の用途において、プロセスフロー認識段階は簡略化されて、以前に確認された記録映像(複数可)と照合され得る。この想定において、潜在的なエラーが検出されてよく、および、逸脱の度合い(エラーの大きさ)が測定されてよい。
制御方法が連続する行為または事象の形式で上記に図示および記載されているが、本開示の様々な方法またはプロセスが、このような行為または事象の図示される順番により限定されないことに留意されたい。この点において、以下に特に提供されない限り、一部の行為または事象は、異なる順番で起こってよく、および/または、本開示にしたがって本明細書に図示および記載されるものと異なる他の行為または事象と同時に起こってよい。さらに、全ての図示された段階が、プロセスまたは方法を本開示にしたがって実施するのに必要であるわけではなく、1つ以上のこのような行為が組み合わされてよいことに、留意されたい。本開示の図示される方法および他の方法は、ハードウェア、ソフトウェア、または、これらの組合せにおいて、本明細書に記載される制御機能性を提供するために実施されてよく、上記で図示されたシステム100を含むが、それに限定されない、任意のシステムに適用されてよい。ここで、本開示は、本明細書に図示および記載される特定用途および実施形態に限定されない。

Claims (8)

  1. 人間の実施者の活動ワークフローを検証するためのコンピュータにより実行される方法であって、前記方法は、サーバコンピュータにおいて、
    前記サーバコンピュータと通信する保存デバイスから、対象の活動と関連付けられる行動の予期配列を取得すること、
    映像ストリームを、関連する人間の実施者により行われる活動を監視する画像撮像デバイスから受信すること、
    外部キューを前記映像ストリームにおいて検出すること、
    前記外部キューを撮像するフレームを、キーフレーム配列における第1のフレームと見なすこと、
    前記キーフレーム配列から特性を抽出すること、
    前記抽出された特性を少なくとも1つの分類器に適用して、前記関連する人間の実施者により前記キーフレーム配列において行われる行動を判定すること、
    前記キーフレーム配列における前記行動が前記対象の活動における予期行動と一致すると判定することに応答して、前記行動を前記監視される活動において行われるとして検証すること、
    前記検証された行動の順序付けられた配列を前記予期配列と比較すること、
    前記順序づけられた配列が前記キーフレーム配列と一致しないことに応答して、前記監視される活動におけるエラーを示す警告を生成すること、
    前記順序づけられた配列が前記キーフレーム配列と一致することに応答して、前記キーフレーム配列における物体に関する定量化を行って、前記物体と関連付けられる測定値を判定すること、および
    前記サーバコンピュータと通信するユーザデバイスに、前記測定値を前記映像ストリームにおいてメタデータとして転送すること、
    を備える、方法。
  2. 前記外部キューは、
    物体検出による特定の物体の外観、
    動きの欠落を含むセグメントを検出するための映像分析、
    監視される前記人間の実施者によるジェスチャー、
    音響フィードバック、
    音声認識、
    GUIでの前記関連する人間の実施者による入力、および、
    上記の組合せ、
    からなる群から選択される、請求項1に記載の方法。
  3. 前記定量化は、
    画像フレームに配置される前記物体の二値画像を生成すること、および、
    前記二値画像における画素を合計して前記測定値を計算すること、
    を含む、請求項に記載の方法。
  4. エラーが前記活動ワークフローと関連付けられることに応答して、前記方法は、
    前記抽出された測定値を所定の値と比較すること、および、
    前記抽出された測定値と前記所定の値との間の差が、所定の閾値を満たし、所定の閾値を超えることに応答して、警告を生成すること、
    をさらに備える、請求項に記載の方法。
  5. 人間の実施者の活動ワークフローを検証するシステムであって、
    命令が保存された保存デバイスであって、前記命令は、
    対象の活動と関連付けられる行動の予期配列を取得すること、
    映像ストリームを、関連する人間の実施者により行われる活動を監視する画像撮像デバイスから受信すること、
    外部キューを映像ストリームにおいて検出すること、
    前記外部キューを撮像するフレームを、キーフレーム配列における第1のフレームと見なすこと、
    前記キーフレーム配列から特性を抽出すること、
    前記抽出された特性を少なくとも1つの分類器に適用して、前記関連する人間の実施者により行われる行動を前記キーフレーム配列において判定すること、
    前記キーフレーム配列における前記行動が前記対象の活動における予期行動と一致すると判定することに応答して、前記行動を、前記監視される活動において行われるものとして検証すること、
    前記検証された行動の順序を、前記キーフレーム配列のための予期配列と比較すること、
    前記順序づけられた配列が前記キーフレーム配列と一致しないことに応答して、前記監視される活動におけるエラーを示す警告を生成すること、
    前記順序づけられた配列が前記キーフレーム配列と一致することに応答して、前記キーフレーム配列における物体に関する定量化を行って、前記物体と関連付けられる測定値を判定すること、および
    前記測定値を映像ストリームにおいてメタデータとして転送すること、
    を含む保存デバイスと、
    コンピュータデバイスの一部をなし、前記命令を実行するように構成された少なくとも1つのハードウェアプロセッサと、
    前記コンピュータデバイスと通信し、前記メタデータを受信するユーザデバイスと、
    を備える、システム。
  6. 前記外部キューは、
    物体検出による特定の物体の外観、
    動きの欠落を含むセグメントを検出するための映像分析、
    監視される前記人間の実施者によるジェスチャー、
    音響フィードバック、
    音声認識、
    GUIでの前記関連する人間の実施者による入力、および、
    上記の組合せ、
    からなる群から選択される、請求項に記載のシステム。
  7. 前記命令は、
    画像フレームに配置される前記物体の二値画像を生成すること、および、
    前記二値画像における画素を合計して前記測定値を計算すること、
    をさらに含む、請求項に記載のシステム。
  8. 人間の実施者の活動ワークフローを有効化するためのコンピュータにより実行される方法であって、前記方法は、サーバコンピュータにおいて、
    対象の活動と関連付けられる行動の予期配列を判定すること、
    映像ストリームを、関連する人間の実施者により行われる活動を監視する画像撮像デバイスから受信すること、
    前記関連する人間の実施者により行われる少なくとも2つの行動を前記監視される映像ストリームにおいて判定するために、選択されたフレームから抽出された特性を分類器に適用すること、
    前記少なくとも2つの行動の配列が前記監視される映像ストリームにおける予期行動と一致すると判定することに応答して、記監視される活動により調合された関連する製品の品質を検証することであって、前記検証することは、前記映像ストリームのキーフレーム配列における物体を検出することを含む、検証すること
    前記物体に関する定量化を行って、前記映像ストリームにおいて測定値をメタデータとして判定すること、
    前記測定値を前記メタデータとして前記映像ストリームに埋め込むこと、
    前記監視される映像ストリームにおける前記行動を判定しないことに応答して、前記監視される活動におけるエラーを示す警告を生成すること、および、
    前記メタデータと前記警告との一方を、前記サーバコンピュータと通信するユーザデバイスに転送すること、
    を備える、方法。
JP2016008870A 2015-02-06 2016-01-20 コンピュータ視覚ベースのプロセス認識 Expired - Fee Related JP6734653B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562113149P 2015-02-06 2015-02-06
US62/113,149 2015-02-06
US14/688,230 US10110858B2 (en) 2015-02-06 2015-04-16 Computer-vision based process recognition of activity workflow of human performer
US14/688,230 2015-04-16

Publications (2)

Publication Number Publication Date
JP2016146176A JP2016146176A (ja) 2016-08-12
JP6734653B2 true JP6734653B2 (ja) 2020-08-05

Family

ID=56498725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016008870A Expired - Fee Related JP6734653B2 (ja) 2015-02-06 2016-01-20 コンピュータ視覚ベースのプロセス認識

Country Status (3)

Country Link
US (1) US10110858B2 (ja)
JP (1) JP6734653B2 (ja)
DE (1) DE102016200553A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130070056A1 (en) * 2011-09-20 2013-03-21 Nexus Environmental, LLC Method and apparatus to monitor and control workflow
US9672626B2 (en) * 2014-12-08 2017-06-06 Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd. Method and system for generating adaptive fast forward of egocentric videos
US10984355B2 (en) * 2015-04-17 2021-04-20 Xerox Corporation Employee task verification to video system
KR102534722B1 (ko) * 2015-12-24 2023-05-22 삼성전자주식회사 전자 장치 및 그의 동작 방법
JP6583537B2 (ja) * 2016-03-14 2019-10-02 オムロン株式会社 動作情報生成装置
EP3321844B1 (en) * 2016-11-14 2021-04-14 Axis AB Action recognition in a video sequence
CN106886751A (zh) * 2017-01-09 2017-06-23 深圳数字电视国家工程实验室股份有限公司 一种手势识别方法和系统
JP7120590B2 (ja) * 2017-02-27 2022-08-17 日本電気株式会社 情報処理装置、情報処理方法、及びプログラム
US9881367B1 (en) * 2017-08-09 2018-01-30 Amgen Inc. Image processing techniques for plunger depth measurement
JP6703679B1 (ja) * 2019-02-01 2020-06-03 株式会社計数技研 計数装置、学習器製造装置、計数方法、学習器製造方法、及びプログラム
KR102656963B1 (ko) * 2019-04-03 2024-04-16 삼성전자 주식회사 전자 장치 및 전자 장치의 제어 방법
US11321944B2 (en) * 2019-10-17 2022-05-03 Drishti Technologies, Inc. Cycle detection techniques
US20210357687A1 (en) * 2020-05-12 2021-11-18 Salesforce.Com, Inc. Systems and methods for partially supervised online action detection in untrimmed videos
IT202000012706A1 (it) * 2020-05-28 2021-11-28 Gianluca Moro Sistema e processo per determinare se una pluralità di persone in una area da monitorare indossino indumenti obiettivo e/o abbiano svolto attività obiettivo per adempiere a requisiti di igiene e/o di sicurezza
CN112989960A (zh) * 2021-02-22 2021-06-18 浙江省疾病预防控制中心 基于计算机视觉技术的防护用品穿脱行为监控方法及系统
CN113255606A (zh) * 2021-06-30 2021-08-13 深圳市商汤科技有限公司 行为识别方法、装置、计算机设备及存储介质
CN113435380A (zh) * 2021-07-06 2021-09-24 北京市商汤科技开发有限公司 一种人岗匹配检测方法、装置、计算机设备及存储介质
CN113673318B (zh) * 2021-07-12 2024-05-03 浙江大华技术股份有限公司 一种动作检测方法、装置、计算机设备和存储介质

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2940028B2 (ja) * 1989-11-29 1999-08-25 オムロン株式会社 視覚センサ
JPH06325044A (ja) * 1993-05-18 1994-11-25 Kubota Corp 製造管理支援方法
US5953055A (en) * 1996-08-08 1999-09-14 Ncr Corporation System and method for detecting and analyzing a queue
US6236736B1 (en) * 1997-02-07 2001-05-22 Ncr Corporation Method and apparatus for detecting movement patterns at a self-service checkout terminal
GB2327290B (en) * 1997-07-15 1999-09-15 Honda Motor Co Ltd Job aiding apparatus
EP1139298A3 (en) * 2000-03-31 2004-08-11 Fuji Photo Film Co., Ltd. Work data collection method
JP2003052039A (ja) * 2001-08-07 2003-02-21 Suzuki Motor Corp 作業動作計測システム及び方法並びに作業動作計測用プログラム
US20040263621A1 (en) * 2001-09-14 2004-12-30 Guo Chun Biao Customer service counter/checkpoint registration system with video/image capturing, indexing, retrieving and black list matching function
US20030133614A1 (en) * 2002-01-11 2003-07-17 Robins Mark N. Image capturing device for event monitoring
JP2003223649A (ja) * 2002-01-31 2003-08-08 Denso Corp アニメーション作成装置
US7327396B2 (en) * 2002-04-10 2008-02-05 National Instruments Corporation Smart camera with a plurality of slots for modular expansion capability through a variety of function modules connected to the smart camera
JP3863809B2 (ja) * 2002-05-28 2006-12-27 独立行政法人科学技術振興機構 手の画像認識による入力システム
US7292723B2 (en) * 2003-02-26 2007-11-06 Walker Digital, Llc System for image analysis in a network that is structured with multiple layers and differentially weighted neurons
JP2005267604A (ja) * 2004-02-18 2005-09-29 Fuji Xerox Co Ltd 動作分類支援装置および動作分類装置
RU2323475C2 (ru) * 2004-11-12 2008-04-27 Общество с ограниченной ответственностью "Центр Нейросетевых Технологий - Интеллектуальные Системы Безопасности" (ООО "ИСС") Способ (варианты) и устройство (варианты) автоматизированного обнаружения умышленных либо случайных нарушений технологической процедуры оператором
US8023726B2 (en) * 2006-11-10 2011-09-20 University Of Maryland Method and system for markerless motion capture using multiple cameras
JP5041801B2 (ja) * 2006-12-26 2012-10-03 本田技研工業株式会社 作業内容を表示するためのプログラム
US20080177646A1 (en) * 2007-01-19 2008-07-24 Property Monitors, Inc. Work site remote monitoring and employee time tracking system and method
US7693758B1 (en) * 2007-06-13 2010-04-06 Amazon Technologies, Inc. Activity verification
US9734464B2 (en) * 2007-09-11 2017-08-15 International Business Machines Corporation Automatically generating labor standards from video data
JP5149033B2 (ja) * 2008-02-26 2013-02-20 岐阜車体工業株式会社 動作解析方法及び動作解析装置並びにその動作解析装置を利用した動作評価装置
JP2009253370A (ja) * 2008-04-01 2009-10-29 Hitachi Kokusai Electric Inc 記録映像データ再生システム
BRPI1016258B1 (pt) * 2009-06-30 2018-11-21 Flamel Tech S A sais derivados de n-fosfonometilglicina guanidina e composição herbicida aquosa
KR101307341B1 (ko) * 2009-12-18 2013-09-11 한국전자통신연구원 동적 개체 모션 캡쳐 방법 및 그 장치
US9143843B2 (en) * 2010-12-09 2015-09-22 Sealed Air Corporation Automated monitoring and control of safety in a production area
US8548203B2 (en) * 2010-07-12 2013-10-01 International Business Machines Corporation Sequential event detection from video
US8610766B2 (en) * 2010-09-24 2013-12-17 International Business Machines Corporation Activity determination as function of transaction log
EP2686254B1 (de) * 2011-03-17 2018-08-15 SSI Schäfer Automation GmbH Steuerung und überwachung einer lager- und kommissionieranlage durch bewegung und sprache
US20130030875A1 (en) * 2011-07-29 2013-01-31 Panasonic Corporation System and method for site abnormality recording and notification
US20130027561A1 (en) * 2011-07-29 2013-01-31 Panasonic Corporation System and method for improving site operations by detecting abnormalities
WO2013145632A1 (ja) * 2012-03-30 2013-10-03 日本電気株式会社 動線データ解析装置、システム、プログラム及び方法
KR20130112098A (ko) * 2012-04-03 2013-10-14 이진용 공정설계 및 공정분석 방법
JP5935529B2 (ja) * 2012-06-13 2016-06-15 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
AT513130B1 (de) * 2012-08-24 2014-02-15 Tgw Logistics Group Gmbh Verfahren und System zur Unterstützung eines Arbeiters in einer Anlage zur Manipulation von Waren
JP6075110B2 (ja) * 2013-02-21 2017-02-08 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6075180B2 (ja) * 2013-04-18 2017-02-08 オムロン株式会社 作業管理システムおよび作業管理方法
WO2014183004A1 (en) * 2013-05-10 2014-11-13 Robert Bosch Gmbh System and method for object and event identification using multiple cameras
JP6364747B2 (ja) * 2013-11-14 2018-08-01 オムロン株式会社 監視装置および監視方法
US20150185731A1 (en) * 2013-12-26 2015-07-02 Hyundai Motor Company Work-in-process inspection system using motion detection, and method thereof
US9760852B2 (en) * 2014-01-28 2017-09-12 Junaid Hasan Surveillance tracking system and related methods
US20150213838A1 (en) * 2014-01-30 2015-07-30 Imperx, Inc. Network based video event recording system
JP6451133B2 (ja) * 2014-08-01 2019-01-16 株式会社リコー 異常検知装置、異常検知方法、異常検知システム、及びプログラム
US9911031B2 (en) * 2014-09-05 2018-03-06 The Boeing Company Obtaining metrics for a position using frames classified by an associative memory
US20160140395A1 (en) 2014-11-14 2016-05-19 Xerox Corporation Adaptive sampling for efficient analysis of ego-centric videos
US9262681B1 (en) * 2014-11-19 2016-02-16 Amazon Technologies, Inc. Probabilistic registration of interactions, actions or activities from multiple views

Also Published As

Publication number Publication date
JP2016146176A (ja) 2016-08-12
US10110858B2 (en) 2018-10-23
US20160234464A1 (en) 2016-08-11
DE102016200553A1 (de) 2016-08-11

Similar Documents

Publication Publication Date Title
JP6734653B2 (ja) コンピュータ視覚ベースのプロセス認識
US9075453B2 (en) Human eye controlled computer mouse interface
US20190130180A1 (en) Object type identifying apparatus, object type identifying method, and recording medium
CN111415470B (zh) 物品存取方法、服务器、智能配送柜和计算机可读介质
EP3666177B1 (en) Electronic device for determining degree of conjunctival hyperemia
CN107206384B (zh) 用于实验室自动化的侧视样品管图像中的条形码标签检测
CN109727275B (zh) 目标检测方法、装置、系统和计算机可读存储介质
CN108447061B (zh) 商品信息处理方法、装置、计算机设备和存储介质
JP2015153195A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
US20150092981A1 (en) Apparatus and method for providing activity recognition based application service
JP6347589B2 (ja) 情報処理装置、情報処理方法及びプログラム
EP3635632B1 (en) Detecting font size in a digital image
JPWO2018235198A1 (ja) 情報処理装置、制御方法、及びプログラム
KR20180020123A (ko) 비동기 신호 처리 방법
CN110199316A (zh) 相机和相机的图像处理方法
CN113095292A (zh) 手势识别方法、装置、电子设备及可读存储介质
Barbero-García et al. Combining machine learning and close-range photogrammetry for infant’s head 3D measurement: A smartphone-based solution
CN110991292A (zh) 动作识别比对方法、系统、计算机存储介质和电子装置
JP6311461B2 (ja) 視線分析システムおよび視線分析装置
CN114846513A (zh) 动作分析系统和动作分析程序
Suksawatchon et al. Shape Recognition Using Unconstrained Pill Images Based on Deep Convolution Network
JP7568913B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP7198438B2 (ja) オブジェクト検出方法、オブジェクト検出装置及びコンピュータプログラム
Haroon et al. Human hand gesture identification framework using SIFT and knowledge‐level technique
CN115769256A (zh) 连续动态扫描的分割

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160129

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160421

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20181010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200710

R150 Certificate of patent or registration of utility model

Ref document number: 6734653

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees