JP7484569B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP7484569B2
JP7484569B2 JP2020141222A JP2020141222A JP7484569B2 JP 7484569 B2 JP7484569 B2 JP 7484569B2 JP 2020141222 A JP2020141222 A JP 2020141222A JP 2020141222 A JP2020141222 A JP 2020141222A JP 7484569 B2 JP7484569 B2 JP 7484569B2
Authority
JP
Japan
Prior art keywords
worker
image
work
statistical information
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020141222A
Other languages
English (en)
Other versions
JP2022036825A (ja
Inventor
清明 田中
淳一 杉尾
貴宏 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2020141222A priority Critical patent/JP7484569B2/ja
Priority to CN202180057656.5A priority patent/CN116134480A/zh
Priority to DE112021004434.6T priority patent/DE112021004434T5/de
Priority to US18/006,623 priority patent/US20230267767A1/en
Priority to PCT/JP2021/027375 priority patent/WO2022044637A1/ja
Publication of JP2022036825A publication Critical patent/JP2022036825A/ja
Application granted granted Critical
Publication of JP7484569B2 publication Critical patent/JP7484569B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y10/00Economic sectors
    • G16Y10/25Manufacturing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • General Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Operations Research (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • General Factory Administration (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像センサを用いて対象の行動を分析する技術に関する。
ファクトリオートメーション市場において、セルラインに設置された画像センサを用いて、作業を行う作業者や機器の稼働数、作業位置などを把握し、作業工程ごとの作業内容を分析することで、生産性の向上などに役立てる技術が実用に供されている。
例えば、特許文献1では、ラインで稼働するワークに取り付けられたIDタグをラインの入口と出口とで読み取ることで、ワークの作業開始時刻と作業終了時刻を特定して作業時間を計測する技術が提案されている。また、特許文献2では、作業工程における一連の作業において、追跡対象の作業者の作業内容に関するタイムチャートや動画像を表示する技術が提案されている。
特開2006-202255号公報 特開2018-073176号公報
しかしながら、従来技術では、ワークにIDタグを取り付けたり、ユーザが作業を追跡する人物を指定したりするなど、作業内容の分析対象を特定する作業が必要となる。また、IDタグを用いる場合、IDタグを読み取るセンサ等の検出精度によって計測時間の正確性が左右され、工程毎にIDタグの読み取りが必要になる。また、ユーザがラインの映像において追跡対象となる作業者を指定する場合、ユーザは各作業者について個人を識別しているわけではないため、各作業者の作業内容を把握できても、個人を特定して作業内容を把握できるわけではない。
本発明は上記実情に鑑みなされたものであって、画像センサによって取得された画像を基に、作業者個人を識別しつつ作業内容を分析することができる技術を提供する。
上記目的を達成するために本発明は、以下の構成を採用する。
本発明の第一側面は、画像センサによって作業領域が撮像された動画像を取得する画像取得手段と、前記動画像から前記作業領域内で作業をする作業者の顔部分の画像を生成する画像生成手段と、前記動画像に基づいて前記作業者の作業の統計情報を生成する統計情報生成手段と、前記生成された前記作業者の顔部分の画像と、前記生成された前記作業者の作業の統計情報とを紐付けたデータを生成するデータ生成手段と、前記生成されたデータを出力する出力手段と、を有することを特徴とする画像処理装置である。これにより、画像センサの動画像から作業者個人と統計情報とが紐付けられるため、作業者個人を識別して作業を分析することができる。
また、前記データ生成手段は、前記画像生成手段によって生成される複数の作業者の顔部分の画像と、前記統計情報生成手段によって生成される前記複数の作業者の作業の統計情報とを紐付けたデータを生成し、前記データ生成手段は、前記出力手段によって出力さ
れたデータに対して、前記複数の作業者の顔部分の画像のうち少なくとも2つ以上の画像と、前記少なくとも2つ以上の画像に紐付けられた前記統計情報とを統合した新たなデータを生成してもよい。また、前記少なくとも2つ以上の画像は、ユーザ入力に基づいて選択される画像であってもよい。これにより、同一の作業者に対して顔部分の画像が複数生成された場合に、複数の画像を1つの画像に統合しつつ、それら複数の画像に紐付けられている統計情報を統合することができる。
また、前記データ生成手段は、前記出力手段によって出力されたデータに対して、前記作業者の顔部分の画像を、前記画像生成手段によって生成された前記作業者の顔部分の別の画像に変更した新たなデータを生成してもよい。また、前記データ生成手段は、前記作業者の顔部分のサイズ、向き、顔らしさの少なくとも1つを含む基準に基づいて選択した前記作業者の顔部分の画像と、前記生成された前記作業者の作業の統計情報とを紐付けたデータを生成してもよい。また、前記データ生成手段は、あらかじめ取得された複数の作業者の顔部分の画像と前記生成された前記作業者の顔部分の画像とのマッチングに基づいて、前記あらかじめ取得された画像から選択した前記作業者の顔部分の画像と、前記生成された前記作業者の作業の統計情報とを紐付けたデータを生成してもよい。これにより、作業者の顔部分の画像を、より作業者を識別しやすい画像に変更して当該作業者の統計情報を特定しやくすることができる。
また、前記統計情報生成手段は、前記動画像に基づいて前記作業者の作業の統計情報の概略情報と詳細情報とを生成し、前記データ生成手段は、前記作業者の顔部分の画像と、前記生成された前記作業者の作業の統計情報の前記概略情報と、前記生成された前記作業者の作業の統計情報の前記詳細情報とを互いに紐付けたデータを生成してもよい。これにより、作業者の顔部分の画像と作業者の作業の分析に資する種々の情報を紐付けることで、より効率的な作業の分析を行うことができる。
前記データ生成手段は、前記取得された動画像に基づいて、前記生成された前記作業者の作業の統計情報と関連する動画像を生成し、前記データ生成手段は、前記作業者の顔部分の画像と、前記生成された前記作業者の作業の統計情報と、前記生成された動画像と、を互いに紐付けたデータを生成してもよい。また、前記統計情報生成手段は、前記動画像に基づいて、前記作業領域に含まれる1つ以上の作業工程ごとに前記作業者の作業の統計情報を生成し、前記データ生成手段は、前記取得された動画像に基づいて、前記生成された前記作業者の作業の統計情報と関連する動画像を前記1つ以上の作業工程ごとに生成し、前記データ生成手段は、前記作業者の顔部分の画像と、前記生成された前記作業者の作業の前記1つ以上の作業工程ごとの統計情報と、前記生成された前記1つ以上の作業工程ごとの動画像と、を互いに紐付けたデータを生成してもよい。これにより、作業者の統計情報の基となる動画像を確認することで、より効率的な作業の分析を行うことができる。
また、前記統計情報生成手段は、前記動画像に基づいて生成した前記作業者の作業の統計情報に対する所定の基準に基づく評価結果を示す評価情報を生成し、前記データ生成手段は、前記作業者の顔部分の画像と、前記生成された前記作業者の作業の統計情報および前記評価情報とを紐付けたデータを生成してもよい。これにより、例えば、作業者の統計情報のうち作業時間が目標値を大幅に上回ったり、目標値に対して大幅に短縮されたりしている統計情報など、統計情報の分析において注目すべき情報が評価結果として示されるため、より効率的な作業の分析を行うことができる。
なお、本発明は、上記処理の少なくとも一部を含む、画像処理方法や、これらの方法をコンピュータに実行させるためのプログラム、又は、そのようなプログラムを非一時的に記録したコンピュータ読取可能な記録媒体として捉えることもできる。上記構成及び処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる
本発明によれば、画像センサによって取得された画像を基に、作業者個人を識別しつつ作業内容を分析することができる。
図1は、本発明が適用された画像処理装置の構成例を示すブロック図である。 図2は、一実施形態に係るPC(画像処理装置)の構成例を示すブロック図である。 図3は、一実施形態に係るPCの処理フロー例を示すフローチャートである。 図4は、一実施形態に係る表示画面の具体例を示す模式図である。 図5は、変形例1に係る表示画面の具体例を示す模式図である。 図6は、変形例2に係る表示画面の具体例を示す模式図である。 図7は、変形例3に係る表示画面の具体例を示す模式図である。 図8は、変形例4に係る表示画面の具体例を示す模式図である。 図9は、変形例5に係る表示画面の具体例を示す模式図である。 図10は、変形例6に係る表示画面の具体例を示す模式図である。 図11は、変形例7に係る表示画面の具体例を示す模式図である。 図12は、変形例8に係る表示画面の具体例を示す模式図である。
<適用例>
本発明の適用例について説明する。工場のセルラインなどに配置された画像センサによって取得される作業者の画像を基に、各作業者の作業内容を分析する場合、作業者個人を特定する必要がある。作業者の特定をする手段として、作業者が携帯する端末と無線LANのアクセスポイントにおける電波強度による測位や作業者に取り付けられるICタグの読み取りによる測位が挙げられる。しかしながら、無線LANの電波が種々の設備や機器の影響を受けて測位の精度が低下したり、作業者に取り付けるICタグを大量に準備する必要があったりするなどの懸念が伴う。
図1は、本発明が適用された画像処理装置100の構成例を示すブロック図である。画像処理装置100は、画像取得部101、顔画像生成部102、統計情報生成部103、データ生成部104、出力部105を有する。画像取得部101は、セルラインなどに配置された全方位カメラなどの画像センサによる撮像画像を取得する。顔画像生成部102は、撮像画像を基に各作業者の顔部分の画像(顔画像)を生成する。また、統計情報生成部103は、撮像画像を基に各作業者の作業の統計情報を生成する。さらに、データ生成部104は、顔画像生成部102によって生成される作業者の顔部分の画像と、統計情報生成部103によって生成される作業者の作業の統計情報とを紐付けたデータを生成する。出力部105は、データ生成部104によって生成されるデータを出力する。
本発明に係る画像処理装置100によれば、画像センサによる撮像画像を基に精度よく作業者を特定して、作業者ごとに作業の分析内容を示す情報を提供することができる。
<第1の実施形態>
本発明の第1の実施形態について説明する。
図2は、第1の実施形態に係る画像処理システムの大まかな構成例を示す模式図である
。第1の実施形態に係る画像処理システムは、画像センサ、PC200(パーソナルコンピュータ;画像処理装置)、及び、表示装置を有する。画像センサとPC200は有線または無線で互いに接続されており、PC200と表示装置は有線または無線で互いに接続されている。
第1の実施形態では、工場や物流倉庫などで展開されるセルラインを画像センサによって撮像することを想定する。そして、画像センサによる撮像画像内のセルラインの領域が、作業者を対象とする人体検出の検出領域となる。画像センサは、セルラインを撮像し、撮像画像をPC200に出力する。画像センサの撮像方向は特に限定されないが、第1の実施形態では、例えば画像センサはセルラインが展開されているフロアの天井に、セルラインを俯瞰する方向に設置されている。PC200は、画像センサによる撮像画像に基づいて人体検出を行い、検出結果を表示装置へ出力する。表示装置の一例としては、ディスプレイや情報処理端末(スマートフォンなど)が挙げられる。
なお、第1の実施形態ではPC200が画像センサや表示装置とは別体の装置であるものとするが、PC200は画像センサまたは表示装置と一体に構成されてもよい。また、PC200の設置場所は特に限定されない。例えば、PC200は画像センサと同じ部屋に設置されてもよい。また、PC200はクラウド上のコンピュータであってもよい。
PC200は、入力部210、制御部220、記憶部230、及び、出力部240を有する。制御部220は、画像生成部221、統計情報生成部222、及び、データ生成部223を有する。なお、入力部210、画像生成部221、統計情報生成部222、データ生成部223、出力部240が、それぞれ本発明の画像取得手段、画像生成手段、統計情報生成手段、データ生成手段、出力手段に対応する。
入力部210は、画像センサによってセルラインを撮像した動画データを、画像センサから取得して制御部220に出力する。入力部210が画像センサから取得した動画データは、制御部220によって記憶部230に記憶される。なお、入力部210が取得する動画データは、セルラインを所定期間(1時間、1日など適宜設定されてよい)にわたって撮像した動画データである。
制御部220は、CPU(Central Processing Unit)やRAM(Random Access Memory)、ROM(Read Only Memory)などを含み、PC200内の各部の制御や、各種情報処理などを行う。
画像生成部221は、入力部210によって取得された動画データを基に、撮像画像内に存在する作業者の顔部分を検出する。画像センサによって取得された動画データにおける作業者の顔部分の検出は、従来技術による人体の顔らしさに基づく検出によって実現できるため、ここでは詳細な説明は省略する。また、画像生成部221は、検出された顔部分の作業者が、作業内容の分析対象の作業者であるか否かを判定する。本実施形態では、動画像内の検出位置や画像特徴の類似度などから、検出された顔部分の作業者と分析対象の作業者とを同定するための情報や作業者を識別する作業者IDがあらかじめ記憶部230に記憶されている。画像生成部221は、記憶部230に記憶されている情報を基に、検出された顔部分から分析対象の作業者を同定し、同定された作業者の作業者IDと検出された動画像内の位置情報とを記憶部230に記憶する。また、画像生成部221は、検出した顔部分と同定される作業者が存在しない場合は、検出した顔部分に対応する作業者は新しい作業者であるとして、新規の作業者IDを発行し、発行した作業者IDと検出された動画像内の位置情報とを記憶部230に記憶する。
また、画像生成部221は、また、画像生成部221は、検出した顔部分の画像を生成
する。画像生成部221によって生成された作業者の顔部分の画像は記憶部230に記憶されてもよいし、当該画像を処理するPC200内の各部に送信されてもよい。
統計情報生成部222は、記憶部230に記憶されている、入力部220が取得した動画データと画像生成部221が生成した上記の情報に基づいて、検出された各作業者の作業内容の統計情報を生成する。統計情報の一例として、セルラインにおける各工程での作業時間を表すガントチャートが挙げられる。また、統計情報には、各作業者の作業時間と比較可能な、各工程における作業時間の指標となる目標の作業時間に関する情報が含まれてもよい。なお、画像センサによる撮像画像を基にした各作業者の各工程の作業時間の算出および算出結果を基にしたガントチャートの作成は、従来技術によって実現できるため、ここでは詳細な説明は省略する。
データ生成部223は、画像生成部221によって特定された各作業者の顔部分の画像と統計情報生成部222によって生成された各作業者の作業内容の統計情報とを紐付けたデータを生成する。本実施形態では、データ生成部223によって生成されるデータは、出力部240と接続されている表示装置が表示可能な画像などのデータを想定しているが、他の情報処理装置が処理可能なデータなどであってもよい。
記憶部230は、上記の統計情報のほか、制御部220で実行されるプログラムや、制御部220で使用される各種データなどを記憶する。例えば、記憶部230は、ハードディスクドライブ、ソリッドステートドライブ、等の補助記憶装置である。出力部240は、データ生成部223によって生成された画像を、表示装置に出力する。なお、データ生成部223によって生成された画像は、記憶部230に記憶されて、任意のタイミングで出力部240から出力されてもよい。
図3は、PC200の処理フロー例を示すフローチャートである。PC200は、入力部210によって画像センサの動画データが取得されて記憶部230に記憶された後に、図3の処理フローを実行する。
まず、ステップS301において、制御部220が、記憶部230に記憶されている画像センサによって撮像された動画データを取得する。
次に、画像生成部221が、記憶部230から取得された動画データのフレームごとにステップS302~S305の処理を繰り返し実行する。ステップS302では、画像生成部221は、記憶部230から取得した動画データのフレームから、作業者の顔部分を検出する。次に、ステップS303において、画像生成部221は、検出された顔部分を基に分析対象の作業者であるか否かを判断するための情報を記憶部230から取得し、ステップS302において検出した顔部分に対応する作業者と、分析対象の作業者とを同定する。画像生成部221は、検出された顔部分から分析対象の作業者を同定できた場合は、当該作業者の作業者IDとフレーム内の作業者の位置情報とを互いに紐付けて記憶部230に記憶する。また、画像生成部221は、検出された顔部分から分析対象の作業者を同定できなかった場合は、検出された顔部分の作業者に新規の作業者IDを発行し、発行した作業者IDとフレーム内の作業者の位置情報とを互いに紐付けて記憶部230に記憶する。
さらに画像生成部221は、ステップS304において、記憶部230に記憶されている画像センサによって撮像されるセルラインに関する情報とフレーム内の作業者の位置情報とに基づいて、作業者の作業工程を判別し、判別した作業工程と上記の作業者の位置情報とを互いに紐付けて記憶部230に記憶する。
次に、ステップS305において、画像生成部221は、フレームの画像を基にステップS302において検出した作業者の顔部分の画像を生成し、生成した顔部分の画像と作業者IDとを互いに紐付けて記憶部230に記憶する。なお、ここでは画像生成部221は、入力部210が取得するフレームごとに作業者の顔部分の画像を取得することを想定するが、画像生成部221は、ステップS302~S305の処理を繰り返す中で、任意のタイミングで間欠的に作業者の顔部分の画像を取得してもよいし、各作業者の顔部分の画像の取得は一度のみとしてもよい。
次に、ステップS306において、画像生成部221は、ステップS301において取得した動画データの全フレームに対してステップS302~S305の処理を実行したか否かを判定する。ステップS302~S305の処理を実行していないフレームがある場合は(S306:NO)、画像生成部221は、処理をステップS302に戻して、当該フレームに対してステップS302~S305の処理を実行する。一方、動画データの全フレームに対してステップS302~S305の処理を実行している場合は(S306:YES)、画像生成部221は、処理をステップS307に進める。
ステップS307において、統計情報生成部222が、上記のステップS302~S305の処理によって記憶部230に記憶された各作業者のデータを基に、セルライン内の各作業工程における作業時間や作業時間の平均などの統計情報を生成する。ここでは、統計情報生成部222が生成する統計情報として各工程の作業時間を示すガントチャートを想定する。また、統計情報生成部222は、生成した各作業者のガントチャートを作業者IDと紐付けて記憶部230に記憶する。
次に、ステップS308において、データ生成部223は、画像生成部221が生成した各作業者の顔部分の画像と統計情報生成部222が生成した統計情報とを記憶部230から取得し、作業者IDを基に各作業者の顔部分の画像と統計情報とを紐付けたデータを生成する。
次に、ステップS309において、出力部240が、ステップS308においてデータ生成部223によって生成されたデータを表示装置に出力する。なお、ステップS305において、出力部240は、データ生成部223によって生成されたデータを出力する代わりにあるいはこれに加えて、当該データを記憶部230に記憶してもよい。
図4は、図3の処理フローでデータ生成部223によって生成されるデータの表示装置における表示画面400の一例を示す模式図である。表示画面400には、画像生成部221によって取得された各作業者の顔画像401~405と、各作業者の識別番号(図中「ID1」~「ID5」)と、統計情報生成部222によって生成された各作業者の作業内容を示すガントチャートとが表示される。
表示画面400では、各作業者の顔画像と識別番号とガントチャートとは、表示画面400を確認するユーザが、これらが互いに関連していることがわかるように配置されている。本実施形態では、画像センサによって撮像されるセルラインにおいて作業者の作業工程が工程1~5に分かれており、統計情報生成部222が生成した工程ごとの作業時間を示すガントチャート406~410が表示されている。また、表示画面400には、統計情報生成部222があらかじめ設定されている各工程の目標作業時間を基に作成した目標値のガントチャート411も表示される。
したがって、本実施形態によれば、セルラインを撮像する画像センサの動画データを基に、セルラインで作業する各作業者の顔画像と作業に関する統計情報とを紐付けたデータを生成することで、作業者にタグなどを取り付けるなどのコストを発生させることなく、
また無線LANなどの通信システムを用いて作業者を特定する場合の作業者の特定精度の低下などの懸念を生じさせることなく、作業者の特定および作業者と作業内容の統計情報との紐付けを精度よく行うことができる。
<その他>
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。例えば、上記の各実施形態の構成および処理などは互いに組み合わせられてもよい。以下に上記実施形態の変形例について説明する。なお、以下の説明において、上記の実施形態と同様の構成については、同一の符号を付し、詳細な説明は省略する。
<変形例1>
変形例1では、PC200による上記の処理において、検出された顔画像に対応する作業者が、記憶部230に既に記憶されている作業者と同定されるべきところ、画像処理を基に作業者の同定を行うため、同定の処理に失敗して、検出された顔部分が新規の作業者IDと紐付けられる可能性がある。この場合、上記の処理により、同一の作業者に対する統計情報が複数の統計情報に分かれてしまう。
図5に示す例では、作業者IDが「ID2」である作業者の顔部分の画像が、新規の作業者として誤認されて別の作業者ID「ID3」が割り当てられた結果、1人の作業者の情報が異なる作業者ID「ID2」、「ID3」に分かれて集計され、それぞれの作業者IDに紐付くガントチャートが生成された場合を示す。表示画面500の例に示すように、このように同一の作業者と複数のガントチャートとが紐付けられている表示画面500において、ユーザは、表示装置に接続されている入力装置(図示せず)を操作して顔画像とガントチャートとの組を統合して統計情報の分析効率を高めることができる。
具体例として、ユーザは表示画面500に表示されるカーソル501を操作して、同一の作業者を示す異なる2つの顔画像402a、402bを選択する。そして、ユーザは入力装置を操作して、2つの顔画像402a、402bを選択した状態で、これら2つの顔画像402a、402bを統合するメニュー502を表示する。さらに、ユーザは入力装置を操作して、メニュー502を選択すると、PC200によって選択した2つの顔画像402a、402bとそれら顔画像に紐付けられているガントチャートとの統合を実行する。これにより、表示画面500において選択された2組の顔画像402a、402bとガントチャート407、408が、1組の顔画像と新たなガントチャートに統合される。
なお、統合後に表示画面500に表示される顔画像としては、ユーザ入力あるいはPC200の処理によって顔画像402a、402bのいずれかが選択されて用いられてもよいし、記憶部230に記憶されている同一の作業者を示す別の顔画像が用いられてもよい。また、新たなガントチャートは、統計情報生成部222によって元のガントチャート407、408を基に各工程の平均が算出されて生成されてよい。また、ユーザが入力装置を操作して2つの顔画像402a、402bを選択する代わりに、顔画像402a、402bと紐付けられて表示されている識別番号(図中「ID2」、「ID3」)やガントチャート407、408を選択してもよい。また、3組以上の顔画像とガントチャートが統合されてもよい。
<変形例2>
変形例2では、PC200による上記の処理によって、表示装置で図6に示す表示画面600が表示されるデータが生成される。表示画面600の例に示すように、本変形例では、PC200によって変形例1における複数組の顔画像とガントチャートの統合が自動的に実行されるメニュー601が表示画面600に表示される。変形例2でも同一の作業
者に複数の統計情報が紐付けられる背景は変形例1と同じであり、変形例1と異なる点について以下に説明する。
表示装置に表示画面600が表示されている状態で、ユーザは入力装置を操作して、カーソル501によってメニュー601の実行ボタン602を押すと、変形例1と同様に、PC200によって複数組の顔画像402a、402bとガントチャート407、408を統合する処理が実行される。PC200は、顔画像の類似性を基に統合する顔画像402a、402bとガントチャート407、408の組を特定することができる。
<変形例3>
変形例3では、PC200による上記の処理によって、表示装置で図7に示す表示画面700が表示されるデータが生成される。表示画面700の例に示すように、本変形例では、顔画像702において作業者の顔の一部分が欠けて表示されている。そこで、ユーザは入力装置を操作して、顔画像702としてより適切な顔画像を選択し、各作業者の統計情報をより判別しやすくすることができる。
具体例として、ユーザは表示画面700に表示されるカーソル501を操作して、変更する顔画像702を選択する。そして、ユーザは入力装置を操作して、顔画像702を選択した状態で、顔画像702を再選択するメニュー701を表示する。さらに、ユーザは入力装置を操作して、メニュー701を選択すると、画像生成部221によって生成されて記憶部230に記憶されている顔画像のうち、顔画像702に対応する作業者の他の顔画像が選択画面703に表示される。ユーザは、選択画面703に表示されている複数の顔画像から適切な顔画像を選択して選択ボタン704を押すと、顔画像702が選択された顔画像に変更される。変更後の顔画像は、作業者IDや統計情報と紐付けられて記憶部230に記憶され、次回以降の顔画像の表示に使用される。
<変形例4>
変形例4では、PC200による上記の処理によって、表示装置で図8に示す表示画面800が表示されるデータが生成される。表示画面800の例に示すように、本変形例では、変形例1において表示される表示画面400において、ユーザが入力装置を操作していずれかの顔画像(図の例では顔画像405)を選択すると、選択された顔画像405に対応する作業者の作業の統計情報のより詳細な情報が表示画面800に表示される。表示画面800には、一例として、セルラインにおけるサイクルごとの作業時間を示すガントチャート(図中C1~C4に対応するガントチャート)やその平均の作業時間を示すガントチャート、目標の作業時間を示すガントチャートなどが表示される。なお、表示画面800に表示される統計情報の詳細は、図に示す情報に限らず適宜設定されてよい。これにより、ユーザは、複数の作業者に関する作業の統計情報の概略情報(表示画面400)と個々の作業者に関する作業の統計情報の詳細情報(表示画面800)とを切り替えて確認して、統計情報の分析をより効率よく進めることができる。
<変形例5>
変形例5では、PC200による上記の処理によって、表示装置で図9に示す表示画面900が表示されるデータが生成される。表示画面900の例に示すように、本変形例では、ユーザは、作業者の各工程の動画像を視聴することができる。
具体例として、ユーザは、表示画面900に表示されるカーソル501を操作して、作業者のガントチャートにおいて動画像を視聴したい工程を選択する(図の例では、顔画像402の作業者の工程5を選択)と、動画像の視聴メニュー901が表示される。そして、ユーザは入力装置を操作して、視聴メニュー901を選択すると、選択された工程の動画像画面902が表示されて動画像が再生される。これにより、ユーザは統計情報のみで
は得ることが難しい作業内容に関する情報を得てより精度よい分析を行うことができる。なお、動画像画面902に表示される動画像は、制御部220によって、記憶部230に記憶されている動画データを基に、作業者の工程ごとに動画像が生成されて、記憶部230に記憶されてよい。また、上記の例では、工程ごとに動画像を表示することを想定しているが、複数の工程あるいは全工程を対象として、一連の工程の動画像が表示されてもよい。
<変形例6>
変形例5では、PC200による上記の処理によって、表示装置で図10に示す表示画面1000が表示されるデータが生成される。表示画面1000の例に示すように、本変形例では、ユーザは、複数の作業者(工程)の動画像を同時に視聴することができる。
具体例として、ユーザは表示画面1000に表示されるカーソル501を操作して、作業者のガントチャートにおいて、作業者の顔画像401~405の隣に表示されるチェックボックス1001~1005をオンにして、動画像を視聴したい作業者を選択する(図の例では、顔画像402の作業者と顔画像404の作業者を選択)。そして、ユーザは入力装置を操作して、動画像の視聴メニュー1006を選択すると、チェックボックス1001~1005がオンにされている作業者の動画像画面(図では作業者402に対応する動画像画面1012と作業者404に対応する動画像画面1014)がそれぞれ表示されて動画像が再生される。これにより、いわゆる新人の作業者とベテランの作業者との作業時の行動を比較することで、統計情報から把握することが難しい情報が得られることが期待できる。
<変形例7>
変形例7では、PC200による上記の処理によって、表示装置で図11に示す表示画面1100が表示されるデータが生成される。表示画面1100の例に示すように、本変形例では、表示画面1100において、作業者の統計情報において目標値の作業時間との差が閾値以上となるものをユーザに通知する通知欄1101が表示される。例えば、図に示すように通知欄1101には「日時」カラムに通知日時が格納され、「通知内容」カラムに通知内容の詳細が格納される。図の例では、通知内容が「ID5 サイクル3 工程5 ギャップ大(+6分)」であり、ID5の作業者(顔画像405の作業者)の第3サイクルにおいて工程5における作業時間が目標値の作業時間よりも6分長いことを通知するものであることが示されている。なお、通知欄1101に表示される情報は、統計情報生成部222が生成することができる。例えば、統計情報生成部222は、各作業者の作業の統計情報と目標値の作業時間とを比較して、差が閾値以上である場合に通知欄1101に表示される情報を生成する。これにより、ユーザは通知される情報を考慮しながら効率よくより精度の高い統計情報の分析を行うことができる。なお、どのような情報を通知欄1101に表示するかは、図の例に限らず種々の情報が通知対象とされてよい。また、通知欄1101に表示するか否かを決定する基準なども、表示する情報の内容に応じて適宜決定されてよい。
<変形例8>
変形例8では、PC200による上記の処理によって、表示装置で図12に示す表示画面1200が表示されるデータが生成される。表示画面1200には、作業者の作業時間の平均値が異なる期間(今日、昨日、先週、今週など。ただし、これらに限られず今月、先月などでもよい。)が表示されるため、作業者の同じ作業を期間を変えて比較することで、作業効率の変動などが把握しやすくなる。また、表示画面1200の例に示すように、本変形例では、作業者の作業の統計情報であるガントチャートにおいて、目標値との比較の結果、目標値から所定の閾値以上短い作業時間である工程を良好として表示(図中「G」のアイコン1202(Good))し、目標値から所定の閾値以上長い作業時間である工
程を不良として表示(図中「NG」のアイコン1201(No Good))する。なお、統計
情報に対する評価結果を示す評価情報としては種々の評価の結果の情報であってよく、評価に用いる所定の基準も評価に応じて適宜決定されてよい。そして、表示画面1200において、ユーザは入力装置を操作して、良好あるいは不良として表示された工程を選択すると(図の例ではNGのアイコン1201が表示された工程を選択)、選択された工程のコマ送り動画像を表示する動画像画面1203が表示され、動画像が再生される。なお、動画像画面1203に表示される動画像は、制御部220によって、記憶部230に記憶されている動画データを基に、作業者の工程ごとに動画像が生成されて、記憶部230に記憶されてよい。
以上説明した実施形態および変形例は、適宜組み合わせて実施することができる。また、変形例3では、ユーザ入力に基づいて作業者の顔画像が変更されるが、PC200によって記憶部230に記憶されている顔画像を基に、例えば顔部分がより大きい画像、顔部分の顔の向き推定を基により正面を向いている画像、顔部分としてより信頼度の高い画像などによって画像を自動的に変更するように構成されてもよい。また、記憶部230に作業者の顔画像(例えば社員証に用いられている顔画像など)や社員IDや名前を作業者情報としてあらかじめ記憶しておき、上記の実施形態や変形例で説明した表示画面において表示される作業者の顔画像を記憶部230に記憶されている作業者情報に変更するように構成されてもよい。この場合、データ生成部223は、画像生成部221が生成した作業者の顔画像と、記憶部230に記憶されている作業者の顔画像とを用いて互いの画像の特徴の類似度に基づくマッチングを行う。そして、データ生成部223は、マッチング結果を基に記憶部230に記憶されている作業者の顔画像のうち類似度の高い顔画像で、上記の表示画面に表示される顔画像を置き換え、置き換えられた顔画像と当該作業者のガントチャートとを紐付けて表示画面のデータを生成する。これらの処理によっても、ユーザはより効率よく各作業者を判別して統計情報を分析することができる。
また、変形例4では、表示画面800に、個々の作業者に関する作業の統計情報の詳細が表示されるが、これに加えてあるいはこの代わりに、工程ごとの作業時間の詳細や各工程の評価結果や分析結果に基づく結果を示す情報が表示されてもよい。どのような評価や分析を採用するかは適宜決定されてよい。
<付記1>
画像センサによって作業領域が撮像された動画像を取得する画像取得手段(210)と、
前記動画像から前記作業領域内で作業をする作業者の顔部分の画像を生成する画像生成手段(221)と、
前記動画像に基づいて前記作業者の作業の統計情報を生成する統計情報生成手段(222)と、
前記生成された前記作業者の顔部分の画像と、前記生成された前記作業者の作業の統計情報とを紐付けたデータを生成するデータ生成手段(223)と、
前記生成されたデータを出力する出力手段(240)と、
を有することを特徴とする画像処理装置。
<付記2>
画像センサによって作業領域が撮像された動画像を取得するステップ(S301)と、
前記動画像から前記作業領域内で作業をする作業者の顔部分の画像を生成するステップ(S305)と、
前記動画像に基づいて前記作業者の作業の統計情報を生成するステップ(S307)と、
前記生成された前記作業者の顔部分の画像と、前記生成された前記作業者の作業の統計
情報とを紐付けたデータを生成するステップ(S308)と、
前記生成されたデータを出力するステップ(S309)と、
を有することを特徴とする画像処理方法。
100:画像処理装置 101:画像取得部 102:検出部 103:出力部
200:PC(画像処理装置)
210:入力部 230:記憶部 240:出力部
220:制御部
221:画像生成部
222:統計情報生成部
223:データ生成部

Claims (12)

  1. 画像センサによって作業領域が撮像された動画像を取得する画像取得手段と、
    前記動画像から前記作業領域内で作業をする作業者の顔部分の画像を生成する画像生成手段と、
    前記動画像に基づいて前記作業者の作業の統計情報を生成する統計情報生成手段と、
    前記生成された前記作業者の顔部分の画像と、前記生成された前記作業者の作業の統計情報とを紐付けたデータを生成するデータ生成手段と、
    前記生成されたデータを出力する出力手段と、
    を有することを特徴とする画像処理装置。
  2. 前記データ生成手段は、前記画像生成手段によって生成される複数の作業者の顔部分の画像と、前記統計情報生成手段によって生成される前記複数の作業者の作業の統計情報とを紐付けたデータを生成し、
    前記データ生成手段は、前記出力手段によって出力されたデータに対して、前記複数の作業者の顔部分の画像のうち少なくとも2つ以上の画像と、前記少なくとも2つ以上の画像に紐付けられた前記統計情報とを統合した新たなデータを生成する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記少なくとも2つ以上の画像は、ユーザ入力に基づいて選択される画像であることを特徴とする請求項2に記載の画像処理装置。
  4. 前記データ生成手段は、前記出力手段によって出力されたデータに対して、前記作業者の顔部分の画像を、前記画像生成手段によって生成された前記作業者の顔部分の別の画像に変更した新たなデータを生成することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記データ生成手段は、前記作業者の顔部分のサイズ、向き、顔らしさの少なくとも1つを含む基準に基づいて選択した前記作業者の顔部分の画像と、前記生成された前記作業者の作業の統計情報とを紐付けたデータを生成することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記データ生成手段は、あらかじめ取得された複数の作業者の顔部分の画像と前記生成された前記作業者の顔部分の画像とのマッチングに基づいて、前記あらかじめ取得された画像から選択した前記作業者の顔部分の画像と、前記生成された前記作業者の作業の統計情報とを紐付けたデータを生成することを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
  7. 前記統計情報生成手段は、前記動画像に基づいて前記作業者の作業の統計情報の概略情報と詳細情報とを生成し、
    前記データ生成手段は、前記作業者の顔部分の画像と、前記生成された前記作業者の作業の統計情報の前記概略情報と、前記生成された前記作業者の作業の統計情報の前記詳細情報とを互いに紐付けたデータを生成する、
    ことを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記データ生成手段は、前記取得された動画像に基づいて、前記生成された前記作業者の作業の統計情報と関連する動画像を生成し、
    前記データ生成手段は、前記作業者の顔部分の画像と、前記生成された前記作業者の作業の統計情報と、前記生成された動画像と、を互いに紐付けたデータを生成する、
    ことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 前記統計情報生成手段は、前記動画像に基づいて、前記作業領域に含まれる1つ以上の作業工程ごとに前記作業者の作業の統計情報を生成し、
    前記データ生成手段は、前記取得された動画像に基づいて、前記生成された前記作業者の作業の統計情報と関連する動画像を前記1つ以上の作業工程ごとに生成し、
    前記データ生成手段は、前記作業者の顔部分の画像と、前記生成された前記作業者の作業の前記1つ以上の作業工程ごとの統計情報と、前記生成された前記1つ以上の作業工程ごとの動画像と、を互いに紐付けたデータを生成する、
    ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
  10. 前記統計情報生成手段は、前記動画像に基づいて生成した前記作業者の作業の統計情報に対する所定の基準に基づく評価結果を示す評価情報を生成し、
    前記データ生成手段は、前記作業者の顔部分の画像と、前記生成された前記作業者の作業の統計情報および前記評価情報とを紐付けたデータを生成する、
    ことを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。
  11. コンピュータが、
    画像センサによって作業領域が撮像された動画像を取得するステップと、
    前記動画像から前記作業領域内で作業をする作業者の顔部分の画像を生成するステップと、
    前記動画像に基づいて前記作業者の作業の統計情報を生成するステップと、
    前記生成された前記作業者の顔部分の画像と、前記生成された前記作業者の作業の統計情報とを紐付けたデータを生成するステップと、
    前記生成されたデータを出力するステップと、
    実行することを特徴とする画像処理方法。
  12. 請求項11に記載の画像処理方法の各ステップをコンピュータに実行させるためのプログラム。
JP2020141222A 2020-08-24 2020-08-24 画像処理装置、画像処理方法およびプログラム Active JP7484569B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020141222A JP7484569B2 (ja) 2020-08-24 2020-08-24 画像処理装置、画像処理方法およびプログラム
CN202180057656.5A CN116134480A (zh) 2020-08-24 2021-07-21 图像处理装置、图像处理方法以及程序
DE112021004434.6T DE112021004434T5 (de) 2020-08-24 2021-07-21 Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und -programm
US18/006,623 US20230267767A1 (en) 2020-08-24 2021-07-21 Image processing device, image processing method, and non-transitory computer readable medium
PCT/JP2021/027375 WO2022044637A1 (ja) 2020-08-24 2021-07-21 画像処理装置、画像処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020141222A JP7484569B2 (ja) 2020-08-24 2020-08-24 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2022036825A JP2022036825A (ja) 2022-03-08
JP7484569B2 true JP7484569B2 (ja) 2024-05-16

Family

ID=80353261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020141222A Active JP7484569B2 (ja) 2020-08-24 2020-08-24 画像処理装置、画像処理方法およびプログラム

Country Status (5)

Country Link
US (1) US20230267767A1 (ja)
JP (1) JP7484569B2 (ja)
CN (1) CN116134480A (ja)
DE (1) DE112021004434T5 (ja)
WO (1) WO2022044637A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114926889B (zh) * 2022-07-19 2023-04-07 安徽淘云科技股份有限公司 作业提交方法、装置、电子设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015225486A (ja) 2014-05-28 2015-12-14 株式会社日立製作所 生体情報登録システムおよび情報取得装置
JP2016201074A (ja) 2015-04-14 2016-12-01 株式会社コンピュータシステム研究所 工事管理支援装置、工事管理支援プログラムおよび記憶媒体
JP2019101566A (ja) 2017-11-29 2019-06-24 株式会社 プロネット 情報処理システム、情報処理方法、情報処理プログラム、および情報処理装置
JP2020017283A (ja) 2019-08-13 2020-01-30 株式会社ブロードリーフ プログラム、情報処理装置及び情報処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4665621B2 (ja) 2004-12-24 2011-04-06 オムロン株式会社 工程改善支援システム
JP6834353B2 (ja) 2016-10-31 2021-02-24 株式会社リコー 画像処理装置、画像処理システム、画像処理方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015225486A (ja) 2014-05-28 2015-12-14 株式会社日立製作所 生体情報登録システムおよび情報取得装置
JP2016201074A (ja) 2015-04-14 2016-12-01 株式会社コンピュータシステム研究所 工事管理支援装置、工事管理支援プログラムおよび記憶媒体
JP2019101566A (ja) 2017-11-29 2019-06-24 株式会社 プロネット 情報処理システム、情報処理方法、情報処理プログラム、および情報処理装置
JP2020017283A (ja) 2019-08-13 2020-01-30 株式会社ブロードリーフ プログラム、情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
JP2022036825A (ja) 2022-03-08
CN116134480A (zh) 2023-05-16
DE112021004434T5 (de) 2023-06-22
US20230267767A1 (en) 2023-08-24
WO2022044637A1 (ja) 2022-03-03

Similar Documents

Publication Publication Date Title
JP5730518B2 (ja) 特定人物検知システムおよび特定人物検知方法
JP7017363B2 (ja) 異常検知装置および異常検知方法
JP4752721B2 (ja) 移動パターン特定装置、移動パターン特定方法、移動パターン特定プログラム、およびこれを記録した記録媒体
WO2018198373A1 (ja) 映像監視システム
US20140050455A1 (en) Correction method for object linking across video sequences in a multiple camera video surveillance system
US20150254860A1 (en) Device and method for diagnosing thermal images
US20050180637A1 (en) Motion classification support apparatus and motion classification device
JP6717572B2 (ja) 作業分析システム及び作業分析方法
US11138805B2 (en) Quantitative quality assurance for mixed reality
US9436996B2 (en) Recording medium storing image processing program and image processing apparatus
JP7484569B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6910208B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2019159885A (ja) 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム
JP5002575B2 (ja) 非定常度推定装置、非定常度推定方法、非定常度推定プログラム
JP2019175268A (ja) 行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体
JP6399096B2 (ja) 情報処理装置、表示方法およびコンピュータプログラム
JP7139987B2 (ja) 工程情報取得システム、工程情報取得方法、および工程情報取得プログラム
JP2020095651A (ja) 生産性評価システム、生産性評価装置、生産性評価方法、及びプログラム
JP7330043B2 (ja) 作業状態判別装置、作業状態判別方法およびプログラム
JP2019211905A (ja) 動線分析装置、動線分析方法、および動線分析システム
JP6948294B2 (ja) 作業異常検知支援装置、作業異常検知支援方法、および作業異常検知支援プログラム
JP2005269473A (ja) 監視システム
WO2020044779A1 (ja) 設置環境推定装置及びプログラム
WO2023017647A1 (ja) 行動分析装置、行動分析方法、行動分析プログラム、撮影装置および行動分析システム
WO2024029411A1 (ja) 作業特徴量表示装置、作業特徴量表示方法、及び作業特徴量表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240415

R150 Certificate of patent or registration of utility model

Ref document number: 7484569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150