JP7423584B2 - 判別装置、判別方法およびプログラム - Google Patents

判別装置、判別方法およびプログラム Download PDF

Info

Publication number
JP7423584B2
JP7423584B2 JP2021168171A JP2021168171A JP7423584B2 JP 7423584 B2 JP7423584 B2 JP 7423584B2 JP 2021168171 A JP2021168171 A JP 2021168171A JP 2021168171 A JP2021168171 A JP 2021168171A JP 7423584 B2 JP7423584 B2 JP 7423584B2
Authority
JP
Japan
Prior art keywords
work
worker
type
candidate
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021168171A
Other languages
English (en)
Other versions
JP2022009097A (ja
Inventor
康晋 山内
和範 井本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2021168171A priority Critical patent/JP7423584B2/ja
Publication of JP2022009097A publication Critical patent/JP2022009097A/ja
Application granted granted Critical
Publication of JP7423584B2 publication Critical patent/JP7423584B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Factory Administration (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、判別装置、判別方法およびプログラムに関する。
工場等において、作業者の動作を認識する認識システムが知られている。この認識システムでは、作業者が装着したセンサ等から動作情報を取得し、予め学習された判別器(例えば、辞書データ等)を用いて、取得した動作情報から作業者の動作を認識する。これにより、認識システムは、作業者が正しい作業を行っているか等を管理者等に確認させることができる。
ところで、工場での作業者の作業は様々である。このため、認識システムは、共通の1つの判別器を用いて、全ての動作を判別することは困難であった。しかし、認識システムは、多数の判別器を並行に用いて認識処理をすることは効率が悪く、コストが高くなってしまっていた。
また、工場では、適宜生産改善が行われる。このため、認識システムは、常に、作業者の動作情報の収集、教師データの生成および学習処理等を行い、判別器を適切に更新しなければならない。しかし、複数の判別器を常時更新することは非常に効率が悪く、コストが高くなってしまっていた。
特開2009-122302号公報
本発明が解決しようとする課題は、作業者の作業内容を表す作業種別を効率良く判別することにある。
実施形態に係る判別装置は、作業者の作業内容を表す作業種別を判別する。前記判別装置は、位置特定部と、領域特定部と、選択部と、動作情報生成部と、判別処理部と、表示制御部と、入力受付部と、学習部と、を備える。前記位置特定部は、作業者位置を特定する。前記領域特定部は、前記作業者の作業内容を判別する対象範囲に対して前記作業者が同一の作業を行うと予測される予め設定された複数の部分領域のうち、前記作業者位置を含む作業領域を特定する。前記選択部は、人間の動作を表す動作情報から人間の作業内容を判別するための複数の判別器のうち、前記作業領域に対応付けられた2以上の判別器を、2以上の対象判別器として選択する。前記動作情報生成部は、前記作業者の動作を表す作業者動作情報を生成する。前記判別処理部は、選択された前記2以上の対象判別器を用いて、前記作業者動作情報に基づき、前記作業者の作業内容の候補である複数の候補種別と、前記複数の候補種別のそれぞれの信頼度とを算出し、前記複数の候補種別のうちの前記信頼度が最も高い1つの候補種別を前記作業種別として出力し、前記複数の候補種別のうちの前記作業種別以外の少なくとも1つの候補種別を第1候補種別として出力する。前記表示制御部は、出力された前記作業種別と、少なくとも1つの前記第1候補種別とを、同時に表示装置に表示させる。前記入力受付部は、前記作業種別が誤っていた場合、前記少なくとも1つの前記第1候補種別の中から正しい作業種別をユーザから受け付ける。前記学習部は、前記正しい作業種別を前記ユーザから受け付けた場合、前記作業領域に対応付けられた前記2以上の対象判別器のうちの少なくとも1つの対象判別器を、前記作業者動作情報および前記正しい作業種別を用いて訓練する。
認識システムを示す図。 複数の部分領域の第1例を示す図。 複数の部分領域の第2例を示す図。 第1実施形態に係る判別装置の構成を示す図。 第1実施形態に係る判別装置の処理の流れを示すフローチャート。 第2実施形態に係る判別装置の構成を示す図である。 第2実施形態に係る判別装置の処理の流れを示すフローチャート。 第2実施形態に係る判別装置により表示される画像の第1例を示す図。 第2実施形態に係る判別装置により表示される画像の第2例を示す図。 第3実施形態に係る判別装置の構成を示す図。 部分領域の統合例を示す図。 第4実施形態に係る判別装置の構成を示す図。 第4実施形態に係る判別装置の処理の流れを示すフローチャート。 第4実施形態に係る判別装置により表示される画像の一例を示す図。 判別装置のハードウェア構成を示す図。
以下に添付図面を参照して、本発明の実施形態を説明する。
(第1実施形態)
図1は、実施形態に係る認識システム10を示す図である。
認識システム10は、例えば工場の製造ライン20における、作業者の作業内容を判別する。認識システム10は、少なくとも1つの位置センサ22と、少なくとも1つの動作センサ24と、判別装置30とを備える。
少なくとも1つの位置センサ22のそれぞれは、作業者位置を示す位置情報を検出する。位置センサ22は、例えば、対象範囲36内での作業者位置を検出する。対象範囲36は、認識システム10により作業者の作業内容を判別する範囲である。工場における作業者の作業内容を判別する場合には、対象範囲36は、例えば、工場の建屋内の部屋または工場の敷地等である。
位置センサ22は、作業者位置を検出することができれば、どのような装置であってもよい。例えば、位置センサ22は、作業者を撮像して撮像画像から、作業者の位置情報を検出するカメラであってもよい。
また、例えば、位置センサ22は、作業者により装着される無線受信端末(例えば、Bluetooth(登録商標)端末)であってもよい。この場合、無線受信端末は、複数の位置に配置された複数の無線送信端末のそれぞれから送信された複数のビーコンを受信する。無線受信端末は、複数のビーコンのそれぞれの受信強度から、それぞれの無線送信端末までの距離を推定する。そして、無線受信端末は、推定した距離および複数の無線送信端末の位置に基づき、作業者位置を算出する。
また、作業者が屋外にいる場合、受信端末は、複数のGPS(全地球測位システム)衛星から送信された複数の信号を受信し、受信した複数の信号から作業者位置を算出してもよい。また、例えば、位置センサ22は、作業者に装着された加速度センサ等から、作業者の移動距離を算出する装置であってもよい。
少なくとも1つの動作センサ24のそれぞれは、作業者の動作を表す動作情報を検出する。動作センサ24は、作業者の体の全体の動きを検出してもよい。また、動作センサ24は、作業者の腕、手、指、足、頭、関節または目等の各部位の個別の動きを検出してもよい。また、動作センサ24は、作業者の腰に取り付けられた加速度センサおよびジャイロセンサであって、作業者が静止しているか、歩行しているか等を検出してもよい。例えば、動作センサ24は、作業者の腕、足および頭等に取り付けられた加速度センサおよびジャイロセンサであって、腕、足または頭等の個別の動きを検出してもよい。また、例えば、動作センサ24は、作業者を撮像するカメラおよび撮像画像に基づき作業者の動作を解析する情報処理装置であってもよい。
判別装置30は、例えば汎用のコンピュータと同様のハードウェアを有し、所定のアプリケーションプログラムを実行する。判別装置30は、少なくとも1つの位置センサ22のそれぞれから位置情報を受信する。また、判別装置30は、少なくとも1つの動作センサ24のそれぞれから動作情報を受信する。判別装置30は、一定期間毎(例えば、5秒毎)、位置情報および動作情報を受信する。そして、判別装置30は、受信した位置情報および動作情報に基づき、作業者の作業内容を表す作業種別を判別する。
なお、判別装置30は、複数の作業者が存在する場合には、作業者毎に位置情報および動作情報を受信する。そして、判別装置30は、作業者毎に、作業内容を表す作業種別を判別する。
図2は、対象範囲36に対して設定された複数の部分領域38の第1例を示す図である。図3は、対象範囲36に対して設定された複数の部分領域38の第2例を示す図である。
判別装置30には、複数の部分領域38を示す情報が登録されている。部分領域38は、作業者がその中で同一の作業を行うと予測される、対象範囲36内における一部の領域である。複数の部分領域38は、例えば管理者により定められる。
工場では、対象範囲36内に製造装置および搬送装置等を含む製造ライン20が設けられる。そして、工場では、製造ライン20における製造装置および搬送装置の位置に応じて、作業者が行う作業の内容が定められている。従って、管理者は、製造ライン20における製造装置および搬送装置の位置等に基づき、同一の作業を行うと予測される部分領域38を予め設定することができる。
また、複数の部分領域38は、認識システム10によりどのような作業種別を判別したいかによっても調整される。例えば、作業者の移動が多く、大まかな作業者の動作を判別したい場合、部分領域38は、図2に示すように比較的に大きな範囲に設定される。一方、手元の作業が多く、例えば製造機器毎に作業者の動作を判別したい場合、部分領域38は、図3に示すように製造機器付近の比較的に小さな範囲に設定される。
図4は、第1実施形態に係る判別装置30の構成を示す図である。判別装置30は、領域受付部40と、領域情報記憶部42と、位置特定部44と、領域特定部46と、判別器記憶部48と、選択部50と、動作情報生成部52と、判別処理部54とを有する。
領域受付部40は、管理者の指示等に応じて、複数の部分領域38を示す情報を受け付ける。例えば、領域受付部40は、対象範囲36を示す画像を表示装置に表示させて、管理者による複数の部分領域38の指定を受け付ける。領域情報記憶部42は、領域受付部40が受け付けた複数の部分領域38を示す情報を記憶する。
位置特定部44は、少なくとも1つの位置センサ22のそれぞれから位置情報を受信する。位置特定部44は、受信した位置情報に基づき、対象範囲36内における作業者位置を特定する。位置特定部44は、特定した作業者位置を領域特定部46に与える。
領域特定部46は、領域情報記憶部42に記憶された情報を参照して、複数の部分領域38のうち、位置特定部44により特定された作業者位置を含む1つの部分領域38を、作業領域として特定する。領域特定部46は、特定した作業領域を示す情報を選択部50に与える。
判別器記憶部48は、複数の判別器を記憶する。複数の判別器のそれぞれは、人間の動作を表す所定のフォーマットの動作情報から人間の作業内容を判別するために用いられる情報である。複数の判別器のそれぞれは、例えば互いに異なる作業種別を判別する。
例えば、判別器は、サポートベクトルマシン等のパターン認識モデルである。この場合、判別器は、予め教師データとなる動作情報に対して所定の判別結果が得られるように訓練がされている。判別器は、動作情報から作業種別を判別するために用いられる情報およびモデル等であれば、サポートベクトルマシンに限らず、ランダムフォレスト、多層パーセプトロンおよびニューラルネットワーク等であってもよい。
また、複数の部分領域38のそれぞれは、少なくとも1つの判別器が対応付けられている。1つの部分領域38に対して、1つの判別器が対応付けられていてもよいし、複数の判別器が対応付けられていてもよい。
例えば、本実施形態においては、下記の表1に示すように、複数の部分領域38のそれぞれには、少なくとも1つの作業者の種別が対応付けられている。そして、それぞれの種別には、1つの判別器が対応付けられている。
Figure 0007423584000001
例えば、表1では、部分領域38-Aに“部品補充”という種別が対応付けられており、部分領域38-Bに“機器操作”および“メモ書き”という種別が対応付けられており、部分領域38-Cに“台車移動”および“PC入力”という種別が対応付けられている。また、表1では、“部品補充”には第1判別器が対応付けられており、“機器操作”には第2判別器が対応付けられており、“メモ書き”には第3判別器が対応付けられており、“台車移動”には第4判別器が対応付けられており、“PC入力”には第5判別器が対応付けられている。
なお、判別器記憶部48は、判別装置30に備えられるのではなく、他のサーバに備えられていてもよい。この場合、判別装置30は、ネットワークを介してサーバにアクセスして、複数の判別器を取得する。
選択部50は、判別器記憶部48に記憶された複数の判別器のうち、特定された作業領域に対応付けられた少なくとも1つの判別器を選択する。例えば、表1の例であれば、選択部50は、部分領域38-Aが作業領域として特定された場合、第1判別器を選択する。また、部分領域38-Bが作業領域として特定された場合、選択部50は、第2判別器および第3判別器を選択する。また、部分領域38-Cが作業領域として特定された場合、選択部50は、第4判別器および第5判別器を選択する。選択部50は、選択した判別器を示す情報を判別処理部54に与える。
動作情報生成部52は、少なくとも1つの動作センサ24のそれぞれから作業者の動作を表す動作情報を受信する。動作情報生成部52は、受信した動作情報に基づき、作業者の動作を表す作業者動作情報を生成する。例えば、動作情報生成部52は、複数の動作センサ24から取得した複数の動作情報を組み合わせて、所定のフォーマットの作業者動作情報を生成する。動作情報生成部52は、生成した作業者動作情報を判別処理部54に与える。
判別処理部54は、選択部50により選択された少なくとも1つの判別器を用いて、動作情報生成部52により生成された作業者動作情報に基づき、作業者の作業内容を表す作業種別を判別する。
例えば、判別処理部54は、作業者が、部品補充作業をしているか、機器操作作業をしているか、メモ書き作業をしているか、台車移動作業をしているか、または、PC入力作業をしているか等を判別する。また、判別処理部54は、作業種別毎に、その作業をしている信頼度を生成してもよい。この場合、判別処理部54は、作業種別の候補である候補種別と、信頼度との組を出力する。また、判別処理部54は、複数の判別器を用いて作業種別を判別した場合には、信頼度が最も高い候補種別を、作業種別として出力する。
また、判別装置30は、所定時間毎(例えば、1分毎)に、作業種別を判別してもよい。また、判別装置30は、複数の作業者についての位置情報および動作情報を受信してもよい。この場合、判別装置30は、作業者毎に、作業種別を判別する。
図5は、第1実施形態に係る判別装置30の処理の流れを示すフローチャートである。第1実施形態に係る判別装置30は、図5に示す流れで処理を実行する。
まず、S11において、判別装置30は、位置センサ22から位置情報を受信し、受信した位置情報に基づき作業者位置を特定する。続いて、S12において、判別装置30は、動作センサ24から作業者の動作を表す動作情報を受信し、受信した動作情報に基づき作業者動作情報を生成する。
続いて、S13において、判別装置30は、複数の部分領域38のうち、特定された作業者位置を含む1つの部分領域38を作業領域として特定する。続いて、S14において、判別装置30は、判別器記憶部48に記憶された複数の判別器のうち、特定された作業領域に対応付けられた少なくとも1つの判別器を選択する。そして、S15において、判別装置30は、選択された少なくとも1つの判別器を用いて、生成した作業者動作情報に基づき、作業者の作業内容を表す作業種別を判別する。
以上のような第1実施形態に係る判別装置30は、作業者位置に応じて適切な判別器を選択し、選択した適切な判別器により作業者の作業内容を表す作業種別を判別する。これにより、判別装置30によれば、効率良く且つ精度良く作業種別を判別することができる。
(第2実施形態)
つぎに、第2実施形態に係る判別装置30について説明する。第2実施形態に係る判別装置30は、第1実施形態と同一の認識システム10に適用される。また、第3実施形態以降も同様である。また、第2実施形態に係る判別装置30は、第1実施形態と略同一の構成および機能を有するので、共通の要素には同一の符号を付けて、相違点を除き詳細な説明を省略する。
図6は、第2実施形態に係る判別装置30の構成を示す図である。第2実施形態に係る判別装置30は、結果記憶部56と、表示制御部58とをさらに有する。
結果記憶部56は、所定時間毎(例えば1分毎)に特定された作業領域および作業種別を、動作時刻に対応させて記憶する。表示制御部58は、判別処理部54が判別した作業種別を表示装置に表示させる。表示制御部58は、現在の作業種別を表示装置に表示させる。また、表示制御部58は、管理者により指定された過去の時刻における作業種別を結果記憶部56から読み出し、読み出した作業種別を表示装置に表示させてもよい。
図7は、第2実施形態に係る判別装置30の処理の流れを示すフローチャートである。第2実施形態に係る判別装置30は、図7に示す流れで処理を実行する。
第2実施形態に係る判別装置30は、S11からS15まで、図5のフローチャートで示した処理と同一の処理を実行する。S15に続いて、S16において、判別装置30は、判別した作業種別を表示装置に表示させる。
図8は、第2実施形態に係る判別装置30により表示される画像の第1例を示す図である。表示制御部58は、対象範囲36を表す対象範囲画像60を表示装置に表示させる。例えば、対象範囲画像60は、製造装置が配置されている位置に製造装置画像64を含む。また、例えば、対象範囲画像60は、搬送装置が配置されている位置に搬送装置画像66を含む。
また、表示制御部58は、作業者位置を示す作業者マーク62を、対象範囲画像60における対応する位置上に表示させる。これにより、表示制御部58は、作業者位置を管理者に容易に確認させることができる。
また、表示制御部58は、部分領域38の範囲を表す部分領域画像70を、対象範囲画像60における対応する位置上に表示させる。これにより、表示制御部58は、部分領域38の範囲を、管理者に容易に確認させることができる。
また、表示制御部58は、判別した作業種別を表す判別結果画像72を表示させる。例えば、表示制御部58は、対象範囲画像60における作業者に対応する位置に判別結果画像72を表示させる。図8の例においては、表示制御部58は、作業者マーク62から吹き出す吹出画像を、判別結果画像72として表示装置に表示させる。これにより、表示制御部58は、作業者の作業内容を管理者に容易に確認させることができる。
また、複数の候補種別を判別した場合には、表示制御部58は、信頼度が高い順に複数の候補種別を並べた候補画像74を表示装置に表示させてもよい。これにより、表示制御部58は、判別装置30による判別内容を管理者に確認させることができる。
図9は、第2実施形態に係る判別装置30により表示される画像の第2例を示す図である。表示制御部58は、対象範囲画像60、作業者マーク62、判別結果画像72および複数の部分領域画像70を表示装置に表示させる。
この場合において、表示制御部58は、複数の部分領域38のそれぞれ毎に、所定作業期間(例えば、1日)において作業者が作業をした合計の作業時間を算出する。そして、表示制御部58は、算出した合計の作業時間をさらに表す部分領域画像70を表示装置に表示させる。
例えば、表示制御部58は、合計の作業時間の長さに応じて色または濃さが変化する部分領域画像70を表示させる。例えば、表示制御部58は、その部分領域38での合計の作業時間が長い程、色またはハッチングが濃くなる部分領域画像70を表示させてもよい。
表示制御部58は、何れかの部分領域38内での作業者の平均位置を算出し、算出した平均位置に作業者マーク62を表示させてもよい。また、表示制御部58は、何れかの部分領域38内での作業種別を示す判別結果画像72を表示させてもよい。
これにより、表示制御部58は、判別結果を統計処理した結果を管理者に確認させることができる。このように第2実施形態に係る判別装置30は、複数の観点から判別結果を分析して、管理者に提供することができる。
(第3実施形態)
つぎに、第3実施形態に係る判別装置30について説明する。第3実施形態に係る判別装置30は、第2実施形態と略同一の構成および機能を有するので、共通の要素には同一の符号を付けて、相違点を除き詳細な説明を省略する。
図10は、第3実施形態に係る判別装置30の構成を示す図である。第3実施形態に係る判別装置30は、領域再構築部80をさらに有する。
領域再構築部80は、所定作業期間(例えば、1日または1週間等)おいて、隣接する2つの部分領域38における作業種別の統計を取る。さらに、領域再構築部80は、所定作業期間において、隣接する2つの部分領域38における作業種別の一致割合が予め定められた値以上であるか否かを判断する。そして、領域再構築部80は、所定作業期間において隣接する2つの部分領域38における作業種別の一致割合が予め定められた値以上である場合、その2つの部分領域38を統合して1つの部分領域38とするように、領域情報記憶部42に記憶された複数の部分領域38を再構築する。さらに、領域再構築部80は、複数の部分領域38を再構築した場合、部分領域38と判定器との対応関係も更新する。
図11は、部分領域38の統合例を示す図である。例えば、図11の上側に示すように、初期設定時において、対象範囲36内に、A-1、A-2、A-3、B-1およびB-2の5個の部分領域38が設定されていたとする。初期設定から所定作業期間、作業者の作業内容を解析した結果、A-1、A-2およびA-3の隣接する3個の部分領域38における作業種別の一致割合が予め定められた値以上であった。また、B-1およびB-2の隣接する2個の部分領域38における作業種別の一致割合が予め定められた値以上であった。
このような場合、領域再構築部80は、図11の下側に示すように、A-1、A-2およびA-3を統合して、1個の部分領域38(A)を生成する。また、領域再構築部80は、B-1およびB-2を統合して1個の部分領域38(B)を生成する。これにより、判別装置30は、近似した複数の部分領域38を統合して、効率良く作業領域を特定することができる。
また、複数の部分領域38のそれぞれを表す複数の部分領域画像70を、表示装置に表示させる場合、表示制御部58は、複数の部分領域38を統合して表示してもよい。具体的には、表示制御部58は、所定作業期間において、隣接する2つの部分領域38における作業種別の一致割合が予め定められた値以上である場合、その2つの部分領域38を統合して1つの部分領域38として表示する。これにより、判別装置30は、近似した複数の部分領域38を統合して、管理者にわかりやすく作業領域を確認させることができる。
(第4実施形態)
つぎに、第4実施形態に係る判別装置30について説明する。第4実施形態に係る判別装置30は、第2実施形態と略同一の構成および機能を有するので、共通の要素には同一の符号を付けて、相違点を除き詳細な説明を省略する。
図12は、第4実施形態に係る判別装置30の構成を示す図である。第4実施形態に係る判別装置30は、動作記憶部82と、入力受付部84と、学習部86とをさらに有する。
動作記憶部82は、動作情報生成部52により生成された作業者動作情報、および、判別処理部54により判別された作業種別を対応付けて記憶する。さらに、動作記憶部82は、領域特定部46により特定された作業領域を、作業種別に対応付けて記憶する。
入力受付部84は、提示された作業種別が誤っていた場合、管理者から正しい作業種別を受け付ける。正しい作業種別を受け付けた場合、表示制御部58は、表示装置に正しい作業種別を表示させる。また、正しい作業種別を受け付けた場合、結果記憶部56は、誤った作業種別に代えて、正しい作業種別を記憶する。
学習部86は、管理者から正しい作業種別を受け付けた場合、動作記憶部82により記憶された作業者動作情報および正しい作業種別に基づき、判別器記憶部48に記憶された複数の判別器を訓練する。この場合、学習部86は、判別器記憶部48に記憶された複数の判別器の全てを訓練するのではなく、特定された作業領域に対応付けられた判別器を訓練してもよい。これにより、学習部86は、誤った判別をした判別器を訓練することができる。
図13は、第4実施形態に係る判別装置30の処理の流れを示すフローチャートである。第4実施形態に係る判別装置30は、図13に示す流れで処理を実行する。
第4実施形態に係る判別装置30は、S11からS13まで、図7に示す第2実施形態と同一の処理を実行する。S13に続いて、S21において、判別装置30は、生成した作業者動作情報および特定した作業領域を記憶する。S21に続いて、判別装置30は、S14からS16まで、図7に示す第2実施形態と同一の処理を実行する。
S16に続いて、S22において、判別装置30は、管理者から正しい作業種別を受け付けたか否かを判断する。管理者から正しい作業種別を受け付けてない場合、すなわち、判別処理での判別結果が正しい場合(S22のNo)、判別装置30は、本フローを終了する。
管理者から正しい作業種別を受け付けた場合、すなわち、判別処理での判別結果が誤っていた場合(S22のYes)、判別装置30は、処理をS23に進める。S23において、判別装置30は、表示装置に正しい作業種別を表示させ、結果記憶部56に対して誤った作業種別に代えて正しい作業種別を記憶させる。続いて、S24において、判別装置30は、動作記憶部82により記憶された作業者動作情報および正しい作業種別に基づき、特定された作業領域に対応付けられた判別器を訓練する。続いて、S25において、判別装置30は、訓練結果に基づき判別器を更新する。そして、S25の処理を終えた場合、判別装置30は、本フローを終了する。
図14は、第4実施形態に係る判別装置30により表示される画像の一例を示す図である。第4実施形態に係る表示制御部58は、対象範囲画像60、作業者マーク62および複数の部分領域画像70を表示装置に表示させる。
さらに、表示制御部58は、判別された作業種別、および、作業種別の候補である少なくとも1つの候補種別を含む種別画像90を、表示装置に表示させる。管理者は、種別画像90に含まれる作業種別が誤っていた場合、少なくとも1つの候補種別のうちの1つを、正しい作業種別として選択する。
正しい作業種別が選択された場合、表示制御部58は、表示装置に正しい作業種別を表示させる。そして、結果記憶部56は、誤った作業種別に代えて、正しい作業種別を記憶する。さらに、学習部86は、正しい作業種別に基づき、判別器を訓練する。このように、第3実施形態に係る判別装置30は、判別結果の修正および判別器の学習を適切に実行することができる。
(ハードウェア構成)
図15は、判別装置30のハードウェア構成を示す図である。判別装置30は、一例として、一般のコンピュータ(情報処理装置)と同様のハードウェア構成により実現される。判別装置30は、所定プログラムを実行することにより機能することができる。
判別装置30は、CPU(Central Processing Unit)202と、ROM(Read Only Memory)204と、RAM(Random Access Memory)206と、操作部208と、表示部210、通信装置212と、記憶装置214とを備える。各部は、バスにより接続される。
CPU202は、情報処理を実行するプロセッサであって、記憶装置214に記憶されたプログラムをRAM206に展開して実行し、各部を制御して入出力を行ったり、データの加工を行ったりする。CPU202は、1または複数のプロセッサにより構成されていてもよい。また、判別装置30は、プログラムを実行することが可能であれば、CPU202に限らず他のプロセッサを備えてもよい。ROM204には、起動用プログラムを記憶装置214からRAM206に読み出すスタートプログラムが記憶されている。RAM206は、CPU202の作業領域としてデータを記憶する。
操作部208は、マウスまたはキーボード等の入力デバイスであって、ユーザから操作入力された情報を指示信号として受け付け、その指示信号をCPU202に出力する。表示部210は、例えばLCD(Liquid Crystal Display)等の表示装置である。表示部210は、CPU202からの表示信号に基づいて、各種情報を表示する。通信装置212は、ネットワーク等を介して、外部機器と情報をやり取りする。記憶装置214は、例えば、ハードディスクドライブまたはフラッシュメモリ等である。記憶装置214は、判別装置30で実行されるプログラム、および、オペレーティングシステムを記憶している。
本実施形態の判別装置30で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供される。また、本実施形態の判別装置30で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の判別装置30で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、本実施形態のプログラムを、ROM204等に予め組み込んで提供するように構成してもよい。
情報処理装置を判別装置30として機能させるためのプログラムは、領域受付モジュールと、位置特定モジュールと、領域特定モジュールと、選択モジュールと、動作情報生成モジュールと、判別処理モジュールとを有する。判別装置30は、プロセッサ(CPU202)が記憶媒体(記憶装置214等)からプログラムを読み出して実行することにより各モジュールが主記憶装置(RAM206)上にロードされ、プロセッサ(CPU202)が、領域受付部40、位置特定部44、領域特定部46、選択部50、動作情報生成部52および判別処理部54として機能する。なお、これらの一部または全部がプロセッサ以外のハードウェアにより実現されてもよい。また、記憶装置214は、領域情報記憶部42および判別器記憶部48として機能する。なお、領域情報記憶部42および判別器記憶部48は、判別装置30の外部のサーバ等により実現されてもよい。この場合、判別装置30は、通信装置212を介して領域情報記憶部42および判別器記憶部48にアクセスする。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。
10 認識システム
20 製造ライン
22 位置センサ
24 動作センサ
30 判別装置
36 対象範囲
38 部分領域
40 領域受付部
42 領域情報記憶部
44 位置特定部
46 領域特定部
48 判別器記憶部
50 選択部
52 動作情報生成部
54 判別処理部
56 結果記憶部
58 表示制御部
60 対象範囲画像
62 作業者マーク
64 製造装置画像
66 搬送装置画像
70 部分領域画像
72 判別結果画像
74 候補画像
80 領域再構築部
82 動作記憶部
84 入力受付部
86 学習部
90 種別画像

Claims (9)

  1. 作業者の作業内容を表す作業種別を判別する判別装置であって、
    作業者位置を特定する位置特定部と、
    前記作業者の作業内容を判別する対象範囲に対して前記作業者が同一の作業を行うと予測される予め設定された複数の部分領域のうち、前記作業者位置を含む作業領域を特定する領域特定部と、
    人間の動作を表す動作情報から人間の作業内容を判別するための複数の判別器のうち、前記作業領域に対応付けられた2以上の判別器を、2以上の対象判別器として選択する選択部と、
    作業者の動作を表す作業者動作情報を生成する動作情報生成部と、
    選択された前記2以上の対象判別器を用いて、前記作業者動作情報に基づき、前記作業者の作業内容の候補である複数の候補種別と、前記複数の候補種別のそれぞれの信頼度とを算出し、前記複数の候補種別のうちの前記信頼度が最も高い1つの候補種別を前記作業種別として出力し、前記複数の候補種別のうちの前記作業種別以外の少なくとも1つの候補種別を第1候補種別として出力する判別処理部と、
    出力された前記作業種別と、少なくとも1つの前記第1候補種別とを、同時に表示装置に表示させる表示制御部と、
    前記作業種別が誤っていた場合、前記少なくとも1つの前記第1候補種別の中から正しい作業種別をユーザから受け付ける入力受付部と、
    前記正しい作業種別を前記ユーザから受け付けた場合、前記作業領域に対応付けられた前記2以上の対象判別器のうちの少なくとも1つの対象判別器を、前記作業者動作情報および前記正しい作業種別を用いて訓練する学習部と、
    を備える判別装置。
  2. 前記判別装置は、製造装置を含む製造ラインが設けられる工場における前記作業者の作業内容を判別し、
    前記表示制御部は、前記作業種別を表す判別結果画像、前記対象範囲を表す対象範囲画像、前記複数の部分領域のそれぞれを表す複数の部分領域画像、前記作業者位置を表す作業者マーク、および、前記製造装置が配置されている位置を表す製造装置画像を表示装置に表示させる
    請求項1に記載の判別装置。
  3. 前記表示制御部は、前記少なくとも1つの前記第1候補種別を前記信頼度の高い順に並べて前記表示装置に表示させる
    請求項1または2に記載の判別装置。
  4. 所定時間毎に、
    前記位置特定部は、前記作業者位置を特定し、
    前記領域特定部は、前記作業領域を特定し、
    前記選択部は、前記2以上の対象判別器を選択し、
    前記動作情報生成部は、前記作業者動作情報を生成し、
    前記判別処理部は、前記作業種別および前記第1候補種別出力する
    請求項1から3の何れか1項に記載の判別装置。
  5. 所定時間毎に出力された前記作業種別、および、前記所定時間毎に特定された前記作業領域を、前記作業者が動作した時刻に対応させて記憶する結果記憶部をさらに備える
    請求項2に記載の判別装置。
  6. 前記表示制御部は、前記複数の部分領域のそれぞれ毎に、所定作業期間において前記作業者が作業をした作業時間を算出し、算出した作業時間をさらに表す前記複数の部分領域画像を表示させる
    請求項5に記載の判別装置。
  7. 所定作業期間において、前記複数の部分領域のうち隣接する2つの部分領域における前記作業種別の一致割合が予め定められた値以上である場合、前記2つの部分領域を統合して1つの部分領域とするように、前記複数の部分領域を再構築する領域再構築部を
    さらに備える請求項1から6の何れか1項に記載の判別装置。
  8. 作業者の作業内容を表す作業種別を情報処理装置により判別する判別方法であって、
    前記情報処理装置が、作業者位置を特定し、
    前記情報処理装置が、前記作業者の作業内容を判別する対象範囲に対して、前記作業者が同一の作業を行うと予測される予め設定された複数の部分領域のうち前記作業者位置を含む作業領域を特定し、
    前記情報処理装置が、人間の動作を表す動作情報から人間の作業内容を判別するための複数の判別器のうち、前記作業領域に対応付けられた2以上の判別器を、2以上の対象判別器として選択し、
    前記情報処理装置が、前記作業者の動作を表す作業者動作情報を生成し、
    前記情報処理装置が、選択された前記2以上の対象判別器を用いて、前記作業者動作情報に基づき、前記作業者の作業内容の候補である複数の候補種別と、前記複数の候補種別のそれぞれの信頼度とを算出し、前記複数の候補種別のうちの前記信頼度が最も高い1つの候補種別を前記作業種別として出力し、前記複数の候補種別のうちの前記作業種別以外の少なくとも1つの候補種別を第1候補種別として出力し、
    前記情報処理装置が、出力された前記作業種別と、少なくとも1つの前記第1候補種別とを、同時に表示装置に表示させ、
    前記情報処理装置が、前記作業種別が誤っていた場合、少なくとも1つの前記第1候補種別の中から正しい作業種別をユーザから受け付け、
    前記情報処理装置が、前記正しい作業種別を前記ユーザから受け付けた場合、前記作業領域に対応付けられた前記2以上の対象判別器のうちの少なくとも1つの対象判別器を、前記作業者動作情報および前記正しい作業種別を用いて訓練する
    判別方法。
  9. 作業者の作業内容を表す作業種別を判別する判別装置として情報処理装置を機能させるためのプログラムであって、
    前記情報処理装置を、
    作業者位置を特定する位置特定部と、
    前記作業者の作業内容を判別する対象範囲に対して前記作業者が同一の作業を行うと予測される予め設定された複数の部分領域のうち、前記作業者位置を含む作業領域を特定する領域特定部と、
    人間の動作を表す動作情報から人間の作業内容を判別するための複数の判別器のうち、前記作業領域に対応付けられた2以上の判別器を、2以上の対象判別器として選択する選択部と、
    作業者の動作を表す作業者動作情報を生成する動作情報生成部と、
    選択された前記2以上の対象判別器を用いて、前記作業者動作情報に基づき、前記作業者の作業内容の候補である複数の候補種別と、前記複数の候補種別のそれぞれの信頼度とを算出し、前記複数の候補種別のうちの前記信頼度が最も高い1つの候補種別を前記作業種別として出力し、前記複数の候補種別のうちの前記作業種別以外の少なくとも1つの候補種別を第1候補種別として出力する判別処理部と、
    出力された前記作業種別と、少なくとも1つの前記第1候補種別とを、同時に表示装置に表示させる表示制御部と、
    前記作業種別が誤っていた場合、前記少なくとも1つの前記第1候補種別の中から正しい作業種別をユーザから受け付ける入力受付部と、
    前記正しい作業種別を前記ユーザから受け付けた場合、前記作業領域に対応付けられた前記2以上の対象判別器のうちの少なくとも1つの対象判別器を、前記作業者動作情報および前記正しい作業種別を用いて訓練する学習部として
    機能させるプログラム。
JP2021168171A 2018-02-13 2021-10-13 判別装置、判別方法およびプログラム Active JP7423584B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021168171A JP7423584B2 (ja) 2018-02-13 2021-10-13 判別装置、判別方法およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018023266A JP2019139570A (ja) 2018-02-13 2018-02-13 判別装置、判別方法およびプログラム
JP2021168171A JP7423584B2 (ja) 2018-02-13 2021-10-13 判別装置、判別方法およびプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018023266A Division JP2019139570A (ja) 2018-02-13 2018-02-13 判別装置、判別方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2022009097A JP2022009097A (ja) 2022-01-14
JP7423584B2 true JP7423584B2 (ja) 2024-01-29

Family

ID=67541672

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018023266A Pending JP2019139570A (ja) 2018-02-13 2018-02-13 判別装置、判別方法およびプログラム
JP2021168171A Active JP7423584B2 (ja) 2018-02-13 2021-10-13 判別装置、判別方法およびプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018023266A Pending JP2019139570A (ja) 2018-02-13 2018-02-13 判別装置、判別方法およびプログラム

Country Status (2)

Country Link
US (1) US10902246B2 (ja)
JP (2) JP2019139570A (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11321655B2 (en) * 2019-11-26 2022-05-03 Ncr Corporation Frictionless and autonomous control processing
US11354910B2 (en) * 2019-09-27 2022-06-07 Ncr Corporation Frictionless authentication and monitoring
JP7339167B2 (ja) * 2020-01-17 2023-09-05 株式会社日立製作所 作業支援システム及び作業支援方法
JP7299187B2 (ja) * 2020-03-23 2023-06-27 株式会社日立製作所 作業支援システムおよび作業支援方法
JP7456616B2 (ja) 2020-08-04 2024-03-27 公立大学法人岩手県立大学 学習データ生成システム、推定システム、学習データ生成方法、推定方法、プログラム
JP7414676B2 (ja) * 2020-09-14 2024-01-16 株式会社東芝 負荷推定装置、方法およびプログラム
CN113838133A (zh) * 2021-09-23 2021-12-24 上海商汤科技开发有限公司 一种状态检测方法、装置、计算机设备和存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178583A (ja) 2004-12-21 2006-07-06 Yokogawa Electric Corp 作業者行動記録システム
JP2007021652A (ja) 2005-07-15 2007-02-01 Mikuni Corp 製品の生産装置および製品の生産方法
JP2007328435A (ja) 2006-06-06 2007-12-20 Mitsubishi Electric Corp 移動体行動分析装置
JP2009122302A (ja) 2007-11-14 2009-06-04 Hitachi Ltd 作業情報処理装置、プログラム及び作業情報処理方法
JP2011014121A (ja) 2009-06-30 2011-01-20 E-Pin Optical Industry Co Ltd 微小電子機械走査の座標検出方法とそれを用いたタッチパネル
JP2013151063A (ja) 2009-05-22 2013-08-08 Toyota Motor East Japan Inc 作業ロボット支援システム
JP2014199514A (ja) 2013-03-29 2014-10-23 株式会社クボタ 作業管理支援装置
WO2015098577A1 (ja) 2013-12-27 2015-07-02 日本郵船株式会社 作業管理システム
JP2016015026A (ja) 2014-07-02 2016-01-28 富士通株式会社 作業対象確定プログラム、作業対象確定装置及び作業対象確定方法
JP2017199153A (ja) 2016-04-26 2017-11-02 株式会社ジェイテクト 工程計画作成装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2582703B2 (ja) * 1992-05-12 1997-02-19 松下電器産業株式会社 統合型学習システム
DE69736622T2 (de) * 1996-07-03 2007-09-13 Hitachi, Ltd. System zur Bewegungserkennung
US7421491B2 (en) * 2002-04-23 2008-09-02 Seer Insight Security K.K. Method and system for monitoring individual devices in networked environments
US20040267595A1 (en) * 2003-06-30 2004-12-30 Idcocumentd, Llc. Worker and document management system
JP4460528B2 (ja) * 2004-12-14 2010-05-12 本田技研工業株式会社 識別対象識別装置およびそれを備えたロボット
US20060259472A1 (en) * 2005-05-13 2006-11-16 Macclellan Mary Automated factory work analyzer
JP5157929B2 (ja) * 2009-01-16 2013-03-06 富士通株式会社 作業記録装置、作業記録システムおよび作業記録プログラム
WO2011068184A1 (ja) * 2009-12-03 2011-06-09 独立行政法人産業技術総合研究所 移動体の測位装置
US8554605B2 (en) * 2011-06-29 2013-10-08 CrowdFlower, Inc. Evaluating a worker in performing crowd sourced tasks and providing in-task training through programmatically generated test tasks
US20140244209A1 (en) * 2013-02-22 2014-08-28 InvenSense, Incorporated Systems and Methods for Activity Recognition Training
US8948783B2 (en) * 2013-06-28 2015-02-03 Facebook, Inc. User activity tracking system
JP5506989B1 (ja) * 2013-07-11 2014-05-28 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP2017010186A (ja) * 2015-06-19 2017-01-12 三菱電機株式会社 物流作業分析システム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178583A (ja) 2004-12-21 2006-07-06 Yokogawa Electric Corp 作業者行動記録システム
JP2007021652A (ja) 2005-07-15 2007-02-01 Mikuni Corp 製品の生産装置および製品の生産方法
JP2007328435A (ja) 2006-06-06 2007-12-20 Mitsubishi Electric Corp 移動体行動分析装置
JP2009122302A (ja) 2007-11-14 2009-06-04 Hitachi Ltd 作業情報処理装置、プログラム及び作業情報処理方法
JP2013151063A (ja) 2009-05-22 2013-08-08 Toyota Motor East Japan Inc 作業ロボット支援システム
JP2011014121A (ja) 2009-06-30 2011-01-20 E-Pin Optical Industry Co Ltd 微小電子機械走査の座標検出方法とそれを用いたタッチパネル
JP2014199514A (ja) 2013-03-29 2014-10-23 株式会社クボタ 作業管理支援装置
WO2015098577A1 (ja) 2013-12-27 2015-07-02 日本郵船株式会社 作業管理システム
JP2016015026A (ja) 2014-07-02 2016-01-28 富士通株式会社 作業対象確定プログラム、作業対象確定装置及び作業対象確定方法
JP2017199153A (ja) 2016-04-26 2017-11-02 株式会社ジェイテクト 工程計画作成装置

Also Published As

Publication number Publication date
US10902246B2 (en) 2021-01-26
JP2022009097A (ja) 2022-01-14
US20190251338A1 (en) 2019-08-15
JP2019139570A (ja) 2019-08-22

Similar Documents

Publication Publication Date Title
JP7423584B2 (ja) 判別装置、判別方法およびプログラム
US10898755B2 (en) Method for providing posture guide and apparatus thereof
US9198611B2 (en) Information processing device, image output method, and program
JP6082101B2 (ja) 身体動作採点装置、ダンス採点装置、カラオケ装置及びゲーム装置
KR20220028654A (ko) 미러 디스플레이를 이용하여 태권도 동작 코칭 서비스를 제공하는 장치 및 방법
CN109117893A (zh) 一种基于人体姿态的动作识别方法及装置
US11521733B2 (en) Exercise assistant device and exercise assistant method
US20220083769A1 (en) Work estimation apparatus, method and non-transitory computer-readable storage medium
JP6509406B1 (ja) 歩行態様表示方法、歩行態様表示システム及び歩行態様分析装置
JP6331270B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP2017156978A (ja) 作業動作認識システム
JP2019109843A (ja) 分類装置、分類方法、属性認識装置、及び機械学習装置
JP2020024665A (ja) 情報処理方法、及び情報処理システム
KR20180015150A (ko) 쌍방향 기능 훈련 내용의 공급 적용을 포함하는, 신체적으로 수행된 기능의 분석이 가능하도록 구성된 구조 및 방법
JP7338695B2 (ja) 情報処理システム、情報処理装置、情報処理方法およびプログラム
US20210027481A1 (en) System, method, and computer-readable medium for managing position of target
CN116249573A (zh) 运动改善指导装置、运动改善指导方法及运动改善指导程序
KR20210067718A (ko) 골프 스윙 동작 피드백 제공 장치 및 방법
CN110796156A (zh) 信息处理方法及信息处理系统
Parvez et al. Augmentation and Detection of Individual Pose using CUDA
JP2019146087A (ja) 情報処理装置、撮像装置の制御方法、コンピュータプログラム、及び記憶媒体
WO2023238574A1 (ja) 疲労ストレス分析装置
KR102610244B1 (ko) 자세측정센서를 통해 수집된 데이터를 분석하는 인공지능 운동추천장치 및 그 장치의 구동방법
US11035703B2 (en) Sensor arrangement mode acquisition device and sensor arrangement mode acquisition method
US20230137094A1 (en) Measurement device, measurement system, measurement method, and computer program product

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240117

R150 Certificate of patent or registration of utility model

Ref document number: 7423584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150