JP2022026925A - 注意喚起システム、注意喚起方法及びプログラム - Google Patents

注意喚起システム、注意喚起方法及びプログラム Download PDF

Info

Publication number
JP2022026925A
JP2022026925A JP2020130622A JP2020130622A JP2022026925A JP 2022026925 A JP2022026925 A JP 2022026925A JP 2020130622 A JP2020130622 A JP 2020130622A JP 2020130622 A JP2020130622 A JP 2020130622A JP 2022026925 A JP2022026925 A JP 2022026925A
Authority
JP
Japan
Prior art keywords
information
target
unit
alert system
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020130622A
Other languages
English (en)
Other versions
JP7527884B2 (ja
Inventor
雄士朗 柏本
Yushiro Kashimoto
雄土 山地
Yuto Yamaji
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2020130622A priority Critical patent/JP7527884B2/ja
Priority to CN202110210078.6A priority patent/CN114067511A/zh
Priority to US17/184,677 priority patent/US12094201B2/en
Publication of JP2022026925A publication Critical patent/JP2022026925A/ja
Application granted granted Critical
Publication of JP7527884B2 publication Critical patent/JP7527884B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • G06V40/58Solutions for unknown imposter distribution
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19697Arrangements wherein non-video detectors generate an alarm themselves
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/22Status alarms responsive to presence or absence of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Alarm Systems (AREA)
  • Artificial Intelligence (AREA)
  • Emergency Alarm Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Evolutionary Computation (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)

Abstract

【課題】不要な発報を抑えながら、危険な領域へ侵入される前に行動予測情報を得る注意喚起システム、注意喚起方法及びプログラムを提供する。【解決手段】注意喚起システム100は、取得部と解析部と算出部とを備える。取得部は、対象の情報を含む第1のセンサーデータから、対象の状況情報を取得する。解析部は、領域の情報を含む第2のセンサーデータから、領域に含まれる物体の現在の状態情報と、物体の行動予測情報とを解析する。算出部は、対象の状況情報と、物体の現在の状態情報と、物体の行動予測情報とに基づいて、注意度を算出する。【選択図】図1

Description

本発明の実施形態は注意喚起システム、注意喚起方法及びプログラムに関する。
稼働中の機械の周辺へ侵入した人物を検知する技術が従来から知られている。例えば、工場内の監視カメラにより撮影された映像に基づいて、監視エリアに人が侵入したか否かを判定し、監視エリアにある設備の稼働状況に応じて通報する技術が従来から知られている。
特開2011-145839号公報
Liu, Wei, et al. "Ssd: Single shot multibox detector." European conference on computer vision. Springer, Cham, 2016. He, Kaiming, et al. "Deep residual learning for image recognition." Proceedings of the IEEE conference on computer vision and pattern recognition. 2016. Cao, Zhe, et al. "OpenPose: realtime multi-person 2D pose estimation using Part Affinity Fields." arXiv preprint arXiv:1812.08008 (2018).
しかしながら従来の技術では、不要な発報を抑えながら、危険な領域へ侵入される前に注意喚起をすることが難しかった。
実施形態の注意喚起システムは、取得部と解析部と算出部とを備える。取得部は、対象の情報を含む第1のセンサーデータから、前記対象の状況情報を取得する。解析部は、領域の情報を含む第2のセンサーデータから、領域に含まれる物体の現在の状態情報と、前記物体の行動予測情報とを解析する。算出部は、前記対象の状況情報と、前記物体の現在の状態情報と、前記物体の行動予測情報とに基づいて、注意度を算出する。
第1実施形態の注意喚起システムの機能構成の例を示す図。 第1実施形態の取得部の動作例を示すフローチャート。 第1実施形態の解析部の動作例を示すフローチャート。 第1実施形態の算出部の動作例を示すフローチャート。 第2実施形態の注意喚起システムの機能構成の例を示す図。 第2実施形態のパラメータの設定UIの例を示す図。 第2実施形態の表示情報の例を示す図。 第3実施形態の注意喚起システムの機能構成の例を示す図。 第4実施形態の注意喚起システムの機能構成の例を示す図。 第1乃至第4実施形態の注意喚起システムのハードウェア構成の例を示す図。
以下に添付図面を参照して、注意喚起システム、注意喚起方法及びプログラムの実施形態を詳細に説明する。
(第1実施形態)
第1実施形態の注意喚起システムは、例えば工場及び工事現場などにおいて稼働中の機械、及び、集中が必要な作業中の人物などに、他の人物が接近又は接触しようとする場合に注意喚起をするシステムである。
はじめに、第1実施形態の注意喚起システムの機能構成の例について説明する。
[機能構成の例]
図1は第1実施形態の注意喚起システム100の機能構成の例を示す図である。第1実施形態の注意喚起システム100は、センサー1、入力部2、取得部3、解析部4、算出部5、発報部6、記録部7及び制御部8を備える。
センサー1は、対象A及び領域Bのデータを検知する。対象Aは、例えば工場内の機械、及び、建設現場の重機などである。また例えば、対象Aは、危険作業中の人物及びロボットなどでもよい。
領域Bは、対象Aの動作(稼働)状況に応じて、注意が必要な度合いが変わる領域である。領域Bは、例えば、対象Aから所定の範囲内にある領域である。なお、領域Bは、対象Aを含む領域でもよいし、対象Aが領域Bに含まれていなくてもよい。
センサー1は、対象A及び領域Bの状況を検知するカメラ及び振動センサーなどである。対象Aの状況は、例えば画像データ及び振動センサーデータなどにより検知される。領域Bの状況は、例えば画像データ及び深度データなどにより得られる。
なお、対象A及び領域Bは複数存在していてもよい。また、センサー1を複数のセンサーにより構成し、対象A及び領域Bに対して異なる種類のセンサーを用いてデータを検知してもよい。
入力部2は、センサー1によって得られた対象Aに関するデータを取得部3へ入力し、領域Bに関するデータを解析部4へ入力する。
取得部3は、対象Aに関するデータから対象Aの状況情報を取得し、対象Aの状況情報を算出部106へ入力する。状況情報は、例えば対象Aが機械などの場合には当該機械の稼働状況を示す情報を含む。また例えば、対象Aが人物及びロボットなどの場合には、当該人物及びロボットなどの動作状況を示す情報を含む。
解析部4は、領域Bに関するデータから領域B内における特定の物体を検出し、検出された物体の状態の解析及び行動予測などを行い、当該物体の状態情報及び行動予測情報を含む解析情報を算出部5へ入力する。解析される物体は、例えば人物、乗り物、動物、及び、移動機能を備える機械などである。
取得部3及び解析部4の入力データとして画像データを用い、対象Aの状況情報の取得、並びに、領域B内の物体の検出及び行動予測に画像処理を用いてもよい。入力データに画像データを用いることにより、特別なセンター(例えば振動センサー及び加速度センサーなど)が必要なく、カメラを設置するだけで入力データを取得できるので、注意喚起システム100の導入コストを抑えることができる。また、データは人にとっては直感的に理解しやすいため、解析結果の分析が容易となるという効果も得られる。
入力データとして画像データが用いられる場合、例えば解析部4は、時系列に複数の画像データを受け付け、複数の第2の画像データに含まれる物体を追従することによって、物体の移動方向及び速度を算出し、当該物体の移動方向及び速度に基づいて当該物体の行動予測情報を解析する。画像データが用いられる場合に必ずしも物体を追従する必要はなく、解析部4は、物体の姿勢情報や動き情報を基づいて当該物体の行動予測情報を解析してもよい。
算出部5は、取得部3により取得された状況情報(例えば対象Aの稼働状況)、解析部4により得られた解析情報(例えば領域Bに含まれる物体の現在の状態情報、及び、行動予測情報など)から注意度を算出する。算出部5は、例えば対象Aの状況情報から対象Aが稼働又は動作していることが特定された場合、物体の現在の状態情報と、物体の行動予測情報とに基づいて、物体が対象Aに接近又は接触する可能性が高いほど注意度を高く算出する。算出部5は、算出された注意度を、発報部6、記録部7及び制御部8の少なくとも1つに入力する。
発報部6は、注意度が閾値より高い場合に何らかの方法で発報を行い、対象A又は領域Bの周囲の人物及び管理者などに注意を要する事態の発生を知らせる。例えば、発報部6は、注意度を複数の閾値により判定し、注意度の高さに応じて発報方法を変えるよう制御してもよい。
なお、発報方法は任意でよい。例えば、発報部6は、対象Aの周囲の人物に聞こえるように警報音を発する。また例えば、発報部6は、注意を要する事態の発生を、管理責任者にメールなどで知らせる。注意喚起システム100が発報部6を備えることにより、例えば注意が必要な状態を現場の人物や監督者に知らせることができ、事故の発生などを未然に防ぐことができる。
記録部7は、注意度が閾値よりも高い場合に、対象Aの情報を含むセンサーデータ、領域Bの情報を含むセンサーデータ、対象Aの状況情報、領域Bに含まれる物体の現在の状態情報、当該物体の行動予測情報、及び、算出部5により算出された注意度のうち、少なくとも1つを記録する。なお、記録部7に記憶される情報には、閾値より高い注意度が算出された時点の情報だけでなく、閾値より高い注意度が算出された時点の前後、一定期間の情報が含まれていてもよい。注意喚起システム100が記録部7を備えることにより、例えば対象Aの管理者が、注意が必要な状態が発生した場面の情報を見返すことができ、危機管理の改善を行える。
制御部8は、対象Aの稼働中に、注意度が閾値よりも高いと算出された場合に、対象Aを停止させる制御信号を送るなどの方法により、安全な状態に移行させる。また、制御部8は、対象Aの停止中に、注意度が閾値よりも高いと算出された場合には、対象Aを稼働させる制御信号の送信を抑制するなどの方法により、対象Aの稼働を抑制する。注意喚起システム100が制御部8を備えることにより、注意が必要な状態では対象Aを安全な状態に移行させることができ、事故の発生などを未然に防ぐことができる。
[取得部の動作例]
図2は第1実施形態の取得部3の動作例を示すフローチャートである。はじめに、取得部3は、入力部2から対象Aの情報を含むセンサーデータを、入力データとして受け付ける(ステップS1)。なお、取得部3は、入力データを、対象Aからの信号によって直接受け付けてもよい。
次に、取得部3は、ステップS1の処理によって受け付けられた対象Aの情報を解析し、対象Aの状況情報を取得する(ステップS2)。例えば、取得部3は、対象Aの情報が画像データである場合、オプティカルフローを用いて前フレームの画像からの動き情報を解析する。取得部3は、例えば対象Aに関するオプティカルフローの方向及び強度から、対象Aの稼働(または動作)の状況を数値化する。例えば、取得部3は、既定の方向に閾値より大きい値が検出された場合に、対象Aが稼働中(または動作中)であることを示す状況情報を取得し、既定の方向に閾値以下の値が検出された場合に、対象Aが停止中(または静止中)であることを示す状況情報を取得する。
次に、取得部3は、ステップS2の処理によって取得された状況情報を出力する(ステップS3)。状況情報は、例えば対象Aの稼働(または動作)の有無、及び、対象Aの稼働(または動作)の状況を表す数値などを含む。対象Aが複数存在する場合、取得部3は、稼働(または動作)の有無の論理和、論理積又は数値の重み付き和などを状況情報として出力する。
また、対象Aが複数存在している場合、取得部3は、対象A毎にそれぞれ異なるパラメータを用いて図2の処理をしてもよい。注意喚起において、稼働(または動作)の状況を把握する必要のある対象Aが複数存在する場合に異なるパラメータを使用することで稼働(または動作)状況の取得処理の最適化が可能となる。
[解析部の動作例]
図3は第1実施形態の解析部4の動作例を示すフローチャートである。はじめに、解析部4が、入力部2から領域Bに関するデータを受け付ける(ステップS11)。
次に、解析部4は、領域B内の物体の検出を行い、当該物体の位置及び検出の確からしさを表す検出スコアを出力する(ステップS12)。例えば、領域Bに関するデータが画像データである場合、物体の検出にはSSD(非特許文献1参照)などの方法を用いて、ステップS12の処理が行われる。
次に、解析部4は、ステップS12の処理によって検出された物体を、物体の位置情報及び特徴情報を用いて、過去に検出された物体と対応付けることで、当該物体の追従を行う(ステップS13)。例えば、解析部4は、直前のフレームでの位置が近く(例えば距離が閾値より小さい物体)、かつResNet(非特許文献2参照)などで抽出された特徴量が類似している物体(例えば特徴量の差が閾値より小さい物体)を対応付けることによって物体を追従する。ステップS13の処理によって、各物体や各人物の現在までの移動軌跡や現時点での移動速度と移動方向が算出できる。
次に、解析部4は、ステップS13の処理によって検出された物体毎に、現在の状態を解析するとともに、現在及び過去の状態から以降の行動を予測し、現在の状態情報と行動予測情報とを含む解析情報を取得する(ステップS14)。解析される物体の状態は、例えば物体のパーツの位置、向き、移動速度及び姿勢などである。また、行動の予測では、線形予測及びカルマンフィルタなどで、予測される移動先、推定確率スコア、予測される行動、及びその行動が実行される推定確率スコアなどが算出される。具体的には、解析部4は、人物の行動予測を行う場合、人物の現在の位置情報、人物が所持している物体の情報、人物の追従結果から得られる現在までの移動軌跡、及び、姿勢情報などから、人物の動作などを含む行動予測を行う。姿勢情報は、例えば、領域Bに関するデータが画像データである場合、OpenPose(非特許文献3参照)などの技術により得られた人物の体や頭の向き、及び、腕や足の位置などである。解析部4が、複数のフレームでの人物の状態を、人物の追従によって連続的に解析することで、より高い精度で、人物の現在の状態情報と、当該人物の行動予測情報とを得ることができる。
次に、解析部4は、ステップS14の処理によって得られた解析情報を出力する(ステップS15)。なお、領域Bが複数存在する場合、それらすべてにおける解析情報を出力する。
また、領域Bが複数存在している場合、解析部4は、領域B毎にそれぞれ異なるパラメータを用いて図3の処理をしてもよい。注意喚起において、人物などの物体が検出しうる領域Bが複数存在する場合に異なるパラメータを使用することで領域B内の解析の最適化が可能となる。
[算出部の動作例]
図4は第1実施形態の算出部5の動作例を示すフローチャートである。はじめに、算出部5は、取得部3から状況情報を受け付け、解析部4から解析情報を受け付ける(ステップS21)。
次に、算出部5は、注意を要する状況が定義された定義情報に基づく指標に従い、注意度を算出する(ステップS22)。例えば、対象Aが機械であり、「稼働中の機械への人物の接近」を要注意と定義されている場合は、稼働中の機械の周辺の領域Bで、「機械に向かって一定以上の速度で接近を行う人物が存在する状況」、「人物と機械との距離が一定より近い状況」、及び、「人物の視線や体の向きが機械の方向へ向いており接近が予測される状況」などが注意度算出の指標として考えられる。そのため注意喚起システム100の運用の際には、複数の指標のうち場面に即した指標が1つ以上設定される。算出部5は、設定された指標に基づく式に従って、注意度を算出する。
注意喚起システム100の運用中は、解析部4が、毎フレームで、人物の位置、移動方向、速度、視線方向及び体の向きなどを解析する。算出部5は、「人物の移動方向と人物から見た機械の方向が近く、かつ人物の速度が速いほど高い値を算出する」、「人物と機械との距離が近いほど高い値を算出する」、及び、「視線方向及び体の向きと人物から見た機械の方向が近いほどに高い値を算出する」などの指標に従い、人物ごとに注意度を算出する。
なお、算出部5は、2つ以上の指標を用いる場合は算出された指標毎の注意度の重み付き和、または、指標毎の閾値判定結果の条件分岐(ANDまたはORによる判定)によって、人物ごとの注意度を算出する。そして、算出部5は、取得部3から得られた状況情報から対象Aが動作中(例えば対象Aが装置などの場合には稼働中)と判定された場合に、人物ごとの注意度の最大値または合計値を、注意喚起システム100全体の注意度として算出する。
次に、算出部5は、ステップS22の処理によって取得された注意度を出力する(ステップS23)。
以上、説明したように、第1実施形態の注意喚起システム100では、取得部3が、対象Aの情報を含むセンサーデータ(第1のセンサーデータ)から、対象Aの状況情報を取得する。解析部4が、領域Bの情報を含むセンサーデータ(第2のセンサーデータ)から、領域Bに含まれる物体の現在の状態情報と、物体の行動予測情報とを解析する。そして、算出部5が、対象Aの状況情報と、物体の現在の状態情報と、物体の行動予測情報とに基づいて、注意度を算出する。
これにより第1実施形態の注意喚起システム100によれば、不要な発報を抑えながら、危険な領域へ侵入される前に注意喚起をすることができる。具体的には、取得部3が、対象Aの状況情報を取得することで、真に注意が必要な状況でのみ注意喚起を行える。また、解析部4が、領域Bに含まれる物体の行動を予測し、算出部5が、その予測結果を注意度算出に利用する。これにより不要な注意喚起を抑えつつ、注意が必要な状況に対してその注意度に応じた的確な対処が可能となる。例えば、第1実施形態の注意喚起システム100は、稼働中の機械の周辺へ人物が侵入する前に、発報部6によって発報することにより、事故の発生を未然に検知し防止することができる。
一方、従来の技術では、危険を未然に検知するために、侵入検知を行う領域を広げると、不要な発報が起こりうるという別の問題が発生する。第1実施形態の注意喚起システム100は、侵入検知のみでなく人物などの行動予測も併せて行うことで、真に注意を要する状況のみを検知でき、かつ未然に防ぐことが可能である。
また、従来の技術は、侵入検知時に稼働状況に応じて発報を行うか否かの判定しかできず、全体的な状況を判断したうえでの柔軟な対応が行えないという問題もある。一方、第1実施形態の注意喚起システム100は、上述の算出部5を備えることにより、より多くの状況に対応した注意度の算出が可能となり、算出された注意度に応じた方法で、ユーザに注意喚起をすることもできる。
(第2実施形態)
次に第2実施形態について説明する。第2実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
[機能構成の例]
図5は第2実施形態の注意喚起システム100-2の機能構成の例を示す図である。第2実施形態の注意喚起システム100-2は、センサー1、入力部2、取得部3、解析部4、算出部5、発報部6、記録部7、制御部8、設定部9及び表示部10を備える。
第2実施形態では、第1実施形態の構成に更に設定部9及び表示部10が追加されている。
設定部9は、各部(例えば取得部3、解析部4及び算出部5など)の動作を制御するパラメータを設定する。設定部9は、各部のパラメータ設定を設定UIによって受け付けてもよいし、機械学習により自動的に決定されたパラメータを設定してもよい。
[設定UIの例]
図6は第2実施形態のパラメータの設定UIの例を示す図である。設定UIは、例えば対象A及び領域Bを設定する設定領域101、対象Aの状況情報を取得する取得部3の動作を制御するパラメータ(例えばオプティカルフローの計算に用いられるパラメータなど)を設定する設定領域102、及び、領域Bの物体を解析する解析部4の動作を制御するパラメータ(例えば解析に用いられる機械学習モデルのパラメータなど)を設定する設定領域103を含む。設定部9は、入力部2に入力される入力データが画像データである場合、設定領域101に画像データを表示し、当該画像データ上で対象A及び領域Bの設定を受け付ける。
また、設定部9は、算出部5の動作を制御するパラメータ(例えば注意度算出の方法を設定するパラメータなど)、並びに、発報部6、記録部7及び制御部8で参照される注意度の閾値を設定する。
また、設定部9は、対象A及び領域Bが複数ある場合、取得部3の動作を制御するパラメータを対象A毎に設定し、解析部4の動作を制御するパラメータを領域B毎に設定する。
設定部9を備えることにより、注意喚起システム100-2導入後にパラメータを最適化させることができる。また、要注意とする状況の変更が発生した場合などの対応が容易になる。
表示部10は、各部の処理結果(例えば、取得部3により取得された対象Aの状況情報、解析部4により解析された領域Bに含まれる物体の現在の状態情報及び当該物体の行動予測情報、並びに、算出部5により算出された注意度のうち、少なくとも1つ)を含む表示情報を表示する。例えば、表示部10は、各部の処理結果を必要に応じて、入力データ(例えば画像データ)の周辺又は当該入力データに重ねて表示する。
[表示情報の例]
図7は第2実施形態の表示情報の例を示す図である。表示部10は、画像を入力データとして用いる場合、画像データを示す表示領域111上に対象Aの稼働(または動作)状況、領域B内に検出された人物などの物体の位置、行動及び移動先などを重ねて表示する。また、表示部10は、表示領域111の周辺の表示領域112~115に情報を表示する。表示領域112には、稼働・動作状況の詳細な情報(例えば対象Aの動きの速度など)が表示される。表示領域113には、人物情報(例えば人物の行動や状態、人物を示す矩形の位置を示す座標など)が表示される。表示領域114には、注意度(例えば、数値、文字及びレベルなど)が表示される。表示領域115には、解析された状況などを示す文章などが表示される。
表示部10を備えることにより、注意度の根拠、注意が必要となった原因及び状況を理解しやすくなり、より適切な対応が可能となる。
(第3実施形態)
次に第3実施形態について説明する。第3実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
[機能構成の例]
図8は第3実施形態の注意喚起システム100-3の機能構成の例を示す図である。第3実施形態の注意喚起システム100-3は、センサー1、入力部2、取得部3、解析部4、算出部5、発報部6、記録部7、制御部8及び認識部11を備える。
第3実施形態では、第1実施形態の構成に更に認識部11が追加されている。
認識部11は、人物を既知の人物情報と照合することによって、当該人物を認識する。具体的には、認識部11は、解析部4が人物を検出した場合に、顔情報、体形情報、服装情報及び動作情報などを用いることで、検出された人物の個人及び属性などを特定する。なお、属性は、未知の人物である、特定の立場(例えば職責など)の人物である、及び、特定の組織などに所属している人物である、などの個人を完全に特定しない範囲で、その人物の情報を示す。
認識部11により得られた人物情報は、算出部5へ入力され、注意度算出に利用される。例えば、算出部5は、未知の人物が検出された場合の注意度を、特定の人物が検出された場合の注意度よりも高くする。また例えば、算出部5は、稼働中の機械への接近しようとする人物が、その現場及び作業などにおける熟練者の場合に、未熟者の場合よりも注意度を低くする。
また、特定された個人及び人物の属性などに応じ、その人物、及び、当該人物の責任者などにメールで発報するなど発報部6の発報方法を変更してもよい。
また、記録部7が、注意度が閾値よりも高い場合に、注意喚起の対象となった個人及び人物の属性などを更に記憶してもよい。
また、第2実施形態のように、設定部9を備える場合、認識部11の動作を制御するパラメータの設定ができるようにしてもよい。
また、第2実施形態のように、表示部10を備える場合、認識部11により認識された人物情報を表示情報に更に含めてもよい。
認識部11を備えることで、検出された人物の立場、役割及び能力などを特定することができ、それらに応じて柔軟に注意度を変更することができる。また、要注意な状況の要因となった人物を特定することもでき、危機管理の改善を行いやすくすることが期待できる。
(第4実施形態)
次に第4実施形態について説明する。第4実施形態の説明では、第3実施形態と同様の説明については省略し、第3実施形態と異なる箇所について説明する。
[機能構成の例]
図9は第4実施形態の注意喚起システム100-4の機能構成の例を示す図である。第3実施形態の注意喚起システム100-3は、センサー1、入力部2、取得部3、解析部4、算出部5、発報部6、記録部7、制御部8、認識部11及び判定部12を備える。
第4実施形態では、第3実施形態の算出部5の内部に更に判定部12が追加されている。
判定部12は、所定の人数の人物が、所定の状態で所定の位置にいるか否かを判定する。具体的には、判定部12は、稼働中の機械などの周辺で監督者または作業者が過少である状況、あるいは余所見などをしており、既定の人数の監督者や作業者が既定の位置で正しい状態にない状況を判定する。
算出部5は、判定部12の処理結果に応じて定められた所定の注意度を算出する。例えば、算出部5は、領域Bにおける人数が過少または特定の人物が存在しない状況では、その状況の危険性に応じて定められた注意度を算出する。また例えば、算出部5は、人物自体は検知されたが余所見をしている、または管理資格などの特定の属性を持つ人物でない状況では、その状況の危険性に応じて定められた注意度を算出する。また例えば、算出部5は、領域Bが、所定の人数(例えば二人)での作業が必要な場所などの場合において、当該所定の人数よりも作業中の人数が少ない状況では、その状況の危険性に応じて定められた注意度を算出する。
判定部23を備えることによって、監督者及び作業者などの不在、監督者及び作業者などが不正な状況(例えば余所見をしている状況)、及び、既定の作業人数に満たない状況などの安全性が確保されていない状況を検知する効果を奏する。
最後に、第1乃至第4実施形態の注意喚起システム100(100-2~100-4)のハードウェア構成の例について説明する。
[ハードウェア構成の例]
図10は第1及び第2実施形態の注意喚起システム100(100-2~100-4)のハードウェア構成の例を示す図である。注意喚起システム100は、制御装置201、主記憶装置202、補助記憶装置203、表示装置204、入力装置205及び通信装置206を備える。制御装置201、主記憶装置202、補助記憶装置203、表示装置204、入力装置205及び通信装置206は、バス210を介して接続されている。
制御装置201は補助記憶装置203から主記憶装置202に読み出されたプログラムを実行する。制御装置201は、例えばCPUなどの1以上のプロセッサである。主記憶装置202はROM(Read Only Memory)、及び、RAMなどのメモリである。補助記憶装置203はメモリカード、及び、HDD(Hard Disk Drive)などである。
表示装置204は情報を表示する。表示装置204は、例えば液晶ディスプレイである。入力装置205は、情報の入力を受け付ける。入力装置205は、例えばキーボード、マウス及びハードウェアキーなどである。なお表示装置204及び入力装置205は、表示機能と入力機能とを兼ねる液晶タッチパネルなどでもよい。通信装置206は他の装置と通信する。
注意喚起システム100で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、メモリカード、CD-R、及び、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータ・プログラム・プロダクトとして提供される。
また注意喚起システム100で実行されるプログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また注意喚起システム100が実行するプログラムを、ダウンロードさせずにインターネットなどのネットワーク経由で提供するように構成してもよい。
また注意喚起システム100で実行されるプログラムを、ROMなどに予め組み込んで提供するように構成してもよい。
注意喚起システム100で実行されるプログラムは、注意喚起システム100の機能のうち、プログラムにより実現可能な機能を含むモジュール構成となっている。
プログラムにより実現される機能は、制御装置201が補助記憶装置203などの記憶媒体からプログラムを読み出して実行することにより、主記憶装置202にロードされる。すなわちプログラムにより実現される機能は、主記憶装置202上に生成される。
なお注意喚起システム100の機能の一部を、ICなどのハードウェアにより実現してもよい。ICは、例えば専用の処理を実行するプロセッサである。
また複数のプロセッサを用いて各機能を実現する場合、各プロセッサは、各機能のうち1つを実現してもよいし、各機能のうち2つ以上を実現してもよい。
また、各機能を複数のプロセッサにより実現し、各プロセッサにより得られた情報を、ネットワークを介して送受信してもよい。すなわち、注意喚起システム100を、ネットワーク上のクラウドシステムとして実現してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 センサー
2 入力部
3 取得部
4 解析部
5 算出部
6 発報部
7 記録部
8 制御部
9 設定部
10 表示部
11 認識部
12 判定部
201 制御装置
202 主記憶装置
203 補助記憶装置
204 表示装置
205 入力装置
206 通信装置
210 バス

Claims (20)

  1. 対象の情報を含む第1のセンサーデータから、前記対象の状況情報を取得する取得部と、
    領域の情報を含む第2のセンサーデータから、領域に含まれる物体の現在の状態情報と、前記物体の行動予測情報とを解析する解析部と、
    前記対象の状況情報と、前記物体の現在の状態情報と、前記物体の行動予測情報とに基づいて、注意度を算出する算出部と、
    を備える注意喚起システム。
  2. 前記算出部は、前記対象の状況情報から前記対象が稼働又は動作していることが特定された場合、前記物体の現在の状態情報と、前記物体の行動予測情報とに基づいて、前記物体が前記対象に接近又は接触する可能性が高いほど前記注意度を高く算出する、
    請求項1に記載の注意喚起システム。
  3. 前記算出部は、所定の人数の人物が、所定の状態で所定の位置にいるか否かを判定し、所定の人数の人物が、所定の状態で所定の位置にいない場合、所定の注意度を算出する、
    請求項1又は2に記載の注意喚起システム。
  4. 前記取得部は、前記第1のセンサーデータとして第1の画像データを受け付け、前記第1の画像データから、前記対象の状況情報を取得し、
    前記解析部は、前記第2のセンサーデータとして第2の画像データを受け付け、前記第1の画像データから、前記物体の現在の状態情報と前記物体の行動予測情報とを解析する、
    請求項1乃至3のいずれか1項に記載の注意喚起システム。
  5. 前記解析部は、時系列に複数の前記第2の画像データを受け付け、前記複数の第2の画像データに含まれる前記物体を追従することによって、前記物体の移動方向及び速度を算出し、前記物体の移動方向及び速度に基づいて前記物体の行動予測情報を解析する、
    請求項4に記載の注意喚起システム。
  6. 前記算出部により算出された注意度が、第1の閾値よりも高い場合に発報を行う発報部、
    を更に備える請求項1乃至5のいずれか1項に記載の注意喚起システム。
  7. 前記算出部により算出された注意度が、第2の閾値よりも高い場合に、前記第1のセンサーデータ、前記第2のセンサーデータ、前記対象の状況情報、前記物体の現在の状態情報、前記物体の行動予測情報及び前記注意度のうち、少なくとも1つを記録する記録部、
    を更に備える請求項1乃至6のいずれか1項に記載の注意喚起システム。
  8. 前記算出部により算出された注意度が、第3の閾値よりも高い場合に、前記対象を安全な状態に移行させる制御部、
    を更に備える請求項1乃至7のいずれか1項に記載の注意喚起システム。
  9. 前記対象の状況情報、前記物体の現在の状態情報、前記物体の行動予測情報及び前記注意度のうち、少なくとも1つを含む表示情報を表示する表示部、
    を更に備える請求項1乃至8のいずれか1項に記載の注意喚起システム。
  10. 前記取得部、前記解析部及び前記算出部の動作を制御するパラメータを設定する設定部、
    を更に備える請求項1乃至9のいずれか1項に記載の注意喚起システム。
  11. 前記第1のセンサーデータは、複数の前記対象の情報を含み、
    前記第2のセンサーデータは、複数の前記領域の情報を含み、
    前記設定部は、前記取得部の動作を制御するパラメータを前記対象毎に設定し、前記解析部の動作を制御するパラメータを前記領域毎に設定する、
    請求項10に記載の注意喚起システム。
  12. 前記物体は人物であり、
    前記人物を既知の人物情報と照合することによって、前記人物を認識する認識部を更に備え、
    前記算出部は、前記人物から特定される情報に更に基づいて、前記注意度を算出する、
    請求項1乃至11のいずれか1項に記載の注意喚起システム。
  13. 注意喚起システムが、対象の情報を含む第1のセンサーデータから、前記対象の状況情報を取得するステップと、
    前記注意喚起システムが、領域の情報を含む第2のセンサーデータから、領域に含まれる物体の現在の状態情報と、前記物体の行動予測情報とを解析するステップと、
    前記注意喚起システムが、前記対象の状況情報と、前記物体の現在の状態情報と、前記物体の行動予測情報とに基づいて、注意度を算出するステップと、
    を含む注意喚起方法。
  14. 前記算出するステップは、前記対象の状況情報から前記対象が稼働又は動作していることが特定された場合、前記物体の現在の状態情報と、前記物体の行動予測情報とに基づいて、前記物体が前記対象に接近又は接触する可能性が高いほど前記注意度を高く算出する、
    請求項13に記載の注意喚起方法。
  15. 前記算出するステップは、所定の人数の人物が、所定の状態で所定の位置にいるか否かを判定し、所定の人数の人物が、所定の状態で所定の位置にいない場合、所定の注意度を算出する、
    請求項13又は14に記載の注意喚起方法。
  16. 前記取得するステップは、前記第1のセンサーデータとして第1の画像データを受け付け、前記第1の画像データから、前記対象の状況情報を取得し、
    前記解析するステップは、前記第2のセンサーデータとして第2の画像データを受け付け、前記第1の画像データから、前記物体の現在の状態情報と前記物体の行動予測情報とを解析する、
    請求項13乃至15のいずれか1項に記載の注意喚起方法。
  17. コンピュータを、
    対象の情報を含む第1のセンサーデータから、前記対象の状況情報を取得する取得部と、
    領域の情報を含む第2のセンサーデータから、領域に含まれる物体の現在の状態情報と、前記物体の行動予測情報とを解析する解析部と、
    前記対象の状況情報と、前記物体の現在の状態情報と、前記物体の行動予測情報とに基づいて、注意度を算出する算出部、
    として機能させるためのプログラム。
  18. 前記算出部は、前記対象の状況情報から前記対象が稼働又は動作していることが特定された場合、前記物体の現在の状態情報と、前記物体の行動予測情報とに基づいて、前記物体が前記対象に接近又は接触する可能性が高いほど前記注意度を高く算出する、
    請求項17に記載のプログラム。
  19. 前記算出部は、所定の人数の人物が、所定の状態で所定の位置にいるか否かを判定し、所定の人数の人物が、所定の状態で所定の位置にいない場合、所定の注意度を算出する、
    請求項17又は18に記載のプログラム。
  20. 前記取得部は、前記第1のセンサーデータとして第1の画像データを受け付け、前記第1の画像データから、前記対象の状況情報を取得し、
    前記解析部は、前記第2のセンサーデータとして第2の画像データを受け付け、前記第1の画像データから、前記物体の現在の状態情報と前記物体の行動予測情報とを解析する、
    請求項17乃至19のいずれか1項に記載のプログラム。
JP2020130622A 2020-07-31 2020-07-31 注意喚起システム、注意喚起方法及びプログラム Active JP7527884B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020130622A JP7527884B2 (ja) 2020-07-31 2020-07-31 注意喚起システム、注意喚起方法及びプログラム
CN202110210078.6A CN114067511A (zh) 2020-07-31 2021-02-25 注意提醒系统、注意提醒方法以及存储介质
US17/184,677 US12094201B2 (en) 2020-07-31 2021-02-25 Warning system, warning method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020130622A JP7527884B2 (ja) 2020-07-31 2020-07-31 注意喚起システム、注意喚起方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2022026925A true JP2022026925A (ja) 2022-02-10
JP7527884B2 JP7527884B2 (ja) 2024-08-05

Family

ID=80004483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020130622A Active JP7527884B2 (ja) 2020-07-31 2020-07-31 注意喚起システム、注意喚起方法及びプログラム

Country Status (3)

Country Link
US (1) US12094201B2 (ja)
JP (1) JP7527884B2 (ja)
CN (1) CN114067511A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017033047A (ja) * 2015-07-28 2017-02-09 株式会社コンピュータシステム研究所 安全管理支援装置、安全管理支援プログラムおよび記憶媒体
US10325485B1 (en) * 2018-09-11 2019-06-18 Rockwell Automation Technologies, Inc. System or process to detect, discriminate, aggregate, track, and rank safety related information in a collaborative workspace
JP2019168996A (ja) * 2018-03-23 2019-10-03 日立建機株式会社 作業車両の周囲監視システム
JP2020095617A (ja) * 2018-12-14 2020-06-18 コニカミノルタ株式会社 安全管理支援システム、および制御プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4066168B2 (ja) * 2003-03-13 2008-03-26 オムロン株式会社 侵入物監視装置
JP5227841B2 (ja) 2009-02-27 2013-07-03 日立建機株式会社 周囲監視装置
JP2011145839A (ja) 2010-01-13 2011-07-28 Nippon Steel Corp 監視システム、装置、方法及びプログラム
JP6545430B2 (ja) * 2013-03-19 2019-07-17 住友重機械工業株式会社 ショベル
US20170278362A1 (en) * 2014-09-19 2017-09-28 Nec Corporation Information processing device, information processing method, and program
JP6672076B2 (ja) * 2016-05-27 2020-03-25 株式会社東芝 情報処理装置及び移動体装置
US20180357870A1 (en) * 2017-06-07 2018-12-13 Amazon Technologies, Inc. Behavior-aware security systems and associated methods
US10007269B1 (en) * 2017-06-23 2018-06-26 Uber Technologies, Inc. Collision-avoidance system for autonomous-capable vehicle
US10974720B2 (en) * 2018-08-13 2021-04-13 Kingman Ag, Llc Vehicle sliding bumper and system for object contact detection and responsive control
KR102109155B1 (ko) 2018-08-22 2020-05-11 한국기계연구원 굴삭기 안전제어 장치 및 방법
JP7306260B2 (ja) * 2019-12-26 2023-07-11 コベルコ建機株式会社 建設機械の遠隔操縦システム
US20210279486A1 (en) * 2020-03-09 2021-09-09 Vincent Nguyen Collision avoidance and pedestrian detection systems
US11688184B2 (en) * 2020-06-17 2023-06-27 Toyota Motor Engineering & Manufacturing North America, Inc. Driving automation external communication location change

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017033047A (ja) * 2015-07-28 2017-02-09 株式会社コンピュータシステム研究所 安全管理支援装置、安全管理支援プログラムおよび記憶媒体
JP2019168996A (ja) * 2018-03-23 2019-10-03 日立建機株式会社 作業車両の周囲監視システム
US10325485B1 (en) * 2018-09-11 2019-06-18 Rockwell Automation Technologies, Inc. System or process to detect, discriminate, aggregate, track, and rank safety related information in a collaborative workspace
JP2020095617A (ja) * 2018-12-14 2020-06-18 コニカミノルタ株式会社 安全管理支援システム、および制御プログラム

Also Published As

Publication number Publication date
CN114067511A (zh) 2022-02-18
US20220036074A1 (en) 2022-02-03
US12094201B2 (en) 2024-09-17
JP7527884B2 (ja) 2024-08-05

Similar Documents

Publication Publication Date Title
JP6649306B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10846537B2 (en) Information processing device, determination device, notification system, information transmission method, and program
US10755108B2 (en) Movement state estimation device, movement state estimation method and program recording medium
CN110419048B (zh) 用于标识所定义的对象的系统
US8253564B2 (en) Predicting a future location of a moving object observed by a surveillance device
JP6551512B2 (ja) 監視システム、監視制御装置、監視方法、およびプログラム
US9946921B2 (en) Monitoring device, monitoring method and monitoring program
US11877094B2 (en) Monitoring system, monitoring method, and monitoring program
US20160063434A1 (en) Apparatus and method for early detection of abnormality
NL2020067B1 (en) System for detecting persons in an area of interest
JP2012243128A (ja) 監視装置、監視方法及び監視プログラム
CN104050785A (zh) 基于虚拟化边界与人脸识别技术的安全警戒方法
JP2011181067A (ja) 監視装置
JP2011070332A (ja) 異常検知装置
JP2022026925A (ja) 注意喚起システム、注意喚起方法及びプログラム
JP5175881B2 (ja) 監視装置
JP2020021110A (ja) 警報システム、警報制御装置及び警報方法
US11574461B2 (en) Time-series based analytics using video streams
US20230252753A1 (en) Image processing apparatus, image processing method, and storage medium
JP2020140520A (ja) 画像処理装置および画像処理方法
EP2568414A1 (en) Surveillance system and method for detecting behavior of groups of actors
WO2021199315A1 (ja) 監視装置、監視方法、および記録媒体
US20240020549A1 (en) Automatic assessment of unsupervised models via trust scoring in unsupervised edge domains
CN112233420B (zh) 一种智能交通控制系统的故障诊断的方法及装置
US20190244364A1 (en) System and Method for Detecting the Object Panic Trajectories

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240724

R150 Certificate of patent or registration of utility model

Ref document number: 7527884

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150