JP2017207877A - 行動分析装置およびプログラム - Google Patents

行動分析装置およびプログラム Download PDF

Info

Publication number
JP2017207877A
JP2017207877A JP2016099019A JP2016099019A JP2017207877A JP 2017207877 A JP2017207877 A JP 2017207877A JP 2016099019 A JP2016099019 A JP 2016099019A JP 2016099019 A JP2016099019 A JP 2016099019A JP 2017207877 A JP2017207877 A JP 2017207877A
Authority
JP
Japan
Prior art keywords
video
unit
voice
analysis
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016099019A
Other languages
English (en)
Other versions
JP6876379B2 (ja
Inventor
田中 康成
Yasunari Tanaka
康成 田中
和大 倉又
Kazuhiro Kuramata
和大 倉又
鈴木 優
Masaru Suzuki
優 鈴木
聡典 河村
Akinori Kawamura
聡典 河村
純太 浅野
Junta Asano
純太 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2016099019A priority Critical patent/JP6876379B2/ja
Publication of JP2017207877A publication Critical patent/JP2017207877A/ja
Application granted granted Critical
Publication of JP6876379B2 publication Critical patent/JP6876379B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】いじめなどといった問題に関する事象やその兆候の情報を網羅的に把握することができる行動分析装置およびプログラムを提供する。【解決手段】実施形態の行動分析装置は、映像取得部と、映像解析部と、音声取得部と、音声解析部と、総合解析部と、情報出力部とを持つ。映像取得部は、映像を取得する。映像解析部は、前記映像取得部が取得した映像に映る人を解析して映像パターンを検出する。音声取得部は、音声を取得する。音声解析部は、前記音声取得部が取得した音声に含まれる人の声を解析して音声パターンを検出する。総合解析部は、前記映像解析部によって検出された前記映像パターンと前記音声解析部によって検出された前記音声パターンとに基づいて、人の行動に関する特定の事象を検出する。情報出力部は、前記総合解析部によって検出された前記事象に関する情報を出力する。【選択図】図1

Description

本発明の実施形態は、行動分析装置およびプログラムに関する。
施設等における人間関係のトラブルを防止するため、あるいは解決するためには、人間の行動における特定の事象あるいは兆候を早期に発見することが有効であると考えられる。
従来技術において、家庭内暴力や、虐待や、いじめを未然に防ぐために、通信機器よる通報を容易に行えるシステムを提供しようとするものがある。同システムでは、音声に基づく状況分析をすることにより、危険度や異常度を判断する。また、幼児や高齢者等が文字を書くことが困難な場合に、音声認識を行って文字に変換する技術が提案されている。しかしながら、音声による分析だけでは状況の把握が不十分である可能性があった。
また、従来技術において、スマートフォン等の個人用端末装置に交友状況プログラムをインストールしておき、SNSサイト等における友人数の増減に基づいて交友状況の変化を検知する技術が存在する。しかしながら、SNSサイトにおける友人数の増減の情報は、日々のきめ細かな人の行動までを表すには不十分である場合があった。
特開2003−346256号公報 特開2015−225540号公報
本発明が解決しようとする課題は、いじめなどといった問題に関する事象やその兆候の情報を網羅的に把握することができる行動分析装置およびプログラムを提供することである。
実施形態の行動分析装置は、映像取得部と、映像解析部と、音声取得部と、音声解析部と、総合解析部と、情報出力部とを持つ。映像取得部は、映像を取得する。映像解析部は、前記映像取得部が取得した映像に映る人を解析して映像パターンを検出する。音声取得部は、音声を取得する。音声解析部は、前記音声取得部が取得した音声に含まれる人の声を解析して音声パターンを検出する。総合解析部は、前記映像解析部によって検出された前記映像パターンと前記音声解析部によって検出された前記音声パターンとに基づいて、人の行動に関する特定の事象を検出する。情報出力部は、前記総合解析部によって検出された前記事象に関する情報を出力する。
第1の実施形態の行動分析装置を適用したシステム構成例を示す図。 第1の実施形態の行動分析装置の概略機能構成を示すブロック図。 第1の実施形態の映像解析部が解析した結果の例を示す概略図。 第1の実施形態の映像解析部が解析した結果の例を示す概略図。 第1の実施形態の映像解析部が解析した結果の例を示す概略図。 第1の実施形態の総合解析部の内部の機能構成を示すブロック図。 第1の実施形態の兆候検出ルール記憶部が記憶するルールの例を示す概略図。 第1の実施形態の行動分析装置におけるユーザーの権限を設定するための権限設定テーブルの構成を示す概略図。 第1の実施形態の情報出力部が出力する情報の一例を示す概略図。
以下、実施形態の行動分析装置およびプログラムを、図面を参照して説明する。
図1は、本実施形態の行動分析装置を適用したシステム構成例を示す図であり、学校施設において本実施形態の行動分析装置を利用した例を示している。図示する例では、行動分析装置は学校施設に設置されている。なお、行動分析装置は、学校に限らず、例えば、幼稚園あるいは保育園等や、介護施設や、病院や、役所等の公的機関や、店舗や企業等、集団で利用される施設に設置され得る。行動分析装置は、学校内の教室に設けられたカメラ82で取得される映像や、マイクロフォン83で取得される音声を用いて分析する。なお、施設内(学校内)の通信手段としては例えば校内イントラネットが利用される。そして、行動分析装置は、行動分析の結果として、行動評価を推定する。図示する例では、行動分析装置は、いじめ発生の程度を推定する。具体的には、例えば、行動分析装置は、ある教室におけるいじめ発生の程度を「低」であると推定し、また他の教室におけるいじめ発生の程度を「高」であると推定する。また、行動分析装置は、分析結果の情報を出力する。具体的には、行動分析装置は、例えばインターネットを介して、分析結果を記載した電子メールを、先生や、生徒の保護者(親)などに送信する。また、行動分析装置は、インターネットを介して外部装置81と情報のやり取りを行う。ここで、外部装置81とは、例えば他の学校に設置された行動分析装置や、「学校非公式サイト」と呼ばれるウェブサイトのサーバー装置等である。なお、行動分析装置1は、インターネットを介した通信により、外部装置81との情報のやり取りを行う。
図2は、本実施形態の行動分析装置の概略機能構成を示すブロック図である。図示するように、行動分析装置1は、映像取得部11と、映像蓄積部12と、映像解析部13と、音声取得部21と、音声蓄積部22と、音声解析部23と、個人特徴記憶部31と、総合解析部32と、情報交換部41と、情報出力部42とを含んで構成される。また、行動分析装置1は、外部の複数のカメラ82から、映像を取得する。また、行動分析装置1は、外部の複数のマイクロフォン83から、音声を取得する。また、行動分析装置1は、通信ネットワーク等を介して、外部装置81との間で情報を交換する。
なお、図では2台のカメラ82のみを示しているが、設置するカメラの台数は任意であり、1台であってもよく、また3台以上であってもよい。また、図では2台のマイクロフォン83のみを示しているが、設置するマイクロフォンの本数は任意であり、1本であってもよく、また3本以上であってもよい。なお、カメラ82とマイクロフォン83とは、同じ場所にペアで設置される。また、図では1台の外部装置81のみを示しているが、行動分析装置1が情報交換する相手である外部装置は、複数であってもよい。
なお、行動分析装置1は、電子回路を用いた情報処理装置として実現される。また、行動分析装置1が。コンピューターとプログラムとを用いて実現されるようにしてもよい。また、行動分析装置1に含まれる各機能部が情報を記憶する機能を有する場合、半導体メモリーや磁気ディスク装置等を用いた記憶手段が使用される。
本実施形態として、図1に示すように行動分析装置1を学校等の施設に設置した場合を例に説明する。カメラ82とマイクロフォン83は、対として、施設内の所定の場所に設けられる。例えば、一対のカメラ82とマイクロフォン83が、教室や、体育館や、食堂や、施設内のその他のスペースに設けられる。カメラ82は設置されたスペースの映像を取得する。マイクロフォン83は設置されたスペースにおける音声を取得する。そして、行動分析装置1は、いじめなどの問題行動やその兆候を検出し、検出結果を報告することによっていじめ問題の防止を図ろうとするものである。
以下では、行動分析装置1が有する各部の機能について説明する。
映像取得部11は、外部に設けられた複数のカメラ82が撮影した映像の信号を取り込み、撮影場所や撮影時刻の情報とともに、映像蓄積部12に書き込む。
映像蓄積部12は、映像取得部11が取得した映像の情報を蓄積する。映像蓄積部12が映像を保持するために、例えば、磁気ディスク装置等の記録媒体を用いる。なお、映像蓄積部12が保持する映像は、撮影場所や撮影時刻の情報が付加された状態で蓄積される。また、映像解析部13によって行われる映像解析処理の結果である解析結果の情報を、映像に付加して蓄積するようにする。
映像解析部13は、映像蓄積部12に蓄積されている映像を解析する処理を行う。映像解析部13は、解析結果の情報を総合解析部32に渡すとともに、解析対象とした映像に付加する形で映像蓄積部12にも記録する。特に、映像解析部13は、映像内の人を解析する。つまり、映像解析部13は、映像取得部11が取得した映像に映る人を解析して映像パターンを検出する。映像解析部13が行う解析処理には様々なものがあるが、例えば、次の通りである。
映像解析部13は、映像内に映っているものや人などを認識し、抽出する。
また、映像解析部13は、個人特徴記憶部31に記憶されている個人ごとの映像上の特徴に基づいて、個人の識別処理を行う。個人識別のためには、顔や服装の特徴の情報を利用する。なお、個人識別の処理自体は、既存技術を用いて十分な精度で行うことが可能である。つまり、映像解析部13は、個人特徴記憶部31から読み出す映像に関する個人特徴に基づいて、映像に映る人の個人識別処理を行う。
また、映像解析部13は、映像内に映っている複数の人の相対的な位置関係を抽出し、人の配置に関する特定のパターンを抽出する。人の配置のパターンとは、例えば、ある人とある人との間の距離が近いあるいは遠いといったパターンや、複数の人が他の人を取り囲んでいるといったパターンや、ある人が人の集まり(クラスター)に属しているか属していないか、などといったパターンである。
また、映像解析部13は、映像内に映っている人の行動を解析する。人の行動とは、例えば、人が静止しているか移動しているか、人が真っ直ぐ移動しているか曲線的に移動しているか、人の移動の速さが速いか遅いか、といったものである。また、映像解析部13は、人の手や足や頭の動きの軌跡を解析する。また、映像解析部13は、それらの移動や手・足・頭などの動きの組み合わせから、行動種別を解析する。ここで、組み合わせによって解析される行動種別とは、例えば、人が他の人を殴っているとか、蹴っているとか、その他の攻撃を加えているなどといった行動である。
音声取得部21は、外部に設けられた複数のマイクロフォン83が取得した音声の信号を取り込み、集音場所や時刻の情報とともに音声蓄積部22に書き込む。なお、集音場所の情報は、例えば教室の番号等、マイクロフォン83が設置された場所の情報を含む。なお、マイクロフォン83は、マルチチャンネル(2チャンネルまたはそれ以上)の音声を取得するものであってもよい。
音声蓄積部22は、音声取得部21が取得した音声を蓄積する。音声蓄積部22が音声を記録するために、例えば、磁気ディスク装置等の記録媒体を用いる。なお、音声蓄積部22が保持する音声は、集音場所や時刻の情報が付加された状態で蓄積される。また、音声解析部23によって行われる音声解析処理の結果である解析結果の情報を、音声に付加して蓄積するようにする。
音声解析部23は、音声蓄積部22に蓄積されている音声を解析する処理を行う。音声解析部23は、解析結果の情報を総合解析部32に渡すとともに、解析対象とした映像に音声を付加する形で音声蓄積部22にも記録する。特に音声解析部23は、人の声を解析する。つまり、音声解析部23は、音声取得部21が取得した音声に含まれる人の声を解析して音声パターンを検出する。音声解析部23が行う解析処理には様々なものがあるが、例えば、次の通りである。
音声解析部23は、人による発話の部分を認識し、抽出する。なお、記録されている音声の中から人の発話を抽出する処理自体は、既存技術を用いて行うことができる。
また、集音のために用いられたマイクロフォン83がマルチチャンネル(2チャンネルまたはそれ以上)の音声を取得するものである場合、音声解析部23は、抽出した人の発話が行われた場所あるいは方向を特定する。なお、場所や方向は、各チャンネルにおけるその発話の音量の分布や、チャンネル間での発話の遅延を解析することなどにより特定されるものである。
また、音声解析部23は、人の発話の音量を解析する。そして、ある発話における音量が所定の閾値を超えている場合には、特に大声で発話されたものであることを示すマークを、その発話の部分に付加する。
また、音声解析部23は、抽出された発話の、周波数分布等の特徴により、発話者を識別する処理を行う。このとき、音声解析部23は、音声の個人別の特徴を表す情報を、個人特徴記憶部31から読み出して利用する。なお、音声による発話者の識別処理自体は、既存の技術を用いて行うようにする。音声による識別処理が、多数の人を完全に識別することが困難である場合にも、ある発話の発話者が誰であるかを表す尤度の情報を出力することは可能である。つまり、音声解析部23は、個人特徴記憶部31から読み出す音声に関する個人特徴に基づいて、音声に含まれる人の声の個人識別処理を行う。
また、音声解析部23は、抽出された発話の部分について、不特定話者用の認識用音声モデルのデータを用いて、音声認識処理を行う。音声認識処理自体は、既存の技術により行うことができる。音声解析部23は、音声認識処理の結果として、発話ごとの単語列のデータを出力する。このような音声認識処理を行うことにより、例えば、特定のキーワードが発話された状況を検知することができるようになる。
また、音声解析部23は、音声に基づく感情の推定を行う。この解析は、楽しく笑う声や、嘲笑の声や、泣き声や、怒り声など、表されている感情ごとの音響的特徴のモデルを予め保持しておき、実際に取得した音声をこの感情ごとのモデルに基づいて分析することにより行える。感情の推定自体は、既存の技術を用いて行うことができる。感情を推定した結果として、音声解析部23は、発話ごとの感情の尤度(例えば、「泣き声である尤度が90%である」)の情報を出力する。
個人特徴記憶部31は、映像解析処理や音声解析処理で利用可能な、個人の特徴を記憶する。個人特徴の情報は、大別すると、視覚的情報と音響的情報に分かれる。個人特徴の情報は、映像解析部13による個人識別処理や、音声解析部23による個人識別処理のために用いられる。個人の視覚的特徴は、顔の特徴や、身体の特徴や、服装の特徴を含む。個人の音響的特徴は、発話における周波数分布等の特徴を含む。
総合解析部32は、映像解析部13による映像の解析結果と、音声解析部23による音声の解析結果とに基づき、人の行動に関する総合的な解析を行い、その結果を出力する。つまり、総合解析部32は、映像解析部13によって検出された映像パターンと音声解析部23によって検出された音声パターンとに基づいて、人の行動に関する特定の事象を検出する。総合解析部32の機能の詳細については、別の図を参照しながら、後で説明する。
情報交換部41は、インターネット等の通信回線を介して、外部装置81との間で情報を交換する。外部装置81は、例えば、他の施設に設置された行動分析装置である。あるいは、外部装置81は、行動分析装置1が行う解析処理の際に使用するパラメーター等を提供するコンピューターサーバー装置である。あるいは、外部装置81は、行動分析装置1によって解析された結果の情報(人の行動に関する事象や兆候の情報等)を収集するコンピューターサーバー装置である。
なお、情報交換部41が外部からパラメーター等のデータを取得し、そのデータを総合解析部32や映像解析部13や音声解析部23が使用することにより、解析精度が向上する。また、情報交換部41が、外部装置81に対して同様のデータを提供することにより、他の行動分析装置における解析精度が向上する。
情報出力部42は、総合解析部32が検出した事象あるいは兆候を、報告のために出力する機能を有する。情報出力部42は、例えば、行動分析装置1のユーザーによって読まれることを目的とした、紙の報告書や、電子メールや、SNSのメッセージを出力する。なお、SNSとは、ソーシャル・ネットワーキング・サービス(social networking service)の略である。つまり、情報出力部42は、総合解析部32によって検出された事象に関する情報を出力する。
なお、「事象」や「兆候」を総称して「事象」と呼ぶ場合がある。
外部装置81は、行動分析装置1が情報交換を行う相手の装置である。具体的には、外部装置81は、上でも述べたように、他の施設等に設置されている別の行動分析装置や、あるいは、行動分析装置1が入出力する情報を蓄積したり提供したりするコンピューターサーバー装置である。また、外部装置81は、ウェブの形式で情報を提供するウェブサーバー装置(例えば、いわゆる、学校非公式サイトのサーバー)であってもよい。
カメラ82は、映像を撮影するためのビデオカメラである。なお、カメラ82が、静止画を撮影するためのスチルカメラであってもよい。
マイクロフォン83は、設置されている場所における音を集音して、電気信号として出力する音声信号取得手段である。
既に述べたように、カメラ82とマイクロフォン83とは原則的にペアで、所定の場所に設定される。
次に、映像解析部13による映像解析の例について説明する。
図3は、1台のカメラ82が撮影した映像を、映像解析部13が解析した結果の例を示す概略図である。同図に示す解析処理は、人の認識と個人の識別である。本例は、教室に設置されたカメラ82が撮影した教室の映像の解析結果である。映像解析部13は、映像に含まれる人を認識する。その結果、映像解析部13は、映像内に含まれる人に、A,B,Cなどといったラベルを付与する。そして、映像内において人が映っている場所に、それらのラベルを付ける。また、映像解析部13は、個人特徴記憶部31から読み出した個人特徴の情報に基づいて、個人を識別する処理を行う。その結果、映像解析部13は、ラベルと、認識結果の人を識別する情報(例えば、氏名や、個人IDなど)とを関連付ける。同図に示す例では、教室内で人が認識された箇所にラベルが表示されている。また、映像枠の外に、ラベル(A,B,C等)と個人識別情報(この例では、氏名)とが対応付けて表示されている。なお、映像解析部13は、個人識別情報を映像内の位置に関連付ける形で、保存することができる。
なお、カメラの設置場所は、教室に限られない。教室以外の必要なスペースを映すようにカメラを設置し、映像内の人の認識と個人の識別を行うようにすることもできる。
図4は、1台のカメラ82が撮影した映像を、映像解析部13が解析した結果の例を示す概略図である。同図に示す解析処理は、映像内の人と人との間の距離の把握である。本例は、教室に設置されたカメラ82が撮影した教室の映像の解析結果である。映像解析部13は、映像に含まれる人を認識するとともに、各個人を識別する。その結果、映像解析部13は、映像内に含まれる人に、A,Bなどといったラベルを付与するとともに、ラベルと個人識別情報(例えば、氏名)との対応付けを行う。そして、映像解析部13は、AおよびBとラベル付けされた人物間の距離を計測する。なお、映像解析部13は、算出された距離の情報を、この映像に付加して保存することができる。
映像内における個人間の距離の算出は、予め与えられたパラメーターに基づいて測量の手法を使って行われる。ここで、パラメーターとは、撮影対象の教室の平面図や、カメラ82の設置場所(平面視したときの位置と、床面からの高さ)や、カメラの向き(平面における向きと、俯角(または仰角))や、カメラの撮影画角である。測量の手法による距離の算出自体は、既存の技術を用いて行うことができる。また、距離算出の際、映像に含まれる特定の被写体(教室内に固定的に設置された物や、画像マーカーなど)を用いて、被写体の位置の補正を適宜行う様にしてもよい。
なお、図示する例では、画面内に2人の人物だけが映っている状況を示しているが、映像内の人数に関する制約はない。映像内の任意の2人の間の距離を計測することができる。
また、カメラの設置場所は、教室に限られない。教室以外の必要なスペースを映すようにカメラを設置し、映像内に映る人と人の間の距離を算出するようにしてもよい。
図5は、1台のカメラ82が撮影した映像を、映像解析部13が解析した結果の例を示す概略図である。同図に示す解析処理は、行動パターンの検出である。本例は、教室に設置されたカメラ82が撮影した教室の映像の解析結果である。映像解析部13は、映像に含まれる人を認識するとともに、各個人を識別する。その結果、映像解析部13は、映像内の人に、A,B,C,Dなどといったラベルを付与するとともに、ラベルと個人識別情報(例えば、氏名)との対応付けを行う。そして、映像解析部13は、予め記憶している行動パターンを参照して、解析対象の映像内に該当する行動パターンが含まれているかどうかを判定する。予め記憶されている行動パターンは、特定の人の動き方のパターンや、複数の人の相対的な位置関係のパターンや、それらの組み合わせのパターンを含む。なお、人の動きのパターンは、人の移動の軌跡や、人の手足などの動きの軌跡を表すものである。図示する例では、AとBとCがDを取り囲むというパターンが検出される。なお、映像解析部13は、検出された行動パターンの情報をこの映像に付加して保存することができる。
図6は、総合解析部32の内部の機能構成を示すブロック図である。図示するように、総合解析部32は、兆候検出ルール記憶部321と、一時パターン検出部322と、長期パターン検出部323と、検出結果蓄積部324とを含んで構成される。
兆候検出ルール記憶部321は、映像解析結果または音声解析結果に基づき、あるいはそれら両方に基づき、事象や兆候を検出するためのルールを記憶するものである。つまり、兆候検出ルール記憶部321は、映像解析部13によって検出された映像パターンの条件と音声解析部23によって検出された音声パターンの条件に基づいて事象を検出するルールを記憶するものである。
なお、兆候検出ルール記憶部321のデータの構成例については、後で説明する。
一時パターン検出部322は、映像解析部13や音声解析部23から渡される映像や音声の解析結果に基づいて、一時的なパターンを検出する機能を有する。一時パターン検出部322は、その検出結果を検出結果蓄積部324に書き込む。なお、一時パターン検出部322は、兆候検出ルール記憶部321に記憶されているルールに基づいて一時的なパターンを検出する。つまり、一時パターン検出部322は、外部から取得したパターンが兆候検出ルール記憶部321に記憶されている条件にマッチしたときに、その事象を一時的なパターンとして検出する。つまり、一時パターン検出部322は、一時点において検出された映像パターンと音声パターンに基づいて事象を検出する。
なお、一時パターン検出部322は、検出した結果を、総合解析部32の外部にも提供する。
長期パターン検出部323は、検出結果蓄積部324に蓄積されている所定のパターンの時系列に基づいて、長期的なパターンを検出する機能を有する。長期パターン検出部323は、その検出結果を検出結果蓄積部324に書き込む。長期パターン検出部323は、自らが検出結果蓄積部324に書き込んだ検出結果に基づいて、さらなる長期的なパターンを検出する場合がある。また、長期パターン検出部323が長期的なパターンを検出する際に、その時点での映像解析結果を映像解析部13から受け取って利用してもよい。また、長期パターン検出部323が長期的なパターンを検出する際に、その時点での音声解析結果を音声解析部23から受け取って利用してもよい。
なお、長期パターン検出部323は、兆候検出ルール記憶部321に記憶されているルールに基づいて長期的なパターンを検出する。つまり、長期パターン検出部323は、外部から取得したパターンや、検出結果蓄積部324に蓄積されている過去の検出結果が兆候検出ルール記憶部321に記憶されている条件にマッチしたときに、その事象を一時的なパターンとして検出する。つまり、長期パターン検出部323は、少なくとも、複数の時点に関して一時パターン検出部322によって検出された事象に基づいて、複数の時点に渡る事象を検出する。
なお、長期パターン検出部323は、検出した結果を、総合解析部32の外部にも提供する。
検出結果蓄積部324は、一時パターン検出部322や長期パターン検出部323によって検出されたパターン(事象や兆候等)を、記憶して蓄積する。
図7は、兆候検出ルール記憶部321が記憶するルールの例を示す概略図である。図示するように、兆候検出ルール記憶部321は、表形式の構造のデータを記憶する。この表は、番号、事象、映像解析手法、音声解析手法の各項目を有する。番号は、ルールごとに付与される通し番号である。事象の欄は、検出対象である兆候の名称を格納する。映像解析手法の欄は、映像解析の手法によって検出されるパターンを格納する。音声解析手法の欄は、音声解析の手法によって検出されるパターンを格納する。これら映像解析手法または音声解析手法の欄に記載されているパターンがマッチしたときに、事象の欄に記載されている事象(または兆候)が起こったことが検知される。なお、ルールとして、音声解析手法によるパターンと映像解析手法によるパターンの両方が記載されている場合には、両方のパターンがマッチしたときにその事象(または兆候)が起こったことが検知される。
なお、一時パターン検出部322や長期パターン検出部323は、兆候検出ルール記憶部321に記憶されているルールに基づいて、所定の事象(または兆候)が起こったか否かの二値の判断をするだけでなく、その尤度を判断結果として出力してもよい。
つまり、ある事象(または兆候)の前提条件が、成立したか否かの二値だけによる判断ではなく、前提条件が成立した程度に応じた尤度を、判断結果としてもよい。
また、複数の前提条件が規定されている場合、すべての前提条件が成立した場合にのみその事象(または兆候)が起こったことを判断するのではなく、複数の前提条件のうちのいくつが成立したかによって、その事象(または兆候)の尤度を計算し出力してもよい。なお、このとき、複数の前提条件のそれぞれに重みを予め付与しておいて、尤度計算に用いてもよい。
図示する例における1番のルールは、「仲間はずれ、無視」に関するルールである。このルールにおける映像解析手法による条件は、「休み時間あるいは昼食時に、高い頻度で、特定生徒がグループから孤立」というパターンである。また、このルールには音声解析手法による条件はない。
なお、総合解析部32は、映像や音声に関連付けられた時刻情報と当該施設におけるスケジュール情報(例えば、学校での時間割の情報)とを参照することにより、解析対象の映像や音声が、例えば「休み時間あるいは昼食時」のものであるかどうかを判断する。
また、このルールに規定されている「高い頻度」は、別途定められる頻度に関する閾値に基づいて判断される。
図示する例における2番のルールは、「身体への攻撃」に関するルールである。このルールにおける映像解析手法による条件は、「激しい動き、手・腕や足・脚による相手への攻撃」というパターンである。また、このルールにおける音声解析手法による条件は、「所定量以上の大声、特定キーワードの検知」というパターンである。
なお、総合解析部32は、映像に映っている人の単位時間当たりの動きの量が、一時的にでも、所定の閾値を超えるか否かによって「激しい動き」を検知する。
図示する例における3番のルールは、「嫌がらせ」に関するルールである。このルールにおける映像解析手法による条件は、「顔の表情が、泣いているあるいは困っている」というパターンである。また、このルールにおける音声解析手法による条件は、「嘲笑、泣き声、特定のキーワードの検知」というパターンである。
映像解析部13は、感情種別(泣き、笑い、怒り、困惑等)ごとに顔の表情の特徴量を予め保持しておき、映像に映る人の顔の特徴が、その感情種別にマッチする度合いに応じて、感情種別ごとの尤度を出力する。
そして、総合解析部32は、感情種別の尤度に応じて、このルールにマッチする度合いを計算する。
ここで、総合解析部32が有する長期パターン検出部323の意義について補足的に説明する。人の行動を、映像や音声で分析する場合、必ずしもその一時点の表層的特徴が、その人の感情に正確に対応しているとは限らない。例えば、上記の1番のルールにも「休み時間あるいは昼食時に、高い頻度で、特定生徒がグループから孤立」にも「高い頻度で」という条件が含まれている。これは、一時的な行動だけから把握できる意味だけではなく、長期的且つ継続的な行動パターンの傾向から読み取れる意味が重要であることを表している。
したがって、本実施形態による兆候検出ルール記憶部321は、一時点のパターンのみにヒットする条件ではなく、長期間を通したパターンにヒットする条件をルールとして記憶できるようにしている。また、本実施形態は、長期パターン検出部323を設けることにより、過去の検出結果を参照しながら兆候を発見できるようにしている。
このように、本実施形態では、映像や音声を基にした長期の傾向によって、行動を分析することが可能となっている。
図8は、行動分析装置1におけるユーザーの権限を設定するための権限設定テーブルの構成を示す概略図である。権限設定テーブルは、行動分析装置1内の記憶手段内の所定の領域に設けられる。図示するように、権限設定テーブルは、ユーザーIDと、氏名と、役職と、担当クラスと、アクセス権限の各項目を含む。なお、アクセス権限は、全校データへのアクセス権限と、担当クラスデータへのアクセス権限との情報を含む。当事者のプライバシー等を考慮して、行動分析装置1は、ユーザーに応じてデータへのアクセスを制限する。担当クラスデータとは、そのユーザーが担当しているクラスのデータである。全校データとは、各クラスのデータを含む、その学校全体のデータである。そして、図中において、アクセス権限における「〇」は、ユーザーがそのデータへのアクセス権限を有していることを意味する。また、アクセス権限における「−」は、ユーザーがそのデータへのアクセス権限を有していないことを意味する。
図示する例では、役職が「校長」、「副校長」、「教頭」である場合、そのユーザーは全校データへのアクセス権限を有している。また、役職が「教諭(担任)」である場合、そのユーザーは、全校データへのアクセス権限を有さず、自己が担当するクラスのデータのみへのアクセス権限を有している。
ユーザーは、付与されたアクセス権限の範囲内においてのみ、検出結果のデータを参照することができる。また、ユーザーは、付与されたアクセス権限の範囲内においてのみ、映像のファイルや音声のファイルを再生させることができる。行動分析装置1は、サインインしているユーザーの権限に応じて、許される情報のみをそのユーザーの端末装置に対して送信するようにする。
図9は、情報出力部42が出力する情報の一例を示す概略図である。図示する出力情報は、総合解析部32による解析結果の一つである。図示する出力情報は、宛先と、種別と、発生日時と、緊急度と、事象サマリーと、映像リンクの各項目の情報を含んでいる。なお、この出力情報は、学校内のあるクラスの教室の映像と音声を分析した結果、検出された事象に関するものである。
宛先は、この出力情報の宛先である。例えば、電子メールでこの情報が出力される場合、宛先として適切なユーザーのメールアドレスが記載される。図示する例では、宛先として「E木教諭」が記載されている。このユーザーは、事象が検出されたクラスの担任教諭である。
種別は、検出された事象(または兆候)の種別を表す。種別の名称は、兆候検出ルール記憶部321内に記憶されているものである。図示する例では、種別は「身体への攻撃」である。
発生日時は、検出された事象(または兆候)の映像や音声に関連付けられた時刻である。長期の事象(または兆候)が検出された場合には、発生日時欄には幅のある期間が記載される。
緊急度は、この出力情報の緊急度を表す区別の情報である。例えば、緊急度は、「緊急」と「推定」と「注意」の3つの区別で分類される。そして、この3つの区別においては、緊急度の大きさは、「緊急」>「推定」>「注意」の順である。例えば、「緊急」は、緊急な対応を要する(いじめ等の)行動が推定されていることを表す。また、「推定」は、緊急な対応を必要としない(いじめ等の)行動が推定されていることを表す。また、「注意」は、推定するまでには至らないが注意を要する事項、あるいは同種の注意が2日以上連続した場合には推定となる事象(または兆候)が検知されていることを表す。
事象サマリーは、検出された事象の具体的な説明文や、その事象に関わる当事者(生徒)の氏名等の識別情報を含んだサマリー情報である。当事者の識別情報は、映像解析部13による映像の個人識別処理や音声解析部23による音声の個人識別処理によって得られたものである。これらの個人識別情報は、検出された事象(または兆候)に紐づけられて記憶されているものである。つまり、情報出力部42は、事象に関して映像解析部13または音声解析部23の少なくともいずれか一方によって識別された個人識別の情報を含んだ事象サマリー情報を出力する。
映像リンクは、検出された事象の判断の基になった映像や音声の該当箇所を再生するためのリンク情報である。
本実施形態によれば、音声だけでなく、映像と音声に基づく事象を、幅広く把握することができ、問題行動(いじめなど)の防止あるいは早期発見につながる。
また、本実施形態によれば、一時点において検出された映像パターンと音声パターンに基づいて事象を検出する一時パターン検出部と、少なくとも、複数の時点に関して一時パターン検出部によって検出された事象に基づいて、複数の時点に渡る事象を検出する長期パターン検出部と、を有するため、複数の時点に渡る事象を検出することができる。
上記実施形態では、個人特徴記憶部31は、個人の視覚的特徴として、顔の特徴や、身体の特徴や、服装の特徴を含んだ特徴を記憶することとした。本変形例では、所定のタイミングで(例えば、学校における日々の最初の授業の開始時に)、この個人の視覚的特徴を更新するようにする。具体的には、施設におけるスケジュール情報(例えば、学校の時間割情報)にしたがって、日々(施設の休業日を除く)の所定の時刻に、映像取得部11が取得して映像蓄積部12に格納された情報に基づいて、映像解析部13が画像特徴を算出する。このとき、映像解析部13は、予め記憶された座席表の情報を参照することにより、映像内の位置と個人との関係を推定する。そして、映像解析部13は、算出された特徴量を、個人特徴記憶部31に書き込む。例えば、個人の顔の特徴が日々変わる度合いは小さいが、個人の服装(色や形)や髪型は、日によって大きく変わる可能性がある。また、個人の身体的特徴(身長や体型等)は、日々の変化度合いは小さいが、例えば半年単位で捉えた場合には大きく変わる可能性がある。本変形例によれば、所定のタイミングで個人の特徴のデータを更新するため、個人識別の精度をより一層上げることができる。
なお、座席表の情報は、識別され得る個人の配置の場所の範囲を表す情報である。あるいは、座席表の情報は、識別され得る複数の個人間の相対的な位置関係を表す情報である。
つまり、映像解析部13は、記憶媒体に記憶された、施設におけるスケジュール情報と、所定の場所における個人の座席表情報とを読み出す。そして、映像解析部13は、スケジュール情報によって定められる所定のタイミングにおける映像に基づき、座席表情報によって定められまたは推定される個人の識別情報に対応する個人ごとの視覚的特徴を算出する。そして、映像解析部13は、算出された前記視覚的特徴によって、個人特徴記憶部31に記憶されている映像に関する個人特徴を更新する。また、座席情報の利用は個人識別の精度向上に限らず、席替えによる人間関係の変化の傾向等の把握にも利用できる。
以上説明した少なくともひとつの実施形態によれば、映像解析部によって検出された映像パターンと音声解析部によって検出された音声パターンとに基づいて、人の行動に関する特定の事象を検出する総合解析部を持つことにより、行動における問題を防止したり、兆候を早期に発見したりすることができる。
なお、上記実施形態では、学校施設におけるカメラやマイクロフォンから取得した映像、音声に基づいた人の行動に関する特定事象の検出について、主に1つの空間(教室)を対象に説明したが、それぞれの空間(教室)における分析結果を比較することで、各クラスにおける傾向や学校全体の傾向等を把握することも可能となり、例えばクラス替えや担任配置などにも分析結果を活用することができる。
また、上記実施形態では、行動分析装置1を学校施設に適用した例で説明したが、例えば1つの施設において集団行動が行われる、幼稚園、保育園、介護施設などにも適用でき、同様に施設内における人の行動分析により、事前に問題の予兆の発見や防止することができる。
なお、上述した実施形態の行動分析装置の少なくとも一部の機能をコンピューターで実現するようにしても良い。その場合、行動分析装置の機能を実現するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピューターシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1…行動分析装置、11…映像取得部、12…映像蓄積部、13…映像解析部、21…音声取得部、22…音声蓄積部、23…音声解析部、31…個人特徴記憶部、32…総合解析部、41…情報交換部、42…情報出力部、81…外部装置、82…カメラ、83…マイクロフォン、321…兆候検出ルール記憶部(検出ルール記憶部)、322…一時パターン検出部、323…長期パターン検出部、324…検出結果蓄積部

Claims (7)

  1. 映像を取得する映像取得部と、
    前記映像取得部が取得した映像に映る人を解析して映像パターンを検出する映像解析部と、
    音声を取得する音声取得部と、
    前記音声取得部が取得した音声に含まれる人の声を解析して音声パターンを検出する音声解析部と、
    前記映像解析部によって検出された前記映像パターンと前記音声解析部によって検出された前記音声パターンとに基づいて、人の行動に関する特定の事象を検出する総合解析部と、
    前記総合解析部によって検出された前記事象に関する情報を出力する情報出力部と、
    を備える行動分析装置。
  2. 前記総合解析部は、前記映像解析部によって検出された前記映像パターンの条件と前記音声解析部によって検出された前記音声パターンの条件に基づいて事象を検出するルールを記憶する検出ルール記憶部を備え、前記検出ルール記憶部から読み出される前記ルールを参照することにより、前記映像パターンと前記音声パターンとに基づいて前記事象を検出する、
    請求項1に記載の行動分析装置。
  3. 前記総合解析部は、
    一時点において検出された前記映像パターンと前記音声パターンに基づいて前記事象を検出する一時パターン検出部と、
    少なくとも、複数の時点に関して前記一時パターン検出部によって検出された前記事象に基づいて、前記複数の時点に渡る事象を検出する長期パターン検出部と、
    を備える請求項2に記載の行動分析装置。
  4. 映像および音声に関する個人特徴を記憶する個人特徴記憶部、を備え、
    前記映像解析部は、前記個人特徴記憶部から読み出す映像に関する個人特徴に基づいて、映像に映る人の個人識別処理を行い、
    前記音声解析部は、前記個人特徴記憶部から読み出す音声に関する個人特徴に基づいて、音声に含まれる人の声の個人識別処理を行い、
    前記情報出力部は、前記事象に関して前記映像解析部または前記音声解析部の少なくともいずれか一方によって識別された個人識別の情報を含んだ、当該事象に関する情報を出力する、
    請求項1から3までのいずれか一項に記載の行動分析装置。
  5. 前記映像解析部は、記憶媒体に記憶された、施設におけるスケジュール情報と、所定の場所における個人の座席表情報とを読み出すとともに、前記スケジュール情報によって定められる所定のタイミングにおける映像に基づき、前記座席表情報によって定められまたは推定される個人の識別情報に対応する個人ごとの視覚的特徴を算出し、算出された前記視覚的特徴によって、前記個人特徴記憶部に記憶されている前記映像に関する個人特徴を更新する、
    請求項4に記載の行動分析装置。
  6. 前記行動分析装置は集団で利用される施設に設置されることを特徴とする請求項1から5までのいずれか一項に記載の行動分析装置。
  7. コンピューターを、
    映像を取得する映像取得部と、
    前記映像取得部が取得した映像に映る人を解析して映像パターンを検出する映像解析部と、
    音声を取得する音声取得部と、
    前記音声取得部が取得した音声に含まれる人の声を解析して音声パターンを検出する音声解析部と、
    前記映像解析部によって検出された前記映像パターンと前記音声解析部によって検出された前記音声パターンとに基づいて、人の行動に関する特定の事象を検出する総合解析部と、
    前記総合解析部によって検出された前記事象に関する情報を出力する情報出力部と、
    を備える行動分析装置として機能させるためのプログラム。
JP2016099019A 2016-05-17 2016-05-17 行動分析装置およびプログラム Active JP6876379B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016099019A JP6876379B2 (ja) 2016-05-17 2016-05-17 行動分析装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016099019A JP6876379B2 (ja) 2016-05-17 2016-05-17 行動分析装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2017207877A true JP2017207877A (ja) 2017-11-24
JP6876379B2 JP6876379B2 (ja) 2021-05-26

Family

ID=60415529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016099019A Active JP6876379B2 (ja) 2016-05-17 2016-05-17 行動分析装置およびプログラム

Country Status (1)

Country Link
JP (1) JP6876379B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018112831A (ja) * 2017-01-10 2018-07-19 日本電気株式会社 情報処理装置、いじめ発見方法、情報処理システム、および、コンピュータプログラム
CN108630230A (zh) * 2018-05-14 2018-10-09 哈尔滨工业大学 一种基于动作语音数据联合识别的校园霸凌检测方法
JP2020009238A (ja) * 2018-07-10 2020-01-16 富士通株式会社 ハラスメント検知プログラム、ハラスメント検知システム、及びハラスメント検知方法
CN111311981A (zh) * 2018-12-12 2020-06-19 范例 一种多数据支持的智能教室
JP2020106948A (ja) * 2018-12-26 2020-07-09 富士通株式会社 抽出プログラム、抽出方法、および、抽出装置
JP2020201577A (ja) * 2019-06-06 2020-12-17 富士通株式会社 情報処理プログラム、情報処理方法及び情報処理装置
JP2021068333A (ja) * 2019-10-26 2021-04-30 Assest株式会社 子供虐待兆候判別プログラム及びシステム
WO2022137884A1 (ja) * 2020-12-22 2022-06-30 日本電気株式会社 リスク表示装置、リスク表示方法および非一時的なコンピュータ可読媒体

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309965A (ja) * 2004-04-23 2005-11-04 Matsushita Electric Works Ltd 宅内セキュリティ装置
JP2006092396A (ja) * 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd 単独行動者及びグループ行動者検知装置
JP2008165097A (ja) * 2006-12-29 2008-07-17 Mariko Kawashima いじめ防止を目的とした音声録音装置および音声データ解析装置
JP2009246799A (ja) * 2008-03-31 2009-10-22 Secom Co Ltd 画像監視装置
JP2010128594A (ja) * 2008-11-25 2010-06-10 Sogo Keibi Hosho Co Ltd 動作検出装置および動作検出方法
JP2013131153A (ja) * 2011-12-22 2013-07-04 Welsoc Co Ltd 自律型防犯警戒システム及び自律型防犯警戒方法
JP2016035614A (ja) * 2014-08-01 2016-03-17 シャープ株式会社 機器、音声出力方法、音声出力プログラム、ネットワークシステム、サーバ、および通信機器

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309965A (ja) * 2004-04-23 2005-11-04 Matsushita Electric Works Ltd 宅内セキュリティ装置
JP2006092396A (ja) * 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd 単独行動者及びグループ行動者検知装置
JP2008165097A (ja) * 2006-12-29 2008-07-17 Mariko Kawashima いじめ防止を目的とした音声録音装置および音声データ解析装置
JP2009246799A (ja) * 2008-03-31 2009-10-22 Secom Co Ltd 画像監視装置
JP2010128594A (ja) * 2008-11-25 2010-06-10 Sogo Keibi Hosho Co Ltd 動作検出装置および動作検出方法
JP2013131153A (ja) * 2011-12-22 2013-07-04 Welsoc Co Ltd 自律型防犯警戒システム及び自律型防犯警戒方法
JP2016035614A (ja) * 2014-08-01 2016-03-17 シャープ株式会社 機器、音声出力方法、音声出力プログラム、ネットワークシステム、サーバ、および通信機器

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018112831A (ja) * 2017-01-10 2018-07-19 日本電気株式会社 情報処理装置、いじめ発見方法、情報処理システム、および、コンピュータプログラム
CN108630230A (zh) * 2018-05-14 2018-10-09 哈尔滨工业大学 一种基于动作语音数据联合识别的校园霸凌检测方法
JP2020009238A (ja) * 2018-07-10 2020-01-16 富士通株式会社 ハラスメント検知プログラム、ハラスメント検知システム、及びハラスメント検知方法
JP7155683B2 (ja) 2018-07-10 2022-10-19 富士通株式会社 ハラスメント検知プログラム、ハラスメント検知システム、及びハラスメント検知方法
CN111311981A (zh) * 2018-12-12 2020-06-19 范例 一种多数据支持的智能教室
JP2020106948A (ja) * 2018-12-26 2020-07-09 富士通株式会社 抽出プログラム、抽出方法、および、抽出装置
JP7253371B2 (ja) 2018-12-26 2023-04-06 富士通株式会社 抽出プログラム、抽出方法、および、抽出装置
JP2020201577A (ja) * 2019-06-06 2020-12-17 富士通株式会社 情報処理プログラム、情報処理方法及び情報処理装置
JP7358786B2 (ja) 2019-06-06 2023-10-11 富士通株式会社 情報処理プログラム、情報処理方法及び情報処理装置
JP2021068333A (ja) * 2019-10-26 2021-04-30 Assest株式会社 子供虐待兆候判別プログラム及びシステム
WO2022137884A1 (ja) * 2020-12-22 2022-06-30 日本電気株式会社 リスク表示装置、リスク表示方法および非一時的なコンピュータ可読媒体

Also Published As

Publication number Publication date
JP6876379B2 (ja) 2021-05-26

Similar Documents

Publication Publication Date Title
JP6876379B2 (ja) 行動分析装置およびプログラム
Tao et al. End-to-end audiovisual speech recognition system with multitask learning
US20170154293A1 (en) Customer service appraisal device, customer service appraisal system, and customer service appraisal method
JP6930126B2 (ja) 人物検出システム
CN107945625A (zh) 一种英语发音测试与评价系统
CN107924392A (zh) 基于姿势的注释
CN108229441A (zh) 一种基于图像和语音分析的课堂教学自动反馈系统和反馈方法
CN111048095A (zh) 一种语音转写方法、设备及计算机可读存储介质
CN108109445B (zh) 教学课情监控方法
CN108109446B (zh) 教学课情监控系统
Kianpisheh et al. Face recognition assistant for people with visual impairments
JP2019095552A (ja) 音声解析システム、音声解析装置、および音声解析プログラム
WO2019139101A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2016100033A (ja) 再生制御装置
Chuah et al. Smartphone based autism social alert system
JP2016177483A (ja) コミュニケーション支援装置、コミュニケーション支援方法及びプログラム
JP2024036481A (ja) ライフログ提供システムおよびライフログ提供方法
JP6425493B2 (ja) 人の発言に基づいて学習項目に対する評価レベルを推定するプログラム、装置及び方法
Guhan et al. ABC-Net: Semi-supervised multimodal GAN-based engagement detection using an affective, behavioral and cognitive model
JP7204337B2 (ja) 会議支援装置、会議支援システム、会議支援方法及びプログラム
JP4775961B2 (ja) 映像を用いた発音の推定方法
Ganesh et al. An innovative hearing-impaired assistant with sound-localisation and speech-to-text application
JP2019191718A (ja) 役務動作分析評価システム
WO2018109120A1 (en) Children monitoring system
Tao et al. Audio-Based Group Detection for Classroom Dynamics Analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200615

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210217

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210217

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210225

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210426

R150 Certificate of patent or registration of utility model

Ref document number: 6876379

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150