JP7026105B2 - サービス提供システム - Google Patents

サービス提供システム Download PDF

Info

Publication number
JP7026105B2
JP7026105B2 JP2019507630A JP2019507630A JP7026105B2 JP 7026105 B2 JP7026105 B2 JP 7026105B2 JP 2019507630 A JP2019507630 A JP 2019507630A JP 2019507630 A JP2019507630 A JP 2019507630A JP 7026105 B2 JP7026105 B2 JP 7026105B2
Authority
JP
Japan
Prior art keywords
face
feature amount
person
unit
consumer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019507630A
Other languages
English (en)
Other versions
JPWO2018173948A1 (ja
Inventor
隆史 武田
崇 三戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Publication of JPWO2018173948A1 publication Critical patent/JPWO2018173948A1/ja
Application granted granted Critical
Publication of JP7026105B2 publication Critical patent/JP7026105B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Collating Specific Patterns (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、移動可能なロボットを用いたサービス提供システムに関する。
近年、人型ロボットを介護の分野で利用することが検討されており、サービス需要者へのレクリエーションに利用された例がある。人間の感情を理解し、簡単な会話ができる人型ロボットを活用することで、更なるヒーリング効果が期待されている。
なお、本発明に関連する技術として、防犯や介護のためのロボットなどが知られる(例えば特許文献1乃至4参照。)。
国際公開第15/093382号パンフレット 特開2008-250639号公報 特開2007-156689号公報 国際公開第15/145543号パンフレット
上述したように、ロボットの介護分野への応用が試みられているが、そのほとんどが単機能であったり、その運用において職員の補助を必要としたりする。つまり、予めプログラムされた特定の機能においては、介護職員の負担軽減に役に立ってはいるが、それだけではロボットの運用コストに比べて十分な負担軽減の効果があるとは言えない。
介護施設においては、サービス需要者各個人に応じたパーソナルケアが重要であり、それが職員にとって負担になっている。たとえば、そのようなケアを実現するために、職員は教育や経験を通じて、つまり時間をかけてスキルを獲得する必要がある。また、夜間勤務も職員にとって大きな負担となり得る。夜間は限られた人数で対応する場合が多く、徘徊等の見守り業務について、負担軽減が望まれている。
本発明は、このような状況に鑑みなされたもので、上記課題を解決することを目的とする。
本発明は、移動型のロボットと、前記ロボットと協働する支援装置とを備え、複数のサービスを提供するサービス提供システムであって、前記複数のサービスの運用を管理し、所定の条件で運用するサービスを切り換えるサービス制御部と、前記ロボットに備わるカメラで撮影した前記サービスの需要者の映像をもとに、前記需要者を識別する識別部と、人物の特徴量を識別要素として記録し、前記識別部による前記需要者の識別の処理において取得した映像から得られる特徴量として、マスク又はサングラスの装着・非装着時の顔の特徴量、又は歩容解析に関する特徴量をディープラーニングによって抽出して前記識別要素に反映させた上で、前記需要者の登録を行う登録部と、前記ロボットに備わり、前記登録の際に登録操作を受け付ける入力インタフェースと、前記識別された前記需要者に応じた応答を行う応答部と、前記サービスの運用状況及び前記識別の実行結果を、所定の条件のもと、前記サービスの提供者の端末に通知する通知部と、を備え、人物毎に複数の前記特徴量が群として登録され、前記特徴量には、照合対象との間の類似度の平均値である類似推定度、又は前記群の中で当該特徴量が照合結果に寄与した割合であるヒット率、が対応して、登録日と共に登録され、前記群において、前記類似推定度又は前記ヒット率が高くなるように前記特徴量の更新動作が行われ、当該更新動作は、更新前の前記特徴量の前記類似推定度が前記類似推定度について定められた閾値以下であり、かつ更新後の前記特徴量と更新前の前記特徴量における顔の向きの差が所定の値以下である場合、又は、更新前の前記特徴量の前記ヒット率が前記ヒット率について定められた閾値以下であり、かつ更新前の前記特徴量の前記登録日から所定経過が経過している場合、において、行われる
前記需要者に関する情報を保持するパーソナルデータ保持部を備え、前記サービス制御部は、前記識別部で識別された前記需要者に関する情報を、前記パーソナルデータ保持部を参照して、前記需要者に適したサービスを提供してもよい。
本発明によると、介護等のサービスを提供する際に、サービス提供側の負担を軽減することができる。
実施形態に係る、介護サービス提供システムの構成を概略的に示した機能ブロック図である。 実施形態に係る、ロボットとサーバの構成を示す機能ブロック図である。 実施形態に係る、手動顔登録の処理のフローを説明する図である。 実施形態に係る、自動顔登録処理の概念図である。 実施形態に係る、自動顔登録のフローチャートである。 実施形態に係る、複数のアプリの切り替えによるマルチロール運用の概念図である。 実施形態に係る、図6の用途1の概略処理のフローチャートである。 実施形態に係る、図6の用途2の概略処理のフローチャートである。 実施形態に係る、図6の用途3の概略処理のフローチャートである。 実施形態に係る、介護サービス提供システムで実現する各種機能例を纏めて示すテーブルである。 実施形態に係る、「3.個人昔話語り掛け機能」の実行時のイメージ図である。 実施形態に係る、「4.個人向けリハビリ体操指導機能」の実行時のイメージ図である。 実施形態に係る、「5.個人メンタル診断機能」の実行時のイメージ図である。 実施形態に係る、「6.夜間見守り機能」の実行時のイメージ図である。 実施形態に係る、「7.夜間外出管理機能」の実行時のイメージ図である。 実施形態に係る、「10.職員教育支援機能」の実行時のイメージ図である。
次に、本発明を実施するための形態(以下、単に「実施形態」という)を、図面を参照して具体的に説明する。
本実施形態では、介護サービス等を提供するシステムにおいて、ライブ顔照合(LFM)によってロボットが各人を識別することにより、各種のアプリケーションを実行し、サービス提供側の職員の負担軽減とサービス向上(パーソナルケアの充実)の両方を同時に実現するものである。ロボットがより多くのタスクをこなすことにより、職員の負担軽減を実現する。例えば個人のスケジュール管理、メンタル管理、夜間の見守り等により負担軽減を図り、ロボットを用いたパーソナルケアをより充実させる。以下、詳細に説明する。
図1は、本実施形態の介護サービス提供システム1の構成を概略的に示した機能ブロック図である。図2は、ロボット2とサーバ4の構成を示す機能ブロック図である。
介護サービス提供システム1は、ロボット2と、ネットワーク3と、サーバ4と、情報端末5と、外部サーバ6とを有する。なお、図2では、ネットワーク3を省略して示している。
ロボット2は、例えば人型のロボットであり、介護施設やデイケアセンター等の施設内(主に館内)で、各種のサービス提供を行ったり、職員のサービス提供のサポートを行ったりする。具体的には、ロボット2は、人間との間のコミュニケーション要素に対応するインタフェース(センサ)として、顔93の向きや手91、足92等を運動させる挙動部21と、相手を撮影するカメラ22と、相手の話す声を選択的にピックアップするマイク群23と、音声を発声するスピーカ24と、タッチディスプレイ25とを備える。更に、それらを通じた相手への応答を指示制御する応答動作入力部26と、それらを通じて得られた相手の応答を、所定の形式の情報として出力する応答動作出力部27と、を備える。また各センサで得られた信号を扱いやすいデータとして出力するようなインタフェースとして、音声出力部29、音声入力部30、映像出力部31と備える。
ネットワーク3は、ロボット2、サーバ4、情報端末5及び外部サーバ6との間を通信可能に接続するものであり、例えば、無線LAN(Local Area Network)が利用できる。
サーバ4は、顔照合や、複数の業務(タスク)のプログラム(ワークフロー)などを、ロボット2のバックエンド(すなわち、支援装置)として実行する。サーバ4は、ワークフローエンジン41(以下、「WFエンジン41」と称する。)と、音声処理エンジン70と、画像処理エンジン80と、データベース部90とを備える。
音声処理エンジン70は、ノイズキャンセラ71と、音声認識部72と、特定会話エンジン73と、翻訳エンジン74とを備える。ノイズキャンセラ71は、マイク群23で取得した音声データのノイズを除去し、クリアーな音声データを音声認識部72に出力する。音声認識部72は、人の話し言葉を認識する。認識手法としては、公知の技術、例えば統計的手法や動的時間伸縮法を用いることができる。特定会話エンジン73は、ロボット2のスピーカ24から出力すべき会話(言葉)を合成し、音声データとしてロボット2へ出力する。翻訳エンジン74は、設定されている言語と異なる言語を認識する場合に、翻訳を実行する。
画像処理エンジン80は、顔検出器(#1)46aと、顔検出器(#2)46bと、顔登録部47と、顔照合部49と、人物検出部50と、人物判定部51とを備える。
データベース部90は、顔DB48と、顔照合部49とを備える。
サーバ4は、PaaS、IaaSなどのクラウドサービスの様に、データセンタなどに集約して設けられることができ、あるいは、エッジヘビーコンピューティングを実現するオンプレミスのサーバとしてもよい。またWFエンジン41は、介護サービス提供システム1を統括的に制御し、かつ、他の構成要素と協同で各種アプリケーションを実行するものであって、その一部または全部をロボット2の内部に設けることができる。
顔検出器(#1)46a、顔検出器(#2)46bは、映像出力部31から取得した画像に対して、例えばJoint Haar-like特徴のExhaustive searchで顔検出処理を行い、検出した顔の画像、その特徴量及び各種の属性を所定のフォーマットで出力する。
顔検出や識別の処理は一般的に、固定サイズ(例えば56×48画素)の画像の所定の場所に顔が位置したときに最も良く判別されるように設計されているため、出力される顔画像は、切り出し位置やスケールが注意深く選ばれることが望ましい。
出力される属性には、原画像における画像サイズや位置、顔らしさの度合い、顔向きなどが含まれうる。出力される特徴量は、Joint Haar-like特徴そのもの、或いは弱識別器の出力などが利用でき、それらに加え、実測した本人の顔の3次元プロファイルがラベル付けされたJoint Haar-like特徴量を用いて学習させた学習機械の出力を使用することができる。
このように生成された3Dモデル特徴量は、現実の顔の立体的特徴を表現しうる。あるいはこのようなハンドデザインの特徴量に代えて、DeepFaceのような畳み込みニューラルネットの最終段の出力(活性化関数で処理される前の値である)を用いてもよい。顔検出器(#1)46aは顔登録時、顔検出器(#2)46bが顔照合時の検出を担う点で異なるが、実質的には同じものであり、ロボット2の内部に備えられてもよい。
顔登録部47は、顔検出器(#1)46aからの顔特徴量を、人物IDと対応付けて顔DB48に登録する。人物IDは、新規に登録される人物に対しては新たに自動的に付与されるが、既知の人物については、その人物の人物IDを指定して登録することが求められる。また1つの人物IDに対して登録できる顔特徴量の数には上限があり、M個(例えば6個)とする。
顔特徴量は、それが抽出された画像における顔の向きによって影響されるため、登録できるM個の顔には、異なる向きの顔を適切に選ぶことが推奨されうる。これらとは別に、顔DB48は、人物ID毎に1つの代表特徴量を保持してもよい。例えば立体的特徴が利用できる場合、その成分のうち、顔向きに応じて信頼できる成分のみを寄せ集めることで、代表特徴量を合成することができる。
顔DB48は、人物ID毎に、名前(呼び名)、登録日、識別回数(照合によって一致と判断された回数)、平均スコア、最新照合日、要更新フラグ(後述)、その他の属性を対応付けて記録することができ、顔特徴量毎に、顔画像、登録日、過去の照合での類似推定度、ヒット率などを記録することができる。類似推定度とは、ある人物が(最大M個の顔特徴量のいずれかによって)識別された時に、顔特徴量毎に、照合対象との間で算出される類似度を、平均化したものである。
ヒット率とは、ある人物についての顔特徴量のセットの中で、照合結果に寄与した割合を示す。寄与した割合は、例えば、識別回数のうちその顔特徴量が最も一致していた回数の割合として定義でき、或いは、その顔特徴量を用いずに残りの(すなわち(M-1)個組の)顔特徴量だけから合成した3D顔特徴量と、全て(すなわちM個組)の顔特徴量から得られた3D顔特徴量とのマハラノビス距離として定義できる。
顔DB48はまた、更新の履歴を保持することができ、例えば自動顔登録(図3の説明で後述)で更新される前の記録を、再現可能に保持することができる。
顔照合部49は、顔検出器(#1)46aからの顔特徴量と同一人物と推定される顔特徴量を、顔DB48の中から検索して、識別された人物IDやその属性、人物の確からしさの値(スコア)などを出力する。なお顔照合部49は、顔DB48から読み出した記録を所定の人数分だけキャッシュすることができ、更新された最新照合日、平均スコア、ヒット率などの属性は適時、顔DB48に書き戻される。
また映像出力部31から取得した同じ画像から、顔照合部49による照合と、人物判定器51による類似検索が行われた場合などには、判明した人物IDが、類似検索DB52に提供され、顔DB48と類似検索DB52の間で記録の対応付けに利用される。また識別された人物IDの記録で、要更新フラグが真に設定されているときは、照合に用いた顔検出器(#1)46aからの顔特徴量と、識別された人物ID等が、類似検索DB52に仮登録される。仮登録は、人物IDによる一致検索だけが可能な様態で簡易に行われる。
本例では、顔検出器(#1)46a、顔DB48、顔照合部49によって、LFMが実現される。
人物検出器50は、映像出力部31から取得した画像に対して、人物検出処理を行う。人物検出器50は最初に、カメラ22の視野に相当する画像の中から、人物らしい領域(関心領域)を抽出するとともに追跡する。
最初の関心領域は、動きのある部分を検出するフレーム間差分法や、ステレオ視や飛行時間計測による距離画像で前景を検出する方法、ロボット2が備えるその他のセンサに支援される方法、或いは画素単位で類似する領域をグルーピングするセレクティブサーチの方法で、検出されうる。関心領域は、画像上の矩形領域として定義され、位置の類似性に基づいて、フレーム間で関心領域が関連付けられる。このとき、過度に大きい或いは小さい領域、持続性の乏しい領域は破棄される。このようにして、同一の被写体に由来する時系列画像を抽出する。
次に、人物検出器50は、関心領域の時系列画像のサイズを正規化し、色ヒストグラム、CSS(Color Self-Similarity)、HOG(Histograms of Oriented Gradients)、HOF(Histograms of Optical Flow)、DOT(Dominant Orientation Templates)、MBH(Motion Boundary Histogram)、Space Time Interest Point、Dense Trajectoryなどの特徴量を抽出する。
次に、人物検出器50は、ブースティングや多層パーセプトロン、分離型格子隠れマルコフモデルなどの学習機械によって、その特徴量が人を意味するか否かを判別する。なお、この判別は、初期の関心領域だけでなく、その位置を少しずらした複数のバージョンの関心領域についても行われることが一般的である。
そして人と判別された場合、人物検出器50は、例えばオートエンコーダを用いて、その特徴量を高々数千次元程度にまで次元圧縮し、人物特徴量として出力する。この特徴量は時系列画像から得られた時間的/空間的情報を含んでおり、顔の特徴だけでなく人の歩容などをも識別可能に表現しうる。
空間的情報に注目した場合、顔認識に特化した特徴量と異なり、眼鼻口などの個々の顔パーツの検出状況に過度に影響されないという性質がある。このため撮影環境の変化に対する耐性などにおいて、通常の顔認識とは異なる挙動を見せる。また、服装、携行物、その他人の像と一緒に映り込んだ車椅子、ベビーカー、歩行補助具なども、副次的に特徴量に取り込まれ得る。
オートエンコーダには、予めさまざまな人物の様々な動作や姿勢の画像を用いて学習させたものを用い、運用中には更新しない。次元圧縮は、オートエンコーダに限らず、部分空間法や、多次元尺度構成法(MDS)、Isomap、Locally Linear Embedding、Stochastic Neighbor Embedding、Semidefinite Embedding、Robust Euclidian Embedding、Diffusio n Map、Laplacian Eigenmapsなどの多様体学習手法が単体で或いはオートエンコーダと組合せて利用できる。多様体学習の手法を用いることで、人物特徴量空間上で、同一人物の特徴量が、他人のそれとは十分に離れたある一点に集約されやすくなる。人物特徴量は、後の距離計算を容易にするために、その軸の尺度が標準偏差などに基づいて正規化されることが望ましい。
人物判定器51は、人物検出器50からの人物特徴量を、類似検索DB52から検索が容易になるようにクラスタリング及び/又は木構造化して、類似検索DB52に登録する。クラスタのサイズは、検索において区別されるべきクラス(つまり個々の人物)より大きくても小さくてもよい。
この登録動作と平行して、人物判定器51は、人物検出器50から入力された特徴量によく類似する特徴量の登録を類似検索DB52から検索して出力する動作を行うことができる。人物特徴量は、それが人物の全身像、顔、手のどれに由来するものかを区別可能な情報や、地理的場所、時刻情報などを含むことができ、もし有用であれば、それらも参照したクラスタリングが為される。クラスタの構造はLSH(Locality Sensitive Hashing)、kd木、NAQ木、M木、CM木、PM木、k 最近傍グラフ、MLR(Multi-Layer Ring-based)インデックスなどで表現でき、2つの特徴量の類似度は、その特徴量間の距離の近さによって表現できる。距離の計量には、マンハッタン距離、ユークリッド距離、ミンコフスキー距離などの1つまたは組合せが利用できる。
類似検索DB52は、例えば非リレーショナルDBであり、クラスタに相当する複数のカラムストアと、クラスタの構造あるいはデータ間の構造を記述するグラフデータベースとを用いて実現されうる。非リレーショナルDBは通常、ロック機能やトランザクション処理を提供しないが、そのかわり高速に動作する。類似検索DB52は、サーバ2に設けられる、1つ或いは複数のフラッシュメモリデバイスに保存される。フラッシュメモリデバイスとCPUの間は、直接或いはコントローラを介して、“DDR3”メモリバス或いは4本以上のPCI Express(登録商標)バスによって接続されることが望ましい。
情報端末5は、ロボット2の運用のために介護職員などに携帯される端末(例えば、スマートフォンやタブレット端末)であり、WFエンジン41などで報知すべきと判断された情報などを表示したり、職員の操作を受付けてサーバ4に各種情報や応答を送信する。
外部サーバ6は、ビッグデータ分析や人工知能(AI)などの新しい機能を、クラウドサービスなどとして提供するサーバである。外部サーバ6は、どのような顔特徴量を組合せて用いると顔照合の精度が向上するかについて学習した学習AI部61を有する。学習のアルゴリズムとしては、例えばFactorization Machinesなどが利用できる。オンライン学習をする場合、顔DB48の更新履歴が、学習AI部61に提供されうる。
次に、顔照合を利用する上で必要となる、顔登録アプリケーションの処理動作を説明する。顔登録には、サービス需要者の人物に意識的にロボット2に対面してもらって行う手動顔登録と、会話中などにロボット2の側で既知の顔を検知すると、現在の顔を追加的に登録する自動顔登録とがある。
図3に、本実施形態における手動顔登録の処理フローを示す。この処理は、主にWFエンジン41によって実行され、サービス需要者(登録される本人)やサポート職員が、ロボット2のトーク(音声)及びタッチディスプレイ25の表示に従って所定の動作を行うことにより進行する。以後、サービス需要者を登録者(registrant)とも呼ぶ。また手動登録された顔は以後、基本画像として顔DB48に記憶される。
この処理のプログラムが開始すると、登録開始指示操作(S1)として、WFエンジン41は応答動作入力26に対して、タッチディスプレイ25に所定の表示を行うように指示するとともに、音声入力部30に対して、スピーカ24から発せられるべき音声の読上げデータを指示する。これにより、図示されるように、タッチディスプレイ25には「登録」ボタンB11が表示され、スピーカ24からは「顔認証用の顔登録を行います。登録ボタンを押して下さい。」(T1)という音声が再生される。
つづいて、登録開始処理(S2)が行われる。スタート指示操作処理(S2A)として、タッチディスプレイ25上の「登録」ボタンB11が押下されたことが、応答動作出力部27を介してWFエンジン41に伝えられるまで待機し、押下が伝えられ場合には次の顔撮影処理に進む。顔撮影通知処理(S2B)として、WFエンジン41は、図示されるように、タッチディスプレイ25に「スタート」ボタンB21を表示させ、スピーカ24に「スタートボタンを押して、私の1m前に立って下さい。3秒後に写真撮影が始まります。」(T2)という音声を再生させ、その後3秒待機する。
つぎに、顔撮影取得処理(S3)が行われる。まず、撮影実行処理(S3A)として、WFエンジン41は、カメラ22に、画像を2秒間隔で6枚撮影するように指示する。またこの間、スピーカ24に「2秒毎に6枚撮影します。6枚表示されたら1枚選んで“OK”を押してください。」(T3)という音声を再生させる。そして、画像が撮影される都度、その画像をタッチディスプレイ25に追加的に表示させる。図示では「顔1」画像B31~「顔6」画像B36が表示されて状態を示している。またWFエンジン41は、撮影された画像を順次、映像出力部31から出力させ、それを顔検出器46aに受信させ、顔検出を行わせる。画像選択処理(S3B)として、タッチディスプレイ25に「OK」ボタンB37を追加的に表示し、表示中の画像のいずれか1つを押下する操作及び「OK」ボタンB37の押下操作を待つ。
続いて、名前入力処理(S4)として、WFエンジン41は、図示されるように、タッチディスプレイ25に、選択された顔画像B41(本例では「顔3」)と、登録者名の入力欄B42と、入力するためのキーボードB43と、「OK」ボタンB44を再描画させ、また、スピーカ24に「名前をカタカナで入力して下さい。入力が終わったらOKを押してください。」(T4)という音声を再生させ、「OK」ボタンB44が押下されるまで待機する。
登録終了処理(S5)として、WFエンジン41は、図示されるように、タッチディスプレイ25に「登録終了」ボタンB51を表示させ、スピーカ24に「登録終了しました。登録終了ボタンを押して下さい。」(T5)という音声を再生させる。また、選択された顔画像を基本画像として登録する処理を、顔登録部に行わせる。その結果、選択された画像の特徴量や、入力された登録者名や、時刻や、基本画像か否かの属性などが、独自の人物IDと対応付けられて顔DBに登録される。このとき、選択されなかった5個の画像も、同一人物の非基本画像として当該人物IDと対応付けられて顔DBに登録されうる。つまり顔DBは、1人の人物に対し、所定の複数(本例では6つ)の顔を登録できる。これらを登録顔群と呼ぶ。また、登録顔の1つ1つは、照合に用いられた回数、類似推定度、識別回数(同一人物と判断された回数)などの照合の状況に関する属性を保持することができる。
図4及び図5を参照して自動顔登録処理について説明する。図4は、本実施形態における自動顔登録処理の概念図である。図5は自動顔登録のフローチャートである。
自動顔登録処理は、登録顔の登録から所定の日数が経過したり、登録者の顔照合時のスコアに低下の傾向が見られたりしたことを契機に開始され、バックグラウンドで自動的に動作する。この処理は、WFエンジン41によって実行されてもよい。本例の自動顔登録の基礎となる概念は、登録顔群の中で、相対的にヒット率の高い、或いは類似推定度の高いレコードは維持する一方、それが低いレコードは、新しい顔で更新するというものである。
例えば、図4では登録顔群400に、顔画像(1)P01~顔画像(10)P10・・・の特徴量が抽出されており、それぞれの特徴量にはヒット率(または類似推定度)が関連づけられている。図中では、各顔画像の下にヒット率(%)を示している。顔DB48には、「登録1-1」R01~「登録1-6」R06に特徴量が記録される。ここで、「登録1-1」R01には基本画像の特徴量(一般には初期登録時の特徴量)が登録される。また、「登録1-2」R02~「登録1-6」R06の5つには、上記の更新処理により自動追加される。例えば、登録顔群400において、ヒット率が上位5位(ここではヒット率91以上)の顔画像(1)P01、顔画像(6)P06、顔画像(8)P08、顔画像(9)P09、顔画像(10)P10の5つの特徴量に更新される。
図5を参照して自動顔登録処理のフローを説明する。まず、特徴量ソート処理(S11)として、自動顔登録の対象とのなる人物IDについて、各特徴量の記録を顔DB48から読出し、対応するヒット率または類似推定度でソートする。そしてヒット率または類似推定度の最も低いものから順に1つ選択する。
つぎに、更新可否判断処理(S12)として、選択された特徴量の記録が、更新されるべきか否かを判断する。それは例えば、ヒット率等がある閾値以下であり且つ登録日から所定期間以上経過していること、或いは、その記録の類似推定度がある閾値以下であり且つ顔向きの差が所定以内の他の記録があること、等の条件によって判断される。
特徴量検索処理(S13)として、更新可否判断処理(S12)において更新されるべきと判断された特徴量の記録が1つでもある場合、人物IDと同一人物と思われる画像を、類似検索DB52から検索して取り出す。その1つの方法は、類似検索DB52の中から、当該人物IDが付与されている記録を検索する方法である。類似検索DB52に記録があっても、対応する画像が保持されていない或いは保持された画像が十分に鮮明な顔画像を含んでいない場合がある。そこで、顔DB48の中の当該人物IDについての要更新フラグを「真」にセットしたのち、所定時間後などに処理を再開する。
そのようにして人物IDで検索された顔画像の数がまだ十分でない場合、類似検索処理(S14)として、人物ID以外を検索条件(キー)にして、類似検索DB52から、同一人物と推定される記録を類似検索する。キーは、当該人物IDと対応付けられている類似検索DB52中の記録の特徴量、顔DB48に保持されている当該人物の顔画像から取り出した人物特徴量などが使用できる。これらの検索結果をキーにして再度類似検索を行うことを繰り返すと、結果的に変化にとんだ十分な数の顔画像を得ることができる。これらの類似検索結果とS13の人物ID検索結果とを併せて、置換え先候補とする。
候補選択処理(S15)として、置換え先候補の内のN個(N<M)を選択するとともに、顔DB48の記録の内の維持されるべきM-N個を選択する。これは一種の組合せ最適化問題であり、最小化すべき最適化関数(評価値)は、顔照合の不正確性である。顔照合の不正確性は、例えば誤認識率と認識漏れ率の積として定義でき、或いは、本人の顔画像で顔照合したときの類似度あるいはその関数であるスコアが高いほど小さくなり、顔特徴量空間上で最も距離の近い何人かの他人との類似度等が低いほど大きくなるように設計された任意の関数で定義できる。
組合せ最適化問題の計算には、周知の分枝限定法、局所探索法、量子アニーリング、或いは数理計画問題としての解法などが利用できる。あるいは、最適解にこだわらず、局所的な悪値から抜け出したり、特異な(局所)最適値があるときに辺縁からそこへ近づけさせることができるだけでもよい。N自体も最適化の対象になり得る。
最適化関数は、定義に近似させて、M個の顔向きと顔特徴量の関数として計算でき、例えば、外部サーバ6の学習AI部61はそのような特異的な悪条件などを学習させた識別器やニューラルネットを有しており、人物判定器51等から、置換え後のM個の顔向きと顔特徴量を引き数として渡すことで、学習AI部61から関数値が出力されうる。或いはこのステップS15の処理そのものを学習AI部61が行ってもよい。特異的な悪条件は、オンライン学習が可能である。つまり実際に顔特徴量を更新した前後でのスコアの変化の内、特に有意のものを学習データとして用いることができる。
次に、本実施形態の1つの特徴である介護サービス提供システム1(ユーザ体験上ではロボット2)のマルチロール化について説明する。図6に複数のアプリの切り替えによるマルチロール運用の概念を示す。ここでは、用途1の介護、用途2のモード切替及び用途3の見守りの3つの運用について説明する。なお、図7~9はそれぞれ用途1~3の運用時の処理概要を示すフローチャートである。
用途1の介護の運用では、運用時間として当日の7:00~17:00が設定されており、声掛け・挨拶機能や出欠管理機能が実行される。例えば、介護サービス提供システム1は、朝食時に食堂に出てくる人やデイサービスに出席した人への声掛けや、スケジュール情報の通知を行う。また、出欠をとり統計管理を行う。欠席者がいれば、担当者の情報端末5にその旨を通知する。
図7のフローチャートを参照して具体的に説明する。ロボット2は、人を認識すると、サーバ4と協同して、顔の検出(S21)、顔照合(S22)を行い、登録者(registra nt)を特定する。このとき年齢や性別も判別する(S23)。WFエンジン41が処理を行い(S24)、スピーカ24やタッチディスプレイ25を用いて応答する(S25)。例えば、「おはよう、○○さん」といった挨拶や「今日は××時から体操の時間があるよ」といったスケジュール情報を連絡する。登録者を検出した場合、初回であればその登録者が出席した旨を職員の情報端末5に通知する(S26)。また、ロボット2が認識した結果は、所定のDBに集計され、必要に応じて、指定されている時刻や所定時間毎(例えば、1時間毎)に、情報端末5に通知される(S27)。
用途2のモード切換の運用では、運用時間として当日の17:00~17:30が設定されており、運用を介護から見守りに変更する処理が行われ、ロボット2は所定位置に移動する。ロボット2が所定位置に着いたら、自動的にモードが次の運用に切換処理が行われたり、情報端末5に対してモード切換の準備が整った旨が通知される。
図8のフローチャートを参照して具体的に説明する。WFエンジン41による処理が実行され(S31)、モード切換が開始する(S32)。このとき、用途3へ移行するまでのスケジュールが取得される。その後、ロボット2が所定位置に移動する(S33)。ロボット2が所定位置につくと、予めの設定に応じて所定位置に着いて直ぐに、または所定の時刻で自動的にモード切換が実行され(S34)、次の運用である用途3(見守り)が開始する(S35)。また、職員の情報端末5へ切換完了の通知がなされる。なお、モード切換は、モード切換準備完了した旨の通知を行い(S36)、職員等の指示を受けて行われてもよい。
用途3の見守りの運用では、夜間見守り機能が実行され、廊下等で徘徊している登録者を識別し、名前で声掛けしたり、検出結果を職員の情報端末5へ通知する。
図9のフローチャートを参照して具体的に説明する。ロボット2は、人を認識すると、サーバ4と協同して、顔の検出(S41)、顔照合(S42)を行い、登録者を特定する。このとき年齢や性別も判別する(S43)。WFエンジン41が処理を行い(S44)、スピーカ24やタッチディスプレイ25を用いて応答する(S45)。例えば、「○○さん、こんばんは、おでかけですか」といった挨拶を音声出力する。また、登録者を検出した場合、その旨を職員の情報端末5に通知され(S46)、また、所定のDBに集計される(S47)。このとき、情報端末5には、その登録者の登録されている写真、検出したときに撮影した画像、検出した時刻や場所等が表示される。職員は、その通知を見ることで、登録者の場所に駆けつけるといった素早い対応が可能となる。また、DBに集計された情報をもとに、以降のその登録者に対する対応を検討することが効率的・効果的となる。
このように、移動可能なロボット2を活用することで、時間帯に応じて適当な場所に移動し、スケジュール(日中・夜間)に応じて二つの運用サポートを可能にする。当然、3つ以上の運用サポートも可能である。夜間の見守り時には、従来では、所定の位置にカメラを配置してシステムを実現していたため、運用に合わせて柔軟に配置を変えたりすることはできなかった。しかし、本実施形態の介護サービス提供システム1では、スケジュールデータを与えることで自動的に時間毎の配置を行い、機能を実現することができる。
図10は介護サービス提供システム1で実現する各種機能例を纏めて示すテーブルである。ここでは、10項の機能とそれぞれの目的・動作等を示している。
「1.声掛け・挨拶機能」では、上述したように、顔認識処理等によって登録者の個人を特定し、名前で挨拶する。その際に、出欠管理を行い、例えば、食堂へ出てきた登録者の出席者を把握することで、配膳係の情報端末5へ通知し、その登録者専用のメニューを用意するといったサービスを提供できる。また、欠席している場合、職員の情報端末5にその旨を通知することで、職員は欠席の登録者の部屋に様子を確認しに行く、という対応が可能となる。出欠確認の結果は、例えば、図示しない所定の履歴DBや出欠管理DB等へ記録される。
「2.個人毎のスケジュール管理機能」では、上述したように、個人のスケジュールに基づいて、登録者へ行動を促したり、確認したりする。個人のスケジュールは、図示しないスケジュールDBに記録されている。管理項目としては、例えば、「薬を飲む時間」、「入浴時間」、「リハビリの時間」、「イベントの時間」等がある。
「3.個人昔話語り掛け機能」について、図11にその機能実行時のイメージ図を示す。この機能では、登録者の個人の生い立ち、エピソード、人間関係等のパーソナル情報がパーソナルDB53に記録されている。それらパーソナル情報から選択して会話を作成しロボット2から音声出力する。
登録者との会話では、例えば、図示のように、「○○さん、昔話をしましょうか」(T31)、「今日はどこから聞きたいですか?」(T32)、「では、高校時代のお話をしましょうね」(T33)といった、会話がなされる。パーソナルDB53には、例えば、プレゼンテーションソフトで作成したファイルを職員がアップロードし、会話時にタッチディスプレイ25に表示させたり、そのコメント欄に記載されているテキストデータを音声変換して出力するといった処理がなされてもよい。
「4.個人向けリハビリ体操指導機能」について、図12にその機能実行時のイメージ図を示す。この機能では、個人に適したメニューでリハビリを指導する。リハビリメニューの選択には、例えばパーソナルDB53に記録されている、登録者の体調に関する情報や、医師からの指導等が参照される。リハビリ履歴は、パーソナルDB53に記録され、リハビリ終了後、職員の情報端末5へ通知される。
登録者との会話では、例えば、図示のように、「○○さん、今日もリハビリ頑張りましょう」(T41)、「今日は膝の屈伸からやりましょう」(T42)、「はい、よくできました」(T43)といった、会話がなされる。
「5.個人メンタル診断機能」について、図13にその機能実行時のイメージ図を示す。この機能では、サーバ4に接続される外部のメンタル判定サーバ55が、ロボット2からの映像、具体的には個人の動き全体等を見てメンタル診断を行う。診断結果は、ロボット2からその個人に通知され、また、パーソナルDB53に記録され、さらに、職員の情報端末5へ通知される。メンタル判定項目として、「攻撃性」「ストレス」「緊張」「疑心」「安定性」「カリスマ性」「活力」「自制心」「抑圧」「神経質」等がある。これらの診断結果の組み合わせによって、「アルツハイマー」「パーキンソン病」「鬱病」「パニック障害」等の診断が可能である。画像からメンタル判断を行う技術は、近年、各種提案されており、それら公知の技術を用いることができる。
登録者との会話では、例えば、図示のように、「○○さん、おはようございます。」(T51)、「今日からメンタル診断を行います。前の席にお掛け下さい」(T52)、「はい、ありがとうございました。少しストレスがあるようですね。」(T53)といった、会話がなされる。
「6.夜間見守り機能」について、図14にその機能実行時のイメージ図を示す。この機能では、廊下等を徘徊している個人を識別し、名前で特定する。その際に、ロボット2のみでなく、監視カメラ99も併用してもよい。ある、個人の特定のたびに情報端末5へ通知してもよいし、一定時間以上経過してまた検出したら情報端末5へ通知するようにしてもよい。登録者との会話では、例えば、図示のように、「○○さん、こんばんは」(T61)といった会話がなされる。
「7.夜間外出管理機能」について、図15にその機能実行時のイメージ図を示す。この機能では、所定の管理サーバに外出許可者を登録しておき、入館ドア97から外に出ようとする個人を識別し、外出可否判定を行う。外出許可者については、入館ドア制御部98を制御して入館ドア97を開く。これは職員も含む。また、外出非許可者については、入館ドア97は開かず、職員の情報端末5へ通知する。
「8.夜間不審者検知機能」では、所定の管理サーバに不審者情報を登録しておき、入館しようとする個人を識別し、不審者登録されている場合には、ドアを開かず、情報端末5へ通知する。この機能では、ロボット2だけでなく、敷地内の監視カメラを併用してもよい。
「9.徘徊者検知機能」では、施設から外に出てしまった入居者を、ロボット2及び敷地内外の監視カメラで識別し、徘徊者を発見した場合、情報端末5に通知される。
「10.職員教育支援機能」について、図16にその機能実行時のイメージ図を示す。この機能では、ベテラン職員の代わりに、新人職員の教育を支援する。ここでは、職員は、入居者(登録者)の状況を適切に把握する必要があることから、パーソナルDB53に入居者(登録者)の各種情報が記録されて教育に利用される。また、教育カリキュラムDB54には、職員毎の教育受講履歴が記録されている。
職員「△×」との会話では、例えば、図示のように、「△×さん、今日は○○さんについて、勉強しましょう」(T101)、「○○さんは、東京都港区で1947年6月14日に三女として生まれました」といった会話がなされる。
以上説明した様に、本実施形態の介護サービス提供システム1では、介護・見守り対象者登録は、ロボット2及び付帯する操作パネル(タッチディスプレイ25)を介して会話しながら行うことができます。登録者の登録画像を基本顔とし、複数の顔をバックグランド処理側で登録することでより精度や経年変化の対応を高めることができます。
また、移動可能なロボット2を活用することで時間帯に応じて適当な場所に移動し、スケジュール(日中・夜間)に応じて複数の運用サポートを実現できます。例えば、日中は、介護者サポートのため、顔照合による声かけ・出席確認・スタッフへの通知を行い、夜間は、見守りとしての機能を実現する。従来では、それぞれの位置にカメラを配置してシステムを実現していたため、運用に合わせて柔軟に配置を変えたりすることはできなかったが、本実施形態の介護サービス提供システム1では、スケジュールデータを与えることで自動的に時間毎の配置を行い、機能を実現することができる。このように各現場に応じたサービスを提供することで、現在介護の現場で大きな課題となっている人手不足を解消し、さらに各時間毎に違うサービスの提供が行えるため、日々のスタッフ人員、対応スケジュールに合わせて柔軟な運用が可能となる。また、登録を自動化により経年変化への対応を可能とすることで、運用スタッフの負担軽減につながる。
また、本実施形態の介護サービス提供システム1は、例えば、上記各処理を実行する方法或いは装置や、そのような方法をコンピュータに実現させるためのプログラムや、当該プログラムを記録する一過性ではない有形の媒体などとして提供することもできる。
以上、本発明を実施形態をもとに説明した。この実施形態は例示であり、それらの各構成要素の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
例えば、介護サービス提供システム1では、学習AI(DL:ディープラーニング)を以下のように活用することができる。(1)顔照合時の類似性の高い照合顔付近の映像をDL側に渡し、本人推定のパーツ(要素)を増やしていく
(1a)歩容解析(歩き方解析)
(1b)マスクやサングラス着用時の顔データ(2)これらの類似性データベースを作り、顔照合に加え判定基準とすることで撮影時の環境変化への耐用性を高める。
1 介護サービス提供システム2 ロボット3 ネットワーク4 サーバ5 情報端末6 外部サーバ21 挙動部22 カメラ23 マイク群24 スピーカ25 タッチディスプレイ26 応答動作入力部27 応答動作出力部29 音声出力部30 音声入力部31 映像出力部41 WFエンジン46a 顔検出器(#1)46b 顔検出器(#2)47 顔登録部48 顔DB49 顔照合部50 人物検出部51 人物判定部52 類似検索DB53 パーソナルDB54 教育カリキュラムDB55 メンタル判定サーバ61 学習AI部70 音声処理エンジン71 ノイズキャンセラ72 音声認識部73 特定会話エンジン74 翻訳エンジン80 画像処理エンジン90 データベース部

Claims (2)

  1. 移動型のロボットと、前記ロボットと協働する支援装置とを備え、複数のサービスを提供するサービス提供システムであって、
    前記複数のサービスの運用を管理し、所定の条件で運用するサービスを切り換えるサービス制御部と、
    前記ロボットに備わるカメラで撮影した前記サービスの需要者の映像をもとに、前記需要者を識別する識別部と、
    人物の特徴量を識別要素として記録し、前記識別部による前記需要者の識別の処理において取得した映像から得られる特徴量として、マスク又はサングラスの装着・非装着時の顔の特徴量、又は歩容解析に関する特徴量をディープラーニングによって抽出して前記識別要素に反映させた上で、前記需要者の登録を行う登録部と、
    前記ロボットに備わり、前記登録の際に登録操作を受け付ける入力インタフェースと、
    前記識別された前記需要者に応じた応答を行う応答部と、
    前記サービスの運用状況及び前記識別の実行結果を、所定の条件のもと、前記サービスの提供者の端末に通知する通知部と、を備え
    人物毎に複数の前記特徴量が群として登録され、
    前記特徴量には、照合対象との間の類似度の平均値である類似推定度、又は前記群の中で当該特徴量が照合結果に寄与した割合であるヒット率、が対応して、登録日と共に登録され、
    前記群において、前記類似推定度又は前記ヒット率が高くなるように前記特徴量の更新動作が行われ、
    当該更新動作は、
    更新前の前記特徴量の前記類似推定度が前記類似推定度について定められた閾値以下であり、かつ更新後の前記特徴量と更新前の前記特徴量における顔の向きの差が所定の値以下である場合、
    又は、
    更新前の前記特徴量の前記ヒット率が前記ヒット率について定められた閾値以下であり、かつ更新前の前記特徴量の前記登録日から所定経過が経過している場合、
    において、行われる、
    ことを特徴とするサービス提供システム。
  2. 前記需要者に関する情報を保持するパーソナルデータ保持部を備え、
    前記サービス制御部は、前記識別部で識別された前記需要者に関する情報を、前記パーソナルデータ保持部を参照して、前記需要者に適したサービスを提供することを特徴とする請求項1に記載のサービス提供システム。
JP2019507630A 2017-03-24 2018-03-16 サービス提供システム Active JP7026105B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017058943 2017-03-24
JP2017058943 2017-03-24
PCT/JP2018/010443 WO2018173948A1 (ja) 2017-03-24 2018-03-16 サービス提供システム

Publications (2)

Publication Number Publication Date
JPWO2018173948A1 JPWO2018173948A1 (ja) 2020-01-16
JP7026105B2 true JP7026105B2 (ja) 2022-02-25

Family

ID=63586395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019507630A Active JP7026105B2 (ja) 2017-03-24 2018-03-16 サービス提供システム

Country Status (2)

Country Link
JP (1) JP7026105B2 (ja)
WO (1) WO2018173948A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210397188A1 (en) * 2018-11-01 2021-12-23 Sony Corporation Moving body, control method for moving body, and program
JP7054847B2 (ja) * 2019-03-04 2022-04-15 パナソニックIpマネジメント株式会社 顔認証登録装置および顔認証登録方法
JP7328173B2 (ja) * 2020-03-30 2023-08-16 株式会社日立製作所 ピッキング制御装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012078950A (ja) 2010-09-30 2012-04-19 Sogo Keibi Hosho Co Ltd 自律移動体を用いた監視システム、監視装置、自律移動体、監視方法、及び監視プログラム
JP2013065119A (ja) 2011-09-15 2013-04-11 Toshiba Corp 顔認証装置及び顔認証方法
JP2013210207A (ja) 2012-03-30 2013-10-10 Nec Corp レーダ画像の目標識別装置、目標識別方法、及び目標識別プログラム
JP2014041560A (ja) 2012-08-23 2014-03-06 Canon Inc 画像処理装置、画像処理方法
JP2015132955A (ja) 2014-01-10 2015-07-23 富士ソフト株式会社 ロボット、顔検出方法、およびコンピュータプログラム
WO2016194740A1 (ja) 2015-06-04 2016-12-08 シャープ株式会社 音声認識装置、音声認識システム、当該音声認識システムで使用される端末、および、話者識別モデルを生成するための方法
WO2017046838A1 (ja) 2015-09-14 2017-03-23 株式会社日立国際電気 特定人物検知システムおよび特定人物検知方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012078950A (ja) 2010-09-30 2012-04-19 Sogo Keibi Hosho Co Ltd 自律移動体を用いた監視システム、監視装置、自律移動体、監視方法、及び監視プログラム
JP2013065119A (ja) 2011-09-15 2013-04-11 Toshiba Corp 顔認証装置及び顔認証方法
JP2013210207A (ja) 2012-03-30 2013-10-10 Nec Corp レーダ画像の目標識別装置、目標識別方法、及び目標識別プログラム
JP2014041560A (ja) 2012-08-23 2014-03-06 Canon Inc 画像処理装置、画像処理方法
JP2015132955A (ja) 2014-01-10 2015-07-23 富士ソフト株式会社 ロボット、顔検出方法、およびコンピュータプログラム
WO2016194740A1 (ja) 2015-06-04 2016-12-08 シャープ株式会社 音声認識装置、音声認識システム、当該音声認識システムで使用される端末、および、話者識別モデルを生成するための方法
WO2017046838A1 (ja) 2015-09-14 2017-03-23 株式会社日立国際電気 特定人物検知システムおよび特定人物検知方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小笠原 啓,超高齢社会の課題に挑む 「健康寿命」を延ばせ! ロボットが強い味方に,日経ビジネス,日経BP社,2015年06月08日,第1794号,p.50-54,ISSN 0029-0491,特にp.51右欄第25行-p.52右欄第20行,p.52の上段の図

Also Published As

Publication number Publication date
JPWO2018173948A1 (ja) 2020-01-16
WO2018173948A1 (ja) 2018-09-27

Similar Documents

Publication Publication Date Title
Valstar et al. Meta-analysis of the first facial expression recognition challenge
CN110291489A (zh) 计算上高效的人类标识智能助理计算机
CN111344715B (zh) 对象识别系统和方法
CN109475294A (zh) 用于治疗精神障碍的移动和可穿戴视频捕捉和反馈平台
JP7026105B2 (ja) サービス提供システム
CN111344713A (zh) 用于对象识别的相机和图像校准
CN111095264A (zh) 对象识别系统和方法
Khatri et al. Facial expression recognition: A survey
US20230281813A1 (en) Medical device for transcription of appearances in an image to text with machine learning
US9778734B2 (en) Memory aid method using audio/video data
KR20160072621A (ko) 학습과 추론이 가능한 로봇 서비스 시스템
CN110196914A (zh) 一种将人脸信息录入数据库的方法和装置
Khowaja et al. Facial expression recognition using two-tier classification and its application to smart home automation system
KR102248706B1 (ko) 지능형 영상 분석 기술에 기반한 통합 교육 관리 시스템 및 그 방법
JP6886651B2 (ja) 行動コマンド生成システム、応答システムおよび行動コマンド生成方法
WO2019091988A1 (en) Change-aware person identification
JP7306152B2 (ja) 感情推定装置、感情推定方法、プログラム、情報提示装置、情報提示方法及び感情推定システム
Nahar et al. Twins and Similar Faces Recognition Using Geometric and Photometric Features with Transfer Learning
Meratwal et al. Multi-camera and multi-person indoor activity recognition for continuous health monitoring using long short term memory
Park et al. A study on the design and implementation of facial recognition application system
JP2005199373A (ja) コミュニケーション装置及びコミュニケーション方法
US11493959B2 (en) Wearable apparatus and methods for providing transcription and/or summary
Dhanasekaran et al. A smart digital attendance monitoring system for academic institution using machine learning techniques
JP7453192B2 (ja) ユーザの動的状態に応じて物体認識に基づく情報を提示する携帯装置、プログラム及び方法
JP6855737B2 (ja) 情報処理装置、評価システムおよびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220214

R150 Certificate of patent or registration of utility model

Ref document number: 7026105

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150