JP6781545B2 - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP6781545B2
JP6781545B2 JP2015257489A JP2015257489A JP6781545B2 JP 6781545 B2 JP6781545 B2 JP 6781545B2 JP 2015257489 A JP2015257489 A JP 2015257489A JP 2015257489 A JP2015257489 A JP 2015257489A JP 6781545 B2 JP6781545 B2 JP 6781545B2
Authority
JP
Japan
Prior art keywords
robot
unit
user
information
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015257489A
Other languages
English (en)
Other versions
JP2017119336A (ja
Inventor
信夫 大和
信夫 大和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vstone Co Ltd
Original Assignee
Vstone Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vstone Co Ltd filed Critical Vstone Co Ltd
Priority to JP2015257489A priority Critical patent/JP6781545B2/ja
Publication of JP2017119336A publication Critical patent/JP2017119336A/ja
Application granted granted Critical
Publication of JP6781545B2 publication Critical patent/JP6781545B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボット、ロボット制御方法並びにロボットプログラムに関し、特に、累積したユーザの接触情報を用いたロボット、ロボット制御方法並びにロボットプログラムに関する。
近年、ユーザとの共生を目的としたコミュニケーションロボットが普及しつつある。当該コミュニケーション図る技術として、ユーザにロボットを触れさせて、当該接触状態に基づいて所定の動作を行う技術がある。これらの技術の多くは、ユーザがロボットに接触した際にロボットが検知する物理量(例えば、荷重等)や温度等に基づいて、ロボットの動作パターンを選択し、選択した動作パターンに基づいて、ロボットが音声を発したり、手足部を動かしたりすることで会話を行う。
特許文献1には、上記接触状態の認識に関する技術が開示されている。この技術は、検出電流および検出温度に基づいて、人間が接触したか、人間以外の物が接触したかを判別する。また、当該判別結果に加え、接触時間内の接触荷重の変化及び接触位置の変化に基づいて、接触状態による状態(例えば、人間になでられた、叩かれた等)を判別する技術に関するものである。
特開2002−52489号公報
しかしながら、特許文献1の技術では、あくまで接触時間内の接触行動を判別するのみであり、ユーザの傾向や趣向までをふまえたものではなく、ユーザ個々に寄り添うパーソナライズされたロボットの提供において問題があった。また、ユーザにロボットを触れさせるきっかけとしては、一時的なものに過ぎないため、継続的にユーザとロボットとのコミュニケーションを図るきっかけにはなり得てなかった。
そこで、本発明は、上記問題に鑑みてなされたものであり、ユーザとのコミュニケーションにおいて、ユーザのロボットに対する接触からユーザごとの傾向を分析し、当該分析結果に基づいてアクションするロボット、ロボット制御方法並びにロボットプログラムを提供することを目的とする。
本発明に係るロボットは、外部からの接触を検知する触覚検知部と、検知結果に基づいて接触情報を生成する生成部と、所定の期間、接触情報を累積して記憶する記憶部と、累積した接触情報に基づいて、ユーザごとの傾向を分析する分析部と、ロボットにアクションさせるための機構を制御し、分析結果に基づいて、アクションを動的に変化させる制御部とを備える。
さらに、本発明に係るロボットは、所定領域内の対象物を撮影する撮影部をさらに備え、生成部は、撮影した対象物の画像に基づいて形状色彩情報を生成し、制御部は、ロボットの感情パターンを定義した感情パターン情報と形状色彩情報との対応付けを行い、対応付けられた感情パターン情報に基づいて、アクションを動的に変化させるものであってもよい。
さらに、本発明に係るロボットは、周囲の人や物体との距離を計測する距離感覚検知部をさらに備え、生成部は、計測した結果に基づいて距離情報を生成し、記憶部は、ユーザの性別または年齢の少なくともいずれか一つをさらに記憶し、制御部は、距離情報に加え、ユーザの性別または年齢の少なくともいずれか一つに基づいてユーザごとのパーソナルスペースを判定し、該パーソナルスペースに基づいて、アクションを動的に変化させるものであってもよい。
さらに、本発明に係るロボットは、端末に搭載されているSNSまたはメッセージングシステムの少なくともいずれか一つに係るコミュニケーション情報を取得する端末アプリケーション部をさらに備え、制御部は、コミュニケーション情報に基づいて、アクションを動的に変化させるものであってもよい。
また、本発明に係るロボットにおいて、アクションは、商品の宣伝広告のための動作を含み、ロボットは、ユーザが所有する端末から送信されたメッセージを受信する受信部と、ユーザから発せられた音声を取得する音声入力部と、ユーザの顔を撮影する撮影部と、メッセージ、取得した音声または撮影した顔の画像の少なくともいずれか一つに基づいて、宣伝広告の評価をする評価部とをさらに備えるものであってもよい。
本発明に係るロボット制御方法は、外部からの接触を検知する触覚検知ステップと、検知結果に基づいて接触情報を生成する生成ステップと、所定の期間、接触情報を累積して記憶する記憶ステップと、累積した接触情報に基づいて、ユーザごとの傾向を分析する分析ステップと、ロボットにアクションさせるための機構を制御し、分析結果に基づいて、アクションを動的に変化させる制御ステップとを備える。
本発明に係るロボットプログラムは、ロボットに搭載されるコンピュータを制御するプログラムであって、外部からの接触を検知する触覚検知機能と、検知結果に基づいて接触情報を生成する生成機能と、所定の期間、接触情報を累積して記憶する記憶機能と、累積した接触情報に基づいて、ユーザごとの傾向を分析する分析機能と、ロボットにアクションさせるための機構を制御し、分析結果に基づいて、アクションを動的に変化させる制御機能とをコンピュータにより実現させる。
本発明に係るロボットは、外部からの接触を検知する触覚検知部と、検知結果に基づいて接触情報を生成する生成部と、所定の期間、接触情報を累積して記憶する記憶部と、累積した接触情報に基づいて、ユーザごとの傾向を分析する分析部と、ロボットにアクションさせるための機構を制御し、分析結果に基づいて、アクションを動的に変化させる制御部とを備える。これらの構成により、本発明に係るロボットは、ユーザからの接触を受けることで分析したユーザごとの傾向に基づきアクションを動的に変化させることができるため、パーソナライズされたコミュニケーションを提供することができる。また、当該傾向に基づき、ロボットが動的にアクションを変化させるため、ユーザに継続的にロボットと触れることでコミュニケーションを図るきっかけを与えることができる。
本発明に係るロボット、ロボット制御方法及びロボットプログラムは、ユーザとのコミュニケーションにおいて、累積したユーザのロボットに対する接触情報に基づいてパーソナライズされたコミュニケーションを図ることができる。
ロボットシステム500の構成の一例を示すシステム図 ロボット100、サーバ200、ユーザ端末300の機能構成の例を示すブロック図 実施形態1に係るロボットの動作を説明するための模式図 実施形態2に係るロボットの動作を説明するための模式図 感情パターン情報と形状色彩情報の対応付けの一例を説明するためのデータ構成図 外部からの接触の検知からアクションを動的に変化させるロボット100の動作を示すフローチャート図 商品の宣伝広告の動作から宣伝広告の評価をするロボットの動作を示すフローチャート図
以下、本発明の一実施態様について、図面を参照しながら説明する。
<実施の形態>
<概要>
図1は、ロボットシステム500の構成の一例を示すシステム図である。
図1に示すように、ロボットシステム500は、サーバ200、ユーザの携帯端末300a、ユーザ端末300a及びロボット100を含み、サーバ100は、ネットワーク400を介して、ユーザ端末300a、ユーザ端末300bおよびロボット100と通信接続される。なお、図1において、説明を簡単にするために、サーバ200、ロボット100は1台、ユーザ端末は2台だけ示してあるが、これ以上存在してもよいことは言うまでもない。また、ユーザ端末300aの具体的な機器は、図示のように、スマートフォンに限定されず、例えば、携帯端末、タブレット端末、パーソナルコンピュータ、その他の電子機器であってもよい。さらに、ユーザ端末300bは、図示のように、デスクトップ型パソコンに限定されず、例えば、ノート型パソコン、シンクライアントシステムのクライアント機器、その他の電子機器であってもよい。なお、以下においては、特に区別の必要がない場合に、ユーザ端末を総称して、ユーザ端末300と記載する。
ユーザの携帯端末300aとロボット100は、一般的なインスタントメッセージングシステムを用いてメッセージのやり取り、いわゆるチャットを行うことができるシステムを構成する。ロボット100は、ユーザの携帯端末300aが送信したメッセージを、ネットワーク400を介して受信する。受信したメッセージに含まれるアプリケーションを指示する情報に基づき、アプリケーション131を選択し、選択したアプリケーション131に基づいて、ロボットが動作することもできる。アプリケーション131は、一例として、サーバ100にアプリケーションサーバとしての機能を備えさせ、当該アプリケーションサーバからユーザの要求に応じて、ユーザの携帯端末300aに端末アプリケーション部191として、または、ロボット100のアプリケーション131としてダウンロードおよびインストールできるため、汎用性のあるロボットの動作を実現することができる。
<構成>
以下、ロボット100、サーバ200、ユーザ端末300の構成について詳細に説明する。
図2は、サーバ200、ロボット100、ユーザ端末200の機能構成の例を示すブロック図である。なお、各部の配置においては、ロボット100、サーバ200、ユーザ端末300間で動作環境等に応じて適宜変更してもよい。例えば、ロボット100の分析部122、評価部123はサーバ200の制御部220に配置してもよい。
以下、ロボット100の機能構成の例を説明する。一例として、図2に示すように、ロボット100は、通信部110と、制御部120と、記憶部130と、触覚検知部140と、撮影部150と、音声入力部160と、音声出力部170と、距離感覚検知部180、電源部190を含んで構成される。
通信部110は、送信部111、受信部112、インタフェース113を含み、ネットワーク400を介して、ユーザの端末300、サーバ200と通信(各種データ、メッセージの送受信等)を実行する機能を有する。当該通信は有線、無線のいずれでもよく、また、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。さらに、当該通信は、セキュリティを確保するために、暗号化処理を施してもよい。
ここで、「メッセージ」とは、テキストメッセージに限らず、画像(写真、イラスト)、音声、動画等およびこれらに付帯する情報(イラストに付帯する意味情報、画像、音声、動画に付帯する日付および位置等に関する情報)が含まれる。また、メッセージには、ロボット100に対する指示情報も含まれる。ここで、「指示情報」とは、記憶部130に記憶されるアプリケーション131に対し、指示対象のアプリケーション131を指定する情報と、指定したアプリケーション131の処理を行うための入力情報(引数等)をいう。また、ここで「イラストに付帯する意味情報」とは、例えば、インスタントメッセージングシステムで用いられるスタンプ等のイラストに付与されているイラストを意味するテキスト情報をいう。ハートのイラストであった場合、当該テキスト情報は、好き、嬉しい、愛している等といったイラストから観念される意味を示した文字列となる。
また、画像には、ユーザ端末300からロボット100に送られてきた写真データを含む。写真データは、ユーザ端末300で撮影された画像あってもよいし、カメラや他の端末で撮影された画像であってもよい。また、画像や動画に付帯する日付に関する付帯情報は、画像および動画の撮影時の日付、時刻に関する情報をいう。また、位置に関する付帯情報とは、撮影時の位置情報であって、例えば、緯度及び経度情報等をいう。
送信部111は、ネットワーク400を介して、制御部120の制御に従って、各部(制御部120、記憶部130等)から伝達されたメッセージ、分析部122の分析結果、評価部123の評価結果等の各種データを、サーバ200、ユーザ端末300に送信する機能を有する。
受信部112は、ネットワーク400を介して、ユーザ端末300から送信されたメッセージを、サーバ200から送信されたロボット100の制御等のための各種データ、配布されたアプリケーションを受信し、当該メッセージに含まれるデータ、各種データ、アプリケーションを各部に伝達する機能を有する。
インタフェース113は、他の端末又は媒体と、無線又は有線による接続を行うものである。インタフェース113は、具体的には、WiFi(Wireless Fidelity)、HDMI(登録商標)(High-Definition Multimedia Interface)、USB(Universal Serial Bus)、電源コネクタ、I2C(Inter-Integrated Circuit)等の接続装置をいう。
制御部120は、ロボット100をアクションさせるための各機構、各部を制御する機能を有するプロセッサである。制御部120は、生成部121、分析部122、評価部123を含む。制御部120は、具体的には、記憶部140に記憶されているプログラムまたはアプリケーション131から出力された命令を受信し、当該命令に基づいて、各機構等を動作させるよう制御する。ここで、「各機構、各部」とは、ロボットが備える胴体部、腕部、首部、眼球部、瞼部または口部等の自由度のある駆動装置を備える駆動部や、画像や動画を撮影する撮影部、接触を検知する触覚検知部、対象物との距離感覚を検知する距離感覚検知部、音声を入力する音声入力部160、音声を出力する音声出力部170等の構造部をいう。また、ここで「アクション」とは、ロボット100の各機構、各部を動作させることをいい、商品の宣伝広告のための種々の動作を含む。
また、制御部120は、分析部122から伝達された分析結果に基づいて、ロボット100のアクションを動的に変化させる機能も有する。具体的には、例えば、制御部120は、ユーザが比較的頻繁にロボット100の手を握る傾向にあると分析した分析結果が分析部122から伝達された場合は、当該傾向に合わせたアクションとして、手で握るおもちゃや器具を提案する音声を音声出力部170から発するようロボット100にアクションさせたり、ユーザが比較的力強くロボット100を押す傾向にあると分析結果が伝達された場合には、当該傾向に合わせたアクションとして、耐強性に優れたおもちゃを提案する音声を音声出力部170から発するようロボット100にアクションさせたりすることで、ロボット100のアクションを動的に変化させることができる。これにより、ロボット100は、ユーザごとの傾向に合ったアクションをすることができるため、ユーザごとによりパーソナライズされたロボットを提供することができる。
また、制御部120は、距離情報に加え、ユーザの性別または年齢の少なくともいずれか一つに基づいて、ユーザごとのパーソナルスペースを判定する機能を有する。また、制御部120は、当該パーソナルスペースに基づいて、ロボット100のアクションを動的に変化させる機能を有する。具体的には、例えば、制御部120は、ユーザの性別が「女性」の場合、性別が「男性」の場合と比較してパーソナルスペースを広めに(例えば、後述するパーソナルスペースの(1)密接距離ア.近接相の最小値0cmを男性、最大値15cmを女性として広めに設定する等)判定し、当該判定結果に基づいてロボット100の脚部を動作させ、距離感覚検知部180と連動して、当該判定したパーソナルスペースに合わせた距離をとるようにロボット100を移動させることができる。これにより、ロボット100はユーザが快適に感じる距離感を保ってコミュニケーションを図ることができ、よりユーザに寄り添ったパーソナライズされたロボットを提供することができる。
ここで、「パーソナルスペース」とは、他人に近付かれると不快に感じる空間、パーソナルエリアをいい、典型的には、(1)密接距離ごく親しい人に許される空間として、ア.近接相(0?15cm)抱きしめられる距離。イ.遠方相(15?45cm)頭や腰、脚が簡単に触れ合うことはないが、手で相手に触れるくらいの距離(2)個体距離相手の表情が読み取れる空間。ア.近接相(45?75cm)相手を捕まえられる距離。イ.遠方相(75?120cm)両方が手を伸ばせば指先が触れあうことができる距離。(3)社会距離相手に手は届きづらいが、容易に会話ができる空間。ア.近接相(1.2?2m)知らない人同士が会話をしたり、商談したりする場合に用いられる距離。イ.遠方相(2?3.5m)公式な商談で用いられる距離。(4)公共距離複数の相手が見渡せる空間。ア.近接相(3.5?7m)2者の関係が個人的なものではなく、講演者と聴衆と言うような場合の距離。イ.遠方相(7m以上)一般人が社会的な要職にある人物と面会するような場合におかれる距離。といったように設定することができる。
また、制御部120は、コミュニケーション情報に基づいて、ロボット100のアクションを動的に変化させる機能を有する。ここで、「コミュニケーション情報」とは、ユーザ端末300に搭載したSNS、メッセージングシステム等に登録するユーザ情報、ユーザの友達情報、ユーザ端末300から発信した所定の期間のメッセージ(SNSへの投稿情報なども含む)の履歴情報等をいう。具体的には、例えば、制御部120は、
ユーザ端末300の端末アプリケーション部341から伝達されたコミュニケーション情報として、図4に示すように「○○に行ってきました〜!ステーキ、美味しい」といった投稿情報を伝達された場合、当該投稿情報を解析して、ステーキの味やボリュームの感想を聞くような「ステーキ、どんな味だった?ボリューム満点?」といった発話内容を生成し、音声を音声出力部170から発するようロボット100にアクションをさせることができる。なお、投稿情報を含めたメッセージ、メッセージ履歴情報の解析には、言語情報処理として形態素に分解して解析する形態素解析を用いることができる。これにより、ユーザの承認欲求(他の人や生き物から「褒められたい」「認められたい」欲求、本能など)を満たすことができ、よりユーザに密着したロボットを提供することができる。
また、制御部120は、感情パターン情報と形状色彩情報との対応付けを行い、当該対応付けられた感情パターン情報に基づいて、アクションを動的に変化させる機能を有する。ここで、「感情パターン情報」とは、ロボット100のアクションで表現する感情のパターン(例えば、嬉しい、怒り、悲しい、楽しい、驚き、リラックス等)を予め定義し、記憶部130に記憶した情報をいう。これにより、対象物の形状や色彩に反応する感情のバリエーションを持ったロボットを提供できるため、ユーザにとって趣向性の高いロボットを提供することができる。
生成部121は、各部が検知、撮影、計測等したデータに基づいて、他の部で処理するための情報を生成する機能を有する。例えば、生成部121は、外部からの接触を検知した結果に基づいて、接触情報を生成することができる。具体的には、生成部121は、触覚検知部140から伝達された接触の圧力、人間等が自然に放射する赤外線による温度変化等を検知した結果に基づいて、または、当該検知した結果と記憶部130に記憶する所定の期間累積した検知した結果に基づいて、接触情報を生成する。ここで、「接触情報」とは、(1)接触位置(例えば、ロボットの腕部の末端に配置した触覚検知部140が接触を検知した場合であれば、「手」と位置する等)、(2)接触量(所定の期間における累積した接触検知回数、接触頻度(年月日単位での接触検知回数)、累積接触時間、所定期間における平均接触時間(時分秒/年月日単位))、(3)接触時の圧力量(Pa、kgf/m2)、(4)接触時の温度変化量(℃)等の情報をいう。生成部121は、生成した接触情報を制御部120に伝達する。
また、生成部121は、撮影部150から伝達された撮影した結果(画像)に基づいて、画像認識を行い、形状色彩情報を生成する。画像認識については、例えば、パターンマッチング、統計的識別法、構造識別法等を用いればよい。ここで、「形状色彩情報」は、撮影対象物の形状情報と色彩情報から構成される。具体的には、例えば、生成部121は、当該撮影した画像の特徴量(形状特徴量、濃淡特徴量)を抽出し、当該特徴量からパターンマッチング等を用いて物体の形状を推定し、形状情報を生成することができる。また、生成部121は、例えば、(1)画像の各ピクセルをRGB(Red Green Blue)空間に写像する。(2)ピクセルの分布範囲が最も広いRGBのいずれかの軸を対象に、ピクセル数が等分になるように空間を分割する。(3)分割された空間のうち、最もピクセルの分布範囲が大きい軸を持つ空間を次の分割対象とする。(2)〜(3)を繰り返して、必要な個数までRGB空間を分割する。(4)分割された部分空間毎に、その部分空間に含まれるピクセルの平均色を出すことで、色彩情報を生成することができる。生成部121は、生成した形状色彩情報を制御部120に伝達する。
さらに、生成部121は、距離感覚検知部180が周囲の人や物体とロボット100の距離などを計測した結果に基づいて距離情報を生成する。具体的には、例えば、生成部121は、距離感覚検知部180から伝達された距離、人や対象物との距離を計測した結果に基づいて、または、当該計測した結果と記憶部130に記憶する所定の期間累積した計測した結果に基づいて、距離情報を生成する。ここで、「距離情報」とは、(1)最新の人や対象物ごとの距離(cm、m)、(2)所定の期間累積した距離データ群(cm、m)、(3)所定の期間の累積した距離の平均の距離(cm、m)等の情報をいう。生成部121は、生成した距離情報を制御部120に伝達する。
分析部122は、生成部121から伝達された累積した接触情報等に基づいて、ユーザごとの傾向を分析する機能を有する。具体的には、例えば、分析部122は、過去に累積してきた接触情報、ユーザ情報(ユーザの特性等)から比例関係、相関関係等を構築し、当該関係を基にユーザを傾向付けることができる。また、例えば、分析部122は、クラスター分析を使って接触情報を分類し、分類した結果と所定の基準に基づいてユーザの傾向を分析することもできる。分析部122は、当該分析した結果を制御部120に伝達する。
評価部123は、メッセージ、取得した音声または撮影した顔の画像の少なくともいずれか一つに基づいて、宣伝広告の評価をする機能を有する。具体的には、例えば、評価部123は、記憶部130にメッセージ、音声、ユーザの顔の画像から抽出される特徴量と商品の宣伝広告評価の対応付けを予め記憶し、受信部112、音声入力部160、撮影部150等から伝達された特徴量を検索キーとして当該対応付けから該当する特徴量を検索し、当該検索の結果、該当する特徴量が見つかった場合は、当該該当する特徴量に対応付けられている商品の宣伝広告の評価を取得することで商品の宣伝広告の評価をすることができる。また、評価部123は、例えば機械学習(過去のロボット100とユーザのやり取りを教師データとする教師あり学習)を用いて、商品の宣伝広告の評価を得ることもできる。評価部123は、当該評価結果をサーバ200に送信するよう、送信部111に伝達することもできる。サーバ200は、ロボット100に送信された当該評価結果を、サーバ200と連携する商品を販売等行う企業サーバに連携することもできる。これにより、企業側が商品に対する評価や宣伝広告の効果を簡易に、ユーザの本音に近い内容で得ることができ、企業戦略等に利用する情報をフィードバックするロボットを提供することができる。
記憶部130は、ロボット100が動作、制御するうえで必要とする各種プログラム、データ、パラメータを記憶する機能を有する。また、記憶部130は、アプリケーション131、ユーザ情報、接触情報、距離情報、感情パターン情報と形状色彩情報との対応付け等を記憶することができる。また、記憶部130は、接触情報、距離情報を、所定の期間累積して記憶することができる。当該所定の期間は、最初にロボット100に電源が入ったときから電源が落ちるまでの期間としてもよいし、予め数日、1ヶ月、数カ月、1年、数年等の定めた期間としてもいいし、記憶部130の記憶容量に従って設定する期間としてもよい。記憶部130は、典型的には、HDD(Hard Disc Drive)、SSD(Solid State Drive)、フラッシュメモリ(SD(Secure Digital)メモリーカード)等各種の記録媒体により実現される。ここで、「ユーザ情報」とは、ユーザの顔画像、氏名、性別、年齢、住所、職業、特性(趣味、癖、趣向)等のユーザに関する諸情報をいう。
アプリケーション131は、受信部112がサーバ200、ユーザ端末300から受信したメッセージに含まれる指示情報に基づいて、ロボット100を動作させるための処理を行い、制御部120に命令を出力する。なお、図2において、説明を簡単にするためにアプリケーション131は2つだけ示してあるが、これ以上存在してもよいことは言うまでもない。
また、アプリケーション131は、サーバ100のアプリマーケットサーバに登録されているアプリケーションとしてもよい。アプリマーケットサーバは、アプリケーションの流通を目的としたオンラインサービスを提供する。アプリマーケットサーバは、具体的には、開発者が作成したアプリケーションを登録することができ、登録されたアプリケーションをユーザの要求に応じて、ロボット100にダウンロードすることができる。アプリマーケットサーバのオンラインサービスの利用の料金体系は、ダウンロード毎の課金制にしてもよいし、定額制にしてもよい。
触覚検知部140は、外部からの接触を検知する機能を有する。典型的には、触覚検知部140は、感圧センサ、感熱センサ、温度センサ等で実現してもよい。具体的には、例えば、触覚検知部140は、接触の圧力、人や動物等が自然に放射する赤外線による温度変化等を検知する。触覚検知部140は、当該検知した結果を生成部121に伝達する。触覚検知部140は、一例として(1)接触位置(例えば、ロボットの腕部の末端に配置した触覚検知部140が接触を検知した場合であれば、「手」と位置する等)、(2)接触量(接触検知回数、接触時間(時分秒/年月日単位))、(3)接触時の圧力量(Pa、kgf/m2)、(4)接触時の温度変化量(℃)を検知する。また、触覚検知部140は、当該検知の際の日時情報を検知結果に含めてもよい。触覚検知部140は、当該検知した結果を、生成部121に伝達する。なお、触覚検知部140は、図2において、頭部と腕部の末端と脚部の末端の5つ配置しているが、配置箇所および個数においてはこれに限られないことは言うまでもない。
撮影部150は、ロボット100がレンズ越しに捉えている周囲の人又は景色等の静止画または動画を記録することで撮影する機能を有する。具体的には、例えば、撮影部150は、ロボット100を基準として所定領域内の対象物(例えば、ユーザの顔など)を撮影することができる。撮像部150は、CCD(Charge-Coupled Device)イメージセンサまたはCMOS(Complementary MOS)イメージセンサにより光信号を電気信号に変換することで画像を取得するものである。撮像部150は、デジタルカメラと同様の機能を有する。
音声入力部160は、ロボット100がユーザの発声する音声を初めとした周囲の音を取得する機能を有する。音声入力部160は、具体的には、モノラルマイク又はステレオマイク等により実現される。
音声出力部170は、ロボット100が音声を出力する機能を有する。当該音声は、音声合成による音声出力であっても、声優が吹き込んだ音声による音声出力であってもよい。
距離感覚検知部180は、周囲の人や物体との距離を計測する機能を有する。距離感覚検知部180は、典型的には、超音波センサ、赤外線センサ、近接センサ、変位センサ等により実現される。具体的には、例えば、距離感覚検知部180は、撮影部150が撮影した画像から、画像認識により周囲の人や物体の中からユーザ等の対象物を特定し、当該特定したユーザ等の対象物に向けて超音波を発信し、その反射波を受波器で受信することにより、超音波の発信から受信までに要した時間と音速との関係を演算することでセンサからユーザ等の対象物までの距離を算出し、対象物の有無や対象物までの距離を計測することができる。距離感覚検知部180は、当該計測した結果を生成部121に伝達する。
電源部190は、ロボット100の電気を供給するものである。ユーザ端末300aを保持したユーザが、ロボット100に近付くと、ロボット100のインタフェース113が、ユーザ端末300a、または、ユーザ端末300aの端末アプリケーション部341から発せられる無線通信信号を受信し、電源部190が、自動で電源のオンを行うようにしてもよい。
以上が、ロボット100の機能構成の例の説明である。
以下、サーバ200の機能構成の例を説明する。一例として、図2に示すように、サーバ200は、通信部210と、制御部220と、記憶部230とを含んで構成される。
通信部210は、送信部211、受信部212を含み、ネットワーク400を介して、ロボット100、ユーザの端末300と通信(各種データ、メッセージの送受信等)を実行する機能を有する。当該通信は有線、無線のいずれでもよく、また、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。
受信部211は、ネットワーク400を介して、ユーザ端末300から送信されたメッセージを、ロボット100から送信された分析結果や評価結果等の各種データを受信し、当該メッセージに含まれるデータ、各種データを各部に伝達する機能を有する。
送信部212は、ネットワーク400を介して、制御部220の制御に従って、各部(制御部220、記憶部230等)から伝達されたメッセージ、データ、アプリケーションを、ロボット100およびユーザ端末300に送信する機能を有する。
制御部220は、サーバ200の各部を制御する機能を有するプロセッサである。
記憶部230は、サーバ200が動作するうえで必要とする各種プログラム、データおよびパラメータを記憶する機能を有する。具体的には、例えば、記憶部230は、ロボット100から受信した分析結果情報や評価情報等を記憶する。記憶部230は、典型的には、HDD(Hard Disc Drive)、SSD(Solid State Drive)、フラッシュメモリ等各種の記録媒体により実現される。
以上がサーバ200の機能構成の例の説明である。
以下、ユーザ端末300の機能構成の例を説明する。一例として、図2に示すように、ユーザ端末300は、通信部310と、制御部320と、表示部330と、記憶部340とを含んで構成される。
通信部310は、受信部311、送信部312を含み、ネットワーク400を介して、ロボット100、サーバ200と通信(各種データ、メッセージの送受信等)を実行する機能を有する。当該通信は有線、無線のいずれでもよく、また、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。
受信部311は、ネットワーク400を介して、制御部320の制御に従って、ロボット100から送信されたメッセージ、生成した各種情報、分析結果や評価結果等の各種データを、また、サーバ100から送信された制御等のための各種データ、アプリケーションを受信し、当該メッセージに含まれるデータ、各種データ、アプリケーションを各部に伝達する機能を有する。
送信部312は、ネットワーク400を介して、制御部320の制御に従って、各部(制御部320、表示部330、記憶部340等)から伝達されたメッセージ、データ、アプリケーションを、ロボット100、サーバ200に送信する機能を有する。
制御部320は、ユーザ端末300の各部を制御する機能を有するプロセッサである。
表示部330は、制御部320の制御に従い、ロボット100、サーバ200から送信された表示情報等を表示する機能を有するモニタである。典型的には、例えば、LCD(Liquid Crystal Display)ディスプレイ、LED(Light Emitting Diode)ディスプレイ、OLED(Organic Light Emitting Diode)ディスプレイ等を用いればよい。また、表示部330は、ユーザからの入力を受け付ける機能を有する。典型的には、タッチパネル等のソフトキーあるいはハードキーにより実現される。
記憶部340は、サーバ200が動作するうえで必要とする各種プログラム、データおよびパラメータを記憶する機能を有する。具体的には、例えば、記憶部340は、ロボット100から受信した分析結果情報、評価情報等を記憶する。記憶部340は、典型的には、HDD(Hard Disc Drive)、SSD(Solid State Drive)、フラッシュメモリ等各種の記録媒体により実現される。また、記憶部340は、端末アプリケーション部341を含んで構成してもよい。
端末アプリケーション部341は、ロボット100とユーザ端末300を連携するための機能を有する。端末アプリケーション部341は、受信部312がサーバ200から受信したメッセージに含まれる指示情報に基づいて、ユーザ端末300を動作させるための処理を行い、制御部320に命令を出力する。また、端末アプリケーション部341は、ユーザ端末300の記憶部130に記憶されているコミュニケーション情報を取得し、当該コミュニケーション情報をロボット100の制御部120に伝達するよう、送信部312からコミュニケーション情報をロボット100に送信することができる。なお、図2において、説明を簡単にするために端末アプリケーション部341は2つだけ示してあるが、これ以上存在してもよいことは言うまでもない。
端末アプリケーション部341は、ユーザ端末に搭載されているSNS(Social Networking Service)、メッセージングシステムに係るコミュニケーション情報を取得し、当該コミュニケーション情報をロボット100、サーバ200に送信するために、送信部312に伝達する。
また、端末アプリケーション部341は、サーバ100のアプリマーケットサーバに登録されているアプリケーションでもある。アプリマーケットサーバは、アプリケーションの流通を目的としたオンラインサービスを提供する。アプリマーケットサーバは、具体的には、開発者が作成したアプリケーションを登録することができ、登録されたアプリケーションをユーザの要求に応じて、ロボット100にダウンロードすることができる。アプリマーケットサーバのオンラインサービスの利用の料金体系は、ダウンロード毎の課金制にしてもよいし、定額制にしてもよい。
以上が、ユーザ端末300の機能構成の例の説明である。
次に、本実施形態に係るロボット100のユーザとのコミュニケーション時のアクションの一態様について、図3および図4を用いて説明する。
<実施形態1>
図3は、実施形態1に係るロボットのアクションを説明するための模式図である。具体的には、図3は、ユーザ(左記の人物:母親、右記の人物:子供)とロボット100の会話における、ロボット100のアクションの一例を示す図である。図3に示すように、一例として、子供がロボット100の手を握る接触をした際に、当該手に配置した触覚検知部140は当該接触において(1)接触位置、(2)接触量(接触回数、接触時間)、(3)接触時の応力量(kgf/m2)を検知する。生成部121は、当該検知した結果に基づいて、例えば、(1)接触位置を「手」、(2)接触量(検知した回数とこれまで累積した接触回数と合わせて算出した一日当たりの接触頻度:5〜6回/日、接触時間:平均2〜3分)、(3)接触時の応力の力量(○○kg)を含めた接触情報を生成する。分析部122は、当該接触情報に基づいて、例えば、子供は比較的手を頻繁に握るとの傾向を分析する。制御部120は、当該分析結果に基づいて、母親に1.「手を良く握るので、こんなおもちゃはいかがでしょうか」といった音声を音声出力部170から発し、ロボット100は、握りやすい形状のぬいぐるみを購入する提案をするアクションをする。この時、当該提案は、おもちゃ商品の宣伝広告を兼ねることもできる。これにより、子供のユーザの傾向に合ったアクションをするロボットを提供することができる。また、このようなアクションをすることで、ロボットとユーザの接触を促し、接触回数を増やすことで、よりユーザとロボットが密接した関係を築くことができる。さらに、企業がユーザの傾向に合致した商品の宣伝広告の機会を得ることもできる。
また、このような提案を受けた母親のユーザが、例えば2.A.「いいわね!」または2.B.「う〜ん。検討させてもらうわ」と反応し、その時の母親のユーザが発した音声を音声入力部160が取得した場合、評価部123は、当該取得した音声に基づいて、提案に兼ねて宣伝広告したおもちゃ商品に対する評価をすることができる。当該評価は、商品を販売等する企業にサーバ100から送信することで連携することができる。これにより、商品に対する評価や宣伝広告の効果を企業側が得ることができ、企業戦略等にフィードバックすることができる。ロボット100は、2.A.に対しては、3.A.「ありがとうございます!早速注文します。」と、2.B.に対しては、3.B.「ぜひ検討してみてください。と音声出力部170から音声を発することで、母親のユーザに反応に対して動的にアクションを変化させることができる。これにより、母親のユーザの反応に合ったアクションをするロボットを提供することができる。
また、ロボット100は、図3に示すように、例えば母親のユーザであればその年齢に合わせてパーソナルスペースを広めになるよう(□□cm)、また、子供のユーザであればその年齢に合わせてパーソナルスペースが狭くなるよう(△△cm)移動し、ユーザとの距離をとることができる。具体的には、距離感覚検知部180が対象のユーザとの距離を計測し、当該計測結果に記憶部130に記憶するユーザの性別、年齢等を加えて、これらに基づいて、パーソナルスペースを判定し、判定したパーソナルスペースに従い、ロボット100は脚部等を動かして、対象のユーザとの距離をとるよう移動する。これにより、ユーザに快適な距離感でロボット100はコミュニケーションを図ることができるため、より快適性の高いロボットを提供することができる。
<実施形態2>
図4は、実施形態2に係るロボットのアクションを説明するための模式図である。具体的には、図4、ユーザ(女性)とロボット100の会話における、ロボット100のアクションの一例を示す図である。ロボット100は、ユーザが利用するSNSと連携し、1ユーザとして参加することができる。図4に示すように、ロボット100は、ユーザの投稿に対して「いいね!」といったような肯定する操作をし、また、当該投稿に対してコメントを投稿することもできる。これにより、ユーザは承認欲求をロボットにより満たすことができ、よりユーザに密接したロボットを提供することができる。また、ロボット100は、ユーザがSNS等に投稿したメッセージ履歴情報に基づいて、アクションをすることができる。具体的には、一例として、図4に示すように、ユーザ端末300に保存されている「○○に行ってきました〜!ステーキ、美味しい!」と発言した投稿したメッセージ履歴情報を端末アプリケーション部341が取得し、当該取得したメッセージ履歴情報(例えば、メッセージ内のテキスト、画像、動画、メッセージの送信日時等の情報等)をロボット100に送信部312から送信する。送信されたメッセージ履歴情報を受信部112が受信する。当該受信したメッセージ履歴情報に基づいて制御部120は、メッセージ履歴情報の内容に基づいて、音声出力部170に「ステーキ、どんな味だった?ボリューム満点?」といった音声を出力するよう制御することで、ロボット100にアクションさせることができる。これにより、よりユーザの生活に密着したコミュニケーションを図ることができる。
<データ>
ここで、本実施形態において、ロボット100で用いられる感情パターン情報と形状色彩情報との対応付けについて説明する。
図5は、ロボット100の記憶部130に記憶されている当該対応付け情報の例を示すデータ概念図である。
図5に示すように、対応付け情報は、感情パターン情報と形状色彩情報が対応付けられた情報である。対応付け情報は、ロボット100を利用するユーザの居場所及び感情を特定し得る情報であればどのような情報であってもよく、これ以外の情報を含んでもよいことは言うまでもない。
感情パターン情報は、感情のパターンを示すものであれば、どのような形で表現されてもよく、例えば、数字、ひらがな、カタカナ、漢字、アルファベット、記号等を用いて表現されてよい。
感情パターン情報は、感情のパターンを示すものであれば、どのような形で表現されてもよく、例えば、数字、ひらがな、カタカナ、漢字、アルファベット、記号等を用いて表現されてよい。
形状色彩情報は、形状情報と色彩情報から構成され、形状情報は、形状を示すものであれば、どのような形で表現されてもよく、例えば、数字、ひらがな、カタカナ、漢字、アルファベット、記号等を用いて表現されてよい。形状情報は、例えば、ハート、上矢印、下矢印、三角、四角、丸、音符、ビックリマーク等の形状を表すテキスト等が考えられる。また、色彩情報は、色彩を示すものであればどのような形で表現されてもよく、例えば、RGBの数値で表しても、赤、黒、ピンクと色をテキストで表してもよい。
<動作>
本実施の形態に係るロボット100の動作を説明する。
図6を用いて、外部からの接触の検知等からアクションを動的に変化させるまでのロボット100の動作を説明する。図6は、外部からの接触の検知等からアクションを動的に変化させるまでのロボット100の動作を示すフローチャート図である。
触覚検知部140は、外部からの接触を検知する(ステップS11)。生成部121は、当該検知した結果に基づいて、接触情報を生成する(ステップS12)。記憶部130は、接触情報を累積して記憶する(ステップS13)。分析部122は、当該累積した接触情報に基づいて、ユーザごとの傾向を分析する(ステップS14)。
撮影部150は、ロボット100の所定領域内の周囲の人や物体の中から対象物を撮影する(ステップS15)。生成部121は、当該撮影した対象物の画像に基づいて、形状色彩情報を生成する(ステップS16)。制御部120は、感情パターン情報と当該形状色彩情報とを対応付ける(ステップS17)。
記憶部130は、ユーザの性格またはユーザの年齢の少なくともいずれか一つを記憶する(ステップS18)。距離感覚検知部180は、周囲の人や物体の中から対象物との距離を計測する(ステップS19)。生成部121は、当該計測した結果に基づいて、距離情報を生成する(ステップS20)。制御部120は、当該距離情報に加え、ユーザの性格または年齢の少なくともいずれか一つに基づいて、ユーザごとのパーソナルスペースを判定する(ステップS21)。
端末アプリケーション部341は、ユーザ端末に搭載されているSNSまたはメッセージングシステムの少なくとも一つに係るコミュニケーション情報を取得する(ステップS23)。制御部120は、分析結果、対応付けられた感情パターン情報、パーソナルスペース、コミュニケーション情報に基づいて、ロボット100のアクションを動的に変化させる(ステップS23)。
次に、ロボット100の商品の宣伝広告の動作から宣伝広告の評価をするまでの動作を説明する。図7は、商品の宣伝広告の動作から宣伝広告の評価をするロボット100の動作を示すフローチャート図である。
ロボット100は、商品の宣伝広告のための動作をする(ステップS21)。受信部112は、ユーザ端末300から送信されたメッセージを受信する(ステップS22)。音声入力部160は、ユーザから発せられた音声を取得する(ステップS23)。撮影部150は、ユーザの顔を撮影する(ステップS24)。評価部123は、メッセージ、取得した音声または撮影した顔の画像の少なくともいずれか一つの特徴を抽出する(ステップS25)。評価部123は、当該特徴からパターン認識をする(ステップS26)。評価部123は、当該パターン認識結果に基づいて、宣伝広告を評価する(ステップS27)。
以上が、ロボット100の動作である。
本発明を実施形態と図面に基づき説明してきたが、代表的な実施形態の例を示したものであって、本発明はこの実施形態に限定されるものではない。
100 ロボット
110 通信部
120 制御部
130 記憶部
140 触覚検知部
150 撮影部
160 音声入力部
170 音声出力部
180 距離感覚検知部
190 電源部
200 サーバ
210 通信部(サーバ)
220 制御部(サーバ)
230 記憶部(サーバ)
300 ユーザ端末
310 通信部(ユーザ端末)
320 制御部(ユーザ端末)
330 表示部(ユーザ端末)
340 記憶部(ユーザ端末)

Claims (4)

  1. 外部からの接触を検知する触覚検知部と、
    前記検知結果に基づいて接触情報を生成する生成部と、
    所定の期間、前記接触情報を累積して記憶する記憶部と、
    前記累積した接触情報に基づいて、ユーザごとの傾向を分析する分析部と、
    ロボットにアクションさせるための機構を制御し、前記分析結果に基づいて、前記アクションを動的に変化させる制御部と、
    ネットワークを介して前記ユーザのユーザ端末、サーバと通信を実行する通信部とを前記ロボット内に備えるとともに、
    前記制御部は、前記ユーザのユーザ端末に搭載されている端末アプリケーション部が取得した、SNSまたはメッセージングシステムの少なくともいずれか一つに係るコミュニケーション情報を取得し、
    記制御部は、前記端末アプリケーション部から取得した前記コミュニケーション情報を解析して発話内容を生成し、前記発話内容の音声を音声出力部から発することによって前記アクションを動的に変化させ前記ユーザの承認要求を満たす
    ことを特徴とするロボット。
  2. 前記ロボットは、
    所定領域内の対象物を撮影する撮影部をさらに備え、
    前記生成部は、前記撮影した対象物の画像に基づいて形状色彩情報を生成し、
    前記制御部は、前記ロボットの感情パターンを定義した感情パターン情報と前記形状色彩情報との対応付けを行い、前記対応付けられた感情パターン情報に基づいて、前記アクションを動的に変化させることを特徴とする請求項1に記載のロボット。
  3. 前記ロボットは、
    周囲の人や物体との距離を計測する距離感覚検知部をさらに備え、
    前記生成部は、前記計測した結果に基づいて距離情報を生成し、
    前記記憶部は、ユーザの性別または年齢の少なくともいずれか一つをさらに記憶し、
    前記制御部は、前記距離情報に加え、ユーザの性別または年齢の少なくともいずれか一つに基づいて前記ユーザごとのパーソナルスペースを判定し、該パーソナルスペースに基づいて、前記アクションを動的に変化させることを特徴とする請求項1または2に記載のロボット。
  4. 前記アクションは、商品の宣伝広告のための動作を含み、
    前記ロボットは、
    前記ユーザが所有する端末から送信されたメッセージを受信する受信部と、
    前記ユーザから発せられた音声を取得する音声入力部と、
    前記ユーザの顔を撮影する撮影部と、
    前記メッセージ、前記取得した音声または前記撮影した顔の画像の少なくともいずれか一つに基づいて、前記宣伝広告の評価をする評価部とをさらに備えることを特徴とする請求項1乃至3のいずれか1項に記載のロボット。
JP2015257489A 2015-12-28 2015-12-28 ロボット Active JP6781545B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015257489A JP6781545B2 (ja) 2015-12-28 2015-12-28 ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015257489A JP6781545B2 (ja) 2015-12-28 2015-12-28 ロボット

Publications (2)

Publication Number Publication Date
JP2017119336A JP2017119336A (ja) 2017-07-06
JP6781545B2 true JP6781545B2 (ja) 2020-11-04

Family

ID=59271915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015257489A Active JP6781545B2 (ja) 2015-12-28 2015-12-28 ロボット

Country Status (1)

Country Link
JP (1) JP6781545B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7038232B2 (ja) * 2018-12-19 2022-03-17 本田技研工業株式会社 案内ロボット制御装置、及び、それを用いた案内システム、並びに、案内ロボット制御方法
JP7409781B2 (ja) 2019-04-01 2024-01-09 Lineヤフー株式会社 出力プログラム、出力装置及び出力方法
KR102529082B1 (ko) * 2021-04-22 2023-05-03 재단법인대구경북과학기술원 촉각 감지 방법 및 장치
WO2023195115A1 (ja) * 2022-04-07 2023-10-12 日本電気株式会社 会話装置、会話方法、及び非一時的なコンピュータ可読媒体

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4534427B2 (ja) * 2003-04-01 2010-09-01 ソニー株式会社 ロボット制御装置および方法、記録媒体、並びにプログラム
JP2007044798A (ja) * 2005-08-09 2007-02-22 Advanced Telecommunication Research Institute International ロボットコミュニケーションシステム
JP2008155351A (ja) * 2006-12-26 2008-07-10 Olympus Corp ロボット
JP4682217B2 (ja) * 2007-03-07 2011-05-11 パナソニック株式会社 行動制御装置、方法、プログラム
JP2012059107A (ja) * 2010-09-10 2012-03-22 Nec Corp 感情推定装置、感情推定方法およびプログラム
JP2012155616A (ja) * 2011-01-27 2012-08-16 Panasonic Corp コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム
FR2991222B1 (fr) * 2012-06-01 2015-02-27 Aldebaran Robotics Systeme et procede pour generer des comportements contextuels d'un robot mobile executes en temps reel
JP6125445B2 (ja) * 2014-02-10 2017-05-10 日本電信電話株式会社 ライフログ記録システム及びそのプログラム

Also Published As

Publication number Publication date
JP2017119336A (ja) 2017-07-06

Similar Documents

Publication Publication Date Title
US11887352B2 (en) Live streaming analytics within a shared digital environment
US11393133B2 (en) Emoji manipulation using machine learning
US10628985B2 (en) Avatar image animation using translation vectors
US10628741B2 (en) Multimodal machine learning for emotion metrics
US11056225B2 (en) Analytics for livestreaming based on image analysis within a shared digital environment
US10843078B2 (en) Affect usage within a gaming context
US20100060713A1 (en) System and Method for Enhancing Noverbal Aspects of Communication
US11073899B2 (en) Multidevice multimodal emotion services monitoring
CN110609620B (zh) 基于虚拟形象的人机交互方法、装置及电子设备
US10474875B2 (en) Image analysis using a semiconductor processor for facial evaluation
US10779761B2 (en) Sporadic collection of affect data within a vehicle
US20170238859A1 (en) Mental state data tagging and mood analysis for data collected from multiple sources
US20140149177A1 (en) Responding to uncertainty of a user regarding an experience by presenting a prior experience
US20150206000A1 (en) Background analysis of mental state expressions
CN107977928B (zh) 表情生成方法、装置、终端及存储介质
JP6781545B2 (ja) ロボット
AU2017228574A1 (en) Apparatus and methods for providing a persistent companion device
US20180085928A1 (en) Robot, robot control method, and robot system
CN112352390A (zh) 利用用于检测神经状态的传感器数据进行内容生成和控制
WO2016080553A1 (ja) 学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラム
KR20160010449A (ko) 의사소통 시 정보 교환을 위한 방법, 사용자 단말 및 서버
JP6969554B2 (ja) 情報処理システム、記録媒体、情報処理方法、およびプログラム
US11430561B2 (en) Remote computing analysis for cognitive state data metrics
US11484685B2 (en) Robotic control using profiles
US11544968B2 (en) Information processing system, information processingmethod, and recording medium

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160105

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160122

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170810

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20171124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201016

R150 Certificate of patent or registration of utility model

Ref document number: 6781545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250