JP7414299B2 - 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 - Google Patents

特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 Download PDF

Info

Publication number
JP7414299B2
JP7414299B2 JP2021511042A JP2021511042A JP7414299B2 JP 7414299 B2 JP7414299 B2 JP 7414299B2 JP 2021511042 A JP2021511042 A JP 2021511042A JP 2021511042 A JP2021511042 A JP 2021511042A JP 7414299 B2 JP7414299 B2 JP 7414299B2
Authority
JP
Japan
Prior art keywords
robot
feature data
user
eye image
robots
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021511042A
Other languages
English (en)
Other versions
JPWO2020202540A1 (ja
Inventor
要 林
優希 高田
秀哉 南地
ジョン ベルモンテ
敦也 小瀬
雅也 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Publication of JPWO2020202540A1 publication Critical patent/JPWO2020202540A1/ja
Priority to JP2023216324A priority Critical patent/JP2024038028A/ja
Application granted granted Critical
Publication of JP7414299B2 publication Critical patent/JP7414299B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/38Dolls' eyes
    • A63H3/40Dolls' eyes movable
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Description

本発明は、特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法に関する。
近年、人とのインタラクションが可能な装置の開発が進んでいる。このような装置として、例えば、ペットの代替として機能させるために自律して行動するロボットが挙げられる。
ペットの代替となるロボットには豊かな表現力が求められる。特許文献1にはロボットの目の表現力を高めるために、ロボットの目の位置にモニタを配置して眼画像を表示し、眼画像の多様な動きを表現する技術が開示されている。
国際公開第2018/097089号
犬や猫のような実際のペットは各々独自の個性を有している。個性は、性格や性質などの内面における特徴や、外面における特徴として現れる。外面における特徴のひとつとして、外観をあげると、例えば、同一の犬種であっても、耳、眼、鼻、口、毛色など、見かけは似ていても、どれも固有であり、ひとつとして同一の外観を有する犬は存在しない。一方、工業製品として製造されるロボットは、一般に同一のモデルであれば外観上の違いは無いといえる。
本発明は、人の知覚で認識される個性をロボットに持たせる技術を提供することを目的とする。
本発明の特徴データ装置は、出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データのうち、複数の前記ロボットを含むロボット群において対象の前記ロボットに固有の前記特徴データを前記対象のロボットに設定する。
本構成は、出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データを設定する。特徴データとは、人の知覚で認識される情報、例えば人の五感(視覚、聴覚、触覚、味覚、および嗅覚)で認識できる情報であり、より具体的には画像データ、音情報、感触情報、味情報、および臭い情報などである。そして、本構成によれば、複数のロボットを含むロボット群において対象のロボットに固有の特徴データを対象のロボットに設定するので、人の知覚で認識される個性をロボットに持たせることができる。
本発明の特徴データ装置は、前記特徴データを画像表示装置に表示される所定画像を示す画像データとしてもよい。本構成によれば、人が視覚で認識できる所定画像をロボットに特有のものにできる。
本発明の特徴データ装置は、前記画像データを前記ロボットの眼を示す眼画像特徴データとしてもよい。本構成によれば、ロボットの眼をロボットに特有のものにできる。
本発明の特徴データ装置は、前記所定画像が複数枚の画像を組み合わることによって構成されてもよい。本構成によれば、所定画像による表現の幅を広げることができる。
本発明の特徴データ装置は、前記所定画像が静止画像と動画像との組み合わせによって構成されてもよい。本構成によれば、所定画像による表現の幅を広げることができる。
本発明の特徴データ装置は、前記ロボット群に含まれる他の前記ロボットに設定中の前記特徴データとは異なる前記特徴データの候補をユーザが知覚可能な形態で前記出力装置に出力する出力手段を備えてもよい。本構成は、例えばロボットの初回起動時やユーザが自動的な特徴データの設定を希望した場合に、特徴データの候補をロボットに対応する出力装置に出力する。本構成によれば、ユーザは対象のロボットに対して固有の特徴データの設定を簡易に行える。
本発明の特徴データ装置は、ユーザが選択した特徴データを取得する取得手段を備え、前記出力手段は、前記取得手段で取得した前記特徴データが他の前記ロボットで設定されている場合、前記特徴データに対して所定の類似範囲内にある前記特徴データを前記出力装置に出力してもよい。本構成によれば、ユーザが選択した特徴データが他のロボットで設定中であっても、ユーザは対象のロボットに対して固有の特徴データの設定を簡易に行える。
本発明の特徴データ装置は、前記出力手段が、他のユーザが使用する前記ロボットに設定中の前記特徴データに対して所定の類似範囲内にある前記特徴データを前記出力装置に出力してもよい。本構成によれば、ユーザは、他のユーザが使用するロボットに設定中の特徴データと類似する特徴データを対象のロボットに対して簡易に設定できる。
本発明の特徴データ装置は、前記出力手段が、前記対象のロボットを使用するユーザに関連するユーザ関連情報に基づいた前記特徴データを前記出力装置に出力してもよい。本構成のユーザ関連情報は例えば、ユーザの生体情報やユーザの好み、ユーザの年齢、性別、生年月日などのユーザの性質を示す性質情報であり、本構成によれば、ユーザの情報に応じた特徴データを出力できる。
本発明の特徴データ装置は、第1の前記ロボットで設定中の前記特徴データと第2の前記ロボットで設定中の前記特徴データとに基づいて、前記対象のロボットに設定可能な新たな前記特徴データを生成する生成手段を備えてもよい。本構成によれば、2つのロボットで設定中の特徴データから生成された新たな特徴データを対象のロボットに対して設定できる。
本発明の特徴データ装置は、前記生成手段が、前記第1のロボットと前記第2のロボットとが所定の条件を満たした場合に、前記新たな特徴データを生成してもよい。本構成によれば、条件を満たした場合にのみ新たな特徴データが生成される。
本発明の特徴データ装置は、前記第1のロボットの存在する位置を含む所定領域内に位置する前記第2のロボットに設定されている前記特徴データとは異なる前記特徴データを前記対象のロボットに設定してもよい。本構成によれば、対象のロボットの存在する位置を含む所定領域内に位置する他のロボットで設定中の特徴データが、当該対象のロボットに設定できない特徴データとなる。
本発明の特徴データ装置は、前記特徴データが、前記ロボット群に含まれる前記ロボットの台数に応じて、他の前記ロボットで設定中の前記特徴データと近接して設定可能な幅が決定されてもよい。本構成によれば、ロボットの台数に応じて設定可能な特徴データの幅が変化する。
本発明の特徴データ装置は、前記特徴データが、スピーカーから出力される音を示す音データであってもよい。本構成によれば、人が聴覚で認識できる音をロボットに特有のものにできる。
本発明の特徴データ装置は、前記音データは、前記ロボットの音声を示す音声特徴データであってもよい。本構成によれば、ロボットから出力される音声をロボットに特有のものにできる。
本発明の特徴データ装置は、前記特徴データに前記特徴データの設定状態に基づいた価値を示す価値情報が関連付けられてもよい。本構成によれば、ロボットに設定中の特徴データに価値の概念を与えることができる。
本発明の特徴データ装置は、一の前記ロボットが他の前記ロボットに対する親密度に応じて、前記他のロボットに関連する動作を行い、前記親密度は、前記一のロボットの特徴と前記他のロボットの特徴とが類似している場合に、前記一のロボットの特徴と前記他のロボットの特徴とが非類似の場合よりも高くなってもよい。本構成によれば、一のロボットのユーザは、自身のロボットが親密になった他のロボットの存在を知ることができる。
本発明の特徴データ装置は、前記特徴データが前記対象のロボットの特徴の変化態様を示すデータであってもよい。本構成によれば、ロボットの変化態様をロボットの特徴にできる。
本発明の特徴データ装置は、前記特徴データの一部又は全部が前記特徴データの設定後からの時間の経過とともに所定の規則に従って変化してもよい。本構成によれば、ロボットがあたかも生物であるかのような感覚(生物感)をユーザに与えうる。
本発明の特徴データ装置は、所定の条件充足前は前記対象のロボットのユーザが前記特徴データを変更できず、所定の条件充足後に前記対象のロボットのユーザによる前記特徴データの一部又は全部の変更を可能してもよい。本構成によれば、ロボットの特徴を先天的または後天的にロボット100が獲得した特徴であるかのような印象をユーザに与えうる。
本発明の特徴データ装置は、前記対象のロボットのユーザの属性に応じて、前記対象のロボットに設定可能な前記特徴データの範囲が定められてもよい。本構成によれば、ロボットに設定可能な特徴データがユーザの属性に応じて異なるものにできる。
本発明の特徴データ装置は、前記特徴データが経時的要素を含むデータであってもよい。本構成によれば、特徴データに経時的な変化を与えることができる。
本発明のロボットは、出力装置を備え、前記出力装置からユーザが知覚可能な形態で出力される自身の特徴を示す特徴データのうち、複数のロボットを含むロボット群において自身に固有の特徴データに基づいて、前記特徴を前記出力装置に出力する。本構成によれば、人の知覚で認識される個性をロボットに持たせることができる。
本発明の端末装置は、出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データのうち、複数の前記ロボットを含むロボット群において前記ロボットに固有の特徴データを前記ロボットに送信して設定させる。本構成によれば、ロボットに設定される特徴データを当該ロボットに特有のものにできる。
本発明の端末装置は、前記特徴データが、前記ロボットの眼の画像データであり、形状および色の少なくとも一方で特定され、前記形状および前記色の少なくとも一方が対象の前記ロボットに固有とされてもよい。本構成によれば、ユーザはロボットの眼の画像を簡易に当該ロボットに特有のものにできる。
本発明の端末装置は、前記眼の画像データに重畳させる装飾画像を示す装飾画像データを前記ロボットへ送信して設定されてもよい。本構成によれば、ユーザはロボットの眼の画像に対してより独自性を持たせることができる。
本発明の特徴データ設定方法は、出力装置からユーザが知覚可能な形態で出力される自身の特徴を示す特徴データのうち、複数のロボットを含むロボット群において自身に固有の特徴データを前記ロボットに送信して設定する。本構成によれば、人の知覚で認識される個性をロボットに持たせることができる。
図1Aは、第1実施形態のロボットの正面外観図である。 図1Bは、第1実施形態のロボットの側面外観図である。 図2は、第1実施形態のロボットのシステム構成図である。 図3は、第1実施形態のロボットの眼画像の外観図である。 図4は、第1実施形態の特徴データ設定システムの構成図である。 図5は、第1実施形態の特徴データ設定システムの機能ブロック図である。 図6Aは、第1実施形態の端末装置に表示される眼画像の設定に関するアプリ画像であり、ロボットアプリを起動して眼画像の設定を行う場合にディスプレイに表示されるアプリ画像である。 図6Bは、図6Aに示されるアプリ画像の操作に応じて変化するアプリ画像である。 図6Cは、図6Aに示されるアプリ画像の操作に応じて変化するアプリ画像である。 図6Dは、図6Aに示されるアプリ画像の操作に応じて変化するアプリ画像である。 図6Eは、図6Aに示されるアプリ画像の操作に応じて変化するアプリ画像である。 図7は、第1実施形態の眼画像設定処理の流れを示すフローチャートである。 図8は、第2実施形態の眼画像設定処理の流れを示すフローチャートである。 図9は、第3実施形態の特徴データ設定システムの機能ブロック図である。 図10Aは、第4実施形態の端末装置に表示される音声の設定に関するアプリ画像であり、ロボットアプリを起動して音声の設定を行う場合にディスプレイに表示されるアプリ画像である。 図10Bは、図10Aに示されるアプリ画像の操作に応じて変化するアプリ画像である。 図10Cは、図10Aに示されるアプリ画像の操作に応じて変化するアプリ画像である。 図11は、第4実施形態のロボットから出力される音声をユーザがカスタマイズする場合に端末装置に表示されるアプリ画像である。
以下、本発明の実施形態の特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法について、図面を参照しながら説明する。なお、以下の実施形態では、特徴データを、一例としてロボットの眼画像として説明する。
(第1実施形態)
本発明の第1実施形態について説明する。図1は、本実施形態のロボット100の外観図であり、図1Aは、ロボット100の正面外観図である。図1Bは、ロボット100の側面外観図である。
本実施形態のロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。ロボット100は、一例として、家屋内を行動範囲とする。
ロボット100のボディ104は、全体的に丸みを帯びた形状を有し、ウレタンやゴム、樹脂、繊維などやわらかく弾力性のある素材により形成された外皮を含む。ロボット100に服を着せてもよい。丸くてやわらかく、手触りのよいボディ104とすることで、ロボット100はユーザに安心感とともに心地よい触感を提供する。ロボット100は、総重量が15キログラム以下、好ましくは10キログラム以下、更に好ましくは、5キログラム以下である。
ロボット100は、3輪走行するための3つの車輪を備える。図示のように、一対の前輪である左輪102a、右輪102b(左輪102a、右輪102bを区別しない場合は、前輪102という。と、一つの後輪103を含む。前輪102が駆動輪であり、後輪103が従動輪である。前輪102は、操舵機構を有しないが、回転速度や回転方向を個別に制御可能とされている。後輪103は、いわゆるオムニホイールからなり、ロボット100を前後左右へ移動させるために回転自在となっている。左輪102aよりも右輪102bの回転数を大きくすることで、ロボット100は左折したり、左回りに回転できる。右輪102bよりも左輪102aの回転数を大きくすることで、ロボット100は右折したり、右回りに回転できる。
前輪102および後輪103は、駆動機構(回動機構、リンク機構)によりボディ104に完全収納できる。走行時においても各車輪の大部分はボディ104に隠れているが、各車輪がボディ104に完全収納されるとロボット100は移動不可能な状態となる。すなわち、車輪の収納動作にともなってボディ104が降下し、床面Fに着座する。この着座状態においては、ボディ104の底部に形成された平坦状の着座面108(接地底面)が床面Fに当接する。
ロボット100は、2つの手106を有する。手106には、モノを把持する機能はない。手106は上げる、振る、振動するなど簡単な動作が可能である。2つの手106も個別制御可能である。
目110は、液晶素子または有機EL素子による画像表示が可能である。本実施形態の目110は、有機EL素子を配された平面形状のモニタの上に反射防止フィルムを貼付することで反射防止処置を施される。モニタの上に反射防止処置の施された凸面レンズを取り付けてもよい。ロボット100は、音源方向を特定可能なマイクロフォンアレイや超音波センサなどさまざまなセンサを搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。
ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。ツノ112には全天周カメラが取り付けられ、ロボット100の上部全域を一度に撮像可能である。
図2は、ロボット100のハードウェア構成図である。ロボット100は、内部センサ128、通信部126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池であり、ロボット100の動力源である。
内部センサ128は、ロボット100が内蔵する各種センサの集合体である。具体的には、カメラ(全天周カメラ)、マイクロフォンアレイ、測距センサ(赤外線センサ)、サーモセンサ、タッチセンサ、加速度センサ、ニオイセンサなどである。タッチセンサは、ロボット100の外皮と本体フレームの間に設置され、ユーザのタッチを検出する。ニオイセンサは、匂いの元となる分子の吸着によって電気抵抗が変化する原理を応用した既知のセンサである。
通信部126は、ユーザの有する携帯機器など各種の外部機器を対象として無線通信を行う通信モジュールである。記憶装置124は、不揮発性メモリおよび揮発性メモリにより構成され、コンピュータプログラムや各種設定情報を記憶する。プロセッサ122は、コンピュータプログラムの実行手段である。駆動機構120は、内部機構を制御するアクチュエータである。このほかには、表示器やスピーカーなども搭載される。
プロセッサ122は、ロボット100の行動選択を行う。内部センサ128により得られるさまざまな外部情報も行動選択に影響する。駆動機構120は、主として、車輪(前輪102)と頭部(頭部フレーム)を制御する。駆動機構120は、2つの前輪102それぞれの回転速度や回転方向を変化させることにより、ロボット100の移動方向や移動速度を変化させる。また、駆動機構120は、車輪(前輪102および後輪103)を昇降させることもできる。車輪が上昇すると、車輪はボディ104に完全に収納され、ロボット100は着座面108にて床面Fに当接し、着座状態となる。また、駆動機構120は、ワイヤ134を介して、手106を制御する。
スピーカー171は、ロボット100の音声などの音を出力する。
また、プロセッサ122は、ロボット100の仮想的な視線(以下、適宜「ロボット100の視線」という。)も制御する。内部センサ128により得られるさまざまな外部情報もロボット100の視線の制御に影響する。ロボット100の視線は、ロボット100の行動選択に応じた視線(例えば、移動方向に向けた視線)であってもよいし、内部センサ128により得られるさまざまな外部情報に応じた視線(例えば、外部情報に示される特定の物体に向けた視線)であってもよい。
モニタ170は、ロボット100の顔の位置に配置され、ロボット100の目110として表示される眼画像174を表示する画像表示装置である。眼画像174は、眼を複数の要素を重ね合わせることで形成される。それぞれの要素は、例えば、白眼、虹彩、瞳孔、ハイライト、瞼などであり、それらを重ね合わせることで眼画像174が生成される。ロボット100は、内部センサ128から得られる各種の刺激に応じて、絶えず内部状態を示す複数のパラメータが変動している。内部状態を示す複数のパラメータは、例えば、好奇心、恐怖心、承認欲求などであり、それらのパラメータが変化することが、ロボット100の行動を決定するひとつの要因となる。この内部状態は、言うなればロボット100の気持ちであり、時間の経過や外部環境に応じて常に揺らいでいる。一方、生物における目は、物を見るという役割の他に、視線や瞼の動きで、気持ちを伝えるという役割も有する。人は、目から心を察することができ、言葉にしなくてもコミュニケーションをとることができる。こうしたコミュニケーションを期待して、ロボット100は、内部状態に連動して、動的に眼画像174を生成し、ロボット100が興味をもつ方向へ視線を動かしたり、うれしさや、悲しさに応じて、瞼を閉じたり、開いたり変形させることができる。つまり、目110は、内部状態を反映する出力デバイスであって、内部状態に連動して動的に生成された眼画像174を表示することにより、ひとつの意思伝達器官として機能する。
図3は、眼画像174の外観図である。本実施形態では、白眼画像、虹彩画像、瞳孔画像、ハイライト画像、反射画像の5枚の画像を重ね合わせることにより、眼画像174を生成する。また、これら5枚の画像の上に瞼画像が重ねられる。
(L1)白眼画像
白眼画像は、最下層の画像であり、眼画像174の白眼部分(周縁画像168)に対応する。白眼画像は、ロボット100の視線の動きに追随することはない固定の画像である。
(L2)虹彩画像
虹彩画像は、白眼画像の上に重ねられる画像である。虹彩画像は、眼画像174の虹彩領域162に対応する。虹彩画像は、ロボット100の視線の動きにともなって眼画像174において上下左右に移動する。
(L3)瞳孔画像
瞳孔画像は、虹彩画像の上に重ねられる。瞳孔画像は、眼画像174の瞳孔領域158に対応する。瞳孔画像は、ロボット100の視線の動きにともなって眼画像174において上下左右に移動する。
(L4)ハイライト画像
ハイライト画像は、瞳孔画像の上に重ねられる。ハイライト画像は、眼画像174のキャッチライト166に対応する。ハイライト画像は、ロボット100の視線の動きに追随することはない。ロボット100の向きが変化するとき、プロセッサ122は光入射方向に合わせてハイライト画像を移動させることにより、キャッチライト166の位置を調整する。
(L5)反射画像
反射画像は、ハイライト画像の上に重ねられる。反射画像は、瞳への映り込みである。プロセッサ122はロボット100の正面の撮像画像をゆがみなどを補正した上で、反射画像をハイライト画像の上に重ねる。反射画像はロボット100の視線の動きに追随することはない。ロボット100の向きが変化するとき、プロセッサ122は撮像画像に合わせて反射画像を変化させる。
まとめると、白眼画像は眼画像174の「下地」として固定される。瞳孔画像と虹彩画像はロボット100の視線方向に合わせて移動する。ハイライト画像と反射画像は、ロボット100の視線方向とは関係なく、ロボット100の向きに応じて移動する。また、瞳孔画像と虹彩画像は同一方向に動くがその移動量は同一である必要はない。本実施形態では、虹彩画像を第1の方向に第1の移動量だけ動かしたとき、瞳孔画像を第1の方向に第2の移動量だけ移動させる。このとき、第2の移動量は第1の移動量よりも大きな値である。瞳孔の動きと虹彩の動きにわずかなズレをつくることにより、眼画像174の生物感・リアル感をいっそう高めることができる。
眼画像174を形成するそれぞれの要素画像は、形状と色の情報を有する画像データであり、ラスター画像でもベクター画像であってもよい。各要素画像について、形状と色の組み合わせを変えた複数の画像が用意される。要素画像毎に任意の画像が選ばれ、それらの要素画像を予め決められた順番で重ね合わせることで様々な種類の特徴のある眼画像174が形成される。内部状態を反映させて眼画像174が生成される場合であっても、各要素画像を移動させて重ね合わせるという処理は変わらないので、様々な見た目の眼画像174が動的に生成される。こうして生成される眼画像174は、視線の向きなどに応じて変化するが、色や形状の組み合わせでうまれる視覚的な特徴は維持される。
例えば、白眼画像として、「白」と「ピンク」の画像を用意し、紅彩画像として、「黒」と「青」の画像を用意する。白眼画像として、「白」を選択し、紅彩画像として「青」を選択して、眼画像174が形成されてもよいし、白眼画像として「ピンク」を選択し、紅彩画像として「黒」を選択して、眼画像174が形成されてもよい。このように形成された眼画像174は、人の視覚を使って識別可能なものであり、ロボット100の個体毎の特徴となる。複数の要素画像を重ね合わせることで眼画像174が形成されるので、各要素画像の種類を調整したり、眼画像174を形成する要素画像の枚数を調整したりすることで、視覚的に異なる種類の眼画像174が多数形成され、実質的に無限といえるほどの眼画像174が形成可能となる。
図4は、本実施形態の特徴データ設定システム200の全体図である。特徴データ設定システム200は、複数のロボット100を含むロボット群202において、それぞれのロボット100に固有の眼画像174を表示させる。ロボット群202は、ひとつでもよいし、所定の条件に基づき複数あってもよい。それぞれのロボット100は、自身が属するロボット群202において、重複することの無い固有の眼画像174を表示できる。「目は心の鏡」と言われるように、目は、その人を知るための重要な要素として考えられる。コミュニケーションの対象がロボット100であっても、ロボット100に目があれば、人は無意識にその目を見て、ロボット100とのコミュニケーションを実現しようとする。このようにコミュニケーションにおいて、特に注目される目を表現するデバイスに、固有の眼を表示させることで、工業製品として製造されるロボット100に、直観的な個性を持たせることができる。これにより、ユーザに特別な存在として意識され、犬や猫などのペットと同じようにロボット100に対する愛着の形成を促すことが期待される。
特徴データ設定システム200は、複数のロボット100A,100B,100C,100Dを含むロボット群202、ロボット100と通信可能な端末装置204、および端末装置204A,204B,204Cと通信可能なサーバ206を含み、ロボット100A,100B,100C,100Dから出力されることで人の知覚で認識される特徴データをロボット100A,100B,100C,100Dに設定する。
以下の説明において、ロボット100A,100B,100C,100Dを区別する場合は、符号の末尾にAからDの何れかを付し、各ロボット100A,100B,100C,100Dを区別しない場合は、AからDを省略する。また、以下の説明において、端末装置204A,204B,204Cを区別する場合は、符号の末尾にAからCの何れかを付し、端末装置204A,204B,204Cを区別しない場合は、AからDを省略する。また、図4に示されるロボット群202に含まれるロボット100の数は一例であり、これに限定されない。
なお、サーバ206は、各ロボット100との通信が可能とされている。また、各ロボット100は、近距離に存在するロボット100同士での通信も可能とされている。
ロボット100のユーザは、各々を識別する識別情報(以下「識別ID」という。)が付与されている。識別IDは、一例として、複数のアルファベットと数字の組み合わせである。識別IDは、ロボット100に対応付けられており、対応付けられているロボット100の設定の変更やロボット100の状態閲覧などの可否が登録されている。より具体的には、識別IDは、一例として、ロボット100の全ての設定の変更などが可能な第1権限、一部の設定の変更などが可能な第2権限、設定の変更ができない第3権限とのように権限によって区別される。なお、本実施形態では全ての識別IDはロボット100の状態閲覧が可能とされている。本実施形態では、以下に説明する特徴データの変更は第1権限が登録されている識別IDで可能とされる。
また、ロボット100の設定変更や状態閲覧などは、端末装置204を介して行われる。すなわち、ユーザは、端末装置204に自身に付与されている識別IDを入力することにより、当該識別IDと対応付けられているロボット100への端末装置204を介したアクセスが可能となる。そして、ユーザは、この端末装置204を介してロボット100の設定変更や状態閲覧などを行う。なお、図4の例では、端末装置100Aが、ロボット100Aに対応付けられた識別IDが入力され、ロボット100Aとアクセス可能な端末装置204である。同様に端末装置204Bが、ロボット100Bとアクセス可能であり、端末装置204Cがロボット100Cとアクセス可能である。また、本実施形態の端末装置204は、複数の識別IDの入力が可能とされ、一つで複数のロボット100とアクセス可能とされている。例えば、図4に示される端末装置204Cは、ロボット100Cおよびロボット100Dと選択的に切り替えてアクセスできる。
ここで、特徴データは、人の知覚で認識される情報、例えば、人の五感(視覚、聴覚、触覚、味覚、および嗅覚)で認識できる情報であり、より具体的には画像データ、音データ、感触データ、味データ、および臭いデータなどである。
そして、本実施形態の特徴データ設定システム200は、出力装置からユーザが知覚可能な形態で出力されるロボット100の特徴を示す特徴データのうち、複数のロボット100を含むロボット群202において対象のロボット(以下「対象ロボット」という。)100Aに固有の特徴データを対象ロボット100Aに設定する。換言すると、対象ロボット100Aの特徴データは、他のロボット100B,100C,100Dとは異なる固有のものである。これにより、特徴データ設定システム200は、対象ロボット100Aの特徴データが他のロボット100B,100C,100Dとは重複しない対象ロボット100Aに特有のものになり、人の知覚で認識される個性をロボット100に持たせることができる。以下の説明において、他のロボット100B,100C,100Dを区別する場合は、符号の末尾にBからDの何れかを付し、他のロボット100B,100C,100Dを区別しない場合は、BからDを省略し、単に他のロボット100とする。
なお、ロボット100は自身が含まれるロボット群202の範囲内で、特徴データが固有とされる。ここで、サーバ206は、ロボット群202に含まれるロボット100に設定中の特徴データを管理するものである。換言すると、ロボット群202はサーバ206で管理されているロボット100の集団である。
そしてロボット群202は最低2つのロボット100で構成されていればよく、ロボット群202に含まれるロボット100の範囲は、例えばロボット100の製造会社などにより任意に決定されるものであり、客観的な条件に基づいて決定される。例えば、ロボット群202に含まれるロボット100は、製造済みの全てのロボット100としてもよいし、ロボット100が存在する地域で特定されてもよいし、ロボット100の機種や、予め定められた範囲の製造年月日、ロボット100のセンサで検出されたロボット100が着用した服の色や種類などのロボット100のアイテム、ロボット100に設定された性別などのロボット100に個性を与えるための他の設定値によって特定されてもよい。
そして、本実施形態の特徴データは、一例として、ロボット100のモニタ170に表示される眼画像174を構成する基礎となる画像の特徴データとする。すなわち、画像の特徴データ(画像の各特徴を示すパラメータのセット)を基礎として眼画像174が生成され、図4の眼画像174の拡大図(一点鎖線内の眼画像174)に示されるように、ロボット群202に含まれる各ロボット100の眼画像174は互いに異なるものとされる。また、モニタ170が、本発明の「出力装置」の一例に相当する。また、眼画像174が本発明の「ロボットの特徴」の一例に相当する。また、上述したように、ロボットの特徴は、特徴データを基礎として生成されうる。
また、本実施形態の眼画像174は、上述のように、複数枚の画像の組み合わせによって構成されており、これらの画像の各々にパラメータが設定されている。
パラメータは、例えば眼画像174の形状、色、彩度、明度などを指定するための数値である。より具体的には、眼画像174は、一例として上述のように、白眼画像、虹彩画像、瞳孔画像、ハイライト画像、反射画像の5枚の画像(レイヤ)で構成される。これらの画像(レイヤ)毎に1または複数種類のパラメータが設定され、設定されたパラメータに応じて各画像が生成される。なお、画像毎に設定される1または複数のパラメータを総じてパラメータセットともいう。すなわち、本実施形態の眼画像174を生成するための眼画像特徴データは、5つのパラメータセット(第1パラメータセットから第5パラメータセット)によって生成される。なお、パラメータセットは、1種類または複数種類のパラメータからなる。そして、パラメータセットと他のパラメータセットとが互いに異なるとは、その中に含まれる少なくとも1種類のパラメータの値が互いに異なることを意味する。
このように、本実施形態の特徴データ設定システム200は、眼画像174を生成するために設定される複数のパラメータセットの組み合わせを、対象ロボット100Aと同一のロボット群202に所属する他のロボット100のいずれのパラメータセットの組み合わせとも異なる独自の組み合わせとなるように対象ロボット100Aに設定する。具体的には、端末装置204Aがサーバ206と通信することにより、設定候補のパラメータセットの組み合わせが、対象ロボット100Aが所属するロボット群202と同一のロボット群202に所属する他のロボット100に設定されているパラメータセットの組み合わせかのいずれとも異なるかどうかをサーバ206が判定する。端末装置204Aは、当該判定結果が肯定的な場合(いずれとも異なる場合)に、当該パラメータセットの組み合わせによって生成された眼画像特徴データを対象ロボット100Aに設定するとともに、設定したパラメータセットの組み合わせをサーバ206へ送信する。
また、眼画像特徴データから生成される眼画像174は、静止画像と動画像との組み合わせによって構成され、静止画像および動画像のそれぞれにパラメータセットが設定されてもよい。例えば、ロボット100のモニタ170には瞼画像が眼画像174に重ねて表示され、瞼の開閉が動画で表現される。そして、瞼の形状や色、開閉速度、開閉間隔などがパラメータセットにより設定可能とされる。
以上説明したように、ロボット100の眼画像174をロボット100毎にユニークな眼画像174であることを保障する仕組みにより、ロボット100は唯一無二の存在になり、ユーザはロボット100を自身だけの特別な存在として感じることができる。これにより、例えば、ユーザが自身のロボット100同士を持ち寄り、それぞれが使用するロボット100を見比べることで、外観的な違いを実感でき、外観の違いを認識することが、それぞれの個体の内面的な違いを見出そうとする契機のひとつになる。そして、ユーザが、ロボット100に対して意識を向けることが、ロボット100に対する愛情や愛着を形成する助けとなる。
次に特徴データ設定システム200を構成する端末装置204およびサーバ206について詳細に説明する。
端末装置204は、一台または複数台のロボット100に関連付けられている。このため端末装置204には、関連付けられたロボット100に対する各種設定を行ったり、関連付けられたロボット100の状態をディスプレイに表示するためのアプリケーション・プログラム(以下「ロボットアプリ」という。)がインストールされている。なお、端末装置204は、一例として、ディスプレイをタッチパネルディスプレイ210とするスマートフォンなどの携帯端末装置であるが、ロボット100との通信が可能な情報処理装置であれば、スマートフォンに限らず、ラップトップ型のコンピュータやデスクトップ型のコンピュータなど、他の情報処理装置でもよい。
サーバ206は、端末装置204との間でロボット100に関する各種データを送受信する。そして、サーバ206は、端末装置204から送信された各種データの記憶、端末装置204から受信したデータに基づいた処理の実行、生成した各種データの端末装置204への送信を行う。
なお、端末装置204およびサーバ206は、例えば、CPU(Central Processing Unit)などのプロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、およびコンピュータで読み取り可能な記憶媒体などで構成されている。そして、各種機能を実現するための一連の処理は、一例として、プログラムの形式で記憶媒体などに記憶されており、このプログラムをCPUがRAMなどに読み出して、情報の加工・演算処理を実行することにより、各種機能が実現される。
図5は、特徴データ設定システム200の機能ブロック図である。なお、特徴データ設定システム200の各機能は、端末装置204およびサーバ206のCPUやロボット100のプロセッサ122がプログラムを実行することによって実現される。
端末装置204は、上述のタッチパネルディスプレイ210の他に、通信部212、記憶部214、画像表示制御部216、入力操作受付部218、および眼画像設定指示部220を備える。
通信部212は、予め登録している対象ロボット100Aやサーバ206、および他の情報処理装置などと各種データの送受信を行う通信モジュールである。
記憶部214は、コンピュータで読み取り可能な記憶媒体であり、ロボットアプリやロボット100に関する各種情報を記憶する。
画像表示制御部216は、画像データに基づいた画像(例えば詳細を後述するアプリ画像260)を表示するようにタッチパネルディスプレイ210を制御する。
入力操作受付部218は、ユーザによる端末装置204への入力操作を受け付ける。具体的には入力操作受付部218は、タッチパネルディスプレイ210に表示されたアプリ画像を介して、ユーザがロボット100に設定する眼画像特徴データの入力を受け付ける。入力操作受付部218によって受け付けられた眼画像特徴データは、通信部212を介してサーバ206へ送信される。そして、詳細を後述するようにサーバ206は、当該眼画像特徴データが他のロボット100で設定中であるか否か、すなわち対象ロボット100Aに固有の眼画像特徴データとなり得ることを判定する。
眼画像設定指示部220は、対象ロボット100Aに固有の眼画像特徴データを通信部212を介してロボット100へ送信する。
サーバ206は、通信部230、記憶部232、眼画像判定部234、選択眼画像取得部236、および眼画像出力部238を備える。
通信部230は、端末装置204および他の情報処理装置などと各種データの送受信を行う通信モジュールである。
記憶部232は、コンピュータで読み取り可能な記憶媒体であり、端末装置204から送信されるロボット100やロボット100のユーザに関する各種情報を記憶する。なお、サーバ206は、ロボット群202に含まれる各ロボット100に設定中の眼画像特徴データを端末装置204から受信し、記憶部232に記憶する。なお、ロボット100に設定されなくなった眼画像特徴データは、サーバ206の記憶部232から消去されてもよいし、眼画像特徴データに設定中でないことを示すフラグが関連付けられることで、眼画像特徴データの使用状況が管理されてもよい。また、記憶部232は、眼画像特徴データの使用実績を蓄積してもよい。例えば、記憶部232は、眼画像特徴データ毎に、ロボット100に設定された日時と、そのロボット100を特定するための識別IDと、そのロボット100から設定が解除された日時を記録する。記憶部232が眼画像特徴データの使用実績を蓄積することにより、眼画像特徴データ毎にロボット100に設定されていた期間を集計できるとともに、ロボット100を所有するユーザの属性などから眼画像特徴データを好むユーザの傾向を統計的に類推できる。
眼画像判定部234は、対象ロボット100Aに設定する眼画像特徴データが同一のロボット群202に所属する他のロボット100に設定中の眼画像特徴データのいずれとも異なる固有の眼画像特徴データであるか否かを判定する。具体的には、眼画像判定部234は、ユーザが対象ロボット100Aに設定しようとする眼画像特徴データ(選択眼画像特徴データ)が、記憶部232に記憶されている他のロボット100に設定中の眼画像特徴データのいずれとも異なるか否かを判定する。
選択眼画像取得部236は、端末装置204を用いてユーザが選択した眼画像特徴データ(以下「選択眼画像特徴データ」という。)を取得する。なお、眼画像特徴データの取得とは、当該眼画像特徴データを生成するためのパラメータの取得を意味する。
眼画像出力部238は、ロボット群202に含まれる他のロボット100に設定中の眼画像特徴データのいずれとも異なる眼画像特徴データの候補(以下「候補眼画像特徴データ」という。)をユーザが知覚可能な出力装置に出力する。すなわち、眼画像出力部238は、候補眼画像データを生成し、対象ロボット100Aの識別IDが入力された端末装置204に通信部230を介して候補眼画像特徴データを送信し、端末装置204のタッチパネルディスプレイ210を介してユーザに候補眼画像特徴データを出力する。すなわち、本実施形態においてユーザが知覚可能な出力装置は、端末装置204のタッチパネルディスプレイ210である。
眼画像出力部238は、例えばロボット100の初回起動時、眼画像特徴データの使用期限が所定期間前になった場合、またはユーザ眼画像特徴データの手動設定を行う指示を端末装置204のタッチパネルディスプレイ210を介して受け付けた場合などに、眼画像特徴データの候補をタッチパネルディスプレイ210に出力する。これにより、ユーザは眼画像特徴データの設定を簡易に行える。また、眼画像出力部238は、一度に複数の異なる候補眼画像特徴データをユーザに出力してもよい。ユーザは、複数の候補眼画像特徴データが出力された場合、複数の候補眼画像特徴データから一つをロボット100に設定する眼画像特徴データとして選択する。
なお、眼画像出力部238は、選択眼画像取得部236で取得した眼画像特徴データが他のロボット100で設定されている場合、当該眼画像特徴データに対して所定の類似範囲内にある眼画像特徴データを出力してもよい。これによれば、眼画像出力部238は、ユーザが選択した眼画像特徴データが既に他のロボット100で設定中であった場合に、ユーザが好むと想定される他の候補眼画像特徴データを出力できる。
類似範囲内にある眼画像特徴データとは、例えば以下の(1)の眼画像特徴データであってもよいし、(2)の眼画像特徴データであってもよい。
(1) 眼画像特徴データが、RGBなどの連続的または断続的なパラメータで表される場合、数的に近い眼画像特徴データ。より具体的には、選択眼画像特徴データを表すパラメータに対して所定範囲内(例えば±5%以内など)にある眼画像特徴データ。眼画像特徴データが複数のパラメータにより表される場合には、一部のパラメータが選択眼画像特徴データの対応するパラメータに対して所定範囲内にあり、残りのパラメータが同一のパラメータである眼画像特徴データであってもよいし、全部のパラメータが選択眼画像特徴データの対応するパラメータに対して所定範囲内にある眼画像特徴データであってもよい。
(2) 2つの異なる眼画像特徴データを入力とし、当該2つの眼画像特徴データの類似度を出力するモデルを用いて、選択眼画像特徴データとの類似度を判定した場合、所定の類似度以上となる眼画像特徴データ。
換言すれば、(1)は、眼画像特徴データを表すパラメータという眼画像特徴データの構成要素が類似の範囲にある眼画像特徴データといえ、(2)は、例えば、人が評価した類似度を教師データとして学習したモデルを用いた場合には、眼画像特徴データそのものの人による評価が類似の範囲にある眼画像特徴データといえる。
また、ユーザが選択した選択眼画像特徴データに類似した眼画像特徴データを眼画像出力部238が候補眼画像特徴データとして生成する場合、眼画像特徴データは、ロボット群202に含まれるロボット100の台数に応じて、他のロボット100で設定中の眼画像特徴データと近接して設定可能な幅(以下「近接範囲」ともいう。)が決定されてもよい。ロボット100の台数とは、例えばロボット100の出荷台数や起動済みのロボット100の台数などであり、ロボット100の台数が増加すると眼画像特徴データの近接範囲が広がるように予め定められてもよいし、ロボット100の台数が増加すると眼画像特徴データの近接範囲が狭まるように予め定められてもよい。なお、他のロボット100で設定中の眼画像特徴データとは言い換えると、対象ロボット100Aのユーザが選択した選択眼画像特徴データである。また近接範囲は、上記類似範囲と同一の範囲であってもよいし、類似範囲よりも狭い範囲であってもよい。上記近接範囲が広がると、選択眼画像特徴データが他のロボット100で設定中である場合に、眼画像出力部238によって出力可能な候補眼画像特徴データの数が増加し、ユーザによる候補眼画像特徴データの選択の幅が広がる。
また、眼画像出力部238は、予め定められた他のユーザまたはユーザにより指定された他のユーザが使用する他のロボット100に設定中の眼画像特徴データに対して所定の類似範囲内にある眼画像特徴データを出力してもよい。他のユーザとは例えば著名なユーザであり、眼画像出力部238は、他のユーザが設定している眼画像特徴データをタッチパネルディスプレイ210に出力できる。
また、眼画像出力部238は、対象ロボット100Aを使用するユーザに関連するユーザ関連情報に基づいて、眼画像特徴データをタッチパネルディスプレイ210に出力してもよい。ユーザ関連情報は例えば、ユーザの生体情報や、ユーザの嗜好を示す嗜好情報、ユーザの年齢、性別、生年月日などのユーザの性質を示す性質情報である。
例えば、眼画像出力部238は、対象ロボット100Aを使用するユーザに関連するユーザ関連情報の一部が同一または所定の範囲内のユーザが使用しているロボット100Bの眼画像特徴データの類似範囲にある眼画像特徴データをタッチパネルディスプレイ210に出力してもよい。
具体的には、記憶部232に記憶された対象ロボット100Aを使用するユーザのユーザ関連情報(ロボット100Aの識別IDに関連付けられたユーザ関連情報)が、40歳、男性を示す情報である場合、眼画像出力部238は、40歳、男性を条件としてユーザ関連情報を記憶部232から検索する。眼画像出力部238は、検索されたユーザ関連情報に関連付けられたロボット100の識別IDを認識する。眼画像出力部238は、当該ロボット100の識別IDに関連付けられた眼画像特徴データを認識する。眼画像出力部238は、認識された眼画像特徴データの類似範囲にある眼画像特徴データを候補眼画像特徴データとしてタッチパネルディスプレイ210に出力する。
また、眼画像出力部238は、記憶部232に記憶されている眼画像特徴データの使用実績に基づいて、対象ロボット100Aを使用するユーザが好む眼画像特徴データを推定して、その推定条件に該当する眼画像特徴データを眼画像特徴データの候補として出力してもよい。
ロボット100は、上述の記憶装置124、通信部126、およびモニタ170の他に、眼画像設定部250を備える。
眼画像設定部250は、端末装置204から送信された眼画像特徴データを目110として設定する。これにより、目110を表示するモニタ170には対象ロボット100Aに固有の眼画像174が表示されることになる。
図6は、端末装置204のタッチパネルディスプレイ210に表示される眼画像174の設定に関するアプリ画像の一例である。なお、図6に示されるアプリ画像の構成およびアプリ画像を用いた眼画像174の設定方法は一例であり、これに限定されない。また、各アプリ画像には、対象ロボット100Aに設定される眼画像174が適宜プレビュー表示される。また、ユーザによる各種ボタンに対する入力操作などは、タッチパネルディスプレイ210を介して、端末装置204が備える入力操作受付部218が受け付ける。
図6Aは、ロボットアプリを起動して眼画像174の設定を行う場合に、タッチパネルディスプレイ210に表示されるアプリ画像260Aである。アプリ画像260Aに含まれる各種ボタンが押されることで、各々のボタンに対応した他のアプリ画像260B,260C,260D,260Eがタッチパネルディスプレイ210に表示される。なお、アプリ画像260Aには対象ロボット100Aに現在設定されている眼画像174を含むロボット100の顔全体を示すプレビュー画像262Aが表示される。
図6Bは、アプリ画像260Aのプリセットボタン264が押された場合に表示されるアプリ画像260Bである。アプリ画像260Bでは、眼画像174の予め定められた形状のうちから一つの形状をユーザが選択する。言い換えると、ユーザはアプリ画像260Bを介して、眼画像174の形状を示すパラメータを選択する。ユーザが選択した眼画像174の形状はプレビュー画像262Bとして表示される。より具体的には、アプリ画像260Bには眼画像174の形状を示した形状画像267が複数表示され、ユーザは、複数の形状画像267のうち一つを選択する。なお、図6Bのアプリ画像260Bには、ユーザがタッチパネルディスプレイ210に対してスクロール操作を行うことで、それまで表示されていなかった新たな形状画像267が表示される。また、「おまかせ」と記されたボタン268をユーザが選択した場合には、眼画像174の形状がランダムに決定される。ユーザによって眼画像174の形状が選択された後に「次へ」と表記されたボタン269が押されると、アプリ画像260Bは図6Cに示されるアプリ画像260Cへ変化する。
アプリ画像260Cは、アプリ画像260Bでユーザが選択した形状に対して色を付加した眼画像174のプレビュー画像262Cが表示される。そして、ユーザが決定ボタン270を押すとプレビュー画像262Cで表示された眼画像174が対象ロボット100Aに設定される。
アプリ画像260Cにプレビュー表示される眼画像174は、特徴データ設定システム200が他のロボット100に設定されていない固有の色の眼画像174を自動的に生成したものである。眼画像出力部238は、眼画像174の色などを示すパラメータセットを選択し、これをユーザが選択した形状のパラメータセットと組み合わせることで、候補眼画像特徴データを生成する。また、アプリ画像260Bで選択可能な眼画像174の形状やアプリ画像260Cとして出力される眼画像174は、対象ロボット100Aが着用している服などのロボット100のアイテムに応じて決定されてもよい。対象ロボット100Aが着用している服などのロボット100のアイテムは、例えば、対象ロボット100Aに設けられたセンサが、アイテムに固有のタグを読み取ることにより識別される。また、カメラにより撮像された画像からロボット100の色などを解析するなどして、対象ロボット100Aが着用している服などのロボット100のアイテムが識別されてもよい。
なお、「もう一度作る」と表記されたボタン271をユーザが押すと眼画像174の自動生成が新たに行われ、新たな眼画像174のプレビュー画像262Cがアプリ画像260Cに表示される。ユーザがボタン271を押す場合とは、ユーザが好む眼画像174が生成されなかった場合である。また、「ロボットで見てみる」と表記されたボタン272をユーザが押すと、プレビュー画像262Cに示される眼画像174が対象ロボット100Aのモニタ170に表示される。そして、ユーザは、ボタン271またはボタン272を押した後に当該眼画像174を対象ロボット100Aに設定する場合には決定ボタン270を押す。
図6Dは、アプリ画像260Aのカラコンボタン266が押された場合に表示されるアプリ画像260Dである。カラコンとは、プリセットで設定された眼画像174に所定の透過率で重畳される装飾画像である。なお、カラコンは、アプリ画像260Dでユーザが選択した装飾画像を示す装飾画像データ(以下「カラコンデータ」という。)が対象ロボット100Aに送信され、設定された眼画像174に当該装飾画像が所定の透過率で重畳して表示される。透過率はユーザによって任意に設定可能とされてもよく、透過率が低いほど眼画像174に対してカラコンの色が薄く重畳される。本実施形態のカラコンは、一例として、単色または複数色で形成される色であるが、これに限らず、模様や星型などの画像であってもよい。このような眼画像174に対するカラコンの設定により、ユーザは対象ロボット100Aの眼画像174に対してより独自性を持たせることができる。
なお、図6Dに示されるアプリ画像260Dには、カラコンの色を示したカラコン画像273が複数表示される。アプリ画像260Dには、ユーザがタッチパネルディスプレイ210に対してスクロール操作を行うことで、それまで表示されていなかった新たなカラコン画像273が表示される。また、「なし」と表記されたボタン274をユーザが選択した場合には、カラコンは設定されない。「決定」と表記されたボタン275をユーザが押すと、ユーザの選択に応じたカラコン画像273が対象ロボット100Aに設定される。
ここで、プリセットとカラコンの変更可否の例について説明する。なお、変更不可とは、例えば、対象ロボット100Aの工場出荷後における最初の起動時の設定がなされると、一定期間経過するなどの条件が満たされるか、工場出荷状態にリセットするまで眼画像174の設定を変更できないことをいう。なお、対象ロボット100Aの眼画像174は、工場出荷時、言い換えると初期状態では固有のものではなく共通の眼画像174(以下「デフォルト眼画像」という。)である。すなわち、デフォルト眼画像は、他のロボット100との重複が許され、占有はできない眼画像174である。
プリセットによって設定される眼画像特徴データは、一例として、対象ロボット100Aの最初の起動時に設定されるとその変更が不可とされてもよいし、例えば眼画像174の形状など、一部のパラメータのみの変更が不可とされ、他のパラメータは変更可能とされてもよい。一方、カラコンは、ユーザにより任意に変更可能とされてもよい。
また、プリセットによって設定される眼画像174は、対象ロボット100Aに固有のものとする一方、カラコンは他のロボット100と同じとなることを許容してもよいし、カラコンも他のロボット100のカラコンの色と異なり対象ロボット100Aに固有のものとしてもよい。
また、本実施形態のプリセットによって設定される眼画像174(以下「プリセット眼画像」という。)は、設定後に遅滞なく対象ロボット100Aのモニタ170に表示されるが、これに限られず、例えば、現在設定中の眼画像174から徐々にプリセット眼画像に変化してもよい。より具体的には、デフォルト眼画像がモニタ170に表示されている場合にはデフォルト眼画像が所定期間(例えば1日)をかけてプリセット眼画像に変化する。また、既に固有の眼画像174がモニタ170に表示されている場合には当該固有の眼画像174が所定期間をかけてプリセット眼画像に変化する。プリセット眼画像への変化途中の眼画像174は、ロボット100の眼画像174として一時的に表示されるものであるため、他のロボット100に設定中の眼画像174と同じものが含まれてもよいし、他のロボット100に設定中の眼画像174と同じものが含まれないようにしてもよい。
さらに、変化途中の眼画像174は、例えば、ユーザ関連情報に基づいて変化してもよい。例えば、ユーザの嗜好情報にユーザが好む色の情報が含まれている場合には、当該色が強調された変化となってもよいし、ユーザの生年月日に対応する季節を想起させるような色(例えばユーザが冬に生まれた場合には白色)が強調された変化となってもよい。
図6Eは、アプリ画像260Aの履歴ボタン276が押された場合に表示されるアプリ画像260Eである。アプリ画像260Eには、ユーザが過去に設定した複数の眼画像174が一覧表示される。すなわち、特徴データ設定システム200(端末装置204またはサーバ206)には、ユーザが過去に設定した眼画像特徴データの履歴が記憶されている。そして、ユーザは、アプリ画像260Eを介して、過去に設定した眼画像特徴データの履歴の中から選択された一つの眼画像特徴データ(選択眼画像特徴データ)を対象ロボット100Aに設定できる。
図6Eに示されるアプリ画像260Eには、過去に設定した眼画像特徴データを示す眼画像174を示す過去設定眼画像278が複数表示される。アプリ画像260Eには、ユーザがタッチパネルディスプレイ210に対してスクロール操作を行うことで、それまで表示されていなかった過去設定眼画像278が表示される。そして、「決定」と表記されたボタン277をユーザが押すと、ユーザの選択に応じた過去設定眼画像278が対象ロボット100Aに設定される。なお、過去設定眼画像278の下に表示される数字(図6Eの例では左から“3”、“6”、“7”)はアプリ画像260Bによって設定された形状画像267の下に表示される番号、すなわち眼画像174の形状に対応する。
アプリ画像260Eを介してユーザが選択した過去設定眼画像278を示す選択眼画像特徴データは、眼画像判定部234によって、対象ロボット100Aが含まれるロボット群202の他のロボット100に設定中でない眼画像特徴データであるか否かが判定される。すなわち、記憶されている眼画像特徴データであっても他のロボット100によって設定中の眼画像特徴データは、対象ロボット100Aに設定できない。これによれば、ユーザが記憶させている眼画像特徴データであっても、設定中でない眼画像特徴データであれば他のロボット100で設定することが許容されるので、他のロボット100のユーザによる眼画像特徴データの選択の幅を制限しない。
また、ユーザが選択した選択眼画像特徴データが他のロボット100に設定中であった場合、特徴データ設定システム200は、当該選択眼画像特徴データの類似範囲内であり、かつ他のロボット100に設定されていない眼画像特徴データを眼画像出力部238が出力し、アプリ画像260Eを介してユーザに提示される。
また、特徴データ設定システム200は、所定条件(以下「複数記憶条件」)を満たした場合に、複数の眼画像174(眼画像特徴データ)を記憶可能としてもよい。複数記憶条件は、例えば、所定のポイントの獲得や、所定の金額の課金である。また、ポイントなどの増加とともに記憶できる眼画像174の数(ストック数)が増加してもよい。
図7は、本実施形態の眼画像設定処理の流れの一例を示すフローチャートである。眼画像設定処理は、例えば、ユーザが端末装置204でロボットアプリを起動させ、アプリ画像260をタッチパネルディスプレイ210に表示させた場合に実行される。
まず、ステップS100では、プリセットボタン264が押されることによってプリセットが選択されたか否かを入力操作受付部218が判定し、プリセットボタン264が押された場合はステップS102へ移行し、プリセットボタン264が押されていない状態ではステップS112へ移行する。
次のステップS102では、アプリ画像260Bを介してユーザが選択した眼画像174の形状を入力操作受付部218が受け付ける。そして、ユーザが選択した眼画像174の形状を示すパラメータセットが通信部212を介してサーバ206へ送信されることで、選択眼画像取得部236が眼画像174の形状を取得する。
次のステップS104では、ユーザが選択した眼画像174の形状に対して眼画像出力部238が色を付加した一または複数の候補眼画像特徴データを生成し、端末装置204のタッチパネルディスプレイ210に出力する。このように候補眼画像特徴データは、アプリ画像260Cに表示されることでユーザに提示される。また、タッチパネルディスプレイ210に出力される候補眼画像特徴データは、一つだけでなく、複数でもよい。なお、出力されている候補眼画像特徴データを生成するためのパラメータセットは、出力中に他のロボット100によって設定されないようにロックがかけられる。このロックは、対象ロボット100に設定する候補眼画像データをユーザが決定した場合に解除される。
次のステップS106では、タッチパネルディスプレイ210に出力(アプリ画像260C)に表示されることで提示された候補眼画像特徴データをユーザが選択したか否かを入力操作受付部218が判定する。そして、ユーザが候補眼画像特徴データを選択した場合にはステップS108へ移行する。一方で、ユーザが候補眼画像特徴データを選択しなかった場合にはステップS104へ戻り、入力操作受付部218が他の候補眼画像特徴データをタッチパネルディスプレイ210に出力(アプリ画像260Cに表示)する。なお、ユーザが候補眼画像特徴データを選択しなかった場合とは、アプリ画像260Cのボタン271をユーザが押した場合である。
ステップS108では、ユーザが選択した候補眼画像特徴データを対象ロボット100Aに設定する。具体的には、端末装置204が備える眼画像設定指示部220が眼画像特徴データを通信部212を介して対象ロボット100Aに送信する。対象ロボット100Aが眼画像特徴データ受信すると、眼画像設定部250は当該眼画像特徴データをロボット100の目110として設定し、眼画像174をモニタ170に表示する。
次のステップS110では、対象ロボット100Aに設定中の眼画像特徴データを端末装置204がサーバ206へ送信し、サーバ206が眼画像特徴データを記憶部232に記憶すると、本眼画像設定処理が終了する。
一方、ステップS100でプリセットが選択されなかった場合に移行するステップS112では、カラコンボタン266が押されることによってカラコンが選択されたか否かを入力操作受付部218が判定する。肯定判定の場合はステップS114へ移行し、否定判定の場合はステップS100へ戻る。
ステップS114では、アプリ画像260Dを介してユーザが選択したカラコンの色を入力操作受付部218が受け付ける。
次のステップS116では、ユーザが選択したカラコンを対象ロボット100Aに設定する。具体的には、眼画像設定指示部220がカラコンデータを通信部212を介して対象ロボット100Aに送信する。対象ロボット100Aがカラコンデータを受信すると、眼画像設定部250は当該カラコンデータを眼画像特徴データに重畳した眼画像174をモニタ170に表示する。
(第2実施形態)
次に本発明の第2実施形態について説明する。なお、本実施形態の特徴データ設定システム200の構成は、第1実施形態の特徴データ設定システム200の構成と同様であるので説明を省略する。
第1実施形態では、ユーザがロボット100の目110の形状を選択した後に、プリセットにより眼画像出力部238が出力した候補眼画像特徴データからユーザが選択する形態について説明したが、本実施形態では、ユーザが自ら眼画像特徴データを生成するパラメータセットを選択し、これにより生成される選択眼画像特徴データが他のロボット100に設定されているか否かを判定する形態について説明する。
図8は、本実施形態の眼画像設定処理の流れの一例を示すフローチャートである。なお、本実施形態の眼画像設定処理は、例えば、ユーザが端末装置204でロボットアプリを起動させ、眼画像174の手動設定を選択した場合に実行される。すなわち、本実施形態のロボットアプリには、上述したプリセットやカラコンの設定の他に、手動設定が選択可能とされている。
まず、ステップS200では、ユーザによる眼画像特徴データの選択を受け付ける。なお、本実施形態の端末装置204のタッチパネルディスプレイ210には、眼画像174の形状や白眼画像、虹彩画像、瞳孔画像、ハイライト画像の色をユーザが選択するためのスライドバーなどの選択画像が表示される。ユーザは、タッチパネルディスプレイ210に表示される選択画像を操作、具体的にはスライドバーの位置調整などを行うことで、眼画像174の形状や色を選択する。
次のステップS202では、対象ロボット100Aのユーザが端末装置204を用いて選択した選択眼画像特徴データをサーバ206の選択眼画像取得部236が取得する。この選択眼画像特徴データは、ユーザが選択した眼画像174の形状や色などのパラメータセットで構成される。
次のステップS204では、取得した選択眼画像特徴データが他のロボット100で設定中であるか否かを眼画像判定部234が判定する。
次のステップS206では、選択眼画像特徴データが他のロボット100で設定中であると判定された場合にはステップS208へ移行し、選択眼画像特徴データが他のロボット100で設定されていないと眼画像判定部234によって判定された場合にはステップS212へ移行する。
ステップS208では、眼画像出力部238が候補眼画像特徴データを生成し、端末装置204のタッチパネルディスプレイ210に出力する。
次のステップS210では、タッチパネルディスプレイ210に出力された候補眼画像特徴データをユーザが選択したか否かを入力操作受付部218が判定する。そして、ユーザが候補眼画像特徴データを選択した場合にはステップS212へ移行する。一方で、ユーザが候補眼画像特徴データを選択しなかった場合にはステップS200へ戻り、ユーザが新たに選択した選択眼画像特徴データを選択眼画像取得部236が取得する。
ステップS212では、ステップS206で他のロボット100で設定中でないと判定された選択眼画像特徴データ、またはステップS210でユーザが選択した候補眼画像特徴データを対象ロボット100Aに設定する。具体的には、端末装置204が備える眼画像設定指示部220が眼画像特徴データを通信部212を介して対象ロボット100Aに送信する。対象ロボット100Aが眼画像特徴データを受信すると、眼画像設定部250は当該眼画像特徴データをロボット100の目110として設定し、眼画像174をモニタ170に表示する。
次のステップS214では、対象ロボット100Aに設定中の眼画像特徴データを端末装置204がサーバ206へ送信し、サーバ206が眼画像特徴データを記憶部232に記憶すると、本眼画像設定処理が終了する。
なお、本実施形態で設定された眼画像特徴データは、対象ロボット100Aが瞼を閉じて開いたときに反映される。すなわち、瞼を閉じる前は新たに設定される前の眼画像174がモニタ170に表示されているものの、瞼を閉じて開いた後には新たに設定された眼画像174がモニタ170に表示される。なお、眼画像174の切り替えのために瞼を閉じる場合は、単に瞬きのために瞼を閉じるときとは異なる動き(以下「切り替えモーション」という。)を伴ってもよい。例えば、切り替えモーションとして、対象ロボット100Aが顔を下に向けた状態から正面に向けた場合に瞼が開閉してもよい。切り替えモーションを一連のモーションの中に組み込むことにより、一般的な生物であれば起こらない眼の態様が変わるというロボット100ならではの機能を、生物感を損なうことなく実現できる。
また、新たに設定される眼画像174のデザインから感じる印象に応じて対象ロボット100Aが選択できるモーションが異なってもよい。人は、色彩や形状などを組み合わせて形成されたデザインを視認すると、直観的にそのデザインに対して何らかの印象を持つことが多い。例えば、大きな丸い眼画像174を持つロボット100を視認した人は、そのロボット100に対して若くて元気な印象を持つことが多い。また、楕円で少し垂れた眼画像174を視認した人は、そのロボット100に対して穏やかで優しい印象を持つことが多い。また、人は、ロボット100のモーションからも何らかの印象を持つことが多い。例えば、ロボット100がすばやく大きな動きで動作すれば、そのロボット100に対して元気な印象を持つことが多い。ロボット100がゆっくりした動きで動作すれば、そのロボット100に対して落ち着いた印象を持つことが多い。こうした人が眼画像174などのロボット100の特徴を知覚することで感じる印象が、ロボット100のモーションから感じる印象と乖離すると、そのロボット100に違和感を持ってしまうおそれがある。人が無意識に受け入れることができるよう、眼画像174などのロボット100の特徴から感じる印象と、モーションから感じる印象とが乖離しないように眼画像174とそれに対するモーションが調整されることが好ましい。このことに鑑みて、眼画像特徴データには予め対応するモーションが関連付けられてもよいし、眼画像特徴データの印象を示す属性値が眼画像特徴データと関連付けられるとともに、モーションに印象を示す属性値が関連付けられていてもよい。例えば、属性値は、「元気」、「ゆったり」、「やさしい」などの印象を示す値であり、それぞれにその印象に適合するモーションのそれぞれが関連付けられてもよい。
(第3実施形態)
本発明の第3実施形態について説明する。図9は、本実施形態の特徴データ設定システム200の機能ブロック図である。図9に示されるようにサーバ206は、通信部230、記憶部232、眼画像判定部234、眼画像出力部238、選択眼画像取得部236に加えて、ミックス眼画像生成部240を備える。
ミックス眼画像生成部240は、対象ロボット100Aで設定中の眼画像特徴データと他のロボット100で設定中の眼画像特徴データとに基づいて、対象ロボット100Aに設定可能な新たな眼画像特徴データ(以下「ミックス眼画像特徴データ」という。)を生成する。すなわち、ミックス眼画像生成部240は、2つのロボット100に設定中の異なる2つの眼画像特徴データから新たな眼画像特徴データを生成する。2つのロボット100で設定中の眼画像特徴データから生成された新たな眼画像特徴データを対象ロボット100Aに対して設定できる。さらに、これによりユーザが予想しない眼画像特徴データが生成される可能性がある。なお、生成されたミックス眼画像特徴データは、通信部230を介して候補眼画像特徴データとして端末装置204へ送信され、端末装置204のタッチパネルディスプレイ210に出力される。
なお、ミックス眼画像特徴データの生成方法としては、例えば、対象ロボット100Aで設定中の眼画像特徴データと他のロボット100で設定中の眼画像特徴データとを、サーバ206が端末装置204を介して受信する。そして、ミックス眼画像生成部240は、受信した2つの眼画像特徴データを表すパラメータを変数とした所定の演算式で演算することで新たなパラメータを算出し、このパラメータで表される眼画像特徴データをミックス眼画像特徴データとして生成する。なお、ミックス眼画像特徴データは、何れのロボット100にも設定されていない固有のものとされる。このため、生成されたミックス眼画像特徴データが、他のロボット100に設定中の眼画像特徴データと同じとなった場合には、異なる演算式(例えば係数を変えた演算式)によって再生成される。また、演算式に限らず、例えばAIによりミックス眼画像特徴データが生成されてもよい。さらに、モーフィングによってミックス眼画像特徴データを徐々に変化させながら、端末装置204のタッチパネルディスプレイ210に表示させ、変化するミックス眼画像の中からユーザが好むミックス眼画像特徴データを選択してもよい。
また、ミックス眼画像特徴データは、2つの眼画像特徴データの特徴が承継されてもよい。具体的には、ミックス眼画像特徴データは、2つの眼画像特徴データにとって視覚的に最も特徴的な部分を維持し、他のパラメータセットを新たに設定することで生成されてもよい。視覚的に最も特徴的な部分とは、例えば形状であり、予め設定された部分である。これにより、ミックス眼画像特徴データの生成に遺伝的な概念を持たせることができる。
また、ミックス眼画像特徴データは、承継される特徴の例として、2つの眼画像特徴データのうち設定中の期間がより長い眼画像データの影響が大きくなるように生成されてもよい。影響が大きいとは、生成されるミックス眼画像特徴データが、設定中の期間がより長い眼画像データに類似することをいう。なお、これに限らず、設定中の期間がより短い眼画像特徴データの影響が大きくなるように、ミックス眼画像特徴データが生成されてもよい。
また、ミックス眼画像特徴データは、承継される特徴の例として、2つの眼画像特徴データにおいて類似度が比較的小さい画像について、双方の画像の特徴が反映されるように、ミックス眼画像特徴データが生成されてもよい。2つの眼画像特徴データのうちの類似度が比較的小さい画像とは、例えば、一の眼画像特徴データを構成する白眼画像、虹彩画像、瞳孔画像、ハイライト画像のうち、他の眼画像特徴データを構成する白眼画像、虹彩画像、瞳孔画像、ハイライト画像のうち対応する画像との類似度が比較的小さい画像(例えば、白眼画像、虹彩画像、瞳孔画像、ハイライト画像のうち類似度が最小の画像)である。例えば、2つの眼画像特徴データのうち白眼画像の類似度が最も小さい場合には、2つの白眼画像の中間となる画像をミックス眼画像特徴データの白眼画像とし、他の画像(虹彩画像、瞳孔画像、ハイライト画像)は、2つの眼画像特徴データに含まれるそれぞれの画像からランダムに選択されてもよい。なお、これに限らず、ミックス眼画像特徴データは、2つの眼画像特徴データのうち類似度が比較的大きい画像について、双方の画像の特徴が反映されるように、ミックス眼画像特徴データが生成されてもよい。
このようにして生成されたミックス眼画像特徴データは、2つのロボット100のいずれか一方にのみ設定されてもよいし、2つのロボット100両方に設定されてもよい。また、これに限らず、ミックス眼画像特徴データは、2つのロボット100とは異なるロボット100に設定されてもよい。この場合、ミックス眼画像特徴データが設定されるロボット100は、2つのロボット100を親とした子供という親子関係の概念を有することになる。
また、ミックス眼画像生成部240は、対象ロボット100Aと他のロボット100とが所定の条件(以下「ミックストリガー条件」という。)を満たした場合に、ミックス眼画像特徴データを生成する。これによれば、ミックストリガー条件を満たした場合にのみ新たなミックス眼画像特徴データが生成される。さらに、ユーザの任意のタイミングで新たなミックス眼画像特徴データを設定可能となる。ミックストリガー条件は、例えば、対象ロボット100Aと他のロボット100とが所定の距離(例えば30cm)以内に近づいたことが撮像画像などから検出された場合や、対象ロボット100Aの所定部位(おなか、額)が、他のロボット100の所定部位(おなか、額)に接触したことが接触センサなどから検出された場合などである。また、ミックス眼画像特徴データを生成する対象ロボット100Aと他のロボット100のユーザは、異なるユーザであることを条件としてもよい。
また、2つのロボット100同士の親密度が所定値以上となったことをミックストリガー条件とし、この2つのロボット100で設定中の2つの眼画像特徴データに基づいて、ミックス眼画像特徴データが生成されてもよい。親密度は、一例として、ロボット100同士が近距離無線通信を行うことでデータの送受信を行うことで向上する。例えば、送受信されるデータは、ロボット100に設定されている識別IDである。また、一方のロボット100から他方のロボット100に動作命令を送信した場合に、他方のロボット100が動作命令を実行するか否かを確率判定し、他方のロボット100が動作命令を実行すると2台のロボット100同士の親密度を、他方のロボット100が動作命令を実行しなかった場合よりも、大きく向上させてもよい。なお、動作命令は、例えば、一方のロボット100の後ろに他方のロボット100が並ぶなどの、他方のロボット100に対する行動の指示である。
(第4実施形態)
本発明の第4実施形態について説明する。本実施形態では、ロボット100が備えるスピーカー171が出力する音を示す音声特徴データを、対象ロボット100Aに固有の特徴データとして対象ロボット100Aに設定する。本実施形態では、特徴データとする音声特徴データをロボット100から出力される音声を生成するための音声特徴データとする。すなわち、この音声特徴データから生成された対象ロボット100Aがスピーカー171から出力する音声は、他のロボット100とは重複しない対象ロボット100Aに特有の音声である。これにより、ロボット100から出力され、人の聴覚で認識できる音声をロボット100に特有のものにできる。スピーカー171が、本発明の「出力装置」の一例に相当する。また、スピーカー171から出力される音声が本発明の「ロボットの特徴」の一例に相当する。
なお、第1実施形態の図5に示される眼画像設定指示部220は音声設定指示部として機能し、眼画像判定部234は音声判定部として機能し、選択眼画像取得部236は選択音声取得部として機能し、眼画像出力部238は音声出力部として機能し、眼画像設定部250は音声設定部として機能する。
図10は、本実施形態の端末装置204に表示される音声の設定に関するアプリ画像280の一例である。なお、図10に示されるアプリ画像280の構成およびアプリ画像280を用いた音声の設定方法は一例であり、これに限定されない。
図10Aは、ロボットアプリを起動して音声の設定を行う場合に、タッチパネルディスプレイ210に表示されるアプリ画像280Aである。「声を選ぶ」と表記されているボタン281をユーザが押すと、ランダムでパラメータが選択された複数種類(本実施形態では4種類)の音声特徴データが自動生成される。生成される音声特徴データは、全て他のロボット100で設定中の音声特徴データとは重複しない音声特徴データである。ユーザによってボタン281が押され、複数種類(本実施形態では4種類)の音声が生成されると、アプリ画像280Aは図10Bに示されるアプリ画像280Bへ変化する。なお、音声特徴データを構成するパラメータ(パラメータセット)は、後述する。
また、アプリ画像280Aに表示されている「今の声」と表記されているボタン282をユーザが押すと、ユーザは対象ロボット100Aに現在設定中の音声特徴データに基づいて生成された音声を確認することができる。この確認用の音声は、ユーザが知覚可能な出力装置である対象ロボット100Aのスピーカー171から出力される。
図10Bに示されるアプリ画像280Bには、生成された複数の音声特徴データのうちの一つをユーザが選択可能な音声選択ボタン283Aから283Dが表示される。ユーザによって音声選択ボタン283Aから283Dのいずれかが押されて選択されると、これに対応する音声が出力される。これにより、ユーザは、自身が好む音声を確認できる。音声選択ボタン283Aから283Dのいずれかが選択された状態で、「決定」と表記されたボタン284をユーザが押すと、ユーザの選択した音声特徴データが対象ロボット100Aに設定される。
なお、アプリ画像280Bには、音声特徴データを再生成するためのボタン(以下「再生成ボタン」という。)が表示されてもよい。ユーザが再生成ボタンを押す場合とは、ユーザが好む音声を生成する音声特徴データが生成されなかった場合である。ユーザによって再生成ボタンが押されると、音声特徴データの生成が新たに行われ、生成された新たな音声特徴データが音声選択ボタン283Aから283Dに対応付けられる。
図10Cは、アプリ画像280Aの履歴ボタン285が押された場合に表示されるアプリ画像280Cである。アプリ画像280Cには、ユーザが過去に設定した複数の音声特徴データを選択するための音声選択ボタン286が一覧表示される。すなわち、特徴データ設定システム200(端末装置204またはサーバ206)には、ユーザが過去に設定した音声特徴データの履歴が記憶されている。なお、一例として、選択可能な過去の音声特徴データは、最大数が予め決定されている。
音声選択ボタン286には、音声特徴データが対象ロボット100Aに設定された日付が表記される。これにより、ユーザは、音声選択ボタン286に対応する音声の違いを認識できる。また、ユーザがタッチパネルディスプレイ210に対してスクロール操作を行うことで、それまで表示されていなかった過去に設定した音声特徴データに対応する音声選択ボタン286が表示される。そして、「決定」と表記されたボタン287をユーザが押すと、ユーザが選択した音声選択ボタン286に対応する音声特徴データが対象ロボット100Aに設定される。
なお、アプリ画像280Cを介してユーザが選択した音声特徴データは、対象ロボット100Aが含まれるロボット群202の他のロボット100に設定中でない音声特徴データであるか否かが判定される。すなわち、記憶されている音声特徴データであっても他のロボット100によって設定中の音声特徴データは、対象ロボット100Aに設定できない。
図11は、対象ロボット100Aから出力される音声をユーザがカスタマイズする場合に端末装置204に表示されるアプリ画像280Dである。アプリ画像280Dには、音声を生成するための音声特徴データ(複数のパラメータの値の組み合わせ)をユーザが選択可能なように表示されている。一例として、ユーザは、各パラメータに対応するスライドバー288Aから288Fを左右に動かすことで、パラメータの値を選択する。すなわち、ユーザは、対象ロボット100Aに設定する音声を自動生成するのではなく、自身の好みに応じて手動で生成する。
図11の例では、ユーザが選択可能なパラメータとして、スピード、ピッチ、ピッチの幅、ブライトネス、唇の振動、声帯の長さが設定されている。これら複数のパラメータは、一つのパラメータセットとして扱われ、他のロボット100に設定中でない音声のパラメータセットが対象ロボット100Aの音声として設定可能となる。なお、このパラメータセットは、上述したアプリ画像280Aのボタン281をユーザが押すことで生成される音声特徴データのパラメータと同じである。
スピードは、音の単位あたりの発話スピードである。音の単位とは、言語では、音節である。この値が大きいほど発話スピードが速くなる。
ピッチは、平均的な音高の高さである。この値が大きいほど音高が高くなる。
ピッチの幅は、発音できる音高の幅である。この値が大きいほど音高の幅が大きくなる。
ブライトネスは、声(音)の明るさを示すパラメータである。発音される音の周波数成分の一部(例えば、倍音成分)を変更することで、音の明るさが変更されうる。この値が大きいほど声(音)が明るいという印象がもたれやすくなる。
唇の振動は、人の発声構造(口)を模した発音構造における唇の振動具合である。この値が大きいほど人の発声構造内における音の反射率が大きくなる。
声帯の長さは、人の発声構造(口)を模した発音構造における声帯の長さを示すパラメータである。この値が大きいほど音の低い周波数成分が多くなり、大人っぽい声になる。
また、「ロボットで聴いてみる」と表記されたボタン289をユーザが押すと、選択された音声特徴データ(パラメータセット)で生成された音声が対象ロボット100Aが備えるスピーカー171から出力される。そして、決定ボタン290の押圧操作が検知されると、選択されたパラメータセットが対象ロボット100Aに設定される。なお、手動により生成される音声特徴データも、他のロボット100で設定中の音声特徴データとは重複しない音声とされる。具体的には、サーバ206は、ユーザによって選択された音声特徴データ(パラメータセット)を端末装置204から取得し、当該音声特徴データが他のロボット100に設定されている音声特徴データを重複するか否かを判定し、判定結果を端末装置204へ送信する。そして、他のロボット100と重複する音声特徴データ(パラメータセット)が選択された状態では、端末装置204は、決定ボタン290を無効化するとともに、他のロボットで使用中である旨の表示がタッチパネルディスプレイ210に出力される。この場合、ユーザが選択した音声特徴データに類似する音声特徴データをサーバ206が生成し、生成された音声特徴データを再生させるためのボタンがタッチパネルディスプレイ210に表示されてもよい。
また、アプリ画像280Dを用いた音声のカスタマイズは、所定の条件を満たしたユーザが可能とされてもよい。所定の条件とは、例えば、ロボット100の使用期間が予め定められた所定期間を超えたユーザや、所定のポイントを獲得したユーザ、所定の金額を課金したユーザである。
(変形例1)
特徴データ設定システム200は、眼画像特徴データの設定状態に基づいた価値を示す価値情報を眼画像特徴データに関連付けてもよい。これによれば、ロボット100に設定中の眼画像特徴データに価値の概念を与えることができる。上述した実施形態では、眼画像特徴データを占有する仕組みを説明したが、その占有期間の長短は、眼画像174に対するユーザの印象で変わる。ユーザが、その眼画像174を有するロボット100を気に入れば、当該眼画像174を長期間にわたり使い続けるだろうし、気に入らなければ、直ぐに変更してしまうことが予想される。ユーザが長く使いたくなる眼画像174は、いわゆる「お気に入り」であり、往々にして複数の人が、同一の眼画像174をお気に入りとして感じる可能性が高い。眼画像特徴データを占有する仕組みが設けられることで、市場原理が働き、眼画像特徴データに価値が生まれる。
価値情報は、眼画像特徴データを設定中の期間を示す設定期間情報や、ロボット100を使用するユーザに関連するユーザ関連情報、比較的多くのユーザが設定したパラメータ(眼画像特徴データを表す複数のパラメータのうち一部のパラメータ(例えば形状に関するパラメータ))などであるが、これに限らず、価値の概念を与えることができる情報であれば、他の情報でもよい。例えば、設定期間が長い眼画像特徴データ、著名なデザイナーが設定した眼画像特徴データ、設定したユーザが多いパラメータなどの価値が高いとされる。また、多くのファンに慕われる芸能人が設定した眼画像特徴データも、ファンにとっては価値が高いと考えられる。
なお、設定中の期間が長い眼画像特徴データほど価値が高く評価されてもよい。また、ユーザ関連情報が所定の条件(例えば、著名ユーザである場合または対象ロボット100Aのユーザのユーザ関連情報と共通項目数が所定数以上)を満たす場合は、当該ユーザ関連情報に関連付けられた眼画像特徴データが当該所定の条件を満たさない場合よりも価値が高く評価されてもよい。また、使用したユーザの数が多いパラメータほど価値が高く評価されてもよい。
特徴データ設定システム200は、対象ロボット100Aの眼画像特徴データの更新を行う場合、いままで対象ロボット100Aに設定されていた眼画像特徴データの価値と同一の価値または所定の範囲内にある価値の眼画像特徴データを対象ロボット100Aのユーザに提示してもよい。一例として、占有期間の長短に基づいて価値が決められる場合、対象ロボット100Aの眼画像特徴データと同じぐらい長く占有されていた眼画像特徴データが抽出されてタッチパネルディスプレイ210に出力される。つまり、現在の眼画像特徴データと、同じぐらいお気に入りとされた眼画像特徴データがユーザに提示される。
また、占有可能な眼画像特徴データを、ポイントなどの金銭的な価値を有するものと交換する仕組みが設けられてもよい。
(変形例2)
ロボット100に設定中の眼画像特徴データは、設定期間情報が予め定められた期間を超える場合に継続した設定を不可とされてもよい。これによれば、予め定められた期間を超えて同じ眼画像特徴データの設定を続けることが抑制されるので、ユーザに新しい眼画像特徴データの設定を促すことができる。なお、設定期間情報が予め定められた期間を超える眼画像特徴データであっても、所定の条件(ポイントの獲得や課金など)によって、同じ眼画像特徴データを継続して設定可能としてもよい。
(変形例3)
特徴データ設定システム200は、他のロボット100によって設定中の眼画像特徴データであっても、他のロボット100のユーザから許諾を受けた場合には眼画像特徴データを対象ロボット100Aに設定可能としてもよい。これによれば、他のロボット100で設定中の眼画像特徴データであっても、対象ロボット100Aに設定できる。なお、許諾をした他のロボット100に設定中の眼画像特徴データは、継続して設定することが不可とされてもよいし、継続して設定することが可能とされてもよい。継続して設定することが可能な場合には、同じ眼画像特徴データが複数のロボット100に設定されることになる。
(変形例4)
眼画像特徴データは、ロボット群202に含まれるロボット100の台数の増加に応じて、ユーザによって選択可能な種類が増加してもよい。例えば、ロボット群202に含まれるロボット100の台数が予め定められた台数を超えると、ユーザが選択できる眼画像174の形状や色の種類などが増加する。これによれば、ロボット100の台数が増加するほどユーザが設定可能な眼画像特徴データの種類が増加する。
(変形例5)
特徴データ設定システム200は、対象ロボット100Aの存在する位置を含む所定領域内に位置する他のロボット100に設定されている特徴データとは異なる特徴データを対象ロボット100Aに設定してもよい。従って、対象ロボット100Aの存在する位置を含む所定領域内に位置する他のロボット100で設定中の特徴データが、当該対象ロボット100Aに設定できない特徴データとなる。ここでいう所定領域とは、都道府県や市区町村などの地域やサーバ206などの機器の設置位置を基準とした所定範囲などである。従って、ユーザが選択した眼画像特徴データと同じ眼画像特徴データが他のロボット100に設定中であっても、当該他のロボット100が所定領域外に位置していれば当該選択眼画像特徴データを対象ロボット100Aに設定できるので、対象ロボット100Aに設定できる眼画像特徴データの選択の幅が広がる。
ロボット100の存在する位置は、例えば、ロボット100に備えられるGPSによって判定されてもよいし、ロボット100の充電装置の存在する位置で判定されてもよい。
充電装置は、ロボット100が移動する家屋内に設置される。ロボット100は、バッテリー118の充電率が所定値以下になった場合に、自身で充電装置まで移動し、充電装置の所定位置でバッテリー118への充電を行う。また、充電装置は、情報処理装置の機能を有し、ロボット100、端末装置204およびサーバ206と通信可能とされる。そして、例えば、充電装置に割り当てられたIPアドレスから特定される充電装置の位置がロボット100の存在する位置とされてもよい。
(変形例6)
ロボット100の充電装置に、サーバ206が有する眼画像判定部234、選択眼画像取得部236、眼画像出力部238、およびミックス眼画像生成部240などの機能を持たせてもよい。
この変形例では、ロボット群202に含まれる他のロボット100から設定中の眼画像特徴データをサーバ206が受信すると、サーバ206は当該眼画像特徴データを充電装置へ送信する。これにより、充電装置は他のロボット100で設定中の眼画像特徴データを把握できる。そして、端末装置204は、対象ロボット100Aに眼画像特徴データを設定する場合、充電装置と通信を行うことによって対象ロボット100Aに固有の眼画像特徴データを設定する。
(変形例7)
特徴データ設定システム200は、サーバ206を備えず、ロボット100で設定中の特徴データ(以下では例として眼画像特徴データ)が端末装置204間で送受信されることで他のロボット100が設定中の眼画像特徴データを端末装置204またはロボット100が蓄積し、蓄積した設定中の眼画像特徴データとは異なる眼画像特徴データを対象ロボット100Aに設定してもよい。他のロボット100が設定中の眼画像特徴データを蓄積した眼画像特徴データの集合を「眼画像リスト」と呼ぶ。すなわち、端末装置204またはロボット100が眼画像リストを保持し、端末装置204またはロボット100がサーバ206と同様の機能を有する。これにより、他のロボット100によって設定中の眼画像特徴データを端末装置204またはロボット100が把握するため、特徴データ設定システム200の構成にサーバ206が不要となる。
また、同一のロボット群202に所属するロボット100が、自律的に眼画像特徴データの重複を避けるように眼画像特徴データを変更してもよい。例えば、対象ロボット100Aは、自身の眼画像特徴データを送受信した他のロボット100との間での眼画像特徴データの重複をさける。これにより、対象ロボット100Aの生活圏(ユーザの生活圏)での眼画像特徴データの重複が避けられることになる。「ユーザの生活圏」とは、ユーザが生活において行動する範囲や地域であり、頻繁に足を運ぶ店舗、時間帯など、生活における物理的な位置情報と時間情報とで表現される。すなわち、同じ地域に住む人であっても、利用する店舗が異なれば生活圏は異なると言える。
特徴データ設定システム200がサーバ206を備えない場合、対象ロボット100Aが属するロボット群202は、ユーザの生活圏において実際に他のロボット100に出会うことで形成される。すなわち、対象ロボット100Aがロボット群202を形成するためには、ユーザに連れられて場所を移動し、移動先で他のロボット100を認識することで次第に形成される。一般に、人の生活圏は大体において固定化されており、一定の期間が経過すれば、ユーザの生活圏に存在するロボット100を把握できる。このように形成されたロボット群202は、主観的な条件に基づいて決定されたものである。ユーザの生活圏において存在することを条件にロボット群202を形成することで、そのロボット群202の中で、眼画像特徴データの重複を避けることができる。言い換えると、ユーザの生活圏において、対象ロボット100Aは、固有の眼画像174を有することになる。このように形成されるロボット群202は、対象ロボット100Aを主体としたものになり、同一の地域に存在するロボット100であっても、ユーザの生活圏が異なれば、異なるロボット群202になる。
ロボット100は、例えば、電源が投入された時点から一定の期間が経過してロボット群202を構築した後、眼画像特徴データを変更できるようにする。これにより、眼画像特徴データが重複する確率を低くできる。一定の期間は、デフォルト眼画像のみが設定され、一定の期間が経過した場合に、眼画像174を変更できるようにしてもよい。また、一定の期間に加えて、ユーザに別の場所へ連れて行かれた回数が所定の回数を超えた場合にロボット群202が構築されたとしてもよいし、ロボット群202に登録されている他のロボット100の台数が所定数を越えた場合にロボット群202が構築されたとしてもよい。また、所定の距離内に近づいたロボット100同士で、それぞれが保持する眼画像リストを交換してもよい。
(変形例8)
一のロボット100が他のロボット100に対する親密度に応じて、他のロボット100に関連する動作を行ってもよく。親密度は、一のロボット100の特徴と他のロボット100の特徴とが類似している場合に、一のロボット100の特徴と他のロボット100の特徴とが非類似の場合よりも高くなってもよい。
他のロボット100に関連する動作とは、例えば、ロボット100の近辺に親密度が所定値以上となっている他のロボット100が存在している場合に、ロボット100が実行する動作であり、ロボット100が自身のユーザに対して、親密度の高い他のロボット100や他のロボット100のユーザを認識させる動作(以下「紹介動作」という。)である。
例えば、ロボット100と他のロボット100との親密度が所定値以上となり、ロボット100が自身のユーザの存在を検知した場合、ロボット100は親密度が所定値以上となった他のロボット100または当該他のロボット100のユーザを自身のユーザに知らせる。これにより、ロボット100のユーザは、自身のロボット100が親密になった他のロボット100または当該他のロボット100のユーザの存在を知ることができる。これにより、ユーザ同士が交流する切っ掛けが生じる。
なお、ロボット100が自身のユーザの存在を検知した場合とは、例えば、ロボット100が備えるカメラが自身のユーザを撮像した場合、ロボット100が備えるマイクに自身のユーザの声が入力された場合、ロボット100が備える通信部126が自身のユーザが使用する端末装置204から出力されるIDを受信した場合などである。
ロボット100の親密度が所定値以上となった他のロボット100または当該他のロボット100のユーザを自身のユーザに知らせる紹介動作は、例えば、ロボット100による所定ジェスチャーや自身のユーザが使用する端末装置204への所定情報の送信などによって行われる。
所定ジャスチャーは、例えば、ロボット100が他のロボット100の周囲を走行する、ロボット100が他のロボット100の方向を向く、ロボット100が他のロボット100に向かった手106を動かすなどである。また、所定情報の送信は、例えば、他のロボット100のユーザの顔写真を表示させる、他のロボット100に固有の眼画像174を表示させるなどである。他のロボット100のユーザの顔写真や他のロボット100に固有の眼画像174を示すデータは、親密度が所定値以上となったロボット100同士で共有される。
また、ロボット100が紹介動作は一例として以下の態様がある。
第1の紹介動作:ロボット100が他のロボット100に対して所定ジャスチャーを実行。この場合の所定ジェスチャーは、例えば、ロボット100が当該他のロボット100の周囲を走行。
第2の紹介動作:ロボット100が他のロボット100のユーザに対して所定ジャスチャーを実行。この場合の所定ジェスチャーは、例えば、ロボット100が他のロボット100のユーザの周囲を走行。また、ロボット100は、例えば、他のロボット100のユーザの顔を示す画像データを他のロボット100から取得し、カメラで撮像した画像データに基づく顔認証により、他のロボット100のユーザを識別する。または、他のロボット100が自身のユーザが所持する端末装置204の位置情報をロボット100へ送信し、ロボット100は当該位置情報により他のロボット100のユーザを識別する。
第3の紹介動作:ロボット100が自身のユーザと他のロボット100に対して所定ジェスチャーを実行。この場合の所定ジェスチャーは、例えば、自信のユーザと他のロボット100の方向へ交互に向きを変える。
第4の紹介動作:ロボット100が自身のユーザと他のロボット100のユーザに対して所定ジャスチャーを実行。この場合の所定ジェスチャーは、例えば、自信のユーザと他のロボット100のユーザの方向へ交互に向きを変える。
また、ロボット100の特徴と他のロボット100の特徴とが類似している場合に親密度が高くなるとは、例えば、眼画像特徴データや音声特徴データなどの特徴データが類似するロボット100同士の親密度が高くなることをいう。この場合の親密度の上昇は、上述したような識別IDの送受信などによる親密度の上昇よりも高く設定されてもよい。これにより、類似した眼画像特徴データを有するロボット100同士の親密度は急激に高くなる。
さらに、親密度は、特徴の類似の度合いに応じて向上の度合いが変化する。すなわち、親密度は、類似度が高いほどより向上し、類似度が低い(非類似)の場合には変化しない。
(変形例9)
特徴データは、パラメータ(パラメータセット)によって生成される眼画像特徴データだけでなく、AIによって生成された眼画像特徴データであってもよい。なお、特徴データをAIによって生成しても、特徴データはパラメータによって特定される。
また、特徴データは、眼画像特徴データや音声特徴データに限らず、経時的要素を含むデータであってもよい。これにより、特徴データに経時的な変化を与えることができる。経時的要素を含むデータとは、例えばロボット100の振る舞い(動作)であり、振る舞いの開始タイミングから0秒後、1秒後、2秒後、・・・におけるロボット100の行動を示すモーションパラメータセットの組み合わせが特徴データとされてもよい。なお、ロボット100の経時的要素を含むデータは、ロボット100の振る舞いに限らず、ロボット100の瞼の動きや、ロボット100の顔がディスプレイ表示される場合には顔の表情など、他の経時的変化であってもよい。
この場合、振る舞いに応じて動作する前輪、後輪及びこれらを動作させる駆動機構等が本発明の「出力装置」に相当する。
さらに、特徴データは、ロボット100の肌触り(感触)を示す制御パラメータにより構成される肌触りデータ、ロボット100の動きの癖を示す制御パラメータにより構成される癖データ、音素パラメータにより生成されるロボット100から発生される音声特徴データ、ロボット100が出力する味を示す制御パラメータにより構成される味データ、ロボット100が出力する臭いを示す制御パラメータにより構成される臭いデータとされてもよい。なお、ロボット100の感触は、例えば、ロボット100の表面に配列される圧電素子によって再現され、ロボット100の味は、食品を製造できる3Dプリンタで生成される食品によって再現され、ロボット100の臭いは、嗅覚ディスプレイで再現される臭いとされる。
(変形例10)
特徴データが固有とされる装置をロボット100以外の装置としてもよい。当該装置は、例えば、ロボット100のアイコン画像をディスプレイに表示する端末装置204である。アイコン画像は、例えば、ロボット100のユーザを示す識別情報(ID)毎または端末装置204毎に割り当てられる。固有とされる特徴データは、例えば、ロボット100を示すアイコンの眼画像174である。また、端末装置204のディスプレイに表示される仮想キャラクターのデザイン(目の色や形、服の色や形状、髪形、および顔の輪郭など、並びにこれらの少なくとも一つの組み合わせ)が固有の特徴データとされてもよい。さらに、3Dホログラム表示装置に表示される仮想キャラクターのデザインが固有の特徴データとされてもよい。
(変形例11)
特徴データの設定は、端末装置204以外の他の装置で行われてもよい。例えば、ロボット100にタッチパネルディスプレイなどの入力装置が備えられ、当該タッチパネルディスプレイへの入力操作によって特徴データが設定されてもよい。
(変形例12)
特徴データは、ロボット100の特徴の変化態様を示すデータであってもよい。例えば、特徴データは、一定期間におけるロボット100の眼を構成するパラメータ(例えば、色相)の変化態様を基礎づける値(例えば、一定期間における色相の差分を示す値)であってもよい。これによれば、ロボット100の変化態様をロボット100の特徴にできる。
(変形例13)
特徴データ設定システム200は、ロボット100の特徴データの一部又は全部を、特徴データの設定後からの時間の経過とともに所定の規則に従って変化させてもよい。例えば、特徴が眼である場合、特徴データ設定システム200は、特徴データの設定後から経過した時間が長いほど、断続的または連続的にロボット100の虹彩画像を小さくしてもよい。また、特徴が音声である場合、特徴データ設定システム200は、特徴データの設定後から経過した時間が長いほど、断続的または連続的にロボット100のピッチを高くしてもよい。ロボット100の特徴を時間の経過とともに所定の規則に従って変化させることにより、ユーザが時間の変化に伴うロボットの特徴の変化の傾向を認識すれば、ユーザに、ロボット100があたかも生物であるかのような感覚(生物感)を与えうる。
この場合において、特徴データ設定システム200は、一のロボット100の変化後の特徴データと同一または類似でなく、かつ、一のロボット100の変化前の特徴データと同一または類似の特徴データを、当該一のロボット100と異なるロボット100に設定可能にしてもよい。
また、時間が経過していない時点(開始時点)における特徴データの存在範囲は、ある一定時間経過後における特徴データの存在範囲と、一部又は全部が異なる範囲であることが好ましい。
このようにすることで、時間の経過とともに開始時点における特徴データの占有が解除されるので、ロボット100の生物感を高めながら、新たなロボット100に対し、当該特徴データの設定が可能になる。
また、特徴データの変化に当たっては、類似の範囲を逸脱しないように変化させてもよいし、又は類似の範囲を逸脱するように変化させてもよい。類似の範囲を逸脱するように特徴データを変化させる場合は、類似の範囲を逸脱するまでに所定の期間がかかり、かつ、段階的に特徴データを変化させることが好ましい。例えば、類似の範囲を逸脱するまでに1年かかるようにするとともに、変化させるパラメータについて、「類似の範囲を逸脱するまでの量を当該所定の期間に含まれる単位期間の数(例えば日数であれば365)で割ることで得られる値」を単位期間(例えば1日)当たりの変化量としてもよい。
また、ロボット100に疑似的な年齢を設定し、設定可能な特徴データが疑似的な年齢に応じて変化してもよい。すなわち、ロボット100の年齢に応じて設定可能なパラメータの範囲が異なってもよい。疑似的な年齢は、一例として、ロボット100を起動させてからの経過時間に応じて加算される。この場合、例えば3か月ごとにロボット100の年齢が1つ加算されるように、実際の時間の進行とロボット100の年齢の進行とが一致しなくてもよい。
そして、ロボット100の年齢が加算されると、例えば設定可能な音声の特徴データが高い音から低い音へ変化する。これにより、使用期間の長いロボット100の特徴データの占有が解除されやすくなり、新たなロボット100(年齢の若いロボット100)が使用できる特徴データの数が増加する。なお、ロボット100が老齢となると、ロボット100の瞼が落ちるように設定可能な眼画像174が変化してもよい。
(変形例14)
特徴データ設定システム200は、高齢者が認識しやすい特徴となるように、特徴データを変化させてもよい。
例えば、人は、加齢に伴って、視力が低下しやすくなり、黄色い色などの特定の色を認識しにくくなる。このことに鑑みて、特徴データ設定システム200は、眼が特徴である場合、虹彩画像または瞳孔画像が大きくなるように特徴データを変化させてもよい。これにより、ユーザが長期間ロボット100を使用した場合において、ロボット100に表示される眼画像174の虹彩画像または瞳孔画像が年月の経過とともに比較的大きくなることで、ユーザが加齢によって視力が低下していたとしても、ロボット100の眼画像174がユーザにとってしやすいやすい画像となりうる。
また、例えば、人は、加齢に伴って、高い周波数の音を聞き取りづらくなりやすい。このことに鑑みて、特徴データ設定システム200は、音声が特徴である場合、発音される音声の周波数が低くなるように特徴データを変化させてもよい。これにより、ユーザが長期間ロボット100を使った場合において、ロボット100から発生される音声が年月の経過とともに比較的低周波の音声となることで、ユーザが加齢難聴によって高い周波数の音を聞き取りづらくなっていたとしても、ロボット100の音声がユーザにとって聞き取りやすい音声となりうる。
(変形例15)
特徴データ設定システム200は、ロボット100の特徴の出力後に、カメラ、マイク、接触センサ等のセンサで取得された情報に基づいて、ユーザの反応が肯定的な反応となるように、ロボット100の特徴データを変化させてもよい。例えば、特徴データ設定システム200は、ロボット100の特徴の出力後に、カメラ、マイク、接触センサ等のセンサで取得された情報に基づいて、ユーザの反応を、肯定、中立、否定の3種類に分類する。肯定、中立、否定は、例えば、ロボット100が特徴を出力してから所定時間内にユーザがロボット100に接触した回数や時間、話しかけた回数や時間、及び視線を向けた回数や時間の少なくとも一つによって分類される。一例として、ユーザによるロボット100への接触等の回数が多いほど、又はこれらの時間が長いほどユーザの反応が肯定的であるとされる。また、肯定、中立、否定は、ユーザの表情、ユーザの音声の特徴量(音声の高低)等に基づいて分類されてもよい。
その後、特徴データ設定システム200は、例えば、ユーザの反応が肯定となるように特徴データを特徴量空間に基づいて変化させる。特徴量空間は、特徴データのパラメータの値に基づく空間であり、肯定、否定、及び中立の領域(以下「反応領域」という。)を有している。この反応領域は、対象ロボット100Aに設定された特徴データに対するユーザの過去の反応に応じて定められる。そして、特徴データ設定システム200は、肯定の領域の中央により近づくように特徴データを変化させる。これに限らず、特徴データ設定システム200は、ユーザの反応が否定であった特徴データを否定の領域から外れるように、すなわち肯定又は中立の領域に含まれるように変化させてもよい。
なお、特徴量空間の反応領域は、設定した特徴データとこれに対するユーザの反応に応じて動的に変化する。すなわち、特徴データ設定システム200は、対象ロボット100Aに設定された特徴データの数が多くなるほど、特徴データに対するユーザの反応をより多く取得できるので、これに応じて反応領域を変化させる。これにより、反応領域は、対象ロボット100Aに設定された特徴データの数が多くなるほど、よりユーザの嗜好に即したものとなる。
(変形例16)
特徴データ設定システム200は、所定の条件充足前はユーザが特徴データを変更できず、所定の条件充足後に、ユーザによる特徴データの一部又は全部の変更が可能になってもよい。ユーザが変更可能な特徴データは、上述したような自動で変化する特徴データとは重複しないことが好ましい。所定の条件とは、例えば、ユーザがロボット100の使用を開始してから予め定められた時間が経過するまでや、ユーザが所定のポイントの獲得や、所定の金額の課金を行うことである。
このようにユーザが設定変更可能な特徴データの範囲を限定することで、ロボット100の特徴をユーザが容易に変更できるものではないかのような印象、ひいては先天的または後天的にロボット100が獲得した特徴であるかのような印象をユーザに与えうる。
(変形例17)
特徴データ設定システム200は、年齢、性別、居住区域などのユーザの属性に応じて、ロボット100に設定可能な特徴データの範囲が定められてもよい。これによれば、ロボット100に設定可能な特徴データをユーザの属性に応じて異なるものにできる。例えば、特徴データ設定システム200は、ロボット100のユーザの年齢が所定以上であれば、ユーザと同年齢の人が認識しにくい特徴を示す特徴データのロボット100への設定を禁止してもよい。複数のユーザがいる場合には、特徴データ設定システム200は、当該複数のユーザのいずれかが認識しにくい特徴を示す特徴データのロボット100への設定を禁止してもよい。
この場合、特徴データ設定システム200は、年齢、性別、居住区域などのユーザの属性とロボット100に設定可能な特徴データとを関連付けて記憶するデータベースを参照して、ロボット100に設定可能な特徴データを限定してもよい。例えば、特徴データ設定システム200は、ユーザの属性ごとに、ユーザが好む又は嫌う傾向にある周波数帯を認識し、生成される音声の周波数が当該周波数帯に含まれる又は逸脱するような特徴データの設定を促すような情報を端末装置204等に出力してもよい。
(変形例18)
ロボット100の特徴とは、上述した眼画像174、音声、振る舞いおよび表情のように、特徴データに基づいて所定の規則に従って生成され、かつ、人が知覚可能な特徴であるが、以下のような性質をさらに備えていてもよい。
・特徴データに加え、時間を変数とする関数の出力を加味して生成される特徴。
ここで、時間を変数とする関数の出力の例は、ある時点におけるロボット100の内部状態を示すデータ(人に対する選好性、ロボット100の興奮度、注視点など)またはある時点におけるロボット100に設けられたセンサから出力されたデータである。
この特徴は、時間を変数とする関数の出力を加味して生成されるので、時間に応じて変化しうる。しかし、同一の特徴データから生成された特徴はある共通性を有するため、特徴を知覚した人に同一またはほぼ同一の印象を与えうる。例えば、同一の眼画像特徴データから生成される眼画像174は、ロボット100の視線(または注視点)に応じて虹彩画像の位置や形状などが変化しうる。しかし、例えば、生成される複数の眼画像174の間に例えば外側の画像よりも内側の画像のほうが濃い色合いとなるなどの共通性があれば、当該複数の眼画像174を視認した人に対して、同一またはほぼ同一の印象を与えうる。
結果として、ロボット100固有の特徴データから生成された特徴を知覚した人に対して、ロボット100固有の印象を与えうる。
以上、本発明を、上記実施形態および変形例を用いて説明したが、本発明の技術的範囲は上記実施形態および変形例に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施形態および変形例に多様な変更または改良を加えることができ、該変更または改良を加えた形態も本発明の技術的範囲に含まれる。
本発明は、例えば、ロボットなどの装置にデータを設定する場合に有用である。
100 ロボット
100A 対象ロボット(対象のロボット)
100B 他のロボット
100C 他のロボット
100D 他のロボット
171 スピーカー
174 眼画像(所定画像)
200 特徴データ設定システム(特徴データ設定装置)
204 端末装置
236 選択眼画像取得部(取得手段)
238 眼画像出力部(出力手段)
240 ミックス眼画像生成部(生成手段)

Claims (28)

  1. 出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データのうち、複数の前記ロボットを含むロボット群において対象の前記ロボットの固有の特徴データを前記対象のロボットに設定する特徴データ設定装置であって、
    前記ロボット群に含まれる他の前記ロボットに設定中の前記特徴データとは異なる前記特徴データの候補をユーザが知覚可能な形態で前記出力装置に出力する出力手段と、
    ユーザが選択した特徴データを取得する取得手段とを備え、
    前記出力手段は、前記取得手段で取得した前記特徴データが他の前記ロボットで設定されている場合、前記特徴データに対して所定の類似範囲内にある前記特徴データを前記出力装置に出力する
    特徴データ設定装置。
  2. 出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データのうち、複数の前記ロボットを含むロボット群において対象の前記ロボットの固有の特徴データを前記対象のロボットに設定する特徴データ設定装置であって、
    前記特徴データは、前記ロボット群に含まれる前記ロボットの台数に応じて、他の前記ロボットで設定中の前記特徴データと近接して設定可能な幅が決定される特徴データ設定装置。
  3. 前記特徴データは、画像表示装置に表示される所定画像を示す画像データである請求項1又は2に記載の特徴データ設定装置。
  4. 前記画像データは、前記ロボットの眼を示す眼画像特徴データである請求項に記載の特徴データ設定装置。
  5. 前記所定画像は、複数枚の画像を組み合わることによって構成される請求項または請求項に記載の特徴データ設定装置。
  6. 前記所定画像は、静止画像と動画像との組み合わせによって構成される請求項から請求項のいずれか1項に記載の特徴データ設定装置。
  7. 前記ロボット群に含まれる他の前記ロボットに設定中の前記特徴データとは異なる前記特徴データの候補をユーザが知覚可能な形態で前記出力装置に出力する出力手段を備え、
    前記出力手段は、他のユーザが使用する前記ロボットに設定中の前記特徴データに対して所定の類似範囲内にある前記特徴データを前記出力装置に出力する請求項1~6のうちいずれか1項に記載の特徴データ設定装置。
  8. 前記ロボット群に含まれる他の前記ロボットに設定中の前記特徴データとは異なる前記特徴データの候補をユーザが知覚可能な形態で前記出力装置に出力する出力手段を備え、
    前記出力手段は、前記対象のロボットを使用するユーザに関連するユーザ関連情報に基づいた前記特徴データを前記出力装置に出力する
    請求項から請求項のいずれか1項に記載の特徴データ設定装置。
  9. 第1の前記ロボットで設定中の前記特徴データと第2の前記ロボットで設定中の前記特徴データとに基づいて、前記対象のロボットに設定可能な新たな前記特徴データを生成する生成手段を備える請求項1から請求項のいずれか1項に記載の特徴データ設定装置。
  10. 前記生成手段は、前記第1のロボットと前記第2のロボットとが所定の条件を満たした場合に、前記新たな特徴データを生成する請求項に記載の特徴データ設定装置。
  11. 前記第1のロボットの存在する位置を含む所定領域内に位置する前記第2のロボットに設定されている前記特徴データとは異なる前記特徴データを前記対象のロボットに設定する請求項10に記載の特徴データ設定装置。
  12. 前記特徴データは、スピーカーから出力される音を示す音データである請求項1から請求項11のいずれか1項に記載の特徴データ設定装置。
  13. 前記音データは、前記ロボットの音声を示す音声特徴データである請求項12に記載の特徴データ設定装置。
  14. 前記特徴データは、前記特徴データの設定状態に基づいた価値を示す価値情報が関連付けられる請求項1から請求項13のいずれか1項に記載の特徴データ設定装置。
  15. 一の前記ロボットは、他の前記ロボットに対する親密度に応じて、当該他のロボットに関連する動作を行い、
    前記親密度は、前記一のロボットの特徴と前記他のロボットの特徴とが類似している場合に、前記一のロボットの特徴と前記他のロボットの特徴とが非類似の場合よ
    り高くなる請求項1から請求項14のいずれか1項に記載の特徴データ設定装置。
  16. 前記特徴データは、前記対象のロボットの特徴の変化態様を示すデータである請求項1から請求項15のいずれか1項に記載の特徴データ設定装置。
  17. 前記特徴データの一部又は全部は、前記特徴データの設定後からの時間の経過とともに所定の規則に従って変化する請求項1から請求項16のいずれか1項に記載の特徴データ設定装置。
  18. 所定の条件充足前は前記対象のロボットのユーザが前記特徴データを変更できず、所定の条件充足後に前記対象のロボットのユーザによる前記特徴データの一部又は全部の変更を可能とする請求項1から請求項17のいずれか1項に記載の特徴データ設定装置。
  19. 前記対象のロボットのユーザの属性に応じて、前記対象のロボットに設定可能な前記特徴データの範囲が定められる請求項1から請求項18のいずれか1項に記載の特徴データ設定装置。
  20. 前記特徴データは、経時的要素を含むデータである請求項1から請求項19のいずれか1項に記載の特徴データ設定装置。
  21. 出力装置を備え、
    前記出力装置からユーザが知覚可能な形態で出力される自身の特徴を示す特徴データのうち、複数のロボットを含むロボット群において自身に固有の特徴データに基づいて、前記特徴を前記出力装置に出力するロボットであって、
    前記ロボット群に含まれる他の前記ロボットに設定中の前記特徴データとは異なる前記特徴データの候補をユーザが知覚可能な形態で前記出力装置に出力する出力手段と、
    ユーザが選択した特徴データを取得する取得手段とを備え、
    前記出力手段は、前記取得手段で取得した前記特徴データが他の前記ロボットで設定されている場合、前記特徴データに対して所定の類似範囲内にある前記特徴データを前記出力装置に出力するロボット。
  22. 出力装置からユーザが知覚可能な形態で出力される自身の特徴を示す特徴データのうち、
    複数のロボットを含むロボット群において対象の自身に固有の特徴データを前記特徴を前記出力装置に出力するロボットであって、
    前記特徴データは、前記ロボット群に含まれる前記ロボットの台数に応じて、他の前記
    ロボットで設定中の前記特徴データと近接して設定可能な幅が決定されるロボット。
  23. 出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データのうち、複数の前記ロボットを含むロボット群において前記ロボットに固有の特徴データを前記ロボットに送信して設定させる端末装置であって、
    前記ロボット群に含まれる他の前記ロボットに設定中の前記特徴データとは異なる前記特徴データの候補をユーザが知覚可能な形態で前記出力装置に出力する出力手段と、
    ユーザが選択した特徴データを取得する取得手段とを備え、
    前記出力手段は、前記取得手段で取得した前記特徴データが他の前記ロボットで設定されている場合、前記特徴データに対して所定の類似範囲内にある前記特徴データを前記出力装置に出力する端末装置。
  24. 出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データの
    うち、複数の前記ロボットを含むロボット群において前記ロボットに固有の特徴データを
    記ロボットに送信して設定させる端末装置であって、
    前記特徴データは、前記ロボット群に含まれる前記ロボットの台数に応じて、他の前記
    ロボットで設定中の前記特徴データと近接して設定可能な幅が決定される端末装置。
  25. 前記特徴データは、前記ロボットの眼の画像データであり、形状および色の少なくとも一方で特定され、前記形状および前記色の少なくとも一方が対象の前記ロボットに固有とされる請求項23又は24に記載の端末装置。
  26. 前記ロボットの眼の画像データに重畳させる装飾画像を示す装飾画像データを前記ロボットへ送信して設定させる
    請求項23又は24に記載の端末装置。
  27. 出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データのうち、複数のロボットを含むロボット群においてロボットに固有の特徴データを前記ロボットに送信して設定する特徴データ設定方法であって、
    前記ロボット群に含まれる他の前記ロボットに設定中の前記特徴データとは異なる前記特徴データの候補をユーザが知覚可能な形態で前記出力装置に出力する出力ステップと、
    ユーザが選択した特徴データを取得する取得ステップとを含み、
    前記出力ステップは、前記取得ステップで取得した前記特徴データが他の前記ロボットで設定されている場合、前記特徴データに対して所定の類似範囲内にある前記特徴データを前記出力装置に出力する特徴データ出力方法。
  28. 出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データのうち、複数のロボットを含むロボット群においてロボットに固有の特徴データを前記ロボットに送信して設定する特徴データ設定方法であって、
    前記特徴データは、前記ロボット群に含まれる前記ロボットの台数に応じて、他の前記ロボットで設定中の前記特徴データと近接して設定可能な幅が決定される特徴データ設定方法。
JP2021511042A 2019-04-04 2019-04-04 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 Active JP7414299B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023216324A JP2024038028A (ja) 2019-04-04 2023-12-21 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/015020 WO2020202540A1 (ja) 2019-04-04 2019-04-04 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023216324A Division JP2024038028A (ja) 2019-04-04 2023-12-21 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法

Publications (2)

Publication Number Publication Date
JPWO2020202540A1 JPWO2020202540A1 (ja) 2020-10-08
JP7414299B2 true JP7414299B2 (ja) 2024-01-16

Family

ID=72667282

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021511042A Active JP7414299B2 (ja) 2019-04-04 2019-04-04 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法
JP2023216324A Pending JP2024038028A (ja) 2019-04-04 2023-12-21 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023216324A Pending JP2024038028A (ja) 2019-04-04 2023-12-21 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法

Country Status (2)

Country Link
JP (2) JP7414299B2 (ja)
WO (1) WO2020202540A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7320323B1 (ja) 2023-03-30 2023-08-03 Innovation Farm株式会社 ロボット販売装置及びロボット販売方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001157983A (ja) 1999-11-30 2001-06-12 Sony Corp ロボット装置及びロボット装置の性格判別方法
JP2001179665A (ja) 1999-12-24 2001-07-03 Toshiba Corp 知的ロボット
JP2001222520A (ja) 2000-02-10 2001-08-17 Sony Corp 情報処理装置及び方法
JP2001250045A (ja) 1999-12-30 2001-09-14 Sony Corp 購入システム及び方法、受注装置及び方法、データ販売代行システム、データ販売装置及び方法並びにコンピュータプログラム
CN101571930A (zh) 2008-04-30 2009-11-04 悠进机器人股份公司 可与人互动的机器人
JP2012155616A (ja) 2011-01-27 2012-08-16 Panasonic Corp コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム
JP2016137543A (ja) 2015-01-27 2016-08-04 カシオ計算機株式会社 ロボットおよびロボットシステム
US20160231645A1 (en) 2015-02-11 2016-08-11 Colorado Seminary, Which Owns And Operates The University Of Denver Rear-projected life-like robotic head
JP2017052075A (ja) 2015-09-11 2017-03-16 シャープ株式会社 応答装置および調整装置
WO2018097089A1 (ja) 2016-11-24 2018-05-31 Groove X株式会社 瞳を変化させる自律行動型ロボット
WO2019050034A1 (ja) 2017-09-11 2019-03-14 Groove X株式会社 相手を見つめる自律行動型ロボット

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001157983A (ja) 1999-11-30 2001-06-12 Sony Corp ロボット装置及びロボット装置の性格判別方法
JP2001179665A (ja) 1999-12-24 2001-07-03 Toshiba Corp 知的ロボット
JP2001250045A (ja) 1999-12-30 2001-09-14 Sony Corp 購入システム及び方法、受注装置及び方法、データ販売代行システム、データ販売装置及び方法並びにコンピュータプログラム
JP2001222520A (ja) 2000-02-10 2001-08-17 Sony Corp 情報処理装置及び方法
CN101571930A (zh) 2008-04-30 2009-11-04 悠进机器人股份公司 可与人互动的机器人
JP2012155616A (ja) 2011-01-27 2012-08-16 Panasonic Corp コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム
JP2016137543A (ja) 2015-01-27 2016-08-04 カシオ計算機株式会社 ロボットおよびロボットシステム
US20160231645A1 (en) 2015-02-11 2016-08-11 Colorado Seminary, Which Owns And Operates The University Of Denver Rear-projected life-like robotic head
JP2017052075A (ja) 2015-09-11 2017-03-16 シャープ株式会社 応答装置および調整装置
WO2018097089A1 (ja) 2016-11-24 2018-05-31 Groove X株式会社 瞳を変化させる自律行動型ロボット
WO2019050034A1 (ja) 2017-09-11 2019-03-14 Groove X株式会社 相手を見つめる自律行動型ロボット

Also Published As

Publication number Publication date
JP2024038028A (ja) 2024-03-19
JPWO2020202540A1 (ja) 2020-10-08
WO2020202540A1 (ja) 2020-10-08

Similar Documents

Publication Publication Date Title
JP7068709B2 (ja) 瞳を変化させる自律行動型ロボット
JP7320239B2 (ja) 音源の方向を認識するロボット
CN109475781B (zh) 理解物理接触的行为自主型机器人
JP7177497B2 (ja) 相手を見つめる自律行動型ロボット
CN109070330B (zh) 认生的行为自主型机器人
WO2018012446A1 (ja) 活動量をコントロールされる自律行動型ロボット
WO2018008323A1 (ja) 服を着る自律行動型ロボット
WO2018047802A1 (ja) 自然な距離感を保つ自律行動型ロボット
JP2024038028A (ja) 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法
JP7236142B2 (ja) 自律行動型ロボット
JP2022113701A (ja) 機器の制御装置、機器、機器の制御方法及びプログラム
JPWO2019088160A1 (ja) 反射行動を実行可能な自律行動型ロボット
JP2022157245A (ja) システム等
WO2020009098A1 (ja) ロボット
JP2022157238A (ja) システム等

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231221

R150 Certificate of patent or registration of utility model

Ref document number: 7414299

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150