JP7414299B2 - 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 - Google Patents
特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 Download PDFInfo
- Publication number
- JP7414299B2 JP7414299B2 JP2021511042A JP2021511042A JP7414299B2 JP 7414299 B2 JP7414299 B2 JP 7414299B2 JP 2021511042 A JP2021511042 A JP 2021511042A JP 2021511042 A JP2021511042 A JP 2021511042A JP 7414299 B2 JP7414299 B2 JP 7414299B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- feature data
- user
- eye image
- robots
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 31
- 230000008859 change Effects 0.000 claims description 42
- 230000002123 temporal effect Effects 0.000 claims description 6
- 238000005034 decoration Methods 0.000 claims description 4
- 230000033001 locomotion Effects 0.000 description 40
- 238000004891 communication Methods 0.000 description 27
- 238000003860 storage Methods 0.000 description 25
- 238000012986 modification Methods 0.000 description 20
- 230000004048 modification Effects 0.000 description 20
- 230000008569 process Effects 0.000 description 19
- 210000001747 pupil Anatomy 0.000 description 19
- 230000006870 function Effects 0.000 description 18
- 230000007246 mechanism Effects 0.000 description 17
- 210000000744 eyelid Anatomy 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 13
- 239000011295 pitch Substances 0.000 description 10
- 230000009471 action Effects 0.000 description 9
- 230000006399 behavior Effects 0.000 description 8
- 239000003086 colorant Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000008447 perception Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 241001469893 Oxyzygonectes dovii Species 0.000 description 6
- 241000282472 Canis lupus familiaris Species 0.000 description 5
- 241000282412 Homo Species 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 230000010365 information processing Effects 0.000 description 5
- 230000007935 neutral effect Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000002834 transmittance Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 210000001260 vocal cord Anatomy 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000008929 regeneration Effects 0.000 description 2
- 238000011069 regeneration method Methods 0.000 description 2
- 210000002784 stomach Anatomy 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- JOYRKODLDBILNP-UHFFFAOYSA-N Ethyl urethane Chemical compound CCOC(N)=O JOYRKODLDBILNP-UHFFFAOYSA-N 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000010370 hearing loss Effects 0.000 description 1
- 231100000888 hearing loss Toxicity 0.000 description 1
- 208000016354 hearing loss disease Diseases 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 235000019615 sensations Nutrition 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/36—Details; Accessories
- A63H3/38—Dolls' eyes
- A63H3/40—Dolls' eyes movable
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H30/00—Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
- A63H30/02—Electrical arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Toys (AREA)
Description
本発明の第1実施形態について説明する。図1は、本実施形態のロボット100の外観図であり、図1Aは、ロボット100の正面外観図である。図1Bは、ロボット100の側面外観図である。
(L1)白眼画像
白眼画像は、最下層の画像であり、眼画像174の白眼部分(周縁画像168)に対応する。白眼画像は、ロボット100の視線の動きに追随することはない固定の画像である。
(L2)虹彩画像
虹彩画像は、白眼画像の上に重ねられる画像である。虹彩画像は、眼画像174の虹彩領域162に対応する。虹彩画像は、ロボット100の視線の動きにともなって眼画像174において上下左右に移動する。
(L3)瞳孔画像
瞳孔画像は、虹彩画像の上に重ねられる。瞳孔画像は、眼画像174の瞳孔領域158に対応する。瞳孔画像は、ロボット100の視線の動きにともなって眼画像174において上下左右に移動する。
(L4)ハイライト画像
ハイライト画像は、瞳孔画像の上に重ねられる。ハイライト画像は、眼画像174のキャッチライト166に対応する。ハイライト画像は、ロボット100の視線の動きに追随することはない。ロボット100の向きが変化するとき、プロセッサ122は光入射方向に合わせてハイライト画像を移動させることにより、キャッチライト166の位置を調整する。
(L5)反射画像
反射画像は、ハイライト画像の上に重ねられる。反射画像は、瞳への映り込みである。プロセッサ122はロボット100の正面の撮像画像をゆがみなどを補正した上で、反射画像をハイライト画像の上に重ねる。反射画像はロボット100の視線の動きに追随することはない。ロボット100の向きが変化するとき、プロセッサ122は撮像画像に合わせて反射画像を変化させる。
(1) 眼画像特徴データが、RGBなどの連続的または断続的なパラメータで表される場合、数的に近い眼画像特徴データ。より具体的には、選択眼画像特徴データを表すパラメータに対して所定範囲内(例えば±5%以内など)にある眼画像特徴データ。眼画像特徴データが複数のパラメータにより表される場合には、一部のパラメータが選択眼画像特徴データの対応するパラメータに対して所定範囲内にあり、残りのパラメータが同一のパラメータである眼画像特徴データであってもよいし、全部のパラメータが選択眼画像特徴データの対応するパラメータに対して所定範囲内にある眼画像特徴データであってもよい。
(2) 2つの異なる眼画像特徴データを入力とし、当該2つの眼画像特徴データの類似度を出力するモデルを用いて、選択眼画像特徴データとの類似度を判定した場合、所定の類似度以上となる眼画像特徴データ。
次に本発明の第2実施形態について説明する。なお、本実施形態の特徴データ設定システム200の構成は、第1実施形態の特徴データ設定システム200の構成と同様であるので説明を省略する。
本発明の第3実施形態について説明する。図9は、本実施形態の特徴データ設定システム200の機能ブロック図である。図9に示されるようにサーバ206は、通信部230、記憶部232、眼画像判定部234、眼画像出力部238、選択眼画像取得部236に加えて、ミックス眼画像生成部240を備える。
本発明の第4実施形態について説明する。本実施形態では、ロボット100が備えるスピーカー171が出力する音を示す音声特徴データを、対象ロボット100Aに固有の特徴データとして対象ロボット100Aに設定する。本実施形態では、特徴データとする音声特徴データをロボット100から出力される音声を生成するための音声特徴データとする。すなわち、この音声特徴データから生成された対象ロボット100Aがスピーカー171から出力する音声は、他のロボット100とは重複しない対象ロボット100Aに特有の音声である。これにより、ロボット100から出力され、人の聴覚で認識できる音声をロボット100に特有のものにできる。スピーカー171が、本発明の「出力装置」の一例に相当する。また、スピーカー171から出力される音声が本発明の「ロボットの特徴」の一例に相当する。
特徴データ設定システム200は、眼画像特徴データの設定状態に基づいた価値を示す価値情報を眼画像特徴データに関連付けてもよい。これによれば、ロボット100に設定中の眼画像特徴データに価値の概念を与えることができる。上述した実施形態では、眼画像特徴データを占有する仕組みを説明したが、その占有期間の長短は、眼画像174に対するユーザの印象で変わる。ユーザが、その眼画像174を有するロボット100を気に入れば、当該眼画像174を長期間にわたり使い続けるだろうし、気に入らなければ、直ぐに変更してしまうことが予想される。ユーザが長く使いたくなる眼画像174は、いわゆる「お気に入り」であり、往々にして複数の人が、同一の眼画像174をお気に入りとして感じる可能性が高い。眼画像特徴データを占有する仕組みが設けられることで、市場原理が働き、眼画像特徴データに価値が生まれる。
ロボット100に設定中の眼画像特徴データは、設定期間情報が予め定められた期間を超える場合に継続した設定を不可とされてもよい。これによれば、予め定められた期間を超えて同じ眼画像特徴データの設定を続けることが抑制されるので、ユーザに新しい眼画像特徴データの設定を促すことができる。なお、設定期間情報が予め定められた期間を超える眼画像特徴データであっても、所定の条件(ポイントの獲得や課金など)によって、同じ眼画像特徴データを継続して設定可能としてもよい。
特徴データ設定システム200は、他のロボット100によって設定中の眼画像特徴データであっても、他のロボット100のユーザから許諾を受けた場合には眼画像特徴データを対象ロボット100Aに設定可能としてもよい。これによれば、他のロボット100で設定中の眼画像特徴データであっても、対象ロボット100Aに設定できる。なお、許諾をした他のロボット100に設定中の眼画像特徴データは、継続して設定することが不可とされてもよいし、継続して設定することが可能とされてもよい。継続して設定することが可能な場合には、同じ眼画像特徴データが複数のロボット100に設定されることになる。
眼画像特徴データは、ロボット群202に含まれるロボット100の台数の増加に応じて、ユーザによって選択可能な種類が増加してもよい。例えば、ロボット群202に含まれるロボット100の台数が予め定められた台数を超えると、ユーザが選択できる眼画像174の形状や色の種類などが増加する。これによれば、ロボット100の台数が増加するほどユーザが設定可能な眼画像特徴データの種類が増加する。
特徴データ設定システム200は、対象ロボット100Aの存在する位置を含む所定領域内に位置する他のロボット100に設定されている特徴データとは異なる特徴データを対象ロボット100Aに設定してもよい。従って、対象ロボット100Aの存在する位置を含む所定領域内に位置する他のロボット100で設定中の特徴データが、当該対象ロボット100Aに設定できない特徴データとなる。ここでいう所定領域とは、都道府県や市区町村などの地域やサーバ206などの機器の設置位置を基準とした所定範囲などである。従って、ユーザが選択した眼画像特徴データと同じ眼画像特徴データが他のロボット100に設定中であっても、当該他のロボット100が所定領域外に位置していれば当該選択眼画像特徴データを対象ロボット100Aに設定できるので、対象ロボット100Aに設定できる眼画像特徴データの選択の幅が広がる。
ロボット100の充電装置に、サーバ206が有する眼画像判定部234、選択眼画像取得部236、眼画像出力部238、およびミックス眼画像生成部240などの機能を持たせてもよい。
特徴データ設定システム200は、サーバ206を備えず、ロボット100で設定中の特徴データ(以下では例として眼画像特徴データ)が端末装置204間で送受信されることで他のロボット100が設定中の眼画像特徴データを端末装置204またはロボット100が蓄積し、蓄積した設定中の眼画像特徴データとは異なる眼画像特徴データを対象ロボット100Aに設定してもよい。他のロボット100が設定中の眼画像特徴データを蓄積した眼画像特徴データの集合を「眼画像リスト」と呼ぶ。すなわち、端末装置204またはロボット100が眼画像リストを保持し、端末装置204またはロボット100がサーバ206と同様の機能を有する。これにより、他のロボット100によって設定中の眼画像特徴データを端末装置204またはロボット100が把握するため、特徴データ設定システム200の構成にサーバ206が不要となる。
一のロボット100が他のロボット100に対する親密度に応じて、他のロボット100に関連する動作を行ってもよく。親密度は、一のロボット100の特徴と他のロボット100の特徴とが類似している場合に、一のロボット100の特徴と他のロボット100の特徴とが非類似の場合よりも高くなってもよい。
特徴データは、パラメータ(パラメータセット)によって生成される眼画像特徴データだけでなく、AIによって生成された眼画像特徴データであってもよい。なお、特徴データをAIによって生成しても、特徴データはパラメータによって特定される。
特徴データが固有とされる装置をロボット100以外の装置としてもよい。当該装置は、例えば、ロボット100のアイコン画像をディスプレイに表示する端末装置204である。アイコン画像は、例えば、ロボット100のユーザを示す識別情報(ID)毎または端末装置204毎に割り当てられる。固有とされる特徴データは、例えば、ロボット100を示すアイコンの眼画像174である。また、端末装置204のディスプレイに表示される仮想キャラクターのデザイン(目の色や形、服の色や形状、髪形、および顔の輪郭など、並びにこれらの少なくとも一つの組み合わせ)が固有の特徴データとされてもよい。さらに、3Dホログラム表示装置に表示される仮想キャラクターのデザインが固有の特徴データとされてもよい。
特徴データの設定は、端末装置204以外の他の装置で行われてもよい。例えば、ロボット100にタッチパネルディスプレイなどの入力装置が備えられ、当該タッチパネルディスプレイへの入力操作によって特徴データが設定されてもよい。
特徴データは、ロボット100の特徴の変化態様を示すデータであってもよい。例えば、特徴データは、一定期間におけるロボット100の眼を構成するパラメータ(例えば、色相)の変化態様を基礎づける値(例えば、一定期間における色相の差分を示す値)であってもよい。これによれば、ロボット100の変化態様をロボット100の特徴にできる。
特徴データ設定システム200は、ロボット100の特徴データの一部又は全部を、特徴データの設定後からの時間の経過とともに所定の規則に従って変化させてもよい。例えば、特徴が眼である場合、特徴データ設定システム200は、特徴データの設定後から経過した時間が長いほど、断続的または連続的にロボット100の虹彩画像を小さくしてもよい。また、特徴が音声である場合、特徴データ設定システム200は、特徴データの設定後から経過した時間が長いほど、断続的または連続的にロボット100のピッチを高くしてもよい。ロボット100の特徴を時間の経過とともに所定の規則に従って変化させることにより、ユーザが時間の変化に伴うロボットの特徴の変化の傾向を認識すれば、ユーザに、ロボット100があたかも生物であるかのような感覚(生物感)を与えうる。
特徴データ設定システム200は、高齢者が認識しやすい特徴となるように、特徴データを変化させてもよい。
特徴データ設定システム200は、ロボット100の特徴の出力後に、カメラ、マイク、接触センサ等のセンサで取得された情報に基づいて、ユーザの反応が肯定的な反応となるように、ロボット100の特徴データを変化させてもよい。例えば、特徴データ設定システム200は、ロボット100の特徴の出力後に、カメラ、マイク、接触センサ等のセンサで取得された情報に基づいて、ユーザの反応を、肯定、中立、否定の3種類に分類する。肯定、中立、否定は、例えば、ロボット100が特徴を出力してから所定時間内にユーザがロボット100に接触した回数や時間、話しかけた回数や時間、及び視線を向けた回数や時間の少なくとも一つによって分類される。一例として、ユーザによるロボット100への接触等の回数が多いほど、又はこれらの時間が長いほどユーザの反応が肯定的であるとされる。また、肯定、中立、否定は、ユーザの表情、ユーザの音声の特徴量(音声の高低)等に基づいて分類されてもよい。
特徴データ設定システム200は、所定の条件充足前はユーザが特徴データを変更できず、所定の条件充足後に、ユーザによる特徴データの一部又は全部の変更が可能になってもよい。ユーザが変更可能な特徴データは、上述したような自動で変化する特徴データとは重複しないことが好ましい。所定の条件とは、例えば、ユーザがロボット100の使用を開始してから予め定められた時間が経過するまでや、ユーザが所定のポイントの獲得や、所定の金額の課金を行うことである。
特徴データ設定システム200は、年齢、性別、居住区域などのユーザの属性に応じて、ロボット100に設定可能な特徴データの範囲が定められてもよい。これによれば、ロボット100に設定可能な特徴データをユーザの属性に応じて異なるものにできる。例えば、特徴データ設定システム200は、ロボット100のユーザの年齢が所定以上であれば、ユーザと同年齢の人が認識しにくい特徴を示す特徴データのロボット100への設定を禁止してもよい。複数のユーザがいる場合には、特徴データ設定システム200は、当該複数のユーザのいずれかが認識しにくい特徴を示す特徴データのロボット100への設定を禁止してもよい。
ロボット100の特徴とは、上述した眼画像174、音声、振る舞いおよび表情のように、特徴データに基づいて所定の規則に従って生成され、かつ、人が知覚可能な特徴であるが、以下のような性質をさらに備えていてもよい。
ここで、時間を変数とする関数の出力の例は、ある時点におけるロボット100の内部状態を示すデータ(人に対する選好性、ロボット100の興奮度、注視点など)またはある時点におけるロボット100に設けられたセンサから出力されたデータである。
100A 対象ロボット(対象のロボット)
100B 他のロボット
100C 他のロボット
100D 他のロボット
171 スピーカー
174 眼画像(所定画像)
200 特徴データ設定システム(特徴データ設定装置)
204 端末装置
236 選択眼画像取得部(取得手段)
238 眼画像出力部(出力手段)
240 ミックス眼画像生成部(生成手段)
Claims (28)
- 出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データのうち、複数の前記ロボットを含むロボット群において対象の前記ロボットの固有の特徴データを前記対象のロボットに設定する特徴データ設定装置であって、
前記ロボット群に含まれる他の前記ロボットに設定中の前記特徴データとは異なる前記特徴データの候補をユーザが知覚可能な形態で前記出力装置に出力する出力手段と、
ユーザが選択した特徴データを取得する取得手段とを備え、
前記出力手段は、前記取得手段で取得した前記特徴データが他の前記ロボットで設定されている場合、前記特徴データに対して所定の類似範囲内にある前記特徴データを前記出力装置に出力する
特徴データ設定装置。 - 出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データのうち、複数の前記ロボットを含むロボット群において対象の前記ロボットの固有の特徴データを前記対象のロボットに設定する特徴データ設定装置であって、
前記特徴データは、前記ロボット群に含まれる前記ロボットの台数に応じて、他の前記ロボットで設定中の前記特徴データと近接して設定可能な幅が決定される特徴データ設定装置。 - 前記特徴データは、画像表示装置に表示される所定画像を示す画像データである請求項1又は2に記載の特徴データ設定装置。
- 前記画像データは、前記ロボットの眼を示す眼画像特徴データである請求項3に記載の特徴データ設定装置。
- 前記所定画像は、複数枚の画像を組み合わることによって構成される請求項3または請求項4に記載の特徴データ設定装置。
- 前記所定画像は、静止画像と動画像との組み合わせによって構成される請求項3から請求項5のいずれか1項に記載の特徴データ設定装置。
- 前記ロボット群に含まれる他の前記ロボットに設定中の前記特徴データとは異なる前記特徴データの候補をユーザが知覚可能な形態で前記出力装置に出力する出力手段を備え、
前記出力手段は、他のユーザが使用する前記ロボットに設定中の前記特徴データに対して所定の類似範囲内にある前記特徴データを前記出力装置に出力する請求項1~6のうちいずれか1項に記載の特徴データ設定装置。 - 前記ロボット群に含まれる他の前記ロボットに設定中の前記特徴データとは異なる前記特徴データの候補をユーザが知覚可能な形態で前記出力装置に出力する出力手段を備え、
前記出力手段は、前記対象のロボットを使用するユーザに関連するユーザ関連情報に基づいた前記特徴データを前記出力装置に出力する
請求項1から請求項7のいずれか1項に記載の特徴データ設定装置。 - 第1の前記ロボットで設定中の前記特徴データと第2の前記ロボットで設定中の前記特徴データとに基づいて、前記対象のロボットに設定可能な新たな前記特徴データを生成する生成手段を備える請求項1から請求項8のいずれか1項に記載の特徴データ設定装置。
- 前記生成手段は、前記第1のロボットと前記第2のロボットとが所定の条件を満たした場合に、前記新たな特徴データを生成する請求項9に記載の特徴データ設定装置。
- 前記第1のロボットの存在する位置を含む所定領域内に位置する前記第2のロボットに設定されている前記特徴データとは異なる前記特徴データを前記対象のロボットに設定する請求項10に記載の特徴データ設定装置。
- 前記特徴データは、スピーカーから出力される音を示す音データである請求項1から請求項11のいずれか1項に記載の特徴データ設定装置。
- 前記音データは、前記ロボットの音声を示す音声特徴データである請求項12に記載の特徴データ設定装置。
- 前記特徴データは、前記特徴データの設定状態に基づいた価値を示す価値情報が関連付けられる請求項1から請求項13のいずれか1項に記載の特徴データ設定装置。
- 一の前記ロボットは、他の前記ロボットに対する親密度に応じて、当該他のロボットに関連する動作を行い、
前記親密度は、前記一のロボットの特徴と前記他のロボットの特徴とが類似している場合に、前記一のロボットの特徴と前記他のロボットの特徴とが非類似の場合よ
り高くなる請求項1から請求項14のいずれか1項に記載の特徴データ設定装置。 - 前記特徴データは、前記対象のロボットの特徴の変化態様を示すデータである請求項1から請求項15のいずれか1項に記載の特徴データ設定装置。
- 前記特徴データの一部又は全部は、前記特徴データの設定後からの時間の経過とともに所定の規則に従って変化する請求項1から請求項16のいずれか1項に記載の特徴データ設定装置。
- 所定の条件充足前は前記対象のロボットのユーザが前記特徴データを変更できず、所定の条件充足後に前記対象のロボットのユーザによる前記特徴データの一部又は全部の変更を可能とする請求項1から請求項17のいずれか1項に記載の特徴データ設定装置。
- 前記対象のロボットのユーザの属性に応じて、前記対象のロボットに設定可能な前記特徴データの範囲が定められる請求項1から請求項18のいずれか1項に記載の特徴データ設定装置。
- 前記特徴データは、経時的要素を含むデータである請求項1から請求項19のいずれか1項に記載の特徴データ設定装置。
- 出力装置を備え、
前記出力装置からユーザが知覚可能な形態で出力される自身の特徴を示す特徴データのうち、複数のロボットを含むロボット群において自身に固有の特徴データに基づいて、前記特徴を前記出力装置に出力するロボットであって、
前記ロボット群に含まれる他の前記ロボットに設定中の前記特徴データとは異なる前記特徴データの候補をユーザが知覚可能な形態で前記出力装置に出力する出力手段と、
ユーザが選択した特徴データを取得する取得手段とを備え、
前記出力手段は、前記取得手段で取得した前記特徴データが他の前記ロボットで設定されている場合、前記特徴データに対して所定の類似範囲内にある前記特徴データを前記出力装置に出力するロボット。 - 出力装置からユーザが知覚可能な形態で出力される自身の特徴を示す特徴データのうち、
複数のロボットを含むロボット群において対象の自身に固有の特徴データを前記特徴を前記出力装置に出力するロボットであって、
前記特徴データは、前記ロボット群に含まれる前記ロボットの台数に応じて、他の前記
ロボットで設定中の前記特徴データと近接して設定可能な幅が決定されるロボット。 - 出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データのうち、複数の前記ロボットを含むロボット群において前記ロボットに固有の特徴データを前記ロボットに送信して設定させる端末装置であって、
前記ロボット群に含まれる他の前記ロボットに設定中の前記特徴データとは異なる前記特徴データの候補をユーザが知覚可能な形態で前記出力装置に出力する出力手段と、
ユーザが選択した特徴データを取得する取得手段とを備え、
前記出力手段は、前記取得手段で取得した前記特徴データが他の前記ロボットで設定されている場合、前記特徴データに対して所定の類似範囲内にある前記特徴データを前記出力装置に出力する端末装置。 - 出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データの
うち、複数の前記ロボットを含むロボット群において前記ロボットに固有の特徴データを
前記ロボットに送信して設定させる端末装置であって、
前記特徴データは、前記ロボット群に含まれる前記ロボットの台数に応じて、他の前記
ロボットで設定中の前記特徴データと近接して設定可能な幅が決定される端末装置。 - 前記特徴データは、前記ロボットの眼の画像データであり、形状および色の少なくとも一方で特定され、前記形状および前記色の少なくとも一方が対象の前記ロボットに固有とされる請求項23又は24に記載の端末装置。
- 前記ロボットの眼の画像データに重畳させる装飾画像を示す装飾画像データを前記ロボットへ送信して設定させる
請求項23又は24に記載の端末装置。 - 出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データのうち、複数のロボットを含むロボット群においてロボットに固有の特徴データを前記ロボットに送信して設定する特徴データ設定方法であって、
前記ロボット群に含まれる他の前記ロボットに設定中の前記特徴データとは異なる前記特徴データの候補をユーザが知覚可能な形態で前記出力装置に出力する出力ステップと、
ユーザが選択した特徴データを取得する取得ステップとを含み、
前記出力ステップは、前記取得ステップで取得した前記特徴データが他の前記ロボットで設定されている場合、前記特徴データに対して所定の類似範囲内にある前記特徴データを前記出力装置に出力する特徴データ出力方法。 - 出力装置からユーザが知覚可能な形態で出力されるロボットの特徴を示す特徴データのうち、複数のロボットを含むロボット群においてロボットに固有の特徴データを前記ロボットに送信して設定する特徴データ設定方法であって、
前記特徴データは、前記ロボット群に含まれる前記ロボットの台数に応じて、他の前記ロボットで設定中の前記特徴データと近接して設定可能な幅が決定される特徴データ設定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023216324A JP2024038028A (ja) | 2019-04-04 | 2023-12-21 | 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/015020 WO2020202540A1 (ja) | 2019-04-04 | 2019-04-04 | 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023216324A Division JP2024038028A (ja) | 2019-04-04 | 2023-12-21 | 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020202540A1 JPWO2020202540A1 (ja) | 2020-10-08 |
JP7414299B2 true JP7414299B2 (ja) | 2024-01-16 |
Family
ID=72667282
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021511042A Active JP7414299B2 (ja) | 2019-04-04 | 2019-04-04 | 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 |
JP2023216324A Pending JP2024038028A (ja) | 2019-04-04 | 2023-12-21 | 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023216324A Pending JP2024038028A (ja) | 2019-04-04 | 2023-12-21 | 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7414299B2 (ja) |
WO (1) | WO2020202540A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7320323B1 (ja) | 2023-03-30 | 2023-08-03 | Innovation Farm株式会社 | ロボット販売装置及びロボット販売方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001157983A (ja) | 1999-11-30 | 2001-06-12 | Sony Corp | ロボット装置及びロボット装置の性格判別方法 |
JP2001179665A (ja) | 1999-12-24 | 2001-07-03 | Toshiba Corp | 知的ロボット |
JP2001222520A (ja) | 2000-02-10 | 2001-08-17 | Sony Corp | 情報処理装置及び方法 |
JP2001250045A (ja) | 1999-12-30 | 2001-09-14 | Sony Corp | 購入システム及び方法、受注装置及び方法、データ販売代行システム、データ販売装置及び方法並びにコンピュータプログラム |
CN101571930A (zh) | 2008-04-30 | 2009-11-04 | 悠进机器人股份公司 | 可与人互动的机器人 |
JP2012155616A (ja) | 2011-01-27 | 2012-08-16 | Panasonic Corp | コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム |
JP2016137543A (ja) | 2015-01-27 | 2016-08-04 | カシオ計算機株式会社 | ロボットおよびロボットシステム |
US20160231645A1 (en) | 2015-02-11 | 2016-08-11 | Colorado Seminary, Which Owns And Operates The University Of Denver | Rear-projected life-like robotic head |
JP2017052075A (ja) | 2015-09-11 | 2017-03-16 | シャープ株式会社 | 応答装置および調整装置 |
WO2018097089A1 (ja) | 2016-11-24 | 2018-05-31 | Groove X株式会社 | 瞳を変化させる自律行動型ロボット |
WO2019050034A1 (ja) | 2017-09-11 | 2019-03-14 | Groove X株式会社 | 相手を見つめる自律行動型ロボット |
-
2019
- 2019-04-04 WO PCT/JP2019/015020 patent/WO2020202540A1/ja active Application Filing
- 2019-04-04 JP JP2021511042A patent/JP7414299B2/ja active Active
-
2023
- 2023-12-21 JP JP2023216324A patent/JP2024038028A/ja active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001157983A (ja) | 1999-11-30 | 2001-06-12 | Sony Corp | ロボット装置及びロボット装置の性格判別方法 |
JP2001179665A (ja) | 1999-12-24 | 2001-07-03 | Toshiba Corp | 知的ロボット |
JP2001250045A (ja) | 1999-12-30 | 2001-09-14 | Sony Corp | 購入システム及び方法、受注装置及び方法、データ販売代行システム、データ販売装置及び方法並びにコンピュータプログラム |
JP2001222520A (ja) | 2000-02-10 | 2001-08-17 | Sony Corp | 情報処理装置及び方法 |
CN101571930A (zh) | 2008-04-30 | 2009-11-04 | 悠进机器人股份公司 | 可与人互动的机器人 |
JP2012155616A (ja) | 2011-01-27 | 2012-08-16 | Panasonic Corp | コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム |
JP2016137543A (ja) | 2015-01-27 | 2016-08-04 | カシオ計算機株式会社 | ロボットおよびロボットシステム |
US20160231645A1 (en) | 2015-02-11 | 2016-08-11 | Colorado Seminary, Which Owns And Operates The University Of Denver | Rear-projected life-like robotic head |
JP2017052075A (ja) | 2015-09-11 | 2017-03-16 | シャープ株式会社 | 応答装置および調整装置 |
WO2018097089A1 (ja) | 2016-11-24 | 2018-05-31 | Groove X株式会社 | 瞳を変化させる自律行動型ロボット |
WO2019050034A1 (ja) | 2017-09-11 | 2019-03-14 | Groove X株式会社 | 相手を見つめる自律行動型ロボット |
Also Published As
Publication number | Publication date |
---|---|
JP2024038028A (ja) | 2024-03-19 |
JPWO2020202540A1 (ja) | 2020-10-08 |
WO2020202540A1 (ja) | 2020-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7068709B2 (ja) | 瞳を変化させる自律行動型ロボット | |
JP7320239B2 (ja) | 音源の方向を認識するロボット | |
CN109475781B (zh) | 理解物理接触的行为自主型机器人 | |
JP7177497B2 (ja) | 相手を見つめる自律行動型ロボット | |
CN109070330B (zh) | 认生的行为自主型机器人 | |
WO2018012446A1 (ja) | 活動量をコントロールされる自律行動型ロボット | |
WO2018008323A1 (ja) | 服を着る自律行動型ロボット | |
WO2018047802A1 (ja) | 自然な距離感を保つ自律行動型ロボット | |
JP2024038028A (ja) | 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 | |
JP7236142B2 (ja) | 自律行動型ロボット | |
JP2022113701A (ja) | 機器の制御装置、機器、機器の制御方法及びプログラム | |
JPWO2019088160A1 (ja) | 反射行動を実行可能な自律行動型ロボット | |
JP2022157245A (ja) | システム等 | |
WO2020009098A1 (ja) | ロボット | |
JP2022157238A (ja) | システム等 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220330 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230320 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231030 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7414299 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |