JP2022051982A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2022051982A
JP2022051982A JP2019025719A JP2019025719A JP2022051982A JP 2022051982 A JP2022051982 A JP 2022051982A JP 2019025719 A JP2019025719 A JP 2019025719A JP 2019025719 A JP2019025719 A JP 2019025719A JP 2022051982 A JP2022051982 A JP 2022051982A
Authority
JP
Japan
Prior art keywords
information processing
autonomous
emotion
moving body
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019025719A
Other languages
English (en)
Inventor
笑佳 金子
Emika KANEKO
弘紹 佐藤
Hirotsugu Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2019025719A priority Critical patent/JP2022051982A/ja
Priority to PCT/JP2020/003603 priority patent/WO2020166373A1/ja
Priority to US17/424,037 priority patent/US11620097B2/en
Publication of JP2022051982A publication Critical patent/JP2022051982A/ja
Priority to US18/109,546 priority patent/US20230195401A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H33/00Other toys
    • A63H33/22Optical, colour, or shadow toys
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/30Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
    • G09G3/32Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
    • G09G3/3208Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED] organic, e.g. using organic light-emitting diodes [OLED]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0666Adjustment of display parameters for control of colour parameters, e.g. colour temperature
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Abstract

【課題】自律動作体の感情の状態を直感的かつ容易にユーザに示すことができるようにする。【解決手段】情報処理装置は、自律動作体の位置をセンシングするセンシング部によりセンシングされた自律動作体の位置と自律動作体の感情を示す感情パラメータとが変化するのに応じて、自律動作体に対応する図形の状態を変化させながら、表示画面に図形を表示させる制御部を備える。本開示は、例えば、自律動作体を制御する装置等に適用できる。【選択図】図14

Description

本開示は、情報処理装置および情報処理方法に関する。
近年、各種の認識処理に基づき自律的に動作する装置が開発されている。例えば、特許文献1には、環境やユーザの状態を認識し、当該状態に応じた行動を行うロボット装置が開示されている。
特開2003-340760号公報
ここで、特許文献1に記載されるロボット装置等の自律動作体では、実行した行動に対するユーザのフィードバックを精度高く認識し、当該認識の結果を後続する行動に正しく反映させることが重要となる。従来の技術では、自律動作体が内部で演算処理を実行している場合に、自律動作体の変化する状態(どのような感情をもっているのか)を、ユーザに対してより直感的に提示することは困難であった。
そこで、本開示では、自律動作体の感情の状態を直感的かつ容易にユーザに示すことが可能な、情報処理装置および情報処理方法を提案する。
本開示の第1の側面の情報処理装置は、自律動作体の位置をセンシングするセンシング部によりセンシングされた前記自律動作体の位置と前記自律動作体の感情を示す感情パラメータとが変化するのに応じて、前記自律動作体に対応する図形の状態を変化させながら、表示画面に前記図形を表示させる制御部を備える。
本開示の第1の側面の情報処理方法は、情報処理装置が、自律動作体の位置をセンシングするセンシング部によりセンシングされた前記自律動作体の位置と前記自律動作体の感情を示す感情パラメータとが変化するのに応じて、前記自律動作体に対応すする図形の状態を変化させながら、表示画面に前記図形を表示させる。
本開示の第1の側面においては、自律動作体の位置をセンシングするセンシング部によりセンシングされた前記自律動作体の位置と前記自律動作体の感情を示す感情パラメータとが変化するのに応じて、前記自律動作体に対応すする図形の状態を変化させながら、表示画面に前記図形が表示される。
本開示の第2の側面の情報処理装置は、自律動作体の位置をセンシングするセンシング部によりセンシングされた前記自律動作体の位置と前記自律動作体の感情を示す感情パラメータとが変化するのに応じて、前記自律動作体に対応すする図形の状態を変化させながら、前記自律動作体に対して投影する投影光を調整する投影調整部を備える。
本開示の第2の側面の情報処理方法は、情報処理装置が、自律動作体の位置をセンシングするセンシング部によりセンシングされた前記自律動作体の位置と前記自律動作体の感情を示す感情パラメータとが変化するのに応じて、前記自律動作体に対応すする図形の状態を変化させながら、前記自律動作体に対して投影する投影光を調整する。
本開示の第2の側面においては、自律動作体の位置をセンシングするセンシング部によりセンシングされた前記自律動作体の位置と前記自律動作体の感情を示す感情パラメータとが変化するのに応じて、前記自律動作体に対応すする図形の状態を変化させながら、前記自律動作体に対して投影する投影光が調整される。
なお、本開示の第1および第2の側面の情報処理装置は、コンピュータにプログラムを実行させることにより実現することができる。コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
情報処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
本開示の一実施形態に係る自律動作体のハードウェア構成例を示す図である。 本開示の一実施形態に係る自律動作体が備えるアクチュエータの構成例である。 本開示の一実施形態に係る自律動作体が備えるアクチュエータの動作について説明するための図である。 本開示の一実施形態に係る自律動作体が備えるアクチュエータの動作について説明するための図である。 本開示の一実施形態に係る自律動作体が備えるディスプレイの機能について説明する。 本開示の一実施形態に係る自律動作体の動作例を示す図である。 本開示の一実施形態に係るシステム構成の一例を示す図である。 本開示の一実施形態に係る自律動作体の機能構成例を示す図である。 本開示の一実施形態に係る情報処理サーバの機能構成例を示す図である。 本開示の一実施形態に係る情報処理端末の機能構成例を示す図である。 本開示の一実施形態に係る情報処理システムの構成例を示す説明図である。 本開示の一実施形態に係る情報処理システムの別の形態の例を示す図である。 本開示の一実施形態に係る情報処理システムの別の形態の例を示す図である。 自律動作体がテーブルの上を移動する例を示す図である。 自律動作体が移動する他の例を示す図である。 自律動作体が移動する他の例を示す図である。 情報処理端末が拡張現実を利用する様子を示す図である。 自律動作体の3Dモデルをアバターとして表示画面に表示する例である。 照射(投影)または表示される図形R1の外観を示す図である。 図形R1の形と大きさが変化する場合の例を示す図である。 図形R1の形が変化する場合の例を示す図である。 感情パラメータと図形R1の表示形態との対応関係を示す図である。 感情パラメータと図形R1の表示形態との対応関係を示す図である。 感情ペアと複数の感情パラメータを用いて図形R1の表示形態を変更する例を示す図である。 図形R1と図形R2の表示例を示す図である。 感情パラメータの内容の時間的変化に応じて図形R1の表示形態が変化する例を示す図である。 情報処理端末の処理を説明するフローチャートである。 本開示を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
以下、本開示を実施するための形態(以下、実施形態という)について説明する。
<<自律動作体10の概要>>
図1は、本開示の一実施形態に係る自律動作体10のハードウェア構成例を示す図である。
まず、自律動作体10の概要について説明する。自律動作体10は、収集したセンサ情報に基づく状況推定を実行し、状況に応じた種々の動作を自律的に選択し実行する情報処理装置である。自律動作体10は、単にユーザの指示コマンドに従った動作を行うロボットとは異なり、状況ごとに最適であると推測した動作を自律的に実行することを特徴の一つとする。
このため、本開示の一実施形態に係る自律動作体10は、状況によっては、ユーザの指示に対応する動作を敢えて実行しない場合や、当該動作とは異なる他の挙動を実行する場合もある。上記の状況には、例えば、ユーザの指示に対応する動作を行った場合、ユーザや自律動作体10、または周囲環境の安全性が損なわれる場合や、自律動作体10が充電
処理などの他の欲求(本能)を優先する場合などが相当する。
また、自律動作体10は、ユーザの指示に敢えて従わないことで、当該ユーザの興味の誘因を試みることや、自身の感情やハードウェアの状態をユーザに伝達しようと試みる場合もある。
一方で、自律動作体10は、ユーザに愛されたいという強い欲求(本能)を有する。このため、自律動作体10は、ユーザを喜ばせるためにユーザの指示に対応する動作を繰り返し実行したり、ユーザが気に入った動作を学習し、指示がない場合でも自発的に当該動作を実行したりする。
このように、本開示の一実施形態に係る自律動作体10は、ヒトを含む動物と同様に、欲求や感情、また周囲の環境などを総合的に判断して自律動作を決定、実行する。上記の点において、自律動作体10は、指示に基づいて対応する動作や処理を実行する受動的な装置とは明確に相違する。
本開示の一実施形態に係る自律動作体10は、空間内を自律的に移動し、種々の動作を実行する自律移動型ロボットであってよい。自律動作体10は、例えば、ヒトやイヌなどの動物を模した形状や、動作能力を有する自律移動型ロボットであってもよい。また、自律動作体10は、例えば、ユーザとのコミュニケーション能力を有する車両やその他の装置であってもよい。本開示の一実施形態に係る自律動作体10の形状、能力、また欲求などのレベルは、目的や役割に応じて適宜設計され得る。
<<自律動作体10のハードウェア構成例>>
次に、自律動作体10のハードウェア構成例について説明する。なお、以下では、自律動作体10がイヌ型の四足歩行ロボットである場合を例に説明する。
図1に示すように、自律動作体10は、頭部、胴部、4つの脚部、および尾部を有するイヌ型の四足歩行ロボットである。また、自律動作体10は、頭部に2つのディスプレイ510を備える。
また、自律動作体10は、種々のセンサを備える。自律動作体10は、例えば、マイクロフォン515、カメラ520、ToF(Time of Flight)センサ525、人感センサ530、PSD(Position Sensitive Detector)535センサ、タッチセンサ540、照度センサ545、足裏ボタン550、慣性センサ555を備える。
(マイクロフォン515)
マイクロフォン515は、周囲の音を収集する機能を有する。上記の音には、例えば、ユーザの発話や、周囲の環境音が含まれる。自律動作体10は、例えば、頭部に4つのマイクロフォンを備えてもよい。複数のマイクロフォン515を備えることで、周囲で発生する音を感度高く収集すると共に、音源の定位を実現することが可能となる。
(カメラ520)
カメラ520は、ユーザや周囲環境を撮像する機能を有する。自律動作体10は、例えば、鼻先と腰部に2つの広角カメラを備えてもよい。この場合、鼻先に配置される広角カメラは、自律動作体の前方視野(すなわち、イヌの視野)に対応した画像を撮像し、腰部の広角カメラは、上方を中心とする周囲領域の画像を撮像する。自律動作体10は、例えば、腰部に配置される広角カメラにより撮像された画像に基づいて、天井の特徴点などを抽出し、SLAM(Simultaneous Localization and Mapping)を実現することができる。
(ToFセンサ525)
ToFセンサ525は、頭部前方に存在する物体との距離を検出する機能を有する。ToFセンサ525は、頭部の鼻先に備えられる。ToFセンサ525によれば、種々の物体との距離を精度高く検出することができ、ユーザを含む対象物や障害物などとの相対位置に応じた動作を実現することが可能となる。
(人感センサ530)
人感センサ530は、ユーザやユーザが飼育するペットなどの所在を検知する機能を有する。人感センサ530は、例えば、胸部に配置される。人感センサ530によれば、前方に存在する動物体を検知することで、当該動物体に対する種々の動作、例えば、興味、恐怖、驚きなどの感情に応じた動作を実現することが可能となる。
(PSDセンサ535)
PSDセンサ535は、自律動作体10の前方床面の状況を取得する機能を有する。PSDセンサ535は、例えば、胸部に配置される。PSDセンサ535によれば、自律動作体10の前方床面に存在する物体との距離を精度高く検出することができ、当該物体との相対位置に応じた動作を実現することができる。
(タッチセンサ540)
タッチセンサ540は、ユーザによる接触を検知する機能を有する。タッチセンサ540は、例えば、頭頂、あご下、背中など、ユーザが自律動作体10に対し触れる可能性が高い部位に配置される。タッチセンサ540は、例えば、静電容量式や感圧式のタッチセンサであってよい。タッチセンサ540によれば、ユーザによる触れる、撫でる、叩く、押すなどの接触行為を検知することができ、当該接触行為に応じた動作を行うことが可能となる。
(照度センサ545)
照度センサ545は、自律動作体10が位置する空間の照度を検出する。照度センサ545は、例えば、頭部背面において尾部の付け根などに配置されてもよい。照度センサ545によれば、周囲の明るさを検出し、当該明るさに応じた動作を実行することが可能となる。
(足裏ボタン550)
足裏ボタン550は、自律動作体10の脚部底面が床と接触しているか否かを検知する機能を有する。このために、足裏ボタン550は、4つの脚部の肉球に該当する部位にそれぞれ配置される。足裏ボタン550によれば、自律動作体10と床面との接触または非接触を検知することができ、例えば、自律動作体10がユーザにより抱き上げられたことなどを把握することが可能となる。
(慣性センサ555)
慣性センサ555は、頭部や胴部の速度や加速度、回転などの物理量を検出する6軸センサである。すなわち、慣性センサ555は、X軸、Y軸、Z軸の加速度および角速度を検出する。慣性センサ555は、頭部および胴部にそれぞれ配置される。慣性センサ555によれば、自律動作体10の頭部および胴部の運動を精度高く検出し、状況に応じた動作制御を実現することが可能となる。
以上、本開示の一実施形態に係る自律動作体10が備えるセンサの一例について説明した。なお、図1を用いて説明した上記の構成はあくまで一例であり、自律動作体10が備え得るセンサの構成は係る例に限定されない。自律動作体10は、上記の構成のほか、例えば、温度センサ、地磁気センサ、GNSS(Global Navigation Satellite System)信号受信機を含む各種の通信装置などをさらに備えてよい。自律動作体10が備えるセンサの構成は、仕様や運用に応じて柔軟に変形され得る。
続いて、自律動作体10の関節部の構成例について説明する。図2は、本開示の一実施形態に係る自律動作体10が備えるアクチュエータ570の構成例である。本開示の一実施形態に係る自律動作体10は、図2に示す回転箇所に加え、耳部と尾部に2つずつ、口に1つの合計22の回転自由度を有する。
例えば、自律動作体10は、頭部に3自由度を有することで、頷きや首を傾げる動作を両立することができる。また、自律動作体10は、腰部に備えるアクチュエータ570により、腰のスイング動作を再現することで、より現実のイヌに近い自然かつ柔軟な動作を実現することが可能である。
なお、本開示の一実施形態に係る自律動作体10は、例えば、1軸アクチュエータと2軸アクチュエータを組み合わせることで、上記の22の回転自由度を実現してもよい。例えば、脚部における肘や膝部分においては1軸アクチュエータを、肩や大腿の付け根には2軸アクチュエータをそれぞれ採用してもよい。
図3および図4は、本開示の一実施形態に係る自律動作体10が備えるアクチュエータ570の動作について説明するための図である。図3を参照すると、アクチュエータ570は、モータ575により出力ギアを回転させることで、可動アーム590を任意の回転位置および回転速度で駆動させることができる。
図4を参照すると、アクチュエータ570は、リアカバー571、ギアBOXカバー572、制御基板573、ギアBOXベース574、モータ575、第1ギア576、第2ギア577、出力ギア578、検出用マグネット579、2個のベアリング580を備える。
アクチュエータ570は、例えば、磁気式svGMR(spin-valve Giant Magnetoresistive)であってもよい。制御基板573が、メインプロセッサによる制御に基づいて、モータ575を回転させることで、第1ギア576および第2ギア577を介して出力ギア578に動力が伝達され、可動アーム590を駆動させることが可能である。
また、制御基板573に備えられる位置センサが、出力ギア578に同期して回転する検出用マグネット579の回転角を検出することで、可動アーム590の回転角度、すなわち回転位置を精度高く検出することができる。
なお、磁気式svGMRは、非接触方式であるため耐久性に優れるとともに、GMR飽和領域において使用することで、検出用マグネット579や位置センサの距離変動による信号変動の影響が少ないという利点を有する。
以上、本開示の一実施形態に係る自律動作体10が備えるアクチュエータ570の構成例について説明した。上記の構成によれば、自律動作体10が備える関節部の屈伸動作を精度高く制御し、また関節部の回転位置を正確に検出することが可能となる。
続いて、図5を参照して、本開示の一実施形態に係る自律動作体10が備えるディスプレイ510の機能について説明する。図5は、本開示の一実施形態に係る自律動作体10が備えるディスプレイ510の機能について説明するための図である。
(ディスプレイ510)
ディスプレイ510は、自律動作体10の目の動きや感情を視覚的に表現する機能を有する。図5に示すように、ディスプレイ510は、感情や動作に応じた眼球、瞳孔、瞼の動作を表現することができる。ディスプレイ510は、文字や記号、また眼球運動とは関連しない画像などを敢えて表示しないことで、実在するイヌなどの動物に近い自然な動作を演出する。
また、図5に示すように、自律動作体10は、右眼および左眼にそれぞれ相当する2つのディスプレイ510rおよび510lを備える。ディスプレイ510rおよび510lは、例えば、独立した2つのOLED(Organic Light Emitting Diode)により実現される。OLEDによれば、眼球の曲面を再現することが可能となり、1枚の平面ディスプレイにより一対の眼球を表現する場合や、2枚の独立した平面ディスプレイにより2つの眼球をそれぞれ表現する場合と比較して、より自然な外装を実現することができる。
以上述べたように、ディスプレイ510rおよび510lによれば、図5に示すような自律動作体10の視線や感情を高精度かつ柔軟に表現することが可能となる。また、ユーザはディスプレイ510に表示される眼球の動作から、自律動作体10の状態を直観的に把握することが可能となる。
以上、本開示の一実施形態に係る自律動作体10のハードウェア構成例について説明した。上記の構成によれば、図6に示すように、自律動作体10の関節部や眼球の動作を精度高くまた柔軟に制御することで、より実在の生物に近い動作および感情表現を実現することが可能となる。なお、図6は、本開示の一実施形態に係る自律動作体10の動作例を示す図であるが、図6では、自律動作体10の関節部および眼球の動作について着目して説明を行うため、自律動作体10の外部構造を簡略化して示している。同様に、以下の説明においては、自律動作体10の外部構造を簡略化して示す場合があるが、本開示の一実施形態に係る自律動作体10のハードウェア構成および外装は、図面により示される例に限定されず、適宜設計され得る。
<<システム構成例>>
次に、本開示の一実施形態に係るシステム構成例について説明する。図7は、本開示の一実施形態に係るシステム構成の一例を示す図である。図7を参照すると、本開示の一実施形態に係る情報処理システムは、複数の自律動作体10、情報処理サーバ20、および情報処理端末30を備える。なお、情報処理システムが備える各構成は、ネットワーク40を介して互いに通信が行えるように接続される。
(自律動作体10)
本開示の一実施形態に係る自律動作体10は、収集したセンサ情報に基づく状況推定を実行し、状況に応じた種々の動作を自律的に選択し実行する情報処理装置である。上述したように、本開示の一実施形態に係る自律動作体10は、例えば、ヒトやイヌなどの動物を模した形状や、動作能力を有する自律移動型ロボットであってもよい。
(情報処理サーバ20)
本開示の一実施形態に係る情報処理サーバ20は、複数の自律動作体10と接続され、自律動作体10から各種の情報を収集する機能を有する情報処理装置である。情報処理サーバ20は、例えば、自律動作体10により収集されたセンサ情報から、自律動作体10のハードウェアの状態や、自律動作体10に対するユーザの熱中度に係る分析などを行うことができる。
また、情報処理サーバ20は、自律動作体10が推定した状況に基づいて、当該状況において自律動作体10が行うべき推奨行動を提示する機能を有する。この際、情報処理サーバ20は、推奨行動を自律動作体10に実現させるための制御シーケンスデータを自律動作体10に送信してもよい。
また、本開示の一実施形態に係る情報処理サーバ20は、自律動作体10とユーザとのコミュニケーションに係るアプリケーションの動作制御を行う。情報処理サーバ20は、例えば、アプリケーション上において、自律動作体10の状態を反映したアバターの出力表現に係る制御を動的に行ってよい。また、情報処理サーバ20は、上記アバターに対するユーザの操作を自律動作体10に反映させる機能を有する。情報処理サーバ20が有する上記の機能によれば、自律動作体10やユーザの所在に依存しない両者のコミュニケーションを実現することが可能となる。
(情報処理端末30)
本開示の一実施形態に係る情報処理端末30は、上述したアプリケーションに係るユーザインタフェースをユーザに提供する情報処理装置である。本開示の一実施形態に係る情報処理端末30は、例えば、ユーザが所持する携帯電話、スマートフォン、タブレット、各種のウェアラブル装置、汎用コンピュータなどであり得る。
(ネットワーク40)
ネットワーク40は、情報処理システムが備える各構成を接続する機能を有する。ネットワーク40は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク40は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク40は、Wi-Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。
以上、本開示の一実施形態に係るシステム構成例について説明した。なお、図7を用いて説明した上記の構成はあくまで一例であり、本開示の一実施形態に係る情報処理システムの構成は係る例に限定されない。例えば、自律動作体10は、情報処理サーバ20のほか、種々の外部装置とさらに情報通信を行ってもよい。上記の外部装置には、例えば、天気やニュース、その他のサービス情報を発信するサーバや、ユーザが所持する各種の情報処理端末、家電機器などが含まれ得る。本開示の一実施形態に係るシステム構成は、仕様や運用に応じて柔軟に変形され得る。
<<自律動作体10の機能構成例>>
次に、本開示の一実施形態に係る自律動作体10の機能構成例について説明する。図8は、本開示の一実施形態に係る自律動作体10の機能構成例を示す図である。図8を参照すると、本開示の一実施形態に係る自律動作体10は、入力部110、認識部120、学習部130、行動計画部140、動作制御部150、駆動部160、出力部170、および通信部180を備える。
(入力部110)
入力部110は、ユーザや周囲環境に係る種々の情報を収集する機能を有する。入力部110は、例えば、ユーザの発話や周囲で発生する環境音、ユーザや周囲環境に係る画像情報、および種々のセンサ情報を収集する。このために、入力部110は、図1に示す各種のセンサを備える。
(認識部120)
認識部120は、入力部110が収集した種々の情報に基づいて、ユーザや周囲環境、また自律動作体10の状態に係る種々の認識を行う機能を有する。一例としては、認識部120は、人識別、表情や視線の認識、物体認識、色認識、形認識、マーカー認識、障害物認識、段差認識、明るさ認識などを行ってよい。
また、認識部120は、ユーザの声に係る感情認識、単語理解、音源定位などを行う。また、認識部120は、ユーザなどによる接触や、周囲の温度、動物体の存在、自律動作体10の姿勢などを認識することができる。
さらには、認識部120は、認識した上記の情報に基づいて、自律動作体10が置かれた周囲環境や状況を推定し、理解する機能を有する。この際、認識部120は、事前に記憶される環境知識を用いて総合的に状況推定を行ってもよい。
(学習部130)
学習部130は、環境(状況)と行動、また当該行動による環境への作用を学習する機能を有する。学習部130は、例えば、深層学習(Deep Learning)などの機械学習アルゴリズムを用いて、上記の学習を実現する。なお、学習部130が採用する学習アルゴリズムは、上記の例に限定されず、適宜設計可能である。
(行動計画部140)
行動計画部140は、認識部120が推定した状況と学習部130が学習した知識に基づいて、自律動作体10が行う行動を計画する機能を有する。行動計画部140の機能詳細については別途後述する。
(動作制御部150)
動作制御部150は、行動計画部140による行動計画に基づいて、駆動部160および出力部170の動作を制御する機能を有する。動作制御部150は、例えば、上記の行動計画に基づいて、アクチュエータ570の回転制御や、ディスプレイ510の表示制御、スピーカによる音声出力制御などを行う。動作制御部150の機能詳細については別途詳細に説明する。
(駆動部160)
駆動部160は、動作制御部150による制御に基づいて、自律動作体10が有する複数の関節部を屈伸させる機能を有する。より具体的には、駆動部160は、動作制御部150による制御に基づき、各関節部が備えるアクチュエータ570を駆動させる。
(出力部170)
出力部170は、動作制御部150による制御に基づいて、視覚情報や音情報の出力を行う機能を有する。このために、出力部170は、ディスプレイ510やスピーカを備える。
(通信部180)
通信部180は、情報処理サーバ20や情報処理端末30、他の自律動作体10との情報通信を行う機能を有する。例えば、通信部180は、認識部120が認識した状況に係る情報などを情報処理サーバ20に送信する。また、例えば、通信部180は、情報処理サーバ20から推奨行動や当該推奨行動に係る制御シーケンスデータや、後述する報酬に対応するデータを受信する。
以上、本開示の一実施形態に係る自律動作体10の機能構成例について説明した。なお、図8を用いて説明した上記の構成はあくまで一例であり、本開示の一実施形態に係る自律動作体10の機能構成は係る例に限定されない。本開示の一実施形態に係る自律動作体10の機能構成は、仕様や運用に応じて柔軟に変形され得る。
<<情報処理サーバ20の機能構成例>>
次に、本開示の一実施形態に係る情報処理サーバ20の機能構成例について説明する。図9は、本開示の一実施形態に係る情報処理サーバ20の機能構成例を示す図である。図9を参照すると、本開示の一実施形態に係る情報処理サーバ20は、学習部210、行動推奨部220、分析部230、記憶部240、アプリケーション制御部250、反映部260、および端末通信部270を備える。
(学習部210)
学習部130は、環境(状況)と行動、また当該行動による環境への作用を学習する機能を有する。この際、学習部210は、複数の自律動作体10から収集した行動履歴に基づく学習を行うことを特徴とする。すなわち、学習部210は、複数の自律動作体10に共通する集合知ということができる。
(行動推奨部220)
行動推奨部220は、自律動作体10から受信した状況推定に係る情報と、学習部210が有する集合知としての知識に基づいて、自律動作体10に推奨する推奨行動を決定する機能を有する。また、行動推奨部220は、推奨行動とともに当該推奨行動を自律動作体10に実現させるための制御シーケンスデータを端末通信部270を介して自律動作体に送信することを特徴の一つとする。
ここで、上記の制御シーケンスデータとは、自律動作体10が有する関節部の回転位置の時系列変化や眼球表現、音出力に係る制御信号を含む情報である。すなわち、制御シーケンスデータとは、自律動作体10に任意の動作(アクション)を実現させるための設定データともいえる。
行動推奨部220が有する上記の機能によれば、自律動作体10が実行可能な新たなアクションを随時追加することができ、自律動作体10に対するユーザの興味を継続して引き付けることなどが可能となる。
(分析部230)
分析部230は、自律動作体10から受信した情報に基づいて、種々の分析を行う機能を有する。分析部230は、例えば、自律動作体10から受信した行動履歴や稼働状況に基づいて、アクチュエータ570などの状態を分析することが可能である。また、分析部230は、自律動作体10から受信したユーザの接触や反応などの情報に基づいて、自律動作体10に対するユーザの興味(熱中度)などを分析することが可能である。
(記憶部240)
記憶部240は、情報処理サーバ20の各構成が利用する情報を蓄積する機能を有する。記憶部240は、例えば、自律動作体10から受信した制御シーケンスデータを状況やユーザの反応と関連付けて記憶する。また、記憶部240は、分析部230が分析に利用する情報や分析の結果を記憶する。また、記憶部240は、後述するアプリケーションや報酬に係る種々のデータを記憶する。
(アプリケーション制御部250)
アプリケーション制御部250は、自律動作体10とユーザとのコミュニケーションに係るアプリケーションの動作を制御する。アプリケーション制御部250は、例えば、アプリケーション上において、自律動作体10を模したアバターの動作や出力表現を制御する。この際、アプリケーション制御部250は、自律動作体10の動作状況や感情を反映した出力制御を行ってよい。アプリケーション制御部250が有する機能の詳細については、別途後述する。
(反映部260)
反映部260は、アプリケーション上におけるユーザの操作を自律動作体10に反映させる機能を有する。反映部260は、例えば、ユーザの操作に基づき、アバターが獲得した報酬を、自律動作体10に反映させることができる。反映部260が有する機能の詳細については、別途後述する。
(端末通信部270)
端末通信部270は、ネットワーク40を介して、複数の自律動作体10と情報通信を行う機能を有する。端末通信部270は、例えば、自律動作体10から状況推定に係る情報を受信する。また、端末通信部270は、例えば、行動推奨部220が決定した推奨行動や制御シーケンスデータに係る情報を自律動作体10に送信する。
また、端末通信部270は、反映部260による制御に基づいて、アプリケーション上でユーザが行った設定や、アバターが獲得した報酬を自律動作体10に反映させるための各種の制御信号を自律動作体10に送信する。
以上、本開示の一実施形態に係る情報処理サーバ20の機能構成例について説明した。なお、図9を用いて説明した上記の構成はあくまで一例であり、本開示の一実施形態に係る情報処理サーバ20の機能構成は係る例に限定されない。例えば、情報処理サーバ20が有する各種の機能は複数の装置に分散して実現することも可能である。本開示の一実施形態に係る情報処理サーバ20の機能構成は、仕様や運用に応じて柔軟に変形され得る。
<<情報処理端末30の機能構成例>>
次に、本開示の一実施形態に係る情報処理端末30(情報処理装置30)の機能構成例について説明する。図10は、本開示の一実施形態に係る情報処理端末30の機能構成例を示す図である。図10を参照すると、情報処理端末30は、入力部310、表示部320、音声出力部330、制御部340、および通信部350を備える。
(入力部310)
入力部310は、ユーザによる入力操作を検出する機能を有する。このために、入力部310は、キーボードやタッチパネル、各種のボタンなどを備える。また、入力部310は、ユーザによる音声入力を検出するマイクロフォンなどを備えてもよい。また、入力部310は、ユーザなどの画像を撮像する撮像装置を備えてもよい。
(表示部320)
表示部320は、ユーザに対し種々の視覚情報を提示する機能を有する。例えば、表示部320は、情報処理サーバ20による制御に基づいて、上述したアプリケーションに係るユーザインタフェースを表示する。このために、表示部320は、各種の表示装置を備える。
(音声出力部330)
音声出力部330は、種々の音を出力する機能を有する。例えば、音声出力部330は、情報処理サーバ20による制御に基づいて、上述したアプリケーションに係る種々の音を出力する。このために、音声出力部330は、スピーカやアンプなどを備える。なお、図面では、音声と記載しているが、図11~図13においても説明する通り、音声以外の出力機能も有しており、適宜出力部という名称を用いることもできる。この場合、出力部は、図11~図13において、プロジェクタなどの照射(投影)機能を有する照射部(投影部)を含む。
(制御部340)
制御部340は、情報処理端末30が備える各構成を全体的に制御する。制御部340は、例えば、各構成の起動や停止を制御してよい。また、制御部340は、情報処理サーバ20が生成した各種の制御信号を、表示部320や音声出力部330に引き渡す機能を有する。また、制御部340は、情報処理サーバ20のアプリケーション制御部250や反映部260と同等の機能を有してもよい。
(通信部350)
通信部350は、ネットワーク40を介して、情報処理サーバ20や自律動作体10との情報通信を行う。例えば、通信部350は、情報処理サーバ20から、アプリケーションに係る制御信号や、後述する報酬に係るデータを受信する。また、例えば、通信部350は、入力部310が検出したユーザの操作に係る情報を情報処理サーバ20に送信する。
以上、本開示の一実施形態に係る情報処理端末30の機能構成例について説明した。なお、図10を用いて説明した上記の機能構成はあくまで一例であり、本開示の一実施形態に係る情報処理端末30の機能構成は係る例に限定されない。例えば、上述したように、情報処理端末30は、情報処理サーバ20のアプリケーション制御部250や反映部260と同等の機能を備えてもよい。本開示の一実施形態に係る情報処理端末30の機能構成は、仕様や運用に応じて柔軟に変形され得る。
<<システム構成例の別形態>>
まず、図面を参照しながら本開示の一実施形態に係るシステムの構成例の別の形態について説明する。図11は、本開示の一実施形態に係る情報処理システムの構成例を示す説明図である。以下、図11を用いて本開示の一実施形態に係る情報処理システムの構成例について説明する。なお、図11から図13においては、情報処理端末30の一例として、投影装置を用いて説明する。
図11に示したように、本開示の一実施形態に係る情報処理システムは、出力機能および入力機能を有する情報処理装置としての投影装置100aを含んで構成される。図11に示す例では、投影装置100aは、テーブル140aの天面141a(テーブルトップ)に情報を表示し、天面141aに表示した情報に対してユーザに操作をさせる。図11に示すようにテーブル140aの天面141aに情報を表示する方式を「プロジェクション型」とも称する。
投影装置100aは、テーブル140aの上方に、例えば天井から吊り下げられた状態で設けられる。すなわち、投影装置100aは、情報が表示される対象となるテーブル140aとは離隔して設けられる。
また、投影装置100aは、天面141a(テーブルトップ)の表示情報に対するユーザの操作内容や、テーブル140aに置かれている物体の形状などを入力する入力機能(入力部110a)を有する。投影装置100aの入力部110aには、例えば1つのレンズでテーブル140aを撮像するカメラや、2つのレンズでテーブル140aを撮像して奥行き方向の情報を記録することが可能なステレオカメラ、ユーザが発する音声や周囲の環境音を収音するためのマイクロホン(以下、マイクと称す)等が用いられる。
入力部110aとして、1つのレンズでテーブル140aを撮像するカメラが用いられる場合、投影装置100aは、そのカメラが撮像した画像を解析することで、テーブル140aに置かれた物体を検出することが出来る。また、入力部110aとしてステレオカメラが用いられる場合、そのステレオカメラには、例えば可視光カメラや赤外線カメラ等が用いられ得る。ステレオカメラが用いられる場合、投影装置100aは、深度情報を取得することが可能となる。深度情報を取得することで、投影装置100aは、例えば天面141aの模様やテーブルクロスの模様と区別して、テーブル140aの上に置かれた手や物体の検出が可能になる。また、深度情報を取得することで、投影装置100aは、テーブル140aの天面141aへのユーザの手の接触/近接の検出や、天面141aからの手の離脱の検出が可能となる。なお、以下の説明では、ユーザが情報の表示面(ここでは、天面141a)に手等の操作体を接触または近接させることを、まとめて単に「接触」とも称する。
また、入力部110aとしてマイクが用いられる場合、そのマイクは特定の方向の音声を収音するためのマイクアレイが用いられ得る。投影装置100aは、マイクアレイの収音方向を任意の方向に調整してもよい。
以下では、ユーザの操作が、入力部110aによって撮像された画像から検出される場合を主に説明するが、本開示は係る例に限定されるものではない。ユーザの操作は、テーブル140aの天面141aに設けられた、ユーザの指等の接触を検出するタッチパネルによって検出されてもよい。また入力部110aが取得できるユーザ操作としては、この他にも、例えば情報の表示面に対するスタイラス操作、カメラに対するジェスチャ操作等が含まれ得る。
また、投影装置100aは、テーブル140aの天面141a(テーブルトップ)に情報を表示したり、音声を出力したりする出力機能(出力部130a)を有する。出力部130aとしては、例えばプロジェクタやスピーカ等が用いられる。
出力部130aがプロジェクタで構成される場合、出力部130aは、テーブル140aの天面141aに情報を投影する。出力部130aがスピーカで構成される場合、出力部130aは、音声信号に基づいて音声を出力する。スピーカの数は1つであってもよいし、複数であってもよい。出力部130aが複数のスピーカで構成される場合、投影装置100aは、音声を出力するスピーカを限定したり、音声を出力する方向を調整したりすることができる。
また投影装置100aが図11に示したようなプロジェクション型である場合、出力部130aに照明機器が含まれていてもよい。照明機器が含まれる場合、投影装置100aは、入力部110aによって入力された情報の内容に基づいて、照明機器の点灯、消灯等の状態を制御することができる。
図11に示すような投影システムを使用するユーザは、投影装置100aの出力機能(出力部130a)によりテーブル140aの天面141aに表示される情報に対して、指などを天面141aに置いて操作することが出来る。
なお図11には図示しないが、投影装置100aには他の装置が接続されていてもよい。例えば投影装置100aには、ユーザが所持するスマートフォン、タブレット端末等のモバイル機器が無線接続により直接接続されていてもよいし、ネットワークを介してサーバ等と接続されていてもよい。
本開示は、自律動作体10がテーブル140aの上を移動する場合に、自律動作体10の位置と感情の状態とに応じて、テーブルトップに感情の状態を示す図形をプロジェクション型で照射(投影)する。なお、具体的な照射(投影)方法について後述する。
本開示では、情報処理システムの形態は図11に示したものに限定されるものではない。図12~図13は、本開示の一実施形態に係る情報処理システムの別の形態の例を示す図である。
図12は、本開示の一実施形態に係る情報処理システムの他の構成例を示す図であり、投影装置100bがテーブル140bの下から情報を照射することで、テーブル140bの天面141bに情報を表示させている。図12に示す例では、投影装置100bが、プロジェクタにより実現される出力部130bを有している。また、図12に示した情報処理システムでは、情報の表示面となるテーブル140bの天面141bがガラス板や透明プラスチック板等の透明な材質で形成される。図12のようにテーブル140bの下から情報を照射して天面141bに情報を表示する方式を「リアプロジェクション型」とも称する。また、図12に示した例では、テーブル140bの天面141bに、タッチパネルにより実現される入力部110bが設けられ、天面141bに表示される情報に対するユーザ操作を検出する。なお、入力部110bは、天面141bに設けられる構成に限定されず、例えばカメラにより実現された入力部110bが、テーブル140bの下方にテーブル140bとは離隔して設けられてもよいし、投影装置100bに含まれていてもよい。
本開示は、自律動作体10がテーブル140bの上を移動する場合に、自律動作体10の位置と感情の状態とに応じて、感情の状態を示す図形をテーブル140bの下からリアプロジェクション型で照射(投影)する。なお、具体的な照射(投影)方法について後述する。
図13は、本開示の一実施形態に係る情報処理システムの他の構成例を示す図である。図13には、タッチパネル式のディスプレイにより実現される情報処理装置100cがテーブル140cの天面141cに置かれている状態が示されている。このようにタッチパネル式のディスプレイの場合、入力部110c及び出力部130cは、タッチパネル式のディスプレイとして構成され得る。すなわち、図13に示した情報処理システムでは、情報の表示面はタッチパネル式のディスプレイとなる。図13のように、天面141cに置かれるタッチパネル式のディスプレイで情報を表示する方式を「平置きディスプレイ型」とも称する。図13に示した情報処理システムでは、タッチパネル式のディスプレイの上方に、ユーザの位置を検出するためのカメラが設けられてもよい。
本開示は、自律動作体10が天面141cの上を移動する場合に、自律動作体10の位置と感情の状態とに応じて、感情の状態を示す図形をタッチパネルディスプレイ130cに表示する。なお、具体的な表示方法について後述する。また、本開示は、出力部130cはタッチパネル機能を有さないディスプレイにも適用可能であり、タッチパネル機能には限定されない。
<<表示・照射(投影)例の概要>>
以下、本実施形態に係る応用例について具体例を挙げながら詳細に説明する。
図14は、図12に示されるように、自律動作体10がテーブル140bの上を移動する例を示す説明図である。図14には、自律動作体10の位置と自律動作体10の持つ感情の状態に連動して、プロジェクタにより実現される出力部130bを備える投影装置100bが、自律動作体10の下に図形R1の状態で照射(投影する)。この場合、自律動作体10の位置がセンサ(投影装置100bに内蔵される、または、別に設けられる)によりセンシングされ、投影装置100bは、自律動作体10の持つ感情を示すパラメータ(感情パラメータ)をネットワーク経由で取得する。そして、投影装置100bは、センシングされた位置と取得した感情パラメータに応じて、自律動作体10の中心(または重心)の近傍に図形R1の中心(または重心)がくるように照射(投影)する。したがって、図形R1は、自律動作体10の位置が変化するのに応じて移動し、自律動作体10が持つ感情の変化に連動して表示形態(特性:形状、大きさ、色など)が変化する。なお、リアプロジェクション型は、プロジェクション型に比べて、照射(投影)に伴って自律動作体10の影が表示されない利点がある。
図15は、自律動作体10が移動する他の例を示す図である。図15には、自律動作体10の持つ感情の状態に応じて、照射又は表示される図形R1の状態が異なっている。例えば、自律動作体10が悲しい感情を持っている場合には、円が変形された状態で青色が配色される。なお、図形R1だけではなく、感情の名称(悲しみ:Sadness)を図形R1に重畳するように、照射(投影)又は表示するようにしてもよい。
図16は、自律動作体10が移動する他の例を示す図である。図16は、自律動作体10を支援する別の自律動作体Mが、自律動作体10の状態(動作、移動など)をセンシングしながら、自律動作体10を追従する様子を示している。この場合、別の自律動作体Mは、センサにより自律動作体10の位置をセンシングして位置情報を取得し、自律動作体10の持つ感情を示すパラメータ(感情パラメータ)をネットワーク経由で取得することにより、自律動作体10の位置と自律動作体10の持つ感情の状態とに連動しながら、自律動作体10の中心(または重心)の近傍に、図形の中心(または重心)がくるように、図形R1と図形R2を照射(投影)する。なお、図形R2は、図形の形状の基準を示す図形(ガイド)である。この図形R2を照射(投影)することにより、図形R1の表示形態の変化が視認しやすくなる。なお、図形R2は必要に応じて照射すればよい。なお、他の自律動作体Mの構成は、図10において説明した情報処理端末30と同様になる。
図17は、情報処理端末30が、テレビVOのあるリビングにおいて、搭載されたカメラを用いて現実世界を撮影しながら情報を重畳させる拡張現実を利用する様子を示している。図17では、情報処理端末30が、自律動作体10を撮影している場合に、自律動作体10の感情パラメータをネットワーク経由で取得し、搭載されたセンサ(カメラを用いたデプスセンシング、TOFセンシング、赤外センシングなど)を用いて、自律動作体10の位置(又は距離)を取得し、撮影する際に表示されている表示画面に、自律動作体10の位置と自律動作体10の持つ感情の状態とに連動しながら、自律動作体10の中心(または重心)の近傍に、図形の中心(または重心)がくるように、図形R1と図形R2を表示する。このように、本開示は、拡張現実の表示形態として利用することができる。
図18は、ユーザが所持する自律動作体10の外装や音声(泣き声)などを模した3DモデルをアバターAVとして、図13において説明したディスプレイ、または、情報処理端末30の表示画面に表示する例である。ここで、上記の外装は、例えば、自律動作体10の眼球(瞳、虹彩など)、体色などの色彩を含む。図17の拡張現実の例と同様に、情報処理端末30が、アバターAVが表示されるアプリケーションを利用する場合に、自律動作体10の感情パラメータをネットワーク経由で取得し、搭載されたセンサ(カメラを用いたデプスセンシング、TOFセンシング、赤外センシングなど)を用いて、自律動作体10の位置(又は距離)を取得し、アプリケーションの表示画面に、自律動作体10の位置と自律動作体10の持つ感情の状態とに連動しながら、自律動作体10の中心(または重心)の近傍に、図形の中心(または重心)がくるように、図形R1と図形R2を表示する。このように、本開示は、自律動作体10に関する様々なアプリケーションに適用することができる。
<<表示・照射(投影)例の具体例>>
はじめに、本開示のコンセプトについて説明する。本開示は、感情を持たせて動作が変わるような自律動作体10を対象として、感情をユーザ(人)に対してフィードバックする際に、表情、対話、動作などで提示するのではなく、ユーザとの対話、ユーザからの自律動作体10に対するする動作(頭を撫でるなど)、など、時間的に感情が変化する場合に、より直感的に、より高レスポンスで、ユーザに提示する点に主眼を置いている。従来では、人や動物に模した顔の表情や、声や鳴き声や、自律動作体10自体の動作、を介してユーザに感情を連想させている。また、感情を数値化して、感情の名称と数字を、テキストやグラフ等で提示しているにとどまっている。本開示は、より直感的に感情を理解しすいような表示形態で、感情の状態をユーザに提示する点に特徴がある。
本開示は、自律動作体10の移動に伴う位置の変化と感情の変化との関係を考慮して、位置の変化に追従させながら、感情の変化を人が連想しやすい図形の状態の変化(形の変化、形の変化するスピード、大きさの変化、大きさが変化するピード、色の変化、色が変化するスピード、色の組み合わせの変化、色の組み合わせが変化するスピード、グラデーションの変化、グラデーションが変化するスピードなど)で表現する。このように表現することにより、自律動作体10を確認するユーザが、自律動作体10の感情の状態を随時紐付けて直感的に連想することができ、感情の状態も容易に把握することができる。
図19は、先述されたような、照射(投影)または表示される図形R1の外観を示す。図形R1は、自律動作体10の位置と自律動作体10の感情の状況(感情パラメータの内容)に応じて、表示形態(形、大きさ、色、グラデーションなど)が変化する。本実施の形態では、丸(生命、安定などを連想させる)をベースにして表示形態が変更される例を説明する。図19は、感情と色(グラデーション)とが対応づけられており、円内部の線が色の変化点を示している(本来、グラデーションであるため線自体は表示されない)。例えば、円内部の色は、左から、緑色、黄色、水色のように変化している。このように、複数の感情を表示する場合には、色のグラデーションなどによって自律動作体10の感情の状況を表示する。なお、1つの感情を単一の色によって表示することも可能である。なお、具体的な感情と表示形態との関係は、後述において説明する。
図20は、表示形態の変化として、図形R1の形と大きさが変化する場合の例を示している。図形R1は、感情の強さ(感情を示す感情パラメータ値の大きさ)によって大きさが変化する。例えば、図形R1が同じ形の図形(同じ感情)である場合に、感情が強くなるのに応じて、図形R1の大きさは大きくなる。同様に、図形R1が同じ形の図形(同じ感情)である場合に、感情が弱くなるのに応じて、図形R1の大きさは小さくなる。図形R2は、図16で説明したように、図形の形状の基準を示す図形(ガイド)である。この図形R2を表示することにより、図形R1の形の変化が視認しやすくなる。なお、図形R2は必要に応じて表示すればよい。
図21は、表示形態の変化として、図形R1の形が変化する場合の例を示している。
図21のAは喜びと対応づけられた形を示している。図21のBは期待と対応づけられた形を示している。図21のCは怒りと対応づけられた形を示している。図21のDは嫌悪と対応づけられた形を示している。図21のEは悲しみと対応づけられた形を示している。図21のFは驚きと対応づけられた形を示している。図21のGは恐れと対応づけられた形を示している。図21のHは信頼と対応づけられた形を示している。このように、図形R1の形は、感情の内容(感情を示す感情パラメータの内容)によって変化する。なお、図21において、図形R1の外周の黒色は、図形R1の形状を分かり易くするために示している。
図22は、自律動作体10の感情の内容(種別)である感情パラメータと図形R1の表示形態との対応関係を示している。例えば、感情パラメータAの喜びは、黄色に配色された安定した丸(円)の形をし、期待することを連想させるようなリズムで、拡大・縮小を繰り返すような図形R1に対応する。また、感情パラメータFの驚きは、水色の配色された風船がはじけるような形をし、驚いたことを連想させるように、大きさを変化せずに一時的に固定するような図形R1に対応する。
図23は、自律動作体10の感情の内容(種別)である感情パラメータと図形R1の表示形態との対応関係を示している。図23は、図22と比較して、2つの感情(感情パラメータ)をペアにした感情ペアを追加している。感情ペアとは、両立する可能性が低い(対局にある可能性の高い)2つの感情パラメータをペアにしてグループ化した総称である。この場合、感情ペアにおいて対局にある可能性の高い感情パラメータは、どちらか一方の感情パラメータのみがアクティブになる(値が大きい)ことが想定される。したがって、複数の感情パラメータを用いて図形R1の表示形態を変更する場合には、感情ペア数だけの色と形が利用される。
図24は、図23の感情ペアと複数の感情パラメータを用いて図形R1の表示形態を変更する例を示している。例えば、感情ペアAEに対して感情パラメータEがアクティブ(又はパラメータの値が大きい)、感情ペアBFに対して感情パラメータFがアクティブ(又はパラメータの値が大きい)、感情ペアCGに対して感情パラメータGがアクティブ(又はパラメータの値が大きい)、感情ペアDHに対して感情パラメータHがアクティブ(又はパラメータの値が大きい)場合には、感情パラメータEに対応づけられた青色と、感情パラメータFに対応づけられた水色と、感情パラメータGに対応づけられた緑色と、感情パラメータHに対応づけられた黄緑色とが、図形R1の色として表示される。この場合、図示されたような領域を中心にして、グラデーションを用いて配色される。なお、図24では、図面の制約上、カラーの着色やグラデーションについては省略している。
また、図24のBにおける、感情パラメータHに対応づけられた黄緑色のように、アクティブな感情と対応づけられた領域は複数あってもよい。感情パラメータの値の大きさに応じて、対応づけられた色の面積は大きく表示される。この場合、複数の感情パラメータの値の比率を色の面積と関連づけて表示してもよい。さらに、アクティブな感情パラメータのうち、値が最大となる感情パラメータに対応する形が、図形R1の形として表示される。これにより、自律動作体10が持っている複数の感情のうち、どの感情に支配されているかを直感的に提示することができる。このように、感情パラメータの種別と感情パラメータの値に応じて、図形R1の表示形態を変更することができる。
図25は、図形R1と図形R2の表示例を示す図である。図形R1は、図14~図24において説明した通りである。図形R2は、図16及び図20で説明したように、図形の形状の基準を示す図形(ガイド)である。この図形R2を表示することにより、図形R1の形の変化が視認しやすくなる。この例では、図形R2において、図24において説明した感情ペアに含まれる感情パラメータ同士を互いに対局に配置しており、点線で囲まれた部分には、例えば、感情パラメータの内容(種別)を示す名称と感情パラメータの値とが表示されている。これにより、対局にある感情同士は表示位置においても対局にあるだけではなく、名称と具体的な数とも連想させることができるので、自律動作体10のもつ感情の状態をより直感的に提示することができる。なお、感情名と大きさとを様々な角度から確認できるように、図形R2を回転させるような表示形態、値が最大となる感情パラメータに対応する表示を、自律動作体10を観察するユーザの正面にくるように図形R2を回転させるような表示形態も考えられる。
図26は、感情パラメータの内容(種別、値など)が時間的に変化するのに応じて、図形R1の表示形態が変化する例を示す図である。図26は、図形R1が、感情パラメータ:B、感情パラメータ:A、感情パラメータ:F、感情パラメータ:C、感情パラメータ:D、の順に、表示形態が変化する様子を示している。つまり、感情パラメータが、期待、大きな喜び、驚き、大きな怒り、嫌悪、の順に変化するのに応じて、図形R1が変化する。
<<情報処理装置の構成例>>
ここで、図10を用いて、情報処理端末30が、上述した表示例を実現する構成を説明する。情報処理端末30は、入力部310に含まれるセンサ部が自律動作体10をセンシングすることにより、自律動作体10の位置(空間内の絶対位置、空間内の相対位置、自律動作体10までの距離など)を特定する。なお、センサ部は、入力部310として情報処理端末30に内蔵される形態、外部に設けられた図示されないセンサ部から自律動作体10の位置を特定するために利用する情報を取得する形態でもよいる。通信部350は、自律動作体10に保存されている感情パラメータ(または情報処理サーバ20に保存されている感情パラメータ)をネットワーク経由で取得する。制御部340は、図14~図26で説明したように、センサにより取得した位置と通信部350により取得した感情パラメータの内容(種別、値など)に応じて、照射(投影)する図形R1(必要に応じて図形R2)、または、表示画面に表示する図形R1(必要に応じて図形R2)の表示状態(形、大きさ、色、色の組み合わせ、動きなど)を変更するように制御する。なお、図形R2を表示するかは、ユーザなどにより設定されるようにしてもよい。
<<情報処理装置の処理手順例>>
次に、図27のフローチャートを参照して、情報処理端末30が、上述した表示例(照射例・投影例)を実現する手順を説明する。
情報処理端末30は、ステップS1において、センサ部によりセンシングされた自律動作体10の位置を特定する。情報処理端末30は、ステップS2において、自律動作体10に保存されている感情パラメータ(または情報処理サーバ20に保存されている感情パラメータ)をネットワーク経由で取得する。情報処理端末30は、ステップS3において、取得した感情パラメータの状態(種別及び値)を判断する。
ステップS4において、情報処理端末30は、図22および図23で説明した通り、感情パラメータの状態(種別及び値)を、図形R1と対応付ける処理を行う。例えば、情報処理端末30は、色を単一色で表示するか、複数の色を組み合わせてグラデーションで表示するかを判断する。単一色で表示する場合は、値が最も大きな値を有する感情パラメータに対応する形と色で図形R1が表示される。複数の色で表示する場合には、感情ペアを用いて図形R1と対応付けるか否かも判断される。感情ペアを用いた場合、図23で説明したように、感情ペアを設定して、表示する対象となる感情パラメータが選択される。感情ペアを用いない場合には、例えば、値の大きな感情パラメータから順に、表示する対象となる感情パラメータが選択される。
ステップS5において、情報処理端末30は、特定した位置と感情パラメータに応じて、図形R1を表示画面に表示させる。
<<コンピュータ構成例>>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているマイクロコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図28は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)1001,ROM(Read Only Memory)1002,RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記憶部1008、通信部1009、及びドライブ1010が接続されている。
入力部1006は、キーボード、マウス、マイクロフォン、タッチパネル、入力端子などよりなる。出力部1007は、ディスプレイ、スピーカ、出力端子などよりなる。記憶部1008は、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体1011を駆動する。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、上述した実施の形態の一部を適宜組み合わせた形態を採用することができる。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
10 自律動作体, 20 情報処理サーバ, 30 情報処理端末, 110 入力部, 120 認識部, 130 学習部, 140 行動計画部, 150 動作制御部, 160 駆動部, 170 出力部, 210 学習部, 220 行動推奨部, 230 分析部, 240 記憶部, 250 アプリケーション制御部, 260 反映部, 270 端末通信部, 310 入力部, 320 表示部, 330 音声出力部, 340 制御部, 350 通信部, 1001 CPU, 1002 ROM, 1003 RAM, 1006 入力部, 1007 出力部, 1008 記憶部, 1009 通信部, 1010 ドライブ

Claims (20)

  1. 自律動作体の位置をセンシングするセンシング部によりセンシングされた前記自律動作体の位置と前記自律動作体の感情を示す感情パラメータとが変化するのに応じて、前記自律動作体に対応する図形の状態を変化させながら、表示画面に前記図形を表示させる制御部
    を備える情報処理装置。
  2. 前記制御部は、前記自律動作体に対応する図形の表示位置と表示状態とを変化させながら、前記表示画面に前記図形を表示させる
    請求項1に記載の情報処理装置。
  3. 前記制御部は、前記自律動作体の位置に対して中心付近を前記表示位置の基準位置として、前記表示画面に前記図形を表示させる
    請求項2に記載の情報処理装置。
  4. 前記制御部は、基準位置を中心とする図形の表示位置と表示状態とを変化させながら、前記表示画面に前記図形を表示させる
    請求項2に記載の情報処理装置。
  5. 前記制御部は、前記感情パラメータが変化するのに連動して、前記図形の大きさを変化させながら、前記表示画面に前記図形を表示させる
    請求項2に記載の情報処理装置。
  6. 前記制御部は、前記感情パラメータが変化するのに連動して、前記図形の色合いを変化させながら、前記表示画面に前記図形を表示させる
    請求項2に記載の情報処理装置。
  7. 前記制御部は、前記感情パラメータが変化するのに連動して、前記図形の形を変化させながら、前記表示画面に前記図形を表示させる
    請求項2に記載の情報処理装置。
  8. 前記図形は、円形であり、
    前記制御部は、前記感情パラメータが変化するのに連動して、前記円形の形を変化させながら、前記表示画面に前記図形を表示させる
    請求項7に記載の投影装置。
  9. 前記図形は、円形であり、
    前記制御部は、前記感情パラメータが変化するのに連動して、前記円形の形を変化させながら、前記表示画面に前記図形を表示させる
    請求項7に記載の情報処理装置。
  10. 前記図形は、円形であり、
    前記制御部は、前記感情パラメータが変化するのに連動して、前記円形の大きさを変化させながら、前記表示画面に前記図形を表示させる
    請求項7に記載の情報処理装置。
  11. 前記図形は、円形であり、
    前記制御部は、前記感情パラメータが変化するのに連動して、前記円形の色合いを変化させながら、前記表示画面に前記図形を表示させる
    請求項7に記載の情報処理装置。
  12. 前記制御部は、時間的に等間隔を安定間隔として、前記図形の状態を変化させながら、前記表示画面に前記図形を表示させる
    請求項1に記載の情報処理装置。
  13. 前記制御部は、前記感情パラメータが時間的に変化する間隔に応じて、前記図形の状態を変化させながら、前記表示画面に前記図形を表示させる
    請求項1に記載の情報処理装置。
  14. 前記感情パラメータは、ユーザから前記自律動作体に対して行われる行動に応じて変更され、
    前記制御部は、前記行動に応じて変更された前記感情パラメータに応じて、前記図形の状態を変化させながら、前記表示画面に前記図形を表示させる
    請求項1に記載の情報処理装置。
  15. 前記感情パラメータは、前記自律動作体の感情と前記図形の状態とが感情対応関係として対応づけられており、
    前記制御部は、前記感情対応関係に従って、前記図形の状態を変化させながら、前記表示画面に前記図形を表示させる
    請求項1に記載の情報処理装置。
  16. 前記感情パラメータは、2つの感情パラメータを組にした感情ペアを構成し、
    前記制御部は、前記感情ペアを構成する1つの感情パラメータに従って、前記図形の状態を変化させながら、前記表示画面に前記図形を表示させる
    請求項15に記載の情報処理装置。
  17. 前記制御部は、前記感情パラメータの感情の名称と前記感情パラメータの値とを、前記図形を囲む枠として回転させながら、前記表示画面に表示させる
    請求項15に記載の情報処理装置。
  18. 情報処理装置が、
    自律動作体の位置をセンシングするセンシング部によりセンシングされた前記自律動作体の位置と前記自律動作体の感情を示す感情パラメータとが変化するのに応じて、前記自律動作体に対応すする図形の状態を変化させながら、表示画面に前記図形を表示させる
    情報処理方法。
  19. 自律動作体の位置をセンシングするセンシング部によりセンシングされた前記自律動作体の位置と前記自律動作体の感情を示す感情パラメータとが変化するのに応じて、前記自律動作体に対応すする図形の状態を変化させながら、前記自律動作体に対して投影する投影光を調整する投影調整部
    を備える情報処理装置。
  20. 情報処理装置が、
    自律動作体の位置をセンシングするセンシング部によりセンシングされた前記自律動作体の位置と前記自律動作体の感情を示す感情パラメータとが変化するのに応じて、前記自律動作体に対応すする図形の状態を変化させながら、前記自律動作体に対して投影する投影光を調整する
    情報処理方法。
JP2019025719A 2019-02-15 2019-02-15 情報処理装置および情報処理方法 Pending JP2022051982A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019025719A JP2022051982A (ja) 2019-02-15 2019-02-15 情報処理装置および情報処理方法
PCT/JP2020/003603 WO2020166373A1 (ja) 2019-02-15 2020-01-31 情報処理装置および情報処理方法
US17/424,037 US11620097B2 (en) 2019-02-15 2020-01-31 Information processing apparatus and information processing method for displaying a figure corresponding to an autonomous moving body
US18/109,546 US20230195401A1 (en) 2019-02-15 2023-02-14 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019025719A JP2022051982A (ja) 2019-02-15 2019-02-15 情報処理装置および情報処理方法

Publications (1)

Publication Number Publication Date
JP2022051982A true JP2022051982A (ja) 2022-04-04

Family

ID=72045569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019025719A Pending JP2022051982A (ja) 2019-02-15 2019-02-15 情報処理装置および情報処理方法

Country Status (3)

Country Link
US (2) US11620097B2 (ja)
JP (1) JP2022051982A (ja)
WO (1) WO2020166373A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024025244A1 (ko) * 2022-07-27 2024-02-01 삼성전자주식회사 로봇 장치의 위치에 대응되는 모드로 동작하는 로봇 장치 및 그 제어 방법

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1161700C (zh) * 1999-04-30 2004-08-11 索尼公司 网络系统
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
JP2003340760A (ja) 2002-05-20 2003-12-02 Sony Corp ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
US20090218769A1 (en) * 2008-03-01 2009-09-03 Robert Krzewicki Dart board with digital target display ring (dtdr)
US8390680B2 (en) * 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
JP2014144514A (ja) * 2013-01-30 2014-08-14 Sharp Corp 状態表示システム、状態表示方法、及びロボット装置
JP6594646B2 (ja) * 2015-04-10 2019-10-23 ヴイストン株式会社 ロボット及びロボット制御方法並びにロボットシステム
CN106293370A (zh) * 2015-05-27 2017-01-04 鸿富锦精密工业(深圳)有限公司 移动终端
KR102601682B1 (ko) * 2015-06-30 2023-11-13 매직 립, 인코포레이티드 가상 이미지 생성 시스템에서 텍스트를 더 효율적으로 디스플레이하기 위한 기법
US10864453B2 (en) * 2016-03-21 2020-12-15 King Mongkut's University Of Technology Thonburi Automatic mobile robot for facilitating activities to improve child development
JP7014168B2 (ja) * 2016-09-06 2022-02-01 ソニーグループ株式会社 仮想生物制御システム、仮想生物制御方法、およびプログラム
JP6351692B2 (ja) * 2016-11-17 2018-07-04 Cocoro Sb株式会社 表示制御装置
JP6841167B2 (ja) * 2017-06-14 2021-03-10 トヨタ自動車株式会社 コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム
JP2019023835A (ja) * 2017-07-25 2019-02-14 日本電信電話株式会社 感情表現装置、方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024025244A1 (ko) * 2022-07-27 2024-02-01 삼성전자주식회사 로봇 장치의 위치에 대응되는 모드로 동작하는 로봇 장치 및 그 제어 방법

Also Published As

Publication number Publication date
US11620097B2 (en) 2023-04-04
WO2020166373A1 (ja) 2020-08-20
US20230195401A1 (en) 2023-06-22
US20220083302A1 (en) 2022-03-17

Similar Documents

Publication Publication Date Title
JP6263252B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP7400923B2 (ja) 情報処理装置および情報処理方法
JP2019008510A (ja) ロボット、ロボットの制御方法及びプログラム
JP6290467B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
US20230266767A1 (en) Information processing apparatus, information processing method, and program
US20200269421A1 (en) Information processing device, information processing method, and program
JP7375770B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JPWO2019138619A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2024009862A (ja) 情報処理装置、情報処理方法、およびプログラム
US20230195401A1 (en) Information processing apparatus and information processing method
US20210197393A1 (en) Information processing device, information processing method, and program
JP2018125003A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
US11938625B2 (en) Information processing apparatus, information processing method, and program
US20210329982A1 (en) Kigurumi staging support apparatus, kigurumi staging support system, and kigurumi staging support method
JP6225242B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP7363823B2 (ja) 情報処理装置、および情報処理方法
US20200333800A1 (en) Animal-shaped autonomous mobile object, method of causing animal-shaped autonomous mobile object to perform motion, and program
WO2022158279A1 (ja) 自律移動体及び情報処理方法
US20230367312A1 (en) Information processing apparatus, information processing method, and program
JP2020042593A (ja) プログラム、情報処理装置、および方法
JP2018092635A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
KR102661381B1 (ko) 액세서리의 장착이 가능한 로봇의 동작 제어 방법 및 장치
JP2018109944A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム