JP7437191B2 - Control devices, control systems, information processing devices, and programs - Google Patents

Control devices, control systems, information processing devices, and programs Download PDF

Info

Publication number
JP7437191B2
JP7437191B2 JP2020036720A JP2020036720A JP7437191B2 JP 7437191 B2 JP7437191 B2 JP 7437191B2 JP 2020036720 A JP2020036720 A JP 2020036720A JP 2020036720 A JP2020036720 A JP 2020036720A JP 7437191 B2 JP7437191 B2 JP 7437191B2
Authority
JP
Japan
Prior art keywords
agent
control device
control
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020036720A
Other languages
Japanese (ja)
Other versions
JP2021139997A (en
Inventor
恒行 山本
尚貴 砂川
健児 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2020036720A priority Critical patent/JP7437191B2/en
Priority to PCT/JP2020/044091 priority patent/WO2021176780A1/en
Publication of JP2021139997A publication Critical patent/JP2021139997A/en
Application granted granted Critical
Publication of JP7437191B2 publication Critical patent/JP7437191B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Toys (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、制御装置、制御システム、情報処理装置、およびプログラムに関する。 The present invention relates to a control device, a control system, an information processing device, and a program.

近年、ユーザと対話を行って様々な情報を提示するエージェント装置が提案されている。例えば、下記特許文献1では、車載用ナビゲーション装置にエンターテインメント性を持たせるために音声と画像により擬人化したエージェントを現出させて、エージェントとの対話でユーザが各種の指示を与えることができる技術が開示されている。 In recent years, agent devices have been proposed that interact with users and present various information. For example, Patent Document 1 listed below discloses a technology in which an anthropomorphic agent appears using voice and images, and the user can give various instructions through dialogue with the agent, in order to provide entertainment to an in-vehicle navigation device. is disclosed.

特開2007-133728号公報Japanese Patent Application Publication No. 2007-133728

しかしながら、同じエージェントを長期間利用していると飽きが生じ、エージェントのエンターテインメント性が低下する場合がある。 However, if the same agent is used for a long period of time, the user may become bored and the entertainment value of the agent may decrease.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、エージェントのエンターテインメント性を向上させることが可能な、新規かつ改良された制御装置、制御システム、情報処理装置、およびプログラムを提供することにある。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a new and improved control device, control system, and information processing device that can improve entertainment for agents. Our goal is to provide processing devices and programs.

上記課題を解決するために、本発明のある観点によれば、情報を提示するエージェントの制御を行う制御部を備え、前記制御部は、前記エージェントに付加された物品に基づいて、前記エージェントの特性を決定する、制御装置が提供される。 In order to solve the above problems, one aspect of the present invention includes a control unit that controls an agent that presents information, and the control unit controls the agent based on the article added to the agent. A control device is provided that determines the characteristics.

また、上記課題を解決するために、本発明の別の観点によれば、音声出力部と、情報を提示するエージェントの制御を行う制御部を有する制御装置と、を備え、前記制御部は、前記エージェントに付加された物品に基づいて、前記エージェントの特性を決定し、前記決定した特性に対応付けられた発話を前記音声出力部から出力する制御を行う、制御システムが提供される。 Moreover, in order to solve the above-mentioned problem, according to another aspect of the present invention, the present invention includes a control device having an audio output section and a control section that controls an agent that presents information, the control section including: A control system is provided that determines a characteristic of the agent based on an article added to the agent, and controls output of an utterance associated with the determined characteristic from the audio output unit.

また、上記課題を解決するために、本発明の別の観点によれば、情報を提示するエージェントから音によって出力されるコンテンツを記憶する記憶部と、他の装置と通信する通信部と、前記他の装置に、前記通信部から前記コンテンツを送信する制御を行う制御部と、を備え、前記制御部は、情報を提示するエージェントを構成する実体を伴う有体物に着脱可能に装着される物品と通信接続する前記他の装置に、前記エージェントにより音声出力される前記コンテンツを送信する制御を行う、情報処理装置が提供される。 Further, in order to solve the above problems, according to another aspect of the present invention, a storage unit that stores content output by sound from an agent that presents information, a communication unit that communicates with another device, and a communication unit that communicates with another device; The other device includes a control unit that controls transmission of the content from the communication unit, and the control unit includes an article that is detachably attached to a tangible object with an entity that constitutes an agent that presents information. An information processing device is provided that controls transmitting the content outputted by the agent as audio to the other device with which the communication connection is made.

また、上記課題を解決するために、本発明の別の観点によれば、情報を提示するエージェントの制御を行うコンピュータに、前記エージェントに付加された物品に基づいて前記エージェントの特性を決定させる処理を実行させる、プログラムが提供される。 Furthermore, in order to solve the above problems, according to another aspect of the present invention, a process of causing a computer that controls an agent that presents information to determine the characteristics of the agent based on an article added to the agent. A program is provided to run it.

また、上記課題を解決するために、本発明の別の観点によれば、情報を提示するエージェントの制御を行い前記エージェントに付加された物品に基づいて前記エージェントの特性を決定する制御装置と通信する通信部と、前記エージェントから音によって出力されるコンテンツを、前記通信部から前記制御装置に送信する制御を行う制御部と、を備える、情報処理装置が提供される。 In order to solve the above problems, according to another aspect of the present invention, the present invention communicates with a control device that controls an agent that presents information and determines the characteristics of the agent based on an article added to the agent. An information processing device is provided, the information processing device comprising: a communication unit that performs control to transmit content output from the agent in the form of sound from the communication unit to the control device.

以上説明したように本発明によれば、エージェントのエンターテインメント性を向上させることが可能となる。 As explained above, according to the present invention, it is possible to improve entertainment for agents.

本発明の一実施形態に係るエージェント機能を有する制御装置の概要について説明する図である。FIG. 1 is a diagram illustrating an overview of a control device having an agent function according to an embodiment of the present invention. 本実施形態に係る制御装置およびアイテムの構成の一例を示すブロック図である。It is a block diagram showing an example of composition of a control device and an item concerning this embodiment. 本実施形態に係る制御装置の動作処理の流れの一例を示すフローチャートである。3 is a flowchart illustrating an example of the flow of operation processing of the control device according to the present embodiment. 本実施形態に係るアイテムへのコンテンツのダウンロードについて説明する図である。FIG. 3 is a diagram illustrating downloading of content to an item according to the present embodiment. 本実施形態に係るサーバからの制御装置へのコンテンツの送信について説明する図である。FIG. 2 is a diagram illustrating transmission of content from a server to a control device according to the present embodiment. 本実施形態に係るエージェントが画像の場合について説明する図である。FIG. 3 is a diagram illustrating a case where the agent according to the present embodiment is an image.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. Note that, in this specification and the drawings, components having substantially the same functional configurations are designated by the same reference numerals and redundant explanation will be omitted.

<1.概要>
図1は、本発明の一実施形態に係るエージェント機能を有する制御装置10の概要について説明する図である。本明細書において、エージェント機能とは、情報を提示するエージェントの制御を行う機能である。提示される情報は、例えば音楽、ニュース、天気予報、道案内(ナビゲーション)、周辺情報等が挙げられる。
<1. Overview>
FIG. 1 is a diagram illustrating an overview of a control device 10 having an agent function according to an embodiment of the present invention. In this specification, an agent function is a function that controls an agent that presents information. Examples of the information presented include music, news, weather forecasts, navigation, and surrounding information.

また、本実施形態による制御装置10は、図1に示すように、実体を伴う有体物としてエージェントを具現化したエージェントデバイスにより実現されてもよい。図1に示す例では、制御装置10が、球体の筐体に両腕が設けられた形状により形成されている。なお、エージェントデバイスの形状は特に限定しない。図1に示す例では、エージェントデバイスにより実現された制御装置10が、例えば移動体の一例である車両に載置され、運転者を含む乗員に対して情報の提示を行う。制御装置10は、例えば運転席の前方に載置されていてもよい。また、制御装置10はマイクおよびスピーカを有し、例えばユーザと音声による対話を行い、ユーザが所望する情報を音声出力する制御を行い得る。 Further, the control device 10 according to the present embodiment may be realized by an agent device that embodies an agent as a tangible object with substance, as shown in FIG. In the example shown in FIG. 1, the control device 10 is formed into a spherical housing with both arms. Note that the shape of the agent device is not particularly limited. In the example shown in FIG. 1, a control device 10 implemented by an agent device is mounted, for example, on a vehicle, which is an example of a moving object, and presents information to passengers including a driver. The control device 10 may be placed, for example, in front of the driver's seat. Further, the control device 10 has a microphone and a speaker, and can, for example, perform voice interaction with the user and control the voice output of information desired by the user.

(課題の整理)
ここで、情報提示を行うエージェントの音声を特定のキャラクタの音声で出力することで、エージェント機能にエンターテインメント性を持たせることが可能である。しかしながら、同じキャラクタのエージェントを長期間利用していると飽きが生じ、エージェントのエンターテインメント性が低下する恐れがある。また、エージェントのキャラクタを表現する要素の一つである外観に変化がない場合も、エージェントに飽きが生じ得る。なお、本明細書において、「エージェントのキャラクタ」とは、「エージェントの特性」に含まれる概念であり、より具体的には、個性や性格、人格とも言える。
(Organizing issues)
Here, by outputting the voice of the agent who presents information as the voice of a specific character, it is possible to give the agent function an entertainment aspect. However, if an agent with the same character is used for a long period of time, the user may become bored and the entertainment value of the agent may decrease. Furthermore, if there is no change in the appearance, which is one of the elements that express the agent's character, the agent may become bored. Note that in this specification, the term "agent's character" is a concept included in "agent's characteristics," and more specifically, it can be said to be individuality, personality, and personality.

本発明の一実施形態による制御装置10は、上記の点に着目して発想されたものであり、エージェントのエンターテインメント性を向上させることを可能とする。 The control device 10 according to an embodiment of the present invention was conceived with attention to the above points, and makes it possible to improve entertainment for agents.

より具体的には、制御装置10に着脱可能なアイテム20をユーザが装着することで、任意にエージェントのキャラクタを変更させることを可能とする。アイテム20には、エージェントのキャラクタを決定するために用いられる情報(キャラクタ情報とも称する)が記憶されており、制御装置10は、装着されたアイテム20からキャラクタ情報を取得してエージェントのキャラクタを決定し得る。本明細書において、「キャラクタ情報」とは、エージェントの特性を決定するために用いられる特性情報の一例である。 More specifically, by allowing the user to attach and detach the item 20 to the control device 10, the agent's character can be arbitrarily changed. The item 20 stores information used to determine the agent's character (also referred to as character information), and the control device 10 acquires the character information from the attached item 20 to determine the agent's character. It is possible. In this specification, "character information" is an example of characteristic information used to determine the characteristics of an agent.

アイテム20は、例えばエージェントが身に着ける様々な装飾品や、エージェントが把持する様々な所持品を模した物品である。各アイテム20には、それぞれ異なるキャラクタ情報やコンテンツが記憶されている。ユーザは、例えば任意のアイテム20を購入し、エージェントデバイスにより実現された制御装置10に装着して着せ替えることで、使用シーン等に応じて好きなキャラクタに自由に変化させることができる。これにより、制御装置10を長期間飽きずに使い続けることが可能となる。また、家族で1つの車両および車両に載置された制御装置10(エージェントデバイス)を利用する際に、各ユーザが各々のアイテム20を持ち込んで制御装置10に装着することで、自分好みのエージェントを利用することができる。また、制御装置10が載置されたシェアカーの利用を想定した際にも、各ユーザが各々のアイテム20を持ち込むことで、どの車両に乗っても自分好みのエージェントを利用することが可能となる。 The items 20 are, for example, articles imitating various ornaments worn by the agent or various belongings held by the agent. Each item 20 stores different character information and content. For example, the user can purchase any item 20, attach it to the control device 10 realized by an agent device, and change the clothes, thereby freely changing it into a favorite character according to the usage scene and the like. This makes it possible to continue using the control device 10 for a long period of time without getting tired of it. Furthermore, when a family uses one vehicle and the control device 10 (agent device) installed in the vehicle, each user can bring in their own item 20 and attach it to the control device 10, allowing them to create their own favorite agent. can be used. Furthermore, even when assuming the use of a shared car in which the control device 10 is installed, each user can bring their own item 20 and use the agent of their choice no matter which vehicle they ride. Become.

キャラクタの変化は、例えば制御装置10から音声出力されるエージェント音声の声色、口調、話す内容、話す速度、声の大きさ等に現れる。また、キャラクタの変化は、制御装置10の外観や動きにも現れる。例えば図1に示す制御装置10の筐体(本体部)の表面が光を透過する部材で形成されている際に、筐体の内部に設けられた光源を有する照明部を制御することで、制御装置10の外観をキャラクタに応じた色調等に変化させることができる。若しくは、制御装置10の筐体(本体部)の表面に表示部が設けられている際に、表示部を制御することで、制御装置10の外観をキャラクタに応じた色調や模様等に変化させることができる。なお、表示部および照明部は、エージェントの外観を表出する表出部の一例である。また、制御装置10を動かす駆動部が制御装置10に設けられている場合に、駆動部を制御することで、制御装置10の動きをキャラクタに応じた動きに変化させることができる。 Changes in the character appear, for example, in the tone, tone, content, speaking speed, volume, etc. of the agent's voice output from the control device 10 . Furthermore, changes in the character also appear in the appearance and movement of the control device 10. For example, when the surface of the casing (main body part) of the control device 10 shown in FIG. The appearance of the control device 10 can be changed to a color tone or the like according to the character. Alternatively, when a display section is provided on the surface of the casing (main body section) of the control device 10, by controlling the display section, the appearance of the control device 10 can be changed to a color tone, pattern, etc. according to the character. be able to. Note that the display section and the illumination section are examples of a display section that displays the appearance of the agent. Further, when the control device 10 is provided with a drive unit that moves the control device 10, the movement of the control device 10 can be changed to a movement according to the character by controlling the drive unit.

また、アイテム20には、音声出力され得るデータ(以下、音声コンテンツと称する)が記憶されていてもよい。音声コンテンツは、例えば、音楽、オーディオブック、ラジオ番組、ニュースや辞書等の各種情報の読み上げデータ等が挙げられる。制御装置10は、装着されたアイテム20からコンテンツを取得し、当該コンテンツを音声出力し得る。したがってユーザは、任意のアイテム20を制御装置10に装着することで、任意のコンテンツを聴くことができる。 Furthermore, the item 20 may store data that can be output as audio (hereinafter referred to as audio content). Examples of the audio content include music, audio books, radio programs, reading data of various information such as news and dictionaries, and the like. The control device 10 can acquire content from the attached item 20 and output the content as audio. Therefore, the user can listen to any content by attaching any item 20 to the control device 10.

このように、着せ替え可能な任意のアイテム20を制御装置10に装着することで、制御装置10により制御されるエージェントのキャラクタを変化させることができ、飽きが生じることを低減し、エージェントのエンターテインメント性を向上させることが可能となる。 In this way, by attaching any changeable item 20 to the control device 10, the character of the agent controlled by the control device 10 can be changed, reducing boredom and increasing the agent's entertainment. It becomes possible to improve sexual performance.

以下、本実施形態による制御装置10およびアイテム20の構成について詳細に説明する。 Hereinafter, the configurations of the control device 10 and the item 20 according to this embodiment will be described in detail.

<2.構成例>
図2は、本実施形態に係る制御装置10およびアイテム20の構成の一例を示すブロック図である。以下、制御装置10およびアイテム20の構成について順次説明する。
<2. Configuration example>
FIG. 2 is a block diagram showing an example of the configuration of the control device 10 and the item 20 according to the present embodiment. Hereinafter, the configurations of the control device 10 and the item 20 will be sequentially explained.

(2-1.アイテム20)
アイテム20は、制御装置10に着脱可能に付加され得る物品である。アイテム20は、帽子やリボン、メガネ、ヘッドホン、ウィッグ、イヤリング、ネックレス、ネクタイ、靴など、エージェントを装飾する装飾品の形状であってもよいし、本や楽器、鞄、指揮棒、三角フラスコ、地図など、エージェントが所持する所持品の形状であってもよい。アイテム20の制御装置10への装着方法は特に限定しない。例えばアイテム20を制御装置10に対してコネクタにより嵌合させてもよいし、制御装置10に載置または挟ませてもよいし、磁気吸着させてもよい。
(2-1.Item 20)
Item 20 is an article that can be removably attached to control device 10 . The items 20 may be in the form of accessories that decorate the agent, such as hats, ribbons, glasses, headphones, wigs, earrings, necklaces, ties, shoes, etc., or may be in the form of books, musical instruments, bags, batons, Erlenmeyer flasks, maps, etc. It may also be the shape of an agent's belongings, such as. The method of attaching the item 20 to the control device 10 is not particularly limited. For example, the item 20 may be fitted to the control device 10 using a connector, placed or sandwiched by the control device 10, or may be magnetically attracted.

図2に示すように、アイテム20は、通信I/F210、制御部220、および記憶部230を有する。 As shown in FIG. 2, item 20 includes communication I/F 210, control section 220, and storage section 230.

(通信I/F210)
通信I/F210は、制御装置10と無線または有線により接続し、データの送信および受信を行う機能を有する。例えば、通信I/F210は、無線LAN(Wi-Fi(登録商標))、Bluetooth(登録商標)、赤外線通信、その他近距離無線通信(NFC;Near field communicationなど)により実現されてもよい。また、通信I/F210は、USB(Universal Serial Bus)コネクタなどにより電気的に制御装置10と通信接続してもよい。
(Communication I/F210)
The communication I/F 210 connects to the control device 10 wirelessly or by wire, and has a function of transmitting and receiving data. For example, the communication I/F 210 may be realized by wireless LAN (Wi-Fi (registered trademark)), Bluetooth (registered trademark), infrared communication, or other near field communication (NFC). Further, the communication I/F 210 may be electrically connected to the control device 10 through a USB (Universal Serial Bus) connector or the like.

(制御部220)
制御部220は、アイテム20の各構成を制御する構成である。例えば、制御部220は、CPU(Central Processing Unit)や、MCU(Micro Controller Unit)等のプロセッサによって実現され得る。本実施形態による制御部220は、記憶部230に記憶されているキャラクタ情報やコンテンツを、通信I/F210を介して制御装置10に送信する制御を行う。
(Control unit 220)
The control unit 220 is configured to control each configuration of the item 20. For example, the control unit 220 may be implemented by a processor such as a CPU (Central Processing Unit) or an MCU (Micro Controller Unit). The control unit 220 according to the present embodiment controls transmitting character information and content stored in the storage unit 230 to the control device 10 via the communication I/F 210.

(記憶部230)
記憶部230は、各種情報を記憶する構成である。例えば、記憶部230は、キャラクタ情報やコンテンツを記憶する。記憶部230に記憶されるコンテンツは、キャラクタに応じたものであってもよい。例えば、アイテム20が「三角フラスコ」の形状の場合、博士のキャラクタが設定され、化学の専門知識がコンテンツとして記憶されていてもよい。また、アイテム20が「地図」の形状の場合、地理に詳しいキャラクタが設定され、地理の授業内容がコンテンツとして記憶されてもよい。いずれも制御装置10を学習用として用いることが想定される。また、アイテム20が「リボン」の形状の場合、可愛いアイドルのキャラクタが設定され、アイドルの音楽がコンテンツとして記憶されていてもよい。また、アイテム20が「紳士用の中折れ帽子」(図1参照)の形状の場合、落ち着きのある男性のキャラクタが設定され、株価や経済ニュース、時事ニュースがコンテンツとして記憶されていてもよい。いずれも制御装置10を車両の運転中や移動中に利用することが想定される。また、記憶部230は、例えばROM(Read Only Memory)やRAM(Random Access Memory)等によって実現され得る。
(Storage unit 230)
The storage unit 230 is configured to store various information. For example, the storage unit 230 stores character information and content. The content stored in the storage unit 230 may correspond to a character. For example, if the item 20 has the shape of an "Erlenmeyer flask", a character of a doctor may be set and specialized knowledge of chemistry may be stored as the content. Furthermore, when the item 20 has the shape of a "map", a character knowledgeable about geography may be set, and the content of the geography lesson may be stored as the content. In both cases, it is assumed that the control device 10 is used for learning purposes. Furthermore, when the item 20 has a "ribbon" shape, a cute idol character may be set, and the idol's music may be stored as the content. Furthermore, if the item 20 is shaped like a "gentleman's fedora" (see FIG. 1), a calm male character may be set, and stock prices, economic news, and current events may be stored as the content. In either case, it is assumed that the control device 10 is used while driving or moving a vehicle. Furthermore, the storage unit 230 may be realized by, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), or the like.

(2-2.制御装置10)
制御装置10は、ユーザに情報を提示するエージェント機能を有する情報処理装置である。制御装置10は、例えば図1に示すように、実体を伴う有体物として構成されるエージェントデバイスにより実現される。図2には、本実施形態による制御装置10の内部構成を図示する。図2に示すように、制御装置10は、通信I/F110、制御部120、スピーカ130、表示部140、駆動部150、および記憶部160を有する。
(2-2. Control device 10)
The control device 10 is an information processing device that has an agent function to present information to a user. The control device 10 is realized by an agent device configured as a tangible object, as shown in FIG. 1, for example. FIG. 2 illustrates the internal configuration of the control device 10 according to this embodiment. As shown in FIG. 2, the control device 10 includes a communication I/F 110, a control section 120, a speaker 130, a display section 140, a drive section 150, and a storage section 160.

(通信I/F110)
通信I/F110は、外部の装置との間でデータの送信および受信を行う機能を有する。例えば通信I/F110は、アイテム20と有線または無線により通信接続し、アイテム20からキャラクタ情報やコンテンツを受信する。例えば通信I/F110は、無線LAN(Wi-Fi(登録商標))、Bluetooth(登録商標)、赤外線通信、その他近距離無線通信(NFC;Near field communicationなど)により実現されてもよい。また、通信I/F210は、USB(Universal Serial Bus)コネクタなどにより電気的に制御装置10と通信接続してもよい。
(Communication I/F110)
Communication I/F 110 has a function of transmitting and receiving data with an external device. For example, the communication I/F 110 communicates with the item 20 by wire or wirelessly, and receives character information and content from the item 20. For example, the communication I/F 110 may be realized by wireless LAN (Wi-Fi (registered trademark)), Bluetooth (registered trademark), infrared communication, or other near field communication (NFC). Further, the communication I/F 210 may be electrically connected to the control device 10 through a USB (Universal Serial Bus) connector or the like.

また、通信I/F110は、基地局やアクセスポイントを介して、外部ネットワーク(例えば、インターネット)上のサーバに接続してもよい。この場合、通信I/F110は、例えばWiMAX、LTE(Long Term Evolution)などのセルラー通信プロトコル、又は、無線LAN(Wi-Fi(登録商標))、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してもよい。これにより、例えばアイテム20から取得した識別情報に基づいて、制御装置10がネットワーク上の所定のサーバから、当該識別情報に対応付けられたキャラクタ情報やコンテンツを受信することが可能となる。 Further, the communication I/F 110 may be connected to a server on an external network (for example, the Internet) via a base station or an access point. In this case, the communication I/F 110 uses a cellular communication protocol such as WiMAX or LTE (Long Term Evolution), or other wireless communication protocols such as wireless LAN (Wi-Fi (registered trademark)) or Bluetooth (registered trademark). may be implemented. Thereby, for example, based on the identification information acquired from the item 20, the control device 10 can receive character information and content associated with the identification information from a predetermined server on the network.

また、通信I/F110は、車両に存在する様々な車載機器との間で、無線または有線により、データの送信および受信を行ってもよい。車載機器には、車両に設けられたオーディオ装置や表示装置、ナビゲーション装置、照明装置、空調装置、自動運転装置等が含まれる。車内機器との間におけるデータの送受信は、例えばCAN(Controller Area Network)、LIN(Local Interconnect Network)、又はLAN(Local Area Network)等の任意の規格に準拠した車載通信ネットワークを用いて行われ得る。これにより、例えば制御装置10による音声出力を、車両に設けられたオーディオ装置(音声出力部)から行うことが可能となる。また、ナビゲーション装置から取得した自車両の位置情報や目的地、経路情報等に基づいて、制御装置10がエージェントの音声でナビゲーション情報をユーザに提示することも可能となる。また、制御装置10は、ユーザによる車載機器への音声入力を受け付け、受け付けた入力情報を車載機器へ送信することも可能である。 Further, the communication I/F 110 may transmit and receive data wirelessly or by wire to various in-vehicle devices present in the vehicle. In-vehicle equipment includes audio devices, display devices, navigation devices, lighting devices, air conditioners, automatic driving devices, etc. installed in the vehicle. Data transmission and reception with in-vehicle devices can be performed using an in-vehicle communication network that complies with any standard, such as CAN (Controller Area Network), LIN (Local Interconnect Network), or LAN (Local Area Network). . This makes it possible, for example, to output audio by the control device 10 from an audio device (audio output section) provided in the vehicle. Furthermore, the control device 10 can present navigation information to the user using the agent's voice based on the location information of the own vehicle, the destination, route information, etc. acquired from the navigation device. Further, the control device 10 can also accept voice input from the user to the in-vehicle device, and transmit the received input information to the in-vehicle device.

(制御部120)
制御部120は、制御装置10にて行われる処理全般を統括的に制御する構成である。例えば、制御部120は、記憶部160に記憶されているプログラムやパラメータ等を用いて各種機能を実現するための処理を実行する。制御部120は、例えば、CPU(Central Processing Unit)や、MCU(Micro Controller Unit)等のプロセッサによって実現され得る。
(Control unit 120)
The control unit 120 is configured to centrally control the overall processing performed by the control device 10. For example, the control unit 120 uses programs, parameters, and the like stored in the storage unit 160 to execute processes for realizing various functions. The control unit 120 may be realized by, for example, a processor such as a CPU (Central Processing Unit) or an MCU (Micro Controller Unit).

例えば、本実施形態による制御部120は、キャラクタ決定部121、出力制御部123、および駆動制御部125として機能し得る。 For example, the control unit 120 according to the present embodiment can function as a character determination unit 121, an output control unit 123, and a drive control unit 125.

キャラクタ決定部121は、通信I/F110を介してアイテム20から取得したキャラクタ情報に基づいて、エージェントのキャラクタを決定する。アイテム20が取り換えられた際は、新たに装着されたアイテム20からキャラクタ情報を取得し、エージェントのキャラクタを決定(変化)させる。エージェントのキャラクタとは、例えば「落ち着いた性格」「ノリのよい元気な性格」「気分屋」「可愛らしい」「昆虫に詳しい」「化学に詳しい」「優しい」「慎重で厳しい」など、性格や個性、人格、特技、趣味嗜好等、エージェントの特性を特定するものであってもよい。 The character determining unit 121 determines the character of the agent based on the character information acquired from the item 20 via the communication I/F 110. When the item 20 is replaced, character information is acquired from the newly attached item 20 and the character of the agent is determined (changed). An agent's character has a personality and personality, such as ``calm personality'', ``bubbly and energetic personality'', ``moody'', ``cute'', ``knowledgeable about insects'', ``knowledgeable about chemistry'', ``kind'', ``cautious and strict'', etc. , personality, special skills, hobbies and preferences, etc., may be used to specify characteristics of the agent.

そして、出力制御部123は、キャラクタ決定部121により決定されたキャラクタに応じた音声をスピーカ130から出力する制御や、決定されたキャラクタに応じた色や模様を表示部140から出力する制御を行う。例えば、制御装置10がマイクロホンをさらに備え、制御部120がエージェント機能としてユーザとの対話制御を行う場合に、受け答えのエージェント音声を、決定されたキャラクタに応じた音声で行い得る。また、制御装置10が車載機器やネットワーク上から取得した様々な情報をユーザに提示する際のエージェント音声を、キャラクタに応じた音声で行い得る。また、キャラクタに応じた音声の制御には、声色に限らず、声の大きさ、話す速度、口癖、言葉使い、口調、話す内容、話す順序、語彙力等も含まれる。出力制御部123は、決定されたキャラクタに応じて、エージェントの発話を制御し得る。 Then, the output control section 123 performs control to output from the speaker 130 a sound corresponding to the character determined by the character determination section 121, and control to output from the display section 140 a color or pattern according to the determined character. . For example, when the control device 10 further includes a microphone and the control unit 120 performs dialogue control with the user as an agent function, the agent voice for answering can be performed with a voice corresponding to the determined character. Further, the agent voice when the control device 10 presents various information acquired from in-vehicle equipment or the network to the user can be performed using a voice corresponding to the character. Furthermore, voice control according to the character is not limited to the tone of voice, but also includes the volume of the voice, speaking speed, manner of speaking, use of words, tone, content of speaking, order of speaking, vocabulary, etc. The output control unit 123 can control the agent's speech according to the determined character.

また、駆動制御部125は、キャラクタ決定部121により決定されたキャラクタに応じた動きを行うよう駆動部150を制御する。駆動制御部125は、駆動部150により、エージェントデバイスにより実現された制御装置10を前後左右に揺らしたり、頷かせたり、振動させたり、腕を動かしたり等の制御を行い得る。また、制御装置10がタッチセンサをさらに備えている場合、駆動制御部125は、ユーザが制御装置10(エージェント)を撫でたり掴んだりした際に、駆動部150を制御して動きによりエージェントの反応を示すことができる。この際、駆動制御部125は、決定されたキャラクタに応じた反応を示す制御を行い得る。 Further, the drive control section 125 controls the drive section 150 to perform movements according to the character determined by the character determination section 121. The drive control section 125 can control the control device 10 implemented by the agent device by the drive section 150, such as shaking it back and forth, making it nod, vibrating it, and moving its arms. In addition, when the control device 10 further includes a touch sensor, when the user strokes or grasps the control device 10 (agent), the drive control section 125 controls the drive section 150 to respond to the agent's reaction by movement. can be shown. At this time, the drive control unit 125 can perform control that shows a reaction according to the determined character.

キャラクタに応じた音声制御や表示制御、また、駆動制御に関する情報は、キャラクタ情報としてアイテム20から取得してもよい。若しくは、制御装置10は、アイテム20から取得したキャラクタ情報に含まれる「性格」に対応付けられた各種制御に関する情報を、記憶部160またはネットワーク上の所定のサーバから取得してもよい。 Information regarding voice control, display control, and drive control depending on the character may be acquired from the item 20 as character information. Alternatively, the control device 10 may acquire information regarding various controls associated with the "personality" included in the character information acquired from the item 20 from the storage unit 160 or a predetermined server on the network.

また、出力制御部123は、アイテム20から音声出力可能なコンテンツ(音声コンテンツ)を取得した場合、スピーカ130から適宜出力する。また、出力制御部123は、テキストベースのコンテンツをエージェント音声によりスピーカ130から出力する制御を行ってもよい。 Further, when the output control unit 123 acquires content (audio content) that can be outputted as audio from the item 20, the output control unit 123 outputs the content from the speaker 130 as appropriate. Further, the output control unit 123 may perform control to output text-based content from the speaker 130 using the agent's voice.

(スピーカ130)
スピーカ130は、出力制御部123の制御に従って、エージェント音声や音声コンテンツを出力する。
(Speaker 130)
The speaker 130 outputs agent voice and audio content under the control of the output control unit 123.

(表示部140)
表示部140は、制御装置10の筐体の表面に設けられ、エージェントの外観として所定の色や模様を示す画像を表示し得る。表示部140は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置、又は投影型のディスプレイ等によって実現され得る。また、表示部140は、筐体の表面全体に設けられていてもよいし、上半分または下半分など筐体の一部に設けられていてもよい。
(Display section 140)
The display unit 140 is provided on the surface of the casing of the control device 10 and can display an image showing a predetermined color or pattern as the appearance of the agent. The display unit 140 may be realized by, for example, a liquid crystal display (LCD) device, an organic light emitting diode (OLED) device, a projection type display, or the like. Furthermore, the display section 140 may be provided on the entire surface of the casing, or may be provided on a part of the casing, such as the upper half or the lower half.

(駆動部150)
駆動部150は、制御装置10(有体物として構成されたエージェント)を動かす機構である。例えば駆動部150は、制御装置10の一部を動かす機構であってもよいし、制御装置10の全体を動かす機構であってもよい。また、駆動部150は、モータや振動部等により実現されてもよい。
(Drive part 150)
The drive unit 150 is a mechanism that moves the control device 10 (an agent configured as a tangible object). For example, the drive unit 150 may be a mechanism that moves a part of the control device 10, or may be a mechanism that moves the entire control device 10. Further, the drive unit 150 may be realized by a motor, a vibration unit, or the like.

(記憶部160)
記憶部160は、各種情報を記憶する構成である。例えば、記憶部160は、制御部120によって使用されるプログラムやパラメータ等を記憶する。また、記憶部160は、制御部120による処理結果や、通信I/F110によって受信した情報等を記憶してもよい。なお、記憶部160が記憶する情報の内容は特に限定されない。また、記憶部160は、例えばROM(Read Only Memory)やRAM(Random Access Memory)等によって実現され得る。
(Storage unit 160)
The storage unit 160 is configured to store various information. For example, the storage unit 160 stores programs, parameters, etc. used by the control unit 120. Furthermore, the storage unit 160 may store processing results by the control unit 120, information received by the communication I/F 110, and the like. Note that the content of the information stored in the storage unit 160 is not particularly limited. Further, the storage unit 160 may be realized by, for example, a ROM (Read Only Memory) or a RAM (Random Access Memory).

以上、本実施形態による制御装置10およびアイテム20の構成例について説明した。なお、本実施形態による制御装置10の構成は、図2に示す例に限定されない。例えば制御装置10は、複数の装置から成るシステムにより構成されてもよい。例えば、本実施形態による制御装置10は、制御部120と、車両に設けられたスピーカ等の外部の音声出力部と、から成るシステムにより構成され、外部に設けられたスピーカからエージェント音声を出力する制御を行ってもよい。また、駆動部150が、制御装置10と別の装置として設けられていてもよい。 The configuration example of the control device 10 and the item 20 according to the present embodiment has been described above. Note that the configuration of the control device 10 according to this embodiment is not limited to the example shown in FIG. 2. For example, the control device 10 may be configured by a system consisting of a plurality of devices. For example, the control device 10 according to the present embodiment is configured by a system including a control unit 120 and an external audio output unit such as a speaker installed in the vehicle, and outputs an agent voice from the external speaker. Control may also be performed. Further, the drive unit 150 may be provided as a device separate from the control device 10.

また、図2の制御部120の機能を、車両に搭載されるECU(Electronic Control Unit)や、ECUに搭載されるマイコン等によって実現してもよい。また、制御部120の機能を、車両に搭載されない外部装置(例えば、インターネット上のクラウドサーバや、運転者が所持するスマートフォン、タブレット端末等)によって実現してもよい。 Further, the functions of the control unit 120 shown in FIG. 2 may be realized by an ECU (Electronic Control Unit) installed in a vehicle, a microcomputer installed in the ECU, or the like. Further, the functions of the control unit 120 may be realized by an external device that is not installed in the vehicle (for example, a cloud server on the Internet, a smartphone owned by the driver, a tablet terminal, etc.).

<3.動作処理>
続いて、本実施形態による制御装置10の動作処理について説明する。図3は、本実施形態に係る制御装置10の動作処理の流れの一例を示すフローチャートである。
<3. Operation processing>
Next, the operation processing of the control device 10 according to this embodiment will be explained. FIG. 3 is a flowchart showing an example of the flow of operation processing of the control device 10 according to the present embodiment.

図3に示すように、まず、制御装置10の制御部120は、アイテム20からキャラクタ情報およびコンテンツを取得する(ステップS103)。なお、ここでは一例としてアイテム20からコンテンツを取得する旨を示すが、アイテム20にコンテンツが記憶されていない場合も想定される。 As shown in FIG. 3, first, the control unit 120 of the control device 10 acquires character information and content from the item 20 (step S103). Note that although the content is shown as being acquired from the item 20 as an example here, it is also assumed that the content is not stored in the item 20.

次に、キャラクタ決定部121は、取得したキャラクタ情報に基づいて、エージェントのキャラクタを決定する(ステップS106)。 Next, the character determining unit 121 determines the character of the agent based on the acquired character information (step S106).

次いで、制御部120は、決定されたキャラクタに応じた制御を行う(ステップS109)。具体的には、例えば出力制御部123は、決定されたキャラクタに応じてエージェントの発話や外観を制御する。また、駆動制御部125は、決定されたキャラクタに応じてエージェントの動きを制御する。また、出力制御部123は、アイテム20からコンテンツを取得した場合は、取得したコンテンツをスピーカ130から出力する制御を行う。 Next, the control unit 120 performs control according to the determined character (step S109). Specifically, for example, the output control unit 123 controls the agent's speech and appearance according to the determined character. Further, the drive control unit 125 controls the movement of the agent according to the determined character. Further, when content is acquired from the item 20, the output control unit 123 performs control to output the acquired content from the speaker 130.

以上、本実施形態による制御装置10の動作処理の一例について説明したが、本発明はこれに限定されない。 Although an example of the operation processing of the control device 10 according to the present embodiment has been described above, the present invention is not limited thereto.

<4.補足>
(4-1.アイテム20へのコンテンツの保存)
上述した実施形態では、アイテム20にコンテンツが記憶されている旨を説明したが、かかるコンテンツは、例えばスマートフォンやタブレット端末、PC(パーソナルコンピュータ)等のユーザ端末を経由してインターネット上の所定サーバからダウンロードしてもよい。ダウンロードは有償で行われてもよいし、無償で行われてもよい。ユーザは、任意のコンテンツをダウンロードとしてアイテム20をカスタマイズすることができる。
<4. Supplement>
(4-1. Saving content to item 20)
In the embodiment described above, it has been explained that the content is stored in the item 20, but such content is stored from a predetermined server on the Internet via a user terminal such as a smartphone, a tablet terminal, or a PC (personal computer). You can download it. Downloading may be performed for a fee or for free. The user can customize item 20 by downloading any content.

図4は、本実施形態に係るアイテム20へのコンテンツのダウンロードについて説明する図である。図4に示すように、例えばユーザ端末30は、ネットワーク50を介してサーバ40と通信接続する。サーバ40は、コンテンツを記憶するコンテンツサーバである。サーバ40は、コンテンツを記憶するコンテンツサーバである。サーバ40は、通信I/F、制御部、およびコンテンツを記憶するコンテンツDBを有する。サーバ40の制御部は、コンテンツDBに記憶されているコンテンツの情報を、通信I/Fからネットワーク50を介してユーザ端末30に送信する制御を行う。ユーザ端末30は、アイテム20と通信接続し、サーバ40から取得(ダウンロード)したコンテンツをアイテム20に送信する。これにより、かかるアイテム20を制御装置10に装着した際に、制御装置10でサーバ40からダウンロードしたコンテンツを出力することが可能となる。 FIG. 4 is a diagram illustrating downloading of content to the item 20 according to this embodiment. As shown in FIG. 4, for example, the user terminal 30 is communicatively connected to the server 40 via the network 50. The server 40 is a content server that stores content. The server 40 is a content server that stores content. The server 40 has a communication I/F, a control unit, and a content DB that stores content. The control unit of the server 40 controls the transmission of content information stored in the content DB from the communication I/F to the user terminal 30 via the network 50. The user terminal 30 is communicatively connected to the item 20 and transmits content acquired (downloaded) from the server 40 to the item 20. Thereby, when the item 20 is attached to the control device 10, it becomes possible for the control device 10 to output the content downloaded from the server 40.

なお、ここでは一例としてサーバ40からユーザ端末30を経由してアイテム20にコンテンツをダウンロードする場合について説明したが、本発明はこれに限定されない。例えばユーザ端末30に元々保存されているコンテンツや、他の装置から取得したコンテンツをアイテム20に送信して保存することも可能である。 Note that although the case where content is downloaded from the server 40 to the item 20 via the user terminal 30 has been described here as an example, the present invention is not limited to this. For example, it is also possible to transmit content originally stored in the user terminal 30 or content acquired from another device to the item 20 and store it.

(4-2.サーバから制御装置10へのコンテンツの送信)
上述した実施形態では、制御装置10がアイテム20からコンテンツを受信する場合について説明したが、本発明はこれに限定されない。例えば制御装置10が、コンテンツを保存するサーバ40とネットワーク50を介して接続し、コンテンツをサーバ40からダウンロード若しくはストリーミングして出力することも可能である。
(4-2. Transmission of content from server to control device 10)
In the embodiment described above, a case has been described in which the control device 10 receives content from the item 20, but the present invention is not limited to this. For example, it is also possible for the control device 10 to connect via the network 50 to a server 40 that stores content, and to download or stream the content from the server 40 and output the content.

図5は、本実施形態に係るサーバ40からのアイテム20へのコンテンツの送信について説明する図である。図5に示すように、例えば制御装置10は、ネットワーク50を介してサーバ40と通信接続する。図5に示すように、サーバ40は、通信I/F410、制御部420、およびコンテンツDB(データベース)430を有する。サーバ40の制御部420は、コンテンツDBに記憶されているコンテンツの情報を、通信I/F410からネットワーク50を介して制御装置10に送信する制御を行う。 FIG. 5 is a diagram illustrating transmission of content from the server 40 to the item 20 according to the present embodiment. As shown in FIG. 5, for example, the control device 10 is communicatively connected to the server 40 via the network 50. As shown in FIG. 5, the server 40 includes a communication I/F 410, a control unit 420, and a content DB (database) 430. The control unit 420 of the server 40 controls the transmission of content information stored in the content DB from the communication I/F 410 to the control device 10 via the network 50.

これにより、制御装置10は、サーバ40から取得したコンテンツを音声出力(再生)することが可能となる。なお、コンテンツの再生方法は、ダウンロード形式であってもよいし、ストリーミング形式であってもよい。 This allows the control device 10 to audio output (playback) the content acquired from the server 40. Note that the content may be played back in a download format or in a streaming format.

また、制御装置10は、アイテム20から取得したキャラクタ情報に基づいて決定したキャラクタに対応付けられたコンテンツをサーバ40から取得するようにしてもよい。 Further, the control device 10 may acquire content associated with a character determined based on the character information acquired from the item 20 from the server 40.

(4-3.エージェントが画像の場合)
上述した実施形態では、エージェントが実体を伴った有体物として構成される場合について説明したが、本発明はこれに限定されない。例えばエージェントは実体を伴わない画像データ等の無体物であってもよい。具体的には、ユーザのスマートフォン等や車両に搭載されたECU等により実現される制御部120が、エージェントの画像をスマートフォン等に設けられた表示部や車両に設置された表示装置、また、車両のフロントガラス等に表示(または投影)し、エージェント音声による情報提示を行うよう制御してもよい。この場合、エージェントに付加されるアイテムも、画像、すなわち無体物となる。制御部120は、エージェントに付加されるアイテムに応じて、エージェントのキャラクタを決定し得る。すなわち、ユーザは、例えば購入した任意のアイテム画像をエージェント画像に付加する操作を行うことで、エージェントのキャラクタを任意に変更することが可能となる。
(4-3. When the agent is an image)
In the embodiments described above, a case has been described in which the agent is configured as a tangible object, but the present invention is not limited to this. For example, the agent may be an intangible object such as image data without substance. Specifically, the control unit 120, which is realized by a user's smartphone or the like or an ECU installed in the vehicle, displays an image of the agent on a display unit installed in the smartphone or the like, a display device installed in the vehicle, or a display device installed in the vehicle. The information may be displayed (or projected) on the windshield or the like of the vehicle, and the information may be controlled to be presented using the agent's voice. In this case, the item added to the agent is also an image, that is, an intangible object. The control unit 120 can determine the agent's character according to the item added to the agent. That is, the user can arbitrarily change the agent's character by, for example, adding an arbitrary purchased item image to the agent image.

ここで、図6に、本実施形態に係るエージェントが画像の場合について説明する図を示す。図6に示すように、例えばスマートフォン等のユーザ端末により実現された制御装置10Aにおいて、表示部140Aに、エージェント画像141が表示される。また、ユーザが制御装置10Aを操作し、任意のアイテム画像20Aを、エージェント画像141に付加する。これにより制御装置10Aは、エージェント画像141に付加されたアイテム画像20Aに応じて、エージェントのキャラクタを決定する。キャラクタの決定に用いるキャラクタ情報は、例えばインターネット上のショップでアイテム画像20Aを購入した際に、アイテム画像20Aと共に所定のサーバから制御装置10Aにダウンロードされ得る。制御装置10Aは、キャラクタ情報に基づいて、エージェント画像141の発話音声、外観、および動きを制御し得る。また、アイテム画像20Aを購入した際に、対応付けられたコンテンツも併せてダウンロードされてもよい。若しくは、アイテム画像20Aを購入したユーザ端末からの要求に応じて、任意のタイミングで所定のサーバからアイテム画像20Aの識別情報に対応付けられたコンテンツをダウンロードまたはストリーミングできるようにしてもよい。なお、エージェントが画像の場合も、本実施形態による制御装置は、例えば制御部120と、車両に設けられたスピーカ等の外部の音声出力部とから成るシステムにより構成されてもよい。 Here, FIG. 6 shows a diagram illustrating a case where the agent according to this embodiment is an image. As shown in FIG. 6, an agent image 141 is displayed on a display unit 140A in a control device 10A implemented by a user terminal such as a smartphone. Further, the user operates the control device 10A to add an arbitrary item image 20A to the agent image 141. Thereby, the control device 10A determines the agent's character according to the item image 20A added to the agent image 141. Character information used to determine a character can be downloaded from a predetermined server to the control device 10A together with the item image 20A, for example, when the item image 20A is purchased at a shop on the Internet. The control device 10A can control the spoken voice, appearance, and movement of the agent image 141 based on the character information. Furthermore, when the item image 20A is purchased, the associated content may also be downloaded. Alternatively, the content associated with the identification information of the item image 20A may be downloaded or streamed from a predetermined server at any timing in response to a request from the user terminal that purchased the item image 20A. Note that even when the agent is an image, the control device according to this embodiment may be configured by a system including, for example, the control unit 120 and an external audio output unit such as a speaker installed in the vehicle.

<5.まとめ>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<5. Summary>
Although preferred embodiments of the present invention have been described above in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is clear that a person with ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea stated in the claims. It is understood that these also naturally fall within the technical scope of the present invention.

例えば、上記では、制御装置10が載置される移動体の一例として車両を用いたが、本実施形態に係る移動体は車両に限定されず、船舶(例えば、旅客船、貨物船、又は潜水艦等)や航空機(例えば、飛行機、ヘリコプター、グライダー、又は飛行船等)などであってもよい。また、車両は自動車に限定されず、バス、バイク、機関車、又は電車等であってもよい。また、移動体は、必ずしも上記の例に限定されず、移動可能な物体であればよい。また、制御装置10が移動体に載置されることはあくまで一例であり、制御装置10は、移動体以外に載置されてもよい。また、制御装置10の少なくとも一部の構成が移動体に搭載され、他の構成は移動体以外に搭載されてもよい。 For example, in the above, a vehicle is used as an example of a moving object on which the control device 10 is mounted, but the moving object according to the present embodiment is not limited to a vehicle, and may include a ship (for example, a passenger ship, a cargo ship, a submarine, etc.). ) or an aircraft (for example, an airplane, a helicopter, a glider, or an airship). Further, the vehicle is not limited to a car, and may be a bus, a motorcycle, a locomotive, a train, or the like. Further, the moving body is not necessarily limited to the above example, and may be any movable object. Moreover, it is only an example that the control device 10 is placed on a moving body, and the control device 10 may be placed on a place other than the moving body. Furthermore, at least a part of the configuration of the control device 10 may be mounted on a moving object, and other components may be mounted on a device other than the moving object.

また、上述した実施形態では、制御部120が、ユーザと音声による対話を行うエージェントの制御を行う旨を説明したが、本発明において音声対話の制御は必須ではない。例えば制御部120は、音声対話を行わず、ユーザからの指示は、ボタン操作や、制御装置10と通信接続するスマートフォン等の画面操作等から受け付けて、エージェント音声による情報提示やコンテンツの出力を行うよう制御してもよい。 Further, in the embodiment described above, it has been explained that the control unit 120 controls the agent that performs voice interaction with the user, but control of voice interaction is not essential in the present invention. For example, the control unit 120 does not perform voice dialogue, but receives instructions from the user through button operations or screen operations on a smartphone or the like that is communicatively connected to the control device 10, and presents information and outputs content using agent voice. It may be controlled as follows.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Further, the effects described in this specification are merely explanatory or illustrative, and are not limiting. In other words, the technology according to the present disclosure can have other effects that are obvious to those skilled in the art from the description of this specification, in addition to or in place of the above effects.

また、本明細書の判定装置の処理に係る各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理される必要はない。 Further, each step related to the processing of the determination device of this specification does not necessarily need to be processed in chronological order in the order described in the flowchart.

また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアに、制御装置10が有する構成と同等の機能を発揮させるためのプログラムも作成可能であり、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。 It is also possible to create a program that allows hardware such as the CPU, ROM, and RAM built into the computer to perform functions equivalent to the configuration of the control device 10, and the program can be recorded and read by the computer. A recording medium may also be provided.

10:制御装置、110:通信I/F、120:制御部、121:キャラクタ決定部、123:出力制御部、125:駆動制御部、130:スピーカ、140:表示部、150:駆動部、160:記憶部、20:アイテム、210:通信I/F、220:制御部、230:記憶部、30:ユーザ端末、40:サーバ、410:通信I/F、420:制御部、430:記憶部、50:ネットワーク、10A:制御装置、140A:表示部、141:エージェント画像、20A:アイテム画像
10: Control device, 110: Communication I/F, 120: Control unit, 121: Character determining unit, 123: Output control unit, 125: Drive control unit, 130: Speaker, 140: Display unit, 150: Drive unit, 160 : Storage unit, 20: Item, 210: Communication I/F, 220: Control unit, 230: Storage unit, 30: User terminal, 40: Server, 410: Communication I/F, 420: Control unit, 430: Storage unit , 50: Network, 10A: Control device, 140A: Display section, 141: Agent image, 20A: Item image

Claims (19)

情報を提示するエージェントの制御を行う制御部を備え、
前記制御部は、
前記エージェントに付加された物品に基づいて、前記エージェントの特性を決定し、
前記決定した特性に対応付けられた発話を、前記情報を提示する制御として音声出力部から出力する制御を行い、
前記決定した特性に対応付けられた口調、声質、声の大きさ、声の高さ、話す速度、または話す内容の少なくともいずれかにより、前記発話の出力を制御する、
制御装置。
Equipped with a control unit that controls an agent that presents information,
The control unit includes:
determining characteristics of the agent based on items attached to the agent ;
controlling to output an utterance associated with the determined characteristic from an audio output unit as a control for presenting the information;
controlling the output of the utterance according to at least one of the tone, voice quality, voice volume, voice pitch, speaking speed, or speaking content that is associated with the determined characteristic;
Control device.
前記物品は、前記エージェントの形状を変化させる物品である、請求項1に記載の制御装置。 The control device according to claim 1, wherein the article is an article that changes the shape of the agent. 前記エージェントは、実体を伴う有体物として構成され、
前記制御部は、前記エージェントの特性を、前記エージェントに着脱可能に装着された前記物品から取得した、前記特性を決定するために用いられる特性情報に基づいて決定する、請求項1または2に記載の制御装置。
The agent is configured as a tangible object with substance,
The control unit determines the characteristics of the agent based on characteristic information used to determine the characteristics, which is obtained from the article detachably attached to the agent. control device.
前記制御部は、前記物品から取得した特性情報と対応付けられ、かつ音声出力部から出力される音声の内容に関するデータに基づく音声の出力を、前記情報の提示として実行する、請求項に記載の制御装置。 4. The control section executes, as the presentation of the information, output of sound based on data related to the content of the sound that is associated with the characteristic information acquired from the article and output from the sound output section. control device. 前記制御部は、前記決定した特性に対応付けられた外観を、前記エージェントの外観として、前記有体物に設けられた表出部から表出する制御を行う、請求項3または4に記載の制御装置。 The control device according to claim 3 or 4 , wherein the control unit performs control to display an appearance associated with the determined characteristic as the appearance of the agent from an expression unit provided on the tangible object. . 前記表出部は、光源を有する照明部を含み、
前記制御部は、前記特性に対応付けられた色調で前記照明部を発光させる制御を行う、請求項に記載の制御装置。
The expression section includes an illumination section having a light source,
The control device according to claim 5 , wherein the control unit controls the illumination unit to emit light in a color tone associated with the characteristic.
前記表出部は、画像を表示する表示部を含み、
前記制御部は、前記特性に対応付けられた色調または模様の少なくともいずれかで前記表示部を表示する制御を行う、請求項に記載の制御装置。
The display section includes a display section that displays an image,
The control device according to claim 5 , wherein the control unit controls the display unit to display at least one of a color tone and a pattern associated with the characteristic.
前記制御部は、表示部に表示する前記エージェントの画像に装着された前記物品の画像に基づいて、前記エージェントの特性を決定する、請求項1または2に記載の制御装置。 The control device according to claim 1 or 2 , wherein the control unit determines the characteristics of the agent based on an image of the article attached to an image of the agent displayed on a display unit. 前記制御部は、前記エージェントの識別情報に対応付けられた、音声出力部から出力される音声の内容に関するデータを取得し、当該データに基づく音声を、前記情報の提示として、前記音声出力部から出力する制御を行う、請求項に記載の制御装置。 The control unit acquires data related to the content of the audio output from the audio output unit that is associated with the identification information of the agent, and outputs audio based on the data from the audio output unit as presentation of the information. The control device according to claim 8 , which performs output control. 前記制御部は、前記決定した特性に対応付けられた外観を、前記エージェントの外観として、前記表示部に表示する制御を行う、請求項8または9に記載の制御装置。 The control device according to claim 8 or 9 , wherein the control unit controls displaying an appearance associated with the determined characteristic on the display unit as the appearance of the agent. 前記制御部は、前記決定した特性に対応付けられた動きで前記エージェントを動かす制御を行う、請求項1~10のいずれか1項に記載の制御装置。 The control device according to any one of claims 1 to 10 , wherein the control unit controls the agent to move in a motion associated with the determined characteristic. 前記物品は、前記エージェントの装飾品または所持品として、前記エージェントに付加される、請求項1~11のいずれか1項に記載の制御装置。 The control device according to any one of claims 1 to 11 , wherein the article is added to the agent as an ornament or a belonging of the agent. 音声出力部と、
情報を提示するエージェントの制御を行う制御部を有する制御装置と、を備え、
前記制御部は、
前記エージェントに付加された物品に基づいて、前記エージェントの特性を決定し、
前記決定した特性に対応付けられた発話を前記音声出力部から出力する制御を行い、
前記決定した特性に対応付けられた口調、声質、声の大きさ、声の高さ、話す速度、または話す内容の少なくともいずれかにより、前記発話の出力を制御する、
制御システム。
an audio output section;
a control device having a control unit that controls an agent presenting information;
The control unit includes:
determining characteristics of the agent based on items attached to the agent;
controlling to output an utterance associated with the determined characteristic from the audio output unit ;
controlling the output of the utterance according to at least one of the tone, voice quality, voice volume, voice pitch, speaking speed, or speaking content that is associated with the determined characteristic;
control system.
前記エージェントは、実体を伴う有体物として構成され、
前記制御装置は、前記エージェントを構成する有体物に着脱可能に装着された前記物品と通信する通信部をさらに備え、
前記制御部は、前記通信部により前記物品から受信した、前記エージェントの特性を決定するために用いられる特性情報に基づいて、前記エージェントの特性を決定する、請求項13に記載の制御システム。
The agent is configured as a tangible object with substance,
The control device further includes a communication unit that communicates with the article that is removably attached to a tangible object that constitutes the agent,
The control system according to claim 13 , wherein the control unit determines the characteristics of the agent based on characteristic information used for determining the characteristics of the agent, which is received from the article by the communication unit.
前記制御部は、前記通信部により前記物品から受信した、前記音声出力部から出力される音声の内容に関するデータに基づく音声の出力を、前記情報の提示として、前記音声出力部から出力する制御を行う、請求項14に記載の制御システム。 The control unit controls to output from the audio output unit, as a presentation of the information, audio output based on data regarding the content of the audio output from the audio output unit, which is received from the article by the communication unit. 15. The control system according to claim 14 , wherein: 前記制御装置は、ネットワークを介して他の装置と通信する通信部をさらに備え、
前記制御部は、前記他の装置から、表示部に表示する前記エージェントに装着する前記物品のデータ、または、前記音声出力部から出力される音声の内容に関するデータの少なくともいずれかを受信する、請求項13に記載の制御システム。
The control device further includes a communication unit that communicates with other devices via a network,
The control unit receives, from the other device, at least one of data about the article worn on the agent displayed on the display unit, or data about the content of the audio output from the audio output unit. The control system according to item 13 .
情報を提示するエージェントから音によって出力されるコンテンツを記憶する記憶部と、
他の装置と通信する通信部と、
前記他の装置に、前記通信部から前記コンテンツを送信する制御を行う制御部と、を備え、
前記制御部は、情報を提示するエージェントを構成する実体を伴う有体物に着脱可能に装着され、前記エージェントの形状を変化させる物品と通信接続する前記他の装置に、前記エージェントにより音声出力される前記コンテンツを送信する制御を行う、情報処理装置。
a storage unit that stores content output by sound from an agent presenting information;
a communication unit that communicates with other devices;
The other device includes a control unit that controls transmitting the content from the communication unit,
The control unit is removably attached to a tangible object constituting an agent that presents information , and the control unit is configured to output the voice output from the agent to the other device that is communicatively connected to the article that changes the shape of the agent. An information processing device that controls the transmission of content.
情報を提示するエージェントの制御を行うコンピュータに、
前記エージェントに付加された物品に基づいて前記エージェントの特性を決定させる処理と、
前記決定した特性に対応付けられた発話を、前記情報を提示する制御として音声出力部から出力する処理と、
前記決定した特性に対応付けられた口調、声質、声の大きさ、声の高さ、話す速度、または話す内容の少なくともいずれかにより、前記発話の出力を制御する処理と、
を実行させる、プログラム。
on the computer that controls the agent that presents the information.
A process of determining characteristics of the agent based on an item added to the agent ;
outputting an utterance associated with the determined characteristic from an audio output unit as a control for presenting the information;
A process of controlling the output of the utterance according to at least one of the tone, voice quality, voice volume, voice pitch, speaking speed, or speaking content that is associated with the determined characteristic;
A program to run.
情報を提示するエージェントの制御を行い前記エージェントに付加された物品に基づいて前記エージェントの特性を決定し、前記決定した特性に対応付けられた発話を、前記情報を提示する制御として音声出力部から出力する制御を行い、前記決定した特性に対応付けられた口調、声質、声の大きさ、声の高さ、話す速度、または話す内容の少なくともいずれかにより前記発話の出力を制御する制御装置と通信する通信部と、
前記エージェントから音によって出力されるコンテンツを、前記通信部から前記制御装置に送信する制御を行う制御部と、
を備える、情報処理装置。
an audio output unit that controls an agent that presents information , determines characteristics of the agent based on items added to the agent , and outputs utterances associated with the determined characteristics as a control for presenting the information; a control device that controls the output of the utterance based on at least one of the tone, voice quality, voice volume, voice pitch, speaking speed, or speaking content associated with the determined characteristics; a communications department that communicates with
a control unit that controls transmitting content output from the agent in the form of sound from the communication unit to the control device;
An information processing device comprising:
JP2020036720A 2020-03-04 2020-03-04 Control devices, control systems, information processing devices, and programs Active JP7437191B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020036720A JP7437191B2 (en) 2020-03-04 2020-03-04 Control devices, control systems, information processing devices, and programs
PCT/JP2020/044091 WO2021176780A1 (en) 2020-03-04 2020-11-26 Control device, control system, information processing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020036720A JP7437191B2 (en) 2020-03-04 2020-03-04 Control devices, control systems, information processing devices, and programs

Publications (2)

Publication Number Publication Date
JP2021139997A JP2021139997A (en) 2021-09-16
JP7437191B2 true JP7437191B2 (en) 2024-02-22

Family

ID=77613204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020036720A Active JP7437191B2 (en) 2020-03-04 2020-03-04 Control devices, control systems, information processing devices, and programs

Country Status (2)

Country Link
JP (1) JP7437191B2 (en)
WO (1) WO2021176780A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187435A (en) 1998-12-24 2000-07-04 Sony Corp Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method
JP2007133728A (en) 2005-11-11 2007-05-31 Kenwood Corp Agent device, on-vehicle navigation device with agent function and agent outputting method
JP2011045792A (en) 2010-12-10 2011-03-10 Nhn Corp Game system and web service-providing system
JP2014199323A (en) 2013-03-29 2014-10-23 富士通株式会社 Voice interactive device and interaction control method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187435A (en) 1998-12-24 2000-07-04 Sony Corp Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method
JP2007133728A (en) 2005-11-11 2007-05-31 Kenwood Corp Agent device, on-vehicle navigation device with agent function and agent outputting method
JP2011045792A (en) 2010-12-10 2011-03-10 Nhn Corp Game system and web service-providing system
JP2014199323A (en) 2013-03-29 2014-10-23 富士通株式会社 Voice interactive device and interaction control method

Also Published As

Publication number Publication date
JP2021139997A (en) 2021-09-16
WO2021176780A1 (en) 2021-09-10

Similar Documents

Publication Publication Date Title
US11321923B2 (en) Immersive display of motion-synchronized virtual content
KR102466349B1 (en) Immersive virtual display
US12015817B2 (en) Configurable content for grouped subsets of users
US20210400132A1 (en) Systems, devices, and methods for generating messages
US9833725B2 (en) Interactive cloud-based toy
US11112266B2 (en) Method for motion-synchronized AR or VR entertainment experience
JP6736685B2 (en) Emotion estimation device and emotion estimation system
US20160288708A1 (en) Intelligent caring user interface
JPH11259446A (en) Agent device
US20220303607A1 (en) Hardware for entertainment content in vehicles
WO2020163801A1 (en) Intra-vehicle games
JP7437191B2 (en) Control devices, control systems, information processing devices, and programs
JP2019117562A (en) Vehicle interior environment adjustment device, program, and vehicle interior environment adjustment system
JP2021097764A (en) Control device and program
CN108992934B (en) Full airspace attitude feedback system
US20100207734A1 (en) Information Interactive Kit and Information Interactive System Using the Same
JP7424880B2 (en) Display control device, display control method, and program
JP2020204574A (en) Voice guidance device, voice guidance server, and voice guidance method
JP7394674B2 (en) Display control device, display control method, and program
JP2023147830A (en) Information processing apparatus, information processing method, and program
US20240028073A1 (en) Mobile App Controlled Emoji Display Pendant
JP2022064053A (en) Control device and program
CN117416296A (en) Control method, device, equipment and storage medium for vehicle cabin
CN118151757A (en) Vehicle-mounted robot interaction method, storage medium, electronic equipment and vehicle
CN117339220A (en) Method for cloud-fostering virtual pets by vehicle, mobile terminal, storage medium and vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240209

R150 Certificate of patent or registration of utility model

Ref document number: 7437191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150