JP2015173857A - Electronic apparatus and information processing method - Google Patents

Electronic apparatus and information processing method Download PDF

Info

Publication number
JP2015173857A
JP2015173857A JP2014053231A JP2014053231A JP2015173857A JP 2015173857 A JP2015173857 A JP 2015173857A JP 2014053231 A JP2014053231 A JP 2014053231A JP 2014053231 A JP2014053231 A JP 2014053231A JP 2015173857 A JP2015173857 A JP 2015173857A
Authority
JP
Japan
Prior art keywords
person
animal
past
image
existed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014053231A
Other languages
Japanese (ja)
Inventor
熊谷 明
Akira Kumagai
明 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014053231A priority Critical patent/JP2015173857A/en
Publication of JP2015173857A publication Critical patent/JP2015173857A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus capable of achieving pseudo communication with persons existed in the past and animals.SOLUTION: The electronic apparatus includes storage means, speech recognition means, and speech synthesis means. The storage means stores information related to a person existed in the past or an animal. The speech recognition means generates a sentence for responding to the content of an utterance of a user. The speech synthesis means synthesizes a speech of the person or the animal on the basis of the information stored in the storage means and the generated sentence.

Description

本発明の実施形態は、音声や画像を処理する電子機器、及び該機器に適用される情報処理方法に関する。   Embodiments described herein relate generally to an electronic device that processes sound and images, and an information processing method applied to the device.

仏壇のような祭礼用具は、例えば、家族が亡くなったときに購入され、残された家族が亡くなった家族を供養するために用いられている。また、近年では、死んだペットのための仏壇も普及してきている。このような仏壇には、戒名や遺影のような故人情報を表示できるものも提案されている。   Festival utensils such as Buddhist altars are purchased, for example, when a family dies, and are used to provide for the family where the remaining family has died. In recent years, Buddhist altars for dead pets have become popular. Such Buddhist altars have also been proposed that can display deceased information such as ritual names and relics.

特許第4682265号公報Japanese Patent No. 4682265

しかし仏壇では、残された家族が、仏壇に向かって亡くなった家族や死んだペットを供養するためのお参りを行うことはできたとしても、その残された家族(特に、一人暮らしの高齢者)の孤独感や悲しみを軽減することは難しい。したがって、残された家族の孤独感や悲しみを軽減するために、過去に存在した人や動物(ペット)との擬似的なコミュニケーションを実現することが期待される場合がある。   However, in the Buddhist altar, even if the remaining family was able to make a visit to feed the family who died towards the Buddhist altar or the dead pet, the remaining family (especially the elderly living alone) It is difficult to reduce loneliness and sadness. Therefore, in order to reduce the loneliness and sadness of the remaining family, it may be expected to realize pseudo communication with people and animals (pets) that existed in the past.

本発明は、過去に存在した人や動物との擬似的なコミュニケーションを実現できる電子機器及び情報処理方法を提供することを目的とする。   An object of this invention is to provide the electronic device and information processing method which can implement | achieve pseudo | simulation communication with the person and animal which existed in the past.

実施形態によれば、電子機器は、記憶手段と音声認識手段と音声合成手段とを具備する。記憶手段は、過去に存在した人又は動物に関する情報を記憶する。音声認識手段は、ユーザの発話内容に応答するためのセンテンスを生成する。音声合成手段は、前記記憶手段に記憶した情報と、生成した前記センテンスに基づいて、前記人又は動物の音声を合成する。   According to the embodiment, the electronic device includes a storage unit, a voice recognition unit, and a voice synthesis unit. The storage means stores information on a person or animal that has existed in the past. The voice recognition means generates a sentence for responding to the user's utterance content. The voice synthesizing unit synthesizes the human or animal voice based on the information stored in the storage unit and the generated sentence.

実施形態に係る電子機器を備える対話システムの例を示す図。The figure which shows the example of the dialogue system provided with the electronic device which concerns on embodiment. 同実施形態の電子機器を備える対話システムの別の例を示す図。The figure which shows another example of the dialogue system provided with the electronic device of the embodiment. 同実施形態の電子機器を用いて、ユーザに擬似的な対話が提供される例を説明するための図。The figure for demonstrating the example by which a pseudo dialogue is provided to a user using the electronic device of the embodiment. 同実施形態の電子機器のシステム構成の例を示すブロック図。2 is an exemplary block diagram showing an example of the system configuration of the electronic apparatus of the embodiment. FIG. 同実施形態の電子機器によって実行される対話アプリケーションプログラムの機能構成の例を示すブロック図。2 is an exemplary block diagram showing an example of the functional configuration of a dialog application program executed by the electronic apparatus of the embodiment. FIG. 同実施形態の電子機器によって実行される対話制御処理の手順の例を示すフローチャート。6 is an exemplary flowchart illustrating an example of the procedure of a dialogue control process which is executed by the electronic apparatus of the embodiment. 同実施形態の電子機器の外観の例を示す斜視図。The perspective view which shows the example of the external appearance of the electronic device of the embodiment.

以下、実施の形態について図面を参照して説明する。   Hereinafter, embodiments will be described with reference to the drawings.

まず、図1を参照して、一実施形態に係る電子機器を備える、過去に存在した人(故人)との対話システムの概要を説明する。この電子機器は、例えば、タブレットコンピュータ、ノートブック型のパーソナルコンピュータ、スマートフォン、PDA、デジタルテレビジョン受信機、または各種電子機器に内蔵される組み込みシステムとして実現され得る。以下では、この電子機器がタブレットコンピュータ2として実現されている場合を想定する。   First, with reference to FIG. 1, the outline | summary of the dialogue system with the person (deceased) who existed in the past provided with the electronic device which concerns on one Embodiment is demonstrated. This electronic device can be realized as, for example, a tablet computer, a notebook personal computer, a smartphone, a PDA, a digital television receiver, or an embedded system incorporated in various electronic devices. Below, the case where this electronic device is implement | achieved as the tablet computer 2 is assumed.

本タブレットコンピュータ2は、例えば仏壇1や墓石のような、亡くなった人を供養するための祭礼用具に組み込まれている。タブレットコンピュータ2は仏壇1に固定されるものであってもよいし、仏壇1に対して取り外し可能に設置されるものであってもよい。つまり、タブレットコンピュータ2は、仏壇1に組み込まれた状態で提供(販売)されてもよいし、従来の仏壇1(例えば、家庭に既にある仏壇)にオプションとして設置されるようにしてもよい。   The tablet computer 2 is incorporated in a festival tool for feeding a deceased person, such as the Buddhist altar 1 or a tombstone. The tablet computer 2 may be fixed to the Buddhist altar 1 or may be detachably installed on the Buddhist altar 1. That is, the tablet computer 2 may be provided (sold) in a state of being incorporated in the Buddhist altar 1, or may be installed as an option on the conventional Buddhist altar 1 (for example, an altar already in the home).

タブレットコンピュータ2には、AC外部電源又はバッテリーから電力が供給される。仏壇1内のタブレットコンピュータ2を設置する位置には、タブレットコンピュータ2にAC外部電源からの電力を供給し、バッテリーを充電するためのクレードル(充電器)が設けられていてもよい。   The tablet computer 2 is supplied with power from an AC external power supply or a battery. A cradle (charger) for supplying power from the AC external power source to the tablet computer 2 and charging the battery may be provided at the position where the tablet computer 2 is installed in the Buddhist altar 1.

タブレットコンピュータ2は、カメラ16、タッチスクリーンディスプレイ17、スピーカー18A,18B、及びマイク19A,19Bを備える。カメラ16は、仏壇1にお参りする人の画像(顔画像)、すなわち、カメラ16の前方にいる人の画像を取得する。マイク19A,19Bは、その人の発話による音声を取得する。タブレットコンピュータ2は、取得されたお参りする人の画像と音声とに基づいて、亡くなった人との人工的な(擬似的な)対話のために、亡くなった人の顔画像を合成し、亡くなった人の音声を合成する。そして、タブレットコンピュータ2は、合成された顔画像と合成された音声とを用いて、顔画像をタッチスクリーンディスプレイ17の画面に表示し、音声をスピーカー18A,18Bから出力する。なお、タッチスクリーンディスプレイ17の画面には、亡くなった人の画像だけでなく、位牌、花立、火立、香炉、供物、花仏水器、りん、等の仏具の画像が表示されてもよい。   The tablet computer 2 includes a camera 16, a touch screen display 17, speakers 18A and 18B, and microphones 19A and 19B. The camera 16 acquires an image (face image) of a person visiting the Buddhist altar 1, that is, an image of a person in front of the camera 16. The microphones 19 </ b> A and 19 </ b> B acquire sound generated by the person's speech. The tablet computer 2 synthesized the face image of the deceased person for the artificial (pseudo) dialogue with the deceased person based on the acquired image and sound of the visiting person. Synthesize human speech. Then, the tablet computer 2 displays the face image on the screen of the touch screen display 17 using the synthesized face image and the synthesized voice, and outputs the voice from the speakers 18A and 18B. The screen of the touch screen display 17 may display not only an image of a deceased person but also an image of Buddhist tools such as a pot, a flower stand, a fire stand, an incense burner, an offering, a flower Buddha water device, and a phosphorus.

これによりユーザは、対話技術が融合された仏壇1によって、亡くなった人との擬似的なコミュニケーションを図ることができるので、悲しみや孤独感を軽減することができる。   As a result, the user can achieve pseudo communication with the deceased person by the Buddhist altar 1 in which the dialogue techniques are integrated, so that sadness and loneliness can be reduced.

なお、お参りする人の画像と音声とに基づいて、亡くなった人の顔画像を合成する処理と亡くなった人の音声を合成する処理とは、クラウドサーバ3に設けられた対話エンジンによって実行されてもよい。その場合、タブレットコンピュータ2は、取得されたお参りする人の画像と音声のデータを、ネットワークを介してクラウドサーバ3に送信する。そして、タブレットコンピュータ2は、クラウドサーバ3によって合成された、亡くなった人の顔画像と音声のデータを受信し、そのデータを用いて、亡くなった人の顔画像をタッチスクリーンディスプレイ17の画面に表示し、亡くなった人の音声をスピーカー18A,18Bから出力する。   Note that the process of synthesizing the face image of the deceased person and the process of synthesizing the sound of the deceased person based on the image and sound of the visiting person are executed by the dialogue engine provided in the cloud server 3. Also good. In this case, the tablet computer 2 transmits the acquired image and audio data of the visiting person to the cloud server 3 via the network. The tablet computer 2 receives the face image and audio data of the deceased person synthesized by the cloud server 3 and displays the face image of the deceased person on the screen of the touch screen display 17 using the data. Then, the voice of the person who died is output from the speakers 18A and 18B.

また、図2に示すように、仏壇1は、死んだ動物を供養するための仏壇であってもよい。タブレットコンピュータ2は、取得されたお参りする人の画像と音声とを用いて、死んだ動物との人工的な(擬似的な)コミュニケーションのために、その動物の画像(顔画像又は全身画像)を合成し、その動物の音声を合成する。そして、タブレットコンピュータ2は、合成された画像と合成された音声とを用いて、画像をタッチスクリーンディスプレイ17の画面に表示し、音声をスピーカー18A,18Bから出力する。   In addition, as shown in FIG. 2, the altar 1 may be an altar for feeding dead animals. The tablet computer 2 uses the acquired image and sound of the visiting person to generate an image (face image or whole body image) of the animal for artificial (pseudo) communication with the dead animal. Synthesize and synthesize the animal's voice. Then, the tablet computer 2 displays the image on the screen of the touch screen display 17 using the synthesized image and the synthesized voice, and outputs the voice from the speakers 18A and 18B.

次いで、図3を参照して、ユーザ(お参りする人)と、過去に存在した人や動物との擬似的な対話(コミュニケーション)が開始されるトリガの例を説明する。   Next, an example of a trigger for starting a pseudo dialogue (communication) between a user (person who visits) and a person or animal that has existed in the past will be described with reference to FIG.

タブレットコンピュータ2は、例えば、カメラモジュール16によって取得される画像からユーザの顔画像が検出された場合に対話を開始する。また、タブレットコンピュータ2は、例えば、マイク19A,19Bによって取得される音声からユーザによる発話が検出された場合に対話を開始する。なお、検出される発話は、亡くなった人や死んだ動物の名前の呼びかけのような、所定の言葉を含む発話であってもよい。   For example, the tablet computer 2 starts a dialogue when a face image of the user is detected from an image acquired by the camera module 16. Moreover, the tablet computer 2 starts a dialogue when, for example, an utterance by the user is detected from voices acquired by the microphones 19A and 19B. Note that the detected utterance may be an utterance including a predetermined word such as a call to the name of a dead person or a dead animal.

さらに、タブレットコンピュータ2は、例えば、マイク19A,19Bによって取得される音声から、仏壇1の近傍に配置される「りん」5の音が検出された場合に、亡くなった人や死んだ動物との対話を開始してもよい。また、通信機能を有する「りん」5とタブレットコンピュータ2との間で、Bluetooth(登録商標)のような通信接続(有線又は無線)を確立し、ユーザが「りん」5を使用した操作に応じて、対話の開始を要求する信号がタブレットコンピュータ2に送信されるようにしてもよい。   Furthermore, when the sound of “Rin” 5 arranged in the vicinity of the Buddhist altar 1 is detected from the sound acquired by the microphones 19A and 19B, the tablet computer 2 is connected with a dead person or a dead animal. A dialogue may be started. Further, a communication connection (wired or wireless) such as Bluetooth (registered trademark) is established between “Rin” 5 having a communication function and the tablet computer 2, and the user responds to an operation using “Rin” 5. Thus, a signal requesting the start of the dialogue may be transmitted to the tablet computer 2.

図4は、タブレットコンピュータ2のシステム構成を示す図である。
タブレットコンピュータ2は、図4に示されるように、CPU100、システムコントローラ101、タッチコントローラ102、メモリ103、表示コントローラ104、BIOS−ROM105、エンベデッドマルチメディアカード(eMMC)106、電源管理IC(PMIC)108、Audio Codec110、3G/LTEモジュール111、LANモジュール112、BTモジュール113、カードコントローラ114、USBコネクタ115、カメラモジュール16、等を備える。
FIG. 4 is a diagram showing a system configuration of the tablet computer 2.
As shown in FIG. 4, the tablet computer 2 includes a CPU 100, a system controller 101, a touch controller 102, a memory 103, a display controller 104, a BIOS-ROM 105, an embedded multimedia card (eMMC) 106, and a power management IC (PMIC) 108. , Audio Codec 110, 3G / LTE module 111, LAN module 112, BT module 113, card controller 114, USB connector 115, camera module 16, and the like.

CPU100は、タブレットコンピュータ2内の各種コンポーネントの動作を制御するプロセッサーである。CPU100は、ストレージデバイスであるeMMC106からメモリ103にロードされる各種ソフトウェアを実行する。eMMC106は、フラッシュメモリを利用した、組み込み機器向けの外部記憶装置であり、マルチメディアカード(MMC)と同一のインタフェースで外部と接続される。ソフトウェアには、オペレーティングシステム(OS)201、及び各種アプリケーションプログラムが含まれている。また、アプリケーションプログラムには、対話アプリケーションプログラム202が含まれている。この対話アプリケーションプログラム202は、例えば、タブレットコンピュータ2を使用するユーザ(例えば、仏壇1にお参りする人)に、過去に存在した人や動物との擬似的な対話を提供する機能を有する。   The CPU 100 is a processor that controls operations of various components in the tablet computer 2. The CPU 100 executes various software loaded into the memory 103 from the eMMC 106 that is a storage device. The eMMC 106 is an external storage device for an embedded device using a flash memory, and is connected to the outside through the same interface as the multimedia card (MMC). The software includes an operating system (OS) 201 and various application programs. The application program includes a dialog application program 202. For example, the interactive application program 202 has a function of providing a user who uses the tablet computer 2 (for example, a person who visits the Buddhist altar 1) with a pseudo dialog with a person or animal that has existed in the past.

また、CPU100は、BIOS−ROM105に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。   The CPU 100 also executes a basic input / output system (BIOS) stored in the BIOS-ROM 105. The BIOS is a program for hardware control.

システムコントローラ101は、CPU100のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ101には、メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、システムコントローラ101は、PCI EXPRESS規格のシリアルバスなどを介して表示コントローラ104との通信を実行する機能も有している。   The system controller 101 is a device that connects between the local bus of the CPU 100 and various components. The system controller 101 also includes a memory controller that controls access to the memory 103. The system controller 101 also has a function of executing communication with the display controller 104 via a PCI EXPRESS serial bus or the like.

表示コントローラ104は、本タブレットコンピュータ2のディスプレイモニタとして使用されるLCD17Aを制御する表示コントローラである。この表示コントローラ104によって生成される表示信号はLCD17Aに送られる。LCD17Aは、表示信号に基づいて画面イメージを表示する。このLCD17A上にはタッチパネル17Bが配置されている。タッチコントローラ102は、タッチパネル17B上での指等を用いた操作に応じて、タッチパネル17B上の操作位置を示す操作信号をシステムコントローラ101に出力する。   The display controller 104 is a display controller that controls the LCD 17 </ b> A used as a display monitor of the tablet computer 2. A display signal generated by the display controller 104 is sent to the LCD 17A. The LCD 17A displays a screen image based on the display signal. A touch panel 17B is disposed on the LCD 17A. The touch controller 102 outputs an operation signal indicating an operation position on the touch panel 17B to the system controller 101 in response to an operation using a finger or the like on the touch panel 17B.

さらに、システムコントローラ101は、Audio Codec110との通信を実行する機能も有している。Audio Codec110は、マイク19A,19Bによって検出された音声(例えば、ユーザが発話したことによる音声)を符号化することによって、所定の形式のオーディオデータを生成する。また、Audio Codec110は、再生対象のオーディオデータを復号し、復号された音声をスピーカー18A,18Bから出力する。システムコントローラ101は、USBコネクタ115に接続されたUSB2.0規格のケーブルを介して外部機器との通信を実行するためのUSBコントローラも内蔵している。   Furthermore, the system controller 101 also has a function of executing communication with the Audio Codec 110. The Audio Codec 110 generates audio data in a predetermined format by encoding audio detected by the microphones 19A and 19B (for example, audio generated by the user). Also, the Audio Codec 110 decodes audio data to be reproduced and outputs the decoded sound from the speakers 18A and 18B. The system controller 101 also incorporates a USB controller for executing communication with an external device via a USB 2.0 standard cable connected to the USB connector 115.

PMIC108は、AC又はバッテリー108Aから供給される電力を管理するためのワンチップマイクロコンピュータである。PMIC108は、ユーザによるパワーボタンの操作に応じて本タブレットコンピュータ2を電源オン又は電源オフする機能を有している。   The PMIC 108 is a one-chip microcomputer for managing power supplied from the AC or the battery 108A. The PMIC 108 has a function of powering on or powering off the tablet computer 2 in accordance with the operation of the power button by the user.

カメラモジュール16は、画像を撮影し、撮影された画像のデータをシステムコントローラ101に出力する。カメラモジュール16は、動画像(映像)のような、連続した複数の画像を撮影することもできる。   The camera module 16 captures an image and outputs data of the captured image to the system controller 101. The camera module 16 can also capture a plurality of continuous images such as a moving image (video).

3G/LTEモジュール111は、アンテナ111Aを介して、3G移動通信又はLTE通信を実行するように構成されたデバイスである。LANモジュール112は、アンテナ112Aを介して、例えばIEEE 802.11g規格の無線通信や、IEEE 802.3規格の有線通信を実行する通信デバイスである。Bluetoothモジュール110は、アンテナ113Aを介して、外部機器とのBluetooth通信を実行する通信デバイスである。   The 3G / LTE module 111 is a device configured to execute 3G mobile communication or LTE communication via the antenna 111A. The LAN module 112 is a communication device that performs, for example, wireless communication of the IEEE 802.11g standard or wired communication of the IEEE 802.3 standard via the antenna 112A. The Bluetooth module 110 is a communication device that performs Bluetooth communication with an external device via the antenna 113A.

カードコントローラ114は、コンピュータ本体11に設けられたカードスロットに挿入される、SDカードのようなメモリカードに対するデータの書き込み及び読み出しを実行する。人感センサ116は、例えば、タブレットコンピュータ2の画面の前方に人が存在するか否かを検出するセンサである。   The card controller 114 writes and reads data to and from a memory card such as an SD card inserted into a card slot provided in the computer main body 11. The human sensor 116 is, for example, a sensor that detects whether a person is present in front of the screen of the tablet computer 2.

次いで、図5を参照して、本タブレットコンピュータ2によって実行される対話アプリケーションプログラム202の機能構成を説明する。上述したように、対話アプリケーションプログラム202は、例えば、タブレットコンピュータ2を使用するユーザ(例えば、仏壇1にお参りする人)に、過去に存在した人や動物との擬似的な対話を提供する機能、等を有する。対話アプリケーションプログラム202は、音声認識部302、意図理解部303、顔・人物認識部305、表情認識部306、対話制御部307、音声合成部308、顔生成部310、表情合成部311、等を備える。   Next, the functional configuration of the interactive application program 202 executed by the tablet computer 2 will be described with reference to FIG. As described above, the dialogue application program 202 has a function of providing, for example, a pseudo dialogue with a person or animal that has existed in the past to a user who uses the tablet computer 2 (for example, a person visiting the Buddhist altar 1), Etc. The dialogue application program 202 includes a voice recognition unit 302, an intention understanding unit 303, a face / person recognition unit 305, a facial expression recognition unit 306, a dialogue control unit 307, a voice synthesis unit 308, a face generation unit 310, a facial expression synthesis unit 311, and the like. Prepare.

まず、音声認識部302及び顔・人物認識部305は、過去に存在した人や動物との対話が要求されたか否かを判定する。音声認識部302は、例えば、マイク19A,19Bによって生成された音声から所定の音声が検出された場合に、過去に存在した人との対話が要求されたことを決定する。顔・人物認識部305は、例えば、カメラモジュール16で撮影された画像から人が検出された場合に、過去に存在した人との対話が要求されたことを決定する。なお、人感センサ116によって人が検出された場合に、過去に存在した人との対話が要求されたことが決定されてもよい。   First, the voice recognition unit 302 and the face / person recognition unit 305 determine whether a dialogue with a person or animal that has existed in the past has been requested. For example, when a predetermined voice is detected from the voices generated by the microphones 19A and 19B, the voice recognition unit 302 determines that a dialogue with a person who has existed in the past has been requested. For example, when a person is detected from an image captured by the camera module 16, the face / person recognition unit 305 determines that an interaction with a person who has existed in the past is requested. When a person is detected by the human sensor 116, it may be determined that an interaction with a person who has existed in the past is requested.

過去に存在した人との対話が要求されている場合、マイク19A,19Bを用いた音声入力301によって、ユーザの発話による音声(音声データ)が入力され、カメラモジュール16を用いた画像入力304によって、当該ユーザの画像(画像データ)が入力される。音声認識部302、意図理解部303及び対話制御部307は、ユーザの発話内容に応答するためのセンテンスを生成する。音声合成部308は、データベース404〜414に記憶された、亡くなった人又は動物(すなわち、過去に存在した人又は動物)に関する情報と、生成されたセンテンスとに基づいて、その亡くなった人又は動物の音声を合成する。また、顔生成部310及び表情合成部311は、データベース404〜414に記憶された、亡くなった人又は動物に関する情報と、生成されたセンテンスとに基づいて、その亡くなった人又は動物の画像(顔画像)を合成する。   When dialogue with a person who has existed in the past is requested, voice (voice data) from the user's utterance is inputted by voice input 301 using the microphones 19A and 19B, and by image input 304 using the camera module 16. The user's image (image data) is input. The voice recognition unit 302, the intention understanding unit 303, and the dialogue control unit 307 generate a sentence for responding to the user's utterance content. The speech synthesizer 308 uses the information about the person or animal that died (that is, the person or animal that existed in the past) stored in the databases 404 to 414 and the sentence or the person who died based on the generated sentence. To synthesize the voice. Further, the face generation unit 310 and the facial expression synthesis unit 311 are based on information about the person or animal that has died stored in the databases 404 to 414 and the generated sentence (face of the person or animal that has died). Image).

音声認識部302は、音声認識辞書401を用いて、ユーザの発話による音声に音声認識処理を施すことによって、音声に対応するテキストを生成する。音声認識辞書401には、例えば、言葉の音の最小単位である音素と特徴量との対応を示す情報と、音素列と単語との対応を示す情報とが含まれている。   The voice recognition unit 302 generates a text corresponding to the voice by performing voice recognition processing on the voice generated by the user using the voice recognition dictionary 401. The speech recognition dictionary 401 includes, for example, information indicating the correspondence between phonemes, which are the smallest units of words, and feature quantities, and information indicating the correspondence between phoneme strings and words.

より具体的には、まず、音声認識部302は音声から雑音を除去し、特徴量を算出する。音声認識部302は、音声認識辞書401を用いて、算出された特徴量に基づいて音声に対応する音素列を生成する。そして、音声認識部302は、音声認識辞書401を用いて、変換された音素列に対応する単語を決定する。なお、音声認識部302は、音素列に対応する複数の単語の候補を決定し、連続する単語のつながりの尤もらしさに基づいて、音素列に対応する単語列(テキスト)を決定するようにしてもよい。   More specifically, first, the speech recognition unit 302 removes noise from speech and calculates a feature amount. The speech recognition unit 302 uses the speech recognition dictionary 401 to generate a phoneme sequence corresponding to speech based on the calculated feature amount. Then, the voice recognition unit 302 uses the voice recognition dictionary 401 to determine a word corresponding to the converted phoneme string. Note that the speech recognition unit 302 determines a plurality of word candidates corresponding to the phoneme string, and determines a word string (text) corresponding to the phoneme string based on the likelihood of the connection of consecutive words. Also good.

次いで、意図理解部303は、知識データベース402と意図理解データベース403とを用いて、生成されたテキスト(単語列)の意図を検出する。知識データベース402は、単語に対応する内容や特徴のような知識を示す情報を含む。意図理解データベース403は、単語に対応する知識を示す情報から、テキスト(単語列)の内容(意図)を決定するための情報を含む。意図理解部303は、例えば、生成されたテキストが、挨拶の言葉であることや、過去に存在した人や動物の名前の呼びかけであることを検出する。   Next, the intention understanding unit 303 uses the knowledge database 402 and the intention understanding database 403 to detect the intention of the generated text (word string). The knowledge database 402 includes information indicating knowledge such as contents and features corresponding to words. The intention understanding database 403 includes information for determining the contents (intentions) of text (word strings) from information indicating knowledge corresponding to words. For example, the intent understanding unit 303 detects that the generated text is a greeting word or a call to the names of people or animals that existed in the past.

また、顔・人物認識部305は、顔/表情データベース404を用いて、入力されたユーザの画像に顔認識処理を施すことによって、画像から顔画像の領域を検出し、当該顔画像に対応する人物を決定する。そして、表情認識部306は、顔/表情データベース404を用いて、ユーザの顔画像に表情認識処理を施すことによって、顔画像に対応する表情を決定する。顔/表情データベース404には、例えば、タブレットコンピュータ2を使用する1以上の人物に対応する顔画像を示す情報と表情を識別するための情報とが格納されている。これら情報は、画像自体ではなく、例えば特徴量として格納されている。   In addition, the face / person recognition unit 305 uses the face / expression database 404 to perform face recognition processing on the input user image, thereby detecting a face image region from the image and corresponding to the face image. Determine the person. Then, the facial expression recognition unit 306 determines the facial expression corresponding to the facial image by performing facial expression recognition processing on the facial image of the user using the facial / expression database 404. In the face / expression database 404, for example, information indicating a face image corresponding to one or more persons using the tablet computer 2 and information for identifying an expression are stored. These pieces of information are stored not as the image itself but as, for example, feature amounts.

より具体的には、顔・人物認識部302は、ユーザの顔画像を用いて、人物を認識するための特徴量を算出する。そして、顔・人物認識部302は、算出された特徴量と、顔/表情データベース404に格納された人物の顔画像に対応する特徴量との類似度を算出し、顔/表情データベース404に顔画像が格納されている人物から、最も高い類似度を有する顔画像の人物を決定する。   More specifically, the face / person recognition unit 302 calculates a feature amount for recognizing a person using the face image of the user. Then, the face / person recognition unit 302 calculates the degree of similarity between the calculated feature quantity and the feature quantity corresponding to the face image of the person stored in the face / expression database 404, and the face / expression database 404 stores the face The person of the face image having the highest similarity is determined from the persons storing the images.

表情認識部306は、ユーザの顔画像に対応する表情を識別する。識別される表情には、例えば、喜び、驚き、恐怖、嫌悪、怒り、悲しみ、無表情、等の複数の表情が含まれる。表情認識部306は、ユーザの顔画像を用いて、表情を認識するための特徴量を算出する。表情認識部306は、ユーザの顔画像に対応する特徴量と、各表情に対応する特徴量との類似度を算出し、複数の表情から、最も高い類似度を有する表情を決定する。   The expression recognition unit 306 identifies an expression corresponding to the user's face image. The identified facial expressions include a plurality of facial expressions such as joy, surprise, fear, disgust, anger, sadness, and no expression. The facial expression recognition unit 306 calculates a feature amount for recognizing a facial expression using the user's face image. The facial expression recognition unit 306 calculates the similarity between the feature amount corresponding to the face image of the user and the feature amount corresponding to each facial expression, and determines the facial expression having the highest similarity from the plurality of facial expressions.

次いで、対話制御部307は、ユーザの発話内容に応答するためのセンテンスを生成する。対話制御部307は、ユーザの発話による音声に対応するテキストと、データベース405〜410に格納された、過去に存在した人又は動物に関する情報とに基づいて、ユーザの発話内容に応答するためのセンテンスを生成する。また、音声合成部308は、データベース411〜413に格納された、過去に存在した人又は動物に関する情報と、生成されたセンテンスとに基づいて、過去に存在した人又は動物の音声を合成する。つまり、対話制御部307及び音声合成部308は、ユーザの発話による音声に対応するテキストと、過去に存在した人又は動物に関する情報とに基づいて、過去に存在した人又は動物の音声を合成する。   Next, the dialogue control unit 307 generates a sentence for responding to the user's utterance content. The dialogue control unit 307 is a sentence for responding to the content of the user's utterance based on the text corresponding to the voice of the user's utterance and the information on the person or animal that existed in the past stored in the databases 405 to 410. Is generated. The speech synthesizer 308 synthesizes the speech of a person or animal that has existed in the past based on the information about the person or animal that has existed in the past stored in the databases 411 to 413 and the generated sentence. That is, the dialogue control unit 307 and the speech synthesis unit 308 synthesize the speech of a person or animal that has existed in the past based on the text corresponding to the speech by the user's utterance and information on the person or animal that has existed in the past. .

なお、対話制御部307は、ユーザの発話による音声に対応するテキストと、ユーザの顔画像に対応する人物と、当該顔画像に対応する表情と、過去に存在した人又は動物に関する情報とに基づいて、ユーザの発話内容に応答するためのセンテンスを生成してもよい。つまり、対話制御部307及び音声合成部308は、ユーザの発話による音声に対応するテキストと、ユーザの顔画像に対応する人物と、当該顔画像に対応する表情と、過去に存在した人又は動物に関する情報とに基づいて、過去に存在した人又は動物の音声を合成してもよい。   The dialogue control unit 307 is based on the text corresponding to the voice of the user's utterance, the person corresponding to the user's face image, the facial expression corresponding to the face image, and information on the person or animal that existed in the past. Thus, a sentence for responding to the user's utterance content may be generated. In other words, the dialogue control unit 307 and the voice synthesis unit 308 are configured such that the text corresponding to the voice of the user's utterance, the person corresponding to the user's face image, the facial expression corresponding to the face image, and the person or animal that existed in the past Based on the information regarding the voice of a person or animal that existed in the past may be synthesized.

また、顔生成部310及び表情合成部311は、データベース414に格納された、過去に存在した人又は動物に関する情報と、対話制御部307によって生成されたセンテンスとに基づいて、過去に存在した人又は動物の画像を合成する。つまり、対話制御部307、顔生成部310及び表情合成部311は、ユーザの発話による音声に対応するテキストと、過去に存在した人又は動物に関する情報とに基づいて、過去に存在した人又は動物の画像を合成する。なお、対話制御部307、顔生成部310及び表情合成部311は、ユーザの発話による音声に対応するテキストと、ユーザの顔画像に対応する人物と、ユーザの顔画像に対応する表情と、過去に存在した人又は動物に関する情報とに基づいて、過去に存在した人又は動物の画像を合成してもよい。   In addition, the face generation unit 310 and the facial expression synthesis unit 311 are based on the information about the person or animal that existed in the past stored in the database 414 and the sentence generated by the dialogue control unit 307. Or synthesize animal images. In other words, the dialogue control unit 307, the face generation unit 310, and the facial expression synthesis unit 311 are configured so that the person or animal that has existed in the past is based on the text corresponding to the speech by the user's utterance and information on the person or animal that has existed in the past. Synthesize the image. Note that the dialogue control unit 307, the face generation unit 310, and the facial expression synthesis unit 311 include text corresponding to the voice generated by the user's speech, a person corresponding to the user's face image, an expression corresponding to the user's face image, An image of a person or animal that existed in the past may be synthesized based on information about the person or animal that existed in the past.

より具体的には、ユーザが過去に存在した人(亡くなった人)と対話しようとする場合、対話制御部307は、家族/人物データベース405、故人嗜好データベース406、故人経験データベース407、雑談用データベース408、会話履歴データベース409、及び会話人物データベース410の少なくとも一つを用いて、意図理解部303によって検出されたテキストの意図と、ユーザの顔画像から決定された人物及び表情とに基づいて、ユーザの発話内容に応答するためのセンテンス(文章)を生成する。   More specifically, when the user wants to talk with a person who has existed in the past (a person who died), the dialogue control unit 307 includes a family / person database 405, a deceased person preference database 406, a deceased person experience database 407, and a chat database. 408, the conversation history database 409, and the conversation person database 410, and the user based on the intention of the text detected by the intention understanding unit 303 and the person and expression determined from the user's face image. A sentence (sentence) for responding to the utterance content is generated.

家族/人物データベース405は、過去に存在した人の家族構成を示す家系図と友人関係とを示す情報や、過去に存在した動物(ペット)と家族等との関係を示す情報を含む。故人嗜好データベース406は、過去に存在した人の趣味、好きなもの、嫌いなもの、等を示す情報や、過去に存在した動物の好きなもの、嫌いなもの、等を示す情報を含む。故人経験データベース407は、過去に存在した人が経験した出来事や過去に存在した動物との思い出を示す情報を含む。雑談用データベース408は、雑談に用いられ得る会話や言葉を示す情報を含む。会話履歴データベース409は、過去に存在した人との会話の履歴を示す情報や、過去に存在した動物に話しかけた言葉の履歴を示す情報を含む。会話人物データベース410は、ユーザ(すなわち、過去に存在した人や動物と対話する人)に関する情報(例えば、年齢、性別、職業、趣味、等)を含む。   The family / person database 405 includes information indicating a family tree showing a family structure of a person who has existed in the past and a friend relationship, and information indicating a relationship between an animal (pet) and a family existing in the past. The deceased person preference database 406 includes information indicating hobbies, likes, dislikes, etc. of people who existed in the past, and information indicating likes, dislikes, etc. of animals that existed in the past. The deceased experience database 407 includes information indicating events experienced by people who existed in the past and memories with animals that existed in the past. The chat database 408 includes information indicating conversations and words that can be used for chat. The conversation history database 409 includes information indicating a history of conversation with a person who has existed in the past and information indicating a history of words spoken to animals that have existed in the past. The conversation person database 410 includes information (eg, age, sex, occupation, hobbies, etc.) regarding the user (ie, a person who has interacted with a person or animal that has existed in the past).

なお、対話制御部307は、ニュースや天気のような新たな情報や、現在の日付(例えば、日付に対応する季節、日付に対応するイベント)をさらに用いて、ユーザの発話内容に応答するためのセンテンスを生成してもよい。   The dialog control unit 307 responds to the user's utterance content by further using new information such as news and weather and the current date (for example, the season corresponding to the date and the event corresponding to the date). The sentence may be generated.

そして、音声合成部308は、合成辞書411、似声データベース412及び話方データベース413を用いて、対話制御部307によって生成されたセンテンスを音声出力するための、過去に存在した人の音声を合成する。合成辞書411は、単語と音素列との対応を示す情報と、音素と音声信号(音声データ)との対応を示す情報とを含む。似声データベース412は、過去に存在した人の声(声質)を示す情報や、過去に存在した動物の鳴き声の声質を示す情報を含む。話方データベース413は、過去に存在した人の話し方のイントネーションやリズムを示す情報や、過去に存在した動物の鳴き方のリズムを示す情報を含む。   The speech synthesizer 308 then synthesizes the speech of a person who has existed in the past to output the sentence generated by the dialog controller 307 using the synthesis dictionary 411, the voice database 412, and the speech database 413. To do. The synthesis dictionary 411 includes information indicating correspondence between words and phoneme strings, and information indicating correspondence between phonemes and speech signals (speech data). The similar voice database 412 includes information indicating the voice (voice quality) of a person who has existed in the past and information indicating the voice quality of an animal call that has existed in the past. The speech database 413 includes information indicating the intonation and rhythm of a person's speech that existed in the past, and information indicating the rhythm of how an animal has existed in the past.

また、顔生成部310及び表情合成部311は、故人顔/表情データベース414を用いて、生成されたセンテンスと、決定された人物及び表情とに基づいて、過去に存在した人の顔画像を合成する。故人顔/表情データベース414は、過去に存在した人の顔画像と様々な表情(例えば、喜び、驚き、恐怖、嫌悪、怒り、悲しみ、無表情、等)とを示す情報や、死んだ動物の画像(顔画像)と様々な表情や仕種とを示す情報を含む。   In addition, the face generation unit 310 and the expression synthesis unit 311 use the deceased face / expression database 414 to synthesize a face image of a person existing in the past based on the generated sentence and the determined person and expression. To do. The deceased person's face / expression database 414 includes information indicating face images of people in the past and various expressions (eg, joy, surprise, fear, disgust, anger, sadness, expressionlessness, etc.) It includes information indicating images (face images) and various facial expressions and types.

なお、顔生成部310及び表情合成部311は、故人顔/表情データベース414を用いて、生成されたセンテンスと、決定された人物及び表情とに基づいて、合成された音声に応じて変化する過去に存在した人の動画像(顔の動画像)を合成してもよい。顔生成部310及び表情合成部311は、例えば、合成された音声の抑揚やリズム、当該音声で話される内容に応じて、表情が変化する動画像を合成する。   The face generation unit 310 and the facial expression synthesis unit 311 use the deceased face / expression database 414 to change the past according to the synthesized speech based on the generated sentence and the determined person and facial expression. A moving image of a person (a moving image of a face) may be synthesized. The face generation unit 310 and the facial expression synthesis unit 311 synthesize a moving image whose facial expression changes in accordance with, for example, the inflection and rhythm of the synthesized voice and the content spoken by the voice.

次いで、スピーカー18A,18Bを用いた音声出力309によって、スピーカー18A,18Bから合成された故人の音声が出力され、LCD17Aを用いた顔出力(画像出力)312によって、LCD17Aの画面に合成された故人の顔画像が表示される。   Next, the voice of the deceased synthesized from the speakers 18A, 18B is output by the audio output 309 using the speakers 18A, 18B, and the deceased synthesized on the screen of the LCD 17A by the face output (image output) 312 using the LCD 17A. The face image is displayed.

上述した家族/人物データベース405、故人嗜好データベース406、故人経験データベース407、会話履歴データベース409、会話人物データベース410、似声データベース412、話方データベース413、故人顔/表情データベース414は、例えば、人が亡くなる前や動物が死ぬ前に予め収集された画像、音声(会話の音声)、テキスト等を含むライフログや、その人が回答したアンケート結果等を用いて作成される。ライフログでは、例えば、日付、イベント、画像、一緒にいた人、場所、等が関連付けて記録されていることがある。このような情報を用いて、亡くなった人の思い出や経験、特徴を表す情報、又は過去に存在した動物との思い出や特徴を表す情報が格納されたデータベース405〜407、409、410、412〜414を構築することができる。   The above-mentioned family / person database 405, deceased person preference database 406, deceased person experience database 407, conversation history database 409, conversation person database 410, voice database 412, speech database 413, deceased face / expression database 414 are, for example, It is created using life logs including images, sounds (speech of conversation), texts, etc. collected in advance before death or before the animal dies, questionnaire results answered by the person, and the like. In the life log, for example, a date, an event, an image, a person who was together, a place, and the like may be recorded in association with each other. Databases 405 to 407, 409, 410, and 412 that store information on memories and experiences of the deceased person, information that expresses memories and characteristics with animals that existed in the past, using such information. 414 can be constructed.

また、これらデータベース405〜407、409、410、412〜414は、人が亡くなった後や動物が死んだ後に、その人や動物(又は動物の飼い主)に関連するソーシャルネットワーキングサービス(SNS)のサイト(例えば、Facebook(登録商標)、Twitter(登録商標)、各種のブログ、等)、ローカルやネットワーク上のストレージ、等に保存された画像、映像、音声、テキスト、等の情報を用いて作成されてもよい。ソーシャルネットワーキングサービスのサイトでも、例えば、日付、イベント、画像、一緒にいた人、場所、等が関連付けて記録されていることがあり、このような情報を用いてデータベース405〜407、409、410、412〜414を構築することができる。
このようなデータベースを用いることにより、過去に存在した人や動物とのより現実的な対話(コミュニケーション)を実現するができる。
These databases 405 to 407, 409, 410, 412 to 414 are sites of social networking services (SNS) related to the person or animal (or the owner of the animal) after the death of the person or the animal. (For example, Facebook (registered trademark), Twitter (registered trademark), various blogs, etc.), created using information such as images, video, audio, text, etc. stored locally or on a network storage May be. Even in a site of a social networking service, for example, a date, an event, an image, a person who was together, a place, and the like may be recorded in association with each other, and using such information, the databases 405 to 407, 409, 410, 412 to 414 can be constructed.
By using such a database, a more realistic dialogue (communication) with people and animals that existed in the past can be realized.

また、ユーザが過去に存在した動物と対話しようとする場合、対話制御部307は、家族/人物データベース405、故人嗜好データベース406、故人経験データベース407、雑談用データベース408、会話履歴データベース409、及び会話人物データベース410の少なくとも一つを用いて、意図理解部303によって検出されたテキストの意図と、ユーザの顔画像から決定された人物及び表情とに基づいて、ユーザに応答するための鳴き声(鳴き方)や仕種を決定する。そして、音声合成部308は、似声データベース412及び話方データベース413を用いて、対話制御部307によって決定された鳴き声を音声出力するための、過去に存在した動物の鳴き声を合成する。   When the user tries to talk with an animal that has existed in the past, the dialogue control unit 307 includes a family / person database 405, a deceased preference database 406, a deceased experience database 407, a chat database 408, a conversation history database 409, and a conversation. Using at least one of the person database 410, a cry for responding to the user based on the intention of the text detected by the intention understanding unit 303 and the person and facial expression determined from the face image of the user ) And determine the type. Then, the speech synthesis unit 308 synthesizes animal calls that existed in the past for outputting the calls determined by the dialogue control unit 307 using the similar database 412 and the speech database 413.

また、顔生成部310及び表情合成部311は、故人顔/表情データベース414を用いて、決定された鳴き声及び仕種と、ユーザの顔画像から決定された人物及び表情とに応じた、過去に存在した動物の画像を合成する。顔生成部310及び表情合成部311は、故人顔/表情データベース414を用いて、生成されたセンテンスと、ユーザの顔画像から決定された人物及び表情とに基づいて、合成された音声に応じて変化する動物の動画像を合成してもよい。顔生成部310及び表情合成部311は、例えば、合成された音声の抑揚やリズム、当該音声の内容に応じて、表情や仕種が変化する動画像を合成する。   In addition, the face generation unit 310 and the expression synthesis unit 311 use the deceased face / expression database 414 to exist in the past according to the determined call and type, and the person and expression determined from the user's face image. Synthesize the animal images. The face generation unit 310 and the facial expression synthesis unit 311 use the deceased human face / expression database 414 based on the synthesized speech and the synthesized voice based on the person and facial expression determined from the user's facial image. A moving image of a changing animal may be synthesized. For example, the face generation unit 310 and the facial expression synthesis unit 311 synthesize a moving image whose facial expression and type change according to the inflection and rhythm of the synthesized voice and the content of the voice.

そして、スピーカー18A,18Bを用いた音声出力309によって、スピーカー18A,18Bから合成された動物の音声が出力され、LCD17Aを用いた顔出力(画像出力)312によって、LCD17Aの画面上に合成された動物の画像が表示される。   Then, the audio of the animal synthesized from the speakers 18A and 18B is output by the audio output 309 using the speakers 18A and 18B, and synthesized on the screen of the LCD 17A by the face output (image output) 312 using the LCD 17A. An animal image is displayed.

なお、1つの仏壇1で、複数の過去に存在した人や動物のそれぞれとの対話が行われる場合も想定される。その場合、対話制御部307は、対話しようとするユーザに応じて、対話の相手となる過去に存在した人や動物を決定するようにしてもよい。対話制御部307、音声合成部308、顔生成部310、及び表情合成部311は、決定された過去に存在した人や動物に対応する合成された音声をスピーカー18A,18Bから出力し、合成された画像をLCD17Aの画面に表示する。   In addition, the case where the conversation with each of the several person and animal which existed in the past is performed by one Buddhist altar 1 is also assumed. In that case, the dialogue control unit 307 may determine a person or an animal that existed in the past as a partner of the dialogue according to the user who is going to dialogue. The dialogue control unit 307, the speech synthesis unit 308, the face generation unit 310, and the facial expression synthesis unit 311 output synthesized speech corresponding to the determined person or animal existing in the past from the speakers 18A and 18B and are synthesized. The displayed image is displayed on the screen of the LCD 17A.

次いで、図6のフローチャートを参照して、タブレットコンピュータ2によって実行される対話制御処理の手順の例を説明する。   Next, an example of the procedure of the dialogue control process executed by the tablet computer 2 will be described with reference to the flowchart of FIG.

まず、音声認識部302及び顔・人物認識部305は、亡くなった人との対話が要求されたか否かを判定する(ブロックB101)。音声認識部302及び顔・人物認識部305は、例えば、カメラモジュール16で撮影された画像から人が検出された場合、マイク19A,19Bによって生成された音声から所定の音声が検出された場合、人感センサ116によって人が検出された場合、等に、亡くなった人との対話が要求されたことを決定する。   First, the voice recognition unit 302 and the face / person recognition unit 305 determine whether or not a dialogue with a deceased person has been requested (block B101). The voice recognition unit 302 and the face / person recognition unit 305, for example, when a person is detected from an image captured by the camera module 16, or when a predetermined voice is detected from the voices generated by the microphones 19A and 19B, If a person is detected by the human sensor 116, etc., it is determined that a dialogue with the dead person has been requested.

対話が要求されていない場合(ブロックB101のNO)、ブロックB101に戻り、対話が要求されたか否かが再度判定される。   When the dialogue is not requested (NO in block B101), the process returns to block B101, and it is determined again whether the dialogue is requested.

一方、亡くなった人との対話が要求されている場合(ブロックB101のYES)、マイク19A,19Bを用いた音声入力301によって、ユーザの発話による音声が入力され、カメラモジュール16を用いた画像入力304によって、当該ユーザの画像が入力される(ブロックB102)。   On the other hand, when a dialogue with a deceased person is requested (YES in block B101), voice input by the user is input by voice input 301 using the microphones 19A and 19B, and image input using the camera module 16 is performed. In 304, the image of the user is input (block B102).

音声認識部302は、音声認識辞書401を用いて、入力された音声に対応するテキストを生成する(ブロックB103)。そして、意図理解部303は、知識データベース402と意図理解データベース403とを用いて、生成されたテキストの意図を検出する(ブロックB104)。   The speech recognition unit 302 uses the speech recognition dictionary 401 to generate text corresponding to the input speech (block B103). Then, the intention understanding unit 303 detects the intention of the generated text using the knowledge database 402 and the intention understanding database 403 (block B104).

また、顔・人物認識部305は、顔/表情データベース404を用いて、入力された画像から顔画像を検出し、その顔画像に対応する人物を決定する(ブロックB105)。そして、表情認識部306は、顔/表情データベース404を用いて、顔・人物認識部305によって検出された顔画像に対応する表情を決定する(ブロックB106)。   Further, the face / person recognition unit 305 detects a face image from the input image using the face / expression database 404 and determines a person corresponding to the face image (block B105). Then, the facial expression recognition unit 306 uses the face / expression database 404 to determine a facial expression corresponding to the face image detected by the face / person recognition unit 305 (block B106).

次いで、対話制御部307は、家族/人物データベース405、故人嗜好データベース406、故人経験データベース407、雑談用データベース408、会話履歴データベース409、及び会話人物データベース410を用いて、検出されたテキストの意図と、決定された人物及び表情とに応じた、ユーザに応答するための文章(センテンス)を生成する(ブロックB107)。音声合成部308は、合成辞書411、似声データベース412及び話方データベース413を用いて、生成された文章を音声出力するための故人の音声を合成する(ブロックB108)。   Next, the dialogue control unit 307 uses the family / person database 405, the deceased person preference database 406, the deceased person experience database 407, the chat database 408, the conversation history database 409, and the conversation person database 410 to detect the intention of the detected text. A sentence (sentence) for responding to the user according to the determined person and facial expression is generated (block B107). The speech synthesizer 308 synthesizes the speech of the deceased for outputting the generated sentence by speech using the synthesis dictionary 411, the similar voice database 412, and the speech database 413 (block B108).

また、顔生成部310及び表情合成部311は、故人顔/表情データベース414を用いて、生成された文章と、決定された人物及び表情とに応じた、故人の顔画像を合成する(ブロックB109)。そして、スピーカー18A,18Bを用いた音声出力309によって、スピーカー18A,18Bから合成された故人の音声が出力され、LCD17Aを用いた顔出力(映像出力)312によって、LCD17Aの画面に合成された故人の顔画像が表示される(ブロックB110)。   Further, the face generation unit 310 and the expression synthesis unit 311 use the deceased face / expression database 414 to synthesize the deceased's face image according to the generated sentence and the determined person and expression (block B109). ). The voice of the deceased person synthesized from the speakers 18A and 18B is output by the audio output 309 using the speakers 18A and 18B, and the deceased person synthesized on the screen of the LCD 17A by the face output (video output) 312 using the LCD 17A. Are displayed (block B110).

上述した対話制御処理は、タブレットコンピュータ2ではなく、タブレットコンピュータ2とネットワークを介して接続されたクラウドサーバ3によって実行されてもよい。その場合、タブレットコンピュータ2では、クラウドサーバ3による処理結果に基づいて、故人の合成された音声がスピーカー18A,18Bから出力され、故人の合成された画像がLCD17Aの画面に表示される。   The dialogue control process described above may be executed not by the tablet computer 2 but by the cloud server 3 connected to the tablet computer 2 via a network. In that case, in the tablet computer 2, the synthesized voice of the deceased is output from the speakers 18A and 18B based on the processing result by the cloud server 3, and the synthesized image of the deceased is displayed on the screen of the LCD 17A.

なお、上述した説明では、過去に存在した人との対話の処理の例について記載したが、過去に存在した動物との対話(コミュニケーション)も同様の処理によって実現することができる。過去に存在した動物との対話の場合には、対話制御部307は、ユーザに応答する文章(センテンス)の代わりに、例えば、ユーザに応答する鳴き声や仕種を決定する。   In the above description, an example of a dialogue process with a person who has existed in the past has been described, but a dialogue (communication) with an animal that has existed in the past can also be realized by a similar process. In the case of a dialogue with an animal that has existed in the past, the dialogue control unit 307 determines, for example, a cry or type that responds to the user, instead of a sentence (sentence) that responds to the user.

また、図7に示すように、本実施形態の電子機器はテレビジョン受信機50として実現されてもよい。このテレビジョン受信機50は、上述した過去に存在した人や動物との対話を実現する対話機能を有する。テレビジョン受信機50に設けられるLCD58の画面には、過去に存在した人や動物の画像だけでなく、仏壇の画像や、位牌、花立、火立、香炉、供物、花仏水器、りん、等の仏具の画像が表示されてもよい。   Further, as shown in FIG. 7, the electronic device of the present embodiment may be realized as a television receiver 50. The television receiver 50 has a dialog function for realizing the above-described dialog with people and animals that existed in the past. On the screen of the LCD 58 provided in the television receiver 50, not only images of people and animals that existed in the past, but also images of Buddhist altars, ranks, flower stands, fire stands, incense burners, offerings, flower Buddha water devices, phosphorus, An image of a Buddhist ware such as may be displayed.

デジタルテレビジョン受信機50は、薄い箱形の筐体を有している。デジタルテレビジョン受信機50の前面には、この箱形の筐体に重ね合わせるように、LCD58が設けられている。デジタルテレビジョン受信機50の前面下部には、受光部51、LED52、人感センサ54、マイク55などが配置されている。受光部51は、リモートコントローラによって送信される信号を受信する。LED52は、電源のオン/オフ、待機状態等を示す。人感センサ54は、テレビジョン受信機50の前方に人が存在することを検出する。マイク55は、テレビジョン受信機50を使用する人(例えば、テレビジョン受信機50に画面に表示される仏壇にお参りする人)の発声による音声を取得する。また、デジタルテレビジョン受信機50の前面上部には、テレビジョン受信機50を使用する人の画像(顔画像)を撮影するカメラモジュール53が設けられている。   The digital television receiver 50 has a thin box-shaped housing. An LCD 58 is provided on the front surface of the digital television receiver 50 so as to be superimposed on the box-shaped housing. A light receiving unit 51, an LED 52, a human sensor 54, a microphone 55, and the like are arranged at the lower front portion of the digital television receiver 50. The light receiving unit 51 receives a signal transmitted by the remote controller. The LED 52 indicates power on / off, standby state, and the like. The human sensor 54 detects that a person is present in front of the television receiver 50. The microphone 55 acquires sound produced by the voice of a person who uses the television receiver 50 (for example, a person who visits the Buddhist altar displayed on the screen of the television receiver 50). In addition, a camera module 53 that captures an image (face image) of a person using the television receiver 50 is provided on the front upper portion of the digital television receiver 50.

さらに、デジタルテレビジョン受信機50の側面には、操作部56とスピーカー57とが設けられている。操作部56には、テレビジョン受信機50を操作するための各種のボタンが設けられる。操作部56は、例えば、デジタルテレビジョン受信機50を電源オン/電源オフするための主電源ボタン、チャンネルを切り替えるためのチャンネルボタン等を備える。スピーカー56は音声を出力する。   Further, an operation unit 56 and a speaker 57 are provided on the side surface of the digital television receiver 50. Various buttons for operating the television receiver 50 are provided on the operation unit 56. The operation unit 56 includes, for example, a main power button for powering on / off the digital television receiver 50, a channel button for switching channels, and the like. The speaker 56 outputs sound.

デジタルテレビジョン受信機50で上述の対話機能が利用される場合、例えば、このデジタルテレビジョン受信機50内に設けられるプロセッサーによって、図5を参照して説明した対話アプリケーションプログラム202が実行される。これにより、マイク55によって取得されるユーザの発声による音声と、カメラモジュール53によって取得されるユーザの顔画像と、過去に存在した人や動物に関する情報とに基づいて、スピーカー57から過去に存在した人や動物の合成された(人工的な)音声が出力され、LCD58の画面に過去に存在した人や動物の合成された画像が表示される。
したがってユーザは、テレビジョン受信機50を用いて、亡くなった人や死んだ動物に対するお参りや、亡くなった人や死んだ動物との擬似的な対話を行うことができる。
When the above interactive function is used in the digital television receiver 50, the interactive application program 202 described with reference to FIG. 5 is executed by, for example, a processor provided in the digital television receiver 50. Thus, based on the voice of the user's utterance acquired by the microphone 55, the user's face image acquired by the camera module 53, and information on the person or animal that existed in the past, the speaker 57 has existed in the past. A synthesized (artificial) voice of a person or animal is output, and a synthesized image of a person or animal that has existed in the past is displayed on the screen of the LCD 58.
Therefore, the user can use the television receiver 50 to visit a dead person or a dead animal, or perform a pseudo dialogue with a dead person or a dead animal.

以上説明したように、本実施形態によれば、過去に存在した人や死んだ動物との擬似的なコミュニケーションを実現することができる。データベース405〜414は、過去に存在した人又は動物に関する情報を記憶する。音声認識部302、意図理解部303及び対話制御部307は、ユーザの発話内容に応答するためのセンテンスを生成する。音声合成部308は、データベース405〜414に記憶された情報と、生成されたセンテンスとに基づいて、その過去に存在した人又は動物の音声を合成する。   As described above, according to the present embodiment, it is possible to realize pseudo communication with a person who has existed in the past or a dead animal. The databases 405 to 414 store information related to people or animals that existed in the past. The voice recognition unit 302, the intention understanding unit 303, and the dialogue control unit 307 generate a sentence for responding to the user's utterance content. The speech synthesizer 308 synthesizes the speech of a person or animal that existed in the past based on the information stored in the databases 405 to 414 and the generated sentence.

ユーザ(仏壇1にお参りする人)は、合成された音声によって、過去に存在した人や動物との擬似的な会話を行うことができるので、家族やペットを亡くした悲しみや孤独感を軽減することができる。また、このような対話機能によって、故人や先祖を供養する機会が増え、またユーザは過去に存在した人や動物との出来事を思い出すことができる。   Users (people who visit the Buddhist altar 1) can perform simulated conversations with people and animals that existed in the past by means of synthesized speech, thus reducing the sadness and loneliness of losing their family and pets. be able to. In addition, such an interactive function increases the chances of providing the deceased and ancestors, and allows the user to remember events with people and animals that existed in the past.

さらに、この対話機能は、仏壇1や墓石の新たな機能として、祭礼用具を製造・販売する業界のビジネスの機会を広げることに貢献できる。また、タブレットコンピュータ2やスマートフォン上で実行される対話アプリケーションプログラム202として、亡くなった人や死んだ動物に対する供養の新たな機会をユーザに提供することができる。   Furthermore, this interactive function can contribute to expanding business opportunities in the industry for manufacturing and selling festival tools as new functions of the Buddhist altar 1 and the tombstone. In addition, as a dialog application program 202 executed on the tablet computer 2 or the smartphone, a new opportunity for feeding a dead person or a dead animal can be provided to the user.

なお、本実施形態の対話制御処理の手順は全てソフトウェアによって実行することができる。このため、対話制御処理の手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。   Note that all the procedures of the dialog control process of the present embodiment can be executed by software. For this reason, it is possible to easily realize the same effect as that of the present embodiment only by installing and executing this program on a normal computer through a computer-readable storage medium storing the program for executing the procedure of the interactive control process. Can do.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

202…対話アプリケーションプログラム、301…音声入力、302…音声認識部、303…意図理解部、304…画像入力、305…顔・人物認識部、306…表情認識部、307…対話制御部、308…音声合成部、309…音声出力、310…顔生成部、311…表情合成部、312…顔出力、401…音声認識辞書、402…知識データベース、403…意図理解データベース、404…顔/表情データベース、405…家族/人物データベース、406…故人嗜好データベース、407…故人経験データベース、408…雑談用データベース、409…会話履歴データベース、410…会話人物データベース、411…合成辞書、412…似声データベース、413…話方データベース、414…故人顔/表情データベース   202 ... Dialog application program, 301 ... Voice input, 302 ... Voice recognition unit, 303 ... Intent understanding unit, 304 ... Image input, 305 ... Face / person recognition unit, 306 ... Expression recognition unit, 307 ... Dialog control unit, 308 ... Speech synthesis unit, 309 ... voice output, 310 ... face generation unit, 311 ... facial expression synthesis unit, 312 ... face output, 401 ... speech recognition dictionary, 402 ... knowledge database, 403 ... intention understanding database, 404 ... face / expression database, 405 ... Family / person database, 406 ... Deceased person preference database, 407 ... Deceased person experience database, 408 ... Chatting database, 409 ... Conversation history database, 410 ... Conversation person database, 411 ... Synthetic dictionary, 412 ... Voice database, 413 ... Talk database, 414 ... Deceased face / expression database

Claims (11)

過去に存在した人又は動物に関する情報を記憶する記憶手段と、
ユーザの発話内容に応答するためのセンテンスを生成する音声認識手段と、
前記記憶手段に記憶した情報と、生成した前記センテンスに基づいて、前記人又は動物の音声を合成する音声合成手段とを具備する電子機器。
Storage means for storing information about a person or animal that existed in the past;
Speech recognition means for generating a sentence for responding to the user's utterance content;
An electronic device comprising: information stored in the storage means; and voice synthesis means for synthesizing the human or animal voice based on the generated sentence.
前記音声認識手段は、前記ユーザの発話による音声に対応するテキストを生成し、前記テキストと前記記憶手段に記憶した情報とに基づいて、前記センテンスを生成する請求項1記載の電子機器。   The electronic device according to claim 1, wherein the voice recognition unit generates a text corresponding to a voice uttered by the user, and generates the sentence based on the text and information stored in the storage unit. 前記ユーザの顔画像を用いて、前記顔画像に対応する人物と、前記顔画像に対応する表情とを決定する顔認識手段をさらに具備し、
前記音声認識手段は、前記テキストと、前記顔画像に対応する人物と、前記顔画像に対応する表情と、前記記憶手段に記憶した情報とに基づいて、前記センテンスを生成する請求項2記載の電子機器。
Further comprising face recognition means for determining a person corresponding to the face image and a facial expression corresponding to the face image using the user's face image;
The speech recognition unit generates the sentence based on the text, a person corresponding to the face image, a facial expression corresponding to the face image, and information stored in the storage unit. Electronics.
前記センテンスと、前記顔画像に対応する人物と、前記顔画像に対応する表情と、前記記憶手段に記憶した情報とに基づいて、前記人又は動物の画像を合成する画像合成手段をさらに具備する請求項3記載の電子機器。   The image processing device further comprises image combining means for combining the human or animal image based on the sentence, the person corresponding to the face image, the facial expression corresponding to the face image, and the information stored in the storage means. The electronic device according to claim 3. 前記画像合成手段は、前記センテンスと、前記顔画像に対応する人物と、前記顔画像に対応する表情と、前記記憶手段に記憶した情報とに基づいて、前記合成された音声に応じて変化する、前記人又は動物の動画像を合成する請求項4記載の電子機器。   The image synthesizing unit changes according to the synthesized voice based on the sentence, the person corresponding to the face image, the facial expression corresponding to the face image, and the information stored in the storage unit. The electronic apparatus according to claim 4, wherein the moving image of the person or animal is synthesized. 前記記憶手段に記憶した情報と、前記センテンスとに基づいて、前記人又は動物の画像を合成する画像合成手段をさらに具備する請求項1記載の電子機器。   The electronic apparatus according to claim 1, further comprising an image synthesis unit that synthesizes an image of the person or animal based on the information stored in the storage unit and the sentence. 前記過去に存在した人又は動物に関する情報は、過去に存在した人の顔、表情、声、及び話し方の少なくとも一つを示す情報、又は過去に存在した動物の顔、表情、鳴き声、及び仕種の少なくとも一つを示す情報を含む請求項1記載の電子機器。   The information on the person or animal that existed in the past is information indicating at least one of the face, expression, voice, and way of speaking of the person that existed in the past, or the face, expression, call, and type of animal that existed in the past. The electronic device according to claim 1, comprising information indicating at least one. 前記過去に存在した人又は動物に関する情報は、ライフログから取得される情報を含む請求項1記載の電子機器。   The electronic device according to claim 1, wherein the information related to the person or animal existing in the past includes information acquired from a life log. 前記過去に存在した人又は動物に関する情報は、ソーシャルネットワーキングサービス(SNS)のサイトから取得される情報を含む請求項1記載の電子機器。   The electronic device according to claim 1, wherein the information related to the person or animal existing in the past includes information acquired from a site of a social networking service (SNS). 過去に存在した人又は動物に関する情報を記憶装置に記憶し、
ユーザの発話内容に応答するためのセンテンスを生成し、
前記記憶装置に記憶された情報と、生成した前記センテンスに基づいて、前記人又は動物の音声を合成する情報処理方法。
Store information about people or animals that existed in the past in the storage device,
Generate a sentence to respond to the user's utterance,
An information processing method for synthesizing the voice of the person or animal based on the information stored in the storage device and the generated sentence.
コンピュータにより実行されるプログラムであって、前記プログラムは、
過去に存在した人又は動物に関する情報を記憶する手順と、
ユーザの発話内容に応答するためのセンテンスを生成する手順と、
前記記憶した情報と、生成した前記センテンスに基づいて、前記人又は動物の音声を合成する手順とを前記コンピュータに実行させるプログラム。
A program executed by a computer, wherein the program is
A procedure for storing information about people or animals that existed in the past;
A procedure for generating a sentence to respond to the user's utterance,
A program that causes the computer to execute the stored information and a procedure for synthesizing the voice of the person or animal based on the generated sentence.
JP2014053231A 2014-03-17 2014-03-17 Electronic apparatus and information processing method Pending JP2015173857A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014053231A JP2015173857A (en) 2014-03-17 2014-03-17 Electronic apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014053231A JP2015173857A (en) 2014-03-17 2014-03-17 Electronic apparatus and information processing method

Publications (1)

Publication Number Publication Date
JP2015173857A true JP2015173857A (en) 2015-10-05

Family

ID=54253620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014053231A Pending JP2015173857A (en) 2014-03-17 2014-03-17 Electronic apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP2015173857A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6388269B1 (en) * 2017-12-07 2018-09-12 株式会社小泉製作所 Information transmission system by Orin
JP7407625B2 (en) 2020-03-09 2024-01-04 株式会社エータイ Message providing method, message providing device, message providing program, and recording medium

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5677834A (en) * 1995-01-26 1997-10-14 Mooneyham; Martin Method and apparatus for computer assisted sorting of parcels
JP2001212783A (en) * 2000-02-01 2001-08-07 Sony Corp Robot device and control method for it
JP2001265210A (en) * 2000-03-16 2001-09-28 Takayuki Takada Method and device for assisting sutra chanting and evolving of the holly name and recording medium
JP2002024371A (en) * 2000-07-11 2002-01-25 Sakaguchi Seisakusho:Kk Method and device for having virtual conversation with the deceased
JP2002272794A (en) * 2001-03-15 2002-09-24 Hida Ham:Kk Method for producing cinerary urn
JP2003023588A (en) * 2001-07-09 2003-01-24 Hokusei:Kk Playback equipment and recording/playback equipment
JP2003331074A (en) * 2002-05-16 2003-11-21 Yamatake Corp Grave visiting system
JP2009193448A (en) * 2008-02-15 2009-08-27 Oki Electric Ind Co Ltd Dialog system, method, and program
JP2010072578A (en) * 2008-09-22 2010-04-02 Toshiba Corp Dialogue generation apparatus and dialogue generation method
JP2012155616A (en) * 2011-01-27 2012-08-16 Panasonic Corp Content provision system, content provision method, and content provision program
JP2012213828A (en) * 2011-03-31 2012-11-08 Fujitsu Ltd Robot control device and program
JP2013099823A (en) * 2011-11-09 2013-05-23 Panasonic Corp Robot device, robot control method, robot control program and robot system
JP2014044729A (en) * 2013-09-24 2014-03-13 Nec Corp Screen display control method, screen display control system, electronic apparatus, and program
JP2014044519A (en) * 2012-08-24 2014-03-13 Denso Corp Baggage delivery system

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5677834A (en) * 1995-01-26 1997-10-14 Mooneyham; Martin Method and apparatus for computer assisted sorting of parcels
JP2001212783A (en) * 2000-02-01 2001-08-07 Sony Corp Robot device and control method for it
JP2001265210A (en) * 2000-03-16 2001-09-28 Takayuki Takada Method and device for assisting sutra chanting and evolving of the holly name and recording medium
JP2002024371A (en) * 2000-07-11 2002-01-25 Sakaguchi Seisakusho:Kk Method and device for having virtual conversation with the deceased
JP2002272794A (en) * 2001-03-15 2002-09-24 Hida Ham:Kk Method for producing cinerary urn
JP2003023588A (en) * 2001-07-09 2003-01-24 Hokusei:Kk Playback equipment and recording/playback equipment
JP2003331074A (en) * 2002-05-16 2003-11-21 Yamatake Corp Grave visiting system
JP2009193448A (en) * 2008-02-15 2009-08-27 Oki Electric Ind Co Ltd Dialog system, method, and program
JP2010072578A (en) * 2008-09-22 2010-04-02 Toshiba Corp Dialogue generation apparatus and dialogue generation method
JP2012155616A (en) * 2011-01-27 2012-08-16 Panasonic Corp Content provision system, content provision method, and content provision program
JP2012213828A (en) * 2011-03-31 2012-11-08 Fujitsu Ltd Robot control device and program
JP2013099823A (en) * 2011-11-09 2013-05-23 Panasonic Corp Robot device, robot control method, robot control program and robot system
JP2014044519A (en) * 2012-08-24 2014-03-13 Denso Corp Baggage delivery system
JP2014044729A (en) * 2013-09-24 2014-03-13 Nec Corp Screen display control method, screen display control system, electronic apparatus, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6388269B1 (en) * 2017-12-07 2018-09-12 株式会社小泉製作所 Information transmission system by Orin
JP2019096275A (en) * 2017-12-07 2019-06-20 株式会社小泉製作所 Information transmission system using orin (buddhist bell)
JP7407625B2 (en) 2020-03-09 2024-01-04 株式会社エータイ Message providing method, message providing device, message providing program, and recording medium

Similar Documents

Publication Publication Date Title
CN109243432B (en) Voice processing method and electronic device supporting the same
CN110998720B (en) Voice data processing method and electronic device supporting the same
US10079014B2 (en) Name recognition system
KR102619621B1 (en) Electronic device and method for communicating with chatbot
KR102341144B1 (en) Electronic device which ouputus message and method for controlling thereof
KR102356623B1 (en) Virtual assistant electronic device and control method thereof
WO2021008538A1 (en) Voice interaction method and related device
CN108139988B (en) Information processing system and information processing method
TW201913300A (en) Human-computer interaction method and human-computer interaction system
CN105190745A (en) Methods and systems for sharing of adapted voice profiles
WO2019242414A1 (en) Voice processing method and apparatus, storage medium, and electronic device
KR102508677B1 (en) System for processing user utterance and controlling method thereof
US11298080B2 (en) Reproduction terminal and reproduction method
CN110910887B (en) Voice wake-up method and device
KR20190068133A (en) Electronic device and method for speech recognition
JP6166889B2 (en) Dialog support apparatus, dialog system, dialog support method and program
CN109377979B (en) Method and system for updating welcome language
JP2018171683A (en) Robot control program, robot device, and robot control method
JP2015176058A (en) Electronic apparatus and method and program
US10002611B1 (en) Asynchronous audio messaging
JP2015173857A (en) Electronic apparatus and information processing method
JP6598369B2 (en) Voice management server device
CN112219235A (en) System comprising an electronic device for processing a user&#39;s speech and a method for controlling speech recognition on an electronic device
JP2014109998A (en) Interactive apparatus and computer interactive method
CN109388250B (en) Information recommendation method and device and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180717

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20181206

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20181207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190212