JP7121848B1 - Information processing device, information processing method, information processing program and information processing system - Google Patents

Information processing device, information processing method, information processing program and information processing system Download PDF

Info

Publication number
JP7121848B1
JP7121848B1 JP2021184900A JP2021184900A JP7121848B1 JP 7121848 B1 JP7121848 B1 JP 7121848B1 JP 2021184900 A JP2021184900 A JP 2021184900A JP 2021184900 A JP2021184900 A JP 2021184900A JP 7121848 B1 JP7121848 B1 JP 7121848B1
Authority
JP
Japan
Prior art keywords
user
information processing
terminal
information
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021184900A
Other languages
Japanese (ja)
Other versions
JP2023072378A (en
Inventor
是裕 今西
颯 小野
Original Assignee
株式会社ユカリア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ユカリア filed Critical 株式会社ユカリア
Priority to JP2021184900A priority Critical patent/JP7121848B1/en
Priority to JP2022125840A priority patent/JP2023072649A/en
Application granted granted Critical
Publication of JP7121848B1 publication Critical patent/JP7121848B1/en
Priority to PCT/JP2022/031878 priority patent/WO2023084866A1/en
Publication of JP2023072378A publication Critical patent/JP2023072378A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ロボットを用いて間接的にユーザの体調を表現すること。【解決手段】ロボットを用いて間接的にユーザの体調を表現するため、表示部を備えた情報処理端末とロボットとの間で、ネットワークを介して通信を行う情報処理装置であって、情報処理端末から、ユーザの体調情報を取得するユーザ情報取得部と、ロボットがユーザの体調に合わせた動作を行うように、ロボットに体調情報に応じたコマンドを送るコマンド送信部と、を備えた情報処理装置。【選択図】 図1An object of the present invention is to indirectly express the physical condition of a user using a robot. Kind Code: A1 An information processing apparatus that communicates via a network between an information processing terminal provided with a display unit and a robot in order to indirectly express the user's physical condition using the robot. Information processing comprising: a user information acquiring unit for acquiring physical condition information of a user from a terminal; and a command transmitting unit for sending a command corresponding to the physical condition information to the robot so that the robot performs an action in accordance with the physical condition of the user. Device. [Selection diagram] Fig. 1

Description

本発明は、情報処理装置、情報処理方法、情報処理プログラムおよび情報処理システムに関する。 The present invention relates to an information processing device, an information processing method, an information processing program, and an information processing system.

上記技術分野において、特許文献1には、アバターを用いてユーザの孤独感または不安等を和らげることが可能な情報処理装置が開示されている。 In the above technical field, Patent Literature 1 discloses an information processing apparatus capable of alleviating a user's sense of loneliness or anxiety using an avatar.

特開2020-201669号公報Japanese Patent Application Laid-Open No. 2020-201669

しかしながら、上記文献に記載の技術では、自己表現の苦手なユーザに対して、体調の表現を促すことができなかった。
本発明の目的は、上述の課題を解決する技術を提供することにある。
However, the technique described in the above document cannot prompt a user who is not good at self-expression to express his/her physical condition.
An object of the present invention is to provide a technique for solving the above problems.

上記目的を達成するため、本発明に係る装置にあっては、
表示部を備えた情報処理端末と、ロボットとの間で、ネットワークを介して通信を行う情報処理装置であって、
前記情報処理端末から、ユーザの体調情報を取得するユーザ情報取得部と、
前記ロボットが前記ユーザの体調に合わせた動作を行うように、前記ロボットに前記体調情報に応じたコマンドを送るコマンド送信部と、
前記情報処理端末のユーザの状態を問い合わせる問い合わせ画像を前記表示部に表示させる表示制御部と、
を備え、
前記問い合わせ画像に対する回答が一定期間ない場合に、心理テストを前記表示部に表示させ、
前記心理テストに対する回答が一定期間ない場合に、前記ユーザ情報取得部は、前記情報処理端末から、ユーザの歩行量、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得し、
前記コマンド送信部は、前記ユーザ環境情報に応じたコマンドを前記ロボットに送る
In order to achieve the above object, in the device according to the present invention,
An information processing device that performs communication via a network between an information processing terminal having a display unit and a robot,
A user information acquisition unit that acquires physical condition information of a user from the information processing terminal;
a command transmission unit that transmits a command corresponding to the physical condition information to the robot so that the robot performs an action that matches the physical condition of the user;
a display control unit that causes the display unit to display an inquiry image for inquiring about the state of the user of the information processing terminal;
with
displaying a psychological test on the display unit when there is no response to the inquiry image for a certain period of time;
When there is no answer to the psychological test for a certain period of time, the user information acquisition unit receives from the information processing terminal the amount of walking of the user, sleep time, terminal browsing time zone, terminal browsing length, terminal browsing site tendency, terminal Acquiring at least one of transmission content, music content played by the terminal, terminal location information, climate, and temperature as user environment information,
The command transmission unit transmits a command corresponding to the user environment information to the robot .

上記目的を達成するため、本発明に係る方法にあっては、
表示部を備えた情報処理端末と、ロボットとをネットワークを介して制御する情報処理方法であって、
ユーザ情報取得部が、前記情報処理端末から、ユーザの体調情報を取得するユーザ情報取得ステップと、
コマンド送信部が、前記ロボットが前記ユーザの体調に合わせた動作を行うように、前記ロボットに前記体調情報に応じたコマンドを送るコマンド送信ステップと、
表示制御部が、前記情報処理端末のユーザの状態を問い合わせる問い合わせ画像を前記表示部に表示させる表示制御ステップと、
含み、
前記問い合わせ画像に対する回答が一定期間ない場合に、心理テストを前記表示部に表示させ、
前記心理テストに対する回答が一定期間ない場合に、前記ユーザ情報取得ステップでは、前記情報処理端末から、ユーザの歩行量、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得し、
前記コマンド送信ステップにおいて、前記コマンド送信部が、前記ユーザ環境情報に応じたコマンドを前記ロボットに送る情報処理方法である。
In order to achieve the above object, in the method according to the present invention,
An information processing method for controlling an information processing terminal having a display unit and a robot via a network,
A user information acquisition step in which the user information acquisition unit acquires physical condition information of the user from the information processing terminal;
a command transmission step in which a command transmission unit transmits a command corresponding to the physical condition information to the robot so that the robot performs an action in accordance with the physical condition of the user;
a display control step in which a display control unit causes the display unit to display an inquiry image for inquiring about the state of a user of the information processing terminal;
including
displaying a psychological test on the display unit when there is no response to the inquiry image for a certain period of time;
If there is no answer to the psychological test for a certain period of time, in the user information acquisition step, from the information processing terminal, the user's walking amount, sleep time, terminal browsing time zone, terminal browsing length, terminal browsing site tendency, terminal Acquiring at least one of transmission content, music content played by the terminal, terminal location information, climate, and temperature as user environment information,
In the command transmission step, the command transmission unit transmits a command corresponding to the user environment information to the robot.

上記目的を達成するため、本発明に係るプログラムにあっては、
表示部を備えた情報処理端末と、ロボットとをネットワークを介して制御する情報処理プログラムであって、
前記情報処理端末から、ユーザの体調情報を取得するユーザ情報取得ステップと、
前記ロボットが前記ユーザの体調に合わせた動作を行うように、前記ロボットに前記体調情報に応じたコマンドを送るコマンド送信ステップと、
前記情報処理端末のユーザの状態を問い合わせる問い合わせ画像を前記表示部に表示させる表示制御ステップと、
をコンピュータに実行させる情報処理プログラムであって、
前記問い合わせ画像に対する回答が一定期間ない場合に、心理テストを前記表示部に表示させ、
前記心理テストに対する回答が一定期間ない場合に、前記ユーザ情報取得ステップでは、前記情報処理端末から、ユーザの歩行量、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得し、
前記コマンド送信ステップにおいて、前記ユーザ環境情報に応じたコマンドを前記ロボットに送る情報処理プログラムである。
In order to achieve the above object, in the program according to the present invention,
An information processing program for controlling an information processing terminal having a display unit and a robot via a network,
a user information acquisition step of acquiring physical condition information of a user from the information processing terminal;
a command transmission step of sending a command corresponding to the physical condition information to the robot so that the robot performs an action in accordance with the physical condition of the user;
a display control step of causing the display unit to display an inquiry image for inquiring about the state of the user of the information processing terminal;
An information processing program that causes a computer to execute
displaying a psychological test on the display unit when there is no response to the inquiry image for a certain period of time;
If there is no answer to the psychological test for a certain period of time, in the user information acquisition step, from the information processing terminal, the user's walking amount, sleep time, terminal browsing time zone, terminal browsing length, terminal browsing site tendency, terminal Acquiring at least one of transmission content, music content played by the terminal, terminal location information, climate, and temperature as user environment information,
In the information processing program, in the command sending step, a command corresponding to the user environment information is sent to the robot .

上記目的を達成するため、本発明に係るシステムにあっては、
表示部を備えた情報処理端末と、ロボットと、情報処理装置とを含む情報処理システムであって、
前記情報処理端末は、ユーザの体調情報を取得するユーザ情報取得アプリケーションを備え、
前記情報処理装置は、前記ロボットが前記ユーザの体調に合わせた動作を行うように、前記ロボットに前記体調情報に応じたコマンドを送るコマンド送信部を備え、
前記情報処理端末のユーザの状態を問い合わせる問い合わせ画像を前記表示部に表示させる表示制御部と、
を備え、
前記問い合わせ画像に対する回答が一定期間ない場合に、心理テストを前記表示部に表示させ、
前記心理テストに対する回答が一定期間ない場合に、前記ユーザ情報取得部は、前記情報処理端末から、ユーザの歩行量、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得し、
前記コマンド送信部は、前記ユーザ環境情報に応じたコマンドを前記ロボットに送り、
前記ロボットは、前記コマンド送信部から送られてきたコマンドに応じた動作を行う動作機構を備えた情報処理システムである。
In order to achieve the above object, in the system according to the present invention,
An information processing system including an information processing terminal having a display unit, a robot, and an information processing device,
The information processing terminal includes a user information acquisition application that acquires physical condition information of the user,
The information processing device includes a command transmission unit that transmits a command corresponding to the physical condition information to the robot so that the robot performs an action that matches the user's physical condition,
a display control unit that causes the display unit to display an inquiry image for inquiring about the state of the user of the information processing terminal;
with
displaying a psychological test on the display unit when there is no response to the inquiry image for a certain period of time;
When there is no response to the psychological test for a certain period of time, the user information acquisition unit receives from the information processing terminal the amount of walking of the user, sleep time, terminal browsing time zone, terminal browsing length, terminal browsing site tendency, terminal Acquiring at least one of transmission content, music content played by the terminal, terminal location information, climate, and temperature as user environment information,
The command transmission unit transmits a command corresponding to the user environment information to the robot,
The robot is an information processing system having an operation mechanism that performs an operation according to a command sent from the command transmission unit.

本発明によれば、ユーザは、ロボットを用いて間接的に自らの体調を表現することが可能となる。 According to the present invention, a user can indirectly express his physical condition using a robot.

第1実施形態に係る情報処理装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an information processing apparatus according to a first embodiment; FIG. 第2実施形態に係る情報処理システムの構成および作用を示す図である。It is a figure which shows the structure and effect|action of the information processing system which concerns on 2nd Embodiment. 第2実施形態に係る情報処理システムの構成および作用を示す図である。It is a figure which shows the structure and effect|action of the information processing system which concerns on 2nd Embodiment. 第2実施形態に係るサーバの内部構成および作用を示す図である。It is a figure which shows the internal structure and effect|action of the server which concerns on 2nd Embodiment. 第2実施形態に係るアプリケーションの動作を示す図である。It is a figure which shows the operation|movement of the application which concerns on 2nd Embodiment. 第2実施形態に係るアプリケーションの動作を示す図である。It is a figure which shows the operation|movement of the application which concerns on 2nd Embodiment. 第2実施形態に係るサーバの処理の流れを示すフローチャートである。9 is a flow chart showing the flow of processing of a server according to the second embodiment; 第2実施形態に係るサーバの処理の流れを示すフローチャートである。9 is a flow chart showing the flow of processing of a server according to the second embodiment; 第2実施形態に係るサーバの入力項目を示すテーブルである。It is a table showing the input items of the server according to the second embodiment. 第2実施形態に係るアプリケーションの画面例を示す図である。It is a figure which shows the example of a screen of the application which concerns on 2nd Embodiment. 第2実施形態に係るアプリケーションの連携を示す図である。It is a figure which shows the cooperation of the application which concerns on 2nd Embodiment.

以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素はあくまで例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。 BEST MODE FOR CARRYING OUT THE INVENTION Exemplary embodiments of the present invention will be described in detail below with reference to the drawings. However, the components described in the following embodiments are merely examples, and the technical scope of the present invention is not limited to them.

[第1実施形態]
本発明の第1実施形態としての情報処理装置100について、図1を用いて説明する。情報処理装置100は、表示部111を備えた情報処理端末110と、ロボット120と、ネットワーク130を介して通信を行う情報処理装置である。
[First embodiment]
An information processing apparatus 100 as a first embodiment of the present invention will be described using FIG. The information processing apparatus 100 is an information processing apparatus that communicates with an information processing terminal 110 having a display unit 111 and a robot 120 via a network 130 .

図1に示すように、情報処理装置100は、ユーザ情報取得部101とコマンド送信部102とを含む。 As shown in FIG. 1, the information processing apparatus 100 includes a user information acquisition section 101 and a command transmission section 102 .

ユーザ情報取得部101は、情報処理端末110から、ユーザ150の体調情報151を取得する。 The user information acquisition unit 101 acquires the physical condition information 151 of the user 150 from the information processing terminal 110 .

コマンド送信部102は、ロボット120がユーザ150の体調に合わせた動作を行うように、ロボット120に体調情報に応じたコマンド121を送る。 The command sending unit 102 sends a command 121 corresponding to the physical condition information to the robot 120 so that the robot 120 performs an action suitable for the physical condition of the user 150 .

以上の構成により、ユーザは、ロボットを用いて間接的に自らの体調を表現することが可能となる。 With the above configuration, the user can indirectly express his or her physical condition using the robot.

[第2実施形態]
次に本発明の第2実施形態に係る情報処理システム200について、図2を用いて説明する。図2は、本実施形態に係る情報処理システム200の全体的な処理の概要を説明するための図である。
[Second embodiment]
Next, an information processing system 200 according to a second embodiment of the present invention will be explained using FIG. FIG. 2 is a diagram for explaining an outline of overall processing of the information processing system 200 according to this embodiment.

情報処理システム200は、表示部211を有するスマートフォン201と、サーバ202と、ぬいぐるみ型のぬいぐるみ型ロボット203とを備える。 The information processing system 200 includes a smartphone 201 having a display unit 211 , a server 202 , and a stuffed toy robot 203 .

ます、スマートフォン201を用いて専用のアプリケーション212を起動し、専用アプリ212のユーザアカウントと、ぬいぐるみ型ロボット203とを一対一に対応させる。 First, the dedicated application 212 is activated using the smartphone 201, and the user account of the dedicated application 212 and the stuffed toy robot 203 are associated one-to-one.

次に、ユーザ210が、そのユーザアカウントから体調情報213を入力する。入力された体調情報は専用アプリ212によってサーバ202に送られる。サーバ202は、取得した体調情報をデータベース221に格納する。 User 210 then enters physical condition information 213 from the user account. The input physical condition information is sent to the server 202 by the dedicated application 212 . The server 202 stores the acquired physical condition information in the database 221 .

例えば、以下のようにユーザに対して報知することにより体調情報213の入力を促してもよい。
・朝昼夜の決まった時間に体調情報入力を促すアラートを出す。
・他人から連絡をもらうアプリケーションに着信通知が来ているのに一定時間アプリケーションを起動しないときに体調情報入力を促すアラートを出す。
・0時~4時のような深夜の時間帯に一定時間以上スマートフォンの操作をしているときに体調情報入力を促すアラートを出す。
For example, the user may be prompted to enter the physical condition information 213 by notifying the user as follows.
- Issue an alert prompting you to enter your physical condition information at a fixed time in the morning, day and night.
・An alert prompting you to enter your physical condition information is displayed when the application does not start for a certain period of time even though there is an incoming call notification to the application that receives contact from others.
・An alert prompting you to enter your physical condition information is issued when you are operating your smartphone for a certain period of time during the late night hours, such as 0:00 to 4:00.

ぬいぐるみ型ロボット203は、ユーザ210の体調に合わせた動作を行うように、サーバ202から定期的にコマンド222を受信し、受信したコマンドに応じたポーズや表情を実行する。これにより、ぬいぐるみ型ロボット203を見た、ユーザ210の家族が、ユーザ210の健康状態を察することができる。 The plush toy robot 203 periodically receives commands 222 from the server 202 and performs poses and facial expressions according to the received commands so as to perform actions in accordance with the physical condition of the user 210 . As a result, the user's 210 family members who see the stuffed toy robot 203 can guess the health condition of the user 210 .

図3は、本実施形態に係る情報処理システム200の全体的な処理の概要を説明するための他の図である。 FIG. 3 is another diagram for explaining the outline of the overall processing of the information processing system 200 according to this embodiment.

ぬいぐるみ型ロボット203は、設けられたセンサによって検出したタッチ情報231を、サーバ202に随時送信する。つまり、ユーザ210の家族などがぬいぐるみ型ロボット203をなでると、なでられたという情報がサーバ202に飛ぶ。サーバ202は、タッチ情報231をデータベース221に格納し、タッチ情報231に基づいた報知をユーザ210に行うようにスマートフォン201を制御する。 The plush toy robot 203 transmits touch information 231 detected by the provided sensor to the server 202 at any time. That is, when a family member of the user 210 or the like strokes the stuffed toy robot 203 , information about the stroke is sent to the server 202 . The server 202 stores the touch information 231 in the database 221 and controls the smartphone 201 to notify the user 210 based on the touch information 231 .

図4は、本実施形態にかかる情報処理装置としてのサーバ202の構成を示す図である。サーバ202は、端末制御部421とユーザ情報取得部422とコマンド送信部423とロボット情報取得部424とを備えている。端末制御部(表示制御部)421は、スマートフォン201のユーザ210の状態を問い合わせる問い合わせ画像を表示部211に表示させる。また、端末制御部421はさらに、タッチ情報231に基づいた報知をユーザ210に行うようにスマートフォン201を制御する。つまり、アプリ212を通じて、ぬいぐるみ型ロボット203がいたわられたことを、ユーザに通知する。ユーザ情報取得部422は、表示部211に表示された問い合わせ画像に対してユーザが行った回答を取得する。コマンド送信部423は、ユーザ情報取得部422で取得した回答に応じたコマンドをぬいぐるみ型ロボット203に送り、ぬいぐるみ型ロボット203を動作させる。 FIG. 4 is a diagram showing the configuration of the server 202 as an information processing apparatus according to this embodiment. The server 202 includes a terminal control section 421 , a user information acquisition section 422 , a command transmission section 423 and a robot information acquisition section 424 . The terminal control unit (display control unit) 421 causes the display unit 211 to display an inquiry image for inquiring about the state of the user 210 of the smartphone 201 . Moreover, the terminal control unit 421 further controls the smartphone 201 to notify the user 210 based on the touch information 231 . In other words, the application 212 notifies the user that the stuffed toy robot 203 has been cared for. The user information acquisition unit 422 acquires the user's response to the inquiry image displayed on the display unit 211 . The command transmission unit 423 transmits a command according to the answer acquired by the user information acquisition unit 422 to the stuffed toy robot 203 to operate the stuffed toy robot 203 .

具体的には、図5に示すように、スマートフォン201の画面にぬいぐるみ型ロボット203に対応するキャラクタ画像521を問い合わせ画像として表示させ、ユーザ210によるタッチ操作やドラッグ操作などで、キャラクタ画像521を動かす。 Specifically, as shown in FIG. 5, a character image 521 corresponding to the stuffed toy robot 203 is displayed on the screen of the smartphone 201 as an inquiry image, and the user 210 moves the character image 521 by touch operation, drag operation, or the like. .

ユーザ情報取得部422は、キャラクタ画像521に対してユーザ210が行った操作を体調情報として取得し、コマンド送信部423は、取得した操作に対応するコマンドをぬいぐるみ型ロボット203に送る。 The user information acquisition unit 422 acquires the operation performed by the user 210 on the character image 521 as physical condition information, and the command transmission unit 423 transmits a command corresponding to the acquired operation to the stuffed toy robot 203 .

例えば、ユーザ210の気分や体調がよいときには、キャラクタ画像の腕をぐるぐるしてもらう。するとスマートフォン201の入力内容に連動してぬいぐるみ型ロボット203の腕が上がり、目がぱっちりと開く。これにより、ぬいぐるみ型ロボット203の近くにいる、ユーザ210の家族501は、ユーザ210の具合が良さそうだなと感じることができる。 For example, when the user 210 is in a good mood or in good physical condition, the arm of the character image is twirled. Then, in conjunction with the input content of the smartphone 201, the arms of the stuffed toy robot 203 are raised, and the eyes are wide open. As a result, the family members 501 of the user 210 who are near the stuffed toy robot 203 can sense that the user 210 seems to be feeling well.

一方で、例えば、ユーザ210の体調が悪い時、気分が重いときには、キャラクタ画像を何度もタップしたり、長押ししたりしてもらう。するとスマートフォン201の入力内容に連動してぬいぐるみ型ロボット203の腕や耳が下がり、目が閉じる。これにより、ぬいぐるみ型ロボット203の近くにいるユーザ210の家族501は、ユーザ210の具合が悪そうだなと感じることができる。 On the other hand, for example, when the user 210 is in poor physical condition or feels heavy, the character image is repeatedly tapped or long-pressed. Then, the stuffed toy robot 203 lowers its arms and ears and closes its eyes in conjunction with the input contents of the smartphone 201 . As a result, the family members 501 of the user 210 near the stuffed toy robot 203 can feel that the user 210 seems unwell.

ロボット情報取得部424は、ぬいぐるみ型ロボット203に設けられたセンサによって検出したタッチ情報231を、ロボットから取得する。そして端末制御部421は、タッチ情報に基づいた報知601をスマートフォン201のユーザ210に行うように、スマートフォン201を制御する(図6)。 The robot information acquisition unit 424 acquires the touch information 231 detected by the sensor provided on the stuffed toy robot 203 from the robot. Then, the terminal control unit 421 controls the smartphone 201 so as to perform notification 601 based on the touch information to the user 210 of the smartphone 201 (FIG. 6).

図7、図8は、サーバ202の処理の流れを示すフローチャートである。図9は、アプリケーション212で取得するデータのリストである。ここでは、アプリケーション212は、例として癌患者の体調モニタリングに特化したアプリケーションである。 7 and 8 are flowcharts showing the processing flow of the server 202. FIG. FIG. 9 is a list of data acquired by application 212 . Here, the application 212 is, for example, an application specialized for monitoring the physical condition of cancer patients.

まず、アプリケーション212の初回起動時には、ステップS701において、ぬいぐるみID(図9の項目1)を入力して、データベース221から取得した日時(図9の項目2)とアプリケーション212のID(ユーザアカウント)と紐付けて、データベース221に格納する。これにより、アプリケーション212とぬいぐるみ型ロボット203との対応付けが行われる。次に、ユーザ属性情報(図9の項目3~6)を取得する(ステップS702)。具体的には、ユーザの生年月日、性別、がんの種類、がんの進行具合(ステージ)などを入力する。がんの種類としては、癌腫として、胃がん、陰茎がん、各骨軟部腫瘍、肝臓がん、甲状腺がん、後腹膜腫瘍、骨転移、子宮がん、食道がん、腎がん、腎盂尿管がん、膵臓がん、精巣がん、前立腺がん、大腸がん、胆道がん、頭頸部がん、乳がん、肺がん、皮膚がん、副腎がん、膀胱がん、卵巣がんが挙げられる。肉腫としては、骨肉腫、軟骨肉腫、横紋筋肉腫、平滑筋肉腫、線維肉腫、脂肪肉腫、血管肉腫などが挙げられる。さらに血液がんとしては、白血病、悪性リンパ腫、骨髄腫などが挙げられる。がんのステージは、がんの大きさ(広がり)、リンパ節への転移の有無、他の臓器への転移、という3つの要素に応じて、ステージ0期からIV期まで5段階で評価される。ステージIVが最も進行している(悪化した)状態である。
つまり、ユーザ情報取得部422は、スマートフォン201から、ユーザの生年月日、性別、疾病または障害の少なくともいずれか一つをユーザ属性として取得し、コマンド送信部423は、ユーザ属性に応じたコマンドをぬいぐるみ型ロボット203に送る。
First, when the application 212 is started for the first time, in step S701, the stuffed toy ID (item 1 in FIG. 9) is entered, and the date and time (item 2 in FIG. 9) obtained from the database 221 and the ID (user account) of the application 212 are entered. It is linked and stored in the database 221 . As a result, the application 212 and the stuffed toy robot 203 are associated with each other. Next, user attribute information (items 3 to 6 in FIG. 9) is acquired (step S702). Specifically, the user's date of birth, sex, cancer type, cancer progress (stage), and the like are input. Cancer types include gastric cancer, penile cancer, various bone and soft tissue tumors, liver cancer, thyroid cancer, retroperitoneal tumor, bone metastasis, uterine cancer, esophageal cancer, kidney cancer, and renal pelvis. Ductal cancer, pancreatic cancer, testicular cancer, prostate cancer, colorectal cancer, biliary tract cancer, head and neck cancer, breast cancer, lung cancer, skin cancer, adrenal cancer, bladder cancer, and ovarian cancer. be done. Sarcomas include osteosarcoma, chondrosarcoma, rhabdomyosarcoma, leiomyosarcoma, fibrosarcoma, liposarcoma, and angiosarcoma. Furthermore, hematologic cancers include leukemia, malignant lymphoma, and myeloma. The stage of cancer is evaluated in five stages from stage 0 to stage IV according to three factors: size (spread) of cancer, presence or absence of metastasis to lymph nodes, and metastasis to other organs. be. Stage IV is the most advanced (worse) condition.
That is, the user information acquisition unit 422 acquires at least one of the user's date of birth, sex, disease, or disability from the smartphone 201 as a user attribute, and the command transmission unit 423 transmits a command according to the user attribute. It is sent to the plush toy type robot 203 .

ここでは、かん患者がユーザの場合を例にしているが、本発明はこれに限定されるものではなく、例えば、コロナウィルスなどの感染症や、HIV (Human Immunodeficiency Virus)などの疾病を罹患した患者に特化したアプリケーション構成でもよい。あるいは、事故などで障害を有するユーザ向けのアプリケーション構成でもよい。特に、家族がユーザのそばにいることができない感染症の患者や、ろうあ者のように体調や感情が表現しにくいユーザなどについては、本願発明が非常に効果的である。 Here, the user is a leprosy patient, but the present invention is not limited to this. An application configuration specific to a patient may be used. Alternatively, it may be an application configuration for a user who has a disability due to an accident or the like. In particular, the present invention is very effective for patients with infectious diseases whose family members cannot be near the user, and users such as deaf people who find it difficult to express their physical condition and emotions.

ステップS703では、連携する他のアプリケーションの設定を行う。具体的には、図9の項目9~19にあるように、万歩計(登録商標)のようなアプリケーション、睡眠時間を検知するアプリケーション、スマートフォンの使用状況を調べるアプリケーション、音楽再生アプリケーション、位置情報検出アプリケーション、天気や気温などを調べるアプリケーションと連携させて歩行量などの各種の情報を取得することができる。その他、心理テストを行うアプリケーションや、心理状態を把握できるゲームと連携させてもよい。 In step S703, other applications to be linked are set. Specifically, as shown in items 9 to 19 in FIG. 9, an application such as a pedometer (registered trademark), an application that detects sleep time, an application that checks the usage status of a smartphone, a music playback application, and location information. Various information such as the amount of walking can be acquired by linking with a detection application and an application that checks the weather and temperature. In addition, it may be linked with an application that conducts a psychological test or a game that can grasp the psychological state.

図8は、アプリケーション212の2回目以降の起動時の処理の流れを示すフローチャートである。ステップS801において、端末制御部421は、まず、今の気分(体調)の入力画面(図5)をスマートフォン201の画面に表示させる。この状態で入力があれば、ステップS802からステップS803に進み、コマンド送信部423は、取得した体調情報に基づいてコマンドを生成しぬいぐるみ型ロボット203に送信する。 FIG. 8 is a flow chart showing the flow of processing when the application 212 is started for the second time or later. In step S<b>801 , the terminal control unit 421 first displays a current mood (physical condition) input screen ( FIG. 5 ) on the screen of the smartphone 201 . If there is an input in this state, the process proceeds from step S802 to step S803, and the command transmission unit 423 generates a command based on the acquired physical condition information and transmits the command to the plush toy robot 203. FIG.

今の気分の入力画面に対して一定期間(例えば3日間)入力がなければ、ステップS804からステップS805に進み、端末制御部421は、心理テスト(図10)を表示部211に表示させる。入力があれば、ステップS806からステップS803に進み、ユーザ情報取得部422は、心理テストの結果をスマートフォン201から取得し、コマンド送信部423は、心理テストの結果に応じたコマンドをロボットに送る。 If there is no input on the current mood input screen for a certain period of time (for example, three days), the process proceeds from step S804 to step S805, and the terminal control unit 421 causes the display unit 211 to display the psychological test (FIG. 10). If there is an input, the process proceeds from step S806 to step S803, the user information acquisition unit 422 acquires the psychological test result from the smartphone 201, and the command transmission unit 423 transmits a command according to the psychological test result to the robot.

さらに、心理テストに対して一定期間入力がなければ、ステップS806からステップS807を経てステップS808に進み、ユーザ情報取得部422は、他の連携アプリケーションからユーザの体調や気分に関する情報を取得する。 Further, if there is no input for the psychological test for a certain period of time, the process proceeds from step S806 to step S807 to step S808, and the user information acquisition unit 422 acquires information on the physical condition and mood of the user from another cooperative application.

具体的には、ユーザ情報取得部422は、ユーザが直接入力する体調情報の代わりに、ユーザの運動量(例えば歩行量)、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得する(図11)。 Specifically, instead of the physical condition information directly input by the user, the user information acquisition unit 422 obtains the user's exercise amount (for example, walking amount), sleep time, terminal browsing time period, terminal browsing length, terminal browsing site tendency, At least one of the content of transmission by the terminal, the content of music played back by the terminal, the terminal location information, the climate, and the temperature is acquired as the user environment information (FIG. 11).

そしてステップS803に進み、コマンド送信部423は、ユーザ環境情報に応じたコマンドをロボットに送る。 Then, proceeding to step S803, the command transmission unit 423 transmits a command corresponding to the user environment information to the robot.

このように処理することにより、もし専用アプリ212の入力や心理テスト結果の入力が途絶えても、あらかじめ蓄積しておいた他アプリやブラウザから取得したデータを元に、ユーザの体調、心理状態を予測し、ぬいぐるみの動きを制御することができる。 By processing in this way, even if the input of the dedicated application 212 or the input of the psychological test result is interrupted, the user's physical and mental condition can be detected based on the data acquired from other applications and browsers that have been accumulated in advance. Able to predict and control the movement of stuffed animals.

このように、ユーザの環境情報と、ユーザが直接入力した体調情報とを大量に蓄積することにより、季節、天気、気温、薬などと、体調、感情との相関を機械学習して、環境情報から体調情報を高精度に推定できるようになる。 In this way, by accumulating a large amount of user's environmental information and physical condition information directly input by the user, machine learning can be performed on the correlation between season, weather, temperature, medicine, etc., and physical condition and emotion, and environmental information can be obtained. It becomes possible to estimate the physical condition information with high accuracy from the

以上、本実施形態によれば、ユーザは、ロボットを用いて間接的に自らの体調を表現することが可能となる。 As described above, according to the present embodiment, the user can indirectly express his or her physical condition using the robot.

[他の実施形態]
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の技術的範囲で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の技術的範囲に含まれる。
[Other embodiments]
Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the technical scope of the present invention. Also, any system or apparatus that combines separate features included in each embodiment is included in the technical scope of the present invention.

また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する情報処理プログラムが、システムあるいは装置に供給され、内蔵されたプロセッサによって実行される場合にも適用可能である。本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるサーバも、プログラムを実行するプロセッサも本発明の技術的範囲に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の技術的範囲に含まれる。 Further, the present invention may be applied to a system composed of a plurality of devices, or may be applied to a single device. Furthermore, the present invention can also be applied when an information processing program that implements the functions of the embodiments is supplied to a system or apparatus and executed by a built-in processor. In order to realize the functions of the present invention on a computer, the technical scope of the present invention includes a program installed in a computer, a medium storing the program, a server for downloading the program, and a processor executing the program. . In particular, non-transitory computer readable media storing programs that cause a computer to perform at least the processing steps included in the above-described embodiments are within the scope of the present invention.

Claims (10)

表示部を備えた情報処理端末と、ロボットとの間で、ネットワークを介して通信を行う情報処理装置であって、
前記情報処理端末から、ユーザの体調情報を取得するユーザ情報取得部と、
前記ロボットが前記ユーザの体調に合わせた動作を行うように、前記ロボットに前記体調情報に応じたコマンドを送るコマンド送信部と、
前記情報処理端末のユーザの状態を問い合わせる問い合わせ画像を前記表示部に表示させる表示制御部と、
を備え、
前記問い合わせ画像に対する回答が一定期間ない場合に、心理テストを前記表示部に表示させ、
前記心理テストに対する回答が一定期間ない場合に、前記ユーザ情報取得部は、前記情報処理端末から、ユーザの歩行量、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得し、
前記コマンド送信部は、前記ユーザ環境情報に応じたコマンドを前記ロボットに送る情報処理装置。
An information processing device that performs communication via a network between an information processing terminal having a display unit and a robot,
A user information acquisition unit that acquires physical condition information of a user from the information processing terminal;
a command transmission unit that transmits a command corresponding to the physical condition information to the robot so that the robot performs an action that matches the physical condition of the user;
a display control unit that causes the display unit to display an inquiry image for inquiring about the state of the user of the information processing terminal;
with
displaying a psychological test on the display unit when there is no response to the inquiry image for a certain period of time;
When there is no response to the psychological test for a certain period of time, the user information acquisition unit receives from the information processing terminal the amount of walking of the user, sleep time, terminal browsing time zone, terminal browsing length, terminal browsing site tendency, terminal Acquiring at least one of transmission content, music content played by the terminal, terminal location information, climate, and temperature as user environment information,
The command transmission unit is an information processing device that transmits a command corresponding to the user environment information to the robot.
前記ロボットに設けられたセンサによって検出したタッチ情報を、前記ロボットから取得するロボット情報取得部と、
前記タッチ情報に基づいた報知を前記情報処理端末のユーザに行うように、前記情報処理端末を制御する端末制御部と、
をさらに備えた請求項1に記載の情報処理装置。
a robot information acquisition unit that acquires from the robot touch information detected by a sensor provided on the robot;
a terminal control unit that controls the information processing terminal so as to notify a user of the information processing terminal based on the touch information;
The information processing apparatus according to claim 1, further comprising:
前記情報処理端末のユーザの状態を問い合わせる問い合わせ画像を前記表示部に表示させる表示制御部をさらに備え、
前記ユーザ情報取得部は、前記情報処理端末に表示された前記問い合わせ画像に対してユーザが行った回答を取得し、
前記コマンド送信部は、前記ユーザ情報取得部で取得した前記回答に応じたコマンドを前記ロボットに送る請求項1または2に記載の情報処理装置。
further comprising a display control unit that causes the display unit to display an inquiry image for inquiring about the state of the user of the information processing terminal,
The user information acquisition unit acquires an answer given by a user to the inquiry image displayed on the information processing terminal,
3. The information processing apparatus according to claim 1, wherein the command transmission unit transmits to the robot a command according to the answer acquired by the user information acquisition unit.
前記ロボットを表す画像を前記表示部に表示させる表示制御部を更に備え、
前記ユーザ情報取得部は、前記情報処理端末に表示された前記ロボットの画像に対してユーザが行った操作を前記体調情報として取得し、
前記コマンド送信部は、前記操作に応じたコマンドを前記ロボットに送る請求項1、2または3に記載の情報処理装置。
further comprising a display control unit for displaying an image representing the robot on the display unit;
The user information acquisition unit acquires, as the physical condition information, an operation performed by a user on the image of the robot displayed on the information processing terminal,
4. The information processing apparatus according to claim 1, wherein the command transmission unit transmits a command corresponding to the operation to the robot.
前記ユーザ情報取得部は、前記情報処理端末から、ユーザの生年月日、性別、疾病または障害の少なくともいずれか一つをユーザ属性として取得し、
前記コマンド送信部は、前記ユーザ属性に応じたコマンドを前記ロボットに送る請求項1~4のいずれか1項に記載の情報処理装置。
The user information acquisition unit acquires at least one of a user's date of birth, gender, illness or disability from the information processing terminal as a user attribute,
5. The information processing apparatus according to any one of claims 1 to 4, wherein said command transmission unit transmits a command corresponding to said user attribute to said robot.
心理テストを前記表示部に表示させる表示制御部を更に備え、
前記ユーザ情報取得部は、前記心理テストの結果を前記情報処理端末から取得し、
前記コマンド送信部は、前記心理テストの結果に応じたコマンドを前記ロボットに送る請求項1~5のいずれか1項に記載の情報処理装置。
Further comprising a display control unit for displaying a psychological test on the display unit,
The user information acquisition unit acquires a result of the psychological test from the information processing terminal,
6. The information processing apparatus according to any one of claims 1 to 5, wherein said command transmission unit transmits a command according to the result of said psychological test to said robot.
前記ユーザ情報取得部は、前記情報処理端末から、ユーザの運動量、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得し、
前記コマンド送信部は、前記ユーザ環境情報に応じたコマンドを前記ロボットに送る請求項1~6のいずれか1項に記載の情報処理装置。
The user information acquisition unit obtains, from the information processing terminal, a user's exercise amount, sleep time, terminal browsing time zone, terminal browsing length, terminal browsing site tendency, content transmitted by the terminal, content of music played by the terminal, terminal location Acquiring at least one of information, climate, and temperature as user environment information,
7. The information processing apparatus according to any one of claims 1 to 6, wherein said command transmission unit transmits a command corresponding to said user environment information to said robot.
表示部を備えた情報処理端末と、ロボットとをネットワークを介して制御する情報処理方法であって、
ユーザ情報取得部が、前記情報処理端末から、ユーザの体調情報を取得するユーザ情報取得ステップと、
コマンド送信部が、前記ロボットが前記ユーザの体調に合わせた動作を行うように、前記ロボットに前記体調情報に応じたコマンドを送るコマンド送信ステップと、
表示制御部が、前記情報処理端末のユーザの状態を問い合わせる問い合わせ画像を前記表示部に表示させる表示制御ステップと、
含み、
前記問い合わせ画像に対する回答が一定期間ない場合に、心理テストを前記表示部に表示させ、
前記心理テストに対する回答が一定期間ない場合に、前記ユーザ情報取得ステップでは、前記情報処理端末から、ユーザの歩行量、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得し、
前記コマンド送信ステップにおいて、前記コマンド送信部が、前記ユーザ環境情報に応じたコマンドを前記ロボットに送る情報処理方法。
An information processing method for controlling an information processing terminal having a display unit and a robot via a network,
A user information acquisition step in which the user information acquisition unit acquires physical condition information of the user from the information processing terminal;
a command transmission step in which a command transmission unit transmits a command corresponding to the physical condition information to the robot so that the robot performs an action in accordance with the physical condition of the user;
a display control step in which a display control unit causes the display unit to display an inquiry image for inquiring about the state of a user of the information processing terminal;
including
displaying a psychological test on the display unit when there is no response to the inquiry image for a certain period of time;
If there is no answer to the psychological test for a certain period of time, in the user information acquisition step, from the information processing terminal, the user's walking amount, sleep time, terminal browsing time zone, terminal browsing length, terminal browsing site tendency, terminal Acquiring at least one of transmission content, music content played by the terminal, terminal location information, climate, and temperature as user environment information,
The information processing method, wherein in the command transmission step, the command transmission unit transmits a command corresponding to the user environment information to the robot.
表示部を備えた情報処理端末と、ロボットとをネットワークを介して制御する情報処理プログラムであって、
前記情報処理端末から、ユーザの体調情報を取得するユーザ情報取得ステップと、
前記ロボットが前記ユーザの体調に合わせた動作を行うように、前記ロボットに前記体調情報に応じたコマンドを送るコマンド送信ステップと、
前記情報処理端末のユーザの状態を問い合わせる問い合わせ画像を前記表示部に表示させる表示制御ステップと、
をコンピュータに実行させる情報処理プログラムであって、
前記問い合わせ画像に対する回答が一定期間ない場合に、心理テストを前記表示部に表示させ、
前記心理テストに対する回答が一定期間ない場合に、前記ユーザ情報取得ステップでは、前記情報処理端末から、ユーザの歩行量、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得し、
前記コマンド送信ステップにおいて、前記ユーザ環境情報に応じたコマンドを前記ロボットに送る情報処理プログラム。
An information processing program for controlling an information processing terminal having a display unit and a robot via a network,
a user information acquisition step of acquiring physical condition information of a user from the information processing terminal;
a command transmission step of sending a command corresponding to the physical condition information to the robot so that the robot performs an action in accordance with the physical condition of the user;
a display control step of causing the display unit to display an inquiry image for inquiring about the state of the user of the information processing terminal;
An information processing program that causes a computer to execute
displaying a psychological test on the display unit when there is no response to the inquiry image for a certain period of time;
If there is no answer to the psychological test for a certain period of time, in the user information acquisition step, from the information processing terminal, the user's walking amount, sleep time, terminal browsing time zone, terminal browsing length, terminal browsing site tendency, terminal Acquiring at least one of transmission content, music content played by the terminal, terminal location information, climate, and temperature as user environment information,
An information processing program for sending a command corresponding to the user environment information to the robot in the command sending step.
表示部を備えた情報処理端末と、ロボットと、情報処理装置とを含む情報処理システムであって、
前記情報処理端末は、ユーザの体調情報を取得するユーザ情報取得アプリケーションを備え、
前記情報処理装置は、前記ロボットが前記ユーザの体調に合わせた動作を行うように、前記ロボットに前記体調情報に応じたコマンドを送るコマンド送信部を備え、
前記情報処理端末のユーザの状態を問い合わせる問い合わせ画像を前記表示部に表示させる表示制御部と、
を備え、
前記問い合わせ画像に対する回答が一定期間ない場合に、心理テストを前記表示部に表示させ、
前記心理テストに対する回答が一定期間ない場合に、前記情報処理端末から、ユーザの歩行量、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得し、
前記コマンド送信部は、前記ユーザ環境情報に応じたコマンドを前記ロボットに送り、
前記ロボットは、前記コマンド送信部から送られてきたコマンドに応じた動作を行う動作機構を備えた情報処理システム。
An information processing system including an information processing terminal having a display unit, a robot, and an information processing device,
The information processing terminal includes a user information acquisition application that acquires physical condition information of the user,
The information processing device includes a command transmission unit that transmits a command corresponding to the physical condition information to the robot so that the robot performs an action that matches the user's physical condition,
a display control unit that causes the display unit to display an inquiry image for inquiring about the state of the user of the information processing terminal;
with
displaying a psychological test on the display unit when there is no response to the inquiry image for a certain period of time;
When there is no response to the psychological test for a certain period of time, the information processing terminal provides the user's walking distance, sleep time, terminal browsing time period, terminal browsing length, terminal browsing site tendency, content transmitted by the terminal, reproduced by the terminal. acquire at least one of the music content, terminal location information, climate, and temperature as user environment information,
The command transmission unit transmits a command corresponding to the user environment information to the robot,
The information processing system, wherein the robot has an operation mechanism that performs an operation according to a command sent from the command transmission unit.
JP2021184900A 2021-11-12 2021-11-12 Information processing device, information processing method, information processing program and information processing system Active JP7121848B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021184900A JP7121848B1 (en) 2021-11-12 2021-11-12 Information processing device, information processing method, information processing program and information processing system
JP2022125840A JP2023072649A (en) 2021-11-12 2022-08-05 Information processing device, information processing method, information processing program, and application program
PCT/JP2022/031878 WO2023084866A1 (en) 2021-11-12 2022-08-24 Information processing device, information processing method, information processing program, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021184900A JP7121848B1 (en) 2021-11-12 2021-11-12 Information processing device, information processing method, information processing program and information processing system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022125840A Division JP2023072649A (en) 2021-11-12 2022-08-05 Information processing device, information processing method, information processing program, and application program

Publications (2)

Publication Number Publication Date
JP7121848B1 true JP7121848B1 (en) 2022-08-18
JP2023072378A JP2023072378A (en) 2023-05-24

Family

ID=82898002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021184900A Active JP7121848B1 (en) 2021-11-12 2021-11-12 Information processing device, information processing method, information processing program and information processing system

Country Status (1)

Country Link
JP (1) JP7121848B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7270320B1 (en) * 2023-01-17 2023-05-10 クラシエホールディングス株式会社 Information processing system, information processing device, information processing method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102651837B1 (en) * 2023-11-30 2024-03-27 신동호 Artificial intelligence robot dog control method based on user information

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006110340A (en) 2004-10-12 2006-04-27 Samsung Electronics Co Ltd Method and apparatus for producing avatar image according to health condition
JP2015517689A (en) 2012-05-16 2015-06-22 エイジ オブ ラーニング,インク. Interactive learning path for e-learning systems
JP2016162001A (en) 2015-02-26 2016-09-05 Kddi株式会社 Task support device and task support program
US20160358276A1 (en) 2009-02-25 2016-12-08 Humana Inc. System and method for improving healthcare through social robotics
JP2019066931A (en) 2017-09-28 2019-04-25 浩 松平 Interactive health promotion system
WO2019082687A1 (en) 2017-10-27 2019-05-02 ソニー株式会社 Information processing device, information processing method, program, and information processing system
JP2019160033A (en) 2018-03-15 2019-09-19 花王株式会社 Display controller and program
WO2020116233A1 (en) 2018-12-07 2020-06-11 ソニー株式会社 Information processing device, information processing method, and program
JP2020170518A (en) 2015-05-01 2020-10-15 ソニー株式会社 Information processing system and control method
JP2021058982A (en) 2019-10-09 2021-04-15 Telexistence株式会社 Robot, robot control device, and robot control method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006110340A (en) 2004-10-12 2006-04-27 Samsung Electronics Co Ltd Method and apparatus for producing avatar image according to health condition
US20160358276A1 (en) 2009-02-25 2016-12-08 Humana Inc. System and method for improving healthcare through social robotics
JP2015517689A (en) 2012-05-16 2015-06-22 エイジ オブ ラーニング,インク. Interactive learning path for e-learning systems
JP2016162001A (en) 2015-02-26 2016-09-05 Kddi株式会社 Task support device and task support program
JP2020170518A (en) 2015-05-01 2020-10-15 ソニー株式会社 Information processing system and control method
JP2019066931A (en) 2017-09-28 2019-04-25 浩 松平 Interactive health promotion system
WO2019082687A1 (en) 2017-10-27 2019-05-02 ソニー株式会社 Information processing device, information processing method, program, and information processing system
JP2019160033A (en) 2018-03-15 2019-09-19 花王株式会社 Display controller and program
WO2020116233A1 (en) 2018-12-07 2020-06-11 ソニー株式会社 Information processing device, information processing method, and program
JP2021058982A (en) 2019-10-09 2021-04-15 Telexistence株式会社 Robot, robot control device, and robot control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7270320B1 (en) * 2023-01-17 2023-05-10 クラシエホールディングス株式会社 Information processing system, information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2023072378A (en) 2023-05-24

Similar Documents

Publication Publication Date Title
JP7121848B1 (en) Information processing device, information processing method, information processing program and information processing system
CN105981083B (en) Intelligent wearable device and for optimize output method
CN109804389A (en) Emotional state is extracted from device data
CN103366323B (en) Execute the user terminal apparatus and system and method for customized health control
CN102986201B (en) User interfaces
Perez-Marcos et al. A fully immersive set-up for remote interaction and neurorehabilitation based on virtual body ownership
JP2017126337A (en) Systems and methods for haptically enabled neural interfaces
JP7010000B2 (en) Information processing equipment and programs
Helms Do you have to pee? A design space for intimate and somatic data
WO2005016147A1 (en) Information processing terminal and communication system
JP2021506052A (en) Communication methods and systems
US20200275875A1 (en) Method for deriving and storing emotional conditions of humans
KR20150112423A (en) Virutal hospital system, method for generating virutal hospital and apparatus for performing the method, method for providing medical service
US20190149490A1 (en) Information processing apparatus and non-transitory computer readable medium
Zhang et al. Touch without touching: Overcoming social distancing in semi-intimate relationships with sanstouch
Pomboza-Junez et al. Toward the gestural interface: comparative analysis between touch user interfaces versus gesture-based user interfaces on mobile devices
Lisowska et al. From Personalized Timely Notification to Healthy Habit Formation: a Feasibility Study of Reinforcement Learning Approaches on Synthetic Data.
Hänsel et al. Wearable computing for health and fitness: exploring the relationship between data and human behaviour
JP2021090668A (en) Information processing device and program
Zhu et al. Understanding the effect of speed on human emotion perception in mediated social touch using voice coil actuators
WO2023084866A1 (en) Information processing device, information processing method, information processing program, and information processing system
Olugbade et al. Touch technology in affective human–, robot–, and virtual–human interactions: A survey
McDaniel et al. Therapeutic haptics for mental health and wellbeing
Jafar et al. Literature review on assistive devices available for quadriplegic people: Indian context
JP2021189674A (en) Computer program, server device, terminal device, and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211112

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220805

R150 Certificate of patent or registration of utility model

Ref document number: 7121848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150