JP2023072649A - Information processing device, information processing method, information processing program, and application program - Google Patents

Information processing device, information processing method, information processing program, and application program Download PDF

Info

Publication number
JP2023072649A
JP2023072649A JP2022125840A JP2022125840A JP2023072649A JP 2023072649 A JP2023072649 A JP 2023072649A JP 2022125840 A JP2022125840 A JP 2022125840A JP 2022125840 A JP2022125840 A JP 2022125840A JP 2023072649 A JP2023072649 A JP 2023072649A
Authority
JP
Japan
Prior art keywords
user
terminal
information
information processing
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022125840A
Other languages
Japanese (ja)
Inventor
是裕 今西
Yukihiro Imanishi
颯 小野
So Ono
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eucalia Inc
Original Assignee
Eucalia Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021184900A external-priority patent/JP7121848B1/en
Application filed by Eucalia Inc filed Critical Eucalia Inc
Priority to JP2022125840A priority Critical patent/JP2023072649A/en
Priority to PCT/JP2022/031878 priority patent/WO2023084866A1/en
Publication of JP2023072649A publication Critical patent/JP2023072649A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device, method, and program, and an application program that indirectly express a user's physical condition using a robot.
SOLUTION: An information processing device includes: a user information acquisition unit that acquires a user's physical condition information from an information processing terminal 110; a command transmission unit that transmits a command corresponding to the physical condition information to a robot 120 such that the robot performs actions corresponding to the user's physical condition; and a display control unit that displays an inquiry image on a display unit to inquire about the user's status of the information processing terminal. The user information acquisition unit, when there is no response to the inquiry image for a certain period, acquires, from the information processing terminal, as user environment information, at least one of the user's exercise amount, sleep duration, terminal browsing time band, terminal browsing length, terminal browsing site tendency, contents transmitted by the terminal, music contents played by the terminal, terminal location information, climate, and temperature. The command transmission unit transmits a command corresponding to the user environment information to the robot.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、情報処理装置、情報処理方法、情報処理プログラムおよびアプリケーションプログラムに関する。 The present invention relates to an information processing device, an information processing method, an information processing program, and an application program.

上記技術分野において、特許文献1には、アバターを用いてユーザの孤独感または不安等を和らげることが可能な情報処理装置が開示されている。 In the above technical field, Patent Literature 1 discloses an information processing apparatus capable of alleviating a user's sense of loneliness or anxiety using an avatar.

特開2020-201669号公報Japanese Patent Application Laid-Open No. 2020-201669

しかしながら、上記文献に記載の技術では、自己表現の苦手なユーザに対して、体調の表現を促すことができなかった。
本発明の目的は、上述の課題を解決する技術を提供することにある。
However, the technique described in the above document cannot prompt a user who is not good at self-expression to express his/her physical condition.
An object of the present invention is to provide a technique for solving the above problems.

上記目的を達成するため、本発明に係る装置は、
表示部を備えた情報処理端末と、ロボットとの間で、ネットワークを介して通信を行う情報処理装置であって、
前記情報処理端末から、ユーザの体調情報を取得するユーザ情報取得部と、
前記ロボットが前記ユーザの体調に合わせた動作を行うように、前記ロボットに前記体調情報に応じたコマンドを送るコマンド送信部と、
前記情報処理端末のユーザの状態を問い合わせる問い合わせ画像を前記表示部に表示させる表示制御部と、
を備え、
前記ユーザ情報取得部は、前記問い合わせ画像に対する回答が一定期間ない場合に、前記情報処理端末から、ユーザの運動量、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得し、
前記コマンド送信部は、前記ユーザ環境情報に応じたコマンドを前記ロボットに送る情報処理装置である。
To achieve the above object, the device according to the present invention comprises:
An information processing device that performs communication via a network between an information processing terminal having a display unit and a robot,
A user information acquisition unit that acquires physical condition information of a user from the information processing terminal;
a command transmission unit that transmits a command corresponding to the physical condition information to the robot so that the robot performs an action that matches the physical condition of the user;
a display control unit that causes the display unit to display an inquiry image for inquiring about the state of the user of the information processing terminal;
with
When there is no response to the inquiry image for a certain period of time, the user information acquisition unit obtains from the information processing terminal the user's exercise amount, sleep time, terminal browsing time zone, terminal browsing length, terminal browsing site tendency, transmission by the terminal acquiring at least one of content, music content played by the terminal, terminal location information, climate, and temperature as user environment information;
The command transmission unit is an information processing device that transmits a command corresponding to the user environment information to the robot.

上記目的を達成するため、本発明に係る方法は、
表示部を備えた情報処理端末と、ロボットとをネットワークを介して制御する情報処理方法であって、
ユーザ情報取得部が、前記情報処理端末から、ユーザの体調情報を取得するユーザ情報取得ステップと、
コマンド送信部が、前記ロボットが前記ユーザの体調に合わせた動作を行うように、前記ロボットに前記体調情報に応じたコマンドを送るコマンド送信ステップと、
表示制御部が、前記情報処理端末のユーザの状態を問い合わせる問い合わせ画像を前記表示部に表示させる表示制御ステップと、
含み、
前記問い合わせ画像に対する回答が一定期間ない場合に、前記ユーザ情報取得ステップでは、前記情報処理端末から、ユーザの運動量、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得し、
前記コマンド送信ステップにおいて、前記コマンド送信部が、前記ユーザ環境情報に応じたコマンドを前記ロボットに送る情報処理方法である。
In order to achieve the above object, the method according to the present invention comprises:
An information processing method for controlling an information processing terminal having a display unit and a robot via a network,
A user information acquisition step in which the user information acquisition unit acquires physical condition information of the user from the information processing terminal;
a command transmission step in which a command transmission unit transmits a command corresponding to the physical condition information to the robot so that the robot performs an action in accordance with the physical condition of the user;
a display control step in which a display control unit causes the display unit to display an inquiry image for inquiring about the state of a user of the information processing terminal;
including
If there is no response to the inquiry image for a certain period of time, in the user information acquisition step, from the information processing terminal, the user's exercise amount, sleep time, terminal browsing time period, terminal browsing length, terminal browsing site tendency, terminal transmission acquiring at least one of content, music content played by the terminal, terminal location information, climate, and temperature as user environment information;
In the command transmission step, the command transmission unit transmits a command corresponding to the user environment information to the robot.

上記目的を達成するため、本発明に係るプログラムは、
表示部を備えた情報処理端末と、ロボットとをネットワークを介して制御する情報処理プログラムであって、
前記情報処理端末から、ユーザの体調情報を取得するユーザ情報取得ステップと、
前記ロボットが前記ユーザの体調に合わせた動作を行うように、前記ロボットに前記体調情報に応じたコマンドを送るコマンド送信ステップと、
前記情報処理端末のユーザの状態を問い合わせる問い合わせ画像を前記表示部に表示させる表示制御ステップと、
をコンピュータに実行させる情報処理プログラムであって、
前記問い合わせ画像に対する回答が一定期間ない場合に、前記ユーザ情報取得ステップでは、前記情報処理端末から、ユーザの歩行量、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得し、
前記コマンド送信ステップにおいて、前記ユーザ環境情報に応じたコマンドを前記ロボットに送る情報処理プログラムである。
In order to achieve the above object, the program according to the present invention
An information processing program for controlling an information processing terminal having a display unit and a robot via a network,
a user information acquisition step of acquiring physical condition information of a user from the information processing terminal;
a command transmission step of sending a command corresponding to the physical condition information to the robot so that the robot performs an action in accordance with the physical condition of the user;
a display control step of causing the display unit to display an inquiry image for inquiring about the state of the user of the information processing terminal;
An information processing program that causes a computer to execute
When there is no response to the inquiry image for a certain period of time, in the user information acquisition step, from the information processing terminal, the user's walking amount, sleep time, terminal browsing time zone, terminal browsing length, terminal browsing site tendency, terminal Acquiring at least one of transmission content, music content played by the terminal, terminal location information, climate, and temperature as user environment information,
In the information processing program, in the command sending step, a command corresponding to the user environment information is sent to the robot.

上記目的を達成するため、本発明に係るプログラムは、
表示部を備えた情報処理端末で実行されるアプリケーションプログラムであって、
ユーザの体調を問い合わせる問い合わせ画像を前記表示部に表示させる表示ステップと、
前記問い合わせ画像に対する回答が一定期間ない場合に、前記ユーザの運動量、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得する取得ステップと、
前記問い合わせ画像に対する回答に応じた動作または、前記ユーザ環境情報に応じた動作をロボットが行うように、サーバに指示を行う指示ステップと、
を前記情報処理端末で実行させるアプリケーションプログラムである。
In order to achieve the above object, the program according to the present invention
An application program executed by an information processing terminal having a display,
a display step of displaying an inquiry image for inquiring about a user's physical condition on the display unit;
If there is no response to the inquiry image for a certain period of time, the user's exercise amount, sleep time, terminal browsing time period, terminal browsing length, terminal browsing site tendency, content sent by the terminal, music content played by the terminal, terminal location an acquisition step of acquiring at least one of information, climate, and temperature as user environment information;
an instruction step of instructing a server to cause the robot to perform an action corresponding to an answer to the inquiry image or an action corresponding to the user environment information;
is executed by the information processing terminal.

本発明によれば、ユーザは、ロボットを用いて間接的に自らの体調を表現することが可能となる。 According to the present invention, a user can indirectly express his physical condition using a robot.

第1実施形態に係る情報処理装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an information processing apparatus according to a first embodiment; FIG. 第2実施形態に係る情報処理システムの構成および作用を示す図である。It is a figure which shows the structure and effect|action of the information processing system which concerns on 2nd Embodiment. 第2実施形態に係る情報処理システムの構成および作用を示す図である。It is a figure which shows the structure and effect|action of the information processing system which concerns on 2nd Embodiment. 第2実施形態に係るサーバの内部構成および作用を示す図である。It is a figure which shows the internal structure and effect|action of the server which concerns on 2nd Embodiment. 第2実施形態に係るアプリケーションの動作を示す図である。It is a figure which shows the operation|movement of the application which concerns on 2nd Embodiment. 第2実施形態に係るアプリケーションの動作を示す図である。It is a figure which shows the operation|movement of the application which concerns on 2nd Embodiment. 第2実施形態に係るサーバの処理の流れを示すフローチャートである。9 is a flow chart showing the flow of processing of a server according to the second embodiment; 第2実施形態に係るサーバの処理の流れを示すフローチャートである。9 is a flow chart showing the flow of processing of a server according to the second embodiment; 第2実施形態に係るサーバの入力項目を示すテーブルである。It is a table showing input items of the server according to the second embodiment. 第2実施形態に係るアプリケーションの画面例を示す図である。It is a figure which shows the example of a screen of the application which concerns on 2nd Embodiment. 第2実施形態に係るアプリケーションの連携を示す図である。It is a figure which shows the cooperation of the application which concerns on 2nd Embodiment.

以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素はあくまで例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。 BEST MODE FOR CARRYING OUT THE INVENTION Exemplary embodiments of the present invention will be described in detail below with reference to the drawings. However, the components described in the following embodiments are merely examples, and the technical scope of the present invention is not limited to them.

[第1実施形態]
本発明の第1実施形態としての情報処理装置100について、図1を用いて説明する。情報処理装置100は、表示部111を備えた情報処理端末110と、ロボット120と、ネットワーク130を介して通信を行う情報処理装置である。
[First embodiment]
An information processing apparatus 100 as a first embodiment of the present invention will be described using FIG. The information processing apparatus 100 is an information processing apparatus that communicates with an information processing terminal 110 having a display unit 111 and a robot 120 via a network 130 .

図1に示すように、情報処理装置100は、ユーザ情報取得部101とコマンド送信部102とを含む。 As shown in FIG. 1, the information processing apparatus 100 includes a user information acquisition section 101 and a command transmission section 102 .

ユーザ情報取得部101は、情報処理端末110から、ユーザ150の体調情報151を取得する。 The user information acquisition unit 101 acquires the physical condition information 151 of the user 150 from the information processing terminal 110 .

コマンド送信部102は、ロボット120がユーザ150の体調に合わせた動作を行うように、ロボット120に体調情報に応じたコマンド121を送る。 The command sending unit 102 sends a command 121 corresponding to the physical condition information to the robot 120 so that the robot 120 performs an action suitable for the physical condition of the user 150 .

以上の構成により、ユーザは、ロボットを用いて間接的に自らの体調を表現することが可能となる。 With the above configuration, the user can indirectly express his or her physical condition using the robot.

[第2実施形態]
次に本発明の第2実施形態に係る情報処理システム200について、図2を用いて説明する。図2は、本実施形態に係る情報処理システム200の全体的な処理の概要を説明するための図である。
[Second embodiment]
Next, an information processing system 200 according to a second embodiment of the present invention will be explained using FIG. FIG. 2 is a diagram for explaining an outline of overall processing of the information processing system 200 according to this embodiment.

情報処理システム200は、表示部211を有するスマートフォン201と、サーバ202と、ぬいぐるみ型のぬいぐるみ型ロボット203とを備える。 The information processing system 200 includes a smartphone 201 having a display unit 211 , a server 202 , and a stuffed toy robot 203 .

ます、スマートフォン201を用いて専用のアプリケーション212を起動し、専用アプリ212のユーザアカウントと、ぬいぐるみ型ロボット203とを一対一に対応させる。 First, the dedicated application 212 is activated using the smartphone 201, and the user account of the dedicated application 212 and the stuffed toy robot 203 are associated one-to-one.

次に、ユーザ210が、そのユーザアカウントから体調情報213を入力する。入力された体調情報は専用アプリ212によってサーバ202に送られる。サーバ202は、取得した体調情報をデータベース221に格納する。 User 210 then enters physical condition information 213 from the user account. The input physical condition information is sent to the server 202 by the dedicated application 212 . The server 202 stores the acquired physical condition information in the database 221 .

例えば、以下のようにユーザに対して報知することにより体調情報213の入力を促してもよい。・朝昼夜の決まった時間に体調情報入力を促すアラートを出す。・他人から連絡をもらうアプリケーションに着信通知が来ているのに一定時間アプリケーションを起動しないときに体調情報入力を促すアラートを出す。・0時~4時のような深夜の時間帯に一定時間以上スマートフォンの操作をしているときに体調情報入力を促すアラートを出す。 For example, the user may be prompted to enter the physical condition information 213 by notifying the user as follows. - Issue an alert prompting you to enter your physical condition information at a fixed time in the morning, day and night.・An alert prompting you to enter your physical condition information is displayed when the application does not start for a certain period of time even though there is an incoming call notification to the application that receives contact from others.・An alert prompting you to enter your physical condition information is issued when you are operating your smartphone for a certain period of time during the late night hours, such as 0:00 to 4:00.

ぬいぐるみ型ロボット203は、ユーザ210の体調に合わせた動作を行うように、サーバ202から定期的にコマンド222を受信し、受信したコマンドに応じたポーズや表情を実行する。これにより、ぬいぐるみ型ロボット203を見た、ユーザ210の家族が、ユーザ210の健康状態を察することができる。 The plush toy robot 203 periodically receives commands 222 from the server 202 and performs poses and facial expressions according to the received commands so as to perform actions that match the physical condition of the user 210 . As a result, the family of user 210 who sees stuffed toy robot 203 can guess the health condition of user 210 .

図3は、本実施形態に係る情報処理システム200の全体的な処理の概要を説明するための他の図である。 FIG. 3 is another diagram for explaining the outline of the overall processing of the information processing system 200 according to this embodiment.

ぬいぐるみ型ロボット203は、設けられたセンサによって検出したタッチ情報231を、サーバ202に随時送信する。つまり、ユーザ210の家族などがぬいぐるみ型ロボット203をなでると、なでられたという情報がサーバ202に飛ぶ。サーバ202は、タッチ情報231をデータベース221に格納し、タッチ情報231に基づいた報知をユーザ210に行うようにスマートフォン201を制御する。 The plush toy robot 203 transmits touch information 231 detected by the provided sensor to the server 202 at any time. That is, when a family member of the user 210 or the like strokes the stuffed toy robot 203 , information about the stroke is sent to the server 202 . The server 202 stores the touch information 231 in the database 221 and controls the smartphone 201 to notify the user 210 based on the touch information 231 .

図4は、本実施形態にかかる情報処理装置としてのサーバ202の構成を示す図である。サーバ202は、端末制御部421とユーザ情報取得部422とコマンド送信部423とロボット情報取得部424とを備えている。端末制御部(表示制御部)421は、スマートフォン201のユーザ210の状態を問い合わせる問い合わせ画像を表示部211に表示させる。また、端末制御部421はさらに、タッチ情報231に基づいた報知をユーザ210に行うようにスマートフォン201を制御する。つまり、アプリ212を通じて、ぬいぐるみ型ロボット203がいたわられたことを、ユーザに通知する。ユーザ情報取得部422は、表示部211に表示された問い合わせ画像に対してユーザが行った回答を取得する。コマンド送信部423は、ユーザ情報取得部422で取得した回答に応じたコマンドをぬいぐるみ型ロボット203に送り、ぬいぐるみ型ロボット203を動作させる。 FIG. 4 is a diagram showing the configuration of the server 202 as an information processing apparatus according to this embodiment. The server 202 includes a terminal control section 421 , a user information acquisition section 422 , a command transmission section 423 and a robot information acquisition section 424 . The terminal control unit (display control unit) 421 causes the display unit 211 to display an inquiry image for inquiring about the state of the user 210 of the smartphone 201 . Moreover, the terminal control unit 421 further controls the smartphone 201 to notify the user 210 based on the touch information 231 . In other words, the application 212 notifies the user that the stuffed toy robot 203 has been cared for. The user information acquisition unit 422 acquires the user's response to the inquiry image displayed on the display unit 211 . The command transmission unit 423 transmits a command according to the answer acquired by the user information acquisition unit 422 to the stuffed toy robot 203 to operate the stuffed toy robot 203 .

具体的には、図5に示すように、スマートフォン201の画面にぬいぐるみ型ロボット203に対応するキャラクタ画像521を問い合わせ画像として表示させ、ユーザ210によるタッチ操作やドラッグ操作などで、キャラクタ画像521を動かす。 Specifically, as shown in FIG. 5, a character image 521 corresponding to the plush toy robot 203 is displayed as an inquiry image on the screen of the smartphone 201, and the user 210 moves the character image 521 by touch operation, drag operation, or the like. .

ユーザ情報取得部422は、キャラクタ画像521に対してユーザ210が行った操作を体調情報として取得し、コマンド送信部423は、取得した操作に対応するコマンドをぬいぐるみ型ロボット203に送る。 The user information acquisition unit 422 acquires the operation performed by the user 210 on the character image 521 as physical condition information, and the command transmission unit 423 transmits a command corresponding to the acquired operation to the plush toy robot 203 .

例えば、ユーザ210の気分や体調がよいときには、キャラクタ画像の腕をぐるぐるしてもらう。するとスマートフォン201の入力内容に連動してぬいぐるみ型ロボット203の腕が上がり、目がぱっちりと開く。これにより、ぬいぐるみ型ロボット203の近くにいる、ユーザ210の家族501は、ユーザ210の具合が良さそうだなと感じることができる。 For example, when the user 210 is in a good mood or in good physical condition, the arm of the character image is twirled. Then, in conjunction with the input content of the smartphone 201, the arms of the stuffed toy robot 203 are raised, and the eyes are wide open. As a result, the family members 501 of the user 210 near the stuffed toy robot 203 can sense that the user 210 seems to be feeling well.

一方で、例えば、ユーザ210の体調が悪い時、気分が重いときには、キャラクタ画像を何度もタップしたり、長押ししたりしてもらう。するとスマートフォン201の入力内容に連動してぬいぐるみ型ロボット203の腕や耳が下がり、目が閉じる。これにより、ぬいぐるみ型ロボット203の近くにいるユーザ210の家族501は、ユーザ210の具合が悪そうだなと感じることができる。 On the other hand, for example, when the user 210 is in poor physical condition or feels heavy, the character image is repeatedly tapped or long-pressed. Then, the stuffed toy robot 203 lowers its arms and ears and closes its eyes in conjunction with the input contents of the smartphone 201 . As a result, the family members 501 of the user 210 near the stuffed toy robot 203 can feel that the user 210 seems unwell.

ロボット情報取得部424は、ぬいぐるみ型ロボット203に設けられたセンサによって検出したタッチ情報231を、ロボットから取得する。そして端末制御部421は、タッチ情報に基づいた報知601をスマートフォン201のユーザ210に行うように、スマートフォン201を制御する(図6)。 The robot information acquisition unit 424 acquires the touch information 231 detected by the sensor provided in the stuffed toy robot 203 from the robot. Then, the terminal control unit 421 controls the smartphone 201 so as to perform notification 601 based on the touch information to the user 210 of the smartphone 201 (FIG. 6).

図7、図8は、サーバ202の処理の流れを示すフローチャートである。図9は、アプリケーション212で取得するデータのリストである。ここでは、アプリケーション212は、例として癌患者の体調モニタリングに特化したアプリケーションである。 7 and 8 are flowcharts showing the processing flow of the server 202. FIG. FIG. 9 is a list of data acquired by application 212 . Here, the application 212 is, for example, an application specialized for monitoring the physical condition of cancer patients.

まず、アプリケーション212の初回起動時には、ステップS701において、ぬいぐるみID(図9の項目1)を入力して、データベース221から取得した日時(図9の項目2)とアプリケーション212のID(ユーザアカウント)と紐付けて、データベース221に格納する。これにより、アプリケーション212とぬいぐるみ型ロボット203との対応付けが行われる。次に、ユーザ属性情報(図9の項目3~6)を取得する(ステップS702)。具体的には、ユーザの生年月日、性別、がんの種類、がんの進行具合(ステージ)などを入力する。がんの種類としては、癌腫として、胃がん、陰茎がん、各骨軟部腫瘍、肝臓がん、甲状腺がん、後腹膜腫瘍、骨転移、子宮がん、食道がん、腎がん、腎盂尿管がん、膵臓がん、精巣がん、前立腺がん、大腸がん、胆道がん、頭頸部がん、乳がん、肺がん、皮膚がん、副腎がん、膀胱がん、卵巣がんが挙げられる。肉腫としては、骨肉腫、軟骨肉腫、横紋筋肉腫、平滑筋肉腫、線維肉腫、脂肪肉腫、血管肉腫などが挙げられる。さらに血液がんとしては、白血病、悪性リンパ腫、骨髄腫などが挙げられる。がんのステージは、がんの大きさ(広がり)、リンパ節への転移の有無、他の臓器への転移、という3つの要素に応じて、ステージ0期からIV期まで5段階で評価される。ステージIVが最も進行している(悪化した)状態である。
つまり、ユーザ情報取得部422は、スマートフォン201から、ユーザの生年月日、性別、疾病または障害の少なくともいずれか一つをユーザ属性として取得し、コマンド送信部423は、ユーザ属性に応じたコマンドをぬいぐるみ型ロボット203に送る。
First, when the application 212 is started for the first time, in step S701, the stuffed toy ID (item 1 in FIG. 9) is entered, and the date and time (item 2 in FIG. 9) obtained from the database 221 and the ID (user account) of the application 212 are entered. It is linked and stored in the database 221 . As a result, the application 212 and the stuffed toy robot 203 are associated with each other. Next, user attribute information (items 3 to 6 in FIG. 9) is obtained (step S702). Specifically, the user's date of birth, sex, cancer type, cancer progress (stage), and the like are input. Cancer types include gastric cancer, penile cancer, various bone and soft tissue tumors, liver cancer, thyroid cancer, retroperitoneal tumor, bone metastasis, uterine cancer, esophageal cancer, kidney cancer, and renal pelvis. Ductal cancer, pancreatic cancer, testicular cancer, prostate cancer, colorectal cancer, biliary tract cancer, head and neck cancer, breast cancer, lung cancer, skin cancer, adrenal cancer, bladder cancer, and ovarian cancer. be done. Sarcomas include osteosarcoma, chondrosarcoma, rhabdomyosarcoma, leiomyosarcoma, fibrosarcoma, liposarcoma, and angiosarcoma. Furthermore, hematologic cancers include leukemia, malignant lymphoma, and myeloma. The stage of cancer is evaluated in five stages from stage 0 to stage IV according to three factors: size (spread) of cancer, presence or absence of metastasis to lymph nodes, and metastasis to other organs. be. Stage IV is the most advanced (worse) condition.
That is, the user information acquisition unit 422 acquires at least one of the user's date of birth, sex, disease, or disability from the smartphone 201 as a user attribute, and the command transmission unit 423 transmits a command according to the user attribute. It is sent to the plush toy type robot 203 .

ここでは、かん患者がユーザの場合を例にしているが、本発明はこれに限定されるものではなく、例えば、コロナウィルスなどの感染症や、HIV (Human Immunodeficiency Virus)などの疾病を罹患した患者に特化したアプリケーション構成でもよい。あるいは、事故などで障害を有するユーザ向けのアプリケーション構成でもよい。特に、家族がユーザのそばにいることができない感染症の患者や、ろうあ者のように体調や感情が表現しにくいユーザなどについては、本願発明が非常に効果的である。 Here, the case where the user is a leprosy patient is taken as an example, but the present invention is not limited to this. An application configuration specific to a patient may be used. Alternatively, it may be an application configuration for a user who has a disability due to an accident or the like. In particular, the present invention is very effective for patients with infectious diseases whose family members cannot be near the user, and users such as deaf people who find it difficult to express their physical condition and emotions.

ステップS703では、連携する他のアプリケーションの設定を行う。具体的には、図9の項目9~19にあるように、万歩計(登録商標)のようなアプリケーション、睡眠時間を検知するアプリケーション、スマートフォンの使用状況を調べるアプリケーション、音楽再生アプリケーション、位置情報検出アプリケーション、天気や気温などを調べるアプリケーションと連携させて歩行量などの各種の情報を取得することができる。その他、心理テストを行うアプリケーションや、心理状態を把握できるゲームと連携させてもよい。 In step S703, other applications to be linked are set. Specifically, as shown in items 9 to 19 in FIG. 9, an application such as a pedometer (registered trademark), an application that detects sleep time, an application that checks the usage status of a smartphone, a music playback application, and location information. Various information such as the amount of walking can be acquired by linking with a detection application and an application that checks the weather and temperature. In addition, it may be linked with an application that conducts a psychological test or a game that can grasp the psychological state.

図8は、アプリケーション212の2回目以降の起動時の処理の流れを示すフローチャートである。ステップS801において、端末制御部421は、まず、今の気分(体調)の入力画面(図5)をスマートフォン201の画面に表示させる。この状態で入力があれば、ステップS802からステップS803に進み、コマンド送信部423は、取得した体調情報に基づいてコマンドを生成しぬいぐるみ型ロボット203に送信する。 FIG. 8 is a flow chart showing the flow of processing when the application 212 is started for the second time or later. In step S<b>801 , the terminal control unit 421 first displays a current mood (physical condition) input screen ( FIG. 5 ) on the screen of the smartphone 201 . If there is an input in this state, the process proceeds from step S802 to step S803, and the command transmission unit 423 generates a command based on the acquired physical condition information and transmits the command to the plush toy robot 203. FIG.

今の気分の入力画面に対して一定期間(例えば3日間)入力がなければ、ステップS804からステップS805に進み、端末制御部421は、心理テスト(図10)を表示部211に表示させる。入力があれば、ステップS806からステップS803に進み、ユーザ情報取得部422は、心理テストの結果をスマートフォン201から取得し、コマンド送信部423は、心理テストの結果に応じたコマンドをロボットに送る。 If there is no input on the current mood input screen for a certain period of time (for example, three days), the process proceeds from step S804 to step S805, and the terminal control unit 421 causes the display unit 211 to display the psychological test (FIG. 10). If there is an input, the process proceeds from step S806 to step S803, the user information acquisition unit 422 acquires the psychological test result from the smartphone 201, and the command transmission unit 423 transmits a command according to the psychological test result to the robot.

さらに、心理テストに対して一定期間入力がなければ、ステップS806からステップS807を経てステップS808に進み、ユーザ情報取得部422は、他の連携アプリケーションからユーザの体調や気分に関する情報を取得する。 Further, if there is no input for a certain period of time regarding the psychological test, the process proceeds from step S806 to step S807 to step S808, and the user information acquisition unit 422 acquires information on the physical condition and mood of the user from another cooperative application.

具体的には、ユーザ情報取得部422は、ユーザが直接入力する体調情報の代わりに、ユーザの運動量(例えば歩行量)、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得する(図11)。 Specifically, instead of the physical condition information directly input by the user, the user information acquisition unit 422 obtains the user's exercise amount (for example, walking amount), sleep time, terminal browsing time period, terminal browsing length, terminal browsing site tendency, At least one of the content of transmission by the terminal, the content of music played back by the terminal, the terminal location information, the climate, and the temperature is acquired as the user environment information (FIG. 11).

そしてステップS803に進み、コマンド送信部423は、ユーザ環境情報に応じたコマンドをロボットに送る。 Then, proceeding to step S803, the command transmission unit 423 transmits a command corresponding to the user environment information to the robot.

このように処理することにより、もし専用アプリ212の入力や心理テスト結果の入力が途絶えても、あらかじめ蓄積しておいた他アプリやブラウザから取得したデータを元に、ユーザの体調、心理状態を予測し、ぬいぐるみの動きを制御することができる。 By processing in this way, even if the input of the dedicated application 212 or the input of the psychological test result is interrupted, the user's physical and mental condition can be detected based on the data acquired from other applications and browsers accumulated in advance. Able to predict and control the movement of stuffed animals.

このように、ユーザの環境情報と、ユーザが直接入力した体調情報とを大量に蓄積することにより、季節、天気、気温、薬などと、体調、感情との相関を機械学習して、環境情報から体調情報を高精度に推定できるようになる。 In this way, by accumulating a large amount of user's environmental information and physical condition information directly input by the user, machine learning can be performed on the correlation between season, weather, temperature, medicine, etc., and physical condition and emotion, and environmental information can be obtained. It becomes possible to estimate the physical condition information with high accuracy from the

以上、本実施形態によれば、ユーザは、ロボットを用いて間接的に自らの体調を表現することが可能となる。 As described above, according to the present embodiment, the user can indirectly express his or her physical condition using the robot.

[他の実施形態]
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の技術的範囲で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の技術的範囲に含まれる。
[Other embodiments]
Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the technical scope of the present invention. Also, any system or apparatus that combines separate features included in each embodiment is included in the technical scope of the present invention.

また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する情報処理プログラムが、システムあるいは装置に供給され、内蔵されたプロセッサによって実行される場合にも適用可能である。本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるサーバも、プログラムを実行するプロセッサも本発明の技術的範囲に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の技術的範囲に含まれる。 Further, the present invention may be applied to a system composed of a plurality of devices, or may be applied to a single device. Furthermore, the present invention can also be applied when an information processing program that implements the functions of the embodiments is supplied to a system or apparatus and executed by a built-in processor. In order to realize the functions of the present invention on a computer, the technical scope of the present invention includes a program installed in a computer, a medium storing the program, a server for downloading the program, and a processor executing the program. . In particular, non-transitory computer readable media storing programs that cause a computer to perform at least the processing steps included in the above-described embodiments fall within the scope of the present invention.

Claims (7)

表示部を備えた情報処理端末と、ロボットとの間で、ネットワークを介して通信を行う情報処理装置であって、
前記情報処理端末から、ユーザの体調情報を取得するユーザ情報取得部と、
前記ロボットが前記ユーザの体調に合わせた動作を行うように、前記ロボットに前記体調情報に応じたコマンドを送るコマンド送信部と、
前記情報処理端末のユーザの状態を問い合わせる問い合わせ画像を前記表示部に表示させる表示制御部と、
を備え、
前記ユーザ情報取得部は、前記問い合わせ画像に対する回答が一定期間ない場合に、前記情報処理端末から、ユーザの運動量、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得し、
前記コマンド送信部は、前記ユーザ環境情報に応じたコマンドを前記ロボットに送る情報処理装置。
An information processing device that performs communication via a network between an information processing terminal having a display unit and a robot,
A user information acquisition unit that acquires physical condition information of a user from the information processing terminal;
a command transmission unit that transmits a command corresponding to the physical condition information to the robot so that the robot performs an action that matches the physical condition of the user;
a display control unit that causes the display unit to display an inquiry image for inquiring about the state of the user of the information processing terminal;
with
When there is no response to the inquiry image for a certain period of time, the user information acquisition unit obtains from the information processing terminal the user's exercise amount, sleep time, terminal browsing time zone, terminal browsing length, terminal browsing site tendency, transmission by the terminal acquiring at least one of content, music content played by the terminal, terminal location information, climate, and temperature as user environment information;
The command transmission unit is an information processing device that transmits a command corresponding to the user environment information to the robot.
前記ロボットに設けられたセンサによって検出したタッチ情報を、前記ロボットから取得するロボット情報取得部と、
前記タッチ情報に基づいた報知を前記情報処理端末のユーザに行うように、前記情報処理端末を制御する端末制御部と、
をさらに備えた請求項1に記載の情報処理装置。
a robot information acquisition unit that acquires from the robot touch information detected by a sensor provided on the robot;
a terminal control unit that controls the information processing terminal so as to notify a user of the information processing terminal based on the touch information;
The information processing apparatus according to claim 1, further comprising:
前記表示制御部は、前記ロボットを表す画像を前記表示部に表示させ、
前記ユーザ情報取得部は、前記情報処理端末に表示された前記ロボットの画像に対してユーザが行った操作を前記体調情報として取得し、
前記コマンド送信部は、前記操作に応じたコマンドを前記ロボットに送る請求項1または2に記載の情報処理装置。
The display control unit causes the display unit to display an image representing the robot,
The user information acquisition unit acquires, as the physical condition information, an operation performed by a user on the image of the robot displayed on the information processing terminal,
3. The information processing apparatus according to claim 1, wherein said command transmission unit transmits a command corresponding to said operation to said robot.
前記ユーザ情報取得部は、前記情報処理端末から、ユーザの生年月日、性別、疾病または障害の少なくともいずれか一つをユーザ属性として取得し、
前記コマンド送信部は、前記ユーザ属性に応じたコマンドを前記ロボットに送る請求項1または2に記載の情報処理装置。
The user information acquisition unit acquires at least one of a user's date of birth, gender, illness or disability from the information processing terminal as a user attribute,
3. The information processing apparatus according to claim 1, wherein said command transmission unit transmits a command corresponding to said user attribute to said robot.
表示部を備えた情報処理端末と、ロボットとをネットワークを介して制御する情報処理方法であって、
ユーザ情報取得部が、前記情報処理端末から、ユーザの体調情報を取得するユーザ情報取得ステップと、
コマンド送信部が、前記ロボットが前記ユーザの体調に合わせた動作を行うように、前記ロボットに前記体調情報に応じたコマンドを送るコマンド送信ステップと、
表示制御部が、前記情報処理端末のユーザの状態を問い合わせる問い合わせ画像を前記表示部に表示させる表示制御ステップと、
含み、
前記問い合わせ画像に対する回答が一定期間ない場合に、前記ユーザ情報取得ステップでは、前記情報処理端末から、ユーザの運動量、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得し、
前記コマンド送信ステップにおいて、前記コマンド送信部が、前記ユーザ環境情報に応じたコマンドを前記ロボットに送る情報処理方法。
An information processing method for controlling an information processing terminal having a display unit and a robot via a network,
A user information acquisition step in which the user information acquisition unit acquires physical condition information of the user from the information processing terminal;
a command transmission step in which a command transmission unit transmits a command corresponding to the physical condition information to the robot so that the robot performs an action in accordance with the physical condition of the user;
a display control step in which a display control unit causes the display unit to display an inquiry image for inquiring about the state of a user of the information processing terminal;
including
If there is no response to the inquiry image for a certain period of time, in the user information acquisition step, from the information processing terminal, the user's exercise amount, sleep time, terminal browsing time period, terminal browsing length, terminal browsing site tendency, terminal transmission acquiring at least one of content, music content played by the terminal, terminal location information, climate, and temperature as user environment information;
The information processing method, wherein in the command transmission step, the command transmission unit transmits a command corresponding to the user environment information to the robot.
表示部を備えた情報処理端末と、ロボットとをネットワークを介して制御する情報処理プログラムであって、
前記情報処理端末から、ユーザの体調情報を取得するユーザ情報取得ステップと、
前記ロボットが前記ユーザの体調に合わせた動作を行うように、前記ロボットに前記体調情報に応じたコマンドを送るコマンド送信ステップと、
前記情報処理端末のユーザの状態を問い合わせる問い合わせ画像を前記表示部に表示させる表示制御ステップと、
をコンピュータに実行させる情報処理プログラムであって、
前記問い合わせ画像に対する回答が一定期間ない場合に、前記ユーザ情報取得ステップでは、前記情報処理端末から、ユーザの歩行量、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得し、
前記コマンド送信ステップにおいて、前記ユーザ環境情報に応じたコマンドを前記ロボットに送る情報処理プログラム。
An information processing program for controlling an information processing terminal having a display unit and a robot via a network,
a user information acquisition step of acquiring physical condition information of a user from the information processing terminal;
a command transmission step of sending a command corresponding to the physical condition information to the robot so that the robot performs an action in accordance with the physical condition of the user;
a display control step of causing the display unit to display an inquiry image for inquiring about the state of the user of the information processing terminal;
An information processing program that causes a computer to execute
When there is no response to the inquiry image for a certain period of time, in the user information acquisition step, from the information processing terminal, the user's walking amount, sleep time, terminal browsing time zone, terminal browsing length, terminal browsing site tendency, terminal Acquiring at least one of transmission content, music content played by the terminal, terminal location information, climate, and temperature as user environment information,
An information processing program for sending a command corresponding to the user environment information to the robot in the command sending step.
表示部を備えた情報処理端末で実行されるアプリケーションプログラムであって、
ユーザの体調を問い合わせる問い合わせ画像を前記表示部に表示させる表示ステップと、
前記問い合わせ画像に対する回答が一定期間ない場合に、前記ユーザの運動量、睡眠時間、端末閲覧時間帯、端末閲覧長さ、端末閲覧サイト傾向、端末による発信内容、端末により再生された音楽内容、端末位置情報、気候、気温の少なくともいずれか一つをユーザ環境情報として取得する取得ステップと、
前記問い合わせ画像に対する回答に応じた動作または、前記ユーザ環境情報に応じた動作をロボットが行うように、サーバに指示を行う指示ステップと、
を前記情報処理端末で実行させるアプリケーションプログラム。
An application program executed by an information processing terminal having a display,
a display step of displaying an inquiry image for inquiring about a user's physical condition on the display unit;
If there is no response to the inquiry image for a certain period of time, the user's exercise amount, sleep time, terminal browsing time period, terminal browsing length, terminal browsing site tendency, content sent by the terminal, music content played by the terminal, terminal location an acquisition step of acquiring at least one of information, climate, and temperature as user environment information;
an instruction step of instructing a server to cause the robot to perform an action corresponding to an answer to the inquiry image or an action corresponding to the user environment information;
is executed on the information processing terminal.
JP2022125840A 2021-11-12 2022-08-05 Information processing device, information processing method, information processing program, and application program Pending JP2023072649A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022125840A JP2023072649A (en) 2021-11-12 2022-08-05 Information processing device, information processing method, information processing program, and application program
PCT/JP2022/031878 WO2023084866A1 (en) 2021-11-12 2022-08-24 Information processing device, information processing method, information processing program, and information processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021184900A JP7121848B1 (en) 2021-11-12 2021-11-12 Information processing device, information processing method, information processing program and information processing system
JP2022125840A JP2023072649A (en) 2021-11-12 2022-08-05 Information processing device, information processing method, information processing program, and application program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021184900A Division JP7121848B1 (en) 2021-11-12 2021-11-12 Information processing device, information processing method, information processing program and information processing system

Publications (1)

Publication Number Publication Date
JP2023072649A true JP2023072649A (en) 2023-05-24

Family

ID=86335602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022125840A Pending JP2023072649A (en) 2021-11-12 2022-08-05 Information processing device, information processing method, information processing program, and application program

Country Status (2)

Country Link
JP (1) JP2023072649A (en)
WO (1) WO2023084866A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100657901B1 (en) * 2004-10-12 2006-12-14 삼성전자주식회사 Method and apparatus of generating avata for representing state of health
US10163175B2 (en) * 2009-02-25 2018-12-25 Humana Inc. System and method for improving healthcare through social robotics
CN107533735B (en) * 2015-05-01 2022-06-07 索尼公司 Information processing system, communication device, control method, and storage medium
WO2019082687A1 (en) * 2017-10-27 2019-05-02 ソニー株式会社 Information processing device, information processing method, program, and information processing system
JP2019160033A (en) * 2018-03-15 2019-09-19 花王株式会社 Display controller and program

Also Published As

Publication number Publication date
WO2023084866A1 (en) 2023-05-19

Similar Documents

Publication Publication Date Title
JP7121848B1 (en) Information processing device, information processing method, information processing program and information processing system
CN105981083B (en) Intelligent wearable device and for optimize output method
JP7089846B2 (en) Systems and methods for tactile neural interfaces
US9098114B2 (en) Comprehensive user control system for therapeutic wellness devices
CN103366323B (en) Execute the user terminal apparatus and system and method for customized health control
Heller The Vampire in the House: Hysteria, Female Sexuality, and Female Knowledge in Le Fanu's “Carmilla”(1872)
CN107111334A (en) Modular wearable equipment for passing on affective state
JP7010000B2 (en) Information processing equipment and programs
CN108874152A (en) Mobile device with instinct warning
JP2015046070A (en) Information processing device, determination method, and determination program
JP2022501697A (en) Myoelectric potential (EMG) assisted communication device with context-sensitive user interface
JP2021506052A (en) Communication methods and systems
US20200275875A1 (en) Method for deriving and storing emotional conditions of humans
Lisowska et al. From Personalized Timely Notification to Healthy Habit Formation: a Feasibility Study of Reinforcement Learning Approaches on Synthetic Data.
JP2021090668A (en) Information processing device and program
WO2023084866A1 (en) Information processing device, information processing method, information processing program, and information processing system
Zhu et al. Understanding the effect of speed on human emotion perception in mediated social touch using voice coil actuators
CN113035000A (en) Virtual reality training system for central integrated rehabilitation therapy technology
JP2021189674A (en) Computer program, server device, terminal device, and method
JP2019082904A (en) Information processor, information processing method and program
Montero Proprioceiving someone else's movement
Bray The monstrosity of the multitude: unredeeming radical theology
JP6851913B2 (en) Information processing equipment, methods and programs
Dijk et al. Audio–tactile stimulation: a tool to improve health and well-being?
WO2021210585A1 (en) Computer program, server device, terminal device, and method