JP2008167866A - Diagnostic robot, and control method and control program of diagnostic robot - Google Patents

Diagnostic robot, and control method and control program of diagnostic robot Download PDF

Info

Publication number
JP2008167866A
JP2008167866A JP2007002741A JP2007002741A JP2008167866A JP 2008167866 A JP2008167866 A JP 2008167866A JP 2007002741 A JP2007002741 A JP 2007002741A JP 2007002741 A JP2007002741 A JP 2007002741A JP 2008167866 A JP2008167866 A JP 2008167866A
Authority
JP
Japan
Prior art keywords
palpation
user
reaction
unit
pressing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007002741A
Other languages
Japanese (ja)
Inventor
Yukitaka Nakamura
行孝 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SKY Co Ltd
Original Assignee
SKY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SKY Co Ltd filed Critical SKY Co Ltd
Priority to JP2007002741A priority Critical patent/JP2008167866A/en
Publication of JP2008167866A publication Critical patent/JP2008167866A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a diagnostic robot finding the lesion of a child who can not fully have a conversation for instance, and to provide a control method and control program of the diagnostic robot. <P>SOLUTION: The diagnostic robot is provided with a reaction observation unit 6 for observing the reaction of a user when the finger 23a of the robot which is a member for palpation is pressed by a pressing unit 5. A lesion recognition unit 7 specifies a palpation point P<SB>max</SB>at which the reaction of the user observed by the reaction observation unit 6 is the largest among palpation points P<SB>1</SB>-P<SB>N</SB>set by a palpation point setting unit 4 and recognizes the palpation point P<SB>max</SB>as a lesion. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、例えば、会話を十分に行うことができない子供(例えば、1〜3歳児)の患部を探し当てる診断ロボット、診断ロボットの制御方法及び制御プログラムに関するものである。   The present invention relates to a diagnostic robot, a diagnostic robot control method, and a control program, for example, for finding an affected part of a child (for example, a 1 to 3 year old child) who cannot sufficiently talk.

従来の診断ロボットは、車両の診断部位を撮影する撮影部と、正常時における撮影画像を保持する画像保持部とを搭載し、撮影部により撮影された診断部位の撮影画像と正常時における撮影画像を比較して、その診断部位の故障を診断するものである(例えば、特許文献1を参照)。
即ち、従来の診断ロボットは、あくまでも、車両などの機械の故障を診断するものであって、人間を診断するものとは本質的に異なっている。
A conventional diagnostic robot is equipped with an imaging unit that images a diagnostic part of a vehicle and an image holding part that holds a captured image in a normal state. Are compared, and the failure of the diagnosis part is diagnosed (see, for example, Patent Document 1).
That is, the conventional diagnostic robot is merely for diagnosing a failure of a machine such as a vehicle, and is essentially different from that for diagnosing a human being.

特開2005−324267号公報(段落番号[0038]、図1)Japanese Patent Laying-Open No. 2005-324267 (paragraph number [0038], FIG. 1)

従来の診断ロボットは以上のように構成されているので、車両などの機械の故障を診断することができるが、例えば、会話を十分に行うことができない子供(例えば、1〜3歳児)の患部を探し当てることができないなどの課題があった。   Since the conventional diagnostic robot is configured as described above, it can diagnose a failure of a machine such as a vehicle, but, for example, an affected part of a child (for example, a 1 to 3 year old child) who cannot perform a conversation sufficiently There was a problem such as being unable to find.

この発明は上記のような課題を解決するためになされたもので、例えば、会話を十分に行うことができない子供の患部を探し当てることができる診断ロボット、診断ロボットの制御方法及び制御プログラムを得ることを目的とする。   The present invention has been made to solve the above-described problems. For example, a diagnostic robot, a diagnostic robot control method, and a control program capable of finding an affected area of a child who cannot sufficiently communicate can be obtained. With the goal.

請求項1記載の発明に係る診断ロボットは、押し当て手段により触診用部材が押し当てられている状態にあるときのユーザの反応を観測する反応観測手段を設け、患部認定手段が触診ポイント設定手段により設定された1以上の触診ポイントの中で、反応観測手段により観測されたユーザの反応が最も大きい触診ポイントを特定して、その触診ポイントを患部に認定するようにしたものである。   The diagnostic robot according to the first aspect of the present invention is provided with reaction observation means for observing a user's reaction when the palpation member is pressed by the pressing means, and the affected part recognition means is the palpation point setting means. Among the one or more palpation points set by the above, the palpation point having the largest user response observed by the reaction observation means is specified, and the palpation point is identified as an affected part.

請求項1記載の発明によれば、例えば、会話を十分に行うことができない子供の患部を探し当てることができる効果が得られる。   According to the first aspect of the present invention, for example, an effect of finding an affected part of a child who cannot sufficiently perform a conversation can be obtained.

請求項2記載の発明に係る診断ロボットは、押し当て手段により触診用部材が押し当てられている状態にあるときのユーザを撮影し、ユーザの映像の変化量をユーザの反応として観測するようにしたものである。   A diagnostic robot according to a second aspect of the present invention captures a user when the palpation member is pressed by the pressing means, and observes a change amount of the user's video as a user's reaction. It is a thing.

請求項2記載の発明によれば、ユーザが会話を十分に行うことができない場合でも、痛い部位を調べることができる効果が得られる。   According to the second aspect of the present invention, there is an effect that the painful part can be examined even when the user cannot sufficiently talk.

請求項3記載の発明に係る診断ロボットは、押し当て手段により触診用部材が押し当てられている状態にあるときのユーザの声を集音し、その声の音量をユーザの反応として観測するようにしたものである。   The diagnostic robot according to the third aspect of the invention collects the voice of the user when the palpation member is pressed by the pressing means, and observes the volume of the voice as a response of the user. It is a thing.

請求項3記載の発明によれば、ユーザが会話を十分に行うことができない場合でも、痛い部位を調べることができる効果が得られる。   According to the third aspect of the present invention, there is an effect that the painful part can be examined even when the user cannot sufficiently perform the conversation.

請求項4記載の発明に係る診断ロボットは、患部認定手段により認定された患部の位置を示す情報を閲覧可能な記録媒体に登録する患部情報登録手段を設けるようにしたものである。   According to a fourth aspect of the present invention, there is provided a diagnosis robot according to a fourth aspect of the present invention, wherein an affected part information registration unit is provided for registering information indicating a position of an affected part recognized by the affected part recognition unit in a browsing recording medium.

請求項4記載の発明によれば、例えば、家族や医師などが本格的な治療を行う前に、患部を把握することができる効果が得られる。   According to the fourth aspect of the present invention, for example, an effect can be obtained in which the affected part can be grasped before a family, a doctor or the like performs full-scale treatment.

請求項5記載の発明に係る診断ロボットは、押し当て手段が触診ポイント設定手段により設定された触診ポイントに触診用部材を押し当てる際、ユーザに問い掛けを行うようにしたものである。   According to the fifth aspect of the present invention, when the pressing means presses the palpation member against the palpation point set by the palpation point setting means, the user is inquired.

請求項5記載の発明によれば、触診が行われている旨をユーザが容易に理解することができる効果が得られる。   According to the fifth aspect of the present invention, there is an effect that the user can easily understand that palpation is performed.

請求項6記載の発明に係る診断ロボットは、ユーザのバイタルを測定し、そのバイタルを示す情報を閲覧可能な記録媒体に登録するバイタル情報登録手段を設けるようにしたものである。   According to a sixth aspect of the present invention, there is provided a diagnostic robot according to a sixth aspect of the present invention, wherein a vital information registration unit is provided for measuring a user's vitals and registering information indicating the vitals in a viewable recording medium.

請求項6記載の発明によれば、例えば、家族や医師などが患者の状態を容易に把握することができる効果が得られる。   According to the sixth aspect of the invention, for example, there is an effect that a family, a doctor, or the like can easily grasp the patient's condition.

請求項7記載の発明に係る診断ロボットの制御方法は、押し当て手段により触診用部材が押し当てられている状態にあるときのユーザの反応を観測する反応観測ステップを設け、患部認定手段が触診ポイント設定手段により設定された1以上の触診ポイントの中で、反応観測手段により観測されたユーザの反応が最も大きい触診ポイントを特定して、その触診ポイントを患部に認定するようにしたものである。   According to a seventh aspect of the present invention, there is provided a diagnostic robot control method comprising: a reaction observation step of observing a user's reaction when a palpation member is pressed by a pressing unit; Among the one or more palpation points set by the point setting means, a palpation point having the largest user response observed by the reaction observation means is specified, and the palpation point is recognized as an affected part. .

請求項7記載の発明によれば、例えば、会話を十分に行うことができない子供の患部を探し当てることができる効果が得られる。   According to the seventh aspect of the present invention, for example, an effect of finding an affected part of a child who cannot sufficiently perform a conversation can be obtained.

請求項8記載の発明に係る診断ロボットの制御プログラムは、押し当て処理手順により触診用部材が押し当てられている状態にあるときのユーザの反応を観測する反応観測処理手順を設け、患部認定処理手順が触診ポイント設定処理手順により設定された1以上の触診ポイントの中で、反応観測処理手順により観測されたユーザの反応が最も大きい触診ポイントを特定して、その触診ポイントを患部に認定するようにしたものである。   The diagnostic robot control program according to claim 8 is provided with a reaction observation processing procedure for observing a user's reaction when the palpation member is pressed by the pressing processing procedure. Among the one or more palpation points set by the palpation point setting processing procedure, the palpation point having the highest user response observed by the reaction observation processing procedure is identified, and the palpation point is identified as an affected part. It is a thing.

請求項8記載の発明によれば、例えば、会話を十分に行うことができない子供の患部を探し当てることができる効果が得られる。   According to the eighth aspect of the present invention, for example, an effect of finding an affected part of a child who cannot sufficiently perform a conversation can be obtained.

この発明によれば、押し当て手段により触診用部材が押し当てられている状態にあるときのユーザの反応を観測する反応観測手段を設け、患部認定手段が触診ポイント設定手段により設定された1以上の触診ポイントの中で、反応観測手段により観測されたユーザの反応が最も大きい触診ポイントを特定して、その触診ポイントを患部に認定するように構成したので、例えば、会話を十分に行うことができない子供の患部を探し当てることができる効果がある。   According to this invention, the reaction observation means for observing the reaction of the user when the palpation member is being pressed by the pressing means is provided, and the affected part recognition means is one or more set by the palpation point setting means Since the palpation point with the greatest user response observed by the reaction observation means is identified and the palpation point is identified as the affected area, for example, sufficient conversation can be performed. It has the effect of finding the affected area of a child who cannot.

実施の形態1.
図1はこの発明の実施の形態1による診断ロボットの内部を示す構成図であり、図1において、カルテ記録部1は例えば家族や医師などが携帯端末やパソコンなどを使用して閲覧することが可能な電子的な記録媒体であり、患者の個人情報(例えば、氏名、年齢、住所、電話番号、血液型、体型(身長、体重、座高、胸囲、腹囲、腰囲など))が記録されているカルテを記憶している。なお、カルテ記録部1は電子的な記録媒体であれば、メディアの種別は如何なるものであってもよい。したがって、例えば、ハードディスクや、データベースなどで構成することができる。
患者情報入力受付部2は例えばキーボードやマウスなどのマンマシンインタフェースから構成されており、患者である子供の個人情報(例えば、氏名)の入力を受け付ける処理を実施する。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing the inside of a diagnostic robot according to Embodiment 1 of the present invention. In FIG. 1, a medical record recording unit 1 can be viewed by, for example, a family member or a doctor using a portable terminal or a personal computer. A possible electronic recording medium that records patient's personal information (eg name, age, address, phone number, blood type, body type (height, weight, sitting height, chest circumference, waist circumference, waist circumference, etc.)) I remember the medical record. As long as the medical record recording unit 1 is an electronic recording medium, any type of medium may be used. Therefore, for example, it can be configured by a hard disk or a database.
The patient information input receiving unit 2 is configured by a man-machine interface such as a keyboard and a mouse, for example, and performs a process of receiving input of personal information (for example, name) of a child who is a patient.

体型把握部3は患者情報入力受付部2により入力が受け付けられた個人情報をキーにして、カルテ記録部1から患者である子供の体型情報を収集する処理を実施する。
ただし、体型把握部3は、例えば子供だけが自宅にいるような状況では、子供が患者情報入力受付部2を操作して、個人情報の入力を行うことができないので、例えば、内蔵しているカメラ3aを用いて、患者である子供を撮影し、子供の映像を解析して体型を把握する。
触診ポイント設定部4は体型把握部3により収集された子供の体型情報を参照して、N箇所の触診ポイントPn(n=1,2,・・・,N)を設定する処理を実施する。
なお、患者情報入力受付部2、体型把握部3及び触診ポイント設定部4から触診ポイント設定手段が構成されている。
The body shape grasping unit 3 performs a process of collecting body shape information of a child who is a patient from the medical record recording unit 1, using the personal information received by the patient information input receiving unit 2 as a key.
However, the body shape grasping unit 3 is built in, for example, because the child cannot operate the patient information input receiving unit 2 to input personal information in a situation where only the child is at home, for example. A child, who is a patient, is photographed using the camera 3a, and the body shape is determined by analyzing the child's video.
The palpation point setting unit 4 refers to the child's body shape information collected by the body shape grasping unit 3 and performs a process of setting N palpation points P n (n = 1, 2,..., N). .
The patient information input receiving unit 2, the body shape grasping unit 3, and the palpation point setting unit 4 constitute palpation point setting means.

押し当て部5は例えばロボットの手を駆動するアクチュエータを制御して、触診ポイント設定部4により設定された触診ポイントP1〜PNにロボットの手を押し当てる処理を実施する。なお、押し当て部5は押し当て手段を構成している。
反応観測部6は例えばカメラ6aと画像解析部6bから構成されており、押し当て部5によりロボットの手が押し当てられている状態にあるときのユーザの反応を観測する処理を実施する。なお、反応観測部6は反応観測手段を構成している。
反応観測部6のカメラ6aは押し当て部5によりロボットの手が押し当てられている状態にあるときのユーザを撮影し、ユーザの映像を出力する。
反応観測部6の画像解析部6bはカメラ6aから出力されたユーザの映像の変化量C1〜CNを解析し、その変化量C1〜CNをユーザの反応の観測量としてメモリ6cに格納する。
The pressing unit 5 controls, for example, an actuator that drives the robot's hand, and performs a process of pressing the robot's hand against the palpation points P 1 to P N set by the palpation point setting unit 4. The pressing unit 5 constitutes pressing means.
The reaction observation unit 6 includes, for example, a camera 6a and an image analysis unit 6b, and performs a process of observing a user's reaction when the hand of the robot is pressed by the pressing unit 5. The reaction observation unit 6 constitutes reaction observation means.
The camera 6a of the reaction observation unit 6 captures the user when the robot hand is being pressed by the pressing unit 5 and outputs a video of the user.
The reaction image analysis unit 6b of the observing unit 6 analyzes the change amount C 1 -C N of the video of the user output from the camera 6a, the memory 6c the variation C 1 -C N as the observation of the user's reaction Store.

患部認定部7は触診ポイント設定部4により設定された触診ポイントP1〜PNの中で、反応観測部6により観測されたユーザの反応が最も大きい触診ポイントを特定して、その触診ポイントを患部に認定する処理を実施する。なお、患部認定部7は患部認定手段を構成している。
患部情報登録部8は患部認定部7により認定された患部の位置を示す情報をカルテ記録部1に登録する処理を実施する。なお、患部情報登録部8は患部情報登録手段を構成している。
The affected part recognition unit 7 identifies the palpation point having the largest user response observed by the reaction observation unit 6 among the palpation points P 1 to P N set by the palpation point setting unit 4 and determines the palpation point. Implement a process to identify the affected area. In addition, the affected part recognition part 7 comprises the affected part recognition means.
The affected part information registration unit 8 performs a process of registering information indicating the position of the affected part recognized by the affected part recognition unit 7 in the chart recording unit 1. The affected area information registration unit 8 constitutes affected area information registration means.

図1の例では、診断ロボットの構成要素である体型把握部3、触診ポイント設定部4、押し当て部5、反応観測部6、患部認定部7及び患部情報登録部8が専用のハードウェア(例えば、CPUなどのICが搭載されている半導体集積回路基板)から構成されているものを想定しているが、診断ロボットがコンピュータから構成されている場合、体型把握部3、触診ポイント設定部4、押し当て部5、反応観測部6、患部認定部7及び患部情報登録部8の処理内容(体型把握処理手順、触診ポイント設定処理手順、押し当て処理手順、反応観測処理手順、患部認定処理手順、患部情報登録処理手順)が記述されている制御プログラムをメモリに格納し、コンピュータのCPUが当該メモリに格納されている制御プログラムを実行するようにしてもよい。   In the example of FIG. 1, the body shape grasping unit 3, the palpation point setting unit 4, the pressing unit 5, the reaction observation unit 6, the affected part recognition unit 7, and the affected part information registration unit 8, which are components of the diagnostic robot, For example, it is assumed that the device is composed of a semiconductor integrated circuit board on which an IC such as a CPU is mounted. However, when the diagnostic robot is composed of a computer, the body shape grasping unit 3 and the palpation point setting unit 4 , Processing contents of the pressing unit 5, the reaction observation unit 6, the affected part recognition unit 7, and the affected part information registration unit 8 (body type grasping processing procedure, palpation point setting processing procedure, pressing processing procedure, reaction observation processing procedure, affected part recognition processing procedure , The control program in which the affected area information registration processing procedure) is described is stored in the memory, and the CPU of the computer executes the control program stored in the memory. It may be.

図2はこの発明の実施の形態1による診断ロボットを示す正面図であり、図3はこの発明の実施の形態1による診断ロボットを示す側面図である。
図2及び図3では、手のひら又は指を患者である子供に押し当てて、患部を探し当てる診断ロボットの例を示している。
図2及び図3において、診断ロボットの上腕部21a,21bは一端が可動自在に肩関節部24a,24bに取り付けられており、下腕部22a,22bは一端が可動自在に肘関節部25a,25bに取り付けられている。
また、診断ロボットの指23a,23bは一端が可動自在に手首関節部26a,26bに取り付けられている。
2 is a front view showing the diagnostic robot according to the first embodiment of the present invention, and FIG. 3 is a side view showing the diagnostic robot according to the first embodiment of the present invention.
FIG. 2 and FIG. 3 show examples of a diagnostic robot that presses the palm or finger against a child who is a patient to find the affected area.
2 and 3, the upper arms 21a and 21b of the diagnostic robot are attached to shoulder joints 24a and 24b so that one end is movable, and the lower arms 22a and 22b are elbow joints 25a and 25b so that one end is movable. It is attached to 25b.
Further, fingers 23a and 23b of the diagnostic robot are attached to the wrist joint portions 26a and 26b so that one end thereof is movable.

肩関節部24a,24bは押し当て部5の指示の下、例えば、上腕部21a,21bを矢印A方向に回転させるアクチュエータや、上腕部21a,21bを矢印B方向にスイングさせるアクチュエータなどからなる機械要素である。
肘関節部25a,25bは押し当て部5の指示の下、例えば、下腕部22a,22bを矢印C方向に回転させるアクチュエータなどからなる機械要素である。
手首関節部26a,26bは押し当て部5の指示の下、例えば、指23a,23bを上げたり下げたりさせるアクチュエータなどからなる機械要素である。
なお、診断ロボットの目27aには体型把握部3のカメラ3aが搭載され、診断ロボットの目27bには反応観測部6のカメラ6aが搭載されている。
また、診断ロボットの口28にはスピーカ9が搭載されている。
図4はこの発明の実施の形態1による診断ロボットの制御方法を示すフローチャートである。
The shoulder joint portions 24a and 24b are machines comprising, for example, an actuator that rotates the upper arm portions 21a and 21b in the direction of arrow A, an actuator that swings the upper arm portions 21a and 21b in the direction of arrow B under the instruction of the pressing portion 5. Is an element.
The elbow joint portions 25a and 25b are mechanical elements including an actuator that rotates the lower arm portions 22a and 22b in the direction of arrow C, for example, under the instruction of the pressing portion 5.
The wrist joint portions 26a and 26b are mechanical elements composed of, for example, an actuator for raising and lowering the fingers 23a and 23b under the instruction of the pressing portion 5.
In addition, the camera 3a of the body shape grasping unit 3 is mounted on the eyes 27a of the diagnostic robot, and the camera 6a of the reaction observation unit 6 is mounted on the eyes 27b of the diagnostic robot.
A speaker 9 is mounted on the mouth 28 of the diagnostic robot.
FIG. 4 is a flowchart showing a diagnostic robot control method according to Embodiment 1 of the present invention.

次に動作について説明する。
例えば、病院の待合室において、診断ロボットを使用して、医師の診察に先立って患部を事前に把握するような状況下では、例えば、医療事務員や看護師が診断ロボットの患者情報入力受付部2を操作して、患者である子供の個人情報(例えば、氏名)を入力する(ステップST1)。
体型把握部3は、患者情報入力受付部2が患者である子供の個人情報の入力を受け付けると、その個人情報をキーにして、カルテ記録部1から子供の体型情報を収集し、その体型情報を参照して子供の体型を把握する(ステップST2)。
ここで、子供の体型情報は、子供の身長、体重、座高、胸囲、腹囲、腰囲などが示されている情報である。
Next, the operation will be described.
For example, in a situation where a diagnosis robot is used in a hospital waiting room to grasp an affected area in advance of a doctor's examination, for example, a medical clerk or nurse can receive a patient information input reception unit 2 of the diagnosis robot. To input personal information (for example, name) of the child who is a patient (step ST1).
When the patient information input receiving unit 2 receives the input of the personal information of the child who is the patient, the body type grasping unit 3 collects the child's body type information from the medical record recording unit 1 using the personal information as a key, and the body type information To grasp the child's body shape (step ST2).
Here, the child's body type information is information indicating a child's height, weight, sitting height, chest circumference, abdominal circumference, waist circumference, and the like.

体型把握部3は、子供の個人情報がカルテ記録部1に登録されておらず、カルテ記録部1から子供の体型情報を収集することができない場合や、患者情報入力受付部2を操作して、患者である子供の個人情報を入力することができない場合(例えば、子供だけが自宅にいるような状況下では、個人情報を入力することができないものと考えられる)には、内蔵しているカメラ3aを用いて、患者である子供を撮影し、子供の映像を解析して体型を把握する。即ち、映像を解析して、子供の身長、座高、胸囲や腹囲などを測定する。
なお、カメラ3aが子供を撮影する際、カメラ3aから子供までの距離を測定すれば、その距離と映像中の子供の大きさとを比較すれば、子供の身長や座高などを計算することができる。
The body shape grasping unit 3 operates the patient information input receiving unit 2 when the child's personal information is not registered in the medical record recording unit 1 and the child's body shape information cannot be collected from the medical record recording unit 1. Built-in if you cannot enter the personal information of the child child (for example, you may not be able to enter personal information in situations where only the child is at home) A child, who is a patient, is photographed using the camera 3a, and the body shape is determined by analyzing the child's video. That is, the video is analyzed to measure the height, sitting height, chest circumference, abdominal circumference, etc. of the child.
When the camera 3a captures a child, if the distance from the camera 3a to the child is measured, the height and sitting height of the child can be calculated by comparing the distance with the size of the child in the video. .

ただし、体型把握部3は、カメラ3aが子供を撮影して、子供の体型を把握する際、子供が直立しておらず、例えば、うずくまっているような状況下では、子供の映像を解析しても、体型を把握することができないので、例えば、起き上がって直立の姿勢をとるように指示するメッセージをスピーカ9から音声出力する。
言うまでもないが、“直立の姿勢”はあくまでも一例に過ぎず、例えば、仰向けで寝る姿勢や、椅子の腰掛ける姿勢でもよい。
However, when the camera 3a captures the child and grasps the child's body shape, the body shape grasping unit 3 analyzes the image of the child when the child is not standing upright, for example, when the child is crouched. However, since the body shape cannot be grasped, for example, a message instructing to get up and take an upright posture is output from the speaker 9 as a voice.
Needless to say, the “upright posture” is merely an example, and for example, a posture of sleeping on the back or a posture of sitting on a chair may be used.

触診ポイント設定部4は、体型把握部3が子供の体型を把握すると、子供の体型に応じてN箇所の触診ポイントP1〜PNを設定する(ステップST3)。
例えば、子供の胴体の中から患部を探し当てる場合、図5に示すように、子供の座高と、胸囲又は腹囲とを基準にして、縦方向と横方向に等間隔に触診ポイントP1〜PNを設定する。
図5では、縦方向に5ポイント、横方向に6ポイントを設定する例を示している。ただし、これはあくまでも一例であり、縦方向に6ポイント以上、横方向に7ポイント以上を設定するようにしてもよい。
When the body shape grasping unit 3 grasps the child's body shape, the palpation point setting unit 4 sets N palpation points P 1 to P N according to the child's body shape (step ST3).
For example, when searching for an affected part from the torso of a child, as shown in FIG. 5, palpation points P 1 to P N at equal intervals in the vertical and horizontal directions based on the child's sitting height and chest or abdominal circumference. Set.
FIG. 5 shows an example in which 5 points are set in the vertical direction and 6 points are set in the horizontal direction. However, this is only an example, and 6 or more points in the vertical direction and 7 or more points in the horizontal direction may be set.

押し当て部5は、触診ポイント設定部4が触診ポイントP1〜PNを設定すると、例えば、ロボットの指23aを触診用部材として使用する設定がなされている場合、肩関節部24a,肘関節部25a及び手首関節部26aを制御して、上腕部21a,下腕部22a及び指23aを駆動することにより、ロボットの指23aを触診ポイントP1まで移動し、その触診ポイントP1にロボットの指23aを押し当てるようにする(ステップST4)。 When the palpation point setting unit 4 sets the palpation points P 1 to P N , for example, when the setting is made to use the finger 23a of the robot as a member for palpation, the pressing unit 5 has a shoulder joint 24a and an elbow joint. and controls the parts 25a and wrist joints 26a, upper arm 21a, by driving the lower arm portion 22a and the finger 23a, to move the finger 23a of the robot until palpated points P 1, of the robot to the palpated points P 1 The finger 23a is pressed (step ST4).

反応観測部6は、押し当て部5がロボットの指23aを触診ポイントP1に押し当てているとき、ユーザの反応を観測する(ステップST5)。
即ち、反応観測部6のカメラ6aは、押し当て部5がロボットの指23aを触診ポイントP1に押し当てているとき、ユーザを撮影し、ユーザの映像を画像解析部6bに出力する。
反応観測部6の画像解析部6bは、カメラ6aからユーザの映像を受けると、ユーザの映像の変化量C1を解析し、その変化量C1をユーザの反応の観測量としてメモリ6cに格納する。
例えば、カメラ6aがユーザを時系列に2回撮影し、最新の映像と前回の映像とを比較して、両映像のずれ量を変化量C1として計測する。
Reaction observation unit 6, when the pressing portion 5 is pressed against the finger 23a of the robot palpated points P 1, to observe the reaction of the user (Step ST5).
That is, the camera 6a reaction observing unit 6, when the pressing portion 5 is pressed against the finger 23a of the robot palpated points P 1, photographed user, outputs the video of the user to the image analysis unit 6b.
Storing the image analysis portion 6b of the reaction observing unit 6, when the camera 6a receives the image of the user, analyzes the change amount C 1 in the user's video, the memory 6c the variation C 1 as an observation amount of the user's reaction To do.
For example, the camera 6a is taken twice user chronologically, by comparing the latest image and the previous image, to measure the amount of deviation of the two images as a change amount C 1.

押し当て部5は、反応観測部6が触診ポイントP1におけるユーザの反応を観測すると、再度、肩関節部24a,肘関節部25a及び手首関節部26aを制御して、上腕部21a,下腕部22a及び指23aを駆動することにより、ロボットの指23aを触診ポイントP2まで移動し、その触診ポイントP2にロボットの指23aを押し当てるようにする(ステップST4)。
反応観測部6は、押し当て部5がロボットの指23aを触診ポイントP2に押し当てているとき、ユーザの映像の変化量C2を解析し、その変化量C2をユーザの反応の観測量としてメモリ6cに格納する(ステップST5)。
押し当て部5及び反応観測部6は、N箇所の触診ポイントP1〜PNにおけるユーザの反応の観測が完了するまで、ステップST4,ST5の処理を繰り返し実施する(ステップST6)。
The rest part 5 pressed, when the reaction observation unit 6 to observe the reaction of the user in the palpated points P 1, again, shoulder joints 24a, and controls the elbow joint portion 25a and the wrist joints 26a, upper arm 21a, the lower arm by driving the parts 22a and finger 23a, to move the finger 23a of the robot until palpated points P 2, so that pressing the finger 23a of the robot on the palpated points P 2 (step ST4).
When the pressing unit 5 presses the robot finger 23a against the palpation point P 2 , the reaction monitoring unit 6 analyzes the change amount C 2 of the user's video and observes the change amount C 2 of the user's response. The quantity is stored in the memory 6c (step ST5).
The pressing unit 5 and the reaction observation unit 6 repeatedly perform the processes of steps ST4 and ST5 until the observation of the user's reaction at the N palpation points P 1 to P N is completed (step ST6).

患部認定部7は、反応観測部6が触診ポイントP1〜PNにおけるユーザの反応を観測すると、その触診ポイントP1〜PNにおけるユーザの反応の観測量C1〜CNを比較して、その触診ポイントP1〜PNの中で観測量C1〜CNが最も大きい触診ポイントPmaxを特定し、その触診ポイントPmaxを患部に認定する(ステップST7)
患部情報登録部8は、患部認定部7が患部に認定すると、その患部の位置を示す情報(触診ポイントPmaxの位置)をカルテ記録部1に登録する(ステップST8)。
これにより、例えば、家族や医師などが携帯端末やパソコンなどを使用して、カルテ記録部1をアクセスすれば、患者である子供の患部を把握することができる。
When the reaction observation unit 6 observes the user's reaction at the palpation points P 1 to P N , the affected part recognition unit 7 compares the observed amounts C 1 to C N of the user's reaction at the palpation points P 1 to P N. identifies the highest palpated points P max is observables C 1 -C N in the palpated points P 1 to P N, certifies its palpated points P max to the affected area (step ST7)
When the affected part recognition unit 7 recognizes the affected part as the affected part, the affected part information registering part 8 registers information indicating the position of the affected part (position of the palpation point Pmax ) in the medical chart recording unit 1 (step ST8).
Accordingly, for example, if a family member, a doctor, or the like accesses the medical record recording unit 1 using a mobile terminal or a personal computer, the affected part of the child who is a patient can be grasped.

以上で明らかなように、この実施の形態1によれば、押し当て部5により触診用部材であるロボットの指23aが押し当てられている状態にあるときのユーザの反応を観測する反応観測部6を設け、患部認定部7が触診ポイント設定部4により設定された触診ポイントP1〜PNの中で、反応観測部6により観測されたユーザの反応が最も大きい触診ポイントPmaxを特定して、その触診ポイントPmaxを患部に認定するように構成したので、例えば、会話を十分に行うことができない子供の患部を探し当てることができる効果を奏する。 As apparent from the above, according to the first embodiment, the reaction observation unit that observes the reaction of the user when the finger 23a of the robot that is a palpation member is pressed by the pressing unit 5 6, the affected part recognition unit 7 specifies the palpation point P max where the reaction of the user observed by the reaction observation unit 6 is the largest among the palpation points P 1 to P N set by the palpation point setting unit 4. And since it comprised so that the palpation point Pmax might be recognized as an affected part, there exists an effect which can find the affected part of the child who cannot fully talk, for example.

また、この実施の形態1によれば、押し当て部5により触診用部材であるロボットの指23aが押し当てられている状態にあるときのユーザを撮影し、ユーザの映像の変化量C1〜CNをユーザの反応として観測するように構成したので、ユーザが会話を十分に行うことができない場合でも、痛い部位を調べることができる効果を奏する。
さらに、この実施の形態1によれば、患部情報登録部8が患部認定部7により認定された患部の位置を示す情報をカルテ記録部1に登録するように構成したので、例えば、家族や医師などが本格的な治療を行う前に、患部を把握することができる効果を奏する。
Also, according to the first embodiment, the user is photographed when the finger 23a of the robot, which is a palpation member, is pressed by the pressing unit 5, and the amount of change C 1- and then, it is observed C N as a user of the reaction, even if the user can not be performed sufficiently conversation offers an advantage of being able to examine painful site.
Further, according to the first embodiment, since the affected part information registration unit 8 is configured to register the information indicating the position of the affected part recognized by the affected part recognition unit 7 in the medical record recording unit 1, for example, a family member or a doctor And the like have an effect of grasping the affected area before full-scale treatment.

なお、この実施の形態1では、ロボットの指23aが触診用部材として使用されるように設定されているものについて示したが、これはあくまでも一例であり、例えば、ロボットの指23b、ロボットの手のひら、ロボットの肘などを触診用部材として使用するように設定してもよい。
触診用部材の設定は、例えば、図示せぬ設定用スイッチがロボットに搭載されていれば実現することができる。
In the first embodiment, the robot finger 23a is set to be used as a palpation member. However, this is merely an example. For example, the robot finger 23b, the palm of the robot, The robot elbow may be used as a palpation member.
The setting of the palpation member can be realized, for example, if a setting switch (not shown) is mounted on the robot.

この実施の形態1では、子供の患部を認定するものについて示したが、言うまでもないが、子供以外のユーザの患部を認定するようにしてもよい。   In this Embodiment 1, although it showed about what certifies the affected part of a child, it cannot be overemphasized, and you may make it certify the affected part of users other than a child.

実施の形態2.
図6はこの発明の実施の形態2による診断ロボットの内部を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
反応観測部6のマイク6dは押し当て部5によりロボットの手が押し当てられている状態にあるときのユーザの声を集音する。
反応観測部6の音量観測部6eはマイク6dにより集音されたユーザの声の音量V1〜VNをユーザの反応の観測量としてメモリ6cに格納する。
Embodiment 2. FIG.
6 is a block diagram showing the inside of a diagnostic robot according to Embodiment 2 of the present invention. In the figure, the same reference numerals as those in FIG.
The microphone 6 d of the reaction observation unit 6 collects the voice of the user when the hand of the robot is pressed by the pressing unit 5.
The sound volume observing unit 6e of the reaction observing unit 6 stores the sound volumes V 1 to V N of the user's voice collected by the microphone 6d in the memory 6c as the amount of user's reaction observed.

上記実施の形態1では、反応観測部6のカメラ6aが、押し当て部5によりロボットの指23aが触診ポイントP1〜PNに押し当てられているとき、ユーザを撮影してユーザの映像を画像解析部6bに出力し、画像解析部6bがユーザの映像の変化量C1〜CNを解析し、その変化量C1〜CNをユーザの反応の観測量としてメモリ6cに格納するものについて示したが、以下に示すように、ユーザの声の音量V1〜VNをユーザの反応の観測量としてメモリ6cに格納するようにしてもよい。 In the first embodiment, when the camera 6a of the reaction monitoring unit 6 is pressing the robot finger 23a against the palpation points P 1 to P N by the pressing unit 5, the user is photographed and the user's video is displayed. Output to the image analysis unit 6b, and the image analysis unit 6b analyzes the change amounts C 1 to C N of the user's video, and stores the change amounts C 1 to C N in the memory 6c as observation amounts of the user's reaction However, as shown below, the user's voice volume V 1 to V N may be stored in the memory 6c as an observation amount of the user's reaction.

即ち、反応観測部6のマイク6dは、押し当て部5がロボットの指23aを触診ポイントP1に押し当てているとき、ユーザの声を集音して、その音声信号を音量観測部6eに出力する。
反応観測部6の音量観測部6eは、マイク6dから音声信号を受けると、その音声信号の信号レベルを示す音量V1をユーザの反応の観測量としてメモリ6cに格納する。
ここでは、ロボットの指23aが触診ポイントP1に押し当てている状態のときのユーザの反応を観測するものについて示したが、反応観測部6は、上記実施の形態1と同様に、すべての触診ポイントP1〜PNでのユーザの反応を観測する。
In other words, the microphone 6d of the reaction observation unit 6, when the pressing portion 5 is pressed against the finger 23a of the robot in the palpated point P 1, by collecting the user's voice, the voice signal to the volume observation section 6e Output.
When receiving a sound signal from the microphone 6d, the sound volume observing unit 6e of the reaction observing unit 6 stores the sound volume V 1 indicating the signal level of the sound signal in the memory 6c as an observed amount of the user's reaction.
Here, as mentioned above. Observing the response of the user in the state where the finger 23a of the robot is pressed against the palpated points P 1, reaction monitoring unit 6, as in the first embodiment, all of the The user's reaction at the palpation points P 1 to P N is observed.

患部認定部7は、反応観測部6が触診ポイントP1〜PNにおけるユーザの反応を観測すると、その触診ポイントP1〜PNにおけるユーザの反応の観測量V1〜VNを比較して、その触診ポイントP1〜PNの中で観測量V1〜VNが最も大きい触診ポイントPmaxを特定し、その触診ポイントPmaxを患部に認定する。 When the reaction observation unit 6 observes the user's reaction at the palpation points P 1 to P N , the affected part recognition unit 7 compares the observation amounts V 1 to V N of the user's reaction at the palpation points P 1 to P N. identifies the highest palpated points P max is observed amount V 1 ~V N in the palpated points P 1 to P N, certifies its palpated points P max to the affected area.

以上で明らかなように、この実施の形態2によれば、押し当て部5により触診用部材であるロボットの指23aが押し当てられている状態にあるときのユーザの声を集音し、その声の音量V1〜VNをユーザの反応として観測するように構成したので、ユーザが会話を十分に行うことができない場合でも、痛い部位を調べることができる効果を奏する。 As apparent from the above, according to the second embodiment, the voice of the user when the finger 23a of the robot as a palpation member is pressed by the pressing unit 5 is collected, Since the voice volumes V 1 to V N are observed as the user's reaction, there is an effect that the painful part can be examined even when the user cannot sufficiently perform the conversation.

実施の形態3.
図7はこの発明の実施の形態3による診断ロボットの内部を示す構成図である。
上記実施の形態1では、反応観測部6がユーザの映像の変化量C1〜CNをユーザの反応の観測量としてメモリ6cに格納し、上記実施の形態2では、ユーザの声の音量V1〜VNをユーザの反応の観測量としてメモリ6cに格納するものについて示したが、ユーザの映像の変化量C1〜CNとユーザの声の音量V1〜VNをポイントに換算し、そのポイントの合計を観測量としてメモリ6cに格納するようにしてもよい。
Embodiment 3 FIG.
FIG. 7 is a block diagram showing the inside of the diagnostic robot according to the third embodiment of the present invention.
In the first embodiment, the reaction observation unit 6 stores the change amounts C 1 to C N of the user's video in the memory 6c as the observation amount of the user's reaction, and in the second embodiment, the volume V of the user's voice. Although 1 to V N is stored in the memory 6c as the observed amount of the user's reaction, the change amount C 1 to C N of the user's video and the volume V 1 to V N of the user's voice are converted into points. The total of the points may be stored in the memory 6c as an observation amount.

具体的には、以下の通りである。
反応観測部6の画像解析部6bは、上記実施の形態1と同様にして、ユーザの映像の変化量Cnを解析すると、その変化量Cnを閾値Cref1,Cref2と比較し(Cref1>Cref2)、下記に示すように、その比較結果に応じて、その変化量Cnに関するポイントCPnを決定する。
変化量Cn ポイントCPn
n≧Cref1
ref1>Cn≧Cref2
ref2>Cn
Specifically, it is as follows.
When the image analysis unit 6b of the reaction observation unit 6 analyzes the change amount C n of the user's video in the same manner as in the first embodiment, the image analysis unit 6b compares the change amount C n with the thresholds C ref1 and C ref2 (C ref1> C ref2), as shown below, in accordance with the comparison result, it determines the point CP n relates the change amount C n.
Change amount C n point CP n
C n ≧ C ref1 5
C ref1 > C n ≧ C ref2 3
C ref2 > C n 1

反応観測部6の音量観測部6eは、上記実施の形態2と同様にして、ユーザの声の音量Vnを観測すると、下記に示すように、その音量Vnのレベルに応じて、その音量Vnに関するポイントVPnを決定する。
音量Vn ポイントVPn
60dB以上 20
59dB〜50dB 15
49dB〜40dB 11
39dB〜30dB 7
29dB〜20dB 3
19dB〜10dB 2
9dB〜 0dB 1
When the volume observing unit 6e of the reaction observing unit 6 observes the volume V n of the user's voice in the same manner as in the second embodiment, as shown below, according to the level of the volume V n , Determine a point VP n for V n .
Volume V n point VP n
60 dB or more 20
59dB ~ 50dB 15
49dB ~ 40dB 11
39 dB to 30 dB 7
29dB ~ 20dB 3
19dB-10dB 2
9 dB to 0 dB 1

したがって、反応観測部6のメモリ6cには、各触診ポイントPnについて、画像解析部6bにより決定されたポイントCPnと、音量観測部6eにより決定されたポイントVPnとの合計Tn(=CPn+VPn)がユーザの反応の観測量として格納される。
患部認定部7は、反応観測部6が触診ポイントP1〜PNにおけるユーザの反応を観測すると、その触診ポイントP1〜PNにおけるユーザの反応の観測量T1〜TNを比較して、その触診ポイントP1〜PNの中で観測量T1〜TNが最も大きい触診ポイントPmaxを特定し、その触診ポイントPmaxを患部に認定する。
この実施の形態3によれば、ユーザの変化量と音声の双方を観測しているので、上記実施の形態1,2よりも、ユーザの反応を正確に捉えることができる効果を奏する。
Accordingly, the memory 6c of the reaction observation unit 6 stores, for each palpation point P n , the sum T n (=) of the point CP n determined by the image analysis unit 6b and the point VP n determined by the volume monitoring unit 6e. CP n + VP n ) is stored as an observed amount of user reaction.
When the reaction observation unit 6 observes the user's reaction at the palpation points P 1 to P N , the affected part recognition unit 7 compares the observed amounts T 1 to T N of the user's reaction at the palpation points P 1 to P N. identifies the highest palpated points P max is observables T 1 through T N in the palpated points P 1 to P N, certifies its palpated points P max to the affected area.
According to the third embodiment, since both the user's change amount and the voice are observed, there is an effect that the user's reaction can be accurately captured as compared with the first and second embodiments.

なお、上記実施の形態1〜3では、触診ポイント設定部4が触診ポイントP1〜PNを設定すると、押し当て部5が触診ポイントP1〜PNにロボットの手を押し当てるものについて示したが、押し当て部5が触診ポイントP1〜PNにロボットの手を押し当てる際、例えば「ここが痛いですか?」などの音声出力を行う問い掛けを実施するようにしてもよい。音声出力は、例えば、押し当て部5がスピーカを内蔵し、内蔵のスピーカを通じて出力してもよい。これにより、触診が行われている旨をユーザが容易に理解することができる。
このように、押し当て部5が「ここが痛いですか?」などの問い掛けを実施する場合、患部認定部7は、この問い掛けに対して、ユーザが例えば「うなずく」などの動作を行えば、あるいは、「痛い」などの音声を発すれば、現在、ロボットの手が押し当てている触診ポイントP1〜PNを患部に認定することができる。
なお、ユーザの「うなずく」などの動作は、例えば、患部認定部7がカメラや画像解析部を実装すれば検知することができる。また、ユーザの「痛い」などの音声は、例えば、患部認定部7がマイクや音声認識処理部を実装すれば検知することができる。
In the first to third embodiments, when the palpation point setting unit 4 sets the palpation points P 1 to P N , the pressing unit 5 presses the robot's hand against the palpation points P 1 to P N. However, when the pressing unit 5 presses the hand of the robot against the palpation points P 1 to P N , for example, an inquiry may be performed for outputting a voice such as “Is this a pain?”. For example, the pressing unit 5 may have a built-in speaker and may be output through the built-in speaker. Thereby, the user can easily understand that palpation is performed.
As described above, when the pressing unit 5 makes an inquiry such as “Is this painful?”, The affected part recognition unit 7 responds to the inquiry by performing an operation such as “nodding”, for example. Alternatively, if a voice such as “pain” is uttered, the palpation points P 1 to P N currently pressed by the robot's hand can be recognized as the affected part.
The user's operation such as “nodding” can be detected, for example, if the affected part recognition unit 7 is equipped with a camera or an image analysis unit. The user's voice such as “pain” can be detected, for example, if the affected part recognition unit 7 is equipped with a microphone or a voice recognition processing unit.

実施の形態4.
図8はこの発明の実施の形態4による診断ロボットの内部を示す構成図であり、図において、図7と同一符号は同一または相当部分を示すので説明を省略する。
バイタル測定部10は例えば触診用部材であるロボットの指23aに取り付けられているセンサー(例えば、血圧計、体温計、硬度計、心音計、肌色検査器、エコー検査器など)であり、例えば、押し当て部5によりロボットの手が触診ポイントP1〜PNに押し当てられているとき、あるいは、患部認定部7により患部が認定されたとき、子供のバイタルを測定する処理を実施する。ただし、バイタルの測定は、必ずしも反応観測部6が反応を観測している最中である必要はない。
バイタル情報登録部11はバイタル測定部10により測定されたバイタルを示す情報をカルテ記録部1に登録する処理を実施する。
なお、バイタル測定部10及びバイタル情報登録部11からバイタル情報登録手段が構成されている。
Embodiment 4 FIG.
FIG. 8 is a block diagram showing the inside of a diagnostic robot according to Embodiment 4 of the present invention. In the figure, the same reference numerals as those in FIG.
The vital measurement unit 10 is a sensor (for example, a sphygmomanometer, a thermometer, a hardness meter, a heart sound meter, a skin color tester, an echo tester, or the like) attached to the robot finger 23a, which is a palpation member, for example. When the hand of the robot is pressed against the palpation points P 1 to P N by the abutment unit 5 or when the affected part is recognized by the affected part recognition unit 7, a process of measuring a child's vitals is performed. However, the vital measurement need not necessarily be in the middle of the reaction observation unit 6 observing the reaction.
The vital information registration unit 11 performs a process of registering information indicating the vital measured by the vital measurement unit 10 in the medical record recording unit 1.
The vital measurement unit 10 and the vital information registration unit 11 constitute vital information registration means.

上記実施の形態1〜3では、患部情報登録部8が患部認定部7により認定された患部の位置を示す情報(触診ポイントPmaxの位置)をカルテ記録部1に登録するものについて示したが、さらに、患者である子供のバイタルを示す情報をカルテ記録部1に登録するようにしてもよい。
即ち、バイタル測定部10は、例えば、押し当て部5によりロボットの手が触診ポイントP1〜PNに押し当てられているとき、あるいは、患部認定部7により患部が認定されたとき、子供のバイタルを測定する。
バイタル情報登録部11は、バイタル測定部10が子供のバイタルを測定すると、そのバイタルを示す情報をカルテ記録部1に登録する。
In the first to third embodiments, the diseased part information registration unit 8 registers the information indicating the position of the affected part recognized by the affected part recognition unit 7 (position of the palpation point Pmax ) in the medical record recording unit 1. Furthermore, information indicating the vitality of a child who is a patient may be registered in the medical record recording unit 1.
In other words, the vital measurement unit 10 is configured such that, for example, when the hand of the robot is pressed against the palpation points P 1 to P N by the pressing unit 5 or when the affected part is recognized by the affected part recognition unit 7, Measure vitals.
When the vital measurement unit 10 measures the vitals of a child, the vital information registration unit 11 registers information indicating the vitals in the medical record recording unit 1.

以上で明らかなように、この実施の形態4によれば、患者である子供のバイタルを測定し、そのバイタルを示す情報をカルテ記録部1に登録するように構成したので、例えば、家族や医師などが患者の状態を容易に把握することができる効果を奏する。   As apparent from the above, according to the fourth embodiment, since the patient's vitality is measured and information indicating the vital is registered in the medical record recording unit 1, for example, a family member or a doctor Etc. have the effect of easily grasping the patient's condition.

実施の形態5.
図9はこの発明の実施の形態5による診断ロボットの内部を示す構成図であり、図において、図8と同一符号は同一または相当部分を示すので説明を省略する。
音声出力部12は例えば音声合成装置から構成されており、患者である子供に痛い部位を手で触れることを促すメッセージを音声出力する処理を実施する。なお、音声出力部12は音声出力手段を構成している。
映像登録部13はカメラ13aを実装しており、音声出力部12から音声が出力されたのち、患者である子供が触れている手の位置を撮影して、手の位置の映像をカルテ記録部1に登録する処理を実施する。なお、映像登録部13は映像登録手段を構成している。
Embodiment 5. FIG.
9 is a block diagram showing the inside of a diagnostic robot according to Embodiment 5 of the present invention. In the figure, the same reference numerals as those in FIG.
The voice output unit 12 is composed of, for example, a voice synthesizer, and performs a process of outputting a voice message prompting a child, who is a patient, to touch a painful part with a hand. Note that the audio output unit 12 constitutes an audio output means.
The video registration unit 13 is equipped with a camera 13a, and after the audio is output from the audio output unit 12, the image of the hand position touched by the child who is a patient is photographed, and the image of the hand position is recorded. The process of registering in 1 is performed. The video registration unit 13 constitutes video registration means.

上記実施の形態1〜4では、患部認定部7が反応観測部6により観測された子供の反応に基づいて患部を認定するものについて示したが、子供の状態によっては、反応が顕著に現れず、患部を正確に認定することができない場合がある。
そこで、この実施の形態5では、患部認定部7における患部の認定を補助するために、音声出力部12と映像登録部13を実装するようにしている。
具体的には、以下の通りである。
In the first to fourth embodiments described above, the diseased part recognition unit 7 identifies the diseased part based on the child's reaction observed by the reaction observation unit 6, but depending on the state of the child, the reaction does not appear remarkably. In some cases, the affected area cannot be accurately identified.
Therefore, in the fifth embodiment, the audio output unit 12 and the video registration unit 13 are mounted in order to assist in the identification of the affected area in the affected area identification unit 7.
Specifically, it is as follows.

音声出力部12は、患者である子供に痛い部位を手で触れることを促すメッセージを音声出力する。これにより、患者である子供が、自分の手で患部を触れることが想定される。
映像登録部13は、音声出力部12から音声が出力されたのち、実装しているカメラ13aを使用して、患者である子供が触れている手の位置を撮影し、手の位置の映像をカルテ記録部1に登録する。
これにより、家族や医師が映像中の手の位置を見れば、患部を把握することができる。
The voice output unit 12 outputs a message prompting a child who is a patient to touch a painful part with a hand. Thereby, it is assumed that the child who is a patient touches the affected part with his / her hand.
After the sound is output from the sound output unit 12, the image registration unit 13 uses the mounted camera 13a to photograph the position of the hand touched by the child as a patient, and displays the image of the hand position. Register in the chart recording unit 1.
Thereby, if a family and a doctor look at the position of the hand in a picture, it can grasp an affected part.

以上で明らかなように、この実施の形態5によれば、患者である子供に痛い部位を手で触れることを促すメッセージを音声出力する音声出力部12と、その音声出力部12から音声が出力されたのち、ユーザが触れている手の位置を撮影して、手の位置の映像をカルテ記録部1に登録する映像登録部13とを設けるように構成したので、上記実施の形態1〜4よりも正確に患部を認定することができる効果を奏する。   As is apparent from the above, according to the fifth embodiment, the voice output unit 12 that outputs a message prompting the child, who is a patient, to touch a painful part by hand, and the voice output unit 12 outputs the voice. After that, since it is configured to provide the video registration unit 13 for photographing the position of the hand touched by the user and registering the video of the hand position in the medical chart recording unit 1, the first to fourth embodiments. This has the effect that the affected part can be identified more accurately.

実施の形態6.
上記実施の形態1〜5では、患部認定部7により認定された患部の位置を示す情報(触診ポイントPmaxの位置)をカルテ記録部1に登録するものについて示したが、患部認定部7が患部を認定すると、患部を認定した旨を例えば医師の携帯端末などに直接通知するようにしてもよい。
その際、医師などが、診断ロボットを遠隔操作できる仕組みを実装するようにしてもよい。例えば、診断ロボットが心臓マッサージ用のAEDを患者に貼り付ける処置を行う遠隔操作などが考えられる。
また、患部認定部7が患者の患部に、患部である旨を示すマークをつけるようにしてもよい。
また、患部認定部7が患部の対処法や受診診療科を案内するようにしてもよい。
Embodiment 6 FIG.
In the said Embodiment 1-5, although shown about what registers the information (position of palpation point Pmax ) which shows the position of the affected part recognized by the affected part recognition part 7 in the medical chart recording part 1, the affected part recognition part 7 is shown. When the affected part is recognized, the fact that the affected part has been recognized may be directly notified to, for example, a doctor's portable terminal.
At this time, a mechanism that allows a doctor or the like to remotely operate the diagnostic robot may be implemented. For example, a remote operation in which a diagnostic robot performs a procedure of attaching an AED for cardiac massage to a patient can be considered.
Alternatively, the affected part recognition unit 7 may mark the affected part of the patient to indicate that it is an affected part.
Further, the affected part recognition unit 7 may guide the coping method of the affected part and the consultation department.

なお、上記実施の形態1〜6では、複数のカメラ(例えば、カメラ3a,6a,13a)が実装されているものについて示したが、診断ロボットには1台のカメラを実装し、1台のカメラがカメラ3a,6a,13aの機能を兼ねるようにしてもよい。   In the first to sixth embodiments, a case where a plurality of cameras (for example, the cameras 3a, 6a, and 13a) are mounted has been described. However, one camera is mounted on the diagnostic robot, and one camera is mounted. The camera may also function as the cameras 3a, 6a, and 13a.

この発明の実施の形態1による診断ロボットの内部を示す構成図である。It is a block diagram which shows the inside of the diagnostic robot by Embodiment 1 of this invention. この発明の実施の形態1による診断ロボットを示す正面図である。It is a front view which shows the diagnostic robot by Embodiment 1 of this invention. この発明の実施の形態1による診断ロボットを示す側面図である。It is a side view which shows the diagnostic robot by Embodiment 1 of this invention. この発明の実施の形態1による診断ロボットの制御方法を示すフローチャートである。It is a flowchart which shows the control method of the diagnostic robot by Embodiment 1 of this invention. 触診ポイントP1〜PNの設定を示す説明図である。Is an explanatory diagram showing the setting of the palpated points P 1 to P N. この発明の実施の形態2による診断ロボットの内部を示す構成図である。It is a block diagram which shows the inside of the diagnostic robot by Embodiment 2 of this invention. この発明の実施の形態3による診断ロボットの内部を示す構成図である。It is a block diagram which shows the inside of the diagnostic robot by Embodiment 3 of this invention. この発明の実施の形態4による診断ロボットの内部を示す構成図である。It is a block diagram which shows the inside of the diagnostic robot by Embodiment 4 of this invention. この発明の実施の形態5による診断ロボットの内部を示す構成図である。It is a block diagram which shows the inside of the diagnostic robot by Embodiment 5 of this invention.

符号の説明Explanation of symbols

1 カルテ記録部(閲覧可能な記録媒体)
2 患者情報入力受付部(触診ポイント設定手段)
3 体型把握部(触診ポイント設定手段)
3a カメラ
4 触診ポイント設定部(触診ポイント設定手段)
5 押し当て部(押し当て手段)
6 反応観測部(反応観測手段)
6a カメラ
6b 画像解析部
6c メモリ
6d マイク
6e 音量観測部
7 患部認定部(患部認定手段)
8 患部情報登録部(患部情報登録手段)
9 スピーカ
10 バイタル測定部(バイタル情報登録手段)
11 バイタル情報登録部(バイタル情報登録手段)
12 音声出力部(音声出力手段)
13 映像登録部(映像登録手段)
13a カメラ
21a,21b 上腕部
22a,22b 下腕部
23a,23b 指(触診用部材)
24a,24b 肩関節部
25a,25b 肘関節部
26a,26b 手首関節部
27a,27b 目
28 口
1 Medical record recording section (recordable recording media)
2 Patient information input reception part (Palpation point setting means)
3 Body shape grasping part (Palpation point setting means)
3a Camera 4 Palpation point setting part (Palpation point setting means)
5 Pushing part (Pushing means)
6 Reaction observation section (reaction observation means)
6a Camera 6b Image analysis part 6c Memory 6d Microphone 6e Volume observation part 7 Affected part recognition part (affected part recognition means)
8 affected area information registration section (affected area information registration means)
9 Speaker 10 Vital measurement part (Vital information registration means)
11 Vital information registration department (Vital information registration means)
12 Audio output unit (Audio output means)
13 Video registration unit (Video registration means)
13a Camera 21a, 21b Upper arm part 22a, 22b Lower arm part 23a, 23b Finger (member for palpation)
24a, 24b shoulder joint part 25a, 25b elbow joint part 26a, 26b wrist joint part 27a, 27b eye 28 mouth

Claims (8)

ユーザの体型を把握して、少なくとも1以上の触診ポイントを設定する触診ポイント設定手段と、上記触診ポイント設定手段により設定された触診ポイントに触診用部材を押し当てる押し当て手段と、上記押し当て手段により触診用部材が押し当てられている状態にあるときのユーザの反応を観測する反応観測手段と、上記触診ポイント設定手段により設定された1以上の触診ポイントの中で、上記反応観測手段により観測されたユーザの反応が最も大きい触診ポイントを特定して、その触診ポイントを患部に認定する患部認定手段とを備えた診断ロボット。   A palpation point setting means for grasping a user's body shape and setting at least one palpation point, a pressing means for pressing a palpation member against the palpation point set by the palpation point setting means, and the pressing means The reaction observation means for observing the user's reaction when the palpation member is being pressed by and the one or more palpation points set by the palpation point setting means. A diagnostic robot comprising an affected area identifying means for identifying a palpation point having the greatest response from the user and identifying the affected area as an affected area. 反応観測手段は、押し当て手段により触診用部材が押し当てられている状態にあるときのユーザを撮影し、ユーザの映像の変化量をユーザの反応として観測することを特徴とする請求項1記載の診断ロボット。   The response observing means captures a user when the palpation member is being pressed by the pressing means, and observes a change amount of the user's video as a user's reaction. Diagnostic robot. 反応観測手段は、押し当て手段により触診用部材が押し当てられている状態にあるときのユーザの声を集音し、その声の音量をユーザの反応として観測することを特徴とする請求項1または請求項2記載の診断ロボット。   The response observation means collects a user's voice when the palpation member is being pressed by the pressing means, and observes the volume of the voice as a user's reaction. Or the diagnostic robot of Claim 2. 患部認定手段により認定された患部の位置を示す情報を閲覧可能な記録媒体に登録する患部情報登録手段を設けたことを特徴とする請求項1から請求項3のうちのいずれか1項記載の診断ロボット。   The affected part information registration means for registering information indicating the position of the affected part recognized by the affected part recognition means in a recordable recording medium is provided. Diagnostic robot. 押し当て手段は、触診ポイント設定手段により設定された触診ポイントに触診用部材を押し当てる際、ユーザに問い掛けを行うことを特徴とする請求項1から請求項4のうちのいずれか1項記載の診断ロボット。   5. The pressing device according to claim 1, wherein the pressing device makes an inquiry to the user when pressing the palpation member against the palpation point set by the palpation point setting device. Diagnostic robot. ユーザのバイタルを測定し、そのバイタルを示す情報を閲覧可能な記録媒体に登録するバイタル情報登録手段を設けたことを特徴とする請求項1から請求項5のうちのいずれか1項記載の診断ロボット。   6. The diagnosis according to any one of claims 1 to 5, further comprising vital information registration means for measuring a user's vitals and registering information indicating the vitals in a viewable recording medium. robot. 触診ポイント設定手段がユーザの体型を把握して、少なくとも1以上の触診ポイントを設定する触診ポイント設定ステップと、押し当て手段が上記触診ポイント設定手段により設定された触診ポイントに触診用部材を押し当てる押し当てステップと、反応観測手段が上記押し当て手段により触診用部材が押し当てられている状態にあるときのユーザの反応を観測する反応観測ステップと、患部認定手段が上記触診ポイント設定手段により設定された1以上の触診ポイントの中で、上記反応観測手段により観測されたユーザの反応が最も大きい触診ポイントを特定して、その触診ポイントを患部に認定する患部認定ステップとを備えた診断ロボットの制御方法。   The palpation point setting means grasps the user's body shape and sets at least one or more palpation points, and the pressing means presses the palpation member against the palpation points set by the palpation point setting means. A pressing step, a reaction observing step in which the reaction observing means is in a state where the palpation member is pressed by the pressing means, and an affected part identification means are set by the palpation point setting means. A diagnostic robot comprising: an affected part identification step for identifying a palpated point with the greatest user response observed by the reaction observation means from among the one or more palpated points, and identifying the affected point as an affected part. Control method. ユーザの体型を把握して、少なくとも1以上の触診ポイントを設定する触診ポイント設定処理手順と、上記触診ポイント設定処理手順により設定された触診ポイントに触診用部材を押し当てる押し当て処理手順と、上記押し当て処理手順により触診用部材が押し当てられている状態にあるときのユーザの反応を観測する反応観測処理手順と、上記触診ポイント設定処理手順により設定された1以上の触診ポイントの中で、上記反応観測処理手順により観測されたユーザの反応が最も大きい触診ポイントを特定して、その触診ポイントを患部に認定する患部認定処理手順とをコンピュータに実行させるための診断ロボットの制御プログラム。   Grasping a user's body shape, setting at least one or more palpation points, a palpation point setting processing procedure, a pressing processing procedure for pressing a palpation member against the palpation points set by the palpation point setting processing procedure, and Among the one or more palpation points set by the reaction observation processing procedure for observing the reaction of the user when the member for palpation is pressed by the pressing processing procedure and the palpation point setting processing procedure, A diagnostic robot control program for identifying a palpation point having the greatest user response observed by the reaction observation processing procedure and causing the computer to execute an affected area recognition processing procedure for recognizing the affected area as an affected area.
JP2007002741A 2007-01-10 2007-01-10 Diagnostic robot, and control method and control program of diagnostic robot Pending JP2008167866A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007002741A JP2008167866A (en) 2007-01-10 2007-01-10 Diagnostic robot, and control method and control program of diagnostic robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007002741A JP2008167866A (en) 2007-01-10 2007-01-10 Diagnostic robot, and control method and control program of diagnostic robot

Publications (1)

Publication Number Publication Date
JP2008167866A true JP2008167866A (en) 2008-07-24

Family

ID=39696512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007002741A Pending JP2008167866A (en) 2007-01-10 2007-01-10 Diagnostic robot, and control method and control program of diagnostic robot

Country Status (1)

Country Link
JP (1) JP2008167866A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109641357A (en) * 2016-08-24 2019-04-16 川崎重工业株式会社 The remote supervision system of robot
JP2020121353A (en) * 2019-01-29 2020-08-13 新東工業株式会社 robot

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109641357A (en) * 2016-08-24 2019-04-16 川崎重工业株式会社 The remote supervision system of robot
CN109641357B (en) * 2016-08-24 2022-10-14 川崎重工业株式会社 Remote monitoring system for robot
JP2020121353A (en) * 2019-01-29 2020-08-13 新東工業株式会社 robot

Similar Documents

Publication Publication Date Title
JP6878628B2 (en) Systems, methods, and computer program products for physiological monitoring
JP6675462B2 (en) Motion information processing device
KR101616473B1 (en) Smartphone with telemedical device
TW480168B (en) Multi-modal cardiac diagnostic decision support system
WO2013089072A1 (en) Information management device, information management method, information management system, stethoscope, information management program, measurement system, control program and recording medium
KR102458587B1 (en) Universal device and method to integrate diagnostic testing into treatment in real-time
US8200277B2 (en) Mobile phone with a stethoscope
US20170007126A1 (en) System for conducting a remote physical examination
CN101015450A (en) China electronic pulse feeling device
US20090203986A1 (en) Medical data collection device
JP2002052022A (en) Stethoscope mouth
KR20190058858A (en) Method for providing diagnostic information on cardiovascular diseases using a smart device and heart sound application for the same
US20060281975A1 (en) Home health care interacting instrument
JP2020022696A (en) Biological information measurement device, biological information system
EP1495721A2 (en) Biological-sound data processing system, program, and recording medium
US20220005601A1 (en) Diagnostic device for remote consultations and telemedicine
CN109330581A (en) A kind of wearable pulse information acquisition device
JP2014023715A (en) Measurement support device, measurement support method, control program, and recording medium
CN108091370A (en) Information input method and device, computer readable storage medium
WO2019000909A1 (en) Telemedical device, information acquisition device, and telemedical system and method
US20040225476A1 (en) Inspection apparatus for diagnosis
JP2008167866A (en) Diagnostic robot, and control method and control program of diagnostic robot
US20130123646A1 (en) Method and electronic device for remote diagnosis
TWM446374U (en) Coughs recording device
US9076310B2 (en) Method and electronic device for remote diagnosis