JP2020121353A - robot - Google Patents

robot Download PDF

Info

Publication number
JP2020121353A
JP2020121353A JP2019013589A JP2019013589A JP2020121353A JP 2020121353 A JP2020121353 A JP 2020121353A JP 2019013589 A JP2019013589 A JP 2019013589A JP 2019013589 A JP2019013589 A JP 2019013589A JP 2020121353 A JP2020121353 A JP 2020121353A
Authority
JP
Japan
Prior art keywords
arm
measurement target
target person
control unit
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019013589A
Other languages
Japanese (ja)
Inventor
亮 三枝
Ryo Saegusa
亮 三枝
慶太 平山
Keita Hirayama
慶太 平山
薪雄 鈴木
Makio Suzuki
薪雄 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sintokogio Ltd
Toyohashi University of Technology NUC
Original Assignee
Sintokogio Ltd
Toyohashi University of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sintokogio Ltd, Toyohashi University of Technology NUC filed Critical Sintokogio Ltd
Priority to JP2019013589A priority Critical patent/JP2020121353A/en
Publication of JP2020121353A publication Critical patent/JP2020121353A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To achieve a robot capable of reducing burden of a measuring object person.SOLUTION: Each of robots (1, 1a) includes: an arm (11) on which a measuring device (12) for measuring a vital sign of a measuring object person is mounted; and a control section (10). The control section executes proximity processing for controlling the arm so that the measuring device comes close to the measuring object person and measurement processing for causing the measuring device to measure the vital sign of the measuring object person after the proximity processing.SELECTED DRAWING: Figure 1

Description

本発明は、ロボットに関する。 The present invention relates to a robot.

測定対象者の生体データの測定を補助するロボットが従来技術として知られている。特許文献1では、測定対象者が測定器を装着して生体データを測定する時間になったら、測定対象者との会話で生体データの測定を測定対象者に促す等の機能を有するロボットが記載されている。 A robot that assists in measuring biometric data of a measurement target is known as a conventional technique. Patent Document 1 describes a robot having a function of prompting the measurement target person to measure the biometric data in a conversation with the measurement target person when it is time for the measurement target person to wear the measuring device and measure the biometric data. Has been done.

特開平2006−285425号公報(2006年10月19日公開)Japanese Patent Laid-Open No. 2006-285425 (Published October 19, 2006)

しかしながら、上述のような従来技術は、体温等の測定を行う場合に、測定対象者が、測定器を取りに行く必要や準備する必要があり、負担となるという問題がある。 However, the above-described conventional techniques have a problem that the measurement target person needs to go and prepare a measuring instrument when measuring the body temperature and the like, which is a burden.

本発明の一態様は、上記の問題を鑑みてなされたものであり、測定対象者の負担を軽減することができるロボットを実現することを目的とする。 One aspect of the present invention has been made in view of the above problems, and an object of the present invention is to realize a robot that can reduce the burden on the measurement target person.

上記の課題を解決するために、本発明の一態様に係るロボットは、測定対象者のバイタルサインを測定する測定器が搭載されたアームと、制御部と、を備え、前記制御部は、前記測定器が前記測定対象者に近づくように前記アームを制御する近接処理と、前記近接処理の後、前記測定器に前記測定対象者のバイタルサインを測定させる測定処理と、を実行する。 In order to solve the above problems, a robot according to an aspect of the present invention includes an arm on which a measuring device that measures a vital sign of a measurement target person is mounted, and a control unit, and the control unit is the A proximity process that controls the arm so that the measuring instrument approaches the measurement target person, and a measurement process that causes the measurement instrument to measure the vital sign of the measurement target person after the proximity process are performed.

本発明の一態様によれば、測定対象者の負担を軽減することができるロボットを実現できる。 According to one aspect of the present invention, it is possible to realize a robot that can reduce the load on the measurement target person.

実施形態1に係るロボットの機能ブロック図である。3 is a functional block diagram of the robot according to the first embodiment. FIG. ロボットの外観図である。It is an external view of a robot. 実施形態1に係る処理の流れを示すフローチャートである。6 is a flowchart showing a flow of processing according to the first embodiment. 実施形態2に係る処理の流れを示すフローチャートである。9 is a flowchart showing the flow of processing according to the second embodiment. 実施形態3に係るロボットの機能ブロック図である。7 is a functional block diagram of a robot according to a third embodiment. FIG. 実施形態3に係る処理の流れを示すフローチャートである。9 is a flowchart showing the flow of processing according to the third embodiment. アームが有する機構の一例を示す図である。It is a figure which shows an example of the mechanism which an arm has. アームの関節部分を固定化する機構の一例を示す断面図である。It is sectional drawing which shows an example of the mechanism which fixes the joint part of an arm.

本発明の実施形態について図1〜図8を参照して説明すれば以下の通りである。 An embodiment of the present invention will be described below with reference to FIGS. 1 to 8.

〔実施形態1〕
以下、本発明の一実施形態について、図1〜図3を参照して説明すれば以下の通りである。本実施形態においては、バイタルサインの測定対象である測定対象者に接近して測定器を差し出すロボットについて説明する。
[Embodiment 1]
An embodiment of the present invention will be described below with reference to FIGS. 1 to 3. In the present embodiment, a robot that approaches a measurement target person who is a vital sign measurement target and presents a measuring instrument will be described.

〔1.ロボット1の構成〕
図1及び図2を参照して本実施形態の構成について説明する。図1は、本実施形態に係るロボット1の機能ブロック図である。また、図2は、ロボット1の外観図である。
[1. Configuration of Robot 1]
The configuration of this embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a functional block diagram of a robot 1 according to this embodiment. Further, FIG. 2 is an external view of the robot 1.

ロボット1は、例えば施設内で医療介護等の用途に用いられるロボットであって、制御部10、アーム11、検知部13、走行部14、通信部18及び記憶部19を備えている。 The robot 1 is, for example, a robot used for medical care in an institution, and includes a control unit 10, an arm 11, a detection unit 13, a traveling unit 14, a communication unit 18, and a storage unit 19.

制御部10は、ロボット1全体を統括する制御装置である。制御部10は、例えば、測定器12が測定対象者に近づくようにアーム11を制御する近接処理と、測定器12に測定対象者のバイタルサインを測定させる測定処理とを実行する。 The control unit 10 is a control device that controls the entire robot 1. The control unit 10 executes, for example, proximity processing that controls the arm 11 so that the measuring instrument 12 approaches the measurement target person, and measurement processing that causes the measuring instrument 12 to measure the vital sign of the measurement target person.

また、制御部10は、検知部13の検知結果に含まれる人物を識別する。制御部10が人物を識別する方法は、従来技術を用いてもよい。また、制御部10が、ニューラルネットワーク機構を備え、人物の識別について機械学習を行う構成でもよい。 The control unit 10 also identifies a person included in the detection result of the detection unit 13. A conventional technique may be used for the method of identifying the person by the control unit 10. Alternatively, the control unit 10 may include a neural network mechanism and perform machine learning for identifying a person.

また、制御部10は、図示しないスピーカー等を介して、例えば測定対象者の姿勢変更を促すアナウンスを行う機能を有していてもよい。 Further, the control unit 10 may have a function of making an announcement for prompting a posture change of the measurement target person via a speaker or the like (not shown).

アーム11は、1又は複数の関節を有するロボットアームであって、測定器12を備えている。また、アーム11は、ロボット1が狭い場所を通れるように、コンパクトに折り畳むことができることが望ましい。また、アーム11の詳細な構成例については後述する。
測定器12は、測定対象者のバイタルサインを測定する機器である。上述したバイタルサインとは、測定対象者の体温、血圧、脈拍、呼吸、或いは血中酸素濃度等に例示される、測定対象者の生体活動に関する情報である。また、測定器12が位置する場所は、特に限定されないが、アーム11の先端付近であることが望ましい。
The arm 11 is a robot arm having one or a plurality of joints, and includes a measuring device 12. Further, it is desirable that the arm 11 can be folded compactly so that the robot 1 can pass through a narrow space. A detailed configuration example of the arm 11 will be described later.
The measuring device 12 is a device that measures the vital sign of the measurement subject. The above-mentioned vital sign is information regarding the biological activity of the measurement target person, which is exemplified by the body temperature, blood pressure, pulse, respiration, blood oxygen concentration, etc. of the measurement target person. The location where the measuring instrument 12 is located is not particularly limited, but it is desirable that it is near the tip of the arm 11.

また、測定器12は、測定部位に対して、非接触検知と接触検知との一方又は双方が可能であってもよい。非接触検知の一例としては、身体の表面の体温、呼吸変動、又は外観から推定可能な情報の検知等が挙げられる。接触検知の一例としては、脈拍、血圧、又は血中酸素濃度等が挙げられる。 Further, the measuring device 12 may be capable of performing non-contact detection, contact detection, or both with respect to the measurement site. Examples of non-contact detection include detection of information that can be estimated from body temperature on the surface of the body, respiratory fluctuation, or appearance. Examples of contact detection include pulse, blood pressure, blood oxygen concentration, and the like.

検知部13は、ロボット1の周囲の人物を検知する。以下、検知部13は、ロボット1の周囲を撮像するカメラを備えるものとして説明する。 The detection unit 13 detects a person around the robot 1. Hereinafter, the detection unit 13 will be described as including a camera that captures an image of the surroundings of the robot 1.

走行部14は、ロボット1を移動させる機能を有する車輪等の部材である。なお、走行部14は、例えばキャタピラ等によって実現される構成でもよい。 The traveling unit 14 is a member such as a wheel having a function of moving the robot 1. The traveling unit 14 may have a configuration realized by, for example, a caterpillar.

通信部18は、サーバ等の外部の装置との通信処理を行う。記憶部19は、各種データを保持する記憶装置である。記憶部19は、上述した機械学習における各種パラメータ等、制御部10が人物を識別する場合に参照する情報、各人物の身長や体重及び負傷箇所等を示す情報、並びにバイタルサインの測定結果等を、例えばデータベース形式で格納する。 The communication unit 18 performs communication processing with an external device such as a server. The storage unit 19 is a storage device that holds various data. The storage unit 19 stores various parameters in the machine learning described above, information that the control unit 10 refers to when identifying a person, information indicating the height and weight of each person, an injured portion, and the like, and measurement results of vital signs. , In a database format, for example.

なお、ロボット1が備える各部材は単数であることに限定されず、複数の当該部材を備える構成でもよい。また、各部材における上述した処理の一部が、他の部材によって実行されてもよい。また、ロボット1が備える各部材における上述した一部の処理が、当該外部の装置によって実行される構成でもよい。 It should be noted that each member included in the robot 1 is not limited to a single member, and may be configured to include a plurality of members. Further, a part of the above-mentioned processing in each member may be executed by another member. Further, a part of the above-described processing in each member included in the robot 1 may be executed by the external device.

〔2.処理の流れ〕
以下、ロボット1が測定対象者に接近して測定器12を差し出す処理の流れについて、図1及び図3を参照して説明する。図3は、本実施形態に係る処理の流れを示すフローチャートである。
[2. Processing flow]
Hereinafter, a flow of processing in which the robot 1 approaches the measurement target person and presents the measuring instrument 12 will be described with reference to FIGS. 1 and 3. FIG. 3 is a flowchart showing the flow of processing according to this embodiment.

(ステップS101)
ステップS101において、制御部10は、検知部13にロボット1の周囲の画像を撮像させる。そして、一態様において、予め設定された測定対象者の方へ移動するように走行部14を制御してロボット1を適宜移動させる。例えば、記憶部19に各人のベッドの位置を示す情報が格納されており、制御部10が、当該情報を参照してロボット1を移動させる方向を決定してもよい。また、他の態様において、予め設定された巡回ルートに従って移動するように走行部14を制御してロボット1を適宜移動させてもよい。
(Step S101)
In step S101, the control unit 10 causes the detection unit 13 to capture an image of the surroundings of the robot 1. Then, in one aspect, the traveling unit 14 is controlled so as to move toward the preset measurement target person, and the robot 1 is appropriately moved. For example, information indicating the position of each person's bed may be stored in the storage unit 19, and the control unit 10 may determine the direction in which the robot 1 is moved by referring to the information. Further, in another aspect, the traveling unit 14 may be controlled to move along the preset patrol route to move the robot 1 appropriately.

なお、制御部10が検知部13にロボット1の周囲の画像を撮像させて周囲の物体を認識する処理は、以降のステップにおいても継続する。 The process in which the control unit 10 causes the detection unit 13 to capture an image of the surroundings of the robot 1 and recognizes the surrounding objects also continues in the subsequent steps.

また、各測定対象者におけるバイタルサインの測定頻度は互いに異なっていてもよい。例えば、深刻な健康状態にある測定対象者に対しては、そうでない測定対象者によりも高い頻度でバイタルサインの測定を行ってもよい。 Further, the frequency of measuring vital signs in each measurement subject may be different from each other. For example, a vital sign may be measured more frequently for a measurement subject who is in a serious health condition than for a measurement subject who is not.

(ステップS102)
続いて、ステップS102において、制御部10は、ステップS101における検知部13の検知結果、つまり撮像画像と、記憶部19とを参照して、当該撮像画像内に測定対象者が存在するか否かを判定する。撮像画像内の測定対象者を特定した場合は、続いてステップS103の処理が実行され、そうでない場合は、再度ステップS101の処理が実行される。
(Step S102)
Subsequently, in step S102, the control unit 10 refers to the detection result of the detection unit 13 in step S101, that is, the captured image and the storage unit 19, and determines whether or not the measurement target person exists in the captured image. To judge. If the measurement target person in the captured image is specified, the process of step S103 is subsequently executed, and if not, the process of step S101 is executed again.

また、本ステップ又は以降の任意のタイミングにおいて、制御部10は、測定対象者の顔に応じた判定、又は呼吸状態についての判定を行ってもよい。ここで、顔に応じた判定とは、例えば、顔によって人物を識別する判定、又は表情、顔色、若しくは顔の表面の体温等の異常の有無についての判定等を意味する。また、呼吸状態についての判定とは、例えば呼吸音、又は胸郭領域若しくは胸郭変動の異常の有無についての判定を意味する。 Further, at this step or at any timing thereafter, the control unit 10 may perform the determination according to the face of the measurement target person or the determination regarding the breathing state. Here, the determination according to the face means, for example, a determination for identifying a person by the face, a determination regarding whether or not there is an abnormality such as a facial expression, a facial color, or a body temperature on the surface of the face. Further, the determination of the respiratory state means, for example, determination of whether or not there is an abnormality in the breath sound or the chest region or chest variation.

また、制御部10は、検出した測定対象者の顔色と、記憶部19に格納された、健康状態にある当該測定対象者の顔色、又は健康状態にない当該測定対象者の顔色とを比較し、判定結果、つまり顔色の状態又は良し悪しを記憶部19に格納してもよい。 In addition, the control unit 10 compares the detected complexion of the measurement target person with the complexion of the measurement target person in a healthy state or the complexion of the measurement target person who is not in a healthy state, which is stored in the storage unit 19. The determination result, that is, the state or the quality of the complexion may be stored in the storage unit 19.

また、制御部10は、顔によって推定した人物を確認するための声掛けであって、例えば「〜さんですか?」と名前を呼びかける声掛けを行ってもよい。また、制御部10は、測定対象者の顔画像から抽出した表情や色相に異常があれば、例えば「気分がよくないですか?」などと声掛けを行ってもよい。また、制御部10は、顔画像から推定される、又は図示しないサーモグラフによって測定される顔の表面の温度に異常があれば、例えば「熱っぽいですか?」などと声掛けを行ってもよい。また、制御部10は、測定対象者の呼吸状態に異常があれば、例えば「呼吸が苦しいですか?」などと声掛けを行ってもよい。
また、測定対象者から健康状態の異常を自覚する旨の返答があった場合、制御部10はその旨を通知する情報を外部の装置に送信してもよい。
In addition, the control unit 10 may perform a voice call for confirming the person estimated by the face, for example, a voice call for a name "Is it Mr.?" Further, if there is an abnormality in the facial expression or hue extracted from the face image of the measurement target person, the control unit 10 may call out, for example, "Do you feel unwell?" Further, if there is an abnormality in the temperature of the surface of the face estimated from the face image or measured by a thermograph (not shown), the control unit 10 may call out, for example, "is it hot?" .. Moreover, the control unit 10 may call out, for example, "Is breathing difficult?" if the measurement subject has an abnormal breathing state.
Further, when there is a response from the measurement target person that he/she is aware of the abnormal health condition, the control unit 10 may send information to that effect to an external device.

なお、制御部10は、予め設定された測定対象者以外の人物に対しても上述した顔に応じた判定等を行い、異常があると判定した場合には声掛けを行ってもよい。 In addition, the control unit 10 may perform a determination or the like according to the face described above even for a person other than a preset measurement target person, and may call out when it is determined that there is an abnormality.

(ステップS103)
続いて、ステップS103において、制御部10は、ステップS102において特定した測定対象者に近づくように走行部14を制御する。
(Step S103)
Subsequently, in step S103, the control unit 10 controls the traveling unit 14 so as to approach the measurement target person specified in step S102.

一態様において、制御部10は、ステップS102において特定した測定対象者に応じた方向から、当該測定対象者に近づくように走行部14を制御してもよい。例えば、測定対象者が半身麻痺である場合、制御部10は、当該測定対象者の体に不自由の無い方向から近づくように走行部14を制御してもよい。また、一態様において、測定対象者が隻眼である場合、制御部10は、当該測定対象者の不自由が無い目の方向から近づくように走行部14を制御してもよい。上記の構成によれば、測定対象者の不安感を抑制できることに加え、安全性が向上する。 In one aspect, the control unit 10 may control the traveling unit 14 so as to approach the measurement target person from the direction according to the measurement target person specified in step S102. For example, when the measurement target person has hemiplegia, the control unit 10 may control the traveling unit 14 so as to approach the measurement target person from the direction in which there is no inconvenience. Moreover, in one aspect, when the measurement target person is a boat eye, the control unit 10 may control the traveling unit 14 so as to approach from the direction of the eyes in which the measurement target person is not inconvenient. According to the above configuration, the anxiety of the measurement subject can be suppressed and the safety is improved.

なお、制御部10は、必ずしも測定対象者ごとに近づく方向を制御しなくともよい。例えば、制御部10は、測定対象者に対して一律で最短距離となる方向から当該測定対象者に近づくように走行部14を制御する構成でもよい。 Note that the control unit 10 does not necessarily have to control the approaching direction for each measurement target person. For example, the control unit 10 may be configured to control the traveling unit 14 so as to approach the measurement target person from the direction in which the measurement target person is uniformly the shortest distance.

(ステップS104)
続いて、ステップS104において、制御部10は、測定器12が測定対象者に近づくようにアーム11を制御する近接処理を実行する。好ましくは、制御部10は、測定器12が測定対象者の測定部位に近づくようにアーム11を制御する。
(Step S104)
Subsequently, in step S104, the control unit 10 executes proximity processing for controlling the arm 11 so that the measuring instrument 12 approaches the measurement target person. Preferably, the control unit 10 controls the arm 11 so that the measuring device 12 approaches the measurement site of the measurement target person.

一態様において、制御部10は、ステップS101において特定した測定対象者に応じた位置に測定器12が位置するように、アーム11を制御する。例えば、制御部10は、測定対象者に応じて異なる高さにアーム11を差し出すように制御してもよい。また、一態様において、測定対象者が負傷している場合、制御部10は、アーム11が当該負傷箇所にぶつからないように避けてアーム11を差し出すように制御してもよい。 In one mode, control part 10 controls arm 11 so that measuring instrument 12 may be located in a position according to the measurement subject specified in step S101. For example, the control unit 10 may control the arm 11 to be extended to different heights depending on the measurement target person. Further, in one aspect, when the measurement target person is injured, the control unit 10 may control the arm 11 so as to avoid it from hitting the injured portion and to extend the arm 11.

このように、ロボット1が備える制御部10は、近接処理において、測定対象者に応じた位置に測定器12が位置するように、アーム11を制御してもよい。上記の構成によれば、測定対象者ごとの好適な場所に測定器12を移動させることができる。 As described above, the control unit 10 included in the robot 1 may control the arm 11 so that the measuring device 12 is located at a position according to the measurement target person in the proximity processing. According to the above-mentioned composition, measuring instrument 12 can be moved to a suitable place for every person to be measured.

なお、ステップS103におけるロボット1が測定対象者に近づく方向、及び本ステップにおけるアーム11の差し出し位置は、毎回一律でなくともよい。例えば、制御部10は、利用者の身体、性格、嗜好の事前情報や、測定対象者の姿勢、例えば、測定対象者がベッドに寝ているか車椅子に座っているか等の状態に応じて当該方向などを変化させてもよい。 The direction in which the robot 1 approaches the measurement target person in step S103, and the extension position of the arm 11 in this step may not be uniform every time. For example, the control unit 10 determines the direction according to the user's body, personality, preference information in advance, the posture of the measurement target person, for example, the state such as whether the measurement target person is sleeping in a bed or sitting in a wheelchair. Etc. may be changed.

なお、制御部10は、必ずしも測定対象者ごとに対応する位置に測定器12が位置するようにアーム11を制御しなくともよい。例えば、制御部10は、測定対象者に対して一律で、測定するバイタルサインの種別に応じた位置にアーム11を制御してもよい。 The control unit 10 does not necessarily have to control the arm 11 so that the measuring device 12 is located at a position corresponding to each measurement target person. For example, the control unit 10 may control the arm 11 at a position that is uniform for the measurement target person and that corresponds to the type of vital sign to be measured.

また、図3のフローチャートでは、ステップS104は、ステップS103の後に行うようになっているが、ステップS103とステップS104とは、一部または全部を並行して行う構成であってもよい。 Further, in the flowchart of FIG. 3, step S104 is performed after step S103, but step S103 and step S104 may be configured such that some or all of them are performed in parallel.

(ステップS105)
続いて、ステップS105において、制御部10は、測定器12に、測定対象者のバイタルサインを測定させる測定処理を実行する。また、制御部10は、測定処理を行う場合に、身体を動かさないように当該測定対象者に対してアナウンスしてもよい。また、制御部10は、アーム11の一部を用いて、測定対象者が身体を動かさないように支えてもよい。そして、制御部10は、測定処理の測定結果を、後程参照可能となるように記憶部19に格納する。また、後述するように、制御部10が通信部18を介して、当該測定結果を外部の装置に送信する構成でもよい。また、ロボット1は、当該測定結果を例えば音声によって測定対象者に対して提示してもよい。
(Step S105)
Subsequently, in step S105, the control unit 10 executes a measurement process that causes the measuring device 12 to measure the vital sign of the measurement target person. In addition, when performing the measurement process, the control unit 10 may make an announcement to the measurement target person so as not to move the body. In addition, the control unit 10 may use a part of the arm 11 to support the measurement target person so as not to move the body. Then, the control unit 10 stores the measurement result of the measurement process in the storage unit 19 so that it can be referred to later. Further, as described later, the control unit 10 may transmit the measurement result to an external device via the communication unit 18. Further, the robot 1 may present the measurement result to the measurement target person by voice, for example.

(ステップS106)
続いて、ステップS106において、制御部10は、測定対象者に近づけていたアーム11を元に戻し、測定対象者から離れるように走行部14を制御する。以上が、図3のフローチャートに基づく処理の流れである。
(Step S106)
Subsequently, in step S106, the control unit 10 returns the arm 11 that has been brought close to the measurement target person to the original state, and controls the traveling unit 14 to move away from the measurement target person. The above is the flow of processing based on the flowchart of FIG.

上述したように、本実施形態に係るロボット1は、測定対象者のバイタルサインを測定する測定器12が搭載されたアーム11と、制御部10と、備え、制御部10は、測定器12が測定対象者に近づくようにアーム11を制御する近接処理と、近接処理の後、測定器12に測定対象者のバイタルサインを測定させる測定処理と、を実行する。 As described above, the robot 1 according to the present embodiment includes the arm 11 on which the measuring device 12 that measures the vital sign of the measurement target person is mounted, and the control unit 10. A proximity process of controlling the arm 11 so as to approach the measurement target person and a measurement process of causing the measuring device 12 to measure the vital sign of the measurement target person after the proximity process are executed.

上記の構成によれば、測定対象者の負担を軽減することができるロボット1を実現できる。また、上記の構成を備えるロボット1による計測は、測定対象者がリストセンサ等のウェアラブルデバイスを付帯するウェアラブル計測と比較して以下の利点がある。 According to the above configuration, it is possible to realize the robot 1 that can reduce the load on the measurement target person. Further, the measurement by the robot 1 having the above configuration has the following advantages as compared with the wearable measurement in which the measurement target person wears a wearable device such as a wrist sensor.

(1)測定対象者がウェアラブルデバイスを着脱する必要が無い。 (1) There is no need for the person to be measured to attach and detach the wearable device.

(2)顔の表情等、測定対象者の外観から得られる情報に応じた測定が容易である。 (2) It is easy to perform measurement in accordance with information obtained from the appearance of the person to be measured, such as facial expressions.

(3)刺激応答型の計測、例えばアームを差し出した場合の眼の動き、認知状態の計測等が容易である。 (3) It is easy to perform stimulus-responsive measurement, for example, eye movement when the arm is extended, measurement of cognitive state, and the like.

(4)物理的な計測、例えば、アームを握る握力、手先の到達範囲、又は腕の可動範囲等の計測が容易である。 (4) It is easy to physically measure, for example, the grip force of gripping the arm, the reach of the hand, the movable range of the arm, and the like.

(5)測定対象者の姿勢を変更させる誘導、例えば計測する腕の高さを胸の高さに引き上げる誘導等が容易である。 (5) Guidance for changing the posture of the person to be measured, for example, raising the arm height to be measured to the chest height is easy.

なお、制御部10は、通信部18を介してバイタルサインの測定結果、上述した顔色等の状態、及び後述する認知運動に関する測定結果等を、サーバや施設の職員が保持する端末等の外部の装置に送信してもよい。そして、当該サーバは、ロボット1から受信した当該測定結果を、例えばデータベース形式に集約して保存してもよい。 The control unit 10 uses the communication unit 18 to measure the vital signs, the state of the complexion described above, and the measurement results related to cognitive movement described below, on an external device such as a terminal held by a server or staff of the facility. It may be transmitted to the device. Then, the server may aggregate and store the measurement results received from the robot 1 in, for example, a database format.

また、ロボット1から当該サーバに保存された情報を参照してもよい。例えば、当該サーバが、測定対象者の顔の特徴を示す情報等を保存し、制御部10が、通信部18を介して当該情報を参照する構成でも構わない。 Further, the information stored in the server may be referred to from the robot 1. For example, the server may store information indicating the characteristics of the face of the measurement subject, and the control unit 10 may refer to the information via the communication unit 18.

〔実施形態1の変形例〕
検知部13が、カメラに替わり測域センサ又は赤外線センサ等を備え、制御部10は、当該センサの検出結果を参照して、測定対象者の位置を把握する構成でもよい。上記構成においては、制御部10は、例えば、各人が所持する又は各人が所持する杖や車椅子等に備えられる、識別信号を発するビーコン、ICタグ、ARマーカのような機器や、人の声によって、測定対象者を識別してもよい。また、制御部10は、それらの機器による識別と、上述した撮像画像による識別とを併用してもよい。
[Modification of Embodiment 1]
The detection unit 13 may include a range sensor or an infrared sensor instead of the camera, and the control unit 10 may refer to the detection result of the sensor to grasp the position of the measurement target person. In the above configuration, the control unit 10 includes, for example, a device such as a beacon, an IC tag, an AR marker, or the like, which is provided in a cane, a wheelchair, or the like that is carried by each person or is carried by each person, The person to be measured may be identified by voice. Further, the control unit 10 may use the identification by those devices and the identification by the above-described captured image together.

つまり、制御部10は、上述した方法によって測定対象者を特定し、当該測定対象者に応じた方向から近づくように走行部14を制御し、当該測定対象者に応じた近接処理を行っても構わない。 That is, the control unit 10 specifies the measurement target person by the above-described method, controls the traveling unit 14 so as to approach from the direction corresponding to the measurement target person, and performs the proximity processing according to the measurement target person. I do not care.

なお、本変形例における検知部13が、カメラに替わり測域センサ又は赤外線センサ等を備える構成は、以降の実施形態に対しても適用可能である。 Note that the configuration in which the detection unit 13 in this modification example includes a range sensor, an infrared sensor, or the like instead of the camera can be applied to the following embodiments.

〔実施形態1の変形例2〕
ステップS101、S102の処理によって、例えば所定の時間以上、測定対象者が特定されない場合、或いは測定対象者が予め設定されていない場合には、例えばロボット1の巡回ルート上に位置する人物に対して、ステップS103以降の処理に相当する、バイタルサインの測定処理を実行し、且つ任意のタイミングで顔画像を取得して、後でバイタルサインの測定結果と当該顔画像とを手動で紐づけることが可能な構成でもよい。
[Modification 2 of Embodiment 1]
By the processing of steps S101 and S102, for example, when the measurement target person is not specified for a predetermined time or more, or when the measurement target person is not set in advance, for example, for the person located on the patrol route of the robot 1. It is possible to execute the vital sign measurement process, which is equivalent to the process of step S103 and thereafter, acquire a face image at an arbitrary timing, and later manually associate the vital sign measurement result with the face image. It may be possible.

なお、上述した実施形態1の変形例1、2は、後述する各実施形態に対しても適用可能である。 Note that the modified examples 1 and 2 of the first embodiment described above are also applicable to each of the embodiments described later.

(アーム11の構成例1)
アーム11の構成例ついて図7及び図8を参照して説明する。図7の各図は、アーム11が有する機構の一例を示す図である。図7に示すように、アーム11は、ボールジョイント22a、22b、ワイヤ23、及び滑車24を備えている。ボールジョイント22a、22bは、先端部分に球体状の形状を有し、アーム11の関節として機能する。また、ボールジョイント22a、22bは、関節部分が動かないように固定化する機構を有する。また、当該機構の詳細については後述する。ワイヤ23は、アーム11の周囲に沿うように配置されているワイヤである。ワイヤ23が、アーム11の外部に位置する、図示しない牽引機構によって所定の方向に牽引されることにより、当該方向に応じてアーム11の姿勢が変更される。滑車24は、アーム11の先端付近に配置された滑車であり、自身の周囲にワイヤ23をかけることができる溝と、回転軸とを有する。
(Structure example 1 of arm 11)
A configuration example of the arm 11 will be described with reference to FIGS. 7 and 8. Each drawing in FIG. 7 is a diagram showing an example of a mechanism included in the arm 11. As shown in FIG. 7, the arm 11 includes ball joints 22 a and 22 b, a wire 23, and a pulley 24. Each of the ball joints 22a and 22b has a spherical shape at its tip and functions as a joint of the arm 11. Further, the ball joints 22a and 22b have a mechanism for fixing the joints so that they do not move. The details of the mechanism will be described later. The wire 23 is a wire arranged along the periphery of the arm 11. By pulling the wire 23 in a predetermined direction by a pulling mechanism (not shown) located outside the arm 11, the posture of the arm 11 is changed according to the direction. The pulley 24 is a pulley arranged near the tip of the arm 11 and has a groove around which the wire 23 can be hooked and a rotation shaft.

図7(a)は、ボールジョイント22aに対応する関節部分が固定化されてワイヤ23の一方が矢印の方向に牽引された場合における動作を示している。また、図7(b)は、ボールジョイント22bに対応する関節部分が固定化されてワイヤ23の一方が矢印の方向に牽引された場合における動作を示している。また、図7(c)は、双方の関節部分が固定化されない状態でワイヤ23の一方が矢印の方向に牽引された場合における動作を示している。 FIG. 7A shows the operation when the joint portion corresponding to the ball joint 22a is fixed and one of the wires 23 is pulled in the direction of the arrow. Further, FIG. 7B shows an operation when the joint portion corresponding to the ball joint 22b is fixed and one of the wires 23 is pulled in the direction of the arrow. Further, FIG. 7C shows an operation in the case where one of the wires 23 is pulled in the direction of the arrow in a state where both joint parts are not fixed.

また、アーム11に対して一定以上の負荷がかかった場合、ワイヤ23が外れることによってアーム11が脱力するような構成でもよい。これにより、安全性を向上させることができる。 Moreover, when a load of a certain amount or more is applied to the arm 11, the arm 11 may be depowered by the wire 23 being detached. Thereby, safety can be improved.

次に、アーム11の関節部分を固定化する機構について、図8を参照して説明する。図8の各図は、当該機構の一例を示す断面図である。図8に示すように、アーム11の関節部分は、ボールジョイント22、受け部27、バネ28、及びソレノイド29を有している。 Next, a mechanism for fixing the joint portion of the arm 11 will be described with reference to FIG. Each drawing of FIG. 8 is a cross-sectional view showing an example of the mechanism. As shown in FIG. 8, the joint portion of the arm 11 has a ball joint 22, a receiving portion 27, a spring 28, and a solenoid 29.

ここで、図8(a)は、関節部分が固定化された場合における動作を示している。具体的には、受け部27が、バネ28の作用によってボールジョイント22を抑え込んで動かないように固定することによって、関節部分を固定化する。また、図8(b)は、関節部分が固定化されない場合における動作を示している。具体的には、ソレノイド29が、バネ28の作用よりも強い力で受け部27を引き寄せることによって、ボールジョイント22と受け部27との間の摩擦を解消し、関節部分を曲げることができるようにする。 Here, FIG. 8A shows the operation when the joint part is fixed. Specifically, the receiving portion 27 fixes the ball joint 22 by the action of the spring 28 so as to prevent the ball joint 22 from moving, thereby fixing the joint portion. Further, FIG. 8B shows the operation when the joint portion is not fixed. Specifically, the solenoid 29 pulls the receiving portion 27 with a force stronger than the action of the spring 28, so that the friction between the ball joint 22 and the receiving portion 27 can be eliminated and the joint portion can be bent. To

なお、別の態様として、ソレノイド29がプッシュソレノイドとして機能し、ソレノイド29が受け部27を、図8における上方に押すことによってボールジョイント22を抑え込んで動かないように固定化する構成でもよい。 As another aspect, the solenoid 29 may function as a push solenoid, and the solenoid 29 may press the receiving portion 27 upward in FIG. 8 to fix the ball joint 22 so that the ball joint 22 is fixed so as not to move.

また、アーム11の関節部分が、受け部27、バネ28およびソレノイド29に替わり、超音波モータを備える構成でもよい。 Further, the joint portion of the arm 11 may be replaced with the receiving portion 27, the spring 28, and the solenoid 29, and an ultrasonic motor may be provided.

上述したように、図7及び図8に例示したアーム11は、複数の関節部分と、前記複数の関節部分のそれぞれについて固定化するか否かを制御可能な機構と、前記複数の関節部分のうち固定化されていない関節部分を曲げるワイヤ23とを備えている。上記の構成によれば、アーム11を軽量化し、少ないワイヤ数で多関節を制御することができる。 As described above, the arm 11 illustrated in FIGS. 7 and 8 has a plurality of joint portions, a mechanism capable of controlling whether or not to fix each of the plurality of joint portions, and a plurality of joint portions of the plurality of joint portions. Of these, a wire 23 that bends a joint portion that is not fixed is provided. According to the above configuration, it is possible to reduce the weight of the arm 11 and control multiple joints with a small number of wires.

(アーム11の構成例2)
アーム11の構成例1においては、ソレノイド29に対する制御を介してアーム11の関節部分を固定化する機構について説明したが、関節として機能するボールジョイント22を固定化する機構は、磁場の変化や電圧の印加などの外部刺激により特性を変化させる機能性流体を介してなされる構成でもよい。ここで、上述した機能性流体の一例としては、磁性流体およびMR流体(Magneto Rheological Fluid)等が挙げられる。
(Structure example 2 of arm 11)
In the configuration example 1 of the arm 11, the mechanism for fixing the joint part of the arm 11 through the control of the solenoid 29 has been described, but the mechanism for fixing the ball joint 22 functioning as a joint is the change in the magnetic field or the voltage. It may be configured through a functional fluid whose characteristics are changed by an external stimulus such as application of. Here, examples of the functional fluid described above include magnetic fluid and MR fluid (Magneto Rheological Fluid).

例えば、粘性を可逆的に制御することができる機能性流体をボールジョイント22の周囲の空間に充填し、当該機能性流体の粘性を上昇させてボールジョイント22に対するブレーキとして作用させることにより、アーム11の関節部分を固定化する機構を実現してもよい。本例の構成においても、アーム11を軽量化し、少ないワイヤ数で多関節を制御することができる。 For example, by filling the space around the ball joint 22 with a functional fluid whose viscosity can be reversibly controlled, and increasing the viscosity of the functional fluid to act as a brake for the ball joint 22, the arm 11 You may implement|achieve the mechanism which fixes the joint part of. Also in the configuration of this example, the weight of the arm 11 can be reduced, and multiple joints can be controlled with a small number of wires.

〔実施形態2〕
本発明の第2の実施形態について、図1、図3及び図4を参照して説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。本実施形態においては、ロボットが、測定処理の前にアームの位置を調整する構成について説明する。
[Embodiment 2]
A second embodiment of the present invention will be described with reference to FIGS. 1, 3 and 4. For convenience of description, members having the same functions as the members described in the above embodiment are designated by the same reference numerals, and the description thereof will not be repeated. In the present embodiment, a configuration in which the robot adjusts the position of the arm before the measurement process will be described.

〔1.ロボット1の構成〕
本実施形態においても、図1に示す構成を用いる。
[1. Configuration of Robot 1]
The configuration shown in FIG. 1 is also used in this embodiment.

〔2.処理の流れ〕
以下、ロボット1が、測定処理の前にアーム11の位置を調整する処理の流れについて、図1、図3及び図4を参照して、ステップごとに説明する。図4は、本実施形態に係る処理の流れを示すフローチャートである。
[2. Processing flow]
Hereinafter, the flow of processing in which the robot 1 adjusts the position of the arm 11 before the measurement processing will be described step by step with reference to FIGS. 1, 3, and 4. FIG. 4 is a flowchart showing the flow of processing according to this embodiment.

(ステップS101〜S103)
ステップS101〜S103においては実施形態1と同様の処理を行う。ステップS103の処理が実行されたのち、続いてステップS204の処理が実行される。
(Steps S101 to S103)
In steps S101 to S103, the same processing as that of the first embodiment is performed. After the process of step S103 is executed, the process of step S204 is subsequently executed.

(ステップS204)
続いて、ステップS204において、制御部10は、測定対象者が掴める位置までアーム11を移動させる処理を行う。結果的に、測定器12が測定対象者に近づくので、上記処理は、上述した近接処理であるとも解釈してよい。そして制御部10は、測定対象者に対して、アーム11の例えば先端部分の把持を促す旨のアナウンスを行う。
(Step S204)
Subsequently, in step S204, the control unit 10 performs a process of moving the arm 11 to a position where the measurement target person can grasp. As a result, the measuring device 12 approaches the measurement target person, and thus the above process may be interpreted as the above-described proximity process. Then, the control unit 10 announces to the measurement target person that the gripping of, for example, the tip portion of the arm 11 is urged.

また、本ステップ又は以降の各ステップにおけるアナウンスにおいて、制御部10は、当該アナウンスに対する測定対象者の反応を、認知運動に関する測定結果として記憶部19に記録してもよい。例えば、制御部10は、測定対象者が当該アナウンスに対する反応に所定の時間以上の時間を要するようであれば、認知運動に関する能力が低下していることを示す情報を、記憶部19に記録するか、図示しないサーバに送信してもよい。 Further, in the announcement in this step or each subsequent step, the control unit 10 may record the reaction of the measurement target person with respect to the announcement in the storage unit 19 as a measurement result regarding cognitive movement. For example, the control unit 10 records, in the storage unit 19, information indicating that the ability related to cognitive movement is deteriorated if the measurement target person takes more than a predetermined time to react to the announcement. Alternatively, it may be transmitted to a server (not shown).

(ステップS205)
続いて、ステップS205において、制御部10は、測定対象者がアーム11を掴んだか否かの判定を行う。ここで、制御部10は、アーム11に対する荷重が加わった場合に、測定対象者がアーム11を掴んだものと判定してもよい。又は、アーム11自体に圧力センサが備えられており、制御部10が当該圧力センサの検知結果を参照して当該判定を行ってもよい。なお、上述の圧力センサは、例えば力覚センサなどに置き換えられてもよい。
(Step S205)
Subsequently, in step S205, the control unit 10 determines whether or not the measurement target person holds the arm 11. Here, the control unit 10 may determine that the measurement target person has grasped the arm 11 when a load is applied to the arm 11. Alternatively, the arm 11 itself may be provided with a pressure sensor, and the control unit 10 may make the determination by referring to the detection result of the pressure sensor. The pressure sensor described above may be replaced with, for example, a force sensor.

制御部10が、測定対象者がアーム11を掴んだものと判定した場合、続いてステップS206の処理が実行され、そうでない場合には、ステップS204におけるアナウンス処理を再度実行する。 When the control unit 10 determines that the measurement target person has grasped the arm 11, the process of step S206 is subsequently executed, and otherwise, the announcement process of step S204 is executed again.

また、本ステップにおいて、制御部10は、測定対象者がアーム11を掴む場合における握力、又は指先の動き等についての判定を行ってもよい。また、制御部10は、探索的に測定対象者から遠い位置や、握りづらい位置にアーム11を差出し、アーム11が備える圧力センサの計測値を参照して、当該測定対象者のファンクショナルリーチ等の身体機能を計測してよい。そして制御部10は、当該測定対象者の握力やファンクショナルリーチ等を示す情報を記憶部19に記憶するか、図示しないサーバに送信してもよい。また、制御部10は、当該情報、又は当該情報の推移を参照して、当該測定対象者におけるフレイルの発生又は進行についての予想を示す情報を記憶部19に記憶するか、図示しないサーバに送信してもよい。また、制御部10がフレイルの発生又は進行を予想する方法は特定の方法に限定されず、例えば、所定の身体機能を示す値が所定期間以上減少傾向にあれば、フレイルが発生し得るものと予想してもよい。 In addition, in this step, the control unit 10 may determine the grip force when the measurement target person grips the arm 11, the movement of the fingertip, or the like. In addition, the control unit 10 exploratively extends the arm 11 to a position far from the measurement target person or a position that is difficult to grip, and refers to the measurement value of the pressure sensor included in the arm 11 to refer to the functional reach of the measurement target person. You may measure your physical function. Then, the control unit 10 may store information indicating the grip strength, functional reach, or the like of the measurement target person in the storage unit 19 or may transmit the information to a server (not illustrated). In addition, the control unit 10 refers to the information or the transition of the information, stores information indicating a prediction of flare occurrence or progress in the measurement target person in the storage unit 19 or transmits the information to a server (not illustrated). You may. Further, the method by which the control unit 10 predicts the occurrence or progress of flail is not limited to a specific method. For example, if the value indicating a predetermined physical function tends to decrease for a predetermined period or more, flare may occur. You may expect.

(ステップS206)
続いて、制御部10は、アーム11操作によって、測定対象者の四肢等を適宜押すことにより、測定対象者がより測定処理に適した姿勢となるように補助又は誘導する。そして、制御部10は、測定器12が測定対象者に近づくようにアーム11を制御する。次いで制御部10は、測定器12の位置を調整するようにアーム11を制御してもよい。ここで、上述した測定器12の位置には、測定器12の角度も含まれる。
(Step S206)
Subsequently, the control unit 10 assists or guides the measurement target person to a posture more suitable for the measurement process by appropriately pushing the limbs or the like of the measurement target person by operating the arm 11. Then, the control unit 10 controls the arm 11 so that the measuring device 12 approaches the measurement target person. The control unit 10 may then control the arm 11 to adjust the position of the measuring device 12. Here, the angle of the measuring instrument 12 is also included in the position of the measuring instrument 12 described above.

例えば、一態様において、制御部10は、測定対象者の手元までアーム11を移動させたのち、測定器12の位置を測定に適した位置、例えば血圧を測定する場合には測定対象者の心臓よりも高い位置に測定器12が位置するようにアーム11を調整し、測定処理を行ってもよい。 For example, in one aspect, the control unit 10 moves the arm 11 to the hand of the measurement target person, and then sets the position of the measuring device 12 to a position suitable for measurement, for example, the heart of the measurement target person when measuring blood pressure. The measurement process may be performed by adjusting the arm 11 so that the measuring device 12 is located at a higher position.

なお、上述の記載は、制御部10は、血圧を測定する場合に測定対象者の心臓よりも高い位置に測定器12を位置させなければならないことを意味しない。また、制御部10は、測定器12の位置に応じて血圧の測定結果を補正してもよい。 The above description does not mean that the control unit 10 has to position the measuring device 12 at a position higher than the heart of the measurement subject when measuring the blood pressure. The control unit 10 may also correct the blood pressure measurement result according to the position of the measuring device 12.

このように、制御部10は、近接処理の後、測定処理の前に、測定器12の位置を調整するようにアーム11を制御する調整処理を実行してもよい。また、上記調整処理には、上述したような、制御部10がアーム11を介して測定対象者が姿勢変更するように補助又は誘導する処理も含まれる。 In this way, the control unit 10 may execute the adjustment process of controlling the arm 11 so as to adjust the position of the measuring device 12 after the proximity process and before the measurement process. In addition, the above-described adjustment processing also includes the above-described processing in which the control unit 10 assists or guides the measurement target person through the arm 11 so as to change the posture.

また、測定対象者が姿勢変更するように補助又は誘導する処理は、必ずしも測定対象者にアーム11を掴ませることを伴う構成に限定されない。例えば一態様において、制御部10がアナウンスしたのち、又はアナウンスしながら、アーム11を測定対象者の脇の下に差し込み、姿勢変更を促す構成でもよい。また、制御部10は、測定対象者の姿勢変更を行わない場合にも、測定処理の前に上述した調整処理をおこなってよい。 Further, the process of assisting or guiding the measurement target person to change the posture is not necessarily limited to the configuration involving causing the measurement target person to grip the arm 11. For example, in one aspect, the configuration may be such that the arm 11 is inserted under the armpit of the measurement subject after the announcement by the control unit 10 or while the announcement is made to prompt the posture change. Further, the control unit 10 may perform the above-described adjustment processing before the measurement processing even when the posture of the measurement target person is not changed.

上記の構成によれば、測定器12を、測定対象者に対してより好適な位置に移動させることができる。上述した処理が実行されたのち、続いてステップS105の処理が実行される。 According to the above configuration, the measuring device 12 can be moved to a more suitable position for the measurement target person. After the above-described processing is executed, the processing of step S105 is subsequently executed.

(ステップS105、S106)
ステップS105、S106においては、実施形態1と同様の処理を行う。ただし、制御部10は、ステップS106の開始前に適宜アナウンスしてアーム11を制御し、測定対象者を元の姿勢に戻すように誘導してもよい。以上が図4のフローチャートに基づく処理の流れである。
(Steps S105 and S106)
In steps S105 and S106, the same processing as in the first embodiment is performed. However, the control unit 10 may appropriately announce before starting step S106 to control the arm 11 and guide the measurement target person to return to the original posture. The above is the flow of processing based on the flowchart of FIG.

〔実施形態3〕
本発明の第3の実施形態について、図1、図5及び図6を参照して説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。本実施形態においては、所定の場所に位置するロボットが、測定器を測定対象者に差し出す構成について説明する。
[Embodiment 3]
A third embodiment of the present invention will be described with reference to FIGS. 1, 5 and 6. For convenience of description, members having the same functions as the members described in the above embodiment are designated by the same reference numerals, and the description thereof will not be repeated. In the present embodiment, a configuration will be described in which a robot located at a predetermined place presents a measuring instrument to a person to be measured.

〔1.ロボット1aの構成〕
図5を参照して本実施形態の構成について説明する。図5は、本実施形態に係るロボット1aの機能ブロック図である。ロボット1aは、図1に示すロボット1が、走行部14を備えない構成である。本実施形態においては、ロボット1aは所定の位置に配置されており、測定対象者が、ロボット1aの近傍に適宜移動してバイタルサインの測定処理が行われる。
[1. Configuration of Robot 1a]
The configuration of this embodiment will be described with reference to FIG. FIG. 5 is a functional block diagram of the robot 1a according to this embodiment. The robot 1 a has a configuration in which the robot 1 shown in FIG. 1 does not include the traveling unit 14. In the present embodiment, the robot 1a is arranged at a predetermined position, and the measurement subject appropriately moves to the vicinity of the robot 1a to perform the vital sign measurement process.

〔2.処理の流れ〕
以下、ロボット1aが測定器12を差し出す処理の流れについて、図5及び図6を参照して、ステップごとに説明する。図6は、本実施形態に係る処理の流れを示すフローチャートである。
[2. Processing flow]
Hereinafter, the flow of processing in which the robot 1a presents the measuring device 12 will be described step by step with reference to FIGS. 5 and 6. FIG. 6 is a flowchart showing the flow of processing according to this embodiment.

(ステップS301)
測定対象者は、ロボット1aの近傍であって、少なくともアーム11が届く範囲に適宜移動する。そして、ステップS301において、制御部10は、検知部13に測定対象者を撮像させる。なお、検知部13による撮像はロボット1aの稼働中、常に行われる構成でもよいし、測定対象者の操作や声等に起因して行われる構成でもよい。
(Step S301)
The measurement target appropriately moves in the vicinity of the robot 1a and at least within the reach of the arm 11. Then, in step S301, the control unit 10 causes the detection unit 13 to image the measurement target person. Note that the imaging by the detection unit 13 may be performed constantly during the operation of the robot 1a, or may be performed due to the operation or voice of the person to be measured.

また、本ステップ又は以降のタイミングにおいて、制御部10は、測定対象者の顔色を判定してよい。具体的には、制御部10は、検出した測定対象者の顔色と、記憶部19に格納された、健康状態にある当該測定対象者の顔色、又は健康状態にない当該測定対象者の顔色とを比較し、判定結果を測定結果の一部として記憶部19に格納してよい。 In addition, at this step or timings thereafter, the control unit 10 may determine the complexion of the measurement target person. Specifically, the control unit 10 detects the detected complexion of the measurement target person and the complexion of the measurement target person in a healthy state or the complexion of the measurement target person who is not in a healthy state, which is stored in the storage unit 19. May be compared, and the determination result may be stored in the storage unit 19 as a part of the measurement result.

(ステップS302)
続いて、ステップS302において、制御部10は、ステップS301における検知部13の検知結果、つまり撮像画像を参照して、当該撮像画像内の測定対象者を識別して特定する。なお、当該撮像画像内の人物に関する情報が記憶部19に格納されていない等の要因によって、制御部10が測定対象者を特定できなかった場合には、図6のフローチャートに基づく処理を終了する。
(Step S302)
Subsequently, in step S302, the control unit 10 refers to the detection result of the detection unit 13 in step S301, that is, the captured image, and identifies and specifies the measurement target person in the captured image. Note that if the control unit 10 cannot specify the measurement target person due to factors such as the fact that the information regarding the person in the captured image is not stored in the storage unit 19 or the like, the processing based on the flowchart of FIG. 6 ends. ..

(ステップS104、S105)
ステップS104、S105においては、実施形態1と同様の処理を行う。ステップS105の処理が実行されたのち、続いて、ステップS306の処理が実行される。
(Steps S104 and S105)
In steps S104 and S105, the same processing as that of the first embodiment is performed. After the process of step S105 is executed, the process of step S306 is subsequently executed.

(ステップS306)
続いて、ステップS306において、制御部10は、測定対象者に近づけていたアーム11を元に戻すように制御する。以上が図6のフローチャートに基づく処理の流れである。なお、実施形態1で上述したように、ロボット1は、バイタルサインの測定結果等を、外部のサーバに送信する構成でもよい。
(Step S306)
Subsequently, in step S306, the control unit 10 controls to return the arm 11 that has been brought close to the measurement target person. The above is the flow of processing based on the flowchart of FIG. As described above in the first embodiment, the robot 1 may be configured to transmit the measurement result of vital signs and the like to an external server.

〔実施形態2の変形例〕
ロボット1aは、記憶部19に情報が格納されていない、つまり登録されていない人物がバイタルサインの測定を試みた場合、上述したように一連の処理を終了する構成でもよいし、バイタルサインの測定を行い、その場で測定結果を提示する構成でもよい。
[Modification of Embodiment 2]
The robot 1a may be configured to end the series of processes as described above when the person who does not have the information stored in the storage unit 19, that is, an unregistered person tries to measure the vital sign, or may measure the vital sign. May be performed and the measurement result is presented on the spot.

〔ソフトウェアによる実現例〕
ロボット1(1a)の制御ブロック(特に制御部10)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of software implementation]
The control block (especially the control unit 10) of the robot 1 (1a) may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software.

後者の場合、ロボット1は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the robot 1 includes a computer that executes the instructions of a program that is software that realizes each function. The computer includes, for example, one or more processors and a computer-readable recording medium that stores the program. Then, in the computer, the processor reads the program from the recording medium and executes the program to achieve the object of the present invention. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a "non-transitory tangible medium" such as a ROM (Read Only Memory), a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. Further, a RAM (Random Access Memory) for expanding the program may be further provided. The program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. Note that one aspect of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but various modifications can be made within the scope of the claims, and embodiments obtained by appropriately combining the technical means disclosed in the different embodiments Is also included in the technical scope of the present invention.

〔まとめ〕
本発明の態様1に係るロボット(1、1a)は、測定対象者のバイタルサインを測定する測定器(12)が搭載されたアーム(11)と、制御部(10)と、を備え、前記制御部は、前記測定器が前記測定対象者に近づくように前記アームを制御する近接処理と、前記近接処理の後、前記測定器に前記測定対象者のバイタルサインを測定させる測定処理と、を実行する構成である。上記の構成によれば、測定対象者の負担を軽減することができるロボットを実現できる。
[Summary]
A robot (1, 1a) according to Aspect 1 of the present invention includes an arm (11) on which a measuring device (12) for measuring a vital sign of a measurement target person is mounted, and a control unit (10), The control unit includes a proximity process that controls the arm so that the measuring device approaches the measurement target person, and a measurement process that causes the measuring device to measure the vital sign of the measurement target person after the proximity process. It is a configuration to be executed. According to the above configuration, it is possible to realize a robot that can reduce the burden on the person to be measured.

本発明の態様2に係るロボットは、上記の態様1において、前記制御部は、前記近接処理において、前記測定対象者に応じた位置に前記測定器が位置するように、前記アームを制御する構成としてもよい。上記の構成によれば、測定対象者ごとの好適な場所に測定器を移動させることができる。 A robot according to aspect 2 of the present invention is configured such that, in the aspect 1, the control unit controls the arm so that the measuring device is located at a position according to the measurement target person in the proximity processing. May be According to the above configuration, the measuring device can be moved to a suitable place for each person to be measured.

本発明の態様3に係るロボットは、上記の態様1又は2において、走行部(14)を更に備え、前記制御部は、前記近接処理の前に、または、前記近接処理と並行して、前記測定対象者に応じた方向から前記測定対象者に近づくように前記走行部を制御する構成としてもよい。上記の構成によれば、測定対象者の不安感を抑制できることに加え、安全性が向上する。 A robot according to Aspect 3 of the present invention is the robot according to Aspect 1 or 2, further comprising a traveling unit (14), wherein the control unit performs the proximity process before the proximity process or in parallel with the proximity process. The traveling unit may be controlled so as to approach the measurement target person from a direction corresponding to the measurement target person. According to the above configuration, the anxiety of the measurement subject can be suppressed and the safety is improved.

本発明の態様4に係るロボットは、上記の態様1〜3のいずれか一項において、前記制御部は、前記近接処理の後、前記測定処理の前に、前記測定器の位置を調整するように前記アームを制御する調整処理を実行する構成としてもよい。上記の構成によれば、測定器を、測定対象者に対してより好適な位置に移動させることができる。 A robot according to aspect 4 of the present invention is the robot according to any one of aspects 1 to 3, wherein the control unit adjusts the position of the measuring device after the proximity processing and before the measurement processing. Alternatively, the adjustment processing for controlling the arm may be executed. According to the above configuration, the measuring device can be moved to a more suitable position for the person to be measured.

本発明の態様5に係るロボットは、上記の態様1〜4のいずれか一項において、前記アームは、複数の関節部分と、前記複数の関節部分のそれぞれについて固定化するか否かを制御可能な機構と、前記複数の関節部分のうち固定化されていない関節部分を曲げるワイヤ(23)とを備えている。上記の構成によれば、アームを軽量化し、少ないワイヤ数で多関節を制御することができる。 A robot according to Aspect 5 of the present invention is the robot according to any one of Aspects 1 to 4 above, wherein the arm can control whether or not to fix a plurality of joint portions and each of the plurality of joint portions. And a wire (23) for bending an unfixed joint of the plurality of joints. According to the above configuration, it is possible to reduce the weight of the arm and control multiple joints with a small number of wires.

1、1a ロボット
10 制御部
11 アーム
12 測定器
13 検知部
14 走行部
19 記憶部
1, 1a Robot 10 Control unit 11 Arm 12 Measuring instrument 13 Detecting unit 14 Running unit 19 Storage unit

Claims (5)

測定対象者のバイタルサインを測定する測定器が搭載されたアームと、
制御部と、を備え、
前記制御部は、
前記測定器が前記測定対象者に近づくように前記アームを制御する近接処理と、
前記近接処理の後、前記測定器に前記測定対象者のバイタルサインを測定させる測定処理と、を実行することを特徴とするロボット。
An arm equipped with a measuring device that measures the vital sign of the person to be measured,
And a control unit,
The control unit is
Proximity processing for controlling the arm so that the measuring device approaches the measurement target person,
A robot performing a measurement process of causing the measuring device to measure the vital sign of the measurement subject after the proximity process.
前記制御部は、前記近接処理において、前記測定対象者に応じた位置に前記測定器が位置するように、前記アームを制御することを特徴とする請求項1に記載のロボット。 The robot according to claim 1, wherein, in the proximity processing, the control unit controls the arm so that the measuring device is located at a position corresponding to the measurement target person. 走行部を更に備え、
前記制御部は、前記近接処理の前に、または、前記近接処理と並行して、前記測定対象者に応じた方向から前記測定対象者に近づくように前記走行部を制御することを特徴とする請求項1又は2に記載のロボット。
Further equipped with a running part,
The control unit controls the traveling unit before the proximity processing or in parallel with the proximity processing so as to approach the measurement target person from a direction according to the measurement target person. The robot according to claim 1 or 2.
前記制御部は、前記近接処理の後、前記測定処理の前に、前記測定器の位置を調整するように前記アームを制御する調整処理を実行することを特徴とする請求項1〜3のいずれか一項に記載のロボット。 The control unit executes an adjustment process for controlling the arm so as to adjust the position of the measuring device after the proximity process and before the measurement process. The robot according to item 1. 前記アームは、
複数の関節部分と、
前記複数の関節部分のそれぞれについて固定化するか否かを制御可能な機構と、
前記複数の関節部分のうち固定化されていない関節部分を曲げるワイヤと
を備えていることを特徴とする請求項1〜4の何れか一項に記載のロボット。
The arm is
Multiple joint parts,
A mechanism capable of controlling whether or not to fix each of the plurality of joint portions,
The robot according to any one of claims 1 to 4, further comprising: a wire that bends a joint part that is not fixed among the plurality of joint parts.
JP2019013589A 2019-01-29 2019-01-29 robot Pending JP2020121353A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019013589A JP2020121353A (en) 2019-01-29 2019-01-29 robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019013589A JP2020121353A (en) 2019-01-29 2019-01-29 robot

Publications (1)

Publication Number Publication Date
JP2020121353A true JP2020121353A (en) 2020-08-13

Family

ID=71991837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019013589A Pending JP2020121353A (en) 2019-01-29 2019-01-29 robot

Country Status (1)

Country Link
JP (1) JP2020121353A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022259596A1 (en) * 2021-06-10 2022-12-15 ソニーグループ株式会社 Robot operation system

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09290389A (en) * 1996-04-24 1997-11-11 Ikiken:Kk Articulated unit
JP2002045343A (en) * 2000-08-01 2002-02-12 Sanyo Electric Co Ltd Vital sensor
JP2003284695A (en) * 2002-03-27 2003-10-07 Toshiba Corp Biological data measuring and collecting system, biological examination system, biological measuring system and biological data measuring and collecting method
JP2003339796A (en) * 2002-05-24 2003-12-02 Mitsubishi Heavy Ind Ltd Robot for nursing care
JP2006167841A (en) * 2004-12-14 2006-06-29 Honda Motor Co Ltd Control device of legged robot
JP2008099957A (en) * 2006-10-20 2008-05-01 Showa Denko Kk Sheet for measuring biometric information
JP2008167866A (en) * 2007-01-10 2008-07-24 Sky Kk Diagnostic robot, and control method and control program of diagnostic robot
JP2016067773A (en) * 2014-09-30 2016-05-09 国立大学法人 千葉大学 Autonomous mobile robot and vital sign monitoring method
JP2016093883A (en) * 2014-11-07 2016-05-26 国立大学法人金沢大学 Multi-articulated manipulator
JP2016131825A (en) * 2015-01-22 2016-07-25 株式会社東芝 Information processing device, blood pressure value calculation method and program
WO2016199228A1 (en) * 2015-06-09 2016-12-15 オリンパス株式会社 Medical manipulator control device
JP2018047163A (en) * 2016-09-23 2018-03-29 カシオ計算機株式会社 Robot, robot control method and program
JP2018527056A (en) * 2015-07-17 2018-09-20 デカ・プロダクツ・リミテッド・パートナーシップ Robotic surgical system, method and apparatus

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09290389A (en) * 1996-04-24 1997-11-11 Ikiken:Kk Articulated unit
JP2002045343A (en) * 2000-08-01 2002-02-12 Sanyo Electric Co Ltd Vital sensor
JP2003284695A (en) * 2002-03-27 2003-10-07 Toshiba Corp Biological data measuring and collecting system, biological examination system, biological measuring system and biological data measuring and collecting method
JP2003339796A (en) * 2002-05-24 2003-12-02 Mitsubishi Heavy Ind Ltd Robot for nursing care
JP2006167841A (en) * 2004-12-14 2006-06-29 Honda Motor Co Ltd Control device of legged robot
JP2008099957A (en) * 2006-10-20 2008-05-01 Showa Denko Kk Sheet for measuring biometric information
JP2008167866A (en) * 2007-01-10 2008-07-24 Sky Kk Diagnostic robot, and control method and control program of diagnostic robot
JP2016067773A (en) * 2014-09-30 2016-05-09 国立大学法人 千葉大学 Autonomous mobile robot and vital sign monitoring method
JP2016093883A (en) * 2014-11-07 2016-05-26 国立大学法人金沢大学 Multi-articulated manipulator
JP2016131825A (en) * 2015-01-22 2016-07-25 株式会社東芝 Information processing device, blood pressure value calculation method and program
WO2016199228A1 (en) * 2015-06-09 2016-12-15 オリンパス株式会社 Medical manipulator control device
JP2018527056A (en) * 2015-07-17 2018-09-20 デカ・プロダクツ・リミテッド・パートナーシップ Robotic surgical system, method and apparatus
JP2018047163A (en) * 2016-09-23 2018-03-29 カシオ計算機株式会社 Robot, robot control method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022259596A1 (en) * 2021-06-10 2022-12-15 ソニーグループ株式会社 Robot operation system

Similar Documents

Publication Publication Date Title
US11191432B2 (en) Wearable health monitoring system
Ranky et al. Analysis of a commercial EEG device for the control of a robot arm
US11382547B2 (en) Brain stimulation system to provide a sense of wellbeing
US9125788B2 (en) System and method for motor learning
US20140135873A1 (en) Rehabilitation training system and method
KR20170035851A (en) Smart bed system and control method thereof
JP6360048B2 (en) Assistance robot
Rihar et al. Infant trunk posture and arm movement assessment using pressure mattress, inertial and magnetic measurement units (IMUs)
WO2017040589A1 (en) System and method for controlling an electronic device with a facial gesture controller
EP4360546A2 (en) Apparatus, system and method for diagnosing sleep
US20240021292A1 (en) Method of caring for psychological status based on biometric information and apparatus for performing the same
JP2009531077A (en) Apparatus and method for real time control of effectors
US20220161441A1 (en) Robot body care system, robot body care method, and robot body care program
CN112996431A (en) Breath adaption system and method for influencing a breathing parameter
KR20140107945A (en) healthcare System and method
US20120065478A1 (en) Interactive biosensing device and method thereof
JP2020121353A (en) robot
KR20170062174A (en) Apparatus and method for measuring range of motion
JP2010051682A (en) Muscle activity measuring apparatus and system, intention detecting system, muscle fatigue measuring system, locomotion function measuring system, heartbeat measuring system and independent action support system
KR101930427B1 (en) Pain monitoring and feedback system for dental procedures
US20200253499A1 (en) Electroencephalogram decision system, electroencephalogram decision method, program, and non-transitory storage medium
KR102617935B1 (en) Health Care Service Providing System Including Wireless Medical Device of Human Attachment Type having Lowe Power Mode Based on IoT
CN110625607A (en) Robot, robot control method, and storage medium
EP4000520A1 (en) Method and system for sensor signals dependent dialog generation during a medical imaging process
KR101934272B1 (en) Brain-Machine Interface Robot Control System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220829

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230405

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230406

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230426

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240723