JP2021173903A - Computing device, sensor system, and computer program - Google Patents

Computing device, sensor system, and computer program Download PDF

Info

Publication number
JP2021173903A
JP2021173903A JP2020078654A JP2020078654A JP2021173903A JP 2021173903 A JP2021173903 A JP 2021173903A JP 2020078654 A JP2020078654 A JP 2020078654A JP 2020078654 A JP2020078654 A JP 2020078654A JP 2021173903 A JP2021173903 A JP 2021173903A
Authority
JP
Japan
Prior art keywords
action
force
point
sensor
arithmetic unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020078654A
Other languages
Japanese (ja)
Other versions
JP7492245B2 (en
Inventor
慎一 平井
Shinichi Hirai
孝博 松野
Takahiro Matsuno
篤史 三谷
Atsushi Mitani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ritsumeikan Trust
Original Assignee
Ritsumeikan Trust
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ritsumeikan Trust filed Critical Ritsumeikan Trust
Priority to JP2020078654A priority Critical patent/JP7492245B2/en
Publication of JP2021173903A publication Critical patent/JP2021173903A/en
Application granted granted Critical
Publication of JP7492245B2 publication Critical patent/JP7492245B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)

Abstract

To provide a sensor system capable of detecting an accurate position in contact with a body to be contacted without impairing usability.SOLUTION: A sensor system 100 includes: a sensor 20 attachable to a body to be contacted which is, for example, an oral care model 30 and capable of detecting an action line of a force given by contacting with the body to be contacted; and an arithmetic device 10 for acquiring a sensing result by communicating with the sensor and performing the processing using the sensing result. The processing includes the steps of: calculating a candidate point of an action point of a force of the body to be contacted using an action line of the force obtained from a result of sensing the force and shape data of the body to be contacted stored in advance; and determining the action point from among candidate points.SELECTED DRAWING: Figure 1

Description

本開示は、演算装置、センサシステム、及び、コンピュータプログラムに関する。 The present disclosure relates to arithmetic units, sensor systems, and computer programs.

口腔ケアにおいて磨く位置は重要であるにも関わらず、そのトレーニングにおいて、トレーナーがトレーニーに対して適切な位置を伝えることは難しい。すなわち、連続的な接触を伴う技能の教育において、被接触体に接触する位置を正確に表現することが難しい。一般的には、トレーニーはトレーナーの模範動作を見て磨く位置などの接触する位置を確認している。 Although the polishing position is important in oral care, it is difficult for the trainer to tell the trainee the proper position in the training. That is, in the education of skills involving continuous contact, it is difficult to accurately express the position of contact with the contacted body. In general, the trainee looks at the trainer's model movement to confirm the contact position such as the polishing position.

口腔ケア用トレーニングについて、特開2018−173504号公報(以下、特許文献1)は、歯列を構成する個々の歯に圧力センサを取り付けた口腔再現モデルを提案している。 Regarding training for oral care, Japanese Patent Application Laid-Open No. 2018-173504 (hereinafter, Patent Document 1) proposes an oral reproduction model in which a pressure sensor is attached to each tooth constituting the dentition.

特開2018−173504号公報Japanese Unexamined Patent Publication No. 2018-173504

特許文献1のように圧力センサなどの接触を検出するセンサを用いる場合、接触した位置を正確に検出するためには、接触する位置又はその近傍にセンサを設置する必要がある。また、位置の検出精度を上げるには数多く設けることが望まれる。 When a sensor that detects contact, such as a pressure sensor, is used as in Patent Document 1, it is necessary to install the sensor at or near the contact position in order to accurately detect the contact position. In addition, it is desirable to provide many in order to improve the position detection accuracy.

しかしながら、特許文献1のように個々の歯に圧力センサを取り付けると、圧力センサに接続された通信線が多くなり、配線や取り扱いが煩雑になる。また、サイズによっては圧力センサを取り付けることが難しい場合もある。また、薬剤を塗布したり水洗したりするような使い方が制約される場合もある。 However, when the pressure sensor is attached to each tooth as in Patent Document 1, the number of communication lines connected to the pressure sensor increases, and wiring and handling become complicated. Also, depending on the size, it may be difficult to attach a pressure sensor. In addition, usage such as applying a chemical or washing with water may be restricted.

本開示は、使い勝手を損なうことなく被接触体に接触した正確な位置を検出可能な演算装置、センサシステム、及び、コンピュータプログラムを提供するものである。 The present disclosure provides an arithmetic unit, a sensor system, and a computer program capable of detecting an accurate position in contact with a contacted body without impairing usability.

ある実施の形態に従うと、演算装置は、接触によって被接触体に与えられた力の作用線を検出可能な第1のセンサからの力のセンシング結果を用いた処理を行う演算装置であって、力のセンシング結果の入力を受け付け可能な入力部と、処理を実行するプロセッサと、を備え、処理は、力のセンシング結果から得られる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。 According to a certain embodiment, the arithmetic unit is an arithmetic unit that performs processing using the force sensing result from the first sensor that can detect the line of action of the force applied to the contacted object by contact. It is equipped with an input unit that can accept input of force sensing results and a processor that executes processing. It includes calculating the candidate points of the action points of the force of the contacted body using the data and determining the action points from the candidate points.

他の実施の形態に従うと、センサシステムは、被接触体に取り付け可能で、取り付けた被接触体に接触によって与えられた力の作用線を検出可能なセンサと、センサと通信することでセンシング結果を取得し、センシング結果を用いた処理を行う演算装置と、を備え、処理は、力のセンシング結果から得られる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。 According to another embodiment, the sensor system communicates with a sensor that can be attached to the contacted body and can detect the line of action of the force applied by contact to the attached contacted body, and the sensing result. Is provided with a computing device that acquires the above and performs processing using the sensing result, and the processing uses the force action line obtained from the force sensing result and the shape data of the contacted body stored in advance. It includes calculating the candidate points of the action points of the force of the contacted body and determining the action points from the candidate points.

他の実施の形態に従うと、コンピュータプログラムは、コンピュータを、接触によって被接触体に与えられた力の作用線を検出可能な第1のセンサからのセンシング結果を用いた処理を行う演算装置として機能させるコンピュータプログラムであって、処理は、力のセンシング結果に含まれる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。 According to another embodiment, the computer program functions as a computing device that processes the computer using the sensing result from the first sensor that can detect the line of action of the force applied to the contacted object by contact. It is a computer program for processing, and the processing uses the force action line included in the force sensing result and the shape data of the contacted body stored in advance to select a candidate point of the force action point of the contacted body. It includes calculating and determining the point of action from the candidate points.

更なる詳細は、後述の実施形態として説明される。 Further details will be described as embodiments described below.

図1は、実施の形態に係るセンサシステムの構成の概略図である。FIG. 1 is a schematic diagram of the configuration of the sensor system according to the embodiment. 図2は、センサシステムに含まれるセンサの、受力体の上面図であって、口腔ケアモデルに取り付けるための位置決め機構を説明するための図である。FIG. 2 is a top view of a receiving body of the sensor included in the sensor system, and is a diagram for explaining a positioning mechanism for attaching to the oral care model. 図3は、センサシステムに含まれる演算装置の構成を表すブロック図である。FIG. 3 is a block diagram showing a configuration of an arithmetic unit included in the sensor system. 図4は、演算装置での演算を説明するための図であって、口腔ケアモデルの歯茎形状の表し方を説明するための図である。FIG. 4 is a diagram for explaining the calculation by the arithmetic unit, and is a diagram for explaining how to represent the gum shape of the oral care model. 図5は、演算装置での演算を説明するための図であって、候補点を説明するための図である。FIG. 5 is a diagram for explaining an operation in the arithmetic unit, and is a diagram for explaining a candidate point. 図6は、演算装置での演算を説明するための図であって、候補点の座標の算出に用いる数式を表した図である。FIG. 6 is a diagram for explaining the calculation in the arithmetic unit, and is a diagram showing a mathematical formula used for calculating the coordinates of the candidate points. 図7は、演算装置での演算を説明するための図であって、作用点に与えられる力の角度関係を表した図である。FIG. 7 is a diagram for explaining the operation in the arithmetic unit, and is a diagram showing the angular relationship of the force applied to the point of action. 図8は、演算装置での演算を説明するための図であって、候補点を絞り込むために用いられる条件を説明するための図である。FIG. 8 is a diagram for explaining the calculation in the arithmetic unit, and is a diagram for explaining the conditions used for narrowing down the candidate points. 図9は、演算装置での演算を説明するための図であって、候補点の位置の移動速度を説明するための図である。FIG. 9 is a diagram for explaining the calculation in the arithmetic unit, and is a diagram for explaining the moving speed of the position of the candidate point. 図10は、演算装置での演算を説明するための図であって、位置の移動速度に基づく作用点の決定を説明するための図である。FIG. 10 is a diagram for explaining the calculation in the arithmetic unit, and is a diagram for explaining the determination of the action point based on the moving speed of the position. 図11は、演算装置での処理の流れを表したフローチャートである。FIG. 11 is a flowchart showing the flow of processing in the arithmetic unit. 図12は、センサシステムでの表示画面の一例を表した図である。FIG. 12 is a diagram showing an example of a display screen in the sensor system.

<1.演算装置、センサシステム、及び、コンピュータプログラムの概要> <1. Overview of arithmetic units, sensor systems, and computer programs>

(1)実施の形態に係る演算装置は、接触によって被接触体に与えられた力の作用線を検出可能な第1のセンサからの力のセンシング結果を用いた処理を行う演算装置であって、力のセンシング結果の入力を受け付け可能な入力部と、処理を実行するプロセッサと、を備え、処理は、力のセンシング結果から得られる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。 (1) The arithmetic unit according to the embodiment is an arithmetic unit that performs processing using the force sensing result from the first sensor capable of detecting the line of action of the force applied to the contacted body by contact. It is equipped with an input unit that can accept the input of the force sensing result and a processor that executes the process. It includes calculating the candidate points of the action points of the force of the contacted body using the shape data and determining the action points from the candidate points.

被接触体は、接触する対象となる物体であって、例えば、口腔ケアモデルである。この場合、接触は、例えば、ブラシなどによる口腔ケアモデルに対するブラッシングである。第1のセンサは、取り付けられた被接触体に与えられた力の、座標系成分の大きさ、方向、及び、原点に働くモーメントを検出可能なセンサであって、例えば力覚センサである。演算装置は、例えばコンピュータであって、入力部は、例えば、第1のセンサを接続し、センシング結果の入力を受け付けるインタフェースである。被接触体の形状データは、例えば、被接触体の形状を座標で表す式である。被接触体に接触によって力が与えられた作用点が決定されることで、被接触体に接触した正確な位置が得られる。 The contacted body is an object to be contacted, for example, an oral care model. In this case, the contact is brushing the oral care model, for example with a brush. The first sensor is a sensor capable of detecting the magnitude, direction, and moment acting on the origin of the force applied to the attached contact body, for example, a force sensor. The arithmetic unit is, for example, a computer, and the input unit is, for example, an interface for connecting a first sensor and receiving an input of a sensing result. The shape data of the contacted body is, for example, an expression expressing the shape of the contacted body in coordinates. By determining the point of action where the force is applied to the contacted body by contact, the exact position in contact with the contacted body can be obtained.

(2)好ましくは、作用点を決定することは、第1のセンサでのセンシングのタイミングが異なる複数の力のセンシング結果から候補点それぞれについて位置の変化速度に相当する指標値を求め、指標値に基づいて作用点を決定することを含む。被接触体に対して連続的な接触を行っている場合、被接触体の表面の形状に応じて作用線の傾きが変化し、それによって候補点ごとに位置の変化速度が異なる。そのため、位置の変化速度を利用することで、候補点の中から作用点を決定することができる。 (2) Preferably, the action point is determined by obtaining an index value corresponding to the change speed of the position for each candidate point from the sensing results of a plurality of forces having different sensing timings by the first sensor. Includes determining the point of action based on. When continuous contact is made with the contacted body, the inclination of the action line changes according to the shape of the surface of the contacted body, and the rate of change of the position differs for each candidate point. Therefore, the point of action can be determined from the candidate points by using the rate of change in position.

(3)好ましくは、作用点を決定することは、複数の候補点のうち、変化速度の最も遅い候補点を作用点と決定することを含む。作用点の変化に伴って作用線は、作用点、つまり、接触した位置を中心にして、作用点から離れるほど存在する範囲が広がるように変化する。そのため、変化速度の最も遅い候補点を作用点と決定することができる。 (3) Preferably, determining the action point includes determining the candidate point having the slowest change rate as the action point among the plurality of candidate points. As the point of action changes, the line of action changes so that the range of existence increases as the distance from the point of action increases, centering on the point of action, that is, the contacted position. Therefore, the candidate point with the slowest change rate can be determined as the action point.

(4)好ましくは、候補点を算出することは、予め記憶している被接触体の形状データと作用線との交点を算出することを含む。これにより得られた複数の交点を候補点として得ることができる。 (4) Preferably, calculating the candidate point includes calculating the intersection of the shape data of the contacted body and the action line stored in advance. A plurality of intersections obtained thereby can be obtained as candidate points.

(5)好ましくは、作用点を決定することは、力のセンシング結果に含まれる力の向きを用いて、候補点のうち、力の向きから得られる成分が、各候補点に対応した許容される向きの範囲にない点を除くことを含む。これにより、候補点の数を減じることができ、計算量を減じることができる。 (5) Preferably, the action point is determined by using the force direction included in the force sensing result, and among the candidate points, the component obtained from the force direction is allowed corresponding to each candidate point. Includes excluding points that are not in the range of orientation. As a result, the number of candidate points can be reduced, and the amount of calculation can be reduced.

(6)好ましくは、許容される向きの範囲は、候補点に対する接触が可能な向きに基づいて規定される。接触によって与えられる力の作用点であるため、力の方向が接触が可能な方向のためである。 (6) Preferably, the allowable range of orientation is defined based on the orientation in which contact with the candidate point is possible. This is because the direction of the force is the direction in which the contact is possible because it is the point of action of the force given by the contact.

(7)好ましくは、入力部は、さらに、第2のセンサによる、被接触体の形状のセンシング結果の入力を受け付け可能であり、候補点を算出することは、被接触体の形状データを形状のセンシング結果に基づいて変形させ、変形後の形状データを用いることを含む。これにより、被接触体が変形した場合であっても作用点を得ることができる。 (7) Preferably, the input unit can further accept the input of the sensing result of the shape of the contacted body by the second sensor, and the calculation of the candidate point is performed by shaping the shape data of the contacted body. It includes deforming based on the sensing result of and using the deformed shape data. As a result, the point of action can be obtained even when the contacted body is deformed.

(8)好ましくは、被接触体の形状データは三次元形状データである。これにより、実際の被接触体の形状により近い形状データを用いることができ、精度よく作用点を得ることができる。 (8) Preferably, the shape data of the contacted body is three-dimensional shape data. As a result, shape data closer to the actual shape of the contacted body can be used, and the point of action can be obtained with high accuracy.

(9)好ましくは、被接触体の形状データは口腔ケアモデルの形状データである。これにより、口腔ケアにおけるブラッシングの位置を検出することができる。 (9) Preferably, the shape data of the contacted body is the shape data of the oral care model. This makes it possible to detect the position of brushing in oral care.

(10)好ましくは、処理は、決定された作用点と、力のセンシング結果に含まれる力の大きさと、を関連付けたデータを出力することをさらに含む。データの出力は、演算装置の外部への出力であって、例えば、後述のディスプレイでの表示、他の装置への送信、などである。これにより、検出結果を外部から知ることができる。 (10) Preferably, the process further comprises outputting data associating the determined point of action with the magnitude of the force included in the force sensing result. The output of the data is an output to the outside of the arithmetic unit, for example, display on a display described later, transmission to another device, and the like. As a result, the detection result can be known from the outside.

(11)好ましくは、処理は、被接触体の単位範囲ごとに、単位時間あたりの単位範囲に含まれる作用点に与えられた力の大きさの合計値、及び、単位範囲に含まれる作用点に力が与えられていた時間の合計値、の少なくとも一方を示すデータを出力することを含む。単位範囲は、被接触体の形状データを所定サイズに分割して設定された、出力のための単位となる範囲を指す。単位範囲ごとに出力されることで、単位範囲ごとの与えられた力の大きさや接触時間の傾向を知ることができる。 (11) Preferably, the treatment is performed for each unit range of the contacted body, the total value of the magnitude of the force applied to the action points included in the unit range per unit time, and the action points included in the unit range. Includes outputting data indicating at least one of the total values of the time the force was applied to. The unit range refers to a range that is a unit for output, which is set by dividing the shape data of the contacted body into a predetermined size. By outputting for each unit range, it is possible to know the magnitude of the given force and the tendency of the contact time for each unit range.

(12)好ましくは、データを出力することは、ディスプレイに表示させることを含む。これにより、ディスプレイの表示で把握することができる。 (12) Preferably, outputting the data includes displaying it on a display. As a result, it can be grasped by the display.

(13)好ましくは、ディスプレイに表示させることは、データとともに、被接触体を表す画像も表示させることを含む。これにより、ディスプレイの表示で作用点などを把握することができるとともに、用いた被接触体も把握できる。 (13) Preferably, displaying on the display includes displaying an image representing the contacted body together with the data. As a result, the point of action and the like can be grasped on the display, and the contacted body used can also be grasped.

(14)好ましくは、第1のセンサは力覚センサである。これにより、取り付けられた被接触体に与えられた力の、座標系成分の大きさ、方向、及び、原点に働くモーメントが検出される。 (14) Preferably, the first sensor is a force sensor. As a result, the magnitude, direction, and moment acting on the origin of the force applied to the attached contacted body are detected.

(15)実施の形態に係るセンサシステムは、被接触体に取り付け可能で、取り付けた被接触体に接触によって与えられた力の作用線を検出可能なセンサと、センサと通信することでセンシング結果を取得し、センシング結果を用いた処理を行う演算装置と、を備え、処理は、力のセンシング結果から得られる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。被接触体に接触によって力が与えられた作用点が決定されることで、被接触体に接触した正確な位置が得られる。 (15) The sensor system according to the embodiment is a sensor that can be attached to a contacted body and can detect an action line of a force applied by contact to the attached contacted body, and a sensing result by communicating with the sensor. Is provided with a computing device that acquires the above and performs processing using the sensing result, and the processing uses the force action line obtained from the force sensing result and the shape data of the contacted body stored in advance. It includes calculating the candidate points of the action points of the force of the contacted body and determining the action points from the candidate points. By determining the point of action where the force is applied to the contacted body by contact, the exact position in contact with the contacted body can be obtained.

(16)好ましくは、センサは、形状データの座標系に応じた位置関係で被接触体に取り付けるための位置決め機構を有する。これにより、センサを、記憶されている形状データの座標系に応じた位置で被接触体に取り付けることができ、位置ずれによる精度の低下を防止できる。 (16) Preferably, the sensor has a positioning mechanism for attaching to the contacted body in a positional relationship according to the coordinate system of the shape data. As a result, the sensor can be attached to the contacted body at a position corresponding to the coordinate system of the stored shape data, and it is possible to prevent a decrease in accuracy due to misalignment.

(17)実施の形態に係るコンピュータプログラムは、コンピュータを、接触によって被接触体に与えられた力の作用線を検出可能な第1のセンサからのセンシング結果を用いた処理を行う演算装置として機能させるコンピュータプログラムであって、処理は、力のセンシング結果から得られる力の作用線と、予め記憶している被接触体の形状データとを用いて被接触体の力の作用点の候補点を算出し、候補点の中から作用点を決定する、ことを含む。これにより、汎用のコンピュータを(1)〜(14)の演算装置として機能させることができるとともに、(15),(16)のセンサシステムの構築に用いることができる。 (17) The computer program according to the embodiment functions as an arithmetic unit that processes the computer using the sensing result from the first sensor that can detect the line of action of the force applied to the contacted object by contact. It is a computer program to make a computer program, and the process uses the force action line obtained from the force sensing result and the shape data of the contacted body stored in advance to select a candidate point of the force action point of the contacted body. It includes calculating and determining the point of action from the candidate points. As a result, a general-purpose computer can function as the arithmetic unit of (1) to (14), and can be used for constructing the sensor systems of (15) and (16).

<2.演算装置、センサシステム、及び、コンピュータプログラムの例> <2. Examples of arithmetic units, sensor systems, and computer programs>

本実施の形態に係るセンサシステム100は、被接触体に接触によって与えられた力を検出してその検出結果を処理するシステムの一例として、口腔ケアモデルへのブラシなどの接触によって与えられた力を検出するシステムである。 The sensor system 100 according to the present embodiment is an example of a system that detects a force applied to a contacted body by contact and processes the detection result, and as an example, a force applied by contact with an oral care model such as a brush. It is a system that detects.

図1を参照して、センサシステム100は、演算装置10と、センサ20と、を含む。センサ20は、被接触体に取り付け可能である。被接触体は、外周からの接触によって力を与えられる物体を指し、この例では口腔ケアモデル30である。センサ20は口腔ケアモデル30に取り付けられ、口腔ケアモデル30に接触によって与えられた力の作用線を検出可能である。 With reference to FIG. 1, the sensor system 100 includes an arithmetic unit 10 and a sensor 20. The sensor 20 can be attached to the contacted body. The contacted body refers to an object to which a force is applied by contact from the outer circumference, and in this example, it is an oral care model 30. The sensor 20 is attached to the oral care model 30 and can detect the line of action of the force applied to the oral care model 30 by contact.

センサ20は、取り付けられた被接触体に与えられた力の、座標系成分の大きさ、方向、及び、原点に働くモーメントを検出可能なセンサである。好ましくは、センサ20は、z軸、y軸、及び、z軸の三次元でセンシング可能である。センサ20は、一例として力覚センサである。 The sensor 20 is a sensor capable of detecting the magnitude, direction, and moment acting on the origin of the force applied to the attached contact body. Preferably, the sensor 20 is capable of sensing in three dimensions of the z-axis, the y-axis, and the z-axis. The sensor 20 is a force sensor as an example.

センサ20は、板状の受力体21を有し、受力体21を口腔ケアモデル30の底面に接するように口腔ケアモデル30に取り付けられる。言い換えると、口腔ケアモデル30は、センサ20の受力体21に載置される。 The sensor 20 has a plate-shaped receiving body 21, and is attached to the oral care model 30 so that the receiving body 21 is in contact with the bottom surface of the oral care model 30. In other words, the oral care model 30 is mounted on the receiving body 21 of the sensor 20.

口腔ケアモデル30は歯列を有して、口腔ケアの訓練、教育において、適切なブラッシングを学ぶために用いられる。トレーニーは、口腔ケアモデル30の歯列に対して、ブラシを接触させ、ブラッシングなどのトレーニングを行う。 The oral care model 30 has dentition and is used to learn proper brushing in oral care training and education. The trainee brings the brush into contact with the dentition of the oral care model 30 and performs training such as brushing.

センサ20は、受力体21を上面としたとき、下面には板状の支持体22が設けられ、受力体21と支持体22との間に変形体23が配置されている。センサ20は、変形体23の変形状態を電気的に検出することで、受力体21に載置された被接触体に与えられた力の大きさと、その位置及び方向と、つまり、口腔ケアモデル30に与えられた力の作用線を検出する。 When the receiving body 21 is on the upper surface of the sensor 20, a plate-shaped support 22 is provided on the lower surface, and the deformed body 23 is arranged between the receiving body 21 and the support 22. The sensor 20 electrically detects the deformed state of the deformed body 23 to determine the magnitude of the force applied to the contacted body placed on the receiving body 21 and its position and direction, that is, oral care. The line of action of the force applied to the model 30 is detected.

センサ20は、口腔ケアモデル30に取り付けるための位置決め機構を有する。位置決め機構は、一例として、図2に示されたようなガイド211〜213である。詳しくは図2を参照して、口腔ケアモデル30を載置するセンサ20の受力体21の上面21Aには、口腔ケアモデル30の奥行方向を固定するガイド211,212と、横方向の中心を固定するためのガイド213と、が設けられている。ガイド211〜213は、例えば、上面21Aにプリントされた線や窪み突起などである。 The sensor 20 has a positioning mechanism for attaching to the oral care model 30. As an example, the positioning mechanism is guides 211 to 213 as shown in FIG. For details, refer to FIG. 2, and on the upper surface 21A of the receiving body 21 of the sensor 20 on which the oral care model 30 is placed, guides 211 and 212 for fixing the depth direction of the oral care model 30 and a center in the lateral direction are provided. A guide 213 and a guide 213 for fixing the guide 213 are provided. The guides 211 to 213 are, for example, lines or recessed protrusions printed on the upper surface 21A.

上面21Aにガイド211〜213が設けられていることにより、センサ20の受力体21の上面21Aの、規定された位置に、口腔ケアモデル30を設置することができる。これにより、後述する処理における演算精度を向上させることができる。 By providing the guides 211 to 213 on the upper surface 21A, the oral care model 30 can be installed at a specified position on the upper surface 21A of the receiving body 21 of the sensor 20. This makes it possible to improve the calculation accuracy in the processing described later.

センサ20と演算装置10とは通信線40で接続され、センサ20のセンシング結果SGは演算装置10に入力される。センサ20と演算装置10とは無線通信を行ってもよい。演算装置10は一般的なコンピュータで構成されて、センサ20からのセンシング結果SGを用いた処理を行う。センシング結果SGを用いた処理については後述する。 The sensor 20 and the arithmetic unit 10 are connected by a communication line 40, and the sensing result SG of the sensor 20 is input to the arithmetic unit 10. Wireless communication may be performed between the sensor 20 and the arithmetic unit 10. The arithmetic unit 10 is composed of a general computer, and performs processing using the sensing result SG from the sensor 20. The processing using the sensing result SG will be described later.

演算装置10には、出力装置であるディスプレイ50と、操作入力を行うための入力装置60とが接続されている。また、演算装置10には、図1に示されたように、後述するカメラ70がさらに接続されていてもよい。カメラ70は本センサシステム100に必須のものではない。演算装置10にカメラ70が接続されている場合、演算装置10は、カメラ70から撮影画像の画像データIMの入力を受け付け、後述する演算に用いてもよい。 A display 50, which is an output device, and an input device 60 for performing operation input are connected to the arithmetic unit 10. Further, as shown in FIG. 1, a camera 70, which will be described later, may be further connected to the arithmetic unit 10. The camera 70 is not essential to the sensor system 100. When the camera 70 is connected to the arithmetic unit 10, the arithmetic unit 10 may accept the input of the image data IM of the captured image from the camera 70 and use it for the calculation described later.

演算装置10は、プロセッサ11とメモリ12とを有するコンピュータで構成される。メモリ12は、一次記憶装置であってもよいし、二次記憶装置であってもよい。メモリ12は、プロセッサ11によって実行されるコンピュータプログラム121を記憶している。 The arithmetic unit 10 is composed of a computer having a processor 11 and a memory 12. The memory 12 may be a primary storage device or a secondary storage device. The memory 12 stores a computer program 121 executed by the processor 11.

メモリ12は、さらに、口腔ケアモデル30のモデル形状データM1を記憶する形状データ記憶部122を有している。モデル形状データM1は後述する演算で用いられる口腔ケアモデル30の形状を表すデータである。これにより、後述する処理に口腔ケアモデル30の形状を表すデータを用いることができる。 The memory 12 further has a shape data storage unit 122 that stores the model shape data M1 of the oral care model 30. The model shape data M1 is data representing the shape of the oral care model 30 used in the calculation described later. As a result, data representing the shape of the oral care model 30 can be used for the processing described later.

なお、形状データ記憶部122は、さらに、サイズの異なるモデル形状データM2を記憶していてもよい。これにより、プロセッサ11は、処理に用いる口腔ケアモデル30の座標を適したモデル形状データとすることができる。 The shape data storage unit 122 may further store model shape data M2 having different sizes. As a result, the processor 11 can use the coordinates of the oral care model 30 used for processing as suitable model shape data.

演算装置10は、センサ20と接続するためのセンサI/F(インタフェース)13を有する。センサI/F13は、センサ20からのセンシング結果SGの入力を受け付け可能な入力部として機能する。 The arithmetic unit 10 has a sensor I / F (interface) 13 for connecting to the sensor 20. The sensor I / F 13 functions as an input unit capable of receiving the input of the sensing result SG from the sensor 20.

演算装置10は、後述するカメラ70と接続するためのカメラI/F14を有する。カメラI/F14は、カメラ70からの画像データIMの入力を受け付け可能な入力部として機能する。 The arithmetic unit 10 has a camera I / F 14 for connecting to a camera 70 described later. The camera I / F 14 functions as an input unit capable of accepting the input of the image data IM from the camera 70.

プロセッサ11は、メモリ12に記憶されているプログラム121を実行することで、センサ20からのセンシング結果SGを用いた処理を行う。センシング結果SGを用いた処理は、センシング結果SGから得られる、口腔ケアモデル30に与えられた力の作用線と、予め記憶しているモデル形状データM1とを用いて口腔ケアモデル30の力の作用点を決定する演算を含む。 The processor 11 executes the program 121 stored in the memory 12 to perform processing using the sensing result SG from the sensor 20. The processing using the sensing result SG is performed by using the action line of the force given to the oral care model 30 obtained from the sensing result SG and the model shape data M1 stored in advance to obtain the force of the oral care model 30. Includes operations to determine the point of action.

プロセッサ11の実行する作用点を決定する演算は、候補点算出処理111を含む。候補点算出処理111は、センサ20からのセンシング結果SGとモデル形状データM1とを用いて候補点を算出する処理である。候補点は、作用点の候補となる点である。候補点を算出することは、モデル形状データM1とセンシング結果SGに含まれる作用線との交点を算出することを含む。なお、詳細については後述する。 The operation for determining the action point executed by the processor 11 includes the candidate point calculation process 111. The candidate point calculation process 111 is a process of calculating a candidate point using the sensing result SG from the sensor 20 and the model shape data M1. Candidate points are points that are candidates for action points. The calculation of the candidate points includes the calculation of the intersection of the model shape data M1 and the action line included in the sensing result SG. The details will be described later.

好ましくは、候補点算出処理111は、補正処理112を含む。補正処理112は、用いるモデル形状データM1をセンサ20と口腔ケアモデル30との位置関係に応じて補正する処理である。センサ20と口腔ケアモデル30との位置関係を識別する方法は特定の方法に限定されない。一例として、演算装置10にカメラ70が接続されている場合には、プロセッサ11は、カメラ70からの画像データIMに基づいてセンサ20に対する口腔ケアモデル30の位置関係を識別することができる。他の方法によって識別してもよい。補正処理112で、プロセッサ11は、識別した位置関係に基づいてモデル形状データM1を補正する。これにより、位置関係が規定された関係よりずれた場合であっても演算精度を確保できる。 Preferably, the candidate point calculation process 111 includes a correction process 112. The correction process 112 is a process for correcting the model shape data M1 to be used according to the positional relationship between the sensor 20 and the oral care model 30. The method for identifying the positional relationship between the sensor 20 and the oral care model 30 is not limited to a specific method. As an example, when the camera 70 is connected to the arithmetic unit 10, the processor 11 can identify the positional relationship of the oral care model 30 with respect to the sensor 20 based on the image data IM from the camera 70. It may be identified by other methods. In the correction process 112, the processor 11 corrects the model shape data M1 based on the identified positional relationship. As a result, the calculation accuracy can be ensured even when the positional relationship deviates from the specified relationship.

好ましくは、候補点算出処理111は、変形処理113を含む。変形処理113は、用いるモデル形状データM1を口腔ケアモデル30の変形に応じて変形させる処理である。口腔ケアモデル30の変形を検出する方法は特定の方法に限定されない。一例として、演算装置10にカメラ70が接続されている場合には、プロセッサ11は、カメラ70からの画像データIMに基づいて口腔ケアモデル30の変形を検出することができる。他の方法によって検出してもよい。変形処理113で、プロセッサ11は、検出した変形に基づいてモデル形状データM1を変形させる。これにより、口腔ケアモデル30が変形した場合であっても演算精度を確保できる。 Preferably, the candidate point calculation process 111 includes the transformation process 113. The deformation process 113 is a process of deforming the model shape data M1 to be used according to the deformation of the oral care model 30. The method of detecting the deformation of the oral care model 30 is not limited to a specific method. As an example, when the camera 70 is connected to the arithmetic unit 10, the processor 11 can detect the deformation of the oral care model 30 based on the image data IM from the camera 70. It may be detected by other methods. In the deformation process 113, the processor 11 deforms the model shape data M1 based on the detected deformation. As a result, the calculation accuracy can be ensured even when the oral care model 30 is deformed.

プロセッサ11の実行する作用点を決定する演算は、作用点決定処理114を含む。作用点決定処理114は、候補点算出処理111によって算出された候補点の中から作用点を決定する処理である。その際に、好ましくは、作用点決定処理114は、絞り込み処理115を含む。絞り込み処理115は、候補点算出処理111によって算出された複数の候補点を絞り込む処理であって、予め規定された絞り込み条件を用いて候補点とならない点を候補点から除く処理である。詳細は後述する。これにより、演算対象とする候補点の数を減じることができ、処理量を減らすことができる。 The operation for determining the point of action executed by the processor 11 includes the point of action determination process 114. The action point determination process 114 is a process of determining an action point from the candidate points calculated by the candidate point calculation process 111. At that time, preferably, the action point determination process 114 includes a narrowing process 115. The narrowing down process 115 is a process of narrowing down a plurality of candidate points calculated by the candidate point calculation process 111, and is a process of removing points that are not candidate points from the candidate points by using a predetermined narrowing down condition. Details will be described later. As a result, the number of candidate points to be calculated can be reduced, and the amount of processing can be reduced.

作用点決定処理114は、速度算出処理116を含む。速度算出処理116は、センサ20でのセンシングのタイミングが異なる複数のセンシング結果SGから、候補点それぞれについて位置の変化速度に相当する指標値を求める処理である。変化速度に相当する指標値は、速度そのものであってもよい。作用点決定処理114は、候補点それぞれについての位置の変化速度に基づいて作用点を決定する。詳細は後述する。 The point of action determination process 114 includes a speed calculation process 116. The speed calculation process 116 is a process of obtaining an index value corresponding to the change speed of the position for each of the candidate points from a plurality of sensing result SGs having different sensing timings by the sensor 20. The index value corresponding to the rate of change may be the rate itself. The action point determination process 114 determines the action point based on the rate of change of the position for each candidate point. Details will be described later.

プロセッサ11はプログラム121を実行することで、さらに、表示処理117を実行する。表示処理117は、作用点決定処理114によって決定された作用点と、センシング結果SGに含まれる力の大きさと、を関連付けたデータを出力する処理であって、一例とし画面データを生成し、ディスプレイ50に表示させる処理である。他の例として、図示しない通信機を含む場合、送信データを生成して他の装置に送信させてもよい。 By executing the program 121, the processor 11 further executes the display process 117. The display process 117 is a process of outputting data in which the point of action determined by the point of action determination process 114 and the magnitude of the force included in the sensing result SG are associated with each other. As an example, screen data is generated and a display is displayed. This is a process for displaying on 50. As another example, when a communication device (not shown) is included, transmission data may be generated and transmitted to another device.

図4〜図10を用いて、作用点を決定する演算の原理について説明する。用いられる口腔ケアモデル30のためのモデル形状データM1,M2は3次元座標系で定義されるものであるが、ここでは、説明を簡易にするために2次元モデルを用いる。すなわち、口腔ケアモデル30の歯茎形状を2次元平面で定義する。 The principle of the operation for determining the point of action will be described with reference to FIGS. 4 to 10. The model shape data M1 and M2 for the oral care model 30 used are defined in a three-dimensional coordinate system, but here, a two-dimensional model is used for simplification of explanation. That is, the gum shape of the oral care model 30 is defined in a two-dimensional plane.

始めに、図4〜図6を用いて、プロセッサ11の実行する候補点算出処理111について説明する。図4を参照して、口腔ケアモデル30の歯列(歯茎)の外側及び内側、つまり、歯茎形状の外側及び内側を、長軸ai、短軸bi、及び、離心距離eiを用いて、それぞれ、式(1)及び式(2)で示される楕円T1,T2で定義する。式(1)、式(2)、及びこれらを表した図4のグラフでは、x軸を歯茎形状の奥行方向、y軸を歯茎形状の横幅方向に一致させ、x値が大きくなる方向を歯茎の前方とする。x値の閾値xthは歯茎の最も奥の位置に相当するx値である。メモリ12の形状データ記憶部122に記憶されているモデル形状データM1は、一例として、式(1)及び式(2)の組み合わせである。 First, the candidate point calculation process 111 executed by the processor 11 will be described with reference to FIGS. 4 to 6. With reference to FIG. 4, the outer and inner sides of the dentition (gingiva) of the oral care model 30, that is, the outer and inner sides of the gum shape, are respectively subjected to the major axis ai, the minor axis bi, and the eccentricity distance ei. , Defined by the ellipses T1 and T2 represented by the equations (1) and (2). In the equations (1), (2), and the graph of FIG. 4 representing these, the x-axis coincides with the depth direction of the gingiva shape, the y-axis coincides with the width direction of the gingiva shape, and the direction in which the x value increases is the gingiva. In front of. The threshold value xth of the x value is the x value corresponding to the innermost position of the gum. The model shape data M1 stored in the shape data storage unit 122 of the memory 12 is, for example, a combination of the formula (1) and the formula (2).

センサ20は、モデル形状データM1の原点Oに対応する位置に取り付けられる。センサ20は、力Fのx軸方向の成分(x成分)Fx、y軸方向の成分(y成分)Fy、及び、原点O周りのモーメントMが検出される。演算装置10は、これらの値をセンシング結果SGから得ることができる。 The sensor 20 is attached at a position corresponding to the origin O of the model shape data M1. The sensor 20 detects a component (x component) Fx in the x-axis direction of the force F, a component (y component) Fy in the y-axis direction, and a moment M around the origin O. The arithmetic unit 10 can obtain these values from the sensing result SG.

モーメントMは、x成分Fx及びy成分Fy用いて図5の式(3−1)で表される。式(3−1)を変形することで、力Fの作用線L1の式(3)が得られる。従って、演算装置10のプロセッサ11は、センサ20からのセンシング結果SGから得られるx成分Fx、y成分Fy、及び、モーメントMを用いて、式(3)で作用線L1を算出できる。 The moment M is represented by the formula (3-1) in FIG. 5 using the x-component Fx and the y-component Fy. By modifying the equation (3-1), the equation (3) of the action line L1 of the force F can be obtained. Therefore, the processor 11 of the arithmetic unit 10 can calculate the action line L1 by the equation (3) using the x component Fx, the y component Fy, and the moment M obtained from the sensing result SG from the sensor 20.

作用点は、ブラシなどが口腔ケアモデル30の歯列の表面に接触する点であるため、式(1)及び式(2)で表された楕円T1,T2上に存在する。従って、作用点は、式(1)又は式(2)上の座標(xc,yc)で表される。また、作用点は作用線上にある。従って、図5に示されたように、作用点は、楕円T1,T2それぞれと作用線L1との交点P11,P12、及び、P13,P14で得られる。 Since the point of action is the point where the brush or the like comes into contact with the surface of the dentition of the oral care model 30, it exists on the ellipses T1 and T2 represented by the formulas (1) and (2). Therefore, the point of action is represented by the coordinates (xc, yc) on the equation (1) or the equation (2). The point of action is on the line of action. Therefore, as shown in FIG. 5, the points of action are obtained at the intersections P11 and P12 and P13 and P14 of the ellipses T1 and T2 and the line of action L1 respectively.

具体的には、プロセッサ11は候補点算出処理111において、図6に示されたように、式(1)と式(3)とを連立させた計算C1、及び、式(2)と式(3)とを連立させた計算C2によって、式(5)及び式(6)で表される解C3を得る。解C3は座標(xc,yc)で得られる。なお、式(5)及び式(6)中の定数C,Dは、それぞれ、図6の式(7),(8)で示されるものである。式(5),(6)より、解C3は座標(xc,yc)で表される4つの解である。つまり、候補点として交点P11,P12、及び、P13,P14が得られる。 Specifically, in the candidate point calculation process 111, the processor 11 calculates C1 in which equations (1) and (3) are combined, and equations (2) and equations (2) and equations (2) as shown in FIG. The solution C3 represented by the equations (5) and (6) is obtained by the calculation C2 in which 3) and the above are combined. Solution C3 is obtained in coordinates (xc, yc). The constants C and D in the equations (5) and (6) are represented by the equations (7) and (8) in FIG. 6, respectively. From equations (5) and (6), solution C3 is four solutions represented by coordinates (xc, yc). That is, intersection points P11 and P12 and P13 and P14 are obtained as candidate points.

次に、図7〜図9を用いて、プロセッサ11の実行する作用点決定処理114について説明する。図7は、作用点Aにおける力Fの角度関係を表している。すなわち、図7を参照して、力Fの水平に対する角度θ1は、x成分Fx及びy成分Fyを用いて式(9)で表される。また、楕円T1,T2の作用点Aにおける接線の水平に対する角度θ2は、楕円T1,T2の式(1),(2)を用いて式(10)で表される。作用点Aにおける接線TNに対する力Fの角度φは、θ1とθ2との差である式(11)で表される。また、力Fの作用点Aにおける接線TN方向の成分(接線力)Fn、及び、法線方向の成分(法線力)Fvは、角度φを用いてそれぞれ式(13),(14)で表される。 Next, the point of action determination process 114 executed by the processor 11 will be described with reference to FIGS. 7 to 9. FIG. 7 shows the angular relationship of the force F at the point of action A. That is, with reference to FIG. 7, the angle θ1 of the force F with respect to the horizontal is represented by the equation (9) using the x component Fx and the y component Fy. Further, the angle θ2 of the tangent line at the point of action A of the ellipses T1 and T2 with respect to the horizontal is expressed by the equation (10) using the equations (1) and (2) of the ellipses T1 and T2. The angle φ of the force F with respect to the tangent line TN at the point of action A is expressed by the equation (11) which is the difference between θ1 and θ2. Further, the component (tangential force) Fn in the tangential TN direction and the component (normal force) Fv in the normal direction at the point of action A of the force F are expressed by the equations (13) and (14) using the angle φ, respectively. expressed.

作用点決定処理114の絞り込み処理115では、候補点である交点P11〜P14それぞれでの法線力Fvを算出し、法線力Fvが予め記憶している絞り込み条件に合致していない点を候補点から除く。絞り込み条件は、法線力の向きであって、候補点の位置ごとに予め設定されている。図8の例では、交点P11〜P14それぞれについて、候補点での法線力の向きの許容範囲R1〜R4が設定されている。絞り込み処理115では、法線力Fvの向きが許容範囲にない点が候補点から除く。 In the narrowing process 115 of the action point determination process 114, the normal force Fv at each of the intersection points P11 to P14, which are candidate points, is calculated, and points whose normal force Fv does not match the narrowing conditions stored in advance are candidates. Exclude from the point. The narrowing-down condition is the direction of the normal force and is preset for each position of the candidate point. In the example of FIG. 8, for each of the intersection points P11 to P14, the permissible range R1 to R4 of the direction of the normal force at the candidate point is set. In the narrowing down process 115, points where the direction of the normal force Fv is not within the permissible range are excluded from the candidate points.

法線力の向きの許容範囲は、口腔ケアモデル30にブラシ等により接触可能な向きに基づいて規定されるものである。すなわち、口腔ケアモデル30にブラシが外側から接触可能な向きに基づき、法線力が歯茎の内に向く方向となる範囲に設定されている。許容範囲は、予め設定されていてもよいし、楕円T1,T2の上の点の座標値から算出されてもよい。 The permissible range of the direction of the normal force is defined based on the direction in which the oral care model 30 can be contacted with a brush or the like. That is, the normal force is set in the direction toward the inside of the gums based on the direction in which the brush can come into contact with the oral care model 30 from the outside. The permissible range may be preset or calculated from the coordinate values of the points above the ellipses T1 and T2.

絞り込み処理115では、法線力Fvの向きが許容範囲にない点が候補点から除かれる。言い換えると、絞り込み処理115では、算出された複数の候補点のうち、法線力Fvの向きが歯茎から離れる向きである点が候補点から除かれる。図8の例では、交点P11〜P14のうち、交点P12及び交点P13が候補点から除かれる。 In the narrowing-down process 115, points where the direction of the normal force Fv is not within the permissible range are excluded from the candidate points. In other words, in the narrowing-down process 115, of the plurality of calculated candidate points, the point where the direction of the normal force Fv is the direction away from the gums is excluded from the candidate points. In the example of FIG. 8, among the intersection points P11 to P14, the intersection points P12 and the intersection points P13 are excluded from the candidate points.

なお、絞り込み処理115では、より簡易には、力Fのx成分Fx及びy成分Fyのうちの少なくとも一方を用いて、許容範囲にない点を候補点から除いてもよい。これにより、すべての候補点について法線力Fvを算出するよりも簡易に候補点の絞り込みができる。すなわち、絞り込み処理115では、力Fの向きから得られる成分が、各候補点に対応した許容範囲にない点を除く処理と言える。 In the narrowing down process 115, more simply, at least one of the x component Fx and the y component Fy of the force F may be used to remove points that are not within the permissible range from the candidate points. As a result, the candidate points can be narrowed down more easily than calculating the normal force Fv for all the candidate points. That is, in the narrowing down process 115, it can be said that the component obtained from the direction of the force F excludes points that are not within the permissible range corresponding to each candidate point.

次に、作用点決定処理114では、速度算出処理116を実行して候補点それぞれについての位置の変化速度を算出する。図9を用いて、位置の変化速度について説明する。口腔ケアモデル30にブラシを接触させてブラッシング動作を行う場合、ブラシが接触する位置、つまり、与えられる力Fの作用点は連続的に変化する。これに伴い、作用線の傾きが変化する。特に、口腔ケアモデル30の接触可能な面である歯茎は曲面であるため、作用点の変化に伴う作用線の傾きの時間変化が大きい。作用点の変化に伴って作用線は、作用点、つまり、接触した位置を中心にして、作用点から離れるほど存在する範囲が広がるように変化する。 Next, in the action point determination process 114, the speed calculation process 116 is executed to calculate the change speed of the position for each candidate point. The rate of change in position will be described with reference to FIG. When the brush is brought into contact with the oral care model 30 to perform the brushing operation, the position where the brush contacts, that is, the point of action of the applied force F changes continuously. Along with this, the slope of the action line changes. In particular, since the gum, which is the contactable surface of the oral care model 30, has a curved surface, the inclination of the action line changes greatly with time as the point of action changes. As the point of action changes, the line of action changes so that the range of existence increases as the distance from the point of action increases, centering on the point of action, that is, the contacted position.

これに関して、図9では、同一の点とみなされる程度に歯茎表面の点Q1でわずかにブラッシング動作を行った場合を表している。点Q1に与えられる力は、力f1,f2と変化する。力f1,f2それぞれの作用線AL1,M2は、歯茎の他の位置で交点Q2,Q3を持つ。交点Q2,Q3は同一の候補点であって、センサ20でのセンシングのタイミングが異なる2つのセンシング結果それぞれで得られる候補点のうちの位置の近いものとして検出される。 In this regard, FIG. 9 shows a case where the brushing operation is slightly performed at the point Q1 on the gum surface to the extent that it is regarded as the same point. The force given to the point Q1 changes with the forces f1 and f2. The action lines AL1 and M2 of the forces f1 and f2 have intersections Q2 and Q3 at other positions of the gums. The intersections Q2 and Q3 are the same candidate points, and are detected as being close to each other among the candidate points obtained by the two sensing results having different sensing timings by the sensor 20.

点Q1は楕円上の点であって曲面を移動することから、作用線AL1,M2の方向の変化が大きい。その結果、交点Q2,Q3の間隔は、交点Q1の移動間隔よりも大きい。そのため、交点Q2,Q3に相当する候補点の位置の変化速度の方が、交点Q1に相当する候補点の位置の変化速度よりも大きい。 Since the point Q1 is a point on an ellipse and moves on a curved surface, the change in the directions of the action lines AL1 and M2 is large. As a result, the interval between the intersections Q2 and Q3 is larger than the movement interval of the intersection Q1. Therefore, the rate of change of the position of the candidate point corresponding to the intersections Q2 and Q3 is larger than the rate of change of the position of the candidate point corresponding to the intersection Q1.

この性質を利用して、算出された候補点のうち、センシングのタイミングが異なるセンシング結果から得られたそれぞれに対応した位置への変化速度の最も遅い候補点を作用点とすることができる。 By utilizing this property, among the calculated candidate points, the candidate point having the slowest change speed to the corresponding position obtained from the sensing results having different sensing timings can be set as the action point.

候補点における位置の変化速度viは、候補点(xc,yc)と、△t秒後の候補点の座標を(xciold,yciold)とを用いて、図9の式(15)で表される。速度算出処理116では、算出された各候補点、又は、算出され、絞り込み処理115によって絞り込まれた後の候補点ごとに変化速度viを算出する。そして、これらを比較して最も変化速度viの小さいものを作用点に決定する。 The change speed vi of the position at the candidate point is expressed by the equation (15) of FIG. 9 using the candidate point (xc, yc) and the coordinates of the candidate point after Δt seconds (xciold, yciold). .. In the speed calculation process 116, the change speed vi is calculated for each of the calculated candidate points or for each of the calculated candidate points after being narrowed down by the narrowing process 115. Then, these are compared and the one having the smallest change rate vi is determined as the point of action.

図10の例の場合、絞り込み処理115によって絞り込まれた候補点である交点P11及びP14それぞれの変化速度v1、v2を算出する。その結果、図10に示されたようにv1<v2であるため、交点P11が作用点と決定される。 In the case of the example of FIG. 10, the change velocities v1 and v2 of the intersection points P11 and P14, which are the candidate points narrowed down by the narrowing down process 115, are calculated. As a result, since v1 <v2 as shown in FIG. 10, the intersection P11 is determined to be the point of action.

なお、作用点の決定に、変化速度viに相当する他の指標値を用いてもよい。他の指標値は、例えば、点の間隔である。点の間隔を用いる場合、間隔が最も小さい候補点を作用点とする。 In addition, another index value corresponding to the rate of change vi may be used to determine the point of action. Other index values are, for example, point spacing. When the interval between points is used, the candidate point with the smallest interval is set as the point of action.

図11は、演算装置10のプロセッサ11での処理の流れの一例を表したフローチャートである。図11の処理は、例えば、口腔ケアのトレーニングの開始と共に開始される。その際、一例として、オペレータは演算装置10の入力装置60を用いて処理の開始を指示するとともに、トレーニングに用いる口腔ケアモデル30のサイズなどを指示する。 FIG. 11 is a flowchart showing an example of the processing flow in the processor 11 of the arithmetic unit 10. The process of FIG. 11 begins, for example, with the start of oral care training. At that time, as an example, the operator instructs the start of processing by using the input device 60 of the arithmetic unit 10, and also instructs the size of the oral care model 30 used for training.

プロセッサ11は、入力装置60からの指示信号に従ってプログラム121を読み出して実行する。それによって処理が開始する。初めに、プロセッサ11は、入力装置60からの指示信号によって指定された口腔ケアモデル30の対応したモデル形状データM1をメモリ12から読み出す(ステップS101)。 The processor 11 reads and executes the program 121 according to the instruction signal from the input device 60. This starts the process. First, the processor 11 reads the corresponding model shape data M1 of the oral care model 30 designated by the instruction signal from the input device 60 from the memory 12 (step S101).

好ましくは、プロセッサ11は、読み出したモデル形状データM1の座標系を口腔ケアモデル30の位置ずれに応じて補正する(ステップS103)。ステップS103でプロセッサ11は、一例として、カメラ70で撮影されることによって得られた画像データIMを解析し、口腔ケアモデル30のガイド211〜213からの位置ずれを検出する。位置ずれは、他の方法で検出されてもよい。ステップS103では、モデル形状データM1の座標を検出された位置ずれに応じて変換するとともに、以降のセンシング結果SGに適用する座標系も変換する。これにより、口腔ケアモデル30にセンサ20を装着する際に位置ずれが生じてもセンシング精度の低下を抑えることができる。 Preferably, the processor 11 corrects the coordinate system of the read model shape data M1 according to the positional deviation of the oral care model 30 (step S103). In step S103, as an example, the processor 11 analyzes the image data IM obtained by being photographed by the camera 70, and detects the displacement of the oral care model 30 from the guides 211 to 213. The misalignment may be detected by other methods. In step S103, the coordinates of the model shape data M1 are converted according to the detected positional deviation, and the coordinate system applied to the subsequent sensing result SG is also converted. As a result, it is possible to suppress a decrease in sensing accuracy even if a misalignment occurs when the sensor 20 is attached to the oral care model 30.

好ましくは、プロセッサ11は、読み出したモデル形状データM1の座標系を口腔ケアモデル30の変形に応じて補正する(ステップS105、S107)。プロセッサ11は、一例として、カメラ70で撮影されることによって得られた画像データIMを解析し、口腔ケアモデル30の変形を検出する。変形は、例えば、上顎の下顎に対する角度の変化である。変形が検出された場合(ステップS105でYES)、プロセッサ11は、その変形に応じてモデル形状データM1の座標を変換するとともに、以降のセンシング結果SGに適用する座標系も変換する(ステップS107)。これにより、口腔ケアモデル30に変形が生じてもセンシング精度の低下を抑えることができる。 Preferably, the processor 11 corrects the coordinate system of the read model shape data M1 according to the deformation of the oral care model 30 (steps S105 and S107). As an example, the processor 11 analyzes the image data IM obtained by being photographed by the camera 70 and detects the deformation of the oral care model 30. The deformation is, for example, a change in the angle of the upper jaw with respect to the lower jaw. When the deformation is detected (YES in step S105), the processor 11 transforms the coordinates of the model shape data M1 according to the deformation, and also transforms the coordinate system applied to the subsequent sensing result SG (step S107). .. As a result, even if the oral care model 30 is deformed, it is possible to suppress a decrease in sensing accuracy.

プロセッサ11は、センサ20からの、あるタイミングtにおけるセンシング結果SGを読み込む(ステップS109)。そして、プロセッサ11は、モデル形状データM1に含まれる歯茎形状を楕円T1,T2と、センシング結果SGに含まれる力Fのx成分Fx、y成分Fy、及びモーメントMから得られる力Fの作用線L1との交点P11〜P14を算出し(ステップS111)、作用点の候補点とする。 The processor 11 reads the sensing result SG at a certain timing t from the sensor 20 (step S109). Then, the processor 11 sets the tooth stem shape included in the model shape data M1 to the ellipses T1 and T2, and the action line of the force F obtained from the x component Fx, the y component Fy, and the moment M of the force F included in the sensing result SG. The intersection points P11 to P14 with L1 are calculated (step S111) and used as candidate points for action points.

プロセッサ11は、ステップS111で得られた候補点それぞれに対して、その点における力Fの向きから得られる成分が、その候補点に対応した方向の許容範囲であるか否かに応じて、候補点を絞り込む(ステップS113)。すなわち、ステップS113でプロセッサは、絞り込みの条件である許容範囲にない点を候補点から除き、候補点の数を減じる。これにより、以降の処理の量を減ずることができる。ステップS113で絞り込まれた候補点は、メモリ12に記憶される(ステップS115)。 For each of the candidate points obtained in step S111, the processor 11 is a candidate depending on whether or not the component obtained from the direction of the force F at that point is within the permissible range in the direction corresponding to the candidate point. Narrow down the points (step S113). That is, in step S113, the processor removes points that are not within the permissible range, which is a condition for narrowing down, from the candidate points, and reduces the number of candidate points. As a result, the amount of subsequent processing can be reduced. The candidate points narrowed down in step S113 are stored in the memory 12 (step S115).

メモリ12に、タイミングtより以前のタイミングのセンシング結果から得られた候補点が記憶されていない場合であって(ステップS117でNO)、次のタイミング(t+△t)のセンシング結果を読み込むことができる場合(ステップS127でYES)、プロセッサ11は、ステップS105からの処理を繰り返す。これにより、次のタイミング(t+△t)のセンシング結果から候補点が算出され、メモリ12に記憶される。 When the candidate points obtained from the sensing results of the timings before the timing t are not stored in the memory 12 (NO in step S117), the sensing results of the next timing (t + Δt) can be read. If possible (YES in step S127), the processor 11 repeats the process from step S105. As a result, a candidate point is calculated from the sensing result of the next timing (t + Δt) and stored in the memory 12.

この場合、前回のタイミングtでの候補点がメモリ12に記憶されているので(ステップS117でYES)、プロセッサ11は、これら2つのタイミングt,(t+△t)で得られた対応する候補点について位置の変化速度viを算出し(ステップS119)、変化速度viが最も小さい点を作用点と決定する(ステップS121)。 In this case, since the candidate points at the previous timing t are stored in the memory 12 (YES in step S117), the processor 11 has the corresponding candidate points obtained at these two timings t, (t + Δt). The change speed vi of the position is calculated (step S119), and the point having the smallest change speed vi is determined as the action point (step S121).

以上の処理によって作用点が決定されると、プロセッサ11はディスプレイ50で表示させるための表示データを生成し(ステップS123)、ディスプレイ50に渡して表示を指示する(ステップS125)。ステップS123では、以上の処理で決定された作用点と、力Fの大きさと、を関連付けたデータを表示させる表示データを生成する。 When the action point is determined by the above processing, the processor 11 generates display data to be displayed on the display 50 (step S123) and passes it to the display 50 to instruct the display (step S125). In step S123, display data for displaying the data associated with the action point determined by the above process and the magnitude of the force F is generated.

プロセッサ11は、以上の処理を繰り返す。それにより、処理が終了するまで、ステップS125の表示が更新され続ける。すなわち、口腔ケアモデル30を用いたブラッシング動作に応じて、リアルタイムにディスプレイ50に作用点、つまり、ブラシが接触した箇所と歯茎に与えられた力Fとが表示されることになる。 The processor 11 repeats the above processing. As a result, the display in step S125 continues to be updated until the processing is completed. That is, according to the brushing operation using the oral care model 30, the point of action, that is, the point where the brush contacts and the force F applied to the gums are displayed on the display 50 in real time.

以上の処理は、一例として、センサ20からセンシング結果が入力されている間、つまり、ブラッシング動作が行われている間(ステップS127でYES)、継続される。言い換えると、センサ20からセンシング結果が入力されないと(ステップS127でNO)、プロセッサ11は処理を終了する。他の例として、プロセッサ11は、入力装置60からの指示入力に従って処理を終了してもよい。 As an example, the above processing is continued while the sensing result is input from the sensor 20, that is, while the brushing operation is being performed (YES in step S127). In other words, if the sensing result is not input from the sensor 20 (NO in step S127), the processor 11 ends the process. As another example, the processor 11 may end the process according to the instruction input from the input device 60.

上記のように、モデル形状データM1は三次元形状を表す三次元座標系の形状データであってもよい。その場合、式(1)〜式(15)を、z軸方向の成分を有する三次元の式とすればよい。これにより、モデル形状データM1を実際の口腔ケアモデル30に近づけることができ、作用点、つまり、ブラシを接触させる位置や力Fの方向がより分かりやすくなる。 As described above, the model shape data M1 may be the shape data of the three-dimensional coordinate system representing the three-dimensional shape. In that case, the equations (1) to (15) may be three-dimensional equations having components in the z-axis direction. As a result, the model shape data M1 can be brought closer to the actual oral care model 30, and the point of action, that is, the position where the brush is brought into contact and the direction of the force F can be more easily understood.

ディスプレイ50には、一例として図12に表された画面51が表示される。画面51は、モデル形状データM1が三次元座標系の形状データである場合の画面である。詳しくは、図12を参照して、画面51は、作用点と力Fの大きさとを関連付けたデータを表示する領域52を含む。 The screen 51 shown in FIG. 12 is displayed on the display 50 as an example. The screen 51 is a screen when the model shape data M1 is the shape data of the three-dimensional coordinate system. More specifically, with reference to FIG. 12, the screen 51 includes an area 52 for displaying data associated with the point of action and the magnitude of the force F.

作用点と力Fの大きさとを関連付けたデータは、例えば、作用点の属する単位範囲ごとの、その範囲に含まれる作用点それぞれに与えられた力Fの大きさの統計値、及び、領域ごとの接触されていた合計時間、などである。単位範囲は、モデル形状データM1に対して設定された、表示のための単位となる範囲であって、図12の例では、歯茎形状を下顎、上顎それぞれの左右前後に区分した8つの範囲が設定されている。単位範囲ごとに表示されることで、単位範囲ごとの与えられた力Fの大きさや接触時間の傾向を知ることができる。 The data relating the action point and the magnitude of the force F is, for example, the statistical value of the magnitude of the force F given to each action point included in the range for each unit range to which the action point belongs, and for each region. The total time of contact, etc. The unit range is a range set for the model shape data M1 and is a unit for display. In the example of FIG. 12, eight ranges in which the gum shape is divided into the left, right, front and back of each of the lower jaw and the upper jaw are divided. It is set. By displaying each unit range, it is possible to know the magnitude of the given force F and the tendency of the contact time for each unit range.

与えられた力Fの大きさの統計値は、一例として、規定時間における力Fの大きさの平均値である。また、接触されていた合計時間は、一例として、その範囲に属する作用点を示すセンシング結果が得られたセンシングのタイミングの合計時間である。 The statistical value of the magnitude of the given force F is, for example, the average value of the magnitude of the force F at the specified time. Further, the total time of contact is, for example, the total time of the sensing timing at which the sensing result indicating the point of action belonging to the range is obtained.

図12の例では、領域252に、単位範囲ごとにその範囲に含まれる作用点に与えられた力Fの大きさの平均値と、その範囲に接触した時間の合計時間との表示521が含まれている。好ましくは、単位範囲ごとに与える力Fの統計値、及び/又は、接触時間の合計時間の閾値を設定しておき、領域52に閾値との比較結果を併せて表示する。図12の例では、単位範囲ごとに比較結果を表す画像522が表示されて、画像522の色によって比較結果が示されている。 In the example of FIG. 12, the region 252 includes a display 521 showing the average value of the magnitudes of the forces F applied to the points of action included in the range for each unit range and the total time of contact with the range. It has been. Preferably, a statistical value of the force F applied for each unit range and / or a threshold value of the total contact time is set, and the comparison result with the threshold value is also displayed in the area 52. In the example of FIG. 12, an image 522 showing the comparison result is displayed for each unit range, and the comparison result is shown by the color of the image 522.

好ましくは、画面51は、口腔ケアモデル30に対するブラッシング動作を視覚的に表示する領域53を含む。領域53は、口腔ケアモデル30の視覚的な表示531と、力Fに関する表示532と、を含む。表示532は、一例として、口腔ケアモデル30の歯茎上の点から伸びる線分であって、歯茎上の点が力Fの作用点、線分の長さ又は太さが力Fの大きさ、及び、線分の方向が力Fの方向を表すように表示531に対して配置される。 Preferably, the screen 51 includes a region 53 that visually displays the brushing motion for the oral care model 30. Region 53 includes a visual display 531 of the oral care model 30 and a display 532 with respect to force F. As an example, display 532 is a line segment extending from a point on the gum of the oral care model 30, where the point on the gum is the point of action of the force F, and the length or thickness of the line segment is the magnitude of the force F. And, the direction of the line segment is arranged with respect to the display 531 so as to represent the direction of the force F.

領域52の表示521により、領域ごとにブラッシングの強度と時間とを知ることができる。口腔ケアなどの連続的な接触を伴う技能は、一般的に、位置や角度や強度や時間などが明確になりにくい。そのため、その適否を判定したりトレーニングなどで人に伝えたりすることが困難である。その点、本センサシステム100を用いると、口腔ケアモデル30に対する接触の位置が与えられた力Fの作用点として特定され、ディスプレイ50に表示されるなど出力される。併せて、力Fの大きさや方向や接触時間なども画面51から知ることができる。 The display 521 of the region 52 allows the strength and time of brushing to be known for each region. Skills that involve continuous contact, such as oral care, generally have difficulty in clarifying position, angle, strength, time, and so on. Therefore, it is difficult to judge the suitability or to inform people by training or the like. In that respect, when the present sensor system 100 is used, the position of contact with the oral care model 30 is specified as the action point of the given force F, and is output such as being displayed on the display 50. At the same time, the magnitude and direction of the force F, the contact time, and the like can be known from the screen 51.

例えば、トレーナーによる模範動作である場合、領域ごとのブラッシングの強度と時間との模範を表示によって数値や画像で把握できる。これにより、模範動作を見てまねるよりも正確に動作を理解することができる。また、トレーニーのトレーニング動作である場合、トレーナーがトレーニーによる領域ごとのブラッシングの強度と時間とを把握することができる。そのため、適切な指導がしやすくなる。 For example, in the case of a model operation by a trainer, a model of brushing intensity and time for each area can be grasped by a numerical value or an image by displaying. This makes it possible to understand the movement more accurately than by looking at the model movement. Further, in the case of the training operation of the trainee, the trainer can grasp the intensity and time of brushing for each area by the trainee. Therefore, it becomes easy to give appropriate guidance.

さらに画像522の表示により、領域ごとに適したブラッシング動作であるか否かを一目で把握することができる。また、領域53の表示532により、口腔ケアモデル30に対して行われているブラッシング動作をディスプレイ50上で見ることができるとともに、トレーニングの状況を表す領域52の表示内容と同一の画面で表示されることで見比べることもできる。これにより、指導者がいない状態でも動作を確認することができる。 Further, by displaying the image 522, it is possible to grasp at a glance whether or not the brushing operation is suitable for each area. Further, the display 532 of the area 53 allows the brushing operation performed on the oral care model 30 to be seen on the display 50, and is displayed on the same screen as the display content of the area 52 showing the training status. You can also compare by doing. As a result, the operation can be confirmed even when there is no instructor.

例えば、歯磨き指導などにおいてセンサシステム100を用いることで、実践者のブラッシング動作が適切であるかどうかの判定結果を提示できる。そのため、技術者のみならず学校などで広くセンサシステム100を用いてブラッシング動作のトレーニングや判定を行うことができる。 For example, by using the sensor system 100 in tooth brushing instruction or the like, it is possible to present a determination result of whether or not the brushing operation of the practitioner is appropriate. Therefore, not only engineers but also schools and the like can widely use the sensor system 100 to perform training and determination of brushing operation.

画面51は、図11のフローチャートに表された処理が繰り返されるたびに、つまり、ブラッシング動作中にセンサ20によるセンシングが繰り返されるたびに更新される。センシング間隔を短く設定することで、領域53ではブラッシング動作がリアルタイムに表示されるとともに、領域52の表示の更新によって一連のブラッシング動作の結果を累積的に知ることができる。 The screen 51 is updated every time the process shown in the flowchart of FIG. 11 is repeated, that is, every time the sensing by the sensor 20 is repeated during the brushing operation. By setting the sensing interval short, the brushing operation is displayed in real time in the area 53, and the result of the series of brushing operations can be cumulatively known by updating the display in the area 52.

<3.付記>
開示された演算装置10の処理は、上の説明ではプロセッサ11がコンピュータプログラム121を実行することによって実現されるものとしているが、少なくとも一部が回路素子その他のハードウェアによって実現されてもよい。
<3. Addendum>
In the above description, the processing of the disclosed arithmetic unit 10 is realized by the processor 11 executing the computer program 121, but at least a part thereof may be realized by a circuit element or other hardware.

演算装置10での処理を実現するプログラム121は、コンピュータ読取り可能である非一時的な記録媒体に記録されたプログラム製品として提供されてもよい。又は、プログラム121は、ネットワークを介したダウンロードによって提供されてもよい。 The program 121 that realizes the processing in the arithmetic unit 10 may be provided as a program product recorded on a non-temporary recording medium that can be read by a computer. Alternatively, program 121 may be provided by download over the network.

演算装置10での処理を実現するプログラム121は、演算装置10での処理のためのプログラムコードを有する。プログラム121は、プログラム121が格納されたメモリ12に接続されたプロセッサ11によって読み取られ、実行される。 The program 121 that realizes the processing in the arithmetic unit 10 has a program code for the processing in the arithmetic unit 10. The program 121 is read and executed by the processor 11 connected to the memory 12 in which the program 121 is stored.

演算装置10での処理を実現するプログラム121は、アプリケーションプログラムとして提供されてもよいし、その一部または全部が、コンピュータのオペレーティングシステム(OS)に含まれていてもよい。 The program 121 that realizes the processing in the arithmetic unit 10 may be provided as an application program, or a part or all of the program 121 may be included in the operating system (OS) of the computer.

本発明は、上記実施形態に限定されるものではなく、様々な変形が可能である。 The present invention is not limited to the above embodiment, and various modifications are possible.

10 :演算装置
11 :プロセッサ
12 :メモリ
13 :センサI/F
14 :カメラI/F
20 :センサ
21 :受力体
21A :上面
22 :支持体
23 :変形体
30 :口腔ケアモデル
40 :通信線
50 :ディスプレイ
51 :画面
52 :領域
53 :領域
60 :入力装置
70 :カメラ
100 :センサシステム
111 :候補点算出処理
112 :補正処理
113 :変形処理
114 :作用点決定処理
115 :絞り込み処理
116 :速度算出処理
117 :表示処理
121 :コンピュータプログラム
122 :形状データ記憶部
211 :ガイド
212 :ガイド
213 :ガイド
252 :領域
521 :表示
522 :画像
531 :表示
532 :表示
A :作用点
AL1 :作用線
C :定数
C1 :計算
C2 :計算
C3 :解
D :定数
F :力
Fv :法線力
Fx :x成分
Fy :y成分
IM :画像データ
L1 :作用線
M :モーメント
M1 :モデル形状データ
M2 :モデル形状データ
O :原点
P11 :交点
P12 :交点
P13 :交点
P14 :交点
Q1 :交点
Q2 :交点
Q3 :交点
R1 :許容範囲
R2 :許容範囲
R3 :許容範囲
R4 :許容範囲
SG :センシング結果
T1 :楕円
T2 :楕円
TN :接線
ai :長軸
bi :短軸
ei :離心距離
f1 :力
f2 :力
t :タイミング
v1 :変化速度
v2 :変化速度
vi :変化速度
xth :閾値
θ1 :角度
θ2 :角度
φ :角度
10: Arithmetic logic unit 11: Processor 12: Memory 13: Sensor I / F
14: Camera I / F
20: Sensor 21: Receiving body 21A: Top surface 22: Support 23: Deformed body 30: Oral care model 40: Communication line 50: Display 51: Screen 52: Area 53: Area 60: Input device 70: Camera 100: Sensor System 111: Candidate point calculation process 112: Correction process 113: Deformation process 114: Action point determination process 115: Narrowing process 116: Speed calculation process 117: Display process 121: Computer program 122: Shape data storage unit 211: Guide 212: Guide 213: Guide 252: Area 521: Display 522: Image 531: Display 532: Display A: Action point AL1: Action line C: Constant C1: Calculation C2: Calculation C3: Solution D: Constant F: Force Fv: Normal force Fx : X component Fy: y component IM: Image data L1: Action line M: Moment M1: Model shape data M2: Model shape data O: Origin P11: Intersection P12: Intersection P13: Intersection P14: Intersection Q1: Intersection Q2: Intersection Q3 : Intersection point R1: Allowable range R2: Allowable range R3: Allowable range R4: Allowable range SG: Sensing result T1: Ellipse T2: Ellipse TN: Tangent ai: Long axis bi: Short axis ei: Centering distance f1: Force f2: Force t : Timing v1: Change speed v2: Change speed vi: Change speed xth: Threshold θ1: Angle θ2: Angle φ: Angle

Claims (17)

接触によって被接触体に与えられた力の作用線を検出可能な第1のセンサからの前記力のセンシング結果を用いた処理を行う演算装置であって、
前記力のセンシング結果の入力を受け付け可能な入力部と、
前記処理を実行するプロセッサと、を備え、
前記処理は、
前記力のセンシング結果から得られる前記力の作用線と、予め記憶している前記被接触体の形状データとを用いて前記被接触体の前記力の作用点の候補点を算出し、
前記候補点の中から前記作用点を決定する、ことを含む
演算装置。
It is an arithmetic unit that performs processing using the sensing result of the force from the first sensor that can detect the line of action of the force applied to the contacted body by contact.
An input unit that can accept the input of the force sensing result and
A processor that executes the above processing is provided.
The above processing
Using the force action line obtained from the force sensing result and the shape data of the contacted body stored in advance, a candidate point for the force action point of the contacted body is calculated.
An arithmetic unit including determining the point of action from the candidate points.
前記作用点を決定することは、前記第1のセンサでのセンシングのタイミングが異なる複数の前記力のセンシング結果から前記候補点それぞれについて位置の変化速度に相当する指標値を求め、前記指標値に基づいて前記作用点を決定することを含む
請求項1に記載の演算装置。
To determine the point of action, an index value corresponding to the rate of change in position for each of the candidate points is obtained from the sensing results of a plurality of forces having different sensing timings by the first sensor, and the index value is used as the index value. The arithmetic unit according to claim 1, wherein the point of action is determined based on the above.
前記作用点を決定することは、複数の前記候補点のうち、前記変化速度の最も遅い前記候補点を前記作用点と決定することを含む
請求項2に記載の演算装置。
The arithmetic unit according to claim 2, wherein determining the action point includes determining the candidate point having the slowest change rate among the plurality of candidate points as the action point.
前記候補点を算出することは、予め記憶している前記被接触体の形状データと前記作用線との交点を算出することを含む
請求項1〜3のいずれか1項に記載の演算装置。
The arithmetic unit according to any one of claims 1 to 3, wherein calculating the candidate point includes calculating an intersection of the shape data of the contacted body and the action line stored in advance.
前記作用点を決定することは、前記力のセンシング結果に含まれる前記力の向きを用いて、前記候補点のうち、前記力の向きから得られる成分が、各前記候補点に対応した許容される向きの範囲にない点を除くことを含む
請求項1〜4のいずれか1項に記載の演算装置。
To determine the point of action, the direction of the force included in the sensing result of the force is used, and among the candidate points, the component obtained from the direction of the force is allowed corresponding to each of the candidate points. The arithmetic unit according to any one of claims 1 to 4, which includes excluding points that are not in the range of directions.
前記許容される向きの範囲は、前記候補点に対する前記接触が可能な向きに基づいて規定される
請求項5に記載の演算装置。
The arithmetic unit according to claim 5, wherein the allowable range of orientation is defined based on the orientation in which the contact with the candidate point is possible.
前記入力部は、さらに、第2のセンサによる、前記被接触体の形状のセンシング結果の入力を受け付け可能であり、
前記候補点を算出することは、前記被接触体の形状データを前記形状のセンシング結果に基づいて変形させ、変形後の前記被接触体の形状データを用いることを含む
請求項1〜6のいずれか一項に記載の演算装置。
The input unit can further receive the input of the sensing result of the shape of the contacted body by the second sensor.
Any of claims 1 to 6, wherein calculating the candidate point includes deforming the shape data of the contacted body based on the sensing result of the shape and using the deformed shape data of the contacted body. The arithmetic unit according to one item.
前記被接触体の形状データは三次元形状データである
請求項1〜7のいずれか一項に記載の演算装置。
The arithmetic unit according to any one of claims 1 to 7, wherein the shape data of the contacted body is three-dimensional shape data.
前記被接触体の形状データは口腔ケアモデルの形状データである
請求項1〜8のいずれか一項に記載の演算装置。
The arithmetic unit according to any one of claims 1 to 8, wherein the shape data of the contacted body is shape data of an oral care model.
前記処理は、決定された前記作用点と、前記力のセンシング結果に含まれる前記力の大きさと、を関連付けたデータを出力することをさらに含む
請求項1〜9のいずれか一項に記載の演算装置。
The process according to any one of claims 1 to 9, further comprising outputting data in which the determined point of action and the magnitude of the force included in the force sensing result are associated with each other. Arithmetic logic unit.
前記処理は、前記被接触体の単位範囲ごとに、単位時間あたりの前記単位範囲に含まれる前記作用点に与えられた前記力の大きさの合計値、及び、前記単位範囲に含まれる前記作用点に前記力が与えられていた時間の合計値、の少なくとも一方を示すデータを出力することを含む
請求項1〜10のいずれか一項に記載の演算装置。
In the treatment, for each unit range of the contacted body, the total value of the magnitude of the force applied to the action point included in the unit range per unit time, and the action included in the unit range. The arithmetic unit according to any one of claims 1 to 10, which comprises outputting data indicating at least one of the total value of the time when the force is applied to the point.
前記データを出力することは、ディスプレイに表示させることを含む
請求項10又は11に記載の演算装置。
The arithmetic unit according to claim 10 or 11, wherein outputting the data includes displaying the data on a display.
前記ディスプレイに表示させることは、前記データとともに、前記被接触体を表す画像も表示させることを含む
請求項12に記載の演算装置。
The arithmetic unit according to claim 12, wherein displaying on the display includes displaying an image representing the contacted body together with the data.
前記第1のセンサは力覚センサである
請求項1〜13のいずれか一項に記載の演算装置。
The arithmetic unit according to any one of claims 1 to 13, wherein the first sensor is a force sensor.
被接触体に取り付け可能で、取り付けた前記被接触体に接触によって与えられた力の作用線を検出可能なセンサと、
前記センサと通信することでセンシング結果を取得し、前記力のセンシング結果を用いた処理を行う演算装置と、を備え、
前記処理は、
前記力のセンシング結果から得られる前記力の作用線と、予め記憶している前記被接触体の形状データとを用いて前記被接触体の前記力の作用点の候補点を算出し、
前記候補点の中から前記作用点を決定する、ことを含む
センサシステム。
A sensor that can be attached to the contacted body and can detect the line of action of the force applied by contact to the attached contacted body.
It is provided with an arithmetic unit that acquires a sensing result by communicating with the sensor and performs processing using the force sensing result.
The above processing
Using the force action line obtained from the force sensing result and the shape data of the contacted body stored in advance, a candidate point for the force action point of the contacted body is calculated.
A sensor system including determining the point of action from the candidate points.
前記センサは、前記形状データの座標系に応じた位置関係で前記被接触体に取り付けるための位置決め機構を有する
請求項15に記載のセンサシステム。
The sensor system according to claim 15, wherein the sensor has a positioning mechanism for attaching to the contacted body in a positional relationship according to the coordinate system of the shape data.
コンピュータを、接触によって被接触体に与えられた力の作用線を検出可能な第1のセンサからのセンシング結果を用いた処理を行う演算装置として機能させるコンピュータプログラムであって、
前記処理は、
前記力のセンシング結果から得られる前記力の作用線と、予め記憶している前記被接触体の形状データとを用いて前記被接触体の前記力の作用点の候補点を算出し、
前記候補点の中から前記作用点を決定する、ことを含む
コンピュータプログラム。
A computer program that causes a computer to function as an arithmetic unit that performs processing using the sensing result from a first sensor that can detect the line of action of the force applied to the contacted body by contact.
The above processing
Using the force action line obtained from the force sensing result and the shape data of the contacted body stored in advance, a candidate point for the force action point of the contacted body is calculated.
A computer program including determining the point of action from the candidate points.
JP2020078654A 2020-04-27 2020-04-27 Calculation device, sensor system, and computer program Active JP7492245B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020078654A JP7492245B2 (en) 2020-04-27 2020-04-27 Calculation device, sensor system, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020078654A JP7492245B2 (en) 2020-04-27 2020-04-27 Calculation device, sensor system, and computer program

Publications (2)

Publication Number Publication Date
JP2021173903A true JP2021173903A (en) 2021-11-01
JP7492245B2 JP7492245B2 (en) 2024-05-29

Family

ID=78281697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020078654A Active JP7492245B2 (en) 2020-04-27 2020-04-27 Calculation device, sensor system, and computer program

Country Status (1)

Country Link
JP (1) JP7492245B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4273229B2 (en) 2003-12-24 2009-06-03 国立大学法人 名古屋工業大学 Feather touch dental care training system with force-tactile visualization
JP5526825B2 (en) 2010-02-02 2014-06-18 オムロンヘルスケア株式会社 Oral care device
JP6664742B2 (en) 2017-06-05 2020-03-13 株式会社レプトリノ Force sensor

Also Published As

Publication number Publication date
JP7492245B2 (en) 2024-05-29

Similar Documents

Publication Publication Date Title
CN101639939B (en) Image information processing method and apparatus
RU2700246C1 (en) Method and system for capturing an object using a robot device
US10964057B2 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
JP6331517B2 (en) Image processing apparatus, system, image processing method, and image processing program
US20180297198A1 (en) Teaching point correcting method, program, recording medium, robot apparatus, imaging point creating method, and imaging point creating apparatus
US10860845B2 (en) Method and system for automatic repetitive step and cycle detection for manual assembly line operations
US9348953B2 (en) Swing simulation system, swing simulation apparatus, and swing simulation method
US11199561B2 (en) System and method for standardized evaluation of activity sequences
JP2012234406A (en) Work support device and work support method
JP7282962B2 (en) Device for reading measured values of analog measuring tools
KR20060091589A (en) Apparatus and method for recognizing spatial writing and recording medium for recording the method
US10549422B2 (en) Robot controller, machine learning device and machine learning method
JP7282960B2 (en) Device for reading measured values of analog measuring tools
EP4400274A1 (en) Command value generating device, method, and program
CN115122333A (en) Robot calibration method and device, electronic equipment and storage medium
JP2021173903A (en) Computing device, sensor system, and computer program
JP7165108B2 (en) Work training system and work training support method
JP2021096639A5 (en) Information processing method, information processing device, mechanical equipment, manufacturing method of article, control program, recording medium
US20200209276A1 (en) System and method for cycle duration measurement in repeated activity sequences
CN110826422A (en) System and method for obtaining motion parameter information
JP7254262B2 (en) Work estimating device, work estimating method, and work estimating program
CN114723659A (en) Acupuncture point detection effect determining method and device and electronic equipment
US11224787B2 (en) Swing measurement device, swing measurement method, and swing measurement program
CN110796922A (en) Novel drum learning system
WO2019093299A1 (en) Position information acquisition device and robot control device provided with same

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200429

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240510

R150 Certificate of patent or registration of utility model

Ref document number: 7492245

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150