JP7219243B2 - Posture estimation device - Google Patents

Posture estimation device Download PDF

Info

Publication number
JP7219243B2
JP7219243B2 JP2020068046A JP2020068046A JP7219243B2 JP 7219243 B2 JP7219243 B2 JP 7219243B2 JP 2020068046 A JP2020068046 A JP 2020068046A JP 2020068046 A JP2020068046 A JP 2020068046A JP 7219243 B2 JP7219243 B2 JP 7219243B2
Authority
JP
Japan
Prior art keywords
posture
posture estimation
instrument
information
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020068046A
Other languages
Japanese (ja)
Other versions
JP2021165639A (en
Inventor
和泉 小山
晃一 中村
Original Assignee
医療法人社団皓有会
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 医療法人社団皓有会 filed Critical 医療法人社団皓有会
Priority to JP2020068046A priority Critical patent/JP7219243B2/en
Publication of JP2021165639A publication Critical patent/JP2021165639A/en
Application granted granted Critical
Publication of JP7219243B2 publication Critical patent/JP7219243B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、画像に基づいて器具の姿勢を推定する姿勢推定装置に関する。 The present invention relates to a posture estimation device that estimates the posture of a tool based on images.

この種の装置として、従来、測定対象に対する超音波プローブの姿勢を推定するようにした装置が知られている(例えば特許文献1参照)。特許文献1記載の装置では、超音波プローブの中心軸に沿って超音波プローブの複数の側面に設けられた所定形状の突起を認識することで、超音波プローブの上下、左右および表裏を認識し、超音波プローブの姿勢を推定する。 As a device of this type, there is conventionally known a device configured to estimate the posture of an ultrasonic probe with respect to a measurement object (see, for example, Japanese Unexamined Patent Application Publication No. 2002-100003). The apparatus described in Patent Document 1 recognizes the top and bottom, left and right, and front and back of the ultrasonic probe by recognizing projections of a predetermined shape provided on a plurality of side surfaces of the ultrasonic probe along the central axis of the ultrasonic probe. , to estimate the pose of the ultrasound probe.

特許第6510570号公報Japanese Patent No. 6510570

しかしながら、上記特許文献1記載の装置では、超音波プローブに突起等のマーカを設ける必要があるため、ユーザの測定作業を妨げる可能性がある。また、マーカの脱落や位置ずれ、損傷や劣化による形状変化等に起因して正確な姿勢推定ができなくなる可能性がある。 However, in the apparatus described in Patent Document 1, it is necessary to provide a marker such as a projection on the ultrasonic probe, which may hinder the user's measurement work. In addition, there is a possibility that accurate posture estimation may not be possible due to marker omission, positional displacement, shape change due to damage or deterioration, and the like.

本発明の一態様は、互いに3次元形状が異なる第1器具および第2器具を含み、所定方向で所定動作を行う器具の姿勢を推定する姿勢推定装置であって、予め登録された器具の3次元形状および該3次元形状に対応する動作方向の形状情報を取得する形状取得部と、器具と該器具による動作の対象とを撮影した画像情報を取得する画像取得部と、形状取得部により取得された形状情報と画像取得部により取得された画像情報とに基づいて、器具を特定し、対象に対する特定された器具の動作方向を推定する姿勢推定部と、を備える。
One aspect of the present invention is a posture estimation device that includes a first tool and a second tool that are three-dimensionally different from each other and that estimates the posture of the tool that performs a predetermined action in a predetermined direction, the posture estimating apparatus comprising: Acquired by a shape acquisition unit that acquires a dimensional shape and shape information in an operation direction corresponding to the three-dimensional shape, an image acquisition unit that acquires image information obtained by photographing an instrument and an object to be operated by the instrument, and a shape acquisition unit a posture estimating unit that identifies the appliance based on the obtained shape information and the image information acquired by the image acquiring unit, and estimates the movement direction of the specified appliance with respect to the target.

本発明によれば、マーカを設けることなく器具の姿勢を推定することができる。 According to the present invention, the posture of the instrument can be estimated without providing markers.

本発明の実施形態に係る姿勢推定装置が適用される器具の一例を概略的に示す図。1 is a diagram schematically showing an example of a device to which a posture estimation device according to an embodiment of the invention is applied; FIG. 図1の歯科用レントゲン撮影に使用されるフィルムおよびフィルムを保持するホルダを概略的に示す斜視図。FIG. 2 is a perspective view schematically showing a film and a holder holding the film used for the dental radiography of FIG. 1; 本発明の実施形態に係る姿勢推定装置の要部構成を示すブロック図。1 is a block diagram showing the configuration of main parts of a posture estimation device according to an embodiment of the present invention; FIG. 図1の器具の3次元形状データの一例を示す図。The figure which shows an example of the three-dimensional shape data of the instrument of FIG. 図1の器具の3次元形状データの別の例を示す図。FIG. 2 is a diagram showing another example of three-dimensional shape data of the instrument in FIG. 1; 患者の正面から撮影され、図3の画像取得部により取得された画像データの一例を示す図。FIG. 4 is a diagram showing an example of image data captured from the front of a patient and acquired by the image acquisition unit in FIG. 3 ; 患者の側方から撮影され、図3の画像取得部により取得された画像データの一例を示す図。FIG. 4 is a view showing an example of image data captured from the side of a patient and acquired by the image acquisition unit in FIG. 3; 正面から撮影された患者についての、図3の入出力部の表示画面の一例を示す図。FIG. 4 is a diagram showing an example of a display screen of the input/output unit in FIG. 3 for a patient photographed from the front; 側方から撮影された患者についての、図3の入出力部の表示画面の一例を示す図。FIG. 4 is a diagram showing an example of a display screen of the input/output unit in FIG. 3 for a patient imaged from the side; 本発明の実施形態に係る姿勢推定装置により実行される処理の一例を示すフローチャート。4 is a flowchart showing an example of processing executed by the posture estimation device according to the embodiment of the present invention;

以下、図1~図7を参照して本発明の実施形態について説明する。本発明の実施形態に係る姿勢推定装置は、所定方向にX線を照射するレントゲン装置の照射器具や、所定方向で超音波を送受信する超音波測定装置のプローブ等、所定方向で所定動作を行う各種の医療器具に適用され、測定や治療等の動作の対象に対する、器具による動作の方向(器具の姿勢)を推定する。以下では、歯科用レントゲン装置の撮影対象に対する照射器具の姿勢を推定する例を説明する。 An embodiment of the present invention will be described below with reference to FIGS. 1 to 7. FIG. A posture estimation apparatus according to an embodiment of the present invention performs a predetermined operation in a predetermined direction, such as an irradiation device of an X-ray apparatus that emits X-rays in a predetermined direction, or a probe of an ultrasonic measurement apparatus that transmits and receives ultrasonic waves in a predetermined direction. Applied to various medical instruments, it estimates the direction of motion (orientation of the instrument) with respect to the target of motion such as measurement or treatment. An example of estimating the orientation of the irradiation device with respect to the imaging target of the dental X-ray apparatus will be described below.

図1は、本発明の実施形態に係る姿勢推定装置が適用される器具1の一例を概略的に示す図であり、歯科用レントゲン装置10のX線照射器具(以下、器具)1を示す。また、図2は、歯科用レントゲン撮影に使用されるフィルム3およびフィルム3を保持するホルダ40を概略的に示す斜視図である。 FIG. 1 is a diagram schematically showing an example of a device 1 to which a posture estimation device according to an embodiment of the present invention is applied, and shows an X-ray irradiation device (hereinafter referred to as device) 1 of a dental X-ray apparatus 10. As shown in FIG. FIG. 2 is a perspective view schematically showing a film 3 used for dental radiography and a holder 40 holding the film 3. As shown in FIG.

図1および図2に示すように、歯科用レントゲン撮影では、患者2の歯(例えば、左側臼歯)の口腔側にフィルム3を固定し、器具1からフィルム3に向かう所定の照射方向AにX線を照射する。 As shown in FIGS. 1 and 2, in dental radiography, a film 3 is fixed to the oral cavity side of a patient's 2 teeth (for example, left molars), and X is projected in a predetermined irradiation direction A from the instrument 1 toward the film 3. irradiate the line.

フィルム3は、図2に示すようなホルダ40によって保持される。図2に示すように、ホルダ40は、フィルム3を保持するクリップ部41と、クリップ部41に隣接する咬合部42と、リング状のインジケータ部43と、クリップ部41および咬合部42とインジケータ部43とを接続するステー部44とを有する。 The film 3 is held by a holder 40 as shown in FIG. As shown in FIG. 2, the holder 40 includes a clip portion 41 for holding the film 3, an engaging portion 42 adjacent to the clip portion 41, a ring-shaped indicator portion 43, the clip portion 41, the engaging portion 42, and the indicator portion. 43, and a stay portion 44 that connects with 43.

フィルム3を保持するホルダ40の咬合部42を患者2が歯で咬合することで、患者2の歯の口腔側にフィルム3が固定され、インジケータ部43が口腔外に露出されて器具1によりX線を照射すべき照射方向Aが示される。 When the patient 2 bites the bite portion 42 of the holder 40 holding the film 3 with the teeth, the film 3 is fixed to the teeth of the patient 2 on the oral cavity side, and the indicator portion 43 is exposed outside the oral cavity. An irradiation direction A is indicated in which the line is to be irradiated.

ところで、レントゲン画像等を用いて患者2の歯やその周辺の病変等の対象組織について経過観察を行う場合には、その対象組織を定期的に同一の照射方向Aから撮影した画像同士を比較する必要がある。しかしながら、図2のホルダ40を使用したとしても患者2がホルダ40を咬合する位置や角度は変化するため、撮影毎の照射方向A、すなわち対象組織に対する器具1の姿勢を完全に一致させることは難しい。 By the way, when performing follow-up observation of a target tissue such as a tooth of the patient 2 or a lesion around it using an X-ray image or the like, images of the target tissue taken from the same irradiation direction A are periodically compared with each other. There is a need. However, even if the holder 40 of FIG. 2 is used, the position and angle at which the patient 2 bites the holder 40 will change. difficult.

そこで、本実施形態では、測定や治療等の動作の対象に対する医療器具の姿勢を推定し、測定や治療等の動作を行うユーザに対して医療器具の適切な姿勢をガイドできるよう、以下のように姿勢推定装置を構成する。 Therefore, in this embodiment, the posture of the medical device with respect to the target of the operation such as measurement or treatment is estimated, and the appropriate posture of the medical device can be guided to the user performing the operation such as measurement or treatment as follows. to construct a pose estimation device.

図3は、本発明の実施形態に係る姿勢推定装置(以下、装置)50の要部構成を示すブロック図である。装置50は、CPU51、ROM,RAM等のメモリ52、およびI/Oインタフェース等その他の周辺回路等を有するコンピュータを含んで構成される。CPU51は、器具1の3次元形状データを取得する形状取得部53と、器具1および患者2の画像データを取得する画像取得部54と、患者2に対する器具1の照射方向Aを推定する姿勢推定部55と、照射方向Aの情報を出力する情報出力部56として機能する。装置50には、有線または無線により、外部メモリ57と入出力部58とカメラ59とを接続することができる。 FIG. 3 is a block diagram showing the main configuration of a posture estimation device (hereinafter referred to as device) 50 according to an embodiment of the present invention. The device 50 includes a computer having a CPU 51, a memory 52 such as ROM and RAM, and other peripheral circuits such as an I/O interface. The CPU 51 includes a shape acquisition unit 53 that acquires three-dimensional shape data of the device 1, an image acquisition unit 54 that acquires image data of the device 1 and the patient 2, and a posture estimation unit that estimates the irradiation direction A of the device 1 with respect to the patient 2. 55 and an information output unit 56 that outputs information on the irradiation direction A. FIG. An external memory 57, an input/output unit 58, and a camera 59 can be connected to the device 50 by wire or wirelessly.

図4A,4Bは、器具1の3次元形状データの一例を示す図である。メモリ52には、器具1を含む歯科用レントゲン装置10の3次元形状データが記憶される。図4Aに示すように、3次元形状データには、器具1の外形1Mの情報、器具1によるX線の照射方向A(照射軸)の情報、器具1の外形と照射軸との交点P1,P2の情報が含まれる。 4A and 4B are diagrams showing an example of the three-dimensional shape data of the instrument 1. FIG. The memory 52 stores three-dimensional shape data of the dental X-ray apparatus 10 including the instrument 1 . As shown in FIG. 4A, the three-dimensional shape data includes information on the outline 1M of the instrument 1, information on the X-ray irradiation direction A (irradiation axis) of the instrument 1, an intersection point P1 between the outline of the instrument 1 and the irradiation axis, Information of P2 is included.

図示は省略するが、歯科用レントゲン装置10の3次元形状データには、歯科用レントゲン装置10(全体または本体10a)の外形を示す3次元データ10M、床等に固定して設置されるときの設置軸C示す3次元形状データCM、本体10aに固定されたヘッドレストやスイッチ等の基準点Oを示す3次元形状データOMも含まれる。 Although illustration is omitted, the three-dimensional shape data of the dental X-ray apparatus 10 includes three-dimensional data 10M representing the outer shape of the dental X-ray apparatus 10 (whole or main body 10a), and the shape of the dental X-ray apparatus 10 when fixed to the floor or the like. The three-dimensional shape data CM indicating the installation axis C and the three-dimensional shape data OM indicating the reference points O of the headrest, switches, etc. fixed to the main body 10a are also included.

器具1の外形1Mの情報としては、例えば、歯科用レントゲン装置10のメーカから提供される3次元CAD(Computer-Aided Design)データや、3Dスキャナ等により実際の歯科用レントゲン装置10(器具1)を測定して得た3次元形状データ等を用いることができる。 The information on the external shape 1M of the instrument 1 includes, for example, three-dimensional CAD (Computer-Aided Design) data provided by the manufacturer of the dental X-ray apparatus 10, and the actual dental X-ray apparatus 10 (instrument 1) obtained by a 3D scanner or the like. Three-dimensional shape data or the like obtained by measuring can be used.

3次元形状データとしては、器具1の外形1Mの情報に代えて、器具1を異なる複数の方向から撮影したときの複数の2次元画像のデータ(第1画像データ)と、各画像中の特徴点に仮想マーカPnを設定した第2画像データとを用いることもできる。図4Bは、第2画像データの一例である。異なる複数の方向から撮影した複数の画像において特徴点(図4Bでは13個の特徴点)に仮想マーカPn(図4Bでは13個の仮想マーカP1~P13)を設定することで、器具1全体の特徴点を網羅した3次元形状データとすることができる。 As the three-dimensional shape data, instead of the information on the outer shape 1M of the instrument 1, data of a plurality of two-dimensional images (first image data) when the instrument 1 is photographed from a plurality of different directions, and the features in each image. Second image data in which virtual markers Pn are set at points can also be used. FIG. 4B is an example of second image data. By setting virtual markers Pn (13 virtual markers P1 to P13 in FIG. 4B) at feature points (13 feature points in FIG. 4B) in a plurality of images captured from a plurality of different directions, the entire instrument 1 can be visualized. Three-dimensional shape data covering feature points can be obtained.

例えば、実際の器具1の外形の特徴点(面や端の中央や等分割点、角部等)にペンやシール等でマーカを施した状態で実際に測定(事前測定)を行い、測定中の器具1を動画撮影し、複数の静止画に分割することで、第2画像データ(図4B)が得られる。さらに、画像加工により第2画像データからマーカPnを削除することで、第1画像データ(図4A)が得られ、これにより第1画像データと第2画像データとのデータセットが得られる。このようなデータセットを用いて機械学習を行うことで、以後、学習結果に基づいて器具1の姿勢を推定することが可能になる。 For example, actual measurement (preliminary measurement) is performed with a marker being applied to a feature point (the center of a surface or an end, an equal division point, a corner, etc.) of the outer shape of the actual instrument 1 with a pen, a sticker, or the like, and the measurement is performed. 2nd image data (FIG. 4B) is obtained by taking a moving image of the instrument 1 and dividing it into a plurality of still images. Furthermore, the first image data (FIG. 4A) is obtained by deleting the marker Pn from the second image data by image processing, thereby obtaining a data set of the first image data and the second image data. By performing machine learning using such a data set, it becomes possible to estimate the orientation of the appliance 1 based on the learning results.

このような機械学習のための事前測定として、実際に器具1が使用されることが想定される測定を行うことで、カメラ59(図3)による器具1の撮影角度を再現し、実践的なデータセットに基づく機械学習を行うことができる。これにより、学習結果に基づく器具1の姿勢推定の精度を向上することができる。さらに、器具1について想定される測定項目(測定対象箇所やプローブ走査方向等の測定内容)ごとにデータセットを準備してもよい。この場合、測定項目ごとにアノテーションがなされたデータセット単位で機械学習を行うとともに、測定項目ごとに学習結果を切り換えることで、器具1の姿勢推定の精度を一層向上することができる。 As a preliminary measurement for such machine learning, by performing measurements assuming that the instrument 1 is actually used, the imaging angle of the instrument 1 by the camera 59 (FIG. 3) can be reproduced and practical Can perform machine learning based on datasets. As a result, the accuracy of posture estimation of the appliance 1 based on the learning result can be improved. Furthermore, a data set may be prepared for each measurement item assumed for the instrument 1 (measurement content such as measurement target location and probe scanning direction). In this case, machine learning is performed in units of data sets annotated for each measurement item, and by switching the learning result for each measurement item, the accuracy of posture estimation of the appliance 1 can be further improved.

メモリ52には、互いに外形や特徴点が異なる複数の歯科用レントゲン装置10(器具1)の3次元形状データが、例えば、メーカや型式毎に記憶される。 The memory 52 stores three-dimensional shape data of a plurality of dental X-ray apparatuses 10 (tools 1) having different external shapes and feature points, for example, for each manufacturer and model.

図3の外部メモリ57は、例えば、ネットワークを介して装置50に接続可能な外部のコンピュータのメモリや、入出力ポートを介して装置50に接続可能なフラッシュメモリである。入出力部58には、キーボード、マウス、ディスプレイ、スピーカ、ディスプレイと一体に構成されるタッチパネル等が含まれる。ユーザは、入出力部58を操作して外部メモリ57に記憶された3次元形状データを装置50に入力することで、新たな歯科用レントゲン装置10(器具1)の3次元形状データを追加登録することができる。 The external memory 57 in FIG. 3 is, for example, an external computer memory connectable to the device 50 via a network, or a flash memory connectable to the device 50 via an input/output port. The input/output unit 58 includes a keyboard, a mouse, a display, a speaker, a touch panel integrated with the display, and the like. By operating the input/output unit 58 and inputting the three-dimensional shape data stored in the external memory 57 to the device 50, the user additionally registers the three-dimensional shape data of the new dental X-ray device 10 (instrument 1). can do.

装置50の形状取得部53は、入出力部58を介して入力された3次元形状データを取得する。形状取得部53により取得された3次元形状データは、装置50のメモリ52に記憶される。 The shape acquisition unit 53 of the device 50 acquires three-dimensional shape data input via the input/output unit 58 . The three-dimensional shape data acquired by the shape acquisition section 53 is stored in the memory 52 of the device 50 .

カメラ59は、動画撮影が可能な2台のカメラにより構成され、器具1および患者2の顔面が撮影範囲に含まれるよう、例えば歯科用レントゲン装置10に面した壁面に取り付けて配置される。カメラ59を2台のカメラにより構成、すなわちステレオカメラとして構成することで、器具1と患者2の顔面とが重なる撮影時にも十分な撮影範囲を確保することができる。2台のカメラ59は、水平方向の撮影方向が互いに90度程度異なるように配置される。カメラ59により撮影された画像データは、装置50およびディスプレイ(入出力部)58に送信される。 The camera 59 is composed of two cameras capable of capturing moving images, and is attached to, for example, a wall surface facing the dental X-ray apparatus 10 so that the instrument 1 and the face of the patient 2 are included in the capturing range. By constructing the camera 59 with two cameras, that is, constructing it as a stereo camera, it is possible to ensure a sufficient photographing range even when the instrument 1 and the face of the patient 2 overlap each other. The two cameras 59 are arranged such that their horizontal shooting directions are different from each other by about 90 degrees. Image data captured by camera 59 is transmitted to device 50 and display (input/output unit) 58 .

装置50の画像取得部54は、カメラ59から送信された器具1および患者2の画像データを取得する。画像取得部54は、入出力部58を介して外部メモリ57から入力された器具1および患者2の画像データを取得することもできる。例えば、ユーザは、入出力部58を操作して外部メモリ57に記憶された同一の患者2の前回撮影時の画像データを装置50に入力することができる。 The image acquisition unit 54 of the device 50 acquires image data of the instrument 1 and the patient 2 transmitted from the camera 59 . The image acquisition unit 54 can also acquire image data of the instrument 1 and the patient 2 input from the external memory 57 via the input/output unit 58 . For example, the user can operate the input/output unit 58 to input to the device 50 the image data of the same patient 2 stored in the external memory 57 at the time of the previous imaging.

姿勢推定部55は、形状取得部53により取得され、メモリ52に記憶された歯科用レントゲン装置10(器具1)の3次元形状データと、画像取得部54により取得された画像データとに基づいて、患者2に対する器具1の照射方向Aを推定する。具体的には、先ず、画像上の歯科用レントゲン装置10の本体10aの設置軸Cおよび基準点Oを認識し、認識された設置軸Cに平行な重力方向をZ軸、基準点Oを原点とする3次元座標空間を設定する。 The posture estimation unit 55 is based on the three-dimensional shape data of the dental X-ray apparatus 10 (instrument 1) acquired by the shape acquisition unit 53 and stored in the memory 52 and the image data acquired by the image acquisition unit 54. , estimate the irradiation direction A of the instrument 1 with respect to the patient 2 . Specifically, first, the installation axis C and the reference point O of the main body 10a of the dental X-ray apparatus 10 on the image are recognized, and the direction of gravity parallel to the recognized installation axis C is the Z axis, and the reference point O is the origin. A three-dimensional coordinate space is set.

図5A,5Bは、画像取得部54により取得された画像データの一例を示す図であり、図5Aは、患者2の正面から撮影された画像データを示し、図5Bは、患者2の側方から撮影された画像データを示す。図5A,5Bに示すように、姿勢推定部55は、各画像上における患者2の身体関節や目、耳、鼻などの顔の特徴点を含む特徴点を検出し、各特徴点に対応するノードN1~N18の3次元座標を算出する。また、器具1の外形や特徴点を検出し、器具1の外形と照射軸との交点(特徴点)P1,P2の3次元座標を算出する。 5A and 5B are diagrams showing an example of image data acquired by the image acquisition unit 54. FIG. 5A shows image data taken from the front of the patient 2, and FIG. shows image data taken from As shown in FIGS. 5A and 5B, the posture estimation unit 55 detects feature points including facial feature points such as body joints, eyes, ears, and nose of the patient 2 on each image, and corresponds to each feature point. Three-dimensional coordinates of nodes N1 to N18 are calculated. Further, the outline and feature points of the instrument 1 are detected, and the three-dimensional coordinates of intersection points (feature points) P1 and P2 between the outline of the instrument 1 and the irradiation axis are calculated.

各画像における特徴点の検出および2次元座標の算出は、予めメモリ52に記憶されたOpenPoseライブラリ(コンピュータビジョンに関する国際学会CVPR2017、カーネギーメロン大学、Zhe Caoら)などの深層学習による特徴点検出アルゴリズムを用いて行われる。OpenPoseライブラリでは、特徴点間の距離や相対的な動きなどの特徴点の関連性に基づいて各特徴点が検出される。 Detection of feature points in each image and calculation of two-dimensional coordinates are performed using feature point detection algorithms based on deep learning such as the OpenPose library (CVPR2017, Carnegie Mellon University, Zhe Cao et al., International Conference on Computer Vision) stored in memory 52 in advance. performed using In the OpenPose library, each feature point is detected based on the relationship between the feature points, such as the distance between feature points and relative movement.

各画像における器具1の外形や特徴点の検出および器具1の外形と照射軸との交点(特徴点)P1,P2の2次元座標の算出は、予めメモリ52に記憶された3次元形状データに基づいて行われる。複数の3次元形状データが登録されている場合は、画像上の器具1の外形または特徴点と、3次元形状データに含まれる器具1の外形1Mまたは仮想マーカPnとを比較することでメーカや型式を特定し、対応する3次元形状データに基づいて交点P1,P2の2次元座標の算出が行われる。なお、ユーザ自身が撮影に使用するメーカや型式を特定してもよい。 The detection of the outline and feature points of the instrument 1 in each image and the calculation of the two-dimensional coordinates of the intersection points (feature points) P1 and P2 between the outline of the instrument 1 and the irradiation axis are based on the three-dimensional shape data stored in the memory 52 in advance. done based on When a plurality of three-dimensional shape data are registered, the outline or feature points of the appliance 1 on the image can be compared with the outline 1M or the virtual marker Pn of the appliance 1 included in the three-dimensional shape data. The model is specified, and the two-dimensional coordinates of the intersection points P1 and P2 are calculated based on the corresponding three-dimensional shape data. It should be noted that the user himself/herself may specify the manufacturer and model used for photographing.

ステレオカメラを構成する左右一対のカメラ59により撮影された一対の画像(例えば、図5Aと図5B)におけるノードN1~N18および交点P1,P2の2次元座標が算出されると、三角測量の原理により対応する3次元座標が算出される。これらの3次元座標は、例えばKinect(登録商標)等の赤外線デプスカメラにより検出してもよい。 When the two-dimensional coordinates of nodes N1 to N18 and intersections P1 and P2 in a pair of images (for example, FIGS. 5A and 5B) captured by a pair of left and right cameras 59 constituting a stereo camera are calculated, the principle of triangulation is calculated. , the corresponding three-dimensional coordinates are calculated. These three-dimensional coordinates may be detected by, for example, an infrared depth camera such as Kinect (registered trademark).

算出されたノードN1~N18の3次元座標は、重力方向における患者2の姿勢あるいは歯科用レントゲン装置10の本体10aに対する患者2の姿勢に相当する。また、算出された交点P1,P2の3次元座標は、重力方向における器具1の姿勢あるいは歯科用レントゲン装置10の本体10aに対する器具1の姿勢に相当する。また、例えば、患者2の顔面の特徴点のノードN1~N3に対する器具1の交点P1,P2の相対座標は、患者2に対する器具1の姿勢(照射方向A)に相当する。 The calculated three-dimensional coordinates of the nodes N1 to N18 correspond to the posture of the patient 2 in the direction of gravity or the posture of the patient 2 with respect to the main body 10a of the dental X-ray apparatus 10. FIG. Further, the calculated three-dimensional coordinates of the points of intersection P1 and P2 correspond to the orientation of the instrument 1 in the direction of gravity or the orientation of the instrument 1 with respect to the main body 10a of the dental X-ray apparatus 10 . Further, for example, the relative coordinates of the intersection points P1 and P2 of the instrument 1 with respect to the nodes N1 to N3 of the facial feature points of the patient 2 correspond to the posture of the instrument 1 with respect to the patient 2 (irradiation direction A).

患者2の姿勢および器具1の姿勢(照射方向A)の情報は、情報出力部56によりディスプレイ(入出力部)58に出力される。また、歯科用レントゲン装置10によりX線を照射してレントゲン撮影を行なった撮影時刻の画像における患者2の基準姿勢および器具1の基準姿勢(基準方向Az)に相当するノードN1~N18および交点P1,P2の3次元座標がメモリ52に記憶される。メモリ52に記憶された患者2の基準姿勢および器具1の基準姿勢(基準方向Az)の情報は、次回の撮影時に読みだされて情報出力部56によりディスプレイ58に出力される。 Information on the posture of the patient 2 and the posture of the appliance 1 (irradiation direction A) is output to the display (input/output unit) 58 by the information output unit 56 . Further, nodes N1 to N18 corresponding to the reference posture of the patient 2 and the reference posture (reference direction Az) of the instrument 1 and the intersection point P1 in the image at the time when X-rays were emitted by the dental X-ray apparatus 10 and X-rays were taken. , P2 are stored in the memory 52 . Information on the reference posture of the patient 2 and the reference posture (reference direction Az) of the instrument 1 stored in the memory 52 is read out at the next imaging and output to the display 58 by the information output unit 56 .

図6A,6Bは、ディスプレイ(入出力部)58の表示画面の一例を示す図であり、図6Aは、患者2の正面から撮影された画像の表示画面を示し、図6Bは、患者2の側方から撮影された画像の表示画面を示す。図6A,6Bに示すように、ディスプレイ58には、カメラ59からの画像に、患者2および器具1の現在の姿勢と前回の姿勢の情報が重ねて表示される。 6A and 6B are diagrams showing an example of the display screen of the display (input/output unit) 58. FIG. 6A shows the display screen of the image photographed from the front of the patient 2, and FIG. Fig. 3 shows a display screen of an image taken from the side; As shown in FIGS. 6A and 6B, the image from the camera 59 is superimposed on the display 58 with information on the current and previous postures of the patient 2 and the instrument 1 .

ユーザは、ディスプレイ58の表示画面を介して、重力方向における、あるいは歯科用レントゲン装置10の本体10aに対する患者2の現在の姿勢(N1,N2,N3)と前回撮影時の基準姿勢(N1z,N2z,N3z)とを同時に確認することができる。これにより、基準姿勢と一致するように患者2の姿勢を調整することができる。また、ディスプレイ58の表示画面を介して器具1の現在の照射方向Aと前回撮影時の基準方向A0とを同時に確認できるため、基準方向A0と一致するように患者2に対する器具1の姿勢を調整することができる。 Via the display screen of the display 58, the user can view the current posture (N1, N2, N3) of the patient 2 in the direction of gravity or relative to the main body 10a of the dental X-ray apparatus 10 and the reference posture (N1z, N2z) at the time of the previous imaging. , N3z) can be verified at the same time. Thereby, the posture of the patient 2 can be adjusted so as to match the reference posture. In addition, since the current irradiation direction A of the instrument 1 and the reference direction A0 at the time of the previous imaging can be confirmed simultaneously via the display screen of the display 58, the posture of the instrument 1 with respect to the patient 2 is adjusted so as to match the reference direction A0. can do.

図7は、予め記憶されたプログラムに従い、装置50により実行される処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えば、画像データが取得されると開始され、所定周期で繰り返される。先ずステップS1で画像データを読み込み、次いでステップS2で現在使用中の器具1を特定し、次いでステップS3で患者2および器具1の姿勢を推定する。次いでステップS4で、前回撮影時の基準姿勢の情報がメモリに記憶されているか否かを判定する。ステップS4で肯定されるとステップS5に進み、現在の姿勢の情報と前回撮影時の基準姿勢の情報とをディスプレイ58に出力する。ステップS4で否定されるとステップS6に進み、現在の姿勢の情報のみをディスプレイ58に出力する。次いでステップS7で、撮影が行われたか否かを判定し、肯定されるとステップS8に進み、否定されると処理を終了する。ステップS8では、現在(すなわち、撮影時刻)の姿勢の情報をメモリに記憶する。 FIG. 7 is a flow chart showing an example of processing executed by device 50 according to a pre-stored program. The processing shown in this flowchart is started, for example, when image data is acquired, and is repeated at a predetermined cycle. First, image data is read in step S1, then the instrument 1 currently in use is specified in step S2, and then the postures of the patient 2 and the instrument 1 are estimated in step S3. Next, in step S4, it is determined whether or not the information of the reference posture at the time of the previous photographing is stored in the memory. If the result in step S4 is affirmative, the process advances to step S5 to output to the display 58 information on the current posture and information on the reference posture at the time of the previous photographing. If the result in step S4 is NO, the process advances to step S6 to output only the current posture information to the display 58. FIG. Next, in step S7, it is determined whether or not photography has been performed. If the result is affirmative, the process proceeds to step S8. In step S8, information about the current posture (that is, at the shooting time) is stored in the memory.

本発明の実施形態によれば以下のような作用効果を奏することができる。
(1)装置50は、所定の照射方向AにX線を照射する器具1の姿勢を推定する。装置50は、予め登録された器具1の3次元形状および該3次元形状に対応する照射方向Aの3次元形状データを取得する形状取得部53と、器具1と該器具1による撮影対象である患者2とを撮影した画像データを取得する画像取得部54と、形状取得部53により取得された3次元形状データと画像取得部54により取得された画像データとに基づいて、患者2に対する器具1の照射方向Aを推定する姿勢推定部55とを備える(図3)。これにより、予め登録された器具1の3次元形状データに基づいて、マーカを設けることなく器具1の姿勢を推定することができる。
According to the embodiment of the present invention, the following effects can be obtained.
(1) The device 50 estimates the posture of the instrument 1 that irradiates X-rays in a predetermined irradiation direction A. The apparatus 50 includes a shape acquisition unit 53 that acquires a pre-registered three-dimensional shape of the instrument 1 and three-dimensional shape data in the irradiation direction A corresponding to the three-dimensional shape, the instrument 1, and an object to be imaged by the instrument 1. An image acquisition unit 54 that acquires image data obtained by photographing the patient 2, and the instrument 1 for the patient 2 based on the three-dimensional shape data acquired by the shape acquisition unit 53 and the image data acquired by the image acquisition unit 54. and a posture estimation unit 55 for estimating the irradiation direction A (FIG. 3). Thereby, based on the three-dimensional shape data of the tool 1 registered in advance, the posture of the tool 1 can be estimated without providing a marker.

(2)器具1は、互いに3次元形状が異なる第1器具および第2器具を含む。姿勢推定部55は、形状取得部53により取得された3次元形状データと画像取得部54により取得された画像データとに基づいて、器具1を特定し、患者2に対する特定された器具1の照射方向Aを推定する。これにより、予め登録された3次元形状が異なる複数の器具1が自動的に認識されて姿勢が推定されるため、使用する器具1を変更する度に設定等を変更する必要がない。 (2) The instrument 1 includes a first instrument and a second instrument having three-dimensional shapes different from each other. The posture estimation unit 55 identifies the device 1 based on the three-dimensional shape data acquired by the shape acquisition unit 53 and the image data acquired by the image acquisition unit 54, and irradiates the patient 2 with the specified device 1. Estimate direction A. As a result, a plurality of pre-registered instruments 1 with different three-dimensional shapes are automatically recognized and the posture is estimated, so there is no need to change the settings each time the instrument 1 to be used is changed.

(3)装置50は、姿勢推定部55により推定された患者2に対する器具1の照射方向Aの情報を出力する情報出力部56をさらに備える(図3)。例えば、器具1と患者2とを撮影した画像に照射方向Aを重ねて表示することで、ユーザが器具1の姿勢を把握して調整することが容易となる。 (3) The apparatus 50 further includes an information output unit 56 that outputs information on the irradiation direction A of the instrument 1 to the patient 2 estimated by the posture estimation unit 55 (FIG. 3). For example, by superimposing the irradiation direction A on the captured image of the instrument 1 and the patient 2, the user can easily grasp the posture of the instrument 1 and adjust it.

(4)装置50は、撮影を行ったときの、姿勢推定部55により推定された患者2に対する器具1の照射方向Aを基準方向Azとして記憶するメモリ52をさらに備える(図3)。情報出力部56は、姿勢推定部55により推定された患者2に対する器具1の照射方向Aの情報とともに、メモリ52に記憶された基準方向Azを出力する。 (4) The device 50 further includes a memory 52 that stores the irradiation direction A of the appliance 1 toward the patient 2 estimated by the posture estimation unit 55 at the time of imaging as a reference direction Az (FIG. 3). The information output unit 56 outputs the reference direction Az stored in the memory 52 together with the information on the irradiation direction A of the appliance 1 with respect to the patient 2 estimated by the posture estimation unit 55 .

例えば、器具1と患者2とを撮影した画像に現在の照射方向Aと前回撮影時の照射方向である基準方向Azとを重ねて表示することで、ユーザが器具1の姿勢を前回撮影時と合わせることが容易となる。これにより、患者2を定期的に同一の照射方向Aから撮影することが容易となり、特定の患者2の経過観察を行うユーザを好適に支援することができる。 For example, by superimposing the current irradiation direction A and the reference direction Az, which is the irradiation direction at the time of the previous imaging, on an image obtained by photographing the device 1 and the patient 2, the user can change the posture of the device 1 from that at the time of the previous photography. Easy to match. As a result, it becomes easy to photograph the patient 2 periodically from the same irradiation direction A, and a user who performs follow-up observation of a specific patient 2 can be favorably supported.

(5)画像データは、重力方向の情報を含む。姿勢推定部55は、さらに、重力方向における患者2の姿勢を推定する。例えば、床等に固定して設置された歯科用レントゲン装置10の本体10a等を含む画像に、現在の患者2の姿勢と前回撮影時の患者2の姿勢とを重ねて表示することで、ユーザが重力方向における患者2の姿勢を前回撮影時と合わせることが容易となる。これにより、定期的に同一の姿勢の患者2を撮影することが容易となり、重力方向に応じて形状が変化する病変等の対象組織の経過を観察するユーザを好適に支援することができる。 (5) The image data includes information on the direction of gravity. The posture estimation unit 55 further estimates the posture of the patient 2 in the direction of gravity. For example, by superimposing the current posture of the patient 2 and the posture of the patient 2 at the time of the previous imaging on an image including the main body 10a of the dental X-ray apparatus 10 fixedly installed on the floor or the like, the user can However, it becomes easy to match the posture of the patient 2 in the direction of gravity with that at the time of the previous imaging. As a result, it becomes easy to regularly photograph the patient 2 in the same posture, and it is possible to suitably support the user observing the progress of the target tissue such as a lesion whose shape changes according to the direction of gravity.

上記実施形態は、種々の形態に変形することができる。以下、変形例について説明する。上記実施形態では、情報出力部56がディスプレイ58に現在の姿勢の情報と前回撮影時の基準姿勢の情報とを出力するようにしたが、器具の動作方向や基準方向の情報を出力する情報出力部はこのようなものに限らない。例えば、スピーカに情報を出力して音声によりユーザをガイドしてもよく、可動式のレーザ光源等に情報を出力してレーザ光によりユーザをガイドしてもよい。 The above embodiment can be modified in various forms. Modifications will be described below. In the above-described embodiment, the information output unit 56 outputs to the display 58 information about the current posture and information about the reference posture at the time of the previous imaging. The department is not limited to these. For example, the information may be output to a speaker to guide the user by voice, or the information may be output to a movable laser light source or the like to guide the user by laser light.

上記実施形態では、装置50により歯科用レントゲン装置10のX線照射器具1に適用する例を説明したが、所定方向で所定動作を行う器具の姿勢を推定する姿勢推定装置は、このようなものに限らない。例えば、所定方向の所定位置で切開や縫合等の動作を行う腹腔鏡手術用の鉗子にも適用してもよい。 In the above embodiment, an example in which the device 50 is applied to the X-ray irradiation device 1 of the dental X-ray device 10 has been described. is not limited to For example, the present invention may be applied to forceps for laparoscopic surgery that performs operations such as incision and suturing at a predetermined position in a predetermined direction.

上記実施形態では、姿勢推定部55により算出される患者2の顔面の特徴点に対応するノードN1~N3の3次元座標を患者2の姿勢とする例を示したが(図6A,6B)、重力方向における対象の姿勢は、このようなものに限らない。動作の対象に応じて身体関節等の特徴点に対応する複数のノードの3次元座標を対象の姿勢とすることができる。 In the above embodiment, an example is shown in which the three-dimensional coordinates of the nodes N1 to N3 corresponding to the facial feature points of the patient 2 calculated by the posture estimation unit 55 are used as the posture of the patient 2 (FIGS. 6A and 6B). The orientation of the target in the direction of gravity is not limited to this. Three-dimensional coordinates of a plurality of nodes corresponding to feature points such as body joints can be used as the pose of the target.

以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited by the above-described embodiments and modifications as long as the features of the present invention are not impaired. It is also possible to arbitrarily combine one or more of the above embodiments and modifications, and it is also possible to combine modifications with each other.

1 器具(X線照射器具)、2 患者、50 装置(姿勢推定装置)、51 CPU、52 メモリ、53 形状取得部、54 画像取得部、55 姿勢推定部、56 情報出力部、57 外部メモリ、58 入出力部、59 カメラ 1 instrument (X-ray irradiation instrument), 2 patient, 50 device (posture estimation device), 51 CPU, 52 memory, 53 shape acquisition unit, 54 image acquisition unit, 55 posture estimation unit, 56 information output unit, 57 external memory, 58 input/output unit, 59 camera

Claims (4)

互いに3次元形状が異なる第1器具および第2器具を含み、所定方向で所定動作を行う器具の姿勢を推定する姿勢推定装置であって、
予め登録された前記器具の3次元形状および該3次元形状に対応する動作方向の形状情報を取得する形状取得部と、
前記器具と該器具による動作の対象とを撮影した画像情報を取得する画像取得部と、
前記形状取得部により取得された形状情報と前記画像取得部により取得された画像情報とに基づいて、前記器具を特定し、前記対象に対する特定された器具の動作方向を推定する姿勢推定部と、を備えることを特徴とする姿勢推定装置。
A posture estimating device including a first tool and a second tool having three-dimensional shapes different from each other and estimating the posture of the tool performing a predetermined action in a predetermined direction,
a shape acquisition unit that acquires a pre-registered three-dimensional shape of the instrument and shape information of an operating direction corresponding to the three-dimensional shape;
an image acquisition unit that acquires image information obtained by photographing the tool and an object to be operated by the tool;
a posture estimation unit that identifies the appliance based on the shape information acquired by the shape acquisition unit and the image information acquired by the image acquisition unit, and estimates the movement direction of the specified appliance with respect to the target; A posture estimation device comprising:
請求項1に記載の姿勢推定装置であって、 The posture estimation device according to claim 1,
前記姿勢推定部により推定された前記対象に対する前記器具の動作方向の情報を出力する情報出力部をさらに備えることを特徴とする姿勢推定装置。 A posture estimation apparatus, further comprising: an information output unit that outputs information on the movement direction of the appliance with respect to the object estimated by the posture estimation unit.
請求項2に記載の姿勢推定装置であって、 The posture estimation device according to claim 2,
前記所定動作を行ったときの、前記姿勢推定部により推定された前記対象に対する前記器具の動作方向を基準方向として記憶する記憶部をさらに備え、 further comprising a storage unit that stores, as a reference direction, the direction of movement of the appliance with respect to the object estimated by the posture estimation unit when the predetermined action is performed,
前記情報出力部は、前記姿勢推定部により推定された前記対象に対する前記器具の動作方向の情報とともに、前記記憶部に記憶された基準方向の情報を出力することを特徴とする姿勢推定装置。 The posture estimation device, wherein the information output unit outputs information on the reference direction stored in the storage unit together with information on the movement direction of the appliance with respect to the object estimated by the posture estimation unit.
請求項1~3のいずれか1項に記載の姿勢推定装置であって、 The posture estimation device according to any one of claims 1 to 3,
前記画像情報は、重力方向の情報を含み、 The image information includes information on the direction of gravity,
前記姿勢推定部は、さらに、重力方向における前記対象の姿勢を推定することを特徴とする姿勢推定装置。 The posture estimation device, wherein the posture estimation unit further estimates the posture of the object in a direction of gravity.
JP2020068046A 2020-04-06 2020-04-06 Posture estimation device Active JP7219243B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020068046A JP7219243B2 (en) 2020-04-06 2020-04-06 Posture estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020068046A JP7219243B2 (en) 2020-04-06 2020-04-06 Posture estimation device

Publications (2)

Publication Number Publication Date
JP2021165639A JP2021165639A (en) 2021-10-14
JP7219243B2 true JP7219243B2 (en) 2023-02-07

Family

ID=78021928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020068046A Active JP7219243B2 (en) 2020-04-06 2020-04-06 Posture estimation device

Country Status (1)

Country Link
JP (1) JP7219243B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117451A (en) 2011-12-02 2013-06-13 Emu Kobo:Kk Position attitude estimation mark and position attitude estimation device using the same
JP2015114722A (en) 2013-12-09 2015-06-22 キヤノン株式会社 Information processing apparatus, control method thereof, information processing system, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3614868B2 (en) * 1992-09-17 2005-01-26 株式会社モリタ製作所 Dental training device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117451A (en) 2011-12-02 2013-06-13 Emu Kobo:Kk Position attitude estimation mark and position attitude estimation device using the same
JP2015114722A (en) 2013-12-09 2015-06-22 キヤノン株式会社 Information processing apparatus, control method thereof, information processing system, and program

Also Published As

Publication number Publication date
JP2021165639A (en) 2021-10-14

Similar Documents

Publication Publication Date Title
CN106572829B (en) Control of positioning of a scanning region of a medical imaging system
CN108472096B (en) System and method for performing a procedure on a patient at a target site defined by a virtual object
CN111655184B (en) Guidance for placement of surgical ports
US10181074B2 (en) Positioning of an examination table relative to a medical imaging apparatus
JP4899064B2 (en) Teeth occlusion correction support device, program, and recording medium
JP6198857B2 (en) Method and system for performing three-dimensional image formation
JP5665761B2 (en) Medical 3D image display orientation adjustment apparatus and adjustment program
JP6141559B1 (en) Medical device, medical image generation method, and medical image generation program
JP7430749B2 (en) Information processing device and data processing method
US11944395B2 (en) 3D visualization enhancement for depth perception and collision avoidance
CN108629845B (en) Surgical navigation device, apparatus, system, and readable storage medium
JP4527471B2 (en) 3D fundus image construction and display device
KR20170125264A (en) Apparatus and Method for Measuring Movement of Dental Model
JP7219243B2 (en) Posture estimation device
US20220366594A1 (en) Systems and methods for mitigating collision of a robotic system
KR20160057024A (en) Markerless 3D Object Tracking Apparatus and Method therefor
JP7328861B2 (en) Medical information processing device, medical information processing system, medical information processing program, and medical imaging device
JP2003079616A (en) Detecting method of three-dimensional location of examination tool which is inserted in body region
JP2023142939A (en) Identification device, identification method, and identification program
JP6338510B2 (en) Information processing apparatus, information processing method, information processing system, and program
JP6795744B2 (en) Medical support method and medical support device
KR20210150633A (en) System and method for measuring angle and depth of implant surgical instrument
JP7462255B2 (en) ENDOSCOPIC SHAPE MEASURING SYSTEM AND ENDOSCOPIC SHAPE MEASURING METHOD
JP3667727B2 (en) Object position measuring method and apparatus
Galantucci et al. 3D Face measurement and scanning using digital close range photogrammetry: evaluation of different solutions and experimental approaches

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230126

R150 Certificate of patent or registration of utility model

Ref document number: 7219243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150