JP2021165639A - Posture estimation device - Google Patents
Posture estimation device Download PDFInfo
- Publication number
- JP2021165639A JP2021165639A JP2020068046A JP2020068046A JP2021165639A JP 2021165639 A JP2021165639 A JP 2021165639A JP 2020068046 A JP2020068046 A JP 2020068046A JP 2020068046 A JP2020068046 A JP 2020068046A JP 2021165639 A JP2021165639 A JP 2021165639A
- Authority
- JP
- Japan
- Prior art keywords
- instrument
- posture
- posture estimation
- information
- patient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、画像に基づいて器具の姿勢を推定する姿勢推定装置に関する。 The present invention relates to a posture estimation device that estimates the posture of an instrument based on an image.
この種の装置として、従来、測定対象に対する超音波プローブの姿勢を推定するようにした装置が知られている(例えば特許文献1参照)。特許文献1記載の装置では、超音波プローブの中心軸に沿って超音波プローブの複数の側面に設けられた所定形状の突起を認識することで、超音波プローブの上下、左右および表裏を認識し、超音波プローブの姿勢を推定する。
As a device of this type, a device that estimates the posture of the ultrasonic probe with respect to the measurement target is conventionally known (see, for example, Patent Document 1). The apparatus described in
しかしながら、上記特許文献1記載の装置では、超音波プローブに突起等のマーカを設ける必要があるため、ユーザの測定作業を妨げる可能性がある。また、マーカの脱落や位置ずれ、損傷や劣化による形状変化等に起因して正確な姿勢推定ができなくなる可能性がある。
However, in the device described in
本発明の一態様は、所定方向で所定動作を行う器具の姿勢を推定する姿勢推定装置であって、予め登録された器具の3次元形状および該3次元形状に対応する動作方向の形状情報を取得する形状取得部と、器具と該器具による動作の対象とを撮影した画像情報を取得する画像取得部と、形状取得部により取得された形状情報と画像取得部により取得された画像情報とに基づいて、対象に対する器具の動作方向を推定する姿勢推定部と、を備える。 One aspect of the present invention is a posture estimation device that estimates the posture of an instrument that performs a predetermined motion in a predetermined direction, and obtains a three-dimensional shape of a pre-registered instrument and shape information of an operation direction corresponding to the three-dimensional shape. The shape acquisition unit to be acquired, the image acquisition unit that acquires image information obtained by photographing the instrument and the object of operation by the instrument, and the shape information acquired by the shape acquisition unit and the image information acquired by the image acquisition unit. Based on this, it is provided with a posture estimation unit that estimates the movement direction of the device with respect to the target.
本発明によれば、マーカを設けることなく器具の姿勢を推定することができる。 According to the present invention, the posture of the instrument can be estimated without providing a marker.
以下、図1〜図7を参照して本発明の実施形態について説明する。本発明の実施形態に係る姿勢推定装置は、所定方向にX線を照射するレントゲン装置の照射器具や、所定方向で超音波を送受信する超音波測定装置のプローブ等、所定方向で所定動作を行う各種の医療器具に適用され、測定や治療等の動作の対象に対する、器具による動作の方向(器具の姿勢)を推定する。以下では、歯科用レントゲン装置の撮影対象に対する照射器具の姿勢を推定する例を説明する。 Hereinafter, embodiments of the present invention will be described with reference to FIGS. 1 to 7. The posture estimation device according to the embodiment of the present invention performs a predetermined operation in a predetermined direction, such as an irradiation device of an X-ray device that irradiates X-rays in a predetermined direction, a probe of an ultrasonic measuring device that transmits and receives ultrasonic waves in a predetermined direction, and the like. It is applied to various medical instruments and estimates the direction of movement by the device (the posture of the device) with respect to the object of movement such as measurement and treatment. In the following, an example of estimating the posture of the irradiation instrument with respect to the imaging target of the dental X-ray apparatus will be described.
図1は、本発明の実施形態に係る姿勢推定装置が適用される器具1の一例を概略的に示す図であり、歯科用レントゲン装置10のX線照射器具(以下、器具)1を示す。また、図2は、歯科用レントゲン撮影に使用されるフィルム3およびフィルム3を保持するホルダ40を概略的に示す斜視図である。
FIG. 1 is a diagram schematically showing an example of an
図1および図2に示すように、歯科用レントゲン撮影では、患者2の歯(例えば、左側臼歯)の口腔側にフィルム3を固定し、器具1からフィルム3に向かう所定の照射方向AにX線を照射する。
As shown in FIGS. 1 and 2, in dental X-ray photography, the film 3 is fixed to the oral side of the tooth of the patient 2 (for example, the left molar), and X is taken in a predetermined irradiation direction A from the
フィルム3は、図2に示すようなホルダ40によって保持される。図2に示すように、ホルダ40は、フィルム3を保持するクリップ部41と、クリップ部41に隣接する咬合部42と、リング状のインジケータ部43と、クリップ部41および咬合部42とインジケータ部43とを接続するステー部44とを有する。
The film 3 is held by a
フィルム3を保持するホルダ40の咬合部42を患者2が歯で咬合することで、患者2の歯の口腔側にフィルム3が固定され、インジケータ部43が口腔外に露出されて器具1によりX線を照射すべき照射方向Aが示される。
When the
ところで、レントゲン画像等を用いて患者2の歯やその周辺の病変等の対象組織について経過観察を行う場合には、その対象組織を定期的に同一の照射方向Aから撮影した画像同士を比較する必要がある。しかしながら、図2のホルダ40を使用したとしても患者2がホルダ40を咬合する位置や角度は変化するため、撮影毎の照射方向A、すなわち対象組織に対する器具1の姿勢を完全に一致させることは難しい。
By the way, when a follow-up observation is performed on a target tissue such as a tooth of
そこで、本実施形態では、測定や治療等の動作の対象に対する医療器具の姿勢を推定し、測定や治療等の動作を行うユーザに対して医療器具の適切な姿勢をガイドできるよう、以下のように姿勢推定装置を構成する。 Therefore, in the present embodiment, the posture of the medical device with respect to the object of the movement such as measurement or treatment is estimated, and the appropriate posture of the medical device can be guided to the user who performs the movement such as measurement or treatment as follows. A posture estimation device is configured in.
図3は、本発明の実施形態に係る姿勢推定装置(以下、装置)50の要部構成を示すブロック図である。装置50は、CPU51、ROM,RAM等のメモリ52、およびI/Oインタフェース等その他の周辺回路等を有するコンピュータを含んで構成される。CPU51は、器具1の3次元形状データを取得する形状取得部53と、器具1および患者2の画像データを取得する画像取得部54と、患者2に対する器具1の照射方向Aを推定する姿勢推定部55と、照射方向Aの情報を出力する情報出力部56として機能する。装置50には、有線または無線により、外部メモリ57と入出力部58とカメラ59とを接続することができる。
FIG. 3 is a block diagram showing a main configuration of a posture estimation device (hereinafter, device) 50 according to an embodiment of the present invention. The
図4A,4Bは、器具1の3次元形状データの一例を示す図である。メモリ52には、器具1を含む歯科用レントゲン装置10の3次元形状データが記憶される。図4Aに示すように、3次元形状データには、器具1の外形1Mの情報、器具1によるX線の照射方向A(照射軸)の情報、器具1の外形と照射軸との交点P1,P2の情報が含まれる。
4A and 4B are diagrams showing an example of three-dimensional shape data of the
図示は省略するが、歯科用レントゲン装置10の3次元形状データには、歯科用レントゲン装置10(全体または本体10a)の外形を示す3次元データ10M、床等に固定して設置されるときの設置軸C示す3次元形状データCM、本体10aに固定されたヘッドレストやスイッチ等の基準点Oを示す3次元形状データOMも含まれる。
Although not shown, the three-dimensional shape data of the
器具1の外形1Mの情報としては、例えば、歯科用レントゲン装置10のメーカから提供される3次元CAD(Computer-Aided Design)データや、3Dスキャナ等により実際の歯科用レントゲン装置10(器具1)を測定して得た3次元形状データ等を用いることができる。
Information on the
3次元形状データとしては、器具1の外形1Mの情報に代えて、器具1を異なる複数の方向から撮影したときの複数の2次元画像のデータ(第1画像データ)と、各画像中の特徴点に仮想マーカPnを設定した第2画像データとを用いることもできる。図4Bは、第2画像データの一例である。異なる複数の方向から撮影した複数の画像において特徴点(図4Bでは13個の特徴点)に仮想マーカPn(図4Bでは13個の仮想マーカP1〜P13)を設定することで、器具1全体の特徴点を網羅した3次元形状データとすることができる。
The three-dimensional shape data includes data of a plurality of two-dimensional images (first image data) when the
例えば、実際の器具1の外形の特徴点(面や端の中央や等分割点、角部等)にペンやシール等でマーカを施した状態で実際に測定(事前測定)を行い、測定中の器具1を動画撮影し、複数の静止画に分割することで、第2画像データ(図4B)が得られる。さらに、画像加工により第2画像データからマーカPnを削除することで、第1画像データ(図4A)が得られ、これにより第1画像データと第2画像データとのデータセットが得られる。このようなデータセットを用いて機械学習を行うことで、以後、学習結果に基づいて器具1の姿勢を推定することが可能になる。
For example, the actual measurement (pre-measurement) is performed with a marker attached to the characteristic points (centers of surfaces and edges, equal division points, corners, etc.) of the outer shape of the
このような機械学習のための事前測定として、実際に器具1が使用されることが想定される測定を行うことで、カメラ59(図3)による器具1の撮影角度を再現し、実践的なデータセットに基づく機械学習を行うことができる。これにより、学習結果に基づく器具1の姿勢推定の精度を向上することができる。さらに、器具1について想定される測定項目(測定対象箇所やプローブ走査方向等の測定内容)ごとにデータセットを準備してもよい。この場合、測定項目ごとにアノテーションがなされたデータセット単位で機械学習を行うとともに、測定項目ごとに学習結果を切り換えることで、器具1の姿勢推定の精度を一層向上することができる。
As a preliminary measurement for such machine learning, by performing a measurement assuming that the
メモリ52には、互いに外形や特徴点が異なる複数の歯科用レントゲン装置10(器具1)の3次元形状データが、例えば、メーカや型式毎に記憶される。
The
図3の外部メモリ57は、例えば、ネットワークを介して装置50に接続可能な外部のコンピュータのメモリや、入出力ポートを介して装置50に接続可能なフラッシュメモリである。入出力部58には、キーボード、マウス、ディスプレイ、スピーカ、ディスプレイと一体に構成されるタッチパネル等が含まれる。ユーザは、入出力部58を操作して外部メモリ57に記憶された3次元形状データを装置50に入力することで、新たな歯科用レントゲン装置10(器具1)の3次元形状データを追加登録することができる。
The
装置50の形状取得部53は、入出力部58を介して入力された3次元形状データを取得する。形状取得部53により取得された3次元形状データは、装置50のメモリ52に記憶される。
The
カメラ59は、動画撮影が可能な2台のカメラにより構成され、器具1および患者2の顔面が撮影範囲に含まれるよう、例えば歯科用レントゲン装置10に面した壁面に取り付けて配置される。カメラ59を2台のカメラにより構成、すなわちステレオカメラとして構成することで、器具1と患者2の顔面とが重なる撮影時にも十分な撮影範囲を確保することができる。2台のカメラ59は、水平方向の撮影方向が互いに90度程度異なるように配置される。カメラ59により撮影された画像データは、装置50およびディスプレイ(入出力部)58に送信される。
The
装置50の画像取得部54は、カメラ59から送信された器具1および患者2の画像データを取得する。画像取得部54は、入出力部58を介して外部メモリ57から入力された器具1および患者2の画像データを取得することもできる。例えば、ユーザは、入出力部58を操作して外部メモリ57に記憶された同一の患者2の前回撮影時の画像データを装置50に入力することができる。
The
姿勢推定部55は、形状取得部53により取得され、メモリ52に記憶された歯科用レントゲン装置10(器具1)の3次元形状データと、画像取得部54により取得された画像データとに基づいて、患者2に対する器具1の照射方向Aを推定する。具体的には、先ず、画像上の歯科用レントゲン装置10の本体10aの設置軸Cおよび基準点Oを認識し、認識された設置軸Cに平行な重力方向をZ軸、基準点Oを原点とする3次元座標空間を設定する。
The
図5A,5Bは、画像取得部54により取得された画像データの一例を示す図であり、図5Aは、患者2の正面から撮影された画像データを示し、図5Bは、患者2の側方から撮影された画像データを示す。図5A,5Bに示すように、姿勢推定部55は、各画像上における患者2の身体関節や目、耳、鼻などの顔の特徴点を含む特徴点を検出し、各特徴点に対応するノードN1〜N18の3次元座標を算出する。また、器具1の外形や特徴点を検出し、器具1の外形と照射軸との交点(特徴点)P1,P2の3次元座標を算出する。
5A and 5B are diagrams showing an example of image data acquired by the
各画像における特徴点の検出および2次元座標の算出は、予めメモリ52に記憶されたOpenPoseライブラリ(コンピュータビジョンに関する国際学会CVPR2017、カーネギーメロン大学、Zhe Caoら)などの深層学習による特徴点検出アルゴリズムを用いて行われる。OpenPoseライブラリでは、特徴点間の距離や相対的な動きなどの特徴点の関連性に基づいて各特徴点が検出される。
For the detection of feature points and the calculation of two-dimensional coordinates in each image, a feature point detection algorithm by deep learning such as the OpenPose library (International Society for Computer Vision CVPR2017, Carnegie Mellon University, Zhe Cao et al.) Stored in the
各画像における器具1の外形や特徴点の検出および器具1の外形と照射軸との交点(特徴点)P1,P2の2次元座標の算出は、予めメモリ52に記憶された3次元形状データに基づいて行われる。複数の3次元形状データが登録されている場合は、画像上の器具1の外形または特徴点と、3次元形状データに含まれる器具1の外形1Mまたは仮想マーカPnとを比較することでメーカや型式を特定し、対応する3次元形状データに基づいて交点P1,P2の2次元座標の算出が行われる。なお、ユーザ自身が撮影に使用するメーカや型式を特定してもよい。
The detection of the outer shape and feature points of the
ステレオカメラを構成する左右一対のカメラ59により撮影された一対の画像(例えば、図5Aと図5B)におけるノードN1〜N18および交点P1,P2の2次元座標が算出されると、三角測量の原理により対応する3次元座標が算出される。これらの3次元座標は、例えばKinect(登録商標)等の赤外線デプスカメラにより検出してもよい。
When the two-dimensional coordinates of the nodes N1 to N18 and the intersections P1 and P2 in the pair of images (for example, FIGS. 5A and 5B) taken by the pair of left and
算出されたノードN1〜N18の3次元座標は、重力方向における患者2の姿勢あるいは歯科用レントゲン装置10の本体10aに対する患者2の姿勢に相当する。また、算出された交点P1,P2の3次元座標は、重力方向における器具1の姿勢あるいは歯科用レントゲン装置10の本体10aに対する器具1の姿勢に相当する。また、例えば、患者2の顔面の特徴点のノードN1〜N3に対する器具1の交点P1,P2の相対座標は、患者2に対する器具1の姿勢(照射方向A)に相当する。
The calculated three-dimensional coordinates of the nodes N1 to N18 correspond to the posture of the
患者2の姿勢および器具1の姿勢(照射方向A)の情報は、情報出力部56によりディスプレイ(入出力部)58に出力される。また、歯科用レントゲン装置10によりX線を照射してレントゲン撮影を行なった撮影時刻の画像における患者2の基準姿勢および器具1の基準姿勢(基準方向Az)に相当するノードN1〜N18および交点P1,P2の3次元座標がメモリ52に記憶される。メモリ52に記憶された患者2の基準姿勢および器具1の基準姿勢(基準方向Az)の情報は、次回の撮影時に読みだされて情報出力部56によりディスプレイ58に出力される。
Information on the posture of the
図6A,6Bは、ディスプレイ(入出力部)58の表示画面の一例を示す図であり、図6Aは、患者2の正面から撮影された画像の表示画面を示し、図6Bは、患者2の側方から撮影された画像の表示画面を示す。図6A,6Bに示すように、ディスプレイ58には、カメラ59からの画像に、患者2および器具1の現在の姿勢と前回の姿勢の情報が重ねて表示される。
6A and 6B are views showing an example of a display screen of the display (input / output unit) 58, FIG. 6A shows a display screen of an image taken from the front of the
ユーザは、ディスプレイ58の表示画面を介して、重力方向における、あるいは歯科用レントゲン装置10の本体10aに対する患者2の現在の姿勢(N1,N2,N3)と前回撮影時の基準姿勢(N1z,N2z,N3z)とを同時に確認することができる。これにより、基準姿勢と一致するように患者2の姿勢を調整することができる。また、ディスプレイ58の表示画面を介して器具1の現在の照射方向Aと前回撮影時の基準方向A0とを同時に確認できるため、基準方向A0と一致するように患者2に対する器具1の姿勢を調整することができる。
Through the display screen of the
図7は、予め記憶されたプログラムに従い、装置50により実行される処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えば、画像データが取得されると開始され、所定周期で繰り返される。先ずステップS1で画像データを読み込み、次いでステップS2で現在使用中の器具1を特定し、次いでステップS3で患者2および器具1の姿勢を推定する。次いでステップS4で、前回撮影時の基準姿勢の情報がメモリに記憶されているか否かを判定する。ステップS4で肯定されるとステップS5に進み、現在の姿勢の情報と前回撮影時の基準姿勢の情報とをディスプレイ58に出力する。ステップS4で否定されるとステップS6に進み、現在の姿勢の情報のみをディスプレイ58に出力する。次いでステップS7で、撮影が行われたか否かを判定し、肯定されるとステップS8に進み、否定されると処理を終了する。ステップS8では、現在(すなわち、撮影時刻)の姿勢の情報をメモリに記憶する。
FIG. 7 is a flowchart showing an example of processing executed by the
本発明の実施形態によれば以下のような作用効果を奏することができる。
(1)装置50は、所定の照射方向AにX線を照射する器具1の姿勢を推定する。装置50は、予め登録された器具1の3次元形状および該3次元形状に対応する照射方向Aの3次元形状データを取得する形状取得部53と、器具1と該器具1による撮影対象である患者2とを撮影した画像データを取得する画像取得部54と、形状取得部53により取得された3次元形状データと画像取得部54により取得された画像データとに基づいて、患者2に対する器具1の照射方向Aを推定する姿勢推定部55とを備える(図3)。これにより、予め登録された器具1の3次元形状データに基づいて、マーカを設けることなく器具1の姿勢を推定することができる。
According to the embodiment of the present invention, the following effects can be obtained.
(1) The
(2)器具1は、互いに3次元形状が異なる第1器具および第2器具を含む。姿勢推定部55は、形状取得部53により取得された3次元形状データと画像取得部54により取得された画像データとに基づいて、器具1を特定し、患者2に対する特定された器具1の照射方向Aを推定する。これにより、予め登録された3次元形状が異なる複数の器具1が自動的に認識されて姿勢が推定されるため、使用する器具1を変更する度に設定等を変更する必要がない。
(2) The
(3)装置50は、姿勢推定部55により推定された患者2に対する器具1の照射方向Aの情報を出力する情報出力部56をさらに備える(図3)。例えば、器具1と患者2とを撮影した画像に照射方向Aを重ねて表示することで、ユーザが器具1の姿勢を把握して調整することが容易となる。
(3) The
(4)装置50は、撮影を行ったときの、姿勢推定部55により推定された患者2に対する器具1の照射方向Aを基準方向Azとして記憶するメモリ52をさらに備える(図3)。情報出力部56は、姿勢推定部55により推定された患者2に対する器具1の照射方向Aの情報とともに、メモリ52に記憶された基準方向Azを出力する。
(4) The
例えば、器具1と患者2とを撮影した画像に現在の照射方向Aと前回撮影時の照射方向である基準方向Azとを重ねて表示することで、ユーザが器具1の姿勢を前回撮影時と合わせることが容易となる。これにより、患者2を定期的に同一の照射方向Aから撮影することが容易となり、特定の患者2の経過観察を行うユーザを好適に支援することができる。
For example, by displaying the current irradiation direction A and the reference direction AZ, which is the irradiation direction at the time of the previous shooting, on the images of the
(5)画像データは、重力方向の情報を含む。姿勢推定部55は、さらに、重力方向における患者2の姿勢を推定する。例えば、床等に固定して設置された歯科用レントゲン装置10の本体10a等を含む画像に、現在の患者2の姿勢と前回撮影時の患者2の姿勢とを重ねて表示することで、ユーザが重力方向における患者2の姿勢を前回撮影時と合わせることが容易となる。これにより、定期的に同一の姿勢の患者2を撮影することが容易となり、重力方向に応じて形状が変化する病変等の対象組織の経過を観察するユーザを好適に支援することができる。
(5) The image data includes information on the direction of gravity. The
上記実施形態は、種々の形態に変形することができる。以下、変形例について説明する。上記実施形態では、情報出力部56がディスプレイ58に現在の姿勢の情報と前回撮影時の基準姿勢の情報とを出力するようにしたが、器具の動作方向や基準方向の情報を出力する情報出力部はこのようなものに限らない。例えば、スピーカに情報を出力して音声によりユーザをガイドしてもよく、可動式のレーザ光源等に情報を出力してレーザ光によりユーザをガイドしてもよい。
The above embodiment can be transformed into various forms. Hereinafter, a modified example will be described. In the above embodiment, the
上記実施形態では、装置50により歯科用レントゲン装置10のX線照射器具1に適用する例を説明したが、所定方向で所定動作を行う器具の姿勢を推定する姿勢推定装置は、このようなものに限らない。例えば、所定方向の所定位置で切開や縫合等の動作を行う腹腔鏡手術用の鉗子にも適用してもよい。
In the above embodiment, an example of applying the
上記実施形態では、姿勢推定部55により算出される患者2の顔面の特徴点に対応するノードN1〜N3の3次元座標を患者2の姿勢とする例を示したが(図6A,6B)、重力方向における対象の姿勢は、このようなものに限らない。動作の対象に応じて身体関節等の特徴点に対応する複数のノードの3次元座標を対象の姿勢とすることができる。
In the above embodiment, an example is shown in which the three-dimensional coordinates of the nodes N1 to N3 corresponding to the facial feature points of the
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited to the above-described embodiments and modifications as long as the features of the present invention are not impaired. It is also possible to arbitrarily combine one or a plurality of the above-described embodiments and the modified examples, and it is also possible to combine the modified examples.
1 器具(X線照射器具)、2 患者、50 装置(姿勢推定装置)、51 CPU、52 メモリ、53 形状取得部、54 画像取得部、55 姿勢推定部、56 情報出力部、57 外部メモリ、58 入出力部、59 カメラ 1 instrument (X-ray irradiation instrument), 2 patients, 50 devices (attitude estimation device), 51 CPU, 52 memory, 53 shape acquisition unit, 54 image acquisition unit, 55 attitude estimation unit, 56 information output unit, 57 external memory, 58 I / O, 59 Camera
Claims (5)
予め登録された前記器具の3次元形状および該3次元形状に対応する動作方向の形状情報を取得する形状取得部と、
前記器具と該器具による動作の対象とを撮影した画像情報を取得する画像取得部と、
前記形状取得部により取得された形状情報と前記画像取得部により取得された画像情報とに基づいて、前記対象に対する前記器具の動作方向を推定する姿勢推定部と、を備えることを特徴とする姿勢推定装置。 A posture estimation device that estimates the posture of an instrument that performs a predetermined movement in a predetermined direction.
A shape acquisition unit that acquires the three-dimensional shape of the instrument registered in advance and the shape information of the operation direction corresponding to the three-dimensional shape, and
An image acquisition unit that acquires image information obtained by photographing the device and an object of operation by the device, and
A posture characterized by including a posture estimation unit that estimates the movement direction of the device with respect to the target based on the shape information acquired by the shape acquisition unit and the image information acquired by the image acquisition unit. Estimator.
前記器具は、互いに3次元形状が異なる第1器具および第2器具を含み、
前記姿勢推定部は、前記形状取得部により取得された形状情報と前記画像取得部により取得された画像情報とに基づいて、前記器具を特定し、前記対象に対する特定された器具の動作方向を推定することを特徴とする姿勢推定装置。 The posture estimation device according to claim 1.
The instrument includes a first instrument and a second instrument having different three-dimensional shapes from each other.
The posture estimation unit identifies the device based on the shape information acquired by the shape acquisition unit and the image information acquired by the image acquisition unit, and estimates the operating direction of the specified device with respect to the target. A posture estimation device characterized by
前記姿勢推定部により推定された前記対象に対する前記器具の動作方向の情報を出力する情報出力部をさらに備えることを特徴とする姿勢推定装置。 The posture estimation device according to claim 1 or 2.
A posture estimation device further comprising an information output unit that outputs information on the operating direction of the device with respect to the target estimated by the posture estimation unit.
前記所定動作を行ったときの、前記姿勢推定部により推定された前記対象に対する前記器具の動作方向を基準方向として記憶する記憶部をさらに備え、
前記情報出力部は、前記姿勢推定部により推定された前記対象に対する前記器具の動作方向の情報とともに、前記記憶部に記憶された基準方向の情報を出力することを特徴とする姿勢推定装置。 The posture estimation device according to claim 3.
Further provided is a storage unit that stores the operation direction of the device with respect to the target estimated by the posture estimation unit as a reference direction when the predetermined operation is performed.
The information output unit is a posture estimation device that outputs information on a reference direction stored in the storage unit together with information on the operation direction of the device with respect to the target estimated by the posture estimation unit.
前記画像情報は、重力方向の情報を含み、
前記姿勢推定部は、さらに、重力方向における前記対象の姿勢を推定することを特徴とする姿勢推定装置。 The posture estimation device according to any one of claims 1 to 4.
The image information includes information on the direction of gravity.
The posture estimation unit is a posture estimation device that further estimates the posture of the target in the direction of gravity.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020068046A JP7219243B2 (en) | 2020-04-06 | 2020-04-06 | Posture estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020068046A JP7219243B2 (en) | 2020-04-06 | 2020-04-06 | Posture estimation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021165639A true JP2021165639A (en) | 2021-10-14 |
JP7219243B2 JP7219243B2 (en) | 2023-02-07 |
Family
ID=78021928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020068046A Active JP7219243B2 (en) | 2020-04-06 | 2020-04-06 | Posture estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7219243B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0695588A (en) * | 1992-09-17 | 1994-04-08 | Morita Mfg Co Ltd | Dental training device |
JP2013117451A (en) * | 2011-12-02 | 2013-06-13 | Emu Kobo:Kk | Position attitude estimation mark and position attitude estimation device using the same |
JP2015114722A (en) * | 2013-12-09 | 2015-06-22 | キヤノン株式会社 | Information processing apparatus, control method thereof, information processing system, and program |
-
2020
- 2020-04-06 JP JP2020068046A patent/JP7219243B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0695588A (en) * | 1992-09-17 | 1994-04-08 | Morita Mfg Co Ltd | Dental training device |
JP2013117451A (en) * | 2011-12-02 | 2013-06-13 | Emu Kobo:Kk | Position attitude estimation mark and position attitude estimation device using the same |
JP2015114722A (en) * | 2013-12-09 | 2015-06-22 | キヤノン株式会社 | Information processing apparatus, control method thereof, information processing system, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7219243B2 (en) | 2023-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6690041B2 (en) | Method and device for determining point of gaze on three-dimensional object | |
CN111655184B (en) | Guidance for placement of surgical ports | |
CN108472096B (en) | System and method for performing a procedure on a patient at a target site defined by a virtual object | |
US10181074B2 (en) | Positioning of an examination table relative to a medical imaging apparatus | |
JP5837261B2 (en) | Multi-camera device tracking | |
CN109152615A (en) | The system and method for being identified during robotic surgery process and tracking physical object | |
JP5665761B2 (en) | Medical 3D image display orientation adjustment apparatus and adjustment program | |
KR102114089B1 (en) | Laser projection apparatus and control method thereof, laser guidance system including the apparatus | |
JPWO2007021007A1 (en) | Teeth occlusion correction support device, program, and recording medium | |
KR20190021027A (en) | X-ray imaging apparatus and control method for the same | |
US20170268871A1 (en) | Three-dimensional measurement system and three-dimensional measurement method | |
JP7430749B2 (en) | Information processing device and data processing method | |
JP4527471B2 (en) | 3D fundus image construction and display device | |
Li et al. | Free head movement eye gaze contingent ultrasound interfaces for the da Vinci surgical system | |
US20220366594A1 (en) | Systems and methods for mitigating collision of a robotic system | |
JP7328861B2 (en) | Medical information processing device, medical information processing system, medical information processing program, and medical imaging device | |
KR20160057024A (en) | Markerless 3D Object Tracking Apparatus and Method therefor | |
JP7219243B2 (en) | Posture estimation device | |
JP2003079616A (en) | Detecting method of three-dimensional location of examination tool which is inserted in body region | |
Schwenzer-Zimmerer et al. | Facial acquisition by dynamic optical tracked laser imaging: a new approach | |
JP2000020696A (en) | Medical image compositing apparatus | |
JP6795744B2 (en) | Medical support method and medical support device | |
CN110573079B (en) | Computed tomography and localization of a volume to be imaged | |
RU2663387C1 (en) | Contact device for measuring configuration and size of dimensional body, measurement system of configuration and size of dimensional body, method of measuring configuration and size of dimensional body | |
CN109589179B (en) | Mixed reality system and method for determining spatial coordinates of a dental instrument |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7219243 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |