JP2021165639A - Posture estimation device - Google Patents

Posture estimation device Download PDF

Info

Publication number
JP2021165639A
JP2021165639A JP2020068046A JP2020068046A JP2021165639A JP 2021165639 A JP2021165639 A JP 2021165639A JP 2020068046 A JP2020068046 A JP 2020068046A JP 2020068046 A JP2020068046 A JP 2020068046A JP 2021165639 A JP2021165639 A JP 2021165639A
Authority
JP
Japan
Prior art keywords
instrument
posture
posture estimation
information
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020068046A
Other languages
Japanese (ja)
Other versions
JP7219243B2 (en
Inventor
和泉 小山
Izumi Koyama
晃一 中村
Koichi Nakamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koyu Kai
Original Assignee
Koyu Kai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koyu Kai filed Critical Koyu Kai
Priority to JP2020068046A priority Critical patent/JP7219243B2/en
Publication of JP2021165639A publication Critical patent/JP2021165639A/en
Application granted granted Critical
Publication of JP7219243B2 publication Critical patent/JP7219243B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

To estimate the posture of an instrument without providing a marker.SOLUTION: A posture estimation device 50 estimates the posture of an instrument that performs a prescribed operation in a prescribed direction. The posture estimation device 50 includes: a memory 52 that stores a three-dimensional shape of a pre-registered instrument and shape information in an operation direction corresponding to the three-dimensional shape; an image acquisition unit 53 that acquires image information obtained by photographing an instrument and an object of the operation by the instrument; and a posture estimation unit 54 that estimates the operation direction of the instrument with respect to the object based on the shape information stored in the memory 52 and the image information acquired by the image acquisition unit 53.SELECTED DRAWING: Figure 3

Description

本発明は、画像に基づいて器具の姿勢を推定する姿勢推定装置に関する。 The present invention relates to a posture estimation device that estimates the posture of an instrument based on an image.

この種の装置として、従来、測定対象に対する超音波プローブの姿勢を推定するようにした装置が知られている(例えば特許文献1参照)。特許文献1記載の装置では、超音波プローブの中心軸に沿って超音波プローブの複数の側面に設けられた所定形状の突起を認識することで、超音波プローブの上下、左右および表裏を認識し、超音波プローブの姿勢を推定する。 As a device of this type, a device that estimates the posture of the ultrasonic probe with respect to the measurement target is conventionally known (see, for example, Patent Document 1). The apparatus described in Patent Document 1 recognizes the top and bottom, left and right, and front and back of the ultrasonic probe by recognizing protrusions having a predetermined shape provided on a plurality of side surfaces of the ultrasonic probe along the central axis of the ultrasonic probe. , Estimate the posture of the ultrasonic probe.

特許第6510570号公報Japanese Patent No. 6510570

しかしながら、上記特許文献1記載の装置では、超音波プローブに突起等のマーカを設ける必要があるため、ユーザの測定作業を妨げる可能性がある。また、マーカの脱落や位置ずれ、損傷や劣化による形状変化等に起因して正確な姿勢推定ができなくなる可能性がある。 However, in the device described in Patent Document 1, it is necessary to provide a marker such as a protrusion on the ultrasonic probe, which may hinder the measurement work of the user. In addition, accurate posture estimation may not be possible due to marker dropout, misalignment, shape change due to damage or deterioration, and the like.

本発明の一態様は、所定方向で所定動作を行う器具の姿勢を推定する姿勢推定装置であって、予め登録された器具の3次元形状および該3次元形状に対応する動作方向の形状情報を取得する形状取得部と、器具と該器具による動作の対象とを撮影した画像情報を取得する画像取得部と、形状取得部により取得された形状情報と画像取得部により取得された画像情報とに基づいて、対象に対する器具の動作方向を推定する姿勢推定部と、を備える。 One aspect of the present invention is a posture estimation device that estimates the posture of an instrument that performs a predetermined motion in a predetermined direction, and obtains a three-dimensional shape of a pre-registered instrument and shape information of an operation direction corresponding to the three-dimensional shape. The shape acquisition unit to be acquired, the image acquisition unit that acquires image information obtained by photographing the instrument and the object of operation by the instrument, and the shape information acquired by the shape acquisition unit and the image information acquired by the image acquisition unit. Based on this, it is provided with a posture estimation unit that estimates the movement direction of the device with respect to the target.

本発明によれば、マーカを設けることなく器具の姿勢を推定することができる。 According to the present invention, the posture of the instrument can be estimated without providing a marker.

本発明の実施形態に係る姿勢推定装置が適用される器具の一例を概略的に示す図。The figure which shows typically an example of the apparatus to which the posture estimation apparatus which concerns on embodiment of this invention is applied. 図1の歯科用レントゲン撮影に使用されるフィルムおよびフィルムを保持するホルダを概略的に示す斜視図。FIG. 6 is a perspective view schematically showing a film used for dental radiography of FIG. 1 and a holder for holding the film. 本発明の実施形態に係る姿勢推定装置の要部構成を示すブロック図。The block diagram which shows the main part structure of the posture estimation apparatus which concerns on embodiment of this invention. 図1の器具の3次元形状データの一例を示す図。The figure which shows an example of the 3D shape data of the instrument of FIG. 図1の器具の3次元形状データの別の例を示す図。The figure which shows another example of the 3D shape data of the instrument of FIG. 患者の正面から撮影され、図3の画像取得部により取得された画像データの一例を示す図。The figure which shows an example of the image data which was taken from the front of the patient and acquired by the image acquisition part of FIG. 患者の側方から撮影され、図3の画像取得部により取得された画像データの一例を示す図。The figure which shows an example of the image data which was taken from the side of a patient and acquired by the image acquisition part of FIG. 正面から撮影された患者についての、図3の入出力部の表示画面の一例を示す図。The figure which shows an example of the display screen of the input / output part of FIG. 3 about the patient photographed from the front. 側方から撮影された患者についての、図3の入出力部の表示画面の一例を示す図。The figure which shows an example of the display screen of the input / output part of FIG. 3 about the patient photographed from the side. 本発明の実施形態に係る姿勢推定装置により実行される処理の一例を示すフローチャート。The flowchart which shows an example of the process executed by the posture estimation apparatus which concerns on embodiment of this invention.

以下、図1〜図7を参照して本発明の実施形態について説明する。本発明の実施形態に係る姿勢推定装置は、所定方向にX線を照射するレントゲン装置の照射器具や、所定方向で超音波を送受信する超音波測定装置のプローブ等、所定方向で所定動作を行う各種の医療器具に適用され、測定や治療等の動作の対象に対する、器具による動作の方向(器具の姿勢)を推定する。以下では、歯科用レントゲン装置の撮影対象に対する照射器具の姿勢を推定する例を説明する。 Hereinafter, embodiments of the present invention will be described with reference to FIGS. 1 to 7. The posture estimation device according to the embodiment of the present invention performs a predetermined operation in a predetermined direction, such as an irradiation device of an X-ray device that irradiates X-rays in a predetermined direction, a probe of an ultrasonic measuring device that transmits and receives ultrasonic waves in a predetermined direction, and the like. It is applied to various medical instruments and estimates the direction of movement by the device (the posture of the device) with respect to the object of movement such as measurement and treatment. In the following, an example of estimating the posture of the irradiation instrument with respect to the imaging target of the dental X-ray apparatus will be described.

図1は、本発明の実施形態に係る姿勢推定装置が適用される器具1の一例を概略的に示す図であり、歯科用レントゲン装置10のX線照射器具(以下、器具)1を示す。また、図2は、歯科用レントゲン撮影に使用されるフィルム3およびフィルム3を保持するホルダ40を概略的に示す斜視図である。 FIG. 1 is a diagram schematically showing an example of an instrument 1 to which the posture estimation device according to the embodiment of the present invention is applied, and shows an X-ray irradiation instrument (hereinafter, instrument) 1 of the dental X-ray apparatus 10. Further, FIG. 2 is a perspective view schematically showing a film 3 used for dental X-ray photography and a holder 40 for holding the film 3.

図1および図2に示すように、歯科用レントゲン撮影では、患者2の歯(例えば、左側臼歯)の口腔側にフィルム3を固定し、器具1からフィルム3に向かう所定の照射方向AにX線を照射する。 As shown in FIGS. 1 and 2, in dental X-ray photography, the film 3 is fixed to the oral side of the tooth of the patient 2 (for example, the left molar), and X is taken in a predetermined irradiation direction A from the instrument 1 to the film 3. Irradiate the line.

フィルム3は、図2に示すようなホルダ40によって保持される。図2に示すように、ホルダ40は、フィルム3を保持するクリップ部41と、クリップ部41に隣接する咬合部42と、リング状のインジケータ部43と、クリップ部41および咬合部42とインジケータ部43とを接続するステー部44とを有する。 The film 3 is held by a holder 40 as shown in FIG. As shown in FIG. 2, the holder 40 includes a clip portion 41 for holding the film 3, an occlusal portion 42 adjacent to the clip portion 41, a ring-shaped indicator portion 43, a clip portion 41, an occlusal portion 42, and an indicator portion. It has a stay portion 44 that connects to the 43.

フィルム3を保持するホルダ40の咬合部42を患者2が歯で咬合することで、患者2の歯の口腔側にフィルム3が固定され、インジケータ部43が口腔外に露出されて器具1によりX線を照射すべき照射方向Aが示される。 When the patient 2 occludes the occlusal portion 42 of the holder 40 holding the film 3 with the teeth, the film 3 is fixed to the oral side of the teeth of the patient 2, the indicator portion 43 is exposed to the outside of the oral cavity, and the X-ray is performed by the instrument 1. The irradiation direction A to which the line should be irradiated is shown.

ところで、レントゲン画像等を用いて患者2の歯やその周辺の病変等の対象組織について経過観察を行う場合には、その対象組織を定期的に同一の照射方向Aから撮影した画像同士を比較する必要がある。しかしながら、図2のホルダ40を使用したとしても患者2がホルダ40を咬合する位置や角度は変化するため、撮影毎の照射方向A、すなわち対象組織に対する器具1の姿勢を完全に一致させることは難しい。 By the way, when a follow-up observation is performed on a target tissue such as a tooth of patient 2 or a lesion around it using an X-ray image or the like, the images of the target tissue taken from the same irradiation direction A are compared with each other on a regular basis. There is a need. However, even if the holder 40 of FIG. 2 is used, the position and angle at which the patient 2 occludes the holder 40 changes. Therefore, it is not possible to completely match the irradiation direction A for each imaging, that is, the posture of the instrument 1 with respect to the target tissue. difficult.

そこで、本実施形態では、測定や治療等の動作の対象に対する医療器具の姿勢を推定し、測定や治療等の動作を行うユーザに対して医療器具の適切な姿勢をガイドできるよう、以下のように姿勢推定装置を構成する。 Therefore, in the present embodiment, the posture of the medical device with respect to the object of the movement such as measurement or treatment is estimated, and the appropriate posture of the medical device can be guided to the user who performs the movement such as measurement or treatment as follows. A posture estimation device is configured in.

図3は、本発明の実施形態に係る姿勢推定装置(以下、装置)50の要部構成を示すブロック図である。装置50は、CPU51、ROM,RAM等のメモリ52、およびI/Oインタフェース等その他の周辺回路等を有するコンピュータを含んで構成される。CPU51は、器具1の3次元形状データを取得する形状取得部53と、器具1および患者2の画像データを取得する画像取得部54と、患者2に対する器具1の照射方向Aを推定する姿勢推定部55と、照射方向Aの情報を出力する情報出力部56として機能する。装置50には、有線または無線により、外部メモリ57と入出力部58とカメラ59とを接続することができる。 FIG. 3 is a block diagram showing a main configuration of a posture estimation device (hereinafter, device) 50 according to an embodiment of the present invention. The device 50 includes a computer having a CPU 51, a memory 52 such as a ROM and a RAM, and other peripheral circuits such as an I / O interface. The CPU 51 estimates the shape acquisition unit 53 that acquires the three-dimensional shape data of the instrument 1, the image acquisition unit 54 that acquires the image data of the instrument 1 and the patient 2, and the posture estimation that estimates the irradiation direction A of the instrument 1 with respect to the patient 2. It functions as a unit 55 and an information output unit 56 that outputs information on the irradiation direction A. The external memory 57, the input / output unit 58, and the camera 59 can be connected to the device 50 by wire or wirelessly.

図4A,4Bは、器具1の3次元形状データの一例を示す図である。メモリ52には、器具1を含む歯科用レントゲン装置10の3次元形状データが記憶される。図4Aに示すように、3次元形状データには、器具1の外形1Mの情報、器具1によるX線の照射方向A(照射軸)の情報、器具1の外形と照射軸との交点P1,P2の情報が含まれる。 4A and 4B are diagrams showing an example of three-dimensional shape data of the instrument 1. The memory 52 stores three-dimensional shape data of the dental X-ray apparatus 10 including the instrument 1. As shown in FIG. 4A, the three-dimensional shape data includes information on the outer shape 1M of the instrument 1, information on the X-ray irradiation direction A (irradiation axis) by the instrument 1, and the intersection P1 of the outer shape of the instrument 1 and the irradiation axis. Information on P2 is included.

図示は省略するが、歯科用レントゲン装置10の3次元形状データには、歯科用レントゲン装置10(全体または本体10a)の外形を示す3次元データ10M、床等に固定して設置されるときの設置軸C示す3次元形状データCM、本体10aに固定されたヘッドレストやスイッチ等の基準点Oを示す3次元形状データOMも含まれる。 Although not shown, the three-dimensional shape data of the dental roentgen device 10 includes three-dimensional data 10M showing the outer shape of the dental roentgen device 10 (whole or main body 10a), when it is fixedly installed on the floor or the like. The three-dimensional shape data CM indicating the installation axis C and the three-dimensional shape data OM indicating the reference point O of the headrest, the switch, etc. fixed to the main body 10a are also included.

器具1の外形1Mの情報としては、例えば、歯科用レントゲン装置10のメーカから提供される3次元CAD(Computer-Aided Design)データや、3Dスキャナ等により実際の歯科用レントゲン装置10(器具1)を測定して得た3次元形状データ等を用いることができる。 Information on the outer shape 1M of the instrument 1 includes, for example, three-dimensional CAD (Computer-Aided Design) data provided by the manufacturer of the dental roentgen device 10 or an actual dental roentgen device 10 (instrument 1) using a 3D scanner or the like. 3D shape data or the like obtained by measuring the above can be used.

3次元形状データとしては、器具1の外形1Mの情報に代えて、器具1を異なる複数の方向から撮影したときの複数の2次元画像のデータ(第1画像データ)と、各画像中の特徴点に仮想マーカPnを設定した第2画像データとを用いることもできる。図4Bは、第2画像データの一例である。異なる複数の方向から撮影した複数の画像において特徴点(図4Bでは13個の特徴点)に仮想マーカPn(図4Bでは13個の仮想マーカP1〜P13)を設定することで、器具1全体の特徴点を網羅した3次元形状データとすることができる。 The three-dimensional shape data includes data of a plurality of two-dimensional images (first image data) when the instrument 1 is photographed from a plurality of different directions instead of the information of the outer shape 1M of the instrument 1, and features in each image. It is also possible to use the second image data in which the virtual marker Pn is set at the point. FIG. 4B is an example of the second image data. By setting virtual markers Pn (13 virtual markers P1 to P13 in FIG. 4B) at feature points (13 feature points in FIG. 4B) in a plurality of images taken from a plurality of different directions, the entire instrument 1 can be set. It is possible to obtain three-dimensional shape data covering the feature points.

例えば、実際の器具1の外形の特徴点(面や端の中央や等分割点、角部等)にペンやシール等でマーカを施した状態で実際に測定(事前測定)を行い、測定中の器具1を動画撮影し、複数の静止画に分割することで、第2画像データ(図4B)が得られる。さらに、画像加工により第2画像データからマーカPnを削除することで、第1画像データ(図4A)が得られ、これにより第1画像データと第2画像データとのデータセットが得られる。このようなデータセットを用いて機械学習を行うことで、以後、学習結果に基づいて器具1の姿勢を推定することが可能になる。 For example, the actual measurement (pre-measurement) is performed with a marker attached to the characteristic points (centers of surfaces and edges, equal division points, corners, etc.) of the outer shape of the actual instrument 1 with a pen or a sticker, and the measurement is in progress. The second image data (FIG. 4B) can be obtained by taking a moving image of the instrument 1 and dividing it into a plurality of still images. Further, by deleting the marker Pn from the second image data by image processing, the first image data (FIG. 4A) is obtained, whereby a data set of the first image data and the second image data is obtained. By performing machine learning using such a data set, it becomes possible to estimate the posture of the instrument 1 based on the learning result thereafter.

このような機械学習のための事前測定として、実際に器具1が使用されることが想定される測定を行うことで、カメラ59(図3)による器具1の撮影角度を再現し、実践的なデータセットに基づく機械学習を行うことができる。これにより、学習結果に基づく器具1の姿勢推定の精度を向上することができる。さらに、器具1について想定される測定項目(測定対象箇所やプローブ走査方向等の測定内容)ごとにデータセットを準備してもよい。この場合、測定項目ごとにアノテーションがなされたデータセット単位で機械学習を行うとともに、測定項目ごとに学習結果を切り換えることで、器具1の姿勢推定の精度を一層向上することができる。 As a preliminary measurement for such machine learning, by performing a measurement assuming that the instrument 1 is actually used, the shooting angle of the instrument 1 by the camera 59 (FIG. 3) is reproduced, which is practical. Machine learning based on datasets can be performed. As a result, the accuracy of posture estimation of the instrument 1 based on the learning result can be improved. Further, a data set may be prepared for each measurement item assumed for the instrument 1 (measurement contents such as a measurement target location and a probe scanning direction). In this case, the accuracy of posture estimation of the instrument 1 can be further improved by performing machine learning for each data set annotated for each measurement item and switching the learning result for each measurement item.

メモリ52には、互いに外形や特徴点が異なる複数の歯科用レントゲン装置10(器具1)の3次元形状データが、例えば、メーカや型式毎に記憶される。 The memory 52 stores, for example, three-dimensional shape data of a plurality of dental X-ray devices 10 (instruments 1) having different outer shapes and feature points for each manufacturer and model.

図3の外部メモリ57は、例えば、ネットワークを介して装置50に接続可能な外部のコンピュータのメモリや、入出力ポートを介して装置50に接続可能なフラッシュメモリである。入出力部58には、キーボード、マウス、ディスプレイ、スピーカ、ディスプレイと一体に構成されるタッチパネル等が含まれる。ユーザは、入出力部58を操作して外部メモリ57に記憶された3次元形状データを装置50に入力することで、新たな歯科用レントゲン装置10(器具1)の3次元形状データを追加登録することができる。 The external memory 57 in FIG. 3 is, for example, a memory of an external computer that can be connected to the device 50 via a network, or a flash memory that can be connected to the device 50 via an input / output port. The input / output unit 58 includes a keyboard, a mouse, a display, a speaker, a touch panel integrated with the display, and the like. The user operates the input / output unit 58 to input the three-dimensional shape data stored in the external memory 57 into the device 50, thereby additionally registering the three-dimensional shape data of the new dental roentgen device 10 (instrument 1). can do.

装置50の形状取得部53は、入出力部58を介して入力された3次元形状データを取得する。形状取得部53により取得された3次元形状データは、装置50のメモリ52に記憶される。 The shape acquisition unit 53 of the device 50 acquires the three-dimensional shape data input via the input / output unit 58. The three-dimensional shape data acquired by the shape acquisition unit 53 is stored in the memory 52 of the device 50.

カメラ59は、動画撮影が可能な2台のカメラにより構成され、器具1および患者2の顔面が撮影範囲に含まれるよう、例えば歯科用レントゲン装置10に面した壁面に取り付けて配置される。カメラ59を2台のカメラにより構成、すなわちステレオカメラとして構成することで、器具1と患者2の顔面とが重なる撮影時にも十分な撮影範囲を確保することができる。2台のカメラ59は、水平方向の撮影方向が互いに90度程度異なるように配置される。カメラ59により撮影された画像データは、装置50およびディスプレイ(入出力部)58に送信される。 The camera 59 is composed of two cameras capable of photographing a moving image, and is mounted on a wall surface facing, for example, a dental X-ray apparatus 10 so that the faces of the instrument 1 and the patient 2 are included in the imaging range. By configuring the camera 59 with two cameras, that is, as a stereo camera, it is possible to secure a sufficient imaging range even when the instrument 1 and the face of the patient 2 overlap each other. The two cameras 59 are arranged so that the shooting directions in the horizontal direction differ from each other by about 90 degrees. The image data captured by the camera 59 is transmitted to the device 50 and the display (input / output unit) 58.

装置50の画像取得部54は、カメラ59から送信された器具1および患者2の画像データを取得する。画像取得部54は、入出力部58を介して外部メモリ57から入力された器具1および患者2の画像データを取得することもできる。例えば、ユーザは、入出力部58を操作して外部メモリ57に記憶された同一の患者2の前回撮影時の画像データを装置50に入力することができる。 The image acquisition unit 54 of the device 50 acquires the image data of the instrument 1 and the patient 2 transmitted from the camera 59. The image acquisition unit 54 can also acquire the image data of the instrument 1 and the patient 2 input from the external memory 57 via the input / output unit 58. For example, the user can operate the input / output unit 58 to input the image data of the same patient 2 stored in the external memory 57 at the time of the previous photographing to the device 50.

姿勢推定部55は、形状取得部53により取得され、メモリ52に記憶された歯科用レントゲン装置10(器具1)の3次元形状データと、画像取得部54により取得された画像データとに基づいて、患者2に対する器具1の照射方向Aを推定する。具体的には、先ず、画像上の歯科用レントゲン装置10の本体10aの設置軸Cおよび基準点Oを認識し、認識された設置軸Cに平行な重力方向をZ軸、基準点Oを原点とする3次元座標空間を設定する。 The posture estimation unit 55 is based on the three-dimensional shape data of the dental X-ray apparatus 10 (instrument 1) acquired by the shape acquisition unit 53 and stored in the memory 52 and the image data acquired by the image acquisition unit 54. , The irradiation direction A of the device 1 with respect to the patient 2 is estimated. Specifically, first, the installation axis C and the reference point O of the main body 10a of the dental roentgen device 10 on the image are recognized, the gravity direction parallel to the recognized installation axis C is the Z axis, and the reference point O is the origin. Set the three-dimensional coordinate space to be.

図5A,5Bは、画像取得部54により取得された画像データの一例を示す図であり、図5Aは、患者2の正面から撮影された画像データを示し、図5Bは、患者2の側方から撮影された画像データを示す。図5A,5Bに示すように、姿勢推定部55は、各画像上における患者2の身体関節や目、耳、鼻などの顔の特徴点を含む特徴点を検出し、各特徴点に対応するノードN1〜N18の3次元座標を算出する。また、器具1の外形や特徴点を検出し、器具1の外形と照射軸との交点(特徴点)P1,P2の3次元座標を算出する。 5A and 5B are diagrams showing an example of image data acquired by the image acquisition unit 54, FIG. 5A shows image data taken from the front of the patient 2, and FIG. 5B is the side of the patient 2. Shows the image data taken from. As shown in FIGS. 5A and 5B, the posture estimation unit 55 detects feature points including facial feature points such as body joints, eyes, ears, and nose of patient 2 on each image, and corresponds to each feature point. Calculate the three-dimensional coordinates of the nodes N1 to N18. Further, the outer shape and the feature point of the instrument 1 are detected, and the three-dimensional coordinates of the intersection (feature point) P1 and P2 between the outer shape of the instrument 1 and the irradiation axis are calculated.

各画像における特徴点の検出および2次元座標の算出は、予めメモリ52に記憶されたOpenPoseライブラリ(コンピュータビジョンに関する国際学会CVPR2017、カーネギーメロン大学、Zhe Caoら)などの深層学習による特徴点検出アルゴリズムを用いて行われる。OpenPoseライブラリでは、特徴点間の距離や相対的な動きなどの特徴点の関連性に基づいて各特徴点が検出される。 For the detection of feature points and the calculation of two-dimensional coordinates in each image, a feature point detection algorithm by deep learning such as the OpenPose library (International Society for Computer Vision CVPR2017, Carnegie Mellon University, Zhe Cao et al.) Stored in the memory 52 in advance is used. It is done using. In the OpenPose library, each feature point is detected based on the relationship of the feature points such as the distance between the feature points and the relative movement.

各画像における器具1の外形や特徴点の検出および器具1の外形と照射軸との交点(特徴点)P1,P2の2次元座標の算出は、予めメモリ52に記憶された3次元形状データに基づいて行われる。複数の3次元形状データが登録されている場合は、画像上の器具1の外形または特徴点と、3次元形状データに含まれる器具1の外形1Mまたは仮想マーカPnとを比較することでメーカや型式を特定し、対応する3次元形状データに基づいて交点P1,P2の2次元座標の算出が行われる。なお、ユーザ自身が撮影に使用するメーカや型式を特定してもよい。 The detection of the outer shape and feature points of the instrument 1 in each image and the calculation of the two-dimensional coordinates of the intersections (feature points) P1 and P2 between the outer shape of the instrument 1 and the irradiation axis are stored in the three-dimensional shape data stored in the memory 52 in advance. It is done based on. When a plurality of 3D shape data are registered, the manufacturer or the virtual marker Pn can be compared by comparing the outer shape or feature point of the instrument 1 on the image with the outer shape 1M or the virtual marker Pn of the instrument 1 included in the 3D shape data. The model is specified, and the two-dimensional coordinates of the intersections P1 and P2 are calculated based on the corresponding three-dimensional shape data. The user may specify the manufacturer and model used for shooting.

ステレオカメラを構成する左右一対のカメラ59により撮影された一対の画像(例えば、図5Aと図5B)におけるノードN1〜N18および交点P1,P2の2次元座標が算出されると、三角測量の原理により対応する3次元座標が算出される。これらの3次元座標は、例えばKinect(登録商標)等の赤外線デプスカメラにより検出してもよい。 When the two-dimensional coordinates of the nodes N1 to N18 and the intersections P1 and P2 in the pair of images (for example, FIGS. 5A and 5B) taken by the pair of left and right cameras 59 constituting the stereo camera are calculated, the principle of triangulation. The corresponding three-dimensional coordinates are calculated by. These three-dimensional coordinates may be detected by an infrared depth camera such as Kinect (registered trademark).

算出されたノードN1〜N18の3次元座標は、重力方向における患者2の姿勢あるいは歯科用レントゲン装置10の本体10aに対する患者2の姿勢に相当する。また、算出された交点P1,P2の3次元座標は、重力方向における器具1の姿勢あるいは歯科用レントゲン装置10の本体10aに対する器具1の姿勢に相当する。また、例えば、患者2の顔面の特徴点のノードN1〜N3に対する器具1の交点P1,P2の相対座標は、患者2に対する器具1の姿勢(照射方向A)に相当する。 The calculated three-dimensional coordinates of the nodes N1 to N18 correspond to the posture of the patient 2 in the direction of gravity or the posture of the patient 2 with respect to the main body 10a of the dental roentgen device 10. Further, the calculated three-dimensional coordinates of the intersections P1 and P2 correspond to the posture of the instrument 1 in the direction of gravity or the attitude of the instrument 1 with respect to the main body 10a of the dental roentgen device 10. Further, for example, the relative coordinates of the intersections P1 and P2 of the instrument 1 with respect to the nodes N1 to N3 of the facial feature points of the patient 2 correspond to the posture (irradiation direction A) of the instrument 1 with respect to the patient 2.

患者2の姿勢および器具1の姿勢(照射方向A)の情報は、情報出力部56によりディスプレイ(入出力部)58に出力される。また、歯科用レントゲン装置10によりX線を照射してレントゲン撮影を行なった撮影時刻の画像における患者2の基準姿勢および器具1の基準姿勢(基準方向Az)に相当するノードN1〜N18および交点P1,P2の3次元座標がメモリ52に記憶される。メモリ52に記憶された患者2の基準姿勢および器具1の基準姿勢(基準方向Az)の情報は、次回の撮影時に読みだされて情報出力部56によりディスプレイ58に出力される。 Information on the posture of the patient 2 and the posture of the instrument 1 (irradiation direction A) is output to the display (input / output unit) 58 by the information output unit 56. Further, the nodes N1 to N18 and the intersection P1 corresponding to the reference posture of the patient 2 and the reference posture (reference direction Az) of the patient 2 and the reference posture (reference direction Az) of the patient 2 in the image at the time of radiography obtained by irradiating X-rays with the dental X-ray apparatus 10 , P2 three-dimensional coordinates are stored in the memory 52. The information of the reference posture of the patient 2 and the reference posture (reference direction Az) of the instrument 1 stored in the memory 52 is read out at the time of the next shooting and output to the display 58 by the information output unit 56.

図6A,6Bは、ディスプレイ(入出力部)58の表示画面の一例を示す図であり、図6Aは、患者2の正面から撮影された画像の表示画面を示し、図6Bは、患者2の側方から撮影された画像の表示画面を示す。図6A,6Bに示すように、ディスプレイ58には、カメラ59からの画像に、患者2および器具1の現在の姿勢と前回の姿勢の情報が重ねて表示される。 6A and 6B are views showing an example of a display screen of the display (input / output unit) 58, FIG. 6A shows a display screen of an image taken from the front of the patient 2, and FIG. 6B is a view of the patient 2. The display screen of the image taken from the side is shown. As shown in FIGS. 6A and 6B, the display 58 superimposes information on the current posture and the previous posture of the patient 2 and the instrument 1 on the image from the camera 59.

ユーザは、ディスプレイ58の表示画面を介して、重力方向における、あるいは歯科用レントゲン装置10の本体10aに対する患者2の現在の姿勢(N1,N2,N3)と前回撮影時の基準姿勢(N1z,N2z,N3z)とを同時に確認することができる。これにより、基準姿勢と一致するように患者2の姿勢を調整することができる。また、ディスプレイ58の表示画面を介して器具1の現在の照射方向Aと前回撮影時の基準方向A0とを同時に確認できるため、基準方向A0と一致するように患者2に対する器具1の姿勢を調整することができる。 Through the display screen of the display 58, the user can see the patient 2's current posture (N1, N2, N3) and the reference posture (N1z, N2z) at the time of the previous radiography in the direction of gravity or with respect to the main body 10a of the dental X-ray apparatus 10. , N3z) can be confirmed at the same time. Thereby, the posture of the patient 2 can be adjusted so as to match the reference posture. Further, since the current irradiation direction A of the instrument 1 and the reference direction A0 at the time of the previous photographing can be confirmed at the same time through the display screen of the display 58, the posture of the instrument 1 with respect to the patient 2 is adjusted so as to match the reference direction A0. can do.

図7は、予め記憶されたプログラムに従い、装置50により実行される処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えば、画像データが取得されると開始され、所定周期で繰り返される。先ずステップS1で画像データを読み込み、次いでステップS2で現在使用中の器具1を特定し、次いでステップS3で患者2および器具1の姿勢を推定する。次いでステップS4で、前回撮影時の基準姿勢の情報がメモリに記憶されているか否かを判定する。ステップS4で肯定されるとステップS5に進み、現在の姿勢の情報と前回撮影時の基準姿勢の情報とをディスプレイ58に出力する。ステップS4で否定されるとステップS6に進み、現在の姿勢の情報のみをディスプレイ58に出力する。次いでステップS7で、撮影が行われたか否かを判定し、肯定されるとステップS8に進み、否定されると処理を終了する。ステップS8では、現在(すなわち、撮影時刻)の姿勢の情報をメモリに記憶する。 FIG. 7 is a flowchart showing an example of processing executed by the device 50 according to a program stored in advance. The process shown in this flowchart is started when, for example, image data is acquired, and is repeated at a predetermined cycle. First, the image data is read in step S1, then the instrument 1 currently in use is specified in step S2, and then the postures of the patient 2 and the instrument 1 are estimated in step S3. Next, in step S4, it is determined whether or not the information of the reference posture at the time of the previous shooting is stored in the memory. If affirmed in step S4, the process proceeds to step S5, and the current posture information and the reference posture information at the time of the previous shooting are output to the display 58. If denied in step S4, the process proceeds to step S6, and only the current posture information is output to the display 58. Next, in step S7, it is determined whether or not shooting has been performed, and if affirmed, the process proceeds to step S8, and if denied, the process ends. In step S8, the current (that is, shooting time) posture information is stored in the memory.

本発明の実施形態によれば以下のような作用効果を奏することができる。
(1)装置50は、所定の照射方向AにX線を照射する器具1の姿勢を推定する。装置50は、予め登録された器具1の3次元形状および該3次元形状に対応する照射方向Aの3次元形状データを取得する形状取得部53と、器具1と該器具1による撮影対象である患者2とを撮影した画像データを取得する画像取得部54と、形状取得部53により取得された3次元形状データと画像取得部54により取得された画像データとに基づいて、患者2に対する器具1の照射方向Aを推定する姿勢推定部55とを備える(図3)。これにより、予め登録された器具1の3次元形状データに基づいて、マーカを設けることなく器具1の姿勢を推定することができる。
According to the embodiment of the present invention, the following effects can be obtained.
(1) The device 50 estimates the posture of the instrument 1 that irradiates X-rays in a predetermined irradiation direction A. The device 50 is a shape acquisition unit 53 that acquires the three-dimensional shape of the device 1 registered in advance and the three-dimensional shape data of the irradiation direction A corresponding to the three-dimensional shape, and the device 1 and the object to be photographed by the device 1. Instrument 1 for patient 2 based on the image acquisition unit 54 that acquires the image data of the patient 2 and the three-dimensional shape data acquired by the shape acquisition unit 53 and the image data acquired by the image acquisition unit 54. It is provided with an attitude estimation unit 55 that estimates the irradiation direction A of the above (FIG. 3). Thereby, the posture of the instrument 1 can be estimated based on the three-dimensional shape data of the instrument 1 registered in advance without providing a marker.

(2)器具1は、互いに3次元形状が異なる第1器具および第2器具を含む。姿勢推定部55は、形状取得部53により取得された3次元形状データと画像取得部54により取得された画像データとに基づいて、器具1を特定し、患者2に対する特定された器具1の照射方向Aを推定する。これにより、予め登録された3次元形状が異なる複数の器具1が自動的に認識されて姿勢が推定されるため、使用する器具1を変更する度に設定等を変更する必要がない。 (2) The instrument 1 includes a first instrument and a second instrument having different three-dimensional shapes from each other. The posture estimation unit 55 identifies the instrument 1 based on the three-dimensional shape data acquired by the shape acquisition unit 53 and the image data acquired by the image acquisition unit 54, and irradiates the patient 2 with the specified instrument 1. Estimate direction A. As a result, a plurality of instruments 1 having different three-dimensional shapes registered in advance are automatically recognized and the posture is estimated, so that it is not necessary to change the settings or the like each time the instrument 1 to be used is changed.

(3)装置50は、姿勢推定部55により推定された患者2に対する器具1の照射方向Aの情報を出力する情報出力部56をさらに備える(図3)。例えば、器具1と患者2とを撮影した画像に照射方向Aを重ねて表示することで、ユーザが器具1の姿勢を把握して調整することが容易となる。 (3) The device 50 further includes an information output unit 56 that outputs information on the irradiation direction A of the instrument 1 for the patient 2 estimated by the posture estimation unit 55 (FIG. 3). For example, by displaying the irradiation direction A superimposed on the images of the instrument 1 and the patient 2, it becomes easy for the user to grasp and adjust the posture of the instrument 1.

(4)装置50は、撮影を行ったときの、姿勢推定部55により推定された患者2に対する器具1の照射方向Aを基準方向Azとして記憶するメモリ52をさらに備える(図3)。情報出力部56は、姿勢推定部55により推定された患者2に対する器具1の照射方向Aの情報とともに、メモリ52に記憶された基準方向Azを出力する。 (4) The device 50 further includes a memory 52 that stores the irradiation direction A of the instrument 1 with respect to the patient 2 estimated by the posture estimation unit 55 when the image is taken as the reference direction Az (FIG. 3). The information output unit 56 outputs the reference direction Az stored in the memory 52 together with the information on the irradiation direction A of the instrument 1 for the patient 2 estimated by the posture estimation unit 55.

例えば、器具1と患者2とを撮影した画像に現在の照射方向Aと前回撮影時の照射方向である基準方向Azとを重ねて表示することで、ユーザが器具1の姿勢を前回撮影時と合わせることが容易となる。これにより、患者2を定期的に同一の照射方向Aから撮影することが容易となり、特定の患者2の経過観察を行うユーザを好適に支援することができる。 For example, by displaying the current irradiation direction A and the reference direction AZ, which is the irradiation direction at the time of the previous shooting, on the images of the device 1 and the patient 2, the user can change the posture of the device 1 to that at the time of the previous shooting. It will be easy to match. As a result, it becomes easy to photograph the patient 2 from the same irradiation direction A on a regular basis, and it is possible to preferably support the user who performs the follow-up observation of the specific patient 2.

(5)画像データは、重力方向の情報を含む。姿勢推定部55は、さらに、重力方向における患者2の姿勢を推定する。例えば、床等に固定して設置された歯科用レントゲン装置10の本体10a等を含む画像に、現在の患者2の姿勢と前回撮影時の患者2の姿勢とを重ねて表示することで、ユーザが重力方向における患者2の姿勢を前回撮影時と合わせることが容易となる。これにより、定期的に同一の姿勢の患者2を撮影することが容易となり、重力方向に応じて形状が変化する病変等の対象組織の経過を観察するユーザを好適に支援することができる。 (5) The image data includes information on the direction of gravity. The posture estimation unit 55 further estimates the posture of the patient 2 in the direction of gravity. For example, by displaying the current posture of the patient 2 and the posture of the patient 2 at the time of the previous radiography on an image including the main body 10a of the dental X-ray apparatus 10 fixed to the floor or the like, the user. However, it becomes easy to match the posture of the patient 2 in the direction of gravity with that at the time of the previous imaging. As a result, it becomes easy to photograph the patient 2 in the same posture on a regular basis, and it is possible to preferably support the user who observes the course of the target tissue such as a lesion whose shape changes according to the direction of gravity.

上記実施形態は、種々の形態に変形することができる。以下、変形例について説明する。上記実施形態では、情報出力部56がディスプレイ58に現在の姿勢の情報と前回撮影時の基準姿勢の情報とを出力するようにしたが、器具の動作方向や基準方向の情報を出力する情報出力部はこのようなものに限らない。例えば、スピーカに情報を出力して音声によりユーザをガイドしてもよく、可動式のレーザ光源等に情報を出力してレーザ光によりユーザをガイドしてもよい。 The above embodiment can be transformed into various forms. Hereinafter, a modified example will be described. In the above embodiment, the information output unit 56 outputs the information of the current posture and the information of the reference posture at the time of the previous shooting to the display 58, but the information output that outputs the information of the operation direction and the reference direction of the instrument. The department is not limited to this. For example, information may be output to a speaker to guide the user by voice, or information may be output to a movable laser light source or the like to guide the user by laser light.

上記実施形態では、装置50により歯科用レントゲン装置10のX線照射器具1に適用する例を説明したが、所定方向で所定動作を行う器具の姿勢を推定する姿勢推定装置は、このようなものに限らない。例えば、所定方向の所定位置で切開や縫合等の動作を行う腹腔鏡手術用の鉗子にも適用してもよい。 In the above embodiment, an example of applying the device 50 to the X-ray irradiation device 1 of the dental X-ray device 10 has been described, but the posture estimation device that estimates the posture of the device that performs a predetermined operation in a predetermined direction is such a device. Not limited to. For example, it may be applied to forceps for laparoscopic surgery that performs operations such as incision and suturing at a predetermined position in a predetermined direction.

上記実施形態では、姿勢推定部55により算出される患者2の顔面の特徴点に対応するノードN1〜N3の3次元座標を患者2の姿勢とする例を示したが(図6A,6B)、重力方向における対象の姿勢は、このようなものに限らない。動作の対象に応じて身体関節等の特徴点に対応する複数のノードの3次元座標を対象の姿勢とすることができる。 In the above embodiment, an example is shown in which the three-dimensional coordinates of the nodes N1 to N3 corresponding to the facial feature points of the patient 2 calculated by the posture estimation unit 55 are the postures of the patient 2 (FIGS. 6A and 6B). The posture of the object in the direction of gravity is not limited to this. The posture of the target can be the three-dimensional coordinates of a plurality of nodes corresponding to feature points such as body joints according to the target of movement.

以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。 The above description is merely an example, and the present invention is not limited to the above-described embodiments and modifications as long as the features of the present invention are not impaired. It is also possible to arbitrarily combine one or a plurality of the above-described embodiments and the modified examples, and it is also possible to combine the modified examples.

1 器具(X線照射器具)、2 患者、50 装置(姿勢推定装置)、51 CPU、52 メモリ、53 形状取得部、54 画像取得部、55 姿勢推定部、56 情報出力部、57 外部メモリ、58 入出力部、59 カメラ 1 instrument (X-ray irradiation instrument), 2 patients, 50 devices (attitude estimation device), 51 CPU, 52 memory, 53 shape acquisition unit, 54 image acquisition unit, 55 attitude estimation unit, 56 information output unit, 57 external memory, 58 I / O, 59 Camera

Claims (5)

所定方向で所定動作を行う器具の姿勢を推定する姿勢推定装置であって、
予め登録された前記器具の3次元形状および該3次元形状に対応する動作方向の形状情報を取得する形状取得部と、
前記器具と該器具による動作の対象とを撮影した画像情報を取得する画像取得部と、
前記形状取得部により取得された形状情報と前記画像取得部により取得された画像情報とに基づいて、前記対象に対する前記器具の動作方向を推定する姿勢推定部と、を備えることを特徴とする姿勢推定装置。
A posture estimation device that estimates the posture of an instrument that performs a predetermined movement in a predetermined direction.
A shape acquisition unit that acquires the three-dimensional shape of the instrument registered in advance and the shape information of the operation direction corresponding to the three-dimensional shape, and
An image acquisition unit that acquires image information obtained by photographing the device and an object of operation by the device, and
A posture characterized by including a posture estimation unit that estimates the movement direction of the device with respect to the target based on the shape information acquired by the shape acquisition unit and the image information acquired by the image acquisition unit. Estimator.
請求項1に記載の姿勢推定装置であって、
前記器具は、互いに3次元形状が異なる第1器具および第2器具を含み、
前記姿勢推定部は、前記形状取得部により取得された形状情報と前記画像取得部により取得された画像情報とに基づいて、前記器具を特定し、前記対象に対する特定された器具の動作方向を推定することを特徴とする姿勢推定装置。
The posture estimation device according to claim 1.
The instrument includes a first instrument and a second instrument having different three-dimensional shapes from each other.
The posture estimation unit identifies the device based on the shape information acquired by the shape acquisition unit and the image information acquired by the image acquisition unit, and estimates the operating direction of the specified device with respect to the target. A posture estimation device characterized by
請求項1または2に記載の姿勢推定装置であって、
前記姿勢推定部により推定された前記対象に対する前記器具の動作方向の情報を出力する情報出力部をさらに備えることを特徴とする姿勢推定装置。
The posture estimation device according to claim 1 or 2.
A posture estimation device further comprising an information output unit that outputs information on the operating direction of the device with respect to the target estimated by the posture estimation unit.
請求項3に記載の姿勢推定装置であって、
前記所定動作を行ったときの、前記姿勢推定部により推定された前記対象に対する前記器具の動作方向を基準方向として記憶する記憶部をさらに備え、
前記情報出力部は、前記姿勢推定部により推定された前記対象に対する前記器具の動作方向の情報とともに、前記記憶部に記憶された基準方向の情報を出力することを特徴とする姿勢推定装置。
The posture estimation device according to claim 3.
Further provided is a storage unit that stores the operation direction of the device with respect to the target estimated by the posture estimation unit as a reference direction when the predetermined operation is performed.
The information output unit is a posture estimation device that outputs information on a reference direction stored in the storage unit together with information on the operation direction of the device with respect to the target estimated by the posture estimation unit.
請求項1〜4のいずれか1項に記載の姿勢推定装置であって、
前記画像情報は、重力方向の情報を含み、
前記姿勢推定部は、さらに、重力方向における前記対象の姿勢を推定することを特徴とする姿勢推定装置。
The posture estimation device according to any one of claims 1 to 4.
The image information includes information on the direction of gravity.
The posture estimation unit is a posture estimation device that further estimates the posture of the target in the direction of gravity.
JP2020068046A 2020-04-06 2020-04-06 Posture estimation device Active JP7219243B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020068046A JP7219243B2 (en) 2020-04-06 2020-04-06 Posture estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020068046A JP7219243B2 (en) 2020-04-06 2020-04-06 Posture estimation device

Publications (2)

Publication Number Publication Date
JP2021165639A true JP2021165639A (en) 2021-10-14
JP7219243B2 JP7219243B2 (en) 2023-02-07

Family

ID=78021928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020068046A Active JP7219243B2 (en) 2020-04-06 2020-04-06 Posture estimation device

Country Status (1)

Country Link
JP (1) JP7219243B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0695588A (en) * 1992-09-17 1994-04-08 Morita Mfg Co Ltd Dental training device
JP2013117451A (en) * 2011-12-02 2013-06-13 Emu Kobo:Kk Position attitude estimation mark and position attitude estimation device using the same
JP2015114722A (en) * 2013-12-09 2015-06-22 キヤノン株式会社 Information processing apparatus, control method thereof, information processing system, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0695588A (en) * 1992-09-17 1994-04-08 Morita Mfg Co Ltd Dental training device
JP2013117451A (en) * 2011-12-02 2013-06-13 Emu Kobo:Kk Position attitude estimation mark and position attitude estimation device using the same
JP2015114722A (en) * 2013-12-09 2015-06-22 キヤノン株式会社 Information processing apparatus, control method thereof, information processing system, and program

Also Published As

Publication number Publication date
JP7219243B2 (en) 2023-02-07

Similar Documents

Publication Publication Date Title
JP6690041B2 (en) Method and device for determining point of gaze on three-dimensional object
CN111655184B (en) Guidance for placement of surgical ports
CN108472096B (en) System and method for performing a procedure on a patient at a target site defined by a virtual object
US10181074B2 (en) Positioning of an examination table relative to a medical imaging apparatus
JP5837261B2 (en) Multi-camera device tracking
CN109152615A (en) The system and method for being identified during robotic surgery process and tracking physical object
JP5665761B2 (en) Medical 3D image display orientation adjustment apparatus and adjustment program
KR102114089B1 (en) Laser projection apparatus and control method thereof, laser guidance system including the apparatus
JPWO2007021007A1 (en) Teeth occlusion correction support device, program, and recording medium
KR20190021027A (en) X-ray imaging apparatus and control method for the same
US20170268871A1 (en) Three-dimensional measurement system and three-dimensional measurement method
JP7430749B2 (en) Information processing device and data processing method
JP4527471B2 (en) 3D fundus image construction and display device
Li et al. Free head movement eye gaze contingent ultrasound interfaces for the da Vinci surgical system
US20220366594A1 (en) Systems and methods for mitigating collision of a robotic system
JP7328861B2 (en) Medical information processing device, medical information processing system, medical information processing program, and medical imaging device
KR20160057024A (en) Markerless 3D Object Tracking Apparatus and Method therefor
JP7219243B2 (en) Posture estimation device
JP2003079616A (en) Detecting method of three-dimensional location of examination tool which is inserted in body region
Schwenzer-Zimmerer et al. Facial acquisition by dynamic optical tracked laser imaging: a new approach
JP2000020696A (en) Medical image compositing apparatus
JP6795744B2 (en) Medical support method and medical support device
CN110573079B (en) Computed tomography and localization of a volume to be imaged
RU2663387C1 (en) Contact device for measuring configuration and size of dimensional body, measurement system of configuration and size of dimensional body, method of measuring configuration and size of dimensional body
CN109589179B (en) Mixed reality system and method for determining spatial coordinates of a dental instrument

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230126

R150 Certificate of patent or registration of utility model

Ref document number: 7219243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150