JPWO2020246288A1 - 画像処理装置、画像処理プログラム及び画像処理方法 - Google Patents

画像処理装置、画像処理プログラム及び画像処理方法 Download PDF

Info

Publication number
JPWO2020246288A1
JPWO2020246288A1 JP2021524766A JP2021524766A JPWO2020246288A1 JP WO2020246288 A1 JPWO2020246288 A1 JP WO2020246288A1 JP 2021524766 A JP2021524766 A JP 2021524766A JP 2021524766 A JP2021524766 A JP 2021524766A JP WO2020246288 A1 JPWO2020246288 A1 JP WO2020246288A1
Authority
JP
Japan
Prior art keywords
subject
posture
image
feature
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021524766A
Other languages
English (en)
Other versions
JP7128356B2 (ja
Inventor
達哉 海野
憲一郎 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mayekawa Manufacturing Co
Original Assignee
Mayekawa Manufacturing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mayekawa Manufacturing Co filed Critical Mayekawa Manufacturing Co
Publication of JPWO2020246288A1 publication Critical patent/JPWO2020246288A1/ja
Application granted granted Critical
Publication of JP7128356B2 publication Critical patent/JP7128356B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A22BUTCHERING; MEAT TREATMENT; PROCESSING POULTRY OR FISH
    • A22CPROCESSING MEAT, POULTRY, OR FISH
    • A22C17/00Other devices for processing meat or bones
    • A22C17/0073Other devices for processing meat or bones using visual recognition, X-rays, ultrasounds, or other contactless means to determine quality or size of portioned meat
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V5/00Prospecting or detecting by the use of ionising radiation, e.g. of natural or induced radioactivity
    • G01V5/20Detecting prohibited goods, e.g. weapons, explosives, hazardous substances, contraband or smuggled objects
    • G01V5/22Active interrogation, i.e. by irradiating objects or goods using external radiation sources, e.g. using gamma rays or cosmic rays
    • G01V5/226Active interrogation, i.e. by irradiating objects or goods using external radiation sources, e.g. using gamma rays or cosmic rays using tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • G01N23/046Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material using tomography, e.g. computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30128Food products

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Analytical Chemistry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Biochemistry (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Zoology (AREA)
  • Pulmonology (AREA)
  • Food Science & Technology (AREA)
  • Medical Informatics (AREA)
  • Wood Science & Technology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

画像処理装置は、所定の姿勢と所定の形状を取る被写体を描出している画像、所定の姿勢との関係が既知である第一姿勢と、所定の形状との関係が既知である第一形状とを取る被写体を描出している第一参照画像及び所定の姿勢と異なる第二姿勢と、所定の形状と異なる第二形状との少なくとも一方を取る被写体を描出している第二参照画像を取得し、画像に描出されている被写体の特徴を示す特徴データ及び第一参照画像に描出されている被写体の特徴を示す第一参照データを抽出し、第二参照画像に描出されている被写体の特徴を示す第二参照データを抽出し、第一参照データを使用して第一参照画像において特徴データにより示される特徴が位置する箇所を特定し、第一姿勢と第二姿勢との関係及び第一形状と第二形状との関係の少なくとも一方を使用して第二姿勢と、第二形状との少なくとも一方を取る被写体において特徴データにより示される特徴が位置する箇所を特定する。

Description

本発明は、画像処理装置、画像処理プログラム及び画像処理方法に関する。
近年、被写体を立体的に描出している立体画像と、当該被写体を描出している画像とを組み合わせて使用する技術が様々な分野で活用されている。例えば、特許文献1には、放射線透過画像において検査位置の透過像の位置を特定するステップと、透過像の位置から3次元画像における検査位置を特定するステップとを有する技術が開示されている。
特開2019−060808号公報
しかし、特許文献1に係る技術は、被検査体である基板を保持した基板保持部と検出器とを放射線発生器に対して相対移動させて透過画像を複数取得し、これらの透過画像の全てに共通するパターンやマークの像の再構成画像上における位置を特定して検査面画像を決定している。つまり、特許文献1に係る技術は、複数の透過画像に共通するパターンやマークの像が無い限り、検査面画像を決定することができない。
一方、例えば、食品加工の分野では、食品加工ラインのレイアウト、生産効率等に関する制約から、被写体の画像を撮像し、被写体にロボットアームによる搬送、カット等の処理を施した後、当該画像を使用することが要求されることがある。ところが、当該処理により被写体の姿勢及び形状の少なくとも一方が変化することがあるため、当該画像を使用し得ないことがある。
そこで、本発明は、被写体の姿勢及び形状の少なくとも一方が変化する前に撮像された画像を被写体の姿勢及び形状の少なくとも一方が変化した後でも使用可能にすることができる画像処理装置、画像処理プログラム及び画像処理方法を提供することを課題とする。
(1)上記課題を解決するために、本発明の一態様に係る画像処理装置は、所定の姿勢と所定の形状を取る被写体を描出している画像、前記所定の姿勢との関係が既知である第一姿勢と、前記所定の形状との関係が既知である第一形状とを取る前記被写体を描出している第一参照画像及び前記所定の姿勢と異なる第二姿勢と、前記所定の形状と異なる第二形状との少なくとも一方を取る前記被写体を描出している第二参照画像を取得する取得部と、前記画像に描出されている前記被写体の特徴を示す特徴データを抽出し、前記第一参照画像に描出されている前記被写体の特徴を示す第一参照データを抽出し、前記第二参照画像に描出されている前記被写体の特徴を示す第二参照データを抽出し、前記第一参照データを使用して前記第一参照画像において前記特徴データにより示される特徴が位置する箇所を特定し、前記第一参照データから導出される前記被写体の前記第一姿勢と前記第二参照データから導出される前記被写体の前記第二姿勢との関係及び前記第一参照データから導出される前記被写体の前記第一形状と前記第二参照データから導出される前記被写体の前記第二形状との関係の少なくとも一方を使用して前記第二姿勢と、前記第二形状との少なくとも一方を取る前記被写体において前記特徴データにより示される特徴が位置する箇所を特定する特定部と、を備える。
(2)上記(1)の態様に係る画像処理装置において、前記特定部は、前記第一参照データを使用して前記第一姿勢を特定する処理及び前記第二参照データを使用して前記第二姿勢を特定する処理の少なくとも一方を実行してもよい。
(3)上記(2)の態様に係る画像処理装置において、前記特定部は、前記被写体に所定の処理が施されても前記被写体における位置が一定のままである特徴を示す前記第一参照データ及び前記被写体に前記所定の処理が施されても前記被写体における位置が一定のままである特徴を示す前記第二参照データの少なくとも一方を抽出してもよい。
(4)上記(2)又は(3)のいずれか一つの態様に係る画像処理装置において、前記特定部は、第一直線の上に位置する二つの第一特徴点及び前記第一直線の上に位置する点と異なる前記第一特徴点を示す前記第一参照データを抽出する処理及び第二直線の上に位置する二つの第二特徴点及び前記第二直線の上に位置する点と異なる前記第二特徴点を示す前記第二参照データを抽出する処理の少なくとも一方を実行してもよい。
(5)上記課題を解決するために、本発明の一態様に係る画像処理プログラムは、コンピュータに、所定の姿勢と所定の形状を取る被写体を描出している画像、前記所定の姿勢との関係が既知である第一姿勢と、前記所定の形状との関係が既知である第一形状とを取る前記被写体を描出している第一参照画像及び前記所定の姿勢と異なる第二姿勢と、前記所定の形状と異なる第二形状との少なくとも一方を取る前記被写体を描出している第二参照画像を取得する取得機能と、前記画像に描出されている前記被写体の特徴を示す特徴データを抽出し、前記第一参照画像に描出されている前記被写体の特徴を示す第一参照データを抽出し、前記第二参照画像に描出されている前記被写体の特徴を示す第二参照データを抽出し、前記第一参照データを使用して前記第一参照画像において前記特徴データにより示される特徴が位置する箇所を特定し、前記第一参照データから導出される前記被写体の前記第一姿勢と前記第二参照データから導出される前記被写体の前記第二姿勢との関係及び前記第一参照データから導出される前記被写体の前記第一形状と前記第二参照データから導出される前記被写体の前記第二形状との関係の少なくとも一方を使用して前記第二姿勢と、前記第二形状との少なくとも一方を取る前記被写体において前記特徴データにより示される特徴が位置する箇所を特定する特定機能と、を実現させる。
(6)上記課題を解決するために、本発明の一態様に係る画像処理方法は、所定の姿勢と所定の形状を取る被写体を描出している画像、前記所定の姿勢との関係が既知である第一姿勢と、前記所定の形状との関係が既知である第一形状とを取る前記被写体を描出している第一参照画像及び前記所定の姿勢と異なる第二姿勢と、前記所定の形状と異なる第二形状との少なくとも一方を取る前記被写体を描出している第二参照画像を取得する取得ステップと、前記画像に描出されている前記被写体の特徴を示す特徴データを抽出し、前記第一参照画像に描出されている前記被写体の特徴を示す第一参照データを抽出し、前記第二参照画像に描出されている前記被写体の特徴を示す第二参照データを抽出し、前記第一参照データを使用して前記第一参照画像において前記特徴データにより示される特徴が位置する箇所を特定し、前記第一参照データから導出される前記被写体の前記第一姿勢と前記第二参照データから導出される前記被写体の前記第二姿勢との関係及び前記第一参照データから導出される前記被写体の前記第一形状と前記第二参照データから導出される前記被写体の前記第二形状との関係の少なくとも一方を使用して前記第二姿勢と、前記第二形状との少なくとも一方を取る前記被写体において前記特徴データにより示される特徴が位置する箇所を特定する特定ステップと、を含む。
本発明によれば、被写体の姿勢及び形状の少なくとも一方が変化する前に撮像された画像を被写体の姿勢及び形状の少なくとも一方が変化した後でも使用可能にすることができる。
本発明の実施形態に係る食品加工ラインの一例を示す図である。 本発明の実施形態に係る画像処理装置の機能的な構成の一例を示す図である。 本発明の実施形態に係るX線画像から抽出された特徴点及び第一立体画像から抽出された第一特徴点の一例を示す図である。 本発明の実施形態に係る第二立体画像から抽出された第二特徴点の一例を示す図である。 本発明の実施形態に係る被写体及び当該被写体の特徴を描出しているX線画像の一例を示す図である。 本発明の実施形態に係る被写体及び当該被写体の特徴を描出している第一立体画像の一例を示す図である。 本発明の実施形態に係る被写体及び当該被写体の特徴を描出している第二立体画像の一例を示す図である。 図7に示した被写体において特徴データにより示される特徴が位置する箇所の一例を示す図である。 本発明の実施形態に係る被写体及び当該被写体の特徴を描出している第二立体画像の一例を示す図である。 図9に示した被写体において特徴データにより示される特徴が位置する箇所の一例を示す図である。 本発明の実施形態に係る画像処理装置が実行する処理の一例を示すフローチャートである。
図1から図10を参照しながら、実施形態に係る画像処理装置について説明する。図1は、本発明の実施形態に係る食品加工ラインの一例を示す図である。図1に示すように、食品加工ライン1は、ベルトコンベア11と、ベルトコンベア12と、ベルトコンベア13と、X線撮像装置20と、第一立体画像撮像装置21と、第二立体画像撮像装置22と、多関節ロボット31と、多関節ロボット32とを備える。以下の説明では、被写体Pが恥骨、尾骨及びヒトの骨盤に相当する寛骨を含む豚もも肉である場合を例に挙げて説明する。
ベルトコンベア11、ベルトコンベア12及びベルトコンベア13は、いずれもベルトを回転させ被写体Pを搬送する。また、ベルトコンベア11、ベルトコンベア12及びベルトコンベア13は、いずれも必要に応じてベルトを停止させることにより、被写体Pの搬送を停止させる。ベルトコンベア11及びベルトコンベア13は、被写体Pを真っ直ぐ搬送するベルトコンベアである。一方、ベルトコンベア12は、被写体Pが搬送される方向を90度変化させるベルトコンベアである。
X線撮像装置20は、ベルトコンベア11で被写体Pを搬送中に、姿勢が変わらない状態で被写体PにX線を照射し、被写体PのX線画像を撮像する。X線撮像装置20は、X線管及びX線検出器を備える。X線画像は、所定の姿勢及び所定の形状を取る被写体Pを描出している画像の一例であり、少なくとも被写体Pに含まれる肉及び骨を描出している。また、X線画像は、X線撮像装置20の内部又は外部に設けられている記憶媒体に格納される。X線画像の使用方法は、後述する。また、X線撮像装置20には、X線の漏洩を防ぎ、作業員や周囲に配置されている設備を防護するために設けられたX線遮蔽設備が付帯している。
第一立体画像撮像装置21は、ベルトコンベア11上で静止し、X線撮像装置20によりX線画像が撮像される姿勢と同一の姿勢及び同一の形状を取る被写体Pを立体的に描出する第一立体画像を撮像する。第一立体画像は、所定の姿勢との関係が既知である第一姿勢及び所定の形状との関係が既知である第一形状を取る被写体を描出している第一参照画像の一例である。また、第一立体画像は、例えば、各画素にX軸方向の奥行きを示すグレースケールが割り当てられている画像、各画素にY軸方向の奥行きを示すグレースケールが割り当てられている画像及び各画素にZ軸方向の奥行きを示すグレースケールが割り当てられている画像を含む。ここで言うX軸、Y軸及びZ軸は、いずれも三次元座標を規定する座標軸である。第一立体画像は、第一立体画像撮像装置21、X線撮像装置20の内部又は外部に設けられている記憶媒体に格納される。第一立体画像の使用方法は、後述する。
被写体Pは、X線撮像装置20によるX線画像の撮像及び第一立体画像撮像装置21による第一立体画像の撮像が完了した後、ベルトコンベア11及びベルトコンベア12により搬送させ、ベルトコンベア13上に載置される。
ベルトコンベア13に載置された被写体Pの姿勢は、X線撮像装置20によるX線画像の撮像及び第一立体画像撮像装置21による第一立体画像の撮像が実行されている場合における被写体Pの姿勢と異なる。なぜなら、被写体Pの姿勢は、ベルトコンベア11、ベルトコンベア12又はベルトコンベア13に搬送される際の振動、ベルトコンベア11とベルトコンベア12との継ぎ目又はベルトコンベア12とベルトコンベア13との継ぎ目を乗り越える際の振動により変化するからである。
第二立体画像撮像装置22は、ベルトコンベア13上に載置された被写体Pを立体的に描出する第二立体画像を撮像する。また、第二立体画像撮像装置22は、多関節ロボット31及び多関節ロボット32の少なくとも一方による処理を一時的に停止させた状態で第二立体画像を撮像する。第二立体画像は、上述した所定の姿勢と異なる第二姿勢及び上述した所定の形状と異なる第二形状の少なくとも一方を取る被写体Pを描出している第二参照画像の一例である。また、第二立体画像は、例えば、上述した第一立体画像と同様、各画素にX軸方向の奥行きを示すグレースケールが割り当てられている画像、各画素にY軸方向の奥行きを示すグレースケールが割り当てられている画像及び各画素にZ軸方向の奥行きを示すグレースケールが割り当てられている画像を含む。また、第二立体画像は、X線画像が撮像された場所と異なる場所で撮像されている。第二立体画像の使用方法は、後述する。
多関節ロボット31は、例えば、垂直多関節型ロボットであり、先端に被写体Pを把持するために使用されるハンドが取り付けられている。多関節ロボット32は、例えば、垂直多関節型ロボットであり、先端に被写体Pに含まれる肉をカットするために使用されるナイフが取り付けられている。多関節ロボット31は、被写体Pを把持したり、移動させたりすることにより、被写体Pの位置及び姿勢を適宜調整する。多関節ロボット32は、被写体Pの位置及び姿勢が調整された状態で被写体Pに含まれる肉をカットし、被写体Pから尾骨や寛骨を除去する。多関節ロボット31及び多関節ロボット32は、例えば、後述する画像処理装置100により特定される第二立体画像内での特徴点の位置に基づいて、これらの処理を実行する。
図2は、本発明の実施形態に係る画像処理装置の機能的な構成の一例を示す図である。図2に示すように、画像処理装置100は、取得部101と、特定部102とを備える。
画像処理装置100が有する機能の少なくとも一部、取得部101及び特定部102は、回路部(circuitry)を含むハードウェアがソフトウェアプログラムを実行することにより実現される。ここで言うハードウェアは、例えば、CPU(Central Processing Unit)、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)である。また、上述したプログラムは、記憶媒体を備える記憶装置に格納されている。ここで言う記憶媒体は、例えば、HDD(Hard Disk Drive)、フラッシュメモリ、ROM(Read Only Memory)、DVD(Digital Versatile Disc)である。さらに、上述したプログラムは、画像処理装置100が有する機能の一部を実現する差分プログラムであってもよい。
取得部101は、所定の姿勢及び所定の形状を取る被写体Pを描出している画像を取得する。また、取得部101は、所定の姿勢との関係が既知である第一姿勢及び所定の形状との関係が既知である第一形状を取る被写体を描出している第一参照画像を取得する。例えば、取得部101は、所定の姿勢と同一の姿勢及び所定の形状と同一の形状を取る被写体Pを立体的に描出している第一立体画像を取得する。さらに、取得部101は、所定の姿勢と異なる第二姿勢及び所定の形状と異なる第二形状の少なくとも一方を取る被写体を描出している第二参照画像を取得する。例えば、取得部101は、所定の姿勢と異なる姿勢を取る被写体Pを立体的に描出している第二立体画像を取得する。ここで言う所定の姿勢は、例えば、X線撮像装置20によるX線画像の撮像及び第一立体画像撮像装置21による第一立体画像の撮像が実行されている場合における被写体Pの姿勢である。
図3は、本発明の実施形態に係るX線画像から抽出された特徴点及び第一立体画像から抽出された第一特徴点の一例を示す図である。特定部102は、X線画像に描出されている被写体Pの特徴を示す特徴データを抽出する。例えば、特定部102は、X線画像に描出されている被写体P上の特徴点を示す特徴データを抽出する。ここで言う特徴点は、例えば、X線画像に描出されている被写体Pの骨Bと肉Nとの境界の形状の特徴を表している点である。特定部102は、例えば、図3に示した点F11、点F12、点F13、点F14及び点F15を特徴点として示す特徴データを抽出する。なお、特定部102がX線画像から特徴データを抽出する手段は、特に限定されない。
また、特定部102は、第一参照画像に描出されている被写体Pの特徴を示す第一参照データを抽出する。例えば、特定部102は、第一立体画像に描出されている被写体P上の第一特徴点を示す第一参照データを抽出する。ここで言う第一特徴点は、第一直線の上に位置する二つの点及び第一直線の上に位置する点と異なる点であり、被写体Pの表面に位置する点である。また、第一特徴点は、被写体Pに所定の処理、例えば、多関節ロボット31及び多関節ロボット32により実行される処理が施されても被写体Pにおける特徴点との位置関係が一定である点であることが好ましい。このような点の例として、尾骨切断面の端部に位置する点、恥骨の切断面の端部に位置する点が挙げられる。特定部102は、例えば、図3に示した点C11、点C12及び点C13を第一特徴点として示す第一参照データを抽出する。なお、特定部102が第一立体画像から第一参照データを抽出する手段は、特に限定されない。
次に、特定部102は、第一参照データを使用して第一参照画像において特徴データにより示される特徴が位置する箇所を特定する。例えば、特定部102は、第一特徴点を使用して第一立体画像における特徴点の位置を特定する。次に、特定部102は、図3に示した点C11を原点とし、点C11から点C12に向かう座標軸を第一軸A11とし、点C11から点C13に向かう座標軸を第二軸A12とする。また、特定部102は、第一軸A11、第二軸A12及び第三軸A13が右手系を形成するように第三軸A13を決定する。そして、特定部102は、第一軸A11、第二軸A12及び第三軸A13により規定される三次元座標における点F11、点F12、点F13、点F14及び点F15各々の座標を算出する。
特定部102は、第一参照データから導出される被写体Pの第一姿勢を特定する。具体的には、特定部102は、図3に示した点C11、点C12及び点C13を示す第一参照データを使用して第一立体画像により示される被写体Pの姿勢を特定する。また、特定部102は、第一参照データから導出される被写体Pの第一形状を特定する。例えば、特定部102は、第一参照画像にエッジ検出を施して検出された被写体Pの輪郭を被写体Pの第一形状として特定する。
図4は、本発明の実施形態に係る第二立体画像から抽出された第二特徴点の一例を示す図である。特定部102は、第二参照画像に描出されている被写体Pの特徴を示す第二参照データを抽出する。例えば、特定部102は、第二立体画像に描出されている被写体P上の第二特徴点を示す第二参照データを抽出する。ここで言う第二特徴点は、第二直線の上に位置する二つの点及び第二直線の上に位置する点と異なる点であり、被写体Pの表面に位置する点である。また、第二特徴点は、第一特徴点と同様、被写体Pに所定の処理、例えば、多関節ロボット31及び多関節ロボット32により実行される処理が施されても被写体Pにおける特徴点との位置関係が一定である点であることが好ましい。特定部102は、例えば、図4に示した点C21、点C22及び点C23を第二特徴点として示す第二参照データを抽出する。なお、特定部102が第二立体画像から第二参照データを抽出する手段は、特に限定されない。
また、特定部102は、図4に示した点C21を原点とし、点C21から点C22に向かう座標軸を第一軸A21とし、点C21から点C23に向かう座標軸を第二軸A22とする。また、特定部102は、第一軸A21、第二軸A22及び第三軸A23が右手系を形成するように第三軸A23を決定する。
特定部102は、第二参照データから導出される被写体Pの第二姿勢を特定する。具体的には、特定部102は、図4に示した点C21、点C22及び点C23を示す第二参照データを使用して第二立体画像により示される被写体Pの姿勢を特定する。また、特定部102は、第二参照データから導出される被写体Pの第二形状を特定する。例えば、特定部102は、第二参照画像にエッジ検出を施して検出された被写体Pの輪郭を被写体Pの第二形状として特定する。
そして、特定部102は、第二姿勢及び第二形状の少なくとも一方を取る被写体Pにおいて特徴データにより示される特徴が位置する箇所を特定する。この時、特定部102は、第一参照データから導出される被写体Pの第一姿勢と第二立体画像から導出される被写体Pの第二姿勢との関係及び第一参照データから導出される被写体Pの第一形状と第二参照データから導出される被写体Pの第二形状との関係の少なくとも一方を使用する。また、この場合に特定部102により特定される箇所は、第二参照画像上の位置であってもよいし、第二姿勢及び第二形状の少なくとも一方を取る被写体を撮像したX線画像上の位置であってもよい。
例えば、特定部102は、第一軸A11、第二軸A12及び第三軸A13により規定される三次元座標系と第一軸A21、第二軸A22及び第三軸A23により規定される三次元座標系との対応関係を導出する。そして、特定部102は、当該対応関係を使用して図3に示した点F11、点F12、点F13、点F14及び点F15各々を図4に示した第一軸A21、第二軸A22及び第三軸A23により規定される三次元座標上の点F21、点F22、点F23、点F24及び点F25に変換する。点F21、点F22、点F23、点F24及び点F25は、多関節ロボット31及び多関節ロボット32が上述した処理を実行する際の基準となる。
次に、特徴データにより示される被写体Pの特徴、第一参照データにより示される被写体Pの特徴、第二参照データにより示される被写体Pの特徴及び第二姿勢及び第二形状の少なくとも一方を取る被写体Pにおいて特徴データにより示される特徴が位置する箇所の一例について説明する。
図5は、本発明の実施形態に係る被写体及び当該被写体の特徴を描出しているX線画像の一例を示す図である。図5に示した被写体は、骨と、当該骨の周りに付いている肉を含んでいる。図5に示した点A、点J、点C、点D、点E、点F、点G、点H、点N8、点C5、点C4、点N7及び点C1は、いずれも特徴データにより示される特徴点の一例である。
図6は、本発明の実施形態に係る被写体及び当該被写体の特徴を描出している第一立体画像の一例を示す図である。図6に示した第一立体画像は、図5に示した被写体と同じであり、当該被写体と同一の姿勢及び同一の形状を取る被写体の三次元的な外形を描出している画像である。図6に示した点c1、点c4、点c5、点n7及び点n8は、いずれも第一参照データにより示される第一特徴点の一例であり、被写体の表面上に位置する骨の断面上の点である。
図7は、本発明の実施形態に係る被写体及び当該被写体の特徴を描出している第二立体画像の一例を示す図である。図7に示した第二立体画像は、図5及び図6に示した被写体と同じであり、当該被写体と異なる姿勢及び異なる形状を取る被写体の三次元的な外形を描出している画像である。図7に示した点c1、点c4、点c5、点n7及び点n8は、いずれも第二参照データにより示される第二特徴点の一例であり、被写体の表面上に位置する骨の断面上の点である。
また、図7に示した点c1、点n7及び点n8は、それぞれ三つの特徴点を使用した特徴ベースマッチングにより図6に示した点c1、点n7及び点n8と対応付けられている。そして、これら三つの点の対応関係は、図6に示した第一立体画像に描出されている被写体の姿勢及び形状と、図7に示した第二立体画像に描出されている被写体の姿勢及び形状との関係を決定付けている。なお、特徴ベースマッチングは、複数の画像からエッジ、角等の特徴を抽出し、これらの特徴の関係から複数の画像間でのマッチングを実行する技術である。
図8は、図7に示した被写体において特徴データにより示される特徴が位置する箇所の一例を示す図である。図8に示した画像は、図7に示した被写体と同じであり、当該被写体と同一の姿勢及び同一の形状を取る被写体を描出しているX線画像である。図8に示した点A、点J、点C、点D、点E、点F、点G、点H、点N8、点C5、点C4、点N7及び点C1は、それぞれ図5に示した点A、点J、点C、点D、点E、点F、点G、点H、点N8、点C5、点C4、点N7及び点C1と同じ点である。
図9は、本発明の実施形態に係る被写体及び当該被写体の特徴を描出している第二立体画像の一例を示す図である。図9に示した第二立体画像は、図5及び図6に示した被写体と同じであり、当該被写体と異なる姿勢及び異なる形状を取る被写体の三次元的な外形を描出している画像である。ただし、図9に示した第二立体画像に描出されている被写体は、図7に示した第二立体画像に描出されている被写体よりも図5に示した被写体からの姿勢の変化及び形状の変化が大きい。図9に示した点c4、点c5及び点c8は、いずれも第二参照データにより示される第二特徴点の一例であり、被写体の表面上に位置する骨の断面上の点である。
また、図9に示した点c4、点c5及び点c8は、それぞれ三つの特徴点を使用した特徴ベースマッチングにより図6に示した点c4、点c5及び点c8と対応付けられている。そして、これら三つの点の対応関係は、図6に示した第一立体画像に描出されている被写体の姿勢及び形状と、図9に示した第二立体画像に描出されている被写体の姿勢及び形状との関係を決定付けている。
図10は、図9に示した被写体において特徴データにより示される特徴が位置する箇所の一例を示す図である。図10に示した画像は、図9に示した被写体と同じであり、当該被写体と同一の姿勢及び同一の形状を取る被写体を描出しているX線画像である。図10に示した点A、点J、点C、点D、点E、点F、点G、点H、点N8、点C5、点C4、点N7及び点C1は、それぞれ図5に示した点A、点J、点C、点D、点E、点F、点G、点H、点N8、点C5、点C4、点N7及び点C1と同じ点である。
次に、図11を参照しながら、実施形態に係る画像処理装置が実行する処理の一例を説明する。図11は、本発明の実施形態に係る画像処理装置が実行する処理の一例を示すフローチャートである。なお、画像処理装置100は、図11に示した処理を多関節ロボット31及び多関節ロボット32による処理が実行される前に実行する。また、画像処理装置100は、多関節ロボット31及び多関節ロボット32による処理を一時的に停止させて図11に示した処理を実行してもよい。
ステップS10において、取得部101は、X線画像、第一参照画像及び第二参照画像を取得する。
ステップS20において、特定部102は、X線画像に描出されている被写体Pの特徴を示す特徴データを抽出する。
ステップS30において、特定部102は、第一参照画像に描出されている被写体Pの特徴を示す第一参照データを抽出する。
ステップS40において、特定部102は、第一参照データを使用して第一参照画像において特徴データにより示される特徴が位置する箇所を特定する。
ステップS50において、特定部102は、第二参照画像に描出されている被写体Pの特徴を示す第二参照データを抽出する。
ステップS60において、特定部102は、第一参照データから導出される被写体Pの第一姿勢と第二参照データから導出される被写体Pの第二姿勢との関係及び第一参照データから導出される被写体Pの第一形状と第二参照データから導出される被写体Pの第二形状との関係の少なくとも一方を使用して第二姿勢及び第二形状の少なくとも一方を取る被写体において特徴データにより示される特徴が位置する箇所を特定する。
以上、実施形態に係る画像処理装置100について説明した。画像処理装置100は、画像に描出されている被写体Pから特徴データを抽出し、第一参照画像に描出されている被写体Pから第一参照データを抽出し、第二参照画像に描出されている被写体Pから第二参照データを抽出する。画像処理装置100は、第一参照データを使用して第一参照画像において特徴データにより示される特徴が位置する箇所を特定する。そして、画像処理装置100は、被写体Pの第一姿勢と被写体Pの第二姿勢との関係及び被写体Pの第一形状と被写体Pの第二形状との関係の少なくとも一方を使用して第二姿勢及び第二形状の少なくとも一方を取る被写体Pにおいて特徴データにより示される特徴が位置する箇所を特定する。
また、画像処理装置100は、第一参照データを使用して第一参照画像に描出されている被写体Pの第一姿勢を特定し、第二参照画像に描出されている被写体Pの第二姿勢を特定する。さらに、画像処理装置100は、第一直線の上に位置する二つの第一特徴点及び第一直線の上に位置する点と異なる第一特徴点を示す第一参照データを抽出し、第二直線の上に位置する二つの第二特徴点及び第二直線の上に位置する点と異なる第二特徴点を示す第二参照データを抽出する。
したがって、画像処理装置100は、被写体Pの姿勢及び形状の少なくとも一方が変化する前に撮像された画像を被写体の姿勢及び形状の少なくとも一方が変化した後でも使用可能にすることができる。また、これにより、画像処理装置100は、食品加工ライン1に適用された場合、食品加工ライン1のレイアウトの自由度を向上させることができる。すなわち、画像処理装置100は、X線撮像装置やX線を遮蔽する設備の数を削減したりすることができる。
また、画像処理装置100は、被写体Pに所定の処理が施されても被写体Pにおける位置が一定のままである第一特徴点を抽出し、被写体Pに所定の処理が施されても被写体Pにおける位置が一定のままである第二特徴点の少なくとも一方を抽出する。したがって、画像処理装置100は、被写体Pに所定の処理が施され、被写体Pの形状、位置、姿勢等が変化しても、第一特徴点や第二特徴点をより正確に抽出し、第一特徴点や第二特徴点を使用する処理をより正確に実行することができる。
なお、上述した実施形態では、画像処理装置100が所定の姿勢及び所定の形状を取る被写体Pを描出しているX線画像から特徴データを抽出する場合を例に挙げたが、これに限定されない。画像処理装置100は、X線撮像装置20を使用して撮像したX線画像ではなく、例えば、X線CT(Computed Tomography)装置を使用して被写体Pを撮像したCT画像又は磁気共鳴イメージング(MRI:Magnetic Resonance Imaging)装置を使用して被写体Pを撮像したMRI画像から特徴データを抽出してもよい。或いは、画像処理装置100は、被写体Pを撮像した超音波画像、赤外線画像、マイクロ波画像、紫外線画像又はテラヘルツ画像から特徴データを抽出してもよい。
また、特徴データが抽出される画像を撮像するX線撮像装置20等の撮像装置は、被写体Pの姿勢及び形状の少なくとも一方が変化する場所が当該画像を撮像する場所と異なる場合であっても、食品加工ライン1上の一箇所のみに設置されていることが好ましい。なぜなら、食品加工ライン1は、このような撮像装置が複数設置された場合、全体の管理コストが増加してしまい、画像を生成する処理負荷が増加するため、生産効率が低下してしまうからである。
また、このような撮像装置が放射線を出力する場合、食品加工ライン1は、多関節ロボット31、多関節ロボット32等のロボット等に使用されているアクチュエータが放射線により意図しない動作をしてしまうことを避けるため、放射線を遮蔽する設備を必要とする。このため、食品加工ライン1は、当該設備を設置するスペースを確保する必要に迫られ、当該設備の管理コストが全体の管理コストに加算されてしまう。さらに、放射線を遮蔽する設備が鉛等、食品への混入を避ける必要がある物質を含む場合、食品加工ライン1は、当該設備を設置することが困難になる。
また、上述した実施形態では、第一立体画像が撮像される場所と第二立体画像が撮像される場所とが異なる場合を例に挙げたが、これに限定されない。すなわち、第一立体画像が撮像される場所と第二立体画像が撮像される場所とが同じであってもよい。
また、上述した実施形態では、第一立体画像が第一立体画像撮像装置21により撮像され、第二立体画像が第二立体画像撮像装置22により撮像される場合を例に挙げたが、これに限定されない。すなわち、第一立体画像及び第二立体画像は、同一の撮像装置により撮像されてもよい。
また、上述した実施形態では、特徴データが被写体P上の特徴点を示すデータである場合を例に挙げたが、これに限定されない。例えば、特徴データは、X線画像に描出されている被写体P上に位置する特徴的な領域である特徴領域、被写体Pの特徴的な形状である特徴形状を示すデータであってもよい。
また、上述した実施形態では、第一参照データが被写体P上の第一特徴点を示すデータである場合を例に挙げたが、これに限定されない。例えば、第一参照データは、第一参照画像に描出されている被写体P上に位置する特徴的な領域である第一特徴領域、被写体Pの特徴的な形状である第一特徴形状を示すデータであってもよい。
また、上述した実施形態では、第二参照データが被写体P上の第二特徴点を示すデータである場合を例に挙げたが、これに限定されない。例えば、第二参照データは、第二参照画像に描出されている被写体P上に位置する特徴的な領域である第二特徴領域、被写体Pの特徴的な形状である第二特徴形状を示すデータであってもよい。
また、上述した実施形態では、第一参照画像が第一立体画像である場合を例に挙げて説明したが、これに限定されない。すなわち、第一参照画像は、被写体Pを立体的に描出している第一立体画像以外の画像であってもよい。
また、上述した実施形態では、第二参照画像が第二立体画像である場合を例に挙げて説明したが、これに限定されない。すなわち、第二参照画像は、被写体Pを立体的に描出している第二立体画像以外の画像であってもよい。
また、上述した実施形態では、第一立体画像及び第二立体画像に特徴ベースマッチングを適用して第一特徴点と第二特徴点とを対応付ける場合を例に挙げて説明したが、これに限定されない。画像処理装置100は、第一立体画像及び第二立体画像に領域ベースマッチングを適用して第一特徴点と第二特徴点とを対応付けてもよい。領域ベースマッチングは、複数の画像間で類似している領域を探索し、当該領域を使用して複数の画像をマッチングさせる技術である。
以上、本発明の実施形態について図面を参照しながら説明した。ただし、画像処理装置100は、上述した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形、置換、組み合わせ又は設計変更を加えることができる。
100…画像処理装置、101…取得部、102…特定部

Claims (6)

  1. 所定の姿勢と所定の形状を取る被写体を描出している画像、前記所定の姿勢との関係が既知である第一姿勢と、前記所定の形状との関係が既知である第一形状とを取る前記被写体を描出している第一参照画像及び前記所定の姿勢と異なる第二姿勢と、前記所定の形状と異なる第二形状との少なくとも一方を取る前記被写体を描出している第二参照画像を取得する取得部と、
    前記画像に描出されている前記被写体の特徴を示す特徴データを抽出し、前記第一参照画像に描出されている前記被写体の特徴を示す第一参照データを抽出し、前記第二参照画像に描出されている前記被写体の特徴を示す第二参照データを抽出し、前記第一参照データを使用して前記第一参照画像において前記特徴データにより示される特徴が位置する箇所を特定し、前記第一参照データから導出される前記被写体の前記第一姿勢と前記第二参照データから導出される前記被写体の前記第二姿勢との関係及び前記第一参照データから導出される前記被写体の前記第一形状と前記第二参照データから導出される前記被写体の前記第二形状との関係の少なくとも一方を使用して前記第二姿勢と、前記第二形状との少なくとも一方を取る前記被写体において前記特徴データにより示される特徴が位置する箇所を特定する特定部と、
    を備える画像処理装置。
  2. 前記特定部は、前記第一参照データを使用して前記第一姿勢を特定する処理及び前記第二参照データを使用して前記第二姿勢を特定する処理の少なくとも一方を実行する、
    請求項1に記載の画像処理装置。
  3. 前記特定部は、前記被写体に所定の処理が施されても前記被写体における位置が一定のままである特徴を示す前記第一参照データ及び前記被写体に前記所定の処理が施されても前記被写体における位置が一定のままである特徴を示す前記第二参照データの少なくとも一方を抽出する、
    請求項2に記載の画像処理装置。
  4. 前記特定部は、第一直線の上に位置する二つの第一特徴点及び前記第一直線の上に位置する点と異なる前記第一特徴点を示す前記第一参照データを抽出する処理及び第二直線の上に位置する二つの第二特徴点及び前記第二直線の上に位置する点と異なる前記第二特徴点を示す前記第二参照データを抽出する処理の少なくとも一方を実行する、
    請求項2又は請求項3に記載の画像処理装置。
  5. コンピュータに、
    所定の姿勢と所定の形状を取る被写体を描出している画像、前記所定の姿勢との関係が既知である第一姿勢と、前記所定の形状との関係が既知である第一形状とを取る前記被写体を描出している第一参照画像及び前記所定の姿勢と異なる第二姿勢と、前記所定の形状と異なる第二形状との少なくとも一方を取る前記被写体を描出している第二参照画像を取得する取得機能と、
    前記画像に描出されている前記被写体の特徴を示す特徴データを抽出し、前記第一参照画像に描出されている前記被写体の特徴を示す第一参照データを抽出し、前記第二参照画像に描出されている前記被写体の特徴を示す第二参照データを抽出し、前記第一参照データを使用して前記第一参照画像において前記特徴データにより示される特徴が位置する箇所を特定し、前記第一参照データから導出される前記被写体の前記第一姿勢と前記第二参照データから導出される前記被写体の前記第二姿勢との関係及び前記第一参照データから導出される前記被写体の前記第一形状と前記第二参照データから導出される前記被写体の前記第二形状との関係の少なくとも一方を使用して前記第二姿勢と、前記第二形状との少なくとも一方を取る前記被写体において前記特徴データにより示される特徴が位置する箇所を特定する特定機能と、
    を実現させる画像処理プログラム。
  6. 所定の姿勢と所定の形状を取る被写体を描出している画像、前記所定の姿勢との関係が既知である第一姿勢と、前記所定の形状との関係が既知である第一形状とを取る前記被写体を描出している第一参照画像及び前記所定の姿勢と異なる第二姿勢と、前記所定の形状と異なる第二形状との少なくとも一方を取る前記被写体を描出している第二参照画像を取得する取得ステップと、
    前記画像に描出されている前記被写体の特徴を示す特徴データを抽出し、前記第一参照画像に描出されている前記被写体の特徴を示す第一参照データを抽出し、前記第二参照画像に描出されている前記被写体の特徴を示す第二参照データを抽出し、前記第一参照データを使用して前記第一参照画像において前記特徴データにより示される特徴が位置する箇所を特定し、前記第一参照データから導出される前記被写体の前記第一姿勢と前記第二参照データから導出される前記被写体の前記第二姿勢との関係及び前記第一参照データから導出される前記被写体の前記第一形状と前記第二参照データから導出される前記被写体の前記第二形状との関係の少なくとも一方を使用して前記第二姿勢と、前記第二形状との少なくとも一方を取る前記被写体において前記特徴データにより示される特徴が位置する箇所を特定する特定ステップと、
    を含む画像処理方法。
JP2021524766A 2019-06-07 2020-05-25 画像処理装置、画像処理プログラム及び画像処理方法 Active JP7128356B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019107026 2019-06-07
JP2019107026 2019-06-07
PCT/JP2020/020532 WO2020246288A1 (ja) 2019-06-07 2020-05-25 画像処理装置、画像処理プログラム及び画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2020246288A1 true JPWO2020246288A1 (ja) 2021-10-21
JP7128356B2 JP7128356B2 (ja) 2022-08-30

Family

ID=73652847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021524766A Active JP7128356B2 (ja) 2019-06-07 2020-05-25 画像処理装置、画像処理プログラム及び画像処理方法

Country Status (7)

Country Link
US (1) US20220130070A1 (ja)
EP (1) EP3933760A4 (ja)
JP (1) JP7128356B2 (ja)
CN (1) CN113574367A (ja)
BR (1) BR112021017003A2 (ja)
CA (1) CA3130916A1 (ja)
WO (1) WO2020246288A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021102276A1 (en) 2019-11-22 2021-05-27 Ossianix, Inc. Bbb-shuttling-vnars conjugated to neurotrophic agonist antibodies to treat neurodegenerative diseases and conditions
EP4388001A1 (en) 2021-08-17 2024-06-26 Ossianix, Inc. Deimmunized vnar domains and scaffolds

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100056898A1 (en) * 2005-06-13 2010-03-04 Mckenna David R Objective Methods of Estimating Age of Animals and Carcasses
WO2013136994A1 (ja) * 2012-03-13 2013-09-19 株式会社前川製作所 骨付き食肉のx線画像撮影装置及び方法、並びに、該装置を備える骨付き食肉の脱骨システム
US20150332464A1 (en) * 2014-05-19 2015-11-19 Occipital, Inc. Methods for automatic registration of 3d image data
CN108090877A (zh) * 2017-11-29 2018-05-29 深圳慎始科技有限公司 一种基于图像序列的rgb-d相机深度图像修复方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3862681B2 (ja) * 2003-08-29 2006-12-27 キヤノン株式会社 X線画像撮影装置
DE10346026B4 (de) * 2003-10-02 2011-01-05 Advanced Micro Devices, Inc., Sunnyvale Verfahren zum Steuern der Herstellung leitender Strukturen in einer dielektrischen Schicht eines Mikrostrukturbauteils
JP4549093B2 (ja) * 2004-04-12 2010-09-22 キヤノン株式会社 画像処理装置及びその方法、プログラム
US8391581B2 (en) * 2007-12-27 2013-03-05 Omron Corporation X-ray inspecting apparatus and X-ray inspecting method
JP4771186B2 (ja) * 2008-06-20 2011-09-14 国立大学法人静岡大学 移動量抽出装置及びプログラム、画像補正装置及びプログラム並びに記録媒体
WO2010027391A2 (en) * 2008-08-27 2010-03-11 California Institute Of Technology Method and device for high-resolution three-dimensional imaging which obtains camera pose using defocusing
JP6007178B2 (ja) * 2010-09-03 2016-10-12 カリフォルニア インスティテュート オブ テクノロジー 3次元撮像システム
KR101993384B1 (ko) * 2012-10-24 2019-06-26 삼성전자주식회사 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템
JP6676023B2 (ja) 2017-09-28 2020-04-08 株式会社サキコーポレーション 検査位置の特定方法及び検査装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100056898A1 (en) * 2005-06-13 2010-03-04 Mckenna David R Objective Methods of Estimating Age of Animals and Carcasses
WO2013136994A1 (ja) * 2012-03-13 2013-09-19 株式会社前川製作所 骨付き食肉のx線画像撮影装置及び方法、並びに、該装置を備える骨付き食肉の脱骨システム
US20150332464A1 (en) * 2014-05-19 2015-11-19 Occipital, Inc. Methods for automatic registration of 3d image data
CN108090877A (zh) * 2017-11-29 2018-05-29 深圳慎始科技有限公司 一种基于图像序列的rgb-d相机深度图像修复方法

Also Published As

Publication number Publication date
CA3130916A1 (en) 2020-12-10
WO2020246288A1 (ja) 2020-12-10
EP3933760A4 (en) 2022-12-07
US20220130070A1 (en) 2022-04-28
CN113574367A (zh) 2021-10-29
EP3933760A1 (en) 2022-01-05
BR112021017003A2 (pt) 2022-01-04
JP7128356B2 (ja) 2022-08-30

Similar Documents

Publication Publication Date Title
US10154820B2 (en) Method and apparatus for navigating CT scan with a marker
US9715739B2 (en) Bone fragment tracking
WO2020246288A1 (ja) 画像処理装置、画像処理プログラム及び画像処理方法
CN109124662B (zh) 肋骨中心线检测装置及方法
US10445904B2 (en) Method and device for the automatic generation of synthetic projections
US20160007973A1 (en) Sensor coordinate calibration in an ultrasound system
CN110634554A (zh) 脊椎影像注册方法
EP4301229B1 (en) Image-based planning of tomographic scan
JP6677256B2 (ja) 読影支援プログラム、断面画像生成装置及び断面画像生成方法
JP5888681B2 (ja) 形状抽出方法及び形状抽出システム
Verim et al. Anatomical comparison and evaluation of human proximal femurs modeling via different devices and FEM analysis
Liu et al. SIFT algorithm-based 3D pose estimation of femur
JP2008142535A (ja) 準拠枠登録システム及び方法
JP6256124B2 (ja) 画像処理装置、およびプログラム
Thies et al. Automatic orientation estimation of inertial sensors in C-Arm CT Projections
Chougule et al. Three dimensional point cloud generations from CT scan images for bio-cad modeling
CN107280699A (zh) 标记方法和计算机化断层扫描设备
US9974511B2 (en) Medical imaging apparatus and medical imaging method
EP4125031A1 (en) Method and systems for removing anti-scatter grid artifacts in x-ray imaging
EP4128145B1 (en) Combining angiographic information with fluoroscopic images
Chougule et al. Conversions of CT scan images into 3D point cloud data for the development of 3D solid model using B-Rep scheme
Żorski Quaternion-based determination of 3D objects orientation
Moore et al. Computed Tomography Image-Based Kinematic Analysis: An Overview
Meena Automatic Bone Segmentation from X-ray Images…
Mu et al. Segmentation of knee joints in x-ray images using decomposition-based sweeping and graph search

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220818

R150 Certificate of patent or registration of utility model

Ref document number: 7128356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150