JP6168876B2 - 検出装置、学習装置、検出方法、学習方法及びプログラム - Google Patents
検出装置、学習装置、検出方法、学習方法及びプログラム Download PDFInfo
- Publication number
- JP6168876B2 JP6168876B2 JP2013131343A JP2013131343A JP6168876B2 JP 6168876 B2 JP6168876 B2 JP 6168876B2 JP 2013131343 A JP2013131343 A JP 2013131343A JP 2013131343 A JP2013131343 A JP 2013131343A JP 6168876 B2 JP6168876 B2 JP 6168876B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- feature amount
- learning
- unit
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/77—Determining position or orientation of objects or cameras using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/34—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
- G09G3/36—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
Description
まず本実施形態の手法について説明する。神経の損傷抑止に用いられる脂肪検出の例を挙げて上述したように、画像中から被写体に関する何らかの特徴量を求め、求めた特徴量を用いて所望の被写体を検出する処理を行うことが有用である。脂肪検出の場合、被写体に関する特徴量とは色、輝度、色差等であり、以下の説明においても特徴量の例としてそれらを用いるものとする。ただし、本実施形態の特徴量は色、輝度、色差等の情報に限定されず、エッジ検出等を用いて取得される被写体の形状情報等、種々の情報を用いることが可能である。
第1の実施形態について説明する。以下の説明では内視鏡装置を例に説明するが、上述の距離の遠近或いは凹凸に起因する課題は、環境光が期待できず照明光を用意する必要性が高い場合(例えば通常のデジタルビデオカメラであっても暗部での撮影時等)であれば同様に考えることができるため、内視鏡装置に限定されるものではない。また、内視鏡装置等の撮像装置と本実施形態の検出装置とが別体として設けられてもよい。
図1は第1の実施形態に係る検出装置を含む内視鏡装置の機能ブロック図である。図1に示したように、内視鏡装置は、光源部100と、撮像部200と、プロセッサ部300と、表示部400と、外部I/F部500からなる。ただし内視鏡装置は図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。また種々の変形実施が可能な点は、他のブロック図の説明においても同様である。
図4に学習処理のフローを示す。学習処理が開始されると、撮像画像を取得し、取得した撮像画像に基づいて、距離情報の取得(S301)及び特徴量の算出(S302)を行う。なお、上述したTime of Flight方式であれば、測距センサからのセンサー情報に基づき距離情報が取得されるため、距離情報の取得に画像を用いる必要はない。また特徴量の例としては、色、輝度、色差、分光スペクトル(反射率、透過率、放射輝度等)などがある。
図5に検出処理のフローを示す。検出処理が開始されると、学習処理と同様、撮像画像を取得し、取得した撮像画像に基づいて、距離情報の取得(S401)及び特徴量の算出(S402)を行う。
また、上述したように被写体の凹凸に関する情報を用いて補正処理を行ってもよい。この場合、距離による特徴量変動は、凹部(溝)では周囲より暗く撮像されたり、凸部では周囲より明るく撮像されることに起因するものである。よって本変形例では、複数の距離範囲の設定は撮像部200からの距離値そのものではなく、溝の深さや幅、凸部の高さや幅に基づいて設定するとよい。例えば、図13においてdを基準面に対する凹部や凸部の高さ方向(撮像部200の光軸方向)での変化とし、凹部を正の値(或いは負の値)、凸部を負の値(或いは正の値)とすれば、上述の例と同様に考えることが可能である。以下、被写体の距離情報から、凹凸構造に関する抽出凹凸情報を抽出する処理の一例について説明する。
上述した本実施形態の基本的な手法では、複数の距離範囲について各距離範囲で閉じた処理が行われており、距離範囲をまたいだ処理は想定していない。本変形例では、検出処理の際に複数の距離範囲の学習結果を補間して用いる。図13の距離範囲分けの例を考えた場合に、検出対象データの距離情報がd2に非常に近いd2−Δ(Δは非常に小さい正の数)であったとする。その場合、当該検出対象データは距離範囲1に該当するため、検出処理で比較対象となる学習特徴量はf1である。しかしd2−Δという距離情報の値は、同じ距離範囲1に該当する値d1よりも、異なる距離範囲2に該当する値d2に近い値であると考えられる。つまり、距離範囲の境界付近となる距離情報をもつ検出対象データが入力された場合には、当該検出対象データは、隣接距離範囲に近い特性を有する場合も充分考えられる。そのため、該当距離範囲の学習特徴量を単体で用いるのではなく、隣接距離範囲の学習特徴量を併用することで、より入力された検出対象データに対応した学習特徴量を設定することができ、検出精度を高めることが期待できる。
以上の本実施形態では、検出装置(図1の内視鏡装置では画像処理部301に対応)は図3に示したように、撮像部200の撮像により、被写体の像を含む画像を取得する画像取得部(画像構成部330に対応)と、撮像の際の撮像部200から被写体までの距離に基づく距離情報を取得する距離情報取得部320と、取得した画像から被写体に関する特徴量を算出する特徴量算出部340と、撮像部200から被写体までの距離に応じて設定された複数の距離範囲について、距離範囲ごとの学習処理により求められた学習特徴量を記憶する学習特徴量記憶部390と、学習特徴量と、距離情報と、特徴量に基づいて、画像から対象領域を検出する検出部360を含む。そして検出部360は、距離情報取得部320で取得された距離情報に基づいて、特徴量算出部340で算出された特徴量に対応する距離範囲を、複数の距離範囲から特定し、特定された距離範囲に対応する学習特徴量と、特徴量算出部で算出された特徴量とに基づいて、対象領域を検出する。
次に第2の実施形態について説明する。第2の実施形態では、距離範囲分けを行った上で特徴量の補正処理を行う。第2の実施形態の説明図を図15に示す。距離情報に応じてN個の距離範囲を設定する点は第1の実施形態と同様である。しかし学習処理は距離範囲毎に行うのではなく、各距離範囲には距離範囲毎の補正式が対応づけられることになる。そして、所与の学習データが入力され、当該学習データの距離情報から距離範囲iに該当することが特定された場合、当該学習データの特徴量は補正式iを用いて補正処理が行われる。そして、距離範囲に応じた補正処理が行われた特徴量を用いて学習処理を行って、1つの学習特徴量を算出する。
102 回転色フィルタ、103 回転駆動部、104 集光レンズ、200 撮像部、201 ライトガイドファイバ、203 照明レンズ、204 対物レンズ、
206 撮像素子、209 A/D変換部、210 メモリ、212 コネクタ、
300 プロセッサ部、301 画像処理部、302 制御部、
320 距離情報取得部、330 画像構成部、340 特徴量算出部、
350 特徴量補正部、360 検出部、370 強調処理部、380 学習部、
390 学習特徴量記憶部、400 表示部、500 外部I/F部
Claims (10)
- 撮像部の撮像により、被写体の像を含む画像を取得する画像取得部と、
前記撮像の際の前記撮像部から前記被写体までの距離に基づく距離情報を取得する距離情報取得部と、
取得した前記画像から前記被写体に関する特徴量を算出する特徴量算出部と、
前記撮像部から前記被写体までの前記距離に応じて設定された複数の距離範囲について、距離範囲ごとの学習処理を行うことで取得された複数の学習結果を、各距離範囲に対応する学習特徴量として記憶する学習特徴量記憶部と、
前記学習特徴量と、前記距離情報と、前記特徴量に基づいて、前記画像から対象領域を検出する検出部と、
を含み、
前記検出部は、
前記距離情報取得部で取得された前記距離情報に基づいて、前記特徴量算出部で算出された前記特徴量に対応する第1〜第M(Mは2以上の整数)の距離範囲を、前記複数の距離範囲から特定し、特定された前記第1〜第Mの距離範囲に対応する第1〜第Mの学習特徴量の補間処理を行って補間特徴量を求め、求めた前記補間特徴量と前記特徴量算出部で算出された前記特徴量とに基づいて、前記対象領域を検出することを特徴とする検出装置。 - 撮像部の撮像により、被写体の像を含む画像を取得する画像取得部と、
前記撮像の際の前記撮像部から前記被写体までの距離に基づく距離情報を取得する距離情報取得部と、
取得した前記画像から前記被写体に関する特徴量を算出する特徴量算出部と、
前記撮像部から前記被写体までの前記距離に応じて設定された複数の距離範囲について、距離範囲ごとの学習処理により求められ、各距離範囲に対応する学習特徴量を記憶する学習特徴量記憶部と、
前記距離情報取得部で取得された前記距離情報に基づいて、前記特徴量算出部で算出された前記特徴量に対応する距離範囲を、前記複数の距離範囲から特定し、特定された前記距離範囲に対応する前記学習特徴量と、前記特徴量算出部で算出された前記特徴量とに基づいて、前記画像から対象領域を検出する検出部と、
を含み、
前記学習特徴量記憶部は、
前記距離に基づいて補正処理が行われた前記特徴量に基づく前記学習特徴量を記憶し、
前記検出部は、
前記特徴量算出部で算出された前記特徴量に対して、前記距離情報取得部で取得された前記距離情報に基づいて補正処理を行い、前記補正処理後の前記特徴量と、前記学習特徴量とに基づいて、前記対象領域を検出することを特徴とする検出装置。 - 請求項2において、
前記学習特徴量記憶部は、
前記距離に基づいて第1〜第N(Nは2以上の整数)の距離範囲が設定されるとともに、前記第1〜第Nの距離範囲に対応する第1〜第Nの補正処理が設定された場合に、複数の前記特徴量に対して、それぞれ対応する前記距離範囲の前記補正処理を行うことで求められる学習結果を前記学習特徴量として記憶し、
前記検出部は、
前記距離情報取得部で取得された前記距離情報に基づいて、前記特徴量算出部で算出された前記特徴量に対応する第i(iは1≦i≦Nを満たす整数)の距離範囲を、前記第1〜第Nの距離範囲から特定し、特定された前記第iの距離範囲に対応する第iの補正処理を前記特徴量に対して行い、前記学習特徴量と前記第iの補正処理後の前記特徴量とに基づいて、前記対象領域を検出することを特徴とする検出装置。 - 撮像部の撮像により、被写体の像を含む画像を取得する画像取得部と、
前記撮像の際の前記撮像部から前記被写体までの距離に基づく距離情報を取得する距離情報取得部と、
取得した前記画像から前記被写体に関する特徴量を算出する特徴量算出部と、
前記撮像部から前記被写体までの前記距離に応じて設定された複数の距離範囲について、距離範囲ごとの学習処理により求められ、各距離範囲に対応する学習特徴量を記憶する学習特徴量記憶部と、
前記距離情報取得部で取得された前記距離情報に基づいて、前記特徴量算出部で算出された前記特徴量に対応する距離範囲を、前記複数の距離範囲から特定し、特定された前記距離範囲に対応する前記学習特徴量と、前記特徴量算出部で算出された前記特徴量とに基づいて、前記画像から対象領域を検出する検出部と、
前記距離情報取得部で取得された前記距離情報に基づいて、前記特徴量算出部で算出された、前記被写体に対応する前記特徴量の前記学習処理を行う学習部を含み、
前記学習特徴量記憶部は、
前記学習部で行われた前記学習処理の結果を、前記学習特徴量として記憶することを特徴とする検出装置。 - 請求項1において、
前記検出部により検出された前記対象領域に対して、強調処理を行う強調処理部を含むことを特徴とする検出装置。 - 撮像部の撮像により、被写体の像を含む画像を取得する画像取得部と、
前記撮像の際の前記撮像部から前記被写体までの距離に基づく距離情報を取得する距離情報取得部と、
取得した前記画像から前記被写体に関する特徴量を算出する特徴量算出部と、
前記距離情報取得部で取得された前記距離情報に応じて複数の距離範囲を設定し、設定した前記複数の距離範囲ごとに前記特徴量の学習処理を行う学習部と、
前記学習部での前記学習処理により求められた学習特徴量を記憶する学習特徴量記憶部と、
を含むことを特徴とする学習装置。 - 撮像部の撮像により、被写体の像を含む画像を取得する処理と、
前記撮像の際の前記撮像部から前記被写体までの距離に基づく距離情報を取得する距離情報取得処理と、
取得した前記画像から前記被写体に関する特徴量を算出する特徴量算出処理と、
前記撮像部から前記被写体までの前記距離に応じて設定された複数の距離範囲について、距離範囲ごとの学習処理を行うことで取得された複数の学習結果を、各距離範囲に対応する学習特徴量として記憶する学習特徴量記憶処理と、
前記学習特徴量と、前記距離情報と、前記特徴量に基づいて、前記画像から対象領域を検出する検出処理と、
をコンピュータに実行させ、
前記検出処理として、
前記距離情報取得処理で取得された前記距離情報に基づいて、前記特徴量算出処理で算出された前記特徴量に対応する第1〜第M(Mは2以上の整数)の距離範囲を、前記複数の距離範囲から特定し、特定された前記第1〜第Mの距離範囲に対応する第1〜第Mの学習特徴量の補間処理を行って補間特徴量を求め、求めた前記補間特徴量と前記特徴量算出処理で算出された前記特徴量とに基づいて、前記対象領域を検出する処理を行うことを特徴とする検出方法。 - 撮像部の撮像により、被写体の像を含む画像を取得する処理と、
前記撮像の際の前記撮像部から前記被写体までの距離に基づく距離情報を取得する距離情報取得処理と、
取得した前記画像から前記被写体に関する特徴量を算出する特徴量算出処理と、
前記距離情報取得処理で取得された前記距離情報に応じて複数の距離範囲を設定し、設定した前記複数の距離範囲ごとに前記特徴量の学習を行う学習処理と、
前記学習処理により求められた学習特徴量を記憶する学習特徴量記憶処理と、
をコンピュータに実行させることを特徴とする学習方法。 - 撮像部の撮像により、被写体の像を含む画像を取得するステップと、
前記撮像の際の前記撮像部から前記被写体までの距離に基づく距離情報を取得するステップと、
取得した前記画像から前記被写体に関する特徴量を算出するステップと、
前記撮像部から前記被写体までの前記距離に応じて設定された複数の距離範囲について、距離範囲ごとの学習処理を行うことで取得された複数の学習結果を、各距離範囲に対応する学習特徴量として記憶するステップと、
前記学習特徴量と、前記距離情報と、前記特徴量に基づいて、前記画像から対象領域を検出するステップと、
をコンピュータに実行させ、
前記対象領域を検出するステップにおいて、
前記距離情報に基づいて、前記特徴量に対応する第1〜第M(Mは2以上の整数)の距離範囲を、前記複数の距離範囲から特定し、特定された前記第1〜第Mの距離範囲に対応する第1〜第Mの学習特徴量の補間処理を行って補間特徴量を求め、求めた前記補間特徴量と、前記特徴量とに基づいて、前記対象領域を検出する処理を行うことを特徴とするプログラム。 - 撮像部の撮像により、被写体の像を含む画像を取得するステップと、
前記撮像の際の前記撮像部から前記被写体までの距離に基づく距離情報を取得するステップと、
取得した前記画像から前記被写体に関する特徴量を算出するステップと、
前記距離情報に応じて複数の距離範囲を設定し、設定した前記複数の距離範囲ごとに前記特徴量の学習処理を行うステップと、
前記学習処理により求められた学習特徴量を記憶するステップと、
をコンピュータに実行させるプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013131343A JP6168876B2 (ja) | 2013-06-24 | 2013-06-24 | 検出装置、学習装置、検出方法、学習方法及びプログラム |
EP14818280.1A EP3016070A4 (en) | 2013-06-24 | 2014-06-03 | Detection device, learning device, detection method, learning method, and program |
PCT/JP2014/064663 WO2014208287A1 (ja) | 2013-06-24 | 2014-06-03 | 検出装置、学習装置、検出方法、学習方法及びプログラム |
CN201480034316.0A CN105308651B (zh) | 2013-06-24 | 2014-06-03 | 检测装置、学习装置、检测方法、学习方法 |
US14/879,532 US9754189B2 (en) | 2013-06-24 | 2015-10-09 | Detection device, learning device, detection method, learning method, and information storage device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013131343A JP6168876B2 (ja) | 2013-06-24 | 2013-06-24 | 検出装置、学習装置、検出方法、学習方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015005237A JP2015005237A (ja) | 2015-01-08 |
JP6168876B2 true JP6168876B2 (ja) | 2017-07-26 |
Family
ID=52141635
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013131343A Active JP6168876B2 (ja) | 2013-06-24 | 2013-06-24 | 検出装置、学習装置、検出方法、学習方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US9754189B2 (ja) |
EP (1) | EP3016070A4 (ja) |
JP (1) | JP6168876B2 (ja) |
CN (1) | CN105308651B (ja) |
WO (1) | WO2014208287A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6537332B2 (ja) * | 2014-04-28 | 2019-07-03 | キヤノン株式会社 | 画像処理方法および撮影装置 |
JP6359985B2 (ja) * | 2015-02-12 | 2018-07-18 | 株式会社デンソーアイティーラボラトリ | デプス推定モデル生成装置及びデプス推定装置 |
JP6461739B2 (ja) * | 2015-07-28 | 2019-01-30 | 富士フイルム株式会社 | 画像処理装置及び内視鏡システム並びに画像処理装置の作動方法 |
JP6812387B2 (ja) | 2018-07-02 | 2021-01-13 | キヤノン株式会社 | 画像処理装置及び画像処理方法、プログラム、記憶媒体 |
JP7240115B2 (ja) * | 2018-08-31 | 2023-03-15 | キヤノン株式会社 | 情報処理装置及びその方法及びコンピュータプログラム |
JP2021074360A (ja) * | 2019-11-12 | 2021-05-20 | 株式会社日立製作所 | 医用画像処理装置及び医用画像処理方法、医用画像処理プログラム |
CN112818845A (zh) * | 2021-01-29 | 2021-05-18 | 深圳市商汤科技有限公司 | 测试方法、目标对象检测方法、行驶控制方法及装置 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3293308B2 (ja) | 1994-03-10 | 2002-06-17 | 三菱電機株式会社 | 人物状態検出装置 |
JP3974946B2 (ja) * | 1994-04-08 | 2007-09-12 | オリンパス株式会社 | 画像分類装置 |
JP2002150440A (ja) * | 2000-11-13 | 2002-05-24 | Fujitsu General Ltd | 監視対象物検出装置 |
JP2002342758A (ja) * | 2001-05-15 | 2002-11-29 | Osamu Hasegawa | 視覚認識システム |
WO2008139812A1 (ja) * | 2007-05-08 | 2008-11-20 | Olympus Corporation | 画像処理装置および画像処理プログラム |
JP2009029340A (ja) * | 2007-07-30 | 2009-02-12 | Denso Corp | 画像処理装置 |
JP5257891B2 (ja) * | 2007-12-05 | 2013-08-07 | 富士フイルム株式会社 | 画像処理システムおよびプログラム |
JP5041229B2 (ja) * | 2007-12-07 | 2012-10-03 | ソニー株式会社 | 学習装置および方法、認識装置および方法、並びにプログラム |
JP5178662B2 (ja) * | 2009-07-31 | 2013-04-10 | 富士フイルム株式会社 | 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム |
JP5588165B2 (ja) * | 2009-12-24 | 2014-09-10 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP2011154500A (ja) * | 2010-01-27 | 2011-08-11 | Sony Corp | 学習装置、学習方法、識別装置、識別方法、及びプログラム |
JP2011154501A (ja) * | 2010-01-27 | 2011-08-11 | Sony Corp | 学習装置、学習方法、識別装置、識別方法、プログラム、及び情報処理システム |
JP5597021B2 (ja) | 2010-04-15 | 2014-10-01 | オリンパス株式会社 | 画像処理装置及びプログラム |
CN102740756B (zh) * | 2010-06-30 | 2014-12-31 | 奥林巴斯医疗株式会社 | 图像处理装置和图像处理方法 |
CN102596001B (zh) * | 2010-07-21 | 2014-10-15 | 奥林巴斯医疗株式会社 | 图像处理装置和图像处理方法 |
JP5496852B2 (ja) * | 2010-10-26 | 2014-05-21 | 富士フイルム株式会社 | 電子内視鏡システム、電子内視鏡システムのプロセッサ装置、及び電子内視鏡システムの作動方法 |
-
2013
- 2013-06-24 JP JP2013131343A patent/JP6168876B2/ja active Active
-
2014
- 2014-06-03 CN CN201480034316.0A patent/CN105308651B/zh active Active
- 2014-06-03 WO PCT/JP2014/064663 patent/WO2014208287A1/ja active Application Filing
- 2014-06-03 EP EP14818280.1A patent/EP3016070A4/en not_active Withdrawn
-
2015
- 2015-10-09 US US14/879,532 patent/US9754189B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US9754189B2 (en) | 2017-09-05 |
EP3016070A4 (en) | 2017-08-02 |
US20160034787A1 (en) | 2016-02-04 |
CN105308651B (zh) | 2020-02-21 |
JP2015005237A (ja) | 2015-01-08 |
WO2014208287A1 (ja) | 2014-12-31 |
EP3016070A1 (en) | 2016-05-04 |
CN105308651A (zh) | 2016-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6168876B2 (ja) | 検出装置、学習装置、検出方法、学習方法及びプログラム | |
JP6176978B2 (ja) | 内視鏡用画像処理装置、内視鏡装置、内視鏡用画像処理装置の作動方法及び画像処理プログラム | |
JP6112879B2 (ja) | 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム | |
JP6049518B2 (ja) | 画像処理装置、内視鏡装置、プログラム及び画像処理装置の作動方法 | |
WO2014097702A1 (ja) | 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理方法 | |
WO2014155778A1 (ja) | 画像処理装置、内視鏡装置、プログラム及び画像処理方法 | |
JP6253230B2 (ja) | 画像処理装置、プログラム及び画像処理装置の作動方法 | |
JP6150554B2 (ja) | 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム | |
JP6600356B2 (ja) | 画像処理装置、内視鏡装置及びプログラム | |
JP6150617B2 (ja) | 検出装置、学習装置、検出方法、学習方法及びプログラム | |
JP6150555B2 (ja) | 内視鏡装置、内視鏡装置の作動方法及び画像処理プログラム | |
JP2014161355A (ja) | 画像処理装置、内視鏡装置、画像処理方法及びプログラム | |
US9323978B2 (en) | Image processing device, endoscope apparatus, and image processing method | |
CN111161852B (zh) | 一种内窥镜图像处理方法、电子设备及内窥镜系统 | |
US20230255443A1 (en) | Apparatuses, systems, and methods for discounting an object while managing auto-exposure of image frames depicting the object | |
JP2015006398A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6168878B2 (ja) | 画像処理装置、内視鏡装置及び画像処理方法 | |
JPWO2017183201A1 (ja) | 画像処理装置、画像処理装置の作動方法及び画像処理装置の作動プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160401 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170627 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6168876 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |