JP7423951B2 - 画像処理装置及び画像処理プログラム - Google Patents

画像処理装置及び画像処理プログラム Download PDF

Info

Publication number
JP7423951B2
JP7423951B2 JP2019170585A JP2019170585A JP7423951B2 JP 7423951 B2 JP7423951 B2 JP 7423951B2 JP 2019170585 A JP2019170585 A JP 2019170585A JP 2019170585 A JP2019170585 A JP 2019170585A JP 7423951 B2 JP7423951 B2 JP 7423951B2
Authority
JP
Japan
Prior art keywords
color distribution
image
frame
image processing
rectangular frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019170585A
Other languages
English (en)
Other versions
JP2021047705A (ja
JP2021047705A5 (ja
Inventor
媛媛 蔡
信 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2019170585A priority Critical patent/JP7423951B2/ja
Priority to US16/832,049 priority patent/US11741665B2/en
Publication of JP2021047705A publication Critical patent/JP2021047705A/ja
Publication of JP2021047705A5 publication Critical patent/JP2021047705A5/ja
Application granted granted Critical
Publication of JP7423951B2 publication Critical patent/JP7423951B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/30Clipping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20156Automatic seed setting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Description

本発明は、画像処理装置及び画像処理プログラムに関する。
特許文献1には、細菌などの微生物に対して検出及び計数を行う場合に、入力画像から背景画像を除去した前景画像中の目標物体の候補物体を確定し、候補物体の周囲領域と、候補物体及びその周囲領域を除去した後の入力画像との類似度又は候補物体の周囲領域と候補物体との類似度に基づいて、候補物体に対して選別を行うことが提案されている。
特許文献2には、画像について、人物等のオブジェクトセグメント、前景セグメントに分類し、画像内の構図と、画像内の前景セグメントと画像以外の画像における前景セグメントとの関係性に基づいて、前景セグメントの重要度を算出して、重要な物体の切抜きやトリミングなどの画像処理を行うことが記載されている。
特開2017-204276号公報 特開2013-531022号公報
画像中の物体の領域を切り抜く技術があるが、切り抜く対象領域が複数存在する場合、複数の対象領域を選択する操作を複数回行う必要があった。そこで、本発明は、画像を切り抜く対象領域が複数存在する場合であっても、1回の操作で複数の対象領域を切り抜くことが可能な画像処理装置及び画像処理プログラムを提供することを目的とする。
請求項1に記載の画像処理装置は、プロセッサを備え、前記プロセッサは、画像の前景物体に対応する複数の候補領域を囲む枠として矩形枠を表示し、1回の選択動作を検出して、前記選択動作による軌跡と前記矩形枠とが交わる前記候補領域を抽出し、抽出した各前記候補領域の色分布を混合ガウスモデルによって求めてから、四辺の画素持っている色の分布を示す色分布ヒストグラムを背景の色分布とし、他の色分布を物体の色分布として、背景の色分布の平均色の画素を拡張領域法の種子点に設定し、前記前景物体に対応する対象領域から背景を除外して、前記対象領域から前景物体に対応する画像を切り抜くことにより、前記選択動作で選択された1以上の前記候補領域の中から前記対象領域を抽出する処理を行う。
請求項に記載の発明は、請求項1に記載の発明において、前記プロセッサは、画像から前景物体に対応する複数の領域を前記候補領域として抽出して前記枠を表示する際に、前記画像を縮小してから前記候補領域を抽出して前記枠を求め、求めた前記枠を元の大きさに復元して前記枠を表示する処理を更に行う。
請求項3に記載の画像処理プログラムは、画像の前景物体に対応する複数の候補領域を囲む枠として矩形枠を表示し、1回の選択動作を検出して、前記選択動作による軌跡と前記矩形枠とが交わる前記候補領域を抽出し、抽出した各前記候補領域の色分布を混合ガウスモデルによって求めてから、四辺の画素持っている色の分布を示す色分布ヒストグラムを背景の色分布とし、他の色分布を物体の色分布として、背景の色分布の平均色の画素を拡張領域法の種子点に設定し、前記前景物体に対応する対象領域から背景を除外して、前記対象領域から前景物体に対応する画像を切り抜くことにより、前記選択動作で選択された1以上の前記候補領域の中から前記対象領域を抽出する処理をコンピュータに実行させる。
請求項1に記載の情報処理装置によれば、画像を切り抜く対象領域が複数存在する場合であっても、1回の操作で複数の対象領域を切り抜くことが可能な画像処理装置を提供でき、かつ領域拡張法の種子点を手動で設定する場合に比べて、複雑な背景であっても背景の種子点を容易に設定して背景を除外することが可能となる。
請求項に記載の発明によれば、縮小せずに候補領域を抽出して枠を求める場合に比べて、処理負荷を低減することが可能となる。
請求項に記載の発明によれば、画像を切り抜く対象領域が複数存在する場合であっても、1回の操作で複数の対象領域を切り抜くことが可能な画像処理プログラムを提供でき、かつ領域拡張法の種子点を手動で設定する場合に比べて、複雑な背景であっても背景の種子点を容易に設定して背景を除外することが可能となる。
本実施形態に係る画像処理装置の概略構成を示すブロック図である。 本実施形態に係る画像処理装置の機能ブロック図である。 ファッション通販の物体検出の例を示す図である。 お酒の物体検出の例を示す図である。 選択動作の軌跡により選出された矩形枠の一例を示す図である。 矩形枠の各辺の中点に設定した例を示す図である。 矩形枠の各辺の全画素を種子点に設定した例を示す図である。 混合ガウスモデルによって、各枠内の色分布を求めてから背景の色分布の平均色の画素に種子点を設定した例を示す図である。 本実施形態に係る画像処理装置で行われる具体的な処理の流れの一例を示すフローチャートである。 本実施形態に係る画像処理装置の全体の処理の流れを説明するための図である。
以下、図面を参照して本実施形態の一例を詳細に説明する。図1は、本実施形態に係る画像処理装置の概略構成を示すブロック図である。
本実施形態に係る画像処理装置10は、プロセッサの一例としてのCPU10A(Central Processing Unit)、ROM(Read Only Memory)10B、RAM(Random Access Memory)10C、HDD(hard disk drive)10D、操作部10E、表示部10F、及び通信回線I/F(インタフェース)部10Gを備えている。CPU10Aは、画像処理装置10の全体の動作を司る。ROM10Bは、各種制御プログラムや各種パラメータ等が予め記憶される。RAM10Cは、CPU10Aによる各種プログラムの実行時のワークエリア等として用いられる。HDD10Dは、各種のデータやアプリケーション・プログラム等が記憶される。操作部10Eは、キーボードやマウス、タッチパネル、タッチペン等の各種操作入力装置を含み、各種の情報を入力するために用いられる。表示部10Fは、液晶等のディスプレイが適用され、各種の情報を表示するために用いられる。通信回線I/F部10Gは、ネットワーク等の通信回線に接続され、当該通信回線に接続された他の装置と各種データの送受信を行う。以上の画像処理装置10の各部はシステムバス10Hにより電気的に相互に接続されている。なお、本実施形態に係る画像処理装置10では、HDD10Dを記憶部として適用しているが、これに限らず、フラッシュメモリ等の他の不揮発性の記憶部を適用してもよい。
以上の構成により、本実施形態に係る画像処理装置10は、CPU10Aにより、ROM10B、RAM10C、及びHDD10Dに対するアクセス、操作部10Eを介した各種データの取得、表示部10Fに対する各種情報の表示を各々実行する。また、画像処理装置10は、CPU10Aにより、通信回線I/F部10Gを介した通信データの送受信の制御を実行する。
本実施形態に係る画像処理装置10では、ROM10BまたはHDD10Dに予め記憶されたプログラムをCPU10Aが実行することにより、画像中の検出可能な物体を検出し、ユーザによって選定された物体を切り抜く処理を行う。なお、以下では、画像中の検出可能な物体を前景物体と称し、前景物体以外を背景と称する。
続いて、上述のように構成された本実施形態に係る画像処理装置10の機能的構成について説明する。図2は、本実施形態に係る画像処理装置10の機能ブロック図である。なお、各機能部は、ROM10BまたはHDD10Dに予め記憶されたプログラムをCPU10Aが実行することにより実現される。
画像処理装置10は、物体検出部12、物体選出部14、及び物体切抜き部16の機能を有する。
物体検出部12は、物体検出対象の画像情報を入力して、画像情報が表す画像中の前景物体を検出し、検出した物体の候補領域を矩形枠で表示部10Fに表示する処理を行う。前景物体は、種々の周知技術を用いることで検出する。例えば、物体検出アルゴリズムYOLO(You Only Look Once)v3を用いて検出できる。図3、4に物体検出の一例を示す。図3は、ファッション通販の物体検出の例を示す図であり、図4は、お酒の物体検出の例を示す図である。図3では、「tops」、「skirts」、「footwear」、「bags」、「pants」のそれぞれの学習データを元に深層学習を行って物体を検出し、「tops」、「skirts」、「footwear」、「bags」、「pants」の候補領域を矩形枠で表示した例を示す。また、図4の例では、各種のお酒の画像を学習データとして深層学習を行って物体を検出し、3本のお酒の候補領域を矩形枠で表示した例を示す。
物体選出部14は、検出された物体の候補領域の矩形枠のうち切り抜きたい前景物体に対応する矩形枠を、ユーザが操作部10Eを操作して行う1回の選択動作に基づいて選出する処理を行う。本実施形態では、物体検出部12によって検出されて表示された矩形枠に対する選択動作を検出して、切り抜きたい前景物体に対応する矩形枠を選出する。具体的には、図5に示すように、一筆書きのような1回の操作部10Eによる選択動作で指定された物体の候補領域の矩形枠を選出する。本実施形態では、物体選出部14は、操作部10Eの選択動作による軌跡と交わる矩形枠を選出する。なお、図5では、1本のお酒の矩形枠を選出した例、3本のお酒の矩形枠を選出した例、及び2本の矩形枠を選出した例の3種類の矩形枠の選出例を示す。
物体切抜き部16は、物体選出部14によって選出された矩形枠の中から前景物体を切り抜く処理を行う。具体的には、領域拡張法(region growing)を応用して矩形枠の中から前景物体を切り抜く。領域拡張法では、予め設定した画素値に関する条件を満足する、空間的に連続する領域を一塊の領域として認識する。まず、画素値に関する条件を満足する画素を種子点として設定し、近傍の点で条件を満足する画素に同一ラベルをつけ、これを繰り返すことにより、一塊の領域を認識する。なお、従来の領域拡張法では手動操作で種子点を設定するが、本実施形態では、物体選出部14が矩形枠を選出する際の選択動作の軌跡と矩形枠とを用いて種子点を設定する。種子点の設定方法としては、以下の3種類の設定方法がある。
まず、第1の種子点の設定方法では、物体選出部14で選出された矩形枠に種子点を設定する。種子点は、図6に示すように、矩形枠の各辺の中点に設定する。なお、図6は、矩形枠の各辺の中点に設定した例を示す図である。各枠では、セグメンテーションは独自で行い、各種子点は各枠の中心に向けて、近傍の点はRGBの値が類似している場合に、画素に同一ラベルを付け、これを繰り返すことにより、種子点と同一ラベルの画素を除外することにより、各枠の中に残った部分を切り抜く物体とする。
また、第2の種子点の設定方法では、物体選出部14で選出された矩形枠に種子点を設定する。種子点は、図7に示すように、各枠4つの辺の全画素に設定する。或いは、各枠4つの辺の複数画素に種子点を設定してもよい。なお、図7は、矩形枠の各辺の全画素を種子点に設定した例を示す図である。各枠では、セグメンテーションは独自で行い、各種子点は各枠の中心に向けて、近傍の点はRGBの値が類似している場合に、画素に同一ラベルを付け、これを繰り返すことにより、種子点と同一ラベルの画素を除外することにより、各枠の中に残った部分を切り抜く物体とする。
また、第3の種子点の設定方法では、物体選出部14で選出された矩形領域に種子点を設定する。種子点は、図8に示すように、混合ガウスモデルによって、各枠内の色分布を求めてから、四辺の画素を多く持っている色分布ヒストグラムを背景の色分布とし、他のもう一つの色分布を物体の色分布として種子点は背景の色分布の平均色の画素に設定する。なお、図8は、混合ガウスモデルによって、各枠内の色分布を求めてから背景の色分布の平均色の画素に種子点を設定した例を示す図である。各枠では、セグメンテーションは独自で行い、各種子点は各枠の中心に向けて、近傍の点はRGBの値が類似している場合に、画素に同一ラベルを付け、これを繰り返すことにより、種子点と同一ラベルの画素を除外することにより、各枠の中に残った部分を切り抜く物体とする。
続いて、上述のように構成された本実施形態に係る画像処理装置10で行われる処理について説明する。図9は、本実施形態に係る画像処理装置10で行われる具体的な処理の流れの一例を示すフローチャートである。なお、図9の処理は、例えば、物体検出の対象となる画像情報を選択して物体検出の開始指示が行われた場合に開始する。
ステップ100では、物体検出部12が、物体検出対象の画像情報を取得してステップ102へ移行する。取得する画像情報としては、動画でもよいし静止画でもよい。
ステップ102では、物体検出部12が、取得された画像情報に基づいて、対象の画像を表示部10Fに表示してステップ104へ移行する。例えば、図10に示すような入力画像が表示部10Fに表示される。
ステップ104では、物体検出部12が、画像から前景物体を検出して、前景物体の候補領域を囲う矩形枠を表示してステップ106へ移行する。本実施形態では、一例として、物体検出アルゴリズムYOLOv3を用いて画像から前景物体を検出して、前景物体の候補領域を矩形枠で表示する。これにより、図10に示すように、物体検出部12によって検出された前景物体の候補領域の矩形枠が表示部10Fに表示される。
ステップ106では、物体選出部14が、ユーザによる選択動作を検出したか否かを判定する。該判定は、例えば、図10に示すように、一筆書きのような1回の選択動作がユーザによって行われたか否かを判定する。該判定が肯定されるまで待機してステップ108へ移行する。
ステップ108では、物体選出部14が、選択動作に対応する矩形枠を全て抽出してステップ110へ移行する。本実施形態では、選択動作の軌跡と交わる矩形枠を全て抽出する。これにより、図10に示すように、物体選出部14によって抽出された矩形枠が表示部10Fに表示される。本実施形態では、複数の矩形枠を選択する際には、複数の選択操作を行うことなく、単一の選択動作で複数の矩形枠が選択される。
ステップ110では、物体切抜き部16が、抽出された矩形枠中の前景物体を切り抜いてステップ112へ移行する。本実施形態では、一例として、領域拡張法を用いて矩形枠の中から前景物体を切り抜く。すなわち、図10に示すように、種子点を設定して、設定した種子点の近傍の点で予め設定した画素値に関する条件を満足する画素に同一ラベルを付ける。そして、これを繰り返すことにより、同一ラベルの画素を一塊の領域として認識して、前景物体を目標物体として切り抜く。なお、図10では、矩形枠の各辺の中点に種子点を設定した場合の例を示す。また、ステップ110では、抽出された矩形枠が複数の場合は、注目の矩形枠から前景物体を切り抜き、図10の例では、3つの前景物体を目標物体として切り抜いた例を示す。
ステップ112では、物体切抜き部16が、抽出された全ての矩形枠の前景物体を切り抜いたか否かを判定する。該判定が否定された場合にはステップ110に戻って注目の矩形枠を変更して前景物体を切り抜く処理を行い、判定が肯定されたところで一連の処理を終了する。
なお、上記の実施形態では、物体検出部12が、物体検出対象の画像情報を入力して、画像中の前景物体を検出し、検出した物体の候補領域を矩形枠で表示部10Fに表示したが、検出物体の候補領域は矩形枠以外の枠で表示してもよい。例えば、円や、楕円、多角形等の矩形以外の形状の枠で表示してもよい。
また、上記の実施形態では、物体切抜き部16が前景物体を切り抜く際には、領域拡張法を利用して前景物体を切り抜く例を説明したが、物体の切抜き方法は他の方法を利用してもよい。例えば、グラフカット(Graph Cut)や、グラブカット(Grab-cut)、混合ガウスモデル(Gaussian Mixture Model)等の周知の画像切抜き技術を利用してもよい。
また、上記の実施形態では、物体切抜き部16が前景物体を切り抜く際に、背景として設定する種子点の設定方法として3種類の設定方法を一例として説明したが、これに限るものではない。例えば、複数の矩形枠が重ならない場合を条件として、矩形枠の選択動作の軌跡と矩形枠とが交わる点を種子点に設定してもよい。或いは、物体切抜き部16が前景物体を切り抜く際に設定する種子点は背景ではなく、前景物体に設定してもよい。例えば、物体切抜き部16は、前景物体を切り抜く際に、前景物体に対応する点として矩形枠の中心に種子点を設定し、前景物体を切り出してもよい。また、複数種類の種子点の設定方法を備えて、ユーザが操作部10Eを操作することにより何れかの種子点の設定方法を選択可能な形態としてもよい。
また、上記の実施形態において、物体検出部12が画像から前景物体に対応する複数の領域を候補領域として抽出して矩形枠を表示する際に、画像を縮小してから候補領域を抽出して矩形枠を求め、求めた矩形枠を元の大きさに復元して矩形枠を表示してもよい。これにより、候補領域の抽出時の処理負荷が軽減される。
また、上記の実施形態において、物体切抜き部16が前景物体を切り抜く際に、物体選出部14で選出された矩形枠の画像を縮小してから前景物体を切り抜く処理を行って元の大きさに復元してもよい。
また、上記の実施形態において、CPU10Aをプロセッサの一例として説明したが、プロセッサとは広義的なプロセッサを指し、汎用的なプロセッサ(例えばCPU: Central Processing Unit、等)や、専用のプロセッサ(例えばGPU: Graphics Processing Unit、ASIC: Application Specific Integrated Circuit、FPGA: Field Programmable Gate Array、プログラマブル論理デバイス、等)を含むものである。
また上記各実施形態におけるプロセッサの動作は、1つのプロセッサによって成すのみでなく、物理的に離れた位置に存在する複数のプロセッサが協働して成すものであってもよい。また、プロセッサの各動作の順序は上記各実施形態において記載した順序のみに限定されるものではなく、適宜変更してもよい。
また、上記の実施形態に係る画像処理装置10で行われる処理は、ソフトウエアで行われる処理としてもよいし、ハードウエアで行われる処理としてもよいし、双方を組み合わせた処理としてもよい。また、画像処理装置10で行われる処理は、プログラムとして記憶媒体に記憶して流通させるようにしてもよい。
また、本発明は、上記に限定されるものでなく、上記以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。
10 画像処理装置
10E 操作部
10F 表示部
12 物体検出部
14 物体選出部
16 物体切抜き部

Claims (3)

  1. プロセッサを備え、前記プロセッサは、
    画像の前景物体に対応する複数の候補領域を囲む枠として矩形枠を表示し、1回の選択動作を検出して、前記選択動作による軌跡と前記矩形枠とが交わる前記候補領域を抽出し、抽出した各前記候補領域の色分布を混合ガウスモデルによって求めてから、四辺の画素持っている色の分布を示す色分布ヒストグラムを背景の色分布とし、他の色分布を物体の色分布として、背景の色分布の平均色の画素を拡張領域法の種子点に設定し、前記前景物体に対応する対象領域から背景を除外して、前記対象領域から前景物体に対応する画像を切り抜くことにより、前記選択動作で選択された1以上の前記候補領域の中から前記対象領域を抽出する処理を行う画像処理装置。
  2. 前記プロセッサは、画像から前景物体に対応する複数の領域を前記候補領域として抽出して前記枠を表示する際に、前記画像を縮小してから前記候補領域を抽出して前記枠を求め、求めた前記枠を元の大きさに復元して前記枠を表示する処理を更に行う請求項1に記載の画像処理装置。
  3. 画像の前景物体に対応する複数の候補領域を囲む枠として矩形枠を表示し、1回の選択動作を検出して、前記選択動作による軌跡と前記矩形枠とが交わる前記候補領域を抽出し、抽出した各前記候補領域の色分布を混合ガウスモデルによって求めてから、四辺の画素持っている色の分布を示す色分布ヒストグラムを背景の色分布とし、他の色分布を物体の色分布として、背景の色分布の平均色の画素を拡張領域法の種子点に設定し、前記前景物体に対応する対象領域から背景を除外して、前記対象領域から前景物体に対応する画像を切り抜くことにより、前記選択動作で選択された1以上の前記候補領域の中から前記対象領域を抽出する処理をコンピュータに実行させるための画像処理プログラム。
JP2019170585A 2019-09-19 2019-09-19 画像処理装置及び画像処理プログラム Active JP7423951B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019170585A JP7423951B2 (ja) 2019-09-19 2019-09-19 画像処理装置及び画像処理プログラム
US16/832,049 US11741665B2 (en) 2019-09-19 2020-03-27 Image processing apparatus and non-transitory computer readable medium storing image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019170585A JP7423951B2 (ja) 2019-09-19 2019-09-19 画像処理装置及び画像処理プログラム

Publications (3)

Publication Number Publication Date
JP2021047705A JP2021047705A (ja) 2021-03-25
JP2021047705A5 JP2021047705A5 (ja) 2022-07-13
JP7423951B2 true JP7423951B2 (ja) 2024-01-30

Family

ID=74878518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019170585A Active JP7423951B2 (ja) 2019-09-19 2019-09-19 画像処理装置及び画像処理プログラム

Country Status (2)

Country Link
US (1) US11741665B2 (ja)
JP (1) JP7423951B2 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006033224A (ja) 2004-07-14 2006-02-02 Matsushita Electric Ind Co Ltd 物体追跡装置および物体追跡方法
JP2011053759A (ja) 2009-08-31 2011-03-17 Casio Computer Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2011077790A (ja) 2009-09-30 2011-04-14 Nikon Corp 撮像装置、補正処理プログラム及び記録媒体
JP5107453B1 (ja) 2011-08-11 2012-12-26 シャープ株式会社 情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体
JP2013077296A (ja) 2011-09-14 2013-04-25 Ricoh Co Ltd 画像処理装置、画像処理方法およびプログラム
JP2015201038A (ja) 2014-04-08 2015-11-12 富士通株式会社 情報処理装置及び情報処理プログラム
JP2016015043A (ja) 2014-07-02 2016-01-28 トヨタ自動車株式会社 対象物認識装置
JP2018092610A (ja) 2016-11-28 2018-06-14 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS517453B2 (ja) 1972-02-28 1976-03-08
JP4482778B2 (ja) * 2000-09-11 2010-06-16 ソニー株式会社 画像処理装置および画像処理方法、並びに記録媒体
US7299424B2 (en) * 2002-05-14 2007-11-20 Microsoft Corporation Lasso select
US8150121B2 (en) * 2008-05-06 2012-04-03 Carestream Health, Inc. Information collection for segmentation of an anatomical object of interest
US8929635B2 (en) * 2011-07-21 2015-01-06 Carestream Health, Inc. Method and system for tooth segmentation in dental images
JP6023058B2 (ja) 2011-08-29 2016-11-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像処理装置、画像処理方法、プログラム、集積回路
KR101618814B1 (ko) * 2012-10-09 2016-05-09 에스케이텔레콤 주식회사 단일객체에 대한 기울기를 추정하는 영상을 감시하는 장치 및 방법
US9626084B2 (en) * 2014-03-21 2017-04-18 Amazon Technologies, Inc. Object tracking in zoomed video
KR20150118813A (ko) * 2014-04-15 2015-10-23 삼성전자주식회사 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치
CN106663208B (zh) * 2014-08-28 2019-04-23 高通股份有限公司 时间显著图
GB2529671B (en) * 2014-08-28 2017-03-08 Canon Kk Transformation of 3-D object for object segmentation in 3-D medical image
CN107369149B (zh) 2016-05-11 2020-09-08 富士通株式会社 目标物体的检测装置及方法
US11062176B2 (en) * 2017-11-30 2021-07-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
US10762396B2 (en) * 2017-12-05 2020-09-01 Utac, Llc Multiple stage image based object detection and recognition
US20220261601A1 (en) * 2017-12-05 2022-08-18 Uatc, Llc Multiple Stage Image Based Object Detection and Recognition
US11120070B2 (en) * 2018-05-21 2021-09-14 Microsoft Technology Licensing, Llc System and method for attribute-based visual search over a computer communication network
US11182972B2 (en) * 2019-02-12 2021-11-23 Qualcomm Incorporated Virtual teleportation in fixed environments
US10964023B1 (en) * 2019-03-26 2021-03-30 Snap Inc. Image segmentation system
US11468550B2 (en) * 2019-07-22 2022-10-11 Adobe Inc. Utilizing object attribute detection models to automatically select instances of detected objects in images
US10769718B1 (en) * 2020-02-19 2020-09-08 Nicom Living LLC Method, medium, and system for live preview via machine learning models

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006033224A (ja) 2004-07-14 2006-02-02 Matsushita Electric Ind Co Ltd 物体追跡装置および物体追跡方法
JP2011053759A (ja) 2009-08-31 2011-03-17 Casio Computer Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2011077790A (ja) 2009-09-30 2011-04-14 Nikon Corp 撮像装置、補正処理プログラム及び記録媒体
JP5107453B1 (ja) 2011-08-11 2012-12-26 シャープ株式会社 情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体
JP2013077296A (ja) 2011-09-14 2013-04-25 Ricoh Co Ltd 画像処理装置、画像処理方法およびプログラム
JP2015201038A (ja) 2014-04-08 2015-11-12 富士通株式会社 情報処理装置及び情報処理プログラム
JP2016015043A (ja) 2014-07-02 2016-01-28 トヨタ自動車株式会社 対象物認識装置
JP2018092610A (ja) 2016-11-28 2018-06-14 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム

Also Published As

Publication number Publication date
US11741665B2 (en) 2023-08-29
US20210090324A1 (en) 2021-03-25
JP2021047705A (ja) 2021-03-25

Similar Documents

Publication Publication Date Title
US10803338B2 (en) Method and device for recognizing the character area in a image
CN108960229B (zh) 一种面向多方向的文字检测方法和装置
CN106940799B (zh) 文本图像处理方法和装置
US8923559B2 (en) Image processing apparatus, image processing method, and program
WO2019114036A1 (zh) 人脸检测方法及装置、计算机装置和计算机可读存储介质
WO2007055359A1 (ja) クラスタリングシステム、及び、それを備える画像処理システム
CN110189333B (zh) 一种图片语义分割半自动标注方法及装置
US20170004628A1 (en) Method and apparatus for segmenting object in image
Schauwecker et al. A new feature detector and stereo matching method for accurate high-performance sparse stereo matching
CN103218600B (zh) 一种实时人脸检测算法
US20210248729A1 (en) Superpixel merging
Asheghi et al. A comprehensive review on content-aware image retargeting: From classical to state-of-the-art methods
CN114168052A (zh) 多图显示方法、装置、设备及存储介质
JP5006479B1 (ja) 動き画像領域判定装置またはその方法
Oliveira et al. A novel Genetic Algorithms and SURF-Based approach for image retargeting
CN104268845A (zh) 极值温差短波红外图像的自适应双局部增强方法
CN113449538A (zh) 视觉模型的训练方法、装置、设备及存储介质
JP7423951B2 (ja) 画像処理装置及び画像処理プログラム
JP5783972B2 (ja) 手書き文書処理装置、方法およびプログラム
JP5192597B1 (ja) 動き画像領域判定装置またはその方法
CN115564976A (zh) 图像处理方法、装置、介质及设备
US20140212043A1 (en) Character display apparatus, character display method, and computer readable medium
Kulyukin et al. An algorithm for mobile vision-based localization of skewed nutrition labels that maximizes specificity
CN113033593B (zh) 基于深度学习的文本检测训练方法及装置
CN110942419B (zh) 一种全液晶仪表毛玻璃模糊处理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240101

R150 Certificate of patent or registration of utility model

Ref document number: 7423951

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150