JP6036447B2 - 画像回転装置、画像回転方法、およびプログラム - Google Patents
画像回転装置、画像回転方法、およびプログラム Download PDFInfo
- Publication number
- JP6036447B2 JP6036447B2 JP2013059427A JP2013059427A JP6036447B2 JP 6036447 B2 JP6036447 B2 JP 6036447B2 JP 2013059427 A JP2013059427 A JP 2013059427A JP 2013059427 A JP2013059427 A JP 2013059427A JP 6036447 B2 JP6036447 B2 JP 6036447B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- input image
- input
- rotation
- regions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、撮影された画像を正しい向きに回転させる画像回転装置等に関するものである。
近年、デジタルカメラやデジタルカメラを搭載したスマートフォンなどの携帯端末が普及し、ユーザが撮影した画像をブログに投稿したり、SNS(Social Networking Service)などで共有したりするような場面が増えている。そのため、ユーザは、ネットワーク上にアップロードする都合上、高解像度で撮影した画像を容量の小さい画像に加工したりする作業を行っている。
一般に、ユーザは、被写体と周りの風景に応じて、撮影したい被写体が効果的に画角に収まるように、デジタルカメラを縦向きにしたり、横向きにしたりして撮影する。
しかしながら、ユーザは、撮影した画像をパーソナルコンピュータなどに取り込む際、デジタルカメラを横にして撮影した画像を、正しい向きに回転させる作業が生じ、画像点数が膨大になると、その作業負荷も非常に高くなってしまう。
そこで、例えば、特許文献1には、デジタルカメラの姿勢を姿勢検出センサで検出し、撮影画像を自動的に回転する技術が提案されている。
特許文献1に記載の技術は、いわゆる、Exif(Exchangeable image file format)という形式の撮影時の条件情報をメタデータに記録することができる仕組みを搭載したデジタルカメラでなければ、自動的に回転することはできない課題があった。
本発明は、前述した問題点に鑑みてなされたもので、その目的とすることは、撮影時の条件情報が存在しなくても、撮影画像を、正しい向きに回転させることが可能な画像回転装置などを提供することである。
前述した目的を達成するための第1の発明は、入力画像を回転する画像回転装置であって、前記入力画像を複数の方向に回転し、複数の入力画像を得る画像入力手段と、前記複数の入力画像内の人物が含まれる領域をそれぞれ検出する検出手段と、前記検出手段により、1人の人物に対して検出された複数の前記領域から、領域密度が極値となる人物領域を推定する推定手段と、前記複数の入力画像のうち、前記推定手段により推定された前記人物領域の数が最も多い入力画像を選択し、選択した前記入力画像の回転方向を判定する第1の判定手段と、前記第1の判定手段により、前記人物領域の数が最も多い入力画像を選択することができなかった場合、前記検出手段により検出された複数の前記領域の数が最も多い入力画像を選択し、選択した前記入力画像の回転方向を判定する第2の判定手段と、前記第1の判定手段または前記第2の判定手段による判定結果に基づいて、前記入力画像を回転する画像回転手段と、を備えることを特徴とする画像回転装置である。
第1の発明によって、撮影時の条件情報が存在しなくても、撮影画像を、正しい向きに回転させることが可能となる。
第1の発明によって、撮影時の条件情報が存在しなくても、撮影画像を、正しい向きに回転させることが可能となる。
前記複数の方向は、予め規定した第1の方向、前記第1の方向から左に90度回転した第2の方向、前記第1の方向から左に180度回転した第3の方向、前記第1の方向から左に270度回転した第4の方向である。
これによって、撮影時の条件情報が存在しなくても、4方向に回転された入力画像を用いて撮影の向きを判定することができる。
これによって、撮影時の条件情報が存在しなくても、4方向に回転された入力画像を用いて撮影の向きを判定することができる。
前記第2の判定手段は、前記第1の判定手段が、前記推定手段により推定された前記人物領域の数が1つであると判定した場合にも、前記検出手段により検出された複数の前記領域の数が最も多い入力画像を選択し、選択した前記入力画像の回転方向を判定する。
これによって、精度良く画像の向きを判定することが可能となる。
これによって、精度良く画像の向きを判定することが可能となる。
前記検出手段は、前記複数の入力画像内の人物の顔または人体が含まれる領域を検出する。
また、前記検出手段は、Haar-like特徴量またはHOG(Histograms
of Oriented Gradient)特徴量を用い、前記推定手段は、Mean Shiftクラスタリングを用いる。
これによって、入力画像中の顔領域または人体領域を検出し、その検出領域から画像の向きを判定することが可能となる。
また、前記検出手段は、Haar-like特徴量またはHOG(Histograms
of Oriented Gradient)特徴量を用い、前記推定手段は、Mean Shiftクラスタリングを用いる。
これによって、入力画像中の顔領域または人体領域を検出し、その検出領域から画像の向きを判定することが可能となる。
第2の発明は、入力画像を回転する画像回転装置で行われる画像回転方法であって、前記入力画像を複数の方向に回転し、複数の入力画像を得る画像入力ステップと、前記複数の入力画像内の人物が含まれる領域をそれぞれ検出する検出ステップと、前記検出ステップで、1人の人物に対して検出された複数の前記領域から、領域密度が極値となる人物領域を推定する推定ステップと、前記複数の入力画像のうち、前記推定ステップで推定された前記人物領域の数が最も多い入力画像を選択し、選択した前記入力画像の回転方向を判定する第1の判定ステップと、前記第1の判定ステップで、前記人物領域の数が最も多い入力画像を選択することができなかった場合、前記検出ステップで検出された複数の前記領域の数が最も多い入力画像を選択し、選択した前記入力画像の回転方向を判定する第2の判定ステップと、前記第1の判定ステップまたは前記第2の判定ステップによる判定結果に基づいて、前記入力画像を回転する画像回転ステップと、を含むことを特徴とする画像回転方法である。
第2の発明によって、撮影時の条件情報が存在しなくても、撮影画像を、正しい向きに回転させることが可能となる。
第2の発明によって、撮影時の条件情報が存在しなくても、撮影画像を、正しい向きに回転させることが可能となる。
第3の発明は、コンピュータを、入力画像を回転する画像回転装置として機能させるためのプログラムであって、コンピュータを、前記入力画像を複数の方向に回転し、複数の入力画像を得る画像入力手段、前記複数の入力画像内の人物が含まれる領域をそれぞれ検出する検出手段、前記検出手段により、1人の人物に対して検出された複数の前記領域から、領域密度が極値となる人物領域を推定する推定手段、前記複数の入力画像のうち、前記推定手段により推定された前記人物領域の数が最も多い入力画像を選択し、選択した前記入力画像の回転方向を判定する第1の判定手段、前記第1の判定手段により、前記人物領域の数が最も多い入力画像を選択することができなかった場合、前記検出手段により検出された複数の前記領域の数が最も多い入力画像を選択し、選択した前記入力画像の回転方向を判定する第2の判定手段、前記第1の判定手段または前記第2の判定手段による判定結果に基づいて、前記入力画像を回転する画像回転手段、として機能させるためのプログラムである。
第3の発明のプログラムを汎用のコンピュータにインストールすることによって、第1の発明の画像回転装置を得ることができる。
第3の発明のプログラムを汎用のコンピュータにインストールすることによって、第1の発明の画像回転装置を得ることができる。
本発明により、撮影時の条件情報が存在しなくても、撮影画像を、正しい向きに回転させることが可能となる。
以下、図面に基づいて、本発明の実施の形態を詳細に説明する。
[本発明の実施の形態]
図1は、本発明の実施の形態に係る画像回転装置1のハードウェアの構成例を示す図である。尚、図1のハードウェア構成は一例であり、用途、目的に応じて様々な構成を採ることが可能である。
図1は、本発明の実施の形態に係る画像回転装置1のハードウェアの構成例を示す図である。尚、図1のハードウェア構成は一例であり、用途、目的に応じて様々な構成を採ることが可能である。
画像回転装置1は、制御部11、記憶部12、メディア入出力部13、通信制御部14、入力部15、表示部16、周辺機器I/F部17等が、バス18を介して接続される。
制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成される。CPUは、記憶部12、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各装置を駆動制御し、画像回転装置1が行う後述する処理を実現する。ROMは、不揮発性メモリであり、画像回転装置1のブートプログラムやBIOS(Basic Input/Output System)等のプログラム、データ等を恒久的に保持している。RAMは、揮発性メモリであり、記憶部12、ROM、記録媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部11が各種処理を行う為に使用するワークエリアを備える。
記憶部12は、HDD(ハードディスクドライブ)等であり、制御部11が実行するプログラム、プログラム実行に必要なデータ、OS(オペレーティングシステム)等が格納される。プログラムに関しては、OSに相当する制御プログラムや、後述する処理を画像回転装置1に実行させるためのアプリケーションプログラムが格納されている。これらの各プログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、CPUに読み出されて各種の手段として実行される。
メディア入出力部13(ドライブ装置)は、データの入出力を行い、例えば、CDドライブ(−ROM、−R、−RW等)、DVDドライブ(−ROM、−R、−RW等)等のメディア入出力装置を有する。
通信制御部14は、通信制御装置、通信ポート等を有し、画像回転装置1とネットワーク間の通信を媒介する通信インターフェイスであり、ネットワークを介して、他の装置間との通信制御を行う。ネットワークは、有線、無線を問わない。
入力部15は、データの入力を行い、例えば、キーボード、マウス等のポインティングデバイス、テンキー等の入力装置を有する。入力部15を介して、画像回転装置1に対して、操作指示、動作指示、データ入力等を行うことができる。
表示部16は、CRTモニタ、液晶パネル等のディスプレイ装置、ディスプレイ装置と連携して画像回転装置1のビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。
周辺機器I/F(インターフェイス)部17は、画像回転装置1に周辺機器を接続させるためのポートであり、周辺機器I/F部17を介して画像回転装置1は周辺機器とのデータの送受信を行う。周辺機器I/F部17は、USB(Universal Serial Bus)やIEEE(The
Institute of Electrical and Electronics Engineers)1394やRS−235C等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。
Institute of Electrical and Electronics Engineers)1394やRS−235C等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。
バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
図2は、画像回転装置1の機能構成例を示すブロック図である。図2に示す機能部のうちの少なくとも一部は、図1の制御部11により所定のプログラムが実行されることによって実現される。
画像入力部21は、メディア入出力部13、通信制御部14、または周辺機器I/F(インターフェイス)部17を介して、撮影画像を入力し、入力画像を4方向(予め規定した方向(0度)、予め規定した方向から左に90度回転した方向、予め規定した方向から左に180度回転した方向、予め規定した方向から左に270度回転した方向)に回転し、4パターンの入力画像を得る。
顔検出部22は、予め、膨大な学習データ(サンプル画像)のHaar-like特徴量(サンプル画像の局所的な白黒パターン)をブースティング手法で学習させ、識別器を作成する。顔検出部22は、画像入力部21で4方向に回転された入力画像をHaar-like特徴量に変換し、予め作成した識別器に適用することで、画像中における顔を含む特徴領域(ウィンドウ)をそれぞれ検出する。なお、1人の人物に対して、検出される顔の特徴領域は、誤検出も含めて複数存在する。
図3は、Haar-like特徴量を用いた顔検出の手法について説明する図である。なお、Haar-Like特徴量を用いた顔検出の手法は、公知の技術であり、例えば、「An Extended Set of Haar-like Features for Rapid Object Detection(ICIP2002)」などに記載されているため、ここでは概略を説明する。
顔検出部22は、顔画像を含む有効データ(positive data)D11、顔画像を含まない無効データ(negative
data)D12からなる学習データD1を準備し、学習データD1の画像サイズと同じサイズの探索窓を設定する。顔検出部22は、設定した探索窓の中で計算対象である矩形中の黒色の領域のピクセル値の和の値から白色の領域のピクセル値の和の値を引いたHaar-Like特徴量を算出する。
data)D12からなる学習データD1を準備し、学習データD1の画像サイズと同じサイズの探索窓を設定する。顔検出部22は、設定した探索窓の中で計算対象である矩形中の黒色の領域のピクセル値の和の値から白色の領域のピクセル値の和の値を引いたHaar-Like特徴量を算出する。
顔検出部22は、矢印A1の先に示すように、矩形領域をブースティング手法で学習する。つまり、顔検出部22は、計算対象の矩形の位置は探索窓中に数万通りの候補があるが、ブースティングにより探索窓内の各弱識別器(特徴選択器)の重みづけ(強識別器全体の認識率が高くなるための各弱識別器の重要度)を学習で決定しておく。
顔検出部22は、計算した数万通りあるHaar-Like特徴量の弱識別器の中から、重要度が低いものは強識別全体の性能に影響が出ないので使わないことにし、重要度が上位の数十個の弱識別器のみを選択する。例えば、矢印A2の先に示すように、(a)〜(d)のEdge features、(a)〜(h)のLine features、(a)、(b)のCenter-surround featuresの弱識別器のみが選択される。顔検出部22は、これらの弱識別器を用いて、強識別器を作成する。
図2の説明に戻る。人体検出部23は、予め、膨大な学習データ(サンプル画像)のHOG(Histograms of Oriented Gradient)特徴量を用いたブースティング手法で識別器を作成する。人体検出部23は、画像入力部21で4方向に回転された入力画像からHOG特徴量を算出し、予め作成した識別器に適用することで、画像中における人体を含む特徴領域をそれぞれ検出する。1人の人物に対して検出される人体の特徴領域は、誤検出も含めて複数存在する。
図4は、HOG特徴量を用いた人体検出の手法について説明する図である。なお、HOG特徴量を用いた人体検出の手法は、公知の技術であり、例えば、「Histograms of Oriented Gradients for Human Detection」(CVPR2005)」などに記載されているため、ここでは概略を説明する。
人体検出部23は、サンプル画像P1から、矢印A11の先に示すように、各ピクセルの輝度勾配を算出し、5×5のピクセルからなるセル領域(局所領域)に分割し、さらに、3×3のセル領域を1ブロックとして設定する。人体検出部23は、各セル領域に含まれるピクセルのエッジ方向、エッジ強度から、矢印A12の先に示すように、勾配方向ヒストグラムを作成する。このヒストグラムはエッジ方向20度毎の9次元ベクトルとして表される。
人体検出部23は、セル領域において求めた9方向の勾配方向ヒストグラムの正規化を行い、さらにブロック毎に勾配方向ヒストグラムの正規化を行うことでHOG特徴量を算出する。
人体検出部23は、矢印A13の先に示すように、様々な学習サンプルを準備し、それぞれのHOG特徴量を算出し、ブースティング手法で学習する。つまり、人体検出部23は、人物が含まれる正例のサンプル数と人物が含まれない負例のサンプル数からサンプルの重みを初期化し、その重みの総和が1となるように正規化し、各弱識別器(特徴選択器)の学習データに対するエラー率を算出する。人体検出部23は、矢印A14の先に示すように、算出したエラー率が最小の弱識別器を選出し、重みを更新し、学習ループ処理を行う。そして、人体検出部23は、弱識別器の出力にαで重み付けて結合することで、最終的な強識別器を作成する。
図2の説明に戻る。重心推定部24は、顔検出部22で検出された複数の顔の特徴領域、または人体検出部23で検出された複数の人体の特徴領域から、Mean Shiftクラスタリングにより、領域の密度が極値となる位置に移動し、極値へ移動後、Nearest Neighborにより、近隣の検出領域と統合する。
図5は、Mean Shiftクラスタリングの手法について説明する図である。なお、Mean Shiftクラスタリングの手法は、公知の技術であり、ここでは概略を説明する。
図5(a)に示すように、1人の人物に対して、複数の特徴領域が検出されるため、重心推定部24は、図5(b)に示すように、検出された複数の特徴領域の左上座標の点群から、1つの点を初期点とし、半径Rの円Cを考え、初期点からその半径Rの円C内にある点の平均を求め、初期点から、求めた平均の点へと円Cの中心Oを移動させるという動作を繰り返し、極大点を推定(探索)する。これにより、図5(c)に示すように、1つの特徴領域に収束される。
図2の説明に戻る。第1次判定処理部25は、顔検出部22または人体検出部23で検出され、重心推定部24で1人の人物に対し1つに推定された特徴領域に基づいて、顔または人体の向きを判定し、その判定結果に基づいて、画像入力部21からの入力画像を回転する。
第2次判定処理部26は、第1次判定処理部25で顔または人体の向きを判定することができなかった場合、顔検出部22または人体検出部23で、1人の人物に対し検出された複数の特徴領域に基づいて、顔または人体の向きを判定し、その判定結果に基づいて、画像入力部21からの入力画像を回転する。
(画像回転処理)
図6は、画像回転装置1が実行する入力画像の画像回転処理を説明するフローチャートである。
図6は、画像回転装置1が実行する入力画像の画像回転処理を説明するフローチャートである。
ステップS1において、画像入力部21は、通信制御部14、または周辺機器I/F(インターフェイス)部17を介して入力された入力画像を4方向に回転させる。顔検出部22は、画像入力部21で4方向に回転された入力画像中の顔が含まれる特徴領域を検出する。
(4方向顔検出処理)
図7は、ステップS1の4方向顔検出処理の詳細を説明するフローチャートである。なお、図7の説明に当たり、図8〜図10を参照し、具体的な処理内容も説明する。
図7は、ステップS1の4方向顔検出処理の詳細を説明するフローチャートである。なお、図7の説明に当たり、図8〜図10を参照し、具体的な処理内容も説明する。
ステップS21において、画像入力部21は、入力画像を、図8(a)〜図8(d)に示すように、0度(予め規定した方向)、予め規定した方向から左に90度、予め規定した方向から左に180度、予め規定した方向から左に270度にそれぞれ回転させ、入力画像P11〜P14を得る。
本実施の形態においては、0度(何もしない)を「パターン1」の回転方向と定義し、予め規定した方向から左に90度の回転を「パターン2」の回転方向と定義し、予め規定した方向から左に180度の回転を「パターン3」の回転方向と定義し、予め規定した方向から左に270度の回転を「パターン4」の回転方向と定義する。
ステップS22において、顔検出部22は、ステップS21の処理で4方向に回転された入力画像P11〜P14を、Haar-like特徴量に変換し、予め作成した識別器に適用することで、入力画像中における顔を含む特徴領域を、それぞれ検出する。
これにより、図8(a)に示した入力画像P11からは、図9(a)に示すように、特徴領域W1〜W14が検出され、図8(b)に示した入力画像P12からは、図9(b)に示すように、特徴領域W21〜W23が検出され、図8(c)に示した入力画像P13からは、図9(c)に示すように、特徴領域W31〜W35が検出され、図8(d)に示した入力画像P14からは、図9(d)に示すように、特徴領域W41〜W44が検出される。
ステップS23において、重心推定部24は、ステップS22の処理で検出された複数の特徴領域から、Mean Shiftクラスタリングにより、領域の密度が極値となる点を推定(探索)する。これにより、正しい向きの1人の人物に対し、1つの特徴領域(顔領域)が推定される。
従って、図9(a)に示した特徴領域W1〜W14からは、図10(a)に示すように、特徴領域W51、W52が推定される。これに対し、図9(b)に示した特徴領域W21〜W23、図9(c)に示した特徴領域W31〜W35、および図9(d)に示した特徴領域W41〜W44からは、図10(b)〜図10(d)に示すように、それぞれ特徴領域は推定されない。
図6の説明に戻る。ステップS2において、第1次判定処理部25は、ステップS1の処理結果に基づいて、顔領域の向きを判定し、その判定結果に基づいて、入力画像を回転するか否かの第1次判定処理を行う。
(顔領域の第1次判定処理)
図11は、ステップS2の顔領域の第1次判定処理の詳細を説明するフローチャートである。なお、図11の説明に当たり、図12に示すような入力画像P21を用い、さらに、図13、図14を参照し、具体的な処理内容も説明する。
図11は、ステップS2の顔領域の第1次判定処理の詳細を説明するフローチャートである。なお、図11の説明に当たり、図12に示すような入力画像P21を用い、さらに、図13、図14を参照し、具体的な処理内容も説明する。
ステップS31において、第1次判定処理部25は、図6のステップS1(図7のステップS23)の処理結果に基づいて、1人の人物に対して1つに推定された顔領域の検出結果個数が最大の回転パターンを選択する。
図13は、各回転パターンにおける顔領域の検出結果例を示す図である。
図13に示すように、入力画像P21をパターン1〜パターン3の回転方向(0度、左に90度、左に180度)に回転させた場合の顔領域の検出個数は、それぞれ「0」であり、入力画像P21をパターン4の回転方向(左に270度)に回転させた場合の顔領域W61、W62の検出個数は、「2」である。従って、図13の検出結果例では、パターン4が選択される。
ステップS32において、第1次判定処理部25は、ステップS31の処理で選択した、顔領域の検出結果個数が2以上であるか否かを判定し、2以上ではない、つまり1であると判定した場合、図6のステップS3の処理に戻る。一方、第1次判定処理部25は、顔領域の検出結果個数が2以上であると判定した場合、ステップS33に進む。
ステップS33において、第1次判定処理部25は、顔領域の検出結果個数が最大となる回転パターンが複数あると判定した場合、図6のステップS3の処理に戻る。一方、ステップS33において、第1次判定処理部25は、顔領域の検出結果個数が最大となる回転パターンが、パターン1(0度)であると判定した場合、ステップS34に進み、入力画像P21に対して何も処理を行わず、図6のステップS3の処理に戻る。
ステップS33において、第1次判定処理部25は、顔領域の検出結果個数が最大となる回転パターンが、パターン2(左に90度回転)であると判定した場合、ステップS35に進み、入力画像P21を左に90度回転させた後、図6のステップS3の処理に戻る。
ステップS33において、第1次判定処理部25は、顔領域の検出結果個数が最大となる回転パターンが、パターン3(左に180度回転)であると判定した場合、ステップS36に進み、入力画像P21を左に180度回転させた後、図6のステップS3の処理に戻る。
ステップS33において、第1次判定処理部25は、顔領域の検出結果個数が最大となる回転パターンが、パターン4(左に270度回転)であると判定した場合、ステップS37に進み、入力画像P21を左に270度回転させた後、図6のステップS3の処理に戻る。
なお、図13の検出結果例では、ステップS31においてパターン4が選択されているため、ステップS37に進み、図14に示すように、入力画像P21が左に270度回転される。
図6の説明に戻る。ステップS3において、第1次判定処理部25は、処理終了であるか否か、つまり、図11のステップS34〜S37のいずれかの回転処理が行われたか否かを判定し、処理終了であると判定した場合、画像回転処理を終了する。一方、ステップS3において、第1次判定処理部25は、処理終了ではない、つまり、図11のステップS32において顔領域の検出結果個数が2以上ではないと判定された場合、または、図11のステップS33において、顔領域の検出結果個数が最大となる回転パターンが複数あると判定された場合、ステップS4に進む。
ステップS4において、第2次判定処理部26は、ステップS1の処理結果に基づいて、顔領域の向きを判定し、その判定結果に基づいて、入力画像を回転するか否かの第2次判定処理を行う。
(顔領域の第2次判定処理)
図15は、ステップS4の顔領域の第2次判定処理の詳細を説明するフローチャートである。なお、図15の説明に当たり、図16に示すような入力画像P31を用い、さらに、図17、図18を参照し、具体的な処理内容も説明する。
図15は、ステップS4の顔領域の第2次判定処理の詳細を説明するフローチャートである。なお、図15の説明に当たり、図16に示すような入力画像P31を用い、さらに、図17、図18を参照し、具体的な処理内容も説明する。
ステップS41において、第2次判定処理部26は、図6のステップS1(図7のステップS22)の処理結果に基づいて、1人の人物に対して検出された複数の顔領域の検出結果個数が最大の回転パターンを選択する。
図17は、各回転パターンにおける顔領域の検出結果例を示す図である。
図17に示すように、入力画像P31をパターン1の回転方向(0度)に回転させた場合の顔領域W71〜W73の検出個数は、「3」であり、入力画像P31をパターン2の方向(左に90度)に回転させた場合の顔領域W81〜W92(なお、図17において、顔領域W89〜W92は図示せず)の検出個数は、「12」であり、入力画像P31をパターン3の方向(左に180度)に回転させた場合の顔領域W101、W102の検出個数は、「2」であり、入力画像P31をパターン4の方向(左に270度)に回転させた場合の顔領域W111〜114の検出個数は、「4」である。従って、図17の検出結果例では、パターン2が選択される。
ステップS42において、第2次判定処理部26は、ステップS41の処理で選択した、顔領域の検出結果個数が閾値以上であるか否かを判定し、閾値以上ではないと判定した場合、図6のステップS5の処理に戻る。一方、第2次判定処理部26は、顔領域の検出結果個数が閾値以上であると判定した場合、ステップS43に進む。
ステップS43において、第2次判定処理部26は、顔領域の検出結果個数が最大となる回転パターンが複数あると判定した場合、図6のステップS5の処理に戻る。一方、ステップS43において、第2次判定処理部26は、顔領域の検出結果個数が最大となる回転パターンが、パターン1(0度)であると判定した場合、ステップS44に進み、入力画像P31に対して何も処理を行わず、図6のステップS5の処理に戻る。
ステップS43において、第2次判定処理部26は、顔領域の検出結果個数が最大となる回転パターンが、パターン2(左に90度回転)であると判定した場合、ステップS45に進み、入力画像P31を左に90度回転させた後、図6のステップS5の処理に戻る。
ステップS43において、第2次判定処理部26は、顔領域の検出結果個数が最大となる回転パターンが、パターン3(左に180度回転)であると判定した場合、ステップS46に進み、入力画像P31を左に180度回転させた後、図6のステップS5の処理に戻る。
ステップS43において、第2次判定処理部26は、顔領域の検出結果個数が最大となる回転パターンが、パターン4(左に270度回転)であると判定した場合、ステップS47に進み、入力画像P31を左に270度回転させた後、図6のステップS5の処理に戻る。
なお、図17の検出結果では、ステップS41においてパターン2が選択されているため、ステップS45に進み、図18に示すように、入力画像P31が左に90度回転される。
図6の説明に戻る。ステップS5において、第2次判定処理部26は、処理終了であるか否か、つまり、図15のステップS44〜S47のいずれかの回転処理が行われたか否かを判定し、処理終了であると判定した場合、画像回転処理を終了する。一方、ステップS5において、第2次判定処理部26は、処理終了ではない、つまり、図15のステップS42において顔領域の検出結果個数が閾値以上ではないと判定された場合、または、図15のステップS43において、顔領域の検出結果個数が最大となる回転パターンが複数あると判定された場合、ステップS6に進む。
ステップS6において、画像入力部21は、入力画像を4方向に回転させる。なお、ステップS1の処理で4方向に回転されているため、それらの入力画像を用いるようにしてもよい。人体検出部23は、画像入力部21で4方向に回転された入力画像中の人体が含まれる特徴領域を検出する。
(4方向人体検出処理)
再び、図7のフローチャートを参照して、ステップS6の4方向人体検出処理について説明する。
再び、図7のフローチャートを参照して、ステップS6の4方向人体検出処理について説明する。
ステップS21において、画像入力部21は、入力画像を、0度(予め規定した方向)、予め規定した方向から左に90度、左に180度、左に270度にそれぞれ回転させる。
ステップS22において、人体検出部23は、ステップS21の処理で4方向に回転された入力画像からHOG特徴量を算出し、予め作成した識別器に適用することで、入力画像中における人体を含む特徴領域を、それぞれ検出する。
ステップS23において、重心推定部24は、ステップS22の処理で検出された複数の特徴領域から、Mean Shiftクラスタリングにより、領域の密度が極値となる点を推定(探索)する。これにより、正しい向きの1人の人物に対し、1つの特徴領域(人体領域)が推定される。
図6の説明に戻る。ステップS7において、第1次判定処理部25は、ステップS6の処理結果に基づいて、人体領域の向きを判定し、その判定結果に基づいて、入力画像を回転するか否かの第1次判定処理を行う。
(人体領域の第1次判定処理)
再び、図11のフローチャートを参照して、ステップS7の人体領域の第1次判定処理について説明する。
再び、図11のフローチャートを参照して、ステップS7の人体領域の第1次判定処理について説明する。
ステップS31において、第1次判定処理部25は、図6のステップS6(図7のステップS23)の処理結果に基づいて、1人の人物に対して1つに推定された人体領域の検出結果個数が最大の回転パターンを選択する。
ステップS32において、第1次判定処理部25は、ステップS31の処理で選択した、人体領域の検出結果個数が2以上であるか否かを判定し、2以上ではない、つまり1であると判定した場合、図6のステップS8の処理に戻る。一方、第1次判定処理部25は、人体領域の検出結果個数が2以上であると判定した場合、ステップS33に進む。
ステップS33において、第1次判定処理部25は、人体領域の検出結果個数が最大となる回転パターンが複数あると判定した場合、図6のステップS8の処理に戻る。一方、ステップS33において、第1次判定処理部25は、人体領域の検出結果個数が最大となる回転パターンが、パターン1(0度)であると判定した場合、ステップS34に進み、入力画像に対して何も処理を行わず、図6のステップS8の処理に戻る。
ステップS33において、第1次判定処理部25は、人体領域の検出結果個数が最大となる回転パターンが、パターン2(左に90度回転)であると判定した場合、ステップS35に進み、入力画像を左に90度回転させた後、図6のステップS8の処理に戻る。
ステップS33において、第1次判定処理部25は、人体領域の検出結果個数が最大となる回転パターンが、パターン3(左に180度回転)であると判定した場合、ステップS36に進み、入力画像を左に180度回転させた後、図6のステップS8の処理に戻る。
ステップS33において、第1次判定処理部25は、人体領域の検出結果個数が最大となる回転パターンが、パターン4(左に270度回転)であると判定した場合、ステップS37に進み、入力画像を左に270度回転させた後、図6のステップS8の処理に戻る。
図6の説明に戻る。ステップS8において、第1次判定処理部25は、処理終了であるか否か、つまり、図11のステップS34〜S37のいずれかの回転処理が行われたか否かを判定し、処理終了であると判定した場合、画像回転処理を終了する。一方、ステップS7において、第1次判定処理部25は、処理終了ではない、つまり、図11のステップS32において人体領域の検出結果個数が2以上ではないと判定された場合、または、図11のステップS33において、人体領域の検出結果個数が最大となる回転パターンが複数あると判定された場合、ステップS9に進む。
ステップS9において、第2次判定処理部26は、ステップS6の処理結果に基づいて、人体領域の向きを判定し、その判定結果に基づいて、入力画像を回転するか否かの第2次判定処理を行う。
(人体領域の第2次判定処理)
再び、図15のフローチャートを参照して、ステップS9の人体領域の第2次判定処理について説明する。
再び、図15のフローチャートを参照して、ステップS9の人体領域の第2次判定処理について説明する。
ステップS41において、第2次判定処理部26は、図6のステップS6(図7のステップS22)の処理結果に基づいて、1人の人物に対して検出された複数の人体領域の検出結果個数が最大の回転パターンを選択する。
ステップS42において、第2次判定処理部26は、ステップS41の処理で選択した、人体領域の検出結果個数が閾値以上であるか否かを判定し、閾値以上ではないと判定した場合、図6のステップS10の処理に戻る。一方、第2次判定処理部26は、人体領域の検出結果個数が閾値以上であると判定した場合、ステップS43に進む。
ステップS43において、第2次判定処理部26は、人体領域の検出結果個数が最大となる回転パターンが複数あると判定した場合、図6のステップS10の処理に戻る。一方、ステップS43において、第2次判定処理部26は、人体領域の検出結果個数が最大となる回転パターンが、パターン1(0度)であると判定した場合、ステップS44に進み、入力画像に対して何も処理を行わず、図6のステップS10の処理に戻る。
ステップS43において、第2次判定処理部26は、人体領域の検出結果個数が最大となる回転パターンが、パターン2(左に90度回転)であると判定した場合、ステップS45に進み、入力画像を左に90度回転させた後、図6のステップS10の処理に戻る。
ステップS43において、第2次判定処理部26は、人体領域の検出結果個数が最大となる回転パターンが、パターン3(左に180度回転)であると判定した場合、ステップS46に進み、入力画像を左に180度回転させた後、図6のステップS10の処理に戻る。
ステップS43において、第2次判定処理部26は、人体領域の検出結果個数が最大となる回転パターンが、パターン4(左に270度回転)であると判定した場合、ステップS47に進み、入力画像を左に270度回転させた後、図6のステップS10の処理に戻る。
図6の説明に戻る。ステップS10において、第2次判定処理部26は、処理終了であるか否か、つまり、図15のステップS44〜S47のいずれかの回転処理が行われたか否かを判定し、処理終了であると判定した場合、画像回転処理を終了する。一方、ステップS10において、第2次判定処理部26は、処理終了ではない、つまり、図15のステップS42において人体領域の検出結果個数が閾値以上ではないと判定された場合、または、図15のステップS43において、人体領域の検出結果個数が最大となる回転パターンが複数あると判定された場合、ステップS11に進む。
ステップS11において、第2次判定処理部26は、顔領域の第1次判定処理および第2次判定処理、並びに、人体領域の第1次判定処理および第2次判定処理のいずれの処理でも入力画像の向きを判定することができなかったため、入力画像を対象外データ(人物が含まれていない)とする。
以上のように、顔検出部22および人体検出部23の2つの検出手段を用いることにより、撮影画像に複数の人物が写っていたり、あるいは、撮影画像にノイズがあるような場合にも画像方向を検出し、正しい向きに画像を回転させることができる。
(第1の具体例)
次に、図19〜図22を参照し、図6のステップS2の第1次判定処理で、同じ数の特徴領域が検出され、画像の向きを判定することができなかった場合に、図6のステップS4の第2次判定処理で正しく画像の向きを判定することができる場合の具体例について説明する。
次に、図19〜図22を参照し、図6のステップS2の第1次判定処理で、同じ数の特徴領域が検出され、画像の向きを判定することができなかった場合に、図6のステップS4の第2次判定処理で正しく画像の向きを判定することができる場合の具体例について説明する。
まず、画像入力部21は、図19に示すような入力画像P41を、0度(予め規定した方向)、予め規定した方向から左に90度、左に180度、左に270度にそれぞれ回転させ(図7のステップS21)、顔検出部22は、4方向に回転された入力画像中における顔を含む特徴領域をそれぞれ検出し(図7のステップS22)、重心推定部24は、顔検出部22で検出された複数の顔の特徴領域から、Mean Shiftクラスタリングにより、1つの顔領域を推定する(図7のステップS23)。次に、第1次判定処理部25は、1人の人物に対して1つに推定された顔領域の検出結果個数が最大の回転パターンを選択する(図11のステップS31)。
図20は、各回転パターンにおける顔領域の検出結果例を示す図である。
図20に示すように、入力画像P41をパターン1、パターン3の回転方向(0度、左に180度)に回転させた場合の顔領域の検出個数は、それぞれ「0」であり、入力画像P41をパターン2、パターン4の回転方向(左に90度、左に270度)に回転させた場合の顔領域W121、W131の検出個数は、それぞれ「1」である。従って、図20の検出結果例では、パターン2およびパターン4が選択される。しかしながら、第1次判定処理部25は、顔領域の検出結果個数が最大となる回転パターンが複数あると判定するため(図11のステップS33)、第2次判定処理部26の処理に移行する。
第2次判定処理部26は、4方向に回転された入力画像中における複数の顔領域の検出結果(図7のステップS22)に基づいて、1人の人物に対して検出された複数の顔領域の検出結果個数が最大の回転パターンを選択する。
図21は、各回転パターンにおける顔領域の検出結果例を示す図である。
図21に示すように、入力画像P41をパターン1の回転方向(0度)に回転させた場合の顔領域W141〜W143の検出個数は、「3」であり、入力画像41をパターン2の方向(左に90度)に回転させた場合の顔領域W151〜W162(なお、図21において、顔領域W156〜W162は図示せず)の検出個数は、「12」であり、入力画像41をパターン3の方向(左に180度)に回転させた場合の顔領域W171、W172の検出個数は、「2」であり、入力画像41をパターン4の方向(左に270度)に回転させた場合の顔領域W181〜184の検出個数は、「4」である。従って、図21の検出結果例では、パターン2が選択される。
第2次判定処理部26は、選択した顔領域の検出結果個数が閾値以上であると判定し(図15のステップS42)、その回転パターンが、パターン2(左に90度回転)であると判定するため(図15のステップS43)、図22に示すように、入力画像P41を左に90度回転させる(図15のステップS45)。
以上のように、第1次判定処理部25が、異なる回転方向の入力画像において同じ数の顔領域を検出し、画像の向きを判定することができなくなってしまった場合にも、第2次判定処理部26が、正しい顔領域を検出することで、正しい向きに画像回転することができる。
(第2の具体例)
次に、図23、図24を参照し、図6のステップS2の第1次判定処理で、Mean Shiftクラスタリング処理の影響で、誤認識された領域が最終結果となってしまった場合に、図6のステップS4の第2次判定処理で正しく画像の向きを判定することができる場合の具体例について説明する。
次に、図23、図24を参照し、図6のステップS2の第1次判定処理で、Mean Shiftクラスタリング処理の影響で、誤認識された領域が最終結果となってしまった場合に、図6のステップS4の第2次判定処理で正しく画像の向きを判定することができる場合の具体例について説明する。
第1の具体例と同様に、図19に示したような入力画像P41が4方向に回転され、4方向に回転された入力画像中における顔を含む特徴領域が検出され、Mean Shiftクラスタリングにより、1つの顔領域が推定され(図7のステップS21〜S23)、1人の人物に対して1つに推定された顔領域の検出結果個数が最大の回転パターンが選択される(図11のステップS31)。
図23は、各回転パターンにおける顔領域の検出結果例を示す図である。
図23に示すように、入力画像P41をパターン1〜パターン3の回転方向(0度、左に90度、左に180度)に回転させた場合の顔領域の検出個数は、それぞれ「0」であり、入力画像P41をパターン4の回転方向(左に270度)に回転させた場合の顔領域W191の検出個数は、「1」である。従って、図23の検出結果では、パターン4が選択される。しかしながら、第1次判定処理部25は、顔領域の検出結果個数が1であると判定するため(図11のステップS32)、第2次判定処理部26の処理に移行する。
第2次判定処理部26は、4方向に回転された入力画像中における複数の顔領域の検出結果(図7のステップS22)に基づいて、1人の人物に対して検出された複数の顔領域の検出結果個数が最大の回転パターンを選択する。
図24は、各回転パターンにおける顔領域の検出結果例を示す図である。
図24に示すように、入力画像P41をパターン1の回転方向(0度)に回転させた場合の顔領域W201〜W203の検出個数は、「3」であり、入力画像41をパターン2の方向(左に90度)に回転させた場合の顔領域W211〜W222(なお、図24において、W216〜W222は図示せず)の検出個数は、「12」であり、入力画像41をパターン3の方向(左に180度)に回転させた場合の顔領域W231、W232の検出個数は、「2」であり、入力画像41をパターン4の方向(左に270度)に回転させた場合の特徴領域W241〜243の検出個数は、「3」である。従って、図24の検出結果例では、パターン2が選択される。
第2次判定処理部26は、選択した顔領域の検出結果個数が閾値以上であると判定し(図15のステップS42)、その回転パターンが、パターン2(左に90度回転)であると判定するため(図15のステップS43)、図22に示したように、入力画像P41を左に90度回転させる(図15のステップS45)。
以上のように、第1次判定処理部25が、Mean Shiftクラスタリング処理の影響で、誤認識された領域を最終結果と判定してしまった場合にも、第2次判定処理部26が、正しい顔領域を検出することで、正しい向きに画像回転することができる。
(第3の具体例)
図25は、画像回転処理における表示例を示す図である。
図25は、画像回転処理における表示例を示す図である。
画像入力部21に入力された画像は、図25に示すように、撮影時に保存された向きのままの画像一覧画面101が表示される。図25の例では、画像一覧画面101に、画像P101〜P112が表示されており、そのうち、画像P102、画像P103、画像P106〜P112は、正しい向きで表示されていない。
ユーザは、入力部15を用いて、画像回転処理実行を指示すると、制御部11は、その指示に基づいて、図6を用いて上述したような画像回転処理を実行する。これにより、矢印A21の先に示すように、画像P102、画像P103、画像P106〜P112が正しい向きに回転され、画像一覧画面101に表示される。
[本発明の実施の形態における効果]
1.以上のように、入力画像を4方向に回転させ、4方向に回転された各入力画像に含まれる顔領域を検出することで、正しい画像の向きを判定することができる。
2.顔領域で正しい画像の向きを判定することができなかった場合、4方向に回転された各入力画像に含まれる人体領域を検出することで、正しい画像の向きを判定することができる。
1.以上のように、入力画像を4方向に回転させ、4方向に回転された各入力画像に含まれる顔領域を検出することで、正しい画像の向きを判定することができる。
2.顔領域で正しい画像の向きを判定することができなかった場合、4方向に回転された各入力画像に含まれる人体領域を検出することで、正しい画像の向きを判定することができる。
以上、添付図面を参照しながら、本発明に係る画像回転装置等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
1………画像回転装置
11………制御部
22………顔検出部
23………人体検出部
24………重心推定部
25………第1次判定処理部
26………第2次判定処理部
11………制御部
22………顔検出部
23………人体検出部
24………重心推定部
25………第1次判定処理部
26………第2次判定処理部
Claims (7)
- 入力画像を回転する画像回転装置であって、
前記入力画像を複数の方向に回転し、複数の入力画像を得る画像入力手段と、
前記複数の入力画像内の人物が含まれる領域をそれぞれ検出する検出手段と、
前記検出手段により、1人の人物に対して検出された複数の前記領域から、領域密度が極値となる人物領域を推定する推定手段と、
前記複数の入力画像のうち、前記推定手段により推定された前記人物領域の数が最も多い入力画像を選択し、選択した前記入力画像の回転方向を判定する第1の判定手段と、
前記第1の判定手段により、前記人物領域の数が最も多い入力画像を選択することができなかった場合、前記検出手段により検出された複数の前記領域の数が最も多い入力画像を選択し、選択した前記入力画像の回転方向を判定する第2の判定手段と、
前記第1の判定手段または前記第2の判定手段による判定結果に基づいて、前記入力画像を回転する画像回転手段と、
を備えることを特徴とする画像回転装置。 - 前記複数の方向は、予め規定した第1の方向、前記第1の方向から左に90度回転した第2の方向、前記第1の方向から左に180度回転した第3の方向、前記第1の方向から左に270度回転した第4の方向である
ことを特徴とする請求項1に記載の画像回転装置。 - 前記第2の判定手段は、前記第1の判定手段が、前記推定手段により推定された前記人物領域の数が1つであると判定した場合にも、前記検出手段により検出された複数の前記領域の数が最も多い入力画像を選択し、選択した前記入力画像の回転方向を判定する
ことを特徴とする請求項1または請求項2に記載の画像回転装置。 - 前記検出手段は、前記複数の入力画像内の人物の顔または人体が含まれる領域を検出する
ことを特徴とする請求項1乃至請求項3のいずれかに記載の画像回転装置。 - 前記検出手段は、Haar-like特徴量またはHOG(Histograms
of Oriented Gradient)特徴量を用い、
前記推定手段は、Mean Shiftクラスタリングを用いる
ことを特徴とする請求項1乃至請求項4のいずれかに記載の画像回転装置。 - 入力画像を回転する画像回転装置で行われる画像回転方法であって、
前記入力画像を複数の方向に回転し、複数の入力画像を得る画像入力ステップと、
前記複数の入力画像内の人物が含まれる領域をそれぞれ検出する検出ステップと、
前記検出ステップで、1人の人物に対して検出された複数の前記領域から、領域密度が極値となる人物領域を推定する推定ステップと、
前記複数の入力画像のうち、前記推定ステップで推定された前記人物領域の数が最も多い入力画像を選択し、選択した前記入力画像の回転方向を判定する第1の判定ステップと、
前記第1の判定ステップで、前記人物領域の数が最も多い入力画像を選択することができなかった場合、前記検出ステップで検出された複数の前記領域の数が最も多い入力画像を選択し、選択した前記入力画像の回転方向を判定する第2の判定ステップと、
前記第1の判定ステップまたは前記第2の判定ステップによる判定結果に基づいて、前記入力画像を回転する画像回転ステップと、
を含むことを特徴とする画像回転方法。 - コンピュータを、入力画像を回転する画像回転装置として機能させるためのプログラムであって、
コンピュータを、
前記入力画像を複数の方向に回転し、複数の入力画像を得る画像入力手段、
前記複数の入力画像内の人物が含まれる領域をそれぞれ検出する検出手段、
前記検出手段により、1人の人物に対して検出された複数の前記領域から、領域密度が極値となる人物領域を推定する推定手段、
前記複数の入力画像のうち、前記推定手段により推定された前記人物領域の数が最も多い入力画像を選択し、選択した前記入力画像の回転方向を判定する第1の判定手段、
前記第1の判定手段により、前記人物領域の数が最も多い入力画像を選択することができなかった場合、前記検出手段により検出された複数の前記領域の数が最も多い入力画像を選択し、選択した前記入力画像の回転方向を判定する第2の判定手段、
前記第1の判定手段または前記第2の判定手段による判定結果に基づいて、前記入力画像を回転する画像回転手段、
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013059427A JP6036447B2 (ja) | 2013-03-22 | 2013-03-22 | 画像回転装置、画像回転方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013059427A JP6036447B2 (ja) | 2013-03-22 | 2013-03-22 | 画像回転装置、画像回転方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014187451A JP2014187451A (ja) | 2014-10-02 |
JP6036447B2 true JP6036447B2 (ja) | 2016-11-30 |
Family
ID=51834604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013059427A Expired - Fee Related JP6036447B2 (ja) | 2013-03-22 | 2013-03-22 | 画像回転装置、画像回転方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6036447B2 (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006186930A (ja) * | 2004-12-28 | 2006-07-13 | Casio Comput Co Ltd | 撮像装置、画像処理方法及びプログラム |
JP2011119997A (ja) * | 2009-12-03 | 2011-06-16 | Sony Computer Entertainment Inc | 画像処理装置および画像処理方法 |
JP2011134045A (ja) * | 2009-12-24 | 2011-07-07 | Seiko Epson Corp | 画像処理装置 |
JP5923746B2 (ja) * | 2011-06-10 | 2016-05-25 | パナソニックIpマネジメント株式会社 | 物体検出枠表示装置及び物体検出枠表示方法 |
-
2013
- 2013-03-22 JP JP2013059427A patent/JP6036447B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014187451A (ja) | 2014-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tong et al. | Saliency detection with multi-scale superpixels | |
US9665962B2 (en) | Image distractor detection and processng | |
JP5588196B2 (ja) | 認識装置及びその制御方法、コンピュータプログラム | |
JP5591360B2 (ja) | 分類及び対象物検出の方法及び装置、撮像装置及び画像処理装置 | |
Huang et al. | Saliency and co-saliency detection by low-rank multiscale fusion | |
US9367762B2 (en) | Image processing device and method, and computer readable medium | |
CN105229697A (zh) | 多模态前景背景分割 | |
EP3518522B1 (en) | Image capturing method and device | |
Paral et al. | Vision sensor-based shoe detection for human tracking in a human–robot coexisting environment: A photometric invariant approach using DBSCAN algorithm | |
WO2014074959A1 (en) | Real-time face detection using pixel pairs | |
US20190279022A1 (en) | Object recognition method and device thereof | |
US11741685B2 (en) | Commodity identification device, non-transitory computer-readable storage medium, and learning method | |
JP2018026115A (ja) | 火炎検出方法、火炎検出装置及び電子機器 | |
CN111612822A (zh) | 对象跟踪方法、装置、计算机设备和存储介质 | |
WO2017161443A1 (en) | A method and system for tracking objects | |
US10089764B2 (en) | Variable patch shape synthesis | |
CN117615255B (zh) | 基于云台的拍摄追踪方法、装置、设备及存储介质 | |
CN108154130A (zh) | 一种目标图像的检测方法、装置及存储介质、机器人 | |
Su et al. | Camera view adjustment prediction for improving image composition | |
CN112734747A (zh) | 一种目标检测方法、装置、电子设备和存储介质 | |
CN107665495B (zh) | 对象跟踪方法及对象跟踪装置 | |
US11238309B2 (en) | Selecting keypoints in images using descriptor scores | |
JP2015069580A (ja) | 人物画像分類装置、人物画像分類方法、及び、プログラム | |
JP6036447B2 (ja) | 画像回転装置、画像回転方法、およびプログラム | |
CN113537158B (zh) | 一种图像目标检测方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6036447 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |