JP5868816B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP5868816B2
JP5868816B2 JP2012213030A JP2012213030A JP5868816B2 JP 5868816 B2 JP5868816 B2 JP 5868816B2 JP 2012213030 A JP2012213030 A JP 2012213030A JP 2012213030 A JP2012213030 A JP 2012213030A JP 5868816 B2 JP5868816 B2 JP 5868816B2
Authority
JP
Japan
Prior art keywords
image
captured
captured image
subject
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012213030A
Other languages
English (en)
Other versions
JP2014068264A (ja
JP2014068264A5 (ja
Inventor
廣美 平野
廣美 平野
ウダーナ バンダーラ
ウダーナ バンダーラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Priority to JP2012213030A priority Critical patent/JP5868816B2/ja
Priority to EP13842258.9A priority patent/EP2903256B1/en
Priority to ES13842258T priority patent/ES2811800T3/es
Priority to US14/431,304 priority patent/US10452953B2/en
Priority to PCT/JP2013/065116 priority patent/WO2014050210A1/ja
Publication of JP2014068264A publication Critical patent/JP2014068264A/ja
Publication of JP2014068264A5 publication Critical patent/JP2014068264A5/ja
Application granted granted Critical
Publication of JP5868816B2 publication Critical patent/JP5868816B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は画像処理装置、画像処理方法、及びプログラムに関する。
被写体の全周囲を撮影する方法として、被写体が中心に配置された回転台を機械的に一定の角速度で回転させながら被写体を撮影する方法が知られている(非特許文献1)。また、このような方法によって得られた撮影画像データを用いて、画面に表示された被写体をユーザが任意に回転させることができるようにしたアプリケーションプログラムも知られている(非特許文献1)。
非特許文献1で公開されているアプリケーションプログラムでは、ユーザがタッチパネル上で指をスライドさせると、スライド量に応じた数だけ撮影画像データのフレームが進んだり、戻ったりするようになっている。その結果、ユーザのスライド量に応じた角度だけ被写体が回転し、ユーザが被写体を任意の方向から見ることができるようになっている。このような技術によれば、例えば、商品を販売するウェブサイトにおいてユーザが商品を任意の方向から見ることができるようにすることが可能になる。
"The Coolest App AtSXSW-Arqball Spin". [online]. March 13, 2012. [retrieved on July 26,2012]. Retrieved from the Internet: <URL:http://erickschonfeld.com/2012/03/13/coolest-app-sxsw-arqball-spin/>.
上記技術の場合、機械的に一定の角速度で回転する回転台が必要となり、このような回転台を用意するために相当のコスト又は手間がかかってしまう。これに対し、手動で回転する回転台であれば、コストや手間を軽減できる。
しかしながら、手動で回転する回転台を用いる場合には被写体の角速度が一定にならないため、撮影画像データにおいてフレームごとの被写体の回転角度が一定にならない。その結果、このような撮影画像データをそのまま再生した場合には被写体の回転速度が一定にならない。また、このような撮影画像データを上記のアプリケーションプログラムにおいてそのまま用いた場合には、ユーザのスライド量に応じた被写体の回転角度が一定にならず、その結果、ユーザに違和感を与えてしまう場合がある。
このような不都合を解消するために、フレームごとの被写体の回転角度が略一定であるような被写体の動画像データを、一定でない角速度で回転している被写体を撮影した場合の撮影画像データに基づいて取得する技術が必要となる。
本発明は上記課題に鑑みてなされたものであって、その目的は、一定でない角速度で回転している被写体を撮影した場合の撮影画像データに基づいて、フレームごとの被写体の回転角度が略一定であるような動画像データを取得することが可能な画像処理装置、画像処理方法、及びプログラムを提供することにある。
上記課題を解決するために、本発明に係る画像処理装置は、被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得手段と、撮影画像内の特徴点を検出する特徴点検出手段と、前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得手段と、前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得手段と、前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成手段と、を含むことを特徴とする。
また、本発明に係る画像処理方法は、被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得ステップと、撮影画像内の特徴点を検出する特徴点検出ステップと、前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得ステップと、前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得ステップと、前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成ステップと、を含むことを特徴とする。
また、本発明に係るプログラムは、被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得手段、撮影画像内の特徴点を検出する特徴点検出手段、前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得手段、前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得手段、及び、前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成手段、としてコンピュータを機能させるためのプログラムである。
また、本発明に係る情報記憶媒体は上記のプログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。
また、本発明の一態様では、前記動画像データ生成手段は、前記一の撮影画像が前記動画像データのフレーム画像として選出されている場合に、前記他の撮影画像を前記動画像データのフレーム画像として選出するか否かを、前記回転角度情報と閾値との比較結果に基づいて決定するようにしてもよい。
また、本発明の一態様では、前記動画像データ生成手段は、前記一の撮影画像が前記動画像データのフレーム画像として選出されている場合において、前記回転角度情報が前記閾値以上である場合に、前記他の撮影画像と、前記他の撮影画像の一つ前に撮影された撮影画像と、の一方を前記動画像データのフレーム画像として選出するようにしてもよい。
また、本発明の一態様では、前記動画像データ生成手段は、前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報が、前記一の撮影画像の撮影時点と、前記他の撮影画像の一つ前に撮影された前記撮影画像の撮影時点と、の間の前記被写体の回転角度に関する回転角度情報よりも前記閾値に近い場合に、前記他の撮影画像を前記動画像データのフレーム画像として選出し、前記一の撮影画像の撮影時点と、前記他の撮影画像の一つ前に撮影された前記撮影画像の撮影時点と、の間の前記被写体の回転角度に関する回転角度情報が、前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報よりも前記閾値に近い場合に、前記他の撮影画像の一つ前に撮影された前記撮影画像を前記動画像データのフレーム画像として選出するようにしてもよい。
また、本発明の一態様では、前記位置情報取得手段は、前記被写体上の同一点に対応する特徴点が第1の対の撮影画像において検出された場合に、前記第1の対の撮影画像のうちの先に撮影された一の撮影画像と、前記第1の対の撮影画像のうちの後に撮影された他の撮影画像とにおける当該特徴点の位置に関する位置情報を取得し、前記回転角度情報取得手段は、前記第1の対の撮影画像のうちの前記一の撮影画像の撮影時点と、前記第1の対の撮影画像のうちの前記他の撮影画像の撮影時点と、の間の前記被写体の回転角度に関する回転角度情報を、前記第1の対の撮影画像の前記位置情報に基づいて取得し、前記位置情報取得手段は、前記被写体上の同一点に対応する特徴点が第2の対の撮影画像において検出された場合に、前記第2の対の撮影画像のうちの先に撮影された一の撮影画像と、前記第2の対の撮影画像のうちの後に撮影された他の撮影画像とにおける当該特徴点の位置に関する位置情報を取得し、前記回転角度情報取得手段は、前記第2の対の撮影画像のうちの前記一の撮影画像の撮影時点と、前記第2の対の撮影画像のうちの前記他の撮影画像の撮影時点と、の間の前記被写体の回転角度に関する回転角度情報を、前記第2の対の撮影画像の前記位置情報に基づいて取得し、前記動画像データ生成手段は、前記第1の対の撮影画像のうちの前記他の撮影画像と前記第2の対の撮影画像のうちの前記一の撮影画像とが同一である場合に、前記第1の対の撮影画像のうちの前記一の撮影画像の撮影時点と、前記第2の対の撮影画像のうちの前記他の撮影画像の撮影時点と、の間の前記被写体の回転角度に関する累積回転角度情報を、前記第1の対の撮影画像の前記回転角度情報と前記第2の対の撮影画像の前記回転角度情報とに基づいて取得する手段を含み、前記動画像データのフレーム画像を前記複数の撮影画像のうちから前記累積回転角度情報に基づいて選出するようにしてもよい。
また、本発明の一態様では、前記動画像データ生成手段は、前記第1の対の撮影画像のうちの前記一の撮影画像が前記動画像データのフレーム画像として選出されている場合に、前記第2の対の撮影画像のうちの前記他の撮影画像を前記動画像データのフレーム画像として選出するか否かを、前記累積回転角度情報と閾値との比較結果に基づいて決定するようにしてもよい。
また、本発明の一態様では、前記動画像データ生成手段は、前記第1の対の撮影画像のうちの前記一の撮影画像が前記動画像データのフレーム画像として選出されている場合において、前記累積回転角度情報が前記閾値以上である場合に、前記第2の対の撮影画像のうちの前記他の撮影画像と、前記第2の対の撮影画像のうちの前記他の撮影画像の一つ前に撮影された撮影画像と、の一方を前記動画像データのフレーム画像として選出するようにしてもよい。
また、本発明の一態様では、前記回転角度情報取得手段は、前記一の撮影画像における前記特徴点の位置と、前記他の撮影画像における前記特徴点の位置と、の差に関する位置差情報を取得する手段と、前記位置差情報に基づいて前記回転角度情報を取得する手段と、含むようにしてもよい。
また、本発明の一態様では、前記撮影画像内の、前記被写体の回転軸の位置に基づいて、前記撮影画像内の領域を観測領域として設定する手段を含み、前記回転角度情報取得手段は、前記特徴点が前記観測領域内に含まれている場合の前記位置差情報に基づいて、前記回転角度情報を取得するようにしてもよい。
また、本発明の一態様では、前記回転角度情報取得手段は、前記被写体が回転する場合の回転半径が大きい特徴点の前記位置差情報を、前記被写体が回転する場合の回転半径が小さい特徴点の前記位置差情報よりも優先的に用いて、前記回転角度情報を取得するようにしてもよい。
また、本発明の一態様では、前記回転角度情報取得手段は、前記被写体上の複数の点にそれぞれ対応する複数の特徴点が前記一の撮影画像及び前記他の撮影画像において検出される場合に、前記複数の特徴点の各々について、当該特徴点に対応する前記被写体上の点の回転半径に関する回転半径情報を取得する回転半径情報取得手段と、前記複数の特徴点の各々について、当該特徴点に対応する前記被写体上の前記点の、前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の回転角度に関する回転角度情報を、当該特徴点の前記位置差情報及び前記回転半径情報に基づいて取得する手段と、前記複数の特徴点の各々の前記回転角度情報に基づいて、前記被写体の前記回転角度情報を取得する手段と、を含むようにしてもよい。
また、本発明の一態様では、前記回転半径情報取得手段は、前記被写体上の同一点に対応する前記特徴点が少なくとも三つの撮影画像において検出される場合に、前記少なくとも三つの撮影画像における当該特徴点の位置に基づいて、当該特徴点の楕円軌道に関する楕円軌道情報を取得する手段と、前記特徴点の前記楕円軌道情報に基づいて、当該特徴点の前記回転半径情報を取得する手段と、を含むようにしてもよい。
また、本発明の一態様では、前記回転半径情報取得手段は、前記被写体上の同一点に対応する前記特徴点が第i(i:1以上の整数)の撮影画像において最初に検出され、かつ、前記第iの撮影画像よりも後に撮影された第j(j:i<jである整数)の撮影画像において最後に検出される場合に、前記第iの撮影画像における当該特徴点の位置と、前記第jの撮影画像における当該特徴点の位置と、に基づいて、当該特徴点の前記回転半径情報を取得するようにしてもよい。
また、本発明の一態様では、前記回転角度情報取得手段は、前記被写体上の同一点に対応する前記特徴点が少なくとも三つの撮影画像において検出される場合に、当該特徴点の楕円軌道に関する楕円軌道情報を取得する手段と、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置と、前記楕円軌道情報と、に基づいて、前記回転角度情報を取得する手段と、を含むようにしてもよい。
また、本発明の一態様では、前記動画像データ生成手段は、前記複数の撮影画像のうちから選出される基準撮影画像と、前記基準撮影画像の撮影時点から所定時間が経過した後に撮影された撮影画像と、の間の類似度に関する類似度情報を取得する手段と、前記基準撮影画像の撮影時点から前記所定時間が経過した後に撮影された撮影画像のうちのいずれかを、前記被写体が一回転し終えた時点における撮影画像として、前記類似度情報に基づいて選出する手段と、を含み、前記被写体が一回転し終えた時点における撮影画像として選出された撮影画像の撮影時点以前に撮影された撮影画像に基づいて、前記被写体が一回転する様子を示す前記動画像データを生成するようにしてもよい。
また、本発明の一態様では、前記動画像データ生成手段は、前記基準撮影画像の撮影時点から前記所定時間が経過した後に撮影された撮影画像において検出された特徴点のうちの、前記基準撮影画像において検出された特徴点に対応する特徴点の個数を取得する特徴点数取得手段と、前記基準撮影画像の撮影時点から前記所定時間が経過した後に撮影された複数の撮影画像のうちから、前記被写体が一回転し終えた時点における撮影画像の候補を、前記特徴点数取得手段の取得結果に基づいて選出する手段と、前記基準撮影画像と、前記候補として選出された撮影画像と、の類似度に関する類似度情報を取得する手段と、
前記候補として選出された撮影画像のうちのいずれかを、前記被写体が一回転し終えた時点における撮影画像として、前記類似度情報に基づいて選出する手段と、を含むようにしてもよい。
また、本発明の一態様では、前記複数の撮影画像は、前記第1の撮影画像〜前記第m(m:2以上の整数)の撮影画像と、前記第mの撮影画像の後に撮影された第m+1の撮影画像〜第m+n(n:1以上の整数)の撮影画像と、を含み、前記動画像データ生成手段は、前記第1の撮影画像〜前記第mの撮影画像のうちから前記動画像データのフレーム画像として選出された撮影画像の個数を取得する選出数取得手段と、前記被写体上の点に対応する特徴点が前記第m+1の撮影画像〜前記第m+nの撮影画像において検出されなかった場合に、前記第1の撮影画像〜前記第mの撮影画像の個数と、前記選出数取得手段によって取得された個数と、の比率に基づいて、前記第m+1の撮影画像〜前記第m+nの撮影画像のうちから、前記動画像データのフレーム画像を選出する手段と、を含むようにしてもよい。
また、本発明の一態様では、前記複数の撮影画像は、前記第1の撮影画像〜前記第m(m:2以上の整数)の撮影画像と、前記第mの撮影画像の後に撮影された第m+1の撮影画像〜第m+n(n:1以上の整数)の撮影画像と、を含み、前記動画像データ生成手段は、前記第m+1の撮影画像〜前記第m+nの撮影画像のうちから前記動画像データのフレーム画像として選出された撮影画像の個数を取得する選出数取得手段と、前記被写体上の点に対応する特徴点が前記第1の撮影画像〜前記第mの撮影画像において検出されなかった場合に、前記第m+1の撮影画像〜前記第m+nの撮影画像の個数と、前記選出数取得手段によって取得された個数と、の比率に基づいて、前記第1の撮影画像〜前記第mの撮影画像のうちから、前記動画像データのフレーム画像を選出する手段と、を含むようにしてもよい。
また、本発明の一態様では、前記一の撮影画像において検出された特徴点の特徴量と、前記他の撮影画像において検出された特徴点の特徴量と、が同一又は略同一であるか否かを判定する第1の判定手段と、前記一の撮影画像において検出された特徴点の位置と、前記他の撮影画像において検出された特徴点の位置との、前記被写体の回転軸に対応する軸方向の座標値の差が閾値以上であるか否かを判定する第2の判定手段と、前記第1の判定手段及び前記第2の判定手段の判定結果に基づいて、前記一の撮影画像において検出された特徴点と、前記他の撮影画像において検出された特徴点と、が前記被写体上の同一点に対応する特徴点であるか否かを判定する手段と、を含むようにしてもよい。
また、本発明の一態様では、前記一の撮影画像において検出された特徴点の特徴量と、前記他の撮影画像において検出された特徴点の特徴量と、が同一又は略同一であるか否かを判定する判定手段と、前記一の撮影画像及び前記他の撮影画像の両方における特徴量が同一又は略同一である一の特徴点と、前記一の撮影画像及び前記他の撮影画像の両方における特徴量が同一又は略同一である他の特徴点と、が検出された場合、(a)前記一の撮影画像における前記一の特徴点の位置と、前記他の撮影画像における前記一の特徴点の位置との、前記被写体の回転軸に対応する第1の軸と直交する第2の軸方向の座標値の差に関する情報と、(b)前記一の撮影画像における前記他の特徴点の位置と、前記他の撮影画像における前記他の特徴点の位置との、前記第2の軸方向の座標値の差に関する情報と、を比較する比較手段と、前記判定手段の判定結果及び前記比較手段の比較結果に基づいて、前記一の撮影画像において検出された特徴点と、前記他の撮影画像において検出された特徴点と、が前記被写体上の同一点に対応する特徴点であるか否かを判定する手段と、を含むようにしてもよい。
また、本発明の一態様では、前記撮影画像取得手段は、前記被写体が複数回回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得し、前記動画像データ生成手段は、前記被写体が複数回回転している間に前記被写体を繰り返し撮影することによって得られた前記複数の撮影画像に基づいて、前記被写体が一回転する様子を示す前記動画像データを生成するようにしてもよい。
本発明によれば、一定でない角速度で回転している被写体を撮影した場合の撮影画像データに基づいて、フレームごとの被写体の回転角度が略一定であるような動画像データを取得することが可能になる。
本発明の実施形態に係る画像処理装置のハードウェア構成の一例を示す図である。 商品の撮影方法について説明するための図である。 商品の撮影方法について説明するための図である。 商品の動画像データの生成方法の概要について説明するための図である。 画像処理装置で実現される機能について示す機能ブロック図である。 特徴点検出部によって検出される特徴点の一例を示す図である。 商品の同一点に対応する特徴点の軌道の一例を示す図である。 一の撮影画像と他の撮影画像とにおいて検出される特徴点の一例を示す図である。 回転角度情報の取得方法について説明するための図である Sin関数について示す図である。 観測領域の設定方法について説明するための図である。 観測領域の設定方法について説明するための図である。 フレーム画像の選出方法の一例について説明するための図である。 フレーム画像の選出方法の他の一例について説明するための図である。 フレーム画像の選出方法の他の一例について説明するための図である。 画像処理装置で実行される処理の一例を示すフロー図である。 画像処理装置で実行される処理の一例を示すフロー図である。 画像処理装置で実行される処理の概要について説明するための図である。 画像処理装置で実行される処理の詳細を示すフロー図である。 画像処理装置で実行される処理の他の一例を示すフロー図である。 画像処理装置で実行される処理の他の一例を示すフロー図である。 変形例について説明するための図である。 他の変形例について説明するための図である。
以下、本発明の実施形態の例について図面に基づき詳細に説明する。
図1は本発明の実施形態に係る画像処理装置のハードウェア構成の一例を示す。本実施形態に係る画像処理装置10は、例えば、パーソナルコンピュータ、サーバコンピュータ、携帯電話(スマートフォンを含む)、又は携帯情報端末(タブレット型コンピュータを含む)によって実現される。
図1に示すように、画像処理装置10は制御部11、記憶部12、光ディスクドライブ部13、通信部14、操作部15、表示部16、及び音声出力部17を含む。
制御部11は例えば1又は複数のマイクロプロセッサを含み、記憶部12に記憶されたオペレーティングシステム又はプログラムに従って処理を実行する。記憶部12は、RAM等の主記憶部と、ハードディスク又はソリッドステートドライブ等の補助記憶部とを含む。
光ディスクドライブ部13は、光ディスク(情報記憶媒体)に記憶されたプログラムやデータを読み取る。プログラムやデータは光ディスクを介して記憶部12に供給される。すなわち、光ディスクに記憶されたプログラムやデータが読み出され、記憶部12に記憶される。なお、光ディスクドライブ部13は必須の構成要素ではない。光ディスク以外の情報記憶媒体(例えばメモリカード)に記憶されたプログラム又はデータを読み取るための構成要素が画像処理装置10に含まれるようにしてもよい。そして、光ディスク以外の情報記憶媒体を介してプログラムやデータが記憶部12に供給されるようにしてもよい。
通信部14は画像処理装置10を通信ネットワークに接続するためのインタフェースである。画像処理装置10は通信ネットワークを介して他の装置とデータを授受できるようになっている。なお、プログラム及びデータが通信ネットワークを介して記憶部12に供給されるようにしてもよい。
操作部15はユーザが操作を行うためのものである。操作部15は例えばキーボード又はポインティングデバイス等を含む。表示部16は例えば液晶表示ディスプレイ又は有機ELディスプレイ等であり、音声出力部17は例えばスピーカ又はヘッドホン等である。
以下、一定でない角速度で回転している被写体を撮影した場合の撮影画像データに基づいて、フレームごとの被写体の回転角度が略一定であるような動画像データを生成するための技術について説明する。なお、以下では、商品の動画像データを生成する場合について説明する。ただし、本発明は商品以外の被写体の動画像データを生成する場合にも適用することができる。
まず、商品の撮影方法について説明する。図2及び図3は商品の撮影方法について説明するための図である。図2に示すように、商品30(図2に示す例では招き猫)を撮影する場合には商品30を回転台20の上に配置する。
回転台20は厚板22、厚紙24、及び画鋲28を含んで構成されている。厚板22は画鋲28を刺しても問題がないような板であり、厚板22には厚紙24が画鋲28で止められている。なお、画鋲28は厚紙24の中心26に刺さっている。
商品30は厚紙24の中央に配置される。商品30の中心軸が厚紙の中心26と一致するようにして商品30は配置される。厚紙24は画鋲28を回転軸32として回転可能になっており、撮影者が厚紙24を手で回転させると、厚紙24上に配置された商品30が回転軸32周りに回転する。
図3に示すように、商品30を撮影するための撮影装置34が、回転台20上に配置された商品30を撮影可能な位置に固定される。図3に示す例では、回転台20の前方であって、かつ、商品30よりもやや上方に撮影装置34が配置されている。
撮影装置34はデジタルビデオカメラを含んで構成され、静止画像及び動画像を撮影可能である。例えば、単体のデジタルビデオカメラや、携帯電話等に内蔵されたデジタルビデオカメラが撮影装置34として用いられる。例えば、画像処理装置10に内蔵されたデジタルビデオカメラが撮影装置34として用いられるようにしてもよい。なお、静止画像のみを撮影可能なデジタルカメラが撮影装置34として用いられるようにしてもよい。
例えば、撮影装置34による撮影は所定時間(例えば1/30秒)ごとに行われる。すなわち、1秒ごとのフレーム数が所定数(例えば30)である動画像が撮影装置34によって撮影される。
撮影者は、撮影装置34による撮影を開始するとともに、商品30が配置された厚紙24を反時計回り(又は時計回り)に回転させる。例えば、撮影者は人差し指及び中指で交互に厚紙24を回転させる。この場合、回転している商品30の動画像が撮影装置34によって撮影される。この動画像は記憶媒体又は通信ネットワークを介して画像処理装置10の記憶部12に記憶される。この動画像は画像処理装置10以外の装置に記憶されるようにしてもよい。
なお、撮影者は、商品30の動画像を撮影する代わりに、商品30が回転している間に商品30の静止画像を連写するようにしてもよい。このようにして得られる静止画像群を上記の動画像の代わりに用いるようにしてもよい。
以下では、撮影装置34によって撮影された動画像又は静止画像群のことを「撮影画像データ」と呼ぶ。また、撮影画像データに含まれる個々の画像のことを「撮影画像」と呼ぶ。例えば、撮影装置34によって撮影された動画像が撮影画像データである場合、動画像の個々のフレーム画像が「撮影画像」に相当する。また例えば、撮影装置34によって撮影された静止画像群が撮影画像データである場合、個々の静止画像が「撮影画像」に相当する。
また以下では、撮影画像データに基づいて生成すべき商品30の動画像データ、すなわち、フレームごとの商品30の回転角度が略一定であるような動画像データのことを単に「動画像データ」と呼ぶ。
次に、上記のような撮影画像データに基づいて、フレームごとの商品30の回転角度が略一定であるような動画像データを生成するための方法について説明する。図4は、動画像データの生成方法の概要について説明するための図である。
図4において、撮影画像データに含まれる複数の撮影画像40の上方に付されている数字は画像番号を示す。画像番号は撮影画像が撮影された順序を示す。撮影画像データが動画像である場合、画像番号は当該動画像のフレーム番号に相当する。一方、撮影画像データが静止画像群である場合、画像番号は何枚目に撮影された静止画像であるのかを示す。なお、以下では、画像番号が「i」である撮影画像40、すなわち第i番目の撮影画像40のことを撮影画像[i]と記載する。
また図4において、動画像データに含まれる複数のフレーム画像42の上方に付されている数字はフレーム番号を示す。なお、以下では、フレーム番号が「j」であるフレーム画像42、すなわち第j番目のフレーム画像42のことをフレーム画像[j]と記載する。
図4に示すように、画像処理装置10では、動画像データを構成する各フレーム画像42を複数の撮影画像40のうちから選出することによって、動画像データを生成する。
特に画像処理装置10では、隣接するフレーム画像42間の商品30の回転角度(Δθ)が略一定となるように、各フレーム画像42を選出する。
すなわち、フレーム画像42に写っている商品30の代表方向(例えば正面方向)と、当該フレーム画像42の次のフレーム画像42に写っている商品30の代表方向との間の角度(Δθ)が略一定となるように、各フレーム画像42を選出する。
さらに言い換えれば、フレーム画像42として選出される撮影画像40の撮影時点と、当該フレーム画像42の次のフレーム画像42として選出される撮影画像40の撮影時点との間における商品30の回転角度(Δθ)が略一定となるように、各フレーム画像42を選出する。
図4に示す例では、撮影画像[1]がフレーム画像[1]として選出されている。撮影画像[4]がフレーム画像[2]として選出されている。撮影画像[6]がフレーム画像[3]として選出されている。
次に、上記のような生成方法を実現するための構成について説明する。図5は、画像処理装置10で実現される機能について示す機能ブロック図である。
図5に示すように、画像処理装置10は撮影画像取得部50、特徴点検出部52、位置情報取得部54、回転角度情報取得部56、及び動画像データ生成部58を含む。これらの機能ブロックは例えば制御部11によって実現される。すなわち、制御部11がプログラムに従って処理を実行することによって、制御部11が上記機能ブロックとして機能するようになる。
撮影画像取得部50について説明する。撮影画像取得部50は、被写体が回転している間に被写体を繰り返し撮影することによって得られた複数の撮影画像40を取得する。以上に説明した例の場合、商品30が「被写体」に相当する。
すなわち、撮影画像取得部50は記憶部12に記憶された撮影画像データを読み出す。なお、撮影画像データは画像処理装置10以外の装置に記憶されていてもよい。つまり、撮影画像取得部50は、画像処理装置10以外の装置に記憶された撮影画像データを通信ネットワークを介して取得するようにしてもよい。
特徴点検出部52及び位置情報取得部54について説明する。特徴点検出部52は撮影画像40内の特徴点を検出する。位置情報取得部54は、被写体上の同一点に対応する特徴点が対の撮影画像40において検出された場合に、当該対の撮影画像40のうちの先に撮影された一の撮影画像40と、当該対の撮影画像40のうちの後に撮影された他の撮影画像40とにおける当該特徴点の位置に関する位置情報を取得する。
例えば、特徴点検出部52は、特徴点を検出するための公知のアルゴリズムを用いて、撮影画像40内の特徴点の位置及び特徴量を取得する。例えば、上記アルゴリズムとしては、SURF(Speed-Up Robust Features)アルゴリズムを用いることが可能である。なお、SURFアルゴリズム以外のアルゴリズムを用いることも可能である。例えば、SIFT(Scale-Invariant Feature Transform)アルゴリズム又はBrisk(Binary Robust Invariant Scalable Keypoints)アルゴリズムを用いることも可能である。
後述するように、特徴点は、商品30の回転角度に関する情報を取得するために用いられる。このため、商品30が写っている領域以外の領域(以下「背景領域」と記載する。)に含まれる特徴点は不要である。したがって、特徴点検出部52は背景領域内の特徴点を無視するようにしてもよい。
例えば、特徴点検出部52は、連続する二つの撮影画像40の差分画像を取得する。撮影画像40は、回転している商品30を撮影した画像であるため、撮影画像40の背景領域は基本的に変化しない。このため、特徴点検出部52は、差分画像において画素値が零である領域を背景領域とみなし、この領域に含まれる特徴点を取り除く。すなわち、上記領域に含まれる特徴点は位置情報取得部54及び回転角度情報取得部56において考慮されない。
図6は特徴点検出部52によって検出される特徴点の一例を示す図である。図6では、招き猫の鼻部分に対応する特徴点60が検出されている。実際には、一つの撮影画像40において複数の特徴点60が検出されるが、図6では省略している。特徴点60の位置は、例えば、撮影画像40の左上頂点を原点Oとし、右方向及び下方向をX軸正方向及びY軸正方向とするようなX−Y座標系の座標値によって表される。
例えば、招き猫の鼻部分に対応する特徴点60は、招き猫の鼻部分が写っている複数の撮影画像40の各々において検出される。すなわち、商品30の同一点に対応する特徴点60は複数の撮影画像40において検出される。
図7は商品30の同一点に対応する特徴点60の軌道の一例を示す。例えば、図7は、招き猫の鼻部分に対応する特徴点60の軌道70を示している。図3に説明した例では撮影装置34が回転台20の前方であって、かつ、商品30よりもやや上方に配置されているため、図7に示すように特徴点60の軌道70は楕円軌道になる。
なお、原則として、招き猫の鼻部分に対応する特徴点60の特徴量はいずれの撮影画像40においても同一である。すなわち、商品30の同一点に対応する特徴点60は複数の撮影画像40において検出され得るが、原則として、商品30の同一点に対応する特徴点60の特徴量は複数の撮影画像40の各々において同一である。
そこで、特徴点検出部52(第1の判定手段)は、一の撮影画像40で検出された特徴点60の特徴量と、他の撮影画像40で検出された特徴点60の特徴量と、が同一又は略同一であるか否かを判定する。なお、これらの特徴点60の特徴量の差が閾値以下である場合に、特徴点検出部52はこれらの特徴点60の特徴量が略同一であると判定する。これらの特徴点60の特徴量が同一又は略同一である場合に、特徴点検出部52は、これらの特徴点60は商品30の同一点に対応する特徴点60であると判定する。
ところで、商品30は回転軸32周りに回転し、かつ、Y軸は回転軸32に対応する軸であるため、商品30の同一点に対応する特徴点60のY軸座標値が大きく変化することはない。
そこで、特徴点検出部52(第2の判定手段)は、一の撮影画像40で検出された特徴点60のY軸座標値と、他の撮影画像40で検出された特徴点60のY軸座標値と、の差が閾値以上であるか否かを判定する。そして、これらの特徴点60のY軸座標値の差が閾値以上である場合には、これらの特徴点60の特徴量が同一又は略同一であったとしても、特徴点検出部52は、これらの特徴点60は商品30の同一点に対応する特徴点60ではないと判定する。
また、商品30の複数の同一点にそれぞれ対応する複数の特徴点60が一の撮影画像40と他の撮影画像40とにおいて検出された場合、それら複数の特徴点60の各々のX軸座標値の変化量は略等しくなり、大きく異なることはない。
そこで、例えば図8に示すように、一の撮影画像40及び他の撮影画像40の両方における特徴量が同一又は略同一である特徴点60Aと、一の撮影画像40及び他の撮影画像40の両方における特徴量が同一又は略同一である特徴点60Bと、一の撮影画像40及び他の撮影画像40の両方における特徴量が同一又は略同一である特徴点60Cと、一の撮影画像40及び他の撮影画像40の両方における特徴量が同一又は略同一である特徴点60Dとが検出された場合、特徴点検出部52(比較手段)は、特徴点60DのX軸座標値の変化量と、他の特徴点60A〜60CのX軸座標値の変化量と、を比較する。
図8に示す例では、特徴点60A〜60CのX軸座標値の変化量は略等しく、特徴点60DのX軸座標値の変化量は特徴点60A〜60Cに比べて大きくなっている。このように特徴点60DのX軸座標値の変化量が他の特徴点60A〜60CのX軸座標値の変化量と大きく異なっている場合、特徴点検出部52は、特徴点60Dは商品30の同一点に対応する特徴点60ではないと判定する。すなわち、特徴点検出部52は、X軸座標値の変化量の偏差の絶対値が閾値よりも大きいような特徴点60Dを、商品30の同一点に対応する特徴点60ではないと判定する。
回転角度情報取得部56について説明する。回転角度情報取得部56は、一の撮影画像40の撮影時点と他の撮影画像40の撮影時点との間における被写体の回転角度に関する回転角度情報を、位置情報取得部54によって取得された位置情報に基づいて取得する。
例えば、「回転角度情報」とは、回転角度そのものを示す数値情報であってもよいし、回転角度そのものを示す数値情報ではないが、回転角度と比例関係にあるような数値情報であってもよい。すなわち、「回転角度情報」とは、回転角度の大きさを直接的に示す数値情報であってもよいし、回転角度の大きさを間接的に示す数値情報であってもよい。
図9は、回転角度情報の取得方法について説明するための図であり、商品30の回転角度と特徴点60のX座標値の変化との関係について説明するための図である。図9は、回転台20に配置されている商品30を真上から見下ろしたような場合を示している。
商品30が回転軸32周りに回転した場合、商品30上の点30Aの軌道80は回転軸32を中心とする円軌道となる。なお、以下では円軌道の半径を「r」と記載する。
例えば、商品30が回転角度θだけ回転した場合の商品30上の点30Aに対応する特徴点60のX軸座標値の変化量xは下記式(1)によって表される。すなわち、xはrとsinθとの乗算値となる。同様に、商品30が回転角度θだけ回転した場合の商品30上の点30Aに対応する特徴点60のX軸座標値の変化量xは下記式(2)によって表される。すなわち、xはrとsinθとの乗算値となる。
Figure 0005868816
ところで、Sin関数は図10に示すようになるため、角度θが零又は零の近傍値である近傍領域90では、Sin関数は直線近似することができる。このため、上記式(1)及び(2)は比例定数aを用いて下記式(3)及び(4)のように近似することができる。さらに、下記式(3)及び(4)より、x,x,θ,θの関係は下記式(5)のようになる。
Figure 0005868816
また、x,θは下記式(6)及び(7)のように表すことができる。
Figure 0005868816
上記式(5)は下記式(8)のように変形することができる。また、下記式(8)は下記式(9)のように整理することができる。さらに、上記式(3)より、下記式(9)は下記式(10)のように変形することができる。そして、下記式(10)より下記式(11)を得ることができる。
Figure 0005868816
上記式(11)は、角度の変化(Δθ)がX軸座標値の変化(Δx)に比例することを示している。したがって、商品30が回転した場合の回転角度(Δθ)は、商品30上の点30Aに対応する特徴点60のX軸座標値の変化量(Δx)と比例関係を有する。
ところで、上記式(11)における半径rは、原則として、商品30上の各点ごとに異なる。しかしながら、商品30の形状が円柱形状である場合、上記半径rは商品30上の各点ごとに異ならず、略同一となる。このため、商品30の形状が円柱形状であると仮定すると、上記式(11)における半径rは無視できるようになり、その結果、特徴点60のX軸座標値の変化量を、商品30の回転角度の大きさを示す数値として用いることができる。
以上を踏まえて、回転角度情報取得部56の機能の詳細について説明する。
回転角度情報取得部56は、撮影画像40における回転軸32の位置に基づいて、撮影画像40内に観測領域を設定する。この観測領域は図10に示す近傍領域90に対応する領域である。図11及び図12は観測領域の設定方法について説明するための図である。
まず、回転角度情報取得部56は、すべての撮影画像40における特徴点60のうちから、X軸座標値が最小である特徴点60と、X軸座標値が最大である特徴点60とを抽出する。なお、この場合、背景領域に含まれる特徴点60は無視される。
図11では、X軸座標値が最小である特徴点60のX軸座標値を「Xmin」と記載し、X軸座標値が最大である特徴点60のX軸座標値を「Xmax」と記載している。回転角度情報取得部56は、X軸座標値がXmin≦x≦Xmaxを満足する領域を、特徴点60が存在し得る領域(以下「存在領域」と記載する。)100とみなす。
次に、回転角度情報取得部56は、撮影画像40内における回転軸32の位置を存在領域100に基づいて取得する。例えば図11に示すように、回転角度情報取得部56は、存在領域100を左右方向に均等に分割する直線102を、回転軸32に対応する直線とみなす。すなわち、回転角度情報取得部56は、Xmin及びXmaxの中間値((Xmin+Xmax)/2)を通り、かつ、Y軸と平行な直線102を、回転軸32に対応する直線とみなす。
なお、回転角度情報取得部56は、すべての撮影画像40の各々において、被写体(商品30)が写っている被写体領域を取得するようにしてもよい。そして、回転角度情報取得部56は、それら被写体領域の和集合領域を左右に均等に分割する直線を、回転軸32に対応する直線とみなすようにしてもよい。
上記のようにして得られた直線102に基づいて、回転角度情報取得部56は観測領域を設定する。例えば図12に示すように、回転角度情報取得部56は、上記直線102を中心とする幅dの矩形領域を観測領域110として設定する。この場合、幅dは存在領域100の幅wよりも小さい値に設定される。
後述するように、回転角度情報取得部56は、回転角度情報を取得するために、観測領域110内に含まれる特徴点60のみを用いる。このため、幅dの値が小さすぎると、観測領域110内に含まれる特徴点60の数が少なくなるため、回転角度情報の精度が低くなってしまうおそれがある。一方、幅dの値が大きすぎると、観測領域110が図10における近傍領域90に対応しなくなるおそれがある。この場合、Sin関数を直線近似することが可能であるという前提が成立しなくなってしまい、その結果として、回転角度情報の精度が低くなってしまうおそれがある。例えば、幅dの値は存在領域100の幅(w)の1/3程度の値に設定するのが好ましい。
商品30上の同一点に対応する特徴点60が一の撮影画像40及び他の撮影画像40の両方の観測領域110において検出された場合、回転角度情報取得部56は、一の撮影画像40における特徴点60の位置と、他の撮影画像40における特徴点60の位置と、の差に関する位置差情報を取得する。
例えば、回転角度情報取得部56は、上記の位置差情報として、X軸座標値の差に関する情報を取得する。先述のように、X軸は、回転軸32に対応するY軸と直交する軸である。
回転角度情報取得部56は上記位置差情報に基づいて回転角度情報を取得する。
例えば、商品30上の複数の同一点にそれぞれ対応する複数の特徴点60が一の撮影画像40及び他の撮影画像40の両方の観測領域110において検出された場合、回転角度情報取得部56は、それら複数の特徴点60の各々について、一の撮影画像40と他の撮影画像40との間のX軸座標値の変化量を算出する。そして、回転角度情報取得部56は、上記複数の特徴点60の各々の上記変化量の統計値(例えば平均値)を算出する。この場合、この数値が上記回転角度情報として用いられる。
あるいは、回転角度情報取得部56は、一の撮影画像40における上記複数の特徴点60の重心位置を算出するようにしてもよい。また、回転角度情報取得部56は、他の撮影画像40における上記複数の特徴点60の重心位置も算出するようにしてもよい。そして、回転角度情報取得部56はそれらの重心位置の間のX軸座標値の差を算出するようにしてもよい。この場合、この数値が上記回転角度情報として用いられる。
なお、上記数値は、回転角度の大きさを示す数値に相当しているが、回転角度そのものを示す数値ではない。このため、以下では、上記数値のことを便宜上「擬似回転角度」と呼ぶ。
動画像データ生成部58について説明する。動画像データ生成部58は、被写体が回転する様子を示す動画像データの各フレーム画像42を、複数の撮影画像40のうちから、位置情報取得部54によって取得された位置情報に基づいて選出することによって、動画像データを生成する。
例えば、動画像データ生成部58は、商品30が回転する様子を示す動画像データの各フレーム画像42を、撮影画像データに含まれる複数の撮影画像40のうちから、回転角度情報取得部56によって取得された回転角度情報に基づいて選出する。
具体的には、動画像データ生成部58は、フレーム画像42間の商品30の回転角度が略一定になるようにして各フレーム画像42を選出する。
図13はフレーム画像42の選出方法の一例について説明するための図である。なお図13において、例えば、Δθ1,2は撮影画像[1]と撮影画像[2]との間の擬似回転角度を示す。すなわち、Δθ1,2は撮影画像[1]の撮影時点から撮影画像[2]の撮影時点までの間の商品30の擬似回転角度を示す。例えば、商品30上の複数の同一点にそれぞれ対応する複数の特徴点60が撮影画像[1]及び撮影画像[2]の両方の観測領域110において検出された場合、撮影画像[1]及び撮影画像[2]の間におけるそれら複数の特徴点60のX軸座標値の変化量の平均値がΔθ1,2に相当する。
まず、動画像データ生成部58はフレーム画像[1]を選出する。例えば、動画像データ生成部58は撮影画像[1]をフレーム画像[1]として選出する。
次に、動画像データ生成部58はフレーム画像[2]を選出する。まず、動画像データ生成部58は、直前のフレーム画像[1]として選出された撮影画像[1]の次の撮影画像[2]をフレーム画像[2]として選出すべきか否かを判定する。
この場合、動画像データ生成部58は、撮影画像[1]と撮影画像[2]との間の擬似回転角度Δθ1,2と閾値θとを比較する。すなわち、動画像データ生成部58は、撮影画像[1]と撮影画像[2]との間の擬似回転角度Δθ1,2が閾値θ以上であるか否かを判定する。なお、閾値θはフレーム画像42間の擬似回転角度として適切な擬似回転角度であり、予め設定される。
仮に、擬似回転角度Δθ1,2が閾値θ以上である場合、動画像データ生成部58は撮影画像[2]をフレーム画像[2]として選出する。一方、図13に示すように、擬似回転角度Δθ1,2が閾値θ未満である場合、動画像データ生成部58は撮影画像[2]をフレーム画像[2]として選出しない。
撮影画像[2]がフレーム画像[2]として選出されなかった場合、動画像データ生成部58は次の撮影画像[3]をフレーム画像[2]として選出すべきか否かを判定する。
この場合、動画像データ生成部58は、直前のフレーム画像[1]として選出された撮影画像[1]から撮影画像[3]までの間の累積擬似回転角度と閾値θとを比較する。すなわち、動画像データ生成部58は、撮影画像[1],[2]間の擬似回転角度Δθ1,2と撮影画像[2],[3]間の擬似回転角度Δθ2,3との和が閾値θ以上であるか否かを判定する。なおこの場合、この和は、撮影画像[1]の撮影時点から撮影画像[3]の撮影時点までの間の商品30の回転角度の大きさを示す数値に相当している。
仮に、擬似回転角度Δθ1,2,Δθ2,3の和が閾値θ以上である場合、動画像データ生成部58は撮影画像[3]をフレーム画像[2]として選出する。一方、図13に示すように、擬似回転角度Δθ1,2,Δθ2,3の和が閾値θ未満である場合、動画像データ生成部58は撮影画像[3]をフレーム画像[2]として選出しない。
撮影画像[3]がフレーム画像[2]として選出されなかった場合、動画像データ生成部58は次の撮影画像[4]をフレーム画像[2]として選出すべきか否かを判定する。
この場合、動画像データ生成部58は、直前のフレーム画像[1]として選出された撮影画像[1]から撮影画像[4]までの間の累積擬似回転角度が閾値θ以上であるか否かを判定する。すなわち、動画像データ生成部58は、撮影画像[1],[2]間の擬似回転角度Δθ1,2と、撮影画像[2],[3]間の擬似回転角度Δθ2,3と、撮影画像[3],[4]間の擬似回転角度Δθ3,4との和が閾値θ以上であるか否かを判定する。なおこの場合、この和は、撮影画像[1]の撮影時点から撮影画像[4]の撮影時点までの間の商品30の回転角度の大きさを示す数値に相当している。
図13に示すように、擬似回転角度Δθ1,2,Δθ2,3,Δθ3,4の和が閾値θ以上である場合、動画像データ生成部58は撮影画像[4]をフレーム画像[2]として選出する。
フレーム画像[2]が選出された後、動画像データ生成部58はフレーム[3]を選出する。まず、動画像データ生成部58は、直前のフレーム画像[2]として選出された撮影画像[4]の次の撮影画像[5]をフレーム画像[3]として選出すべきか否かを判定する。
この場合、動画像データ生成部58は、撮影画像[4]と撮影画像[5]との間の擬似回転角度Δθ4,5が閾値θ以上であるか否かを判定する。仮に、擬似回転角度Δθ4,5が閾値θ以上である場合、動画像データ生成部58は撮影画像[5]をフレーム画像[3]として選出する。一方、図13に示すように、擬似回転角度Δθ4,5が閾値θ未満である場合、動画像データ生成部58は撮影画像[5]をフレーム画像[3]として選出しない。
撮影画像[5]がフレーム画像[3]として選出されなかった場合、動画像データ生成部58は次の撮影画像[6]をフレーム画像[3]として選出すべきか否かを判定する。
この場合、動画像データ生成部58は、直前のフレーム画像[2]として選出された撮影画像[4]から撮影画像[6]までの間の累積擬似回転角度が閾値θ以上であるか否かを判定する。すなわち、動画像データ生成部58は、撮影画像[4],[5]間の擬似回転角度Δθ4,5と、撮影画像[5],[6]間の擬似回転角度Δθ5,6との和が閾値θ以上であるか否かを判定する。
図13に示すように、擬似回転角度Δθ4,5,Δθ5,6の和が閾値θ以上である場合、動画像データ生成部58は撮影画像[6]をフレーム画像[3]として選出する。
以上のように、撮影画像[i]がフレーム画像[j]として選出された場合、動画像データ生成部58は、撮影画像[i+1]をフレーム画像[j+1]として選出すべきか否かを判定するために、撮影画像[i]から撮影画像[i+1]までの間の累積擬似回転角度が閾値θ以上であるか否かを判定する。
そして、上記累積擬似回転角度が閾値θ以上である場合、動画像データ生成部58は撮影画像[i+1]をフレーム画像[j+1]として選出する。一方、上記累積擬似回転角度が閾値θ未満である場合、動画像データ生成部58は撮影画像[i+1]をフレーム画像[j+1]として選出しない。この場合、動画像データ生成部58は、撮影画像[i+2]をフレーム画像[j+1]として選出すべきか否かを判定するために、撮影画像[i]から撮影画像[i+2]までの間の累積擬似回転角度が閾値θ以上であるか否かを判定する。
このようにして、動画像データ生成部58は、撮影画像[i]との間の累積擬似回転角度が閾値θ以上となる最初の撮影画像40を探す。例えば、撮影画像[i]から撮影画像[i+k](k:1以上の整数)までの間の累積擬似回転角度が閾値θ以上である場合、動画像データ生成部58は撮影画像[i+k]をフレーム画像[j+1]として選出する。
以上に説明したようにして、動画像データ生成部58は動画像データの各フレーム画像42を選出する。
なお、フレーム画像42の選出方法は図13に示す例に限られない。ここで、フレーム画像42の選出方法の他の例について説明する。
まず、一つ目の例について説明する。図14は一つ目の例について説明するための図である。ここでは、撮影画像[i]がフレーム画像[j]として選出された後において、撮影画像[i+1]がフレーム画像[j+1]として選出されなかった場合に、撮影画像[i+k](k:2以上の整数)をフレーム画像[j+1]として選出するか否かを判定する場合を想定する。
このような場合、図13に示す選出方法では、直前のフレーム画像[j]として選出された撮影画像[i]から撮影画像[i+k]までの間の累積擬似回転角度が閾値θ以上であるか否かを判定するようになっていた。すなわち、図13に示す選出方法では、撮影画像[i]から撮影画像[i+k]までの間の累積擬似回転角度Δθi,i+1+・・・+Δθi−k−1,i+kが閾値θ以上であるか否かを判定するようになっていた。
これに対し、図14に示す選出方法では、撮影画像[i]と撮影画像[i+k]との間において、商品30の同一点に対応する特徴点60のX軸座標値の変化量を算出し、この変化量に基づいて、撮影画像[i]と撮影画像[i+k]との間の擬似回転角度Δθi,i+kを算出する。
すなわち、例えば、商品30上の複数の同一点にそれぞれ対応する複数の特徴点60が撮影画像[i]及び撮影画像[i+k]の両方の観測領域110で検出された場合、それら複数の特徴点60のX軸座標値の変化量の平均値を擬似回転角度Δθi,i+kとして算出し、この擬似回転角度Δθi,i+kが閾値θ以上であるか否かを判定する。
二つ目の例について説明する。ここでも、撮影画像[i]がフレーム画像[j]として選出された後において、撮影画像[i+k]をフレーム画像[j+1]として選出するか否かを判定する場合を想定する。
このような場合、最初のフレーム画像[1]として選出された撮影画像[1]と撮影画像[i+k]との間の累積擬似回転角度(又は擬似回転角度θ1,i+k)がθ*j以上であるか否かを判定するようにしてもよい。そして、上記累積擬似回転角度(又は上記擬似回転角度θ1,i+k)がθ*j以上である場合、撮影画像[i+k]をフレーム画像[j+1]として選出するようにしてもよい。
三つ目の例について説明する。図15は三つ目の例について説明するための図である。ここでは、撮影画像[i]がフレーム画像[j]として選出された後において、撮影画像[i+3]をフレーム画像[j+1]として選出するか否かを判定する場合を想定する。
図13に示す選出方法では、撮影画像[i]と撮影画像[i+3]との間の累積擬似回転角度が閾値θ以上である場合に、撮影画像[i+3]をフレーム画像[j+1]として選出するようになっていた。また、図14に示す選出方法では、撮影画像[i]と撮影画像[i+3]との間の擬似回転角度θi,i+3が閾値θ以上である場合に、撮影画像[i+3]をフレーム画像[j+1]として選出するようになっていた。また、上記二つ目の例においても、撮影画像[1]と撮影画像[i+3]との間の累積擬似回転角度(又は擬似回転角度θ1,i+3)がθ*j以上である場合に、撮影画像[i+3]をフレーム画像[j+1]として選出するようになっていた。
しかしながら、このような場合には、撮影画像[i+3]と、撮影画像[i+3]の直前の撮影画像[i+2]と、の一方を選択的にフレーム画像[j+1]として選出するようにしてもよい。
例えば図13に示す選出方法の場合であれば、上記のような場合、動画像データ生成部58は、撮影画像[i]と撮影画像[i+2]との間の累積擬似回転角度Δθi,i+1+Δθi+1,i+2と、撮影画像[i]と撮影画像[i+3]との間の累積擬似回転角度Δθi,i+1+Δθi+1,i+2+Δθi+2,i+3とのうちのいずれがより閾値θに近いかを判定する。例えば、動画像データ生成部58は、それら累積擬似回転角度の中間値が閾値θ未満であるか否かを判定する。すなわち、動画像データ生成部58は、それら累積擬似回転角度の中間値((Δθi,i+1+Δθi+1,i+2)+(Δθi,i+1+Δθi+1,i+2+Δθi+2,i+3))/2が閾値θ未満であるか否かを判定する。
図15に示すように、上記中間値が閾値θより大きい場合には、撮影画像[i]と撮影画像[i+2]との間の累積擬似回転角度の方が閾値θに近いため、動画像データ生成部58は撮影画像[i+2]を撮影画像[j+1]として選出する。一方、上記中間値が閾値θ未満である場合には、撮影画像[i]と撮影画像[i+3]との間の累積擬似回転角度の方が閾値θに近いため、動画像データ生成部58は撮影画像[i+3]を撮影画像[j+1]として選出する。
また例えば図14に示す選出方法の場合であれば、動画像データ生成部58は、撮影画像[i]と撮影画像[i+2]との間の擬似回転角度θi,i+2と、撮影画像[i]と撮影画像[i+3]との間の擬似回転角度θi,i+3とのうちのいずれがより閾値θに近いかを判定する。例えば、動画像データ生成部58は、それら擬似回転角度の中間値(Δθi,i+2+Δθi,i+3)/2が閾値θ未満であるか否かを判定する。
図15に示すように、上記中間値が閾値θより大きい場合には、撮影画像[i]と撮影画像[i+2]との間の擬似回転角度θi,i+2の方が閾値θに近いため、動画像データ生成部58は撮影画像[i+2]を撮影画像[j+1]として選出する。一方、上記中間値が閾値θ未満である場合には、撮影画像[i]と撮影画像[i+3]との間の擬似回転角度θi,i+3の方が閾値θに近いため、動画像データ生成部58は撮影画像[i+3]を撮影画像[j+1]として選出する。
このようにすれば、動画像データにおいて商品30がよりスムーズに回転するようになる。なお、上記中間値が閾値θと等しい場合、動画像データ生成部58は撮影画像[i+2]及び撮影画像[i+3]のいずれをフレーム画像[j+1]として選出するようにしてもよい。
次に、図5に示す機能ブロックを実現するために画像処理装置10で実行される処理について説明する。図16及び図17は、一回転する商品30の動画像データを撮影データに基づいて生成するために画像処理装置10において実行される処理の一例を示すフロー図である。なお、図16,17に示す処理は、図13,15に示す選出方法を組み合わせた選出方法に対応している。制御部11がプログラムに従って図16,17に示す処理を実行することによって、制御部11が図5に示す機能ブロックとして機能するようになる。
図16に示すように、まず制御部11は、一回転する商品30の動画像データを生成するために、一回転分の撮影画像データを撮影画像データから抽出する(S101)。図18はステップS101の処理の概要について説明するための図であり、図19はステップS101の処理の詳細を示すフロー図である。
図18に示すように、制御部11は、撮影画像データに含まれる撮影画像40のうちから、商品30が一回転し終えた時点の撮影画像40を探し出す。商品30が一回転し終えた時点の撮影画像40は、商品30が回転を開始する直前の撮影画像40(以下「基準撮影画像」と記載する。)と同一又は略同一の画像であるはずであり、かつ、基準撮影画像が撮影された時点からある程度の時間が経過した後に撮影された画像であるはずである。このため、撮影画像[i]が下記条件(A),(B)の両方を満足する場合、撮影画像[i]は、商品30が一回転し終えた時点の撮影画像40に相当しているとみなすことができる。なお例えば、撮影画像データに含まれる撮影画像40のうちの先頭の撮影画像40が「基準撮影画像」として設定される。
(A)基準撮影画像と撮影画像[i]とが同一又は略同一である。言い換えれば、基準撮影画像と撮影画像[i]との間の類似度が極めて高い。
(B)基準撮影画像の撮影時点と撮影画像[i]の撮影時点とが所定時間以上離れている。言い換えれば、基準撮影画像と撮影画像[i]との画像番号の差が閾値(I)以上である。
なお、上記条件(B)における「所定時間」や「閾値(I)」は、商品30が一回転するために要する平均的な時間を考慮して決定されるものである。
以上より、制御部11は、上記条件(A)及び(B)の両方を満足する撮影画像40を撮影画像データのうちから探し出すことによって、商品30が一回転し終えた時点の撮影画像40を探し出す。そして、制御部11は、基準撮影画像からその撮影画像40までを一回転分の撮影画像データとして抽出する。なお、図19に示す処理では、末尾の撮影画像40から先頭の撮影画像40へと向かう順番で、上記条件(A)及び(B)の両方を満足する撮影画像40を探すようになっている。また、先頭の撮影画像40を基準撮影画像としている。
図19に示す処理では、まず制御部11は、撮影画像データに含まれる撮影画像40の総数Nを取得する(S201)。そして、制御部11は上記総数Nを変数iに代入する(S202)。また、制御部11は、上記総数Nに所定係数α(α:0<α<1、例えば1/3)を乗じることによって得られる値を閾値Iとして設定する(S203)。なお、制御部11は予め定められた固定値を閾値Iとして設定するようにしてもよい。
その後、制御部11は撮影画像[1]と撮影画像[i]とが同一又は略同一であるか否かを判定する(S204)。すなわち、制御部11は、撮影画像[1]と撮影画像[i]ととの類似度が極めて高いか否かを判定する。
例えば、商品30の複数の同一点にそれぞれ対応する複数の特徴点60が撮影画像[1]と撮影画像[i]との両方において検出される場合、制御部11はそれら複数の特徴点60の個数が所定の閾値よりも多いか否かを判定する。
上記個数が閾値よりも多い場合、制御部11は、撮影画像[1]と撮影画像[i]との差分画像を生成し、差分画像の画素値の合計値を算出する。この場合、この合計値が小さいほど、撮影画像[1]と撮影画像[i]との類似度が高いことになる。このため、制御部11は上記合計値が所定の閾値未満であるか否かを判定する。
上記合計値が閾値未満である場合、制御部11は撮影画像[1]と撮影画像[i]とが同一又は略同一であると判定する。一方、上記個数が閾値未満である場合や、上記合計値が閾値以上である場合、制御部11は撮影画像[1]と撮影画像[i]とが同一及び略同一でないと判定する。
なお、以上のような判定方法では、上記個数が閾値よりも多い場合に限って、差分画像の生成等が行われるようになっており、その結果、処理負荷が軽減されるようになっている。ただし、撮影画像[1]と撮影画像[i]とが同一又は略同一であるか否かの判定方法は上記方法に限られない。上記方法では特徴点60の個数を考慮するようにしたが、特徴点60の個数は考慮しないようにしてもよい。また、上記方法以外の公知の方法を採用するようにしてもよい。
撮影画像[1]と撮影画像[i]とが同一又は略同一でない場合(S204:N)、制御部11は変数iの値から1を減算し(S205)、変数iの値が閾値I未満であるか否かを判定する(S206)。変数iの値が閾値I未満でない場合(S206:N)、制御部11はステップS204を実行する。
一方、撮影画像[1]と撮影画像[i]とが同一又は略同一である場合(S204:Y)、制御部11は、撮影画像[1]〜[i]を一回転分の撮影画像データとして抽出する(S208)。すなわち、制御部11は撮影画像[1]〜[i]を後述の処理(S102〜S120)に用いる。この場合、撮影画像[i+1]以降の撮影画像40は取り除かれることになる。
また、ステップS206において変数iの値が閾値I未満であると判定された場合、制御部11は撮影画像[1]〜[N]を抽出する(S207)。ステップS206において変数iの値が閾値I未満であると判定される場合とは、上記条件(A)及び(B)の両方を満足する撮影画像40が存在していない場合である。このような場合、制御部11は撮影画像データに含まれるすべての撮影画像40を後述の処理(S102〜S120)に用いる。
なお、ステップS204〜S208を実行する代わりに、撮影画像[I]〜撮影画像[N]のうちで撮影画像[1]との類似度が最も高い撮影画像40を探すようにしてもよい。そして、先頭の撮影画像40からその撮影画像40までを一回転分の撮影画像データとして抽出するようにしてもよい。
図16に示すように、ステップS101が実行された後、制御部11は撮影画像[1]を読み出し(S102)、撮影画像[1]内の特徴点60を検出する(S103)。また、制御部11は撮影画像[1]をフレーム画像[1]として選出する(S104)。
その後、制御部11は変数sを0に初期化し、変数i,jを2に初期化し、変数kを1に初期化する(S105)。なお、変数sは累積擬似回転角度を算出するために用いられる。また、変数iは処理対象の撮影画像40の画像番号を示し、変数jは選出対象のフレーム画像42のフレーム番号を示す。変数kはフレーム画像[j−1]として選出された撮影画像40の画像番号を示す。
ステップS105が実行された後、制御部11は撮影画像[i]を読み出し(S106)、撮影画像[i]内の特徴点60を検出する(S107)。このステップS107における検出結果は記憶部12に記憶される。
ステップS107が実行された後、制御部11は、撮影画像[i−1]と撮影画像[i]との間の擬似回転角度Δθi−1,iを算出し(S108)、その擬似回転角度Δθi−1,iを変数sに加算する(S109)。そして、制御部11は変数sが閾値θ以上であるか否かを判定する(S110)。
変数sが閾値θ以上でない場合(S110:N)、図17に示すように、制御部11は変数iに1を加算し(S119)、撮影画像[i]が存在しているか否かを判定する(S120)。撮影画像[i]が存在している場合(S120:Y)、制御部11はステップS106を実行する。
一方、変数sが閾値θ以上である場合(S110:Y)、図17に示すように、制御部11は、フレーム画像[j]として選出された撮影画像[k]と撮影画像[i−1]との間の累積擬似回転角度sk,i−1と、撮影画像[k]と撮影画像[i]との間の累積擬似回転角度sk,iとの間の中間値(sk,i−1+sk,i)/2を算出し、その中間値が閾値θ以下であるか否かを判定する(S111)。
上記中間値が閾値θ 以下である場合(S111:Y)、制御部11は撮影画像[i]をフレーム画像[j]として選出する(S112)。またこの場合、制御部11は変数iの値を変数kに代入し(S113)、変数iに1を加算する(S114)。そして、制御部11は撮影画像[i]が存在しているか否かを判定する(S115)。撮影画像[i]が存在している場合(S115:Y)、制御部11は変数jに1を加算し(S118)、ステップS106を実行する。
一方、上記中間値が閾値θより大きい場合(S111:N)、制御部11は撮影画像[i−1]をフレーム画像[j]として選出する(S116)。またこの場合、制御部11は、変数iの値から1を減算した値を変数kに代入する(S117)。そして、制御部11は変数jに1を加算し(S118)、ステップS106を実行する。
ステップS115又はS120において撮影画像[i]が存在していないと判定された場合、制御部11は本処理を終了する。この場合、フレーム画像[1]〜[j]を含む動画像データが、一回転する商品30を示す動画像データとして生成される。
なお、画像処理装置10で実行される処理は図16,17に示す処理に限られない。
例えば、図17のステップS111,S116,S117を削除するようにしてもよい。すなわち、ステップS110において変数sが閾値θ以上であると判定された場合には常にステップS112〜S115が実行されるようにしてもよい。この場合、図13に示す選出方法が実行されることになる。
また例えば、図16のステップS108,S109を実行する代わりに、制御部11は撮影画像[k]と撮影画像[i]との間の擬似回転角度θk,iを算出するようにしてもよい。そして、ステップS110では、この擬似回転角度θk,iが閾値θ以上であるか否かを判定するようにしてもよい。この場合、図14に示す選出方法が実行されることになる。
また例えば、図16のステップS101を省略し、図17に示す処理の代わりに、図20に示す処理を実行するようにしてもよい。図20に示す処理は、ステップS121〜S124を含む点で図17に示す処理と相違している。
図20に示す処理では、ステップS113,S117が実行された後に、制御部11は、フレーム画像[j]として選出された撮影画像40が、商品30が一回転し終えた時点の撮影画像40に相当しているか否かを判定するための処理を実行する(ステップS121〜S124)。
すなわち、ステップS113が実行された後、制御部11は変数iの値が閾値I以上であるか否かを判定する(S121)。この閾値Iは図19のステップS206と同様である。
変数iの値が閾値I以上でない場合(S121:N)、制御部11はステップS114を実行する。一方、変数iの値が閾値I以上である場合(S121:Y)、制御部11は、フレーム画像[1]とフレーム画像[j]とが同一又は略同一であるか否かを判定する(S122)。この処理は図19のステップS204と同様である。
フレーム画像[1]とフレーム画像[j]とが同一又は略同一でないと判定された場合(S122:N)、制御部11はステップS114を実行する。一方、フレーム画像[1]とフレーム画像[j]とが同一又は略同一であると判定された場合(S122:Y)、制御部11は本処理を終了する。この場合、フレーム画像[1]〜[j]を含む動画像データが、一回転する商品30を示す動画像データとして生成される。
また、ステップS117が実行された後、制御部11は、変数iの値から1を減算した値が閾値I以上であるか否かを判定する(S123)。変数iの値から1を減算した値が閾値I以上でない場合(S123:N)、制御部11はステップS118を実行する。一方、変数iの値から1を減算した値が閾値I以上である場合(S123:Y)、制御部11は、フレーム画像[1]とフレーム画像[j]とが同一又は略同一であるか否かを判定する(S124)。
フレーム画像[1]とフレーム画像[j]とが同一又は略同一でないと判定された場合(S124:N)、制御部11はステップS118を実行する。一方、フレーム画像[1]とフレーム画像[j]とが同一又は略同一であると判定された場合(S124:Y)、制御部11は本処理を終了する。この場合、フレーム画像[1]〜[j]を含む動画像データが、一回転する商品30を示す動画像データとして生成される。
このようにしても、一回転する商品30の動画像データを生成できるようになる。
なお、ステップS121〜S124を実行する代わりに、ステップS115又はS120において撮影画像[i]が存在していないと判定された場合に図21に示す処理を実行するようにしてもよい。図21に示す処理は、生成された動画像データに含まれるフレーム画像[1]〜[j]のうちから、一回転分の動画像データを抽出するための処理になっている。
図21に示す処理では、制御部11は変数jの値を変数hに代入し(S301)、変数jに係数α(0<α<1:例えば1/3)を乗じることによって得られる値を閾値Hに設定する(S302)。この閾値Hは図19,20における閾値Iに相当するものである。
その後、制御部11はフレーム画像[1]とフレーム画像[h]とが同一又は略同一であるか否かを判定する(S303)。この処理は図19のステップS204と同様である。
フレーム画像[1]とフレーム画像[h]とが同一又は略同一でない場合(S303:N)、制御部11は変数hの値から1を減算する(S304)。そして、制御部11は変数hの値が閾値H未満であるか否かを判定する(S305)。変数hの値が閾値H未満でない場合(S305:N)、制御部11はステップS303を実行する。
一方、フレーム画像[1]とフレーム画像[h]とが同一又は略同一である場合(S303:Y)、制御部11は、フレーム画像[1]〜[h]を、一回転する商品30の動画像データとして抽出する(S307)。この場合、一旦選出されたフレーム画像[1]〜[j]のうちから、フレーム画像[1]〜[h]が、一回転する商品30の動画像データとして取得される。この場合、フレーム画像[h+1]〜[j]が取り除かれることになる。
変数hの値が閾値H未満である場合(S305:Y)、制御部11はフレーム画像[1]〜[j]を抽出する(S306)。ステップS306において変数hの値が閾値H未満であると判定される場合とは、商品30が一回転し終えた時点の画像に対応するフレーム画像42を見つけることができなかった場合である。このような場合、制御部11は、フレーム画像[1]〜[j]を、商品30の動画像データとして抽出する。
図20に示す処理の代わりに図21に示す処理を実行するようにしても、一回転する商品30の動画像データを生成できるようになる。
なお、図21に示す処理では、フレーム画像[H]〜[j]のうちでフレーム画像[1]との類似度が最も高いフレーム画像42を探すようにしてもよい。そして、先頭のフレーム画像42からそのフレーム画像42までの動画像データを、一回転する商品30の動画像データとして取得するようにしてもよい。このようにしても、一回転する商品30の動画像データを生成できるようになる。
以上に説明した画像処理装置10によれば、一定でない角速度で回転している商品30を撮影した場合の撮影画像データに基づいて、フレームごとの商品30の回転角度が略一定であるような動画像データを取得することが可能になる。また、画像処理装置10によれば、一回転分の動画像データを取得することが可能になる。
なお、本発明は以上に説明した実施形態に限定されるものではない。
[1]以上では、商品30の形状が略円柱形状であるとの仮定の下で、商品30上の各点がとる軌道80(円軌道)の半径rは同一であるとみなすこととして説明した。しかしながら、商品30の形状は略円柱形状に限られない。商品30の形状が略円柱形状でない場合、上記半径rは各点ごとに異なるため、上記半径rが同一であるとみなしてしまうと、誤差が大きくなってしまうおそれがある。そこで、画像処理装置10は、このような不都合の発生を抑制するための構成を備えるようにしてもよい。
[1−1]例えば、回転角度情報取得部56は、上記半径rが大きい特徴点60を上記半径rが小さい特徴点60よりも優先的に用いて、回転角度情報を取得するようにしてもよい。
[1−1−1]例えば、回転角度情報取得部56は、上記半径rが大きい特徴点60のみを回転角度情報の取得に用い、上記半径rが大きくない特徴点60を回転角度情報の取得に用いないようにしてもよい。
例えば、観測領域110外の領域と観測領域110との両方を通過するような特徴点60は、上記半径rが比較的大きい商品30上の点(特徴点60)に相当しているということができる。このため、このような特徴点60のみを回転角度情報の取得に用いることによって、上記半径rが比較的大きい特徴点60のみを回転角度情報の取得に用いるようにしてもよい。
この場合、特徴点60が観測領域110外から観測領域110内に移動したか否かを判定すれば足り、上記半径rをあえて算出する必要がないため、処理負荷の増大を抑制することが可能である。
[1−1−2]当然のことながら、回転角度情報取得部56(回転半径情報取得手段)は、各特徴点60ごとに上記半径r(回転半径情報)を算出するようにしてもよい。そして、回転角度情報取得部56は、上記半径rが閾値よりも大きい特徴点60のみを回転角度情報の取得に用い、上記半径rが閾値以下である特徴点60を回転角度情報の取得に用いないようにしてもよい。
[1−2]また例えば、回転角度情報取得部56(回転半径情報取得手段)は、各特徴点60ごとに上記半径r(回転半径情報)を算出するようにしてもよい。そして、回転角度情報取得部56は、各特徴点60の擬似回転角度(回転角度情報)を、上記式(11)に従い、当該特徴点60のX軸座標値の変化量(位置差情報)と、当該特徴点60の上記半径r(回転半径情報)と、に基づいて算出するようにしてもよい。そして、回転角度情報取得部56、このようにして算出された擬似回転角度の統計値(例えば平均値)を商品30の擬似回転角度として用いるようにしてもよい。
なお、以上に説明した変形例1−1−2や変形例1−2では上記半径rを算出する必要がある。このため、上記半径r(回転半径情報)の算出方法について説明しておく。
例えば、回転角度情報取得部56(回転半径情報取得手段)は、商品30上の同一点に対応する特徴点60の軌道70(楕円軌道)に関する楕円軌道情報を取得し、この楕円軌道情報に基づいて、上記半径rを算出するようにしてもよい。例えば、回転角度情報取得部56は、軌道70の長径及び短径の少なくとも一方に基づいて、上記半径rを推定する。例えば、回転角度情報取得部56は、軌道70の長径の1/2を上記半径rとして取得する。
なお、商品30上の同一点に対応する特徴点60が少なくとも三つの撮影画像40において検出されれば、特徴点60の軌道70に関する楕円軌道情報を取得することが可能である。この場合、軌道70の算出精度を高めるために次のようにしてもよい。
すなわち、商品30上の複数の同一点にそれぞれ対応する複数の特徴点60の各々について軌道70を算出した場合、これら複数の軌道70は中心点が一致し、同心楕円になるはずである。このため、回転角度情報取得部56は、他の軌道70と中心点がずれている軌道70や、他の軌道70と同心楕円になっていない軌道70を利用しないようにするとよい。
また、商品30上の同一点に対応する特徴点60が四つ以上の撮影画像40において検出される場合、回転角度情報取得部56は、特徴点60の三つの位置の組み合わせを複数取得するようにしてもよい。また、回転角度情報取得部56は、これら複数の組み合わせにそれぞれ対応する複数の軌道70を算出するようにしてもよい。そして、回転角度情報取得部56は、このようにして算出された複数の軌道70の中心点、長径、及び短径の各々の平均を、上記特徴点60の軌道70の中心点、長径、及び短径として取得するようにしてもよい。このようにしても、軌道70の算出精度を高めることが可能になる。
上記に説明した方法の代わりに下記に説明する方法を採用するようにしてもよい。
例えば、商品30上の同一点に対応する特徴点60が撮影画像[i](i:1以上の整数)で最初に検出され、かつ、撮影画像[j](j:i<jである整数)で最後に検出される場合、回転角度情報取得部56(回転半径情報取得手段)は、撮影画像[i],[j]における当該特徴点60の位置に基づいて、上記半径rを取得するようにしてもよい。
例えば、撮影画像[i],[j]における当該特徴点60の位置がともに存在領域100の端部領域に含まれているのであれば、回転角度情報取得部56は、撮影画像[i],[j]における当該特徴点60の位置を結ぶ直線の長さの1/2を上記半径rとして取得するようにしてもよい。なお、「端部領域」は存在領域100の端から所定距離以内の領域である。
または、回転角度情報取得部56は、撮影画像[i],[j]間における当該特徴点60のX軸座標値の差の1/2を上記半径rとして取得するようにしてもよい。
ところで、商品30に付された図柄は存在領域100の端付近で変形するため、図柄部分に対応する特徴点60の特徴量は、特徴点60が存在領域100の中央領域にある場合と、特徴点60が存在領域100の端部領域にある場合とで異なる。その結果、図柄部分に対応する特徴点60が存在領域100の端部領域にある場合には、図柄部分に対応する特徴点60とは異なる特徴点60として認識されてしまうおそれがある。また、撮影装置34と商品30とが近い場合、商品30の図柄部分の180度分の回転が撮影されず、180度より小さい角度分の回転しか撮影されない場合がある。この点を考慮すると、この算出方法よりも先述の算出方法の方が精度が高くなる。ただし、この算出方法によれば、楕円軌道を算出する必要がないため、先述の算出方法に比べて処理負荷が軽減される。
[2]例えば、以上に説明した実施形態では、閾値θが予め設定されていたが、閾値θを動的に設定するようにしてもよい。
[2−1]例えば、動画像データの生成の基礎となる撮影画像40の個数に基づいて、閾値θを設定するようにしてもよい。商品30の一回転分の撮影画像40の個数が多いほど、閾値θが小さくなるようにしてもよい。この場合、撮影画像40の数と閾値θとの対応関係を示す対応関係情報を記憶部12に記憶させておき、この対応関係情報に基づいて閾値θを設定するようにすればよい。
閾値θが小さいほど、動画像データは滑らかになる。この点、上記のようにすれば、撮影データに合わせて閾値θを小さくすることが可能になるため、動画像データをできる限り滑らかにすることが可能になる。
[2−2]また例えば、フレーム画像42を十分に選出できなかった場合に閾値θを変更するようにしてもよい。図22はこの変形例について説明するための図である。
この変形例では、最初、制御部11は閾値θを比較的小さい値に設定する。そして、制御部11は、フレーム画像42間の回転角度が閾値θとなるようにフレーム画像42を選出する。
この場合、制御部11は、フレーム画像42間の回転角度が閾値θとなるようにしてフレーム画像42を選出できたか否かを判定する。例えば、フレーム画像[j]とフレーム画像[j+1]との間の擬似回転角度と閾値θとの差が所定範囲内であるならば、制御部11は、フレーム画像42間の回転角度が閾値θとなるようにしてフレーム画像42を選出できたとみなす。具体的には、上記擬似回転角度が閾値θ±20%の範囲内であるならば、制御部11は、フレーム画像42間の回転角度が閾値θとなるようにしてフレーム画像42を選出できたとみなす。
また、この場合、図22(A)に示すフレーム画像[2],「6」のように、フレーム画像42間の回転角度が閾値θとなるようにしてフレーム画像42を選出できなかったのであれば、図22(B)に示すように、制御部11は閾値θを大きくし、更新後の閾値θに基づいてフレーム画像42を選出する。フレーム画像42間の回転角度が閾値θとなるようにしてすべてのフレーム画像42を選出できるようになるまでこのような処理を繰り返す。
このようにしても、撮影画像データに合わせて閾値θを小さくすることが可能になるため、動画像データをできる限り滑らかにすることが可能になる。
[2−3]なお、複数回転分の撮影画像データを取得しておき、一回転目の撮影画像データから取得できなかったフレーム画像42を二回転目以降の撮影画像データから取得するようにしてもよい。なお、二回転目以降の撮影データは、一回転目の撮影データを抽出する方法と同様にして抽出することができる。
例えば、図22(A)に示す例では、フレーム画像[1]との間の擬似回転角度がΔθであるようなフレーム画像[2]を選出できていない。このような場合、フレーム画像[1]との間の擬似回転角度がΔθであるようなフレーム画像42を二回転目以降の撮影画像データから探し出すようにしてもよい。
そして、フレーム画像[1]との間の擬似回転角度がΔθであるようなフレーム画像42を二回転目以降の撮影画像データから見つけ出すことができなかった場合に限って、図22(B)に示すように、閾値θを大きくするようにしてもよい。
[3]例えば、商品30の形状が回転軸32に対して回転対称であって、かつ、商品30の一部(例えば表側)にのみ文字、模様や、図柄が付されているような場合、文字等が付された部分が撮影装置34に写っていない期間においては撮影画像40が変化しない。この場合、商品30上の同一点に対応する特徴点60を検出できなくなり、その結果として、特徴点60のX軸座標値の変化量を取得できなくなってしまう。
図23は上記のような不都合に対処するための処理について説明するための図である。図23は、一回転分の撮影画像データに含まれる撮影画像[1]〜[m+n]のうちの、撮影画像[m+1]〜[m+n]において、商品30上の同一点に対応する特徴点60が検出されなかった場合を示している。
このような場合、制御部11は、撮影画像[1]〜[m]のうちからフレーム画像42として選出された撮影画像40の個数を取得する。図23に示す例ではこの数がp個になっている。
そして、制御部11は、撮影画像[1]〜[m]の個数と、撮影画像[1]〜[m]のうちからフレーム画像42として選出された撮影画像40の個数と、の比率に基づいて、撮影画像[m+1]〜[m+n]のうちからフレーム画像42を選出する。
図23に示す例では上記比率がp/mであるため、制御部11は、この比率と同様の比率で、撮影画像[m+1]〜[m+n]のうちからフレーム画像42を選出する。すなわち、制御部11は、n個の撮影画像[m+1]〜[m+n]のうちからq個(q:q=n*p/m)の撮影画像40をフレーム画像42として選出する。例えば、制御部11は、撮影画像[m+1]〜[m+n]のうちからm/p個間隔で撮影画像40をフレーム画像42として選出する。仮に、m/pが「3」であるならば、制御部11は撮影画像[m+3],[m+6],[m+9],・・・をフレーム画像42として選出する。このようにすれば、上記のような不都合に対処できるようになる。
なお、以上では、撮影画像[m+1]〜[m+n]において、商品30上の同一点に対応する特徴点60が検出されなかった場合について説明したが、撮影画像[1]〜[m]において、商品30上の同一点に対応する特徴点60が検出されなかった場合も同様である。この場合、制御部11は、撮影画像[m+1]〜[m+n]の個数と、撮影画像[m+1]〜[m+n]のうちからフレーム画像42として選出された撮影画像40の個数と、の比率に基づいて、撮影画像[1]〜[m]のうちからフレーム画像42を選出するようにしてもよい。
[4]また例えば、回転角度情報取得部56の動作は以上に説明した実施形態に限られない。
例えば、回転角度情報取得部56は、商品30上の同一点に対応する特徴点60の軌道70(楕円軌道)に関する楕円軌道情報を取得するようにしてもよい。なお、商品30上の同一点に対応する特徴点60が少なくとも三つの撮影画像40において検出されれば、それらの撮影画像40における特徴点60の位置に基づいて、特徴点60の軌道70に関する楕円軌道情報を取得することができる。
そして、例えば撮影画像[i]の撮影時点と撮影画像[i+k](k:1以上の整数)の撮影時点との間の商品30の回転角度を算出する場合、回転角度情報取得部56は、撮影画像[i]における上記特徴点60の位置と、撮影画像[i+k]における上記特徴点60の位置と、上記楕円軌道情報と、に基づいて、上記回転角度を算出するようにしてもよい。このようにしても、撮影画像[i]の撮影時点と撮影画像[i+k]の撮影時点との間の商品30の回転角度に関する回転角度情報を取得することができる。
10 画像処理装置、11 制御部、12 記憶部、13 光ディスクドライブ部、14 通信部、15 操作部、16 表示部、17 音声出力部、20 回転台、22 厚板、24 厚紙、28 画鋲、30 商品、32 回転軸、34 撮影装置、40 撮影画像、42 フレーム画像、50 撮影画像取得部、52 特徴点検出部、54 位置情報取得部、56 回転角度情報取得部、58 動画像データ生成部、60,60A,60B,60C,60D 特徴点、70 軌道、80 円軌道、90 近傍領域、100 存在領域、110 観測領域。

Claims (33)

  1. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得手段と、
    撮影画像内の特徴点を検出する特徴点検出手段と、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得手段と、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得手段と、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成手段と、
    を含み、
    前記撮影画像内の、前記被写体の回転軸に対応する直線の近傍領域を観測領域として設定する手段をさらに含み、
    前記回転角度情報取得手段は、
    前記一の撮影画像における前記特徴点の位置と、前記他の撮影画像における前記特徴点の位置と、の差に関する位置差情報として、前記一の撮影画像における前記特徴点と、前記他の撮影画像における前記特徴点との間の、前記被写体の回転軸に対応する第1の軸と直交する第2の軸方向の位置の差に関する情報を取得する手段と、
    前記一の撮影画像における前記特徴点と、前記他の撮影画像における前記特徴点とが前記観測領域内に含まれている場合の前記位置差情報に基づいて、前記回転角度情報を取得する手段と、含む、
    とを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記動画像データ生成手段は、前記一の撮影画像が前記動画像データのフレーム画像として選出されている場合に、前記他の撮影画像を前記動画像データのフレーム画像として選出するか否かを、前記回転角度情報と閾値との比較結果に基づいて決定する、
    ことを特徴とする画像処理装置。
  3. 請求項2に記載の画像処理装置において、
    前記動画像データ生成手段は、前記一の撮影画像が前記動画像データのフレーム画像として選出されている場合において、前記回転角度情報が前記閾値以上である場合に、前記他の撮影画像と、前記他の撮影画像の一つ前に撮影された撮影画像と、の一方を前記動画像データのフレーム画像として選出する、
    ことを特徴とする画像処理装置。
  4. 請求項3に記載の画像処理装置において、
    前記動画像データ生成手段は、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報が、前記一の撮影画像の撮影時点と、前記他の撮影画像の一つ前に撮影された前記撮影画像の撮影時点と、の間の前記被写体の回転角度に関する回転角度情報よりも前記閾値に近い場合に、前記他の撮影画像を前記動画像データのフレーム画像として選出し、
    前記一の撮影画像の撮影時点と、前記他の撮影画像の一つ前に撮影された前記撮影画像の撮影時点と、の間の前記被写体の回転角度に関する回転角度情報が、前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報よりも前記閾値に近い場合に、前記他の撮影画像の一つ前に撮影された前記撮影画像を前記動画像データのフレーム画像として選出する、
    ことを特徴とする画像処理装置。
  5. 請求項1に記載の画像処理装置において、
    前記位置情報取得手段は、前記被写体上の同一点に対応する特徴点が第1の対の撮影画像において検出された場合に、前記第1の対の撮影画像のうちの先に撮影された一の撮影画像と、前記第1の対の撮影画像のうちの後に撮影された他の撮影画像とにおける当該特徴点の位置に関する位置情報を取得し、
    前記回転角度情報取得手段は、前記第1の対の撮影画像のうちの前記一の撮影画像の撮影時点と、前記第1の対の撮影画像のうちの前記他の撮影画像の撮影時点と、の間の前記被写体の回転角度に関する回転角度情報を、前記第1の対の撮影画像の前記位置情報に基づいて取得し、
    前記位置情報取得手段は、前記被写体上の同一点に対応する特徴点が第2の対の撮影画像において検出された場合に、前記第2の対の撮影画像のうちの先に撮影された一の撮影画像と、前記第2の対の撮影画像のうちの後に撮影された他の撮影画像とにおける当該特徴点の位置に関する位置情報を取得し、
    前記回転角度情報取得手段は、前記第2の対の撮影画像のうちの前記一の撮影画像の撮影時点と、前記第2の対の撮影画像のうちの前記他の撮影画像の撮影時点と、の間の前記被写体の回転角度に関する回転角度情報を、前記第2の対の撮影画像の前記位置情報に基づいて取得し、
    前記動画像データ生成手段は、
    前記第1の対の撮影画像のうちの前記他の撮影画像と前記第2の対の撮影画像のうちの前記一の撮影画像とが同一である場合に、前記第1の対の撮影画像のうちの前記一の撮影画像の撮影時点と、前記第2の対の撮影画像のうちの前記他の撮影画像の撮影時点と、の間の前記被写体の回転角度に関する累積回転角度情報を、前記第1の対の撮影画像の前記回転角度情報と前記第2の対の撮影画像の前記回転角度情報とに基づいて取得する手段を含み、
    前記動画像データのフレーム画像を前記複数の撮影画像のうちから前記累積回転角度情報に基づいて選出する、
    ことを特徴とする画像処理装置。
  6. 請求項5に記載の画像処理装置において、
    前記動画像データ生成手段は、前記第1の対の撮影画像のうちの前記一の撮影画像が前記動画像データのフレーム画像として選出されている場合に、前記第2の対の撮影画像のうちの前記他の撮影画像を前記動画像データのフレーム画像として選出するか否かを、前記累積回転角度情報と閾値との比較結果に基づいて決定する、
    ことを特徴とする画像処理装置。
  7. 請求項6に記載の画像処理装置において、
    前記動画像データ生成手段は、前記第1の対の撮影画像のうちの前記一の撮影画像が前記動画像データのフレーム画像として選出されている場合において、前記累積回転角度情報が前記閾値以上である場合に、前記第2の対の撮影画像のうちの前記他の撮影画像と、前記第2の対の撮影画像のうちの前記他の撮影画像の一つ前に撮影された撮影画像と、の一方を前記動画像データのフレーム画像として選出する、
    ことを特徴とする画像処理装置。
  8. 請求項1乃至7のいずれかに記載の画像処理装置において、
    前記回転角度情報取得手段は、前記被写体が回転する場合の回転半径が大きい特徴点の前記位置差情報を、前記被写体が回転する場合の回転半径が小さい特徴点の前記位置差情報よりも優先的に用いて、前記回転角度情報を取得する、
    ことを特徴とする画像処理装置。
  9. 請求項乃至のいずれかに記載の画像処理装置において、
    前記回転角度情報取得手段は、
    前記被写体上の複数の点にそれぞれ対応する複数の特徴点が前記一の撮影画像及び前記他の撮影画像において検出される場合に、前記複数の特徴点の各々について、当該特徴点に対応する前記被写体上の点の回転半径に関する回転半径情報を取得する回転半径情報取得手段と、
    前記複数の特徴点の各々について、当該特徴点に対応する前記被写体上の前記点の、前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の回転角度に関する回転角度情報を、当該特徴点の前記位置差情報及び前記回転半径情報に基づいて取得する手段と、
    前記複数の特徴点の各々の前記回転角度情報に基づいて、前記被写体の前記回転角度情報を取得する手段と、を含む、
    ことを特徴とする画像処理装置。
  10. 請求項に記載の画像処理装置において、
    前記回転半径情報取得手段は、
    前記被写体上の同一点に対応する前記特徴点が少なくとも三つの撮影画像において検出される場合に、前記少なくとも三つの撮影画像における当該特徴点の位置に基づいて、当該特徴点の楕円軌道に関する楕円軌道情報を取得する手段と、
    前記特徴点の前記楕円軌道情報に基づいて、当該特徴点の前記回転半径情報を取得する手段と、を含む、
    ことを特徴とする画像処理装置。
  11. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得手段と、
    撮影画像内の特徴点を検出する特徴点検出手段と、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得手段と、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得手段と、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成手段と、
    を含み、
    前記回転角度情報取得手段は、
    前記被写体上の複数の点にそれぞれ対応する複数の特徴点が前記一の撮影画像及び前記他の撮影画像において検出される場合に、前記複数の特徴点の各々について、前記一の撮影画像における当該特徴点の位置と、前記他の撮影画像における当該特徴点の位置と、の差に関する位置差情報を取得する手段と、
    前記複数の特徴点の各々について、当該特徴点に対応する前記被写体上の点の回転半径に関する回転半径情報を取得する回転半径情報取得手段と、
    前記複数の特徴点の各々について、当該特徴点に対応する前記被写体上の前記点の、前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の回転角度に関する回転角度情報を、当該特徴点の前記位置差情報及び前記回転半径情報に基づいて取得する手段と、
    前記複数の特徴点の各々の前記回転角度情報に基づいて、前記被写体の前記回転角度情報を取得する手段と、を含み、
    前記回転半径情報取得手段は
    前記複数の撮影画像において検出された前記特徴点のうちの、前記被写体の回転軸に対応する第1の軸と直交する第2の軸方向の位置座標が最も小さい前記特徴点と、前記第2の軸方向の位置座標が最も大きい前記特徴点と、に基づいて、前記撮影画像内の、前記特徴点が存在し得る領域である存在領域を特定する手段と、
    前記被写体上の同一点に対応する前記特徴点が第i(i:1以上の整数)の撮影画像において最初に検出され、かつ、前記第iの撮影画像よりも後に撮影された第j(j:i<jである整数)の撮影画像において最後に検出される場合であって、前記第iの撮影画像における当該特徴点が前記存在領域の端部領域に含まれ、かつ、前記第jの撮影画像における当該特徴点が前記存在領域の端部領域に含まれる場合に、前記第iの撮影画像における当該特徴点の位置と、前記第jの撮影画像における当該特徴点の位置との差に基づいて、当該特徴点の前記回転半径情報を取得する手段と、を含む
    ことを特徴とする画像処理装置。
  12. 請求項1乃至1のいずれかに記載の画像処理装置において、
    前記動画像データ生成手段は、
    前記複数の撮影画像のうちから選出される基準撮影画像と、前記基準撮影画像の撮影時点から所定時間が経過した後に撮影された撮影画像と、の間の類似度に関する類似度情報を取得する手段と、
    前記基準撮影画像の撮影時点から前記所定時間が経過した後に撮影された撮影画像のうちのいずれかを、前記被写体が一回転し終えた時点における撮影画像として、前記類似度情報に基づいて選出する手段と、を含み、
    前記被写体が一回転し終えた時点における撮影画像として選出された撮影画像の撮影時点以前に撮影された撮影画像に基づいて、前記被写体が一回転する様子を示す前記動画像データを生成する、
    ことを特徴とする画像処理装置。
  13. 請求項1乃至12のいずれかに記載の画像処理装置において、
    前記一の撮影画像及び前記他の撮影画像の両方における特徴量が同一又は略同一である特徴点が前記被写体上の同一点に対応する特徴点であるか否かを判定する手段を含み、当該手段は、前記一の撮影画像及び前記他の撮影画像の両方における特徴量が同一又は略同一である複数の特徴点が検出された場合に、当該複数の特徴点のうちで、前記一の撮影画像と前記他の撮影画像との間の、前記第2の軸方向の位置の差の偏差の絶対値が閾値よりも大きい特徴点を、前記被写体上の同一点に対応する特徴点ではないと判定する、
    ことを特徴とする画像処理装置。
  14. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得手段と、
    撮影画像内の特徴点を検出する特徴点検出手段と、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得手段と、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得手段と、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成手段と、
    を含み、
    前記動画像データ生成手段は、
    前記複数の撮影画像のうちから選出される基準撮影画像の撮影時点から所定時間が経過した後に撮影された撮影画像において検出された特徴点のうちの、前記基準撮影画像において検出された特徴点に対応する特徴点の個数を取得する特徴点数取得手段と、
    前記基準撮影画像の撮影時点から前記所定時間が経過した後に撮影された複数の撮影画像のうちから、前記被写体が一回転し終えた時点における撮影画像の候補を、前記特徴点数取得手段の取得結果に基づいて選出する手段と、
    前記基準撮影画像と、前記候補として選出された撮影画像と、の類似度に関する類似度情報を取得する手段と、
    前記候補として選出された撮影画像のうちのいずれかを、前記被写体が一回転し終えた時点における撮影画像として、前記類似度情報に基づいて選出する手段と、を含
    前記被写体が一回転し終えた時点における撮影画像として選出された撮影画像の撮影時点以前に撮影された撮影画像に基づいて、前記被写体が一回転する様子を示す前記動画像データを生成する、
    ことを特徴とする画像処理装置。
  15. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得手段と、
    撮影画像内の特徴点を検出する特徴点検出手段と、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得手段と、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得手段と、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成手段と、
    を含み、
    前記複数の撮影画像は、第1の撮影画像〜第m(m:2以上の整数)の撮影画像と、前記第mの撮影画像の後に撮影された第m+1の撮影画像〜第m+n(n:1以上の整数)の撮影画像と、を含み、
    前記動画像データ生成手段は、
    前記第1の撮影画像〜前記第mの撮影画像のうちから前記動画像データのフレーム画像として選出された撮影画像の個数を取得する選出数取得手段と、
    前記被写体上の点に対応する特徴点が前記第m+1の撮影画像〜前記第m+nの撮影画像において検出されなかった場合に、前記第1の撮影画像〜前記第mの撮影画像の個数と、前記選出数取得手段によって取得された個数と、の比率に基づいて、前記第m+1の撮影画像〜前記第m+nの撮影画像のうちから、前記動画像データのフレーム画像を選出する手段と、を含む、
    ことを特徴とする画像処理装置。
  16. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得手段と、
    撮影画像内の特徴点を検出する特徴点検出手段と、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得手段と、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得手段と、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成手段と、
    を含み、
    前記複数の撮影画像は、第1の撮影画像〜第m(m:2以上の整数)の撮影画像と、前記第mの撮影画像の後に撮影された第m+1の撮影画像〜第m+n(n:1以上の整数)の撮影画像と、を含み、
    前記動画像データ生成手段は、
    前記第m+1の撮影画像〜前記第m+nの撮影画像のうちから前記動画像データのフレーム画像として選出された撮影画像の個数を取得する選出数取得手段と、
    前記被写体上の点に対応する特徴点が前記第1の撮影画像〜前記第mの撮影画像において検出されなかった場合に、前記第m+1の撮影画像〜前記第m+nの撮影画像の個数と、前記選出数取得手段によって取得された個数と、の比率に基づいて、前記第1の撮影画像〜前記第mの撮影画像のうちから、前記動画像データのフレーム画像を選出する手段と、を含む、
    ことを特徴とする画像処理装置。
  17. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得手段と、
    撮影画像内の特徴点を検出する特徴点検出手段と、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得手段と、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得手段と、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成手段と、
    を含み、
    前記一の撮影画像において検出された特徴点の特徴量と、前記他の撮影画像において検出された特徴点の特徴量と、が同一又は略同一であるか否かを判定する第1の判定手段と、
    前記一の撮影画像において検出された特徴点の位置と、前記他の撮影画像において検出された特徴点の位置との、前記被写体の回転軸に対応する軸方向の座標値の差が閾値以上であるか否かを判定する第2の判定手段と、
    前記第1の判定手段及び前記第2の判定手段の判定結果に基づいて、前記一の撮影画像において検出された特徴点と、前記他の撮影画像において検出された特徴点と、が前記被写体上の同一点に対応する特徴点であるか否かを判定する手段と、
    さらに含むことを特徴とする画像処理装置。
  18. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得手段と、
    撮影画像内の特徴点を検出する特徴点検出手段と、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得手段と、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得手段と、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成手段と、
    を含み、
    前記一の撮影画像において検出された特徴点の特徴量と、前記他の撮影画像において検出された特徴点の特徴量と、が同一又は略同一であるか否かを判定する判定手段と、
    前記一の撮影画像及び前記他の撮影画像の両方における特徴量が同一又は略同一である一の特徴点と、前記一の撮影画像及び前記他の撮影画像の両方における特徴量が同一又は略同一である他の特徴点と、が検出された場合、(a)前記一の撮影画像における前記一の特徴点の位置と、前記他の撮影画像における前記一の特徴点の位置との、前記被写体の回転軸に対応する第1の軸と直交する第2の軸方向の座標値の差に関する情報と、(b)前記一の撮影画像における前記他の特徴点の位置と、前記他の撮影画像における前記他の特徴点の位置との、前記第2の軸方向の座標値の差に関する情報と、を比較する比較手段と、
    前記判定手段の判定結果及び前記比較手段の比較結果に基づいて、前記一の撮影画像において検出された特徴点と、前記他の撮影画像において検出された特徴点と、が前記被写体上の同一点に対応する特徴点であるか否かを判定する手段と、
    さらに含むことを特徴とする画像処理装置。
  19. 請求項1乃至18のいずれかに記載の画像処理装置において、
    前記撮影画像取得手段は、前記被写体が複数回回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得し、
    前記動画像データ生成手段は、前記被写体が複数回回転している間に前記被写体を繰り返し撮影することによって得られた前記複数の撮影画像に基づいて、前記被写体が一回転する様子を示す前記動画像データを生成する、
    ことを特徴とする画像処理装置。
  20. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得ステップと、
    撮影画像内の特徴点を検出する特徴点検出ステップと、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得ステップと、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得ステップと、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成ステップと、
    を含み、
    前記撮影画像内の、前記被写体の回転軸に対応する直線の近傍領域を観測領域として設定するステップをさらに含み、
    前記回転角度情報取得ステップは、
    前記一の撮影画像における前記特徴点の位置と、前記他の撮影画像における前記特徴点の位置と、の差に関する位置差情報として、前記一の撮影画像における前記特徴点と、前記他の撮影画像における前記特徴点との間の、前記被写体の回転軸に対応する第1の軸と直交する第2の軸方向の位置の差に関する情報を取得するステップと、
    前記一の撮影画像における前記特徴点と、前記他の撮影画像における前記特徴点とが前記観測領域内に含まれている場合の前記位置差情報に基づいて、前記回転角度情報を取得するステップと、含む、
    とを特徴とする画像処理方法。
  21. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得手段、
    撮影画像内の特徴点を検出する特徴点検出手段、
    前記撮影画像内の、前記被写体の回転軸に対応する直線の近傍領域を観測領域として設定する手段、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得手段、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得手段、及び、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成手段、
    としてコンピュータを機能させ
    前記回転角度情報取得手段は、
    前記一の撮影画像における前記特徴点の位置と、前記他の撮影画像における前記特徴点の位置と、の差に関する位置差情報として、前記一の撮影画像における前記特徴点と、前記他の撮影画像における前記特徴点との間の、前記被写体の回転軸に対応する第1の軸と直交する第2の軸方向の位置の差に関する情報を取得する手段と、
    前記一の撮影画像における前記特徴点と、前記他の撮影画像における前記特徴点とが前記観測領域内に含まれている場合の前記位置差情報に基づいて、前記回転角度情報を取得する手段と、含む、
    ことを特徴とするプログラム。
  22. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得ステップと、
    撮影画像内の特徴点を検出する特徴点検出ステップと、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得ステップと、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得ステップと、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成ステップと、
    を含み、
    前記回転角度情報取得ステップは、
    前記被写体上の複数の点にそれぞれ対応する複数の特徴点が前記一の撮影画像及び前記他の撮影画像において検出される場合に、前記複数の特徴点の各々について、前記一の撮影画像における当該特徴点の位置と、前記他の撮影画像における当該特徴点の位置と、の差に関する位置差情報を取得するステップと、
    前記複数の特徴点の各々について、当該特徴点に対応する前記被写体上の点の回転半径に関する回転半径情報を取得する回転半径情報取得ステップと、
    前記複数の特徴点の各々について、当該特徴点に対応する前記被写体上の前記点の、前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の回転角度に関する回転角度情報を、当該特徴点の前記位置差情報及び前記回転半径情報に基づいて取得するステップと、
    前記複数の特徴点の各々の前記回転角度情報に基づいて、前記被写体の前記回転角度情報を取得するステップと、を含み、
    前記回転半径情報取得ステップは、
    前記複数の撮影画像において検出された前記特徴点のうちの、前記被写体の回転軸に対応する第1の軸と直交する第2の軸方向の位置座標が最も小さい前記特徴点と、前記第2の軸方向の位置座標が最も大きい前記特徴点と、に基づいて、前記撮影画像内の、前記特徴点が存在し得る領域である存在領域を特定するステップと、
    前記被写体上の同一点に対応する前記特徴点が第i(i:1以上の整数)の撮影画像において最初に検出され、かつ、前記第iの撮影画像よりも後に撮影された第j(j:i<jである整数)の撮影画像において最後に検出される場合であって、前記第iの撮影画像における当該特徴点が前記存在領域の端部領域に含まれ、かつ、前記第jの撮影画像における当該特徴点が前記存在領域の端部領域に含まれる場合に、前記第iの撮影画像における当該特徴点の位置と、前記第jの撮影画像における当該特徴点の位置との差に基づいて、当該特徴点の前記回転半径情報を取得するステップと、を含む、
    ことを特徴とする画像処理方法。
  23. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得手段、
    撮影画像内の特徴点を検出する特徴点検出手段、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得手段、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得手段、及び、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成手段、
    としてコンピュータを機能させ、
    前記回転角度情報取得手段は、
    前記被写体上の複数の点にそれぞれ対応する複数の特徴点が前記一の撮影画像及び前記他の撮影画像において検出される場合に、前記複数の特徴点の各々について、前記一の撮影画像における当該特徴点の位置と、前記他の撮影画像における当該特徴点の位置と、の差に関する位置差情報を取得する手段と、
    前記複数の特徴点の各々について、当該特徴点に対応する前記被写体上の点の回転半径に関する回転半径情報を取得する回転半径情報取得手段と、
    前記複数の特徴点の各々について、当該特徴点に対応する前記被写体上の前記点の、前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の回転角度に関する回転角度情報を、当該特徴点の前記位置差情報及び前記回転半径情報に基づいて取得する手段と、
    前記複数の特徴点の各々の前記回転角度情報に基づいて、前記被写体の前記回転角度情報を取得する手段と、を含み、
    前記回転半径情報取得手段は、
    前記複数の撮影画像において検出された前記特徴点のうちの、前記被写体の回転軸に対応する第1の軸と直交する第2の軸方向の位置座標が最も小さい前記特徴点と、前記第2の軸方向の位置座標が最も大きい前記特徴点と、に基づいて、前記撮影画像内の、前記特徴点が存在し得る領域である存在領域を特定する手段と、
    前記被写体上の同一点に対応する前記特徴点が第i(i:1以上の整数)の撮影画像において最初に検出され、かつ、前記第iの撮影画像よりも後に撮影された第j(j:i<jである整数)の撮影画像において最後に検出される場合であって、前記第iの撮影画像における当該特徴点が前記存在領域の端部領域に含まれ、かつ、前記第jの撮影画像における当該特徴点が前記存在領域の端部領域に含まれる場合に、前記第iの撮影画像における当該特徴点の位置と、前記第jの撮影画像における当該特徴点の位置との差に基づいて、当該特徴点の前記回転半径情報を取得する手段と、を含む、
    ことを特徴とするプログラム。
  24. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得ステップと、
    撮影画像内の特徴点を検出する特徴点検出ステップと、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得ステップと、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得ステップと、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成ステップと、
    を含み、
    前記動画像データ生成ステップは、
    前記複数の撮影画像のうちから選出される基準撮影画像の撮影時点から所定時間が経過した後に撮影された撮影画像において検出された特徴点のうちの、前記基準撮影画像において検出された特徴点に対応する特徴点の個数を取得する特徴点数取得ステップと、
    前記基準撮影画像の撮影時点から前記所定時間が経過した後に撮影された複数の撮影画像のうちから、前記被写体が一回転し終えた時点における撮影画像の候補を、前記特徴点数取得ステップにおける取得結果に基づいて選出するステップと、
    前記基準撮影画像と、前記候補として選出された撮影画像と、の類似度に関する類似度情報を取得するステップと、
    前記候補として選出された撮影画像のうちのいずれかを、前記被写体が一回転し終えた時点における撮影画像として、前記類似度情報に基づいて選出するステップと、を含み、
    前記動画像データ生成ステップでは、前記被写体が一回転し終えた時点における撮影画像として選出された撮影画像の撮影時点以前に撮影された撮影画像に基づいて、前記被写体が一回転する様子を示す前記動画像データが生成される、
    ことを特徴とする画像処理方法。
  25. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得手段、
    撮影画像内の特徴点を検出する特徴点検出手段、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得手段、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得手段、及び、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成手段、
    としてコンピュータを機能させ、
    前記動画像データ生成手段は、
    前記複数の撮影画像のうちから選出される基準撮影画像の撮影時点から所定時間が経過した後に撮影された撮影画像において検出された特徴点のうちの、前記基準撮影画像において検出された特徴点に対応する特徴点の個数を取得する特徴点数取得手段と、
    前記基準撮影画像の撮影時点から前記所定時間が経過した後に撮影された複数の撮影画像のうちから、前記被写体が一回転し終えた時点における撮影画像の候補を、前記特徴点数取得手段の取得結果に基づいて選出する手段と、
    前記基準撮影画像と、前記候補として選出された撮影画像と、の類似度に関する類似度情報を取得する手段と、
    前記候補として選出された撮影画像のうちのいずれかを、前記被写体が一回転し終えた時点における撮影画像として、前記類似度情報に基づいて選出する手段と、を含み、
    前記被写体が一回転し終えた時点における撮影画像として選出された撮影画像の撮影時点以前に撮影された撮影画像に基づいて、前記被写体が一回転する様子を示す前記動画像データを生成する、
    ことを特徴とするプログラム。
  26. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得ステップと、
    撮影画像内の特徴点を検出する特徴点検出ステップと、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得ステップと、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得ステップと、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成ステップと、
    を含み、
    前記複数の撮影画像は、第1の撮影画像〜第m(m:2以上の整数)の撮影画像と、前記第mの撮影画像の後に撮影された第m+1の撮影画像〜第m+n(n:1以上の整数)の撮影画像と、を含み、
    前記動画像データ生成ステップは、
    前記第1の撮影画像〜前記第mの撮影画像のうちから前記動画像データのフレーム画像として選出された撮影画像の個数を取得する選出数取得ステップと、
    前記被写体上の点に対応する特徴点が前記第m+1の撮影画像〜前記第m+nの撮影画像において検出されなかった場合に、前記第1の撮影画像〜前記第mの撮影画像の個数と、前記選出数取得ステップにおいて取得された個数と、の比率に基づいて、前記第m+1の撮影画像〜前記第m+nの撮影画像のうちから、前記動画像データのフレーム画像を選出するステップと、を含む、
    ことを特徴とする画像処理方法。
  27. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得手段、
    撮影画像内の特徴点を検出する特徴点検出手段、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得手段、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得手段、及び、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成手段、
    としてコンピュータを機能させ、
    前記複数の撮影画像は、第1の撮影画像〜第m(m:2以上の整数)の撮影画像と、前記第mの撮影画像の後に撮影された第m+1の撮影画像〜第m+n(n:1以上の整数)の撮影画像と、を含み、
    前記動画像データ生成手段は、
    前記第1の撮影画像〜前記第mの撮影画像のうちから前記動画像データのフレーム画像として選出された撮影画像の個数を取得する選出数取得手段と、
    前記被写体上の点に対応する特徴点が前記第m+1の撮影画像〜前記第m+nの撮影画像において検出されなかった場合に、前記第1の撮影画像〜前記第mの撮影画像の個数と、前記選出数取得手段によって取得された個数と、の比率に基づいて、前記第m+1の撮影画像〜前記第m+nの撮影画像のうちから、前記動画像データのフレーム画像を選出する手段と、を含む、
    ことを特徴とするプログラム。
  28. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得ステップと、
    撮影画像内の特徴点を検出する特徴点検出ステップと、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得ステップと、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得ステップと、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成ステップと、
    を含み、
    前記複数の撮影画像は、第1の撮影画像〜第m(m:2以上の整数)の撮影画像と、前記第mの撮影画像の後に撮影された第m+1の撮影画像〜第m+n(n:1以上の整数)の撮影画像と、を含み、
    前記動画像データ生成ステップは、
    前記第m+1の撮影画像〜前記第m+nの撮影画像のうちから前記動画像データのフレーム画像として選出された撮影画像の個数を取得する選出数取得ステップと、
    前記被写体上の点に対応する特徴点が前記第1の撮影画像〜前記第mの撮影画像において検出されなかった場合に、前記第m+1の撮影画像〜前記第m+nの撮影画像の個数と、前記選出数取得ステップにおける取得された個数と、の比率に基づいて、前記第1の撮影画像〜前記第mの撮影画像のうちから、前記動画像データのフレーム画像を選出するステップと、を含む、
    ことを特徴とする画像処理方法。
  29. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得手段、
    撮影画像内の特徴点を検出する特徴点検出手段、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得手段、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得手段、及び、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成手段、
    としてコンピュータを機能させ、
    前記複数の撮影画像は、第1の撮影画像〜第m(m:2以上の整数)の撮影画像と、前記第mの撮影画像の後に撮影された第m+1の撮影画像〜第m+n(n:1以上の整数)の撮影画像と、を含み、
    前記動画像データ生成手段は、
    前記第m+1の撮影画像〜前記第m+nの撮影画像のうちから前記動画像データのフレーム画像として選出された撮影画像の個数を取得する選出数取得手段と、
    前記被写体上の点に対応する特徴点が前記第1の撮影画像〜前記第mの撮影画像において検出されなかった場合に、前記第m+1の撮影画像〜前記第m+nの撮影画像の個数と、前記選出数取得手段によって取得された個数と、の比率に基づいて、前記第1の撮影画像〜前記第mの撮影画像のうちから、前記動画像データのフレーム画像を選出する手段と、を含む、
    ことを特徴とするプログラム。
  30. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得ステップと、
    撮影画像内の特徴点を検出する特徴点検出ステップと、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得ステップと、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得ステップと、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成ステップと、
    を含み、
    前記一の撮影画像において検出された特徴点の特徴量と、前記他の撮影画像において検出された特徴点の特徴量と、が同一又は略同一であるか否かを判定する第1の判定ステップと、
    前記一の撮影画像において検出された特徴点の位置と、前記他の撮影画像において検出された特徴点の位置との、前記被写体の回転軸に対応する軸方向の座標値の差が閾値以上であるか否かを判定する第2の判定ステップと、
    前記第1の判定ステップ及び前記第2の判定ステップにおける判定結果に基づいて、前記一の撮影画像において検出された特徴点と、前記他の撮影画像において検出された特徴点と、が前記被写体上の同一点に対応する特徴点であるか否かを判定するステップと、
    をさらに含むことを特徴とする画像処理方法。
  31. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得手段、
    撮影画像内の特徴点を検出する特徴点検出手段、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得手段、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得手段、及び、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成手段、
    としてコンピュータを機能させ、
    前記一の撮影画像において検出された特徴点の特徴量と、前記他の撮影画像において検出された特徴点の特徴量と、が同一又は略同一であるか否かを判定する第1の判定手段、
    前記一の撮影画像において検出された特徴点の位置と、前記他の撮影画像において検出された特徴点の位置との、前記被写体の回転軸に対応する軸方向の座標値の差が閾値以上であるか否かを判定する第2の判定手段、及び、
    前記第1の判定手段及び前記第2の判定手段の判定結果に基づいて、前記一の撮影画像において検出された特徴点と、前記他の撮影画像において検出された特徴点と、が前記被写体上の同一点に対応する特徴点であるか否かを判定する手段、として前記コンピュータをさらに機能させる、
    ことを特徴とするプログラム。
  32. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得ステップと、
    撮影画像内の特徴点を検出する特徴点検出ステップと、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得ステップと、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得ステップと、
    前記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成ステップと、
    を含み、
    前記一の撮影画像において検出された特徴点の特徴量と、前記他の撮影画像において検出された特徴点の特徴量と、が同一又は略同一であるか否かを判定する判定ステップと、
    前記一の撮影画像及び前記他の撮影画像の両方における特徴量が同一又は略同一である一の特徴点と、前記一の撮影画像及び前記他の撮影画像の両方における特徴量が同一又は略同一である他の特徴点と、が検出された場合、(a)前記一の撮影画像における前記一の特徴点の位置と、前記他の撮影画像における前記一の特徴点の位置との、前記被写体の回転軸に対応する第1の軸と直交する第2の軸方向の座標値の差に関する情報と、(b)前記一の撮影画像における前記他の特徴点の位置と、前記他の撮影画像における前記他の特徴点の位置との、前記第2の軸方向の座標値の差に関する情報と、を比較する比較ステップと、
    前記判定ステップにおける判定結果及び前記比較ステップにおける比較結果に基づいて、前記一の撮影画像において検出された特徴点と、前記他の撮影画像において検出された特徴点と、が前記被写体上の同一点に対応する特徴点であるか否かを判定するステップと、
    をさらに含むことを特徴とする画像処理方法。
  33. 被写体が回転している間に前記被写体を繰り返し撮影することによって得られた複数の撮影画像を取得する撮影画像取得手段、
    撮影画像内の特徴点を検出する特徴点検出手段、
    前記被写体上の同一点に対応する特徴点が、一の撮影画像と、前記一の撮影画像よりも後に撮影された他の撮影画像と、において検出された場合に、前記一の撮影画像及び前記他の撮影画像における前記特徴点の位置に関する位置情報を取得する位置情報取得手段、
    前記一の撮影画像の撮影時点と前記他の撮影画像の撮影時点との間の前記被写体の回転角度に関する回転角度情報を前記位置情報に基づいて取得する回転角度情報取得手段、及び、
    記被写体が回転する様子を示す動画像データのフレーム画像を、前記複数の撮影画像のうちから、前記回転角度情報に基づいて選出することによって、前記動画像データを生成する動画像データ生成手段、
    としてコンピュータを機能させ、
    前記一の撮影画像において検出された特徴点の特徴量と、前記他の撮影画像において検出された特徴点の特徴量と、が同一又は略同一であるか否かを判定する判定手段、
    前記一の撮影画像及び前記他の撮影画像の両方における特徴量が同一又は略同一である一の特徴点と、前記一の撮影画像及び前記他の撮影画像の両方における特徴量が同一又は略同一である他の特徴点と、が検出された場合、(a)前記一の撮影画像における前記一の特徴点の位置と、前記他の撮影画像における前記一の特徴点の位置との、前記被写体の回転軸に対応する第1の軸と直交する第2の軸方向の座標値の差に関する情報と、(b)前記一の撮影画像における前記他の特徴点の位置と、前記他の撮影画像における前記他の特徴点の位置との、前記第2の軸方向の座標値の差に関する情報と、を比較する比較手段、及び、
    前記判定手段の判定結果及び前記比較手段の比較結果に基づいて、前記一の撮影画像において検出された特徴点と、前記他の撮影画像において検出された特徴点と、が前記被写体上の同一点に対応する特徴点であるか否かを判定する手段、として前記コンピュータをさらに機能させる、
    ことを特徴とするプログラム。
JP2012213030A 2012-09-26 2012-09-26 画像処理装置、画像処理方法、及びプログラム Active JP5868816B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012213030A JP5868816B2 (ja) 2012-09-26 2012-09-26 画像処理装置、画像処理方法、及びプログラム
EP13842258.9A EP2903256B1 (en) 2012-09-26 2013-05-30 Image processing device, image processing method and program
ES13842258T ES2811800T3 (es) 2012-09-26 2013-05-30 Dispositivo de procesamiento de imágenes, método de procesamiento de imágenes y programa
US14/431,304 US10452953B2 (en) 2012-09-26 2013-05-30 Image processing device, image processing method, program, and information recording medium
PCT/JP2013/065116 WO2014050210A1 (ja) 2012-09-26 2013-05-30 画像処理装置、画像処理方法、プログラム、及び情報記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012213030A JP5868816B2 (ja) 2012-09-26 2012-09-26 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2014068264A JP2014068264A (ja) 2014-04-17
JP2014068264A5 JP2014068264A5 (ja) 2015-05-28
JP5868816B2 true JP5868816B2 (ja) 2016-02-24

Family

ID=50387629

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012213030A Active JP5868816B2 (ja) 2012-09-26 2012-09-26 画像処理装置、画像処理方法、及びプログラム

Country Status (5)

Country Link
US (1) US10452953B2 (ja)
EP (1) EP2903256B1 (ja)
JP (1) JP5868816B2 (ja)
ES (1) ES2811800T3 (ja)
WO (1) WO2014050210A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9741150B2 (en) 2013-07-25 2017-08-22 Duelight Llc Systems and methods for displaying representative images
EP3077084B1 (en) * 2013-12-06 2019-02-06 Johnson Matthey Public Limited Company Cold start catalyst and its use in exhaust systems
JP6476414B2 (ja) * 2014-09-08 2019-03-06 パナソニックIpマネジメント株式会社 静止画像抽出方法及びその方法を実現する画像処理装置
WO2016073329A1 (en) * 2014-11-03 2016-05-12 California Institute Of Technology Producing zeolite ssz-39 using isomeric mixtures of organic structure directing agents
KR102465332B1 (ko) * 2015-12-29 2022-11-11 에스케이플래닛 주식회사 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체
US20200047168A1 (en) * 2017-03-13 2020-02-13 Mitsubishi Chemical Corporation Transition metal-carrying zeolite and production method therefor, and nitrogen oxide purification catalyst and method for using same
KR102433408B1 (ko) * 2017-03-30 2022-08-18 스노우 주식회사 아이템에 대한 추천 정보 제공 방법 및 장치
KR101898580B1 (ko) * 2018-01-22 2018-09-13 주식회사 뷰노 영상의 열람을 지원하는 방법 및 이를 이용한 장치
US11080875B2 (en) * 2018-03-22 2021-08-03 Jvckenwood Corporation Shape measuring apparatus, shape measuring method, non-transitory computer readable medium storing program
CN109141365A (zh) * 2018-08-02 2019-01-04 孙仲碧 土壤修复状态监控方法
CN109013677A (zh) * 2018-08-04 2018-12-18 石修英 一种土壤有机污染环境监控系统
CN109284715B (zh) * 2018-09-21 2021-03-02 深圳市九洲电器有限公司 一种动态物体识别方法、装置及系统
EP3889904B1 (en) * 2020-03-31 2023-01-11 Continental Autonomous Mobility Germany GmbH Method and system for calculating vehicle trailer angle

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749937B2 (ja) * 1988-03-22 1995-05-31 工業技術院長 形状測定方法
US4969106A (en) * 1989-02-27 1990-11-06 Camsys, Inc. Computerized method of determining surface strain distributions in a deformed body
JPH0669448B2 (ja) * 1989-10-09 1994-09-07 株式会社東芝 ステレオ視観察のためのx線画像取得表示方法及びその装置
US6445814B2 (en) * 1996-07-01 2002-09-03 Canon Kabushiki Kaisha Three-dimensional information processing apparatus and method
JP3419213B2 (ja) * 1996-08-30 2003-06-23 ミノルタ株式会社 3次元形状データ処理装置
JP2003065736A (ja) 2001-08-24 2003-03-05 Sanyo Electric Co Ltd 3次元モデリング装置
JP4075418B2 (ja) 2002-03-15 2008-04-16 ソニー株式会社 画像処理装置及び画像処理方法、印刷物製造装置及び印刷物製造方法、並びに印刷物製造システム
JP2003299644A (ja) * 2002-04-11 2003-10-21 Hitachi Medical Corp コンピュータ断層撮影装置
US20040227751A1 (en) * 2003-01-08 2004-11-18 Kaidan Incorporated Method for capturing object images for 3D representation
JP4100195B2 (ja) * 2003-02-26 2008-06-11 ソニー株式会社 3次元オブジェクトの表示処理装置、表示処理方法、およびコンピュータプログラム
US7542050B2 (en) * 2004-03-03 2009-06-02 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
JP2009042900A (ja) * 2007-08-07 2009-02-26 Olympus Corp 撮像装置および画像選択装置
US20090096664A1 (en) * 2007-10-10 2009-04-16 Northrop Grumman Systems Corporation Method, Apparatus and Computer Program Product for Providing Stabilization During a Tracking Operation
JP5219090B2 (ja) * 2009-07-02 2013-06-26 ソーバル株式会社 3次元形状測定装置、3次元形状測定方法
JP2012060258A (ja) * 2010-09-06 2012-03-22 Funai Electric Co Ltd 動画撮影装置
US8913785B2 (en) 2010-09-30 2014-12-16 Electronics And Telecommunications Research Institute Apparatus and method for calculating motion of object
JP2012124745A (ja) * 2010-12-09 2012-06-28 Seabiscuit Co Ltd 表示用データ提供サーバ
EP2680594A4 (en) * 2011-02-24 2014-07-09 Kyocera Corp ELECTRONIC APPARATUS, IMAGE DISPLAY METHOD, AND IMAGE DISPLAY PROGRAM
JP2012175694A (ja) * 2011-02-24 2012-09-10 Kyocera Corp 電子機器
US8600194B2 (en) * 2011-05-17 2013-12-03 Apple Inc. Positional sensor-assisted image registration for panoramic photography

Also Published As

Publication number Publication date
JP2014068264A (ja) 2014-04-17
US10452953B2 (en) 2019-10-22
EP2903256B1 (en) 2020-07-29
EP2903256A4 (en) 2016-08-10
EP2903256A1 (en) 2015-08-05
WO2014050210A1 (ja) 2014-04-03
US20150302587A1 (en) 2015-10-22
ES2811800T3 (es) 2021-03-15

Similar Documents

Publication Publication Date Title
JP5868816B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US9665962B2 (en) Image distractor detection and processng
US9542585B2 (en) Efficient machine-readable object detection and tracking
US8879803B2 (en) Method, apparatus, and computer program product for image clustering
US9210327B2 (en) Blur aware photo feedback
CN111091590B (zh) 图像处理方法、装置、存储介质及电子设备
US9807299B2 (en) Image capture methods and systems with positioning and angling assistance
US8478068B2 (en) Image processing device, electronic instrument, and information storage medium for evaluating composition of input image
US9058655B2 (en) Region of interest based image registration
EP3093822B1 (en) Displaying a target object imaged in a moving picture
JP6314251B2 (ja) 操作入力装置、操作入力方法及びプログラム
EP3518522B1 (en) Image capturing method and device
US20180295273A1 (en) Device and method for detecting regions in an image
WO2022111461A1 (zh) 识别方法、装置及电子设备
WO2018027527A1 (zh) 一种光学系统成像质量的检测方法和装置
CN114390201A (zh) 对焦方法及其装置
JP2010055576A (ja) 画像処理装置、画像処理プログラム、コンピュータ読み取り可能な記録媒体、電子機器及び画像処理方法
CN108665459A (zh) 一种图像模糊检测方法、计算设备及可读存储介质
CN104933677B (zh) 用以在多个讯框中决定多个候选讯框的方法
WO2019053790A1 (ja) 位置座標算出方法及び位置座標算出装置
JP7232663B2 (ja) 画像処理装置及び画像処理方法
JP2016162234A (ja) 注目領域検出装置、注目領域検出方法及びプログラム
JP2019129470A (ja) 画像処理装置
JP2011135538A (ja) 撮像装置、及び撮像プログラム
Perera et al. Feature point tracking algorithm evaluation for augmented reality in handheld devices

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150409

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150409

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20150409

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160106

R150 Certificate of patent or registration of utility model

Ref document number: 5868816

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250