JPWO2008044524A1 - 画像分類プログラム、画像分類装置および電子カメラ - Google Patents
画像分類プログラム、画像分類装置および電子カメラ Download PDFInfo
- Publication number
- JPWO2008044524A1 JPWO2008044524A1 JP2008538656A JP2008538656A JPWO2008044524A1 JP WO2008044524 A1 JPWO2008044524 A1 JP WO2008044524A1 JP 2008538656 A JP2008538656 A JP 2008538656A JP 2008538656 A JP2008538656 A JP 2008538656A JP WO2008044524 A1 JPWO2008044524 A1 JP WO2008044524A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- clustering
- image classification
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
- H04N5/772—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/672—Focus control based on electronic image sensor signals based on the phase difference signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Studio Devices (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Color Television Image Signal Generators (AREA)
- Image Processing (AREA)
Abstract
画像分類プログラムは、画像の画素濃度に基づく特徴量を算出する第1処理と、特徴量が表す空間でクラスタリングを行う第2処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させる。
Description
本発明は、画像分類プログラム、画像分類装置および電子カメラに関する。
画像を分類する技術が知られている(特許文献1参照)。
従来技術では、類似の画像検索をあらかじめ人為的に行い、検索した画像にマークしておく必要があった。
本発明の第1の態様によると、画像分類プログラムは、画像の画素濃度に基づく特徴量を算出する第1処理と、特徴量が表す空間でクラスタリングを行う第2処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させる。
本発明の第2の態様によると、第1の態様の画像分類プログラムにおいて、第1処理は、画像全体の画素濃度に基づいて特徴量を算出することもできる。
本発明の第3の態様によると、第1の態様または第2の態様の画像分類プログラムにおいて、第1処理は、画像を分割した異なる領域の画素濃度に基づいて複数の特徴量をそれぞれ算出することもできる。
本発明の第4の態様によると、第3の態様の画像分類プログラムにおいて、第1処理は、異なる領域の画素濃度に基づいて算出した複数の特徴量の比を新たな特徴量として算出することもできる。
本発明の第5の態様によると、画像分類プログラムは、画像撮影時の測距情報に基づく特徴量を算出する第1処理と、特徴量が表す空間でクラスタリングを行う第2処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させる。
本発明の第6の態様によると、第5の態様の画像分類プログラムにおいて、第1処理は、画像を分割した異なる領域の測距情報に基づいて複数の特徴量をそれぞれ算出することもできる。
本発明の第7の態様によると、画像分類プログラムは、画像の画素濃度に基づく第1特徴量を算出する第1処理と、画像撮影時の測距情報に基づく第2特徴量を算出する第2処理と、第1特徴量および第2特徴量が表す空間でクラスタリングを行う第3処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第4処理とをコンピュータ装置に実行させる。
本発明の第8の態様によると、画像分類プログラムは、画像撮影時の主要被写体についての測距情報に基づく特徴量を算出する第1処理と、特徴量が表す空間でクラスタリングを行う第2処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させる。
本発明の第9の態様によると、画像分類プログラムは、画像撮影時の背景についての測距情報に基づく特徴量を算出する第1処理と、特徴量が表す空間でクラスタリングを行う第2処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させる。
本発明の第10の態様によると、画像分類プログラムは、画像撮影時の主要被写体についての測距情報の変化量に基づく特徴量を算出する第1処理と、特徴量が表す空間でクラスタリングを行う第2処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させる。
本発明の第11の態様によると、画像分類プログラムは、画像撮影時の主要被写体についての画素濃度の変化量に基づく特徴量を算出する第1処理と、特徴量が表す空間でクラスタリングを行う第2処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させる。
本発明の第12の態様によると、画像分類プログラムは、画像の画素濃度、画像撮影時の測距情報、画像撮影時の主要被写体についての測距情報、画像撮影時の背景についての測距情報、画像撮影時の主要被写体についての測距情報の変化量、および画像撮影時の主要被写体についての画素濃度の変化量のうち、少なくとも2つに基づく特徴量をそれぞれ算出する第1処理と、特徴量が表す空間でクラスタリングを行う第2処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させる。
本発明の第13の態様によると、画像分類装置は、第1の態様〜第12の態様のいずれかの態様の画像分類プログラムを搭載する。
本発明の第14の態様によると、電子カメラは、第1の態様〜第12の態様のいずれかの態様の画像分類プログラムを搭載する。
本発明の第2の態様によると、第1の態様の画像分類プログラムにおいて、第1処理は、画像全体の画素濃度に基づいて特徴量を算出することもできる。
本発明の第3の態様によると、第1の態様または第2の態様の画像分類プログラムにおいて、第1処理は、画像を分割した異なる領域の画素濃度に基づいて複数の特徴量をそれぞれ算出することもできる。
本発明の第4の態様によると、第3の態様の画像分類プログラムにおいて、第1処理は、異なる領域の画素濃度に基づいて算出した複数の特徴量の比を新たな特徴量として算出することもできる。
本発明の第5の態様によると、画像分類プログラムは、画像撮影時の測距情報に基づく特徴量を算出する第1処理と、特徴量が表す空間でクラスタリングを行う第2処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させる。
本発明の第6の態様によると、第5の態様の画像分類プログラムにおいて、第1処理は、画像を分割した異なる領域の測距情報に基づいて複数の特徴量をそれぞれ算出することもできる。
本発明の第7の態様によると、画像分類プログラムは、画像の画素濃度に基づく第1特徴量を算出する第1処理と、画像撮影時の測距情報に基づく第2特徴量を算出する第2処理と、第1特徴量および第2特徴量が表す空間でクラスタリングを行う第3処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第4処理とをコンピュータ装置に実行させる。
本発明の第8の態様によると、画像分類プログラムは、画像撮影時の主要被写体についての測距情報に基づく特徴量を算出する第1処理と、特徴量が表す空間でクラスタリングを行う第2処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させる。
本発明の第9の態様によると、画像分類プログラムは、画像撮影時の背景についての測距情報に基づく特徴量を算出する第1処理と、特徴量が表す空間でクラスタリングを行う第2処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させる。
本発明の第10の態様によると、画像分類プログラムは、画像撮影時の主要被写体についての測距情報の変化量に基づく特徴量を算出する第1処理と、特徴量が表す空間でクラスタリングを行う第2処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させる。
本発明の第11の態様によると、画像分類プログラムは、画像撮影時の主要被写体についての画素濃度の変化量に基づく特徴量を算出する第1処理と、特徴量が表す空間でクラスタリングを行う第2処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させる。
本発明の第12の態様によると、画像分類プログラムは、画像の画素濃度、画像撮影時の測距情報、画像撮影時の主要被写体についての測距情報、画像撮影時の背景についての測距情報、画像撮影時の主要被写体についての測距情報の変化量、および画像撮影時の主要被写体についての画素濃度の変化量のうち、少なくとも2つに基づく特徴量をそれぞれ算出する第1処理と、特徴量が表す空間でクラスタリングを行う第2処理と、クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させる。
本発明の第13の態様によると、画像分類装置は、第1の態様〜第12の態様のいずれかの態様の画像分類プログラムを搭載する。
本発明の第14の態様によると、電子カメラは、第1の態様〜第12の態様のいずれかの態様の画像分類プログラムを搭載する。
本発明によれば、人手によらずに画像を分類できる。
(第一の実施形態)
以下、本発明を実施するための最良の形態について説明する。図1は、本発明の第一の実施形態による電子カメラ1の要部構成を説明するブロック図である。電子カメラ1は、メインCPU11によって制御される。
以下、本発明を実施するための最良の形態について説明する。図1は、本発明の第一の実施形態による電子カメラ1の要部構成を説明するブロック図である。電子カメラ1は、メインCPU11によって制御される。
撮影レンズ21は、撮像素子22の撮像面上に被写体像を結像させる。撮像素子22はCCDイメージセンサなどで構成され、撮像面上の被写体像を撮像し、撮像信号を撮像回路23へ出力する。撮像素子22の撮像面には、それぞれR(赤)、G(緑)およびB(青)のカラーフィルタが画素位置に対応するように設けられている。撮像素子22がカラーフィルタを通して被写体像を撮像するため、撮像素子22から出力される光電変換信号は、RGB表色系の色情報を有する。
撮像回路23は、撮像素子22から出力される光電変換信号に対するアナログ処理(ゲインコントロールなど)を行う他、内蔵するA/D変換回路でアナログ撮像信号をディジタルデータに変換する。
メインCPU11は、各ブロックから出力される信号を入力して所定の演算を行い、演算結果に基づく制御信号を各ブロックへ出力する。画像処理回路12は、たとえばASICとして構成され、撮像回路23から入力されるディジタル画像信号に対して画像処理を行う。画像処理には、たとえば、輪郭強調や色温度調整(ホワイトバランス調整)処理、画像信号に対するフォーマット変換処理が含まれる。
画像圧縮回路13は、画像処理回路12による処理後の画像信号に対して、JPEG方式で所定の圧縮比率の画像圧縮処理を行う。表示画像作成回路15は、撮像画像を液晶モニタ16に表示させるための表示データを作成する。
記録媒体30は、電子カメラ1に対して着脱可能なメモリカードなどで構成される。記録媒体30には、メインCPU11からの指示によって撮影画像のデータおよびその情報を含む画像ファイルが記録される。記録媒体30に記録された画像ファイルは、メインCPU11からの指示によって読み出しが可能である。
バッファメモリ14は、画像処理前後および画像処理途中のデータを一時的に格納する他、記録媒体30へ記録する前の画像ファイルを格納したり、記録媒体30から読み出した画像ファイルを格納したりするために使用される。
操作部材17は、電子カメラ1の各種ボタンやスイッチ類を含み、レリーズボタンの押下操作、モード切替スイッチの切換操作など、各操作部材の操作内容に応じた操作信号をメインCPU11へ出力する。
焦点検出装置18は、焦点検出領域に対応する光束を用いて、周知の位相差検出方式によって撮影レンズ21による焦点調節状態の検出を行う。具体的には、焦点検出光学系(不図示)を介して一対の被写体像をオートフォーカスセンサ(不図示)上に結像させる。メインCPU11は、センサ上の一対の被写体像の相対間隔に基づいて撮影レンズ21による焦点位置の調節状態(デフォーカス量)を算出する。
レンズ駆動機構19は、メインCPU11からの指示によって撮影レンズ21を構成するフォーカスレンズ(不図示)を光軸方向に進退移動させる。これにより、ピント調節が行われる。
電子カメラ1は、撮影モードと再生モードとを切替え可能に構成される。撮影モードは、被写体像を撮影し、撮影画像のデータを記録媒体30に画像ファイルとして保存する動作モードである。再生モードは、撮影済みの画像データを記録媒体30から読み出すなどして、画像データによる再生画像を液晶モニタ16に表示するモードである。
<撮影画像分類処理>
本実施形態の電子カメラ1は、撮影画像を自動的に分類する機能を備える。具体的には、記録媒体30に記録済みの画像ファイルに対して分類処理を行い、分類後の画像ファイルをグループごとに設けたフォルダ内に格納する。電子カメラ1のメインCPU11は、操作部材17から分類処理実行を指示する操作信号が入力されると、画像分類処理を開始する。
本実施形態の電子カメラ1は、撮影画像を自動的に分類する機能を備える。具体的には、記録媒体30に記録済みの画像ファイルに対して分類処理を行い、分類後の画像ファイルをグループごとに設けたフォルダ内に格納する。電子カメラ1のメインCPU11は、操作部材17から分類処理実行を指示する操作信号が入力されると、画像分類処理を開始する。
図2は、メインCPU11が行う画像分類処理の流れを説明するフローチャートである。図2のステップS11において、メインCPU11は、記録媒体30から画像ファイルを読み出し、当該ファイル内の画像データをバッファメモリ14に展開させてステップS12へ進む。画像ファイルの読み出しは、あらかじめ指示されているフォルダから順に読み出す方式と、記録媒体30内の全フォルダから順に読み出す方式とが操作部材17からの操作信号によって選択可能に構成されている。
ステップS12において、メインCPU11は、バッファメモリ14上の画像データについての特徴量を算出してステップS13へ進む。特徴量算出処理の詳細については後述する。ステップS13において、メインCPU11は、全画像について特徴量を算出したか否かを判定する。メインCPU11は、読み出しが指示された全ての画像ファイルについて、その読み出しおよび特徴量の算出を行った場合にステップS13を肯定判定してステップS14へ進む。メインCPU11は、画像ファイルの読み出しおよび特徴量の算出を行っていない画像ファイルが存在する場合にはステップS13を否定判定し、ステップS11へ戻る。ステップS11へ戻る場合は、画像ファイルの読み出しと特徴量の算出処理とを繰り返す。
ステップS14において、メインCPU11はクラスタリング処理を行ってステップS15へ進む。クラスタリング処理の詳細については後述する。ステップS15において、メインCPU11は、記録媒体30内の所定領域にクラスタリング処理後のクラスター数に応じた複数のフォルダを生成してステップS16へ進む。ステップS16において、メインCPU11は、各クラスターに対応するフォルダ内へ画像ファイルを移動させる。具体的には、各クラスター内に含まれている特徴データに対応する画像ファイルを、それぞれ対応するフォルダ内へ移動させて図2による処理を終了する。この処理により、記録媒体30内の複数の画像ファイルが分類され、生成したフォルダ内にそれぞれ移動される。
特徴量算出処理の詳細について、図3に例示するフローチャートを参照して説明する。図3のステップS31において、メインCPU11は、画像上部のB成分Bhと画像下部のB成分Btとの比(=Bh/Bt)を算出してステップS32へ進む。Bhは、画像を構成する画素データのうち、たとえば画像の上から略1/3の領域に対応する画素データのB成分の濃度値(たとえば8ビット階調の場合に0〜255)の平均である。また、Btは、画像を構成する画素データのうち、たとえば画像の下から略1/3の領域に対応する画素データのB成分の濃度値の平均である。
ステップS32において、メインCPU11はエッジ情報Eを算出してステップS33へ進む。エッジ情報Eは、画像を構成する画素データのうち、G成分にエッジ抽出用のフィルタ処理を施した上で隣接画素間のデータの差分を算出したものである。具体的には、G成分画像に対して画素単位でsobelオペレータと呼ばれる係数行列(次式(1)および次式(2))を用いたエッジ抽出を行う。
上式(1)は画素並びのX方向についてのオペレータであり、上式(2)は画素並びのY方向についてのオペレータである。上記オペレータによるエッジ抽出後の画像に対してさらに、隣接画素間でそれぞれ濃度差(濃度値の差)の絶対値を算出し、これら絶対値の総和をエッジ情報Eとする。
ステップS33において、メインCPU11は、B成分の平均濃度Bmを算出してステップS34へ進む。メインCPU11は、画像を構成する全画素データの中でB成分の濃度値(たとえば8ビット階調の場合に0〜255)の平均を算出する。
ステップS34において、メインCPU11は、Y成分の平均濃度Ymを算出してステップS35へ進む。Y成分は、次式(3)で算出される輝度情報である。メインCPU11は、画像を構成する全画素データの中でY成分の濃度値の平均を算出する。
Y=0.299×R+0.587×G+0.114×B …(3)
Y=0.299×R+0.587×G+0.114×B …(3)
ステップS35において、メインCPU11は、画像上部の距離情報を算出する。図4は、電子カメラ1の焦点検出領域を説明する図である。図4において符号41〜51で示される11箇所のマーク(中抜き四角)が焦点検出領域(フォーカスエリア)に対応する。電子カメラ1は、フォーカスエリアのそれぞれに対応する光束を用いて、撮影画面内の複数箇所でデフォーカス量を検出可能に構成されている。
電子カメラ1で撮影され、記録媒体30に記録された画像ファイルには、上記撮影画面内の複数箇所でそれぞれ検出されたデフォーカス量を示すデータと、ピント合わせに採用したフォーカスエリアを示すデータとを含む測距情報が、たとえば、Exif情報として記録されている。
メインCPU11は、画像ファイル内に記録されている測距情報のうち、たとえば撮影画面の上から略1/3の領域(図4において直線L1より上側)に含まれるフォーカスエリアに関して取得された測距情報を用いて以下のように距離情報を算出し、ステップS36へ進む。
メインCPU11は、たとえば、デフォーカス量によって被写体距離0.5m以下が示されている場合は距離情報を「0」とする。デフォーカス量によって被写体距離0.5m〜2m以下が示されている場合は距離情報を「0.3」とする。デフォーカス量によって被写体距離2m〜5m以下が示されている場合は距離情報を「0.7」とする。デフォーカス量によって被写体距離5m以上が示されている場合は距離情報を「1」とする。
メインCPU11は、(1)撮影画面の上から略1/3の領域にピント合わせに採用したフォーカスエリアが存在する場合、当該フォーカスエリアについてのデフォーカス量で示される距離情報を画像上部の距離情報Dhとする。メインCPU11は、(2)撮影画面の上から略1/3の領域にピント合わせに採用したフォーカスエリアが存在しない場合、当該領域に含まれる複数のフォーカスエリアについての各デフォーカス量で示される距離情報の平均を画像上部の距離情報Dhとする。
ステップS36において、メインCPU11は、画像ファイル内に記録されている測距情報のうち、たとえば撮影画面の上下方向に中央の略1/3の領域(図4において直線L1およびL2間)に含まれるフォーカスエリアに関して取得された測距情報を用いて以下のように距離情報を算出し、ステップS37へ進む。
メインCPU11は、(1)撮影画面の中央部略1/3の領域にピント合わせに採用したフォーカスエリアが存在する場合、当該フォーカスエリアについてのデフォーカス量で示される距離情報を画像中部の距離情報Dcとする。メインCPU11は、(2)撮影画面の中央部略1/3の領域にピント合わせに採用したフォーカスエリアが存在しない場合、当該領域に含まれる複数のフォーカスエリアについての各デフォーカス量で示される距離情報の平均を画像中部の距離情報Dcとする。
ステップS37において、メインCPU11は、画像ファイル内に記録されている測距情報のうち、たとえば撮影画面の下から略1/3の領域(図4において直線L2より下側)に含まれるフォーカスエリアに関して取得された測距情報を用いて以下のように距離情報を算出し、図3による処理を終了して図2のステップS13へ進む。
メインCPU11は、(1)撮影画面の下部略1/3の領域にピント合わせに採用したフォーカスエリアが存在する場合、当該フォーカスエリアについてのデフォーカス量で示される距離情報を画像下部の距離情報Dtとする。メインCPU11は、(2)撮影画面の下部略1/3の領域にピント合わせに採用したフォーカスエリアが存在しない場合、当該領域に含まれる複数のフォーカスエリアについての各デフォーカス量で示される距離情報の平均を画像下部の距離情報Dtとする。以上説明した特徴量算出処理により、1画像につき7種の特徴量が算出される。
クラスタリング処理の詳細について、図5に例示するフローチャートを参照して説明する。図5のステップS51において、メインCPU11は、1画像(n種の特徴量で示されるn次元の特徴空間における1データ)を1クラスターとしてステップS52へ進む。本実施形態では、7種の特徴量Bh/Bt、E、Bm、Ym、Dh、Dc、Dtで示される7次元空間においてクラスタリングを行う。7次元空間は、各特徴量を示す7つの特徴軸を互いに直交させた仮想空間である。
ステップS53において、メインCPU11は、クラスター相互の距離のうち距離最小の一対のクラスターを1つのクラスターに併合してステップS54へ進む。この処理により、クラスター数が減少する。ステップS54において、メインCPU11はクラスター数が所定数か否かを判定する。メインCPU11は、クラスター数が所定数まで減少した場合にステップS54を肯定判定して図5の処理を終了し、図2のステップS15へ進む。メインCPU11は、クラスター数が所定数まで減少していない場合にはステップS54を否定判定し、ステップS52へ戻る。ステップS52へ戻る場合はクラスタリング処理を続行する。
本実施形態では所定数をたとえば6とすることにより、クラスター数が6になるまでクラスタリング処理を行う。この結果、画像ファイルが6つのグループに分類される。クラスタリング処理後のクラスター内に複数のデータが存在する場合、各データに対応する画像ファイルの画像は類似性が高い。
図6は、分類処理後の画像ファイルを説明する図である。分類処理後の6つのクラスターに対応する6つのフォルダの中に、それぞれ対応する画像ファイルによるサムネイル画像を表示している。図6によれば、クラスター1に対応するフォルダに2画像、クラスター2に対応するフォルダに16画像、クラスター3に対応するフォルダに3画像、クラスター4に対応するフォルダに7画像、クラスター5に対応するフォルダに1画像、クラスター6に対応するフォルダに9画像が含まれている。
図6に例示した6つのグループには、とくにポートレート画像が集まるグループ(クラスター2)と、スポーツシーンの画像が集まるグループ(クラスター4)と、山岳写真の画像が集まるグループ(クラスター6)が存在している。
以上説明した第一の実施形態によれば、以下の作用効果が得られる。
(1)画像を構成する画素データ、および撮影時の測距情報に基づく画像の特徴量によって表される特徴空間において、統計解析手法として周知のクラスタリング処理を行うようにした。クラスタリング処理は分類対象であるデータの集合を複数の部分集合に分割するものであるが、画像を表す特徴量データの集合を複数の部分集合に分割することで、類似度が高い画像の特徴量データの集合(クラスタリング処理後のクラスター)が得られる。クラスター内の各特徴量データに対応する画像をグルーピングすれば類似度が高い画像のグループが得られるため、人手を介さずに全自動で画像分類を行うことができる。
(1)画像を構成する画素データ、および撮影時の測距情報に基づく画像の特徴量によって表される特徴空間において、統計解析手法として周知のクラスタリング処理を行うようにした。クラスタリング処理は分類対象であるデータの集合を複数の部分集合に分割するものであるが、画像を表す特徴量データの集合を複数の部分集合に分割することで、類似度が高い画像の特徴量データの集合(クラスタリング処理後のクラスター)が得られる。クラスター内の各特徴量データに対応する画像をグルーピングすれば類似度が高い画像のグループが得られるため、人手を介さずに全自動で画像分類を行うことができる。
(2)画素データが示す濃度に基づく特徴量(たとえば、Bh/Bt、E、Bm、Ym)で表した特徴空間でクラスタリング処理を行うので、濃淡や色合いが類似する画像をグルーピングできる。
(3)撮影画面を分割した複数の領域からそれぞれ画素濃度に基づく特徴量を抽出した(たとえば、Bh、Bt)ので、撮影画面の一部に存在する特徴量を用いて画像をグルーピングできる。
(4)複数の異なる領域から抽出された特徴量の比を新たに特徴量とした(たとえば、Bh/Bt)ので、領域間のコントラストが類似する画像をグルーピングできる。
(5)撮影時の測距情報に基づく特徴量(たとえば、Dh、Dc、Dt)で表した空間でクラスタリング処理を行うので、被写体距離が類似する画像をグルーピングできる。
(6)撮影画面を分割した複数の領域からそれぞれ測距情報に基づく特徴量を抽出した(たとえば、Dh、Dc、Dt)ので、撮影画面の一部の測距情報を特徴量に用いて画像をグルーピングできる。
(7)撮影画面を分割した領域にピント合わせの対象が存在する場合はその測距情報を当該分割領域の特徴量とし、撮影画面を分割した領域にピント合わせの対象が存在しない場合には当該分割領域内の測距情報の平均を当該分割領域の特徴量とした。これにより、ピントを合わせた主要被写体までの距離が平均されることがなく、近影画像を適切にグルーピングできる。
(8)グルーピング後にグループごとのファイルへ画像ファイルを移動させたので、画像分類後の画像ファイルの扱いが簡単である。たとえば、電子カメラ1から外部機器(パーソナルコンピュータや電子フォトビューワなど)へ分類後の画像ファイルを転送する際にフォルダ単位で転送できる。これにより、外部機器へ全ての画像ファイルを転送する場合に比べて転送時間が短縮される上に、全ての画像ファイルを転送する場合に比べて外部機器側のメモリ使用量を抑えることができる。
(変形例1)
上述した説明では、画像分類後に所定数の画像ファイル格納用フォルダを生成し、分類した画像ファイルを対応するフォルダ内へ移動させる例を説明した。この代わりに、各画像ファイル内に分類後のクラスターを示すタグ(TAG)情報を記録しておくようにしてもよい。この場合には、電子カメラ1から外部機器(パーソナルコンピュータや電子フォトビューワなど)へ分類処理後の画像ファイルを転送する際に各画像ファイルのTAG情報を参照し、クラスターが同一の画像ファイルのみを共通のフォルダへ転送すれば、類似性の高い画像を簡単にまとめることができる。
上述した説明では、画像分類後に所定数の画像ファイル格納用フォルダを生成し、分類した画像ファイルを対応するフォルダ内へ移動させる例を説明した。この代わりに、各画像ファイル内に分類後のクラスターを示すタグ(TAG)情報を記録しておくようにしてもよい。この場合には、電子カメラ1から外部機器(パーソナルコンピュータや電子フォトビューワなど)へ分類処理後の画像ファイルを転送する際に各画像ファイルのTAG情報を参照し、クラスターが同一の画像ファイルのみを共通のフォルダへ転送すれば、類似性の高い画像を簡単にまとめることができる。
(変形例2)
画素濃度を用いて算出した特徴量データ、および測距情報を用いて算出した特徴量データの双方を用いてクラスタリングを行う例を説明したが、いずれか一方の特徴量データのみを用いてクラスタリングを行う構成にしてもよい。
画素濃度を用いて算出した特徴量データ、および測距情報を用いて算出した特徴量データの双方を用いてクラスタリングを行う例を説明したが、いずれか一方の特徴量データのみを用いてクラスタリングを行う構成にしてもよい。
(変形例3)
上述した数値(たとえば、特徴量の種類数、画像の上部、中部、下部における1/3領域、ステップS54において判定する所定数、撮影画面内のフォーカスエリア数など)は一例であり、異なる数値を用いても構わない。
上述した数値(たとえば、特徴量の種類数、画像の上部、中部、下部における1/3領域、ステップS54において判定する所定数、撮影画面内のフォーカスエリア数など)は一例であり、異なる数値を用いても構わない。
(変形例4)
以上の説明では、RGB表色系(いわゆる原色系)で表されたカラーの元画像に画像分類処理を行う場合を例に説明したが、CMY表色系(いわゆる補色系)で表されたカラーの元画像に対して画像分類処理を行う場合にも本発明を適用して構わない。
以上の説明では、RGB表色系(いわゆる原色系)で表されたカラーの元画像に画像分類処理を行う場合を例に説明したが、CMY表色系(いわゆる補色系)で表されたカラーの元画像に対して画像分類処理を行う場合にも本発明を適用して構わない。
(第二の実施形態)
第一の実施形態と異なる特徴量を算出してもよい。図7は、本発明の第二の実施形態による特徴量算出処理の詳細を例示するフローチャートである。図7の処理は、図3の処理に代えて行われる。図7のステップS71において、メインCPU11は、主要被写体を対象に測距値(距離情報)を算出する。図8は、本実施形態における電子カメラ1の焦点検出領域を説明する図である。撮影画面内に記した縦6×横9=54箇所のマーク(中抜き四角)が焦点検出領域(フォーカスエリア)に対応する。電子カメラ1は、フォーカスエリアのそれぞれに対応する光束を用いて、撮影画面内の複数箇所でデフォーカス量を検出可能に構成されている。
第一の実施形態と異なる特徴量を算出してもよい。図7は、本発明の第二の実施形態による特徴量算出処理の詳細を例示するフローチャートである。図7の処理は、図3の処理に代えて行われる。図7のステップS71において、メインCPU11は、主要被写体を対象に測距値(距離情報)を算出する。図8は、本実施形態における電子カメラ1の焦点検出領域を説明する図である。撮影画面内に記した縦6×横9=54箇所のマーク(中抜き四角)が焦点検出領域(フォーカスエリア)に対応する。電子カメラ1は、フォーカスエリアのそれぞれに対応する光束を用いて、撮影画面内の複数箇所でデフォーカス量を検出可能に構成されている。
電子カメラ1で撮影され、記録媒体30に記録された画像ファイルには、オートフォーカス(AF)調節時に上記撮影画面内の複数箇所でそれぞれ検出されたデフォーカス量を示すデータと、ピント合わせに採用されたフォーカスエリアを示すデータとを含む測距情報が、たとえば、Exif情報として記録されている。
メインCPU11は、画像ファイル内に記録されている測距情報のうち、たとえばピント合わせに用いたフォーカスエリアについてのデフォーカス量が示す被写体距離(電子カメラ1から主要被写体までの距離)を算出し、ステップS72へ進む。本実施形態のメインCPU11は、ピント合わせに用いたフォーカスエリアに位置する被写体を主要被写体として扱う。
複数箇所のフォーカスエリアの中からどのフォーカスエリアをピント合わせに用いるかは、ユーザ操作によってあらかじめ電子カメラ1に設定されている。たとえば、電子カメラ1に最も近い至近の測距情報が取得されるフォーカスエリアを用いたり、ユーザ操作で指定されているフォーカスエリアを用いたりすることが可能である。至近の測距情報が取得されるフォーカスエリアを採用する場合のメインCPU11は、電子カメラ1に至近の被写体を主要被写体として扱う。
ステップS72において、メインCPU11は、被写体背景を対象に測距値(距離情報)を算出する。メインCPU11は、画像ファイル内に記録されている測距情報のうち、ピント合わせに採用されなかったフォーカスエリアに関して取得されたデフォーカス量が示す被写体距離を算出する。メインCPU11はさらに、算出した被写体距離のうち、上記主要被写体までの距離との差が所定値以上のものを、被写体背景の距離(電子カメラ1から背景までの距離)情報としてステップS73へ進む。
ステップS73において、メインCPU11は、主要被写体までの測距値の変化量を算出する。電子カメラ1で撮影され、記録媒体30に記録された画像ファイルには、AF調節時にピント合わせに採用されたフォーカスエリアに関して取得されたデフォーカス量の直近の変化量情報が、上記Exif情報に含められている。
至近の被写体を主要被写体として扱う場合のメインCPU11は、撮影前に繰り返し取得(たとえば、約30msec間隔)した測距情報のうち、撮影直前の所定回(たとえば3回)分の測距情報(それぞれの回で取得された至近の測距情報)を変化量情報とする。
メインCPU11は、画像ファイル内に記録されている上記3回の測距情報m1、m2、m3から速度情報としてm1とm2の差分の絶対値、m2とm3の差分の絶対値、またはm1とm3の差分の絶対値のいずれかを測距値の変化量情報とする。または、加速度情報としてm1−(2×m2)+m3の絶対値を測距値の変化量情報としてもよい。ステップS74へ進む。
ステップS74において、メインCPU11は、主要被写体に対応する画素データが示す濃度の変化量を算出する。電子カメラ1で撮影され、記録媒体30に記録された画像ファイルには、AF調節時にピント合わせに採用されたフォーカスエリアに対応して取得された画素データが示す濃度の直近の変化量情報が、上記Exif情報に含められている。
至近の被写体を主要被写体として扱う場合のメインCPU11は、撮影前に繰り返し取得(たとえば、約30msec間隔)した画素データのうち、撮影直前の所定回(たとえば3回)分の濃度情報(それぞれの回で取得された濃度情報)を変化量情報とする。
メインCPU11は、画像ファイル内に記録されている上記3回の濃度情報b1、b2、b3から速度情報としてb1とb2の差分の絶対値、b2とb3の差分の絶対値、またはb1とb3の差分の絶対値のいずれかを濃度値の変化量情報とする。または、加速度情報としてb1−(2×b2)+b3の絶対値を濃度値の変化量情報としてもよい。図7による処理を終了する。メインCPU11は、画像を構成する画素データの中で、フォーカスエリアに含まれるY成分データ群の濃度値の平均を各回の濃度情報とする。Y成分は、上式(3)で算出される輝度情報であり、画像の明るさに対応する。以上説明した特徴量算出処理により、1画像につき4種の特徴量が算出される。
第二の実施形態のメインCPU11は、図5に例示するクラスタリング処理を以下のように行う。図5のステップS51において、メインCPU11は、1画像(n種の特徴量で示されるn次元の特徴空間における1データ)を1クラスターとしてステップS52へ進む。本実施形態では、4種の特徴量(すなわち、主要被写体までの距離情報、被写体背景の距離情報、主要被写体までの距離情報の変化量、Y成分の濃度変化量)で示される4次元空間においてクラスタリングを行う。4次元空間は、各特徴量を示す4つの特徴軸を互いに直交させた仮想空間である。
ステップS52において、メインCPU11は、各クラスター間の距離d(R,Q)を群間平均を算出する上式(4)を用いて算出し、ステップS53へ進む。
ただし、R、Qはそれぞれクラスターを表す。
ただし、R、Qはそれぞれクラスターを表す。
ステップS53において、メインCPU11は、クラスター相互の距離のうち距離最小の一対のクラスターを1つのクラスターに併合してステップS54へ進む。この処理により、クラスター数が減少する。ステップS54において、メインCPU11はクラスター数が所定数か否かを判定する。メインCPU11は、クラスター数が所定数まで減少した場合にステップS54を肯定判定して図5の処理を終了し、図2のステップS15へ進む。メインCPU11は、クラスター数が所定数まで減少していない場合にはステップS54を否定判定し、ステップS52へ戻る。ステップS52へ戻る場合はクラスタリング処理を続行する。
第二の実施形態では所定数をたとえば7とすることにより、クラスター数が7になるまでクラスタリング処理を行う。この結果、画像ファイルが7つのグループに分類される。クラスタリング処理後のクラスター内に複数のデータが存在する場合、各データに対応する画像ファイルの画像は類似性が高い。
図9は、分類処理後の画像ファイルを説明する図である。分類処理後の7つのクラスターに対応する7つのフォルダの中に、それぞれ対応する画像ファイルによるサムネイル画像を表示している。図9によれば、クラスター1に対応するフォルダに2画像、クラスター2に対応するフォルダに4画像、クラスター3に対応するフォルダに3画像、クラスター4に対応するフォルダに3画像、クラスター5に対応するフォルダに3画像、クラスター6に対応するフォルダに2画像、クラスター7に対応するフォルダに1画像が含まれている。
図9に例示した7つのグループには、山岳写真の画像が集まるグループ(クラスター1)と、花の遠景の画像が集まるグループ(クラスター2)と、花の接写画像が集まるグループ(クラスター3)と、ポートレートの画像が集まるグループ(クラスター4)と、山岳より距離が近く、かつ緑成分の多い画像が集まるグループ(クラスター5)と、室内で暗い画像が集まるグループ(クラスター6)と、室内で明るい画像が集まるグループ(クラスター7)とが存在している。
以上説明した第二の実施形態によれば、以下の作用効果が得られる。
(1)主要被写体までの距離情報に基づく特徴量で表した特徴空間でクラスタリング処理を行うので、たとえば、接写画像やポートレート画像など、撮影距離が類似する画像をグルーピングできる。
(1)主要被写体までの距離情報に基づく特徴量で表した特徴空間でクラスタリング処理を行うので、たとえば、接写画像やポートレート画像など、撮影距離が類似する画像をグルーピングできる。
(2)背景被写体までの距離情報に基づく特徴量で表した特徴空間でクラスタリング処理を行うので、たとえば、山岳写真など背景までの距離が類似する画像をグルーピングできる。
(3)主要被写体までの距離情報の変化量に基づく特徴量で表した特徴空間でクラスタリング処理を行うので、たとえば、スポーツシーンなどの画像をグルーピングできる。
(4)至近の測距情報が得られるフォーカスエリアを用いて距離情報の変化量を求めるようにしたので、主要被写体までの距離の変化とともに、主要被写体が撮影画面内を移動する場合の変化量をも加味した特徴空間でクラスタリング処理を行うことができる。
(5)主要被写体の濃度(たとえば輝度)情報の変化量に基づく特徴量で表した特徴空間でクラスタリング処理を行うので、たとえば、明るさが変化するシーンなどの画像をグルーピングできる。
(変形例5)
主要被写体までの距離情報を用いて算出した特徴量データ、背景被写体までの距離情報を用いて算出した特徴量データ、主要被写体までの距離情報の変化量を用いて算出した特徴量データ、および主要被写体の濃度情報の変化量を用いて算出した特徴量データをそれぞれ用いてクラスタリングを行う例を説明したが、1つの特徴量データを用いてクラスタリングを行ってもよい。なお、少なくとも2つ以上の複数の特徴量データを用いてクラスタリングを行うようにすれば、たとえば、主要被写体までの距離と背景までの距離との双方が類似する画像をグルーピングできるため、グルーピングの精度を高めることができる。
主要被写体までの距離情報を用いて算出した特徴量データ、背景被写体までの距離情報を用いて算出した特徴量データ、主要被写体までの距離情報の変化量を用いて算出した特徴量データ、および主要被写体の濃度情報の変化量を用いて算出した特徴量データをそれぞれ用いてクラスタリングを行う例を説明したが、1つの特徴量データを用いてクラスタリングを行ってもよい。なお、少なくとも2つ以上の複数の特徴量データを用いてクラスタリングを行うようにすれば、たとえば、主要被写体までの距離と背景までの距離との双方が類似する画像をグルーピングできるため、グルーピングの精度を高めることができる。
(変形例6)
第二の実施形態で説明した4つの特徴量データに加えて、第一の実施形態で説明した7つの特徴量データを用いてクラスタリングを行ってもよい。この場合にも、少なくとも2つ以上の特徴量データを用いてクラスタリングを行う構成にするとよい。
第二の実施形態で説明した4つの特徴量データに加えて、第一の実施形態で説明した7つの特徴量データを用いてクラスタリングを行ってもよい。この場合にも、少なくとも2つ以上の特徴量データを用いてクラスタリングを行う構成にするとよい。
(変形例7)
ステップS74において、画素データが示す濃度の変化量を算出する際にフォーカスエリアに含まれるY成分データ群の濃度値の平均を用いて算出した。この代わりに、特定の色成分(たとえばB成分)のデータ群の濃度値の平均を用いて算出するようにしてもよい。この場合には、主要被写体の濃度(たとえばB成分)情報の変化量に基づく特徴量で表した特徴空間でクラスタリング処理を行うので、特定の色味が変化するシーンなどの画像をグルーピングできる。
ステップS74において、画素データが示す濃度の変化量を算出する際にフォーカスエリアに含まれるY成分データ群の濃度値の平均を用いて算出した。この代わりに、特定の色成分(たとえばB成分)のデータ群の濃度値の平均を用いて算出するようにしてもよい。この場合には、主要被写体の濃度(たとえばB成分)情報の変化量に基づく特徴量で表した特徴空間でクラスタリング処理を行うので、特定の色味が変化するシーンなどの画像をグルーピングできる。
(変形例8)
電子カメラ1内で画像分類処理を実行する例を説明したが、図2、図3および図5による処理を行う画像分類プログラムを図7に示すコンピュータ装置10に実行させることにより、画像分類装置を構成してもよい。画像分類プログラムをパーソナルコンピュータ10に取込んで使用する場合には、パーソナルコンピュータ10のデータストレージ装置にプログラムをローディングした上で、当該プログラムを実行させることによって画像分類装置として使用する。
電子カメラ1内で画像分類処理を実行する例を説明したが、図2、図3および図5による処理を行う画像分類プログラムを図7に示すコンピュータ装置10に実行させることにより、画像分類装置を構成してもよい。画像分類プログラムをパーソナルコンピュータ10に取込んで使用する場合には、パーソナルコンピュータ10のデータストレージ装置にプログラムをローディングした上で、当該プログラムを実行させることによって画像分類装置として使用する。
パーソナルコンピュータ10に対するプログラムのローディングは、プログラムを格納したCD−ROMなどの記録媒体104をパーソナルコンピュータ10にセットして行ってもよいし、ネットワークなどの通信回線101を経由する方法でパーソナルコンピュータ10へローディングしてもよい。通信回線101を経由する場合は、通信回線101に接続されたサーバー(コンピュータ)102のハードディスク装置103などにプログラムを格納しておく。画像分類プログラムは、記録媒体104や通信回線101を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。
以上の説明では種々の実施形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も、本発明の範囲内に含まれる。
次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
日本国特許出願2006年第276190号(2006年10月10日出願)
日本国特許出願2006年第276190号(2006年10月10日出願)
Claims (14)
- 画像の画素濃度に基づく特徴量を算出する第1処理と、
特徴量が表す空間でクラスタリングを行う第2処理と、
クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させることを特徴とする画像分類プログラム。 - 請求項1に記載の画像分類プログラムにおいて、
第1処理は、画像全体の画素濃度に基づいて特徴量を算出することを特徴とする画像分類プログラム。 - 請求項1または2に記載の画像分類プログラムにおいて、
第1処理は、画像を分割した異なる領域の画素濃度に基づいて複数の特徴量をそれぞれ算出することを特徴とする画像分類プログラム。 - 請求項3に記載の画像分類プログラムにおいて、
第1処理は、異なる領域の画素濃度に基づいて算出した複数の特徴量の比を新たな特徴量として算出することを特徴とする画像分類プログラム。 - 画像撮影時の測距情報に基づく特徴量を算出する第1処理と、
特徴量が表す空間でクラスタリングを行う第2処理と、
クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させることを特徴とする画像分類プログラム。 - 請求項5に記載の画像分類プログラムにおいて、
第1処理は、画像を分割した異なる領域の測距情報に基づいて複数の特徴量をそれぞれ算出することを特徴とする画像分類プログラム。 - 画像の画素濃度に基づく第1特徴量を算出する第1処理と、
画像撮影時の測距情報に基づく第2特徴量を算出する第2処理と、
第1特徴量および第2特徴量が表す空間でクラスタリングを行う第3処理と、
クラスタリングにより分割された特徴量に対応する画像をグルーピングする第4処理とをコンピュータ装置に実行させることを特徴とする画像分類プログラム。 - 画像撮影時の主要被写体についての測距情報に基づく特徴量を算出する第1処理と、
特徴量が表す空間でクラスタリングを行う第2処理と、
クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させることを特徴とする画像分類プログラム。 - 画像撮影時の背景についての測距情報に基づく特徴量を算出する第1処理と、
特徴量が表す空間でクラスタリングを行う第2処理と、
クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させることを特徴とする画像分類プログラム。 - 画像撮影時の主要被写体についての測距情報の変化量に基づく特徴量を算出する第1処理と、
特徴量が表す空間でクラスタリングを行う第2処理と、
クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させることを特徴とする画像分類プログラム。 - 画像撮影時の主要被写体についての画素濃度の変化量に基づく特徴量を算出する第1処理と、
特徴量が表す空間でクラスタリングを行う第2処理と、
クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させることを特徴とする画像分類プログラム。 - 画像の画素濃度、画像撮影時の測距情報、画像撮影時の主要被写体についての測距情報、画像撮影時の背景についての測距情報、画像撮影時の主要被写体についての測距情報の変化量、および画像撮影時の主要被写体についての画素濃度の変化量のうち、少なくとも2つに基づく特徴量をそれぞれ算出する第1処理と、
特徴量が表す空間でクラスタリングを行う第2処理と、
クラスタリングにより分割された特徴量に対応する画像をグルーピングする第3処理とをコンピュータ装置に実行させることを特徴とする画像分類プログラム。 - 請求項1〜12のいずれか一項に記載の画像分類プログラムを搭載したことを特徴とする画像分類装置。
- 請求項1〜12のいずれか一項に記載の画像分類プログラムを搭載したことを特徴とする電子カメラ。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006276190 | 2006-10-10 | ||
JP2006276190 | 2006-10-10 | ||
PCT/JP2007/069191 WO2008044524A1 (fr) | 2006-10-10 | 2007-10-01 | Programme de classification d'image, appareil de classification d'image et caméra électronique |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012099065A Division JP2012164345A (ja) | 2006-10-10 | 2012-04-24 | 画像分類プログラム、画像分類装置および電子カメラ |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2008044524A1 true JPWO2008044524A1 (ja) | 2010-02-12 |
Family
ID=39282733
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008538656A Pending JPWO2008044524A1 (ja) | 2006-10-10 | 2007-10-01 | 画像分類プログラム、画像分類装置および電子カメラ |
JP2012099065A Pending JP2012164345A (ja) | 2006-10-10 | 2012-04-24 | 画像分類プログラム、画像分類装置および電子カメラ |
JP2013151583A Active JP5601407B2 (ja) | 2006-10-10 | 2013-07-22 | 画像分類プログラム、画像分類装置および電子カメラ |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012099065A Pending JP2012164345A (ja) | 2006-10-10 | 2012-04-24 | 画像分類プログラム、画像分類装置および電子カメラ |
JP2013151583A Active JP5601407B2 (ja) | 2006-10-10 | 2013-07-22 | 画像分類プログラム、画像分類装置および電子カメラ |
Country Status (4)
Country | Link |
---|---|
US (1) | US9036922B2 (ja) |
EP (1) | EP2073166A4 (ja) |
JP (3) | JPWO2008044524A1 (ja) |
WO (1) | WO2008044524A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5233458B2 (ja) * | 2008-07-15 | 2013-07-10 | 株式会社ニコン | 画像編集装置及び画像編集プログラム |
JP5543098B2 (ja) * | 2008-11-14 | 2014-07-09 | キヤノン株式会社 | 撮像装置 |
US9223783B2 (en) * | 2010-08-08 | 2015-12-29 | Qualcomm Incorporated | Apparatus and methods for managing content |
US8824748B2 (en) * | 2010-09-24 | 2014-09-02 | Facebook, Inc. | Auto tagging in geo-social networking system |
US9317530B2 (en) | 2011-03-29 | 2016-04-19 | Facebook, Inc. | Face recognition based on spatial and temporal proximity |
US10311096B2 (en) | 2012-03-08 | 2019-06-04 | Google Llc | Online image analysis |
JP5845313B2 (ja) * | 2014-05-12 | 2016-01-20 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
JP5982040B2 (ja) * | 2015-05-11 | 2016-08-31 | キヤノン株式会社 | 撮像装置及びその制御方法 |
JP7242278B2 (ja) * | 2018-12-07 | 2023-03-20 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP2020118764A (ja) * | 2019-01-21 | 2020-08-06 | オリンパス株式会社 | フォーカス制御装置およびフォーカス制御方法 |
CN114972764B (zh) * | 2022-08-01 | 2022-11-18 | 浙江省肿瘤医院 | 一种基于特征聚类的多图谱分割方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0855220A (ja) * | 1994-08-12 | 1996-02-27 | N T T Data Tsushin Kk | 移動物体抽出処理方式及び方法 |
JP2004341940A (ja) * | 2003-05-16 | 2004-12-02 | Fujitsu Ltd | 類似画像検索装置、類似画像検索方法、および類似画像検索プログラム |
JP2005235041A (ja) * | 2004-02-23 | 2005-09-02 | Nippon Telegr & Teleph Corp <Ntt> | 検索画像表示方法および検索画像表示プログラム |
JP2005327242A (ja) * | 2004-05-14 | 2005-11-24 | Omron Corp | 特定被写体検出装置 |
JP2006079567A (ja) * | 2004-09-13 | 2006-03-23 | Olympus Corp | 情報管理プログラム、情報管理プログラムを記録したコンピュータ読み取り可能な記録媒体、情報管理装置 |
JP2006190154A (ja) * | 2005-01-07 | 2006-07-20 | Konica Minolta Photo Imaging Inc | 画像処理方法、画像処理装置、画像処理プログラム及び撮像装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69329380T2 (de) * | 1993-06-30 | 2001-03-01 | Ibm | Verfahren zum Segmentieren von Bildern und Klassifizieren von Bildelementen zur Dokumentverarbeitung |
JPH09312794A (ja) | 1996-05-22 | 1997-12-02 | Casio Comput Co Ltd | 画像抽出装置及び画像抽出方法 |
JPH1125263A (ja) | 1997-07-08 | 1999-01-29 | Canon Inc | 対象物特徴点検出装置、焦点調節装置、露出制御装置及びカメラ |
JPH11134344A (ja) | 1997-10-27 | 1999-05-21 | Nippon Telegr & Teleph Corp <Ntt> | 画像分類蓄積方法および装置並びに画像検索方法および装置 |
JP2001160057A (ja) | 1999-12-03 | 2001-06-12 | Nippon Telegr & Teleph Corp <Ntt> | 画像の階層的分類方法、および画像の分類・検索装置、およびこの方法を実行するプログラムを記録した記録媒体 |
JP3965894B2 (ja) | 2000-10-05 | 2007-08-29 | 富士ゼロックス株式会社 | 画像処理装置および画像処理方法 |
JP2002304415A (ja) | 2001-04-04 | 2002-10-18 | Omron Corp | 画像検索装置 |
JP2003087545A (ja) | 2001-09-07 | 2003-03-20 | Canon Inc | 撮像装置、画像処理装置及び方法 |
JP4329694B2 (ja) | 2005-01-07 | 2009-09-09 | 株式会社ニコン | 撮像装置 |
-
2007
- 2007-10-01 JP JP2008538656A patent/JPWO2008044524A1/ja active Pending
- 2007-10-01 US US12/310,917 patent/US9036922B2/en not_active Expired - Fee Related
- 2007-10-01 WO PCT/JP2007/069191 patent/WO2008044524A1/ja active Application Filing
- 2007-10-01 EP EP07828931.1A patent/EP2073166A4/en not_active Ceased
-
2012
- 2012-04-24 JP JP2012099065A patent/JP2012164345A/ja active Pending
-
2013
- 2013-07-22 JP JP2013151583A patent/JP5601407B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0855220A (ja) * | 1994-08-12 | 1996-02-27 | N T T Data Tsushin Kk | 移動物体抽出処理方式及び方法 |
JP2004341940A (ja) * | 2003-05-16 | 2004-12-02 | Fujitsu Ltd | 類似画像検索装置、類似画像検索方法、および類似画像検索プログラム |
JP2005235041A (ja) * | 2004-02-23 | 2005-09-02 | Nippon Telegr & Teleph Corp <Ntt> | 検索画像表示方法および検索画像表示プログラム |
JP2005327242A (ja) * | 2004-05-14 | 2005-11-24 | Omron Corp | 特定被写体検出装置 |
JP2006079567A (ja) * | 2004-09-13 | 2006-03-23 | Olympus Corp | 情報管理プログラム、情報管理プログラムを記録したコンピュータ読み取り可能な記録媒体、情報管理装置 |
JP2006190154A (ja) * | 2005-01-07 | 2006-07-20 | Konica Minolta Photo Imaging Inc | 画像処理方法、画像処理装置、画像処理プログラム及び撮像装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2012164345A (ja) | 2012-08-30 |
JP2014013574A (ja) | 2014-01-23 |
US9036922B2 (en) | 2015-05-19 |
WO2008044524A1 (fr) | 2008-04-17 |
US20100080420A1 (en) | 2010-04-01 |
EP2073166A4 (en) | 2017-07-19 |
JP5601407B2 (ja) | 2014-10-08 |
EP2073166A1 (en) | 2009-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5601407B2 (ja) | 画像分類プログラム、画像分類装置および電子カメラ | |
JP4862930B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP4840426B2 (ja) | 電子機器、ぼけ画像選別方法及びプログラム | |
JP4998630B2 (ja) | 画像処理装置、および画像評価プログラム | |
US8355056B2 (en) | Image processing device, imaging device, and image processing program | |
JP2007019678A (ja) | 顔画像記録装置および撮像装置ならびにそれらの制御方法 | |
JP2011010275A (ja) | 画像再生装置及び撮像装置 | |
JP2010073002A (ja) | 画像処理装置およびカメラ | |
JP5068690B2 (ja) | 画像記録装置及び方法 | |
JP5504990B2 (ja) | 撮像装置、画像処理装置及びプログラム | |
JP3649468B2 (ja) | 撮影機能付き電子アルバムシステム | |
US7940435B2 (en) | Apparatus, method and program for image display | |
JP5381498B2 (ja) | 画像処理装置、画像処理プログラムおよび画像処理方法 | |
JP5509621B2 (ja) | 画像処理装置、カメラおよびプログラム | |
JP5160655B2 (ja) | 画像処理装置および方法並びにプログラム | |
JP6590681B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6776532B2 (ja) | 画像処理装置、撮像装置、電子機器及び画像処理プログラム | |
JP5629562B2 (ja) | 画像処理装置及びその制御方法、及びプログラム | |
JP5287965B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5631181B2 (ja) | 画像処理装置及びその制御方法、及びプログラム | |
JP4770965B2 (ja) | 画像マッチング装置、およびカメラ | |
JP2007288409A (ja) | 画像データ分類機能を備えた撮像装置およびプログラム | |
JP5400942B2 (ja) | 画像記録装置及び方法 | |
JP2014022826A (ja) | 画像処理装置、撮像装置及び画像処理プログラム | |
JP4939628B2 (ja) | 画像表示制御装置および対象画像記録装置ならびにそれらの制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111226 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120124 |