JP2015088774A - カメラ装置、画像処理プログラムおよび画像処理方法 - Google Patents
カメラ装置、画像処理プログラムおよび画像処理方法 Download PDFInfo
- Publication number
- JP2015088774A JP2015088774A JP2013223336A JP2013223336A JP2015088774A JP 2015088774 A JP2015088774 A JP 2015088774A JP 2013223336 A JP2013223336 A JP 2013223336A JP 2013223336 A JP2013223336 A JP 2013223336A JP 2015088774 A JP2015088774 A JP 2015088774A
- Authority
- JP
- Japan
- Prior art keywords
- image
- processor
- search
- subject
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Telephone Function (AREA)
- Focusing (AREA)
- Camera Data Copying Or Recording (AREA)
- Automatic Focus Adjustment (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
【構成】携帯電話機10はカメラモジュールなどを備える。カメラ機能が実行されているときにシャッターキーが操作されると、被写体どうしの位置が検出され、検出された位置に基づいて判断された被写体の相対位置関係がメタ情報として撮影画像と共に保存される。保存された撮影画像が表示されているときに抽出操作がされると、保存された相対位置関係および抽出操作によって示された位置に基づいて検索対象画像が抽出される。この状態で、実行キーが操作されると画像検索処理が実行され、検索対象画像による検索結果が得られる。そして、検索結果を含む検索結果ポップアップ(P)がディスプレイ14に表示される。
【効果】撮影画像と共に被写体どうしの相対位置関係が保存されるため、撮影画像が保存されたあとでも、ユーザは、抽出操作を行うことで、被写体どうしの相対位置関係を適切に把握することが出来る。
【選択図】図1
【効果】撮影画像と共に被写体どうしの相対位置関係が保存されるため、撮影画像が保存されたあとでも、ユーザは、抽出操作を行うことで、被写体どうしの相対位置関係を適切に把握することが出来る。
【選択図】図1
Description
この発明はカメラ装置、画像処理プログラムおよび画像処理方法に関し、特にユーザの操作に応じて撮影画像データを保存する、カメラ装置、画像処理プログラムおよび画像処理方法に関する。
背景技術の一例が特許文献1に開示されている。この特許文献1のカメラ付携帯電話機では、ユーザが撮影を行うと画像保存処理が実行され、撮影した画像がメモリに保存される。
特開2011-171988号公報[H04N 5/76, H04N 5/225, H04N 5/907, H04M 1/00, H04N 5/91]
特許文献1のカメラ付携帯電話機では、ユーザは、複数の被写体を撮影した後に、撮影した画像をディスプレイに表示させることが出来る。ところが、それぞれの位置が異なる複数の被写体をズームした状態で撮影すると画角が狭くなるため、撮影した画像の遠近感が弱くなる。そのため、撮影した画像を後で確認したときに、ユーザは複数の被写体の位置関係を適切に把握できないことがある。
それゆえに、この発明の主たる目的は、新規な、カメラ装置、画像処理プログラムおよび画像処理方法を提供することである。
この発明の他の目的は、撮影された被写体の状態を把握することが出来る、カメラ装置、画像処理プログラムおよび画像処理方法を提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、カメラモジュール、カメラモジュールから取得された撮影画像において被写体の位置を検出する検出部、および撮影画像を、被写体の位置を示す位置情報と共に保存する保存部を備える、カメラ装置である。
第1の発明では、カメラ装置(10:実施例において対応する部分を例示する参照符号。以下、同じ。)のカメラモジュール(50−54)は、たとえばイメージセンサ(52)を含み、画像を出力する。検出部(30,S93)は、たとえば被写体を選択する操作が行われたときに、カメラモジュールから取得された画像から被写体の位置を検出する。保存部(30,S97)は、撮影画像を、被写体の位置を示す位置情報と共にフラッシュメモリ(44)などの記憶部に保存する。
第1の発明によれば、撮影画像と共に被写体の位置を示す位置情報が保存されるため、撮影画像が保存されたあとでも、ユーザは被写体の位置を適切に把握することが出来る。
第2の発明は、第1の発明に従属し、カメラモジュールは、レンズを含み、検出部は、レンズの焦点距離を利用して、被写体の位置を検出する。
第2の発明では、カメラモジュールはレンズ(54)を含む。たとえば、レンズをテレ端からワイド端に移動させたときのレンズの焦点距離を利用して、検出部は、被写体の位置を検出する。
第3の発明は、第2の発明に従属し、カメラモジュールの出力から算出したフォーカス評価値に基づいて前記レンズの位置を調整するオートフォーカス処理を制御する制御部をさらに備え、撮影画像は、所定数の分割領域に分割され、検出部は、分割領域毎にフォーカス評価値が算出され、分割領域毎にフォーカス評価値が最大となったときのレンズの位置に基づいて、被写体の位置を検出する。
第3の発明では、制御部(30,50)は、カメラモジュールから出力される生画像信号からフォーカス評価値を算出し、そのフォーカス評価値に基づいてレンズの位置を制御する。撮影画像は、所定数(たとえば、9)の分割領域(R)に分割される。レンズ位置を移動させたときに、分割領域毎にフォーカス評価値が算出され、フォーカス評価値が最大となった時のレンズ位置が、分割領域毎に記憶される。そして、このようにして記憶された分割領域毎のレンズ位置に基づいて、被写体の位置が検出される。
第2の発明または第3の発明によれば、レンズの焦点距離を利用して被写体の位置を検出することが可能であるため、カメラモジュールを備える既存のカメラ装置であってもソフトウェアを更新または追加することで、被写体の位置を検出できるようになる。
第4の発明は、第1の発明ないし第3の発明のいずれかに従属し、検出部は、撮影操作が行われたときに被写体の位置を検出する。
第4の発明では、たとえば、ユーザがシャッターキーを操作すると、検出部は被写体の位置を検出する。
第4の発明によれば、撮影画像と共に被写体の位置を保存することが出来る。
第5の発明は、カメラモジュール(50−54)を有する、カメラ装置(10)のプロセッサ(30)を、カメラモジュールから取得された撮影画像において被写体の位置を検出する検出部(S93)、および撮影画像を、被写体の位置を示す位置情報と共に保存する保存部(S97)として機能させる、画像処理プログラムである。
第5の発明でも、第1の発明と同様、撮影画像と共に被写体の位置が保存されるため、撮影画像が保存されたあとでも、ユーザは被写体の位置を適切に把握することが出来る。
第6の発明は、カメラモジュール(50−54)を有する、カメラ装置(10)における画像処理方法であって、カメラ装置のプロセッサ(30)が、カメラモジュールから取得された撮影画像において被写体の位置を検出する検出ステップ(S93)、および撮影画像を、被写体の位置を示す位置情報と共に保存する保存ステップ(S97)を実行する、画像処理方法である。
第6の発明でも、第1の発明と同様、撮影画像と共に被写体の位置が保存されるため、撮影画像が保存されたあとでも、ユーザは被写体の位置を適切に把握することが出来る。
この発明によれば、撮影された被写体の状態を把握することが出来る。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
<第1実施例>
図1(A),(B)を参照して、この発明の一実施例の携帯電話機10は、一例としてスマートフォン(smartphone)であり、縦長の扁平矩形のハウジング12を含む。ただし、この発明は、タブレット端末、タブレットPC、ノートPCおよびPDAなど任意の携帯端末またはデジタルカメラなどのカメラ装置に適用可能であることを予め指摘しておく。
図1(A),(B)を参照して、この発明の一実施例の携帯電話機10は、一例としてスマートフォン(smartphone)であり、縦長の扁平矩形のハウジング12を含む。ただし、この発明は、タブレット端末、タブレットPC、ノートPCおよびPDAなど任意の携帯端末またはデジタルカメラなどのカメラ装置に適用可能であることを予め指摘しておく。
ハウジング12の主面(表面)には、たとえば液晶や有機ELなで構成され、表示部とも呼ばれるディスプレイ14が設けられる。ディスプレイ14の上には、タッチパネル16が設けられる。
ハウジング12の縦方向一端の主面側にスピーカ18が内蔵され、縦方向他端の主面側にマイク20が内蔵される。
ハウジング12の主面には、タッチパネル16と共に入力操作手段を構成するハードキーとして、この実施例では、通話キー22a、終話キー22bおよびメニューキー22cが設けられる。
また、ハウジング12の他面(裏面)には、カメラモジュールのレンズ54などに通じるレンズ開口24が設けられる。
たとえば、ユーザは、ディスプレイ14に表示されたダイヤルパッドに対して、タッチ操作が行われると電話番号が入力され、通話キー22aが操作されると音声通話が開始される。終話キー22bが操作されると音声通話が終了する。なお、終話キー22bを長押しすることによって、携帯電話機10の電源をオン/オフすることができる。
また、メニューキー22cが操作されると、ディスプレイ14にホーム画面が表示される。ユーザは、その状態でディスプレイ14に表示されているオブジェクトなどに対して、タッチパネル16によるタッチ操作を行うことによってオブジェクトを選択し、その選択を確定させることができる。
また、カメラ機能が実行されると、ディスプレイ14に被写界と対応するプレビュー画像(スルー画像)が表示される。そして、ユーザは、レンズ開口24が設けられている他面を任意の被写体に向けて撮影操作を行うことで、被写体を撮影することが出来る。
なお、携帯電話機10は、電話機能以外に、メール機能およびブラウザ機能などを実行可能である。また、以下の説明では、ディスプレイ14に表示されるキーなどのGUIおよびアイコンなどは、まとめてオブジェクトと言うことがある。
図2を参照して、図1に示す実施例の携帯電話機10は、コンピュータまたはCPUと呼ばれるプロセッサ30などを含む。プロセッサ30には、無線通信回路32、A/D変換器36、D/A変換器38、入力装置40、表示ドライバ42、フラッシュメモリ44、RAM46、タッチパネル制御回路48およびカメラ制御回路50などが接続される。
プロセッサ30は、携帯電話機10の全体制御を司る。RAM46には、フラッシュメモリ44に予め設定されているプログラムの全部または一部が使用に際して展開され、プロセッサ30はこのRAM46上のプログラムに従って動作する。また、RAM46はさらに、プロセッサ30のワーキング領域ないしバッファ領域として用いられる。
入力装置40は、図1に示すハードキー22を含むものである。そのため、ハードキー22に対するキー操作を受け付ける操作受付部を構成する。操作受付部が受け付けたハードキーの情報(キーデータ)はプロセッサ30に入力される。
無線通信回路32は、アンテナ34を通して、音声通話やメールなどのための電波を送受信するための回路である。実施例では、無線通信回路32は、CDMA方式での無線通信を行うための回路である。たとえば、タッチパネル16が受け付けた発呼(音声発信)の操作に基づき、無線通信回路32は、プロセッサ30の指示の下、音声発信処理を実行し、アンテナ34を介して音声発信信号を出力する。音声発信信号は、基地局および通信網を経て相手の電話機に送信される。そして、相手の電話機において音声着信処理が行われると、通信可能状態が確立され、プロセッサ30は通話処理を実行する。
また、無線通信回路32はアンテナ34を介して、ネットワーク(通信網、電話網)100と無線接続される。データサーバ102は、有線または無線で、ネットワーク100と接続される。したがって、携帯電話機10は、ネットワーク100を介してデータサーバ102と通信を確立することが出来る。
A/D変換器36には図1に示すマイク20が接続され、上述のようにマイク20からの音声信号はこのA/D変換器36でディジタルの音声データに変換され、プロセッサ30に入力される。一方、D/A変換器38にはスピーカ18が接続される。D/A変換器38は、ディジタルの音声データを音声信号に変換して、アンプを介してスピーカ18に与える。したがって、音声データに基づく音声がスピーカ18から出力される。そして、通話処理が実行されている状態では、マイク20によって集音された音声が相手の電話機に送信され、相手の電話機で集音された音声が、スピーカ18から出力される。
表示ドライバ42には図1に示すディスプレイ14が接続され、したがって、ディスプレイ14はプロセッサ30から出力される映像または画像データに従って映像または画像を表示する。表示ドライバ42は表示する画像データを一時的に記憶するビデオメモリを含んでおり、プロセッサ30から出力されたデータはこのビデオメモリに記憶される。そして、表示ドライバ42は、ビデオメモリの内容に従って、ディスプレイ14に画像を表示する。つまり、表示ドライバ42は、プロセッサ30の指示の下、当該表示ドライバ42に接続されたディスプレイ14の表示を制御する。そのため、プロセッサ30は表示制御部と呼ばれることもある。なお、ディスプレイ14には、バックライトが設けられており、表示ドライバ42はプロセッサ30の指示に従って、そのバックライトの明るさや、点灯/消灯を制御する。
タッチパネル制御回路48には、タッチパネル16が接続される。タッチパネル制御回路48は、タッチパネル16に必要な電圧などを付与すると共に、タッチパネル16に対するタッチの開始を示すタッチ開始信号、タッチの終了を示す終了信号、およびタッチされたタッチ位置を示す座標データをプロセッサ30に入力する。したがって、プロセッサ30はこの座標データに基づいて、タッチされたオブジェクトを判断する。
実施例では、タッチパネル16は、その表面と指などの物体(以下、便宜上合わせて指と言う。)との間に生じる静電容量の変化を検出する静電容量方式のタッチパネルである。タッチパネル16は、たとえば1本または複数本の指がタッチパネル16に触れたことを検出する。そのため、タッチパネル16はポインティングデバイスとも呼ばれる。タッチパネル制御回路48は、タッチパネル16のタッチ有効範囲内でのタッチ操作を検出して、そのタッチ操作の位置を示す座標データをプロセッサ30に出力する。つまり、タッチパネル16の表面に対してタッチ操作が行われることによって、操作位置や、操作方向などを携帯電話機10に入力する。
本実施例のタッチ操作には、タップ操作、ロングタップ操作、フリック操作、スライド操作などが含まれる。
タップ操作は、タッチパネル16の表面に指を接触(タッチ)させた後、短時間のうちにタッチパネル16の表面から指を離す(リリースする)操作である。ロングタップ操作は、所定時間以上、指をタッチパネル16の表面に接触させ続けた後、指をタッチパネル16の表面から離す操作である。フリック操作は、タッチパネル16の表面に指を接触させ、任意の方向へ所定速度以上で指を弾く操作である。スライド操作は、タッチパネル16の表面に指を接触させたまま任意の方向へ移動させた後、タッチパネル16の表面から指を離す操作である。
また、上記のスライド操作には、ディスプレイ14の表面に表示されたオブジェクトに指を触れ、オブジェクトを移動させるスライド操作、いわゆるドラッグ操作も含まれる。また、ドラッグ操作の後、タッチパネル16の表面から指を離す操作をドロップ操作と呼ぶ。
なお、以下の説明では、タップ操作、ロングタップ操作、フリック操作、スライド操作、ドラッグ操作およびドロップ操作は、それぞれ「操作」を省略して記述されることがある。また、タッチ操作はユーザの指だけに限らず、スタイラスペンなどによって行われてもよい。
カメラ制御回路50には、イメージセンサ52およびレンズ54のレンズ位置を調整するモータ(図示せず)などが接続される。また、カメラ制御回路50は、携帯電話機10で静止画像または動画像を撮影するための回路である。たとえば、カメラ機能を実行する操作が行われると、プロセッサ30はカメラ制御回路50を起動して、カメラ機能を実行する。なお、カメラ制御回路50、イメージセンサ52およびレンズ54は、まとめてカメラモジュールまたは撮影部と呼ばれる。
たとえば、被写体の光学像はイメージセンサ52に照射され、イメージセンサ52の撮像エリアには、たとえばSXGA(1280×1024画素)に対応する受光素子が配置されており、撮像エリアでは、光電変換によって、被写体の光学像に対応する電荷つまりSXGAの生画像信号が生成される。なお、ユーザは、画像データのサイズを、SXGAの他に、XGA(1024×768画素)およびVGA(640×480画素)などに変更することができる。
カメラ機能が実行されると、被写体のリアルタイム動画像つまりプレビュー画像をディスプレイ14に表示するべく、プロセッサ30は、カメラ制御回路50に内蔵されるイメージセンサドライバを起動させ、露光動作および指定された読み出し領域に対応する電荷読み出し動作を、イメージセンサドライバに命令する。
イメージセンサドライバは、イメージセンサ52の撮像面の露光と、当該露光によって生成された電荷の読み出しとを実行する。この結果、生画像信号が、イメージセンサ52から出力される。また、出力された生画像信号はカメラ制御回路50に入力され、カメラ制御回路50は入力された生画像信号に対して、色分離、白バランス調整、YUV変換などの処理を施し、YUV形式の画像データを生成する。そして、YUV形式の画像データはプロセッサ30に入力される。
ここで、カメラ制御回路50は生画像信号からフォーカス評価値を算出し、そのフォーカス評価値をプロセッサ30に出力する。プロセッサ30は、カメラ制御回路50から出力されたフォーカス評価値に基づいて、オートフォーカス(AF)処理を実行する。AF処理が実行されると、カメラ制御回路50はプロセッサ30の指示の下、レンズ54の焦点距離fを調整する。その結果、被写体にピントが合わされたスルー画像がディスプレイ14に表示される。
また、プロセッサ30に入力されたYUV形式の画像データは、プロセッサ30によってRAM46に格納(一時記憶)される。さらに、格納されたYUV形式の画像データは、プロセッサ30でRGBデータに変換された後に、RAM46から表示ドライバ42に与えられる。そして、RGB形式の画像データがディスプレイ14に出力される。これによって、被写体を表す低解像度(たとえば、320×240画素)のプレビュー画像がディスプレイ14に表示される。
静止画像の撮影操作が行われると、プロセッサ30は、静止画像の本撮影処理を実行する。つまり、プロセッサ30は、イメージセンサ52から出力されるSXGAの生画像信号に信号処理を施して、RAM46に一旦格納し、フラッシュメモリ44に対する保存処理を実行する。保存処理が実行されると、プロセッサ30を通してRAM46から撮影画像データが読み出される。そして、プロセッサ30は、読み出した撮影画像データにメタ情報を関連付けて、一つのファイルとしてフラッシュメモリ44に保存する。さらに、プロセッサ30は、図示しないスピーカから、本撮影処理が実行されていること通知する音を出力させる。
なお、携帯電話機10にメモリカードが接続される場合、撮影画像データはメモリカードに保存されてもよい。また、撮影画像データに関連付けられるメタ情報は、Exifフォーマットで保存される。
また、動画像を撮影する設定がされ撮影操作が行われると、プロセッサ30は、動画像用の本撮影処理を実行する。このとき、プロセッサ30は、カメラ制御回路50に対して、VGAの生画像信号を所定のフレームレートで出力させる命令を発行する。そして、プロセッサ30は、静止画像の本撮影処理と同様、所定のフレームレートで読み出された各生画像信号に対して複数の処理を加えた後に、動画像データをフラッシュメモリ44に保存する。
なお、フラッシュメモリ44にはアドレス帳データが記憶されている。そして、フラッシュメモリ44に記憶(保存)されているアドレス帳データと撮影画像データとはまとめてデータベースと呼ばれることがある。
図3はディスプレイ14にプレビュー画像が表示されている状態の一例を示す図解図である。ディスプレイ14の表示範囲は状態表示領域60および機能表示領域62を含む。状態表示領域60には、アンテナ34による電波受信状態を示すピクト、二次電池の残電池容量を示すピクトおよび時刻が表示される。機能表示領域62には、カメラ画面が表示される。カメラ画面には、カメラモジュールの出力に基づくプレビュー画像が表示されると共に、カメラ画面の左側にはズームスライダーおよびメニューキーが表示され、カメラ画面の右側にはシャッターキー、閲覧キーおよび検索キーが表示される。
ズームスライダーに対してスライド操作がされると、デジタルズーム処理または光学ズーム処理によって画角が変化する。
メニューキーに対してタップ操作がされると、ホワイトバランスおよび露出補正などの設定を変更するためのGUIが表示される。シャッターキーに対してタップ操作がされると、上述した本撮影処理が実行される。閲覧キーに対してタップ操作がされると、フラッシュメモリ44に保存されている撮影画像データを閲覧可能にする閲覧機能が実行される。そして、検索キーに対してタッチ操作がされると、検索モードが設定される。検索モードについては後述するため、ここでの詳細な説明は省略する。
また、プレビュー画像において任意の位置にタップ操作がされると、タップされた被写体にピントが合うように、AF処理が実行される。たとえば、図3では、手前の花壇に対してピントがあった状態であるが、図4(A)に示すように、背後の自動車に対してタップされると、その自動車にピントが合うようにAF処理が実行される。その結果、ディスプレイ14には、図4(B)に示すように、自動車にピントが合った状態のプレビュー画像が表示される。
ここで、本実施例では、本撮影処理が実行されるときに、被写体どうしの位置を検出し、検出された位置に基づいて判断された被写体どうしの相対位置関係をメタ情報として保存する。
具体的には、図5を参照して、プレビュー画像に対して9つの分割領域R1−R9を設定する。シャッターキーが操作されると、レンズ54の焦点距離fをワイド端からテレ端に変化させ、焦点距離fが変化しているときの各分割領域Rのそれぞれのフォーカス評価値を算出する。また、フォーカス評価値が最大値となったときの焦点距離fをそれぞれ特定し、特定された焦点距離f1−f9が、分割領域R1−R9にそれぞれ対応付けられて、図6に示す相対位置関係テーブルに記憶される。そして、このようにして焦点距離f1−f9が記憶された相対位置関係テーブルは、撮影画像データのメタ情報の一部として保存される。
たとえば、被写体どうしの相対位置が異なる場合、それぞれの被写体が含まれる分割領域Rと対応する各焦点距離fは異なる。一方、被写体どうしの相対位置が同じである場合、それぞれの被写体が含まれる分割領域Rと対応する各焦点距離fは略同じ値となる。つまり、分割領域R5の焦点距離f5および分割領域R6の焦点距離f6を比較したときに、異なっていれば、分割領域R5に含まれる被写体と分割領域R6に含まれる被写体とは、携帯電話機10から異なる位置(距離)に存在していることとなる。また、2つの分割領域Rの焦点距離fが略同じであれば、それぞれの分割領域Rに含まれる被写体は、携帯電話機10から略同じ位置(距離)に存在していることがわかる。つまり、複数の分割領域Rに対して、フォーカス評価値が最大となった時の焦点距離fを記憶することで、被写体どうしの相対位置関係を検出することが出来る。このように、レンズ54の焦点距離fを利用して被写体の位置を検出することが可能であるため、カメラモジュールを備える既存のカメラ装置でもソフトウェアを更新または追加することで、被写体の位置を検出できるようになる。
なお、本実施例では、焦点距離fを略同じ値と判断する範囲は、0.0−0.2mmとする。ただし、他の実施例では上述の範囲より狭く設定されてもよいし、広く設定されてもよい。
また、本実施例では分割領域Rの数を9つとしたが、他の実施例ではさらに多くてもよいし、少なくてもよい。また、分割領域Rの大きさは全てが同じであってもよいし、全部または一部が異なる大きさであってもよい。
次に、検索モードについて説明する。図7(A),(B)を参照して、上述したように、検索キーに対してタップ操作がされると、検索モードに遷移する。検索モードでは、検索キーの色が反転すると共に、ズームスライダーおよびメニューキーの表示が消去される。そして、検索モードでは、画像検索によって画像を利用してデータサーバ102またはフラッシュメモリ44に記憶されるデータベースから、検索用の画像についての検索結果を得ることが出来る。検索モードで検索キーに対してタップ操作がされると、撮影モードに戻る。画像検索のアルゴリズム等については、広く一般的な技術であるため詳細な説明は省略する。
図8(A)−(C)を参照して、たとえばプレビュー画像において被写体を示す位置にタップ操作がされると、相対位置関係テーブルに、各分割領域Rの焦点距離fが記憶され、かつタッチ位置に基づいてAF処理が実行される。そして、焦点距離fが記憶された相対位置関係テーブルに基づいて、タップされた分割領域Rに含まれる被写体と略同じ位置に存在する被写体を含む分割領域Rが特定される。つまり、タップされた分割領域Rの焦点距離fと略同じ値の焦点距離fが対応付けられた分割領域Rが特定される。たとえば、分割領域R5と分割領域R8との焦点距離fが略同じであれば、分割領域R5に対してタップ操作がされると、分割領域R5と共に、分割領域R8が特定される。そして、分割領域R5および分割領域R8は1つの抽出範囲として設定され、抽出範囲内の画像が検索対象画像として抽出される。また、検索対象画像が抽出されると、抽出範囲以外のプレビュー画像の色はグレースケールに変更される。このように、抽出範囲を設定することで、ユーザは抽出される検索対象画像を把握することが出来る。
また、抽出範囲に対してタップ操作がされると、検索対象画像の抽出が解除される。さらに、抽出範囲以外の位置にタップ操作がされると、検索対象画像が変更される。つまり、抽出範囲以外の位置にタップ操作が行われると、既に抽出されていた検索対象画像の抽出が解除され、タップ操作が行われた抽出範囲内の画像が新たな検索対象画像として抽出される。上記の態様によれば、ユーザは、検索対象を誤って選択したとしても、任意に変更することが出来る。
図9(A)を参照して、検索対象画像が抽出された状態で、シャッターキーが操作されると、検索対象画像による検索結果を得るために、画像検索処理が実行される。具体的には、データサーバ102およびフラッシュメモリ44に記憶されるデータベースから、検索対象画像と関連する情報が検索される。たとえばここでは、検索対象画像には被写体として花が含まれており、データサーバ102のデータベースから花の名称や特徴などの情報が検索結果として得られる。そして、図9(B)に示すように、得られた検索結果を含む検索結果ポップアップPが、検索対象画像に関連付けて表示される。
また、図9(B)に示す検索結果ポップアップPの中には、テキストが表示されているが、検索結果として画像が得られた場合は、その画像も検索結果ポップアップPの中に表示される。さらに、検索結果ポップアップPに対してダブルタップ操作がされると、得られた検索結果が機能表示領域62に拡大して表示される。そして、検索結果ポップアップPの外側にタップ操作がされると、検索結果が消去されると共に抽出範囲の設定が解除され、検索対象を任意に選択することが出来る状態に戻る。なお、複数の検索結果を取得した場合には、切替操作によって検索結果ポップアップに表示される検索結果が切り換えられる。
このように、本実施例では、被写体どうしの相対位置関係を利用することで、検索対象画像を適切に抽出することが出来る。そのため、画像検索の検索精度を向上させることが出来る。また、ユーザは撮影中に所望の被写体について、容易に画像検索を行うことが出来る。
ここで、表示されている検索対象画像は矩形ではない場合が多い。ところが、画像検索を行う際には検索に利用する画像は矩形である必要がある。そこで、本実施例では、検索対象画像が抽出されると、その検索対象画像を囲うことが出来る最小面積の矩形を定義し、その矩形の中に検索対象画像を張り付けることで、画像検索を行うことが可能な状態に加工する。なお、このように加工された検索対象画像において、元の検索対象画像が描かれていない部分は、所定の色(たとえば、白)で彩色されるか、無色透明にされる。
なお、他の実施例では、タッチ操作による検索対象画像の抽出ではなく、カメラ画面に表示されるガイドリングによって検索対象画像が抽出されてもよい。たとえば、他の実施例の検索モードでは、カメラ画面にガイドリングが表示される。そして、ユーザはガイドリングの中に検索対象が入るように携帯電話機10の位置を調整した後にシャッターキーを操作すれば、ガイドリングの位置に基づいて検索対象画像が抽出される。つまり、ガイドリングが表示されている状態では、タッチ操作が行われなくても、検索対象画像を抽出することが出来る。そのため、シャッターキーをソフトキーではなく、ハードウエアキーとした場合は、タッチパネル16を利用することなく、画像検索を実施することが出来るようになる。したがって、タッチパネル16を有しないデジタルカメラなどのカメラ装置であっても、本実施例を適用することが出来る。
上述では第1実施例の特徴を概説した。以下では、図10に示すメモリマップおよび図11−図13に示すフロー図を用いて詳細に説明する。
図10を参照して、RAM46には、プログラム記憶領域302とデータ記憶領域304とが形成される。プログラム記憶領域302は、先に説明したように、フラッシュメモリ44(図2)に予め設定しているプログラムデータの一部または全部を読み出して記憶(展開)しておくための領域である。
プログラム記憶領域302には、カメラ機能を実行するためのカメラ機能プログラム310、画像検索を行うための画像検索プログラム312および撮影画像を閲覧するための画像閲覧プログラム314などが記憶される。なお、プログラム記憶領域302には、メール機能、ブラウザ機能などの機能を実行するためのプログラムも記憶される。
続いて、RAM46のデータ記憶領域304には、タッチバッファ330、プレビュー画像バッファ332、相対位置関係バッファ334、検索対象画像バッファ336および検索結果バッファ338などが設けられる。また、データ記憶領域304には、タッチ座標マップ340が記憶されると共に、タッチフラグ342も設けられる。
タッチバッファ330には、タッチパネル制御回路48が出力するタッチ座標のデータ、タッチ操作の始点および終点のタッチ座標のデータなどが一時的に記憶される。プレビュー画像バッファ332には、カメラモジュールから出力された画像が一時的に記憶される。そして、カメラ機能が実行されたときには、プレビュー画像バッファ332に記憶されている画像に基づいてプレビュー画像が表示される。相対位置関係バッファ334には、相対位置関係が検出されたときに、相対位置関係テーブルが一時的に記憶される。検索対象画像バッファ336には、抽出された検索対象画像が一時的に記憶される。検索結果バッファ338には検索対象画像による検索結果が一時的に記憶される。
タッチ座標マップ340は、タッチ操作におけるタッチ座標とディスプレイ14の表示座標とを対応付けるためのデータである。つまり、タッチパネル16に対して行われたタッチ操作の結果が、タッチ座標マップ340に基づいてディスプレイ14の表示に反映される。
タッチフラグ342は、タッチパネル16に対してタッチされているか否かを判断するためのフラグである。たとえば、タッチフラグ342は、1ビットのレジスタで構成される。タッチフラグ342がオン(成立)されると、レジスタにはデータ値「1」が設定される。一方、タッチフラグ342がオフ(不成立)されると、レジスタにはデータ値「0」が設定される。また、タッチフラグ342は、タッチパネル制御回路48の出力に基づいてオン/オフが切り換えられる。
なお、データ記憶領域304には、GUIなどのオブジェクトを表示するためのデータが記憶されたり、プログラムの実行に必要な、他のフラグやタイマ(カウンタ)が設けられたりする。
プロセッサ30は、Windows(登録商標)ベースのOSや、Android(登録商標)およびiOS(登録商標)などのLinux(登録商標)ベースのOSなどその他のOSの制御下で、図11、図12に示すカメラ機能処理および図13に示す画像検索処理などを含む、複数のタスクを並列的に処理する。
図11はカメラ機能処理のフロー図の一部である。カメラ機能処理は、たとえばカメラ機能を実行する操作がされると開始される。ステップS1でプロセッサ30は、プレビュー画像を表示する。たとえば、プロセッサ30は、カメラ制御回路50を動作させ、カメラ制御回路50の出力に基づくプレビュー画像を、プレビュー画像バッファ332から読み出す。そして、読み出されたプレビュー画像はディスプレイ14に表示される。
続いて、ステップS3でタッチ操作がされたか否かを判断する。つまり、タッチフラグ342がオンであるかが判断される。ステップS3で“NO”であれば、つまりタッチ操作がされなければ、プロセッサ30はステップS3の処理を繰り返す。また、ステップS3で“YES”であれば、たとえばタップ操作がされると、ステップS5でプロセッサ30は、検索キーにタップされたか否かを判断する。つまり、検索モードを設定するタッチ操作がされたかが判断される。
ステップS5で“NO”であれば、つまり検索キーに対してタッチ操作がされていなければ、ステップS7でプロセッサ30は、終了か否かを判断する。つまり、カメラ機能を終了させるタッチ操作されたかが判断される。ステップS7で“YES”であれば、つまりカメラ機能を終了させるタッチ操作がされた場合、プロセッサ30はカメラ機能処理を終了する。一方、ステップS7で“NO”であれば、つまりカメラ機能を終了させるタッチ操作がされていなければ、ステップS9でプロセッサ30は、タッチ位置に基づいて処理を実行する。たとえば、プレビュー画像の任意の位置にタップ操作がされた場合は、AF処理が実行される。また、シャッターキーにタップ操作がされた場合は、本撮影処理が実行される。そして、ステップS9の処理が終了すれば、プロセッサ30はステップS3の処理に戻る。
また、ステップS5で“YES”であれば、つまり検索キーに対してタップされると、ステップS11で検索モードが設定される。たとえば、検索モードが設定されると、図7に示すカメラ画面が表示される。
続いて、ステップS13でプロセッサ30は、抽出操作がされたか否かを判断する。たとえば、抽出操作としてプレビュー画像に対するタップ操作を受け付けたかが判断される。ステップS13で“NO”であれば、つまり抽出操作がされなければ、ステップS15でプロセッサ30は、検索キーに対してタップがされたか否かを判断する。つまり、撮影モードに遷移させる操作がされたかが判断される。ステップS15で“YES”であれば、つまり検索キーに対してタップされると、ステップS17でプロセッサ30は、検索モードを解除する。たとえば、図3に示すカメラ画面が再び表示される。そして、ステップS17の処理が終了すれば、プロセッサ30はステップS3の処理に戻る。ただし、他の実施例では、抽出操作が行われずに検索キーに対してタップされると、表示されている画像をキャプチャーし、キャプチャー画像に基づいて画像検索処理が実行されてもよい。
また、ステップS15で“NO”であれば、つまり検索キーにタップされていなければ、プロセッサ30はステップS13の処理に戻る。さらに、ステップS13で“YES”であれば、つまりプレビュー画像に対してタップする抽出操作がされると、ステップS19でプロセッサ30は、相対位置関係を検出する。つまり、プロセッサ30は、レンズ54を駆動させる命令をカメラモジュール(カメラ制御回路50)に出し、各分割領域Rにおいてフォーカス評価値が最大となったときの焦点距離fを相対位置関係テーブルに記憶させる。また、相対位置関係テーブルが相対位置関係バッファ334に記憶されると、タッチされた分割領域Rのフォーカス評価値が最大値となるように、カメラモジュールはレンズ54を移動させる。つまり、相対位置関係を検出した結果を利用して、AF処理が実行される。続いて、ステップS21でプロセッサ30は、抽出範囲を設定する。つまり、相対位置関係テーブルに基づいて、タッチ操作がされた分割領域Rと略同じ焦点距離fが対応付けられている分割領域Rを特定し、特定された分割領域Rを抽出範囲として設定する。続いて、ステップS23でプロセッサ30は、検索対象画像を抽出する。つまり、設定された抽出範囲に含まれる画像の画像データを抽出し、抽出した画像データを検索対象画像バッファ336に記憶させる。また、検索対象画像が抽出されると、抽出範囲以外のプレビュー画像の色がグレースケールにされる。
続いて、ステップS25でプロセッサ30は、変更操作か否かを判断する。つまり、抽出範囲以外のプレビュー画像に対するタップ操作を受け付けたかが判断される。ステップS25で“YES”であれば、つまり変更操作がされると、プロセッサ30はステップS19の処理に戻る。一方、ステップS25で“NO”であれば、つまり変更操作がされていなければ、ステップS27でプロセッサ30は、解除操作か否かを判断する。つまり、プロセッサ30は、抽出範囲に対するタップ操作を受け付けたかを判断する。ステップS27で“YES”であれば、つまり解除操作がされると、プロセッサ30はステップS13の処理に戻る。一方、ステップS27で“NO”であれば、つまり解除操作がされなければ、ステップS29でプロセッサ30は、検索操作か否かを判断する。つまり、シャッターキーに対するタップ操作を受け付けたかが判断される。ステップS29で“NO”であれば、つまり検索操作がされなければ、プロセッサ30はステップS25の処理に戻る。一方、ステップS29で“YES”であれば、つまり検索操作がされると、ステップS31でプロセッサ30は、画像検索処理を実行する。この画像検索処理の詳細については後述するため、ここでの詳細な説明は省略する。そして、ステップS31の処理が終了すれば、プロセッサ30はステップS13の処理に戻る。
図13は画像検索処理のフロー図である。たとえば、ステップS31の処理が実行されると、画像検索処理が開始される。ステップS51でプロセッサ30は、データサーバ102から検索対象画像を検索する。つまり、データサーバ102とのデータ通信を確立した後、検索対象画像をデータサーバ102に送信すると共に、検索対象画像データに基づく画像検索をデータサーバ102に要求する。続いて、ステップS53でプロセッサ30は、検索結果を取得できたか否かを判断する。つまり、検索対象画像についての検索結果をデータサーバ102から受信したかが判断される。ステップS53で“NO”であれば、つまりデータサーバ102には検索対象画像に関連する情報が記憶されておらず、データサーバ102から検索結果を取得することが出来なければ、プロセッサ30はステップS57の処理に進む。また、ステップS53で“YES”であれば、つまりデータサーバ102から検索結果を取得することが出来れば、ステップS55でプロセッサ30は、検索結果を記憶する。つまり、データサーバ102から受信した検索結果が検索結果バッファ338に記憶される。
続いて、ステップS57でプロセッサ30は、フラッシュメモリ44から検索対象画像を検索する。たとえば、フラッシュメモリ44に記憶される複数の撮影画像およびアドレス帳データを含むデータベースから、検索対象画像と関連する情報を検索する。続いて、ステップS59でプロセッサ30は、検索結果を取得できたか否かを判断する。つまり、フラッシュメモリ44に検索対象画像と関連する情報が記憶されていたかを判断する。ステップS59で“NO”であれば、つまり検索対象画像と関連する情報がフラッシュメモリ44に記憶されていなければ、プロセッサ30はステップS63の処理に進む。また、ステップS59で“YES”であれば、つまり検索対象画像と関連する情報がフラッシュメモリ44に記憶されていれば、ステップS61でプロセッサ30は、検索結果を記憶する。たとえば、検索対象画像についての検索結果としてアドレスデータが得られた場合、そのアドレスデータが検索結果バッファ338に記憶される。
続いて、ステップS63でプロセッサ30は、検索結果を表示する。つまり、検索結果バッファ338に記憶されている内容を含む検索結果ポップアップPがディスプレイ14に表示される。ただし、検索結果バッファ338に検索結果が記憶されていない場合は、検索結果ポップアップPの中には、「検索結果を得ることが出来ませんでした。」などの文字列が表示され、検索結果が得られなかったことが通知される。
続いて、ステップS65でプロセッサ30は、検索結果が複数か否かを判断する。つまり、検索結果バッファ338に複数の検索結果が記憶されているかが判断される。ステップS65で“YES”であれば、つまり検索結果が複数であれば、ステップS67でプロセッサ30は、切替操作か否かを判断する。たとえば、検索結果を切り替えるためのタッチ操作を受け付けたかが判断される。ステップS67で“NO”であれば、つまり切替操作がされなければ、プロセッサ30はステップS71の処理に進む。一方、ステップS67で“YES”であれば、つまり切替操作がされると、ステップS69でプロセッサ30は、検索結果の表示を切り替える。つまり、検索結果ポップアップPの中には、他の検索結果が表示される。そして、ステップS69の処理が終了すれば、プロセッサ30はステップS65の処理に戻る。
ステップS65で“NO”であれば、つまり検索結果バッファ338に記憶されている検索結果が1つであれば、ステップS71でプロセッサ30は、終了か否かを判断する。つまり、検索結果ポップアップPの表示を終了(消去)する操作がされたかが判断される。ステップS71で“NO”であれば、つまり検索結果ポップアップPの表示を消去する操作がされなければ、プロセッサ30はステップS65の処理に戻る。一方、ステップS71で“YES”であれば、つまり検索結果ポップアップPの表示を消去する操作がされると、ステップS73でプロセッサ30は、検索結果の表示を消去する。つまり、検索結果ポップアップPの表示が消去される。そして、ステップS73の処理が終了すれば、プロセッサ30は、画像検索処理を終了して、カメラ機能処理に戻る。
<第2実施例>
第2実施例では、撮影画像データと共に保存された相対位置関係を読み出して、第1実施例と同様に画像検索を行う。なお、第2実施例の携帯電話機10は、第1実施例と略同じであるため、外観および電気的な構成などの説明は省略する。
第2実施例では、撮影画像データと共に保存された相対位置関係を読み出して、第1実施例と同様に画像検索を行う。なお、第2実施例の携帯電話機10は、第1実施例と略同じであるため、外観および電気的な構成などの説明は省略する。
まず、第2実施例では、上述したようにシャッターキーが操作されると、相対位置関係を検出する処理が実行され、検出された相対位置関係を含むメタ情報が作成される。そして、撮影画像データと共に作成されたメタ情報が保存される。つまり、シャッターキーを操作すると、撮影画像と共に相対位置関係を保存することが出来る。
次に、図14(A)−(C)を参照して、画像閲覧機能が実行されると、保存された画像ファイル(画像データ)のサムネイル画像がディスプレイ14に表示される。この状態で任意のサムネイル画像がタップされると、タップされたサムネイル画像と対応する撮影画像がディスプレイ14に表示される。そして、撮影画像がディスプレイ14に表示されると、サムネイル画像の表示に戻るためのサムネイルキーと、画像検索を行うための実行キーとがディスプレイ14の右側に表示される。
図15(A)−(C)を参照して、表示された撮影画像において任意の位置にタップ操作がされると、表示されている撮影画像と共に保存された相対位置関係が読み出され、第1実施例と同様、抽出範囲が設定される。そして、検索対象画像が抽出された状態で実行キーが操作されると画像検索処理が実行され、検索結果ポップアップPがディスプレイ14に表示される。
このように、撮影画像と共に被写体どうしの相対位置関係が保存されるため、撮影画像が保存されたあとでも、抽出操作が行われると、被写体どうしの相対位置関係を適切に把握することが出来る。そして、ユーザは、保存した相対位置関係を利用して、画像検索を行うことが出来る。
上述では第2実施例の特徴を概説した。以下では、図16および図17に示すフロー図を用いて、第2実施例について詳細に説明する。
図16は、第2実施例のカメラ機能処理のフロー図である。なお、第1実施例のカメラ機能処理と略同じ処理については詳細な説明を省略する。第2実施例のカメラ機能処理が実行されると、プロセッサ30は、ステップS81でプレビュー画像を表示し、ステップS83でタッチ操作か否かを判断する。ステップS83で“NO”であれば、つまりタッチ操作がされていなければ、プロセッサ30はステップS83の処理を繰り返す。
一方、ステップS83で“YES”であれば、つまりタッチ操作がされると、ステップS85でプロセッサ30は、撮影操作か否かを判断する。つまり、シャッターキーに対してタッチ操作がされたかが判断される。ステップS85で“NO”であれば、つまり、シャッターキーに対してタッチ操作がされていなければ、ステップS87でプロセッサ30は、終了か否かを判断する。つまり、カメラ機能を終了する操作がされたかが判断される。ステップS87で“YES”であれば、つまりカメラ機能を終了する操作がされると、プロセッサ30は、カメラ機能処理を終了する。一方、ステップS87で“NO”であれば、つまりタッチ操作がカメラ機能を終了する操作でなければ、ステップS89でプロセッサ30は、タッチ位置に基づいて処理を実行する。たとえば、メニューキーに対してタップ操作がされていれば、ステップS89では、設定を変更するためのGUIを表示する処理が実行される。そして、ステップS89の処理が終了すれば、プロセッサ30はステップS83の処理に戻る。
ステップS85で“YES”であれば、つまり撮影操作がされると、ステップS91でプロセッサ30は、撮影画像データをRAMに記憶する。つまり、イメージセンサ52から出力される生画像信号に信号処理が施され、その生画像信号が撮影画像データとしてRAM46に一旦記憶される。続いて、ステップS93でプロセッサ30は、相対位置関係を検出する。つまり、第1実施例のステップS19と同様、相対位置関係を検出する。続いて、ステップS95でプロセッサ30は、メタ情報を作成する。つまり、検出された相対位置関係を含むメタ情報が作成される。続いて、ステップS97でプロセッサ30は、撮影画像ファイルを保存する。つまり、RAM46から撮影画像データが読み出され、その撮影画像データにメタ情報が関連付けられる。そして、メタ情報が関連付けられた撮影画像データは、画像ファイルとしてフラッシュメモリ44に保存される。また、ステップS97の処理が終了すると、プロセッサ30はステップS83の処理に戻る。
なお、ステップS93の処理を実行するプロセッサ30は検出部として機能し、ステップS97の処理を実行するプロセッサ30は保存部として機能する。
図17は画像閲覧処理のフロー図である。なお、第1実施例のカメラ機能処理で説明された処理と同等の処理については詳細な説明を省略する。
画像閲覧機能を実行する操作がされると、プロセッサ30は、ステップS111でサムネイル画像を表示する。つまり、フラッシュメモリ44から撮影画像データを読み出し、そのデータに基づくサムネイル画像が作成される。そして、図14(A)に示すように、作成されたサムネイル画像がディスプレイ14に表示される。続いて、ステップS113でプロセッサ30は、選択されたか否かを判断する。たとえば、サムネイル画像に対してタップ操作がされたかが判断される。ステップS113で“NO”であれば、つまりサムネイル画像を選択する操作がされていなければ、ステップS115でプロセッサ30は、画像閲覧機能を終了する操作がされたか否かを判断する。ステップS115で“YES”であれば、つまり画像閲覧機能を終了する操作がされると、プロセッサ30は画像閲覧処理を終了する。
一方、ステップS115で“NO”であれば、つまり画像閲覧機能を終了する操作がされなければ、プロセッサ30はステップS113の処理に戻る。ステップS113で“YES”であれば、つまりサムネイル画像がタップ操作によって選択されると、ステップS117でプロセッサ30は、撮影画像を表示する。つまり、選択されたサムネイル画像に対応する撮影画像が、ディスプレイ14に表示される。
続いて、ステップS119でプロセッサ30は、抽出操作がされたか否かを判断する。たとえば、サムネイル画像に対してタップ操作がされたかが判断される。ステップS119で“NO”であれば、つまり抽出操作がされなければ、ステップS121でプロセッサ30は、戻る操作か否かを判断する。つまり、サムネイル画像の表示に戻る操作がされたかが判断される。また、具体的には、サムネイルキーに対してタッチ操作がされたかが判断される。ステップS121で“YES”であれば、たとえばサムネイルキーに対してタッチ操作がされると、プロセッサ30はステップS113の処理に戻る。一方、ステップS121で“NO”であれば、たとえばサムネイルキーに対してタッチ操作がされなければ、プロセッサ30はステップS119の処理に戻る。
ステップS119で“YES”であれば、つまり抽出処理がされると、ステップS123でプロセッサ30は、相対位置関係を読み出す。つまり、表示されている撮影画像データのメタ情報から相対位置関係の情報が読み出される。続いて、プロセッサ30は、ステップS125で抽出範囲を設定し、ステップS127で検索対象画像を抽出する。たとえば、図15(A),(B)に示すように、ステップS123で読み出された相対位置関係に基づいて検索対象画像が抽出される。
続いて、ステップS129でプロセッサ30は、変更操作か否かを判断する。ステップS129で“YES”であれば、つまり変更操作がされると、プロセッサ30はステップS123の処理に戻る。ステップS129で“NO”であれば、変更操作がされなければ、ステップS131でプロセッサ30は、解除操作か否かを判断する。ステップS131で“YES”であれば、つまり解除操作がされると、プロセッサ30はステップS119の処理に戻る。一方、ステップS131で“NO”であれば、つまり解除操作がされると、ステップS133でプロセッサ30は、検索操作か否かを判断する。つまり、実行キーに対してタップ操作がされたかが判断される。ステップS133で“NO”であれば、たとえば実行キーに対してタップ操作がされなければ、プロセッサ30はステップS129の処理に戻る。一方、ステップS133で“YES”であれば、たとえば実行キーに対してタップ操作がされると、ステップS135でプロセッサ30は、画像検索処理を実行する。そして、画像検索処理が終了すれば、プロセッサ30はステップS119の処理に戻る。
なお、他の実施例では、抽出範囲が設定された後に、色情報に基づく領域選択や、顔検出処理などの画像処理を加えることで検索対象画像をより適切に抽出するようにしてもよい。
また、その他の実施例では、保存された相対位置関係を利用して、撮影画像を3D表示するようにしてもよい。つまり、メタ情報として保存された相対位置関係が示す被写体の位置情報に基づいて、撮影画像を3D表示する際の被写体の表示位置を決定する。このような態様によれば、3D画像を撮影するため専用カメラを使わずに、3D画像を表示することが可能となる。
また、レンズ54は、複数のズーム用のレンズおよび複数のフォーカス用のレンズから構成されていてもよい。この場合、フォーカス用のレンズのレンズ位置を変更させることで、焦点距離fを変化させずにピントを合わせることが可能である。そして、このような場合は、相対位置関係テーブルには、焦点距離fに代えてフォーカス用のレンズ位置が記憶されてもよい。
また、被写体までの距離を推定または測定することが出来る場合は、上述した焦点距離fに代えて被写体までの距離が相対位置関係テーブルに記憶されてもよい。
また、図示は省略するが、複数の被写体に対してマルチタッチ操作を行うことで、複数の検索対象画像が抽出される。また、さらにその他の実施例では、複数の検索対象画像が選択された場合、選択された検索対象画像において最も手前の被写体と最も奥の被写体との間に存在する被写体も検索対象画像として抽出されてもよい。つまり、さらにその他の実施例では、複数の抽出範囲に基づいて定められる焦点距離の範囲に含まれる、複数の抽出範囲の全てが選択される。たとえば、奥行きを持つ被写体を撮影した場合、被写体の手前の部分をタップ操作すると、被写体の手前の部分だけが検索対象画像として抽出されてしまう。そこで、手前の部分と奥の部分との2ヶ所にマルチタッチ操作を行うと、被写体全体をまとめて検索対象画像として抽出することができる。したがって、さらにその他の実施例では、ユーザが検索対象画像を抽出するときの操作が簡略化される。
また、タップ操作ではなく、任意の領域を囲うようスライド操作がされたときに、その任意の領域から検索対象画像が抽出されてもよい。
また、フラッシュメモリ44に記憶されるデータベースには、アドレス帳データおよび撮影画像以外のデータが含まれていてもよい。
また、他の実施例では、検索対象画像を抽出せずにシャッターキーが操作された場合、プレビュー画像の全体が検索対象画像として抽出され、画像検索処理が実行されてもよい。
また、その他の実施例では、携帯電話機10がTV放送を表示可能な場合、任意のシーンをキャプチャーし、そのキャプチャーした画像から検索対象画像を抽出して画像検索を行ってもよい。
また、本実施例では、検索結果をディスプレイ14に表示していたが、さらにその他の実施例はスピーカ18から音声によって出力されてもよいし、他の端末またはPCなどに転送され、他の端末またはPCから出力(表示も含む)されてもよい。
また、他の実施例では、保存された被写体の位置情報に基づいて、分割領域が選択されたときにその分割領域に含まれる被写体と略同じ位置に存在する他の被写体を含む分割領域が、他の分割領域とは異なる表示態様で示されてもよい。この場合、ユーザは略同じ位置に存在する被写体を認識することが出来る。
また、本実施例で用いられたプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して携帯電話機10に配信されてもよい。また、CD,DVD,BD(Blue-Ray Disk)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体に複数のプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、プログラムが本実施例と同等の構成の携帯電話機にインストールされた場合、本実施例と同等の効果が得られる。
そして、本明細書中で挙げた、具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。
10 … 携帯電話機
14 … ディスプレイ
16 … タッチパネル
30 … プロセッサ
44 … フラッシュメモリ
46 … RAM
48 … タッチパネル制御回路
50 … カメラ制御回路
52 … イメージセンサ
54 … レンズ
100 … ネットワーク
102 … データサーバ
14 … ディスプレイ
16 … タッチパネル
30 … プロセッサ
44 … フラッシュメモリ
46 … RAM
48 … タッチパネル制御回路
50 … カメラ制御回路
52 … イメージセンサ
54 … レンズ
100 … ネットワーク
102 … データサーバ
Claims (6)
- カメラモジュール、
前記カメラモジュールから取得された撮影画像において被写体の位置を検出する検出部、および
前記撮影画像を、前記被写体の位置を示す位置情報と共に保存する保存部を備える、カメラ装置。 - 前記カメラモジュールは、レンズを含み、
前記検出部は、前記レンズの焦点距離を利用して、前記被写体の位置を検出する、請求項1記載のカメラ装置。 - 前記カメラモジュールの出力から算出したフォーカス評価値に基づいてレンズの位置を調整するオートフォーカス処理を制御する制御部をさらに備え、
前記撮影画像は、所定数の分割領域に分割され、
前記検出部は、分割領域毎にフォーカス評価値が算出され、分割領域毎にフォーカス評価値が最大となったときの前記レンズの位置に基づいて、前記被写体の位置を検出する、請求項2記載のカメラ装置。 - 前記検出部は、撮影操作が行われたときに前記被写体の位置を検出する、請求項1ないし3のいずれかに記載のカメラ装置。
- カメラモジュールを有する、カメラ装置のプロセッサを、
前記カメラモジュールから取得された撮影画像において被写体の位置を検出する検出部、および
前記撮影画像を、前記被写体の位置を示す位置情報と共に保存する保存部として機能させる、画像処理プログラム。 - カメラモジュールを有する、カメラ装置における画像処理方法であって、前記カメラ装置のプロセッサが、
前記カメラモジュールから取得された撮影画像において被写体の位置を検出する検出ステップ、および
前記撮影画像を、前記被写体の位置を示す位置情報と共に保存する保存ステップを実行する、画像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013223336A JP2015088774A (ja) | 2013-10-28 | 2013-10-28 | カメラ装置、画像処理プログラムおよび画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013223336A JP2015088774A (ja) | 2013-10-28 | 2013-10-28 | カメラ装置、画像処理プログラムおよび画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015088774A true JP2015088774A (ja) | 2015-05-07 |
Family
ID=53051188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013223336A Pending JP2015088774A (ja) | 2013-10-28 | 2013-10-28 | カメラ装置、画像処理プログラムおよび画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015088774A (ja) |
-
2013
- 2013-10-28 JP JP2013223336A patent/JP2015088774A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3076659B1 (en) | Photographing apparatus, control method thereof, and non-transitory computer-readable recording medium | |
JP6403368B2 (ja) | 携帯端末、画像検索プログラムおよび画像検索方法 | |
WO2020078346A1 (zh) | 微距成像的方法及终端 | |
EP2975838B1 (en) | Image shooting parameter adjustment method and device | |
JP5848932B2 (ja) | 携帯端末、フォルダ管理プログラムおよびフォルダ管理方法 | |
KR101636460B1 (ko) | 전자 장치 및 그 제어 방법 | |
KR102216246B1 (ko) | 이동단말기 및 그 제어방법 | |
US10222903B2 (en) | Display control apparatus and control method thereof | |
EP2688283B1 (en) | Dynamic region of interest adaptation and image capture device providing same | |
US9131143B2 (en) | Dynamic region of interest adaptation and image capture device providing same | |
JP5791448B2 (ja) | カメラ装置および携帯端末 | |
EP2442223B1 (en) | Method of executing fast association function of camera and portable device including the same | |
KR20090080272A (ko) | 휴대용 장치 및 그 사진처리방법, 이를 포함하는사진처리시스템 | |
KR20110006243A (ko) | 휴대용 단말기에서 매뉴얼 포커싱 방법 및 장치 | |
JP5816571B2 (ja) | 携帯端末、撮影キー制御プログラムおよび撮影キー制御方法 | |
US20120306786A1 (en) | Display apparatus and method | |
KR20130092196A (ko) | 카메라 셔터키 표시 장치 및 방법 | |
US10120496B2 (en) | Display control apparatus and control method thereof | |
EP3163370B1 (en) | Electronic device and method of controlling same for capturing digital images | |
JP2015065616A (ja) | 撮像装置、触覚情報出力プログラムおよび触覚情報出力方法 | |
JP2015088774A (ja) | カメラ装置、画像処理プログラムおよび画像処理方法 | |
KR102081659B1 (ko) | 시각 효과 적용을 위한 촬영 방법 및 장치 | |
KR101324809B1 (ko) | 휴대용 단말기 및 그 제어방법 | |
JP2015192362A (ja) | 画像再生装置,画像再生方法およびその制御プログラム | |
JP2017004343A (ja) | 表示制御装置、その制御方法、および撮像装置、プログラム、並びに記憶媒体 |