JP6403368B2 - 携帯端末、画像検索プログラムおよび画像検索方法 - Google Patents

携帯端末、画像検索プログラムおよび画像検索方法 Download PDF

Info

Publication number
JP6403368B2
JP6403368B2 JP2013190223A JP2013190223A JP6403368B2 JP 6403368 B2 JP6403368 B2 JP 6403368B2 JP 2013190223 A JP2013190223 A JP 2013190223A JP 2013190223 A JP2013190223 A JP 2013190223A JP 6403368 B2 JP6403368 B2 JP 6403368B2
Authority
JP
Japan
Prior art keywords
search
image
unit
target image
search target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013190223A
Other languages
English (en)
Other versions
JP2015056102A (ja
Inventor
神田 敦彦
敦彦 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2013190223A priority Critical patent/JP6403368B2/ja
Priority to PCT/JP2014/073901 priority patent/WO2015037607A1/ja
Publication of JP2015056102A publication Critical patent/JP2015056102A/ja
Priority to US15/068,406 priority patent/US20160196284A1/en
Application granted granted Critical
Publication of JP6403368B2 publication Critical patent/JP6403368B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

この発明は携帯端末、画像検索プログラムおよび画像検索方法に関し、特にカメラモジュールを有する、携帯端末、画像検索プログラムおよび画像検索方法に関する。
背景技術の一例が特許文献1に開示されている。この特許文献1の電子ファイルの検索方法では、文書のページでイメージデータが表示されているときに、イメージデータの一部を、そのイメージデータの検索条件として登録することが出来る。登録されたイメージデータの一部はイメージ部品データと呼ばれ、イメージ部品データが検索条件として選択されると、検索結果としてイメージデータが得られる。
特開平5-233778号公報[G06F 3/048]
ところが、特許文献1の電子ファイルの検索方法では、イメージデータを検索するためには、イメージ部品データを予め登録しておかなければならない。また、イメージデータを検索するときには、登録されているイメージ部品データから所望のデータを選択しなければならず、このような操作には手間がかかる。
それゆえに、この発明の主たる目的は、新規な、携帯端末、画像検索プログラムおよび画像検索方法を提供することである。
この発明の他の目的は、画像検索を容易に行うことが出来る、携帯端末、画像検索プログラムおよび画像検索方法を提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、カメラモジュール表示部および表示部へのタッチ操作を受け付けるタッチパネルを有する、携帯端末であって、タッチパネルに対するタッチ操作を受け付ける第1受付部、カメラモジュールから取得されたリアルタイム動画像を分割する分割領域の焦点距離の相対位置関係を検出する検出部、リアルタイム動画像のタッチ操作された分割領域の焦点距離と略同じ値の焦点距離が対応付けられた分割領域を特定し、前記タッチ操作された分割領域と前記特定された分割領域とを含む抽出範囲内の画像を検索対象画像として抽出する抽出部、検索対象画像に基づき所定の情報を検索する検索部、およびリアルタイム動画像において、検索部により検索された検索結果を、検索対象画像と重畳しないように出力する出力部を備える、携帯端末である。
第1の発明では、携帯端末(10:実施例において対応する部分を例示する参照符号。以下、同じ。)のカメラモジュール(50‐54)はリアルタイム動画像を出力する。たとえば、そのリアルタイム動画像が取得され、表示部(14)には取得されたリアルタイム動画像に基づくプレビュー画像が表示される。表示部へのタッチ操作を受け付けるタッチパネル(16)がさらに設けられる。第1受付部(30,S13)は、たとえばプレビュー画像に対して被写体を選択するためにタッチパネルに対してタッチ操作がされると、その操作を抽出操作として受け付ける。検出部(30,S19)は、たとえばユーザが被写体を選択する操作を行ったときに、カメラモジュールから取得されたリアルタイム動画像アルタイム動画像を分割する分割領域の焦点距離の相対位置関係を検出する。抽出部(30,S23,S95,S97)は、たとえばユーザによって選択された被写体が含まれるように、検出された相対位置関係に基づいて、取得されたリアルタイム動画像から検索対象画像を抽出する。つまり、リアルタイム動画像のタッチ操作された分割領域の焦点距離と略同じ値の焦点距離が対応付けられた分割領域を特定し、前記タッチ操作された分割領域と前記特定された分割領域とを含む抽出範囲内の画像を検索対象画像として抽出する。検索部(30,S31)は、検索対象画像に基づいて、たとえばその検索対象画像と関連する所定の情報を検索する。出力部(30,S63)は、リアルタイム動画像において、たとえば表示部に検索結果を出力し、検索結果は、検索対象画像と重畳しないように表示部に表示される。
第1の発明によれば、被写体どうしの相対位置関係を利用することで、検索対象画像を適切に抽出することが出来るため、画像検索の検索精度を向上させることが出来る。
第2の発明は、第1の発明に従属し、第1受付部は、カメラモジュールから取得されたリアルタイム動画像が表示されているとき、検索対象画像を抽出する抽出操作を受け付け検出部は、第1受付部が抽出操作を受け付けたとき、相対位置関係を検出する。
第2の発明では、第1受付部(30,S13)は、たとえばプレビュー画像に対して被写体を選択する操作がされると、その操作を抽出操作として受け付ける。そして、抽出操作を受け付けたとき、検出部は、被写体どうしの相対位置関係を検出する。
第2の発明によれば、ユーザは撮影中に興味を持った被写体について、画像検索を行うことが出来る。
の発明は、第1の発明または第2の発明に従属し、相対位置関係に基づいて、カメラモジュールから取得されたリアルタイム動画像に対して抽出範囲を設定する設定部をさらに備え、抽出部は、抽出範囲に基づいて、画像から検索対象画像を抽出する。
の発明では、たとえば、プレビュー画像は複数の分割領域(R)に分割され、ユーザから任意の分割領域が指定されたとき、設定部(30,S21)は、指定された分割領域と、その分割領域に含まれる被写体と同じ位置(距離)に存在する被写体が含まれる分割領域とを抽出範囲として設定する。たとえば、抽出部は、抽出範囲内のリアルタイム動画像を検索対象画像として抽出する。
の発明によれば、抽出範囲を設定することで、ユーザは抽出される検索対象画像を把握することが出来る。
の発明は、第1の発明ないし第の発明のいずれかに従属し、カメラモジュールは、レンズを含み、検出部は、レンズの焦点距離を利用して、カメラモジュールから取得された画像から被写体どうしの相対位置関係を検出する。
の発明では、カメラモジュールはレンズ(54)を含む。たとえば、レンズをテレ端からワイド端に移動させたときのレンズの焦点距離を利用して、検出部は、被写体どうしの相対位置関係を検出する。
の発明によれば、レンズの焦点距離を利用して相対位置関係を検出することが可能であるため、カメラモジュールを備える既存の携帯端末であってもソフトウェアを更新または追加することで、被写体どうしの相対位置関係を検出できるようになる。
の発明は、第1の発明ないし第の発明のいずれかに従属し、検索対象画像を変更する変更操作を受け付ける第2受付部をさらに備え、検出部は、第2受付部が変更操作を受け付けたとき、相対位置関係を再検出し、抽出部は、第2受付部が変更操作を受け付けたとき、当該変更操作および再検出された相対位置関係に基づいて、カメラモジュールから取得されたリアルタイム動画像から他の検索対象画像を抽出する。
の発明では、第2受付部(30,S25)は、たとえば他の検索対象を指定する操作を、変更操作として受け付ける。変更操作がされると、被写体どうしの相対位置関係が再検出される。そして、再検出された相対位置関係に基づいて、取得されたリアルタイム動画像から他の検索対象画像を抽出する。
の発明によれば、ユーザは、検索対象を誤って選択したとしても、任意に変更することが出来る。
の発明は、第1の発明ないし第の発明のいずれかに従属し、検索部による検索結果が複数あるとき、出力される検索結果の切替操作を受け付ける第3受付部、および第3受付部が切り替え操作を受け付けたとき、出力される検索結果を切り替える切替部をさらに備える。
の発明では、複数の検索結果が出力された場合、第3受付部(30,S67)は、出力する検索結果を切り替える切替操作を受け付ける。切替部(30,S69)は、切替操作を受け付けたとき、出力される検索結果を切り替える。
の発明によれば、複数の検索結果が取得された場合、ユーザは複数の検索結果のそれぞれを確認することが出来る。
の発明は、第1の発明ないし第の発明のいずれかに従属し、抽出部は、色情報に基づいて検索対象画像を抽出する。
の発明では、たとえば、検索対象を指定するタッチ操作がされたとき、タッチ位置の色情報と略同じ色の範囲が選択される。抽出部は、その領域から検索対象画像を抽出する。
の発明によれば、色情報を利用することで、ユーザが意図する検索対象を、より適切に抽出することが出来る。
の発明は、第1の発明ないし第の発明のいずれかに従属し、抽出部は、顔検出を利用して検索対象画像を抽出する。
の発明では、たとえばタッチされた周辺のプレビュー画像に対して顔検出処理を実行し、顔が検出されれば、検出された顔の画像が検索対象画像として抽出される。
の発明によれば、顔検出処理を利用することで、ユーザが意図する検索対象を、より適切に抽出することが出来る。
の発明は、第1の発明ないし第の発明のいずれかに従属し、検索部は、検索対象画像についての検索結果を、ネットワーク上のサーバに記憶されるデータベースから出力する。
の発明では、ネットワーク上のサーバ(102)に記憶されるデータベースから、検索対象画像についての検索結果が出力される。
の発明によれば、ユーザは、サーバ上に記憶されるデータベースに対して画像検索を行うことが出来る。
10の発明は、第1の発明ないし第の発明のいずれかに従属し、データベースを記憶する記憶部をさらに備え、検索部は、検索対象画像についての検索結果を、記憶部に記憶されるデータベースから出力する。
10の発明では、記憶部(44)に記憶されるデータベースから、検索対象画像についての検索結果が出力される。
10の発明によれば、携帯端末の記憶部に記憶されているデータベースに対して画像検索を行うことが出来る。
11の発明は、カメラモジュール(50−54)表示部(14)および表示部へのタッチ操作を受け付けるタッチパネル(16)を有する、携帯端末(10)のプロセッサ(30)を、タッチパネルに対するタッチ操作を受け付ける第1受付部(30,S13)、カメラモジュールから取得されたリアルタイム動画像を分割する分割領域の焦点距離の相対位置関係を検出する検出部(30,S19)、リアルタイム動画像のタッチ操作された分割領域の焦点距離と略同じ値の焦点距離が対応付けられた分割領域を特定し、前記タッチ操作された分割領域と前記特定された分割領域とを含む抽出範囲内の画像を検索対象画像として抽出する抽出部(S23,S95,S97)、検索対象画像に基づき所定の情報を検索する検索部(S31)、および検索部により検索された検索結果を出力する出力部(S63)として機能させる、画像検索プログラムである。
11の発明でも、第1の発明と同様、被写体どうしの相対位置関係を利用することで、検索対象画像を適切に抽出することが出来るため、画像検索の検索精度を向上させることが出来る。
12の発明は、カメラモジュール(50−54)表示部(14)および表示部へのタッチ操作を受け付けるタッチパネル(16)を有する、携帯端末(10)における画像検索方法であって、携帯端末のプロセッサ(30)が、カメラモジュールから取得されたリアルタイム動画像を分割する分割領域の焦点距離の相対位置関係を検出する検出ステップ(S19)、リアルタイム動画像のタッチ操作された分割領域の焦点距離と略同じ値の焦点距離が対応付けられた分割領域を特定し、前記タッチ操作された分割領域と前記特定された分割領域とを含む抽出範囲内の画像を検索対象画像として抽出する抽出ステップ(S23,S95,S97)、検索対象画像に基づき所定の情報を検索する検索ステップ(S31)、および検索ステップにより検索された検索結果を出力する出力ステップ(S63)を実行する、画像検索方法である。
12の発明でも、第1の発明と同様、被写体どうしの相対位置関係を利用することで、検索対象画像を適切に抽出することが出来るため、画像検索の検索精度を向上させることが出来る。
13の発明は、カメラモジュール、表示部およびタッチ操作を検出するタッチパネルを有する、携帯端末であって、カメラモジュールから取得されたリアルタイム動画像を分割する分割領域の焦点距離の相対位置関係を検出する検出部、リアルタイム動画像のタッチ操作された分割領域の焦点距離と略同じ値の焦点距離が対応付けられた分割領域を特定し、前記タッチ操作された分割領域と前記特定された分割領域とを含む抽出範囲内の画像を検索対象画像として抽出する抽出部、検索対象画像に基づき所定の情報を検索する検索部、およびリアルタイム動画像において、検索部により検索された検索結果を出力する出力部を備え、検索部は、所定の情報を検索しているときにリアルタイム動画像において、検索対象画像が表示されている範囲に対する第タッチ操作があると、所定の情報の検索を解除する、携帯端末である。
14の発明は、第13の発明に従属し、検索部は、所定の情報を検索しているときに検索対象画像が表示されている範囲外に対する第タッチ操作があると、リアルタイム動画像から新たな検索対象画像を抽出する。
この発明によれば、画像検索を容易に行うことが出来る。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例の携帯電話機の外観の一例を示す外観図であり、図1(A)は携帯電話機の表面の外観を示し、図1(B)は携帯電話機の裏面の外観を示す。 図2は図1に示す携帯電話機の電気的な構成を示す図解図である。 図3は図1に示すディスプレイにプレビュー画像が表示されている状態の一例を示す図解図である。 図4は図3に示すプレビュー画像においてAF処理を行う手順の一例を示す図解図であり、図4(A)はプレビュー画像に対してタッチ操作がされている状態の一例を示し、図4(B)はAF処理によって被写体にピントが合った状態の一例を示す。 図5は図1に示すディスプレイに表示されるプレビュー画像に対して設定される分割領域の一例を示す図解図である。 図6は図2に示すRAMに記憶される相対位置関係テーブルの一例を示す図解図である。 図7は図1に示すディスプレイに表示されるプレビュー画像において検索モードに切り替える操作の一例を示す図解図であり、図7(A)は検索キーに対してタップ操作がされている状態の一例を示し、図7(B)は検索モードに切り替わった状態の一例を示す。 図8は図1に示すディスプレイに表示されるプレビュー画像から検索対象画像が抽出される処理の流れの一例を示す図解図であり、図8(A)は任意の位置にタップ操作がされている状態の一例を示し、図8(B)は相対位置関係が検出されると共に、タップ操作がされた被写体にピントが合わせられた状態の一例を示し、図8(C)は抽出範囲が設定された状態の一例を示す。 図9は図1に示すディスプレイに表示される検索対象画像によって画像検索を行う操作の一例を示す図解図であり、図9(A)は画像検索を行うためのタッチ操作の一例を示し、図9(B)は検索結果が表示されている状態の一例を示す。 図10は図1に示すディスプレイに他の実施例の検索モードのプレビュー画像が表示されている状態の一例を示す図解図である。 図11は図2に示すRAMのメモリマップの一例を示す図解図である。 図12は図2に示すプロセッサのカメラ機能処理の一部の一例を示すフロー図である。 図13は図2に示すプロセッサのカメラ機能処理の他の一部の一例であって、図12に後続するフロー図である。 図14は図2に示すプロセッサの画像検索処理の一例を示すフロー図である。 図15は図1に示すディスプレイに表示されるプレビュー画像から検索対象画像が抽出される処理の流れの他の一例を示す図解図であり、図15(A)は任意の位置にタップ操作がされている状態の一例を示し、図15(B)は相対位置関係が検出されると共に、タップ操作がされた被写体にピントが合わせられた状態の一例を示し、図15(C)は抽出範囲が設定された状態の一例を示し、図15(D)は抽出範囲から検索対象画像が抽出されている状態の一例を示し、図15(E)は抽出された検索対象画像が表示されている状態の一例を示す。 図16は図15に示すプレビュー画像において検索対象画像を変更する操作の一例を示す図解図であり、図16(A)は他の検索対象画像を抽出するためのタッチ操作の一例であり、図16(B)は他の検索対象画像が抽出されている状態の一例を示す。 図17は図15に示すプレビュー画像において検索対象画像の抽出を解除する操作の一例を示す図解図であり、図17(A)は検索対象画像に対してタッチ操作がされている状態の一例を示し、図17(B)は検索対象画像の抽出が解除された状態の一例を示す。 図18は図1に示すディスプレイに表示されるプレビュー画像から検索対象画像が抽出される処理の流れのその他の一例を示す図解図であり、図18(A)は人間の顔に対してタップ操作がされている状態の一例を示し、図18(B)は検出された人間の顔が検索対象画像として抽出され、かつ検索を行うタッチ操作が行われている状態の一例を示し、図18(C)は検索結果が表示されている状態の一例を示す。 図19は図18に示す検索結果を他の検索結果に切り換える操作の一例を示す図解図であり、図19(A)はカーソルに対してタッチ操作がされている状態の一例を示し、図19(B)は他の検索結果が表示されている状態の一例を示す。 図20は図2に示すプロセッサの第2実施例のカメラ機能処理の一部の一例を示すフロー図である。
<第1実施例>
図1(A),(B)を参照して、この発明の一実施例の携帯電話機10は、一例としてスマートフォン(smartphone)であり、縦長の扁平矩形のハウジング12を含む。ただし、この発明は、デジタルカメラ、タブレット端末、タブレットPC、ノートPCおよびPDAなど任意の携帯端末に適用可能であることを予め指摘しておく。
ハウジング12の主面(表面)には、表示部とも呼ばれる、たとえば液晶や有機ELなどのディスプレイ14が設けられる。ディスプレイ14の上には、タッチパネル16が設けられる。
ハウジング12の縦方向一端の主面側にスピーカ18が内蔵され、縦方向他端の主面側にマイク20が内蔵される。
ハウジング12の主面には、タッチパネル16と共に入力操作手段を構成するハードキーとして、この実施例では、通話キー22a、終話キー22bおよびメニューキー22cが設けられる。
また、ハウジング12の他面(裏面)には、カメラモジュールのレンズ54などに通じるレンズ開口24が設けられる。
たとえば、ユーザは、ディスプレイ14に表示されたダイヤルパッドに対して、タッチパネル16によってタッチ操作を行うことで電話番号を入力でき、通話キー22aを操作して音声通話を開始することができる。終話キー22bを操作すれば、音声通話を終了することができる。なお、ユーザは終話キー22bを長押しすることによって、携帯電話機10の電源をオン/オフすることができる。
また、メニューキー22cが操作されると、ディスプレイ14にホーム画面が表示される。ユーザは、その状態でディスプレイ14に表示されているオブジェクトなどに対して、タッチパネル16によるタッチ操作を行うことによってオブジェクトを選択し、その選択を確定させることができる。
また、カメラ機能が実行されると、ディスプレイ14に被写界と対応するプレビュー画像(スルー画像)が表示される。そして、ユーザは、レンズ開口24が設けられている他面を任意の被写体に向けて撮影操作を行うことで、撮影することが出来る。
なお、携帯電話機10は、電話機能以外に、メール機能およびブラウザ機能などを実行可能である。また、以下の説明では、ディスプレイ14に表示されるキーなどのGUIおよびアイコンなどは、まとめてオブジェクトと言うことがある。
図2を参照して、図1に示す実施例の携帯電話機10は、コンピュータまたはCPUと呼ばれるプロセッサ30などを含む。プロセッサ30には、無線通信回路32、A/D変換器36、D/A変換器38、入力装置40、表示ドライバ42、フラッシュメモリ44、RAM46、タッチパネル制御回路48およびカメラ制御回路50などが接続される。
プロセッサ30は、携帯電話機10の全体制御を司る。RAM46には、フラッシュメモリ44に予め設定されているプログラムの全部または一部が使用に際して展開され、プロセッサ30はこのRAM46上のプログラムに従って動作する。また、RAM46はさらに、プロセッサ30のワーキング領域ないしバッファ領域として用いられる。
入力装置40は、図1に示すハードキー22を含むものである。そのため、ハードキー22に対するユーザからのキー操作を受け付ける操作受付部を構成する。ユーザが操作したハードキーの情報(キーデータ)はプロセッサ30に入力される。
無線通信回路32は、アンテナ34を通して、音声通話やメールなどのための電波を送受信するための回路である。実施例では、無線通信回路32は、CDMA方式での無線通信を行うための回路である。たとえば、ユーザがタッチパネル16を操作して発呼(音声発信)を指示すると、無線通信回路32は、プロセッサ30の指示の下、音声発信処理を実行し、アンテナ34を介して音声発信信号を出力する。音声発信信号は、基地局および通信網を経て相手の電話機に送信される。そして、相手の電話機において音声着信処理が行われると、通信可能状態が確立され、プロセッサ30は通話処理を実行する。
また、無線通信回路32はアンテナ34を介して、ネットワーク(通信網、電話網)100と無線接続される。データサーバ102は、有線または無線で、ネットワーク100と接続される。したがって、携帯電話機10は、ネットワーク100を介してデータサーバ102と通信を確立することが出来る。
A/D変換器36には図1に示すマイク20が接続され、上述のようにマイク20からの音声信号はこのA/D変換器36でディジタルの音声データに変換され、プロセッサ30に入力される。一方、D/A変換器38にはスピーカ18が接続される。D/A変換器38は、ディジタルの音声データを音声信号に変換して、アンプを介してスピーカ18に与える。したがって、音声データに基づく音声がスピーカ18から出力される。そして、通話処理が実行されている状態では、マイク20によって集音された音声が相手の電話機に送信され、相手の電話機で集音された音声が、スピーカ18から出力される。
なお、プロセッサ30は、たとえばユーザによるボリューム調整操作に応答して、D/A変換器38に接続されるアンプの増幅率を制御することによって、スピーカ18から出力される音声の音量を調整することが出来る。
表示ドライバ42には図1に示すディスプレイ14が接続され、したがって、ディスプレイ14はプロセッサ30から出力される映像または画像データに従って映像または画像を表示する。表示ドライバ42は表示する画像データを一時的に記憶するビデオメモリを含んでおり、プロセッサ30から出力されたデータはこのビデオメモリに記憶される。そして、表示ドライバ42は、ビデオメモリの内容に従って、ディスプレイ14に画像を表示する。つまり、表示ドライバ42は、プロセッサ30の指示の下、当該表示ドライバ42に接続されたディスプレイ14の表示を制御する。そのため、プロセッサ30は表示制御部と呼ばれることもある。なお、ディスプレイ14には、バックライトが設けられており、表示ドライバ42はプロセッサ30の指示に従って、そのバックライトの明るさや、点灯/消灯を制御する。
タッチパネル制御回路48には、タッチパネル16が接続される。タッチパネル制御回路48は、タッチパネル16に必要な電圧などを付与するとともに、タッチパネル16に対するユーザによるタッチの開始を示すタッチ開始信号、ユーザによるタッチの終了を示す終了信号、およびユーザがタッチしたタッチ位置を示す座標データをプロセッサ30に入力する。したがって、プロセッサ30はこの座標データに基づいて、ユーザがどのオブジェクトに対してタッチしたかを判断することが出来る。
実施例では、タッチパネル16は、その表面と指などの物体(以下、便宜上合わせて指と言う。)との間に生じる静電容量の変化を検出する静電容量方式のタッチパネルである。タッチパネル16は、たとえば1本または複数本の指がタッチパネル16に触れたことを検出する。そのため、タッチパネル16はポインティングデバイスとも呼ばれる。タッチパネル制御回路48は、タッチパネル16のタッチ有効範囲内でのタッチ操作を検出して、そのタッチ操作の位置を示す座標データをプロセッサ30に出力する。つまり、ユーザは、タッチパネル16の表面に対してタッチ操作を行うことによって、操作位置や、操作方向などを携帯電話機10に入力する。
本実施例のタッチ操作には、タップ操作、ロングタップ操作、フリック操作、スライド操作などが含まれる。
タップ操作は、タッチパネル16の表面に指を接触(タッチ)させた後、短時間のうちにタッチパネル16の表面から指を離す(リリースする)操作である。ロングタップ操作は、所定時間以上、指をタッチパネル16の表面に接触させ続けた後、指をタッチパネル16の表面から離す操作である。フリック操作は、タッチパネル16の表面に指を接触させ、任意の方向へ所定速度以上で指を弾く操作である。スライド操作は、タッチパネル16の表面に指を接触させたまま任意の方向へ移動させた後、タッチパネル16の表面から指を離す操作である。
また、上記のスライド操作には、ディスプレイ14の表面に表示されたオブジェクトに指を触れ、オブジェクトを移動させるスライド操作、いわゆるドラッグ操作も含まれる。また、ドラッグ操作の後、タッチパネル16の表面から指を離す操作をドロップ操作と呼ぶ。
なお、以下の説明では、タップ操作、ロングタップ操作、フリック操作、スライド操作、ドラッグ操作およびドロップ操作は、それぞれ「操作」を省略して記述されることがある。また、タッチ操作はユーザの指だけに限らず、スタイラスペンなどによって行われてもよい。
カメラ制御回路50には、イメージセンサ52およびレンズ54のレンズ位置を調整するモータ(図示せず)などが接続される。また、カメラ制御回路50は、携帯電話機10で静止画像または動画像を撮影するための回路である。たとえば、カメラ機能を実行する操作が行われると、プロセッサ30はカメラ制御回路50を起動して、カメラ機能を実行する。なお、カメラ制御回路50、イメージセンサ52およびレンズ54は、まとめてカメラモジュールまたは撮影部と呼ばれる。
たとえば、被写体の光学像はイメージセンサ52に照射され、イメージセンサ52の撮像エリアには、たとえばSXGA(1280×1024画素)に対応する受光素子が配置されており、撮像エリアでは、光電変換によって、被写体の光学像に対応する電荷つまりSXGAの生画像信号が生成される。なお、ユーザは、画像データのサイズを、SXGAの他に、XGA(1024×768画素)およびVGA(640×480画素)などに変更することができる。
カメラ機能が実行されると、被写体のリアルタイム動画像つまりプレビュー画像をディスプレイ14に表示するべく、プロセッサ30は、カメラ制御回路50に内蔵されるイメージセンサドライバを起動させ、露光動作および指定された読み出し領域に対応する電荷読み出し動作を、イメージセンサドライバに命令する。
イメージセンサドライバは、イメージセンサ52の撮像面の露光と、当該露光によって生成された電荷の読み出しとを実行する。この結果、生画像信号が、イメージセンサ52から出力される。また、出力された生画像信号はカメラ制御回路50に入力され、カメラ制御回路50は入力された生画像信号に対して、色分離、白バランス調整、YUV変換などの処理を施し、YUV形式の画像データを生成する。そして、YUV形式の画像データはプロセッサ30に入力される。
ここで、カメラ制御回路50は生画像信号からフォーカス評価値を算出し、そのフォーカス評価値をプロセッサ30に出力する。プロセッサ30は、カメラ制御回路50から出力されたフォーカス評価値に基づいて、AF(オートフォーカス)処理を実行する。AF処理が実行されると、カメラ制御回路50はプロセッサ30の指示の下、レンズ54の焦点距離fを調整する。その結果、被写体にピントが合わせられたスルー画像がディスプレイ14に表示される。
また、プロセッサ30に入力されたYUV形式の画像データは、プロセッサ30によってRAM46に格納(一時記憶)される。さらに、格納されたYUV形式の画像データは、プロセッサ30でRGBデータに変換された後に、RAM46から表示ドライバ42に与えられる。そして、RGB形式の画像データがディスプレイ14に出力される。これによって、被写体を表す低解像度(たとえば、320×240画素)のプレビュー画像がディスプレイ14に表示される。
静止画像の撮影操作が行われると、プロセッサ30は、静止画像の本撮影処理を実行する。つまり、プロセッサ30は、イメージセンサ52から出力されるSXGAの生画像信号に信号処理を施して、RAM46に一旦格納し、フラッシュメモリ44に対する記憶処理を実行する。記憶処理が実行されると、プロセッサ30を通してRAM46から撮影画像データが読み出される。そして、プロセッサ30は、読み出した撮影画像データにメタ情報を関連付けて、一つのファイルとしてフラッシュメモリ44に記憶する。さらに、プロセッサ30は、図示しないスピーカから、本撮影処理が実行されていること通知する音を出力させる。
なお、携帯電話機10にメモリカードが接続される場合、撮影画像データはメモリカードに記憶されてもよい。また、撮影画像データに関連付けられるメタ情報は、Exifフォーマットで記憶される。
また、ユーザが動画像を撮影する設定をして撮影操作を行うと、プロセッサ30は、動画像用の本撮影処理を実行する。このとき、プロセッサ30は、カメラ制御回路50に対して、VGAの生画像信号を所定のフレームレートで出力させる命令を発行する。そして、プロセッサ30は、静止画像の本撮影処理と同様、所定のフレームレートで読み出された各生画像信号に対して複数の処理を加えた後に、動画像データをフラッシュメモリ44に記憶する。
なお、フラッシュメモリ44にはアドレス帳データが記憶されている。そして、フラッシュメモリ44に記憶されているアドレス帳データと撮影画像データとはまとめてデータベースと呼ばれることがある。
図3はディスプレイ14にプレビュー画像が表示されている状態の一例を示す図解図である。ディスプレイ14の表示範囲は状態表示領域60および機能表示領域62を含む。状態表示領域60には、アンテナ34による電波受信状態を示すピクト、二次電池の残電池容量を示すピクトおよび時刻が表示される。機能表示領域62には、カメラ画面が表示される。カメラ画面には、カメラモジュールの出力に基づくプレビュー画像が表示されると共に、カメラ画面の左側にはズームスライダーおよびメニューキーが表示され、カメラ画面の右側にはシャッターキー、閲覧キーおよび検索キーが表示される。
ズームスライダーに対してスライド操作がされると、デジタルズーム処理または光学ズーム処理によって画角が変化する。
メニューキーに対してタップ操作がされると、ホワイトバランスおよび露出補正などの設定を変更するためのGUIが表示される。シャッターキーに対してタップ操作がされると、上述した本撮影処理が実行される。閲覧キーに対してタップ操作がされると、フラッシュメモリ44に記憶されている撮影画像データを閲覧可能にする閲覧機能が実行される。そして、検索キーに対してタッチ操作がされると、検索モードが設定される。検索モードについては後述するため、ここでの詳細な説明は省略する。
また、プレビュー画像において任意の位置にタップ操作がされると、タップされた被写体にピントが合うように、AF処理が実行される。たとえば、図3では、手前の花壇に対してピントがあった状態であるが、図4(A)に示すように、背後の自動車に対してタップされると、その自動車にピントが合うようにAF処理が実行される。その結果、ディスプレイ14には、図4(B)に示すように、自動車にピントが合った状態のプレビュー画像が表示される。
ここで、本実施例では、本撮影処理が実行されるときに、被写体どうしの相対位置関係を検出し、検出した相対位置関係をメタ情報として記憶する。
具体的には、図5を参照して、プレビュー画像に対して9つの分割領域R1−R9を設定する。シャッターキーが操作されると、レンズ54の焦点距離fをワイド端からテレ端に変化させ、焦点距離fが変化しているときの各分割領域Rのそれぞれのフォーカス評価値を算出する。また、フォーカス評価値が最大値となったときの焦点距離fをそれぞれ特定し、特定された焦点距離f1−f9が、分割領域R1−R9にそれぞれ対応付けられて、図6に示す相対位置関係テーブルに記憶される。そして、このようにして焦点距離f1−f9が記憶された相対位置関係テーブルは、撮影画像データのメタ情報の一部として記憶される。
たとえば、被写体どうしの相対位置が異なる場合、それぞれの被写体が含まれる分割領域Rと対応する各焦点距離fは異なる。一方、被写体どうしの相対位置が同じである場合、それぞれの被写体が含まれる分割領域Rと対応する各焦点距離fは略同じ値となる。つまり、分割領域R5の焦点距離f5および分割領域R6の焦点距離f6を比較したときに、異なっていれば、分割領域R5に含まれる被写体と分割領域R6に含まれる被写体とは、携帯電話機10から異なる位置(距離)に存在していることとなる。また、2つの分割領域Rの焦点距離fが略同じであれば、それぞれの分割領域Rに含まれる被写体は、携帯電話機10から略同じ位置(距離)に存在していることがわかる。つまり、複数の分割領域Rに対して、フォーカス評価値が最大となった時の焦点距離fを記憶することで、被写体どうしの相対位置関係を検出することが出来る。このように、レンズ54の焦点距離fを利用して相対位置関係を検出することが可能であるため、カメラモジュールを備える既存の携帯端末でもソフトウェアを更新または追加することで、被写体どうしの相対位置関係を検出できるようになる。
なお、本実施例では、焦点距離fを略同じ値と判断する範囲は、0.0−0.2mmとする。ただし、他の実施例では上述の範囲より狭く設定されてもよいし、広く設定されてもよい。
また、本実施例では分割領域Rの数を9つとしたが、他の実施例ではさらに多くてもよいし、少なくてもよい。また、分割領域Rの大きさは全てが同じであってもよいし、全部または一部が異なる大きさであってもよい。
次に、検索モードについて説明する。図7(A),(B)を参照して、上述したように、検索キーに対してタップ操作がされると、検索モードに遷移する。検索モードでは、検索キーの色が反転すると共に、ズームスライダーおよびメニューキーの表示が消去される。そして、検索モードでは、画像検索によって画像を利用してデータサーバ102またはフラッシュメモリ44に記憶されるデータベースから、検索用の画像についての検索結果を得ることが出来る。検索モードで検索キーに対してタップ操作がされると、撮影モードに戻る。画像検索のアルゴリズム等については、広く一般的な技術であるため詳細な説明は省略する。
図8(A)−(C)を参照して、たとえばプレビュー画像において被写体を示す位置にタップ操作がされると、相対位置関係テーブルに、各分割領域Rの焦点距離fが記憶され、かつタッチ位置に基づいてAF処理が実行される。そして、焦点距離fが記憶された相対位置関係テーブルに基づいて、タップされた分割領域Rに含まれる被写体と略同じ位置に存在する被写体を含む分割領域Rが特定される。つまり、タップされた分割領域Rの焦点距離fと略同じ値の焦点距離fが対応付けられた分割領域Rが特定される。たとえば、分割領域R5と分割領域R8との焦点距離fが略同じであれば、分割領域R5に対してタップ操作がされると、分割領域R5と共に、分割領域R8が特定される。そして、分割領域R5および分割領域R8は1つの抽出範囲として設定され、抽出範囲内の画像が検索対象画像として抽出される。また、検索対象画像が抽出されると、抽出範囲以外のプレビュー画像の色はグレースケールに変更される。このように、抽出範囲を設定することで、ユーザは抽出される検索対象画像を把握することが出来る。
また、抽出範囲に対してタップ操作がされると、検索対象画像の抽出が解除される。さらに、抽出範囲以外の位置にタップ操作がされると、検索対象画像が変更される。つまり、抽出範囲以外の位置にタップ操作が行われると、既に抽出されていた検索対象画像の抽出が解除され、タップ操作が行われた抽出範囲内の画像が新たな検索対象画像として抽出される。上記の態様によれば、ユーザは、検索対象を誤って選択したとしても、任意に変更することが出来る。
図9(A)を参照して、検索対象画像が抽出された状態で、シャッターキーが操作されると、検索対象画像による検索結果を得るために、画像検索処理が実行される。具体的には、データサーバ102およびフラッシュメモリ44に記憶されるデータベースから、検索対象画像と関連する情報が検索される。たとえばここでは、検索対象画像には被写体として花が含まれており、データサーバ102のデータベースから花の名称や特徴などの情報が検索結果として得られる。そして、図9(B)に示すように、得られた検索結果を含む検索結果ポップアップPが、検索対象画像に関連付けて表示される。
また、図9(B)に示す検索結果ポップアップPの中には、テキストが表示されているが、検索結果として画像が得られた場合は、その画像も検索結果ポップアップPの中に表示される。さらに、検索結果ポップアップPに対してダブルタップ操作がされると、得られた検索結果が機能表示領域62に拡大して表示される。そして、検索結果ポップアップPの外側にタップ操作がされると、検索結果が消去されると共に抽出範囲の設定が解除され、検索対象を任意に選択することが出来る図7(B)に示す状態に戻る。なお、複数の検索結果を取得した場合には、切替操作によって検索結果ポップアップに表示される検索結果が切り換えられる。
このように、本実施例では、被写体どうしの相対位置関係を利用することで、検索対象画像を適切に抽出することが出来る。そのため、画像検索の検索精度を向上させることが出来る。また、ユーザは撮影中に興味を持った被写体について、画像検索を行うことが出来る。特に、ユーザはタッチパネル16に対する直感的な操作で、検索対象を指定して画像検索を容易に行うことが出来る。
ここで、表示されている検索対象画像は矩形ではない場合が多い。ところが、画像検索を行う際には検索に利用する画像は矩形である必要がある。そこで、本実施例では、検索対象画像が抽出されると、その検索対象画像を囲うことが出来る最小面積の矩形を定義し、その矩形の中に検索対象画像を張り付けることで、画像検索を行うことが可能な状態に加工する。なお、このように加工された検索対象画像において、元の検索対象画像が描かれていない部分は、所定の色(たとえば、白ま)で彩色されるか、無色透明にされる。
なお、他の実施例では、タッチ操作による検索対象画像の抽出ではなく、カメラ画面に表示されるガイドリングGによって検索対象画像が抽出されてもよい。たとえば、図10を参照して、他の実施例の検索モードでは、カメラ画面にガイドリングGが表示される。そして、ユーザはガイドリングGの中に検索対象が入るように携帯電話機10の位置を調整した後にシャッターキーを操作すれば、ガイドリングGの位置に基づいて検索対象画像が抽出される。つまり、図10の状態でシャッターキーが操作されると、分割領域R5に含まれる花に対してタッチされた場合と同様に、被写体どうしの相対位置関係が検出され、抽出範囲が設定される。そして、抽出範囲から検索対象画像が抽出され、画像検索処理が実行される。つまり、ガイドリングGが表示されている状態では、ユーザはタッチ操作を行うことなく、検索対象画像を抽出することが出来る。そのため、シャッターキーをソフトキーではなく、ハードウエアキーとした場合は、タッチパネル16を利用することなく、画像検索を実施することが出来るようになる。したがって、タッチパネル16を有しないデジタルカメラなどの携帯端末であっても、本実施例を適用することが出来る。
上述では第1実施例の特徴を概説した。以下では、図11に示すメモリマップおよび図12−図14に示すフロー図を用いて詳細に説明する。
図11を参照して、RAM46には、プログラム記憶領域302とデータ記憶領域304とが形成される。プログラム記憶領域302は、先に説明したように、フラッシュメモリ44(図2)に予め設定しているプログラムデータの一部または全部を読み出して記憶(展開)しておくための領域である。
プログラム記憶領域302には、カメラ機能を実行するためのカメラ機能プログラム310および画像検索を行うための画像検索プログラム312などが記憶される。なお、プログラム記憶領域302には、メール機能、ブラウザ機能などの機能を実行するためのプログラムも記憶される。
続いて、RAM46のデータ記憶領域304には、タッチバッファ330、プレビュー画像バッファ332、相対位置関係バッファ334、検索対象画像バッファ336および検索結果バッファ338などが設けられる。また、データ記憶領域304には、タッチ座標マップ340が記憶されると共に、タッチフラグ342も設けられる。
タッチバッファ330には、タッチパネル制御回路48が出力するタッチ座標のデータ、タッチ操作の始点および終点のタッチ座標のデータなどが一時的に記憶される。プレビュー画像バッファ332には、カメラモジュールから出力された画像が一時的に記憶される。そして、カメラ機能が実行されたときには、プレビュー画像バッファ332に記憶されている画像に基づいてプレビュー画像が表示される。相対位置関係バッファ334には、相対位置関係が検出されたときに、相対位置関係テーブルが一時的に記憶される。検索対象画像バッファ336には、抽出された検索対象画像が一時的に記憶される。検索結果バッファ338には検索対象画像による検索結果が一時的に記憶される。
タッチ座標マップ340は、タッチ操作におけるタッチ座標とディスプレイ14の表示座標とを対応付けるためのデータである。つまり、タッチパネル16に対して行われたタッチ操作の結果が、タッチ座標マップ340に基づいてディスプレイ14の表示に反映される。
タッチフラグ342は、タッチパネル16に対してタッチされているか否かを判断するためのフラグである。たとえば、タッチフラグ342は、1ビットのレジスタで構成される。タッチフラグ342がオン(成立)されると、レジスタにはデータ値「1」が設定される。一方、タッチフラグ342がオフ(不成立)されると、レジスタにはデータ値「0」が設定される。また、タッチフラグ342は、タッチパネル制御回路48の出力に基づいてオン/オフが切り換えられる。
なお、データ記憶領域304には、GUIなどのオブジェクトを表示するためのデータが記憶されたり、プログラムの実行に必要な、他のフラグやタイマ(カウンタ)が設けられたりする。
プロセッサ30は、Windows(登録商標)ベースのOSや、Android(登録商標)およびiOS(登録商標)などのLinux(登録商標)ベースのOSなどその他のOSの制御下で、図12、図13に示すカメラ機能処理および図14に示す画像検索処理などを含む、複数のタスクを並列的に処理する。
図12はカメラ機能処理のフロー図の一部である。カメラ機能処理は、たとえばカメラ機能を実行する操作がされると開始される。ステップS1でプロセッサ30は、プレビュー画像を表示する。たとえば、プロセッサ30は、カメラ制御回路50を動作させ、カメラ制御回路50の出力に基づくプレビュー画像を、プレビュー画像バッファ332から読み出す。そして、読み出されたプレビュー画像はディスプレイ14に表示される。
続いて、ステップS3でタッチ操作がされたか否かを判断する。つまり、タッチフラグ342がオンであるかが判断される。ステップS3で“NO”であれば、つまりタッチ操作がされなければ、プロセッサ30はステップS3の処理を繰り返す。また、ステップS3で“YES”であれば、たとえばユーザによってタップ操作がされると、ステップS5でプロセッサ30は、検索キーにタップされたか否かを判断する。つまり、検索モードを設定するタッチ操作がされたかが判断される。
ステップS5で“NO”であれば、つまり検索キーに対してタッチ操作がされていなければ、ステップS7でプロセッサ30は、終了か否かを判断する。つまり、カメラ機能を終了させるタッチ操作されたかが判断される。ステップS7で“YES”であれば、つまりカメラ機能を終了させるタッチ操作がされた場合、プロセッサ30はカメラ機能処理を終了する。一方、ステップS7で“NO”であれば、つまりカメラ機能を終了させるタッチ操作がされていなければ、ステップS9でプロセッサ30は、タッチ位置に基づいて処理を実行する。たとえば、プレビュー画像の任意の位置にタップ操作がされた場合は、AF処理が実行される。また、シャッターキーにタップ操作がされた場合は、本撮影処理が実行される。そして、ステップS9の処理が終了すれば、プロセッサ30はステップS3の処理に戻る。
また、ステップS5で“YES”であれば、つまり検索キーに対してタップされると、ステップS11で検索モードが設定される。たとえば、検索モードが設定されると、図7に示すカメラ画面が表示される。
続いて、ステップS13でプロセッサ30は、抽出操作がされたか否かを判断する。たとえば、抽出操作としてプレビュー画像に対するタップ操作を受け付けたかが判断される。なお、ステップS13の処理を実行するプロセッサ30は第1受付部として機能する。ステップS13で“NO”であれば、つまり抽出操作がされなければ、ステップS15でプロセッサ30は、検索キーに対してタップがされたか否かを判断する。つまり、撮影モードに遷移させる操作がされたかが判断される。ステップS15で“YES”であれば、つまり検索キーに対してタップされると、ステップS17でプロセッサ30は、検索モードを解除する。たとえば、図3に示すカメラ画面が再び表示される。そして、ステップS17の処理が終了すれば、プロセッサ30はステップS3の処理に戻る。
また、ステップS15で“NO”であれば、つまり検索キーにタップされていなければ、プロセッサ30はステップS13の処理に戻る。さらに、ステップS13で“YES”であれば、つまりプレビュー画像に対してタップする抽出操作がされると、ステップS19でプロセッサ30は、相対位置関係を検出する。つまり、プロセッサ30は、レンズ54を駆動させる命令をカメラモジュール(カメラ制御回路50)に出し、各分割領域Rにおいてフォーカス評価値が最大となったときの焦点距離fを相対位置関係テーブルに記憶させる。また、相対位置関係テーブルが相対位置関係バッファ334に記憶されると、タッチされた分割領域Rのフォーカス評価値が最大値となるように、カメラモジュールはレンズ54を移動させる。つまり、相対位置関係を検出した結果を利用して、AF処理が実行される。続いて、ステップS21でプロセッサ30は、抽出範囲を設定する。つまり、相対位置関係テーブルに基づいて、タッチ操作がされた分割領域Rと略同じ焦点距離fが対応付けられている分割領域Rを特定し、特定された分割領域Rを抽出範囲として設定する。続いて、ステップS23でプロセッサ30は、検索対象画像を抽出する。つまり、設定された抽出範囲に含まれる画像の画像データを抽出し、抽出した画像データを検索対象画像バッファ336に記憶させる。また、検索対象画像が抽出されると、抽出範囲以外のプレビュー画像の色がグレースケールにされる。なお、ステップS19の処理を実行するプロセッサ30は検出部として機能し、ステップS21の処理を実行するプロセッサ30は設定部として機能し、ステップS23の処理を実行するプロセッサ30は抽出部として機能する。
続いて、ステップS25でプロセッサ30は、変更操作か否かを判断する。つまり、抽出範囲以外のプレビュー画像に対するタップ操作を受け付けたかが判断される。ステップS25で“YES”であれば、つまり変更操作がされると、プロセッサ30はステップS19の処理に戻る。一方、ステップS25で“NO”であれば、つまり変更操作がされていなければ、ステップS27でプロセッサ30は、解除操作か否かを判断する。つまり、プロセッサ30は、抽出範囲に対するタップ操作を受け付けたかを判断する。ステップS27で“YES”であれば、つまり解除操作がされると、プロセッサ30はステップS13の処理に戻る。一方、ステップS27で“NO”であれば、つまり解除操作がされなければ、ステップS29でプロセッサ30は、検索操作か否かを判断する。つまり、シャッターキーに対するタップ操作を受け付けたかが判断される。ステップS29で“NO”であれば、つまり検索操作がされなければ、プロセッサ30はステップS25の処理に戻る。一方、ステップS29で“YES”であれば、つまり検索操作がされると、ステップS31でプロセッサ30は、画像検索処理を実行する。この画像検索処理の詳細については後述するため、ここでの詳細な説明は省略する。そして、ステップS31の処理が終了すれば、プロセッサ30はステップS13の処理に戻る。なお、ステップS25の処理を実行するプロセッサ30は第2受付部として機能し、ステップS31の処理を実行するプロセッサ30は検索部として機能する。
図14は画像検索処理のフロー図である。たとえば、ステップS31の処理が実行されると、画像検索処理が開始される。ステップS51でプロセッサ30は、データサーバ102から検索対象画像を検索する。つまり、データサーバ102とのデータ通信を確立した後、検索対象画像をデータサーバ102に送信すると共に、検索対象画像データに基づく画像検索をデータサーバ102に要求する。続いて、ステップS53でプロセッサ30は、検索結果を取得できたか否かを判断する。つまり、検索対象画像についての検索結果をデータサーバ102から受信したかが判断される。ステップS53で“NO”であれば、つまりデータサーバ102には検索対象画像に関連する情報が記憶されておらず、データサーバ102から検索結果を取得することが出来なければ、プロセッサ30はステップS57の処理に進む。また、ステップS53で“YES”であれば、つまりデータサーバ102から検索結果を取得することが出来れば、ステップS55でプロセッサ30は、検索結果を記憶する。つまり、データサーバ102から受信した検索結果が検索結果バッファ338に記憶される。
続いて、ステップS57でプロセッサ30は、フラッシュメモリ44から検索対象画像を検索する。たとえば、フラッシュメモリ44に記憶される複数の撮影画像およびアドレス帳データを含むデータベースから、検索対象画像と関連する情報を検索する。続いて、ステップS59でプロセッサ30は、検索結果を取得できたか否かを判断する。つまり、フラッシュメモリ44に検索対象画像と関連する情報が記憶されていたかを判断する。ステップS59で“NO”であれば、つまり検索対象画像と関連する情報がフラッシュメモリ44に記憶されていなければ、プロセッサ30はステップS63の処理に進む。また、ステップS59で“YES”であれば、つまり検索対象画像と関連する情報がフラッシュメモリ44に記憶されていれば、ステップS61でプロセッサ30は、検索結果を記憶する。たとえば、検索対象画像についての検索結果としてアドレスデータが得られた場合、そのアドレスデータが検索結果バッファ338に記憶される。
続いて、ステップS63でプロセッサ30は、検索結果を表示する。つまり、検索結果バッファ338に記憶されている内容を含む検索結果ポップアップPがディスプレイ14に表示される。ただし、検索結果バッファ338に検索結果が記憶されていない場合は、検索結果ポップアップPの中には、「検索結果を得ることが出来ませんでした。」などの文字列が表示され、検索結果が得られなかったことが通知される。なお、ステップS63の処理を実行するプロセッサ30は出力部として機能する。
続いて、ステップS65でプロセッサ30は、検索結果が複数か否かを判断する。つまり、検索結果バッファ338に複数の検索結果が記憶されているかが判断される。ステップS65で“YES”であれば、つまり検索結果が複数であれば、ステップS67でプロセッサ30は、切替操作か否かを判断する。たとえば、検索結果を切り替えるためのタッチ操作を受け付けたかが判断される。ステップS67で“NO”であれば、つまり切替操作がされなければ、プロセッサ30はステップS71の処理に進む。一方、ステップS67で“YES”であれば、つまり切替操作がされると、ステップS69でプロセッサ30は、検索結果の表示を切り替える。つまり、検索結果ポップアップPの中には、他の検索結果が表示される。そして、ステップS69の処理が終了すれば、プロセッサ30はステップS65の処理に戻る。なお、ステップS67の処理を実行するプロセッサ30は第3受付部として機能し、ステップS69の処理を実行するプロセッサ30は切替部として機能する。
ステップS65で“NO”であれば、つまり検索結果バッファ338に記憶されている検索結果が1つであれば、ステップS71でプロセッサ30は、終了か否かを判断する。つまり、検索結果ポップアップPの表示を終了(消去)する操作がされたかが判断される。ステップS71で“NO”であれば、つまり検索結果ポップアップPの表示を消去する操作がされなければ、プロセッサ30はステップS65の処理に戻る。一方、ステップS71で“YES”であれば、つまり検索結果ポップアップPの表示を消去する操作がされると、ステップS73でプロセッサ30は、検索結果の表示を消去する。つまり、検索結果ポップアップPの表示が消去される。そして、ステップS73の処理が終了すれば、プロセッサ30は、画像検索処理を終了して、カメラ機能処理に戻る。
<第2実施例>
第2実施例では、抽出範囲が設定された後に、色情報に基づく領域選択や、顔検出処理などの画像処理を加えることで検索対象画像をより適切に抽出する。なお、第2実施例の携帯電話機10は、第1実施例と略同じであるため、外観および電気的な構成などの説明は省略する。
まず、色情報に基づく領域選択を利用して検索対象画像を抽出する処理について説明する。図15(A)−(C)を参照して、検索モードで任意の被写体(たとえば、花)を示す位置にタップ操作がされると、第1実施例と同様、抽出範囲が設定される。次に、図15(D)を参照して、抽出範囲が設定されると、タッチ位置の色情報と略同じ色情報を持つ領域が選択される。第2実施例では、このようにして選択された領域から検索対象画像が抽出される。たとえば、図15(E)に示すように「花」の一部が検索対象画像として抽出された場合、抽出された部分(図面では太線で指示)以外のプレビュー画像の色はグレースケールにされる。
そして、このように検索対象画像が抽出されている状態でシャッターキーが操作されると、検索対象画像についての検索結果が中に表示される検索結果ポップアップPがディスプレイ14に表示される。
このように、色情報を利用することで、ユーザが意図する検索対象を、より適切に抽出することが出来る。
図16(A),(B)を参照して、検索対象画像が抽出されている状態で、他の被写体を示す位置にタッチ操作がされると、相対位置関係が再検出され、検索対象画像が再抽出される。また、略同時に、新たにタッチされた分割領域Rに含まれる被写体にピントが合うようにAF処理が行われる。たとえば、奥の花壇の花に対してタップ操作がされると、奥の花壇の花にピントが合わせられた状態になると共に、タップ操作がされた花の一部が検索対象画像として抽出される。
図17(A),(B)を参照して、検索対象画像に対してタップ操作がされると、検索対象の選択が解除されプレビュー画像の色がグレースケールではなくなる。つまり、カメラ画面が、検索対象が抽出される前の状態に戻る。このように、ユーザは、検索対象画像を誤って選択してしまっても、その選択を解除することが出来る。なお、選択対象画像の選択が解除された後に、同じ分割領域R内にタッチされた場合は、色情報によって領域を選択するときの閾値などの抽出条件を変更して、検索対象画像が抽出される。
次に、顔検出処理を利用して検索対象画像を抽出する処理について説明する。図18(A)−(C)を参照して、プレビュー画像に対してタップ操作がされると、第1実施例と同様、抽出範囲が設定される。そして、設定された抽出範囲に対して顔検出処理が実行され、顔が検出されれば、検出された顔が検索対象画像として抽出される。そして、検索対象画像が抽出された状態でシャッターキーが操作されると画像検索処理が実行され、検索結果ポップアップPがディスプレイ14に表示される。このように、顔検出処理を利用することで、ユーザが意図する検索対象を、より適切に抽出することが出来る。
また、図18(C)に示すように、検索結果ポップアップPにカーソルCが含まれている場合、複数の検索結果が取得されたことが示される。図19(A),(B)を参照して、カーソルCに対してタップ操作がされると、検索結果ポップアップPに表示される検索結果が切り替わる。つまり、複数の検索結果が取得された場合、ユーザは複数の検索結果のそれぞれを確認することが出来る。なお、元(前)の検索結果を表示させる場合は、左側に表示されているカーソルCに対してタップ操作をすればよい。また、3つ以上の検索結果が取得されている場合は、次の検索結果を表示するためのカーソルCが、検索結果ポップアップPの右側に表示される。
また、図19(A)に示す検索結果はデータサーバ102から取得されたものである。たとえば、人間の顔の画像が検索対象画像として抽出された場合、その人間の顔がデータサーバ102のデータベースから検索される。この場合、その人間の顔が写る写真がアップロードされているSNSのページ(HP)のURLが検索結果として取得されることがある。そのため、図19(A)に示す検索結果では、SNSのページ(HP)の名称およびURLが検索結果として表示されている。このように、ユーザは、データサーバ102上に記憶されるデータベースに対して画像検索を行うことが出来る。
なお、データサーバの102のデータベースから情報を検索する際には、Yahoo!(登録商標)やGoogle(登録商標)などの検索サイトが利用されてもよい。また、検索サイトによって検索結果を取得した場合、最上位に示された検索結果が検索結果ポップアップPに表示される。また、複数の検索サイトから検索可能な状態であれば、セマンティック検索に対応している検索サイトで検索が行われるように設定されていてもよい。
また、図19(B)に示す検索結果はフラッシュメモリ44から取得されたものである。たとえば、フラッシュメモリ44に記憶されるアドレス帳データにおいて、画像が関連付けられたアドレスデータがある場合、そのアドレスデータも検索対象となる。そして、ここでは検索対象画像に含まれる顔とアドレスデータに関連づけられた画像に含まれる顔との関連性が高ければ、そのアドレスデータが検索結果として取得される。そのため、図19(B)に示す検索結果では、アドレスデータに含まれる、名前、メールアドレスおよび登録されている画像が検索結果として表示されている。つまり、携帯電話機10のフラッシュメモリ44に記憶されているデータベースに対して画像検索を行うことが出来る。
上述では第2実施例の特徴を概説した。以下では、図20に示すフロー図を用いて、第2実施例について詳細に説明する。
図21は、第2実施例のカメラ機能処理の一部のフロー図である。なお、第2実施例のカメラ機能処理では、ステップS1−S21およびステップS25−S31の処理は略同じであるため、詳細な説明は省略する。
第2実施例のカメラ機能処理が実行されると、プロセッサ30はステップS1−S21の処理を実行する。また、ステップS21の処理で抽出範囲が設定されると、プロセッサ30はステップS91で、顔検出処理を実行する。つまり、抽出範囲に顔が含まれているかを判断するために、抽出範囲に対して顔検出処理が実行される。続いて、ステップS93でプロセッサ30は、顔が検出されたか否かを判断する。つまり、抽出範囲で顔が検出され、かつ検出された顔にタッチ位置が含まれているかが判断される。
ステップS93で“NO”であれば、つまり顔が検出されていなければ、ステップS95でプロセッサ30は、タッチ位置の色情報に基づいて検索対象画像を抽出する。たとえば、図15(A)に示すようにタップ操作がされた場合、タップされた花の色に基づいて領域が選択される。そして、選択された領域から、検索対象画像が抽出される。なお、顔が検出されていた場合であっても、その顔にタッチ位置が含まれていなければ、ステップS93では“NO”と判断される。
また、ステップS93で“YES”であれば、つまり顔が検出され、かつその顔にタッチ操作がされていれば、検出された顔に基づいて検索対象画像を抽出する。たとえば、図18(A)のように人間の顔にタップ操作がされた場合、その顔が検出されるため、検出された顔が検索対象画像として抽出される。
そして、ステップS95またはステップS97の処理で抽出された検索対象画像は、検索対象画像バッファ336に記憶される。また、ステップS95またはステップS97の処理が終了すれば、プロセッサ30はステップS25の処理に進む。なお、ステップS95またはステップ97の処理を実行するプロセッサ30は抽出部として機能する。
なお、フラッシュメモリ44に記憶される撮影画像から検索対象画像を抽出して画像検索を行ってもよい。たとえば、閲覧機能が実行され、フラッシュメモリ44に記憶されている撮影画像の一覧がサムネイル表示されているときに、任意の撮影画像が選択されると撮影画像データおよび対応するメタデータが読み出される。この状態で、撮影画像に写る任意の被写体に対してタップ操作がされると、メタデータに含まれる相対位置関係テーブルに基づいて抽出範囲が設定され、検索対象画像が抽出される。そして、検索対象画像が抽出されると、上述したように画像検索が行われ、検索結果が表示される。
また、レンズ54は、複数のズーム用のレンズおよび複数のフォーカス用のレンズから構成されていてもよい。この場合、フォーカス用のレンズのレンズ位置を変更させることで、焦点距離fを変化させずにピントを合わせることが可能である。そして、このような場合は、相対位置関係テーブルには、焦点距離fに代えてフォーカス用のレンズ位置が記憶されてもよい。
また、被写体までの距離を推定または測定することが出来る場合は、上述した焦点距離fに代えて被写体までの距離が相対位置関係テーブルに記憶されてもよい。
また、図示は省略するが、複数の被写体に対してマルチタッチ操作を行うことで、複数の検索対象画像が抽出される。また、他の実施例では、複数の検索対象画像が選択された場合、選択された検索対象画像において最も手前の被写体と最も奥の被写体との間に存在する被写体も検索対象画像として抽出されてもよい。つまり、他の実施例では、複数の抽出範囲に基づいて定められる焦点距離の範囲に含まれる、複数の抽出範囲の全てが選択される。たとえば、奥行きを持つ被写体を撮影した場合、被写体の手前の部分をタップ操作すると、被写体の手前の部分だけが検索対象画像として抽出されてしまう。そこで、手前の部分と奥の部分との2ヶ所にマルチタッチ操作を行うと、被写体全体をまとめて検索対象画像として抽出することができる。したがって、他の実施例では、ユーザが検索対象画像を抽出するときの操作が簡略化される。
また、タップ操作ではなく、任意の領域を囲うようスライド操作がされたときに、その任意の領域から検索対象画像が抽出されてもよい。
また、フラッシュメモリ44に記憶されるデータベースには、アドレス帳データおよび撮影画像以外のデータが含まれていてもよい。
また、その他の実施例では、検索対象画像を抽出せずにシャッターキーが操作された場合、プレビュー画像の全体が検索対象画像として抽出され、画像検索処理が実行されてもよい。
また、さらにその他の実施例では、携帯電話機10がTV放送を表示可能な場合、任意のシーンをキャプチャーし、そのキャプチャーした画像から検索対象画像を抽出して画像検索を行ってもよい。
また、本実施例では、検索結果をディスプレイ14に表示していたが、さらにその他の実施例はスピーカ18から音声によって出力されてもよいし、他の端末またはPCなどに転送され、他の端末またはPCから出力(表示も含む)されてもよい。
また、本実施例で用いられたプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して携帯電話機10に配信されてもよい。また、CD,DVD,BD(Blue-Ray Disk)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体に複数のプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、プログラムが本実施例と同等の構成の携帯電話機にインストールされた場合、本実施例と同等の効果が得られる。
そして、本明細書中で挙げた、具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。
10 … 携帯電話機
14 … ディスプレイ
16 … タッチパネル
30 … プロセッサ
44 … フラッシュメモリ
46 … RAM
48 … タッチパネル制御回路
50 … カメラ制御回路
52 … イメージセンサ
54 … レンズ
100 … ネットワーク
102 … データサーバ

Claims (14)

  1. カメラモジュール表示部および前記表示部へのタッチ操作を受け付けるタッチパネルを有する、携帯端末であって、
    前記タッチパネルに対するタッチ操作を受け付ける第1受付部、
    前記カメラモジュールから取得されたリアルタイム動画像を分割する分割領域の焦点距離の相対位置関係を検出する検出部、
    前記リアルタイム動画像のタッチ操作された分割領域の焦点距離と略同じ値の焦点距離が対応付けられた分割領域を特定し、前記タッチ操作された分割領域と前記特定された分割領域とを含む抽出範囲内の画像を検索対象画像として抽出する抽出部、
    前記検索対象画像に基づき所定の情報を検索する検索部、および
    前記リアルタイム動画像において、前記検索部により検索された検索結果を、前記検索対象画像と重畳しないように出力する出力部を備える、携帯端末。
  2. 前記第1受付部は、前記カメラモジュールから取得されたリアルタイム動画像が表示されているとき、検索対象画像を抽出する抽出操作を受け付け
    前記検出部は、前記第1受付部が抽出操作を受け付けたとき、前記相対位置関係を検出する、請求項1記載の携帯端末。
  3. 前記相対位置関係に基づいて、前記カメラモジュールから取得されたリアルタイム動画像に対して前記抽出範囲を設定する設定部をさらに備え、
    前記抽出部は、前記抽出範囲に基づいて、前記リアルタイム動画像から前記検索対象画像を抽出する、請求項1または2記載の携帯端末。
  4. 前記カメラモジュールは、レンズを含み、
    前記検出部は、前記レンズの焦点距離を利用して、前記カメラモジュールから取得されたリアルタイム動画像から分割領域前記相対位置関係を検出する、請求項1ないしのいずれかに記載の携帯端末。
  5. 検索対象画像を変更する変更操作を受け付ける第2受付部をさらに備え、
    前記検出部は、前記第2受付部が変更操作を受け付けたとき、前記相対位置関係を再検出し、
    前記抽出部は、前記第2受付部が変更操作を受け付けたとき、当該変更操作および再検出された相対位置関係に基づいて、前記カメラモジュールから取得されたリアルタイム動画像から他の検索対象画像を抽出する、請求項1ないしのいずれかに記載の携帯端末。
  6. 前記検索部による検索結果が複数あるとき、出力される検索結果の切替操作を受け付ける第3受付部、および
    前記第3受付部が切り替え操作を受け付けたとき、出力される検索結果を切り替える切替部をさらに備える、請求項1ないしのいずれかに記載の携帯端末。
  7. 前記抽出部は、色情報に基づいて検索対象画像を抽出する、請求項1ないしのいずれかに記載の携帯端末。
  8. 前記抽出部は、顔検出を利用して検索対象画像を抽出する、請求項1ないしのいずれかに記載の携帯端末。
  9. 前記検索部は、前記検索対象画像についての検索結果を、ネットワーク上のサーバに記憶されるデータベースから出力する、請求項1ないしのいずれかに記載の携帯端末。
  10. データベースを記憶する記憶部をさらに備え、
    前記検索部は、前記検索対象画像についての検索結果を、前記記憶部に記憶されるデータベースから出力する、請求項1ないしのいずれかに記載の携帯端末。
  11. カメラモジュール表示部および前記表示部へのタッチ操作を受け付けるタッチパネルを有する、携帯端末のプロセッサを、
    前記タッチパネルに対するタッチ操作を受け付ける第1受付部、
    前記カメラモジュールから取得されたリアルタイム動画像を分割する分割領域の焦点距離の相対位置関係を検出する検出部、
    前記リアルタイム動画像のタッチ操作された分割領域の焦点距離と略同じ値の焦点距離が対応付けられた分割領域を特定し、前記タッチ操作された分割領域と前記特定された分割領域とを含む抽出範囲内の画像を検索対象画像として抽出する抽出部、
    前記検索対象画像に基づき所定の情報を検索する検索部、および
    前記リアルタイム動画像において、前記検索部により検索された検索結果を、前記検索対象画像と重畳しないように出力する出力部として機能させる、画像検索プログラム。
  12. カメラモジュール表示部および前記表示部へのタッチ操作を受け付けるタッチパネルを有する、携帯端末における画像検索方法であって、前記携帯端末のプロセッサが、
    前記タッチパネルに対するタッチ操作を受け付けるステップ、
    前記カメラモジュールから取得されたリアルタイム動画像を分割する分割領域の焦点距離の相対位置関係を検出する検出ステップ、
    前記リアルタイム動画像のタッチ操作された分割領域の焦点距離と略同じ値の焦点距離が対応付けられた分割領域を特定し、前記タッチ操作された分割領域と前記特定された分割領域とを含む抽出範囲内の画像を検索対象画像として抽出する抽出ステップ、
    前記検索対象画像に基づき所定の情報を検索する検索ステップ、および
    前記リアルタイム動画像において、前記検索ステップにより検索された検索結果を、前記検索対象画像と重畳しないように出力する出力ステップを実行する、画像検索方法。
  13. カメラモジュール、表示部およびタッチ操作を検出するタッチパネルを有する、携帯端末であって、
    前記カメラモジュールから取得されたリアルタイム動画像を分割する分割領域の焦点距離の相対位置関係を検出する検出部、
    前記リアルタイム動画像のタッチ操作された分割領域の焦点距離と略同じ値の焦点距離が対応付けられた分割領域を特定し、前記タッチ操作された分割領域と前記特定された分割領域とを含む抽出範囲内の画像を検索対象画像として抽出する抽出部、
    前記検索対象画像に基づき所定の情報を検索する検索部、および
    前記リアルタイム動画像において、前記検索部により検索された検索結果を出力する出力部を備え、
    前記検索部は、前記所定の情報を検索しているときに前記リアルタイム動画像において、前記検索対象画像が表示されている範囲に対する第タッチ操作があると、前記所定の情報の検索を解除する、携帯端末。
  14. 前記検索部は、前記所定の情報を検索しているときに前記検索対象画像が表示されている範囲外に対する第タッチ操作があると、前記リアルタイム動画像から新たな検索対象画像を抽出する、請求項13記載の携帯端末。
JP2013190223A 2013-09-13 2013-09-13 携帯端末、画像検索プログラムおよび画像検索方法 Active JP6403368B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013190223A JP6403368B2 (ja) 2013-09-13 2013-09-13 携帯端末、画像検索プログラムおよび画像検索方法
PCT/JP2014/073901 WO2015037607A1 (ja) 2013-09-13 2014-09-10 携帯端末および画像検索方法
US15/068,406 US20160196284A1 (en) 2013-09-13 2016-03-11 Mobile terminal and method for searching for image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013190223A JP6403368B2 (ja) 2013-09-13 2013-09-13 携帯端末、画像検索プログラムおよび画像検索方法

Publications (2)

Publication Number Publication Date
JP2015056102A JP2015056102A (ja) 2015-03-23
JP6403368B2 true JP6403368B2 (ja) 2018-10-10

Family

ID=52665709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013190223A Active JP6403368B2 (ja) 2013-09-13 2013-09-13 携帯端末、画像検索プログラムおよび画像検索方法

Country Status (3)

Country Link
US (1) US20160196284A1 (ja)
JP (1) JP6403368B2 (ja)
WO (1) WO2015037607A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104866194B (zh) * 2015-05-21 2018-07-13 百度在线网络技术(北京)有限公司 图片搜索方法及装置
US20180150211A1 (en) * 2015-05-29 2018-05-31 Huawei Technologies Co., Ltd. Method for adjusting photographing focal length of mobile terminal by using touchpad, and mobile terminal
KR20170017572A (ko) * 2015-08-07 2017-02-15 삼성전자주식회사 사용자 단말 장치 및 이의 제어 방법
US10083238B2 (en) * 2015-09-28 2018-09-25 Oath Inc. Multi-touch gesture search
JP6440604B2 (ja) * 2015-09-29 2018-12-19 富士フイルム株式会社 被写体評価システム,被写体評価方法,被写体評価プログラムおよびそのプログラムを格納した記録媒体
US11144750B2 (en) * 2019-02-28 2021-10-12 Family Concepts Ii, Llc Association training related to human faces
JP7082426B2 (ja) * 2020-01-31 2022-06-08 株式会社写真化学 画像処理装置および画像処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7634336B2 (en) * 2005-12-08 2009-12-15 Electronics And Telecommunications Research Institute Localization system and method of mobile robot based on camera and landmarks
JP4019200B2 (ja) * 2007-06-18 2007-12-12 富士フイルム株式会社 画像表示器付きカメラ
JP2009272931A (ja) * 2008-05-08 2009-11-19 Olympus Corp 撮像装置及び情報提供システム
JP5471124B2 (ja) * 2009-07-29 2014-04-16 ソニー株式会社 画像検索装置、画像検索方法及び画像検索プログラム
US9077890B2 (en) * 2011-02-24 2015-07-07 Qualcomm Incorporated Auto-focus tracking
JP2013046343A (ja) * 2011-08-26 2013-03-04 Sharp Corp 画像撮像装置
JP5714452B2 (ja) * 2011-08-29 2015-05-07 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理方法および情報処理システム
CN103135889B (zh) * 2011-12-05 2017-06-23 Lg电子株式会社 移动终端及其3d图像控制方法
US8891907B2 (en) * 2011-12-06 2014-11-18 Google Inc. System and method of identifying visual objects
WO2013084422A1 (ja) * 2011-12-08 2013-06-13 日本電気株式会社 情報処理装置、通信端末、情報検索方法、及び非一時的なコンピュータ可読媒体

Also Published As

Publication number Publication date
JP2015056102A (ja) 2015-03-23
US20160196284A1 (en) 2016-07-07
WO2015037607A1 (ja) 2015-03-19

Similar Documents

Publication Publication Date Title
JP6403368B2 (ja) 携帯端末、画像検索プログラムおよび画像検索方法
US9632681B2 (en) Electronic Device, memory and control method for displaying multiple objects on a display screen
KR101636460B1 (ko) 전자 장치 및 그 제어 방법
EP3076659B1 (en) Photographing apparatus, control method thereof, and non-transitory computer-readable recording medium
EP2975838B1 (en) Image shooting parameter adjustment method and device
JP5848932B2 (ja) 携帯端末、フォルダ管理プログラムおよびフォルダ管理方法
US9819871B2 (en) Method of executing fast association function of camera and portable device including the same
KR101432177B1 (ko) 휴대용 장치 및 그 사진처리방법, 이를 포함하는사진처리시스템
US10222903B2 (en) Display control apparatus and control method thereof
US20140226052A1 (en) Method and mobile terminal apparatus for displaying specialized visual guides for photography
US9582172B2 (en) Display control apparatus and method, image display apparatus, and non-transitory computer readable medium
RU2607476C1 (ru) Способ и устройство для работы с приложением для телевизора
KR20110107143A (ko) 멀티 입력을 이용한 휴대단말의 기능 제어 방법 및 장치
KR20180133743A (ko) 이동 단말기 및 그 제어 방법
WO2014188990A1 (ja) 携帯端末および表示制御方法
CN108476339B (zh) 一种遥控方法和终端
JP2016521418A (ja) オブジェクトが挿入された画像を生成して編集する方法及びその装置
KR20140146884A (ko) 휴대 장치에 의해 촬영된 이미지들을 편집하는 방법 및 이를 위한 휴대 장치
JP6010376B2 (ja) 電子機器,選択プログラムおよび方法
KR20120026458A (ko) 데이터 관리 장치, 데이터 관리 방법 및 기록 매체
JP2016149005A (ja) 表示制御装置およびその制御方法、プログラム、並びに記憶媒体
JP2015088774A (ja) カメラ装置、画像処理プログラムおよび画像処理方法
JP2015065616A (ja) 撮像装置、触覚情報出力プログラムおよび触覚情報出力方法
JP2013041348A (ja) 携帯端末、補助情報表示プログラムおよび補助情報表示方法
JP2015192362A (ja) 画像再生装置,画像再生方法およびその制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170628

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170719

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20171006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180911

R150 Certificate of patent or registration of utility model

Ref document number: 6403368

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150