JP6348611B2 - 自動ピント合わせ方法、装置、プログラム及び記録媒体 - Google Patents

自動ピント合わせ方法、装置、プログラム及び記録媒体 Download PDF

Info

Publication number
JP6348611B2
JP6348611B2 JP2016565542A JP2016565542A JP6348611B2 JP 6348611 B2 JP6348611 B2 JP 6348611B2 JP 2016565542 A JP2016565542 A JP 2016565542A JP 2016565542 A JP2016565542 A JP 2016565542A JP 6348611 B2 JP6348611 B2 JP 6348611B2
Authority
JP
Japan
Prior art keywords
spatial
coordinate
target
value
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016565542A
Other languages
English (en)
Other versions
JP2017505466A (ja
Inventor
▲協▼浩 ▲鮑▼
▲協▼浩 ▲鮑▼
▲東▼▲亜▼ 姜
▲東▼▲亜▼ 姜
万坤 ▲楊▼
万坤 ▲楊▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiaomi Inc
Original Assignee
Xiaomi Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiaomi Inc filed Critical Xiaomi Inc
Publication of JP2017505466A publication Critical patent/JP2017505466A/ja
Application granted granted Critical
Publication of JP6348611B2 publication Critical patent/JP6348611B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

関連出願の相互参照
本願は出願番号が2014108321087であり、出願日が2014年12月26日である中国特許出願に基づき、優先権を主張し、当該中国特許出願の全ての内容は本願に援用される。
本発明は通信端末技術分野に関わり、特に自動ピント合わせ方法装置、プログラム及び記録媒体に関わる。
スマート端末の発展に伴い、ユーザはスマート端末を通じて各種アプリケーション機能を実現できるようになった。そのうちの一つの最もよくあるアプリケーション機能は、スマート端末に集成カメラ機能であり、カメラ機能を通じてユーザはいつでもどこでも興味を持った景色又は人物を撮影することができる。カメラ機能を起動するとき、ユーザはファインダー(Finder)を通じてフレーミングした後、手動ピント合わせ方法を利用して、ファインダー上の、例えば人物の顔などの一つのフレーミング目標をクリックすることで、フレーミング内容に対するピント合わせを行うことができる。
関連技術において、ユーザが手動でピントを合わせた後、ファインダーを移動した場合、ファインダー上のフレーミング内容は変化され、このとき、カメラは自動的にピントをファインダーの中心部に合わせる。しかしながら、新たに合わせられたピントとユーザがピントを合わせたフレーミング目標の間にズレが生じて、ピントをフレーミング目標に合わせるため、ユーザは再び手動でピントを合わせる必要がある。従って、ピント合わせの操作が煩雑で、ユーザの撮影体験が比較的低くなってしまう。
手動でピントを合わせる操作が煩雑となり、ユーザの撮影体験が比較的低くなってしまう関連技術に存在する問題を解決するために、本発明は自動ピント合わせ方法装置、プログラム及び記録媒体を提供する。
本発明の実施例の第1の態様によれば、ユーザがファインダー上の目標物をクリックして手動でピントを合わせた後、前記目標物の第1の空間データを取得するステップと、前記ファインダー上のフレーミング内容が変化したことを検出したとき、位置変化データを取得するステップと、前記第1の空間データ及び前記位置変化データに基づいて前記目標物の第2の空間データを計算するステップと、前記第2の空間データに基づいて前記目標物に対し自動的にピントを合わせるステップとを含む自動ピント合わせ方法を提供する。
好ましくは、前記目標物の第1の空間データを取得するステップは、焦点から画像センサまでの第1の垂直距離を計算するステップと、前記焦点を3次元直交座標系の原点とし、前記第1の垂直距離に基づいて、前記目標物が画像センサに結像した第1の位置の第1の空間座標を取得するステップと、前記焦点と前記第1の位置との間の第1のベクトルの第1の空間ベクトル角を計算するステップとを含み、前記手動ピント合わせが完了したとき、前記目標物の結像は前記画像センサ上に位置する。
好ましくは、前記焦点から画像センサまでの第1の垂直距離を計算するステップは、前記手動ピント合わせが完了したときの像距離を取得するステップと、前記像距離と固定焦点の焦点距離との間の差分値を計算し、前記差分値を前記焦点から画像センサまでの第1の垂直距離とするステップとを含む。
好ましくは、前記第1の垂直距離に基づいて、前記目標物が画像センサに結像した第1の位置の第1の空間座標を取得するステップは、前記ファインダーの中心を平面直角座標系の原点とし、前記平面直角座標系における、前記目標物の第1の二次元座標を取得するステップと、所定の比率で前記第1の二次元座標を変換し、前記目標物が前記画像センサに結像した第2の二次元座標を取得するステップと、前記第2の二次元座標及び前記第1の垂直距離に基づいて、前記目標物が画像センサに結像した第1の空間座標を確定するステップとを含み、前記ファインダーの中心は前記焦点と同じ法線方向に位置し、前記第1の空間座標のX軸座標値は前記第2の二次元座標のX軸座標値であり、前記第1の空間座標のY軸座標値は前記第2の二次元座標のY軸座標値であり、前記第1の空間座標のZ軸座標値は前記第1の垂直距離である。
好ましくは、前記ファインダー上のフレーミング内容が変化したことを検出したとき、位置変化データを取得するステップは、加速度センサによって検出された加速度データに基づいて前記ファインダーが移動したか否かを判断するステップと、前記ファインダーが移動したとき、方向センサによって検出された、前記位置変化データとしての空間変化ベクトル角を取得するステップとを含む。
好ましくは、前記第1の空間データ及び前記位置変化データに基づいて前記目標物の第2の空間データを計算するステップは、前記第1の空間座標に基づいて前記焦点から前記第1の位置までの第1の直線距離を計算するステップと、前記第1の空間ベクトル角及び前記空間変化ベクトル角に基づいて、第2の空間ベクトル角を計算するステップと、前記第1の直線距離と前記第2の空間ベクトル角に基づいて第2の位置の第2の空間座標を計算するステップとを含み、前記第2の空間ベクトル角は前記焦点と前記第2の位置との間の第2のベクトルの空間ベクトル角であり、前記第2の位置は前記自動ピント合わせが完了した後、前記目標物が前記画像センサに結像した位置である。
好ましくは、前記第2の空間データに基づいて自動的にピントを合わせるステップは、前記第2の空間座標に基づいて前記焦点から前記第2の位置までの第2の垂直距離を取得するステップと、前記第2の垂直距離と固定焦点の焦点距離の和を計算して、前記和を調整後の像距離とするステップと、レンズグループから前記画像センサまでの距離が前記調整後の像距離になるまで、前記レンズグループを移動するステップとを含み、前記第2の垂直距離は前記第2の空間座標のZ軸座標値である。
好ましくは、前記第2の空間データに基づいて自動的にピントを合わせる前に、更に、画像識別アルゴリズムを用いて前記第2の位置の第2の空間座標の識別値を計算するステップと、前記第2の空間座標の識別値に基づいて前記第2の空間座標を校正することで、校正後の第2の空間座標を取得するステップとを含む。
好ましくは、前記第2の空間座標の識別値に基づいて前記第2の空間座標を校正することで、校正後の第2の空間座標を取得するステップは、前記第2の空間座標の識別値と前記第2の空間座標との間の距離が所定の校正閾値より小さいか否かを判断するステップと、前記校正閾値より小さいとき、前記第2の空間座標の識別値と前記第2の空間座標のX軸座標値の平均値を計算して、該平均値を校正後の第2の空間座標のX軸座標値とし、前記第2の空間座標の識別値と前記第2の空間座標のY軸座標値の平均値を計算して、該平均値を校正後の第2の空間座標のY軸座標値とするステップと、前記第1の直線距離、前記校正後の第2の空間座標のX軸座標値及び前記校正後の第2の空間座標のY軸座標値に基づいて前記校正後の第2の空間座標のZ軸座標値を計算するステップとを含む。
本発明の実施例の第2の態様によれば、ユーザがファインダー上の目標物をクリックして手動でピントを合わせた後、前記目標物の第1の空間データを取得するための取得モジュールと、前記ファインダー上のフレーミング内容が変化したことを検出したとき、位置変化データを取得するための検出モジュールと、前記第1の空間データ及び前記位置変化データに基づいて前記目標物の第2の空間データを計算するための第1の計算モジュールと、前記第2の空間データに基づいて前記目標物に自動的にピントを合わせるためのピント合わせモジュールとを備える自動ピント合わせ装置を提供する。
好ましくは、前記取得モジュールは、焦点から画像センサまでの第1の垂直距離を計算するための第1の垂直距離計算サブモジュールと、前記焦点を3次元直交座標系の原点とし、前記第1の垂直距離に基づいて、前記目標物が前記画像センサに結像した第1の位置の第1の空間座標を取得するための第1の空間座標取得サブモジュールと、前記焦点と前記第1の位置との間の第1のベクトルの第1の空間ベクトル角を計算するための第1の空間ベクトル角計算サブモジュールとを含み、前記手動ピント合わせが完了したとき、前記目標物の結像は前記画像センサ上に位置する。
好ましくは、前記第1の垂直距離計算サブモジュールは、前記手動ピント合わせが完了したときの像距離を取得するための像距離取得サブモジュールと、前記像距離と固定焦点の焦点距離との間の差分値を計算し、前記差分値を前記焦点から画像センサまでの第1の垂直距離とするための差分値計算サブモジュールとを含む。
好ましくは、前記第1の空間座標取得サブモジュールは、前記ファインダーの中心を平面直角座標系の原点とし、前記平面直角座標系における、前記目標物の第1の二次元座標を取得するための第1の二次元座標取得サブモジュールと、所定の比率で前記第1の二次元座標を変換し、前記目標物が画像センサに結像した第2の二次元座標を取得するための第2の二次元座標取得サブモジュールと、前記第2の二次元座標及び前記第1の垂直距離に基づいて、前記目標物が画像センサに結像した第1の空間座標を確定するための第1の空間座標確定サブモジュールとを含み、前記ファインダーの中心は前記焦点と同じ法線方向に位置し、前記第1の空間座標のX軸座標値は前記第2の二次元座標のX軸座標値であり、前記第1の空間座標のY軸座標値は前記第2の二次元座標のY軸座標値であり、前記第1の空間座標のZ軸座標値は前記第1の垂直距離である。
好ましくは、前記検出モジュールは、加速度センサによって検出された加速度データに基づいて前記ファインダーが移動したか否かを判断するための加速度検出サブモジュールと、前記ファインダーが移動したとき、方向センサによって検出された、前記位置変化データとしての空間変化ベクトル角を取得するための変化ベクトル角取得サブモジュールとを含む。
好ましくは、前記第1の計算モジュールは、前記第1の空間座標に基づいて前記焦点から前記第1の位置までの第1の直線距離を計算するための第1の直線距離計算サブモジュールと、前記第1の空間ベクトル角及び前記空間変化ベクトル角に基づいて、第2の空間ベクトル角を計算するための第2の空間ベクトル角計算サブモジュールと、前記第1の直線距離及び前記第2の空間ベクトル角に基づいて第2の位置の第2の空間座標を計算するための第2の空間座標計算サブモジュールとを含み、前記第2の空間ベクトル角は前記焦点と前記第2の位置の間の第2のベクトルの空間ベクトル角であり、前記第2の位置は前記自動ピント合わせが完了した後、前記目標物が前記画像センサに結像した位置である。
好ましくは、前記ピント合わせモジュールは、前記第2の空間座標に基づいて前記焦点から前記第2の位置までの第2の垂直距離を取得するための第2の垂直距離取得サブモジュールと、前記第2の垂直距離と固定焦点の焦点距離の和を計算し、前記和を調整後の像距離とするための調整像距離計算サブモジュールと、レンズグループから前記画像センサまでの距離が前記調整後の像距離になるまで、前記レンズグループを移動するためのレンズグループ移動サブモジュールとを含み、前記第2の垂直距離は前記第2の空間座標のZ軸座標値である。
好ましくは、更に、画像識別アルゴリズムを用いて前記第2の位置の第2の空間座標の識別値を計算するための第2の計算モジュールと、前記第2の空間座標の識別値に基づいて前記第2の空間座標を校正することで、校正後の第2の空間座標を取得するための校正モジュールとを備える。
好ましくは、前記第2の空間座標の識別値と前記第2の空間座標との間の距離が所定の校正閾値より小さいか否かを判断するための校正閾値判断サブモジュールと、前記校正閾値より小さいとき、前記第2の空間座標の識別値と前記第2の空間座標のX軸座標値の平均値を計算して、該平均値を校正後の第2の空間座標のX軸座標値とし、前記第2の空間座標の識別値と前記第2の空間座標のY軸座標値の平均値を計算して、該平均値を校正後の第2の空間座標のY軸座標値とし、ならびに前記第1の直線距離、前記校正後の第2の空間座標のX軸座標値及び前記校正後の第2の空間座標のY軸座標値に基づいて前記校正後の第2の空間座標のZ軸座標値を計算するための校正座標値計算サブモジュールとを含む。
本発明の実施例の第3の態様によれば、プロセッサと、プロセッサが実行可能な指令を記憶するためのメモリとを備え、前記プロセッサは、ユーザがファインダー上の目標物をクリックして手動でピントを合わせた後、前記目標物の第1の空間データを取得し、前記ファインダー上のフレーミング内容が変化したことを検出したとき、位置変化データを取得し、前記第1の空間データ及び前記位置変化データに基づいて前記目標物の第2の空間データを計算し、前記第2の空間データに基づいて前記目標物に対し自動的にピントを合わせるように構成される自動ピント合わせ装置を提供する。
本発明の実施例の第4の態様によれば、プロセッサに実行されることにより、前記自動ピント合わせ方法を実現する記録媒体に記録されたプログラムを提供する。
本発明の実施例の第5の態様によれば、前記プログラムが記録された記録媒体を提供する。
本発明の実施例が提供する技術方案は下記のような有益な効果を含むことができる。
本発明において、端末を用いて撮影するとき、ユーザがファインダー上の目標物をクリックして手動でピントを合わせた後、目標物の第1の空間データを取得し、ファインダー上のフレーミング内容が変化したことを検出したとき、位置変化データを取得し、第1の空間データ及び位置変化データに基づいて目標物の第2の空間データを算出した後、該第2の空間データに基づいて自動的にピントを合わせることができる。従って、ユーザが撮影している間に、ファインダーが移動したが、目標物がファインダーから移出されていない場合、該目標物に自動的にピントを合わせることができ、これにより、フレーミング内容が変化したときの、手動ピント合わせの操作を避けることができ、ピント合わせ操作を簡略化し、ピント合わせの速度を高め、ユーザの撮影体験を向上させることができる。
本発明において、目標物の第1の空間データを取得するとき、手動ピント合わせの後に取得した像距離、及び焦点を3次元直交座標系の原点とすることで、目標物が画像センサに結像した第1の空間座標と第1の空間ベクトル角を取得する。これにより、該第1の空間座標と第1の空間ベクトル角を用いて目標物の位置変化後の空間データを計算することができ、これにより、自動ピント合わせを実現することができる。
本発明において、端末に集成された加速度センサを利用してファインダーが移動したか否かを判断し、ファインダーが移動したとき、方向センサを通じて移動によって生じた空間変化ベクトル角を検出することができる。これにより、空間変化ベクトル角、第1の空間座標及び第1の空間ベクトル角に基づいて目標物の位置変化後の空間データを計算することができ、自動ピント合わせを実現することができる。
本発明において、第2の空間座標に基づいて自動的にピントを合わせる前に、画像識別アルゴリズムを用いて算出した第2の空間座標の識別値に基づいて第2の空間座標を校正し、これにより、自動的にピントを合わせる精確性を更に向上させることができる。
また、以上の一般的な説明及び以下の詳細な説明は単なる例示及び解釈に過ぎず、本発明を限定するものではないことを理解すべきである。
本願の図面は明細書に取り込まれ明細書の一部を構成し、本発明に合致する実施例を示し、また、明細書と共に本発明の原理の解釈に用いられる。
図1は一つの例示的な実施例にかかる自動ピント合わせ方法のフローチャートである。 図2は一つの例示的な実施例にかかるもう一つの自動ピント合わせ方法のフローチャートである。 図3は一つの例示的な実施例にかかる端末のピントを合わせた後の結像の模式図である。 図4は一つの例示的な実施例にかかる自動ピント合わせ装置のブロック図である。 図5は一つの例示的な実施例にかかるもう一つの自動ピント合わせ装置のブロック図である。 図6は一つの例示的な実施例にかかるもう一つの自動ピント合わせ装置のブロック図である。 図7は一つの例示的な実施例にかかるもう一つの自動ピント合わせ装置のブロック図である。 図8は一つの例示的な実施例にかかるもう一つの自動ピント合わせ装置のブロック図である。 図9は一つの例示的な実施例にかかるもう一つの自動ピント合わせ装置のブロック図である。 図10は一つの例示的な実施例にかかるもう一つの自動ピント合わせ装置のブロック図である。 図11は一つの例示的な実施例にかかるもう一つの自動ピント合わせ装置のブロック図である。 図12は一つの例示的な実施例にかかるもう一つの自動ピント合わせ装置のブロック図である。 図13は一つの例示的な実施例にかかる自動ピント合わせ装置に用いられる構造の模式図である。
ここで例示的な実施例について詳細に説明を行うが、その例示は図面において示されている。以下の説明が図面に関する場合、特に示さない限り、異なる図面の中の同一の数字は同一又は類似の要素を表す。また、以下の例示的な実施例で説明する実施形態は、本発明と一致する全ての実施形態を代表するものではなく、これらは特許請求の範囲において詳述した、本発明の一部の態様と一致する装置及び方法の例に過ぎない。
本発明の術語は特定の実施例を説明することを目的として使用されており、本発明を限定するためのものではない。本発明及び特許請求の範囲において使用した単数形式の「一つの」、「前記」及び「該」は、上下の文脈においてその他の意味を明白に表示しない限り、多数形式も含む。更に、本願において使用した術語「及び/又は」は、一つ又は複数の関連する列記項目のいずれか又は全ての可能な組み合わせを含むことを指すことを理解すべきである。
本発明において第1、第2の、第3などの術語を採用して各種情報を説明する可能性はあるが、これらの情報はこれらの術語に限定されないということを理解すべきである。これらの術語は同一種類の情報を互いに区別するためだけに用いられる。例えば、本発明の範囲を逸脱しない状況のもとで、第1情報は第2の情報と呼ばれてもよく、類似的に、第2の情報は第1情報と呼ばれてもよい。文脈によって、例えばここで使用した「場合」は、「・・・のとき」、「・・・の際」又は「・・・に応じて」として解釈することができる。
図1に示すように、図1は一つの例示的な実施例にかかる自動ピント合わせ方法のフローチャートである。該方法は端末に利用することができ、以下のようなステップを含む。
ステップ101において、ユーザがファインダー上の目標物をクリックして手動でピントを合わせた後、目標物の第1の空間データを取得する。
本発明の実施例における端末は主に、例えばスマートフォン、タブレットPC、PDA(Personal Digital Assistant、個人用情報端末)などのような、カメラ機能を集成した各種スマート端末を指す。ここで、スマート端末における、カメラ機能を実現するためのレンズグループは通常固定焦点の焦点距離(f)を採用しており、即ち光学ズーム(Optical Zoom)ができない。ピント合わせのプロセスにおいて、端末はレンズグループを移動することで、レンズグループと結像するための画像センサとの間の距離を変更し、該距離が像距離(v)に等しくなるようにする。即ちピントを合わせて結像した焦点平面と、画像センサの垂直平面が重ね合わせるようにする。これにより、結像がはっきりとなり、ピント合わせが完了する。
本発明の実施例において、ユーザが端末のカメラ機能を起動した後、ファインダー上のフレーミング内容を確認することで撮影しようとする画面を調整することができ、かつファインダー上の一つの目標物をクリックすることで手動ピント合わせを完了することができる。手動ピント合わせが完了した後、目標物の結像は画像センサ上に位置し、このとき、結像ははっきりになっている。ユーザが手動でピントを合わせた後、ファインダーを移動して新たにフレーミングを行う場合、即ちフレーミング内容が変化された場合、ファインダー上の目標物の位置も変化されるが、ファインダーから移出されていない場合、端末は該目標物に自動的にピントを合わせることができるようにするために、手動でピントを合わせた後、目標物の第1の空間データを取得し、該第1の空間データを利用して後続の自動ピント合わせプロセスを完成する。該第1の空間データは第1の空間座標及び第1の空間ベクトル角を含むことができる。
目標物の第1の空間データを取得するとき、端末はまず焦点から画像センサまでの第1の垂直距離を計算し、焦点を原点とし、3次元直交座標系を確立することができる。このとき、手動ピント合わせが完了しているため、目標物の結像は画像センサ上に位置しており、目標物が画像センサの第1の位置に結像されると仮定し、3次元直交座標系における、該第1の位置の第1の空間座標を取得する。該第1の空間座標はX軸座標、Y軸座標及びZ軸座標により構成されている。ここで、Z軸座標値は即ち前記第1の垂直距離である。更に、前記3次元直交座標系に基づいて、関連技術におけるベクトル角の公式を利用して、焦点と第1の位置との間の第1のベクトルの第1の空間ベクトル角を算出することができる。該第1の空間ベクトル角は第1のベクトルとX軸との角、第1のベクトルとY軸との角、及び、第1のベクトルとZ軸との角を含む。
ステップ102において、ファインダー上のフレーミング内容が変化したことを検出したとき、位置変化データを取得する。
通常、スマート端末には、複数種類の異なる機能を有するセンサが集成されており、ここで、加速度センサ及び方向センサを含むことができる。加速度センサはスマート端末が受ける加速度の大きさ及び方向を検出するために使われ、これにより、端末が回転したか否かを判断することができる。方向センサは、3次元空間内におけるスマート端末の各座標軸の移動角度を検出するために使われ、例えば、具体的に、該方向センサはジャイロセンサであってもいい。
本実施例において、端末は加速度センサによって検出された加速度データを取得した後、該加速度データに基づいて端末が回転したか否かを判断することができ、更にファインダーが移動したか否かを判断することができる。ファインダーが移動したと判断し、かつ、移動が停止したとき、方向センサによって検出された空間変化ベクトル角を取得することができる。該空間変化ベクトル角は、手動ピント合わせが完了したときの空間ベクトル角に対して現在空間ベクトル角の変化角のX軸における分量、Y軸における分量、及びZ軸における分量を含む
ステップ103において、第1の空間データ及び位置変化データに基づいて目標物の第2の空間データを計算する。
ステップ101において焦点と第1の位置との間の第1のベクトルの第1の空間ベクトル角を取得し、及びステップ102において空間変化ベクトル角を取得したため、本ステップにおいて、第1の空間ベクトル角及び空間変化ベクトル角に基づいて第2の空間ベクトル角を計算することができる。該第2の空間ベクトル角は、焦点と第2の位置との間の第2のベクトルの空間ベクトル角度であり、第2の位置は即ち自動的にピントを合わせた後、目標物の画像センサにおける結像位置である。ここで、第2の空間ベクトル角のうち、第1のベクトルとX軸との角は、第1の空間ベクトル角のX軸なす角と空間変化ベクトル角のX軸変化角の和である。第2の空間ベクトル角のうち、第1のベクトルとY軸との角は、第1の空間ベクトル角のY軸なす角と空間変化ベクトル角のY軸変化角の和である。第2の空間ベクトル角のうち、第1のベクトルとZ軸との角は、第1の空間ベクトル角のZ軸なす角と空間変化ベクトル角のZ軸変化角の和である。ステップ101において、3次元直交座標系における、第1の位置の第1の空間座標を取得したため、本ステップにおいて第1の空間座標に基づいて焦点から第1の位置までの第1の直線距離を計算し、かつ、該第1の直線距離及び前記取得した第2の空間ベクトル角に基づいて第2の位置の第2の空間座標を計算することができる。ここで、第1の直線距離と、第2の空間ベクトル角のX軸なす角の余弦値を相乗して第2の空間座標のX軸の座標値を取得し、第1の直線距離と、第2の空間ベクトル角のY軸なす角の余弦値を相乗して第2の空間座標のY軸の座標値を取得し、第1の直線距離と、第2の空間ベクトル角のZ軸なす角の余弦値を相乗して第2の空間座標のZ軸の座標値を取得する。
ステップ104において、第2の空間データに基づいて目標物に対し自動的にピントを合わせる。
ステップ103において第2の空間座標を取得した後、該第2の空間座標に基づいて焦点から第2の位置までの第2の垂直距離を取得することができる。該第2の垂直距離は即ち第2の空間座標のZ軸座標値であり、かつ、第2の垂直距離と固定焦点の焦点距離の和を計算して、該和を調整後の像距離とし、そして、レンズグループから画像センサまでの距離が調整後の像距離になるまで、端末がレンズグループを移動したとき、目標物は画像センサに結像され、このとき目標物の結像がはっきりであり、自動ピント合わせが完了する。
本発明の実施例において、前記第2の空間データに基づいて自動的にピントを合わせる前に、更に第2の空間データを校正することができる。即ち第2の空間データが第2の位置の第2の空間座標であるとき、画像識別アルゴリズムを用いて第2の位置の第2の空間座標の識別値を計算し、かつ、第2の空間座標の識別値に基づいて前記第2の空間座標を校正し、校正後の第2の空間座標を取得することができる。
第2の空間座標を校正する具体的なプロセスにおいて、端末は第2の空間座標の識別値と第2の空間座標との間の距離が所定の校正閾値より小さいか否かを判断することができ、校正閾値より小さい場合、第2の空間座標の識別値と第2の空間座標のX軸座標値の平均値を計算して、該平均値を校正後の第2の空間座標のX軸座標値とし、及び、第2の空間座標の識別値と第2の空間座標のY軸座標値の平均値を計算して、該平均値を校正後の第2の空間座標のY軸座標値とする。そして、第1の直線距離、校正後の第2の空間座標のX軸座標値及び校正後の第2の空間座標のY軸座標値に基づいて、校正後の第2の空間座標のZ軸座標値を算出することができ、該校正後のZ軸座標値は、即ち前記第2の垂直距離であり、例えば、第1の直線距離をLとし、校正後のX軸座標値をaとし、校正後の座標値をbとし、校正後のZ軸座標値をcと仮定したとき、上記値は公式L=a+b+cを満たす。
上述した実施例から分かるように、端末を用いて撮影するとき、ユーザがファインダー上の目標物をクリックして手動でピントを合わせた後、目標物の第1の空間データを取得し、ファインダー上のフレーミング内容が変化したことを検出したとき、位置変化データを取得し、第1の空間データ及び位置変化データに基づいて目標物の第2の空間データを算出した後、該第2の空間データに基づいて自動的にピントを合わせることができる。従って、ユーザが撮影している間に、ファインダーが移動したが、目標物がファインダーから移出されていない場合、該目標物に自動的にピントを合わせることができ、これにより、フレーミング内容が変化したときの、手動ピント合わせの操作を避けることができ、ピント合わせ操作を簡略化し、ピント合わせの速度を高め、ユーザの撮影体験を向上させることができる。更に、該実施例は、第2の空間座標に基づいて自動的にピントを合わせる前に、画像識別アルゴリズムを用いて算出した第2の空間座標の識別値に基づいて第2の空間座標を校正し、これにより、自動的にピントを合わせる精確性を更に向上させることができる。
図2に示すように、図2は一つの例示的な実施例にかかるもう一つの自動ピント合わせ方法のフローチャートである。該方法は端末に利用することができ、以下のようなステップを含む。
ステップ201において、ユーザがファインダー上の目標物をクリックして手動でピントを合わせた後、焦点から画像センサまでの第1の垂直距離を計算する。
本発明の実施例において、端末は主にカメラ機能を集成した各種スマート端末を指し、カメラの結像プロセスにおいて、焦点距離(f)、被写体距離(u)及び像距離(v)との間はガウスの結像公式を満たす。ここで、焦点距離はレンズグループから焦点までの距離を指し、被写体距離とは被写体が位置する垂直平面からレンズグループまでの距離を指し、像距離とは被写体の結像からレンズグループまでの距離を指す。ここで、通常、端末には光学ズームができなく、そのレンズグループは固定焦点fを採用しているため、ピント合わせのプロセスにおいて、端末はレンズグループを移動することで、レンズグループと、結像するための画像センサとの間の距離を変更することができ、ピント合わせが完了したとき、上述した距離がvと等しくなるようにするとともに、焦点から画像センサまでの垂直距離がdであるようにする。図3に示すように、図3は一つの例示的な実施例にかかる端末のピントを合わせた後の結像の模式図である。
本実施例において、ユーザが端末のカメラ機能を起動した後、ファインダー上のフレーミング内容を確認することで撮影しようとする画面を調整することができ、かつ、ファインダー上の一つの目標物をクリックすることで、図3に示すように、手動でピントを合わせることができる。手動でピントを合わせた後、目標物の結像は画像センサ上に位置し、このとき、結像ははっきりになっており、このときの像距離をv1とし、固定焦点の焦点距離をfと仮定したとき、焦点から画像センサまでの第1の垂直距離はd1であり、該d1の計算公式は以下のとおりである。
d1=v1−f 公式(1)
ステップ202において、焦点を3次元直交座標系の原点とし、第1の垂直距離に基づいて、目標物が画像センサに結像した第1の位置の第1の空間座標を取得する。
本ステップにおいて、まずファインダーの中心を平面直角座標系の原点とすることができ、該ファインダーの中心と焦点は同一法線方向上に位置し、このとき、該平面直角座標系における、目標物の第1の二次元座標を取得して、P(x、y)と仮定し、第1の二次元座標の単位を画素(px)とする。そして、焦点を原点とし、3次元直交座標系を確立する。このとき、手動ピント合わせが完了しているため、目標物の結像は画像センサ上に位置している。目標物が画像センサの第1の位置P1に結像すると仮定し、3次元直交座標系における、該第1の位置P1の第1の空間座標を取得する。このとき、ファインダーの大きさ及び画像センサの大きさに基づいて、所定の比率で第1の二次元座標P(x、y)を変換し、目標物が画像センサに結像した第2の二次元座標を取得することができ、それを(x1、y1)と仮定する。例えば、長さ横の比率が4:3である写真を撮影する場合、ファインダーの画素サイズは1440×1080で、画像センサの長さ寸法と横寸法はそれぞれ0.261インチ、0.196インチであり、ファインダー上の目標物の第1の二次元座標がP(500px、500px)であると仮定したとき、対応する3次元直交座標系における第2の二次元座標は(0.090インチ、0.090インチ)である。
続いて、第2の二次元座標(x1、y1)及び第1の垂直距離d1に基づいて、目標物が画像センサに結像した第1の空間座標P1(x1、y1、z1)を確定することができる。ここで、第1の空間座標のX軸座標値は第2の二次元座標のX軸座標値x1であり、第1の空間座標のY軸座標値は第2の二次元座標のY軸座標値y1であり、第1の空間座標のZ軸座標値は第1の垂直距離z1であり、かつ、z1=d1である。
ステップ203において、焦点と第1の位置との間の第1のベクトルの第1の空間ベクトル角を計算する。
手動ピント合わせが完了し、第1の位置の第1の空間座標を取得した後、端末は3次元直交座標系のベクトル角の公式を用いて、焦点から第1の位置P1までの第1の空間ベクトル角(∠x1、∠y1、∠z1)を計算することができる。ここで、第1のベクトルとX軸とのX軸なす角は∠x1であり、第1のベクトルとY軸とのY軸なす角は∠y1であり、第1のベクトルとZ軸とのZ軸なす角は∠z1である。
ステップ204において、加速度センサによって検出された加速度データに基づいてファインダーが移動したか否かを判断する。
通常、端末には複数種類の異なる機能を有するセンサが集成されており、ここで、加速度センサはスマート端末が受ける加速度の大きさ及び方向を検出するために使われ、本実施例において、手動ピント合わせが完了した後、端末が加速度センサによって検出された加速度データを取得した後、該加速度データに基づいて端末が回転したか否かを判断することができ、更にファインダーが移動したか否かを判断することができる。
ステップ205において、ファインダーが移動したとき、方向センサによって検出された、位置変化データとしての空間変化ベクトル角を取得する。
端末には、加速度センサ以外に、3次元空間において、端末が各座標軸において移動する角度を検出するための方向センサを集成することができる。例えば、具体的に、該方向センサはジャイロセンサであってもよい。
ステップ204において、端末が加速度データに基づいてファインダーが移動したと判断した場合、移動が停止したとき、方向センサによって検出された空間変化ベクトル角を取得することができる。該空間変化ベクトル角は、手動ピント合わせが完了したときの空間ベクトル角に対して現在の空間ベクトル角の変化角のX軸における分量∠△x、Y軸における分量∠△y、及びZ軸における分量∠△zである。
ステップ206において、第1の空間座標に基づいて焦点から第1の位置までの第1の直線距離を計算する。
上述したステップ202において第1の空間座標P1(x1、y1、z1)を取得したため、本ステップにおいてP1(x1、y1、z1)に基づいて焦点からP1までの第1の直線距離ρを計算することができ、該ρの計算公式は以下のとおりである。
ρ= x1+y1+z1 公式(2)
ステップ207において、第1の空間ベクトル角及び空間変化ベクトル角に基づいて、第2の空間ベクトル角を計算する。
本ステップにおいて、ステップ203において取得した第1の空間ベクトル角、及びステップ205において取得した空間変化ベクトル角に基づいて第2の空間ベクトル角を計算することができる。該第2の空間ベクトル角は、焦点と第2の位置P2との間の第2のベクトルの空間ベクトル角である。該第2の位置P2は、手動ピント合わせが完了した後、ファインダー上のフレーミング内容が変化したが、目標物が該ファインダーから移出されていない場合、端末が自動的にピントを合わせた後、目標物の結像が画像センサ上にあるべき位置である。
ここで、第2のベクトルとX軸とのX軸なす角を∠x2とし、第2のベクトルとY軸とのY軸なす角を∠y2とし、及び第2のベクトルとZ軸とのZ軸なす角を∠z2と仮定し、下記のような公式に基づいて第2の空間ベクトル角を計算する。
∠x2=∠x1+∠△x
∠y2=∠y1+∠△y
∠z2=∠z1+∠△z 公式(3)
ステップ208において、第1の直線距離及び第2の空間ベクトル角に基づいて第2の位置の第2の空間座標を計算する。
本ステップにおいて、ステップ206において算出した第1の直線距離ρ、及びステップ207において算出した第2の空間ベクトル角(∠x2、∠y2、∠z2)に基づいて、第2の位置P2の第2の空間座標P2(x2、y2、z2)を計算することができる。ここで、ρと∠x2の余弦値を相乗してP2のX軸の座標値x2を取得し、ρと∠y2の余弦値を相乗してP2のY軸の座標値y2を取得し、ρと∠z2の余弦値を相乗してP2のZ軸の座標値z2を取得する。即ち、第2の空間座標は下記の公式に基づいて計算することができる。
x2=ρ×cos∠x2
y2=ρ×cos∠y2
z2=ρ×cos∠z2 公式(4)
ステップ209において、第2の空間座標に基づいて焦点から第2の位置までの第2の垂直距離を取得する。ここで、第2の垂直距離は第2の空間座標のZ軸座標値である。
ステップ208において第2の位置P2の第2の空間座標P2(x2、y2、z2)を取得したため、該第2の空間座標に基づいて焦点から第2の位置P2までの第2の垂直距離d2を取得することができる。該第2の垂直距離d2は即ち第2の空間座標のZ軸座標値z2である。
本ステップから分かるように、手動ピント合わせ後の自動ピント合わせを実現するために、第2の垂直距離d2(即ちz2)を取得する必要があるため、ステップ208において公式(4)におけるz2=ρ×cos∠z2だけを計算すればよく、これに対応して、ステップ205において、方向センサは∠△zだけを取得すればよく、及びステップ207において∠z2=∠z1+∠△zだけを計算すればよい。これにより、端末の計算リソースを更に節約することができる。
ステップ210において、第2の垂直距離と固定焦点の焦点距離の和を計算し、該和を調整後の像距離とする。
本ステップにおいて、調整後の像距離がv2であると仮定すると、v2の計算公式は以下のとおりである。
v2=d2+f 公式(5)
ステップ211において、レンズグループから画像センサまでの距離が調整後の像距離になるまで、レンズグループを移動する。
ピント合わせが完了したとき、レンズグループと結像するための画像センサとの間の距離は像距離に等しいため、前述したステップにおいて、自動ピント合わせ後目標物が画像センサに結像した位置に基づいて、調整後の像距離を算出したとき、端末はレンズグループの移動を制御することで自動的にピントを合わせ、レンズグループが移動して画像センサとの距離が調整後の像距離v2になると、自動ピント合わせが完了する。
上述した実施例から分かるように、端末を用いて撮影するとき、ユーザがファインダー上の目標物をクリックして手動でピントを合わせた後、ファインダー上のフレーミング内容が変化したことを検出したとき、目標物の位置変化後の空間データを計算することで、自動ピント合わせが完了した後の像距離を取得することができ、レンズグループの移動を制御することで該像距離を満たし、自動ピント合わせを完了する。従って、ユーザが撮影している間に、ファインダーが移動したが目標物がファインダーから移出されていない場合、該目標物に自動的にピントを合わせることができ、これにより、フレーミング内容が変化したときの、手動ピント合わせの操作を避けることができ、ピント合わせ操作を簡略化し、ピント合わせの速度を高め、ユーザの撮影体験を向上させることができる。
前述した自動ピント合わせ方法の実施例に対応して、本発明は更に、自動ピント合わせ装置及びそれが応用される端末の実施例を提供する。
図4に示すように、図4は一つの例示的な実施例にかかる自動ピント合わせ装置のブロック図である。前記装置は、取得モジュール410、検出モジュール420、第1の計算モジュール430及びピント合わせモジュール440を含む。
ここで、前記取得モジュール410は、ユーザがファインダー上の目標物をクリックして手動でピントを合わせた後、前記目標物の第1の空間データを取得するように構成され、前記検出モジュール420は、前記ファインダー上のフレーミング内容が変化したことを検出したとき、位置変化データを取得するように構成され、前記第1の計算モジュール430は、前記第1の空間データ及び前記位置変化データに基づいて前記目標物の第2の空間データを計算するように構成され、前記ピント合わせモジュール440は、前記第2の空間データに基づいて前記目標物に自動的にピントを合わせるように構成される。
上述した実施例から分かるように、端末を用いて撮影するとき、ユーザがファインダー上の目標物をクリックして手動でピントを合わせた後、目標物の第1の空間データを取得し、ファインダー上のフレーミング内容が変化したことを検出したとき、位置変化データを取得し、第1の空間データ及び位置変化データに基づいて目標物の第2の空間データを算出した後、該第2の空間データに基づいて自動的にピントを合わせることができる。従って、ユーザが撮影している間に、ファインダーが移動したが、目標物がファインダーから移出されていない場合、該目標物に自動的にピントを合わせることができ、これにより、フレーミング内容が変化したときの、手動ピント合わせの操作を避けることができ、ピント合わせ操作を簡略化し、ピント合わせの速度を高め、ユーザの撮影体験を向上させることができる。
図5に示すように、図5は本発明の一つの例示的な実施例にかかるもう一つの自動ピント合わせ装置のブロック図である。該実施例は前述した図4に示す実施例を基に、前記取得モジュール410は、第1の垂直距離計算サブモジュール411、第1の空間座標取得サブモジュール412及び第1の空間ベクトル角計算サブモジュール413を含むことができる。
ここで、前記第1の垂直距離計算サブモジュール411は、焦点から画像センサまでの第1の垂直距離を計算するように構成され、ここで、前記手動ピント合わせが完了したとき、前記目標物の結像は前記画像センサ上に位置し、前記第1の空間座標取得サブモジュール412は、前記焦点を3次元直交座標系の原点とし、前記第1の垂直距離に基づいて、前記目標物が画像センサに結像した第1の位置の第1の空間座標を取得するように構成され、前記第1の空間ベクトル角度計算サブモジュール413は、前記焦点と前記第1の位置との間の第1のベクトルの第1の空間ベクトル角を計算するように構成される。
図6に示すように、図6は本発明の一つの例示的な実施例にかかるもう一つの自動ピント合わせ装置のブロック図である。該実施例は上述した図5に示す実施例を基に、前記第1の垂直距離計算サブモジュール411は、像距離取得サブモジュール4111及び差分値計算サブモジュール4112を含むことができる。
ここで、前記像距離取得サブモジュール4111は、前記手動ピント合わせが完了したときの像距離を取得するように構成され、前記差分値計算サブモジュール4112は、前記像距離と固定焦点の焦点距離との間の差分値を計算し、前記差分値を前記焦点から画像センサまでの第1の垂直距離とするように構成される。
図7に示すように、図7は本発明の一つの例示的な実施例にかかるもう一つの自動ピント合わせ装置のブロック図である。該実施例は前述した図5に示す実施例を基に、前記第1の空間座標取得サブモジュール412は、第1の二次元座標取得サブモジュール4121、第2の二次元座標取得サブモジュール4122及び第1の空間座標確定サブモジュール4123を含むことができる。
ここで、前記第1の二次元座標取得サブモジュール4121は、前記ファインダーの中心を平面直角座標系の原点とし、前記平面直角座標系における、前記目標物の第1の二次元座標を取得するように構成され、ここで、前記ファインダーの中心は前記焦点と同じ法線方向に位置し、前記第2の二次元座標取得サブモジュール4122は、所定の比率で前記第1の二次元座標を変換し、前記目標物が画像センサに結像した第2の二次元座標を取得するように構成され、前記第1の空間座標確定サブモジュール4123は、前記第2の二次元座標及び前記第1の垂直距離に基づいて、前記目標物が画像センサに結像した第1の空間座標を確定するように構成され、ここで、前記第1の空間座標のX軸座標値は前記第2の二次元座標のX軸座標値であり、前記第1の空間座標のY軸座標値は前記第2の二次元座標のY軸座標値であり、前記第1の空間座標のZ軸座標値は前記第1の垂直距離である。
上述した実施例から分かるように、目標物の第1の空間データを取得するとき、手動ピント合わせの後に取得した像距離、及び焦点を3次元直交座標系の原点とすることで、目標物が画像センサに結像した第1の空間座標と第1の空間ベクトル角を取得する。これにより、該第1の空間座標と第1の空間ベクトル角を用いて目標物の位置変化後の空間データを計算することができ、これにより、自動ピント合わせを実現することができる。
図8に示すように、図8は本発明の一つの例示的な実施例にかかるもう一つの自動ピント合わせ装置のブロック図である。該実施例は前述した図5に示す実施例を基に、前記検出モジュール420は、加速度検出サブモジュール421及び変化ベクトル角取得サブモジュール422を含むことができる。
ここで、前記加速度検出サブモジュール421は、加速度センサによって検出された加速度データに基づいて前記ファインダーが移動したか否かを判断するように構成され、前記変化ベクトル角取得サブモジュール422は、前記ファインダーが移動したとき、方向センサによって検出された、前記位置変化データとしての空間変化ベクトル角を取得するように構成される。
図9に示すように、図9は本発明の一つの例示的な実施例にかかるもう一つの自動ピント合わせ装置のブロック図である。該実施例は前述した図8に示す実施例を基に、前記第1の計算モジュール430は、第1の直線距離計算サブモジュール431、第2の空間ベクトル角計算サブモジュール432及び第2の空間座標計算サブモジュール433を含むことができる。
ここで、前記第1の直線距離計算サブモジュール431は、前記第1の空間座標に基づいて前記焦点から前記第1の位置までの第1の直線距離を計算するように構成され、前記第2の空間ベクトル角度計算サブモジュール432は、前記第1の空間ベクトル角及び前記空間変化ベクトル角に基づいて、第2の空間ベクトル角を計算するように構成され、ここで、前記第2の空間ベクトル角は前記焦点と第2の位置との間の第2のベクトルの空間ベクトル角であり、前記第2の位置は前記自動ピント合わせが完了した後、前記目標物が前記画像センサに結像した位置であり、前記第2の空間座標計算サブモジュール433は、前記第1の直線距離及び前記第2の空間ベクトル角に基づいて前記第2の位置の第2の空間座標を計算するように構成される。
図10に示すように、図10は本発明の一つの例示的な実施例にかかるもう一つの自動ピント合わせ装置のブロック図である。該実施例は前述した図9に示す実施例を基に、前記ピント合わせモジュール440は、第2の垂直距離取得サブモジュール441、調整像距離計算サブモジュール442及びレンズグループ移動サブモジュール443を含むことができる。
ここで、前記第2の垂直距離取得サブモジュール441は、前記第2の空間座標に基づいて前記焦点から前記第2の位置までの第2の垂直距離を取得するように構成され、ここで、前記第2の垂直距離は前記第2の空間座標のZ軸座標値であり、前記調整像距離計算サブモジュール442は、前記第2の垂直距離と固定焦点の焦点距離の和を計算し、前記和を調整後の像距離とするように構成され、前記レンズグループ移動サブモジュール443は、レンズグループから前記画像センサまでの距離が前記調整後の像距離になるまで、前記レンズグループを移動するように構成される。
上述した実施例からわかるように、端末に集成された加速度センサを利用してファインダーが移動したか否かを判断し、ファインダーが移動したとき、方向センサを通じて移動によって生じた空間変化ベクトル角を検出することができる。これにより、空間変化ベクトル角、第1の空間座標及び第1の空間ベクトル角に基づいて目標物の位置変化後の空間データを計算することができ、自動ピント合わせを実現することができる。
図11に示すように、図11は本発明の一つの例示的な実施例にかかるもう一つの自動ピント合わせ装置のブロック図である。該実施例は前述した図9又は図10に示す実施例を基に、前記装置は更に、第2の計算モジュール450及び校正モジュール460を含むことができる。
ここで、前記第2の計算モジュール450は、画像識別アルゴリズムを用いて前記第2の位置の第2の空間座標の識別値を計算するように構成され、前記校正モジュール460は、前記第2の空間座標の識別値に基づいて前記第2の空間座標を校正することで、校正後の第2の空間座標を取得するように構成される。
図12に示すように、図12は本発明の一つの例示的な実施例にかかるもう一つの自動ピント合わせ装置のブロック図である。該実施例は前述した図11に示す実施例を基に、前記校正モジュール460は、校正閾値判断サブモジュール461及び校正座標値計算サブモジュール462を含むことができる。
ここで、前記校正閾値判断サブモジュール461は、前記第2の空間座標の識別値と前記第2の空間座標の間の距離が所定の校正閾値より小さいか否かを判断するように構成され、前記校正座標値計算サブモジュール462は、前記校正閾値より小さいとき、前記第2の空間座標の識別値と前記第2の空間座標のX軸座標値の平均値を計算して、該平均値を校正後の第2の空間座標のX軸座標値とし、前記第2の空間座標の識別値と前記第2の空間座標のY軸座標値の平均値を計算して、該平均値を校正後の第2の空間座標のY軸座標値とし、ならびに前記第1の直線距離、前記校正後の第2の空間座標のX軸座標値、及び前記校正後の第2の空間座標のY軸座標値に基づいて前記校正後の第2の空間座標のZ軸座標値を計算するように構成される。
上述した実施例から分かるように、第2の空間座標に基づいて自動的にピントを合わせる前に、画像識別アルゴリズムを用いて算出した第2の空間座標の識別値に基づいて第2の空間座標を校正し、これにより、自動ピント合わせの精確性を更に向上させることができる。
上記に対応して、本発明は更にもう一つの自動ピント合わせ装置を提供し、前記装置はプロセッサと、プロセッサが実行可能な指令を記憶するためのメモリとを備え、ここで、前記プロセッサは、ユーザがファインダー上の目標物をクリックして手動でピントを合わせた後、前記目標物の第1の空間データを取得し、前記ファインダー上のフレーミング内容が変化したことを検出したとき、位置変化データを取得し、前記第1の空間データ及び前記位置変化データに基づいて前記目標物の第2の空間データを計算し、前記第2の空間データに基づいて前記目標物に対し自動的にピントを合わせるように構成される。
上述した装置におけるそれぞれのモジュールの機能及び作用の具体的な実現過程は、上述した方法における対応するステップの実現プロセスを参考し、ここでは繰り返し述べない。
装置の実施例は、基本的に方法の実施例に対応するため、関連するところは方法の実施例の説明を参考すればよい。以上に説明した装置の実施例は例示的なものに過ぎず、ここで記述した分離した部分として説明したモジュールは物理的に分離したものであってもでなくてもよい。モジュールとして表示された部分は物理的なモジュールであってもでなくてもよい。即ち、一箇所に設けてもよく、又は複数のネットワークモジュールに設けてもよい。実際のニーズに応じて、そのうちの一部又はすべてのモジュールを選択して本発明の技術方案の目的を実現することができる。当業者は創造的な労働を経ずに、理解し実施することができる。
図13に示すように、図13は本発明の一つの例示的な実施例にかかるビデオ画面の表示を制御するための装置1300の構造の模式図である。例えば、装置1300はルータ機能を有する携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信デバイス、ゲームコンソール、タブレットデバイス、医療デバイス、健康デバイス、パーソナルデジタルアシスタント等であってもよい。
図13を参照して、装置1300は、プロセス部材1302、メモリ1304、電源部材1306、マルチメディア部材1308、オーディオ部材1310、入出力(I/O)インターフェイス1312、センサ部材1314、及び通信部材1316のような一つ以上の部材を含んでよい。
プロセス部材1302は、一般的には装置1300の全体の操作を制御するものであり、例えば、表示、電話呼び出し、データ通信、カメラ操作、及び記録操作と関連する操作を制御する。プロセス部材1302は、一つ以上のプロセッサ1320を含み、これらによって命令を実行することにより、上記の方法の全部、或いは一部のステップを実現するようにしてもよい。なお、プロセス部材1302は、一つ以上のモジュールを含み、これらによってプロセス部材1302と他の部材の間のインタラクションを容易にするようにしてもよい。例えば、プロセス部材1302は、マルチメディアモジュールを含み、これらによってマルチメディア部材1308とプロセス部材1302の間のインタラクションを容易にするようにしてもよい。
メモリ1304は、各種類のデータを記憶することにより装置1300の操作を支援するように構成される。これらのデータの例は、装置1300において操作されるいずれのアプリケーションプログラム又は方法の命令、連絡対象データ、電話帳データ、メッセージ、画像、ビデオ等を含む。メモリ1304は、いずれの種類の揮発性、不揮発性記憶デバイスまたはそれらの組み合わせによって実現されてもよく、例えば、SRAM(Static Random Access Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、EPROM(Erasable Programmable ROM)、PROM(Programmable ROM)、ROM、磁気メモリ、フラッシュメモリ、磁気ディスク、或いは光ディスクである。
電源部材1306は、装置1300の多様な部材に電力を供給する。電源部材1306は、電源管理システム、一つ以上の電源、及び装置1300のための電力の生成、管理及び割り当てに関連する他の部材を含んでもよい。
マルチメディア部材1308は、前記装置1300とユーザの間に一つの出力インターフェイスを提供するスクリーンを含む。上記の実施例において、スクリーンは液晶モニター(LCD)とタッチパネル(TP)を含んでもよい。スクリーンがタッチパネルを含むことにより、スクリーンはタッチスクリーンを実現することができ、ユーザからの入力信号を受信することができる。タッチパネルは一つ以上のタッチセンサを含んでおり、タッチ、スライド、及びタッチパネル上のジェスチャを検出することができる。前記タッチセンサは、タッチ、或いはスライドの動作の境界だけでなく、前記のタッチ、或いはスライド操作に係る継続時間及び圧力も検出できる。上記の実施例において、マルチメディア部材1308は、一つのフロントカメラ、及び/又はリアカメラを含む。装置1300が、例えば撮影モード、或いはビデオモード等の操作モードにある場合、フロントカメラ、及び/又はリアカメラは外部からマルチメディアデータを受信できる。フロントカメラとリアカメラのそれぞれは、一つの固定型の光レンズ系、或いは可変焦点距離と光学ズーム機能を有するものであってもよい。
オーディオ部材1310は、オーディオ信号を入出力するように構成されてもよい。例えば、オーディオ部材1310は、一つのマイク(MIC)を含み、装置1300が、例えば呼出しモード、記録モード、及び音声認識モード等の操作モードにある場合、マイクは外部のオーディオ信号を受信することができる。受信されたオーディオ信号は、さらにメモリ1304に記憶されたり、通信部材1316を介して送信されたりされる。上記の実施例において、オーディオ部材1310は、オーディオ信号を出力するための一つのスピーカーをさらに含む。
I/Oインターフェイス1312は、プロセス部材1302と周辺インターフェイスモジュールの間にインターフェイスを提供するものであり、上記周辺インターフェイスモジュールは、キーボード、クリックホイール、ボタン等であってもよい。これらのボタンは、ホームページボタン、ボリュームボタン、起動ボタン、ロッキングボタンを含んでもよいが、これらに限定されない。
センサ部材1314は、装置1300に各方面の状態に対する評価を提供するための一つ以上のセンサを含む。例えば、センサ部材1314は、装置1300のON/OFF状態、装置1300のディスプレイと小さなキーパッドのような部材の相対的な位置決めを検出できる。また、例えば、センサ部材1314は、装置1300、或いは装置1300の一つの部材の位置変更、ユーザと装置1300とが接触しているか否か、装置1300の方位、又は加速/減速、装置1300の温度の変化を検出できる。センサ部材1314は、何れの物理的接触がない状態にて付近の物体の存在を検出するための近接センサを含んでもよい。センサ部材1314は、撮影アプリケーションに適用するため、CMOS、又はCCDイメージセンサのような光センサを含んでもよい。上記の実施例において、当該センサ部材1314は、加速度センサ、ジャイロスコープセンサ、磁気センサ、圧力センサ、及び温度センサをさらに含んでもよい。
通信部材1316は、装置1300と他の機器の間に有線、又は無線形態の通信を提供する。装置1300は、例えばWiFi(登録商標)、2G、3G、或いはこれらの組み合わせのような、通信規格に基づいた無線ネットワークに接続されてもよい。一つの例示的な実施例において、通信部材1316は、放送チャンネルを介して外部の放送管理システムからの放送信号、又は放送に関連する情報を受信する。一つの例示的な実施例において、前記通信部材1316は、近距離無線通信(NFC)モジュールをさらに含むことにより、近距離通信を推進するようにする。例えば、NFCモジュールは、RFID(Radio Frequency Identification)技術、IrDA(Infrared Data Association)技術、UWB(Ultra WideBand)技術、BT(Bluetooth(登録商標))技術、他の技術に基づいて実現できる。
例示的な実施例において、装置1300は、一つ以上のASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、DSPD(Digital Signal Processing Device)、PLD(Programmable Logic Device)、FPGA(Field−Programmable Gate Array)、コントローラ、マイクロコントローラ、マイクロプロセッサ、または他の電子部品によって実現されるものであり、上記方法を実行する。
例示的な実施例において、さらに、命令を含むコンピュータ読取り可能な非一時的な記録媒体、例えば命令を含むメモリ1304を提供しており、装置1300のプロセッサ1320により上記命令を実行して上記方法を実現する。例えば、前記コンピュータ読取り可能な非一時的な記録媒体は、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク、光データ記憶デバイス等である。
コンピュータ読み取り可能な非一時的な記憶媒体は、記憶媒体の指令が端末のプロセッサによって実行されるとき、端末が自動的にピントを合わせる方法を実行できるようにする。前記方法は、ユーザがファインダー上の目標物をクリックして手動でピントを合わせた後、前記目標物の第1の空間データを取得するステップと、前記ファインダー上のフレーミング内容が変化したことを検出したとき、位置変化データを取得するステップと、前記第1の空間データ及び前記位置変化データに基づいて前記目標物の第2の空間データを計算するステップと、前記第2の空間データに基づいて前記目標物に対し自動的にピントを合わせるステップとを含む。
当業者は明細書を検討し、ここで開示した発明を実践した後、本発明のその他の実施方案を容易に思いつくことができる。本願は本発明の全ての変更、用途又は適応性の変化を含む。これらの変更、用途又は適応性の変化は本発明の一般的な原理に従っており、本発明に未開示の本技術分野における周知技術又は慣用技術手段を含む。明細書及び実施例は例示的なものに過ぎず、本発明の真の範囲及び主旨は以下の特許請求の範囲によって示される。
本発明は、上記で説明した、また図面において示した寸分違わぬ構成に限定されず、その範囲を逸脱しない前提のもとで種々の変更及び修正を行うことができることを理解すべきである。本発明の範囲は付された特許請求の範囲によってのみ限定される。

Claims (17)

  1. ユーザがファインダー上の目標物をクリックして手動でピントを合わせた後、前記目標物の第1の空間データを取得するステップと、
    前記ファインダー上のフレーミング内容が変化したことを検出したとき、位置変化データを取得するステップと、
    前記第1の空間データ及び前記位置変化データに基づいて前記目標物の第2の空間データを計算するステップと、
    前記第2の空間データに基づいて前記目標物に対し自動的にピントを合わせるステップとを含み、
    前記第1の空間データは、第1の空間座標及び第1の空間ベクトル角を含み、
    前記第2の空間データは、第2の空間座標及び第2の空間ベクトル角を含み、
    前記ファインダー上のフレーミング内容が変化したことを検出したとき、位置変化データを取得するステップは、
    加速度センサによって検出された加速度データに基づいて前記ファインダーが移動したか否かを判断するステップと、
    前記ファインダーが移動したとき、方向センサによって検出された、前記位置変化データとしての空間変化ベクトル角を取得するステップとを含み、
    前記第2の空間データに基づいて自動的にピントを合わせる前に、更に
    画像識別アルゴリズムを用いて前記第2の位置の第2の空間座標の識別値を計算するステップと、
    前記第2の空間座標の識別値に基づいて前記第2の空間座標を校正することで、校正後の第2の空間座標を取得するステップとを含むことを特徴とする自動ピント合わせ方法。
  2. 前記目標物の第1の空間データを取得するステップは、
    焦点から画像センサまでの第1の垂直距離を計算するステップと、
    前記焦点を3次元直交座標系の原点とし、前記第1の垂直距離に基づいて、前記目標物が画像センサに結像した第1の位置の第1の空間座標を取得するステップと、
    前記焦点と前記第1の位置との間の第1のベクトルの第1の空間ベクトル角を計算するステップとを含み、
    前記手動ピント合わせが完了したとき、前記目標物の結像は前記画像センサ上に位置することを特徴とする請求項1に記載の自動ピント合わせ方法。
  3. 前記焦点から画像センサまでの第1の垂直距離を計算するステップは、
    前記手動ピント合わせが完了したときの像距離を取得するステップと、
    前記像距離と固定焦点の焦点距離との間の差分値を計算し、前記差分値を前記焦点から画像センサまでの第1の垂直距離とするステップとを含むことを特徴とする請求項2に記載の自動ピント合わせ方法。
  4. 前記第1の垂直距離に基づいて、前記目標物が画像センサに結像した第1の位置の第1の空間座標を取得するステップは、
    前記ファインダーの中心を平面直角座標系の原点とし、前記平面直角座標系における、前記目標物の第1の二次元座標を取得するステップと、
    所定の比率で前記第1の二次元座標を変換し、前記目標物が前記画像センサに結像した第2の二次元座標を取得するステップと、
    前記第2の二次元座標及び前記第1の垂直距離に基づいて、前記目標物が画像センサに結像した第1の空間座標を確定するステップとを含み、
    前記ファインダーの中心は前記焦点と同じ法線方向に位置し、
    前記第1の空間座標のX軸座標値は前記第2の二次元座標のX軸座標値であり、前記第1の空間座標のY軸座標値は前記第2の二次元座標のY軸座標値であり、前記第1の空間座標のZ軸座標値は前記第1の垂直距離であることを特徴とする請求項2に記載の自動ピント合わせ方法。
  5. 前記第1の空間データ及び前記位置変化データに基づいて前記目標物の第2の空間データを計算するステップは、
    前記第1の空間座標に基づいて前記焦点から前記第1の位置までの第1の直線距離を計算するステップと、
    前記第1の空間ベクトル角及び前記空間変化ベクトル角に基づいて、第2の空間ベクトル角を計算するステップと、
    前記第1の直線距離と前記第2の空間ベクトル角に基づいて第2の位置の第2の空間座標を計算するステップとを含み、
    前記第2の空間ベクトル角は前記焦点と前記第2の位置との間の第2のベクトルの空間ベクトル角であり、前記第2の位置は前記自動ピント合わせが完了した後、前記目標物が前記画像センサに結像した位置であることを特徴とする請求項2に記載の自動ピント合わせ方法。
  6. 前記第2の空間データに基づいて自動的にピントを合わせるステップは、
    前記第2の空間座標に基づいて前記焦点から前記第2の位置までの第2の垂直距離を取得するステップと、
    前記第2の垂直距離と固定焦点の焦点距離の和を計算して、前記和を調整後の像距離とするステップと、
    レンズグループから前記画像センサまでの距離が前記調整後の像距離になるまで、前記レンズグループを移動するステップとを含み、
    前記第2の垂直距離は前記第2の空間座標のZ軸座標値であることを特徴とする請求項5に記載の自動ピント合わせ方法。
  7. 前記第2の空間座標の識別値に基づいて前記第2の空間座標を校正することで、校正後の第2の空間座標を取得するステップは、
    前記第2の空間座標の識別値と前記第2の空間座標との間の距離が所定の校正閾値より小さいか否かを判断するステップと、
    前記校正閾値より小さいとき、前記第2の空間座標の識別値と前記第2の空間座標のX軸座標値の平均値を計算して、該平均値を校正後の第2の空間座標のX軸座標値とし、前記第2の空間座標の識別値と前記第2の空間座標のY軸座標値の平均値を計算して、該平均値を校正後の第2の空間座標のY軸座標値とするステップと、
    前記第1の直線距離、前記校正後の第2の空間座標のX軸座標値及び前記校正後の第2の空間座標のY軸座標値に基づいて前記校正後の第2の空間座標のZ軸座標値を計算するステップとを含むことを特徴とする請求項に記載の自動ピント合わせ方法。
  8. ユーザがファインダー上の目標物をクリックして手動でピントを合わせた後、前記目標物の第1の空間データを取得するための取得モジュールと、
    前記ファインダー上のフレーミング内容が変化したことを検出したとき、位置変化データを取得するための検出モジュールと、
    前記第1の空間データ及び前記位置変化データに基づいて前記目標物の第2の空間データを計算するための第1の計算モジュールと、
    前記第2の空間データに基づいて前記目標物に自動的にピントを合わせるためのピント合わせモジュールと
    画像識別アルゴリズムを用いて前記第2の位置の第2の空間座標の識別値を計算するための第2の計算モジュールと、
    前記第2の空間座標の識別値に基づいて前記第2の空間座標を校正することで、校正後の第2の空間座標を取得するための校正モジュールとを備え、
    前記第1の空間データは、第1の空間座標及び第1の空間ベクトル角を含み、
    前記第2の空間データは、第2の空間座標及び第2の空間ベクトル角を含み、
    前記検出モジュールは、
    加速度センサによって検出された加速度データに基づいて前記ファインダーが移動したか否かを判断するための加速度検出サブモジュールと、
    前記ファインダーが移動したとき、方向センサによって検出された、前記位置変化データとしての空間変化ベクトル角を取得するための変化ベクトル角取得サブモジュールとを含むことを特徴とする自動ピント合わせ装置。
  9. 前記取得モジュールは、
    焦点から画像センサまでの第1の垂直距離を計算するための第1の垂直距離計算サブモジュールと、
    前記焦点を3次元直交座標系の原点とし、前記第1の垂直距離に基づいて、前記目標物が前記画像センサに結像した第1の位置の第1の空間座標を取得するための第1の空間座標取得サブモジュールと、
    前記焦点と前記第1の位置との間の第1のベクトルの第1の空間ベクトル角を計算するための第1の空間ベクトル角計算サブモジュールとを含み、
    前記手動ピント合わせが完了したとき、前記目標物の結像は前記画像センサ上に位置することを特徴とする請求項に記載の自動ピント合わせ装置。
  10. 前記第1の垂直距離計算サブモジュールは、
    前記手動ピント合わせが完了したときの像距離を取得するための像距離取得サブモジュールと、
    前記像距離と固定焦点の焦点距離との間の差分値を計算し、前記差分値を前記焦点から画像センサまでの第1の垂直距離とするための差分値計算サブモジュールとを含むことを特徴とする請求項に記載の自動ピント合わせ装置。
  11. 前記第1の空間座標取得サブモジュールは、
    前記ファインダーの中心を平面直角座標系の原点とし、前記平面直角座標系における、前記目標物の第1の二次元座標を取得するための第1の二次元座標取得サブモジュールと、
    所定の比率で前記第1の二次元座標を変換し、前記目標物が画像センサに結像した第2の二次元座標を取得するための第2の二次元座標取得サブモジュールと、
    前記第2の二次元座標及び前記第1の垂直距離に基づいて、前記目標物が画像センサに結像した第1の空間座標を確定するための第1の空間座標確定サブモジュールとを含み、
    前記ファインダーの中心は前記焦点と同じ法線方向に位置し、
    前記第1の空間座標のX軸座標値は前記第2の二次元座標のX軸座標値であり、前記第1の空間座標のY軸座標値は前記第2の二次元座標のY軸座標値であり、前記第1の空間座標のZ軸座標値は前記第1の垂直距離であることを特徴とする請求項に記載の自動ピント合わせ装置。
  12. 前記第1の計算モジュールは、
    前記第1の空間座標に基づいて前記焦点から前記第1の位置までの第1の直線距離を計算するための第1の直線距離計算サブモジュールと、
    前記第1の空間ベクトル角及び前記空間変化ベクトル角に基づいて、第2の空間ベクトル角を計算するための第2の空間ベクトル角計算サブモジュールと、
    前記第1の直線距離及び前記第2の空間ベクトル角に基づいて第2の位置の第2の空間座標を計算するための第2の空間座標計算サブモジュールとを含み、
    前記第2の空間ベクトル角は前記焦点と前記第2の位置の間の第2のベクトルの空間ベクトル角であり、前記第2の位置は前記自動ピント合わせが完了した後、前記目標物が前記画像センサに結像した位置であることを特徴とする請求項に記載の自動ピント合わせ装置。
  13. 前記ピント合わせモジュールは、
    前記第2の空間座標に基づいて前記焦点から前記第2の位置までの第2の垂直距離を取得するための第2の垂直距離取得サブモジュールと、
    前記第2の垂直距離と固定焦点の焦点距離の和を計算し、前記和を調整後の像距離とするための調整像距離計算サブモジュールと、
    レンズグループから前記画像センサまでの距離が前記調整後の像距離になるまで、前記レンズグループを移動するためのレンズグループ移動サブモジュールとを含み、
    前記第2の垂直距離は前記第2の空間座標のZ軸座標値であることを特徴とする請求項12に記載の自動ピント合わせ装置。
  14. 前記校正モジュールは、
    前記第2の空間座標の識別値と前記第2の空間座標との間の距離が所定の校正閾値より小さいか否かを判断するための校正閾値判断サブモジュールと、
    前記校正閾値より小さいとき、前記第2の空間座標の識別値と前記第2の空間座標のX軸座標値の平均値を計算して、該平均値を校正後の第2の空間座標のX軸座標値とし、前記第2の空間座標の識別値と前記第2の空間座標のY軸座標値の平均値を計算して、該平均値を校正後の第2の空間座標のY軸座標値とし、ならびに前記第1の直線距離、前記校正後の第2の空間座標のX軸座標値及び前記校正後の第2の空間座標のY軸座標値に基づいて前記校正後の第2の空間座標のZ軸座標値を計算するための校正座標値計算サブモジュールとを含むことを特徴とする請求項に記載の自動ピント合わせ装置。
  15. プロセッサと、
    プロセッサが実行可能な指令を記憶するためのメモリとを備え、
    前記プロセッサは、
    ユーザがファインダー上の目標物をクリックして手動でピントを合わせた後、前記目標物の第1の空間データを取得し、
    前記ファインダー上のフレーミング内容が変化したことを検出したとき、位置変化データを取得し、
    前記第1の空間データ及び前記位置変化データに基づいて前記目標物の第2の空間データを計算し、
    前記第2の空間データに基づいて前記目標物に対し自動的にピントを合わせるように構成され、
    前記第1の空間データは、第1の空間座標及び第1の空間ベクトル角を含み、
    前記第2の空間データは、第2の空間座標及び第2の空間ベクトル角を含み、
    前記ファインダー上のフレーミング内容が変化したことを検出したとき、位置変化データを取得することは、
    加速度センサによって検出された加速度データに基づいて前記ファインダーが移動したか否かを判断することと、
    前記ファインダーが移動したとき、方向センサによって検出された、前記位置変化データとしての空間変化ベクトル角を取得することとを含み、
    前記第2の空間データに基づいて自動的にピントを合わせることの前に、更に
    画像識別アルゴリズムを用いて前記第2の位置の第2の空間座標の識別値を計算することと、
    前記第2の空間座標の識別値に基づいて前記第2の空間座標を校正することで、校正後の第2の空間座標を取得することとを含むことを特徴とする自動ピント合わせ装置。
  16. プロセッサに実行されることにより、請求項1〜のいずれかに記載の自動ピント合わせ方法を実現する記録媒体に記録されたプログラム。
  17. 請求項16に記載のプログラムが記録された記録媒体。
JP2016565542A 2014-12-26 2015-04-30 自動ピント合わせ方法、装置、プログラム及び記録媒体 Active JP6348611B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410832108.7 2014-12-26
CN201410832108.7A CN104469167B (zh) 2014-12-26 2014-12-26 自动对焦方法及装置
PCT/CN2015/077963 WO2016101481A1 (zh) 2014-12-26 2015-04-30 自动对焦方法及装置

Publications (2)

Publication Number Publication Date
JP2017505466A JP2017505466A (ja) 2017-02-16
JP6348611B2 true JP6348611B2 (ja) 2018-06-27

Family

ID=52914463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016565542A Active JP6348611B2 (ja) 2014-12-26 2015-04-30 自動ピント合わせ方法、装置、プログラム及び記録媒体

Country Status (9)

Country Link
US (1) US9729775B2 (ja)
EP (1) EP3038345B1 (ja)
JP (1) JP6348611B2 (ja)
KR (1) KR101678483B1 (ja)
CN (1) CN104469167B (ja)
BR (1) BR112015019722A2 (ja)
MX (1) MX358881B (ja)
RU (1) RU2612892C2 (ja)
WO (1) WO2016101481A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104469167B (zh) * 2014-12-26 2017-10-13 小米科技有限责任公司 自动对焦方法及装置
CN105100624B (zh) * 2015-08-28 2019-03-01 Oppo广东移动通信有限公司 一种拍摄方法及终端
CN108028884B (zh) 2015-09-25 2020-05-12 富士胶片株式会社 摄像系统及摄像控制方法
CN105262954B (zh) * 2015-11-17 2019-07-19 腾讯科技(深圳)有限公司 触发摄像头自动聚焦的方法和装置
CN106534702A (zh) * 2016-12-22 2017-03-22 珠海市魅族科技有限公司 一种对焦的方法以及对焦装置
CN110267041B (zh) 2019-06-28 2021-11-09 Oppo广东移动通信有限公司 图像编码方法、装置、电子设备和计算机可读存储介质
CN110248096B (zh) 2019-06-28 2021-03-12 Oppo广东移动通信有限公司 对焦方法和装置、电子设备、计算机可读存储介质
CN110276767B (zh) 2019-06-28 2021-08-31 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN110660090B (zh) 2019-09-29 2022-10-25 Oppo广东移动通信有限公司 主体检测方法和装置、电子设备、计算机可读存储介质
CN110796041B (zh) 2019-10-16 2023-08-18 Oppo广东移动通信有限公司 主体识别方法和装置、电子设备、计算机可读存储介质
WO2021077270A1 (zh) * 2019-10-21 2021-04-29 深圳市大疆创新科技有限公司 一种获取目标距离的方法、控制装置及移动平台
CN110996003B (zh) * 2019-12-16 2022-03-25 Tcl移动通信科技(宁波)有限公司 一种拍照定位方法、装置及移动终端
WO2022151473A1 (zh) * 2021-01-18 2022-07-21 深圳市大疆创新科技有限公司 拍摄控制方法、拍摄控制装置及云台组件
WO2022266915A1 (zh) * 2021-06-24 2022-12-29 深圳市大疆创新科技有限公司 镜头的对焦控制方法和装置、拍摄装置

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3513950B2 (ja) * 1993-12-14 2004-03-31 株式会社ニコン 像振れ補正カメラ
JP4314649B2 (ja) * 1998-08-20 2009-08-19 株式会社ニコン 自動焦点調節装置
JP2001235675A (ja) 2000-02-22 2001-08-31 Eiji Kawamura 焦点制御システム
US6968094B1 (en) * 2000-03-27 2005-11-22 Eastman Kodak Company Method of estimating and correcting camera rotation with vanishing point location
US20020080257A1 (en) * 2000-09-27 2002-06-27 Benjamin Blank Focus control system and process
JP2002131624A (ja) 2000-10-25 2002-05-09 Olympus Optical Co Ltd 多点自動焦点カメラ
EP1413982A1 (en) * 2001-05-25 2004-04-28 Matsushita Electric Industrial Co., Ltd. Wide-angle image generating device
US20030103067A1 (en) * 2001-12-05 2003-06-05 Trell Erik Y. Method and device for material, graphical and computer/holography-animated structural reproduction, rendition and exploration of real space elementary particle states, transitions, properties and processes
AU2003245283A1 (en) * 2002-05-15 2003-12-02 The Board Of Governors For Higher Education, State Of Rhode Island And Providence Plantations An imaging system and method for tracking the motion of an object
JP4211292B2 (ja) * 2002-06-03 2009-01-21 ソニー株式会社 画像処理装置および画像処理方法、プログラム並びにプログラム記録媒体
JP3922543B2 (ja) * 2002-06-05 2007-05-30 ソニー株式会社 撮像装置、および画像表示装置
JP2005321489A (ja) * 2004-05-07 2005-11-17 Ricoh Co Ltd 撮像装置
JP2005338352A (ja) 2004-05-26 2005-12-08 Fujinon Corp オートフォーカスシステム
JP3829144B2 (ja) * 2004-11-25 2006-10-04 シャープ株式会社 合焦エリア調節カメラ付携帯端末
DE102004060609A1 (de) * 2004-12-16 2006-06-29 Yxlon International Security Gmbh Verfahren zum Messen des Impulsübertragungsspektrums von elastisch gestreuten Röntgenquanten
US7924311B2 (en) * 2004-12-21 2011-04-12 Panasonic Corporation Camera terminal and monitoring system
US7409149B2 (en) * 2005-11-03 2008-08-05 International Business Machines Corporation Methods for improved autofocus in digital imaging systems
US7627240B2 (en) * 2006-03-27 2009-12-01 Nokia Corporation Optical device with improved autofocus performance and method related thereto
EP2059026A4 (en) * 2006-08-30 2010-12-29 Nikon Corp APPARATUS AND METHOD FOR ALIGNING IMAGE AND CAMERA
WO2008091565A1 (en) * 2007-01-23 2008-07-31 Valeo Schalter & Sensoren Gmbh Method and system for universal lane boundary detection
JP2009049810A (ja) * 2007-08-21 2009-03-05 Canon Inc 撮像装置及びその制御方法及びプログラム
JP5268433B2 (ja) * 2008-06-02 2013-08-21 キヤノン株式会社 撮像装置、及び撮像装置の制御方法
JP2009294509A (ja) * 2008-06-06 2009-12-17 Sony Corp 3次元像表示装置
JP5366454B2 (ja) * 2008-06-30 2013-12-11 キヤノン株式会社 光学機器
US8237807B2 (en) * 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
JP2010050603A (ja) 2008-08-20 2010-03-04 Casio Comput Co Ltd 撮影装置およびプログラム
US8134597B2 (en) * 2008-12-05 2012-03-13 Sony Ericsson Mobile Communications Ab Camera system with touch focus and method
JP2011030008A (ja) * 2009-07-27 2011-02-10 Canon Inc 撮像装置
JP5654223B2 (ja) * 2009-09-11 2015-01-14 古野電気株式会社 画像処理装置、これを搭載したレーダ装置、画像処理方法及び画像処理プログラム
JP5574650B2 (ja) * 2009-09-11 2014-08-20 古野電気株式会社 画像処理装置、これを搭載したレーダ装置、画像処理方法及び画像処理プログラム
TWI413854B (zh) * 2009-10-07 2013-11-01 Altek Corp A digital camera capable of detecting the name of the subject being used and a method thereof
JP2011139379A (ja) 2009-12-28 2011-07-14 Canon Inc 画像処理装置、画像処理方法及びプログラム
CN101762871B (zh) * 2009-12-30 2011-04-27 北京控制工程研究所 一种姿态敏感器光学系统
JP5589527B2 (ja) * 2010-04-23 2014-09-17 株式会社リコー 撮像装置および追尾被写体検出方法
WO2011161973A1 (ja) * 2010-06-24 2011-12-29 パナソニック株式会社 全方位撮影システム
JP5594157B2 (ja) * 2011-01-14 2014-09-24 株式会社Jvcケンウッド 撮像装置および撮像方法
CN103583036A (zh) * 2011-05-30 2014-02-12 索尼爱立信移动通讯有限公司 改进的摄像机单元
KR101784523B1 (ko) 2011-07-28 2017-10-11 엘지이노텍 주식회사 터치형 휴대용 단말기
US10099614B2 (en) 2011-11-28 2018-10-16 Magna Electronics Inc. Vision system for vehicle
JP5370542B1 (ja) * 2012-06-28 2013-12-18 カシオ計算機株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
JP5409873B2 (ja) * 2012-10-22 2014-02-05 キヤノン株式会社 情報処理装置、その制御方法、プログラム及び記憶媒体
JP6271990B2 (ja) * 2013-01-31 2018-01-31 キヤノン株式会社 画像処理装置、画像処理方法
KR101431373B1 (ko) * 2013-02-26 2014-08-18 경북대학교 산학협력단 스테레오 정합을 이용한 차량의 움직임 측정 장치
JP6103526B2 (ja) * 2013-03-15 2017-03-29 オリンパス株式会社 撮影機器,画像表示機器,及び画像表示機器の表示制御方法
JP5865547B2 (ja) * 2013-03-19 2016-02-17 株式会社日立国際電気 画像表示装置および画像表示方法
JP6102558B2 (ja) 2013-06-20 2017-03-29 ソニー株式会社 撮像装置および情報表示方法、ならびに情報処理装置
CA2819956C (en) * 2013-07-02 2022-07-12 Guy Martin High accuracy camera modelling and calibration method
CN103699592B (zh) * 2013-12-10 2018-04-27 天津三星通信技术研究有限公司 应用于便携式终端的视频拍摄定位方法及便携式终端
CN103747183B (zh) * 2014-01-15 2017-02-15 北京百纳威尔科技有限公司 一种手机拍摄对焦方法
JP2015167603A (ja) * 2014-03-05 2015-09-28 コニカミノルタ株式会社 撮影台
JP6415196B2 (ja) * 2014-09-08 2018-10-31 キヤノン株式会社 撮像装置および撮像装置の制御方法
EP3206401A4 (en) * 2014-10-08 2018-06-06 LG Electronics Inc. Method and device for processing camera parameter in 3d video coding
US9684830B2 (en) * 2014-11-14 2017-06-20 Intel Corporation Automatic target selection for multi-target object tracking
CN104469167B (zh) * 2014-12-26 2017-10-13 小米科技有限责任公司 自动对焦方法及装置

Also Published As

Publication number Publication date
US9729775B2 (en) 2017-08-08
RU2612892C2 (ru) 2017-03-13
US20160191783A1 (en) 2016-06-30
RU2015129487A (ru) 2017-01-23
WO2016101481A1 (zh) 2016-06-30
EP3038345A1 (en) 2016-06-29
MX358881B (es) 2018-08-31
KR20160091246A (ko) 2016-08-02
MX2015009132A (es) 2016-08-17
KR101678483B1 (ko) 2016-11-23
CN104469167B (zh) 2017-10-13
CN104469167A (zh) 2015-03-25
BR112015019722A2 (pt) 2017-07-18
JP2017505466A (ja) 2017-02-16
EP3038345B1 (en) 2022-09-14

Similar Documents

Publication Publication Date Title
JP6348611B2 (ja) 自動ピント合わせ方法、装置、プログラム及び記録媒体
KR101712301B1 (ko) 화면을 촬영하기 위한 방법 및 디바이스
US11516377B2 (en) Terminal, focusing method and apparatus, and computer readable storage medium
EP2991336B1 (en) Image capturing method and apparatus
EP2927787B1 (en) Method and device for displaying picture
CN105282441B (zh) 拍照方法及装置
EP3544286B1 (en) Focusing method, device and storage medium
KR20170020736A (ko) 이미지에 의한 공간 파라미터 결정 방법, 장치, 단말기기, 프로그램 및 컴퓨터 판독가능한 기록매체
EP3352453B1 (en) Photographing method for intelligent flight device and intelligent flight device
CN105516586A (zh) 图片拍摄方法、装置及系统
US10191708B2 (en) Method, apparatrus and computer-readable medium for displaying image data
CN109218709B (zh) 全息内容的调整方法及装置和计算机可读存储介质
CN106973275A (zh) 投影设备的控制方法和装置
EP4068749A1 (en) Electronic terminal, photographing method and device, and storage medium
US9619016B2 (en) Method and device for displaying wallpaper image on screen
WO2023225910A1 (zh) 视频显示方法及装置、终端设备及计算机存储介质
CN112070681B (zh) 图像处理方法及装置
CN117522942A (zh) 深度距离测量方法、装置、电子设备及可读储存介质
CN118190352A (zh) 镜头结构信息的确定方法、装置、终端及存储介质
CN117291823A (zh) 图像的处理方法、装置及存储介质
CN115222818A (zh) 标定验证方法、标定验证装置及存储介质
CN118052752A (zh) 一种图像处理方法、装置及存储介质
CN115118844A (zh) 一种移动设备
CN115496799A (zh) 视觉定位方法及装置、电子设备、存储介质
CN116863162A (zh) 摄像模组的参数优化方法、装置、电子设备及储存介质

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180531

R150 Certificate of patent or registration of utility model

Ref document number: 6348611

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250