JP2022530144A - パラメータ取得方法及び端末機器 - Google Patents

パラメータ取得方法及び端末機器 Download PDF

Info

Publication number
JP2022530144A
JP2022530144A JP2021563406A JP2021563406A JP2022530144A JP 2022530144 A JP2022530144 A JP 2022530144A JP 2021563406 A JP2021563406 A JP 2021563406A JP 2021563406 A JP2021563406 A JP 2021563406A JP 2022530144 A JP2022530144 A JP 2022530144A
Authority
JP
Japan
Prior art keywords
calibration
target object
measured value
target
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021563406A
Other languages
English (en)
Other versions
JP7303900B2 (ja
Inventor
▲従▼華 付
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Co Ltd
Original Assignee
Vivo Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Co Ltd filed Critical Vivo Mobile Communication Co Ltd
Publication of JP2022530144A publication Critical patent/JP2022530144A/ja
Application granted granted Critical
Publication of JP7303900B2 publication Critical patent/JP7303900B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本開示は、通信技術分野に関し、距離センサのキャリブレーションが複雑であるという問題を解决するためのパラメータ取得方法及び端末機器を提供する。この方法は、撮像プレビュー画面において目標対象のプレビュー画像を取得することと、プレビュー画像と撮像プレビュー画面におけるキャリブレーション領域との重なり度合いが閾値を超える場合、距離センサの第一の測定値を取得することと、第一の測定値とキャリブレーション距離とに基づいて、目標対象に対応するキャリブレーションオフセット量を取得することとを含む。【選択図】 図1

Description

(関連出願の相互参照)
本出願は、2019年4月26日に中国で提出された中国特許出願番号No.201910343628.4の優先権を主張しており、同出願の内容の全ては、ここに参照として取り込まれる。
本開示の実施例は、通信技術分野に関し、特にパラメータ取得方法及び端末機器に関する。
センサ技術の進歩に伴い、一部の電子製品のカメラは、距離センサを用いて合焦物体距離を測定することにより、より正確な合焦を実現可能になった。例えば、現在では、飛行時間(Time of Flight、TOF)技術を利用して、合焦物体とカメラとの間の直線距離、すなわち合焦物体距離を測定する方式が流行している。
ToFなどの技術による距離センサでは、測距精度が高いけれども、環境への適応性が悪い。電子製品の出荷前に距離センサの測距精度をキャリブレーションする必要があるだけでなく、電子製品のメンテナンス後又は一定期間の使用後にも同様にキャリブレーションが必要になる。しかし、距離センサのキャリブレーションは、専門性が高い作業であり、作業者の技能やキャリブレーション設備、環境への要求は厳しい。そのため、距離センサのキャリブレーションが複雑になってしまう。
本開示の実施例は、距離センサのキャリブレーションが複雑であるという問題を解决するためのパラメータ取得方法及び端末機器を提供する。
第一の方面によれば、本開示の実施例は、端末機器に用いられるパラメータ取得方法を提供する。この方法は、
撮像プレビュー画面において目標対象のプレビュー画像を取得することと、
前記プレビュー画像と前記撮像プレビュー画面におけるキャリブレーション領域との重なり度合いが閾値を超える場合、距離センサの第一の測定値を取得することと、
前記目標対象と前記端末機器との間のキャリブレーション距離を取得することと、
前記第一の測定値と前記キャリブレーション距離とに基づいて、前記目標対象に対応するキャリブレーションオフセット量を取得することとを含む。
第二の方面によれば、本開示の実施例は、端末機器を提供する。この端末機器は、
撮像プレビュー画面において目標対象のプレビュー画像を取得するための第一の取得モジュールと、
前記プレビュー画像と前記撮像プレビュー画面におけるキャリブレーション領域との重なり度合いが閾値を超える場合、距離センサの第一の測定値を取得するための第二の取得モジュールと、
前記目標対象と前記端末機器との間のキャリブレーション距離を取得するための第三の取得モジュールと、
前記第一の測定値と前記キャリブレーション距離とに基づいて、前記目標対象に対応するキャリブレーションオフセット量を取得するための第四の取得モジュールとを含む。
第三の方面によれば、本開示の実施例は、端末機器をさらに提供する。この端末機器は、メモリ、プロセッサ、及び、メモリに記憶され、且つプロセッサ上で運行できるコンピュータプログラムを含み、前記プロセッサが前記コンピュータプログラムを実行する時、上記したようなパラメータ取得方法におけるステップを実現させる。
第四の方面によれば、本開示の実施例は、コンピュータ可読記憶媒体をさらに提供する。前記コンピュータ可読記憶媒体にはコンピュータプログラムが記憶されており、前記コンピュータプログラムがプロセッサによって実行される時、上記したようなパラメータ取得方法におけるステップを実現させる。
本開示の実施例では、目標対象のプレビュー画像と撮像プレビュー画面におけるキャリブレーション領域とを用いてマッチングを行い、この時の距離センサの測定値を取得し、さらに、この測定値とキャリブレーション距離とを用いて、前記目標対象に対応するキャリブレーションオフセット量を取得する。したがって、本開示の実施例によれば、ユーザは、任意の目標対象を利用してそのキャリブレーションオフセット量を取得することができ、取得方式が簡便である。それにより、距離センサに対するキャリブレーションの複雑度を低減することができる。
本開示の実施例によるパラメータ取得方法のフローチャートである。 本開示の実施例による端末機器の構造図のその一である。 本開示の実施例によるキャリブレーション方法のフローチャートのその一である。 本開示の実施例による端末機器の表示画面のその一である。 本開示の実施例によるキャリブレーション方法のフローチャートのその二である。 本開示の実施例による端末機器の表示画面のその二である。 本開示の実施例による端末機器の表示画面のその三である。 本開示の実施例による端末機器の構造図のその二である。 本開示の実施例による端末機器の構造図のその三である。
以下は、本開示の実施例における添付図面を結び付けながら、本開示の実施例における技術案を明瞭且つ完全に記述する。明らかに、記述された実施例は、本開示の一部の実施例であり、全部の実施例ではない。本開示における実施例に基づき、当業者が創造的な労力を払わない前提で得られるすべての他の実施例は、いずれも本開示の保護範囲に属する。
図1を参照して、図1は、本開示の実施例によるパラメータ取得方法のフローチャートである。図1に示すように、以下のステップを含む。
ステップ101において、撮像プレビュー画面において目標対象のプレビュー画像を取得する。
カメラ機能がオンにされると、端末機器は、撮像プレビュー画面を表示する。この時、カメラを用いて撮像プレビュー画面における目標対象の画像を取得することができる。ここで、それを目標対象のプレビュー画像と呼ぶ。このプレビュー画像には、目標対象が含まれてもよく、目標対象が位置する環境などの内容が含まれてもよい。前記目標対象は、物体、人物などであってもよい。
選択的に、本開示の実施例では、目標対象がどのような物体であるかを予め設定してもよい。この場合、ユーザがある物体を利用してキャリブレーションする時、まず、ユーザが使用している物体が予め定められた目標物体であるか否かを識別して、YESの場合、ステップ101を実行し、そうでない場合、フローを終了するか、又はユーザに提示してもよい。
ステップ102において、前記プレビュー画像と前記撮像プレビュー画面におけるキャリブレーション領域との重なり度合いが閾値を超える場合、距離センサの第一の測定値を取得する。
ToF技術による距離センサを例として測距原理を簡単に紹介する。ToF距離センサは、通常、発射ユニットと受光ユニットとから構成される。発射ユニットから発射されたレーザ光は、目標対象に当たった後、反射されて戻り、反射光は、受光ユニットによって受光される。この場合、レーザ光が発射されてから受光されるまでの飛行時間を測定することができる。その後、光の伝播速度により、端末機器(又は距離センサ)と目標対象との間の距離、すなわち第一の測定値を算出することができる。
このステップにおいて、この閾値は任意に設定されてもよい。キャリブレーションの正確性を高めるために、この閾値を100%に設定してもよい。すると、この時、前記プレビュー画像は、前記撮像プレビュー画面におけるキャリブレーション領域と重なる。
前記キャリブレーション領域は、任意の形状の領域であってもよい。例えば、キャリブレーション領域は、矩形、円形などであってもよい。例えば、このキャリブレーション領域は、ある特定の目標対象の形状及び大きさに対応するように任意に設定されてもよい。
ステップ103において、前記目標対象と前記端末機器との間のキャリブレーション距離を取得する。
ある目標対象について、その大きさ寸法は既知であるか、又は測定によって得られる。一定の大きさ寸法の対象は、カメラに近いほど表示スクリーン上での結像サイズが大きくなり、逆の場合、小さくなる。
この目標対象の大きさに応じて、表示スクリーン上にその結像輪郭に対応する幾何学図形を表示することができる。また、この幾何学図形の大きさ寸法は一定であり、既知の条件でもある。この目標対象の結像がちょうど幾何学図形と重なる場合、両者の大きさ寸法が一致すると見なせる。この時、実験データから目標対象と距離センサとの間の真の距離を知ることができ、この真の距離がすなわちキャリブレーション距離である。
実際の応用では、対象と、対象と端末機器との間のキャリブレーション距離との対応関係を記憶してもよい。この場合、このステップでは、前記目標対象を識別し、そして、対象とキャリブレーション距離との対応関係に基づいて、前記目標対象と前記端末機器との間のキャリブレーション距離を取得してもよい。そのうち、目標対象を識別する方式についてここでは限定しない。
ステップ104において、前記第一の測定値と前記キャリブレーション距離とに基づいて、前記目標対象に対応するキャリブレーションオフセット量を取得する。
ここでは、この第一の測定値とキャリブレーション距離との差の値をこの目標対象に対応するキャリブレーションオフセット量とする。
本開示の実施例では、上記方法は、端末機器、例えば携帯電話、タブレットパソコン(Tablet Personal Computer)、ラップトップコンピュータ(Laptop Computer)、パーソナルデジタルアシスタント(personal digital assistant、PDA)、モバイルインターネットデバイス(Mobile Internet Device、MID)又はウェアラブルデバイス(Wearable Device)などに用いられることができる。
本開示の実施例では、目標対象のプレビュー画像と撮像プレビュー画面におけるキャリブレーション領域とを用いてマッチングを行い、この時の距離センサの測定値を取得し、さらに、この測定値とキャリブレーション距離とを用いて、前記目標対象に対応するキャリブレーションオフセット量を取得する。したがって、本開示の実施例によれば、ユーザは、任意の目標対象を利用してそのキャリブレーションオフセット量を取得することができ、取得方式が簡便である。それにより、距離センサに対するキャリブレーションの複雑度を低減することができる。
上記実施例をもとに、ステップ104の後に、距離センサの第二の測定値を取得し、前記第二の測定値と前記キャリブレーションオフセット量とに基づいて、キャリブレーション後の第二の測定値を取得することをさらに含んでもよい。具体的に、前記第二の測定値と前記キャリブレーションオフセット量との差の値をキャリブレーション後の第二の測定値とする。このようにすることにより、計算が簡単であるので、キャリブレーション作業を速やかに完成させることができる。
上記実施例をもとに、ステップ101の前に、前記目標対象を識別し、前記撮像プレビュー画面に前記目標対象の形状に合うキャリブレーション領域を表示することをさらに含んでもよい。具体的に、前記目標対象を識別し、前記撮像プレビュー画面に前記目標対象の形状に合うキャリブレーション領域を表示してもよい。例えば、対象とキャリブレーション領域との対応関係を記憶してもよい。ある対象が識別された後、この対応関係からそれに対応するキャリブレーション領域を取得して表示してもよい。ここでは、キャリブレーションを容易にするために、目標対象を予め定めなくてもよい。例えば、目標対象がコインであると識別された場合、撮像プレビュー画面に、コイン(例えば、円形)の形状に合うキャリブレーション領域を表示してもよい。
上記実施例をもとに、ステップ101の後に、以下の少なくとも一つのステップをさらに実行してもよい。
前記プレビュー画像が前記キャリブレーション領域と重なるように前記目標対象を移動させるようユーザに提示するための第一の提示情報を表示する。このようにすることにより、キャリブレーションに要する時間を短縮し、キャリブレーション効率を向上させることができる。
予め設定された特徴を有する目標対象を選択するようユーザに提示するための第二の提示情報を表示する。そのうち、予め設定された特徴は、形状特徴、カテゴリー特徴などであってもよい。このようにすることにより、ユーザがより速やかに目標対象を選択可能にすることで、キャリブレーションに要する時間を短縮し、キャリブレーション効率を向上させることができる。
図2に示すように、本開示の実施例による端末機器は、ディスプレイ201と、カメラモジュール202と、距離センサ203と、プロセッサ204とを含んでもよい。そのうち、距離センサ203は、受光ユニット2031と発射ユニット2032とを含んでもよい。ディスプレイには、撮像プレビュー画面2011が表示されている。
ToF技術による距離センサを例として測距原理を簡単に紹介する。発射ユニットから発射されたレーザ光は、目標対象に当たった後、反射されて戻り、反射光は、受光ユニットによって受光される。この場合、レーザ光が発射されてから受光されるまでの飛行時間を測定することができる。その後、光の伝播速度により、端末機器(又は距離センサ)と目標対象との間の距離を算出することができる。
図3を参照して、図3は、本開示の実施例によるキャリブレーション方法のフローチャートである。この方法は、端末機器に用いられることができる。この実施例では、キャリブレーション領域の形状と目標対象が予め設定されている。ここで、目標対象について、1元コインの大きさの円形物体を例にする。それに応じて、キャリブレーション領域の形状は円形である。図3に示すように、以下のステップを含む。
ステップ301において、端末機器のカメラが距離センサのキャリブレーション状態に入ると、ディスプレイに撮像プレビュー画面を表示し、その画面の任意の領域にキャリブレーション領域を表示する。
本開示の実施例では、撮像プレビュー画面2011に少なくとも一種類の予め設定された幾何学図形31(この実施例では円形)を表示する。この時、端末機器の画面の模式図は、図4に示される。
選択的に、ユーザに幾何学図形に対応する目標対象を容易に理解させるために、ディスプレイに提示情報32を表示してもよい。例えば、図4に示すように、「1元コインを目標対象として使用してください」と表示させてもよい。
ステップ302において、目標対象のプレビュー画像がキャリブレーション領域と重なる場合、距離センサによって測定された第一の測定値を取得する。
このプロセスでは、撮像プレビュー画面に物体のプレビュー画像が現われた場合、まず、現われた物体が設定された目標対象であるか否かを識別してもよい。YESの場合、ステップ302を実行し、そうでなければ、該当する物体を目標対象として使用するよう、又は類似形状の物体を目標対象として使用するようユーザに提示する。
ユーザは、操作によって目標対象の結像34を幾何学図形に重ならせることができる。選択的に、ユーザへの操作案内を容易にするために、ディスプレイに提示情報33を表示してもよい。例えば、図4に示すように、「目標対象輪郭がちょうど点線枠に重なるようにカメラ距離や角度を調整してください」と表示してもよい。目標対象がキャリブレーション領域と重なる場合、距離センサによって測定された第一の測定値D1を取得する。
ステップ303において、前記目標対象と前記端末機器との間のキャリブレーション距離を取得する。
本開示の実施例では、さらに実験によって目標対象のキャリブレーションオフセット量を決定してもよい。予め設定された目標対象(例えば、1元コイン)の大きさ寸法は統一されているからである。一定の大きさ寸法の目標対象は、カメラに近いほどディスプレイ上での結像サイズが大きくなり、逆の場合、小さくなる。予め設定された幾何学図形は、目標対象に対応する結像輪郭として、その大きさ寸法が一定であり、既知の条件である。このため、目標対象の結像がちょうど幾何学図形1と重なる場合、両者の大きさ寸法が一致すると見なせる。この時、実験データから目標対象と距離センサとの間の真の距離を知ることができる。この真の距離は、すなわちシステムにより目標対象に対して予め設定されたキャリブレーション距離D0である。
ステップ304において、前記目標対象のキャリブレーションオフセット量を取得する。
ここで、Doffset=D1-D0をキャリブレーションオフセット量としてもよい。このキャリブレーションオフセット量は、記憶されて、後続のキャリブレーションに用いられてもよい。
ステップ305において、キャリブレーションが必要な場合、距離センサの第二の測定値を取得する。
キャリブレーションが必要な場合、ユーザが1元コインを参照物として使用する場合、距離センサの第二の測定値D2を取得する。
ステップ306において、前記第二の測定値と前記キャリブレーションオフセット量とに基づいて、キャリブレーション後の第二の測定値を取得する。
前記キャリブレーションオフセット量を用いて前記第二の測定値をキャリブレーションする。ここで、D2-Doffset、すなわち前記第二の測定値と前記キャリブレーションオフセット量との差をキャリブレーション後の第二の測定値とする。
図5を参照して、図5は、本開示の実施例によるキャリブレーション方法のフローチャートである。この方法は、端末機器に用いられることができる。本開示の実施例は、ある単一の目標対象を予め設定するのではなく、ユーザにより選択された目標対象を識別し、識別結果に基づいて表示スクリーン上に対応するキャリブレーション領域(例えば、幾何学図形)を表示してもよいという点で、図3に示す実施例と異なる。図5に示すように、以下のステップを含む。
ステップ501において、ユーザにより選択された目標対象を識別し、撮像プレビュー画面にキャリブレーション領域を表示する。
カメラがユーザにより選択された目標対象にフォーカスした時に、目標対象はカメラのFOV領域に入ることになる。端末機器は、目標対象の結像特徴によって、どのような目標対象に属するかを識別し、直ちにその種類の目標対象に対応する幾何学図形をプレビュー画面に表示してもよい。
図6に示すように、利用可能な目標対象をユーザに提示してもよい。ユーザにより選択された目標対象が1元コインである場合、撮像プレビュー画面に表示される幾何学図形は一つの円形になる。目標対象が身分証明書である場合、撮像プレビュー画面に表示される幾何学図形は一つの矩形になる。
ステップ502において、目標対象のプレビュー画像が表示されたキャリブレーション領域と重なるように目標対象を調整するようユーザに提示する。
ステップ503において、距離センサによって測定された第一の測定値D1を取得する。
ステップ504において、前記目標対象と前記端末機器との間のキャリブレーション距離を取得する。
本開示の実施例では、さらに実験によって目標対象のキャリブレーションオフセット量を決定してもよい。予め設定された目標対象(例えば、1元コイン)の大きさ寸法は統一されているからである。一定の大きさ寸法の目標対象は、カメラに近いほどディスプレイ上での結像サイズが大きくなり、逆の場合、小さくなる。予め設定された幾何学図形は、目標対象に対応する結像輪郭として、その大きさ寸法が一定であり、既知の条件である。このため、目標対象の結像がちょうど幾何学図形1と重なる場合、両者の大きさ寸法が一致すると見なせる。この時、実験データから目標対象と距離センサとの間の真の距離を知ることができる。この真の距離は、すなわちシステムにより目標対象に対して予め設定されたキャリブレーション距離D0である。
ステップ505において、目標対象に対応するキャリブレーションオフセット量を取得する。
ここで、Doffset=D1-D0をキャリブレーションオフセット量としてもよい。このキャリブレーションオフセット量は、記憶されて、後続のキャリブレーションに用いられてもよい。
ステップ506において、キャリブレーションが必要な場合、距離センサの第二の測定値を取得する。
キャリブレーションが必要な場合、例えばユーザが1元コインを参照物として使用する場合、距離センサの第二の測定値D2を取得する。
ステップ507において、前記第二の測定値と前記キャリブレーションオフセット量とに基づいて、キャリブレーション後の第二の測定値を取得する。
前記キャリブレーションオフセット量を用いて前記第二の測定値をキャリブレーションする。ここで、D2-Doffset、すなわち前記第二の測定値と前記キャリブレーションオフセット量との差をキャリブレーション後の第二の測定値とする。
以上の記述から分かるように、本開示の実施例では、ユーザが選択した参照物に応じて距離センサをキャリブレーションすることができ、それによりキャリブレーションの難易度が簡易化され、ユーザの操作が便利になり、ユーザの体験が向上する。
図8を参照して、図8は、本開示の実施例による端末機器の構造図である。図8に示すように、端末機器800は、
撮像プレビュー画面において目標対象のプレビュー画像を取得するための第一の取得モジュール801と、前記プレビュー画像と前記撮像プレビュー画面におけるキャリブレーション領域との重なり度合いが閾値を超える場合、距離センサの第一の測定値を取得するための第二の取得モジュール802と、前記目標対象と前記端末機器との間のキャリブレーション距離を取得するための第三の取得モジュール803と、前記第一の測定値と前記キャリブレーション距離とに基づいて、前記目標対象に対応するキャリブレーションオフセット量を取得するための第四の取得モジュール804とを含む。
選択的に、前記第四の取得モジュール804は、具体的に、前記第一の測定値と前記キャリブレーション距離との差の値を前記キャリブレーションオフセット量とするために用いられる。
選択的に、前記第三の取得モジュール803は、前記目標対象を識別するための識別サブモジュールと、対象とキャリブレーション距離との対応関係に基づいて、前記目標対象と前記端末機器との間のキャリブレーション距離を取得するための取得サブモジュールとを含む。
選択的に、前記端末機器は、
距離センサの第二の測定値を取得するための第五の取得モジュール805と、
前記第二の測定値と前記キャリブレーションオフセット量とに基づいて、キャリブレーション後の第二の測定値を取得するためのキャリブレーションモジュール806とをさらに含む。
選択的に、前記キャリブレーションモジュール806は、具体的に、前記第二の測定値と前記キャリブレーションオフセット量との差の値をキャリブレーション後の第二の測定値とするために用いられる。
選択的に、前記端末機器は、
前記目標対象を識別するための識別モジュール807と、
前記撮像プレビュー画面に前記目標対象の形状に合うキャリブレーション領域を表示するための第一の表示モジュール808とをさらに含む。
選択的に、前記端末機器は、
前記プレビュー画像が前記キャリブレーション領域と重なるように前記目標対象を移動させるようユーザに提示するための第一の提示情報を表示するための第二の表示モジュール809と、
予め設定された特徴を有する目標対象を選択するようユーザに提示するための第二の提示情報を表示するための第三の表示モジュール810のうちの少なくとも一つのモジュールをさらに含む。
端末機器800は、上記方法の実施例において端末機器により実現される各プロセスを実現することができる。説明の重複を回避するために、ここでは説明を省略する。
本開示の実施例では、目標対象のプレビュー画像と撮像プレビュー画面におけるキャリブレーション領域とを用いてマッチングを行い、この時の距離センサの測定値を取得し、さらに、この測定値とキャリブレーション距離とを用いて、前記目標対象に対応するキャリブレーションオフセット量を取得する。したがって、本開示の実施例によれば、ユーザは、任意の目標対象を利用してそのキャリブレーションオフセット量を取得することができ、取得方式が簡便である。それにより、距離センサに対するキャリブレーションの複雑度を低減することができる。
図9は、本開示の実施例を実現する端末機器のハードウェア構造概略図である。この端末機器900は、無線周波数ユニット901と、ネットワークモジュール902と、オーディオ出力ユニット903と、入力ユニット904と、センサ905と、表示ユニット906と、ユーザ入力ユニット907と、インターフェースユニット908と、メモリ909と、プロセッサ910と、電源911などの部材を含むが、それらに限らない。当業者であれば理解できるように、図9に示す端末機器の構造は、端末機器に対する限定を構成しなく、端末機器は、図示された部材の数よりも多い又は少ない部材、又は何らかの部材の組み合わせ、又は異なる部材の配置を含んでもよい。本開示の実施例では、端末機器は、携帯電話、タブレットパソコン、ノートパソコン、パームトップコンピュータ、車載移動端末、ウェアラブルデバイス、及び歩数計などを含むが、それらに限らない。
そのうち、プロセッサ910は、撮像プレビュー画面において目標対象のプレビュー画像を取得することと、前記プレビュー画像と前記撮像プレビュー画面におけるキャリブレーション領域との重なり度合いが閾値を超える場合、距離センサの第一の測定値を取得することと、前記目標対象と前記端末機器との間のキャリブレーション距離を取得することと、前記第一の測定値と前記キャリブレーション距離とに基づいて、前記目標対象に対応するキャリブレーションオフセット量を取得することに用いられる。
本開示の実施例では、目標対象のプレビュー画像と撮像プレビュー画面におけるキャリブレーション領域とを用いてマッチングを行い、この時の距離センサの測定値を取得し、さらに、この測定値とキャリブレーション距離とを用いて、前記目標対象に対応するキャリブレーションオフセット量を取得する。したがって、本開示の実施例によれば、ユーザは、任意の目標対象を利用してそのキャリブレーションオフセット量を取得することができ、取得方式が簡便である。それにより、距離センサに対するキャリブレーションの複雑度を低減することができる。
選択的に、プロセッサ910は、前記第一の測定値と前記キャリブレーション距離との差の値を前記キャリブレーションオフセット量とすることに用いられる。
選択的に、プロセッサ910は、距離センサの第二の測定値を取得することと、前記第二の測定値と前記キャリブレーションオフセット量とに基づいて、キャリブレーション後の第二の測定値を取得することに用いられる。
選択的に、プロセッサ910は、前記第二の測定値と前記キャリブレーションオフセット量との差の値をキャリブレーション後の第二の測定値とすることに用いられる。
選択的に、プロセッサ910は、前記目標対象を識別することと、対象とキャリブレーション距離との対応関係に基づいて、前記目標対象と前記端末機器との間のキャリブレーション距離を取得することに用いられる。
選択的に、プロセッサ910は、前記目標対象を識別することと、前記撮像プレビュー画面に前記目標対象の形状に合うキャリブレーション領域を表示することに用いられる。
選択的に、プロセッサ910は、
前記プレビュー画像が前記キャリブレーション領域と重なるように前記目標対象を移動させるようユーザに提示するための第一の提示情報を表示するステップと、
予め設定された特徴を有する目標対象を選択するようユーザに提示するための第二の提示情報を表示するステップのうちの少なくとも一つのステップを実行するために用いられる。
理解すべきことは、本開示の実施例では、無線周波数ユニット901は、情報の送受信又は通話中の信号の送受信に用いられてもよい。具体的には、基地局からの下りリンクのデータを受信してから、プロセッサ910に処理させてもよい。また、上りリンクのデータを基地局に送信してもよい。一般的には、無線周波数ユニット901は、アンテナ、少なくとも一つの増幅器、送受信機、カプラ、低雑音増幅器、デュプレクサなどを含むが、それらに限られない。なお、無線周波数ユニット901は、無線通信システムやネットワークによって、他の機器との通信を行ってもよい。
端末機器は、ネットワークモジュール902によってユーザに無線のブロードバンドインターネットアクセスを提供し、例えば、ユーザへ電子メールの送受信、ウェブページの閲覧、ストリーミングメディアへのアクセスなどを支援する。
オーディオ出力ユニット903は、無線周波数ユニット901又はネットワークモジュール902によって受信された又はメモリ909に記憶されたオーディオデータをオーディオ信号に変換して、音声として出力することができる。そして、オーディオ出力ユニット903はさらに、端末機器900によって実行される特定の機能に関連するオーディオ出力(例えば、呼び信号受信音、メッセージ着信音など)を提供することができる。オーディオ出力ユニット903は、スピーカ、ブザー及び受話器などを含む。
入力ユニット904は、オーディオ又はビデオ信号を受信するために用いられる。入力ユニット904は、グラフィックスプロセッサ(Graphics Processing Unit、GPU)9041とマイクロホン9042を含んでもよい。グラフィックスプロセッサ9041は、ビデオキャプチャモード又は画像キャプチャモードにおいて画像キャプチャ装置(例えば、カメラ)によって得られた静止画像又はビデオの画像データを処理する。処理された画像フレームは、表示ユニット906に表示されてもよい。グラフィックスプロセッサ9041によって処理された画像フレームは、メモリ909(又は他の記憶媒体)に記憶されてもよく、又は無線周波数ユニット901又はネットワークモジュール902を介して送信されてもよい。マイクロホン9042は、音声を受信することができるとともに、このような音声をオーディオデータに処理することができる。処理されたオーディオデータは、電話の通話モードにおいて、無線周波数ユニット901を介して移動通信基地局に送信することが可能なフォーマットに変換して出力されてもよい。
端末機器900は、少なくとも一つのセンサ905、例えば、光センサ、モーションセンサ及び他のセンサをさらに含む。具体的には、光センサは、環境光センサ及接近センサを含み、そのうち、環境光センサは、環境光の明暗に応じて、表示パネル9061の輝度を調整することができる。接近センサは、端末機器900が耳元に移動した時、表示パネル9061及び/又はバックライトをオフにすることができる。モーションセンサの一種として、加速度計センサは、各方向(一般的には、3軸)での加速度の大きさを検出することができ、静止時、重力の大きさ及び方向を検出することができ、端末機器姿勢(例えば、縦横スクリーン切り替え、関連ゲーム、磁力計姿勢校正)の識別、振動識別関連機能(例えば、歩数計、タップ)などに用いることができる。センサ905はさらに、指紋センサ、圧力センサ、虹彩センサ、分子センサ、ジャイロ、気圧計、湿度計、温度計、赤外線センサなどを含んでもよい。ここでは説明を省略する。
表示ユニット906は、ユーザによって入力された情報又はユーザに提供される情報を表示するために用いられている。表示ユニット906は、表示パネル9061を含んでもよく、液晶ディスプレイ(Liquid Crystal Display、LCD)、有機発光ダイオード(Organic Light-Emitting Diode、OLED)などの形式で表示パネル9061が配置されてもよい。
ユーザ入力ユニット907は、入力された数字又は文字情報の受信、端末機器のユーザによる設置及び機能制御に関するキー信号入力の発生に用いられてもよい。具体的には、ユーザ入力ユニット907は、タッチパネル9071及び他の入力機器9072を含む。タッチパネル9071は、タッチスクリーンとも呼ばれ、その上又は付近でのユーザによるタッチ操作(例えば、ユーザが指、タッチペンなどの任意の適切な物体又は付属品を使用してタッチパネル9071上又はタッチパネル9071付近で行う操作)を収集することができる。タッチパネル9071は、タッチ検出装置とタッチコントローラの二つの部分を含んでもよい。そのうち、タッチ検出装置は、ユーザによるタッチ方位を検出し、タッチ操作による信号を検出し、信号をタッチコントローラに伝送する。タッチコントローラは、タッチ検出装置からタッチ情報を受信し、それをタッチポイント座標に変換してから、プロセッサ910に送信し、プロセッサ910から送信されてきたコマンドを受信して実行する。なお、抵抗式、静電容量式、赤外線及び表面音波などの様々なタイプを用いてタッチパネル9071を実現してもよい。タッチパネル9071以外、ユーザ入力ユニット907は、他の入力機器9072を含んでもよい。具体的には、他の入力機器9072は、物理的なキーボード、機能キー(例えば、ボリューム制御ボタン、スイッチボタンなど)、トラックボール、マウス、操作レバーを含んでもよいが、それらに限らない。ここでは説明を省略する。
さらに、タッチパネル9071は、表示パネル9061上に覆われてもよい。タッチパネル9071は、その上又は付近でのタッチ操作を検出した場合、プロセッサ910に伝送して、タッチイベントのタイプを特定し、その後、プロセッサ910は、タッチイベントのタイプに応じて表示パネル9061で相応な視覚出力を提供する。図9では、タッチパネル9071と表示パネル9061は、二つの独立した部材として端末機器の入力と出力機能を実現するものであるが、いくつかの実施例では、タッチパネル9071と表示パネル9061を集積して端末機器の入力と出力機能を実現してもよい。具体的には、ここでは限定しない。
インターフェースユニット908は、外部装置と端末機器900との接続のためのインターフェースである。例えば、外部装置は、有線又は無線ヘッドフォンポート、外部電源(又は電池充電器)ポート、有線又は無線データポート、メモリカードポート、識別モジュールを有する装置への接続用のポート、オーディオ入力/出力(I/O)ポート、ビデオI/Oポート、イヤホンポートなどを含んでもよい。インターフェースユニット908は、外部装置からの入力(例えば、データ情報、電力など)を受信するとともに、受信した入力を端末機器900内の一つ又は複数の素子に伝送するために用いられてもよく、又は端末機器900と外部装置との間でデータを伝送するために用いられてもよい。
メモリ909は、ソフトウェアプログラム及び各種のデータを記憶するために用いられてもよい。メモリ909は、主に記憶プログラム領域及び記憶データ領域を含んでもよい。そのうち、記憶プログラム領域は、オペレーティングシステム、少なくとも一つの機能に必要なアプリケーションプログラム(例えば、音声再生機能、画像再生機能など)などを記憶することができ、記憶データ領域は、携帯電話の使用によって作成されるデータ(例えば、オーディオデータ、電話帳など)などを記憶することができる。なお、メモリ909は、高速ランダムアクセスメモリを含んでもよく、非揮発性メモリ、例えば少なくとも一つの磁気ディスクメモリデバイス、フラッシュメモリデバイス、又は他の揮発性ソリッドステートメモリデバイスをさらに含んでもよい。
プロセッサ910は、端末機器の制御センターであり、各種のインターフェースと線路によって端末機器全体の各部分を接続する。メモリ909に記憶されるソフトウェアプログラム及び/又はモジュールを運行又は実行し、メモリ909に記憶されるデータを呼び出し、端末機器の各種の機能を実行し、データを処理することで、端末機器全体をモニタリングする。プロセッサ910は、一つ又は複数の処理ユニットを含んでもよい。好ましくは、プロセッサ910は、アプリケーションプロセッサとモデムプロセッサを集積してもよい。そのうち、アプリケーションプロセッサは主にオペレーティングシステム、ユーザインターフェース及びアプリケーションプログラムなどを処理するためのものであり、モデムプロセッサは、主に無線通信を処理するためのものである。理解すべきことは、上記モデムプロセッサは、プロセッサ910に集積されなくてもよい。
端末機器900は、各部材に電力を供給する電源911(例えば、電池)をさらに含んでもよい。好ましくは、電源911は、電源管理システムによってプロセッサ910にロジック的に接続されてもよい。それにより、電源管理システムによって充放電管理及び消費電力管理などの機能を実現することができる。
また、端末機器900は、いくつかの示されていない機能モジュールを含む。ここでは説明を省略する。
好ましくは、本開示の実施例は、端末機器をさらに提供する。この端末機器は、プロセッサ910と、メモリ909と、メモリ909に記憶され、前記プロセッサ910上で運行できるコンピュータプログラムとを含み、このコンピュータプログラムがプロセッサ910によって実行される時、上記パラメータ取得方法の実施例における各プロセスを実現させ、且つ同じ技術的効果を達成することができる。説明の重複を回避するために、ここで説明を省略する。
本開示の実施例は、コンピュータ可読記憶媒体をさらに提供する。コンピュータ可読記憶媒体にはコンピュータプログラムが記憶されており、このコンピュータプログラムがプロセッサによって実行される時、上記パラメータ取得方法の実施例の各プロセスを実現させ、且つ同じ技術的効果を達成することができる。説明の重複を回避するために、ここで説明を省略する。そのうち、上述したコンピュータ可読記憶媒体は、例えばリードオンリーメモリ(Read-Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、磁気ディスク又は光ディスクなどである。
説明すべきことは、本明細書において、「含む」、「包含」という用語又はその他の任意の変形は、非排他的な「含む」を意図的にカバーするものであり、それにより、一連の要素を含むプロセス、方法、物品又は装置は、それらの要素を含むだけではなく、明確にリストされていない他の要素も含み、又はこのようなプロセス、方法、物品又は装置に固有の要素も含む。それ以上の制限がない場合に、「……を一つ含む」という文章で限定された要素について、この要素を含むプロセス、方法、物品又は装置には他の同じ要素も存在することが排除されるものではない。
以上の実施の形態の記述によって、当業者であればはっきりと分かるように、上記実施例の方法は、ソフトウェアと必要な汎用ハードウェアプラットフォームの形態によって実現されてもよい。無論、ハードウェアによっても実現されるが、多くの場合、前者は、好適な実施の形態である。このような理解を踏まえて、本開示の技術案は、実質的には又は関連技術に寄与した部分がソフトウェア製品の形式によって表われてもよい。このコンピュータソフトウェア製品は、一つの記憶媒体(例えばROM/RAM、磁気ディスク、光ディスク)に記憶され、一台の端末機器(携帯電話、コンピュータ、サーバ、エアコン、又はネットワーク機器などであってもよい)に本開示の各実施例に記載の方法を実行させるための若干の指令を含む。
以上は、添付図面を結び付けながら、本開示の実施例を記述していたが、本開示は、上述した具体的な実施の形態に限らず、上述した具体的な実施の形態は例示的なものに過ぎず、制限性のあるものではない。当業者は、本開示による示唆を基にして、本開示の趣旨や請求項が保護する範囲から逸脱しない限り、多くの形式の変更を行うことができ、それらはいずれも本開示の保護範囲に入っている。
本開示の実施例では、さらに実験によって目標対象のキャリブレーションオフセット量を決定してもよい。予め設定された目標対象(例えば、1元コイン)の大きさ寸法は統一されているからである。一定の大きさ寸法の目標対象は、カメラに近いほどディスプレイ上での結像サイズが大きくなり、逆の場合、小さくなる。予め設定された幾何学図形は、目標対象に対応する結像輪郭として、その大きさ寸法が一定であり、既知の条件である。このため、目標対象の結像がちょうど幾何学図形と重なる場合、両者の大きさ寸法が一致すると見なせる。この時、実験データから目標対象と距離センサとの間の真の距離を知ることができる。この真の距離は、すなわちシステムにより目標対象に対して予め設定されたキャリブレーション距離D0である。
キャリブレーションが必要な場合、ユーザが1元コインを目標対象として使用する場合、距離センサの第二の測定値D2を取得する。
本開示の実施例では、さらに実験によって目標対象のキャリブレーションオフセット量を決定してもよい。予め設定された目標対象(例えば、1元コイン)の大きさ寸法は統一されているからである。一定の大きさ寸法の目標対象は、カメラに近いほどディスプレイ上での結像サイズが大きくなり、逆の場合、小さくなる。予め設定された幾何学図形は、目標対象に対応する結像輪郭として、その大きさ寸法が一定であり、既知の条件である。このため、目標対象の結像がちょうど幾何学図形と重なる場合、両者の大きさ寸法が一致すると見なせる。この時、実験データから目標対象と距離センサとの間の真の距離を知ることができる。この真の距離は、すなわちシステムにより目標対象に対して予め設定されたキャリブレーション距離D0である。
キャリブレーションが必要な場合、例えばユーザが1元コインを目標対象として使用する場合、距離センサの第二の測定値D2を取得する。
以上の記述から分かるように、本開示の実施例では、ユーザが選択した目標対象に応じて距離センサをキャリブレーションすることができ、それによりキャリブレーションの難易度が簡易化され、ユーザの操作が便利になり、ユーザの体験が向上する。

Claims (16)

  1. 端末機器に用いられるパラメータ取得方法であって、
    撮像プレビュー画面において目標対象のプレビュー画像を取得することと、
    前記プレビュー画像と前記撮像プレビュー画面におけるキャリブレーション領域との重なり度合いが閾値を超える場合、距離センサの第一の測定値を取得することと、
    前記目標対象と前記端末機器との間のキャリブレーション距離を取得することと、
    前記第一の測定値と前記キャリブレーション距離とに基づいて、前記目標対象に対応するキャリブレーションオフセット量を取得することとを含む、パラメータ取得方法。
  2. 前述した、前記第一の測定値と前記キャリブレーション距離とに基づいて、前記目標対象に対応するキャリブレーションオフセット量を取得することは、
    前記第一の測定値と前記キャリブレーション距離との差の値を前記キャリブレーションオフセット量とすることを含む、請求項1に記載の方法。
  3. 前述した、前記目標対象に対応するキャリブレーションオフセット量を取得した後に、前記方法は、
    距離センサの第二の測定値を取得することと、
    前記第二の測定値と前記キャリブレーションオフセット量とに基づいて、キャリブレーション後の第二の測定値を取得することとをさらに含む、請求項1に記載の方法。
  4. 前述した、前記第二の測定値と前記キャリブレーションオフセット量とに基づいて、キャリブレーション後の第二の測定値を取得することは、
    前記第二の測定値と前記キャリブレーションオフセット量との差の値をキャリブレーション後の第二の測定値とすることを含む、請求項3に記載の方法。
  5. 前述した、前記目標対象と前記端末機器との間のキャリブレーション距離を取得することは、
    前記目標対象を識別することと、
    対象とキャリブレーション距離との対応関係に基づいて、前記目標対象と前記端末機器との間のキャリブレーション距離を取得することとを含む、請求項1に記載の方法。
  6. 前述した、目標対象のプレビュー画像を取得する前に、前記方法は、
    前記目標対象を識別することと、
    前記撮像プレビュー画面に前記目標対象の形状に合うキャリブレーション領域を表示することとをさらに含む、請求項1に記載の方法。
  7. 前述した、目標対象のプレビュー画像を取得した後に、前記方法は、
    前記プレビュー画像が前記キャリブレーション領域と重なるように前記目標対象を移動させるようユーザに提示するための第一の提示情報を表示することと、
    予め設定された特徴を有する目標対象を選択するようユーザに提示するための第二の提示情報を表示することのうちの少なくとも一つをさらに含む、請求項1に記載の方法。
  8. 撮像プレビュー画面において目標対象のプレビュー画像を取得するための第一の取得モジュールと、
    前記プレビュー画像と前記撮像プレビュー画面におけるキャリブレーション領域との重なり度合いが閾値を超える場合、距離センサの第一の測定値を取得するための第二の取得モジュールと、
    前記目標対象と前記端末機器との間のキャリブレーション距離を取得するための第三の取得モジュールと、
    前記第一の測定値と前記キャリブレーション距離とに基づいて、前記目標対象に対応するキャリブレーションオフセット量を取得するための第四の取得モジュールとを含む、端末機器。
  9. 前記第四の取得モジュールは、具体的に、前記第一の測定値と前記キャリブレーション距離との差の値を前記キャリブレーションオフセット量とするために用いられる、請求項8に記載の端末機器。
  10. 距離センサの第二の測定値を取得するための第五の取得モジュールと、
    前記第二の測定値と前記キャリブレーションオフセット量とに基づいて、キャリブレーション後の第二の測定値を取得するためのキャリブレーションモジュールとをさらに含む、請求項8に記載の端末機器。
  11. 前記キャリブレーションモジュールは、具体的に、前記第二の測定値と前記キャリブレーションオフセット量との差の値をキャリブレーション後の第二の測定値とするために用いられる、請求項10に記載の端末機器。
  12. 前記第三の取得モジュールは、
    前記目標対象を識別するための識別サブモジュールと、
    対象とキャリブレーション距離との対応関係に基づいて、前記目標対象と前記端末機器との間のキャリブレーション距離を取得するための取得サブモジュールとを含む、請求項8に記載の端末機器。
  13. 前記目標対象を識別するための識別モジュールと、
    前記撮像プレビュー画面に前記目標対象の形状に合うキャリブレーション領域を表示するための第一の表示モジュールとをさらに含む、請求項8に記載の端末機器。
  14. 前記プレビュー画像が前記キャリブレーション領域と重なるように前記目標対象を移動させるようユーザに提示するための第一の提示情報を表示するための第二の表示モジュールと、
    予め設定された特徴を有する目標対象を選択するようユーザに提示するための第二の提示情報を表示するための第三の表示モジュールのうちの少なくとも一つのモジュールをさらに含む、請求項8に記載の端末機器。
  15. メモリ、プロセッサ、及び、メモリに記憶され、且つプロセッサ上で運行できるコンピュータプログラムを含み、前記プロセッサが前記コンピュータプログラムを実行する時、請求項1~7のいずれか1項に記載のパラメータ取得方法におけるステップを実現させる、端末機器。
  16. コンピュータプログラムが記憶されており、前記コンピュータプログラムがプロセッサによって実行される時、請求項1~7のいずれか1項に記載のパラメータ取得方法におけるステップを実現させる、コンピュータ可読記憶媒体。
JP2021563406A 2019-04-26 2020-04-16 パラメータ取得方法及び端末機器 Active JP7303900B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910343628.4 2019-04-26
CN201910343628.4A CN110113528B (zh) 2019-04-26 2019-04-26 一种参数获取方法及终端设备
PCT/CN2020/085177 WO2020216129A1 (zh) 2019-04-26 2020-04-16 参数获取方法及终端设备

Publications (2)

Publication Number Publication Date
JP2022530144A true JP2022530144A (ja) 2022-06-27
JP7303900B2 JP7303900B2 (ja) 2023-07-05

Family

ID=67486869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021563406A Active JP7303900B2 (ja) 2019-04-26 2020-04-16 パラメータ取得方法及び端末機器

Country Status (8)

Country Link
US (1) US11769273B2 (ja)
EP (1) EP3962060A4 (ja)
JP (1) JP7303900B2 (ja)
CN (1) CN110113528B (ja)
AU (1) AU2020263183B2 (ja)
BR (1) BR112021021120A2 (ja)
CA (1) CA3136987A1 (ja)
WO (1) WO2020216129A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110113528B (zh) * 2019-04-26 2021-05-07 维沃移动通信有限公司 一种参数获取方法及终端设备
CN112136312A (zh) * 2019-10-21 2020-12-25 深圳市大疆创新科技有限公司 一种获取目标距离的方法、控制装置及移动平台
CN110830717B (zh) * 2019-11-12 2021-06-25 维沃移动通信有限公司 一种参数值的获取方法及电子设备
CN113565779B (zh) * 2020-04-28 2023-08-11 广东美的环境电器制造有限公司 一种校准方法、装置、风扇及存储介质
CN112607362B (zh) * 2020-12-24 2022-04-26 中建材信息技术股份有限公司 一种基于视频的皮带偏移检测方法
CN113068154A (zh) * 2021-03-17 2021-07-02 恒大新能源汽车投资控股集团有限公司 车辆信息安全处理方法及装置、系统
CN115278060B (zh) * 2022-07-01 2024-04-09 北京五八信息技术有限公司 一种数据处理方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120105585A1 (en) * 2010-11-03 2012-05-03 Microsoft Corporation In-home depth camera calibration
CN103941310A (zh) * 2014-04-09 2014-07-23 苏州佳世达电通有限公司 近距离传感器的校正方法及系统
JP2017068763A (ja) * 2015-10-01 2017-04-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および位置情報取得方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4207980B2 (ja) 2006-06-09 2009-01-14 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
US7701567B2 (en) * 2008-03-06 2010-04-20 Hong Kong Applied Science & Technology Research Institute Co., Ltd. Optoelectronic distance sensor
EP2279452B1 (en) * 2008-05-19 2015-09-30 Canon Kabushiki Kaisha Image pickup system and lens apparatus
US8654195B2 (en) 2009-11-13 2014-02-18 Fujifilm Corporation Distance measuring apparatus, distance measuring method, distance measuring program, distance measuring system, and image pickup apparatus
CN102650691B (zh) * 2011-02-24 2014-01-22 原相科技股份有限公司 具校正功能的测距系统与方法
DE102012103495B8 (de) * 2012-03-29 2014-12-04 Sick Ag Optoelektronische Vorrichtung zur Vermessung von Struktur- oder Objektgrößen und Verfahren zur Kalibrierung
CN102946514B (zh) * 2012-11-08 2014-12-17 广东欧珀移动通信有限公司 移动终端的自拍方法和装置
CN103134489B (zh) * 2013-01-29 2015-12-23 北京凯华信业科贸有限责任公司 基于移动终端进行目标定位的方法
CN203151603U (zh) * 2013-02-06 2013-08-21 上海诺行信息技术有限公司 移动终端的距离传感器校准装置
KR20140123302A (ko) * 2013-04-12 2014-10-22 삼성전자주식회사 영상 처리 장치 및 그 제어방법
KR102207026B1 (ko) * 2013-08-22 2021-01-22 비스포크, 인코포레이티드 커스텀 제품을 생성하기 위한 방법 및 시스템
KR101569268B1 (ko) * 2014-01-02 2015-11-13 아이리텍 잉크 얼굴 구성요소 거리를 이용한 홍채인식용 이미지 획득 장치 및 방법
US10062180B2 (en) * 2014-04-22 2018-08-28 Microsoft Technology Licensing, Llc Depth sensor calibration and per-pixel correction
WO2016030925A1 (ja) * 2014-08-27 2016-03-03 株式会社ニコンビジョン 測距計および測距方法
US9869544B2 (en) * 2014-08-29 2018-01-16 Blackberry Limited Method to determine length and area measurements within a smartphone camera image
CN105100620B (zh) * 2015-07-30 2018-05-25 深圳市永兴元科技股份有限公司 拍摄方法及装置
CN105222788B (zh) * 2015-09-30 2018-07-06 清华大学 基于特征匹配的飞行器航路偏移误差的自校正方法
CN105245790B (zh) 2015-10-15 2019-04-26 Oppo广东移动通信有限公司 一种补光方法、装置及移动终端
CN105866781B (zh) * 2016-03-24 2020-09-25 联想(北京)有限公司 一种数据处理方法和电子设备
KR102384875B1 (ko) * 2016-05-11 2022-04-08 삼성전자주식회사 거리 센서의 칼리브레이션 방법, 장치 및 시스템
JP6088094B1 (ja) * 2016-06-20 2017-03-01 株式会社Cygames 複合現実環境を作成するためのシステム等
US10560679B2 (en) * 2016-08-30 2020-02-11 Microsoft Technology Licensing, Llc Deformation detection and automatic calibration for a depth imaging system
CN108225278A (zh) * 2017-11-29 2018-06-29 维沃移动通信有限公司 一种测距方法、移动终端
CN109257539B (zh) * 2018-10-15 2021-01-12 昆山丘钛微电子科技有限公司 一种对焦方法、装置、电子设备及计算机可读存储介质
CN110113528B (zh) * 2019-04-26 2021-05-07 维沃移动通信有限公司 一种参数获取方法及终端设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120105585A1 (en) * 2010-11-03 2012-05-03 Microsoft Corporation In-home depth camera calibration
CN103941310A (zh) * 2014-04-09 2014-07-23 苏州佳世达电通有限公司 近距离传感器的校正方法及系统
JP2017068763A (ja) * 2015-10-01 2017-04-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および位置情報取得方法

Also Published As

Publication number Publication date
CA3136987A1 (en) 2020-10-29
CN110113528A (zh) 2019-08-09
EP3962060A4 (en) 2022-06-22
US11769273B2 (en) 2023-09-26
AU2020263183B2 (en) 2023-01-05
CN110113528B (zh) 2021-05-07
BR112021021120A2 (pt) 2021-12-14
AU2020263183A1 (en) 2021-11-11
EP3962060A1 (en) 2022-03-02
WO2020216129A1 (zh) 2020-10-29
US20220036588A1 (en) 2022-02-03
JP7303900B2 (ja) 2023-07-05

Similar Documents

Publication Publication Date Title
JP2022530144A (ja) パラメータ取得方法及び端末機器
CN109743498B (zh) 一种拍摄参数调整方法及终端设备
CN109862504B (zh) 一种显示方法及终端设备
WO2021013009A1 (zh) 拍照方法和终端设备
CN109710349B (zh) 一种截屏方法及移动终端
JP7329150B2 (ja) タッチボタン、制御方法及び電子機器
WO2020221009A1 (zh) 扫码方法及移动终端
CN107741814B (zh) 一种显示控制方法及移动终端
JP2022554381A (ja) 情報表示、送信方法及び電子機器
WO2021190387A1 (zh) 检测结果输出的方法、电子设备及介质
CN109144393B (zh) 一种图像显示方法及移动终端
CN108108113B (zh) 网页切换方法及装置
CN111405181B (zh) 调焦的方法及电子设备
US11856294B2 (en) Electronic device and focusing method for electronic device
WO2020156119A1 (zh) 应用程序界面调整方法及移动终端
CN111399792A (zh) 一种内容共享方法及电子设备
CN109472825B (zh) 一种对象搜索方法及终端设备
CN110456959B (zh) 一种终端的控制方法和终端
CN111107271B (zh) 拍摄方法及电子设备
CN110471068B (zh) 接近检测方法及移动终端
CN110086916B (zh) 拍照方法及终端
CN109257543B (zh) 拍摄模式控制方法及移动终端
CN108646384B (zh) 一种对焦方法、装置及移动终端
CN109375232B (zh) 一种距离测量方法及装置
CN111460982B (zh) 人脸识别方法和电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230623

R150 Certificate of patent or registration of utility model

Ref document number: 7303900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150