JP2023502414A - 対象表示方法及び電子機器 - Google Patents

対象表示方法及び電子機器 Download PDF

Info

Publication number
JP2023502414A
JP2023502414A JP2022529302A JP2022529302A JP2023502414A JP 2023502414 A JP2023502414 A JP 2023502414A JP 2022529302 A JP2022529302 A JP 2022529302A JP 2022529302 A JP2022529302 A JP 2022529302A JP 2023502414 A JP2023502414 A JP 2023502414A
Authority
JP
Japan
Prior art keywords
image
electronic device
objects
target
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022529302A
Other languages
English (en)
Other versions
JP7371254B2 (ja
Inventor
周明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Co Ltd
Original Assignee
Vivo Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Co Ltd filed Critical Vivo Mobile Communication Co Ltd
Publication of JP2023502414A publication Critical patent/JP2023502414A/ja
Application granted granted Critical
Publication of JP7371254B2 publication Critical patent/JP7371254B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/689Motion occurring during a rolling shutter mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

本発明の実施例は、対象表示方法及び電子機器を提供し、通信技術分野に関する。当該技術手段は、第1カメラによって収集した画像である第1画像を表示している場合に、第2カメラによって収集した画像である第2画像を取得するステップであって、第1画像と第2画像にはそれぞれ複数の対象を含み、複数の対象が複数の第1実体対象の画像であり、第2画像の解像度が第1画像の解像度より大きいステップと、第2画像により、第1画像における複数の対象のうちのM個の目標対象を指示するための少なくとも1つの識別子を第1画像に表示するステップであって、Mが正の整数であるステップと、第1画像におけるM個の目標対象のうちの第1対象に対する第1入力を受け付けるステップと、第1入力に応じ、第2画像における第1対象を拡大表示するステップとを含む。【選択図】図2

Description

関連出願の相互参照
本願は、2019年11月25日に中国で出願した中国特許出願番号No.201911167320.5の優先権を主張し、その全ての内容が参照によって本願に組み込まれる。
本発明の実施例は、通信技術分野に関し、特に、対象表示方法及び電子機器に関するものである。
電子機器のスマート化程度が絶えず高まるに伴い、電子機器中のアプリケーションプログラムの機能も多くなってきている傾向がある。
電子機器中のギャラリーアプリケーションプログラム(以下、ギャラリーアプリケーションと称する)を例とすると、現在、ユーザはギャラリーアプリケーションによって写真をチェックする時に、写真におけるある対象の拡大後の表示効果をチェックする必要がある場合に、当該対象に入力を実行して電子機器による当該対象の拡大表示をトリガでき、これによって、ユーザは当該対象の拡大後の表示効果をチェックできる。
しかしながら、上記プロセスでは、電子機器がある対象を拡大表示した後、当該対象の画像解像度が低くなって、電子機器による当該対象の拡大表示効果が悪くなってしまう。
本発明の実施例は、電子機器が写真におけるある対象を拡大表示した時に、表示効果が悪いという問題を解決するために、対象表示方法及び電子機器を提供する。
上記技術的問題を解決するために、本願は下記のように実現する。
第1態様において、本発明の実施例は、電子機器に用いられる対象表示方法において、第1画像を表示している場合に、第2画像を取得するステップと、第2画像により、第1画像に少なくとも1つの識別子を表示するステップと、第1画像におけるM個の目標対象のうちの第1対象に対する第1入力を受け付けるステップと、第1入力に応じ、第2画像における第1対象を拡大表示するステップとを含む対象表示方法を提供する。その中で、当該第1画像が第1カメラによって収集した画像であり、当該第2画像が第2カメラによって収集した画像であり、当該第1画像と第2画像にはそれぞれ複数の対象を含み、当該複数の対象が複数の第1実体対象の画像であり、当該第2画像の解像度が第1画像の解像度より大きく、当該少なくとも1つの識別子が第1画像における複数の対象のうちのM個の目標対象を指示するためのものであり、Mが正の整数である。
第2態様において、本発明の実施例は、取得モジュール、処理モジュール及び受付モジュールを含んでよい電子機器を提供する。その中で、取得モジュールは、第1カメラによって収集した画像である第1画像を表示している場合に、第2カメラによって収集した画像である第2画像を取得するように構成され、当該第1画像と第2画像にはそれぞれ複数の対象を含み、当該複数の対象が複数の第1実体対象の画像であり、当該第2画像の解像度が第1画像の解像度より大きい。処理モジュールは、取得モジュールの取得した第2画像により、第1画像における複数の対象のうちのM個の目標対象を指示するための少なくとも1つの識別子を第1画像に表示するように構成され、Mが正の整数である。受付モジュールは、ユーザの、処理モジュールの表示した第1画像におけるM個の目標対象のうちの第1対象に対する第1入力を受け付けるように構成される。処理モジュールは、更に、受付モジュールの受け付けた第1入力に応じ、第2画像における第1対象を拡大表示するように構成される。
第3態様において、本発明の実施例は、プロセッサと、メモリと、メモリに記憶され且つプロセッサにおいて実行可能なコンピュータプログラムとを備える電子機器において、当該コンピュータプログラムがプロセッサにより実行されると、上記第1態様における対象表示方法のステップを実現する電子機器を提供する。
第4態様において、本発明の実施例は、コンピュータプログラムを記憶するコンピュータ可読記憶媒体において、当該コンピュータプログラムがプロセッサにより実行されると、上記第1態様における対象表示方法のステップを実現するコンピュータ可読記憶媒体を提供する。
本発明の実施例では、電子機器は第1カメラによって収集した、複数の対象を含む第1画像を表示している場合に、第2カメラによって収集した、複数の対象を含む第2画像を取得でき(当該複数の対象が複数の第1実体対象の画像であり、当該第2画像の解像度が第1画像の解像度より大きい)、また、電子機器は第2画像により、第1画像における複数の対象のうちのM(Mが正の整数である)個の目標対象を指示するための少なくとも1つの識別子を第1画像に表示でき、続いて、電子機器は、ユーザの第1画像におけるM個の目標対象のうちの第1対象に対する第1入力を受け付け、第1入力に応じ、第2画像における第1対象を拡大表示することができる。当該技術手段によれば、ユーザは第1画像における複数の対象のうちのある目標対象の拡大後の表示効果をチェックする必要がある場合に、電子機器は当該複数の目標対象を含む第2画像を取得し、第2画像における当該目標対象を拡大表示することができ、第2画像の解像度が第1画像の解像度より大きいので、電子機器は第2画像における当該目標対象を拡大表示する時に、好適な表示効果で当該目標対象を拡大表示することを確保できる。
本発明の実施例によるAndroidオペレーティングシステムのアーキテクチャ模式図である。 本発明の実施例による対象表示方法の第1模式図である。 本発明の実施例による対象表示方法のアプリケーションの第1画面模式図である。 本発明の実施例による対象表示方法のアプリケーションの第2画面模式図である。 本発明の実施例による対象表示方法の第2模式図である。 本発明の実施例による対象表示方法のアプリケーションの第3画面模式図である。 本発明の実施例による電子機器の構造模式図である。 本発明の実施例による電子機器のハードウェア模式図である。
以下において、本発明の実施例における図面を参照しながら、本発明の実施例における技術的解決手段を明確に、完全に説明し、当然ながら、説明される実施例は本発明の実施例の一部であり、全ての実施例ではない。本発明における実施例に基づき、当業者が創造的な労力を要することなく得られた他の全ての実施例は、いずれも本願の保護範囲に属するものとする。
本明細書における技術用語の「及び/又は」は、関連対象の関連関係を記述するためのものであり、3つの関係が存在可能であることを示し、例えば、A及び/又はBは、Aのみが存在すること、AとBが同時に存在すること、及びBのみが存在することの3つの場合を示してもよい。本明細書における符号の「/」は、関連する対象物の間の「又は」の関係を示し、例えば、A/BはA又はBを示す。
本明細書における「第1」、「第2」等の技術用語は、対象の特定の順序を記述するものではなく、異なる対象を区別するためのものである。例えば、第1入力、第2入力等は、入力の特定の順序を記述するものではなく、異なる入力を区別するためのものである。
本発明の実施例において、「例示的」又は「例えば」等の用語は、例、例証又は説明を示すためのものである。本発明の実施例において、「例示的」又は「例えば」で述べられるあらゆる実施例又は設計方案は、他の実施例又は設計方案よりも好ましい又は優位的であると解釈されるべきではない。厳密に言えば、「例示的」又は「例えば」等の用語は具体的な形態で関連概念を示す目的で使用される。
本発明実施例の説明では、特に断らない限り、「複数」の意味は2つ又は2つ以上ということであり、例えば、複数の要素とは、2つ又は2つ以上の要素等を意味する。
本発明の実施例は、画像における対象を拡大表示する場合に用いられる対象表示方法及び電子機器を提供する。具体的には、電子機器は第1カメラによって収集した、複数の対象を含む第1画像を表示している場合に、第2カメラによって収集した、複数の対象を含む第2画像を取得でき(当該複数の対象が複数の第1実体対象の画像であり、当該第2画像の解像度が第1画像の解像度より大きい)、また、電子機器は第2画像により、第1画像における複数の対象のうちのM(Mが正の整数である)個の目標対象を指示するための少なくとも1つの識別子を第1画像に表示でき、続いて、電子機器は、ユーザの第1画像におけるM個の目標対象のうちの第1対象に対する第1入力を受け付け、第1入力に応じ、第2画像における第1対象を拡大表示することができる。当該技術手段によれば、ユーザは第1画像における複数の対象のうちのある目標対象の拡大後の表示効果をチェックする必要がある場合に、電子機器は当該複数の対象を含む第2画像を取得し、第2画像における当該目標対象を拡大表示することができ、第2画像の解像度が第1画像の解像度より大きいので、電子機器は第2画像における当該目標対象を拡大表示する時に、好適な表示効果で当該目標対象を拡大表示することを確保できる。
本発明の実施例における電子機器は、オペレーティングシステムを有する電子機器であってもよい。該オペレーティングシステムは、アンドロイド(Android)オペレーティングシステムであってもよく、iosオペレーティングシステムであってもよく、他の可能なオペレーティングシステムであってもよく、本発明の実施例では具体的に限定しない。
以下において、Androidオペレーティングシステムを例にして、本発明の実施例によって提供される対象表示方法が適用されるソフトウェア環境を説明する。
図1は、本発明の実施例による可能な一Androidオペレーティングシステムのアーキテクチャ模式図である。図1において、Androidオペレーティングシステムのアーキテクチャは4つの層を含み、それぞれアプリケーション層、アプリケーションフレームワーク層、システム実行ライブラリ層及びカーネル層(具体的に、Linuxカーネル層であってもよい)である。
アプリケーション層は、Androidオペレーティングシステム内の各アプリケーション(システムアプリケーションと第三者アプリケーションを含む)を含む。例示的に、アプリケーション層は本発明の実施例における画像表示アプリケーションプログラム、例えば、ギャラリーアプリケーションプログラム、カメラアプリケーションプログラム、ショッピング類アプリケーションプログラム及び通信類アプリケーションプログラム等の任意の可能な画像表示アプリケーションプログラムを含んでもよい。
アプリケーションフレームワーク層は、アプリケーションのフレームワークであり、開発者は、アプリケーションフレームワークの開発原則を遵守するうえで、アプリケーションフレームワーク層に基づいて幾つかのアプリケーションを開発することができる。例えば、アプリケーションフレームワーク層に基づいて本発明の実施例における画像表示アプリケーションを開発することができる。
一般的には、本発明の実施例における画像表示アプリケーションプログラムは、ユーザによる画像表示トリガ入力の検出、表示される画像における対象の認識、画像における対象の抽出、識別子の生成等を行うための、電子機器のバックグラウンドで実行される画像表示サービス(service)と、電子機器ディスプレイに表示される内容、例えば電子機器ディスプレイに表示される画像といった2部分を含んでもよい。
システム実行ライブラリ層は、ライブラリ(システムライブラリとも呼ばれる)とAndroidオペレーティングシステム実行環境を含む。ライブラリは主として、Androidオペレーティングシステムに必要な各種リソースを提供するものである。Androidオペレーティングシステム実行環境は、Androidオペレーティングシステムにソフトウェア環境を提供するためのものである。
カーネル層は、Androidオペレーティングシステムのオペレーティングシステム層であり、Androidオペレーティングシステムのソフトウェア階層の最下位層である。カーネル層は、Linuxカーネルをもとに、Androidオペレーティングシステムにコアシステムサービスとハードウェア関連のドライバプログラムを提供する。
Androidオペレーティングシステムを例にし、本発明の実施例において、開発者は、上述した図1に示すAndroidオペレーティングシステムのシステムアーキテクチャをもとに、本発明の実施例によって提供される対象表示方法を実現するソフトウェアプログラムを開発することができ、それによって、該対象表示方法は、図1に示すようなAndroidオペレーティングシステムのもとで実行可能となる。つまり、プロセッサ又は電子機器は、Androidオペレーティングシステムにおいて該ソフトウェアプログラムを実行することで本発明の実施例によって提供される対象表示方法を実現することができる。
本発明の実施例における電子機器は、可動型の電子機器であっても、又は非可動型の電子機器であってもよい。例示的に、可動型の電子機器は、携帯電話、タブレットコンピュータ、ノートパソコン、携帯情報端末、車載端末、ウェアラブル機器、ウルトラモバイルパーソナルコンピュータ(ultra-mobile personal computer,UMPC)、ネットブック又はパーソナルディジタルアシスタント(personal digital assistant,PDA)等であってもよく、非可動型の電子機器は、パーソナルコンピュータ(personal computer,PC)、テレビジョン(television,TV)、現金自動預払機又はキオスク等であってもよく、本発明の実施例では具体的に限定しない。
本発明の実施例による対象表示方法の実行主体は上記の電子機器であってもよく、当該電子機器における当該対象表示方法を実現可能な機能モジュール及び/又は機能実体であってもよく、具体的には実際の使用ニーズに応じて決定可能であり、本発明の実施例は限定しない。以下、電子機器を例として、本発明の実施例による対象表示方法を例示的に説明する。
本発明の実施例では、電子機器は複数のカメラを設置した電子機器であってよい。複数のカメラ(例えば、本発明の実施例における第1カメラと第2カメラを含む)を設置した電子機器においては、電子機器は画像を収集する時に、それぞれ第1カメラと第2カメラによって画像を収集して、第1画像と第2画像を得ることができる。一般的には、第1カメラの収集した第1画像は電子機器内であってユーザが見える位置(例えば、ギャラリーアプリケーションプログラムの中)に保存可能であり、即ち、ユーザはギャラリーアプリケーションプログラムとのインタラクションによって第1画像をチェック可能であり、第2カメラの収集した第2画像はサーバ又は電子機器内であってユーザが見えない位置に保存可能であり、即ち、ユーザは第2画像をチェックできない。ユーザは、第1画像におけるある目標対象の拡大後の表示効果をチェックする必要がある時に、電子機器がサーバ又は電子機器から第2画像を取得することをトリガし(例えば、電子機器の対象分析拡大モードへの移行をトリガすることによってトリガする)、且つ第2画像から目標対象を認識し、続いて、所定倍数で当該目標対象を拡大し、最後に拡大後の当該目標対象を表示することができ、即ち、電子機器は第2画像における当該目標対象を拡大表示できる。このようにして、第2画像の解像度が第1画像の解像度より大きいので、電子機器は第2画像における当該目標対象を拡大表示する時に、好適な表示効果で当該目標対象を拡大表示することを確保できる。
以下、具体的に各図面を参照しながら本発明の実施例による対象表示方法を例示的に説明する。
図2に示すように、本発明の実施例は対象表示方法を提供し、当該方法は下記のS201-S204を含んでよい。
S201で、電子機器は第1画像を表示している場合に、第2画像を取得する。
例示的に、第1画像がギャラリーアプリケーションプログラム中の画像であると仮定すると、ユーザは電子機器がフォアグラウンドでギャラリーアプリケーションプログラムを実行することをトリガでき、電子機器はフォアグラウンドでアプリケーションプログラムを実行している場合に、電子機器のディスプレイにギャラリーアプリケーションプログラムの画面を表示できる。続いて、ユーザは当該画面上で操作してギャラリーアプリケーションプログラムとのインタラクションを行うことによって、電子機器のディスプレイに第1画像を表示させることができる。また、電子機器は電子機器が第1画像を収集する時に収集した第2画像を取得できる。
その中で、上記第1画像は電子機器が第1カメラによって収集した画像であってよく、第2画像は電子機器が第2カメラによって収集した画像であってよい。
選択可能に、本発明の実施例では、上記第2カメラの焦点距離が第1カメラの焦点距離より大きい。即ち、第2カメラと第1カメラを比較すると、第2カメラは長焦点距離カメラであってよく、第1カメラは短焦点距離カメラであってよい。例えば、第1カメラは広角カメラであってよい。
選択可能に、本発明の実施例では、電子機器は広角カメラを用いて画像を収集するようにデフォルトしてよく、即ち、一般的には、ユーザは電子機器による画像の収集をトリガする時に、電子機器が長焦点距離カメラを選択することをトリガする以外に、電子機器は優先的に短焦点距離カメラ(例えば、上記の広角カメラ)によって画像を収集してもよい。
選択可能に、本発明の実施例では、上記第2画像は、ユーザが電子機器の第1カメラによる第1画像の収集をトリガした場合に電子機器が第2カメラによって収集し保存する画像であってよい。具体的には、可能な一実現形態では、ユーザが電子機器の第1カメラによる第1画像の収集をトリガした時に、電子機器は自動で第2カメラによって第2画像を収集し保存することができる。別の可能な実現形態では、ユーザが電子機器の第1カメラによる第1画像の収集をトリガした後、電子機器は自動で第2カメラによって第2画像を収集し保存することができる。
選択可能に、本発明の実施例では、第1画像と第2画像にはそれぞれ複数の対象を含んでよく、その中で、当該複数の対象は複数の第1実体対象の画像であってよい。即ち、上記第1画像と第2画像は収集された、同一領域にある複数の第1実体対象の画像であってよく、つまり、第1カメラが第1画像を収集する領域と第2カメラが第2画像を収集する領域は同一領域であってよい。当然ながら、上記同一領域がただ理論的な概念であり、実際に実現する際に、2つの領域間に偏り(この偏りが許容範囲にあってよい)が存在するのが許容可能であることを理解できる。
本発明の実施例では、第1カメラが第1画像を収集する領域と第2カメラが第2画像を収集する領域が同じであっても、第1カメラと第2カメラの焦点距離が異なるので、複数の対象以外に、第1画像と第2画像には更に他の異なる対象を含むことも可能であり、即ち、複数の第1実体対象以外に、上記同一領域には更に他の異なる実体対象を含むことも可能であることを説明する必要がある。
本発明の実施例では、第1画像における各対象は第1画像対応領域(即ち、第1画像収集領域)中の各実体対象の第1画像での表示画像であってよく、第2画像における各対象は第2画像対応領域(即ち、第2画像収集領域)中の各実体対象の第2画像での表示画像であってよいことを理解可能である。例示的に、第1画像を例とすると、第1画像中の蜜蜂画像は第1画像対応領域にある「蜜蜂」の第1画像での表示画像であってよい。
選択可能に、本発明の実施例では、第2画像の解像度が第1画像の解像度より大きい。
第2カメラの焦点距離が第1カメラの焦点距離より大きい場合に、同一領域に対して、第2カメラによって収集した当該領域の画像の解像度が第1カメラによって収集した当該領域画像の解像度より大きいことを理解可能である。
S202で、電子機器は第2画像により、第1画像に少なくとも1つの識別子を表示する。
その中で、上記少なくとも1つの識別子は第1画像における複数の対象のうちのM個の目標対象を指示することに用いられる。具体的には、少なくとも1つの識別子のうちの各識別子は第1画像におけるM個の目標対象のうちの少なくとも1つの目標対象を指示することに用いられ、Mが正の整数である。
本発明の実施例では、M個の目標対象のうちのいくつかの目標対象に対応する実体対象が1つの小さい領域内にあることが可能であり(例えば、これらの目標対象に対応する実体対象間の距離が近い)、且つ第1画像が電子機器に表示されている時に、当該領域の第1画像での表示サイズが小さい(例えば、ユーザが第1画像において当該領域に対応するこれらの目標対象を肉眼で識別できない)ので、電子機器は上記少なくとも1つの識別子を表示する時に、当該領域に対応するこれらの目標対象に対して1つの識別子を表示でき、即ち、1つの識別子は当該領域に対応するこれらの目標対象を指示可能であることを説明する必要がある。
選択可能に、本発明の実施例では、上記電子機器は少なくとも1つの識別子を表示する時に、第1画像におけるM個の目標対象の所在領域に少なくとも1つの識別子を表示できる。例えば、電子機器は第1画像におけるある目標対象又はいくつかの目標対象の所在領域に1つの識別子を表示でき、これによってこの目標対象又はこれらいくつかの目標対象を指示する。
選択可能に、本発明の実施例では、上記S202は具体的には下記のS202a-S202bによって実現可能である。
S202aで、電子機器は目標属性情報により、第2画像における対象を認識し、第2画像におけるM個の目標対象を得る。
その中で、上記第2画像におけるM個の目標対象に対応する実体対象は目標属性情報の指示する属性に属するものであってよい。
例示的に、目標属性情報が動物属性である(即ち、動物を指示する)と仮定すれば、電子機器は動物属性により、第2画像における対象を認識し、第2画像における全ての動物画像を得、即ち第2画像におけるM個の目標対象を得ることができ、M個の目標対象のうちの各目標対象に対応する実体対象がいずれも動物に属する。又は、目標属性情報が人間属性である(即ち、人間を指示する)と仮定すれば、電子機器は人間属性により、第2画像における対象を認識し、第2画像における全ての人間画像を得、即ち第2画像におけるM個の目標対象を得ることができ、M個の目標対象のうちの各目標対象に対応する実体対象がいずれも人間属性に属する。
S202bで、電子機器は第2画像におけるM個の目標対象により、第1画像に少なくとも1つの識別子を表示する。
本発明の実施例では、電子機器は第2画像からM個の目標対象を得た後、第2画像におけるM個の目標対象により、第1画像に少なくとも1つの識別子を表示できる。
例示的に、目標属性情報が動物属性であると仮定し、図3中の(a)は電子機器が第1画像を表示した画面模式図を示し、図3中の(b)は電子機器が第2画像を表示した画面模式図を示す。その中で、第1画像の模式図と第2画像の模式図は第1画像と第2画像に同じ対象を含むことを例として例示されたものである。電子機器は動物属性により、第2画像における対象を認識し、第2画像における全ての動物画像を得た後、第1画像に図3中の(a)に示される31-35の示す識別子を表示できる。その中で、識別子31は動物画像1を指示してよく、識別子32は動物画像2を指示してよく、識別子33は動物画像3と動物画像4を指示してよく、識別子34は動物画像5を指示してよく、識別子35は動物画像6を指示してよい。動物画像3に対応する動物と動物画像4に対応する動物が1つの領域にあり、且つ動物画像3と動物画像4のプレビュー画像での表示サイズが小さいので、電子機器は動物画像3と動物画像4に対して1つの識別子33を表示できることを理解可能である。
選択可能に、本発明の実施例では、上記S202aは具体的には下記のS202a1-S202a2によって実現可能である。
S202a1で、電子機器は目標属性情報により、テンプレートライブラリから少なくとも1つのテンプレート画像を取得する。
その中で、上記少なくとも1つのテンプレート画像における対象に対応する実体対象は目標属性情報の指示する属性に属するものであってもよい。
例示的に、目標属性情報が動物属性であると仮定すれば、電子機器が動物属性によりテンプレートライブラリから取得する少なくとも1つのテンプレート画像における対象に対応する実体対象は動物属性に属するものである。
選択可能に、本発明の実施例では、電子機器とサーバとが接続されている場合に、電子機器はサーバのテンプレートライブラリから少なくとも1つのテンプレート画像を取得できる。電子機器とサーバとが接続されていない場合に、電子機器は電子機器のテンプレートライブラリから少なくとも1つのテンプレート画像を取得できる。その中で、サーバのテンプレートライブラリ中のテンプレート画像と電子機器のテンプレートライブラリ中のテンプレート画像はいずれも予め記憶されたテンプレート画像である。
S202a2で、電子機器は第2画像と少なくとも1つのテンプレート画像をマッチングして、第2画像における対象を認識する。
本発明の実施例では、電子機器は少なくとも1つのテンプレート画像を取得した後、第2画像と当該少なくとも1つのテンプレート画像をマッチングして、第2画像における対象を認識することができる。
選択可能に、本発明の実施例では、電子機器は第2画像に対応する特徴点と少なくとも1つのテンプレート画像に対応する特徴点をマッチングすることによって、第2画像における対象を認識できる。具体的には、電子機器は、先に第2画像から第2画像に対応する特徴点を抽出し、且つ少なくとも1つのテンプレート画像から少なくとも1つのテンプレート画像のうちの各テンプレート画像に対応する特徴点を抽出することができ、続いて、第2画像に対応する特徴点と各テンプレート画像に対応する特徴をそれぞれマッチングして、第2画像の対象を認識することができる。その中で、電子機器は画像処理アルゴリズムによって第2画像とテンプレート画像から特徴点を抽出できる。
選択可能に、上記画像処理アルゴリズムは顔認識アルゴリズム(顔認識)、クラスター分析アルゴリズム(実物認識)等の任意の可能な画像処理アルゴリズムであってよく、具体的には実際の使用ニーズに応じて決定可能であり、本発明の実施例は限定しない。
本発明の実施例では、電子機器は第2画像に対応する特徴点と取得された少なくとも1つのテンプレート画像のうちの各テンプレート画像に対応する特徴点により第2画像における対象を認識できるので、第2画像の対象を正確に認識して、第2画像におけるユーザの認識したい属性の対象を正確に認識できる。
S203で、電子機器は第1画像におけるM個の目標対象のうちの第1対象に対する第1入力を受け付ける。
本発明の実施例では、上記第1入力はユーザが第1対象を決定することに用いられ、即ち、ユーザは第1入力によって電子機器による第1対象の決定をトリガできる。
選択可能に、本発明の実施例では、上記第1入力はユーザの上記第1対象に対する入力であってよく、又は、第1入力はユーザの上記第1対象指示用の識別子に対する入力であってよい。具体的には実際の使用ニーズに応じて決定可能であり、本発明の実施例は限定しない。
具体的には、本発明の実施例では、上記少なくとも1つの識別子のうちの各識別子がそれぞれ1つの対象を指示する場合に、上記第1入力はユーザの第1対象に対する入力であってよく、又は、ユーザの第1対象指示用の識別子に対する入力であってよい。少なくとも1つの識別子のうちのある識別子が複数の対象を指示する場合に、可能な一実現形態では、ユーザは、先に当該識別子に入力を実行して、電子機器が当該識別子の指示する複数の対象を表示することをトリガでき、続いて、ユーザは更に当該複数の対象のうちの第1対象に第1入力を実行できる(このような場合に、第1対象が1つの対象である)。別の可能な実現形態では、ユーザは直接的に当該識別子に第1入力を実行できる(このような場合に、第1対象が複数の対象である)。
選択可能に、本発明の実施例では、上記第1入力はタップ入力、長押し入力又は高圧力押し入力等の任意の可能な形式の入力であってよい。具体的には実際の使用ニーズに応じて決定可能であり、本発明の実施例は限定しない。
その中で、上記タップ入力はシングルタップ入力、ダブルタップ入力又は所定回数タップ入力であってよい。上記長押し入力はユーザが第1対象又は第1対象を指示する識別子を時間閾値以上の時間で押す入力であってよい。上記高圧力押し入力はユーザが第1対象又は第1対象を指示する識別子を圧力閾値以上の圧力値で押す入力であってよい。
選択可能に、本発明の実施例では、上記所定回数、時間閾値、圧力閾値は電子機器において予め設定しておいた数値であってよく、当該所定回数、時間閾値、圧力閾値は電子機器のメーカーが電子機器において予め設定しておいたものであってよい。具体的には実際の使用ニーズに応じて決定可能であり、本発明の実施例は限定しない。
S204で、電子機器は第1入力に応じ、第2画像における第1対象を拡大表示する。
本発明の実施例では、電子機器はユーザの第1画像におけるM個の目標対象のうちの第1対象に対する第1入力を受け付けた後、第1入力に応じ、第2画像における第1対象を拡大表示できる。
例示的に、上記図3を参照にし、電子機器が第1画像に図3中の31-35に示すような識別子を表示した後、第1対象が図3中の識別子32の指示する対象であると仮定すると、ユーザが識別子32をタップした後、即ち電子機器がユーザの第1入力を受け付けた後、電子機器は第1入力に応じ、図4に示すように、第2画像(図3中の(b)に示す)における第1対象(図4中の40に示す)を拡大表示できる。
本発明の実施例では、ユーザは第1画像における複数の対象のうちのある目標対象の拡大後の表示効果をチェックする必要がある時に、電子機器は、当該複数の目標対象を含む第2画像を取得し、第2画像における当該目標対象を拡大表示することができ、第2画像の解像度が第1画像の解像度より大きいので、電子機器は第2画像における当該目標対象を拡大表示する時に、好適な表示効果で当該目標対象を拡大表示することを確保できる。
本発明の実施例では、第2画像は電子機器が長焦点距離カメラによって収集した画像であるので、電子機器は所定倍数で第2画像におけるある目標対象を拡大表示していても、依然として好適な表示効果で当該目標対象を拡大表示できる。
選択可能に、本発明の実施例では、電子機器が第1画像を表示している場合に、ユーザは第1画像におけるいくつかの目標対象の拡大後の表示効果をチェックする必要がある場合に、入力(例えば、下記の第2入力)によって、電子機器の対象分析拡大モードへの移行をトリガでき、続いて、電子機器は対象分析拡大モードで、自動で第2画像を取得できる。
例示的に、上記図2を参照にし、図5に示すように、上記S201の前に、本発明の実施例による対象表示方法は下記のS205を更に含んでよい。また、上記S201は具体的には下記のS201aによって実現可能である。
S205で、電子機器は対象分析拡大コントロールに対する第2入力を受け付ける。
選択可能に、本発明の実施例では、ユーザが電子機器によるギャラリーアプリケーションプログラムの実行をトリガした後、電子機器はフォアグラウンドでギャラリーアプリケーションプログラムを実行でき、また、ディスプレイにギャラリーアプリケーション画面(即ち、ギャラリーアプリケーションプログラムの画面)を表示できる。ギャラリーアプリケーション画面は少なくとも1つのコントロール(各コントロールはそれぞれ1種のモードを指示することに用いられる)を含んでよい。図6中の(a)に示すように、その中で、当該少なくとも1つのコントロールは対象分析拡大コントロールを含んでよい。当該対象分析拡大コントロールは対象分析拡大モードを指示することに用いられる。具体的には、対象分析拡大モードで、電子機器はユーザのニーズに応じて、電子機器から第2画像を取得し、且つ第2画像から目標対象を認識し、続いて所定倍数で当該目標対象を拡大し、最後に拡大後の当該目標対象を表示することができ、これによって、ユーザは当該目標対象の拡大後の表示効果をチェック可能になる。
選択可能に、本発明の実施例では、図6中の(a)に示すように、上記少なくとも1つのコントロールは美化コントロールとモザイクコントロール等の他の任意の可能なコントロールを更に含んでよい。その中で、美化コントロールは美化モードを指示することに用いられ、モザイクコントロールはモザイクモードを指示することに用いられる。その中で、美化モードで、電子機器は画像に美化操作を実行でき、モザイクモードで、電子機器は画像にモザイク操作を実行できる。
選択可能に、本発明の実施例では、上記第2入力は、具体的には、ユーザの対象分析拡大コントロールに対するタップ入力、長押し入力又は高圧力押し入力であってよく、ユーザの音声入力であってもよく、更にユーザのジェスチャ入力等の任意の可能な入力であってもよく、本発明の実施例は限定しない。
例示的に、上記音声入力はユーザが「対象分析拡大を行って」と話す等の任意の可能な音声入力であってよい。上記ジェスチャ入力は所定ジェスチャ入力と同じジェスチャ入力であってよい(当該所定ジェスチャ入力は本発明の実施例において第2画像を取得するために予め設定しておいたジェスチャ入力であってよいことを理解可能である)。
S201aで、電子機器は第1画像を表示している場合に、第2入力に応じ、第2画像を取得する。
本発明の実施例では、電子機器は第1カメラによって収集した第1画像を表示しており、且つユーザの対象分析拡大コントロールに対する第2入力を受け付けた場合に、第2入力に応じ、第2カメラによって収集した第2画像を取得できる。
選択可能に、本発明の実施例では、電子機器はユーザの対象分析拡大コントロールに対する第2入力を受け付けた後、第2入力に応じ、電子機器のギャラリーアプリケーションプログラムを対象分析拡大モードに制御できる。電子機器はユーザの対象分析拡大コントロールに対する第2入力を受け付けた後、ギャラリーアプリケーションプログラムを対象分析拡大モードに制御できることを理解可能である。
更に、電子機器は第1画像を表示しており、且つユーザの対象分析拡大コントロールに対する第2入力を受け付けた場合に、第2入力に応じ、電子機器のギャラリーアプリケーションプログラムを対象分析拡大モードに制御し、且つ第2画像を取得することができる。
ユーザが対象分析拡大コントロールに第2入力を実行した後(即ち、ギャラリーアプリケーションプログラムが対象分析拡大モードとなっている)、電子機器は第1カメラによって収集した第1画像を表示している場合に、第2カメラによって収集した第2画像を自動で取得できることを説明する必要がある。ギャラリーアプリケーションプログラムが対象分析拡大モードとなっていない時に、電子機器は第1カメラによって収集した第1画像を表示していても、第2カメラによって収集した第2画像を取得することがない。
本発明の実施例では、第2カメラが長焦点距離カメラであるので、電子機器の取得した、第2カメラによって収集した第2画像の解像度が高くて、電子機器による第2画像における対象の認識成功率が高い。このようにして、電子機器は第2画像における目標対象を正確に認識できる。また、第2画像の解像度が高いので、電子機器は第2画像におけるある目標対象を拡大表示していても、好適な表示効果で当該目標対象を拡大表示でき、これによってユーザが当該目標対象の拡大後の表示効果をチェックするニーズにより好適に対応できる。
更に、ギャラリーアプリケーションプログラムが対象分析拡大モードとなっている場合のみ、電子機器は第2カメラによって収集した第2画像を取得でき、即ち、ギャラリーアプリケーションプログラムが対象分析拡大モードとなっていない場合に、電子機器は第2カメラによって収集した第2画像を取得しないので、電子機器が不必要な収集操作を実行することを防止でき、更に電子機器の電力消費を節約できる。
選択可能に、本発明の実施例では、上記電子機器は目標属性情報により、第2画像における対象を認識する前に、先に少なくとも1つの属性オプションを表示でき、続いてユーザは少なくとも1つの属性オプションから目標属性オプションを選択でき、このように、電子機器は目標属性オプションの指示する目標属性情報により第2画像における対象を認識し、目標属性情報に対応する目標対象を得ることができる。
例示的に、上記S202aの前に、本発明の実施例による対象表示方法は更に下記のS206-S207を含んでよく、また、上記S202aは具体的には下記のS202a3によって実現可能である。
S206で、電子機器は少なくとも1つの属性オプションを表示する。
その中で、上記少なくとも1つの属性オプションのうちの各属性オプションはそれぞれ1つの属性情報を指示することに用いられる。
選択可能に、本発明の実施例では、上記少なくとも1つの属性オプションは動物オプション、植物オプション、人間オプション及び電子製品オプション等の任意の可能な属性オプションを含んでよい。具体的には実際の使用ニーズに応じて設置可能であり、本発明の実施例は限定しない。
本発明の実施例では、ユーザが上記少なくとも1つのコントロールから対象分析拡大コントロールを選択すると、即ち電子機器がユーザの第2入力を受け付けると、電子機器は第2入力に応じ、電子機器を対象分析拡大モードに制御できるだけでなく、少なくとも1つの属性オプションを表示でき、これによって、ユーザは当該少なくとも1つの属性オプションから1つの属性オプションを選択して、続いて、電子機器が第2画像において当該属性オプションに対応する対象(当該対象に対応する実体対象が当該属性オプションに対応する属性に属するものである)を認識することをトリガできる。
例示的に、少なくとも1つの属性オプションは動物オプション、植物オプション及び人間オプションを含むと仮定する。図6中の(a)は電子機器の表示するギャラリーアプリケーション画面の模式図を示す。その中で、当該画面には美化コントロール(図6中の(a)の60に示す)、モザイクコントロール(図6中の(a)の61に示す)及び対象分析拡大コントロール(図6中の(a)の62に示す)を含む。ユーザが対象分析拡大コントロール62を選択すると、即ち電子機器がユーザの第2入力を受け付けると、電子機器は第2入力に応じ、図6中の(b)に示すように、ギャラリーアプリケーションプログラムを対象分析拡大モードに制御し(図において対象分析拡大モードオプションを拡大表示することでギャラリーアプリケーションプログラムが既に対象分析拡大モードになったことを表す)、且つ動物オプション(図6中の(b)の63に示す)、植物オプション(図6中の(b)の64に示す)及び人間オプション(図6中の(b)の65に示す)を表示することができる。
S207で、電子機器はユーザの少なくとも1つの属性オプションのうちの目標属性オプションに対する第3入力を受け付ける。
その中で、上記目標属性オプションは目標属性情報を指示することに用いられる。
本発明の実施例では、上記第3入力は目標属性情報を決定することに用いられる。即ち、ユーザは少なくとも1つの属性オプションのうちの目標属性オプションに第3入力を実行して、電子機器による目標属性オプションの指示する目標属性情報の決定をトリガすることができる。
選択可能に、本発明の実施例では、上記第3入力は具体的にはユーザの目標属性オプションに対する入力であってよい。その中で、第3入力は具体的にはユーザの目標属性オプションに対するタップ入力、長押し入力又は高圧力押し入力等の任意の可能な形式の入力であってよい。具体的には実際の使用ニーズに応じて決定可能であり、本発明の実施例は限定しない。
タップ入力、長押し入力又は高圧力押し入力についての説明は上記実施例におけるタップ入力、長押し入力又は高圧力押し入力に対する関連説明を参照でき、繰り返して説明することを回避するために、ここで詳細な説明を省略する。
S202a3で、電子機器は第3入力に応じ、目標属性オプションの指示する目標属性情報により、第2画像における対象を認識し、第2画像におけるM個の目標対象を得る。
本発明の実施例では、電子機器はユーザの少なくとも1つの属性オプションのうちの目標属性オプションに対する第3入力を受け付けた後、第3入力に応じ、目標属性オプションの指示する目標属性情報により、第2画像における対象を認識して、第2画像におけるM個の目標対象を得ることができる。
目標属性情報により、第2画像における対象を認識するステップについての説明は上記S202a1-S202a2の説明を参照でき、繰り返して説明することを回避するために、ここで詳細な説明を省略することを説明する必要がある。
本発明の実施例では、ユーザがその実際の使用ニーズに応じてある属性オプションを選択可能なので、電子機器は第2画像における当該属性オプションの指示する属性情報に対応する対象を正確に認識でき、即ち、ユーザの認識したい対象を電子機器に正確に認識させて、電子機器がユーザの認識したくない他の対象を認識することを回避できる。
本発明の実施例では、上記各方法の図面に示す対象表示方法はいずれも本発明の実施例における一図面と結びつけて例示的に説明したものであることを説明する必要がある。具体的に実現する時に、上記各方法の図面に示す対象表示方法は更に上記実施例において示された他の結びつけ可能な任意の図面と結びつけて実現可能であり、ここで詳細な説明を省略する。
図7に示すように、本発明の実施例は取得モジュール401、処理モジュール402及び受付モジュール403を含んでよい電子機器400を提供する。その中で、取得モジュール401は、第1カメラによって収集した画像であってよい第1画像を表示している場合に、第2カメラによって収集した画像であってよい第2画像を取得するように構成されてよく、当該第1画像と第2画像にはそれぞれ複数の対象を含んでよく、当該複数の対象が複数の第1実体対象の画像であり、当該第2画像の解像度が第1画像の解像度より大きく、処理モジュール402は、取得モジュール401の取得した第2画像により、第1画像における複数の対象のうちのM個の目標対象を指示するための少なくとも1つの識別子を第1画像に表示するように構成されてよく、Mが正の整数であり、受付モジュール403は、処理モジュール402の表示した第1画像におけるM個の目標対象のうちの第1対象に対する第1入力を受け付けるように構成されてよく、処理モジュール402は、更に、受付モジュール403の受け付けた第1入力に応じ、第2画像における第1対象を拡大表示するように構成されてよい。
選択可能に、本発明の実施例では、上記受付モジュール403は、更に、取得モジュール401が第2画像を取得する前に、対象分析拡大コントロールに対する第2入力を受け付けるように構成されてよく、取得モジュール401は、具体的には、受付モジュール403の受け付けた第2入力に応じ、第2画像を取得するように構成されてよい。
選択可能に、本発明の実施例では、上記処理モジュール402は、具体的には、目標属性情報により、第2画像における対象を認識し、対応する実体対象が目標属性情報の指示する属性に属してよい、第2画像におけるM個の目標対象を得るステップと、第2画像におけるM個の目標対象により、第1画像に少なくとも1つの識別子を表示するステップとを実行するように構成されてよい。
選択可能に、本発明の実施例では、上記処理モジュール402は、更に、目標属性情報により、第2画像における対象を認識する前に、少なくとも1つの属性オプションを表示するように構成されてよく、当該少なくとも1つの属性オプションのうちの各属性オプションがそれぞれ1つの属性情報を指示することに用いられ、受付モジュール403は、更に、処理モジュール402の表示した少なくとも1つの属性オプションのうちの目標属性オプションに対する第3入力を受け付けるように構成されてよく、処理モジュール402は、具体的には、受付モジュール403の受け付けた第3入力に応じ、目標属性オプションの指示する目標属性情報により、第2画像における対象を認識するように構成されてよい。
選択可能に、本発明の実施例では、上記処理モジュール402は、具体的には、目標属性情報により、テンプレートライブラリから、その中の対象に対応する実体対象が目標属性情報の指示する属性に属してよい少なくとも1つのテンプレート画像を取得するステップと、第2画像と少なくとも1つのテンプレート画像をマッチングして、第2画像における対象を認識するステップとを実行するように構成されてよい。
選択可能に、本発明の実施例では、上記第2画像は第1カメラによる第1画像の収集をトリガした場合に第2カメラによって収集され保存される画像であってよい。
選択可能に、本発明の実施例では、上記第2カメラの焦点距離が第1カメラの焦点距離より大きくてよい。
本発明の実施例による電子機器は上記方法実施例において電子機器が実現する各工程を実現でき、繰り返して説明することを回避するために、ここで詳細な説明を省略する。
本発明の実施例は電子機器を提供し、電子機器は第1カメラによって収集した、複数の対象を含む第1画像を表示している場合に、第2カメラによって収集した、複数の対象を含む第2画像を取得でき(当該複数の対象が複数の第1実体対象の画像であり、当該第2画像の解像度が第1画像の解像度より大きい)、また、電子機器は第2画像により、第1画像における複数の対象のうちのM個の目標対象を指示するための少なくとも1つの識別子を第1画像に表示でき、続いて、電子機器は、ユーザの第1画像におけるM個の目標対象のうちの第1対象に対する第1入力を受け付け、第1入力に応じ、第2画像における第1対象を拡大表示することができる。当該技術手段によれば、ユーザは第1画像における複数の対象のうちのある目標対象の拡大後の表示効果をチェックする必要がある場合に、電子機器は当該複数の目標対象を含む第2画像を取得し、第2画像における当該目標対象を拡大表示することができ、第2画像の解像度が第1画像の解像度より大きいので、電子機器は第2画像における当該目標対象を拡大表示する時に、好適な表示効果で当該目標対象を拡大表示することを確保できる。
図8は本発明の各実施例を実現する電子機器のハードウェア模式図である。図8に示すように、当該電子機器100は高周波ユニット101、ネットワークモジュール102、オーディオ出力ユニット103、入力ユニット104、センサ105、表示ユニット106、ユーザ入力ユニット107、インタフェースユニット106、メモリ109、プロセッサ110、及び電源111等の部材を含むが、それらに限定されない。当業者であれば、図8に示す電子機器の構造は電子機器を限定するものではなく、電子機器は図示より多く又はより少ない部材、又は一部の部材の組合せ、又は異なる部材配置を含んでもよいことが理解可能である。本発明の実施例において、電子機器は、携帯電話、タブレットパソコン、ノートパソコン、携帯情報端末、車載端末、ウェアラブル機器、及び万歩計等を含むが、それらに限定されない。
その中で、プロセッサ110は、表示ユニット106が第1画像を表示している場合に、第2画像を取得し、第2画像により、第1画像に少なくとも1つの識別子を表示するように表示ユニット106を制御し、ユーザの第1画像におけるM個の目標対象のうちの第1対象に対する第1入力を受け付けるようにユーザ入力ユニット107を制御し、第1入力に応じ第2画像の第1対象を拡大表示するように構成されてよい。その中で、第1画像が第1カメラによって収集した画像であり、第2画像が第2カメラによって収集した画像であり、第1画像と第2画像にはそれぞれ複数の対象を含み、複数の対象が複数の第1実体対象の画像であり、第2画像の解像度が第1画像の解像度より大きく、少なくとも1つの識別子が第1画像における複数の対象のうちのM個の目標対象を指示するためのものであり、Mが正の整数である。
本発明の実施例では、上記電子機器の構造模式図(例えば、上記図7)における取得モジュール401と処理モジュール402がプロセッサ110によって実現可能であることを理解可能である。上記電子機器の構造模式図(例えば、上記図7)における受付モジュール403が上記ユーザ入力ユニット107によって実現可能である。
本発明の実施例は電子機器を提供し、電子機器は第1カメラによって収集した、複数の対象を含む第1画像を表示している場合に、第2カメラによって収集した、複数の対象を含む第2画像を取得でき(当該複数の対象が複数の第1実体対象の画像であり、当該第2画像の解像度が第1画像の解像度より大きい)、また、電子機器は第2画像により、第1画像における複数の対象のうちのM個の目標対象を指示するための少なくとも1つの識別子を第1画像に表示でき、続いて、電子機器は、ユーザの第1画像におけるM個の目標対象のうちの第1対象に対する第1入力を受け付け、第1入力に応じ、第2画像における第1対象を拡大表示することができる。当該技術手段によれば、ユーザは第1画像における複数の対象のうちのある目標対象の拡大後の表示効果をチェックする必要がある場合に、電子機器は当該複数の目標対象を含む第2画像を取得し、第2画像における当該目標対象を拡大表示することができ、第2画像の解像度が第1画像の解像度より大きいので、電子機器は第2画像における目標対象を拡大表示する時に、好適な表示効果で当該目標対象を拡大表示することを確保できる。
なお、本発明の実施例において、高周波ユニット101は、情報の受送信又は通話プロセスでの信号の受送信に用いることができることを理解すべきであり、具体的には、基地局からのダウンリンクデータを受信した後、プロセッサ110で処理し、また、アップリンクのデータを基地局に送信する。通常、高周波ユニット101は、アンテナ、少なくとも1つの増幅器、受送信機、カプラー、低騒音増幅器、デュプレクサ等を含むが、それらに限定されない。また、高周波ユニット101は、無線通信システムを介してネットワーク及び他の機器と通信することもできる。
電子機器はネットワークモジュール102によって、例えば、電子メールの受送信、ウェブページの閲覧及びストリーミングメディアへのアクセスなどを助けるように、無線ブロードバンドインターネットアクセスをユーザに提供する。
オーディオ出力ユニット103は、高周波ユニット101又はネットワークモジュール102が受信した又はメモリ109に記憶されているオーディオデータをオーディオ信号に変換して音声として出力することができる。且つ、オーディオ出力ユニット103は、電子機器100が実行する特定の機能に関するオーディオ出力(例えば、コール信号受信音、メッセージ受信音等)を提供することもできる。オーディオ出力ユニット103は、スピーカ、ブザー及び受話器等を含む。
入力ユニット104は、オーディオ又はビデオ信号を受信するために用いられる。入力ユニット104は、ビデオキャプチャモード又は画像キャプチャモードで画像キャプチャ装置(例えば、カメラ)が取得したスチル画像又はビデオの画像データを処理するグラフィックスプロセッシングユニット(graphics processing unit,GPU)1041、及びマイクロホン1042を含んでもよい。処理された画像フレームは、表示ユニット106に表示することができる。グラフィックスプロセッシングユニット1041で処理された画像フレームは、メモリ109(又は他の記憶媒体)に記憶するか、又は高周波ユニット101もしくはネットワークモジュール102によって送信することができる。マイクロホン1042は、音声を受信することができ、且つこのような音声をオーディオデータとして処理することができる。処理されたオーディオデータは、電話通話モードで、高周波ユニット101によって移動通信基地局に送信可能なフォーマットに変換して出力することができる。
電子機器100は光センサ、運動センサ及び他のセンサのような少なくとも1つのセンサ105をさらに含む。具体的には、光センサは、環境光の明暗に応じて表示パネル1061の輝度を調整することができる環境光センサと、電子機器100が耳元に移動された時、表示パネル1061及び/又はバックライトを消すことができる近接センサと、を含む。運動センサの1つとして、加速度計センサは、各方向(一般的には、三軸)での加速度の大きさを検出することができ、静止時に、重力の大きさ及び方向を検出することができ、電子機器の姿勢(例えば、画面の横縦の切り替え、関連するゲーム、磁力計姿勢校正)の認識、振動認識関連機能(例えば、万歩計、タップ)等に用いることができる。センサ105は、指紋センサ、圧力センサ、虹彩センサ、分子センサ、ジャイロスコープ、気圧計、湿度計、温度計、赤外線センサ等をさらに含んでもよく、ここでは説明を省略する。
表示ユニット106は、ユーザが入力した情報又はユーザに提供される情報を表示するために用いられる。表示ユニット106は表示パネル1061を含んでもよく、液晶ディスプレイ(liquid crystal display,LCD)、有機発光ダイオード(organic light-emitting diode,OLED)等の形態で表示パネル1061を構成することができる。
ユーザ入力ユニット107は、入力される数字又は文字情報の受信、及び電子機器でのユーザ設定及び機能制御に関するキー信号入力の生成に用いることができる。具体的には、ユーザ入力ユニット107は、タッチパネル1071及び他の入力機器1072を含む。タッチパネル1071はタッチスクリーンとも呼ばれ、その上又は付近でのユーザのタッチ操作(例えば、ユーザが指、スタイラス等、あらゆる適切な物体又は付属品を使用してタッチパネル1071上又はタッチパネル1071付近で行う操作)を検出可能であり、タッチ検出装置及びタッチコントローラとの2つの部分を含んでもよい。そのうち、タッチ検出装置は、ユーザのタッチ方位を検出するとともに、タッチ操作による信号を検出し、タッチコントローラに伝送する。タッチコントローラは、タッチ検出装置からタッチ情報を受信し、それをタッチポイント座標に変換してプロセッサ110に送信し、そして、プロセッサ110から送信された命令を受信して実行する。また、タッチパネル1071は、抵抗式、容量式、赤外線及び表面弾性波等の様々な形態で実現することができる。タッチパネル1071に加え、ユーザ入力ユニット107は他の入力機器1072をさらに含んでもよい。具体的には、他の入力機器1072は、物理キーボード、機能ボタン(例えば、音量制御ボタン、スイッチボタン等)、トラックボール、マウス、操作レバーを含んでもよいが、それらに限定されず、ここでは説明を省略する。
さらに、タッチパネル1071は、表示パネル1061を被覆してもよく、タッチパネル1071はその上又は付近でのタッチ操作を検出すると、それをプロセッサ110に伝送してタッチイベントのタイプを特定し、その後、プロセッサ110は、タッチイベントのタイプに応じて表示パネル1061で対応する視覚出力を提供する。図8において、タッチパネル1071と表示パネル1061は、2つの独立した部材として電子機器の入力と出力機能を実現するが、何らかの実施例では、電子機器の入力と出力機能を実現するように、タッチパネル1071と表示パネル1061を統合してもよく、ここでは具体的に限定しない。
インタフェースユニット108は、外部装置と電子機器100を接続するインタフェースである。例えば、外部装置は、有線又は無線ヘッドホンポート、外部電源(又は電池充電器)ポート、有線又は無線データポート、メモリカードポート、認識モジュールを備える装置を接続するためのポート、オーディオ入力/出力(I/O)ポート、ビデオI/Oポート、イヤホンポート等を含んでもよい。インタフェースユニット108は、外部装置からの入力(例えば、データ情報、電力等)を受信し、受信された入力を電子機器100内の1つ又は複数の部材に伝送するか、又は電子機器100と外部装置の間でデータを伝送するために用いることができる。
メモリ109は、ソフトウェアプログラム及び様々なデータを記憶するために用いることができる。メモリ109は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーション(例えば、音声再生機能、画像再生機能等)等を記憶可能なプログラム記憶領域と、携帯電話の使用に応じて作成されたデータ(例えば、オーディオデータ、電話帳等)等を記憶可能なデータ記憶領域と、を主に含んでもよい。また、メモリ109は、高速ランダムアクセスメモリを含んでもよく、非揮発性メモリ、例えば、少なくとも1つの磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の揮発性ソリッドステート記憶デバイスをさらに含んでもよい。
プロセッサ110は、電子機器の制御センタであり、様々なインタフェース及び回線により電子機器全体の各部分を接続するものであり、メモリ109内に記憶されているソフトウェアプログラム及び/又はモジュールを動作させ又は実行し、及びメモリ109内に記憶されているデータを呼び出すことで、電子機器の様々な機能及びデータ処理を実行し、それにより、電子機器を全体的に監視する。プロセッサ110は、1つ又は複数の処理ユニットを含んでもよく、選択可能に、プロセッサ110に、オペレーティングシステム、ユーザインタフェース及びアプリケーション等を主に処理するアプリケーションプロセッサと、無線通信を主に処理するモデムプロセッサとを統合することができる。上記モデムプロセッサはプロセッサ110に統合されなくてもよいことが理解可能である。
電子機器100は各部材に給電する電源111(例えば、電池)をさらに含んでもよく、選択可能に、電源111は、電源管理システムによってプロセッサ110に論理的に接続し、さらに電源管理システムによって充放電の管理、及び電力消費管理等の機能を実現することができる。
なお、電子機器100はいくつかの示されていない機能モジュールを含み、ここで詳細な説明を省略する。
選択可能に、本発明の実施例は、図8に示すように、プロセッサ110と、メモリ109と、メモリ109に記憶され且つプロセッサ110において実行可能なコンピュータプログラムとを備える電子機器において、当該コンピュータプログラムがプロセッサ110により実行されると、上記方法実施例の各工程を実現し、且つ同様な技術効果を達成できる電子機器を更に提供し、繰り返して説明することを回避するために、ここで詳細な説明を省略する。
選択可能に、本発明の実施例は、コンピュータプログラムを記憶したコンピュータ可読記憶媒体において、当該コンピュータプログラムがプロセッサにより実行されると、上記方法実施例の各工程を実現し、且つ同様な技術効果を達成できるコンピュータ可読記憶媒体を更に提供し、繰り返して説明することを回避するために、ここで詳細な説明を省略する。その中で、当該コンピュータ可読記憶媒体は読み取り専用メモリ(read-only memory,ROM)、ランダムアクセスメモリ(random access memory,RAM)、磁気ディスク又は光ディスク等を含んでよい。
説明すべきことは、本明細書において、用語「含む」、「からなる」又はその他のあらゆる変形は、非排他的包含を含むように意図され、それにより一連の要素を含むプロセス、方法、物品又は装置は、それらの要素のみならず、明示されていない他の要素、又はこのようなプロセス、方法、物品又は装置に固有の要素をも含む点である。特に断らない限り、語句「1つの……を含む」により限定される要素は、該要素を含むプロセス、方法、物品又は装置に別の同じ要素がさらに存在することを排除するものではない。
以上の実施形態に対する説明によって、当業者であれば上記実施例の方法がソフトウェアと必要な共通ハードウェアプラットフォームとの組合せという形態で実現できることを明確に理解可能であり、当然ながら、ハードウェアによって実現してもよいが、多くの場合において前者はより好ましい実施形態である。このような見解をもとに、本願の技術的解決手段は実質的に又は従来技術に寄与する部分はソフトウェア製品の形で実施することができ、該コンピュータソフトウェア製品は、記憶媒体(例えばROM/RAM、磁気ディスク、光ディスク)に記憶され、電子機器(携帯電話、コンピュータ、サーバ、エアコン、又はネットワーク機器等であってもよい)に本願の各実施例に記載の方法を実行させる複数の命令を含む。
以上、図面を参照しながら本願の実施例を説明したが、本願は上記の具体的な実施形態に限定されず、上記の具体的な実施形態は例示的なものに過ぎず、限定的なものではなく、本願の示唆をもとに、当業者が本願の趣旨及び特許請求の保護範囲から逸脱することなくなし得る多くの形態は、いずれも本願の保護範囲に属するものとする。

Claims (17)

  1. 第1カメラによって収集した画像である第1画像を表示している場合に、第2カメラによって収集した画像である第2画像を取得するステップであって、前記第1画像と前記第2画像にはそれぞれ複数の対象を含み、前記複数の対象が複数の第1実体対象の画像であり、前記第2画像の解像度が前記第1画像の解像度より大きいステップと、
    前記第2画像により、前記第1画像における複数の対象のうちのM個の目標対象を指示するための少なくとも1つの識別子を前記第1画像に表示するステップであって、Mが正の整数であるステップと、
    前記第1画像におけるM個の目標対象のうちの第1対象に対する第1入力を受け付けるステップと、
    前記第1入力に応じ、前記第2画像における第1対象を拡大表示するステップとを含む、対象表示方法。
  2. 第2画像を取得する前記ステップの前に、
    対象分析拡大コントロールに対する第2入力を受け付けるステップを更に含み、
    第2画像を取得する前記ステップは、
    前記第2入力に応じ、前記第2画像を取得するステップを含む、請求項1に記載の方法。
  3. 前記第2画像により、前記第1画像に少なくとも1つの識別子を表示する前記ステップは、
    目標属性情報により、前記第2画像における対象を認識し、対応する実体対象が前記目標属性情報の指示する属性に属する、前記第2画像におけるM個の目標対象を得るステップと、
    前記第2画像におけるM個の目標対象により、前記第1画像に前記少なくとも1つの識別子を表示するステップとを含む、請求項1に記載の方法。
  4. 目標属性情報により、前記第2画像における対象を認識する前記ステップの前に、
    それぞれ1つの属性情報を指示するための少なくとも1つの属性オプションを表示するステップと、
    前記少なくとも1つの属性オプションのうちの目標属性オプションに対する第3入力を受け付けるステップとを更に含み、
    目標属性情報により、前記第2画像における対象を認識する前記ステップは、
    前記第3入力に応じ、前記目標属性オプションの指示する目標属性情報により、前記第2画像における対象を認識するステップを含む、請求項3に記載の方法。
  5. 目標属性情報により、前記第2画像における対象を認識する前記ステップは、
    前記目標属性情報により、テンプレートライブラリから、その中の対象に対応する実体対象が前記目標属性情報の指示する属性に属する少なくとも1つのテンプレート画像を取得するステップと、
    前記第2画像と前記少なくとも1つのテンプレート画像をマッチングして、前記第2画像における対象を認識するステップとを含む、請求項3又は4に記載の方法。
  6. 前記第2画像は、前記第1カメラによる前記第1画像の収集をトリガした場合に前記第2カメラによって収集され保存される画像である、請求項1に記載の方法。
  7. 前記第2カメラの焦点距離が前記第1カメラの焦点距離より大きい、請求項1に記載の方法。
  8. 取得モジュール、処理モジュール及び受付モジュールを備える電子機器において、
    前記取得モジュールは、第1カメラによって収集した画像である第1画像を表示している場合に、第2カメラによって収集した画像である第2画像を取得するように構成され、前記第1画像と前記第2画像にはそれぞれ複数の対象を含み、前記複数の対象が複数の第1実体対象の画像であり、前記第2画像の解像度が前記第1画像の解像度より大きく、
    前記処理モジュールは、前記取得モジュールの取得した前記第2画像により、前記第1画像における複数の対象のうちのM個の目標対象を指示するための少なくとも1つの識別子を前記第1画像に表示するように構成され、Mが正の整数であり、
    前記受付モジュールは、ユーザの、前記処理モジュールの表示した前記第1画像におけるM個の目標対象のうちの第1対象に対する第1入力を受け付けるように構成され、
    前記処理モジュールは、更に、前記受付モジュールの受け付けた前記第1入力に応じ、前記第2画像における第1対象を拡大表示するように構成される、電子機器。
  9. 前記受付モジュールは、更に、前記取得モジュールが前記第2画像を取得する前に、対象分析拡大コントロールに対する第2入力を受け付けるように構成され、
    前記取得モジュールは、具体的には、前記受付モジュールの受け付けた前記第2入力に応じ、前記第2画像を取得するように構成される、請求項8に記載の電子機器。
  10. 前記処理モジュールは、具体的には、目標属性情報により、前記第2画像における対象を認識し、対応する実体対象が前記目標属性情報の指示する属性に属する、前記第2画像におけるM個の目標対象を得るステップと、前記第2画像におけるM個の目標対象により、前記第1画像に前記少なくとも1つの識別子を表示するステップとを実行するように構成される、請求項8に記載の電子機器。
  11. 前記処理モジュールは、更に、前記目標属性情報により、前記第2画像における対象を認識する前に、それぞれ1つの属性情報を指示するための少なくとも1つの属性オプションを表示するように構成され、
    前記受付モジュールは、更に、前記処理モジュールの表示した前記少なくとも1つの属性オプションのうちの目標属性オプションに対する第3入力を受け付けるように構成され、
    前記処理モジュールは、具体的には、前記受付モジュールの受け付けた前記第3入力に応じ、前記目標属性オプションの指示する目標属性情報により、前記第2画像における対象を認識するように構成される、請求項10に記載の電子機器。
  12. 前記処理モジュールは、具体的には、前記目標属性情報により、テンプレートライブラリから、その中の対象に対応する実体対象が前記目標属性情報の指示する属性に属する少なくとも1つのテンプレート画像を取得するステップと、前記第2画像と前記少なくとも1つのテンプレート画像をマッチングして、前記第2画像における対象を認識するステップとを実行するように構成される、請求項10又は11に記載の電子機器。
  13. 前記第2画像は、前記第1カメラによる前記第1画像の収集をトリガした場合に前記第2カメラによって収集され保存される画像である、請求項8に記載の電子機器。
  14. 前記第2カメラの焦点距離が前記第1カメラの焦点距離より大きい、請求項8に記載の電子機器。
  15. プロセッサと、メモリと、前記メモリに記憶され且つ前記プロセッサにおいて実行可能なコンピュータプログラムとを備える電子機器において、前記コンピュータプログラムが前記プロセッサにより実行されると、請求項1から7のいずれか一項に記載の対象表示方法のステップを実現する、電子機器。
  16. コンピュータプログラムを記憶するコンピュータ可読記憶媒体において、前記コンピュータプログラムがプロセッサにより実行されると、請求項1から7のいずれか一項に記載の対象表示方法のステップを実現する、コンピュータ可読記憶媒体。
  17. 請求項1から7のいずれか一項に記載の対象表示方法を実行するように構成されることを特徴とする、電子機器。
JP2022529302A 2019-11-25 2020-11-24 対象表示方法及び電子機器 Active JP7371254B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911167320.5 2019-11-25
CN201911167320.5A CN110944113B (zh) 2019-11-25 2019-11-25 对象显示方法及电子设备
PCT/CN2020/131166 WO2021104266A1 (zh) 2019-11-25 2020-11-24 对象显示方法及电子设备

Publications (2)

Publication Number Publication Date
JP2023502414A true JP2023502414A (ja) 2023-01-24
JP7371254B2 JP7371254B2 (ja) 2023-10-30

Family

ID=69907948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022529302A Active JP7371254B2 (ja) 2019-11-25 2020-11-24 対象表示方法及び電子機器

Country Status (6)

Country Link
US (1) US20220286622A1 (ja)
EP (1) EP4068750A4 (ja)
JP (1) JP7371254B2 (ja)
KR (1) KR20220103782A (ja)
CN (1) CN110944113B (ja)
WO (1) WO2021104266A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110944113B (zh) * 2019-11-25 2021-04-27 维沃移动通信有限公司 对象显示方法及电子设备
CN113014798A (zh) * 2021-01-27 2021-06-22 维沃移动通信有限公司 图像显示方法、装置及电子设备
CN112995506B (zh) * 2021-02-09 2023-02-07 维沃移动通信(杭州)有限公司 显示控制方法、装置、电子设备及介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009100371A (ja) 2007-10-18 2009-05-07 Canon Inc 画像表示装置及び記録再生装置
JPWO2009141951A1 (ja) 2008-05-19 2011-09-29 パナソニック株式会社 映像撮影装置および映像符号化装置
JP2009284075A (ja) * 2008-05-20 2009-12-03 Nec Electronics Corp 撮影装置および撮影方法
CN102148965B (zh) * 2011-05-09 2014-01-15 厦门博聪信息技术有限公司 多目标跟踪特写拍摄视频监控系统
CN103780830B (zh) * 2012-10-17 2017-04-12 晶睿通讯股份有限公司 连动式摄影系统及其多摄影机的控制方法
AU2014240213B2 (en) * 2014-09-30 2016-12-08 Canon Kabushiki Kaisha System and Method for object re-identification
EP3958557A1 (en) * 2015-04-23 2022-02-23 Apple Inc. Digital viewfinder user interface for multiple cameras
US20170085790A1 (en) 2015-09-23 2017-03-23 Microsoft Technology Licensing, Llc High-resolution imaging of regions of interest
US10194089B2 (en) * 2016-02-08 2019-01-29 Qualcomm Incorporated Systems and methods for implementing seamless zoom function using multiple cameras
CN106131397A (zh) * 2016-06-21 2016-11-16 维沃移动通信有限公司 一种多媒体数据显示的方法及电子设备
CN106791378A (zh) * 2016-11-29 2017-05-31 广东欧珀移动通信有限公司 控制方法、控制装置和电子装置
CN106791400B (zh) * 2016-12-23 2019-08-20 维沃移动通信有限公司 一种图像显示方法及移动终端
US10423194B2 (en) * 2017-01-09 2019-09-24 Samsung Electronics Co., Ltd. Electronic device and image capture method thereof
WO2018152437A1 (en) * 2017-02-17 2018-08-23 Vid Scale, Inc. Systems and methods for selective object-of-interest zooming in streaming video
CN107277371A (zh) * 2017-07-27 2017-10-20 青岛海信移动通信技术股份有限公司 一种移动终端放大图片区域的方法及装置
KR102424984B1 (ko) * 2017-12-21 2022-07-25 삼성전자주식회사 복수 개의 카메라를 포함하는 전자 장치 및 그 동작 방법
JP7130385B2 (ja) 2018-02-19 2022-09-05 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP7234497B2 (ja) * 2018-03-15 2023-03-08 Fcnt株式会社 電子機器、情報処理方法、およびプログラム
CN109495616B (zh) * 2018-11-30 2021-02-26 维沃移动通信(杭州)有限公司 一种拍照方法及终端设备
CN110072070B (zh) * 2019-03-18 2021-03-23 华为技术有限公司 一种多路录像方法及设备、介质
CN110493454A (zh) * 2019-07-11 2019-11-22 维沃移动通信(杭州)有限公司 一种拍摄方法及终端设备
CN110913132B (zh) * 2019-11-25 2021-10-26 维沃移动通信有限公司 对象跟踪方法及电子设备
CN110944113B (zh) * 2019-11-25 2021-04-27 维沃移动通信有限公司 对象显示方法及电子设备

Also Published As

Publication number Publication date
CN110944113B (zh) 2021-04-27
EP4068750A4 (en) 2023-01-25
WO2021104266A1 (zh) 2021-06-03
US20220286622A1 (en) 2022-09-08
EP4068750A1 (en) 2022-10-05
CN110944113A (zh) 2020-03-31
JP7371254B2 (ja) 2023-10-30
KR20220103782A (ko) 2022-07-22

Similar Documents

Publication Publication Date Title
CN110891144B (zh) 一种图像显示方法及电子设备
JP7413525B2 (ja) 対象追跡方法、電子機器およびコンピュータ可読記憶媒体
CN109240577B (zh) 一种截屏方法及终端
US20220050565A1 (en) Screenshot method and terminal device
CN110062105B (zh) 一种界面显示方法及终端设备
CN111274777B (zh) 思维导图显示方法及电子设备
JP7371254B2 (ja) 対象表示方法及び電子機器
WO2019149028A1 (zh) 应用程序的下载方法及终端
CN110245246B (zh) 一种图像显示方法及终端设备
CN110752981B (zh) 一种信息控制方法及电子设备
WO2020182035A1 (zh) 图像处理方法及终端设备
CN109523253B (zh) 一种支付方法和装置
JP7467667B2 (ja) 検出結果出力方法、電子機器及び媒体
CN111010523B (zh) 一种视频录制方法及电子设备
CN110703972B (zh) 一种文件控制方法及电子设备
CN109901761B (zh) 一种内容显示方法及移动终端
JP2023500390A (ja) アイコン移動方法及び電子機器
WO2021082772A1 (zh) 截屏方法及电子设备
CN110012151B (zh) 一种信息显示方法及终端设备
CN109922256B (zh) 拍摄方法及终端设备
CN111443968A (zh) 一种截图方法及电子设备
CN111597435A (zh) 一种语音搜索方法、装置及电子设备
CN111045583B (zh) 一种摄像头控制方法及电子设备
CN111027406B (zh) 图片识别方法、装置、存储介质及电子设备
CN109002239B (zh) 一种信息显示方法及终端设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220519

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231018

R150 Certificate of patent or registration of utility model

Ref document number: 7371254

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150