WO2022012455A1 - 实现目标物体定位的方法、装置及显示器件 - Google Patents

实现目标物体定位的方法、装置及显示器件 Download PDF

Info

Publication number
WO2022012455A1
WO2022012455A1 PCT/CN2021/105672 CN2021105672W WO2022012455A1 WO 2022012455 A1 WO2022012455 A1 WO 2022012455A1 CN 2021105672 W CN2021105672 W CN 2021105672W WO 2022012455 A1 WO2022012455 A1 WO 2022012455A1
Authority
WO
WIPO (PCT)
Prior art keywords
target object
image
object position
object image
transmission path
Prior art date
Application number
PCT/CN2021/105672
Other languages
English (en)
French (fr)
Inventor
刁鸿浩
黄玲溪
Original Assignee
北京芯海视界三维科技有限公司
视觉技术创投私人有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 北京芯海视界三维科技有限公司, 视觉技术创投私人有限公司 filed Critical 北京芯海视界三维科技有限公司
Priority to US18/015,962 priority Critical patent/US20230326431A1/en
Priority to EP21842654.2A priority patent/EP4184915A4/en
Publication of WO2022012455A1 publication Critical patent/WO2022012455A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/32Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory with means for controlling the display position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/18Timing circuits for raster scan displays
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning

Definitions

  • the present application relates to the field of optical technology, for example, to a method, an apparatus and a display device for realizing target object positioning.
  • Processing the target object position can cause a lot of application processor resources to be used.
  • Embodiments of the present disclosure provide a method, an apparatus, a display device, a computer-readable storage medium, and a computer program product for locating a target object, so as to solve the technical problem that processing the position of the target object will cause a large amount of resources of an application processor to be occupied.
  • the target object position is provided to the display controller without going through an application processor (AP).
  • AP application processor
  • providing the target object location to the display controller without via the AP may include:
  • the target object position is provided to the display controller through a target object position transmission path that does not go through the AP.
  • the target object position transmission path can also be determined.
  • determining the target object position transmission path may include:
  • the transmission path via the AP is excluded from the target object position transmission path.
  • the display controller may be a timing controller (T-con).
  • providing the target object location may include:
  • Target object position is actively or passively sent to the display controller.
  • actively sending the position of the target object may include: sending the position of the target object in real time or periodically.
  • passively sending the target object position may include: sending the target object position based on the received request.
  • sending the location of the target object may include:
  • obtaining the target object position of the target object may include:
  • the target object image of the target object is obtained, and the target object position of the target object is obtained based on the target object image.
  • obtaining the target object image of the target object may include:
  • the target object includes the user's eye, and the target object image includes eye space information of the eye.
  • the eye space information may include eye plane position information
  • Obtain the target object position of the target object which can include:
  • the eye depth information is obtained according to the eye plane position information contained in the target object image, thereby obtaining the spatial coordinates of the eye.
  • the target object image may also be removed.
  • removing the target object image may include:
  • transferring the target object image to the entity may include:
  • removing the target object image may include:
  • the target object image After obtaining the target object position of the target object based on the target object image, or after providing the target object position, the target object image is removed when the removal condition is satisfied.
  • the target object image may include a 2D image or a 3D image.
  • the apparatus for realizing target object positioning includes a processor and a memory storing program instructions, and the processor is configured to execute the above-mentioned method for realizing target object positioning when executing the program instructions.
  • the display device provided by the embodiment of the present disclosure includes: a displacement sensor and the above-mentioned device for realizing target object positioning;
  • the displacement sensor is configured to perform the following operations under the control of the processor:
  • the target object position is provided to the display controller without going through the AP.
  • the display device may further include a display controller configured to receive the target object position, from which the pixels of the display device are 3D rendered.
  • the number of displacement sensors may be one or more.
  • the displacement sensor may be a camera.
  • the computer-readable storage medium provided by the embodiments of the present disclosure stores computer-executable instructions and is configured to execute the above-mentioned method for realizing target object positioning.
  • the computer program product provided by the embodiments of the present disclosure includes a computer program stored on a computer-readable storage medium, the computer program includes program instructions, and when the program instructions are executed by a computer, the computer is made to execute the above-mentioned method for realizing target object positioning .
  • the method, device, display device, computer-readable storage medium, and computer program product for realizing target object positioning can achieve the following technical effects:
  • FIG. 1 is a schematic flowchart of realizing target object positioning provided by an embodiment of the present disclosure
  • FIG. 2 is a schematic flowchart of obtaining the position of a target object provided by an embodiment of the present disclosure
  • 3A, 3B, and 3C are schematic flowcharts of removing a target object image provided by an embodiment of the present disclosure
  • FIG. 4 is a schematic diagram of a device for realizing target object positioning provided by an embodiment of the present disclosure
  • FIG. 5 is a schematic structural diagram of a display device provided by an embodiment of the present disclosure.
  • FIG. 6 is another schematic structural diagram of a display device provided by an embodiment of the present disclosure.
  • FIG. 7 is another schematic structural diagram of a display device provided by an embodiment of the present disclosure.
  • 100 Device for realizing target object positioning
  • 110 Processor
  • 120 Memory
  • 130 Communication interface
  • 140 Bus
  • 200 Display device
  • 210 Displacement sensor
  • 220 Display controller.
  • an embodiment of the present disclosure provides a method for realizing target object positioning, including:
  • the target object position of the target object can be provided to the display controller without going through the AP, so the problem that the AP's resources are heavily occupied due to processing the target object position can be avoided as much as possible.
  • the target object position of the target object may be obtained by a displacement sensor.
  • providing the target object location to the display controller without via the AP may include:
  • the target object position is provided to the display controller through a target object position transmission path that does not go through the AP.
  • the target object position transmission path may be a wired path or a wireless path.
  • the target object position transmission path can also be determined.
  • determining the target object position transmission path may include:
  • the transmission path via the AP is excluded from the target object position transmission path.
  • a connection (wired or wireless) to the display controller is possible without the above-mentioned transmission path via the AP.
  • one of them may be determined as the target object position transmission path.
  • the target object position transmission path may be determined based on actual conditions such as the load, accuracy, and robustness of the transmission path. For example, the transmission path with the lowest load among the two or more above-mentioned transmission paths is determined as the target object position transmission path.
  • the transmission path with the highest accuracy rate in the two or more above-mentioned transmission paths is determined as the target object position transmission path;
  • the transmission path with the highest robustness in the two or more above-mentioned transmission paths is determined as the target object position transmission path path.
  • any one of the above two or more transmission paths may also be determined as the target object position transmission path.
  • the determined transmission path of the position of the target object when the determined transmission path of the position of the target object is not suitable for transmitting the position of the target object due to faults, changes in parameters (eg, load, accuracy, robustness, etc.) The target object position transmission path of the object position.
  • the display controller may be the timing controller T-con.
  • the display controller may also be a device other than the T-con capable of controlling the display.
  • providing the target object location may include:
  • Target object position is actively or passively sent to the display controller.
  • the position of the target object may also be actively or passively sent to the demand side of other target object positions.
  • the demand side of the target object location may be a server, an application processor, a router, a user terminal, and the like.
  • actively sending the position of the target object may include: sending the position of the target object in real time or periodically.
  • the position of the target object when the position of the target object is sent in real time, the position of the target object may be sent in real time after the position of the target object is acquired.
  • the sending period for sending the position of the target object may be considered according to actual conditions such as the application scenario, the usage time of the displacement sensor, and the workload.
  • the sending period may be preset; for example, the sending period may be set to a specific duration such as 1 second, 1 minute, or 1 hour, or a specific duration range of greater than or equal to 1 second and less than or equal to 1 hour.
  • the target object position may also be sent if the sending condition of the target object position is satisfied.
  • the target object position sending condition when the target object position is sent under the condition that the target object position sending condition is satisfied, the target object position sending condition may be considered according to the actual situation such as the application scenario, the usage time of the displacement sensor, and the workload.
  • the sending condition can be set as: the target object position is sent when the number of obtained target object positions reaches a specific value such as 10, 50, 80, or is greater than or equal to 10 and less than or equal to 80 and other specific value ranges; or, can be set
  • the sending conditions are: the position of the target object is sent before the displacement sensor is shut down; for example: the position of the target object is sent when the displacement sensor receives the shutdown signal, or after the displacement sensor receives the shutdown signal and before the shutdown is completed.
  • passively sending the target object location may include sending the target object location based on the received request.
  • the target object position may be sent when the request for the target object position is received, or at a specific time after the request for the target object position is received.
  • the request for the position of the target object may be a read request for reading the position of the target object; or, it may also be other requests that involve or need to use the position of the target object, for example: request A is not used for direct reading The position of the target object is taken, but it is used to trigger the positioning operation of the target object; then, the displacement sensor can send the position of the target object after receiving the request A.
  • the above request may exist in a form that can be recognized by computer instructions or the like.
  • sending the location of the target object may include:
  • the displacement sensor in the case of directly sending the position of the target object to a demand side such as a display controller, can be directly connected to the demand side (for example, wired or wireless), so as to directly send the position of the target object to the demand side .
  • the displacement sensor when the position of the target object is indirectly sent to the demand side such as the display controller, the displacement sensor may be indirectly connected to the demand side, for example, the displacement sensor and the demand side may be connected (for example, wired or wireless connection) There are intermediate nodes (for example: servers, application processors, routers, etc.), and the displacement sensor can indirectly send the position of the target object to the demand side through the intermediate nodes.
  • obtaining the target object position of the target object may include:
  • S120 Obtain the target object position of the target object based on the target object image.
  • obtaining the target object image of the target object may include:
  • the target object may include the user's eye, and the target object image may include eye space information of the eye.
  • the target object image can also be obtained by means other than the displacement sensor.
  • the eye space information may include eye plane position information
  • Obtain the target object position of the target object which can include:
  • the eye depth information is obtained according to the eye plane position information contained in the target object image, thereby obtaining the spatial coordinates of the eye.
  • the eye plane position information obtained by the displacement sensor includes eye depth information, and then the eye depth information can be obtained according to the eye plane position information, and the eye depth information can be converted into the space of the user's eyes coordinate.
  • the target object image may also be removed.
  • removing the target object image may include:
  • the original data of the image of the target object in the displacement sensor may be transferred to an entity other than the displacement sensor, so that the displacement sensor does not exist target object image.
  • the copy of the target object image in the displacement sensor can also be transferred to an entity other than the displacement sensor, and the original data of the target object image in the displacement sensor can be deleted, so that there is no target object image in the displacement sensor.
  • the target object image can be transmitted to the entity other than the displacement sensor in a wired or wireless manner.
  • the entity other than the above-mentioned displacement sensor may be an entity that needs to perform subsequent processing such as buffering the image of the target object, for example, a buffer, an image processor, and the like.
  • the target object image may also be deleted.
  • transferring the target object image to the entity may include:
  • the entity other than the above-mentioned displacement sensor may be an entity capable of deleting the image of the target object, for example, an image processor, a file processor, etc., which are specially used for deleting the image of the target object.
  • an entity other than the aforementioned displacement sensor may cache the target object image before deleting the target object image.
  • the aforementioned entity may be a hardware entity, such as a physical device capable of processing the image of the target object.
  • the above entity may also be a software entity, such as logic software capable of processing the image of the target object.
  • removing the target object image may include:
  • the target object image After obtaining the target object position of the target object based on the target object image, or after providing the target object position, the target object image is removed when the removal condition is satisfied.
  • removing the target object image may include:
  • the target object image can be removed immediately after obtaining the target object position.
  • removing the target object image may include:
  • the target object image can be removed immediately after the target object position is provided.
  • removing the target object image may include:
  • S330 Obtain the target object position of the target object based on the target object image, or provide the target object position;
  • the target object image can be removed when the removal condition is satisfied.
  • removal conditions may be considered according to actual situations such as application scenarios, usage duration of the displacement sensor, workload, and the like.
  • the removal condition can be set as: remove the target object image when the workload of the displacement sensor reaches a specific value such as 20%, 50%, 80%, or greater than or equal to 20% and less than or equal to a specific value range such as 80%. .
  • the target object image may include a 2D image or a 3D image.
  • an embodiment of the present disclosure provides an apparatus 100 for realizing target object positioning, including a processor 110 and a memory 120 storing program instructions.
  • the processor 110 is configured to execute the above-mentioned realization target when executing the program instructions. method of object localization.
  • the apparatus for realizing target object positioning shown in FIG. 4 may include:
  • the processor (processor) 110 and the memory (memory) 120 may also include a communication interface (Communication Interface) 130 and a bus 140 .
  • the processor 110 , the communication interface 130 , and the memory 120 can communicate with each other through the bus 140 .
  • the communication interface 130 may be used for information transfer.
  • the processor 110 may invoke the logic instructions in the memory 120 to execute the method for locating the target object in the above embodiments.
  • logic instructions in the memory 120 may be implemented in the form of software functional units and may be stored in a computer-readable storage medium when sold or used as an independent product.
  • the memory 120 may be used to store software programs and computer-executable programs, such as program instructions/modules corresponding to the methods in the embodiments of the present disclosure.
  • the processor 110 executes the function application and data processing by executing the program instructions/modules stored in the memory 120, that is, to realize the method for realizing target object positioning in the above method embodiments.
  • the memory 120 may include a storage program area and a storage data area, wherein the storage program area may store an operating system, an application program required for at least one function; the storage data area may store data created according to use of the terminal device, and the like.
  • the memory 120 may include high-speed random access memory, and may also include non-volatile memory.
  • an embodiment of the present disclosure provides a display device 200 , comprising: a displacement sensor 210 and the above-mentioned apparatus 100 for positioning a target object; wherein the displacement sensor 210 is configured to perform the following operations under the control of the processor 110 :
  • the target object position is provided to the display controller without going through the AP.
  • the displacement sensor 210 can perform, reference may be made to the foregoing corresponding descriptions, for example, including FIG. 1 to FIG. 4 and the corresponding technical descriptions, which will not be repeated here.
  • the display device 200 may further include a display controller 220 configured to receive the target object position, and perform 3D rendering on the pixels of the display device 200 accordingly, for example: assigning 3D image display is performed based on the pixels forming the left-eye image and the pixels for forming the right-eye image.
  • a display controller 220 configured to receive the target object position, and perform 3D rendering on the pixels of the display device 200 accordingly, for example: assigning 3D image display is performed based on the pixels forming the left-eye image and the pixels for forming the right-eye image.
  • display controller 220 may be a T-con.
  • the number of displacement sensors 210 may be one or more, for example: one, two, three or more.
  • the displacement sensor 210 may be a camera.
  • the displacement sensor 210 may also be a device such as a radar that can obtain an image of the target object.
  • At least two displacement sensors 210 may be used to acquire an image of the target object including eye space information, where the eye space information includes eye plane position information.
  • the eye plane position information included in the obtained target object images includes eye plane position information. depth information, and then the eye depth information can be obtained according to the eye plane position information contained in the target object image, and the eye depth information can be converted into the spatial coordinates of the user's eyes.
  • the display device 200 may further include other components for supporting the normal operation of the display device 200, such as at least one of components such as a communication interface, a frame, a control circuit, and the like.
  • the aforementioned eyes may include eyeballs, such as eyeballs in both eyes of the user.
  • the displacement sensor 210 can also determine the viewing angle/position of the user by determining the visual axis of the eyeball or the like.
  • the method, device, and display device for realizing target object positioning provided by the embodiments of the present disclosure can try to avoid a large amount of resource occupation caused by the application processor processing the position of the target object.
  • An embodiment of the present disclosure provides a computer-readable storage medium storing computer-executable instructions, where the computer-executable instructions are configured to execute the above-mentioned method for realizing target object positioning.
  • An embodiment of the present disclosure provides a computer program product, including a computer program stored on a computer-readable storage medium, where the computer program includes program instructions, and when the program instructions are executed by a computer, the above-mentioned computer is made to execute the above-mentioned realization target object method of positioning.
  • the above-mentioned computer-readable storage medium may be a transient computer-readable storage medium, and may also be a non-transitory computer-readable storage medium.
  • the computer-readable storage medium and the computer program product provided by the embodiments of the present disclosure can try to avoid a large amount of resource occupation caused by the application processor processing the position of the target object.
  • the technical solutions of the embodiments of the present disclosure may be embodied in the form of a software product.
  • the computer software product is stored in a storage medium and includes at least one instruction to enable a computer device (which may be a personal computer, a server, or a network device, etc. ) to execute all or part of the steps of the methods of the embodiments of the present disclosure.
  • the aforementioned storage medium can be a non-transitory storage medium, including: U disk, removable hard disk, read-only memory (ROM, Read-Only Memory), random access memory (RAM, Random Access Memory), magnetic disk or optical disk, etc.
  • a first element could be termed a second element, and similarly, a second element could be termed a first element, so long as all occurrences of "the first element” were consistently renamed and all occurrences of "the first element” were named consistently
  • the “second element” can be renamed consistently.
  • the first element and the second element are both elements, but may not be the same element.
  • the terms used in this application are used to describe the embodiments only and not to limit the claims. As used in the description of the embodiments and the claims, the singular forms "a” (a), “an” (an) and “the” (the) are intended to include the plural forms as well, unless the context clearly dictates otherwise. .
  • the term “and/or” as used in this application is meant to include any and all possible combinations of one or more of the associated listings.
  • the term “comprise” and its variations “comprises” and/or including, etc. refer to stated features, integers, steps, operations, elements, and/or The presence of a component does not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components and/or groupings of these.
  • an element qualified by the phrase “comprising a" does not preclude the presence of additional identical elements in the process, method, or device that includes the element.
  • each embodiment may focus on the differences from other embodiments, and the same and similar parts between the various embodiments may refer to each other.
  • the methods, products, etc. disclosed in the embodiments if they correspond to the method sections disclosed in the embodiments, reference may be made to the descriptions of the method sections for relevant parts.
  • the disclosed methods and products may be implemented in other ways.
  • the apparatus embodiments described above are only illustrative.
  • the division of units may only be a logical function division.
  • multiple units or components may be combined or may be Integration into another system, or some features can be ignored, or not implemented.
  • the shown or discussed mutual coupling or direct coupling or communication connection may be through some interfaces, indirect coupling or communication connection of devices or units, and may be in electrical, mechanical or other forms.
  • Units described as separate components may or may not be physically separated, and components shown as units may or may not be physical units, that is, may be located in one place, or may be distributed to multiple network units. This embodiment may be implemented by selecting some or all of the units according to actual needs.
  • each functional unit in the embodiment of the present disclosure may be integrated into one processing unit, or each unit may exist physically alone, or two or more units may be integrated into one unit.
  • each block in the flowchart or block diagrams may represent a module, segment, or portion of code that contains at least one executable instruction for implementing the specified logical function .
  • the functions noted in the blocks may occur out of the order noted in the figures. For example, two blocks in succession may, in fact, be executed substantially concurrently, or the blocks may sometimes be executed in the reverse order, depending upon the functionality involved.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本申请涉及光学技术领域,公开了一种实现目标物体定位的方法,包括:获得目标物体的目标物体位置;在不经由应用处理器的情况下,向显示控制器提供目标物体位置。本申请提供的实现目标物体定位的方法,能够尽量避免应用处理器因处理目标物体位置而导致的大量资源占用。本申请还公开了一种实现目标物体定位的装置及显示器件、计算机可读存储介质、计算机程序产品。

Description

实现目标物体定位的方法、装置及显示器件
本申请要求在2020年07月15日提交中国知识产权局、申请号为202010681260.5、发明名称为“实现目标物体定位的方法、装置及显示器件”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及光学技术领域,例如涉及一种实现目标物体定位的方法、装置及显示器件。
背景技术
目前,对目标物体进行定位、显示处理时,通常需要将目标物体位置发送给应用处理器进行处理。
在实现本公开实施例的过程中,发现相关技术中至少存在如下问题:
处理目标物体位置会导致应用处理器的资源被大量占用。
发明内容
为了对披露的实施例的一些方面有基本的理解,下面给出了简单的概括。该概括不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围,而是作为后面的详细说明的序言。
本公开实施例提供了一种实现目标物体定位的方法、装置及显示器件、计算机可读存储介质、计算机程序产品,以解决处理目标物体位置会导致应用处理器的资源被大量占用的技术问题。
本公开实施例提供的实现目标物体定位的方法,包括:
获得目标物体的目标物体位置;
在不经由应用处理器(AP)的情况下,向显示控制器提供目标物体位置。
在一些实施例中,在不经由AP的情况下,向显示控制器提供目标物体位置,可以包括:
通过不经由AP的目标物体位置传输通路,向显示控制器提供目标物体位置。
在一些实施例中,还可以确定目标物体位置传输通路。
在一些实施例中,确定目标物体位置传输通路,可以包括:
将预先设置的不经由AP的传输通路作为目标物体位置传输通路;或
在至少两条传输通路中选择不经由AP的传输通路,将选择的不经由AP的传输通路作为目标物体位置传输通路;或
将经由AP的传输通路排除出目标物体位置传输通路。
在一些实施例中,显示控制器可以是时序控制器(T-con)。
在一些实施例中,提供目标物体位置,可以包括:
针对显示控制器,主动或被动地发送目标物体位置。
在一些实施例中,主动地发送目标物体位置,可以包括:实时或周期性地发送目标物体位置。可选地,被动地发送目标物体位置,可以包括:基于接收到的请求发送目标物体位置。
在一些实施例中,发送目标物体位置,可以包括:
直接或间接地向显示控制器发送目标物体位置。
在一些实施例中,获得目标物体的目标物体位置,可以包括:
获得目标物体的目标物体图像,基于目标物体图像获得目标物体的目标物体位置。
在一些实施例中,获得目标物体的目标物体图像,可以包括:
通过位移传感器获得目标物体图像;
其中,目标物体包括用户的眼部,目标物体图像包含眼部的眼部空间信息。
在一些实施例中,眼部空间信息可以包括眼部平面位置信息;
获得目标物体的目标物体位置,可以包括:
根据目标物体图像中包含的眼部平面位置信息得到眼部深度信息,从而获得眼部的空间坐标。
在一些实施例中,还可以移除目标物体图像。
在一些实施例中,移除目标物体图像,可以包括:
将位移传感器中的目标物体图像转移至位移传感器以外的实体,以使得位移传感器中不存在目标物体图像;
将位移传感器中的目标物体图像删除。
在一些实施例中,将目标物体图像转移至实体,可以包括:
将目标物体图像转移至能够删除目标物体图像的实体。
在一些实施例中,移除目标物体图像,可以包括:
基于目标物体图像获得目标物体的目标物体位置之后,立即移除目标物体图像;或
提供目标物体位置之后,立即移除目标物体图像;或
基于目标物体图像获得目标物体的目标物体位置、或提供目标物体位置之后,在满足移除条件时移除目标物体图像。
在一些实施例中,目标物体图像可以包括2D图像或3D图像。
本公开实施例提供的实现目标物体定位的装置,包括处理器和存储有程序指令的存储器,处理器被配置为在执行程序指令时,执行上述的实现目标物体定位的方法。
本公开实施例提供的显示器件,包括:位移传感器以及上述的实现目标物体定位的装置;
其中,位移传感器被配置为在处理器的控制下执行如下操作:
获得目标物体的目标物体位置;
在不经由AP的情况下,向显示控制器提供目标物体位置。
在一些实施例中,显示器件还可以包括显示控制器,被配置为接收目标物体位置,据此对显示器件的像素进行3D渲染。
在一些实施例中,位移传感器的数量可以为一个或一个以上。
在一些实施例中,位移传感器可以为摄像头。
本公开实施例提供的计算机可读存储介质,存储有计算机可执行指令,设置为执行上述的实现目标物体定位的方法。
本公开实施例提供的计算机程序产品,包括存储在计算机可读存储介质上的计算机程序,该计算机程序包括程序指令,当该程序指令被计算机执行时,使计算机执行上述的实现目标物体定位的方法。
本公开实施例提供的实现目标物体定位的方法、装置及显示器件、计算机可读存储介质、计算机程序产品,可以实现以下技术效果:
尽量避免应用处理器因处理目标物体位置而导致的大量资源占用。
以上的总体描述和下文中的描述仅是示例性和解释性的,不用于限制本申请。
附图说明
至少一个实施例通过与之对应的附图进行示例性说明,这些示例性说明和附图并不构成对实施例的限定,附图中具有相同参考数字标号的元件示为类似的元件,附图不构成比例限制,并且其中:
图1是本公开实施例提供的实现目标物体定位的流程示意图;
图2是本公开实施例提供的获得目标物体位置的流程示意图;
图3A、图3B、图3C是本公开实施例提供的移除目标物体图像的流程示意图;
图4是本公开实施例提供的实现目标物体定位的装置示意图;
图5是本公开实施例提供的显示器件的结构示意图;
图6是本公开实施例提供的显示器件的另一结构示意图;
图7是本公开实施例提供的显示器件的另一结构示意图。
附图标记:
100:实现目标物体定位的装置;110:处理器;120:存储器;130:通信接口;140:总线;200:显示器件;210:位移传感器;220:显示控制器。
具体实施方式
为了能够更加详尽地了解本公开实施例的特点与技术内容,下面结合附图对本公开实施例的实现进行详细阐述,所附附图仅供参考说明之用,并非用来限定本公开实施例。在以下的技术描述中,为方便解释起见,通过多个细节以提供对所披露实施例的充分理解。然而,在没有这些细节的情况下,至少一个实施例仍然可以实施。在其它情况下,为简化附图,熟知的结构和装置可以简化展示。
参见图1,本公开实施例提供了一种实现目标物体定位的方法,包括:
S100:获得目标物体的目标物体位置;
S200:在不经由AP的情况下,向显示控制器提供目标物体位置。
这样,在得到目标物体的目标物体位置后,可以在不经由AP的情况下向显示控制器提供目标物体位置,因此能够尽量避免因处理目标物体位置而导致AP的资源被大量占用的问题。
在一些实施例中,可以通过位移传感器获得目标物体的目标物体位置。
在一些实施例中,在不经由AP的情况下,向显示控制器提供目标物体位置,可以包括:
通过不经由AP的目标物体位置传输通路,向显示控制器提供目标物体位置。
在一些实施例中,目标物体位置传输通路可以是有线通路,也可以是无线通路。
在一些实施例中,还可以确定目标物体位置传输通路。
在一些实施例中,确定目标物体位置传输通路,可以包括:
将预先设置的不经由AP的传输通路作为目标物体位置传输通路;或
在至少两条传输通路中选择不经由AP的传输通路,将选择的不经由AP的传输通路作为目标物体位置传输通路;或
将经由AP的传输通路排除出目标物体位置传输通路。
在一些实施例中,不经由AP的上述传输通路能够连接(有线连接或无线连接)至显示控制器。当这样的传输通路为两条或两条以上时,可以将其中的一条确定为目标物体位置传输通路。可选地,可以基于传输通路的负载、准确率、鲁棒性等实际情况确定目标物体位置传输通路,例如:将两条以上的上述传输通路中负载最低的传输通路确定为目标物体位置传输通路;或,将两条以上的上述传输通路中准确率最高的传输通路确定为目标物体位置传输通路;或,将两条以上的上述传输通路中鲁棒性最高的传输通路确定为目标物体位置传输通路。可选地,也可以将两条以上的上述传输通路中的任一条确定为目标物体位置传输通路。
在一些实施例中,当确定的目标物体位置传输通路因故障、参数(例如:负载、准确率、鲁棒性,等)变化等情况导致不适合传输目标物体位置时,可以重新确定能够传输目标物体位置的目标物体位置传输通路。
在一些实施例中,显示控制器可以是时序控制器T-con。
在一些实施例中,显示控制器也可以是除了T-con以外的能够对显示进行控制的器件。
在一些实施例中,提供目标物体位置,可以包括:
针对显示控制器,主动或被动地发送目标物体位置。
在一些实施例中,也可以针对其他的目标物体位置的需求端主动或被动地发送目标物体位置。可选地,目标物体位置的需求端可以是服务器、应用处理器、路由器、用户终端,等。
在一些实施例中,主动地发送目标物体位置,可以包括:实时或周期性地发送目标物体位置。
在一些实施例中,在实时发送目标物体位置的情况下,可以在获取到目标物体位置后就实时发送目标物体位置。
在一些实施例中,在周期性地发送目标物体位置的情况下,可以根据应用场景、位移传感器的使用时长、工作负载等实际情况考虑对目标物体位置进行发送的发送周期。可选地,可以预先设置发送周期;例如:将发送周期设置为1秒、1分钟、1小时等特定时长或大于等于1秒小于等于1小时等特定时长范围。
在一些实施例中,还可以在满足目标物体位置的发送条件的情况下发送目标物体位置。
在一些实施例中,在满足目标物体位置的发送条件的情况下发送目标物体位置的情况下,可以根据应用场景、位移传感器的使用时长、工作负载等实际情况考虑目标物体位置的发送条件。可选地,可以设置发送条件为:在获取到的目标物体位置数量达到10、50、 80等特定值或大于等于10小于等于80等特定值范围的情况下发送目标物体位置;或,可以设置发送条件为:在位移传感器关机前发送目标物体位置;例如:在位移传感器收到关机信号时,或在位移传感器收到关机信号后、且完成关机之前发送目标物体位置。
在一些实施例中,被动地发送目标物体位置,可以包括:基于接收到的请求发送目标物体位置。
在一些实施例中,在被动地发送目标物体位置的情况下,可以在接收到针对目标物体位置的请求时,或在接收到针对目标物体位置的请求后的特定时间发送目标物体位置。可选地,针对目标物体位置的请求可以是用于读取目标物体位置的读请求;或者,也可以是涉及到或需要用到目标物体位置的其他请求,例如:请求A并不用于直接读取目标物体位置,而是用于触发目标物体定位操作;那么,位移传感器可以在接收到请求A后发送目标物体位置。可选地,上述的请求可以以计算机指令等能够识别的形式存在。
在一些实施例中,发送目标物体位置,可以包括:
直接或间接地向显示控制器发送目标物体位置。
在一些实施例中,在直接向显示控制器等需求端发送目标物体位置的情况下,位移传感器可以与需求端直接连接(例如:有线连接或无线连接),以便直接向需求端发送目标物体位置。
在一些实施例中,在间接向显示控制器等需求端发送目标物体位置的情况下,位移传感器可以与需求端间接连接,例如:位移传感器与需求端之间可以连接(例如:有线连接或无线连接)有中间节点(例如:服务器、应用处理器、路由器,等),位移传感器可以通过中间节点间接向需求端发送目标物体位置。
参见图2,在一些实施例中,获得目标物体的目标物体位置,可以包括:
S110:获得目标物体的目标物体图像;
S120:基于目标物体图像获得目标物体的目标物体位置。
在一些实施例中,获得目标物体的目标物体图像,可以包括:
通过位移传感器获得目标物体图像;
其中,目标物体可以包括用户的眼部,目标物体图像可以包含眼部的眼部空间信息。
在一些实施例中,也可以通过位移传感器以外的器件获得目标物体图像。
在一些实施例中,眼部空间信息可以包括眼部平面位置信息;
获得目标物体的目标物体位置,可以包括:
根据目标物体图像中包含的眼部平面位置信息得到眼部深度信息,从而获得眼部的空间坐标。
在一些实施例中,通过位移传感器获取的眼部平面位置信息中包含眼部深度信息,进而可以根据眼部平面位置信息得到眼部深度信息,并将眼部深度信息转化为用户眼部的空间坐标。
在一些实施例中,还可以移除目标物体图像。
在一些实施例中,移除目标物体图像,可以包括:
将位移传感器中的目标物体图像转移至位移传感器以外的实体,以使得位移传感器中不存在目标物体图像;
将位移传感器中的目标物体图像删除。
在一些实施例中,将位移传感器中的目标物体图像转移至位移传感器以外的实体时,可以将位移传感器中的目标物体图像的原数据转移至位移传感器以外的实体,以使得位移传感器中不存在目标物体图像。可选地,也可以将位移传感器中的目标物体图像的副本转移至位移传感器以外的实体,并将位移传感器中的目标物体图像的原数据删除,以使得位移传感器中不存在目标物体图像。可选地,无论是目标物体图像的原数据还是副本,在将目标物体图像转移至位移传感器以外的实体时,均可通过有线或无线的方式将目标物体图像传输给位移传感器以外的实体。可选地,上述的位移传感器以外的实体可以是需要对目标物体图像进行缓存等后续处理的实体,例如:缓存器、图像处理器,等。可选地,上述的位移传感器以外的实体在对目标物体图像进行缓存等后续处理后,也可以将该目标物体图像删除。
在一些实施例中,将目标物体图像转移至实体,可以包括:
将目标物体图像转移至能够删除目标物体图像的实体。
在一些实施例中,上述的位移传感器以外的实体可以是能够删除目标物体图像的实体,例如:专门用于删除目标物体图像的图像处理器、文件处理器等。可选地,上述的位移传感器以外的实体可以在删除目标物体图像之前缓存该目标物体图像。
在一些实施例中,上述的实体可以是硬件实体,例如:能够对目标物体图像进行处理的物理器件。可选地,上述的实体也可以是软件实体,例如:能够对目标物体图像进行处理的逻辑软件。
参见图3A、图3B、图3C,在一些实施例中,移除目标物体图像,可以包括:
基于目标物体图像获得目标物体的目标物体位置之后,立即移除目标物体图像;或
提供目标物体位置之后,立即移除目标物体图像;或
基于目标物体图像获得目标物体的目标物体位置、或提供目标物体位置之后,在满足 移除条件时移除目标物体图像。
在一些实施例中,参见图3A,移除目标物体图像,可以包括:
S310:基于目标物体图像获得目标物体的目标物体位置;
S311:立即移除目标物体图像。
由图3A可见,可以在获得目标物体位置之后立即移除目标物体图像。
在一些实施例中,参见图3B,移除目标物体图像,可以包括:
S320:提供目标物体位置;
S321:立即移除目标物体图像。
由图3B可见,可以在提供目标物体位置之后立即移除目标物体图像。
在一些实施例中,参见图3C,移除目标物体图像,可以包括:
S330:基于目标物体图像获得目标物体的目标物体位置、或提供目标物体位置;
S331:在满足移除条件时移除目标物体图像。
由图3C可见,可以在获得目标物体位置之后,或提供目标物体位置之后,在满足移除条件时移除目标物体图像。
在一些实施例中,可以根据应用场景、位移传感器的使用时长、工作负载等实际情况考虑移除条件。可选地,可以设置移除条件为:在位移传感器的工作负载达到20%、50%、80%等特定值或大于等于20%小于等于80%等特定值范围的情况下移除目标物体图像。
在一些实施例中,目标物体图像可以包括2D图像或3D图像。
参见图4,本公开实施例提供了一种实现目标物体定位的装置100,包括处理器110和存储有程序指令的存储器120,处理器110被配置为在执行程序指令时,执行上述的实现目标物体定位的方法。
在一些实施例中,图4所示的实现目标物体定位的装置,可以包括:
处理器(processor)110和存储器(memory)120,还可以包括通信接口(Communication Interface)130和总线140。其中,处理器110、通信接口130、存储器120可以通过总线140完成相互间的通信。通信接口130可以用于信息传输。处理器110可以调用存储器120中的逻辑指令,以执行上述实施例的实现目标物体定位的方法。
此外,上述的存储器120中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
存储器120作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序,如本公开实施例中的方法对应的程序指令/模块。处理器110通过运行存储在存储器120中的程序指令/模块,从而执行功能应用以及数据处理,即实现上述方法实施例中的实现目标 物体定位的方法。
存储器120可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端设备的使用所创建的数据等。此外,存储器120可以包括高速随机存取存储器,还可以包括非易失性存储器。
参见图5,本公开实施例提供了一种显示器件200,包括:位移传感器210以及上述的实现目标物体定位的装置100;其中,位移传感器210被配置为在处理器110的控制下执行如下操作:
获得目标物体的目标物体位置;
在不经由AP的情况下,向显示控制器提供目标物体位置。
在一些实施例中,位移传感器210能够执行的上述操作,可以参见前述的相应描述,例如:包括图1至图4以及相对应的技术描述,在此不再赘述。
参见图6,在一些实施例中,显示器件200还可以包括显示控制器220,被配置为接收目标物体位置,据此对显示器件200的像素进行3D渲染,例如:根据目标物体位置分配用于形成左眼图像的像素和用于形成右眼图像的像素,基于分配的像素进行3D图像显示。
在一些实施例中,显示控制器220可以是T-con。
参见图7,在一些实施例中,位移传感器210的数量可以为一个或一个以上,例如:一个、两个、三个或更多。
在一些实施例中,位移传感器210可以为摄像头。可选地,位移传感器210也可以是雷达等能够获得目标物体图像的器件。
在一些实施例中,可以通过至少两个位移传感器210获取包含眼部空间信息的目标物体图像,该眼部空间信息中包含眼部平面位置信息。可选地,对具有不同拍摄角度的至少两个位移传感器210所获得的相应至少两个目标物体图像进行合成等处理后,获得的目标物体图像中所包含的眼部平面位置信息中包含眼部深度信息,进而可以根据目标物体图像中包含的眼部平面位置信息得到眼部深度信息,并将眼部深度信息转化为用户眼部的空间坐标。
在一些实施例中,显示器件还200可以包括用于支持显示器件200正常运转的其他构件,例如:通信接口、框架、控制电路等构件中的至少之一。
在一些实施例中,上述的眼部可以包括眼球,例如用户双眼的眼球。
在一些实施例中,位移传感器210也可以通过确定眼球的视轴等方式确定用户的观看角度/位置。
本公开实施例提供的实现目标物体定位的方法、装置及显示器件,能够尽量避免应用 处理器因处理目标物体位置而导致的大量资源占用。
本公开实施例提供了一种计算机可读存储介质,存储有计算机可执行指令,该计算机可执行指令设置为执行上述的实现目标物体定位的方法。
本公开实施例提供了一种计算机程序产品,包括存储在计算机可读存储介质上的计算机程序,该计算机程序包括程序指令,当该程序指令被计算机执行时,使上述计算机执行上述的实现目标物体定位的方法。
上述的计算机可读存储介质可以是暂态计算机可读存储介质,也可以是非暂态计算机可读存储介质。
本公开实施例提供的计算机可读存储介质和计算机程序产品,能够尽量避免应用处理器因处理目标物体位置而导致的大量资源占用。
本公开实施例的技术方案可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括至少一个指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开实施例的方法的全部或部分步骤。而前述的存储介质可以是非暂态存储介质,包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等多种可以存储程序代码的介质,也可以是暂态存储介质。
以上描述和附图充分地示出了本公开的实施例,以使本领域技术人员能够实践它们。其他实施例可以包括结构的、逻辑的、电气的、过程的以及其他的改变。实施例仅代表可能的变化。除非明确要求,否则单独的部件和功能是可选的,并且操作的顺序可以变化。一些实施例的部分和特征可以被包括在或替换其他实施例的部分和特征。本公开实施例的范围包括权利要求书的整个范围,以及权利要求书的所有可获得的等同物。当用于本申请中时,虽然术语“第一”、“第二”等可能会在本申请中使用以描述各元件,但这些元件不应受到这些术语的限制。这些术语仅用于将一个元件与另一个元件区别开。比如,在不改变描述的含义的情况下,第一元件可以叫做第二元件,并且同样地,第二元件可以叫做第一元件,只要所有出现的“第一元件”一致重命名并且所有出现的“第二元件”一致重命名即可。第一元件和第二元件都是元件,但可以不是相同的元件。而且,本申请中使用的用词仅用于描述实施例并且不用于限制权利要求。如在实施例以及权利要求的描述中使用的,除非上下文清楚地表明,否则单数形式的“一个”(a)、“一个”(an)和“所述”(the)旨在同样包括复数形式。类似地,如在本申请中所使用的术语“和/或”是指包含一个或一个以上相关联的列出的任何以及所有可能的组合。另外,当用于本申请中时,术语“包括”(comprise)及其变型“包括”(comprises)和/或包括(comprising)等指陈述的特征、整体、步骤、操作、 元素,和/或组件的存在,但不排除一个或一个以上其它特征、整体、步骤、操作、元素、组件和/或这些的分组的存在或添加。在没有更多限制的情况下,由语句“包括一个…”限定的要素,并不排除在包括该要素的过程、方法或者设备中还存在另外的相同要素。本文中,每个实施例重点说明的可以是与其他实施例的不同之处,各个实施例之间相同相似部分可以互相参见。对于实施例公开的方法、产品等而言,如果其与实施例公开的方法部分相对应,那么相关之处可以参见方法部分的描述。
本领域技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,可以取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法以实现所描述的功能,但是这种实现不应认为超出本公开实施例的范围。本领域技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本文所披露的实施例中,所揭露的方法、产品(包括但不限于装置、设备等),可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,可以仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例。另外,在本公开实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
在附图中,考虑到清楚性和描述性,可以夸大元件或层等结构的宽度、长度、厚度等。当元件或层等结构被称为“设置在”(或“安装在”、“铺设在”、“贴合在”、“涂布在”等类似描述)另一元件或层“上方”或“上”时,该元件或层等结构可以直接“设置在”上述的另一元件或层“上方”或“上”,或者可以存在与上述的另一元件或层之间的中间元件或层等结构,甚至有一部分嵌入上述的另一元件或层。
附图中的流程图和框图显示了根据本公开实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,上述模块、程序段或代码的一部分包含至少一个用于实现规 定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这可以依所涉及的功能而定。在附图中的流程图和框图所对应的描述中,不同的方框所对应的操作或步骤也可以以不同于描述中所披露的顺序发生,有时不同的操作或步骤之间不存在特定的顺序。例如,两个连续的操作或步骤实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这可以依所涉及的功能而定。框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

Claims (23)

  1. 一种实现目标物体定位的方法,包括:
    获得目标物体的目标物体位置;
    在不经由应用处理器AP的情况下,向显示控制器提供所述目标物体位置。
  2. 根据权利要求1所述的方法,其中,在不经由所述AP的情况下,向显示控制器提供所述目标物体位置,包括:
    通过不经由所述AP的目标物体位置传输通路,向所述显示控制器提供所述目标物体位置。
  3. 根据权利要求2所述的方法,还包括:确定所述目标物体位置传输通路。
  4. 根据权利要求3所述的方法,其中,确定所述目标物体位置传输通路,包括:
    将预先设置的不经由所述AP的传输通路作为所述目标物体位置传输通路;或
    在至少两条传输通路中选择不经由所述AP的传输通路,将选择的不经由所述AP的所述传输通路作为所述目标物体位置传输通路;或
    将经由所述AP的传输通路排除出所述目标物体位置传输通路。
  5. 根据权利要求1所述的方法,其中,所述显示控制器是时序控制器T-con。
  6. 根据权利要求1至5任一项所述的方法,其中,提供所述目标物体位置,包括:
    针对所述显示控制器,主动或被动地发送所述目标物体位置。
  7. 根据权利要求6所述的方法,其中,
    主动地发送所述目标物体位置,包括:实时或周期性地发送所述目标物体位置;
    或,
    被动地发送所述目标物体位置,包括:基于接收到的请求发送所述目标物体位置。
  8. 根据权利要求6所述的方法,其中,发送所述目标物体位置,包括:
    直接或间接地向所述显示控制器发送所述目标物体位置。
  9. 根据权利要求1至8任一项所述的方法,其中,所述获得目标物体的目标物体位置,包括:
    获得目标物体的目标物体图像,基于所述目标物体图像获得所述目标物体的目标物体位置。
  10. 根据权利要求9所述的方法,其中,所述获得目标物体的目标物体图像,包括:
    通过位移传感器获得所述目标物体图像;
    其中,所述目标物体包括用户的眼部,所述目标物体图像包含所述眼部的眼部空间信息。
  11. 根据权利要求10所述的方法,其中,所述眼部空间信息包括眼部平面位置信息;
    获得所述目标物体的目标物体位置,包括:
    根据所述目标物体图像中包含的眼部平面位置信息得到眼部深度信息,从而获得所述眼部的空间坐标。
  12. 根据权利要求9所述的方法,还包括:移除所述目标物体图像。
  13. 根据权利要求12所述的方法,其中,移除所述目标物体图像,包括:
    将所述位移传感器中的所述目标物体图像转移至所述位移传感器以外的实体,以使得所述位移传感器中不存在所述目标物体图像;
    将所述位移传感器中的所述目标物体图像删除。
  14. 根据权利要求13所述的方法,其中,将所述目标物体图像转移至所述实体,包括:
    将所述目标物体图像转移至能够删除所述目标物体图像的所述实体。
  15. 根据权利要求13所述的方法,其中,移除所述目标物体图像,包括:
    基于所述目标物体图像获得所述目标物体的目标物体位置之后,立即移除所述目标物体图像;或
    提供所述目标物体位置之后,立即移除所述目标物体图像;或
    基于所述目标物体图像获得所述目标物体的目标物体位置、或提供所述目标物体位置之后,在满足移除条件时移除所述目标物体图像。
  16. 根据权利要求9所述的方法,其中,所述目标物体图像包括2D图像或3D图像。
  17. 一种实现目标物体定位的装置,包括处理器和存储有程序指令的存储器,所述处理器被配置为在执行所述程序指令时,执行如权利要求1至16任一项所述的方法。
  18. 一种显示器件,包括:位移传感器以及如权利要求17所述的装置;
    其中,所述位移传感器被配置为在所述处理器的控制下执行如下操作:
    获得目标物体的目标物体位置;
    在不经由AP的情况下,向显示控制器提供所述目标物体位置。
  19. 根据权利要求18所述的显示器件,还包括显示控制器,被配置为接收所述目标物体位置,据此对所述显示器件的像素进行3D渲染。
  20. 根据权利要求18或19所述的显示器件,其中,所述位移传感器的数量为一个或一个以上。
  21. 根据权利要求20所述的显示器件,其中,所述位移传感器为摄像头。
  22. 一种计算机可读存储介质,存储有计算机可执行指令,所述计算机可执行指令设置为执行如权利要求1至16任一项所述的方法。
  23. 一种计算机程序产品,包括存储在计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当该程序指令被计算机执行时,使所述计算机执行如权利要求1至16任一项所述的方法。
PCT/CN2021/105672 2020-07-15 2021-07-12 实现目标物体定位的方法、装置及显示器件 WO2022012455A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/015,962 US20230326431A1 (en) 2020-07-15 2021-07-12 Method and apparatus for implementing target object positioning and display device
EP21842654.2A EP4184915A4 (en) 2020-07-15 2021-07-12 METHOD AND APPARATUS FOR IMPLEMENTING TARGET OBJECT POSITIONING, AND DISPLAY COMPONENT

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010681260.5 2020-07-15
CN202010681260.5A CN113947652A (zh) 2020-07-15 2020-07-15 实现目标物体定位的方法、装置及显示器件

Publications (1)

Publication Number Publication Date
WO2022012455A1 true WO2022012455A1 (zh) 2022-01-20

Family

ID=79325902

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/105672 WO2022012455A1 (zh) 2020-07-15 2021-07-12 实现目标物体定位的方法、装置及显示器件

Country Status (5)

Country Link
US (1) US20230326431A1 (zh)
EP (1) EP4184915A4 (zh)
CN (1) CN113947652A (zh)
TW (1) TWI816153B (zh)
WO (1) WO2022012455A1 (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102957926A (zh) * 2011-08-18 2013-03-06 乐金显示有限公司 三维图像显示装置及其驱动方法
US20140063083A1 (en) * 2012-09-03 2014-03-06 Samsung Display Co., Ltd. Display apparatus and method for enabling perception of three-dimensional images
CN105653067A (zh) * 2014-11-27 2016-06-08 三星电子株式会社 定点设备、接口设备和显示设备
CN105812774A (zh) * 2014-12-29 2016-07-27 广东省明医医疗慈善基金会 基于插管镜的立体显示系统及方法
CN105812776A (zh) * 2014-12-29 2016-07-27 广东省明医医疗慈善基金会 基于软镜的立体显示系统及方法
CN112584124A (zh) * 2019-09-30 2021-03-30 北京芯海视界三维科技有限公司 实现3d显示的方法及装置、3d显示终端
CN113010020A (zh) * 2021-05-25 2021-06-22 北京芯海视界三维科技有限公司 一种时序控制器和显示设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4760973B2 (ja) * 2008-12-16 2011-08-31 カシオ計算機株式会社 撮像装置及び画像処理方法
TWI603288B (zh) * 2013-10-15 2017-10-21 萬里科技股份有限公司 在3d空間中將3d幾何數據用於虛擬實境圖像的呈現和控制的方法
US9538915B2 (en) * 2014-01-21 2017-01-10 Osterhout Group, Inc. Eye imaging in head worn computing
JP7050067B2 (ja) * 2016-12-14 2022-04-07 サムスン エレクトロニクス カンパニー リミテッド ディスプレイ装置及びその制御方法
KR102463712B1 (ko) * 2017-11-24 2022-11-08 현대자동차주식회사 가상 터치 인식 장치 및 그의 인식 오류 보정 방법
KR102652943B1 (ko) * 2018-12-03 2024-03-29 삼성전자주식회사 3차원 영상 출력 방법 및 그 방법을 수행하는 전자 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102957926A (zh) * 2011-08-18 2013-03-06 乐金显示有限公司 三维图像显示装置及其驱动方法
US20140063083A1 (en) * 2012-09-03 2014-03-06 Samsung Display Co., Ltd. Display apparatus and method for enabling perception of three-dimensional images
CN105653067A (zh) * 2014-11-27 2016-06-08 三星电子株式会社 定点设备、接口设备和显示设备
CN105812774A (zh) * 2014-12-29 2016-07-27 广东省明医医疗慈善基金会 基于插管镜的立体显示系统及方法
CN105812776A (zh) * 2014-12-29 2016-07-27 广东省明医医疗慈善基金会 基于软镜的立体显示系统及方法
CN112584124A (zh) * 2019-09-30 2021-03-30 北京芯海视界三维科技有限公司 实现3d显示的方法及装置、3d显示终端
CN113010020A (zh) * 2021-05-25 2021-06-22 北京芯海视界三维科技有限公司 一种时序控制器和显示设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4184915A4

Also Published As

Publication number Publication date
TW202205090A (zh) 2022-02-01
EP4184915A4 (en) 2024-01-10
TWI816153B (zh) 2023-09-21
EP4184915A1 (en) 2023-05-24
CN113947652A (zh) 2022-01-18
US20230326431A1 (en) 2023-10-12

Similar Documents

Publication Publication Date Title
EP3574407B1 (en) No miss cache structure for real-time image transformations with data compression
KR102363364B1 (ko) 파노라마 비디오의 상호작용적 전송을 위한 방법 및 시스템
KR20220009393A (ko) 이미지 기반 로컬화
EP3574408B1 (en) No miss cache structure for real-time image transformations
JP4297197B2 (ja) キャリブレーション処理装置、およびキャリブレーション処理方法、並びにコンピュータ・プログラム
EP1501051A2 (en) Position and orientation detection method and apparatus
JP5500513B2 (ja) 2次元(2d)ビデオメッセンジャアプリケーションのための3次元(3d)ビデオ
JP2012216946A (ja) 情報処理装置、情報処理方法、および位置情報のデータ構造
US20220067974A1 (en) Cloud-Based Camera Calibration
US20210181506A1 (en) Image Display Method, Apparatus, and System
JP2022046260A5 (ja) 画像処理装置、画像処理方法、記録媒体およびプログラム
JP2009253810A5 (zh)
WO2022012455A1 (zh) 实现目标物体定位的方法、装置及显示器件
CN109785265A (zh) 畸变矫正图像处理方法及图像处理装置
WO2022012454A1 (zh) 实现目标物体定位的方法、装置及显示器件
EP3429186B1 (en) Image registration method and device for terminal
US9519487B2 (en) System-on-chip and method of operating the same
US20200169672A1 (en) Image Processing Method and Terminal
KR102543136B1 (ko) 클라우드 vr 기반의 3차원 영상 제공 방법
WO2022033314A1 (zh) 3d显示方法、3d显示装置及3d显示器件
WO2017120767A1 (zh) 一种头部姿态预测方法和装置
WO2023279868A1 (zh) 同步定位与建图初始化方法、装置及存储介质
CN117369750A (zh) 画面显示方法、装置、设备、存储介质和程序产品
CN115878548A (zh) 用于相机使能装置的低延迟增强现实架构
KR101832940B1 (ko) 스테레오 영상 처리 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21842654

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021842654

Country of ref document: EP

Effective date: 20230215