WO2014161306A1 - 数据显示方法、装置及终端、显示控制方法及装置 - Google Patents

数据显示方法、装置及终端、显示控制方法及装置 Download PDF

Info

Publication number
WO2014161306A1
WO2014161306A1 PCT/CN2013/086893 CN2013086893W WO2014161306A1 WO 2014161306 A1 WO2014161306 A1 WO 2014161306A1 CN 2013086893 W CN2013086893 W CN 2013086893W WO 2014161306 A1 WO2014161306 A1 WO 2014161306A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
terminal
display
collected
target area
Prior art date
Application number
PCT/CN2013/086893
Other languages
English (en)
French (fr)
Inventor
杨庭栋
Original Assignee
中兴通讯股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中兴通讯股份有限公司 filed Critical 中兴通讯股份有限公司
Publication of WO2014161306A1 publication Critical patent/WO2014161306A1/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements

Definitions

  • the present invention relates to display technologies of terminals, and in particular, to a data display method, device and terminal, data display control method and device. Background technique
  • the existing optical image stabilization technology does not make the body not shake. It relies on a special lens or Charge-Coupled Device (CCD).
  • CCD Charge-Coupled Device
  • the structure of the CCD sensor is used to minimize the operator's use. In the process, the image is unstable due to jitter, which is a hardware processing solution.
  • Existing software processing solutions such as electronic image stabilization, analyze the image on the CCD and then use the edge image to compensate. Just like optical zoom and digital zoom, although it can control the display of data, it is only The collected data is post-processed, and there is still a certain degree of damage to the image quality. With the above two schemes, only the effective range of anti-shake can be achieved, and the visual fatigue cannot be effectively alleviated. Summary of the invention
  • a data display method the method includes:
  • the display content is displayed in the target area of the terminal according to the pre-processed result.
  • the terminal target area comprises: a full screen display area on the terminal, or a window display area on the terminal.
  • the parameter change amount obtained when the relative position between the user and the terminal changes according to the collected data specifically includes:
  • the collected data includes at least the collected facial image data of the user, and the relative position between the face and the terminal of the user is changed according to the facial image data of the user.
  • the amount of parameter change is not limited to the measured facial image data of the user.
  • the parameter change amount when the relative position between the face of the user and the terminal changes according to the facial image data of the user specifically includes:
  • the pre-processing of the position of the terminal target area to output the display content is performed according to the parameter change amount, and the relative position between the display content and the user is relatively static, specifically including:
  • the collected data further includes a distance value between the user and the terminal, and a user average eyeball parameter. Obtaining an offset of the display content on the target area of the terminal according to the displacement vector value, the distance value between the user and the terminal, and the user average eyeball parameter; and the terminal target according to the offset amount Pre-processing adjustments are made to the location of the content displayed on the area.
  • the parameter change amount when the relative position between the face of the user and the terminal changes according to the facial image data of the user specifically includes:
  • the pre-processing of the position of the terminal target area to output the display content is performed according to the parameter change amount, and the relative position between the display content and the user is relatively static, specifically including:
  • the collected data further includes a distance value between the user and the terminal, and a user average eyeball parameter, and the terminal target area is obtained according to the area change rate value, the distance value between the user and the terminal, and the average eyeball parameter of the user.
  • the amount of adjustment of the content size is displayed;
  • the center of the position that the user is currently watching is obtained
  • Pre-processing adjustment is performed according to the adjustment amount and the position center to the position of the content displayed on the target area of the terminal.
  • the method further comprises: intervening according to the average reading speed of the user, the average reading speed of the user is based on the time interval of displaying the content in the target area of the terminal and the content amount of the displayed content each time the user refreshes the target area. get.
  • the parameter change amount when the relative position between the face of the user and the terminal changes according to the facial image data of the user specifically includes: Separating the head face contour in the collected face image data of the user, establishing a data model corresponding to the contour shape of the head face, determining the coordinates of the center point position of the face according to the established data model, and establishing a face reference pattern;
  • the pre-processing of the position of the terminal target area to output the display content is performed according to the parameter change amount, and the relative position between the display content and the user is relatively static, specifically including:
  • the position of the display content on the target area of the terminal is pre-processed according to the value of the face deflection angle, so that the display content on the target area of the terminal and the deflection angle of the head in the direction of the display plane of the terminal are consistent.
  • a data display device comprising:
  • a collector configured to collect data
  • the processor is configured to: obtain a parameter change amount when the relative position between the user and the terminal changes according to the collected data; preprocess the position of the terminal target area to output the display content according to the parameter change amount, and maintain the display content and the user The relative position between the two is relatively static, and the display content is output to the display according to the preprocessed result;
  • the display is configured to display the display content according to the pre-processed result in the target area of the terminal.
  • the processor comprises:
  • the first sub-processor is configured to: when the reference coordinates are based on the head face of the user, the collected data includes at least the collected facial image data of the user, and the user's face is obtained according to the facial image data of the user.
  • the processor further includes a second sub-processor;
  • the first sub-processor is configured to separate a head face contour in the collected face image data of the user, establish a data model corresponding to the contour of the head face contour, and determine a center point position coordinate of the shape according to the established data model; Comparing the center point position coordinates obtained by processing the face image data of the user currently acquired in real time with the center point position coordinates obtained by processing the face image data of the user acquired last time, and comparing the obtained displacement vector values as The parameter change amount;
  • a second sub-processor configured to: when the collected data further includes a distance value between the user and the terminal, and a user average eyeball parameter, according to the displacement vector value, the distance between the user and the terminal, and the average of the user
  • the eyeball parameter obtains an offset of the display content on the target area of the terminal; and performs pre-processing adjustment on the position of the content displayed on the target area of the terminal according to the offset.
  • the processor further includes a second sub-processor
  • the first sub-processor is configured to separate a head face contour in the collected face image data of the user, establish a data model corresponding to the shape of the head face contour, and determine an area of the shape according to the established data model;
  • the area obtained by processing the face image data of the user collected in real time is compared with the area obtained by processing the face image data of the user who was last collected, and the obtained area change rate value is used as the parameter change amount;
  • a second sub-processor configured to: when the collected data further includes a distance value between the user and the terminal, and a user average eyeball parameter, according to the area change rate value, the distance between the user and the terminal, and the user The average eyeball parameter is obtained, and the adjustment amount of the display content size in the target area of the terminal is obtained; according to the content amount, the display area, and the current time amount when the display content is refreshed last time, the location center currently viewed by the user is obtained;
  • Pre-processing adjustment is performed according to the adjustment amount and the position center to the position of the content displayed on the target area of the terminal.
  • the first sub-processor is configured to intervene according to an average reading speed of the user, and the average reading speed of the user is updated according to the user each time.
  • the time interval in which the content is displayed in the target area and the amount of content of the displayed content are obtained.
  • the processor further includes a second sub-processor
  • the first sub-processor is configured to separate a head face contour in the collected face image data of the user, establish a data model corresponding to the contour shape of the head face, and determine a coordinate of the center point position of the face according to the established data model, and establish Face reference graphic;
  • the second sub-processor is configured to perform pre-processing adjustment on the position of the display content on the target area of the terminal according to the facial deflection angle value, so that the display content on the terminal target area and the head are deflected in the direction of the display plane of the terminal The angle is consistent.
  • a data display control method comprising:
  • a data display control device comprising:
  • the processor is configured to: obtain a parameter change amount when the relative position between the user and the terminal changes according to the collected data; preprocess the position of the terminal target area to output the display content according to the parameter change amount, and maintain the display content and the user The relative position between the two is relatively static, and the display content is output to the display according to the preprocessed result.
  • a terminal comprising the above data display device.
  • the method of the embodiment of the present invention includes: obtaining a parameter change amount when the relative position between the user and the terminal changes according to the collected data; pre-processing the position of the terminal target area to output the display content according to the parameter change amount, and maintaining the display
  • the relative position between content and user is relatively static
  • the display content is displayed in the target area of the terminal according to the pre-processed result.
  • the parameter change amount when the relative position between the user and the terminal changes is obtained according to the collected data, and the position of the terminal target area to output the display content is preprocessed according to the parameter change amount, and the display is maintained.
  • the relative position between the content and the user is relatively static, so that when the terminal target area displays the display content according to the pre-processed result, the relative position between the display content and the user is relatively static, and the effective anti-shake effect is achieved.
  • FIG. 1 is a schematic flowchart of an implementation process of a data display method according to an embodiment of the present invention
  • FIG. 2 is a schematic structural diagram of a data display device according to an embodiment of the present invention. detailed description
  • the data display method of the embodiment of the present invention includes the following steps: Step 101: Collect data;
  • Step 102 Obtain a parameter change amount when a relative position between the user and the terminal changes according to the collected data.
  • Step 103 Pre-process the position where the display content needs to be outputted in the target area of the terminal according to the obtained parameter change amount, and keep the relative position between the display content and the user relatively static;
  • Step 104 Display the display content according to the pre-processed result in the target area of the terminal.
  • the terminal target area may be a full screen display area or a window display area.
  • the specific processing of step 102 is step 1021:
  • the collected data includes at least the collected facial image data of the user, and the relative position between the face and the terminal of the user is changed according to the facial image data of the user.
  • the amount of parameter change is not limited to the measured facial image data of the user.
  • step 1021 the user's face is obtained according to the facial image data of the user.
  • the amount of parameter change when the relative position changes with the terminal includes:
  • step 103 specifically includes:
  • the collected data further includes a distance value between the user and the terminal, and a user average eyeball parameter, and further may be combined with the user according to the displacement vector value, the distance value between the user and the terminal, and the average eyeball parameter of the user. Adjusting the compensation value to obtain an offset of the display content on the target area of the terminal; and pre-adjusting the position of the content displayed on the target area of the terminal according to the offset.
  • the display content is then output to the terminal target area for display according to the pre-processed result.
  • the pre-processed result includes: an offset of the display content on the target area of the terminal.
  • the amount of parameter change when the relative position between the face and the user of the user changes according to the facial image data of the user in the step 1021 includes:
  • step 103 specifically includes:
  • the collected data further includes a distance value between the user and the terminal, and a user average eyeball parameter. And according to the area change rate value, the distance value between the user and the terminal, and the average eyeball parameter of the user, further, the adjustment amount of the display content in the target area of the terminal may be obtained by combining the compensation value adjusted by the user;
  • the center of the position that the user is currently watching is obtained
  • Pre-processing adjustment is performed according to the adjustment amount and the position center to the position of the content displayed on the target area of the terminal.
  • the display content is then output to the terminal target area for display according to the pre-processed result.
  • the pre-processed results include: the amount of adjustment of the displayed content size in the target area of the terminal, and the location center of the user's current gaze.
  • the method further includes: intervening according to the average reading speed of the user, wherein the average reading speed of the user is obtained according to the time interval of displaying the content in the target area of the terminal and the content amount of the displayed content. .
  • the amount of parameter change when the relative position between the face and the user of the user changes according to the facial image data of the user in the step 1021 includes:
  • step 103 specifically includes:
  • the angle of deflection in the plane direction remains the same.
  • the display content is then output to the terminal target area for display according to the pre-processed result.
  • the pre-processed result includes: a deflection angle of the display content on the target area of the terminal.
  • the data display device of the embodiment of the present invention includes:
  • the collector is configured to collect data; the collector can be a camera;
  • the processor is configured to: obtain a parameter change amount when the relative position between the user and the terminal changes according to the collected data; preprocess the position of the terminal target area to output the display content according to the parameter change amount, and maintain the display content and the user The relative position between the two is relatively static, and the display content is output to the display according to the preprocessed result;
  • the display is configured to display the display content according to the pre-processed result in the target area of the terminal.
  • the device may also include a sensor. The specific description of the sensor is exemplified in the following examples, and is not described herein.
  • the processor includes:
  • the first sub-processor is configured to: when the reference coordinates are based on the head face of the user, the collected data includes at least the collected facial image data of the user, and the user's face is obtained according to the facial image data of the user.
  • the processor further includes a second sub-processor
  • the first sub-processor is configured to separate a head face contour in the collected face image data of the user, establish a data model corresponding to the contour of the head face contour, and determine a center point position coordinate of the shape according to the established data model; Comparing the center point position coordinates obtained by processing the face image data of the user currently acquired in real time with the center point position coordinates obtained by processing the face image data of the user acquired last time, and comparing the obtained displacement vector values as The parameter change amount;
  • a second sub-processor configured to: when the collected data further includes a distance value between the user and the terminal, and a user average eyeball parameter, according to the displacement vector value, the distance between the user and the terminal And the average eyeball parameter of the user, obtaining an offset of the display content on the target area of the terminal; and pre-adjusting the position of the content displayed on the target area of the terminal according to the offset.
  • the processor further includes a second sub-processor
  • the first sub-processor is configured to separate a head face contour in the collected face image data of the user, establish a data model corresponding to the shape of the head face contour, and determine an area of the shape according to the established data model;
  • the area obtained by processing the face image data of the user collected in real time is compared with the area obtained by processing the face image data of the user who was last collected, and the obtained area change rate value is used as the parameter change amount;
  • a second sub-processor configured to: when the collected data further includes a distance value between the user and the terminal, and a user average eyeball parameter, according to the area change rate value, the distance between the user and the terminal, and the user The average eyeball parameter is obtained, and the adjustment amount of the display content size in the target area of the terminal is obtained; according to the content amount, the display area, and the current time amount when the display content is refreshed last time, the location center currently viewed by the user is obtained;
  • Pre-processing adjustment is performed according to the adjustment amount and the position center to the position of the content displayed on the target area of the terminal.
  • the first sub-processor is configured to intervene according to the average reading speed of the user, and the average reading speed of the user is based on the time interval and display of the content displayed in the target area of the terminal each time the user refreshes the user. The amount of content of the content is obtained.
  • the processor further includes a second sub-processor
  • the first sub-processor is configured to separate a head face contour in the collected face image data of the user, establish a data model corresponding to the contour shape of the head face, and determine a coordinate of the center point position of the face according to the established data model, and establish Face reference graphic;
  • the second sub-processor is configured to perform pre-processing adjustment on the position of the display content on the target area of the terminal according to the facial deflection angle value, so that the display content on the terminal target area and the head are deflected in the direction of the display plane of the terminal The angle is consistent.
  • a data display control method includes:
  • the processor is configured to: obtain a parameter change amount when the relative position between the user and the terminal changes according to the collected data; preprocess the position of the terminal target area to output the display content according to the parameter change amount, and maintain the display content and the user The relative position between the two is relatively static, and the display content is output to the display according to the preprocessed result.
  • the terminal of the embodiment of the present invention includes the above data display device, and the data display device is mainly applied to a portable mobile terminal, such as a smart phone or a tablet computer.
  • the embodiment of the present invention is mainly implemented by a collector, such as a front camera, a display, and a processor.
  • the camera and the processor use a CSI interface to transmit image data information collected by the camera to the processor;
  • the DSI interface is used with the display to transmit the display data after the processor is adjusted by the adaptive anti-shake algorithm to the display.
  • the main process of the embodiment of the present invention includes: the camera collects the head face image of the user of the handheld terminal device and transmits the image to the processor; the processor analyzes the image information, and calculates the relative position of the user's head face and the handheld device, Obtaining a relative displacement between the two; the processor adjusts the position of the display content of the current target area according to the relative displacement amount, and ensures that the relative position of the display content of the user's head and the handheld device is unchanged within the threshold range, and outputs to monitor.
  • An embodiment of the present invention is an adaptively controlled data display result output, in a handheld device
  • the relative position between the user and the terminal used by the user is changed frequently, the relative position of the display content and the relative position of the eye is kept static, and the unnecessary movement adjustment of the eyeball caused by the device shake is effectively reduced, thereby effectively preventing the display of the terminal.
  • the effect of shaking, especially the anti-shake on the display of mobile phone text applies the electronic image stabilization technology to the display function of the handheld terminal device, thereby reducing the damage caused to the eyes during reading and alleviating the occurrence of visual fatigue.
  • the best applicable scenario of the embodiment of the present invention is: for solving the problem that the "target of gaze is too small, too fine or unstable" in the reading process, the visual fatigue caused by such environmental factors can be effectively reduced, and the embodiment of the present invention is different from the present invention.
  • the technique is post-processing of the picture data itself.
  • the embodiment of the present invention is an adaptive anti-shake operation adjustment that changes as needed, and can also be understood as pre-processing before the picture data is displayed, and the prior art is post-processing. In contrast, embodiments of the invention are more advantageous.
  • the invention is illustrated by way of example below.
  • the hardware module part of the embodiment of the present invention includes:
  • a collector such as a front camera, is located on the same side of the display device to capture an image of the user's face and collect spatial location information of the user's head;
  • a processor including various hardware devices of a handheld device embedded processing system, having face recognition and an anti-shake operation applying adaptive adjustment of an embodiment of the present invention.
  • Sensor which is an optional module, does not have to be included, and is applied to scenes that require intelligent adjustment for real-time acquisition of motion parameters of the handheld terminal.
  • the use of the handheld terminal has the characteristics of movement.
  • the use of the handheld device is a very common use scenario, such as walking, riding a vehicle, and the like. Taking a bus as an example, when the vehicle starts, due to inertia, the passenger will tilt backwards and then return to the original state; when the vehicle runs bumps, the passenger will follow the downward undulating motion. In these changes, the handheld device is an unstable structure by forming a loose connection state between the human joint and the head.
  • the movement of the head is not synchronized with the movement of the hand-held terminal, there will be differences in time and amplitude, resulting in relative motion of the handheld device and the head, particularly the eye, referred to herein as jitter. Even if the user is in a prohibited state, such as standing, sitting or lying down, the handheld device still experiences slight jitter with respect to the head, especially the eyes, due to heartbeat and pulse.
  • the anti-shake function is mainly used for anti-shake of text display, but it is not limited to text, and can also include static display information such as two-dimensional images and three-dimensional images.
  • Embodiments of the present invention reduce or even eliminate jitter by compensating for relative motion caused by the above-described causes.
  • the anti-shake function can be in window mode or full screen mode.
  • window mode the window size can be adjusted at will. Dynamic tracking and adjustment of text display within the window.
  • full screen mode the full screen display range needs to be reduced by a certain distance to ensure that the target content does not exceed the screen due to adjustment.
  • Two-dimensional adjustment only achieves the movement of the target up, down, left, and right.
  • the three-dimensional adjustment also includes the adjustment of the front-rear distance, that is, the dynamic change of the size of the text.
  • Multidimensional adjustments include three-dimensionally adjusted content, as well as angular rotation of text in different directions. The ultimate goal is to make the user feel that the target content is relatively static.
  • the application interface can be implemented in the menu mode or the shortcut button mode.
  • the window mode is similar to the magnifying glass function and can be touched by two fingers or with a preset size.
  • the window mode can effectively reduce the amount of calculation of the processor module and improve the efficiency of the algorithm.
  • the full-screen mode has a better user experience, and does not adjust part of the content but does not adjust the other part, causing the user to have an illusion and interfere with normal reading.
  • the user can open the reading anti-shake function through menu items or buttons when needed, and select the corresponding anti-shake adjustment complexity.
  • the handheld terminal can be based on the degree of anti-shake complexity selected by the user. Perform the appropriate initialization process and prompt the user to perform the necessary operations. For example, the device needs to face the user, the front camera focuses on the face of the user's head and records the image for backup.
  • the processor calculates the distance between the user and the handheld device according to the amount of focus and the camera parameters.
  • the pre-processing camera records the initialization image data and turns on the anti-shake algorithm to perform real-time adjustment.
  • the window and the window are entirely offset to the right side of the handheld device.
  • the window and the contents of the window will be offset overall above the handheld device. If the handheld shakes back and forth in the display plane direction, the contents of the window and the window will be compensated back and forth with the jitter, and the user will feel that the contents of the window and the window have not moved.
  • the display area of the handheld terminal is not infinite, it only occupies a part of the user's perspective, so when some jitter is too large, the adjustment of the processor will make the window beyond the scope of the display. Therefore, it is necessary to set a reasonable window size, the amplitude of each frame adjustment, and the threshold of the cumulative adjustment. This not only ensures the anti-shake effect, but also hides part of the display content because the jitter is too large.
  • Application scenario 1 Two-dimensional adjustment (displacement adjustment), including the following:
  • the camera captures the head face image of the handheld device user in real time and transmits it to the processor;
  • the processor receives the image information and performs digital image processing to separate the head face contours in the image, and establish a two-dimensional model of the abstract shape (circular, elliptical or rectangular) to determine the center of the shape. Point position coordinates. The origin of the coordinate system uses the center of the camera's viewing range.
  • the processor compares the acquired coordinates of the center point of the model with the coordinate position of the center point obtained after processing the previous image to calculate the displacement vector.
  • the processor calculates the offset of the target area according to the displacement vector value of the user's head, the distance between the user and the device, the target user's average eyeball parameter, and the user-adjusted compensation value.
  • the user adjusted offset value is optional, not required.
  • the processor adjusts the position of the content of the display device target area according to the offset of the target area. And output to the display.
  • the compensation value that the user can adjust needs to be set before the user uses it. If there is no setting, no compensation is made. That is, the calculation is performed according to the average parameter.
  • the compensation setting can be used to move the handheld device up and down and left and right after the anti-shake function is activated, and adjust the compensation amount according to the feeling until the window does not move with the movement of the handheld device.
  • the method of operation can be a numerical adjustment of the scroll bar method.
  • the camera captures the head face image of the handheld device user in real time and transmits it to the processor module;
  • the processor receives the image information, performs digital image processing, establishes an abstract two-dimensional model, and calculates the area of the current two-bit model.
  • the processor compares the area of the current two-bit model with the area obtained by the previous image processing, and obtains the ratio of the area change, expressed as a percentage.
  • the processor calculates the adjustment amount of the target area according to the change of the head area of the user, the distance value of the user and the device, the average eyeball parameter, and the compensation value adjusted by the user.
  • the adjustment amount is how many times the pointer enlarges or reduces the target area based on the center of the position obtained for the subsequent position center.
  • the user adjusted offset value is optional, not required.
  • the processor calculates the average reading speed of the user according to the time interval and the content amount of the content of the target area each time the user refreshes the content; and calculates the current gaze position according to the amount of the most recently refreshed content, the area and the current time amount. center.
  • the average reading speed is to obtain the intervention value used to obtain the center of the position more accurately.
  • the amount of content, the region, and the current amount of time that were last refreshed are also intervention values.
  • the average reading speed can be arbitrarily combined with the amount of content that was last refreshed, the region, and the current amount of time, and the accuracy of the location center is intervened.
  • the average reading speed refers to: how many words the user sees in the unit time, such as how many words are viewed per second.
  • the processor puts the target area according to the center of the current gaze and the adjustment of the size of the area. Large or small, and output to the display. When the head is away, the head area becomes small, and at this time, the target is enlarged to offset the change in the content of the target area due to the larger distance. Similarly, when the head is close, it is necessary to adjust the size of the content of the target area.
  • Application scenario 3 Angle adjustment (based on the display plane), including the following:
  • the camera captures the head face image of the handheld device user in real time and transmits it to the processor;
  • the processor receives the image information, performs digital image processing, determines the coordinates of the center point of the head, and establishes a face reference graphic.
  • the processor compares the acquired reference pattern with the reference pattern obtained after processing the previous image to obtain a head deflection angle.
  • the processor synchronously adjusts the deflection angle of the content of the target area of the display device according to the head deflection angle, so that the content of the target area is consistent with the deflection angle of the head in the plane of the display in the threshold range.
  • Application Scenario 4 Intelligent adjustment based on sensors (based on the implementation principle of the above application scenarios one to three, the intelligent adjustment here is more advantageous for the adjustment of the anti-shake effect), including the following:
  • the intelligent adjustment is based on the sensor.
  • the implementation principle is different from the above application scenarios.
  • the implementation principle is based on the user's head face as the coordinate reference object, but on the earth (ground) as the coordinate reference object.
  • the processor records according to the sensor.
  • the handheld device comprehensively judges the current situation with respect to the motion parameters of the earth, including direction, speed, acceleration, and motion trajectory, and implements the data collected by the camera according to the previous period or all the records of the database and the processing manner. In contrast, the anti-shake adjustment operation without delay and high efficiency is realized.
  • the processor searches for the corresponding history from the database according to the intensity and magnitude of the bump, and presets an adjustment strategy for a period of time after the needle to reduce the amount of calculation. Achieve zero delay effect. Intelligent adjustment Thanks to the sensor-based, anti-shake adjustment operation without delay and high efficiency can be realized.
  • the above-mentioned multiple adjustment scenarios are applicable to the case where the target target area is the window mode, and the terminal target area is the full screen mode.
  • the window mode it is a partial adjustment mode, which is to adjust a part of the display screen.
  • full-screen mode it is a comprehensive adjustment mode, which is to adjust all the display screens.
  • the full-screen mode has a better user experience. It will not be adjusted because some parts are adjusted and the other part is not adjusted, which makes the user feel illusion and interfere. Normal reading. It should be pointed out that setting a reasonable window size, the amplitude of each frame adjustment, and the threshold of the cumulative adjustment amplitude can not only ensure the anti-shake effect, but also hide some of the display content because the jitter is too large.
  • the parameter change amount when the relative position between the user and the terminal changes is obtained according to the collected data, and the position of the terminal target area to output the display content is preprocessed according to the parameter change amount, and the display content is maintained.
  • the relative position between the users is relatively static, so that when the display target content is displayed according to the pre-processed result in the target area of the terminal, the relative position between the display content and the user is relatively static, and the effective defense is achieved. Shake the effect.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种数据显示方法、装置及终端、数据显示控制方法及装置,该方法包括:根据采集的数据得到用户与终端间相对位置变化时的参数变化量;根据所述参数变化量对终端目标区域需输出显示内容的位置进行预处理,保持所述显示内容与用户间的相对位置为相对静止;在所述终端目标区域按照预处理后的结果对显示内容进行显示。

Description

数据显示方法、 装置及终端、 显示控制方法及装置 技术领域
本发明涉及终端的显示技术, 尤其涉及一种数据显示方法、 装置及终 端、 数据显示控制方法及装置。 背景技术
随着读书的工具越来越先进, 眼睛却已难以承受。 如今手机读书、 网 络读书等现代阅读方式最容易产生视疲劳, 引入光学防抖技术可以有效的 緩解视疲劳。
本申请发明人在实现本申请实施例技术方案的过程中, 至少发现现有 技术中存在如下技术问题:
现有的光学防抖技术, 并不是让机身不抖动, 它是依靠特殊的镜头或 者电荷耦合元件 (CCD, Charge-Coupled Device ), 利用该 CCD感光元件的 结构最大程度的降低操作者在使用过程中由于抖动造成的影像不稳定, 是 一种硬件处理方案。 而现有的软件处理方案, 如电子防抖是针对 CCD上的 图像进行分析, 然后利用边缘图像进行补偿, 就像光学变焦和数字变焦一 样, 它虽然能对数据的显示进行控制, 但是只是对采集到的数据进行了后 期处理, 对于画质仍然有一定程度的破坏, 采用上述两个方案, 都只能达 到有效范围的防抖目的, 并不能有效的緩解视疲劳。 发明内容
有鉴于此, 本发明实施例的主要目的在于提供一种数据显示方法、 装 置及终端、 数据显示控制方法及装置, 至少能实现对数据显示的自适应控 制, 达到最佳的数据显示结果, 从而有效地緩解视疲劳。 为达到上述目的, 本发明实施例的技术方案是这样实现的: 一种数据显示方法, 该方法包括:
根据采集的数据得到用户与终端间相对位置变化时的参数变化量; 根据所述参数变化量对终端目标区域需输出显示内容的位置进行预处 理, 保持所述显示内容与用户间的相对位置为相对静止;
在所述终端目标区域按照预处理后的结果对显示内容进行显示。
优选地, 所述终端目标区域包括: 终端上的全屏显示区域、 或终端上 的窗口显示区域。
优选地, 所述根据采集的数据得到用户与终端间相对位置变化时的参 数变化量, 具体包括:
参考坐标基于所述用户的头脸部时, 所述采集的数据至少包括采集的 用户的脸部图像数据, 根据所述用户的脸部图像数据得到用户的脸部与终 端间相对位置变化时的参数变化量。
优选地, 所述根据所述用户的脸部图像数据得到用户的脸部与终端间 相对位置变化时的参数变化量, 具体包括:
将采集的用户的脸部图像数据中的头脸轮廓分离出来, 建立对应头脸 轮廓形状的数据模型, 根据建立的数据模型确定所述形状的中心点位置坐 标;
将针对当前实时采集的用户的脸部图像数据处理后得到的中心点位置 坐标与针对上一次采集的用户的脸部图像数据处理后得到的中心点位置坐 标进行比较, 比较得到的位移矢量值作为所述参数变化量。
优选地, 所述根据所述参数变化量对终端目标区域需输出显示内容的 位置进行预处理, 保持所述显示内容与用户间的相对位置为相对静止, 具 体包括:
所述采集的数据还包括用户与终端间的距离值、 用户平均眼球参数时, 根据所述位移矢量值、 所述用户与终端间的距离值和所述用户平均眼球参 数, 得到所述显示内容在所述终端目标区域上的偏移量; 根据所述偏移量 对终端目标区域上显示内容的位置进行预处理调整。
优选地, 所述根据所述用户的脸部图像数据得到用户的脸部与终端间 相对位置变化时的参数变化量, 具体包括:
将采集的用户的脸部图像数据中的头脸轮廓分离出来, 建立对应头脸 轮廓形状的数据模型, 根据建立的数据模型确定所述形状的面积;
将针对当前实时采集的用户的脸部图像数据处理后得到的面积与针对 上一次采集的用户的脸部图像数据处理后得到的面积进行比较, 比较得到 的面积变化率值作为所述参数变化量。
优选地, 所述根据所述参数变化量对终端目标区域需输出显示内容的 位置进行预处理, 保持所述显示内容与用户间的相对位置为相对静止, 具 体包括:
所述采集的数据还包括用户与终端间的距离值、 用户平均眼球参数时, 根据所述面积变化率值、 所述用户与终端间的距离值和所述用户平均眼球 参数, 得到终端目标区域中显示内容大小的调整量;
根据显示内容在上一次显示刷新时的内容量、 所在显示区域以及当前 时间量, 得到用户当前注视的位置中心;
根据所述调整量和所述位置中心对终端目标区域上显示内容的位置进 行预处理调整。
优选地, 该方法还包括: 根据用户的平均阅读速度对所述位置中心进 行干预, 所述用户的平均阅读速度根据用户之前每次刷新终端目标区域中 显示内容的时间间隔和显示内容的内容量得到。
优选地, 所述根据所述用户的脸部图像数据得到用户的脸部与终端间 相对位置变化时的参数变化量, 具体包括: 将采集的用户的脸部图像数据中的头脸轮廓分离出来, 建立对应头脸 轮廓形状的数据模型, 根据建立的数据模型确定脸部的中心点位置坐标, 建立脸部参考图形;
将针对当前实时采集的用户的脸部图像数据处理后得到的脸部参考图 形与针对上一次采集的用户的脸部图像数据处理后得到的脸部参考图形进 行比较, 比较得到的脸部偏转角度值作为所述参数变化量。
优选地, 所述根据所述参数变化量对终端目标区域需输出显示内容的 位置进行预处理, 保持所述显示内容与用户间的相对位置为相对静止, 具 体包括:
根据所述脸部偏转角度值对终端目标区域上显示内容的位置进行预处 理调整, 使终端目标区域上显示内容与头部在终端显示平面方向上的偏转 角度保持一致。
一种数据显示装置, 该装置包括:
采集器, 配置为采集数据;
处理器, 配置为根据采集的数据得到用户与终端间相对位置变化时的 参数变化量; 根据所述参数变化量对终端目标区域需输出显示内容的位置 进行预处理, 保持所述显示内容与用户间的相对位置为相对静止, 将显示 内容按照预处理后的结果输出给显示器;
显示器, 配置为在所述终端目标区域按照预处理后的结果对显示内容 进行显示。
优选地, 所述处理器包括:
第一子处理器, 配置为参考坐标基于所述用户的头脸部时, 所述采集 的数据至少包括采集的用户的脸部图像数据, 根据所述用户的脸部图像数 据得到用户的脸部与终端间相对位置变化时的参数变化量。
优选地, 所述处理器, 还包括第二子处理器; 所述第一子处理器, 配置为将采集的用户的脸部图像数据中的头脸轮 廓分离出来, 建立对应头脸轮廓形状的数据模型, 根据建立的数据模型确 定所述形状的中心点位置坐标; 将针对当前实时采集的用户的脸部图像数 据处理后得到的中心点位置坐标与针对上一次采集的用户的脸部图像数据 处理后得到的中心点位置坐标进行比较, 比较得到的位移矢量值作为所述 参数变化量;
第二子处理器, 配置为所述采集的数据还包括用户与终端间的距离值、 用户平均眼球参数时, 根据所述位移矢量值、 所述用户与终端间的距离值 和所述用户平均眼球参数, 得到所述显示内容在所述终端目标区域上的偏 移量; 根据所述偏移量对终端目标区域上显示内容的位置进行预处理调整。
优选地, 所述处理器, 还包括第二子处理器;
所述第一子处理器, 配置为将采集的用户的脸部图像数据中的头脸轮 廓分离出来, 建立对应头脸轮廓形状的数据模型, 根据建立的数据模型确 定所述形状的面积; 将针对当前实时采集的用户的脸部图像数据处理后得 到的面积与针对上一次采集的用户的脸部图像数据处理后得到的面积进行 比较, 比较得到的面积变化率值作为所述参数变化量;
第二子处理器, 配置为所述采集的数据还包括用户与终端间的距离值、 用户平均眼球参数时, 根据所述面积变化率值、 所述用户与终端间的距离 值和所述用户平均眼球参数, 得到终端目标区域中显示内容大小的调整量; 根据显示内容在上一次显示刷新时的内容量、 所在显示区域以及当前 时间量, 得到用户当前注视的位置中心;
根据所述调整量和所述位置中心对终端目标区域上显示内容的位置进 行预处理调整。
优选地, 所述第一子处理器, 配置为根据用户的平均阅读速度对所述 位置中心进行干预, 所述用户的平均阅读速度根据用户之前每次刷新终端 目标区域中显示内容的时间间隔和显示内容的内容量得到。
优选地, 所述处理器, 还包括第二子处理器;
所述第一子处理器, 配置为将采集的用户的脸部图像数据中的头脸轮 廓分离出来, 建立对应头脸轮廓形状的数据模型, 根据建立的数据模型确 定脸部的中心点位置坐标, 建立脸部参考图形;
将针对当前实时采集的用户的脸部图像数据处理后得到的脸部参考图 形与针对上一次采集的用户的脸部图像数据处理后得到的脸部参考图形进 行比较, 比较得到的脸部偏转角度值作为所述参数变化量;
所述第二子处理器, 配置为根据所述脸部偏转角度值对终端目标区域 上显示内容的位置进行预处理调整, 使终端目标区域上显示内容与头部在 终端显示平面方向上的偏转角度保持一致。
一种数据显示控制方法, 该方法包括:
根据采集的数据得到用户与终端间相对位置变化时的参数变化量; 根据所述参数变化量对终端目标区域需输出显示内容的位置进行预处 理, 保持所述显示内容与用户间的相对位置为相对静止, 将显示内容按照 预处理后的结果输出给显示器。
一种数据显示控制装置, 该装置包括:
处理器, 配置为根据采集的数据得到用户与终端间相对位置变化时的 参数变化量; 根据所述参数变化量对终端目标区域需输出显示内容的位置 进行预处理, 保持所述显示内容与用户间的相对位置为相对静止, 将显示 内容按照预处理后的结果输出给显示器。
一种终端, 所述终端包括上述数据显示装置。
本发明实施例的方法包括: 根据采集的数据得到用户与终端间相对位 置变化时的参数变化量; 根据所述参数变化量对终端目标区域需输出显示 内容的位置进行预处理, 保持所述显示内容与用户间的相对位置为相对静 止; 在所述终端目标区域按照预处理后的结果对显示内容进行显示。
采用本发明实施例, 由于根据采集的数据得到用户与终端间相对位置 变化时的参数变化量, 并根据所述参数变化量对终端目标区域需输出显示 内容的位置进行预处理, 保持所述显示内容与用户间的相对位置为相对静 止, 从而在所述终端目标区域按照预处理后的结果对显示内容进行显示时, 显示内容与用户间的相对位置为相对静止, 达到有效防抖的效果。 附图说明
图 1为本发明实施例数据显示方法的实现流程示意图;
图 2为本发明实施例数据显示装置的组成结构示意图。 具体实施方式
下面结合附图对技术方案的实施作进一步的详细描述。
本发明实施例的数据显示方法, 如图 1所示, 包括以下步骤: 步骤 101、 采集数据;
步骤 102、根据采集的数据得到用户与终端间相对位置变化时的参数变 化量;
步骤 103、根据得到的参数变化量对终端目标区域需输出显示内容的位 置进行预处理, 保持显示内容与用户间的相对位置为相对静止;
步骤 104、 在终端目标区域按照预处理后的结果对显示内容进行显示。 这里, 终端目标区域可以为全屏显示区域, 也可以为窗口显示区域。 这里, 步骤 102的具体处理为步骤 1021 :
参考坐标基于所述用户的头脸部时, 所述采集的数据至少包括采集的 用户的脸部图像数据, 根据所述用户的脸部图像数据得到用户的脸部与终 端间相对位置变化时的参数变化量。
这里, 步骤 1021中所述根据所述用户的脸部图像数据得到用户的脸部 与终端间相对位置变化时的参数变化量, 具体包括:
将采集的用户的脸部图像数据中的头脸轮廓分离出来, 利用人脸识别 技术建立对应头脸轮廓形状(根据人脸识别技术得到的抽象形状) 的数据 模型, 根据建立的数据模型确定所述形状的中心点位置坐标;
将针对当前实时采集的用户的脸部图像数据处理后得到的中心点位置 坐标与针对上一次采集的用户的脸部图像数据处理后得到的中心点位置坐 标进行比较, 比较得到的位移矢量值作为所述参数变化量。
相应的, 步骤 103具体包括:
所述采集的数据还包括用户与终端间的距离值、 用户平均眼球参数时, 根据所述位移矢量值、 所述用户与终端间的距离值和所述用户平均眼球参 数, 进一步还可以结合用户调整的补偿值, 得到所述显示内容在所述终端 目标区域上的偏移量; 根据所述偏移量对终端目标区域上显示内容的位置 进行预处理调整。 之后将显示内容按照预处理后的结果输出到所述终端目 标区域进行显示。 预处理后的结果包括: 所述显示内容在所述终端目标区 域上的偏移量。
这里, 步骤 1021中所述根据所述用户的脸部图像数据得到用户的脸部 与终端间相对位置变化时的参数变化量, 具体包括:
将采集的用户的脸部图像数据中的头脸轮廓分离出来, 利用人脸识别 技术建立对应头脸轮廓形状(根据人脸识别技术得到的抽象形状) 的数据 模型, 根据建立的数据模型确定所述形状的面积;
将针对当前实时采集的用户的脸部图像数据处理后得到的面积与针对 上一次采集的用户的脸部图像数据处理后得到的面积进行比较, 比较得到 的面积变化率值, 比如百分比作为所述参数变化量。
相应的, 步骤 103具体包括:
所述采集的数据还包括用户与终端间的距离值、 用户平均眼球参数时, 根据所述面积变化率值、 所述用户与终端间的距离值和所述用户平均眼球 参数, 进一步还可以结合用户调整的补偿值, 得到终端目标区域中显示内 容大小的调整量;
根据显示内容在上一次显示刷新时的内容量、 所在显示区域以及当前 时间量, 得到用户当前注视的位置中心;
根据所述调整量和所述位置中心对终端目标区域上显示内容的位置进 行预处理调整。 之后将显示内容按照预处理后的结果输出到所述终端目标 区域进行显示。 预处理后的结果包括: 终端目标区域中显示内容大小的调 整量、 用户当前注视的位置中心。
这里, 该方法还包括: 根据用户的平均阅读速度对所述位置中心进行 干预, 所述用户的平均阅读速度根据用户之前每次刷新终端目标区域中显 示内容的时间间隔和显示内容的内容量得到。
这里, 步骤 1021中所述根据所述用户的脸部图像数据得到用户的脸部 与终端间相对位置变化时的参数变化量, 具体包括:
将采集的用户的脸部图像数据中的头脸轮廓分离出来, 利用人脸识别 技术建立对应头脸轮廓形状(根据人脸识别技术得到的抽象形状) 的数据 模型, 根据建立的数据模型确定脸部的中心点位置坐标, 建立脸部参考图 形;
将针对当前实时采集的用户的脸部图像数据处理后得到的脸部参考图 形与针对上一次采集的用户的脸部图像数据处理后得到的脸部参考图形进 行比较, 比较得到的脸部偏转角度值作为所述参数变化量。
相应的, 步骤 103具体包括:
根据所述脸部偏转角度值对终端目标区域上显示内容的位置进行预处 理调整, 调整显示内容在所述终端目标区域上的偏转角度, 进一步还可以 结合用户调整的补偿值, 使终端目标区域上显示内容与头部在终端显示平 面方向上的偏转角度保持一致。 之后将显示内容按照预处理后的结果输出 到所述终端目标区域进行显示。 预处理后的结果包括: 所述显示内容在所 述终端目标区域上的偏转角度。
本发明实施例的数据显示装置, 如图 2所示, 该装置包括:
采集器, 配置为采集数据; 采集器可以为摄像头;
处理器, 配置为根据采集的数据得到用户与终端间相对位置变化时的 参数变化量; 根据所述参数变化量对终端目标区域需输出显示内容的位置 进行预处理, 保持所述显示内容与用户间的相对位置为相对静止, 将显示 内容按照预处理后的结果输出给显示器;
显示器, 配置为在所述终端目标区域按照预处理后的结果对显示内容 进行显示。 该装置还可以包括传感器, 传感器的具体描述后续举例阐述, 此处不做赘述。
这里, 所述处理器包括:
第一子处理器, 配置为参考坐标基于所述用户的头脸部时, 所述采集 的数据至少包括采集的用户的脸部图像数据, 根据所述用户的脸部图像数 据得到用户的脸部与终端间相对位置变化时的参数变化量。
这里, 所述处理器, 还包括第二子处理器;
所述第一子处理器, 配置为将采集的用户的脸部图像数据中的头脸轮 廓分离出来, 建立对应头脸轮廓形状的数据模型, 根据建立的数据模型确 定所述形状的中心点位置坐标; 将针对当前实时采集的用户的脸部图像数 据处理后得到的中心点位置坐标与针对上一次采集的用户的脸部图像数据 处理后得到的中心点位置坐标进行比较, 比较得到的位移矢量值作为所述 参数变化量;
第二子处理器, 配置为所述采集的数据还包括用户与终端间的距离值、 用户平均眼球参数时, 根据所述位移矢量值、 所述用户与终端间的距离值 和所述用户平均眼球参数, 得到所述显示内容在所述终端目标区域上的偏 移量; 根据所述偏移量对终端目标区域上显示内容的位置进行预处理调整。
这里, 所述处理器, 还包括第二子处理器;
所述第一子处理器, 配置为将采集的用户的脸部图像数据中的头脸轮 廓分离出来, 建立对应头脸轮廓形状的数据模型, 根据建立的数据模型确 定所述形状的面积; 将针对当前实时采集的用户的脸部图像数据处理后得 到的面积与针对上一次采集的用户的脸部图像数据处理后得到的面积进行 比较, 比较得到的面积变化率值作为所述参数变化量;
第二子处理器, 配置为所述采集的数据还包括用户与终端间的距离值、 用户平均眼球参数时, 根据所述面积变化率值、 所述用户与终端间的距离 值和所述用户平均眼球参数, 得到终端目标区域中显示内容大小的调整量; 根据显示内容在上一次显示刷新时的内容量、 所在显示区域以及当前 时间量, 得到用户当前注视的位置中心;
根据所述调整量和所述位置中心对终端目标区域上显示内容的位置进 行预处理调整。
这里, 所述第一子处理器, 配置为根据用户的平均阅读速度对所述位 置中心进行干预, 所述用户的平均阅读速度根据用户之前每次刷新终端目 标区域中显示内容的时间间隔和显示内容的内容量得到。
这里, 所述处理器, 还包括第二子处理器;
所述第一子处理器, 配置为将采集的用户的脸部图像数据中的头脸轮 廓分离出来, 建立对应头脸轮廓形状的数据模型, 根据建立的数据模型确 定脸部的中心点位置坐标, 建立脸部参考图形;
将针对当前实时采集的用户的脸部图像数据处理后得到的脸部参考图 形与针对上一次采集的用户的脸部图像数据处理后得到的脸部参考图形进 行比较, 比较得到的脸部偏转角度值作为所述参数变化量; 所述第二子处理器, 配置为根据所述脸部偏转角度值对终端目标区域 上显示内容的位置进行预处理调整, 使终端目标区域上显示内容与头部在 终端显示平面方向上的偏转角度保持一致。
本发明实施例的数据显示控制方法, 该方法包括:
根据采集的数据得到用户与终端间相对位置变化时的参数变化量; 根据所述参数变化量对终端目标区域需输出显示内容的位置进行预处 理, 保持所述显示内容与用户间的相对位置为相对静止, 将显示内容按照 预处理后的结果输出给显示器。
本发明实施例的数据显示控制装置, 该装置包括:
处理器, 配置为根据采集的数据得到用户与终端间相对位置变化时的 参数变化量; 根据所述参数变化量对终端目标区域需输出显示内容的位置 进行预处理, 保持所述显示内容与用户间的相对位置为相对静止, 将显示 内容按照预处理后的结果输出给显示器。
本发明实施例的终端包括上述数据显示装置, 上述数据显示装置主要 应用于便携式的移动终端, 如智能手机, 平板电脑上。
综上所述, 本发明实施例主要是通过采集器, 如前置摄像头、 及显示 器、 处理器来实现, 该摄像头与处理器采用 CSI接口, 向处理器传输摄像 头采集的图像数据信息; 处理器与显示器采用 DSI接口, 向显示器传输处 理器经过自适应的防抖算法调整以后的显示数据。 相应的, 本发明实施例 的主要流程包括: 摄像头采集手持终端设备使用者的头脸部图像并传输给 处理器; 处理器分析图象信息, 计算使用者头脸部与手持设备的相对位置, 得到两者之间的相对位移量; 处理器根据相对位移量, 调整当前目标区域 的显示内容的位置, 在阈值范围内保证使用者头脸部位与手持设备显示内 容的相对位置不变, 并输出到显示器。
本发明实施例是一种自适应控制的数据显示结果输出, 在手持设备由 于轻微抖动造成用户与其所使用的终端间相对位置频繁变化时, 保持显示 内容与眼睛相对位置的相对静止, 有效减少设备抖动引起的眼球不必要的 运动调整, 从而能有效地实现终端显示的防抖效果, 尤其是对手机文字显 示的防抖, 将电子防抖技术应用于手持终端设备的显示功能, 从而减少阅 读过程中对眼睛竟造成的损害, 緩解视疲劳的产生。
本发明实施例最佳适用场景为: 针对解决阅读过程中的 "注视的目标 过小、 过细或不稳定" 问题, 可以有效减少因为此类环境因素造成的视疲 劳, 本发明实施例区别于现有技术是对图片数据本身的后期处理, 本发明 实施例是随需要随变的自适应的防抖运算调节, 也可以理解为在图片数据 显示之前的预处理, 而现有技术是后期处理, 相比之下, 本发明实施例更 为优越。
以下对本发明举例阐述。
就硬件实现而言, 本发明实施例的硬件模块部分包括:
A: 采集器, 如前置摄像头, 位于显示设备同一面, 用以捕捉用户脸部 的图像, 采集用户头部的空间位置信息;
B: 显示器, 用于显示文字和图像信息, 实现阅读功能;
C: 处理器, 包括手持设备嵌入式处理系统的各种硬件设备, 具有人脸 识别以及应用本发明实施例的自适应调整的防抖运算。
D: 传感器, 该传感器为可选的模块, 不是必须包括的, 应用于需要进 行智能调节的场景, 用于实时采集手持终端的运动参数。
对使用场景及使用界面介绍如下:
手持终端的使用具有移动的特性, 在用户位置变化(移动)的过程中, 使用手持设备是十分常见的使用场景, 如步行, 乘坐交通工具等。 以坐公 交车为例, 当车辆起步时, 由于惯性, 乘客会向后倾斜, 然后恢复原状; 当车辆行驶过程中发生颠簸, 乘客会跟随向下起伏运动。 在这些变化过程 中, 由于手持设备是通过人体关节与头部形成一个松散的连接状态, 是一 个不稳定的结构。 因此头部的运动与手持终端的运动是不同步的, 会存在 时间和幅度上的差别, 从而造成手持设备与头部, 特别是眼睛的相对运动, 在这里称为抖动。 即使用户处于禁止状态, 如站立、 坐着或者躺下, 但由 于心跳与脉搏的原因, 手持设备仍然会发生相对于头部特别是眼睛的轻微 抖动。
阅读防抖功能主要用于文字显示的防抖, 但不局限于文字, 还可以包 括二维图像、 三维图象等静态显示的信息。 本发明实施例通过补偿上述原 因引起的相对运动, 来减少甚至消除抖动。
以文字为例, 防抖功能可以使窗口模式或者全屏模式。 当使用窗口模 式时, 窗口大小可随意调节。 在窗口范围内实现文字显示的动态跟踪和调 整。 当使用全屏模式时, 全屏显示范围需要缩小一定的距离, 保证目标内 容不会因为调整而超出屏幕。
调整目标分为多种: 二维调整只实现目标的上下左右的移动。 三维调 整除二维调整的上下左右以外, 还包括前后距离的调整即文字的大小的动 态变化。 多维调整包括三维调整的内容, 以及文字不同方向的角度旋转。 最终目的是使用户感觉目标内容相对静止不动。
基于上述功能应用界面可以为菜单方式或者快捷按钮方式实现。 窗口 模式类似于放大镜功能, 可以以通过两指触摸的方式或者使用预先设定的 大小。 窗口模式可以有效减小处理器模块的运算量, 提高算法效率。 全屏 模式有更好的用户感受, 不会因为一部分内容调整而另一部分没有调整, 使得用户产生错觉, 而干扰正常阅读。
对操作过程及效果介绍如下:
用户可以在需要的时候通过菜单项或者按钮打开阅读防抖功能, 并选 择相应的防抖调整的复杂度。 手持终端可以根据用户选择的防抖复杂程度 进行相应的初始化过程, 并提示用户进行必要的操作。 例如需要将设备正 对用户, 前置摄像头对用户头脸部进行对焦并记录影像备用。
处理器依据对焦量以及摄像头参数, 计算出用户与手持设备的距离, 预处理摄像头记录初始化影像数据并开启防抖算法, 进行实时调整。
以窗口模式的二维调整为例, 当手持设备向用户左边偏离, 则窗口以 及窗口内的内容将整体向手持设备的右侧偏移。 当手持设备向用户下方偏 离, 则窗口以及窗口内的内容将整体向手持设备的上方偏移。 若手持设备 在显示平面方向上来回抖动, 则窗口以及窗口内的内容将随着抖动来回进 行补偿, 用户将会感觉窗口及窗口内的内容没有移动。
由于手持终端的显示器面积不是无限大, 只占据了用户视角的一部分, 所以当某些抖动过大时, 处理器的调整将会使窗口超出显示器的范围。 因 此设定合理的窗口大小、 每一帧调整的幅度以及累计调整的幅度的阈值是 必须的。 这样既可以保证防抖的效果, 又不会因为抖动过大而隐藏部分显 示内容。
应用场景一: 二维调整(位移调整), 包括以下内容:
1、 摄像头实时采集手持设备使用者的头脸部图像并传输给处理器;
2、 处理器收到图像信息, 并进行数字图像处理一一将图像中的头脸轮 廓分离出来, 建立抽象形状(圓型、 椭圓形或矩形登) 的二维模型, 以确 定该形状的中心点位置坐标。 坐标系原点采用摄像头取景范围的中心。
3、 处理器将采集到的模型中心点坐标与上一幅图像处理以后得到的中 心点坐标位置进行比较计算出位移矢量。
4、 处理器根据用户头部的位移矢量值、 用户与设备的距离值、 目标用 户平均眼球参数以及用户调整的补偿值, 计算出目标区域的偏移量。
其中, 用户调整的补偿值为可选项, 不是必须的。
5、 处理器按照目标区域的偏移量调整显示设备目标区域的内容的位置 并输出到显示器。
其中用户可以调整的补偿值需要用户在使用前进行设定, 若没有设定 则不进行补偿。 即按照平均参数进行计算。 补偿的设定可以在启动防抖功 能后, 用户上下左右移动手持设备, 并依据感觉调整补偿量, 直到窗口不 随手持设备的移动而移动为止。 操作方法可以是数值调整挥着滚动条方式。
应用场景二: 距离调整, 包括以下内容:
1、 摄像头实时采集手持设备使用者的头脸部图像并传输给处理器模 块;
2、处理器收到图像信息, 并进行数字图像处理,建立抽象的二维模型, 计算当前二位模型的面积。
3、 处理器将当前二位模型的面积与上一次图像处理得到的面积进行比 较, 得出面积变化的比例, 以百分比表示。
4、 处理器根据用户头部面积变化、 用户与设备的距离值、 平均眼球参 数以及用户调整的补偿值, 计算出目标区域大小的调整量。 所述调整量是 指针对后续得到的位置中心而言, 基于该位置中心将目标区域放大或缩小 多少倍。
其中, 用户调整的补偿值为可选项, 不是必须的。
5、 处理器根据用户之前每次刷新目标区域内容的时间间隔, 内容量, 计算出用户的平均阅读速度; 再依据最近一次刷新的内容量、 所在区域以 及当前时间量, 计算出当前注视的位置中心。 平均阅读速度是为了更精确 的得到所述位置中心所采用的干预值。 最近一次刷新的内容量、 所在区域 以及当前时间量也是干预值, 平均阅读速度可以与最近一次刷新的内容量、 所在区域以及当前时间量任意组合, 对位置中心的精确度进行干预。 所述 平均阅读速度指: 用户单位时间看多少字, 如每秒看多少字。
6、 处理器按照当前注视的中心以及区域大小的调整量, 对目标区域放 大或者缩小, 并输出到显示器。 当头部远离时, 头部面积变小, 此时将目 标放大来抵消因距离变大而导致目标区域内容变小的变化。 同理当头部靠 近时, 需要调小目标区域的内容的大小。
应用场景三: 角度调整(基于显示器平面), 包括以下内容:
1、 摄像头实时采集手持设备使用者的头脸部图像并传输给处理器;
2、 处理器收到图象信息, 并进行数字图像处理, 确定头部的中心点位 置坐标, 建立脸部参考图形。
3、 处理器将采集到的参考图形与上一幅图像处理以后得到的参考图形 比较, 得到头部偏转角度。
4、 处理器按照头部偏转角度, 同步调整显示设备目标区域的内容的偏 转角度,使目标区域内容在阈值范围内与头部在显示器平面方向上的偏转角 度保持一致。
应用场景四: 基于传感器进行的智能调整(是在基于上述应用场景一 至三实现原理的基础上, 附加此处的智能调整, 能对防抖效果的精度的调 整更加有利), 包括以下内容:
智能调整是基于传感器完成的, 区别于上述应用场景一至三实现原理 是基于用户头脸部作为坐标参照物, 而是针对地球(地面)作为坐标参照 物, 应用智能调整时, 处理器依据传感器记录的手持设备相对以地球的运 动参数, 包括方向、 速度、 加速度以及运动轨迹等, 综合判断当前发生的 情况, 并根据之前一段时间或者数据库所有记录的情况以及处理方式, 同 时通过摄像头采集的数据实施对照, 实现无延时、 高效率的防抖调整操作。 如当用户乘坐的车辆发生颠簸时, 处理器会依据颠簸发生的强度和幅度, 从数据库中寻找对应的历史记录, 预设一种针队之后一段时间内的调整策 略, 来减少运算量, 从而实现零延时的效果。 智能调整由于基于传感器, 可以实现无延时、 高效率的防抖调整操作。 上述调整的多个场景, 既适用于终端目标区域为窗口模式, 也适用于 终端目标区域为全屏模式的情况, 在窗口模式时, 是一种局部调整模式, 是对显示器显示画面中一部分进行调整, 由于是局部调整, 所需要调整的 显示内容的数据量少, 因此, 可以有效减小处理器的运算量, 提高算法效 率。 在全屏模式时, 是一种全面调整模式, 是对显示器显示画面中全部进 行调整, 全屏模式有更好的用户感受, 不会因为一部分内容调整而另一部 分没有调整, 使得用户产生错觉, 而干扰正常阅读。 需要指出的是, 设定 合理的窗口大小、 每一帧调整的幅度以及累计调整的幅度的阈值, 既可以 保证防抖的效果, 又不会因为抖动过大而隐藏部分显示内容。
以上所述, 仅为本发明的较佳实施例而已, 并非用于限定本发明的保 护范围。 工业实用性
本发明实施例是根据采集的数据得到用户与终端间相对位置变化时的 参数变化量, 并根据所述参数变化量对终端目标区域需输出显示内容的位 置进行预处理, 保持所述显示内容与用户间的相对位置为相对静止, 从而 采用本发明实施例, 在所述终端目标区域按照预处理后的结果对显示内容 进行显示时, 显示内容与用户间的相对位置为相对静止, 达到有效防抖的 效果。

Claims

权利要求书
1、 一种数据显示方法, 该方法包括:
根据采集的数据得到用户与终端间相对位置变化时的参数变化量; 根据所述参数变化量对终端目标区域需输出显示内容的位置进行预处 理, 保持所述显示内容与用户间的相对位置为相对静止;
在所述终端目标区域按照预处理后的结果对显示内容进行显示。
2、 根据权利要求 1所述的方法, 其中, 所述终端目标区域包括: 终端 上的全屏显示区域、 或终端上的窗口显示区域。
3、 根据权利要求 1或 2所述的方法, 其中, 所述根据采集的数据得到用 户与终端间相对位置变化时的参数变化量, 具体包括:
参考坐标基于所述用户的头脸部时, 所述采集的数据至少包括采集的 用户的脸部图像数据, 根据所述用户的脸部图像数据得到用户的脸部与终 端间相对位置变化时的参数变化量。
4、 根据权利要求 3所述的方法, 其中, 所述根据所述用户的脸部图像 数据得到用户的脸部与终端间相对位置变化时的参数变化量, 具体包括: 将采集的用户的脸部图像数据中的头脸轮廓分离出来, 建立对应头脸 轮廓形状的数据模型, 根据建立的数据模型确定所述形状的中心点位置坐 标;
将针对当前实时采集的用户的脸部图像数据处理后得到的中心点位置 坐标与针对上一次采集的用户的脸部图像数据处理后得到的中心点位置坐 标进行比较, 比较得到的位移矢量值作为所述参数变化量。
5、 根据权利要求 4所述的方法, 其中, 所述根据所述参数变化量对终 端目标区域需输出显示内容的位置进行预处理, 保持所述显示内容与用户 间的相对位置为相对静止, 具体包括:
所述采集的数据还包括用户与终端间的距离值、 用户平均眼球参数时, 根据所述位移矢量值、 所述用户与终端间的距离值和所述用户平均眼球参 数, 得到所述显示内容在所述终端目标区域上的偏移量; 根据所述偏移量 对终端目标区域上显示内容的位置进行预处理调整。
6、 根据权利要求 3所述的方法, 其中, 所述根据所述用户的脸部图像 数据得到用户的脸部与终端间相对位置变化时的参数变化量, 具体包括: 将采集的用户的脸部图像数据中的头脸轮廓分离出来, 建立对应头脸 轮廓形状的数据模型, 根据建立的数据模型确定所述形状的面积;
将针对当前实时采集的用户的脸部图像数据处理后得到的面积与针对 上一次采集的用户的脸部图像数据处理后得到的面积进行比较, 比较得到 的面积变化率值作为所述参数变化量。
7、 根据权利要求 6所述的方法, 其中, 所述根据所述参数变化量对终 端目标区域需输出显示内容的位置进行预处理, 保持所述显示内容与用户 间的相对位置为相对静止, 具体包括:
所述采集的数据还包括用户与终端间的距离值、 用户平均眼球参数时, 根据所述面积变化率值、 所述用户与终端间的距离值和所述用户平均眼球 参数, 得到终端目标区域中显示内容大小的调整量;
根据显示内容在上一次显示刷新时的内容量、 所在显示区域以及当前 时间量, 得到用户当前注视的位置中心;
根据所述调整量和所述位置中心对终端目标区域上显示内容的位置进 行预处理调整。
8、 根据权利要求 7所述的方法, 其中, 该方法还包括: 根据用户的平 均阅读速度对所述位置中心进行干预, 所述用户的平均阅读速度根据用户 之前每次刷新终端目标区域中显示内容的时间间隔和显示内容的内容量得 到。
9、 根据权利要求 3所述的方法, 其中, 所述根据所述用户的脸部图像 数据得到用户的脸部与终端间相对位置变化时的参数变化量, 具体包括: 将采集的用户的脸部图像数据中的头脸轮廓分离出来, 建立对应头脸 轮廓形状的数据模型, 根据建立的数据模型确定脸部的中心点位置坐标, 建立脸部参考图形;
将针对当前实时采集的用户的脸部图像数据处理后得到的脸部参考图 形与针对上一次采集的用户的脸部图像数据处理后得到的脸部参考图形进 行比较, 比较得到的脸部偏转角度值作为所述参数变化量。
10、 根据权利要求 9所述的方法, 其中, 所述根据所述参数变化量对终 端目标区域需输出显示内容的位置进行预处理, 保持所述显示内容与用户 间的相对位置为相对静止, 具体包括:
根据所述脸部偏转角度值对终端目标区域上显示内容的位置进行预处 理调整, 使终端目标区域上显示内容与头部在终端显示平面方向上的偏转 角度保持一致。
11、 一种数据显示装置, 该装置包括:
采集器, 配置为采集数据;
处理器, 配置为根据采集的数据得到用户与终端间相对位置变化时的 参数变化量; 根据所述参数变化量对终端目标区域需输出显示内容的位置 进行预处理, 保持所述显示内容与用户间的相对位置为相对静止, 将显示 内容按照预处理后的结果输出给显示器;
显示器, 配置为在所述终端目标区域按照预处理后的结果对显示内容 进行显示。
12、 根据权利要求 11所述的装置, 其中, 所述处理器包括:
第一子处理器, 配置为参考坐标基于所述用户的头脸部时, 所述采集 的数据至少包括采集的用户的脸部图像数据, 根据所述用户的脸部图像数 据得到用户的脸部与终端间相对位置变化时的参数变化量。
13、 据权利要求 12所述的装置, 其中, 所述处理器, 还包括第二子处 理器;
所述第一子处理器, 配置为将采集的用户的脸部图像数据中的头脸轮 廓分离出来, 建立对应头脸轮廓形状的数据模型, 根据建立的数据模型确 定所述形状的中心点位置坐标; 将针对当前实时采集的用户的脸部图像数 据处理后得到的中心点位置坐标与针对上一次采集的用户的脸部图像数据 处理后得到的中心点位置坐标进行比较, 比较得到的位移矢量值作为所述 参数变化量;
第二子处理器, 配置为所述采集的数据还包括用户与终端间的距离值、 用户平均眼球参数时, 根据所述位移矢量值、 所述用户与终端间的距离值 和所述用户平均眼球参数, 得到所述显示内容在所述终端目标区域上的偏 移量; 根据所述偏移量对终端目标区域上显示内容的位置进行预处理调整。
14、 据权利要求 12所述的装置, 其中, 所述处理器, 还包括第二子处 理器;
所述第一子处理器, 配置为将采集的用户的脸部图像数据中的头脸轮 廓分离出来, 建立对应头脸轮廓形状的数据模型, 根据建立的数据模型确 定所述形状的面积; 将针对当前实时采集的用户的脸部图像数据处理后得 到的面积与针对上一次采集的用户的脸部图像数据处理后得到的面积进行 比较, 比较得到的面积变化率值作为所述参数变化量;
第二子处理器, 配置为所述采集的数据还包括用户与终端间的距离值、 用户平均眼球参数时, 根据所述面积变化率值、 所述用户与终端间的距离 值和所述用户平均眼球参数, 得到终端目标区域中显示内容大小的调整量; 根据显示内容在上一次显示刷新时的内容量、 所在显示区域以及当前 时间量, 得到用户当前注视的位置中心;
根据所述调整量和所述位置中心对终端目标区域上显示内容的位置进 行预处理调整。
15、 据权利要求 14所述的装置, 其中, 所述第一子处理器, 还配置为 根据用户的平均阅读速度对所述位置中心进行干预, 所述用户的平均阅读 速度根据用户之前每次刷新终端目标区域中显示内容的时间间隔和显示内 容的内容量得到。
16、 据权利要求 12所述的装置, 其中, 所述处理器, 还包括第二子处 理器;
所述第一子处理器, 还配置为将采集的用户的脸部图像数据中的头脸 轮廓分离出来, 建立对应头脸轮廓形状的数据模型, 根据建立的数据模型 确定脸部的中心点位置坐标, 建立脸部参考图形;
将针对当前实时采集的用户的脸部图像数据处理后得到的脸部参考图 形与针对上一次采集的用户的脸部图像数据处理后得到的脸部参考图形进 行比较, 比较得到的脸部偏转角度值作为所述参数变化量;
所述第二子处理器, 配置为根据所述脸部偏转角度值对终端目标区域 上显示内容的位置进行预处理调整, 使终端目标区域上显示内容与头部在 终端显示平面方向上的偏转角度保持一致。
17、 一种数据显示控制方法, 该方法包括:
根据采集的数据得到用户与终端间相对位置变化时的参数变化量; 根据所述参数变化量对终端目标区域需输出显示内容的位置进行预处 理, 保持所述显示内容与用户间的相对位置为相对静止, 将显示内容按照 预处理后的结果输出给显示器。
18、 一种数据显示控制装置, 该装置包括:
处理器, 配置为根据采集的数据得到用户与终端间相对位置变化时的 参数变化量; 根据所述参数变化量对终端目标区域需输出显示内容的位置 进行预处理, 保持所述显示内容与用户间的相对位置为相对静止, 将显示 内容按照预处理后的结果输出给显示器。
19、 一种终端, 所述终端包括如权利要求 11至 16任一项所述的装置。
PCT/CN2013/086893 2013-09-12 2013-11-11 数据显示方法、装置及终端、显示控制方法及装置 WO2014161306A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201310416661.8A CN104464579A (zh) 2013-09-12 2013-09-12 数据显示方法、装置及终端、显示控制方法及装置
CN201310416661.8 2013-09-12

Publications (1)

Publication Number Publication Date
WO2014161306A1 true WO2014161306A1 (zh) 2014-10-09

Family

ID=51657495

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2013/086893 WO2014161306A1 (zh) 2013-09-12 2013-11-11 数据显示方法、装置及终端、显示控制方法及装置

Country Status (2)

Country Link
CN (1) CN104464579A (zh)
WO (1) WO2014161306A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109118426A (zh) * 2018-08-16 2019-01-01 奇酷互联网络科技(深圳)有限公司 移动终端和定制眼镜的试妆方法、装置
CN113035120A (zh) * 2019-12-25 2021-06-25 Oppo广东移动通信有限公司 显示参数调节方法、装置、移动终端以及存储介质

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106371552B (zh) * 2015-07-22 2021-04-16 腾讯科技(深圳)有限公司 一种在移动终端进行媒体展示的控制方法及装置
WO2017005070A1 (zh) * 2015-07-09 2017-01-12 重庆邮电大学 显示控制方法及装置
CN106648344B (zh) * 2015-11-02 2019-03-01 重庆邮电大学 一种屏幕内容调整方法及其设备
CN106339070B (zh) * 2015-07-09 2021-03-16 腾讯科技(深圳)有限公司 一种显示控制方法,及移动终端
CN106814951A (zh) * 2015-11-27 2017-06-09 小米科技有限责任公司 实现视觉平衡的方法、装置及电子设备
WO2017173583A1 (zh) * 2016-04-05 2017-10-12 华为技术有限公司 一种终端显示防抖方法及装置
CN109983540A (zh) * 2016-11-22 2019-07-05 三菱电机株式会社 堆芯核仪表装置
CN106799038B (zh) * 2017-03-14 2019-07-26 广州视源电子科技股份有限公司 数据的显示方法和装置
CN107995454A (zh) * 2017-12-02 2018-05-04 程桂平 基于视频中的人脸特征点变化来确定是否传输视频数据的方法
CN111414112B (zh) * 2020-03-05 2021-10-22 联想(北京)有限公司 一种信息显示方法、装置和电子设备
CN111443965B (zh) * 2020-03-10 2023-08-22 Oppo广东移动通信有限公司 画面显示方法及装置、终端、存储介质
CN113645502B (zh) * 2020-04-27 2022-09-16 海信视像科技股份有限公司 一种动态调整控件的方法及显示设备
CN111708506B (zh) * 2020-06-09 2022-11-22 上海卷视科技有限公司 卷轴式显示屏的显示方法、系统、电子设备及存储介质
CN113485633B (zh) * 2021-07-30 2024-02-02 京东方智慧物联科技有限公司 一种内容展示方法、装置、电子设备和非瞬态计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1573660A (zh) * 2003-05-30 2005-02-02 微软公司 头部姿势估算方法和系统
CN102298500B (zh) * 2011-09-22 2012-12-19 重庆大学 一种自适应屏幕缩放调整方法
CN102841725A (zh) * 2011-06-21 2012-12-26 鸿富锦精密工业(深圳)有限公司 电子装置及其屏幕信息调整方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009294728A (ja) * 2008-06-02 2009-12-17 Sony Ericsson Mobilecommunications Japan Inc 表示処理装置、表示処理方法、表示処理プログラム、及び携帯端末装置
CN101964180A (zh) * 2009-07-24 2011-02-02 英业达股份有限公司 屏幕显示方法及电子装置
CN102214455A (zh) * 2010-04-06 2011-10-12 鸿富锦精密工业(深圳)有限公司 电子装置及其控制方法
US8643680B2 (en) * 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
CN103176623B (zh) * 2011-12-20 2016-08-03 中国电信股份有限公司 移动终端阅读防抖方法、装置和移动终端

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1573660A (zh) * 2003-05-30 2005-02-02 微软公司 头部姿势估算方法和系统
CN102841725A (zh) * 2011-06-21 2012-12-26 鸿富锦精密工业(深圳)有限公司 电子装置及其屏幕信息调整方法
CN102298500B (zh) * 2011-09-22 2012-12-19 重庆大学 一种自适应屏幕缩放调整方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109118426A (zh) * 2018-08-16 2019-01-01 奇酷互联网络科技(深圳)有限公司 移动终端和定制眼镜的试妆方法、装置
CN113035120A (zh) * 2019-12-25 2021-06-25 Oppo广东移动通信有限公司 显示参数调节方法、装置、移动终端以及存储介质
CN113035120B (zh) * 2019-12-25 2022-02-18 Oppo广东移动通信有限公司 显示参数调节方法、装置、移动终端以及存储介质

Also Published As

Publication number Publication date
CN104464579A (zh) 2015-03-25

Similar Documents

Publication Publication Date Title
WO2014161306A1 (zh) 数据显示方法、装置及终端、显示控制方法及装置
US7853050B2 (en) System and method for operation without touch by operators
US10297076B2 (en) Apparatus and method for generating 3D face model using mobile device
CN107317987B (zh) 虚拟现实的显示数据压缩方法和设备、系统
EP3379525B1 (en) Image processing device and image generation method
EP2590396B1 (en) Information processing system and information processing method
TWI704501B (zh) 可由頭部操控的電子裝置與其操作方法
CN106339093B (zh) 一种云台控制方法和装置
US11170521B1 (en) Position estimation based on eye gaze
CN103500061B (zh) 控制显示器的方法及设备
KR101340797B1 (ko) 3d 객체 표시가 가능한 휴대용 장치 및 그 방법
US20170316582A1 (en) Robust Head Pose Estimation with a Depth Camera
CN108921050B (zh) 一种基于移动端的虚拟现实图像处理系统
US11256326B2 (en) Display control method, display control apparatus and user equipment
KR102461232B1 (ko) 화상 처리 방법 및 장치, 전자 디바이스, 및 저장 매체
KR20170031733A (ko) 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들
KR20150143584A (ko) 시선위치 추적 방법
TWI631506B (zh) 螢幕旋轉控制方法及系統
US20180005431A1 (en) Display control method and system for executing the display control method
US10582116B2 (en) Shooting control method, shooting control apparatus and user equipment
JP6294054B2 (ja) 映像表示装置、映像提示方法及びプログラム
US20220171968A1 (en) Graphics processing method and related eye-tracking system
US20150253845A1 (en) System and method for altering a perspective of a figure presented on an electronic display
WO2020054760A1 (ja) 画像表示制御装置および画像表示制御用プログラム
US10775883B2 (en) Information processing method, information processing apparatus and user equipment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13881198

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13881198

Country of ref document: EP

Kind code of ref document: A1