WO2013113219A1 - 一种图像处理方法及终端设备 - Google Patents

一种图像处理方法及终端设备 Download PDF

Info

Publication number
WO2013113219A1
WO2013113219A1 PCT/CN2012/080999 CN2012080999W WO2013113219A1 WO 2013113219 A1 WO2013113219 A1 WO 2013113219A1 CN 2012080999 W CN2012080999 W CN 2012080999W WO 2013113219 A1 WO2013113219 A1 WO 2013113219A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
description information
face
information
user
Prior art date
Application number
PCT/CN2012/080999
Other languages
English (en)
French (fr)
Inventor
汤方义
Original Assignee
华为终端有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 华为终端有限公司 filed Critical 华为终端有限公司
Priority to EP12867153.4A priority Critical patent/EP2824633A4/en
Publication of WO2013113219A1 publication Critical patent/WO2013113219A1/zh
Priority to US14/447,717 priority patent/US20140344751A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Definitions

  • the present invention relates to image processing technologies, and in particular, to an image processing method and a terminal device.
  • BACKGROUND OF THE INVENTION With the increase in storage capacity of terminal devices, more and more images can be stored by terminal devices, such as photos, videos, and electronic greeting cards.
  • the terminal device can further use image editing software to add some annotation information to the image, such as: the location of the photo or video, the name of the person in the photo or video, the message in the e-card, and the like.
  • the present invention provides an image processing method and a terminal device for solving the problem that some pixels in an image are blocked due to the addition of annotation information by an end device in an image in the prior art.
  • an image processing method including: displaying an image in a terminal; receiving an instruction to view the description information of the image; wherein, the description information of the image includes time, location, or remark information of the image; The description information of the image is presented outside the display area of the image.
  • a terminal device including: a display module, configured to display an image in the terminal; a receiving module, configured to receive an instruction to view the description information of the image; wherein the description information of the image includes an image Time, location or remarks information; a presentation module for presenting description information of the image outside of a display area of the image.
  • the description information of the image can avoid the problem that some pixels in the image are occluded due to the addition of the annotation information in the image by the terminal device in the prior art, thereby effectively improving the visual effect of the image.
  • BRIEF DESCRIPTION OF THE DRAWINGS In order to more clearly illustrate the embodiments of the present invention or the technical solutions in the prior art, a brief description of the drawings used in the embodiments or the prior art description will be briefly described below. The drawings are some embodiments of the present invention, and those skilled in the art can obtain other drawings based on these drawings without any inventive labor.
  • FIG. 1 is a schematic flowchart of an image processing method according to an embodiment of the present invention.
  • FIG. 2 is a schematic flowchart of an image processing method according to another embodiment of the present invention.
  • FIG. 2A is a schematic flowchart of the first implementation manner of step 204 in FIG. 2;
  • FIG. 2B is a schematic flowchart of the second implementation manner of step 204 in FIG. 2;
  • FIG. 3 is a schematic structural diagram of a terminal device according to an embodiment of the present invention.
  • FIG. 4 is a schematic structural diagram of a terminal device according to another embodiment of the present disclosure.
  • FIG. 4A is a schematic structural view of the presentation module 33 of FIG. 2;
  • FIG. 4B is another schematic structural view of the presentation module 33 of FIG. 2.
  • the technical solutions in the embodiments of the present invention are clearly and completely described in the following with reference to the accompanying drawings in the embodiments of the present invention.
  • the embodiments are a part of the embodiments of the invention, and not all of the embodiments. All other embodiments obtained by those skilled in the art based on the embodiments of the present invention without creative efforts are within the scope of the present invention.
  • PDA Personal Digital Assistant
  • wireless handheld device wireless netbook
  • portable computer MP3 player or MP4 player.
  • Embodiment 1 Embodiment 1
  • FIG. 1 is a schematic flowchart of an image processing method according to an embodiment of the present invention. As shown in FIG. 1, the image processing method in this embodiment may include: 100. Displaying an image in a terminal;
  • the image in the terminal may include, but is not limited to, a picture or a video, which is not limited by the embodiment of the present invention.
  • the description information of the image includes the time, the location, or the remark information of the image, which may be determined according to actual needs, which is not limited by the embodiment of the present invention.
  • the time of the image may be the system time of the terminal when the image is captured, or may be the time manually input by the user;
  • the location of the image may be the geographical location information of the terminal when the image is captured, and the network map may be specifically , satellite positioning system, etc. to obtain geographic location information, the same can also be the location manually input by the user;
  • the remark information can be manually input by the user, specifically the interpretation of the image content, such as the introduction of the characters in the image, the scenery of the scene Introduction, it can be the mood when the user takes an image, or it can be some greetings. This means that all the information that the user thinks can be saved in the description of the image by the comment information.
  • FIG. 2 is a schematic flowchart of an image processing method according to an embodiment of the present invention. As shown in FIG. 2, the image processing method in this embodiment may include:
  • the image in the terminal may include, but is not limited to, a picture or a video, which is not limited by the embodiment of the present invention.
  • 202. Receive an instruction that the button for viewing the description information of the image is clicked; wherein the description information of the image includes a time, a location, or a remark information of the image, which may be determined according to actual needs, and the embodiment of the present invention does not Limited.
  • the time of the image may be the system time of the terminal when the image is captured, or may be the time manually input by the user;
  • the location of the image may be the geographical location information of the terminal when the image is captured, and the network map may be specifically , satellite positioning system, etc. to obtain geographic location information, the same can also be the location manually input by the user;
  • the remark information can be manually input by the user, specifically the interpretation of the image content, such as the introduction of the characters in the image, the scenery of the scene Introduction, it can be the mood when the user takes an image, or it can be some greetings. This means that all the information that the user thinks can be saved in the description of the image by the comment information.
  • buttons 1 and 2A may be implemented by software or hardware.
  • a virtual button may be added, or a new hardware button may be added or a function of viewing image description information may be added to the existing button.
  • a new touch gesture is newly defined to indicate viewing image description information.
  • 204. Presenting the description information of the image outside the display area of the image.
  • the image is reduced in size, and a part of the display area is vacated.
  • the description information of the image is displayed in the vacated display area.
  • the reduction ratio of the specific image can be determined according to actual needs. For example, if the terminal device is a mobile phone with a small screen, the width of the image can be displayed only in a line above or below the screen. The description information of the image is displayed in one line. If the description information of the image is large, the description information of the image can be scrolled. If the terminal device is a PDA with a large screen, the reduction ratio of the image can be appropriately increased, and more display areas are vacated.
  • the proportion of the reduction of the specific image may be adapted to the screen size, which is not specifically limited in the embodiment of the present invention.
  • the description information of the image and the image can be displayed at the same time, and the user can see the description information of the image when the original image is not occluded, thereby effectively improving the user experience of the user using the terminal.
  • Mode 2 as shown in Figure 2B.
  • 2044 Perform the flip operation on the image.
  • 2046 Display a second image linked to the image, and display description information of the image in the second image.
  • the image has a corresponding relationship with the second image, and the relationship may be recorded by adding an identifier to the two images, and clicking the identifier in the image to link to another image; The relationship is saved.
  • the correspondence is first called, then the second image corresponding to the image is found, and then the second image is displayed.
  • the terminal device may generate a second image of a specified pixel size according to a predetermined pixel size set in advance. Specifically, a second image having the same pixel size as the image may be generated according to the pixel size of the image.
  • the effect of flipping the displayed image in the terminal device may be similar to the action effect of flipping a flat surface so that the user visually assumes that the second image is the back of the image.
  • the user can view the description information of the image by flipping the image without any occlusion of the original image.
  • the effect of flipping the displayed image in the terminal device can be similar to flipping a plane.
  • the action effect is such that the user visually thinks that the second image is the back side of the image, thereby effectively improving the user experience of the user using the terminal device.
  • Method 3 The description information of the image is played in an audio manner.
  • the description information of the image is played by using the audio mode, and the user can listen to the description information about the image without any occlusion of the image, thereby effectively improving the user experience of the user using the terminal device.
  • the method further includes the following steps:
  • the face recognition technology in the prior art can be specifically used, and details are not described herein again. 208. If a face exists in the image, the user is prompted to input content corresponding to the face. If there is a face in the image, it indicates that the image is an image related to a character, and the user may need to record information such as a person's name, personality, title, preferences, etc. in the image, so the terminal prompts the user to input the corresponding face. content.
  • the prompt can be to give an empty input box, Write the indicative text in the input box. For example, enter the name here, or you can prompt the user to enter the recording method to enter the information.
  • the save operation needs to perform the corresponding save operation according to the input content. For example, if the input content is text, the text mode is saved, and if the input content is audio, the recording is saved and saved. Way to save. Further, it is also necessary to save the correspondence between the face and the input content in the image, or simply save the input content in the order of the faces in the image.
  • the method may further include:
  • step 208 (not shown) is performed.
  • the saved information corresponding to the person for example, the name
  • the user may also modify or re-create Enter the content corresponding to the face. In this way, the content corresponding to the face can be filled with the existing resources, and the action manually input by the user can be omitted.
  • steps 206-209 may be skipped, and the user does not perceive the existence of the face recognition step.
  • steps 205-209 are steps for face recognition, and need not be repeated, as long as they are recognized once, and need not be recognized again in the subsequent process of viewing the description information of the image.
  • annotation information can be added to the face in the image, so that when viewing the image, the user can see the annotation information corresponding to the face, thereby playing a role for the user.
  • the method further includes: 210. Prompt the user to input content in the remark area; wherein the remark area is outside the display area of the image.
  • the prompting method may be to give an empty input box, and the indicating text may be written in the input box. For example, input the content here, or prompt the user to input the recording mode input information.
  • the comment information the content input by the user is displayed in the comment area.
  • the save operation needs to perform the corresponding save operation according to the input content. For example, if the input content is text, the text mode is saved, and if the input content is audio, the recording is saved and saved. Way to save.
  • the user can input the content that he wants to input in the image, so that the user can see the description information of the image when viewing the image. For example, when a user travels somewhere and takes a photo of a beautiful scenery, and wants to use the beautiful photo to express a blessing to a friend, the method of the embodiment of the present invention can be used to add a greeting to the friend in the note area of the photo, and the friend can See the blessings from afar while enjoying the beauty.
  • steps 205-209 and the steps 210-21 1 are optional steps, and the steps 205-209 and 210-21 1 are performed in sequence, or may be performed at the same time, and may be specifically set according to actual needs.
  • the embodiment of the present invention is not limited. Further, it should be noted that the state of the description information of the display image may be exited by clicking the button again, or after the touch operation of turning the page is received, the display state of the next image may be entered.
  • Embodiment 3 the descriptions of the various embodiments are different, and the parts that are not detailed in an embodiment can be referred to the related descriptions of other embodiments.
  • FIG. 3 is a schematic structural diagram of a terminal device according to another embodiment of the present invention.
  • the terminal device in this embodiment may include a display module 31, a receiving module 32, and a presentation module 33.
  • the display module 31 is configured to display an image in the terminal
  • the receiving module 32 is configured to receive an instruction to view the description information of the image, where the description information of the image includes time, location, or remark information of the image; For presenting information of the image outside of the display area of the image.
  • the description information of the image includes the time, the location, or the remark information of the image, which may be determined according to actual needs, which is not limited by the embodiment of the present invention.
  • the time of the image may be the system time of the terminal when the image is captured, or may be the time manually input by the user;
  • the location of the image may be the geographical location information of the terminal when the image is captured, and the network map may be specifically , satellite positioning system, etc. to obtain geographic location information, the same can also be the location manually input by the user;
  • the remark information can be manually input by the user, specifically the interpretation of the image content, such as the introduction of the characters in the image, the scenery of the scene Introduction, it can be the mood when the user takes an image, or it can be some greetings. This means that all the information that the user thinks can be saved in the description of the image by the comment information.
  • the image may include, but is not limited to, a picture or a video, which is not limited by the embodiment of the present invention.
  • FIG. 4 is a schematic structural diagram of a terminal device according to another embodiment of the present invention. As shown in FIG.
  • the terminal device in this embodiment may include a display module 31, a receiving module 32, and a presentation module 33.
  • the display module 31 is configured to display an image in the terminal;
  • the receiving module 32 is configured to receive the check An instruction to view the description information of the image, wherein the description information of the image includes time, location or remark information of the image;
  • the presentation module 33 is configured to present the description information of the image outside the display area of the image.
  • the description information of the image includes the time, the location, or the remark information of the image, which may be determined according to actual needs, which is not limited by the embodiment of the present invention.
  • the time of the image may be the system time of the terminal when the image is captured, or may be the time manually input by the user;
  • the location of the image may be the geographical location information of the terminal when the image is captured, and the network map may be specifically , satellite positioning system, etc. to obtain geographic location information, the same can also be the location manually input by the user;
  • the remark information can be manually input by the user, specifically the interpretation of the image content, such as the introduction of the characters in the image, the scenery of the scene Introduction, it can be the mood when the user takes an image, or it can be some greetings.
  • the image may include, but is not limited to, a picture or a video, which is not limited by the embodiment of the present invention.
  • the receiving module is specifically configured to receive an instruction that the button for viewing the description information of the image is clicked.
  • the presentation module 33 may include: a reduction unit 331, configured to reduce the image, and vacate the partial display area; the first display unit 332 is configured to display in the vacated display area. Description information of the image.
  • the presentation module 33 in the second mode may include: a flipping unit 333 for performing the flipping operation on the image; a second display unit 334, configured to display the second image linked with the image, The description information of the image is displayed in the second image.
  • the image has a corresponding relationship with the second image, and the relationship may be recorded by adding an identifier to the two images, and clicking the identifier in the image to link to another image; The relationship is saved.
  • the terminal device may generate a second image of a specified pixel size corresponding to the image according to a preset pixel size set in advance; specifically, according to the image of the image.
  • the prime size produces a second image of the same size as the image of the above image.
  • the presentation module 33 is specifically configured to play the description information of the image in an audio manner.
  • the terminal device may further include the following module: an identification module 40, configured to identify a human face in the image.
  • the face recognition technology in the prior art can be specifically used, and details are not described herein again.
  • the first prompting module 41 is configured to prompt the user to input content corresponding to the human face if a face exists in the image.
  • the first saving module 42 is configured to save the content input by the user as the remark information in the description information of the image if the user inputs the content corresponding to the face. That is, the terminal completes the manual input and storage of the content corresponding to the face by including the identification module 40, the first prompting module 41, and the first saving module 42.
  • the terminal device may further include the following module: an identification module 40, configured to identify a human face in the image.
  • the face recognition technology in the prior art can be specifically used, and details are not described herein again.
  • the comparison module 43 is configured to compare the recognized face with the saved face if a face exists in the image;
  • the extracting module 44 is configured to extract the saved and if there is the same record as the recognized face
  • the first saving module 42 is configured to save the content input by the user as the remark information in the description information of the image if the user inputs the content corresponding to the face. That is, the terminal completes the automatic input and storage of the content corresponding to the face by including the identification module 40, the comparison module 43, the extraction module 44, and the first storage module 42.
  • the terminal may further include a first prompting module 41, so that when there is no record identical to the recognized face, the user may prompt the user to input the content corresponding to the face, optionally
  • the terminal device may further include the following modules: a second prompting module 45, configured to prompt the user to input content in the remarking area; wherein the remarking area is outside the display area of the image; the second saving module 46 is configured to save the content input by the user in the remarking area as the Comment information in the description of the image.
  • an image in the terminal is displayed in a screen display area of the terminal, and after receiving an instruction to view the description information of the image, the description information of the image is presented outside the display area of the image, It is possible to avoid the problem that some pixels in the image are occluded due to the addition of annotation information by the terminal device in the image in the prior art, so that the visual effect of the image can be effectively improved.
  • the disclosed method and terminal device may be implemented in other manners.
  • the device embodiments described above are merely illustrative.
  • the division of the modules and units is only a logical function division.
  • there may be another division manner for example, multiple units or components may be used. Combined or can be integrated into another system, or some features can be ignored, or not executed.
  • the mutual coupling or direct coupling or communication connection shown or discussed may be an indirect coupling or communication connection through some interface, device or unit, and may be in an electrical, mechanical or other form.
  • the components displayed for the unit may or may not be physical units, ie may be located in one place, or may be distributed over multiple network units. Some or all of the units may be selected according to actual needs to achieve the objectives of the solution of the embodiment.
  • each functional unit in each embodiment of the present invention may be integrated into one processing unit, or each unit may exist physically separately, or two or more units may be integrated into one unit.
  • the above integrated unit can be implemented in the form of hardware or in the form of hardware plus software functional units.
  • the above-described integrated unit implemented in the form of a software functional unit can be stored in a computer readable storage medium.
  • the software functional units described above are stored in a storage medium and include instructions for causing a computer device (which may be a personal computer, server, or network device, etc.) to perform portions of the steps of the methods described in various embodiments of the present invention.
  • the foregoing storage medium includes: a USB flash drive, a removable hard disk, a read-only memory (ROM), and a random access storage device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及图像处理技术,尤其涉及一种图像处理方法及终端设备。该方法包括:在终端的屏幕显示区域显示终端中的图像,当接收到查看所述图像的说明信息的指令后,在所述图像的显示区域以外,呈现所述图像的说明信息,因此能够避免现有技术中由于终端设备在图像中增加注释信息而导致的图像中的某些像素被遮挡的问题,从而能够有效提高图像的可视效果。

Description

一种图像处理方法及终端设备 本申请要求于 2012 年 01 月 31 日提交中国专利局、 申请号为 201210021854.9、 发明名称为 "一种图像处理方法及终端设备" 的中国专利 申请的优先权, 其全部内容通过引用结合在本申请中。 技术领域
本发明涉及图像处理技术, 尤其涉及一种图像处理方法及终端设备。 背景技术 随着终端设备存储能力的增加, 终端设备能够存储的图像越来越多, 例 如: 照片、 视频和电子贺卡等。 终端设备还可以进一步利用图像编辑软件, 在图像中增加一些注释信息, 例如: 照片或视频的拍照地点、 照片或视频中 的人物名字、 电子贺卡中的祝词等。
然而, 由于终端设备在图像中增加注释信息, 会使得图像中的某些像素 被遮挡。 发明内容
本发明提供一种图像处理方法及终端设备, 用以解决现有技术中由于终 端设备在图像中增加注释信息而导致的图像中的某些像素被遮挡的问题。
一方面提供了一种图像处理方法, 包括: 显示终端中的图像; 接收查看所述图像的说明信息的指令; 其中, 所述图像的说明信息包 括图像的时间、 地点或者备注信息; 在所述图像的显示区域以外, 呈现所述图像的说明信息。
另一方面提供了一种终端设备, 包括: 显示模块, 用于显示终端中的图像; 接收模块, 用于接收查看所述图像的说明信息的指令; 其中, 所述图像 的说明信息包括图像的时间、 地点或者备注信息; 呈现模块,用于在所述图像的显示区域以外,呈现所述图像的说明信息。 由上述技术方案可知, 本发明实施例中, 在终端的屏幕显示区域显示终 端中的图像, 当接收到查看所述图像的说明信息的指令后, 在所述图像的显 示区域以外, 呈现所述图像的说明信息, 因此能够避免现有技术中由于终端 设备在图像中增加注释信息而导致的图像中的某些像素被遮挡的问题,从而 能够有效提高图像的可视效果。 附图说明 为了更清楚地说明本发明实施例或现有技术中的技术方案, 下面将对实 施例或现有技术描述中所需要使用的附图作一简单地介绍, 显而易见地, 下 面描述中的附图是本发明的一些实施例, 对于本领域普通技术人员来讲, 在 不付出创造性劳动性的前提下, 还可以根据这些附图获得其他的附图。
图 1为本发明一实施例提供的图像处理方法的流程示意图;
图 2为本发明另一实施例提供的图像处理方法的流程示意图;
图 2A为图 2中步骤 204的实现方式一的流程示意图;
图 2B为图 2中步骤 204的实现方式二的流程示意图;
图 3为本发明一实施例提供的终端设备的结构示意图;
图 4为本发明另一实施例提供的终端设备的结构示意图;
图 4A为图 2中呈现模块 33的一种结构示意图;
图 4B为图 2中呈现模块 33的另一种结构示意图。 具体实施方式 为使本发明实施例的目的、 技术方案和优点更加清楚, 下面将结合本发 明实施例中的附图, 对本发明实施例中的技术方案进行清楚、 完整地描述, 显然, 所描述的实施例是本发明一部分实施例, 而不是全部的实施例。 基于 本发明中的实施例, 本领域普通技术人员在没有作出创造性劳动前提下所获 得的所有其他实施例, 都属于本发明保护的范围。 个人数字助理( Personal Digital Assistant, 简称 PDA ) 、 无线手持设备、 无线上网本、 便携电脑、 MP3播放器或 MP4播放器等。 实施例一
图 1为本发明一实施例提供的图像处理方法的流程示意图,如图 1所示, 本实施例的图像处理方法可以包括: 100、 显示终端中的图像;
其中, 终端中的图像可以包括但不限于图片或视频, 本发明实施例对此 不进行限定。
102、 接收查看所述图像的说明信息的指令;
其中, 所述图像的说明信息包括图像的时间、 地点或者备注信息, 具体 可以根据实际需要来确定, 本发明实施例对此不进行限定。
需要说明的是, 图像的时间可以是图像拍摄时的终端的系统时间, 也可 以是用户手工输入的时间; 图像的地点可以是图像拍摄时的终端所处的地理 位置信息, 具体可以借助网络地图、 卫星定位系统等来获得地理位置信息, 同样也可以是用户手工输入的地点; 备注信息可以是用户手工输入的内容, 具体可以是对图像内容的解释, 例如图像中的人物的介绍, 景物的介绍, 可 以是用户拍摄图像时的心情, 也可以是一些祝福语。 也就是说所有用户想到 的信息都可以通过备注信息保存在图像的说明信息中。
104、 在所述图像的显示区域以外, 呈现所述图像的说明信息。 本发明实施例中, 在终端的屏幕显示区域显示终端中的图像, 当接收到 查看所述图像的说明信息的指令后, 在所述图像的显示区域以外, 呈现所述 图像的说明信息, 因此能够避免现有技术中由于终端设备在图像中增加注释 信息而导致的图像中的某些像素被遮挡的问题,从而能够有效提高图像的可 视效果。 实施例二
图 2为本发明一实施例提供的图像处理方法的流程示意图,如图 2所示 , 本实施例的图像处理方法可以包括:
200、 显示终端中的图像;
其中, 终端中的图像可以包括但不限于图片或视频, 本发明实施例对此 不进行限定。 202、 接收查看所述图像的说明信息的按钮被点击的指令; 其中, 所述图像的说明信息包括图像的时间、 地点或者备注信息, 具体 可以根据实际需要来确定, 本发明实施例对此不进行限定。
需要说明的是, 图像的时间可以是图像拍摄时的终端的系统时间, 也可 以是用户手工输入的时间; 图像的地点可以是图像拍摄时的终端所处的地理 位置信息, 具体可以借助网络地图、 卫星定位系统等来获得地理位置信息, 同样也可以是用户手工输入的地点; 备注信息可以是用户手工输入的内容, 具体可以是对图像内容的解释, 例如图像中的人物的介绍, 景物的介绍, 可 以是用户拍摄图像时的心情, 也可以是一些祝福语。 也就是说所有用户想到 的信息都可以通过备注信息保存在图像的说明信息中。
另外, 需要说明的是, 上述按钮可以是软件实现, 也可以是硬件实现; 可以增加一个虚拟按钮 ,也可以新增加一个硬件按钮或者在现有按钮上增加 一个查看图像说明信息的功能,还可以新定义某种触控手势来表示查看图像 说明信息。 204、 在所述图像的显示区域以外, 呈现所述图像的说明信息。 具体实 现方式可以有多种, 下面举例说明: 方式一, 如图 2A所示,
2040、 将所述图像缩小处理, 空出部分显示区域。
2042、 在空出的显示区域显示该图像的说明信息。 具体图像的缩小比例可以根据实际需要来确定。 例如, 如果终端设备是 屏幕较小的手机, 可以只空出屏幕上方或下方一字宽度, 图像的说明信息在 一行内显示, 如果图像的说明信息内容很多, 可以让图像的说明信息滚动显 示; 如果终端设备是屏幕较大的 PDA, 图像的缩小比例可以适当加大, 空 出更多的显示区域。具体图像的缩小比例多大可以根据屏幕尺寸做适应性变 化, 本发明实施例不做具体限定。
此种实现方式可以让图像和图像的说明信息同时显示,在原有图像不受 任何遮挡的情况下, 可以让用户看到图像的说明信息, 从而能够有效提高用 户使用终端的用户体验。
方式二, 如图 2B所示。 2044、 将该图像做翻转操作。 2046、显示与该图像链接的第二图像,在所述第二图像中显示所述图像 的说明信息。 需要说明的是, 该图像与第二图像之间具有对应关系, 此关系可以釆用 在两幅图像中添加标识的方式记录, 点击图像中的标识即链接到另一图像; 也可以将该对应关系保存起来, 当要显示与该图像链接的第二图像时, 先调 用对应关系, 然后找到与该图像对应的第二图像, 然后显示第二图像。
在方式二中, 上述终端设备具体可以根据预先设置的指定像素大小, 生 成指定像素大小的第二图像; 具体还可以根据该图像的像素大小, 生成与该 图像的像素大小相同的第二图像。
可以理解的是: 在终端设备中翻转显示图像的效果可以类似于将一个平 面翻转过来的动作效果, 从而使得用户视觉上以为第二图像为该图像的背 面。
在方式二中, 用户可以在原有图像不受任何遮挡的情况下, 通过翻转图 像的方式查看该图像的说明信息, 另外, 在终端设备中翻转显示图像的效果 可以类似于将一个平面翻转过来的动作效果,从而使得用户视觉上以为第二 图像为该图像的背面, 从而能够有效提高用户使用终端设备的用户体验。 方式三、 将该图像的说明信息使用音频方式播放。
在方式三中, 使用音频方式播放该图像的说明信息, 用户可以在该图像 不受任何遮挡的情况下, 收听到有关该图像的的说明信息, 从而能够有效提 高用户使用终端设备的用户体验。 可选的, 该方法还包括如下步骤:
205、 识别上述图像中的人脸;
具体可以釆用现有技术中的人脸识别技术, 在此不再赘述。 208、若上述图像中存在人脸, 则提示用户输入与所述人脸对应的内容。 若上述图像中存在人脸, 则表明上述图像是一个跟人物相关的图像, 用 户可能需要记录图像中的人物姓名, 性格, 职称、 喜好等信息, 故终端提示 用户输入与所述人脸对应的内容。 提示方式可以是给出一个空的输入框, 可 以在输入框中写上指示性文字, 例如, 请在此处输入姓名, 也可以是提示用 户输入录音方式输入信息。
209、 若用户输入与所述人脸对应的内容, 则保存用户输入的内容作为 所述图像的说明信息中的备注信息。 需要说明的是, 保存操作需要根据输入内容的不同, 执行相应的保存操 作, 例如, 若输入的内容是文字, 则釆取文字方式保存, 若输入的内容是音 频, 则釆用录音并保存的方式保存。 进一步的, 还需要保存图像中的人脸与输入内容的对应关系, 或者, 简 单的按照图像中的人脸的顺序保存输入的内容。 可选的, 步骤 205之后, 该方法还可以包括:
206、 若所述图像中存在人脸, 则将识别的人脸与保存的人脸比对;
是其他应用中保存的好友头像信息。
207、 若存在与识别的人脸相同的记录, 则提取保存的与所述人脸对应 的内容作为用户输入的与人脸对应的内容, 然后, 执行步骤 209; 若不存在 与识别的人脸相同的记录, 则执行步骤 208 (图中未示出) 。 需要说明的是, 当存在与识别的人脸相同的记录时, 提取保存的与该人 对应的信息, 例如, 姓名, 作为用户输入的与人脸对应的内容, 当然, 用户 也可以修改或者重新输入与人脸对应的内容。这样可以使用已有的资源填充 与人脸对应的内容, 可以省去用户手工输入的动作。 需要说明的是, 当在上述图像中未识别出人脸时, 可以跳过步骤 206-209, 用户感知不到人脸识别步骤的存在。 另外, 需要说明的是, 步骤 205-209是针对人脸识别而设置的步骤, 无 需重复执行, 只要识别一次即可, 在后续的查看图像的说明信息的过程中无 需再次识别。 通过增加步骤 205-209, 可以对图像中的人脸增加批注信息, 使得用户 在查看图像时,能够看到人脸对应的批注信息,从而对用户起到提示的作用。
可选的, 该方法还包括: 210、 提示用户在备注区域输入内容; 其中, 所述备注区域处于所述图 像的显示区域以外。 需要说明的是, 提示方式可以是给出一个空的输入框, 可以在输入框中 写上指示性文字, 例如, 请在此处输入内容, 也可以是提示用户输入录音方 式输入信息。 另外, 若用户已经输入备注信息, 则在备注区域显示用户输入 的内容。
21 1、 保存用户在备注区域输入的内容作为所述图像的说明信息中的备 注信息。 需要说明的是, 保存操作需要根据输入内容的不同, 执行相应的保存操 作, 例如, 若输入的内容是文字, 则釆取文字方式保存, 若输入的内容是音 频, 则釆用录音并保存的方式保存。
通过步骤 210-21 1 , 用户可以在图像中输入想输入的内容, 以便用户在 查看图像时, 可以看到对此图像的说明信息。 例如, 用户在某地旅游, 拍摄 到了美景照片, 想借用美景照片抒发一下对朋友的祝福, 即可使用本发明实 施例的方法, 在照片的备注区域中添加祝福语发送给朋友, 朋友即可在欣赏 美景的同时看到来自远方的祝福。
需要说明的是, 步骤 205-209和步骤 210-21 1 均是可选步骤, 且步骤 205-209和步骤 210-21 1的顺序不分先后, 也可以同时执行, 具体可以根据 实际需要来设定, 本发明实施例不做限定。 进一步, 需要说明的是, 可以通过再次点击按钮的方式, 退出显示图像 的说明信息的状态, 也可以在接收到翻页的触控操作后, 进入下一图像的显 示状态。
需要说明的是: 对于前述的各方法实施例, 为了简单描述, 故将其都表 述为一系列的动作组合, 但是本领域技术人员应该知悉, 本发明并不受所描 述的动作顺序的限制, 因为依据本发明, 某些步骤可以釆用其他顺序或者同 时进行。 其次, 本领域技术人员也应该知悉, 说明书中所描述的实施例均属 于优选实施例, 所涉及的动作和模块并不一定是本发明所必须的。
在上述实施例中, 对各个实施例的描述都各有侧重, 某个实施例中没有 详述的部分, 可以参见其他实施例的相关描述。 实施例三
图 3为本发明另一实施例提供的终端设备的结构示意图, 如图 3所示, 本实施例的终端设备可以包括显示模块 31、 接收模块 32和呈现模块 33。 其中,显示模块 31用于显示终端中的图像;接收模块 32用于接收查看所述 图像的说明信息的指令, 其中, 所述图像的说明信息包括图像的时间、 地 点或者备注信息; 呈现模块 33用于在所述图像的显示区域以外, 呈现所述 图像的说明信息。
其中, 所述图像的说明信息包括图像的时间、 地点或者备注信息, 具体 可以根据实际需要来确定, 本发明实施例对此不进行限定。
需要说明的是, 图像的时间可以是图像拍摄时的终端的系统时间, 也可 以是用户手工输入的时间; 图像的地点可以是图像拍摄时的终端所处的地理 位置信息, 具体可以借助网络地图、 卫星定位系统等来获得地理位置信息, 同样也可以是用户手工输入的地点; 备注信息可以是用户手工输入的内容, 具体可以是对图像内容的解释, 例如图像中的人物的介绍, 景物的介绍, 可 以是用户拍摄图像时的心情, 也可以是一些祝福语。 也就是说所有用户想到 的信息都可以通过备注信息保存在图像的说明信息中。 图像可以包括但不限 于图片或视频, 本发明实施例对此不进行限定。
上述图 1和 2对应的实施例中终端设备的功能可以由本实施例提供的终 端设备实现。 本发明实施例中, 在终端的屏幕显示区域显示终端中的图像, 当接收到 查看所述图像的说明信息的指令后, 在所述图像的显示区域以外, 呈现所述 图像的说明信息, 因此能够避免现有技术中由于终端设备在图像中增加注释 信息而导致的图像中的某些像素被遮挡的问题,从而能够有效提高图像的可 视效果。 实施例四 图 4为本发明另一实施例提供的终端设备的结构示意图, 如图 4所示, 本实施例的终端设备可以包括显示模块 31、 接收模块 32 和呈现模块 33。 其中, 显示模块 31 用于显示终端中的图像; 接收模块 32用于接收查 看所述图像的说明信息的指令, 其中, 所述图像的说明信息包括图像的时 间、 地点或者备注信息; 呈现模块 33用于在所述图像的显示区域以外, 呈 现所述图像的说明信息。
其中, 所述图像的说明信息包括图像的时间、 地点或者备注信息, 具体 可以根据实际需要来确定, 本发明实施例对此不进行限定。 需要说明的是, 图像的时间可以是图像拍摄时的终端的系统时间, 也可 以是用户手工输入的时间; 图像的地点可以是图像拍摄时的终端所处的地理 位置信息, 具体可以借助网络地图、 卫星定位系统等来获得地理位置信息, 同样也可以是用户手工输入的地点; 备注信息可以是用户手工输入的内容, 具体可以是对图像内容的解释, 例如图像中的人物的介绍, 景物的介绍, 可 以是用户拍摄图像时的心情, 也可以是一些祝福语。 也就是说所有用户想到 的信息都可以通过备注信息保存在图像的说明信息中。 图像可以包括但不限 于图片或视频, 本发明实施例对此不进行限定。 在本发明实施例的中,接收模块具体用于接收查看所述图像的说明信息 的按钮被点击的指令。 在所述图像的显示区域以外, 呈现所述图像的说明信息的具体实现方式 可以有多种, 针对不同的实现方式呈现模块具体的功能也随之变化。 如图 4A所示, 在方式一中呈现模块 33可以包括: 缩小单元 331 , 用于 将所述图像缩小处理, 空出部分显示区域; 第一显示单元 332, 用于在空出 的显示区域显示所述图像的说明信息。 如图 4B所示, 在方式二中呈现模块 33可以包括: 翻转单元 333 , 用于 将所述图像做翻转操作; 第二显示单元 334, 用于显示与所述图像链接的第 二图像, 在所述第二图像中显示所述图像的说明信息。 需要说明的是, 该图像与第二图像之间具有对应关系, 此关系可以釆用 在两幅图像中添加标识的方式记录, 点击图像中的标识即链接到另一图像; 也可以将该对应关系保存起来, 当要显示与该图像链接的第二图像时, 先调 用对应关系, 然后找到与该图像对应的第二图像, 然后显示第二图像。
在方式二中, 上述终端设备具体可以根据预先设置的指定像素大小, 生 成与该图像对应的指定像素大小的第二图像; 具体还可以根据上述图像的像 素大小, 生成与上述图像的像素大小相同的第二图像。
在方式三中呈现模块 33具体用于, 将所述图像的说明信息使用音频方 式播放。 可选的, 该终端设备还可以包括如下模块: 识别模块 40 , 用于识别所述图像中的人脸。 具体可以釆用现有技术中 的人脸识别技术, 在此不再赘述。 第一提示模块 41 , 用于若所述图像中存在人脸, 则提示用户输入与所 述人脸对应的内容。 第一保存模块 42, 用于若用户输入与所述人脸对应的内容, 则保存用 户输入的内容作为所述图像的说明信息中的备注信息。 即,该终端通过包括识别模块 40 ,第一提示模块 41 ,第一保存模块 42, 来完成与人脸对应的内容的手工输入及保存。 可选的, 该终端设备还可以包括如下模块: 识别模块 40 , 用于识别所述图像中的人脸。 具体可以釆用现有技术中 的人脸识别技术, 在此不再赘述。 比对模块 43 , 用于若所述图像中存在人脸, 则将识别的人脸与保存的 人脸比对;
提取模块 44 , 用于若存在与识别的人脸相同的记录, 则提取保存的与
第一保存模块 42, 用于若用户输入与所述人脸对应的内容, 则保存用 户输入的内容作为所述图像的说明信息中的备注信息。 即, 该终端通过包括识别模块 40, 比对模块 43, 提取模块 44, 第一保 存模块 42 , 来完成与人脸对应的内容的自动输入及保存; 若比对模块 43的 比对结果是不存在与识别的人脸相同的记录, 则该终端进一步可以包括第一 提示模块 41 , 从而当不存在与识别的人脸相同的记录时, 可以及时提示用 户输入与人脸对应的内容, 可选的, 该终端设备还可以包括如下模块: 第二提示模块 45, 用于提示用户在备注区域输入内容; 其中, 所述备 注区域处于所述图像的显示区域以外; 第二保存模块 46 , 用于保存用户在 备注区域输入的内容作为所述图像的说明信息中的备注信息。 本发明实施例中, 在终端的屏幕显示区域显示终端中的图像, 当接收到 查看所述图像的说明信息的指令后, 在所述图像的显示区域以外, 呈现所述 图像的说明信息, 因此能够避免现有技术中由于终端设备在图像中增加注释 信息而导致的图像中的某些像素被遮挡的问题,从而能够有效提高图像的可 视效果。
所属领域的技术人员可以清楚地了解到, 为描述的方便和简洁, 上述描 述终端设备的具体工作过程, 可以参考前述方法实施例中的对应过程, 在此 不再赘述。
在本申请所提供的几个实施例中, 应该理解到, 所揭露的方法和终端设 备, 可以通过其它的方式实现。 例如, 以上所描述的装置实施例仅仅是示意 性的, 例如, 所述模块和单元的划分, 仅仅为一种逻辑功能划分, 实际实现 时可以有另外的划分方式, 例如多个单元或组件可以结合或者可以集成到另 一个系统, 或一些特征可以忽略, 或不执行。 另一点, 所显示或讨论的相互 之间的耦合或直接耦合或通信连接可以是通过一些接口, 装置或单元的间接 耦合或通信连接, 可以是电性, 机械或其它的形式。 为单元显示的部件可以是或者也可以不是物理单元, 即可以位于一个地方, 或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或 者全部单元来实现本实施例方案的目的。
另外, 在本发明各个实施例中的各功能单元可以集成在一个处理单元 中, 也可以是各个单元单独物理存在, 也可以两个或两个以上单元集成在一 个单元中。 上述集成的单元既可以釆用硬件的形式实现, 也可以釆用硬件加 软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元, 可以存储在一个计算机 可读取存储介质中。 上述软件功能单元存储在一个存储介质中, 包括若干指 令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等) 执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括: U盘、 移动硬盘、 只读存储器 (Read-Only Memory, 简称 ROM )、 随机存取存储 器(Random Access Memory, 简称 RAM )、 磁碟或者光盘等各种可以存储 程序代码的介质。
最后应说明的是: 以上实施例仅用以说明本发明的技术方案, 而非对其 限制; 尽管参照前述实施例对本发明进行了详细的说明, 本领域的普通技术 人员应当理解: 其依然可以对前述各实施例所记载的技术方案进行修改, 或 者对其中部分技术特征进行等同替换; 而这些修改或者替换, 并不使相应技 术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims

权利要求
1、 一种图像处理方法, 其特征在于, 包括: 显示终端中的图像; 接收查看所述图像的说明信息的指令; 其中, 所述图像的说明信息包括 图像的时间、 地点或者备注信息;
在所述图像的显示区域以外, 呈现所述图像的说明信息。
2、 根据权利要求 1 所述的方法, 其特征在于, 所述接收查看所述图像 的说明信息的指令具体包括: 接收查看所述图像的说明信息的按钮被点击的指令。
3、 根据权利要求 1或 2所述的方法, 其特征在于, 所述在所述图像的 显示区域以外, 呈现所述图像的说明信息具体包括:
将所述图像缩小处理, 空出部分显示区域; 在空出的显示区域显示所述图像的说明信息。
4、 根据权利要求 1或 2所述的方法, 其特征在于, 所述在所述图像的 显示区域以外, 呈现所述图像的说明信息具体包括: 将所述图像做翻转操作; 显示与所述图像链接的第二图像,在所述第二图像中显示所述图像的说 明信息。
5、 根据权利要求 1或 2所述的方法, 其特征在于, 所述在所述图像的 显示区域以外, 呈现所述图像的说明信息具体包括: 将所述图像的说明信息使用音频方式播放。
6、 根据权利要求 1至 5任一项所述的方法, 其特征在于, 还包括: 识别所述图像中的人脸; 若所述图像中存在人脸, 则提示用户输入与所述人脸对应的内容; 若用户输入与所述人脸对应的内容, 则保存用户输入的内容作为所述图 像的说明信息中的备注信息。
7、 根据权利要求 1至 5任一项所述的方法, 其特征在于, 还包括: 识别所述图像中的人脸; 若所述图像中存在人脸, 则将识别的人脸与保存的人脸比对; 若存在与识别的人脸相同的记录, 则提取保存的与所述人脸对应的内容 作为用户输入的与人脸对应的内容; 若用户输入与所述人脸对应的内容, 则保存用户输入的内容作为所述图 像的说明信息中的备注信息。
8、 根据权利要求 1至 7任一项所述的方法, 其特征在于, 还包括: 提示用户在备注区域输入内容; 其中, 所述备注区域处于所述图像的显 示区域以外; 保存用户在备注区域输入的内容作为所述图像的说明信息中的备注信 息。
9、 一种终端设备, 其特征在于, 包括: 显示模块, 用于显示终端中的图像; 接收模块, 用于接收查看所述图像的说明信息的指令; 其中, 所述图 像的说明信息包括图像的时间、 地点或者备注信息; 呈现模块,用于在所述图像的显示区域以外,呈现所述图像的说明信息。
10、 根据权利要求 9所述的终端设备, 其特征在于, 所述接收模块具体 用于: 接收查看所述图像的说明信息的按钮被点击的指令。
1 1、 根据权利要求 9或 10所述的终端设备, 其特征在于, 所述呈现模 块包括: 缩小单元, 用于将所述图像缩小处理, 空出部分显示区域; 第一显示单元, 用于在空出的显示区域显示所述图像的说明信息。
12、 根据权利要求 9或 10所述的终端设备, 其特征在于, 所述呈现模 块包括: 翻转单元, 用于将所述图像做翻转操作;
第二显示单元, 用于显示与所述图像链接的第二图像, 在所述第二图像 中显示所述图像的说明信息。
13、 根据权利要求 9或 10所述的终端设备, 其特征在于, 所述呈现模 块具体用于: 将所述图像的说明信息使用音频方式播放。
14、 根据权利要求 9至 13任一项所述的终端设备, 其特征在于, 还包 括:
识别模块, 用于识别所述图像中的人脸; 第一提示模块, 用于若所述图像中存在人脸, 则提示用户输入与所述人 脸对应的内容; 第一保存模块, 用于若用户输入与所述人脸对应的内容, 则保存用户输 入的内容作为所述图像的说明信息中的备注信息。
15、 根据权利要求 9至 13任一项所述的终端设备, 其特征在于, 还包 括: 识别模块, 用于识别所述图像中的人脸; 比对模块, 用于若所述图像中存在人脸, 则将识别的人脸与保存的人脸 比对; 提取模块, 用于若存在与识别的人脸相同的记录, 则提取保存的与所述
第一保存模块, 用于若用户输入与所述人脸对应的内容, 则保存用户输 入的内容作为所述图像的说明信息中的备注信息。
16、 根据权利要求 9至 15任一项所述的终端设备, 其特征在于, 还包 括:
第二提示模块, 用于提示用户在备注区域输入内容; 其中, 所述备注区 域处于所述图像的显示区域以外;
第二保存模块, 用于保存用户在备注区域输入的内容作为所述图像的说 明信息中的备注信息,
PCT/CN2012/080999 2012-01-31 2012-09-05 一种图像处理方法及终端设备 WO2013113219A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP12867153.4A EP2824633A4 (en) 2012-01-31 2012-09-05 IMAGE PROCESSING METHOD AND TERMINAL DEVICE
US14/447,717 US20140344751A1 (en) 2012-01-31 2014-07-31 Image Processing Method and Terminal Device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201210021854.9 2012-01-31
CN2012100218549A CN102609895A (zh) 2012-01-31 2012-01-31 一种图像处理方法及终端设备

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/447,717 Continuation US20140344751A1 (en) 2012-01-31 2014-07-31 Image Processing Method and Terminal Device

Publications (1)

Publication Number Publication Date
WO2013113219A1 true WO2013113219A1 (zh) 2013-08-08

Family

ID=46527243

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2012/080999 WO2013113219A1 (zh) 2012-01-31 2012-09-05 一种图像处理方法及终端设备

Country Status (4)

Country Link
US (1) US20140344751A1 (zh)
EP (1) EP2824633A4 (zh)
CN (1) CN102609895A (zh)
WO (1) WO2013113219A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106200922A (zh) * 2016-06-28 2016-12-07 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102609895A (zh) * 2012-01-31 2012-07-25 华为终端有限公司 一种图像处理方法及终端设备
CN104731829B (zh) * 2013-12-24 2019-06-21 腾讯科技(深圳)有限公司 一种网络图片的互动方法和装置
CN104035674B (zh) * 2014-05-23 2017-05-24 小米科技有限责任公司 图片显示方法和装置
CN104267869A (zh) * 2014-09-05 2015-01-07 联想(北京)有限公司 一种信息处理方法及电子设备
CN104657102B (zh) * 2015-03-16 2018-08-10 联想(北京)有限公司 一种显示控制方法及电子设备
CN106294519A (zh) * 2015-06-12 2017-01-04 联想(北京)有限公司 一种图像显示方法及电子设备
CN105867794A (zh) * 2015-11-13 2016-08-17 乐视移动智能信息技术(北京)有限公司 一种锁屏壁纸相关信息获取方法及装置
CN108132746B (zh) * 2016-12-01 2021-02-05 腾讯科技(北京)有限公司 一种图片显示方法、装置和设备
CN107610042B (zh) * 2017-08-23 2019-06-07 维沃移动通信有限公司 一种图像美化方法及移动终端
CN108984143B (zh) * 2018-07-13 2021-01-08 维沃移动通信有限公司 一种显示控制方法及终端设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6243502B1 (en) * 1998-08-13 2001-06-05 International Business Machines Corporation Image quality maintenance
CN101378433A (zh) * 2007-08-31 2009-03-04 鹏智科技(深圳)有限公司 图片显示装置及方法
CN101753855A (zh) * 2008-12-09 2010-06-23 华晶科技股份有限公司 可将数字相片结合备注文件的数字相机与方法
CN102609895A (zh) * 2012-01-31 2012-07-25 华为终端有限公司 一种图像处理方法及终端设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7546531B2 (en) * 2003-11-21 2009-06-09 Microsoft Corporation Accessing alternate content
JP2008117333A (ja) * 2006-11-08 2008-05-22 Sony Corp 情報処理装置、情報処理方法、個人識別装置、個人識別装置における辞書データ生成・更新方法および辞書データ生成・更新プログラム
CN101527772A (zh) * 2008-03-07 2009-09-09 鸿富锦精密工业(深圳)有限公司 数码相机以及信息记录方法
CN101340674A (zh) * 2008-08-28 2009-01-07 深圳华为通信技术有限公司 一种移动终端中图像附加描述信息的方法和装置
KR101969930B1 (ko) * 2011-01-07 2019-04-18 삼성전자주식회사 컨텐트 수집 방법 및 그 장치
US9046980B1 (en) * 2011-05-11 2015-06-02 Photobucket Corporation System and method for flipping a displayed image to present real-time additional data pertaining to that image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6243502B1 (en) * 1998-08-13 2001-06-05 International Business Machines Corporation Image quality maintenance
CN101378433A (zh) * 2007-08-31 2009-03-04 鹏智科技(深圳)有限公司 图片显示装置及方法
CN101753855A (zh) * 2008-12-09 2010-06-23 华晶科技股份有限公司 可将数字相片结合备注文件的数字相机与方法
CN102609895A (zh) * 2012-01-31 2012-07-25 华为终端有限公司 一种图像处理方法及终端设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2824633A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106200922A (zh) * 2016-06-28 2016-12-07 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置

Also Published As

Publication number Publication date
CN102609895A (zh) 2012-07-25
EP2824633A4 (en) 2015-09-02
US20140344751A1 (en) 2014-11-20
EP2824633A1 (en) 2015-01-14

Similar Documents

Publication Publication Date Title
WO2013113219A1 (zh) 一种图像处理方法及终端设备
US10976915B2 (en) Capturing and sending multimedia as electronic messages
US10425679B2 (en) Method and device for displaying information on video image
US9131059B2 (en) Systems, methods, and computer programs for joining an online conference already in progress
CN106940621B (zh) 图片处理的方法和装置
US20150352435A1 (en) Puzzle creation and sharing over a network
CN103458123B (zh) 保存、分享聊天记录的方法及其移动终端
KR20140143725A (ko) 이미지 상관 방법 및 그 전자 장치
US10929460B2 (en) Method and apparatus for storing resource and electronic device
CN106716954A (zh) 电话呼叫期间的实时共享
WO2018000619A1 (zh) 一种数据展示方法、装置、电子设备与虚拟现实设备
CN104571877A (zh) 一种页面的显示处理方法及装置
US20150130816A1 (en) Computer-implemented methods and systems for creating multimedia animation presentations
WO2017032312A1 (zh) 一种待清理数据展示方法、装置及电子设备
WO2017114029A1 (zh) 一种信息展示方法、装置及电子设备
WO2018000620A1 (zh) 一种数据展示方法及装置、虚拟现实设备与播放控制器
KR20130118580A (ko) 음성 통화 기반 컨텐츠 제공 방법 및 이에 적용되는 장치
US20140362290A1 (en) Facilitating generation and presentation of sound images
WO2016155398A1 (zh) 一种信息处理方法及终端、计算机存储介质
CN109933389B (zh) 数据对象信息处理、页面展示方法及装置
CN112988008A (zh) 一种信息展示方法、装置、计算机设备和存储介质
CN112235632A (zh) 视频处理方法、装置及服务器
CN105204718B (zh) 一种信息处理方法及电子设备
US20160283739A1 (en) System and method for creating and transitioning to multiple facets of a social media object in a social network
US20180197206A1 (en) Real-time Mobile Multi-Media Content Management System for marketing, Communication and Engagement

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12867153

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012867153

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE