WO2018056653A1 - 번역문과 함께 이미지를 제공하는 방법, 장치 및 컴퓨터 프로그램 - Google Patents

번역문과 함께 이미지를 제공하는 방법, 장치 및 컴퓨터 프로그램 Download PDF

Info

Publication number
WO2018056653A1
WO2018056653A1 PCT/KR2017/010155 KR2017010155W WO2018056653A1 WO 2018056653 A1 WO2018056653 A1 WO 2018056653A1 KR 2017010155 W KR2017010155 W KR 2017010155W WO 2018056653 A1 WO2018056653 A1 WO 2018056653A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
user
translation
time point
providing
Prior art date
Application number
PCT/KR2017/010155
Other languages
English (en)
French (fr)
Inventor
김준석
정지운
김성지
김성미
강연희
Original Assignee
네이버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사 filed Critical 네이버 주식회사
Publication of WO2018056653A1 publication Critical patent/WO2018056653A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass

Definitions

  • the present invention relates to a method, an apparatus, and a computer program for providing an image with a translation to a user, and more specifically, to select and provide an image capable of effectively expressing the user's feelings together with the translation for the original text.
  • Method, apparatus, and computer program for providing images with translations so that the user can more easily select, change, or even delete unnecessary images, thereby not only providing a simple translation but also effectively conveying the user's feelings. It is about.
  • Korean Patent Publication No. 10-2011-0112192 discloses a machine translation system and method based on syntax analysis and hierarchical phrase models.
  • human language expressions can be conveyed with not only simple literary meanings but also emotions, and users can not only convey the sentences accurately translated, but also the emotions they want to express effectively. I hope it is.
  • the user when a user wants to communicate with a foreigner using an interpreter / translation app, the user can provide various non-verbal expressions (eg, emoticons, etc.) to express one's feelings along with verbal expressions such as translations. Emotional expression can be expressed more effectively.
  • non-verbal expressions eg, emoticons, etc.
  • the present invention was devised to solve the above problems of the prior art, and in addition to the original text and the translated text thereof, the user can conveniently select, change or further eliminate unnecessary images such as emoticons that can effectively express their feelings. It is an object of the present invention to provide a method, an apparatus, and a computer program for providing an image together with a translation to enable the deletion, not only to provide a simple translation, but also to effectively express the emotions of a user.
  • Method for providing an image with a translation in accordance with an aspect of the present invention for solving the above problems, a method for setting and providing at least one image with a translation for the original text, the user terminal at the same time with the translation Displaying an image; An image setting step of providing a means for changing or deleting the selected image upon receiving an image selection input; And changing or deleting the displayed image.
  • a computer program according to another aspect of the present invention is characterized in that the computer program is stored in a computer readable recording medium for executing each step of the image providing method added to the above-described translation on a computer.
  • an apparatus for providing one or more images together with a translation for an original text comprising: a display for displaying the one or more images simultaneously with the translation; A user input unit configured to generate a sensing signal by sensing a user selecting a specific region of the display; And a controller configured to determine whether the user selects an image to be changed or deleted by using the sensing signal received from the user input unit, and to provide a means for changing or deleting the image selected by the user. It is characterized by.
  • the user can select and provide an image with which the user can effectively express his or her feelings along with the translation of the original text, but the user selects or changes the image more conveniently, and furthermore, the unnecessary image.
  • the user selects or changes the image more conveniently, and furthermore, the unnecessary image.
  • the user by recommending one or more images predicted to be selected by the user using the words or phrases included in the original text or translation, or by adjusting the arrangement order of the images, the user is more convenient. This allows you to select the appropriate image.
  • FIG. 1 is a block diagram of a translation and image providing system according to an embodiment of the present invention.
  • FIG. 2 is a flow chart of a method for providing an image with a translation from the perspective of a user terminal according to an embodiment of the present invention.
  • FIG 3 is an exemplary view of a display screen providing original text and translated text in a user terminal according to an embodiment of the present invention.
  • FIG. 4 is an exemplary diagram of images provided classified according to a plurality of emotion items according to an embodiment of the present invention.
  • FIG. 5 is an exemplary diagram of a display screen provided with an image selected by a user in a translation according to an embodiment of the present invention.
  • FIG. 6 is an exemplary view of a screen for selecting an image to be changed by the user according to an embodiment of the present invention.
  • FIG. 7 is an exemplary view of a display screen provided with an image changed by a user in a translation according to an embodiment of the present invention.
  • FIG. 8 is an exemplary view of a display screen on which a user deletes an image according to an exemplary embodiment.
  • FIG. 9 is an exemplary view of a display screen recommending one or more images predicted to be selected by a user using words or phrases included in an original text or a translation according to an embodiment of the present invention.
  • FIG. 10 is a block diagram of a user terminal providing a translation and an image according to an embodiment of the present invention.
  • Figure 1 shows a block diagram of a translation and image providing system 100 according to an embodiment of the present invention.
  • the translation and image providing system 100 in providing a translation for the original text to the user, emoticons, etc. classified by the items such as a plurality of emotional items to the user
  • the user terminal 110 and the user terminal 110 that can effectively convey the emotion that the user wants to express along with the original text and the translated text.
  • a server that receives the original text input by the user, calculates the translated text, and provides the translated text to the user terminal 110, and provides the user terminal 110 with images such as emoticons classified by items such as a plurality of emotional items.
  • a network 130 connecting the user terminal 110 and the server 120 to be configured.
  • the user terminal 110 various portable terminals such as a smart phone, a tablet PC, a PDA, a mobile phone, etc. may be used.
  • an image such as an emoticon is provided to a user such as a personal computer (PC), a notebook PC, and the user selects
  • Various terminals may be adopted that may be used to receive an image and provide an image such as an emoticon along with a translation of the original text.
  • the user terminal 110 may calculate a translation for the original text with the help of the server 120, but the present invention is not necessarily limited thereto, and the user terminal 110 is independently the original text. You can also produce a translation for.
  • the user terminal 110 may receive an image such as an emoticon from the server 120 and present it to a user, but the present invention is not limited thereto, and the user terminal 110 may independently image the emoticon. You can also hold or receive an image such as an emoticon from another device.
  • the image is not limited to an emoticon, a picture, a photo, or the like, and may include a character, a symbol, a figure, or the like, or may be implemented to include a moving image or an emoticon.
  • the network 130 connecting the user terminal 110 and the server 120 may include a wired network and a wireless network.
  • the network 130 may include a known World Wide Web (WWW).
  • WWW World Wide Web
  • the communication network 130 according to the present invention is not limited to the networks listed above, and may include at least part of a known wireless data network, a known telephone network, or a known wired / wireless television network.
  • FIG. 2 is a flowchart illustrating a method of providing an image with a translation from the perspective of the user terminal 110 according to an embodiment of the present invention.
  • the method for providing an image with a translation according to an embodiment of the present invention will be described in detail with reference to FIG. 2.
  • step S110 the user terminal 110 displays a translation and one or more images.
  • the translated text may be a translated text generated by the user terminal 110 by transmitting the original text input by the user to the server 120, or the translated text generated by the user terminal 110 directly from the original text input by the user. It may be.
  • the one or more images may be an image selected by the user after the user terminal 110 presents a predetermined list of images to the user, but the present invention is not necessarily limited thereto.
  • various images such as an image selected by the server 120 using the original text or the translated text may be used.
  • the step S110 the user terminal 110 receives the original text (S112), the user terminal 110 presents one or more images to the user, and
  • the method may include receiving an image selected by the user (S114) and displaying the image selected by the user (S116) together with the translation of the original text.
  • the user terminal 110 receives the original text 310 from the user (S112), and then generates a translation 320 for the original text 310 to display it. Can be.
  • the user may be provided with a list of images such as one or more emoticons, and thus the user may select 410 an image that can express his or her feelings well.
  • the image 510 selected by the user is displayed on the user terminal 110 together with the translated text of the original text (S116).
  • the user when providing an image such as one or more emoticons to a user, the user may classify one or more images according to the plurality of emotion items 420 to thereby express the user. You will be able to select more convenient images such as emoticons that suit your emotions.
  • one or more images are classified into items such as "joy”, “love”, “bad”, “sorry”, and the user wants to select an item ( For example, when selecting "joy”, the images included in the "joy” item are listed and provided, so that the user can select an image more conveniently.
  • the user when the user last activated (selected) items among the items, the user selects the last item, and when the image selection screen of FIG. 4 is provided again, the last selected item (eg, “joy”) is activated.
  • the last selected item eg, “joy”
  • the user can select an image more conveniently.
  • operation S120 when the user selects an image to be changed or deleted, the user terminal 110 provides a means for changing or deleting the selected image.
  • the user may determine that the image displayed together with the translation is not appropriate, or that it is desirable to change the image to another image that can express his or her feelings well. In particular, the user can appropriately express the subtle feelings. In selecting, it is desirable to take into account that several modifications may be required.
  • the user can easily designate an image to be changed or deleted from the displayed images, and furthermore, the user can conveniently select an image to be changed and provide it with the translation.
  • the user when the user wants to change or delete the displayed image 510 added to the translation, the user may select the image 510.
  • a means for changing the image may be provided, and the user may select the displayed image above the predetermined time reference value.
  • the difference between the first time point and the second time point is less than or equal to a predetermined time reference value.
  • a means for changing the image may be provided, or a means for deleting the image if the difference between the first time point and the second time point is more than a predetermined time reference value.
  • a screen may be provided for selecting an image that may replace the user, and thus the user may select a new image 610 to be changed.
  • the user terminal 110 classifies and presents one or more images by a plurality of emotion items, thereby allowing the user to select an image that can effectively express his or her emotions more conveniently. .
  • a plurality of emotion items that can be selected by the user in the first area of the display eg, “joy”, “love”, “bad”, “sorry”) Etc.
  • the user may list and provide images included in the "joy" item, and thus the user may conveniently You will be able to select the image you need.
  • the user when the user last activated (selected) items among the items, the user selects the last item, and when the image selection screen of FIG. 6 is provided again, the last selected item (eg, "joy") is activated.
  • the last selected item eg, "joy"
  • the user may change the order of the display of the emotion item in accordance with his or her preferences or change the phrase, and select some items of the user's preference among the plurality of emotion items to be displayed first.
  • some or all of the emoticons presented to the user may be emoticons whose shape changes with time. As such, when the shape of the emoticon changes, the user's emotion may be more effectively expressed.
  • the new image 610 selected by the user replaces the image 510 before the change and is displayed on the user terminal 110 together with the translation 710.
  • the user deletes the displayed image 510 by long-clicking the displayed image 510 longer than a predetermined time reference value. You can do that.
  • the screen from which the image is removed is provided as shown in FIG. 3.
  • one or more images predicted to be selected by a user are selected by using a word or a sentence included in the original text or the translation, and the selected image is recommended or You can also adjust the order in which images are arranged.
  • FIG. 9 illustrates a diagram for describing a process of calculating an image corresponding to the text input by the user.
  • the user can input the original text "It was a great help. Thank you", you can obtain a translation for this.
  • the user terminal 110 in consideration of the words or phrases (eg, "help” 910, "thank you” 920, etc.) included in the original text, it is predicted that the user will select
  • One or more images may be calculated to be recommended to the user (930), or the arrangement order may be adjusted such that the one or more images are arranged in a priority order.
  • an image providing method added to a translation using the location information of the user terminal 110 to select one or more images predicted to be selected by the user, and recommends the selected image or You can also arrange the order of the images and provide them to the user.
  • a classifier learned by machine learning may be used. It may be calculated. More specifically, the classifier may be implemented based on various machine learning techniques such as Logistics Regression, Bayesian network, AdaBoost, Support Vector Machine (SVM), Naive Bayes, and the like.
  • the classifier may be driven in the server 120, and may be driven in the user terminal 110 as necessary.
  • the user terminal 110 transmits the original text input by the user or the location information of the user terminal 110 to the server 120 and is selected by the classifier.
  • One or more images predicted to be selected by the user are received from the server 120 and provided to the user.
  • the classifier continuously calculates the emoticon selected by the user from the given text and the location information, thereby producing an individualized and optimized result for each user.
  • the computer program according to another aspect of the present invention is characterized in that the computer program stored in a computer readable medium for executing each step of the method for providing an image together with the Salping translation in the computer.
  • the computer program may be a computer program including not only a computer program including machine code generated by a compiler, but also a high-level language code executable on a computer using an interpreter or the like.
  • the computer is not limited to a personal computer (PC) or a notebook computer, but is provided with a central processing unit (CPU) such as a server, a smart phone, a tablet PC, a PDA, a mobile phone, and any information processing capable of executing a computer program. Device.
  • PC personal computer
  • CPU central processing unit
  • the computer-readable medium may include an electronic recording medium (eg, ROM, flash memory, etc.), a magnetic storage medium (eg, floppy disk, hard disk, etc.), an optical reading medium (eg, CD-ROM, DVD, etc.) and any wave-readable storage medium such as a carrier wave (eg, transmission over the Internet), and the medium may be a medium on a network as well as a hardware medium.
  • an example of another medium may be a medium provided in an app store through which an application is distributed and a site through which various software is distributed.
  • FIG. 10 illustrates a configuration diagram of a user terminal 110 device for providing a translation and an image according to an embodiment of the present invention.
  • the apparatus for providing a user terminal 110 for providing a translation and an image may include a display 111, a user input unit 112, and a control unit 113. have.
  • the apparatus for providing a user terminal 110 for providing an image added to a translation according to an embodiment of the present invention is divided into components for each component.
  • Detailed description of the user terminal device for providing a translation and the image according to an embodiment of the present invention will be inferred from the description of the method for providing an image with the translation according to the embodiment of the present invention described above As can be, a more detailed description will be omitted below.
  • the display 111 displays the translated text and one or more images of the original text and provides the same to the user.
  • the user input unit 112 generates a sensing signal by sensing that the user selects a specific area of the display 111 and transmits the sensing signal to the control unit 113.
  • the user input unit 112 may include a touch screen control circuit for recognizing that the user touches the display 111.
  • control unit 113 may determine whether the user selects an image to be changed or deleted by using the sensing signal transmitted from the user input unit 112, and may change or delete the image selected by the user. It provides a means.
  • control unit 113 may provide a means for changing the image when the user shortly selects the image below a predetermined time reference value (for example, when clicking momentarily). If the user selects the image longer than a predetermined time threshold (e.g., remains clicked for a significant amount of time), it may provide a means to delete the image.
  • a predetermined time threshold e.g., remains clicked for a significant amount of time
  • the controller 113 detects a first time point at which the user selects the displayed image and a second time point at which the user finishes selecting the image.
  • Means may be provided to change the image if the difference is less than or equal to a predetermined time reference value, and means may be provided to delete the image if the difference between the first time point and the second time point is greater than or equal to a predetermined time reference value.
  • the user may select a new image by providing an image selection screen as shown in FIG. 6 (610).
  • the image 810 can be deleted by long-clicking the displayed image 810 over a predetermined time reference value in FIG. 8.
  • the user can change or delete the image displayed with the translation into a new image more conveniently. Accordingly, the user can effectively express the emotion that he / she wants to express instead of simply providing the translation.

Abstract

본 발명은 사용자에게 번역문과 함께 이미지를 제공하는 방법, 장치 및 컴퓨터 프로그램에 관한 것으로서, 보다 구체적으로는 원문에 대한 번역문과 함께 하나 이상의 이미지를 설정하여 제공하는 방법에 있어서, 사용자 단말이 상기 번역문 및 상기 하나 이상의 이미지를 디스플레이하는 단계; 이미지 선택 입력을 수신하면, 상기 선택된 이미지를 변경하거나 삭제할 수 있는 수단을 제공하는 이미지 설정 단계; 및 상기 디스플레이된 이미지를 변경하거나 삭제하는 단계;를 포함하는 것을 특징으로 하는 번역문과 함께 이미지를 제공하는 방법을 개시한다.

Description

번역문과 함께 이미지를 제공하는 방법, 장치 및 컴퓨터 프로그램
본 발명은 사용자에게 번역문과 함께 이미지를 제공하는 방법, 장치 및 컴퓨터 프로그램에 관한 것으로서, 보다 구체적으로는 원문에 대한 번역문과 함께 사용자 자신의 감정을 효과적으로 표현할 수 있는 이미지를 선택하여 제공하도록 하되, 사용자가 상기 이미지를 보다 편리하게 선택, 변경하거나, 나아가 불필요한 이미지를 삭제할 수 있도록 함으로써, 단순한 번역문을 제공하는데 그치지 않고 사용자의 감정도 효과적으로 전달할 수 있도록 번역문과 함께 이미지를 제공하는 방법, 장치 및 컴퓨터 프로그램에 관한 것이다.
최근 해외 여행, 출장 등으로 외국인과 커뮤니케이션을 진행하는 경우가 크게 늘어나면서, 스마트폰이나 PC 등 단말기에서 구동되는 통역/번역을 위한 앱이나 프로그램 등을 활용하는 경우가 늘고 있다. 이에 따라, 사용자에게 보다 정확한 통역/번역을 제공하기 위하여 다양한 통/번역 알고리즘 및 이를 이용한 서비스가 시도되고 있다. 예를 들어, 대한민국 공개특허 제 10-2011-0112192호에서는 구문 분석 및 계층적 어구 모델에 기반한 기계 번역 시스템 및 방법을 개시하고 있다.
그런데, 현재 기술 수준에서 구현 가능한 통역/번역 알고리즘은 아직 하나의 언어를 다른 언어로 자연스럽게 통역/번역할 수 있는 수준까지 이르지 못하고 있는 것이 현실이다. 이로 인하여, 사용자가 번역을 요구한 원문에 대하여 자연스러운 번역문을 제공하지 못하는 경우를 흔하게 볼 수 있으며, 이에 따라 사용자가 원하는 바와 달리 다소 딱딱한 번역문이 제공되거나 사용자의 의도가 정확히 전달되지 못하는 문제가 흔하게 발생하게 된다.
또한, 사람의 언어는 유사한 문장이라 하더라도 미세한 차이로 다양한 감성적 표현을 나타내는 경우가 많다. 즉, 사람의 언어적 표현에는 단순한 어문적 의미 뿐만 아니라 감성이 함께 포함되어 전달될 수 있는 바, 사용자는 단순하게 정확하게 번역된 문장을 전달하는데 그치지 않고, 자신이 표현하고자 하는 감성도 효과적으로 전달될 수 있기를 바란다.
특히, 사용자가 통역/번역 앱 등을 사용하여 외국인 등과 커뮤니케이션을 하고자 하는 경우, 번역문 등 언어적 표현과 함께, 자신의 감정을 표현할 수 있는 비언어적 표현(예를 들어, 이모티콘 등)을 제공함으로써, 다양한 감정적 표현을 보다 효과적으로 표현할 수 있게 된다.
나아가, 사용자는 다양한 감정을 표현하는 다수의 이모티콘 등에서 자신에게 적합한 이모티콘 등을 편리하게 선택, 변경하거나 불필요한 이모티콘 등을 삭제할 수 있도록 하여, 사용자가 효과적으로 자신의 감정을 표현할 수 있도록 하는 것이 바람직할 것이다.
이에 따라, 사용자들은 원문에 대한 번역문에 더하여, 자신이 표현하고자 하는 감성을 효과적으로 표현할 수 있는 이모티콘 등을 편리하게 선택, 변경하거나 불필요한 이모티콘 등을 삭제하여 제공받을 수 있도록 하는 것을 기대하고 있으나, 아직 이에 대한 적절한 해법이 제시되지 못하고 있는 실정이다.
본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위해 창안된 것으로, 원문 및 이에 대한 번역문에 더하여, 사용자가 자신의 감정을 효과적으로 표현할 수 있는 이모티콘 등 이미지를 편리하게 선택, 변경하거나 나아가 불필요한 이미지를 삭제할 수 있도록 함으로써, 단순한 번역문을 제공하는데 그치지 않고 사용자의 감정도 효과적으로 표현할 수 있도록 하는 번역문과 함께 이미지를 제공하는 방법, 장치 및 컴퓨터 프로그램을 제공하는 것을 목적으로 한다.
상기 과제를 해결하기 위한 본 발명의 한 측면에 따른 번역문과 함께 이미지를 제공하는 방법은, 원문에 대한 번역문과 함께 하나 이상의 이미지를 설정하여 제공하는 방법으로서, 사용자 단말이 상기 번역문과 동시에 상기 하나 이상의 이미지를 디스플레이하는 단계; 이미지 선택 입력을 수신하면, 상기 선택된 이미지를 변경하거나 삭제할 수 있는 수단을 제공하는 이미지 설정 단계; 및 상기 디스플레이된 이미지를 변경하거나 삭제하는 단계;를 포함하는 것을 특징으로 한다.
본 발명의 또 다른 측면에 따른 컴퓨터 프로그램은 상기 기재된 번역문에 부가되는 이미지 제공 방법의 각 단계를 컴퓨터에서 실행시키기 위한 컴퓨터로 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램인 것을 특징으로 한다.
본 발명의 또 다른 측면에 따른 장치는, 원문에 대한 번역문과 함께 하나 이상의 이미지를 제공하는 장치로서, 상기 번역문과 동시에 상기 하나 이상의 이미지를 표시하는 디스플레이; 사용자가 상기 디스플레이의 특정 영역을 선택하는 것을 센싱하여 센싱 신호를 생성하는 사용자 입력부; 및 상기 사용자 입력부로부터 전송받은 센싱 신호를 이용하여 상기 사용자가 변경 또는 삭제하고자 하는 이미지를 선택하였는지 여부를 판단하고, 상기 사용자가 선택한 이미지를 변경하거나 삭제할 수 있는 수단을 제공하는 제어부;를 포함하여 구성되는 것을 특징으로 한다.
본 발명의 일 실시예에 따르면, 원문에 대한 번역문과 함께 사용자가 자신의 감정을 효과적으로 표현할 수 있는 이미지를 선택하여 함께 제공하도록 하되, 사용자가 상기 이미지를 보다 편리하게 선택, 변경하거나, 나아가 불필요한 이미지를 삭제할 수 있도록 함으로써, 단순한 번역문을 제공하는데 그치지 않고 사용자가 의도하는 감성도 효과적으로 표현할 수 있게 된다.
또한, 본 발명의 일 실시예에 따르면, 원문 또는 번역문에 포함되는 단어 또는 문구를 이용하여 사용자가 선택할 것으로 예측되는 하나 이상의 이미지를 추천하거나 이미지의 배열 순서를 조정하여 제시하도록 함으로써, 사용자가 보다 편리하게 적절한 이미지를 선택할 수 있게 된다.
본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 사상을 설명한다.
도 1은 본 발명의 일 실시예에 따른 번역문 및 이미지 제공 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 사용자 단말 관점의 번역문과 함께 이미지를 제공하는 방법의 순서도이다.
도 3은 본 발명의 일 실시예에 따라 사용자 단말에서 원문 및 번역문을 제공하는 디스플레이 화면의 예시도이다.
도 4는 본 발명의 일 실시예에 따라 복수의 감성 항목에 따라 분류되어 제공된 이미지의 예시도이다.
도5은 본 발명의 일 실시예에 따라 번역문에 사용자가 선택한 이미지가 함께 제공된 디스플레이 화면의 예시도이다.
도 6은 본 발명의 일 실시예에 따라 사용자가 변경할 이미지를 선택하는 화면의 예시도이다.
도 7은 본 발명의 일 실시예에 따라 번역문에 사용자가 변경한 이미지가 함께 제공된 디스플레이 화면의 예시도이다.
도 8은 본 발명의 일 실시예에 따라 사용자가 이미지를 삭제하는 디스플레이 화면의 예시도이다.
도 9는 본 발명의 일 실시예에 따라 원문 또는 번역문에 포함되는 단어 또는 문구를 이용하여 사용자가 선택할 것으로 예측되는 하나 이상의 이미지를 추천하는 디스플레이 화면의 예시도이다.
도 10은 본 발명의 일 실시예에 따른 번역문 및 이미지를 제공하는 사용자 단말의 구성도이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 이하에서는 특정 실시예들을 첨부된 도면을 기초로 상세히 설명하고자 한다.
본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되는 것은 아니며, 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
이하, 본 발명에 따른 번역문과 함께 이미지를 제공하는 방법, 장치 및 컴퓨터 프로그램의 예시적인 실시형태들을 첨부된 도면을 참조하여 상세히 설명한다.
먼저, 도 1에서는 본 발명의 일 실시예에 따른 번역문 및 이미지 제공 시스템(100)의 구성도를 보여주고 있다. 도 1에서 볼 수 있는 바와 같이, 본 발명의 일 실시예에 따른 번역문 및 이미지 제공 시스템 (100)은 사용자에게 원문에 대한 번역문을 제공함에 있어서, 사용자에게 복수의 감성 항목 등 항목 별로 분류된 이모티콘 등 이미지 제공하고, 상기 사용자가 선택한 이미지를 상기 원문 및 번역문과 함께 제공하도록 함으로써, 상기 원문 및 번역문과 함께 상기 사용자가 표현하고자 하는 감성을 효과적으로 전달할 수 있는 사용자 단말(110)과, 상기 사용자 단말(110)로부터 사용자가 입력한 원문을 전송받고 이에 대한 번역문을 산출하여 상기 사용자 단말(110)로 제공하며, 또한 상기 사용자 단말(110)로 복수의 감성 항목 등 항목 별로 분류된 이모티콘 등 이미지를 제공하는 서버(120) 및 상기 사용자 단말(110)과 서버(120)를 연결하는 네트워크(130)를 포함하여 구성될 수 있다.
이때, 상기 사용자 단말(110)로서는 스마트폰, 태블릿 PC, PDA, 휴대전화 등 다양한 휴대 단말기가 사용될 수 있고, 이외에도 퍼스널 컴퓨터(PC), 노트북 PC 등 사용자에게 이모티콘 등 이미지를 제공하고, 사용자가 선택한 이미지를 입력받아, 상기 원문에 대한 번역문과 함께 이모티콘 등 이미지를 제공하는데 사용될 수 있는 다양한 단말들이 채택될 수 있다.
이때, 상기 사용자 단말(110)은 상기 서버(120)의 도움을 받아 상기 원문에 대한 번역문을 산출할 수 있으나, 본 발명이 반드시 이에 한정되는 것은 아니며, 상기 사용자 단말(110)이 독립적으로 상기 원문에 대한 번역문을 산출할 수도 있다.
나아가, 상기 사용자 단말(110)은 상기 서버(120)로부터 이모티콘 등 이미지를 제공받아 사용자에게 제시할 수도 있으나, 본 발명이 이에 한정되는 것은 아니며, 상기 사용자 단말(110)이 독립적으로 상기 이모티콘 등 이미지를 보유하거나 다른 장치로부터 이모티콘 등 이미지를 제공받을 수도 있다.
또한, 본 발명에서 이미지는 이모티콘, 그림, 사진 등에 한정되지 않으며, 문자나 기호, 도형 등을 포함하여 구성될 수도 있고, 나아가 움직임이 있는 영상 이나 이모티콘 등을 포함하여 구현될 수도 있다.
또한, 상기 사용자 단말(110)과 서버(120)를 연결하는 네트워크(130)로서는 유선 네트워크와 무선 네트워크를 포함할 수 있으며, 구체적으로, 근거리 통신망 (LAN: Local Area Network), 도시권 통신망 (MAN: Metropolitan Area Network), 광역 통신망 (WAN: Wide Area Network) 등의 다양한 통신망을 포함할 수 있다. 또한, 상기 네트워크(130)는 공지의 월드 와이드 웹(WWW: World Wide Web)을 포함할 수도 있다. 그러나, 본 발명에 따른 통신 네트워크(130)는 상기 열거된 네트워크에 국한되지 않고, 공지의 무선 데이터 네트워크나 공지의 전화 네트워크 또는 공지의 유무선 텔레비전 네트워크를 적어도 일부로 포함할 수도 있다.
도 2에서는 본 발명의 일 실시예에 따른 사용자 단말(110) 관점에서의 번역문과함께 이미지를 제공하는 방법의 순서도를 도시하고 있다. 아래에서는 도 2를 참조하여 본 발명의 일 실시예에 따른 번역문과 함께 이미지를 제공하는 방법을 각 단계별로 나누어 자세하게 검토한다.
먼저, S110단계에서는 사용자 단말(110)이 번역문 및 하나 이상의 이미지를 디스플레이하게 된다.
이때, 상기 번역문은 상기 사용자 단말(110)이 사용자가 입력한 원문을 서버(120)로 전송하여 생성한 번역문일 수 있으며, 또는 상기 사용자 단말(110)이 직접 사용자가 입력한 원문으로부터 생성한 번역문일 수도 있다.
또한, 상기 하나 이상의 이미지는 상기 사용자 단말(110)이 사용자에게 소정의 이미지 목록을 제시한 후, 상기 사용자가 선택한 이미지일 수 있으나, 본 발명이 반드시 이에 한정되는 것은 아니며, 상기 사용자 단말(110)이나 상기 서버(120)가 상기 원문이나 번역문을 이용하여 선택한 이미지 등 다양한 이미지가 사용될 수 있다.
즉, 본 발명의 일 실시예로서, 상기 S110 단계는, 상기 사용자 단말(110)이 상기 원문을 입력받는 단계(S112), 상기 사용자 단말(110)이 상기 사용자에게 하나 이상의 이미지를 제시하고, 상기 사용자가 선택하는 이미지를 입력받는 단계(S114) 및 상기 원문에 대한 번역문과 함께 상기 사용자가 선택한 이미지를 디스플레이하는 단계(S116)를 포함할 수 있다.
보다 구체적으로, 도 3에서 볼 수 있는 바와 같이, 사용자 단말(110)은 사용자로부터 원문(310)을 입력(S112)받은 후, 상기 원문(310)에 대한 번역문(320)을 생성하여 이를 디스플레이할 수 있다.
이어서, 사용자는 상기 번역문(320)에 자신의 감정을 표현할 수 있는 이모티콘 등 이미지를 함께 제공하고자 하는 경우, 소정의 메뉴(330)를 선택하여 하나 이상의 이미지를 제시받은 후, 상기 번역문(320)과 함께 제공할 이미지를 선택(S114)할 수 있다.
예를 들어, 도 4에서 볼 수 있는 바와 같이 사용자는 하나 이상의 이모티콘 등 이미지 목록을 제공받을 수 있으며, 이에 따라 사용자는 자신의 감정을 잘 표현해 줄 수 있는 이미지를 선택(410)하게 된다.
이에 따라, 도 5에서 볼 수 있는 바와 같이 사용자가 선택한 이미지(510)는 상기 원문에 대한 번역문과 함께 사용자 단말(110)에 디스플레이(S116)되게 된다.
특히, 도 4에서 볼 수 있는 바와 같이 본 발명에서는 사용자에게 하나 이상의 이모티콘 등 이미지를 제공함에 있어서, 복수의 감성 항목(420)에 따라 하나 이상의 이미지를 분류하여 제공함으로써, 사용자가 자신이 표현하고자 하는 감성에 맞는 이모티콘 등 이미지를 보다 편리하게 선택할 수 있도록 하게 된다.
보다 구체적인 예를 들어, 도 4에서 볼 수 있는 바와 같이, 하나 이상의 이미지를 "기쁨", "사랑", "나쁨", "미안" 등의 항목으로 분류하고, 사용자가 자신이 선택하고자 하는 항목(예를 들어, "기쁨")을 선택하는 경우, 상기 "기쁨" 항목에 포함되는 이미지들을 나열하여 제공함으로써, 사용자가 보다 편리하게 이미지를 선택할 수 있게 된다.
또한, 사용자가 이미 사용하였던 이미지들의 경우 다시 사용될 가능성이 높으므로, 이를 "최근" 등 별도의 항목으로 분류하여 제공할 수도 있다.
나아가, 상기 항목들 중에서 사용자가 마지막으로 활성화(선택)하였던 항목을 기억하여, 도 4의 이미지 선택 화면이 다시 제공되는 경우, 상기 마지막으로 선택되었던 항목(예를 들어, "기쁨")을 활성화하여 제공함으로써, 사용자가 보다 편리하게 이미지를 선택하도록 할 수 있다.
다음으로, S120 단계에서는 상기 사용자 단말(110)이, 사용자가 변경 또는 삭제하고자 하는 이미지를 선택하는 경우, 상기 선택된 이미지를 변경하거나 삭제할 수 있는 수단을 제공하게 된다.
즉, 사용자는 상기 번역문과 함께 디스플레이된 이미지가 적절하지 못하거나, 보다 자신의 감정을 잘 표현할 수 있는 다른 이미지로 바꾸는 것이 바람직하다고 판단할 수 있으며, 특히 사용자가 미묘한 감정을 적절하게 표현할 수 있는 이미지를 선택함에 있어서, 여러 차례의 수정 과정이 필요할 수 있다는 점을 고려하는 것이 바람직하다.
따라서, 본 발명에서는 디스플레이된 이미지 중 사용자가 변경 또는 삭제하고자 하는 이미지를 손쉽게 지정할 수 있고, 나아가 변경하고자 하는 이미지를 편리하게 선택하여 상기 번역문과 함께 제공할 수 있도록 한다.
이에 대한 실시예로서, 도 5에서 볼 수 있는 바와 같이 사용자는 번역문에 부가되어 디스플레이된 이미지(510)를 변경하거나 삭제고자 하는 경우, 상기 이미지(510)를 선택할 수 있다.
나아가, 상기 사용자가 상기 디스플레이된 이미지를 소정의 시간 기준치 이하로 짧게 선택하는 경우에는, 상기 이미지를 변경할 수 있도록 하는 수단을 제공할 수 있으며, 또한 상기 사용자가 상기 디스플레이된 이미지를 소정의 시간 기준치 이상 길게 선택하는 경우에는, 상기 이미지를 삭제할 수 있도록 하는 수단을 제공하도록 할 수 있다.
즉, 상기 사용자가 상기 디스플레이된 이미지를 선택한 제1 시점과 상기 사용자가 상기 이미지의 선택을 종료한 제2시점을 검출한 후, 상기 제1 시점과 상기 제2 시점의 차가 소정의 시간 기준치 이하이면 상기 이미지를 변경할 수 있도록 하는 수단을 제공하고, 또는 상기 제1 시점과 상기 제2 시점의 차가 소정의 시간 기준치 이상이면 상기 이미지를 삭제할 수 있도록 하는 수단을 제공하도록 할 수 있다.
이미지를 변경하는 경우에 대한 보다 구체적인 실시예로서, 도 5에서 사용자가 상기 디스플레이된 이미지(510)를 변경하고자 하는 경우, 상기 이미지(510)를 클릭함으로써, 도 6에서 볼 수 있는 바와 같이 상기 이미지를 대체할 수 있는 이미지를 선택하는 화면을 제공받을 수 있으며, 따라서 사용자는 변경하고자 하는 새로운 이미지(610)를 선택할 수 있게 된다.
이때, 도 6에서 볼 수 있는 바와 같이 사용자 단말(110)은 하나 이상의 이미지를 복수의 감성 항목 별로 분류하여 제시함으로써, 사용자가 보다 편리하게 자신의 감정을 효과적으로 표현할 수 있는 이미지를 선택할 수 있도록 하게 된다.
보다 구체적인 예를 들어, 도 6에서 볼 수 있는 바와 같이, 디스플레이의 제1 영역에 사용자가 선택할 수 있는 복수의 감성 항목(예를 들어, "기쁨", "사랑", "나쁨", "미안" 등 )을 제시하고, 디스플레이의 제2 영역에 상기 복수의 감성 항목으로 분류된 하나 이상의 이미지를 제공할 수 있다. 이에 따라, 사용자가 자신이 선택하고자 하는 항목(예를 들어, "기쁨")을 선택하는 경우, 상기 "기쁨" 항목에 포함되는 이미지들을 나열하여 제공할 수 있으며, 이에 따라 사용자가 보다 편리하게 자신에게 필요한 이미지를 선택할 수 있게 된다.
또한, 사용자가 이미 선택하였던 이미지들의 경우 다시 선택될 가능성이 높으므로, 이를 "최근" 등 별도의 항목으로 분류하여 제공할 수도 있다.
나아가, 상기 항목들 중에서 사용자가 마지막으로 활성화(선택)하였던 항목을 기억하여, 도 6의 이미지 선택 화면이 다시 제공되는 경우, 상기 마지막으로 선택되었던 항목(예를 들어, "기쁨")을 활성화하여 제공함으로써, 사용자가 보다 편리하게 이미지를 선택하도록 할 수 있다.
덧붙여, 사용자는 상기 감성 항목의 표시를 자신의 선호도에 맞추어 그 순서를 변경하거나 문구를 변경할 수도 있으며, 복수개의 감성 항목 중 자신이 선호하는 일부 항목을 선택하여 먼저 표시되도록 할 수도 있다.
나아가, 상기 사용자에게 제시되는 이모티콘 중 일부 또는 전부는 시간에 따라 형상이 변화하는 이모티콘일 수 있다. 이처럼 이모티콘의 형상이 변화하는 경우, 사용자의 감성을 보다 효과적으로 표현할 수 있다는 장점을 가질 수 있다.
이에 따라, 도 7에서 볼 수 있는 바와 같이 상기 사용자가 선택한 새로운 이미지(610)는 변경전 이미지(510)을 대체하여 상기 번역문과 함께 사용자 단말(110)에 디스플레이(710)되게 된다.
나아가, 이미지를 삭제하는 경우에 대해서는, 도 8에서 볼 수 있는 바와 같이 사용자는 상기 디스플레이된 이미지(510)를 소정의 시간 기준치 이상 길게 클릭해 줌으로써, 상기 디스플레이된 이미지(510)를 삭제(810)하도록 할 수 있다.
이에 따라, 사용자가 상기 디스플레이된 이미지(510)를 삭제(810)하는 경우, 상기 도 3에서 볼 수 있는 바와 같이 상기 이미지가 제거된 화면이 제공되게 된다.
본 발명의 일 실시예에 따른 번역문과 함께 이미지를 제공하는 방법에서는 상기 원문 또는 번역문에 포함되는 단어 또는 문장을 이용하여 사용자가 선택할 것으로 예측되는 하나 이상의 이미지를 선정하고, 선정된 상기 이미지를 추천하거나 이미지의 배열 순서를 조정할 수도 있다.
보다 구체적으로, 도 9에서는 사용자가 입력한 원문으로부터 이에 대응하는 이미지를 산출하는 과정을 설명하기 위한 도면을 예시하고 있다. 도 9에서 볼 수 있는 바와 같이, 사용자는 "큰 도움이 되었어요. 고마워요"라는 원문을 입력하고, 이에 대한 번역문을 구할 수 있다. 이때, 상기 사용자 단말(110)에서는 상기 원문에 포함된 단어나 문구들(예를 들어, 도 9의 "도움"(910), "고마워요"(920) 등)을 고려하여, 사용자가 선택할 것으로 예측되는 하나 이상의 이미지를 산출하여 사용자에게 추천(930)하거나, 상기 하나 이상의 이미지가 선순위에 배열되도록 배열 순위를 조절할 수 있다.
또한, 본 발명의 일 실시예에 따른 번역문에 부가되는 이미지 제공 방법으로서 상기 사용자 단말(110)의 위치 정보를 이용하여 사용자가 선택할 것으로 예측되는 하나 이상의 이미지를 선정하고, 선정된 상기 이미지를 추천하거나 이미지의 배열 순서를 조정하여 사용자에게 제공할 수도 있다.
나아가, 상기 사용자가 입력한 원문 또는 사용자 단말(110)의 위치 정보를 이용하여 상기 사용자가 선택할 것으로 예측되는 하나 이상의 이미지를 선정함에 있어서, 기계 학습(machine learning)에 의하여 학습된 분류기 등을 이용하여 산출될 수도 있다. 보다 구체적으로, 상기 분류기는 Logistics Regression, Bayesian network, AdaBoost,SVM(Support Vector Machine), Naive Bayes 등 다양한 기계 학습(Machine Learning) 기법에 기반하여 구현될 수 있다.
이때, 상기 분류기는 서버(120)에서 구동될 수 있으며, 필요에 따라서는 사용자 단말(110)에서 구동될 수도 있다.
상기 분류기가 서버(120)에서 구동되는 경우, 상기 사용자 단말(110)은 상기 사용자가 입력한 원문 또는 상기 사용자 단말(110)의 위치 정보를 상기 서버(120)로 전송하고, 상기 분류기에서 선정되는 상기 사용자가 선택할 것으로 예측되는 하나 이상의 이미지를 서버(120)로부터 전송받아 사용자에게 제공하게 된다.
상기 분류기는 주어진 원문 및 위치 정보에서 상기 사용자가 선택하는 이모티콘을 지속적으로 학습함으로써, 각 사용자 별로 개별화되어 최적화된 결과물을 산출할 수 있게 된다.
또한, 본 발명의 또 다른 측면에 따른 컴퓨터 프로그램은 앞서 살핀 번역문과 함께 이미지를 제공하는 방법의 각 단계를 컴퓨터에서 실행시키기 위하여 컴퓨터로 판독 가능한 매체에 저장된 컴퓨터 프로그램인 것을 특징으로 한다. 상기 컴퓨터 프로그램은 컴파일러에 의해 만들어지는 기계어 코드를 포함하는 컴퓨터 프로그램뿐만 아니라, 인터프리터 등을 사용해서 컴퓨터에서 실행될 수 있는 고급 언어 코드를 포함하는 컴퓨터 프로그램일 수도 있다. 이때, 상기 컴퓨터로서는 퍼스널 컴퓨터(PC)나 노트북 컴퓨터 등에 한정되지 아니하며, 서버, 스마트폰, 태블릿 PC, PDA, 휴대전화 등 중앙처리장치(CPU)를 구비하여 컴퓨터 프로그램을 실행할 수 있는 일체의 정보처리 장치를 포함한다. 또한, 상기 상기 컴퓨터로 판독 가능한 매체는 전자적 기록 매체(예를 들면, 롬, 플래시 메모리, 등), 마그네틱 저장매체(예를 들면, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같이 컴퓨터로 판독이 가능한 일체의 저장매체를 포함하며, 또한 상기 매체는 하드웨어 매체뿐만 아니라 네트워크 상의 매체일 수 있다. 또한, 다른 매체의 예시로는, 애플리케이션이 유통되는 앱 스토어 및 다양한 소프트웨어가 유통되는 사이트에 구비되는 매체일 수도 있다.
또한, 도 10에서는 본 발명의 일 실시예에 따른 번역문 및 이미지 제공을 위한 사용자 단말(110) 장치의 구성도를 예시하고 있다.
도 10에서 볼 수 있는 바와 같이 본 발명의 일 실시예에 따른 번역문 및 이미지 제공을 위한 사용자 단말(110) 장치는 디스플레이(111), 사용자 입력부(112) 및 제어부(113)를 포함하여 구성될 수 있다.
아래에서는 본 발명의 일 실시예에 따른 번역문에 부가되는 이미지 제공을 위한 사용자 단말(110) 장치를 각 구성요소 별로 나누어 살핀다. 본 발명의 일 실시예에 따른 번역문 및 이미지 제공을 위한 사용자 단말(110) 장치에 대한 보다 자세한 내용은 앞서 설명한 본 발명의 일 실시예에 따른 번역문과 함께 이미지를 제공하는 방법에 대한 설명으로부터 유추될 수 있는 바, 아래에서 보다 자세한 설명은 생략한다.
먼저, 디스플레이(111)에서는 원문에 대한 번역문 및 하나 이상의 이미지를 표시하여 사용자에게 제공하게 된다.
또한, 사용자 입력부(112)에서는 사용자가 상기 디스플레이(111)의 특정 영역을 선택하는 것을 센싱하여 센싱 신호를 생성한 후, 이를 제어부(113)로 전송하게 된다.
이때, 상기 사용자 입력부(112)는 사용자가 상기 디스플레이(111)를 터치하는 것을 인식하는 터치 스크린 제어 회로를 포함하여 구성될 수 있다.
마지막으로, 제어부(113)에서는 상기 사용자 입력부(112)로부터 전송받은 센싱 신호를 이용하여 상기 사용자가 변경 또는 삭제하고자 하는 이미지를 선택하였는지 여부를 판단하고, 상기 사용자가 선택한 이미지를 변경하거나 삭제할 수 있는 수단을 제공하게 된다.
이때, 상기 제어부(113)는, 상기 사용자가 상기 이미지를 소정의 시간 기준치 이하로 짧게 선택하면(예를 들어 순간적으로 클릭하면), 상기 이미지를 변경할 수 있도록 하는 수단을 제공할 수 있으며, 또한 상기 사용자가 상기 이미지를 소정의 시간 기준치 이상 길게 선택하면(예를 들어 상당한 시간 동안 클릭 상태를 유지하면), 상기 이미지를 삭제할 수 있도록 하는 수단을 제공할 수 있다.
즉, 상기 제어부(113)는, 상기 사용자가 상기 디스플레이된 이미지를 선택한 제1 시점과 상기 사용자가 상기 이미지의 선택을 종료한 제2시점을 검출한 후, 상기 제1 시점과 상기 제2 시점의 차가 소정의 시간 기준치 이하이면 상기 이미지를 변경할 수 있도록 하는 수단을 제공하고, 상기 제1 시점과 상기 제2 시점의 차가 소정의 시간 기준치 이상이면 상기 이미지를 삭제할 수 있도록 하는 수단을 제공할 수 있다.
보다 구체적인 예로서, 도 5에서 사용자가 디스플레이되어 있는 이미지(510)을 소정의 시간 기준치 이하로 짧게 클릭하면, 도 6에서 볼 수 있는 바와 같은 이미지 선택 화면을 제공하여 사용자가 새로운 이미지를 선택(610)하여 변경하도록 할 수 있으며, 도 8에서 사용자가 디스플레이되어 있는 이미지(810)를 소정의 시간 기준치 이상 길게 클릭하면 상기 이미지(810)를 삭제하도록 할 수 있다.
이에 따라, 사용자는 번역문과 함께 디스플레이된 이미지를 보다 편리하게 새로운 이미지로 변경하거나 삭제할 수 있으며, 이에 따라 단순하게 번역문을 제공하는데 그치지 않고, 자신이 표현하고자 하는 감정도 효과적으로 표현할 수 있게 된다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 발명에 기재된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의해서 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (15)

  1. 원문에 대한 번역문과 함께 하나 이상의 이미지를 설정하여 제공하는 방법에 있어서,
    사용자 단말이 상기 번역문과 동시에 상기 하나 이상의 이미지를 디스플레이하는 단계;
    이미지 선택 입력을 수신하면, 상기 선택된 이미지를 변경하거나 삭제할 수 있는 수단을 제공하는 이미지 설정 단계; 및
    상기 디스플레이된 이미지를 변경하거나 삭제하는 단계;
    를 포함하는 것을 특징으로 하는 번역문과 함께 이미지를 제공하는 방법.
  2. 제 1항에 있어서,
    상기 디스플레이하는 단계는,
    상기 사용자 단말이 상기 원문을 입력받는 단계;
    상기 사용자 단말이 상기 사용자에게 하나 이상의 이미지를 제시하고, 상기 사용자가 선택하는 이미지를 입력받는 단계; 및
    상기 원문에 대한 번역문과 함께 상기 사용자가 선택한 이미지를 디스플레이하는 단계를 포함하는 것을 특징으로 하는 번역문과 함께 이미지를 제공하는 방법.
  3. 제 1항에 있어서,
    상기 이미지 설정 단계에서,
    상기 사용자가 상기 디스플레이된 이미지를 선택한 제1 시점과 상기 사용자가 상기 이미지의 선택을 종료한 제2시점을 검출하고,
    상기 제1 시점과 상기 제2 시점의 차가 소정의 시간 기준치 이하이면,
    상기 이미지를 변경할 수 있도록 하는 수단을 제공하는 것을 특징으로 하는 번역문과 함께 이미지를 제공하는 방법.
  4. 제 1항에 있어서,
    상기 이미지 설정 단계에서,
    상기 사용자가 상기 디스플레이된 이미지를 선택한 제1 시점과 상기 사용자가 상기 이미지의 선택을 종료한 제2시점을 검출하고,
    상기 제1 시점과 상기 제2 시점의 차가 소정의 시간 기준치 이상이면,
    상기 이미지를 삭제할 수 있도록 하는 수단을 제공하는 것을 특징으로 하는 번역문과 함께 이미지를 제공하는 방법.
  5. 제 1항에 있어서,
    상기 이미지 설정 단계에서,
    상기 이미지를 변경하는 경우,
    복수의 항목 별로 분류된 이미지를 제시하여, 상기 사용자가 이미지를 선택할 수 있도록 하는 것을 특징으로 하는 번역문에 부가되는 이미지 제공 방법.
  6. 제 5항에 있어서,
    상기 사용자가 최근 선택하였던 이미지를 제시하여, 상기 사용자가 이미지를 선택할 수 있도록 하는 것을 특징으로 하는 번역문에 부가되는 이미지 제공 방법.
  7. 제 5항에 있어서,
    디스플레이의 제1 영역에 사용자가 선택할 수 있는 복수의 항목을 제시하고,
    디스플레이의 제2 영역에 상기 복수의 항목으로 분류된 이미지를 제시하는 것을 특징으로 하는 번역문에 부가되는 이미지 제공 방법.
  8. 제 5항에 있어서,
    상기 사용자 단말이,
    상기 원문 또는 번역문에 포함되는 단어 또는 문구를 이용하여 사용자가 선택할 것으로 예측되는 하나 이상의 이미지를 선정하고,
    선정된 상기 이미지를 추천하거나 이미지의 배열 순서를 조정하는 것을 특징으로 하는 번역문에 부가되는 이미지 제공 방법.
  9. 제 5항에 있어서,
    상기 사용자 단말의 위치 정보를 이용하여 사용자가 선택할 것으로 예측되는 하나 이상의 이미지를 선정하고,
    선정된 상기 이미지를 추천하거나 이미지의 배열 순서를 조정하는 것을 특징으로 하는 번역문에 부가되는 이미지 제공 방법.
  10. 제5항에 있어서,
    상기 사용자가 선택할 것으로 예측되는 하나 이상의 이미지는 기계 학습을 이용하여 선정되는 것을 특징으로 하는 번역문에 부가되는 이미지 제공 방법.
  11. 컴퓨터에서 제1항 내지 제10항 중 어느 한 항에 기재된 각 단계를 실행시키기 위한 컴퓨터로 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.
  12. 원문에 대한 번역문과 함께 하나 이상의 이미지를 제공하는 장치에 있어서,
    상기 번역문과 동시에 상기 하나 이상의 이미지를 표시하는 디스플레이;
    사용자가 상기 디스플레이의 특정 영역을 선택하는 것을 센싱하여 센싱 신호를 생성하는 사용자 입력부; 및
    상기 사용자 입력부로부터 전송받은 센싱 신호를 이용하여 상기 사용자가 변경 또는 삭제하고자 하는 이미지를 선택하였는지 여부를 판단하고,
    상기 사용자가 선택한 이미지를 변경하거나 삭제할 수 있는 수단을 제공하는 제어부;
    를 포함하여 구성되는 것을 특징으로 하는 장치.
  13. 제 12항에 있어서,
    상기 사용자 입력부는,
    사용자가 상기 디스플레이를 터치하는 것을 인식하는 터치 스크린 제어 회로를 포함하여 구성되는 것을 특징으로 하는 장치.
  14. 제 12항에 있어서,
    상기 제어부는,
    상기 사용자가 상기 디스플레이된 이미지를 선택한 제1 시점과 상기 사용자가 상기 이미지의 선택을 종료한 제2시점을 검출하고,
    상기 제1 시점과 상기 제2 시점의 차가 소정의 시간 기준치 이하이면,
    상기 이미지를 변경할 수 있도록 하는 수단을 제공하는 것을 특징으로 하는 장치.
  15. 제 12항에 있어서,
    상기 제어부는,
    상기 사용자가 상기 디스플레이된 이미지를 선택한 제1 시점과 상기 사용자가 상기 이미지의 선택을 종료한 제2시점을 검출하고,
    상기 제1 시점과 상기 제2 시점의 차가 소정의 시간 기준치 이상이면,
    상기 이미지를 삭제할 수 있도록 하는 수단을 제공하는 것을 특징으로 하는 장치.
PCT/KR2017/010155 2016-09-26 2017-09-18 번역문과 함께 이미지를 제공하는 방법, 장치 및 컴퓨터 프로그램 WO2018056653A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0123155 2016-09-26
KR1020160123155A KR20180033777A (ko) 2016-09-26 2016-09-26 번역문과 함께 이미지를 제공하는 방법, 장치 및 컴퓨터 프로그램

Publications (1)

Publication Number Publication Date
WO2018056653A1 true WO2018056653A1 (ko) 2018-03-29

Family

ID=61689996

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/010155 WO2018056653A1 (ko) 2016-09-26 2017-09-18 번역문과 함께 이미지를 제공하는 방법, 장치 및 컴퓨터 프로그램

Country Status (2)

Country Link
KR (1) KR20180033777A (ko)
WO (1) WO2018056653A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102393412B1 (ko) 2020-03-04 2022-05-02 김경철 번역 문서의 공유 플랫폼 운용 방법
KR102415923B1 (ko) 2020-03-04 2022-07-04 김경철 번역 플랫폼 운용 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110026218A (ko) * 2009-09-07 2011-03-15 동국대학교 산학협력단 문자 메시지 입력 장치 및 방법 그리고 그를 위한 프로그램을 기록한 기록 매체
KR20120098368A (ko) * 2011-02-25 2012-09-05 성균관대학교산학협력단 감성 진단 장치 및 방법
KR20130095970A (ko) * 2012-02-21 2013-08-29 삼성전자주식회사 터치 스크린을 구비하는 기기에서 객체를 제어하기 위한 장치 및 방법
KR20140035160A (ko) * 2012-09-13 2014-03-21 김규문 모바일 메시지 애플리케이션의 이미지 이모티콘 검색 방법
KR20160038563A (ko) * 2014-09-30 2016-04-07 삼성전자주식회사 하나 이상의 이미지들을 추천하는 방법 및 그를 위한 전자 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110026218A (ko) * 2009-09-07 2011-03-15 동국대학교 산학협력단 문자 메시지 입력 장치 및 방법 그리고 그를 위한 프로그램을 기록한 기록 매체
KR20120098368A (ko) * 2011-02-25 2012-09-05 성균관대학교산학협력단 감성 진단 장치 및 방법
KR20130095970A (ko) * 2012-02-21 2013-08-29 삼성전자주식회사 터치 스크린을 구비하는 기기에서 객체를 제어하기 위한 장치 및 방법
KR20140035160A (ko) * 2012-09-13 2014-03-21 김규문 모바일 메시지 애플리케이션의 이미지 이모티콘 검색 방법
KR20160038563A (ko) * 2014-09-30 2016-04-07 삼성전자주식회사 하나 이상의 이미지들을 추천하는 방법 및 그를 위한 전자 장치

Also Published As

Publication number Publication date
KR20180033777A (ko) 2018-04-04

Similar Documents

Publication Publication Date Title
US11138207B2 (en) Integrated dynamic interface for expression-based retrieval of expressive media content
WO2017195992A1 (ko) 이모티콘이 함께 제공되는 번역문 제공 방법, 사용자 단말, 서버 및 컴퓨터 프로그램
WO2018101694A1 (en) Electronic apparatus and method for summarizing content
WO2015099293A1 (en) Device and method for displaying user interface of virtual input device based on motion recognition
WO2021071231A1 (ko) 서브 의사표현 아이템을 포함하는 의사표현 아이템 데이터베이스를 능동적으로 구축하는 메시지 서비스 제공 장치 및 그 방법
WO2012050251A1 (ko) 이동 단말기 및 그 제어방법
US20160055134A1 (en) Method and apparatus for providing summarized content to users
KR20160021637A (ko) 컨텐츠 처리 방법 및 그 전자 장치
WO2016126007A1 (en) Method and device for searching for image
WO2016093552A2 (en) Terminal device and data processing method thereof
WO2016129811A1 (ko) 인스턴트 메시징 서비스에서 공식계정의 리치 메뉴를 제공하는 방법과 시스템 및 기록 매체
WO2014061996A1 (en) User terminal device and control method thereof
WO2020166883A1 (ko) 인공지능을 이용한 문맥 파악 기반의 동영상 편집 방법 및 시스템
CN110852081A (zh) 通过应用程序的内容分析来控制用户访问的方法及系统
WO2021141419A1 (en) Method and apparatus for generating customized content based on user intent
WO2016108545A1 (ko) 대화 서비스 제공 방법 및 대화 서비스 제공 디바이스
WO2016052983A1 (en) Information sharing method and electronic device thereof
WO2016126018A1 (ko) 메신저의 대화내용을 관리하는 방법과 시스템 및 기록 매체
WO2018004200A1 (en) Electronic device and information providing method thereof
EP3230902A2 (en) Terminal device and data processing method thereof
EP3698258A1 (en) Electronic apparatus and controlling method thereof
WO2018056653A1 (ko) 번역문과 함께 이미지를 제공하는 방법, 장치 및 컴퓨터 프로그램
EP3545401A1 (en) Electronic apparatus and method for summarizing content
WO2019203494A1 (ko) 문자를 입력하기 위한 전자 장치 및 그의 동작 방법
WO2015102125A1 (ko) 문자형 대화 시스템 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17853367

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 010819)

122 Ep: pct application non-entry in european phase

Ref document number: 17853367

Country of ref document: EP

Kind code of ref document: A1