WO2019117361A1 - 메시징 서비스 환경에서의 인터랙션 방법 및 시스템 - Google Patents

메시징 서비스 환경에서의 인터랙션 방법 및 시스템 Download PDF

Info

Publication number
WO2019117361A1
WO2019117361A1 PCT/KR2017/014726 KR2017014726W WO2019117361A1 WO 2019117361 A1 WO2019117361 A1 WO 2019117361A1 KR 2017014726 W KR2017014726 W KR 2017014726W WO 2019117361 A1 WO2019117361 A1 WO 2019117361A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
area
user input
computer
input
Prior art date
Application number
PCT/KR2017/014726
Other languages
English (en)
French (fr)
Inventor
이정영
최용현
조경준
Original Assignee
라인 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라인 가부시키가이샤 filed Critical 라인 가부시키가이샤
Priority to JP2020532601A priority Critical patent/JP7016956B2/ja
Priority to PCT/KR2017/014726 priority patent/WO2019117361A1/ko
Publication of WO2019117361A1 publication Critical patent/WO2019117361A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • the following description relates to a method and system for interacting in a messaging service environment, and more particularly, to a messaging service environment provided through a computer including a camera, such as a smart phone, A computer apparatus for performing the interaction method, and a computer program and a recording medium stored in a computer-readable recording medium for causing a computer to execute an interaction method in combination with the computer.
  • a camera such as a smart phone
  • a computer apparatus for performing the interaction method and a computer program and a recording medium stored in a computer-readable recording medium for causing a computer to execute an interaction method in combination with the computer.
  • the messaging service is one of interactive and interactive services. It provides communication between user and user terminal through a storage device having a message processing function such as accumulation transmission e-mail mailbox and information editing, processing, and conversion. And a processing service (for example, a chat using a messenger).
  • a message processing function such as accumulation transmission e-mail mailbox and information editing, processing, and conversion.
  • a processing service for example, a chat using a messenger.
  • a user accesses a storage where a photograph or a file is stored through a user interface provided by a messaging service, Or a file is attached to the messaging service, or the address of the media accessed by the user or the link of the related application is found and attached to the messaging service.
  • a computer including a camera such as a smart phone, an interaction method by which a user can easily photograph and share a photograph through a camera, a computer device that performs the interaction method, A computer program stored in a computer-readable recording medium for causing a computer to execute the method, and a recording medium therefor.
  • An interaction method capable of easily sharing not only a photograph stored in a computer but also a file or media, a network address, or geographical position information that the user has accessed, on a messaging service, a computer device performing the interaction method, Readable recording medium for causing a computer to execute the program and a recording medium therefor.
  • a computer device comprising: at least one processor configured to execute computer readable instructions, the at least one processor being operable to cause a computer to perform the steps of: In response to recognizing a user input in a first area set to the messaging interface, drives a camera, and based on the recognition of the user input being held in a second area, And displaying at least one frame in an image input through the driven camera based on the position at which the user input is recognized out of the second area, Service is transmitted through the It provides a computer device.
  • a user can easily shoot and share a photograph through a camera.
  • FIG. 1 is a diagram illustrating an example of a network environment according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating an internal configuration of an electronic device and a server according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an example in which a user performs a long press touch on a user interface area for driving a camera in an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an example of displaying an image input via a front camera on a messaging interface for a messaging service, according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example in which a front camera image displayed on a messaging interface moves as a position at which a user input is recognized moves in an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating an example of transmitting a front camera image in an embodiment of the present invention.
  • FIG. 7 is a diagram illustrating an example of changing an image displayed on a messaging interface from an image input through a front camera to an image input through a rear camera in an embodiment of the present invention.
  • FIG. 8 is a diagram illustrating an example of changing an image displayed on a messaging interface from an image input through a rear camera to an image input through a front camera in an embodiment of the present invention.
  • FIG. 9 is a diagram illustrating an example of transmitting a rear camera image in an embodiment of the present invention.
  • FIG. 10 is a flowchart illustrating an example of an interaction method according to an embodiment of the present invention.
  • FIG. 11 is a diagram illustrating an example in which a user performs a long press touch on a user interface area for loading a picture stored in an album in another embodiment of the present invention.
  • FIG. 12 is a diagram showing an example in which, in another embodiment of the present invention, a picture stored in an album is displayed on a messaging interface for a messaging service.
  • FIG. 13 and 14 are views illustrating an example in which pictures displayed on the messaging interface are sequentially changed as the position at which the user input is recognized moves in another embodiment of the present invention.
  • 15 is a diagram illustrating an example of transmitting a currently displayed picture in another embodiment of the present invention.
  • 16 and 20 are views showing an example of a user interface for transmitting additional contents in another embodiment of the present invention.
  • 21 is a flowchart showing an example of an interaction method according to another embodiment of the present invention.
  • An interaction method can be performed through a computer apparatus such as an electronic apparatus to be described later.
  • a computer program for example, a messenger application for a messaging service
  • a computer device may be implemented in accordance with the embodiments of the present invention Can be performed.
  • the above-described computer program may be stored in a computer-readable recording medium in combination with a computer device to cause the computer to execute the interaction method.
  • 1 is a diagram illustrating an example of a network environment according to an embodiment of the present invention. 1 shows an example in which a plurality of electronic devices 110, 120, 130, 140, a plurality of servers 150, 160, and a network 170 are included. 1, the number of electronic devices and the number of servers are not limited to those shown in FIG.
  • the plurality of electronic devices 110, 120, 130, 140 may be a fixed terminal implemented as a computer device or a mobile terminal.
  • Examples of the plurality of electronic devices 110, 120, 130 and 140 include a smart phone, a mobile phone, a navigation device, a computer, a notebook, a digital broadcast terminal, a PDA (Personal Digital Assistants) ), And tablet PCs.
  • FIG. 1 illustrates the shape of a smartphone as an example of the first electronic device 110, but in the embodiments of the present invention, the first electronic device 110 transmits the network 170 using a wireless or wired communication method.
  • any of a variety of physical computer devices capable of communicating with other electronic devices 120, 130, 140 and / or servers 150 any of a variety of physical computer devices capable of communicating with other electronic devices 120, 130, 140 and / or servers 150,
  • the communication method is not limited, and may include a communication method using a communication network (for example, a mobile communication network, a wired Internet, a wireless Internet, a broadcasting network) that the network 170 may include, as well as a short-range wireless communication between the devices.
  • the network 170 may be a personal area network (LAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN) , A network such as the Internet, and the like.
  • the network 170 may also include any one or more of a network topology including a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree or a hierarchical network, It is not limited.
  • Each of the servers 150 and 160 is a computer device or a plurality of computers that communicate with a plurality of electronic devices 110, 120, 130 and 140 through a network 170 to provide commands, codes, files, Lt; / RTI > devices.
  • the server 150 may be a system that provides a first service to a plurality of electronic devices 110, 120, 130, 140 connected through a network 170, 170, and 140 to the first and second electronic devices 110, 120, 130, and 140, respectively.
  • the server 150 can receive a service (for example, a broadcast transmission service, a content service, and a content service) through an application as a computer program installed in a plurality of electronic devices 110, 120, 130, A messaging service, a mail service, and the like) as a first service to a plurality of electronic devices 110, 120, 130, and 140.
  • a service for example, a broadcast transmission service, a content service, and a content service
  • the server 160 may provide a service for distributing a file for installing and running the application to the plurality of electronic devices 110, 120, 130, and 140 as a second service.
  • 2 is a block diagram illustrating an internal configuration of an electronic device and a server according to an embodiment of the present invention. 2 illustrates an internal configuration of the electronic device 1 (110) and the server 150 as an example of the electronic device. Other electronic devices 120, 130, 140 and server 160 may also have the same or similar internal configuration as electronic device 1 110 or server 150 described above.
  • the electronic device 1 110 and the server 150 may include memories 211 and 221, processors 212 and 222, communication modules 213 and 223 and input / output interfaces 214 and 224.
  • the memories 211 and 221 may be a computer-readable recording medium and may include a permanent mass storage device such as a random access memory (RAM), a read only memory (ROM), and a disk drive.
  • the non-decaying mass storage device such as the ROM and the disk drive may be included in the electronic device 110 or the server 150 as a separate permanent storage device different from the memory 211 and 221.
  • the memory 211 and the memory 221 are provided with an operating system and at least one program code (for example, a program installed in the electronic device 1 (110) and used for a browser or an application installed in the electronic device 1 Code) can be stored.
  • These software components may be loaded from a computer readable recording medium separate from the memories 211 and 221.
  • a computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, a disk, a tape, a DVD / CD-ROM drive, and a memory card.
  • the software components may be loaded into memory 211, 221 via communication modules 213, 223 rather than a computer readable recording medium.
  • At least one program may be a computer program installed by files provided by a file distribution system (e.g., the server 160 described above) that distributes installation files of developers or applications, May be loaded into the memory 211, 221 based on the application (e.g., the application described above).
  • a file distribution system e.g., the server 160 described above
  • the application e.g., the application described above.
  • Processors 212 and 222 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input / output operations.
  • the instructions may be provided to the processors 212 and 222 by the memories 211 and 221 or the communication modules 213 and 223.
  • the processor 212, 222 may be configured to execute a command received in accordance with a program code stored in a recording device, such as the memory 211, 221.
  • the communication modules 213 and 223 may provide functions for the electronic device 1 110 and the server 150 to communicate with each other through the network 170 and may be provided to the electronic device 1 110 and / May provide a function for communicating with another electronic device (e.g., electronic device 2 120) or another server (e.g., server 160).
  • another electronic device e.g., electronic device 2 120
  • another server e.g., server 160
  • the request generated by the processor 212 of the electronic device 1 110 according to the program code stored in the recording device such as the memory 211 is transmitted to the server 170 via the network 170 under the control of the communication module 213 150 < / RTI > Conversely, control signals, commands, contents, files, and the like provided under the control of the processor 222 of the server 150 are transmitted to the communication module 223 of the electronic device 110 via the communication module 223 and the network 170 213 to the electronic device 1 (110).
  • control signals, commands, contents, files, and the like of the server 150 received through the communication module 213 can be transmitted to the processor 212 or the memory 211, (The above-mentioned persistent storage device), which may further include a storage medium 110.
  • the input / output interface 214 may be a means for interfacing with the input / output device 215.
  • the input device may include a device such as a keyboard or a mouse, and the output device may include a device such as a display, a speaker, and the like.
  • the input / output interface 214 may be a means for interfacing with a device having integrated functions for input and output, such as a touch screen.
  • the input / output device 215 may be composed of the electronic device 1 (110) and one device.
  • the input / output interface 224 of the server 150 may be a means for interfacing with the server 150 or an interface with a device (not shown) for input or output that the server 150 may include.
  • the configuration is performed using the data provided by the server 150 or the electronic device 2 (120)
  • a service screen or contents can be displayed on the display through the input / output interface 214.
  • electronic device 1 110 and server 150 may include more components than the components of FIG. However, there is no need to clearly illustrate most prior art components.
  • electronic device 1 110 may be implemented to include at least a portion of input / output devices 215 described above, or may be implemented with other components such as a transceiver, Global Positioning System (GPS) module, camera, Elements. More specifically, when the electronic device 1 (110) is a smart phone, the acceleration sensor, the gyro sensor, the camera module, various physical buttons, buttons using a touch panel, input / output ports, A vibrator, and the like may be further included in the electronic device 1 (110).
  • GPS Global Positioning System
  • 3 is a diagram illustrating an example in which a user performs a long press touch on a user interface area for driving a camera in an embodiment of the present invention.
  • 3 shows an example in which a messaging interface is provided on the screen 310 of the electronic device 1 110 based on a messenger application installed and driven in the electronic device 1 110 in connection with the messaging service, And the user input is generated in the first area 320 set in the interface.
  • the electronic device 1 (110) may drive a camera included in the electronic device 1 (110) (or connected to the electronic device 1 (110)) in response to recognizing the user input.
  • the electronic device 1 110 according to the present embodiment may be a smart phone including a touch screen screen, and the user input may be a long press touch for the first area 320.
  • the electronic device 1 (110) can drive the camera when the user's touch to the first area 320 is maintained for a predetermined time or more.
  • the electronic device 1 (110) includes two cameras, i.e., a front camera and a rear camera, and an example in which the front camera is driven by default as user input occurs will be described.
  • the rear camera may be driven by default or the user may be provided with a function of setting which of the front camera and the rear camera should be driven first.
  • the electronic device 1 110 may display on the messaging interface a front camera image 410 input via a camera driven based on the recognition of the user input being maintained in the second area 420.
  • the front camera image 410 may be a real-time image input through the camera.
  • the frame most recently entered with the camera may be displayed on the messaging interface as the front camera image 410.
  • the front camera image 410 may be displayed at a location associated with the location at which the user input is being recognized.
  • the second region 420 may be visually represented as shown in FIG. 4 so that the user is recognizable and may be set on the messaging interface to include at least the first region 320.
  • 5 is a diagram illustrating an example in which a front camera image displayed on a messaging interface moves as a position at which a user input is recognized moves in an embodiment of the present invention.
  • 5 illustrates an example in which the position of the front camera image 410 is moved to a position associated with a position at which the user input is recognized as the position at which the user input is recognized in the second area 420 is moved.
  • the area where the image is displayed may also be dynamically changed corresponding to the position at which the user input is recognized.
  • FIG. 6 is a diagram illustrating an example of transmitting a front camera image in an embodiment of the present invention.
  • the electronic device 110 captures at least one frame from an image input through a camera driven based on a position at which a user input is recognized out of the second area 420 described in FIG. 5, Lt; / RTI > At this time, the at least one frame may be a frame input through the camera at a point where the position at which the user input is recognized is out of the second area 420.
  • [ 6 shows an example in which a front camera image 410 transmitted as a transmitted message to a third area 610 indicating a message transmitted and received through the messaging service as the front camera image 410 is transmitted through the messaging service Respectively.
  • the camera shape displayed in the first area 320 described above with reference to FIG. 3 may be a user interface for driving a camera in a conventional messaging interface.
  • the camera is driven so that the user directly photographs the camera and selects the photographed photograph again The photographed photograph could be transmitted.
  • the user can photograph and transmit a photograph through one operation using one long press touch.
  • the camera is driven so that an image input through a camera on a separate screen is not displayed, but the image is displayed on the messaging interface, After the press-touch is generated, a photograph can be taken and transmitted through the camera through only one operation of leaving the second area 420 while the touch is maintained.
  • the second area 420 may include a 2-1 area for displaying an image input through a front camera and a 2-2 area for displaying an image input through a rear camera have.
  • the front camera image 410 can be displayed on the messaging interface while the user input is recognized in the second-1 area
  • the rear camera image 710 can be displayed while the user input is recognized in the second- May be displayed on the messaging interface. Therefore, it is possible for the user to change the front camera and the rear camera while maintaining one long press touch.
  • FIG. 8 is a diagram illustrating an example of changing an image displayed on a messaging interface from an image input through a rear camera to an image input through a front camera in an embodiment of the present invention.
  • the camera driven according to the change of the position where the user input is recognized is changed from the rear camera to the front camera, and the image displayed on the messaging interface is also changed from the rear camera image 710 And the front camera image 410 is changed.
  • the camera and the displayed image may be changed.
  • the front and back cameras may be switched based on the direction in which the position at which the user input is recognized moves, without dividing the second area 420 into separate areas.
  • the electronic device 1 (110) switches the front camera to the rear camera when the position at which the user input is recognized is from left to right, and when the position at which the user input is recognized is from left to right, You can switch to the camera.
  • 9 is a diagram illustrating an example of transmitting a rear camera image in an embodiment of the present invention.
  • 9 is based on the fact that the position at which the user input is recognized when the rear camera image 710 input through the rear camera is displayed on the messaging interface is out of the second area 420, At least one frame is captured and transmitted through a messaging service. 9, a rear camera image 710 is transmitted as a frame input through a rear camera at a time point when a position at which a user input is recognized leaves the second area 420, so that a rear camera image 710 is transmitted to a third area 610 ). ≪ / RTI >
  • FIG. 10 is a flowchart illustrating an example of an interaction method according to an embodiment of the present invention.
  • the interaction method according to the present embodiment can be performed by a computer apparatus such as electronic device 1 (110).
  • the processor 212 of the electronic device 1 110 may be implemented to execute a control instruction according to code of an operating system included in the memory 211 or code of at least one program.
  • the processor 212 controls the electronic device 1 (110) to perform steps (1010 to 1060) included in the interaction method of FIG. 10 according to the control command provided by the code stored in the electronic device 1 1 < / RTI >
  • the electronic device 110 may provide a messaging interface on the screen of the electronic device 110 based on the application installed and driven in the electronic device 110 in association with the messaging service.
  • the application may include but is not limited to a messenger application as described in the embodiments of Figures 3-9.
  • an application may be one of a variety of applications for a variety of messaging services, such as Short Messaging Service (SMS) or Multi-media Message Service (MMS) or email services.
  • SMS Short Messaging Service
  • MMS Multi-media Message Service
  • email services such as email services.
  • the messaging interface may refer to a user interface that the application provides to the user for sending and receiving messages.
  • the electronic device 1 110 can drive the camera in response to recognizing the user input in the first area set in the messaging interface.
  • the screen of electronic device 1 110 may include a touch screen screen, and the user input may include a touch input for such a touch screen screen.
  • the electronic device 1 (110) can drive the camera in response to the touch input being recognized for a predetermined time or longer in the first area (for example, the first area 320 described with reference to FIG. 3).
  • the camera may include either the electronic device 1 110 or a front camera and a rear camera connected to the electronic device 1 110. The driven camera can be changed from the front camera to the rear camera or from the rear camera to the front camera depending on the conditions as described later.
  • step 1030 in response to recognizing the user input in the first area set in the messaging interface, the electronic device 110 resets the second area (e.g., the area described in Figures 4, 5, 7, and 8 2 area 420) through a messaging interface.
  • the second area information for notifying that the front camera and the rear camera can be changed by changing the position of the user input may be displayed.
  • the electronic device 1 (110) may display an image input through the driven camera on the messaging interface, based on the recognition of the user input being held in the second area.
  • the second area may be set in the messaging interface to include at least the first area.
  • the electronic device 1 (110) displays an image input at a position associated with a position at which the user input is recognized, and dynamically displays a position at which the input image is displayed as the position at which the user input is recognized is changed in the second area Can be changed.
  • the electronic device 1 110 switches the camera from the front camera to the rear camera, or switches back to the front camera after switching, based on whether the position at which the user input is recognized moves within the second area can do.
  • the electronic device 110 may display an image input through the front camera or the rear camera on the messaging interface.
  • the electronic device 110 can display an image input through the front camera on the messaging interface, and when the camera to be driven is a rear camera, Can display an image input through the rear camera on the messaging interface.
  • the electronic device 1 (110) displays a camera driven when the position at which the user input is recognized is moved from the second-first region to the second-second region included in the second region, When the position at which the user input is recognized is shifted from the second-2 region to the second-1 region again, the camera driven can be switched from the switched rear camera to the front camera again.
  • the electronic device 1 (110) switches the driven camera from the front camera to the rear camera, or switches back to the front camera from the switched rear camera, based on the direction in which the position at which the user input is recognized moves .
  • the camera can be switched to use the rear camera when the position at which the user input is recognized moves from left to right, and the front camera when the position at which the user input is detected moves from right to left.
  • the default driven camera may be a front camera or a rear camera.
  • step 1060 the electronic device 110 captures at least one frame from the image input through the driven camera and transmits the captured image through the messaging service based on the recognition of the user input out of the second area have.
  • the second area includes at least a first area, and a third area (e.g., a third area 610 described with reference to Figs. 6 and 9) that represents a message sent and received via the messaging service at the messaging interface ) ≪ / RTI >
  • the electronic device 1 (110) can transmit at least one frame when the position at which the user input is recognized moves out of the second area and moves to the third area.
  • the user can select a camera to take a picture (front camera or rear camera) before generating a long press touch and release the touch, take a picture, Lt; / RTI > Therefore, the process for selecting a camera, photographing and transmitting a picture is greatly reduced, thereby increasing user convenience.
  • 11 is a diagram illustrating an example in which a user performs a long press touch on a user interface area for loading a picture stored in an album in another embodiment of the present invention.
  • 11 shows an example in which a messaging interface is provided on the screen 310 of the electronic device 1 110 based on a messenger application installed and driven in the electronic device 1 110 in connection with the messaging service, And the user input is generated in the first area 1110 set in the interface.
  • the electronic device 1 (110) can access a plurality of contents stored in the electronic device 1 (110) in response to recognizing the user input.
  • the electronic device 1 110 according to the present embodiment may be a smart phone including a touch screen screen, and the user input may be a long press touch for the first area 1110.
  • the electronic device 1 (110) can access a plurality of contents when the user's touch to the first area 1110 is maintained for a predetermined time or more.
  • the types of contents that can be accessed by the electronic device 1 (110) may vary according to the user interface set in the first area 1110.
  • a plurality of contents include a predetermined number of images or videos stored most recently in association with an album application installed and driven in the electronic device 1 (110).
  • the user interface displayed in the first area 1110 may include a function of providing images or videos stored in the album upon user's touch.
  • the user when the user simply touches the user interface displayed in the first area 1110, the user can provide images or videos stored in the album to provide a function for the user to select one of the provided images or videos have.
  • a function of selecting and transmitting an image or video before releasing the long press touch may be provided .
  • FIG. 12 is a diagram showing an example in which, in another embodiment of the present invention, a picture stored in an album is displayed on a messaging interface for a messaging service.
  • the electronic device 1 (110) may display one of the plurality of contents on the messaging interface based on recognition of the user input being held in the second area (1220).
  • the electronic device 1 (110) displays an example of displaying on the messaging interface a first image 1210, which is the most recent image among a predetermined number of images most recently stored in association with the album application have.
  • the image displayed on the messaging interface may be selected according to the position at which the user input is recognized in the second area 1220.
  • 13 and 14 are views illustrating an example in which pictures displayed on the messaging interface are sequentially changed as the position at which the user input is recognized moves in another embodiment of the present invention.
  • 13 and 14 illustrate that the image displayed on the messaging interface changes as the position at which the user input is recognized in the second region 1220 changes from the first image 1210 to the second image 1310, And the second image 1310 to the third image 1410 in sequence.
  • the first electronic device 110 sequentially corresponds to a predetermined number of images or videos in a predetermined number of areas included in the second area 1220, And display an image or video corresponding to the area containing the recognized position on the messaging interface.
  • the second area 1220 may be divided into five areas to correspond to five images, and each time a user input is recognized in each area, an image corresponding to the area is displayed on the messaging interface .
  • the electronic device 1 (110) displays an image corresponding to a position associated with a position at which the user input is recognized in the second area 1220, and when the position at which the user input is recognized is changed in the second area, Can be dynamically changed.
  • the position at which the user input is recognized is changed, not only the displayed image is changed, but also the position at which the image is displayed is changed.
  • FIG. 15 is a diagram illustrating an example of transmitting a currently displayed picture in another embodiment of the present invention.
  • the embodiment of FIG. 15 shows an example in which a third image 1410, which is an image being displayed on the messaging interface, is transmitted through the messaging service as the position at which the user input is recognized is out of the second area. 15, a third image 1410 is transmitted to a third region 610 displaying a message transmitted / received through a messaging service as the third image 1410 is transmitted through the messaging service An example is shown.
  • the user can select one of the previously stored contents most recently stored before the touch is released through one long press touch, and transmit the selected contents through the messaging service. Therefore, the process for selecting and transmitting the content is greatly reduced, and the user convenience is increased.
  • 16 and 20 are views showing an example of a user interface for transmitting additional contents in another embodiment of the present invention.
  • FIG. 16 illustrates an example in which a user generates user input for an additional function area 1610 for additional functions.
  • the user input may be a long press touch and the general touch of the user to the additional function area 1610 may be utilized to provide existing additional functions.
  • FIG. 17 illustrates an example of providing various additional functions in response to recognizing user input to the additional function area 1610.
  • a 'Keep' interface which is a user interface for displaying a predetermined number of files or media most recently accessed by the user, a predetermined number of geographical location information that the user has most recently used
  • 'Location' interface which is a user interface for displaying a set number of geographical location information
  • 'Address' interface which is a user interface for displaying a predetermined number of network addresses most recently accessed by the user.
  • FIG. 18 shows an example in which the three most recently used files are displayed as the user selects the 'Keep' interface by moving the touch position while maintaining the long press touch.
  • FIG. 19 shows an example in which the user moves the touch position while maintaining the long press touch and selects the file 'aaa.mp3'.
  • the 'aaa.mp3' file can be selected based on the position where the release of the long press touch is recognized.
  • FIG. 20 shows an example in which the file 'aaa.mp3' is transmitted through the messaging service as the 'aaa.mp3' file is selected in the embodiment of FIG.
  • the embodiment of FIG. 20 shows an example in which a message 2010 for 'aaa.mp3' file is displayed in a third area 610 displaying a message transmitted / received through a messaging service.
  • the user can select and transmit the most recently accessed file through a single long press touch. This applies not only to the file, but also to the media most recently accessed by the user, the most recently accessed network address, and geographic location information.
  • the geographical location information may include GPS (Global Positioning System) coordinates.
  • the electronic device 110 may store information about the most recently accessed file, information about the most recently accessed media, information about the most recently used network address, geo-location information, and / The user can monitor and store and manage the visited geographical location information.
  • FIG. 21 is a flowchart showing an example of an interaction method according to another embodiment of the present invention.
  • the interaction method according to the present embodiment can be performed by a computer apparatus such as electronic device 1 (110).
  • the processor 212 of the electronic device 1 110 may be implemented to execute a control instruction according to code of an operating system included in the memory 211 or code of at least one program.
  • the processor 212 controls the electronic device 1 (110) to perform the steps (2110 to 2150) included in the interaction method of FIG. 21 according to the control command provided by the code stored in the electronic device 1 1 < / RTI >
  • the electronic device 1 110 may provide a messaging interface on the screen of the computer based on the application installed and driven in the electronic device 1 110 with respect to the messaging service.
  • the application may include but is not limited to a messenger application as described in the embodiments of Figs. 11-20.
  • an application may be one of a variety of applications for a variety of messaging services, such as Short Messaging Service (SMS) or Multi-media Message Service (MMS) or email services.
  • SMS Short Messaging Service
  • MMS Multi-media Message Service
  • the messaging interface may refer to a user interface that the application provides to the user for sending and receiving messages.
  • the first electronic device 110 in response to recognizing the user input in the first area set in the messaging interface, can access a plurality of contents stored in the computer.
  • the screen of electronic device 1 110 may include a touch screen screen, and the user input may include a touch input for such a touch screen screen.
  • the electronic device 1 (110) can access a plurality of contents in response to the touch input being recognized for a predetermined time or longer in the first area (for example, the first area 1110 described with reference to FIG. 11).
  • the plurality of contents may include a predetermined number of images or video most recently stored in association with the album application installed and driven in the electronic device 1 (110).
  • step 2130 in response to recognizing the user input in the first area set in the messaging interface, the first electronic device 110 responds to the second area (e.g., the second area described with reference to Figs. 12, 13, and 14 1220) via a messaging interface.
  • This second area may be set in the messaging interface to include at least a first area and in the second area information may be displayed informing that the user can receive additional content by changing the location of the user input .
  • the electronic device 1 110 displays one of the plurality of contents on the messaging interface based on the recognition of the user input being held in the second area, wherein the user input is recognized in the second area
  • the content of one of the plurality of contents can be selected and displayed according to the location.
  • the electronic device 1 (110) sequentially associates a predetermined number of images or videos with a predetermined number of areas included in the second area, sequentially positions a predetermined number of areas May be displayed on the messaging interface.
  • the electronic device 1 (110) displays one piece of content selected at a position associated with a position at which the user input is recognized in the second area, and one piece of content selected according to the change in the position at which the user input is recognized in the second area
  • the displayed position can be changed dynamically.
  • the position of the content to be displayed and the content to be displayed can be controlled based on the change in the position in which the user input is recognized in the second area, and the position of the content to be displayed and the content to be displayed can be controlled by the user It can mean that at least a part of it can be controlled.
  • the first electronic device 110 may transmit the content being displayed on the messaging interface among the plurality of contents through the messaging service, based on the location where the user input is recognized out of the second area.
  • the second area may be set on the messaging interface to include at least a first area and to be adjacent to a third area 610 that represents messages sent and received via the messaging service at the messaging interface. In this case, when the position at which the user input is recognized moves out of the second area and moves to the third area, the electronic device 1 (110) can transmit the content being displayed.
  • a user interface for displaying a predetermined number of accessed files or media, and displaying a predetermined number of files or media Or a file or media selected by the user.
  • the electronic device 1 in response to recognizing the user input for the fourth area set in the messaging interface, displays a user interface for displaying a predetermined number of network addresses that the user most recently accessed To 'Address' interface described with reference to FIG. 17 to FIG. 19), and can transmit a network address selected by the user among a predetermined number of network addresses displayed through the user interface through the messaging service.
  • electronic device 1 110 may be configured such that electronic device 1 110 receives a user input for a fourth region set in the messaging interface, Or a user interface (e.g., the 'Location' interface described with reference to FIGS. 17 to 19) for displaying a predetermined number of geographical location information that has been visited most recently by the user, The geographical location information selected by the user among the geographical location information can be transmitted through the messaging service.
  • a user interface e.g., the 'Location' interface described with reference to FIGS. 17 to 19
  • the geographical location information selected by the user among the geographical location information can be transmitted through the messaging service.
  • the user can select and transmit an image or video stored in the terminal before generating a long press touch and releasing the corresponding touch.
  • the user can select a file, media, network address , Geographical location information, and the like. Therefore, the process of selecting, generating, and transmitting information is greatly reduced, thereby increasing the convenience of the user.
  • a user in a messaging service environment provided through a computer including a camera such as a smart phone, a user can easily photograph and share a photograph through a camera.
  • a camera such as a smart phone
  • network addresses or geographical location information can be easily shared on the messaging service.
  • the system or apparatus described above may be implemented as a hardware component, a software component or a combination of hardware components and software components.
  • the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions.
  • the processing device may execute an operating system (OS) and one or more software applications running on the operating system.
  • the processing device may also access, store, manipulate, process, and generate data in response to execution of the software.
  • OS operating system
  • the processing device may also access, store, manipulate, process, and generate data in response to execution of the software.
  • the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG.
  • the processing unit may comprise a plurality of processors or one processor and one controller.
  • Other processing configurations are also possible, such as a parallel processor.
  • the software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded.
  • the software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device As shown in FIG.
  • the software may be distributed over a networked computer system and stored or executed in a distributed manner.
  • the software and data may be stored on one or more computer readable recording media.
  • the method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium.
  • the computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination.
  • the program instructions to be recorded on the medium may be those specially designed and configured for the embodiments, or may be available to those skilled in the art of computer software.
  • Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.
  • Such a recording medium may be a variety of recording means or storage means in the form of a single or a plurality of hardware combined and is not limited to a medium directly connected to any computer system but may be dispersed on a network.
  • Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.

Abstract

메시징 서비스 환경에서의 인터랙션 방법 및 시스템을 개시한다. 본 발명의 실시예들에 따른 인터랙션 방법은, 메시징 서비스와 관련하여 컴퓨터에 설치 및 구동된 어플리케이션에 기반하여 상기 컴퓨터의 화면상에 메시징 인터페이스를 제공하는 단계, 상기 메시징 인터페이스에 설정된 제1 영역에서 사용자 입력을 인식함에 응답하여, 카메라를 구동하는 단계, 상기 사용자 입력의 인식이 제2 영역에서 유지됨에 기반하여, 상기 구동된 카메라를 통해 입력되는 영상을 상기 메시징 인터페이스상에 표시하는 단계 및 상기 사용자 입력이 인식되는 위치가 상기 제2 영역을 벗어남에 기반하여, 상기 구동된 카메라를 통해 입력되는 영상에서 적어도 하나의 프레임을 캡쳐하여 상기 메시징 서비스를 통해 전송하는 단계를 포함할 수 있다.

Description

메시징 서비스 환경에서의 인터랙션 방법 및 시스템
아래의 설명은 메시징 서비스 환경에서의 인터랙션 방법 및 시스템에 관한 것으로, 보다 자세하게는 스마트폰과 같이 카메라를 포함하는 컴퓨터를 통해 제공되는 메시징 서비스 환경에서, 사용자가 쉽게 카메라를 통해 사진을 촬영하여 공유할 수 있는 인터랙션 방법, 상기 인터랙션 방법을 수행하는 컴퓨터 장치, 그리고 컴퓨터와 결합되어 인터랙션 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램과 그 기록매체에 관한 것이다.
메시징 서비스는 상호 작용식 또는 대화식 서비스의 하나로, 축적 전송 이메일 사서함 및 정보 편집, 처리, 변환 등의 메시지 처리 기능을 가진 기억 장치를 통하여 사용자 대 사용자 단말간 통신을 제공하는 서비스로서 이메일 서비스와 메시지 통신 처리 서비스(일례로, 메신저를 이용한 채팅) 등이 이에 해당한다.
이러한 종래기술의 메시징 서비스에서 사용자가 자신의 단말기에서 카메라를 통해 사진을 촬영하여 전송하기 위해서는 사용자가 메시징 서비스가 제공하는 사용자 인터페이스를 통해 카메라를 구동하기 위한 조작, 구동된 카메라를 통해 사진을 촬영하는 조작, 다시 촬영된 사진을 메시징 서비스를 통해 첨부하여 전송하는 조작 등과 같이 복잡한 과정을 요구한다는 문제점이 있다.
또한, 이미 단말기에 저장된 사진이나 파일, 또는 사용자가 접근했던 미디어 등의 정보를 메시징 서비스를 통해 전송함에 있어서도, 사용자가 메시징 서비스가 제공하는 사용자 인터페이스를 통해 사진이나 파일이 저장된 저장소에 접근하여 원하는 사진이나 파일을 찾아서 메시징 서비스에 첨부하거나 또는 사용자가 접근했던 미디어의 주소나 관련 어플리케이션의 링크 등을 찾아서 메시징 서비스에 첨부해야 하는 등의 복잡한 과정을 요구한다는 문제점이 있다.
스마트폰과 같이 카메라를 포함하는 컴퓨터를 통해 제공되는 메시징 서비스 환경에서, 사용자가 쉽게 카메라를 통해 사진을 촬영하여 공유할 수 있는 인터랙션 방법, 상기 인터랙션 방법을 수행하는 컴퓨터 장치, 그리고 컴퓨터와 결합되어 인터랙션 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램과 그 기록매체를 제공한다.
컴퓨터에 저장된 사진뿐만 아니라, 사용자가 접근했던 파일이나 미디어, 네트워크 주소 또는 지리적 위치 정보 등을 메시징 서비스상에서 쉽게 공유할 수 있는 인터랙션 방법, 상기 인터랙션 방법을 수행하는 컴퓨터 장치, 그리고 컴퓨터와 결합되어 인터랙션 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램과 그 기록매체에 관한 것이다.
메시징 서비스와 관련하여 컴퓨터에 설치 및 구동된 어플리케이션에 기반하여 상기 컴퓨터의 화면상에 메시징 인터페이스를 제공하는 단계; 상기 메시징 인터페이스에 설정된 제1 영역에서 사용자 입력을 인식함에 응답하여, 카메라를 구동하는 단계; 상기 사용자 입력의 인식이 제2 영역에서 유지됨에 기반하여, 상기 구동된 카메라를 통해 입력되는 영상을 상기 메시징 인터페이스상에 표시하는 단계; 및 상기 사용자 입력이 인식되는 위치가 상기 제2 영역을 벗어남에 기반하여, 상기 구동된 카메라를 통해 입력되는 영상에서 적어도 하나의 프레임을 캡쳐하여 상기 메시징 서비스를 통해 전송하는 단계를 포함하는 인터랙션 방법을 제공한다.
컴퓨터와 결합되어 상기 인터랙션 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.
상기 인터랙션 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록매체를 제공한다.
컴퓨터 장치에 있어서, 컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 메시징 서비스와 관련하여 상기 컴퓨터에 설치 및 구동된 어플리케이션에 기반하여 상기 컴퓨터의 화면상에 메시징 인터페이스를 제공하고, 상기 메시징 인터페이스에 설정된 제1 영역에서 사용자 입력을 인식함에 응답하여, 카메라를 구동하고, 상기 사용자 입력의 인식이 제2 영역에서 유지됨에 기반하여, 상기 구동된 카메라를 통해 입력되는 영상을 상기 메시징 인터페이스상에 표시하고, 상기 사용자 입력이 인식되는 위치가 상기 제2 영역을 벗어남에 기반하여, 상기 구동된 카메라를 통해 입력되는 영상에서 적어도 하나의 프레임을 캡쳐하여 상기 메시징 서비스를 통해 전송하는 것을 특징으로 하는 컴퓨터 장치를 제공한다.
스마트폰과 같이 카메라를 포함하는 컴퓨터를 통해 제공되는 메시징 서비스 환경에서, 사용자가 쉽게 카메라를 통해 사진을 촬영하여 공유할 수 있다.
컴퓨터에 저장된 사진뿐만 아니라, 사용자가 접근했던 파일이나 미디어, 네트워크 주소 또는 지리적 위치 정보 등을 메시징 서비스상에서 쉽게 공유할 수 있다.
도 1은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 2는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 3은 본 발명의 일실시예에 있어서, 카메라를 구동하기 위한 사용자 인터페이스 영역을 사용자가 롱 프레스 터치하는 예를 도시한 도면이다.
도 4는 본 발명의 일실시예에 있어서, 메시징 서비스를 위한 메시징 인터페이스상에 전면 카메라를 통해 입력되는 이미지를 표시하는 예를 도시한 도면이다.
도 5는 본 발명의 일실시예에 있어서, 사용자 입력이 인식되는 위치가 이동함에 따라 메시징 인터페이스상에 표시된 전면 카메라 이미지가 이동하는 예를 도시한 도면이다.
도 6은 본 발명의 일실시예에 있어서, 전면 카메라 이미지를 전송하는 예를 도시한 도면이다.
도 7은 본 발명의 일실시예에 있어서, 메시징 인터페이스상에 표시되는 이미지를 전면 카메라를 통해 입력되는 이미지에서 후면 카메라를 통해 입력되는 이미지로 변경하는 예를 도시한 도면이다.
도 8은 본 발명의 일실시예에 있어서, 메시징 인터페이스상에 표시되는 이미지를 후면 카메라를 통해 입력되는 이미지에서 전면 카메라를 통해 입력되는 이미지로 변경하는 예를 도시한 도면이다.
도 9는 본 발명의 일실시예에 있어서, 후면 카메라 이미지를 전송하는 예를 도시한 도면이다.
도 10은 본 발명의 일실시예에 따른 인터랙션 방법의 예를 도시한 흐름도이다.
도 11은 본 발명의 다른 실시예에 있어서, 앨범에 저장된 사진을 불러오기 위한 사용자 인터페이스 영역을 사용자가 롱 프레스 터치하는 예를 도시한 도면이다.
도 12는 본 발명의 다른 실시예에 있어서, 메시징 서비스를 위한 메시징 인터페이스상에 앨범에 저장된 사진이 표시되는 예를 도시한 도면이다.
도 13 및 도 14는 본 발명의 다른 실시예에 있어서, 사용자 입력이 인식되는 위치가 이동함에 따라 메시징 인터페이스상에 표시되는 사진이 순차적으로 변경되는 예를 도시한 도면이다.
도 15는 본 발명의 다른 실시예에 있어서, 현재 표시중인 사진을 전송하는 예를 도시한 도면이다.
도 16 및 도 20은 본 발명의 다른 실시예에 있어서, 추가 컨텐츠를 전송하기 위한 사용자 인터페이스의 예를 도시한 도면이다.
도 21은 본 발명의 다른 실시예에 따른 인터랙션 방법의 예를 도시한 흐름도이다.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.
본 발명의 실시예들에 따른 인터랙션 방법은 이후 설명될 전자 기기와 같은 컴퓨터 장치를 통해 수행될 수 있다. 이때, 컴퓨터 장치에는 본 발명의 일실시예에 따른 컴퓨터 프로그램(일례로 메시징 서비스를 위한 메신저 어플리케이션)이 설치 및 구동될 수 있고, 컴퓨터 장치는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 인터랙션 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터 장치와 결합되어 인터랙션 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다.
도 1은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다. 도 1의 네트워크 환경은 복수의 전자 기기들(110, 120, 130, 140), 복수의 서버들(150, 160) 및 네트워크(170)를 포함하는 예를 나타내고 있다. 이러한 도 1은 발명의 설명을 위한 일례로 전자 기기의 수나 서버의 수가 도 1과 같이 한정되는 것은 아니다.
복수의 전자 기기들(110, 120, 130, 140)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 복수의 전자 기기들(110, 120, 130, 140)의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일례로 도 1에서는 전자 기기 1(110)의 예로 스마트폰의 형상을 나타내고 있으나, 본 발명의 실시예들에서 전자 기기 1(110)은 실질적으로 무선 또는 유선 통신 방식을 이용하여 네트워크(170)를 통해 다른 전자 기기들(120, 130, 140) 및/또는 서버(150, 160)와 통신할 수 있는 다양한 물리적인 컴퓨터 장치들 중 하나를 의미할 수 있다.
통신 방식은 제한되지 않으며, 네트워크(170)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(170)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(170)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
서버(150, 160) 각각은 복수의 전자 기기들(110, 120, 130, 140)과 네트워크(170)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 예를 들어, 서버(150)는 네트워크(170)를 통해 접속한 복수의 전자 기기들(110, 120, 130, 140)로 제1 서비스를 제공하는 시스템일 수 있으며, 서버(160) 역시 네트워크(170)를 통해 접속한 복수의 전자 기기들(110, 120, 130, 140)로 제2 서비스를 제공하는 시스템일 수 있다. 보다 구체적인 예로, 서버(150)는 복수의 전자 기기들(110, 120, 130, 140)에 설치되어 구동되는 컴퓨터 프로그램으로서의 어플리케이션을 통해, 해당 어플리케이션이 목적하는 서비스(일례로, 방송 송출 서비스, 컨텐츠 전송 서비스, 정보 제공 서비스, 메시징 서비스, 메일 서비스 등)를 제1 서비스로서 복수의 전자 기기들(110, 120, 130, 140)로 제공할 수 있다. 다른 예로, 서버(160)는 상술한 어플리케이션의 설치 및 구동을 위한 파일을 복수의 전자 기기들(110, 120, 130, 140)로 배포하는 서비스를 제2 서비스로서 제공할 수 있다.
도 2는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다. 도 2에서는 전자 기기에 대한 예로서 전자 기기 1(110), 그리고 서버(150)의 내부 구성을 설명한다. 또한, 다른 전자 기기들(120, 130, 140)이나 서버(160) 역시 상술한 전자 기기 1(110) 또는 서버(150)와 동일한 또는 유사한 내부 구성을 가질 수 있다.
전자 기기 1(110)과 서버(150)는 메모리(211, 221), 프로세서(212, 222), 통신 모듈(213, 223) 그리고 입출력 인터페이스(214, 224)를 포함할 수 있다. 메모리(211, 221)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 저장 장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 저장 장치는 메모리(211, 221)와는 구분되는 별도의 영구 저장 장치로서 전자 기기 1(110)이나 서버(150)에 포함될 수도 있다. 또한, 메모리(211, 221)에는 운영체제와 적어도 하나의 프로그램 코드(일례로 전자 기기 1(110)에 설치되어 구동되는 브라우저나 특정 서비스의 제공을 위해 전자 기기 1(110)에 설치된 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(211, 221)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(213, 223)을 통해 메모리(211, 221)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로, 상술한 서버(160))이 네트워크(170)를 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램(일례로 상술한 어플리케이션)에 기반하여 메모리(211, 221)에 로딩될 수 있다.
프로세서(212, 222)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(211, 221) 또는 통신 모듈(213, 223)에 의해 프로세서(212, 222)로 제공될 수 있다. 예를 들어 프로세서(212, 222)는 메모리(211, 221)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 모듈(213, 223)은 네트워크(170)를 통해 전자 기기 1(110)과 서버(150)가 서로 통신하기 위한 기능을 제공할 수 있으며, 전자 기기 1(110) 및/또는 서버(150)가 다른 전자 기기(일례로 전자 기기 2(120)) 또는 다른 서버(일례로 서버(160))와 통신하기 위한 기능을 제공할 수 있다. 일례로, 전자 기기 1(110)의 프로세서(212)가 메모리(211)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(213)의 제어에 따라 네트워크(170)를 통해 서버(150)로 전달될 수 있다. 역으로, 서버(150)의 프로세서(222)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 모듈(223)과 네트워크(170)를 거쳐 전자 기기 1(110)의 통신 모듈(213)을 통해 전자 기기 1(110)로 수신될 수 있다. 예를 들어 통신 모듈(213)을 통해 수신된 서버(150)의 제어 신호나 명령, 컨텐츠, 파일 등은 프로세서(212)나 메모리(211)로 전달될 수 있고, 컨텐츠나 파일 등은 전자 기기 1(110)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.
입출력 인터페이스(214)는 입출력 장치(215)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(214)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(215)는 전자 기기 1(110)과 하나의 장치로 구성될 수도 있다. 또한, 서버(150)의 입출력 인터페이스(224)는 서버(150)와 연결되거나 서버(150)가 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 보다 구체적인 예로, 전자 기기 1(110)의 프로세서(212)가 메모리(211)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 서버(150)나 전자 기기 2(120)가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(214)를 통해 디스플레이에 표시될 수 있다.
또한, 다른 실시예들에서 전자 기기 1(110) 및 서버(150)는 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 전자 기기 1(110)은 상술한 입출력 장치(215) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 전자 기기 1(110)이 스마트폰인 경우, 일반적으로 스마트폰이 포함하고 있는 가속도 센서나 자이로 센서, 카메라 모듈, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 전자 기기 1(110)에 더 포함되도록 구현될 수 있다.
도 3은 본 발명의 일실시예에 있어서, 카메라를 구동하기 위한 사용자 인터페이스 영역을 사용자가 롱 프레스 터치하는 예를 도시한 도면이다. 도 3의 실시예는 메시징 서비스와 관련하여 전자 기기 1(110)에 설치 및 구동된 메신저 어플리케이션에 기반하여 전자 기기 1(110)의 화면(310)상에 메시징 인터페이스가 제공된 예를 나타내고 있으며, 메시징 인터페이스에 설정된 제1 영역(320)에서 사용자 입력이 발생하는 예를 나타내고 있다. 이때, 전자 기기 1(110)은 사용자 입력을 인식함에 응답하여 전자 기기 1(110)이 포함하는(또는 전자 기기 1(110)과 연결된) 카메라를 구동할 수 있다. 예를 들어, 본 실시예에 따른 전자 기기 1(110)은 터치스크린 화면을 포함하는 스마트폰일 수 있으며, 사용자 입력은 제1 영역(320)에 대한 롱 프레스 터치일 수 있다. 이 경우, 전자 기기 1(110)은 제1 영역(320)에 대해 사용자의 터치가 기설정된 시간 이상 유지되는 경우, 카메라를 구동할 수 있다. 본 실시예에서는 전자 기기 1(110)이 전면 카메라와 후면 카메라의 두 개의 카메라를 포함하고, 사용자 입력이 발생함에 따라 전면 카메라를 디폴트로 구동하도록 설정된 예를 설명한다. 실시예에 따라 후면 카메라가 디폴트로 구동될 수도 있으며, 전면 카메라와 후면 카메라 중 어떠한 카메라를 먼저 구동할 것인가를 사용자가 설정할 수 있는 기능이 사용자에게 제공될 수도 있다.
도 4는 본 발명의 일실시예에 있어서, 메시징 서비스를 위한 메시징 인터페이스상에 전면 카메라를 통해 입력되는 이미지를 표시하는 예를 도시한 도면이다. 전자 기기 1(110)은 사용자 입력의 인식이 제2 영역(420)에서 유지됨에 기반하여 구동된 카메라를 통해 입력되는 전면 카메라 이미지(410)를 메시징 인터페이스상에 표시할 수 있다. 이때, 전면 카메라 이미지(410)는 카메라를 통해 입력되는 실시간 영상일 수 있다. 다시 말해, 가장 최근에 카메라로 입력된 프레임이 전면 카메라 이미지(410)로서 메시징 인터페이스상에 표시될 수 있다. 또한, 전면 카메라 이미지(410)는 사용자 입력이 인식중인 위치와 연관된 위치에 표시될 수 있다. 제2 영역(420)은 사용자가 인식 가능하도록 도 4와 같이 시각적으로 표현될 수 있으며, 제1 영역(320)을 적어도 포함하도록 메시징 인터페이스에 설정될 수 있다.
도 5는 본 발명의 일실시예에 있어서, 사용자 입력이 인식되는 위치가 이동함에 따라 메시징 인터페이스상에 표시된 전면 카메라 이미지가 이동하는 예를 도시한 도면이다. 도 5는 제2 영역(420)에서 사용자 입력이 인식되는 위치가 이동됨에 따라 전면 카메라 이미지(410)의 위치가 사용자 입력이 인식되는 위치와 연관된 위치로 이동되는 예를 나타내고 있다. 다시 말해, 제2 영역(420) 내에서 사용자 입력이 인식되는 위치가 지속적으로 이동되는 경우, 이미지가 표시되는 영역 역시 사용자 입력이 인식되는 위치에 대응하여 동적으로 변경될 수 있다.
도 6은 본 발명의 일실시예에 있어서, 전면 카메라 이미지를 전송하는 예를 도시한 도면이다. 도 6에서 전자 기기 1(110)은 사용자 입력이 인식되는 위치가 도 5에서 설명한 제2 영역(420)을 벗어남에 기반하여 구동된 카메라를 통해 입력되는 영상에서 적어도 하나의 프레임을 캡쳐하여 메시징 서비스를 통해 전송할 수 있다. 이때, 적어도 하나의 프레임은 일례로 사용자 입력이 인식되는 위치가 제2 영역(420)을 벗어나는 시점에 카메라를 통해 입력된 프레임일 수 있다. 도 6에서는 전면 카메라 이미지(410)가 메시징 서비스를 통해 전송됨에 따라 메시징 서비스를 통해 송수신되는 메시지를 표시하는 제3 영역(610)에 전송된 전면 카메라 이미지(410)가 전송된 메시지로서 표시된 예를 나타내고 있다.
앞서 도 3을 통해 설명한 제1 영역(320)에 표시된 카메라 모양은 기존에 메시징 인터페이스에서 카메라를 구동하기 위한 사용자 인터페이스일 수 있다. 다시 말해, 사용자가 카메라를 구동하기 위한 사용자 인터페이스가 표시된 제1 영역(320)을 단순히 터치하는 경우에는 카메라가 구동되어 사용자가 직접 카메라를 통해 사진을 촬영하고, 다시 촬영된 사진을 선택하는 과정을 거쳐 촬영된 사진이 전송될 수 있었다. 반면 본 실시예에서는 사용자가 한번의 롱 프레스 터치를 이용한 한 번의 조작을 통해 사진을 촬영하여 전송할 수 있게 된다. 예를 들어, 사용자는 제1 영역(320)을 롱 프레스 터치함에 따라 카메라가 구동되어 별도의 화면에서 카메라를 통해 입력되는 영상이 표시되는 것이 아니라, 영상이 메시징 인터페이스상에 표시되고, 사용자가 롱 프레스 터치를 발생시킨 후, 터치가 유지된 상태에서 제2 영역(420)을 벗어나는 한 번의 동작만으로 카메라를 통해 사진을 촬영하여 전송할 수 있게 된다.
도 7은 본 발명의 일실시예에 있어서, 메시징 인터페이스상에 표시되는 이미지를 전면 카메라를 통해 입력되는 이미지에서 후면 카메라를 통해 입력되는 이미지로 변경하는 예를 도시한 도면이다. 도 7의 실시예에서는 사용자 입력이 인식되는 위치가 변경됨(또는 이동됨)에 따라 구동되는 카메라가 전면 카메라에서 후면 카메라로 변경되고, 메시징 인터페이스상에 표시되는 영상 역시 전면 카메라 이미지(410)에서 후면 카메라 이미지(710)로 변경되는 예를 나타내고 있다. 예를 들어, 제2 영역(420)은 전면 카메라를 통해 입력되는 영상을 표시하도록 하기 위한 제2-1 영역과 후면 카메라를 통해 입력되는 영상을 표시하도록 하기 위한 제2-2 영역을 포함할 수 있다. 다시 말해, 사용자 입력이 제2-1 영역에서 인식되는 동안에는 전면 카메라 이미지(410)가 메시징 인터페이스상에 표시될 수 있고, 사용자 입력이 제2-2 영역에서 인식되는 동안에는 후면 카메라 이미지(710)가 메시징 인터페이스상에 표시될 수 있다. 따라서 사용자는 한 번의 롱 프레스 터치를 유지하고 있는 상태로 전면 카메라와 후면 카메라를 변경하는 것이 가능해진다.
도 8은 본 발명의 일실시예에 있어서, 메시징 인터페이스상에 표시되는 이미지를 후면 카메라를 통해 입력되는 이미지에서 전면 카메라를 통해 입력되는 이미지로 변경하는 예를 도시한 도면이다. 도 8의 실시예에서는 사용자 입력이 인식되는 위치가 변경됨(또는 이동됨)에 따라 구동되는 카메라가 후면 카메라에서 다시 전면 카메라로 변경되고, 메시징 인터페이스상에 표시되는 영상 역시 후면 카메라 이미지(710)에서 전면 카메라 이미지(410)로 변경되는 예를 나타내고 있다. 앞서 설명한 예에서 사용자 입력이 인식되는 위치가 제2-2 영역에서 제2-1 영역으로 변경됨에 따라 구동되는 카메라와 표시되는 영상이 변경될 수 있다.
다른 실시예로, 제2 영역(420)을 별도의 영역으로 나누지 않고, 사용자 입력이 인식되는 위치가 이동하는 방향에 기반하여 전면 카메라와 후면 카메라를 전환할 수도 있다. 예를 들어, 전자 기기 1(110)은 사용자 입력이 인식되는 위치가 좌에서 우 방향인 경우 전면 카메라를 후면 카메라로 전환하고, 사용자 입력이 인식되는 위치가 우에서 좌 방향인 경우 후면 카메라를 전면 카메라로 전환할 수 있다.
도 9는 본 발명의 일실시예에 있어서, 후면 카메라 이미지를 전송하는 예를 도시한 도면이다. 도 9의 실시예는 후면 카메라를 통해 입력되는 후면 카메라 이미지(710)가 메시징 인터페이스상에 표시된 상태에서 사용자 입력이 인식되는 위치가 제2 영역(420)을 벗어남에 기반하여, 후면 카메라를 통해 입력되는 영상에서 적어도 하나의 프레임을 캡쳐하여 메시징 서비스를 통해 전송하는 예를 나타내고 있다. 도 9에서는 사용자 입력이 인식되는 위치가 제2 영역(420)을 벗어나는 시점에 후면 카메라를 통해 입력되는 프레임으로서 후면 카메라 이미지(710)가 전송됨에 따라 후면 카메라 이미지(710)가 제3 영역(610)에 표시된 예를 나타내고 있다.
도 10은 본 발명의 일실시예에 따른 인터랙션 방법의 예를 도시한 흐름도이다. 본 실시예에 따른 인터랙션 방법은 전자 기기 1(110)과 같은 컴퓨터 장치에 의해 수행될 수 있다. 예를 들어, 전자 기기 1(110)의 프로세서(212)는 메모리(211)가 포함하는 운영체제의 코드나 적어도 하나의 프로그램의 코드에 따른 제어 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서(212)는 전자 기기 1(110)에 저장된 코드가 제공하는 제어 명령에 따라 전자 기기 1(110)이 도 10의 인터랙션 방법이 포함하는 단계들(1010 내지 1060)을 수행하도록 전자 기기 1(110)을 제어할 수 있다.
단계(1010)에서 전자 기기 1(110)은 메시징 서비스와 관련하여 전자 기기 1(110)에 설치 및 구동된 어플리케이션에 기반하여 전자 기기 1(110)의 화면상에 메시징 인터페이스를 제공할 수 있다. 어플리케이션은 도 3 내지 도 9의 실시예들에서 설명한 바와 같이 메신저 어플리케이션을 포함할 수 있으나 이에 한정되지는 않는다. 예를 들어, 어플리케이션은 SMS(Short Messaging Service)나 MMS(Multi-media Message Service) 또는 이메일 서비스 등과 같이 다양한 메시징 서비스를 위한 어플리케이션들 중 하나일 수도 있다. 메시징 인터페이스는 해당 어플리케이션이 메시지의 송수신을 위해 사용자에게 제공하는 사용자 인터페이스를 의미할 수 있다.
단계(1020)에서 전자 기기 1(110)은 메시징 인터페이스에 설정된 제1 영역에서 사용자 입력을 인식함에 응답하여, 카메라를 구동할 수 있다. 구체적인 실시예로, 전자 기기 1(110)의 화면은 터치스크린 화면을 포함할 수 있으며, 사용자 입력은 이러한 터치스크린 화면에 대한 터치 입력을 포함할 수 있다. 이때, 전자 기기 1(110)은 제1 영역(일례로, 도 3을 통해 설명한 제1 영역(320))에서 터치 입력이 기설정된 시간 이상 인식됨에 응답하여 카메라를 구동할 수 있다. 실시예에 따라 카메라는 전자 기기 1(110)이 포함하거나 또는 전자 기기 1(110)과 연결된 전면 카메라 및 후면 카메라 중 어느 하나를 포함할 수 있다. 구동되는 카메라는 이후 설명되는 바와 같이 조건에 따라 전면 카메라에서 후면 카메라로 혹은 후면 카메라에서 전면 카메라로 변경될 수 있다.
단계(1030)에서 전자 기기 1(110)은 메시징 인터페이스에 설정된 제1 영역에서 사용자 입력을 인식함에 응답하여, 제2 영역(일례로, 도 4, 도 5, 도 7 및 도 8을 통해 설명한 제2 영역(420))을 시각적으로 표시하기 위한 사용자 인터페이스를 메시징 인터페이스를 통해 제공할 수 있다. 이러한 제2 영역에는 사용자가 사용자 입력의 위치를 변경함으로써, 전면 카메라와 후면 카메라를 변경할 수 있음을 알리기 위한 정보가 표시될 수 있다.
단계(1040)에서 전자 기기 1(110)은 사용자 입력의 인식이 제2 영역에서 유지됨에 기반하여, 구동된 카메라를 통해 입력되는 영상을 메시징 인터페이스상에 표시할 수 있다. 이 경우, 제2 영역은 제1 영역을 적어도 포함하도록 메시징 인터페이스에 설정될 수 있다. 다시 말해, 사용자가 제1 영역에 롱 프레스 터치를 발생시키고 터치를 유지하고 있는 경우, 카메라가 구동되고 카메라를 통해 입력되는 영상이 메시징 인터페이스상에 표시될 수 있다.
이때, 전자 기기 1(110)은 사용자 입력이 인식되는 위치와 연관된 위치에 입력되는 영상을 표시하되, 사용자 입력이 인식되는 위치가 제2 영역에서 변경됨에 따라 입력되는 영상이 표시되는 위치를 동적으로 변경할 수 있다.
단계(1050)에서 전자 기기 1(110)은 사용자 입력이 인식되는 위치가 제2 영역 내에서 이동함에 기반하여, 카메라를 전면 카메라에서 후면 카메라로 전환하거나 또는 전환된 후면 카메라에서 전면 카메라로 다시 전환할 수 있다. 이 경우 전자 기기 1(110)은 전면 카메라 또는 후면 카메라를 통해 입력되는 영상을 메시징 인터페이스상에 표시할 수 있다. 예를 들어, 구동되는 카메라가 전면 카메라인 경우 전자 기기 1(110)은 전면 카메라를 통해 입력되는 영상을 메시징 인터페이스상에 표시할 수 있으며, 구동되는 카메라가 후면 카메라인 경우 전자 기기 1(110)은 후면 카메라를 통해 입력되는 영상을 메시징 인터페이스상에 표시할 수 있다.
일실시예로, 전자 기기 1(110)은 사용자 입력이 인식되는 위치가 제2 영역이 포함하는 제2-1 영역에서 제2-2 영역으로 이동되는 경우에 구동되는 카메라를 전면 카메라에서 후면 카메라로 전환하고, 사용자 입력이 인식되는 위치가 제2-2 영역에서 제2-1 영역으로 다시 이동되는 경우에 구동되는 카메라를 전환된 후면 카메라에서 전면 카메라로 다시 전환할 수 있다.
다른 실시예로, 전자 기기 1(110)은 사용자 입력이 인식되는 위치가 이동하는 방향에 기반하여, 구동되는 카메라를 전면 카메라에서 후면 카메라로 전환하거나 또는 전환된 후면 카메라에서 전면 카메라로 다시 전환할 수 있다. 예를 들어, 사용자 입력이 인식되는 위치가 좌에서 우로의 이동되는 경우에는 후면 카메라를, 사용자 입력이 인식되는 위치가 우에서 좌로의 이동되는 경우에는 전면 카메라를 사용하도록 카메라를 전환할 수 있다.
디폴트로 구동되는 카메라는 전면 카메라일 수도 있고, 후면 카메라일 수도 있다.
단계(1060)에서 전자 기기 1(110)은 사용자 입력이 인식되는 위치가 제2 영역을 벗어남에 기반하여, 구동된 카메라를 통해 입력되는 영상에서 적어도 하나의 프레임을 캡쳐하여 메시징 서비스를 통해 전송할 수 있다.
일실시예로, 제2 영역은 제1 영역을 적어도 포함하고, 메시징 인터페이스에서 메시징 서비스를 통해 송수신되는 메시지를 표시하는 제3 영역(일례로, 도 6 및 도 9를 통해 설명한 제3 영역(610))에 인접하도록 메시징 인터페이스에 설정될 수 있다. 이 경우, 전자 기기 1(110)은 사용자 입력이 인식되는 위치가 제2 영역을 벗어나 제3 영역으로 이동하는 경우, 적어도 하나의 프레임을 전송할 수 있다.
이처럼, 사용자는 한 번의 롱 프레스 터치를 발생시키고 해당 터치를 해제하기도 전에 사진을 촬영하기 위한 카메라를 선택(전면 카메라 또는 후면 카메라)할 수 있으며, 사진을 촬영할 수 있고, 촬영된 사진을 메시징 서비스를 통해 전송할 수 있게 된다. 따라서 카메라의 선택, 사진의 촬영 및 전송을 위한 과정이 대폭 감소하게 되어 사용자 편의성이 증가하게 된다.
도 11은 본 발명의 다른 실시예에 있어서, 앨범에 저장된 사진을 불러오기 위한 사용자 인터페이스 영역을 사용자가 롱 프레스 터치하는 예를 도시한 도면이다. 도 11의 실시예는 메시징 서비스와 관련하여 전자 기기 1(110)에 설치 및 구동된 메신저 어플리케이션에 기반하여 전자 기기 1(110)의 화면(310)상에 메시징 인터페이스가 제공된 예를 나타내고 있으며, 메시징 인터페이스에 설정된 제1 영역(1110)에서 사용자 입력이 발생하는 예를 나타내고 있다. 이때, 전자 기기 1(110)은 사용자 입력을 인식함에 응답하여 전자 기기 1(110)에 저장된 복수의 컨텐츠들에 접근할 수 있다. 예를 들어, 본 실시예에 따른 전자 기기 1(110)은 터치스크린 화면을 포함하는 스마트폰일 수 있으며, 사용자 입력은 제1 영역(1110)에 대한 롱 프레스 터치일 수 있다. 이 경우, 전자 기기 1(110)은 제1 영역(1110)에 대해 사용자의 터치가 기설정된 시간 이상 유지되는 경우, 복수의 컨텐츠들에 접근할 수 있다. 이때, 전자 기기 1(110)이 접근 가능한 복수의 컨텐츠들의 종류는 제1 영역(1110)에 설정된 사용자 인터페이스에 따라 달라질 수 있다. 본 실시예에서는 복수의 컨텐츠들이 전자 기기 1(110)에 설치 및 구동된 앨범 어플리케이션과 연관하여 가장 최근에 저장된 기설정된 수의 이미지 또는 비디오를 포함하는 예를 고려한다.
실시예에 따라 제1 영역(1110)에 나타난 사용자 인터페이스는 사용자의 터치 시 앨범에 저장된 이미지들 또는 비디오들을 제공해주는 기능을 포함할 수 있다. 다시 말해, 사용자가 제1 영역(1110)에 나타난 사용자 인터페이스를 단순히 터치하는 경우에는 앨범에 저장된 이미지들이나 비디오들을 제공해주어 사용자가 제공된 이미지들이나 비디오들 중에서 하나를 선택하여 전송할 수 있도록 기능을 제공할 수 있다. 반면, 사용자가 제1 영역(1110)에 나타난 사용자 인터페이스를 롱 프레스 터치하는 경우에는 이후에 설명하는 바와 같이 해당 롱 프레스 터치의 해제 이전에 이미지나 비디오를 선택하여 전송할 수 있는 기능이 제공될 수 있다.
도 12는 본 발명의 다른 실시예에 있어서, 메시징 서비스를 위한 메시징 인터페이스상에 앨범에 저장된 사진이 표시되는 예를 도시한 도면이다. 전자 기기 1(110)은 사용자 입력의 인식이 제2 영역(1220)에서 유지됨에 기반하여 복수의 컨텐츠들 중 하나의 컨텐츠를 메시징 인터페이스상에 표시할 수 있다. 도 12의 실시예에서는 전자 기기 1(110)이 앨범 어플리케이션과 연관하여 가장 최근에 저장된 기설정된 수의 이미지들 중 가장 최근의 이미지인 제1 이미지(1210)를 메시징 인터페이스상에 표시한 예를 나타내고 있다. 이때, 메시징 인터페이스상에 표시되는 이미지는 제2 영역(1220)에서 사용자 입력이 인식되는 위치에 따라 선택될 수 있다.
도 13 및 도 14는 본 발명의 다른 실시예에 있어서, 사용자 입력이 인식되는 위치가 이동함에 따라 메시징 인터페이스상에 표시되는 사진이 순차적으로 변경되는 예를 도시한 도면이다. 도 13 및 도 14는 제2 영역(1220)에서 사용자 입력이 인식되는 위치가 변경됨에 따라 메시징 인터페이스상에 표시되는 이미지가 최초 도 12를 통해 설명한 제1 이미지(1210)에서 제2 이미지(1310)로, 제2 이미지(1310)에서 다시 제3 이미지(1410)로 순차적으로 변경되는 모습을 나타내고 있다.
일실시예로, 전자 기기 1(110)은 제2 영역(1220)에 포함된 기설정된 수의 영역들에 기설정된 수의 이미지 또는 비디오를 순차적으로 대응시키고, 기설정된 수의 영역들 중 사용자 입력이 인식되는 위치가 포함된 영역에 대응된 이미지 또는 비디오를 메시징 인터페이스상에 표시할 수 있다. 예를 들어, 다섯 개의 이미지들에 대응되도록 제2 영역(1220)이 다섯 개의 영역으로 구분될 수 있으며, 각각의 영역에 사용자 입력이 인식될 때마다 해당 영역에 대응되는 이미지가 메시징 인터페이스상에 표시될 수 있다.
또한, 전자 기기 1(110)은 제2 영역(1220)에서 사용자 입력이 인식되는 위치와 연관된 위치에 해당하는 이미지를 표시하되, 사용자 입력이 인식되는 위치가 제2 영역에서 변경됨에 따라 해당하는 이미지가 표시되는 위치를 동적으로 변경할 수 있다. 도 12 내지 도 14에서는 사용자 입력이 인식되는 위치가 변경됨에 따라 표시되는 이미지가 변경될 뿐만 아니라, 이미지가 표시되는 위치 또한 변경됨을 나타내고 있다.
도 15는 본 발명의 다른 실시예에 있어서, 현재 표시중인 사진을 전송하는 예를 도시한 도면이다. 도 15의 실시예는 사용자 입력이 인식되는 위치가 제2 영역을 벗어남에 따라 메시징 인터페이스상에 표시중인 이미지인 제3 이미지(1410)가 메시징 서비스를 통해 전송되는 예를 나타내고 있다. 또한, 도 15의 실시예에서는 제3 이미지(1410)가 메시징 서비스를 통해 전송됨에 따라 메시징 서비스를 통해 송수신되는 메시지를 표시하는 제3 영역(610)에 제3 이미지(1410)가 전송된 메시지로서 표시된 예를 나타내고 있다.
이처럼, 사용자는 한 번의 롱 프레스 터치를 통해 터치가 해제되기도 전에 가장 최근에 저장된 기설정된 컨텐츠들 중 하나를 선택하고, 선택된 컨텐츠를 메시징 서비스를 통해 전송할 수 있게 된다. 따라서 컨텐츠의 선택 및 전송을 위한 과정이 대폭 감소하게 되어 사용자 편의성이 증가하게 된다.
도 16 및 도 20은 본 발명의 다른 실시예에 있어서, 추가 컨텐츠를 전송하기 위한 사용자 인터페이스의 예를 도시한 도면이다.
도 16의 실시예는 사용자가 추가 기능을 위한 추가 기능 영역(1610)에 대해 사용자 입력을 발생시키는 예를 나타내고 있다. 실시예에 따라 사용자 입력은 롱 프레스 터치일 수 있으며, 추가 기능 영역(1610)에 대한 사용자의 일반적인 터치는 기존의 추가 기능들을 제공하는데 활용될 수 있다.
도 17의 실시예는 추가 기능 영역(1610)에 대한 사용자 입력을 인식함에 응답하여 다양한 추가 기능을 제공하는 예를 나타내고 있다. 이러한 다양한 추가 기능은 사용자의 롱 프레스 터치가 유지되는 동안 제공될 수 있다. 도 17에서는 사용자가 가장 최근에 접근한 기설정된 수의 파일 또는 미디어를 표시하기 위한 사용자 인터페이스인 'Keep' 인터페이스, 사용자가 가장 최근에 이용한 기설정된 수의 지리적 위치 정보 또는 사용자가 가장 최근에 방문한 기설정된 수의 지리적 위치 정보를 표시하기 위한 사용자 인터페이스인 'Location' 인터페이스 및 사용자가 가장 최근에 접근한 기설정된 수의 네트워크 주소를 표시하기 위한 사용자 인터페이스인 'Address' 인터페이스를 각각 나타내고 있다.
도 18의 실시예는 사용자가 롱 프레스 터치를 유지한 상태로 터치 위치를 이동시켜 'Keep' 인터페이스를 선택함에 따라 사용자가 가장 최근에 이용한 3개의 파일들이 표시된 예를 나타내고 있다.
도 19의 실시예는 사용자가 롱 프레스 터치를 유지한 상태로 터치 위치를 이동시켜 'aaa.mp3' 파일을 선택하는 예를 나타내고 있다. 이때, 'aaa.mp3' 파일은 롱 프레스 터치의 해제가 인식되는 위치에 기반하여 선택될 수 있다.
도 20의 실시예는 도 19의 실시예에서 'aaa.mp3' 파일이 선택됨에 따라 'aaa.mp3' 파일이 메시징 서비스를 통해 전송되는 예를 나타내고 있다. 다시 말해, 도 20의 실시예는 메시징 서비스를 통해 송수신되는 메시지를 표시하는 제3 영역(610)에 'aaa.mp3' 파일에 대한 메시지(2010)가 표시된 예를 나타내고 있다.
이처럼 사용자는 한 번의 롱 프레스 터치를 통해 가장 최근에 접근했던 파일을 선택하여 전송할 수 있게 된다. 이는 파일뿐만 아니라, 사용자가 가장 최근에 접근했던 미디어, 가장 최근에 접근한 네트워크 주소, 지리적 위치 정보 등에도 유사하게 적용될 수 있다. 이때, 지리적 위치 정보는 GPS(Global Positioning System) 좌표를 포함할 수 있다.
이를 위해, 전자 기기 1(110)은 사용자가 가장 최근에 접근했던 파일에 대한 정보, 가장 최근에 접근했던 미디어에 대한 정보, 가장 최근에 이용한 네트워크 주소에 대한 정보나 지리적 위치 정보 및/또는 가장 최근에 방문한 지리적 위치 정보를 모니터링하여 저장 및 관리할 수 있다.
도 21은 본 발명의 다른 실시예에 따른 인터랙션 방법의 예를 도시한 흐름도이다. 본 실시예에 따른 인터랙션 방법은 전자 기기 1(110)과 같은 컴퓨터 장치에 의해 수행될 수 있다. 예를 들어, 전자 기기 1(110)의 프로세서(212)는 메모리(211)가 포함하는 운영체제의 코드나 적어도 하나의 프로그램의 코드에 따른 제어 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서(212)는 전자 기기 1(110)에 저장된 코드가 제공하는 제어 명령에 따라 전자 기기 1(110)이 도 21의 인터랙션 방법이 포함하는 단계들(2110 내지 2150)을 수행하도록 전자 기기 1(110)을 제어할 수 있다.
단계(2110)에서 전자 기기 1(110)은 메시징 서비스와 관련하여 전자 기기 1(110)에 설치 및 구동된 어플리케이션에 기반하여 컴퓨터의 화면상에 메시징 인터페이스를 제공할 수 있다. 어플리케이션은 도 11 내지 도 20의 실시예들에서 설명한 바와 같이 메신저 어플리케이션을 포함할 수 있으나 이에 한정되지는 않는다. 예를 들어, 어플리케이션은 SMS(Short Messaging Service)나 MMS(Multi-media Message Service) 또는 이메일 서비스 등과 같이 다양한 메시징 서비스를 위한 어플리케이션들 중 하나일 수도 있다. 메시징 인터페이스는 해당 어플리케이션이 메시지의 송수신을 위해 사용자에게 제공하는 사용자 인터페이스를 의미할 수 있다.
단계(2120)에서 전자 기기 1(110)은 메시징 인터페이스에 설정된 제1 영역에서 사용자 입력을 인식함에 응답하여, 컴퓨터에 저장된 복수의 컨텐츠들에 접근할 수 있다. 구체적인 실시예로, 전자 기기 1(110)의 화면은 터치스크린 화면을 포함할 수 있으며, 사용자 입력은 이러한 터치스크린 화면에 대한 터치 입력을 포함할 수 있다. 이때, 전자 기기 1(110)은 제1 영역(일례로, 도 11을 통해 설명한 제1 영역(1110))에서 터치 입력이 기설정된 시간 이상 인식됨에 응답하여 복수의 컨텐츠들에 접근할 수 있다. 일실시예로, 복수의 컨텐츠들은 전자 기기 1(110)에 설치 및 구동된 앨범 어플리케이션과 연관하여 가장 최근에 저장된 기설정된 수의 이미지 또는 비디오를 포함할 수 있다.
단계(2130)에서 전자 기기 1(110)은 메시징 인터페이스에 설정된 제1 영역에서 사용자 입력을 인식함에 응답하여, 제2 영역(일례로, 도 12, 도 13 및 도 14를 통해 설명한 제2 영역(1220))을 시각적으로 표시하기 위한 사용자 인터페이스를 메시징 인터페이스를 통해 제공할 수 있다. 이러한 제2 영역은 제1 영역을 적어도 포함하도록 메시징 인터페이스에 설정될 수 있으며, 제2 영역에는 사용자가 사용자 입력의 위치를 변경함으로써, 추가적인 컨텐츠를 제공받을 수 있음을 알리기 위한 정보가 표시될 수 있다.
단계(2140)에서 전자 기기 1(110)은 사용자 입력의 인식이 제2 영역에서 유지됨에 기반하여 복수의 컨텐츠들 중 하나의 컨텐츠를 메시징 인터페이스상에 표시하되, 제2 영역에서 사용자 입력이 인식되는 위치에 따라 복수의 컨텐츠들 중 하나의 컨텐츠를 선택하여 표시할 수 있다. 예를 들어, 전자 기기 1(110)은 제2 영역에 포함된 기설정된 수의 영역들에 기설정된 수의 이미지 또는 비디오를 순차적으로 대응시키고, 기설정된 수의 영역들 중 사용자 입력이 인식되는 위치가 포함된 영역에 대응된 이미지 또는 비디오를 메시징 인터페이스상에 표시할 수 있다. 또한, 전자 기기 1(110)은 제2 영역에서 사용자 입력이 인식되는 위치와 연관된 위치에 선택된 하나의 컨텐츠를 표시하되, 사용자 입력이 인식되는 위치가 제2 영역에서 변경됨에 따라 선택된 하나의 컨텐츠가 표시되는 위치를 동적으로 변경할 수 있다. 다시 말해, 사용자 입력이 인식되는 위치가 제2 영역에서 변경됨에 기반하여 표시될 컨텐츠와 표시될 컨텐츠의 위치가 제어될 수 있고, 이는 사용자가 표시될 컨텐츠와 표시될 컨텐츠의 위치를 롱 프레스 터치만으로 적어도 일부분 제어할 수 있음을 의미할 수 있다.
단계(2150)에서 전자 기기 1(110)은 사용자 입력이 인식되는 위치가 제2 영역을 벗어남에 기반하여, 복수의 컨텐츠들 중 메시징 인터페이스상에 표시중인 컨텐츠를 메시징 서비스를 통해 전송할 수 있다. 실시예에 따라, 제2 영역은 제1 영역을 적어도 포함하고, 메시징 인터페이스에서 메시징 서비스를 통해 송수신되는 메시지를 표시하는 제3 영역(610)에 인접하도록 메시징 인터페이스에 설정될 수 있다. 이 경우, 전자 기기 1(110)은 사용자 입력이 인식되는 위치가 제2 영역을 벗어나 제3 영역으로 이동하는 경우, 표시중인 컨텐츠를 전송할 수 있다.
실시예에 따라, 전자 기기 1(110)은 메시징 인터페이스에 설정된 제4 영역(일례로, 도 16을 통해 설명한 추가 기능 영역(1610))에 대한 사용자 입력을 인식함에 응답하여, 사용자가 가장 최근에 접근한 기설정된 수의 파일 또는 미디어를 표시하기 위한 사용자 인터페이스(일례로, 도 17 내지 도 19를 통해 설명한 'Keep' 인터페이스)를 표시하고, 사용자 인터페이스를 통해 표시된 기설정된 수의 파일 또는 미디어 중 사용자에 의해 선택되는 파일 또는 미디어를 메시징 서비스를 통해 전송할 수 있다.
다른 실시예로, 전자 기기 1(110)은 메시징 인터페이스에 설정된 제4 영역에 대한 사용자 입력을 인식함에 응답하여, 사용자가 가장 최근에 접근한 기설정된 수의 네트워크 주소를 표시하기 위한 사용자 인터페이스(일례로, 도 17 내지 도 19를 통해 설명한 'Address' 인터페이스)를 표시하고, 사용자 인터페이스를 통해 표시된 기설정된 수의 네트워크 주소 중 사용자에 의해 선택된 네트워크 주소를 메시징 서비스를 통해 전송할 수 있다.
또 다른 실시예로, 전자 기기 1(110)은 전자 기기 1(110)은 메시징 인터페이스에 설정된 제4 영역에 대한 사용자 입력을 인식함에 응답하여, 사용자가 가장 최근에 이용한 기설정된 수의 지리적 위치 정보 또는 사용자가 가장 최근에 방문한 기설정된 수의 지리적 위치 정보를 표시하기 위한 사용자 인터페이스(일례로, 도 17 내지 도 19를 통해 설명한 'Location' 인터페이스)를 표시하고, 사용자 인터페이스를 통해 표시된 기설정된 수의 지리적 위치 정보 중 사용자에 의해 선택된 지리적 위치 정보를 메시징 서비스를 통해 전송할 수 있다.
이처럼, 사용자는 한 번의 롱 프레스 터치를 발생시키고 해당 터치를 해제하기도 전에 단말에 저장된 이미지나 비디오를 선택하여 전송할 수 있으며, 한 번의 롱 프레스 터치를 통해 가장 최근에 접근/이용한 파일, 미디어, 네트워크 주소, 지리적 위치 정보 등을 선택하여 전송할 수 있게 된다. 따라서 정보의 선택이나 생성, 그리고 전송을 위한 과정이 대폭 감소하게 되어 사용자 편의성이 증가하게 된다.
이상에서와 같이, 본 발명의 실시예들에 따르면, 스마트폰과 같이 카메라를 포함하는 컴퓨터를 통해 제공되는 메시징 서비스 환경에서, 사용자가 쉽게 카메라를 통해 사진을 촬영하여 공유할 수 있다. 또한, 컴퓨터에 저장된 사진뿐만 아니라, 사용자가 접근했던 파일이나 미디어, 네트워크 주소 또는 지리적 위치 정보 등을 메시징 서비스상에서 쉽게 공유할 수 있다.
이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 이러한 기록매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있으며, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (15)

  1. 컴퓨터와 결합되어 인터랙션 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램에 있어서,
    상기 인터랙션 방법은,
    메시징 서비스와 관련하여 상기 컴퓨터에 설치 및 구동된 어플리케이션에 기반하여 상기 컴퓨터의 화면상에 메시징 인터페이스를 제공하는 단계;
    상기 메시징 인터페이스에 설정된 제1 영역에서 사용자 입력을 인식함에 응답하여, 카메라를 구동하는 단계;
    상기 사용자 입력의 인식이 제2 영역에서 유지됨에 기반하여, 상기 구동된 카메라를 통해 입력되는 영상을 상기 메시징 인터페이스상에 표시하는 단계; 및
    상기 사용자 입력이 인식되는 위치가 상기 제2 영역을 벗어남에 기반하여, 상기 구동된 카메라를 통해 입력되는 영상에서 적어도 하나의 프레임을 캡쳐하여 상기 메시징 서비스를 통해 전송하는 단계
    를 포함하는, 컴퓨터 프로그램.
  2. 제1항에 있어서,
    상기 카메라는 상기 컴퓨터가 포함하거나 또는 상기 컴퓨터와 연결된 제1 카메라 및 제2 카메라 중 제1 카메라를 포함하고,
    상기 인터랙션 방법은,
    상기 사용자 입력이 인식되는 위치가 상기 제2 영역 내에서 이동함에 기반하여, 상기 카메라를 상기 제1 카메라에서 상기 제2 카메라로 전환하거나 또는 상기 전환된 제2 카메라에서 상기 제1 카메라로 다시 전환하는 단계
    를 더 포함하고,
    상기 표시하는 단계는,
    상기 제1 카메라 또는 상기 제2 카메라를 통해 입력되는 영상을 상기 메시징 인터페이스상에 표시하는 것을 포함하는, 컴퓨터 프로그램.
  3. 제2항에 있어서,
    상기 전환하는 단계는,
    상기 사용자 입력이 인식되는 위치가 상기 제2 영역이 포함하는 제2-1 영역에서 제2-2 영역으로 이동되는 경우에 상기 카메라를 상기 제1 카메라에서 상기 제2 카메라로 전환하고, 상기 사용자 입력이 인식되는 위치가 상기 제2-2 영역에서 상기 제2-1 영역으로 다시 이동되는 경우에 상기 카메라를 상기 전환된 제2 카메라에서 상기 제1 카메라로 다시 전환하는 것을 포함하는, 컴퓨터 프로그램.
  4. 제2항에 있어서,
    상기 전환하는 단계는,
    상기 사용자 입력이 인식되는 위치가 이동하는 방향에 기반하여, 상기 카메라를 상기 제1 카메라에서 상기 제2 카메라로 전환하거나 또는 상기 전환된 제2 카메라에서 상기 제1 카메라로 다시 전환하는 것을 포함하는, 컴퓨터 프로그램.
  5. 제2항에 있어서,
    상기 컴퓨터는 스마트폰을 포함하고,
    상기 제1 카메라는 상기 스마트폰의 전면 카메라를,
    상기 제2 카메라는 상기 스마트폰의 후면 카메라를 포함하는, 컴퓨터 프로그램.
  6. 제1항에 있어서,
    상기 표시하는 단계는,
    상기 사용자 입력이 인식되는 위치와 연관된 위치에 상기 입력되는 영상을 표시하되, 상기 사용자 입력이 인식되는 위치가 상기 제2 영역에서 변경됨에 따라 상기 입력되는 영상이 표시되는 위치를 동적으로 변경하는 것을 포함하는, 컴퓨터 프로그램.
  7. 제1항에 있어서,
    상기 제2 영역은 상기 제1 영역을 적어도 포함하고, 상기 메시징 인터페이스에서 상기 메시징 서비스를 통해 송수신되는 메시지를 표시하는 제3 영역에 인접하도록 상기 메시징 인터페이스에 설정되고,
    상기 전송하는 단계는,
    상기 사용자 입력이 인식되는 위치가 상기 제2 영역을 벗어나 상기 제3 영역으로 이동하는 경우, 상기 적어도 하나의 프레임을 전송하는 것을 포함하는, 컴퓨터 프로그램.
  8. 제1항에 있어서,
    상기 제2 영역은 상기 제1 영역을 적어도 포함하도록 상기 메시징 인터페이스에 설정되고,
    상기 인터랙션 방법은,
    상기 메시징 인터페이스에 설정된 제1 영역에서 사용자 입력을 인식함에 응답하여, 상기 제2 영역을 시각적으로 표시하기 위한 사용자 인터페이스를 상기 메시징 인터페이스를 통해 제공하는 단계
    를 더 포함하는, 컴퓨터 프로그램.
  9. 제1항에 있어서,
    상기 컴퓨터의 화면은 터치스크린 화면을 포함하고,
    상기 사용자 입력은 상기 터치스크린 화면에 대한 터치 입력을 포함하며,
    상기 구동하는 단계는,
    상기 제1 영역에서 상기 터치 입력이 기설정된 시간 이상 인식됨에 응답하여 상기 카메라를 구동하는 것을 포함하는, 컴퓨터 프로그램.
  10. 메시징 서비스와 관련하여 상기 컴퓨터에 설치 및 구동된 어플리케이션에 기반하여 컴퓨터의 화면상에 메시징 인터페이스를 제공하는 단계;
    상기 메시징 인터페이스에 설정된 제1 영역에서 사용자 입력을 인식함에 응답하여, 카메라를 구동하는 단계;
    상기 사용자 입력의 인식이 제2 영역에서 유지됨에 기반하여, 상기 구동된 카메라를 통해 입력되는 영상을 상기 메시징 인터페이스상에 표시하는 단계; 및
    상기 사용자 입력이 인식되는 위치가 상기 제2 영역을 벗어남에 기반하여, 상기 구동된 카메라를 통해 입력되는 영상에서 적어도 하나의 프레임을 캡쳐하여 상기 메시징 서비스를 통해 전송하는 단계
    를 포함하는 인터랙션 방법.
  11. 제10항에 있어서,
    상기 카메라는 상기 컴퓨터가 포함하거나 또는 상기 컴퓨터와 연결된 제1 카메라 및 제2 카메라 중 제1 카메라를 포함하고,
    상기 사용자 입력이 인식되는 위치가 상기 제2 영역 내에서 이동함에 기반하여, 상기 카메라를 상기 제1 카메라에서 상기 제2 카메라로 전환하거나 또는 상기 전환된 제2 카메라에서 상기 제1 카메라로 다시 전환하는 단계
    를 더 포함하고,
    상기 표시하는 단계는,
    상기 제1 카메라 또는 상기 제2 카메라를 통해 입력되는 영상을 상기 메시징 인터페이스상에 표시하는 것을 포함하는, 인터랙션 방법.
  12. 제10항에 있어서,
    상기 표시하는 단계는,
    상기 사용자 입력이 인식되는 위치와 연관된 위치에 상기 입력되는 영상을 표시하되, 상기 사용자 입력이 인식되는 위치가 변경됨에 따라 상기 입력되는 영상이 표시되는 위치를 동적으로 변경하는 것을 포함하는, 인터랙션 방법.
  13. 제10항에 있어서,
    상기 제2 영역은 상기 제1 영역을 포함하고, 상기 메시징 인터페이스에서 상기 메시징 서비스를 통해 송수신되는 메시지를 표시하는 제3 영역에 인접하도록 상기 메시징 인터페이스에 설정되고,
    상기 전송하는 단계는,
    상기 사용자 입력이 인식되는 위치가 상기 제2 영역을 벗어나 상기 제3 영역으로 이동하는 경우, 상기 적어도 하나의 프레임을 전송하는 것을 포함하는, 인터랙션 방법.
  14. 제10항에 있어서,
    상기 제2 영역은 상기 제1 영역을 적어도 포함하도록 상기 메시징 인터페이스에 설정되고,
    상기 제1 영역에서 사용자 입력을 인식함에 응답하여, 상기 제2 영역을 시각적으로 표시하기 위한 사용자 인터페이스를 상기 메시징 인터페이스를 통해 제공하는 단계
    를 더 포함하는 인터랙션 방법.
  15. 제10항 내지 제14항 중 어느 한 항의 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록매체.
PCT/KR2017/014726 2017-12-14 2017-12-14 메시징 서비스 환경에서의 인터랙션 방법 및 시스템 WO2019117361A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020532601A JP7016956B2 (ja) 2017-12-14 2017-12-14 メッセージングサービス環境におけるインタラクション方法およびシステム
PCT/KR2017/014726 WO2019117361A1 (ko) 2017-12-14 2017-12-14 메시징 서비스 환경에서의 인터랙션 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/014726 WO2019117361A1 (ko) 2017-12-14 2017-12-14 메시징 서비스 환경에서의 인터랙션 방법 및 시스템

Publications (1)

Publication Number Publication Date
WO2019117361A1 true WO2019117361A1 (ko) 2019-06-20

Family

ID=66820415

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/014726 WO2019117361A1 (ko) 2017-12-14 2017-12-14 메시징 서비스 환경에서의 인터랙션 방법 및 시스템

Country Status (2)

Country Link
JP (1) JP7016956B2 (ko)
WO (1) WO2019117361A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140181698A1 (en) * 2012-12-20 2014-06-26 Lg Electronics Inc. Image display apparatus and method for operating the same
US20150058746A1 (en) * 2013-03-01 2015-02-26 Justin Bingham Capturing a content object in a messaging system
US20160037048A1 (en) * 2012-02-29 2016-02-04 Blackberry Limited Method and device for sharing a camera feature
US20160127287A1 (en) * 2013-02-08 2016-05-05 Sk Planet Co., Ltd. Method of providing instant messaging service, recording medium that records program therefor, and terminal
US20160359957A1 (en) * 2014-01-03 2016-12-08 Investel Capital Corporation User content sharing system and method with automated external content integration

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6327831B2 (ja) 2013-10-28 2018-05-23 キヤノン株式会社 通信装置、その制御方法、プログラム
US10845982B2 (en) 2014-04-28 2020-11-24 Facebook, Inc. Providing intelligent transcriptions of sound messages in a messaging application
US9207835B1 (en) 2014-05-31 2015-12-08 Apple Inc. Message user interfaces for capture and transmittal of media and location content
CN104182173A (zh) 2014-08-15 2014-12-03 小米科技有限责任公司 一种切换摄像头的方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160037048A1 (en) * 2012-02-29 2016-02-04 Blackberry Limited Method and device for sharing a camera feature
US20140181698A1 (en) * 2012-12-20 2014-06-26 Lg Electronics Inc. Image display apparatus and method for operating the same
US20160127287A1 (en) * 2013-02-08 2016-05-05 Sk Planet Co., Ltd. Method of providing instant messaging service, recording medium that records program therefor, and terminal
US20150058746A1 (en) * 2013-03-01 2015-02-26 Justin Bingham Capturing a content object in a messaging system
US20160359957A1 (en) * 2014-01-03 2016-12-08 Investel Capital Corporation User content sharing system and method with automated external content integration

Also Published As

Publication number Publication date
JP7016956B2 (ja) 2022-02-07
JP2021528708A (ja) 2021-10-21

Similar Documents

Publication Publication Date Title
WO2020096087A1 (ko) 메시지 그룹 관리를 위한 방법, 시스템, 및 비-일시적인 컴퓨터 판독가능한 기록 매체
WO2015167080A1 (en) Unmanned aerial vehicle control apparatus and method
WO2012154006A2 (en) Method and apparatus for sharing data between different network devices
WO2013066092A1 (en) Apparatus and method for controlling controllable device in portable terminal
WO2015174729A1 (ko) 공간 정보를 제공하기 위한 증강 현실 제공 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템
WO2015046809A1 (en) Method for displaying previews in a widget
WO2012118299A2 (en) Method and apparatus for sharing media based on social network in communication system
WO2011139115A2 (ko) 증강 현실을 이용하여 인물의 정보에 접근하기 위한 방법, 서버 및 컴퓨터 판독 가능한 기록 매체
WO2018030554A1 (ko) 메시지 기반 통지를 제공하기 위한 방법 및 시스템
US11558562B2 (en) Apparatus and method for providing 360-degree panoramic background during video call
EP3371693A2 (en) Method and electronic device for managing operation of applications
WO2017065569A1 (en) Method for locking and unlocking touchscreen-equipped mobile device and mobile device
WO2018074618A1 (ko) 영상을 위한 효과 공유 방법 및 시스템
WO2014065495A1 (en) Method for providing contents and a digital device for the same
WO2015030307A1 (en) Head mounted display device and method for controlling the same
WO2019235653A1 (ko) 근거리 무선 통신을 기반으로 근처 지인을 파악하기 위한 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체
EP3718087A1 (en) Method and apparatus for managing content in augmented reality system
CN110636144A (zh) 数据下载的方法和装置
JP2020021485A (ja) 会話内容からテキストを利用して非テキストを検索する方法、システム、および非一時的なコンピュータ読み取り可能な記録媒体
WO2015093754A1 (ko) 전자 장치에서 연결 정보를 공유하는 방법 및 장치
WO2020145653A1 (ko) 이미지의 촬영 장소를 추천하는 전자 장치 및 방법
WO2023216942A1 (zh) 媒体内容的拍摄方法、装置、设备、存储介质和程序产品
WO2021187646A1 (ko) 아바타를 이용한 컨퍼런스 처리 방법 및 시스템
WO2019045128A1 (ko) 영상통화의 영상 품질 향상
WO2019172463A1 (ko) 프로필 사진을 추천하는 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17934473

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020532601

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17934473

Country of ref document: EP

Kind code of ref document: A1