KR20170009379A - 전자 장치 및 그의 통신 방법 - Google Patents

전자 장치 및 그의 통신 방법 Download PDF

Info

Publication number
KR20170009379A
KR20170009379A KR1020150101275A KR20150101275A KR20170009379A KR 20170009379 A KR20170009379 A KR 20170009379A KR 1020150101275 A KR1020150101275 A KR 1020150101275A KR 20150101275 A KR20150101275 A KR 20150101275A KR 20170009379 A KR20170009379 A KR 20170009379A
Authority
KR
South Korea
Prior art keywords
controller
identification image
data
control unit
identification
Prior art date
Application number
KR1020150101275A
Other languages
English (en)
Inventor
김규철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150101275A priority Critical patent/KR20170009379A/ko
Priority to US15/212,118 priority patent/US20170019522A1/en
Publication of KR20170009379A publication Critical patent/KR20170009379A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • H04M1/72522
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0266Details of the structure or mounting of specific components for a display module assembly
    • H04M1/0268Details of the structure or mounting of specific components for a display module assembly including a flexible display panel
    • H04M1/0269Details of the structure or mounting of specific components for a display module assembly including a flexible display panel mounted in a fixed curved configuration, e.g. display curved around the edges of the telephone housing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 실시예에 따른 전자 장치 및 그의 통신 방법은, 식별 데이터에 대응하는 식별 영상을 표시하고, 식별 영상과 대응하여 입력되는 사용자 입력에 기반하여, 식별 영상에 객체를 출력하기 위한 감성 데이터를 기록하고, 기록된 감성 데이터를 전송하도록 구성된다.

Description

전자 장치 및 그의 통신 방법{ELECTRONIC APPARATUS AND COMMUNICATING METHOD THEREOF}
본 발명은 전자 장치 및 그의 동작 방법에 관한 것으로, 특히 전자 장치 및 그의 통신 방법에 관한 것이다.
일반적으로 전자 장치는 다양한 기능들이 부가되어 복합적인 기능을 수행한다. 예를 들면, 전자 장치는 이동 통신 기능, 데이터 통신 기능, 데이터 출력 기능, 데이터 저장 기능, 영상 촬영 기능, 음성 녹음 기능 등을 수행할 수 있다. 이러한 전자 장치는 표시부와 입력부를 구비한다. 이 때 표시부와 입력부가 결합되어, 터치 스크린(touch screen)으로 구현될 수 있다. 그리고 전자 장치는 표시부를 통해 표시 화면을 출력할 수 있다. 또한 전자 장치는 표시 화면에서 터치를 감지하여, 표시 화면을 제어할 수 있다.
그런데, 상기와 같은 전자 장치는 다양한 터치 동작들에 대하여, 다양한 인터렉션들을 제공하지 않는다. 이로 인하여, 전자 장치가 다양한 터치 동작들에 대응하여, 표시 화면을 제어하는 데 어려움이 있다. 이에 따라, 전자 장치의 이용 효율성 및 사용자 편의성이 낮은 문제점이 있다.
본 발명의 실시예에 따른 전자 장치의 통신 방법은, 식별 데이터에 대응하는 식별 영상을 표시하는 동작, 상기 식별 영상과 대응하여 입력되는 사용자 입력에 기반하여, 상기 식별 영상에 객체를 출력하기 위한 감성 데이터를 기록하는 동작 및 상기 기록된 감성 데이터를 전송하는 동작을 포함한다.
본 발명의 실시예에 따른 전자 장치는, 통신부, 표시부 및 상기 통신부 및 표시부에 연결된 제어부를 포함하며, 상기 제어부는, 식별 데이터에 대응하는 식별 영상을 표시하고, 상기 식별 영상과 대응하여 입력되는 사용자 입력에 기반하여, 상기 식별 영상에 객체를 출력하기 위한 감성 데이터를 기록하고, 상기 기록된 감성 데이터를 전송하도록 제어한다.
본 발명의 실시예에 따른 전자 장치 및 그의 통신 방법은, 표시부가 메인 영역 뿐만 아니라 엣지 영역을 포함한다. 이를 통해, 전자 장치에서, 터치 동작이 메인 영역 뿐만 아니라 엣지 영역으로부터 발생될 수 있다. 이로 인하여, 전자 장치가 다양한 터치 동작들에 대하여, 다양한 인터렉션들을 제공할 수 있다. 즉 전자 장치가 다양한 터치 동작들에 대응하여, 표시 화면을 제어할 수 있다. 이에 따라, 전자 장치의 이용 효율성 및 사용자 편의성이 향상될 수 있다.
도 1은 본 발명의 실시예에 따른 전자 장치를 도시하는 블록도,
도 2는 본 발명의 실시예에 따른 전자 장치의 구현 예를 도시하는 예시도들,
도 3은 본 발명의 실시예에 따른 전자 장치의 통신 방법의 수행 절차를 도시하는 순서도,
도 4는 도 3에서 엣지 통신 기능 수행 동작의 수행 절차를 도시하는 순서도,
도 5는 도 4에서 감성 데이터 생성 동작의 수행 절차를 도시하는 순서도,
도 6은 도 3에서 통신 이벤트 통지 동작의 수행 절차를 도시하는 순서도,
도 7은 도 3에서 통신 이벤트 확인 동작의 수행 절차의 제 1 예를 도시하는 순서도,
도 8은 도 3에서 통신 이벤트 확인 동작의 수행 절차의 제 2 예를 도시하는 순서도, 그리고
도 9, 도 10, 도 11, 도 12, 도 13, 도 14, 도 15, 도 16, 도 17, 도 18, 도 19, 도 20, 도 21, 도 22, 도 23, 도 24, 도 25, 도 26, 도 27 및 도 28은 본 발명의 실시예에 따른 전자 장치의 통신 방법을 설명하기 위한 예시도들이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 보다 상세하게 설명하고자 한다. 이 때 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야 한다. 그리고 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다.
하기 설명에서, “엣지 통신(edge communication)”이라는 용어는 전자 장치들이 감성 데이터를 교환하는 것을 의미한다. 즉 각각의 전자 장치가 감성 데이터를 생성하여 송신하거나, 감성 데이터를 수신하여 출력할 수 있다. 이 때 감성 데이터는 영상, 드로잉(drawing), 이모티콘(emoticon) 및 포크(poke)를 포함할 수 있다. 영상은 정지영상 및 동영상을 포함할 수 있다. 그리고 “포크”라는 용어는 전자 장치에서 객체를 출력하기 위한 감성 데이터를 나타낸다. 이 때 감성 데이터는 전자 장치와 전자 장치의 사용자 간 감성 기반 인터랙션에 의해 생성될 수 있다. 여기서, 감성 데이터는 시간 정보 또는 위치 정보 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 객체는 진동, 소리, 이미지, 애니메이션 또는 드로잉 중 적어도 어느 하나를 포함할 수 있다.
도 1은 본 발명의 실시예에 따른 전자 장치를 도시하는 블록도이다. 그리고 도 2는 본 발명의 실시예에 따른 전자 장치의 구현 예를 도시하는 사시도들이다. 이 때 도 2의 (a)는 전자 장치의 평면 사시도이고, 도 2의 (b)는 전자 장치의 배면 사시도이다.
도 1을 참조하면, 본 실시예의 전자 장치 100은 통신부 110, 카메라부 120, 영상 처리부 130, 입력부 140, 표시부 150, 저장부 160, 제어부 170 및 오디오 처리부 180을 포함한다.
통신부 110은 전자 장치 100에서 통신을 수행한다. 이 때 통신부 110은 다양한 통신 방식으로, 외부 장치(도시되지 않음)와 통신할 수 있다. 여기서, 통신부 110은 무선 통신 또는 유선 통신 중 적어도 어느 하나를 수행할 수 있다. 이를 위해, 통신부 110은 이동 통신망 또는 데이터 통신망 중 적어도 어느 하나에 접속할 수 있다. 또는 통신부 110은 근거리 통신을 수행할 수 있다. 예를 들면, 외부 장치는 전자 장치, 기지국, 서버 및 위성을 포함할 수 있다. 그리고 통신 방식은 LTE(Long Term Evolution), WCDMA(Wideband Code Division Multiple Access), GSM(Global System for Mobile Communications), WiFi(Wireless Fidelity), 블루투스(bluetooth) 및 NFC(Near Field Communications)를 포함할 수 있다.
카메라부 120은 영상 데이터를 발생시킨다. 이를 위해, 카메라부 120은 광학적 신호를 수신할 수 있다. 그리고 카메라부 120은 광학적 신호로부터 영상 데이터를 발생시킬 수 있다. 여기서, 카메라부 120은 카메라 센서와 신호 변환부를 구비할 수 있다. 카메라 센서는 광학적 신호를 전기적 영상 신호로 변환할 수 있다. 신호 변환부는 아날로그의 영상 신호를 디지털의 영상 데이터로 변환할 수 있다.
이 때 도 2에 도시된 바와 같이, 카메라부 120은 전방 카메라부 121과 후방 카메라부 123을 포함할 수 있다. 전방 카메라부 121은 전자 장치 100의 전면에 배치될 수 있다. 그리고 전방 카메라부 121은 전자 장치 100의 전방으로부터 광학적 신호를 수신하여, 광학적 신호로부터 영상 데이터를 발생시킬 수 있다. 후방 카메라부 123은 전자 장치 100의 배면에 배치될 수 있다. 또한 후방 카메라부 123은 전자 장치 100의 후방으로부터 광학적 신호를 수신하여, 광학적 신호로부터 영상 데이터를 발생시킬 수 있다.
영상 처리부 130은 영상 데이터를 처리한다. 이 때 영상 처리부 130은 영상 데이터를 프레임 단위로 처리하며, 표시부 150의 특성 및 크기에 대응시켜 출력할 수 있다. 여기서, 영상 처리부 130은 영상 데이터를 설정된 방식으로 압축하거나, 압축된 영상 데이터를 원래의 영상 데이터로 복원할 수 있다.
입력부 140은 전자 장치 100에서 입력 데이터를 발생시킨다. 이 때 입력부 140은 전자 장치 100의 사용자 입력에 대응하여, 입력 데이터를 발생시킬 수 있다. 그리고 입력부 140은 적어도 하나의 입력 수단을 포함할 수 있다. 여기서, 입력부 140은 키 패드(key pad), 돔 스위치(dome switch), 물리 버튼, 터치 패널(touch panel), 조그 셔틀(jog & shuttle) 및 센서(sensor)를 포함할 수 있다.
표시부 150은 표시 데이터를 출력한다. 예를 들면, 표시부 150은 액정 디스플레이(LCD; Liquid Crystal Display), 발광 다이오드(LED; Light Emitting Diode) 디스플레이, 유기 발광 다이오드(OLED; Organic LED) 디스플레이, 마이크로 전자기계 시스템(MEMS; Micro Electro Mechanical Systems) 디스플레이 및 전자 종이(electronic paper) 디스플레이를 포함할 수 있다. 그리고 표시부 150은 다수개의 발광 소자들을 포함할 수 있다. 이 때 표시부 150은 입력부 140과 결합되어, 터치 스크린(touch screen)으로 구현될 수 있다.
그리고 표시부 150은 메인 영역(main region) 151과 엣지 영역(edge region) 153을 포함한다. 이 때 메인 영역 151과 엣지 영역 153이 표시 화면을 출력할 수 있다. 즉 표시 화면이 메인 영역 151과 엣지 영역 153으로 분할되어 출력될 수 있다. 또는 메인 영역 151이 표시 화면을 전체적으로 출력할 수 있다. 또한 엣지 영역 153은 컬러 광(color light)을 출력할 수 있다. 메인 영역 151은 전자 장치 100의 전면에 배치된다. 엣지 영역 153은 메인 영역 151의 가장자리에서 연장된다. 즉 엣지 영역 153은 메인 영역 151의 상측면, 하측면, 좌측면 또는 우측면 중 적어도 어느 하나에서 연장될 수 있다. 여기서, 메인 영역 151과 엣지 영역 153은 일체로 형성될 수 있다.
예를 들면, 도 2에 도시된 바와 같이, 엣지 영역 153은 메인 영역 151로부터 기울어질 수 있다. 바꿔 말하면, 엣지 영역 153은 메인 영역 151로부터 전자 장치 100의 배면을 향하여 연장될 수 있다. 즉 엣지 영역 153이 전자 장치 100의 측면에 배치될 수 있다. 여기서, 엣지 영역 153은 메인 영역 151의 외측으로 기울어질 수 있다. 이를 통해, 메인 영역 151이 외부의 바닥면에 대향하여 배치되는 경우, 엣지 영역 153의 컬러 광이 전자 장치 100의 측면으로 노출될 수 있으며, 외부의 바닥면에 반사될 수 있다. 또는 엣지 영역 153은 메인 영역 151의 내측으로 기울어질 수 있다. 이를 통해, 메인 영역 151이 외부로 노출되는 경우, 엣지 영역 153의 컬러 광이 전자 장치 100의 측면으로 노출될 수 있으며, 외부의 바닥면에 반사될 수 있다.
한편, 도시되지는 않았으나, 메인 영역 151과 엣지 영역 153은 편평한 평면(flat surface)으로 형성될 수 있다. 여기서, 메인 영역 131과 엣지 영역 133은 동일한 평면(same plane)에 배치될 수 있다. 이를 통해, 엣지 영역 153이 전자 장치 100의 전면에 배치될 수 있다.
한편, 도시되지는 않았으나, 메인 영역 151 또는 엣지 영역 153 중 적어도 어느 하나가 곡면으로 형성될 수 있다. 여기서, 메인 영역 151은 편평한 평면으로 형성되고, 엣지 영역 153은 곡면으로 형성될 수 있다. 또는 메인 영역 151은 곡면으로 형성되고, 엣지 영역 153은 편평한 평면으로 형성될 수 있다. 또는 메인 영역 151과 엣지 영역 153이 단일 곡면으로 형성될 수 있다. 또는 메인 영역 151과 엣지 영역 153이 서로 다른 곡면으로 형성될 수 있다.
이를 위해, 표시부 150이 유연성(flexibility)을 갖도록 제조된 다음, 벤딩(bending)될 수 있다. 이 때 표시부 150은 부분적으로 벤딩될 수 있다. 여기서, 표시부 150이 절곡 또는 만곡됨에 따라, 엣지 영역 153이 메인 영역 151로부터 기울어질 수 있다. 구체적으로, 표시부 150은 메인 영역 151과 엣지 영역 153의 경계 부분에서, 절곡 또는 만곡될 수 있다. 그리고 메인 영역 151 또는 엣지 영역 153 중 적어도 어느 하나가 만곡됨에 따라, 곡면으로 형성될 수 있다. 구체적으로, 메인 영역 151 또는 엣지 영역 153 중 어느 하나가 만곡될 수 있으며, 메인 영역 151과 엣지 영역 153이 서로 다른 곡률(curvature)로 만곡될 수도 있다. 또는 표시부 150은 전체적으로 벤딩될 수 있다. 여기서, 메인 영역 151과 엣지 영역 153이 일체로 만곡될 수 있다. 바꿔 말하면, 메인 영역 151과 엣지 영역 153이 동일한 곡률로 만곡될 수 있다.
저장부 160은 전자 장치 100의 동작 프로그램들을 저장한다. 이 때 저장부 160은 메인 영역 151과 엣지 영역 153을 개별적으로 제어할 뿐만 아니라, 상호 연관시켜 제어하기 위한 프로그램을 저장할 수 있다. 그리고 저장부 160은 엣지 통신 기능을 수행하기 위한 프로그램을 저장할 수 있다. 또한 저장부 160은 프로그램들을 수행하는 중에 발생되는 데이터를 저장한다.
제어부 170은 전자 장치 100에서 전반적인 동작을 제어한다. 이 때 제어부 170은 다양한 기능들을 수행할 수 있다. 여기서, 제어부 170은 엣지 통신 기능을 수행할 수 있다. 즉 제어부 170은 감성 데이터를 생성하여 송신하거나, 감성 데이터를 수신하여 출력할 수 있다. 예를 들면, 감성 데이터는 영상, 드로잉, 이모티콘 및 포크를 포함할 수 있다. 그리고 제어부 170은 표시부 150을 제어하여, 표시 데이터를 출력할 수 있다. 여기서, 제어부 170은 메인 영역 151과 엣지 영역 153을 개별적으로 제어할 수 있으며, 상호 연관시켜 제어할 수 있다. 또한 제어부 170은 메인 영역 151과 엣지 영역 153에 대응하여, 입력부 140을 통해 입력 데이터를 검출할 수 있다. 여기서, 제어부 170은 메인 영역 151과 엣지 영역 153에서 터치를 감지할 수 있다. 게다가, 제어부 170은 메인 제어부 171과 엣지 제어부 173을 포함한다.
메인 제어부 171은 메인 영역 151을 제어한다. 이 때 메인 제어부 171은 메인 영역 151을 활성화시켜, 표시 화면을 출력할 수 있다. 여기서, 표시 화면은 영상 또는 텍스트 중 적어도 어느 하나를 포함할 수 있다. 그리고 메인 제어부 171는 기능의 실행 화면을 메인 영역 151에 표시할 수 있다. 또한 메인 제어부 171은 메인 영역 151을 비활성화시킬 수 있다.
엣지 제어부 173은 엣지 영역 153을 제어한다. 이 때 엣지 제어부 173은 엣지 영역 153에 컬러 광을 출력할 수 있다. 여기서, 통지 이벤트가 발생되면, 엣지 제어부 173이 엣지 영역 153에 통지 이벤트에 대응하는 컬러 광을 출력할 수 있다. 그리고 엣지 제어부 173이 엣지 영역 153에서 컬러 광을 변경할 수 있다. 또한 엣지 제어부 173이 엣지 영역 153을 다수개의 엣지 슬롯(edge slot)들로 구분하여, 제어할 수 있다.
오디오 처리부 180은 오디오 신호를 처리한다. 이 때 오디오 처리부 180은 스피커(SPK) 181과 마이크(MIC) 183을 포함한다. 즉 오디오 처리부 180은 제어부 170에서 출력되는 오디오 신호를 스피커 161을 통해 재생할 수 있다. 그리고 오디오 처리부 180은 마이크 183에서 발생되는 오디오 신호를 제어부 170에 전달할 수 있다.
도 3은 본 발명의 실시예에 따른 전자 장치의 통신 방법의 수행 절차를 도시하는 순서도이다. 도 9, 도 10, 도 11, 도 12, 도 13, 도 14, 도 15, 도 16, 도 17, 도 18, 도 19, 도 20, 도 21, 도 22, 도 23, 도 24, 도 25, 도 26, 도 27 및 도 28은 본 발명의 실시예에 따른 전자 장치의 통신 방법을 설명하기 위한 예시도들이다.
도 3을 참조하면, 본 발명의 실시예에 따른 전자 장치 100의 통신 방법의 수행 절차는, 제어부 170이 311 동작에서 터치 이벤트를 감지하는 것으로부터 출발한다. 즉 입력부 140을 통해 터치 이벤트가 발생되면, 제어부 170이 이를 감지할 수 있다. 여기서, 입력부 140은 전자 장치 100 사용자의 터치를 감지하여, 터치 이벤트를 발생시킬 수 있다. 예를 들면, 입력부 140는 터치, 터치의 해체 및 터치의 이동을 감지할 수 있다.
이 때 제어부 170은 터치 이벤트에 대응하여, 터치 위치를 검출할 수 있다. 여기서, 제어부 170은 터치 위치를 좌표값으로 검출할 수 있다. 예를 들면, 제어부 170은 터치 위치를 메인 영역 151에서 양(+)의 좌표값으로 검출하고, 엣지 영역 153에서 음(-)의 좌표값으로 검출할 수 있다. 그리고 제어부 170은 터치 면적 내에서 다수개의 좌표값들을 검출하고, 좌표값들 중 어느 하나를 선출하여 터치 위치로 결정할 수 있다. 또한 제어부 170은 터치 위치의 검출 시간을 검출할 수 있다. 예를 들면, 하나의 터치 이벤트가 발생되면, 제어부 170은 이를 탭(tap)으로 검출할 수 있다. 또는 다수개의 터치 이벤트들이 연속적으로 발생되면, 제어부 170은 이를 멀티 탭(multi-tap), 홀드(hold), 드래그(drag), 플릭(flick), 무브(move) 등과 같은 터치 제스쳐(touch gesture)로 검출할 수 있다.
다음으로, 제어부 170은, 313 동작에서 터치 이벤트가 엣지 영역 153으로부터 발생되었는 지의 여부를 판단할 수 있다. 즉 제어부 170은, 터치 이벤트의 터치 위치가 엣지 영역 153에 해당하는 지의 여부를 판단한다. 여기서, 제어부 170은 터치 이벤트의 초기 터치 위치가 엣지 영역 153에 해당하는 지의 여부를 판단할 수 있다. 그리고 제어부 170은, 터치 이벤트가 엣지 영역 153으로부터 메인 영역 151로 터치의 이동에 대응하는 지의 여부를 판단할 수 있다.
예를 들면, 도 9에 도시된 바와 같이, 엣지 영역 153은 다수개의 엣지 슬롯 910, 920들을 포함할 수 있다. 엣지 슬롯 910, 920들은 엣지 영역 153에서 상호로부터 이격되어 배열될 수 있다. 즉 엣지 슬롯 910, 920들은 엣지 영역 153에서 서로 다른 위치들에 각각 배치될 수 있다. 그리고 엣지 슬롯 910, 920들에, 서로 다른 컬러들이 각각 할당될 수 있다. 이러한 엣지 슬롯 910, 920들은 핸들러 슬롯 910 및 적어도 하나의 바로가기 슬롯 920을 포함할 수 있다.
이어서, 313 동작에서 터치 이벤트가 엣지 영역 153으로부터 발생된 것으로 판단되면, 제어부 170은 315 동작에서 터치 이벤트가 핸들러 슬롯 910에 대응하는 지의 여부를 판단할 수 있다. 여기서, 제어부 170은 터치 이벤트의 초기 터치 위치가 핸들러 슬롯 810에 해당하는 지의 여부를 판단할 수 있다. 그리고 제어부 170은, 터치 이벤트가 핸들러 슬롯 910으로부터 메인 영역 151로 터치의 이동에 대응하는 지의 여부를 판단할 수 있다.
계속해서, 315 동작에서 터치 이벤트가 핸들러 슬롯 910에 대응하는 것으로 판단되면, 제어부 170은 317 동작에서 메인 영역 151에 엣지 핸들러 1000을 표시할 수 있다. 예를 들면, 제어부 170은, 도 10에 도시된 바와 같이 메인 영역 151에서 엣지 영역 153에 인접하여, 엣지 핸들러 1000을 표시할 수 있다. 즉 제어부 170은 엣지 영역 153에 나란하게, 엣지 핸들러 1000을 표시할 수 있다.
이 때 엣지 핸들러 1000은 다수개의 엣지 아이템 1010, 1020들을 포함할 수 있다. 엣지 아이템 1010, 1020들은 엣지 핸들러 1000에서 상호로부터 이격되어 배열될 수 있다. 즉 엣지 아이템 1010, 1020들은 엣지 핸들러 1000에서 서로 다른 위치들에 각각 배치될 수 있다. 예를 들면, 엣지 아이템 1010, 1020들은 원 형상을 가질 수 있으며, 다각 형상을 가질 수도 있다. 이러한 엣지 아이템 1010, 1020들은 설정 아이템 1010 및 적어도 하나의 바로가기 아이템 1020을 포함할 수 있다.
여기서, 바로가기 아이템 1020은 바로가기 슬롯 920에 대응될 수 있다. 그리고 바로가기 아이템 1020은 미리 설정된 식별 데이터에 대응될 수 있다. 예를 들면, 식별 데이터는 외부 장치에 접속하는 데 이용될 수 있다. 또한 바로가기 아이템 1020은 식별 데이터에 대응하여, 미리 설정된 식별 영상 1030으로 형성될 수 있다. 예를 들면, 식별 데이터에 대응하여 프로필 영상이 설정되어 있을 수 있으며, 식별 영상 1030이 프로필 영상의 적어도 일부로 형성될 수 있다. 즉 제어부 170은 식별 영상 1030을 미리 정해진 사이즈로 축소하여, 바로가기 아이템 1020을 생성할 수 있다.
마지막으로, 엣지 핸들러 1000에서 바로가기 아이템 1020이 선택되면, 제어부 170은 319 동작에서 이를 감지할 수 있다. 그리고 제어부 170은 321 동작에서 바로가기 아이템 1020의 식별 데이터를 이용하여, 엣지 통신 기능을 수행할 수 있다. 예를 들면, 제어부 170은 도 11, 도 12, 도 13, 도 14, 도 15, 도 16, 도 17, 도 18, 도 19, 도 20 및 도 21에 도시된 바와 같이 엣지 통신 기능을 수행할 수 있다. 이 때 제어부 170은 카메라부 120을 통해 엣지 영상을 획득하여, 전송할 수 있다. 또는 제어부 170은 드로잉을 생성하여, 전송할 수 있다. 또는 제어부 170은 엣지 영상에 드로잉을 추가하여, 전송할 수 있다. 또는 제어부 170은 이모티콘을 선택하여, 전송할 수 있다. 또는 제어부 170은 감성 데이터를 생성하여, 전송할 수 있다. 여기서, 감성 데이터는 시간 정보 또는 위치 정보 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 객체는 진동, 소리, 이미지, 애니메이션 또는 드로잉 중 적어도 어느 하나를 포함할 수 있다. 이를 통해, 본 발명의 실시예에 따른 전자 장치 100의 통신 방법의 수행 절차가 종료될 수 있다.
도 4는 도 3에서 엣지 통신 기능 수행 동작의 수행 절차를 도시하는 순서도이다.
도 4를 참조하면, 본 실시예에서 엣지 통신 기능 수행 동작의 수행 절차는, 제어부 170이 411 동작에서 감성 아이템 1120을 표시한다. 이에 더하여, 제어부 170은 통신 아이콘 1130을 더 표시할 수 있다. 예를 들면, 제어부 170은, 도 11에 도시된 바와 같이 메인 영역 151에 감성 아이템 1120 및 통신 아이콘 1130을 표시할 수 있다. 즉 제어부 170은 메인 영역 151에서 감성 아이템 1120의 둘레에 통신 아이콘 1130을 표시할 수 있다.
이 때 감성 아이템 1120은 바로가기 아이템 1020의 식별 데이터에 대응하여, 미리 설정된 식별 영상 1030으로 형성될 수 있다. 즉 제어부 170은 식별 영상 1030을 미리 정해진 사이즈로 축소하여, 감성 아이템 1120을 생성할 수 있다. 여기서, 제어부 170은 메인 영역 151에서 바로가기 아이템 1020을 확대하여, 감성 아이템 1120을 표시할 수 있다. 즉 제어부 170은 바로가기 아이템 1020을 미리 정해진 사이즈로 확대하여, 감성 아이템 1120을 표시할 수 있다. 이를 위해, 제어부 170은 메인 영역 151에서 바로가기 아이템 1020을 이동할 수 있다. 예를 들면, 감성 아이템 1120의 형상은 바로가기 아이템 1020의 형상과 동일할 수 있다. 그리고 감성 아이템 1120의 사이즈는 바로가기 아이템 1020의 사이즈를 초과할 수 있다. 또한 감성 아이템 1120과 바로가기 아이템 1020은 동일한 식별 영상 1030으로부터 생성될 수 있다.
그리고 통신 아이콘 1130은 카메라부 120을 구동시키기 위한 카메라 아이콘 1131을 포함한다. 부가적으로, 통신 아이콘 1130은 이모티콘을 선택하기 위한 이모티콘 아이콘 1133, 호를 발신하기 위한 통화 아이콘 1135, 단문 메시지를 작성하기 위한 단문 메시지 아이콘 1137 또는 멀티미디어 메시지를 작성하기 위한 멀티미디어 메시지 아이콘 1139 중 적어도 어느 하나를 더 포함할 수 있다. 이에 더하여, 제어부 170은 메인 영역 151에서 감성 아이템 1120으로부터 이격하여, 상태 메시지 1140을 더 표시할 수 있다. 상태 메시지 1140은 식별 데이터에 대응하여, 전자 장치 100의 사용자 또는 외부 장치의 사용자에 의해 등록될 수 있다.
이어서, 감성 아이템 1120이 선택되면, 제어부 170이 413 동작에서 이를 감지한다. 그리고 제어부 170은 415 동작에서 감성 아이콘 1200을 표시한다. 이 때 제어부 170은 메인 영역 151에서 감성 아이템 1120을 비활성화시킬 수 있다. 즉 제어부 170은 메인 영역 151에 감성 아이템 1120을 계속해서 표시하되, 감성 아이템 1120을 비활성시킬 수 있다. 예를 들면, 제어부 170은, 도 12의 (a)에 도시된 바와 같이 메인 영역 151에서 감성 아이템 1120에 감성 아이콘 1200을 표시할 수 있다. 또는 제어부 170은, 도 12의 (b)에 도시된 바와 같이 메인 영역 151에서 감성 아이템 1120의 둘레에 감성 아이콘 1200을 표시할 수 있다. 이를 위해, 제어부 170은 메인 영역 151에서 통신 아이콘 1130을 제거할 수 있다.
이 때 감성 아이콘 1200은 전자 장치 400 사용자의 감성을 표현하기 위한 객체를 결정하기 위해 제공될 수 있다. 여기서, 객체는 진동, 소리, 이미지, 애니메이션 또는 드로잉 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 객체는 방사형 파동 또는 파티클 중 적어도 어느 하나를 포함할 수 있다. 그리고 파티클은 꽃잎 또는 발광 입자 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 감성 아이콘 1200은 방사형 파동을 생성하기 위한 노크(knock) 아이콘 1210, 꽃잎을 생성하기 위한 페틀(petal) 아이콘 1220 또는 발광 입자를 생성하기 위한 트윙클 아이콘 1230 중 적어도 어느 하나를 포함할 수 있다.
계속해서, 감성 아이템 1120이 선택되면, 제어부 170이 417 동작에서 이를 감지한다. 그리고 제어부 170은 419 동작에서 감성 데이터를 생성한다. 제어부 170은 미리 설정된 시간 동안, 감성 데이터를 기록할 수 있다. 이 때 제어부 170은 식별 영상 1030에서 터치 이벤트를 검출할 수 있다. 또한 제어부 170은 터치 이벤트에 기반하여, 감성 데이터를 기록할 수 있다. 게다가, 제어부 170은 감성 데이터를 텍스트로 기록할 수 있다. 여기서, 감성 데이터는 시간 정보 또는 위치 정보 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 감성 데이터의 시간 정보는 터치 이벤트의 검출 시간으로 결정되고, 감성 데이터의 위치 정보는 터치 이벤트의 터치 위치로 결정될 수 있다. 예를 들면, 제어부 170은 도 13, 도 14, 도 15, 도 16, 도 17, 도 18, 도 19, 도 20 및 도 21에 도시된 바와 같이 감성 데이터를 생성할 수 있다. 즉 제어부 170은 방사형 파동, 꽃잎 또는 발광 입자 중 어느 하나에 대응하여, 감성 데이터를 생성할 수 있다.
도 5는 도 4에서 감성 데이터 생성 동작의 수행 절차를 도시하는 순서도이다.
도 5를 참조하면, 본 실시예에서 감성 데이터 생성 동작의 수행 절차는, 제어부 170이 511 동작에서 감성 데이터 생성 동작을 개시하는 것으로부터 출발한다. 이 때 제어부 170은 메인 영역 151에서 감성 아이템 1120을 활성화시킬 수 있다. 예를 들면, 제어부 170은, 도 13에 도시된 바와 같이 메인 영역 151에서 감성 아이템 1120을 활성화시킬 수 있다. 이에 더하여, 제어부 170은 메인 영역 151에 감성 데이터를 전송하기 위한 전송 아이콘 1300을 더 표시할 수 있다.
다음으로, 터치 이벤트가 발생되면, 제어부 170이 513 동작에서 이를 감지한다. 이 때 감성 아이템 1120에 대응하여 터치 이벤트가 발생되면, 제어부 170이 이를 감지할 수 있다. 그리고 제어부 170은 515 동작에서 감성 데이터를 검출한다. 이 때 제어부 170은 터치 이벤트에 대응하여, 터치 위치 또는 터치 위치의 검출 시간 중 적어도 어느 하나를 검출할 수 있다. 구체적으로, 제어부 170은 터치 이벤트에 대응하여, 터치 위치를 검출할 수 있다. 여기서, 제어부 170은 터치 위치를 좌표값으로 검출할 수 있다. 또한 제어부 170은 터치 위치의 검출 시간을 검출할 수 있다. 예를 들면, 하나의 터치 이벤트가 발생되면, 제어부 170은 이를 탭(tap)으로 검출할 수 있다. 또는 다수개의 터치 이벤트들이 연속적으로 발생되면, 제어부 170은 이를 멀티 탭, 홀드, 드래그, 플릭, 무브 등과 같은 터치 제스쳐로 검출할 수 있다. 또한 제어부 170은 터치 위치 또는 터치 위치의 검출 시간 중 적어도 어느 하나를 감성 데이터로 기록할 수 있다. 여기서, 제어부 170은 감성 데이터를 텍스트로 기록할 수 있다.
다음으로, 제어부 170은 517 동작에서 식별 영상 1030으로부터 객체를 출력한다. 이 때 제어부 170은 터치 이벤트에 기반하여, 식별 영상 1030으로부터 객체를 출력한다. 즉 제어부 170은 감성 데이터에 따라, 식별 영상 1030으로부터 객체를 출력한다. 여기서, 제어부 170은 터치 위치의 검출 시간에 대응하여, 식별 영상 1030으로부터 객체를 출력할 수 있다. 또는 제어부 170은 터치 위치의 좌표값에 대응하여, 식별 영상 1030으로부터 객체를 출력할 수 있다. 그리고 객체는 진동, 소리, 이미지, 애니메이션 또는 드로잉 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 객체는 방사형 파동 또는 파티클 중 적어도 어느 하나를 포함할 수 있다. 또한 파티클은 꽃잎 또는 발광 입자 중 적어도 어느 하나를 포함할 수 있다.
예를 들면, 417 동작에서 노크 아이콘 1210이 선택된 경우, 제어부 170은 탭과 같은 터치 이벤트에 대응하여, 탭의 검출 시간을 기록할 수 있다. 그리고 제어부 170은, 도 14, 도 15, 도 16, 도 17, 도 18 및 도 19에 도시된 바와 같이 탭과 같은 터치 이벤트에 대응하여, 식별 영상 1030으로부터 방사형 파동 1400을 발생시킬 수 있다.
구체적으로, 탭에 대응하여, 제어부 170은, 도 14에 도시된 바와 같이 식별 영상 1030의 백그라운드(background)에서 방사형 파동 1400을 발생시킬 수 있다. 또한 제어부 170은, 도 15 및 도 16에 도시된 바와 같이 방사형 파동 1400을 식별 영상 1030의 외측으로 진행시킬 수 있다.
여기서, 방사형 파동 1400 발생 시, 방사형 파동 1400의 내경은 식별 영상 1030의 10 %에 해당하고, 방사형 파동 1400의 외경은 식별 영상 1030의 20 %에 해당할 수 있다. 그리고 탭의 검출 시간으로부터 대략 400 ms가 경과되면, 방사형 파동 1400의 내경은 식별 영상 1030의 40 %에 해당하고, 방사형 파동 1400의 외경은 식별 영상 1030의 76 %에 해당할 수 있다. 또한 탭의 검출 시간으로부터 대략 800 ms가 경과되면, 방사형 파동 1400의 내경은 식별 영상 1030의 100 %에 해당하고, 방사형 파동 1400의 외경은 식별 영상 1030의 115 %에 해당할 수 있다. 게다가, 탭의 검출 시간으로부터 대략 1200 ms가 경과되면, 방사형 파동 1400의 내경은 식별 영상 1030의 135 %에 해당하고, 방사형 파동 1400의 외경은 식별 영상 1030의 135 %에 해당할 수 있다. 이 후 방사형 파동 1400은 소멸될 수 있다.
한편, 미리 설정된 시간 간격 내에 다수개의 탭들이 연속적으로 발생되면, 제어부 170은 탭들의 검출 시간들을 기록할 수 있다. 그리고 제어부 170은 탭들에 대응하여, 방사형 파동 1400, 1700, 1800들을 연속적으로 발생시킬 수 있다. 즉 제어부 170은 각각의 탭에 대응하여, 각각의 방사형 파동 1400, 1700, 1800을 발생시킬 수 있다. 그리고 제어부 170은, 도 15, 도 17, 도 18 및 도 19에 도시된 바와 같이 식별 영상 1030에 대응하여 방사형 파동 1400, 1700, 1800들을 표시할 수 있다. 또한 제어부 170은 방사형 파동 1400, 1700, 1800들을 연속적으로 식별 영상 1030의 외측으로 진행시킬 수 있다. 이를 통해, 제어부 170은 식별 영상 1030으로부터 방사형 파동 1400, 1700, 1800들을 순차적으로 소멸시킬 수 있다.
여기서, 검출 시간들 간 시간차 또는 검출 시간들의 순서에 따라, 제어부 170은 방사형 파동 1400, 1700, 1800들의 컬러를 결정할 수 있다. 즉 검출 시간들 간 시간차 또는 검출 시간들의 순서에 기반하여, 제어부 170은 방사형 파동 1400, 1700, 1800들의 색상, 채도 또는 명도 중 적어도 어느 하나를 변경할 수 있다. 또는 검출 시간들 간 시간차 또는 검출 시간들의 순서에 따라, 제어부 170은 식별 영상 1030에 컬러를 추가할 수 있다. 즉 검출 시간들 간 시간차 또는 검출 시간들의 순서에 기반하여, 제어부 170은 식별 영상 1030의 색상, 채도 또는 명도 중 적어도 어느 하나를 변경할 수 있다. 또는 검출 시간들 간 시간차 또는 검출 시간들의 순서에 따라, 제어부 170은 식별 영상 1030을 미리 설정된 범위 내에서 진동시킬 수 있다. 즉 검출 시간들 간 시간차 또는 검출 시간들의 순서에 기반하여, 제어부 170은 식별 영상 1030의 진동 범위를 변경할 수 있다. 예컨대, 탭들이 미리 설정된 횟수를 초과하면, 제어부 170은, 도 18에 도시된 바와 같이 식별 영상 1030의 색상, 채도 또는 명도 중 적어도 어느 하나를 변경할 수 있다. 또는 탭들이 미리 설정된 횟수를 초과하면, 제어부 170은, 도 18에 도시된 바와 같이 식별 영상 1030의 진동 범위를 변경할 수 있다.
또는 417 동작에서 페틀 아이콘 1220이 선택된 경우, 제어부 170은 터치 제스쳐와 같은 터치 이벤트에 대응하여, 적어도 하나의 터치 위치의 좌표값을 기록할 수 있다. 그리고 제어부 170은, 도 20에 도시된 바와 같이 터치 제스쳐와 같은 터치 이벤트에 대응하여, 식별 영상 1030으로부터 꽃잎 2000을 발생시킬 수 있다. 구체적으로, 터치 제스쳐에 대응하여, 제어부 170은 식별 영상 1030에서 꽃잎 2000을 발생시킬 수 있다. 즉 제어부 170은 식별 영상 1030의 터치 위치로부터 꽃잎 2000을 분출시킬 수 있다. 여기서, 제어부 170은 터치의 이동 경로를 따라, 꽃잎 2000을 연속적으로 분출시킬 수 있다.
또는 417 동작에서 트윙클 아이콘 1230이 선택된 경우, 제어부 170은 터치 제스쳐와 같은 터치 이벤트에 대응하여, 적어도 하나의 터치 위치의 좌표값을 기록할 수 있다. 그리고 제어부 170은, 도 21에 도시된 바와 같이 터치 제스쳐와 같은 터치 이벤트에 대응하여, 식별 영상 1030으로부터 발광 입자 2100를 발생시킬 수 있다. 구체적으로, 터치 제스쳐에 대응하여, 제어부 170은 식별 영상 1030에서 발광 입자 2100을 분출시킬 수 있다. 여기서, 제어부 170은 터치의 이동 경로를 따라, 발광 입자 2100을 연속적으로 분출시킬 수 있다.
다음으로, 제어부 170은 519 동작에서 임계 시간에 도달했는 지의 여부를 판단한다. 즉 제어부 170은 감성 데이터 생성 동작을 개시한 시점으로부터, 임계 시간이 경과했는 지의 여부를 판단한다. 이 때 제어부 170은, 감성 아이템 1120의 활성화가 임계 시간 동안 유지되었는 지의 여부를 판단할 수 있다.
다음으로, 519 동작에서 임계 시간에 도달한 것으로 판단되면, 제어부 170은 523 동작에서 감성 데이터 생성 동작을 종료한다. 이 때 제어부 170은 메인 영역 151에서 감성 아이템 1120을 비활성화시킬 수 있다. 이 후 제어부 170은 감성 데이터 생성 동작의 수행 절차를 종료하고, 도 4로 리턴할 수 있다.
한편, 519 동작에서 임계 시간에 도달하지 않은 것으로 판단되고, 전송 아이콘 1300이 선택되면, 제어부 170이 521 동작에서 이를 감지한다. 그리고 제어부 170은 523 동작에서 감성 데이터 생성 동작을 종료한다. 이 때 제어부 170은 메인 영역 151에서 감성 아이템 1120을 비활성화시킬 수 있다. 이 후 제어부 170은 감성 데이터 생성 동작의 수행 절차를 종료하고, 도 4로 리턴할 수 있다.
한편, 519 동작에서 임계 시간에 도달하지 않은 것으로 판단되고, 521 동작에서 전송 아이콘 1300이 선택되지 않으면, 제어부 170은 513 동작으로 복귀할 수 있다. 그리고 제어부 170은 513 동작 내지 523 동작 중 적어도 일부를 수행할 수 있다. 이 후 제어부 170은 감성 데이터 생성 동작의 수행 절차를 종료하고, 도 4로 리턴할 수 있다.
마지막으로, 제어부 170은 421 동작에서 감성 데이터를 전송한다. 여기서, 제어부 170은 바로가기 아이템 1020의 식별 데이터를 이용하여, 감성 데이터를 전송할 수 있다. 이 때 제어부 170은 감성 데이터를 텍스트로 전송할 수 있다. 여기서, 감성 데이터는 시간 정보 또는 위치 정보 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 감성 데이터가 방사형 파동에 대응되는 경우, 제어부 170은 하기 <표 1>과 같이 감성 데이터를 전송할 수 있다. 여기서, 제어부 170은 터치 위치의 검출 시간을 텍스트로 전송할 수 있다. 한편, 감성 데이터가 꽃잎에 대응되는 경우, 제어부 170은 하기 <표 2>와 같이 감성 데이터를 전송할 수 있다. 또는 감성 데이터가 발광 입자에 대응되는 경우, 제어부 170은 하기 <표 3>과 같이 감성 데이터를 전송할 수 있다. 여기서, 제어부 170은 터치 위치의 좌표값을 텍스트로 전송할 수 있다. 이 후 제어부 170은 엣지 통신 기능 수행 동작의 수행 절차를 종료하고, 도 3으로 리턴할 수 있다.
Figure pat00001
Figure pat00002
Figure pat00003
한편, 413 동작에서 감성 아이템 1120이 선택되지 않으면, 제어부 170은 423 동작에서 해당 기능을 수행한다. 이 때 카메라 아이콘 1031이 선택되면, 제어부 170은 카메라부 120을 통해 엣지 영상을 획득하고, 바로가기 아이템 920의 식별 데이터를 이용하여, 전송할 수 있다. 또는 카메라 아이콘 1031이 선택되면, 제어부 170은 드로잉을 생성하고, 바로가기 아이템 920의 식별 데이터를 이용하여, 전송할 수 있다. 또는 카메라 아이콘 1031이 선택되면, 제어부 170은 엣지 영상에 드로잉을 추가하고, 바로가기 아이템 920의 식별 데이터를 이용하여, 전송할 수 있다. 또는 이모티콘 아이콘 1033이 선택되면, 제어부 170은 이모티콘을 선택하고, 바로가기 아이템 920의 식별 데이터를 이용하여, 전송할 수 있다. 또는 통화 아이콘 1035이 선택되면, 제어부 170이 바로가기 아이템 920의 식별 데이터를 이용하여, 호를 발신할 수 있다. 또는 단문 메시지 아이콘 1037이 선택되면, 제어부 170이 단문 메시지를 작성하고, 바로가기 아이템 920의 식별 데이터를 이용하여, 단문 메시지를 전송할 수 있다. 또는 멀티미디어 아이콘 1039가 선택되면, 제어부 170이 멀티미디어 메시지를 작성하고, 바로가기 아이템 920의 식별 데이터를 이용하여, 멀티미디어 메시지를 전송할 수 있다. 이 후 제어부 170은 엣지 통신 기능 수행 동작의 수행 절차를 종료하고, 도 3으로 리턴할 수 있다.
한편, 311 동작에서 터치 이벤트가 발생되지 않고, 통신 이벤트가 발생되면, 제어부 170이 323 동작에서 이를 감지한다. 즉 통신부 110을 통해 통신 이벤트가 발생되면, 제어부 170이 이를 감지할 수 있다. 이 때 엣지 통신 기능에 따라 통신 이벤트가 발생되면, 제어부 170이 이를 감지할 수 있다. 여기서, 통신부 110이 외부 장치로부터 무선 신호를 수신하여, 통신 이벤트를 발생시킬 수 있다. 그리고 제어부 170은 325 동작에서 통신 이벤트를 통지할 수 있다. 예를 들면, 제어부 170은 도 22, 도 23, 도 26, 도 27 및 도 28에 도시된 바와 같이 통신 이벤트를 통지할 수 있다. 이 때 제어부 170은 외부 장치로부터 엣지 영상을 수신할 수 있다. 또는 제어부 170은 외부 장치로부터 드로잉을 수신할 수 있다. 또는 제어부 170은 외부 장치로부터 엣지 영상과 함께, 드로잉을 수신할 수 있다. 또는 제어부 170은 외부 장치로부터 이모티콘을 수신할 수 있다. 또는 제어부 170은 외부 장치로부터 감성 데이터를 수신할 수 있다. 제어부 170은 감성 데이터를 텍스트로 수신할 수 있다. 여기서, 감성 데이터는 시간 정보 또는 위치 정보 중 적어도 어느 하나를 포함할 수 있다.이를 통해, 본 발명의 실시예에 따른 전자 장치 100의 통신 방법의 수행 절차가 종료될 수 있다.
도 6은 도 3에서 통신 이벤트 통지 동작의 수행 절차를 도시하는 순서도이다.
도 6을 참조하면, 본 실시예에서 통신 이벤트 통지 동작의 수행 절차는, 제어부 170이 611 동작에서 메인 영역 151에 통신 이벤트를 통지할 지의 여부를 판단한다. 이 때 제어부 170은 메인 영역 151에 통신 이벤트를 통지하도록 미리 설정되어 있는 지의 여부를 판단할 수 있다. 또는 제어부 170은, 표시부 150이 활성화되어 있는 지의 여부를 판단할 수 있다.
다음으로, 611 동작에서 메인 영역 151에 통신 이벤트를 통지해야 하는 것으로 판단되면, 제어부 170은 613 동작에서 메인 영역 151에 통신 이벤트를 통지한다. 즉 제어부 170은 메인 영역 151에 통신 이벤트의 알림 정보를 통지한다. 예를 들면, 제어부 170은, 도 22에 도시된 바와 같이 메인 영역 151에 메인 알림창 2200을 표시할 수 있다. 그리고 제어부 170은 메인 알림창 2200에 알림 정보를 표시할 수 있다.
다음으로, 알림 정보가 선택되면, 제어부 170이 615 동작에서 이를 감지한다. 여기서, 메인 알림창 2200에서 알림 정보가 선택되면, 제어부 170이 이를 감지할 수 있다. 그리고 제어부 170은 617 동작에서 엣지 통신 정보를 표시할 수 있다. 이 때 엣지 통신 정보는 통신 이벤트의 상세 정보를 나타낼 수 있다. 그리고 엣지 통신 정보는 감성 데이터를 포함할 수 있다. 여기서, 감성 데이터는 시간 정보 또는 위치 정보 중 적어도 어느 하나를 포함할 수 있다. 여기서, 제어부 170은 감성 데이터를 분석하여, 시간 정보 또는 위치 정보 중 적어도 어느 하나를 검출할 수 있다. 예를 들면, 제어부 170은 감성 데이터의 시간 정보를 객체의 출력 시간으로 결정하고, 감성 데이터의 위치 정보를 객체의 출력 위치로 결정할 수 있다. 또한 객체는 진동, 소리, 이미지, 애니메이션 또는 드로잉 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 객체는 방사형 파동 또는 파티클 중 적어도 어느 하나를 포함할 수 있다. 게다가, 파티클은 꽃잎 또는 발광 입자 중 적어도 어느 하나를 포함할 수 있다.이 후 제어부 170은 통신 이벤트 통지 동작의 수행 절차를 종료하고, 도 3으로 리턴할 수 있다.
예를 들면, 제어부 170은 감성 데이터로부터 적어도 하나의 방사형 파동 2610, 2620, 2630의 출력 시간을 검출할 수 있다. 그리고 제어부 170은, 도 26의 (a)에 도시된 바와 같이 외부 장치의 식별 영상 1030을 표시할 수 있다. 또한 제어부 170은, 도 26의 (b), (c), (d) 및 (e)에 도시된 바와 같이 출력 시간에, 식별 영상 1030에서 방사형 파동 2610, 2620, 2630을 발생시키고, 식별 영상 1030의 외측으로 진행시킬 수 있다. 이를 통해, 제어부 170은 식별 영상 1030으로부터 방사형 파동 2610, 2620, 2630을 소멸시킬 수 있다.
한편, 제어부 170은 다수개의 방사형 파동 2610, 2620, 2630들을 연속적으로 발생시킬 수 있다. 즉 제어부 170은 각각의 출력 시간에, 각각의 방사형 파동 2610, 2620, 2630을 발생시킬 수 있다. 그리고 제어부 170은 식별 영상 1030에 대응하여 방사형 파동 2610, 2620, 2630들을 표시할 수 있다. 또한 제어부 170은 방사형 파동 2610, 2620, 2630들을 연속적으로 식별 영상 1030의 외측으로 진행시킬 수 있다. 이를 통해, 제어부 170은 식별 영상 1030으로부터 방사형 파동 2610, 2620, 2630들을 순차적으로 소멸시킬 수 있다.
여기서, 출력 시간들 간 시간차 또는 출력 시간들의 순서에 따라, 제어부 170은 방사형 파동 2610, 2620, 2630들의 컬러를 결정할 수 있다. 즉 출력 시간들 간 시간차 또는 출력 시간들의 순서에 기반하여, 제어부 170은 방사형 파동 2610, 2620, 2630들의 색상, 채도 또는 명도 중 적어도 어느 하나를 변경할 수 있다. 또는 출력 시간들 간 시간차 또는 출력 시간들의 순서에 따라, 제어부 170은 식별 영상 1030에 컬러를 추가할 수 있다. 즉 출력 시간들 간 시간차 또는 출력 시간들의 순서에 기반하여, 제어부 170은 식별 영상 1030의 색상, 채도 또는 명도 중 적어도 어느 하나를 변경할 수 있다. 또는 출력 시간들 간 시간차 또는 출력 시간들의 순서에 따라, 제어부 170은 식별 영상 1030을 미리 설정된 범위 내에서 진동시킬 수 있다. 즉 출력 시간들 간 시간차 또는 출력 시간들의 순서에 기반하여, 제어부 170은 식별 영상 1030의 진동 범위를 변경할 수 있다. 예컨대, 제어부 170은, 도 26의 (d)에 도시된 바와 같이 식별 영상 1030의 색상, 채도 또는 명도 중 적어도 어느 하나를 변경할 수 있다. 또는 제어부 170은, 도 26의 (d)에 도시된 바와 같이 식별 영상 1030의 진동 범위를 변경할 수 있다.
또는 제어부 170은 감성 데이터로부터 적어도 하나의 꽃잎 2700의 출력 위치를 검출할 수 있다. 그리고 제어부 170은, 도 27에 도시된 바와 같이 외부 장치의 식별 영상 1030으로부터 꽃잎 2700을 발생시킬 수 있다. 구체적으로, 제어부 170은 식별 영상 1030의 출력 위치로부터 꽃잎 2700을 분출시킬 수 있다. 여기서, 제어부 170은 출력 위치에 따른 이동 경로를 따라, 꽃잎 2700을 연속적으로 분출시킬 수 있다.
또는 제어부 170은 감성 데이터로부터 적어도 하나의 발광 입자 2800의 출력 위치를 검출할 수 있다. 그리고 제어부 170은, 도 28에 도시된 바와 같이 외부 장치의 식별 영상 1030으로부터 발광 입자 2800을 발생시킬 수 있다. 구체적으로, 제어부 170은 식별 영상 1030의 출력 위치로부터 발광 입자 2800을 분출시킬 수 있다. 여기서, 제어부 170은 출력 위치에 따른 이동 경로를 따라, 발광 입자 2800을 연속적으로 분출시킬 수 있다.
한편, 615 동작에서 알림 정보가 선택되지 않고, 설정된 시간이 경과되면, 제어부 170이 619 동작에서 이를 감지한다. 그리고 제어부 170은 621 동작에서 통신 이벤트에 대응하여, 컬러 광을 결정한다. 이 때 제어부 170은 통신 이벤트에 대응하여, 엣지 슬롯 910, 920들 중 어느 하나를 결정할 수 있다. 여기서, 제어부 170은 외부 장치의 식별 데이터를 이용하여, 엣지 슬롯 910, 920들 중 어느 하나를 결정할 수 있다. 이를 통해, 제어부 170은 식별 데이터에 대응하여, 컬러 광을 결정할 수 있다. 구체적으로, 제어부 170은, 식별 데이터가 바로가기 슬롯 920에 대응되는 지의 여부를 판단할 수 있다. 그리고 식별 데이터가 바로가기 슬롯 920에 대응되는 것으로 판단되면, 제어부 170은 바로가기 슬롯 920의 컬러 광을 결정할 수 있다. 한편, 식별 데이터가 바로가기 슬롯 920에 대응되지 않는 것으로 판단되면, 제어부 170은 핸들러 슬롯 910의 컬러 광을 결정할 수 있다.
다음으로, 제어부 170은 623 동작에서 엣지 영역 153에 컬러 광을 출력할 수 있다. 이 때 제어부 170은 엣지 슬롯 910, 920들 중 어느 하나에 컬러 광을 출력할 수 있다. 예를 들면, 제어부 170은, 도 23에 도시된 바와 같이 컬러 광을 출력할 수 있다. 이 후 제어부 170은 통신 이벤트 통지 동작의 수행 절차를 종료하고, 도 3으로 리턴할 수 있다.
한편, 611 동작에서 메인 영역 151에 통신 이벤트를 통지하지 않아도 되는 것으로 판단되면, 제어부 170은 621 동작으로 진행한다. 그리고 제어부 170은 621 동작 및 623 동작을 수행한다. 이 후 제어부 170은 통신 이벤트 통지 동작의 수행 절차를 종료하고, 도 3으로 리턴할 수 있다.
한편, 315 동작에서 터치 이벤트가 핸들러 슬롯 810에 대응하지 않는 것으로 판단되면, 제어부 170은 327 동작에서 터치 이벤트가 바로가기 슬롯 920에 대응하는 지의 여부를 판단할 수 있다. 여기서, 제어부 170은 터치 이벤트의 초기 터치 위치가 바로가기 슬롯 920에 해당하는 지의 여부를 판단할 수 있다. 그리고 제어부 170은, 터치 이벤트가 바로가기 슬롯 920으로부터 메인 영역 151로 터치의 이동에 대응하는 지의 여부를 판단할 수 있다.
다음으로, 327 동작에서 터치 이벤트가 바로가기 슬롯 920에 대응하는 것으로 판단되면, 제어부 170은 329 동작에서 통신 이벤트를 확인한다. 예를 들면, 제어부 170은 도 24, 도 26, 도 27 및 도 28에 도시된 바와 같이 통신 이벤트를 통지할 수 있다. 이를 통해, 본 발명의 실시예에 따른 전자 장치 100의 통신 방법의 수행 절차가 종료될 수 있다.
도 7은 도 3에서 통신 이벤트 확인 동작의 수행 절차의 제 1 예를 도시하는 순서도이다.
도 7을 참조하면, 본 실시예에서 통신 이벤트 확인 동작의 수행 절차는, 제어부 170이 711 동작에서 메인 영역 151에 통신 이벤트의 알림 정보를 표시한다. 예를 들면, 제어부 170은, 도 24에 도시된 바와 같이 메인 영역 151에 엣지 알림창 2400을 표시할 수 있다. 여기서, 제어부 170은 바로가기 슬롯 920으로부터 메인 영역 151으로 터치의 이동을 따라, 엣지 알림창 2400을 연장할 수 있다. 그리고 제어부 170은 엣지 알림창 2400에 알림 정보를 표시할 수 있다. 즉 제어부 170은, 도 24의 (a)에 도시된 바와 같이 메인 영역 151에서 엣지 알림창 2400을 연장할 수 있다. 여기서, 제어부 170은 엣지 알림창 2400의 내측에, 외부 장치에 대응하여 식별 영상 2410을 표시할 수 있다. 또한 엣지 알림창 2400이 미리 설정된 길이 만큼 연장되면, 제어부 170은, 도 24의 (b)에 도시된 바와 같이 엣지 알림창 2400에 알림 정보를 표시할 수 있다. 여기서, 제어부 170은 엣지 알림창 2400의 외측에, 외부 장치에 대응하여 식별 영상 2410을 표시할 수 있다.
다음으로, 알림 정보가 선택되면, 제어부 170이 713 동작에서 이를 감지한다. 여기서, 엣지 알림창 2400에서 알림 정보가 선택되면, 제어부 170이 이를 감지할 수 있다. 그리고 제어부 170은 715 동작에서 엣지 통신 정보를 표시할 수 있다. 이 때 엣지 통신 정보는 통신 이벤트의 상세 정보를 나타낼 수 있다. 또한 엣지 통신 정보는 감성 데이터를 포함할 수 있다. 이를 통해, 제어부 170은 감성 데이터를 분석하여, 외부 장치의 식별 영상 1030에 대응하여 객체를 출력할 수 있다. 여기서, 감성 데이터는 시간 정보 또는 위치 정보 중 적어도 어느 하나를 포함할 수 있다. 게다가, 객체는 진동, 소리, 이미지, 애니메이션 또는 드로잉 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 객체는 방사형 파동 또는 파티클 중 적어도 어느 하나를 포함할 수 있다. 아울러, 파티클은 꽃잎 또는 발광 입자 중 적어도 어느 하나를 포함할 수 있다. 이 후 제어부 170은 통신 이벤트 확인 동작의 수행 절차를 종료하고, 도 3으로 리턴할 수 있다.
예를 들면, 제어부 170은 감성 데이터로부터 적어도 하나의 방사형 파동 2610, 2620, 2630의 출력 시간을 검출할 수 있다. 그리고 제어부 170은, 도 26의 (a)에 도시된 바와 같이 외부 장치의 식별 영상 1030을 표시할 수 있다. 또한 제어부 170은, 도 26의 (b), (c), (d) 및 (e)에 도시된 바와 같이 출력 시간에, 식별 영상 1030에서 방사형 파동 2610, 2620, 2630을 발생시키고, 식별 영상 1030의 외측으로 진행시킬 수 있다. 이를 통해, 제어부 170은 식별 영상 1030으로부터 방사형 파동 2610, 2620, 2630을 소멸시킬 수 있다.
한편, 제어부 170은 다수개의 방사형 파동 2610, 2620, 2630들을 연속적으로 발생시킬 수 있다. 즉 제어부 170은 각각의 출력 시간에, 각각의 방사형 파동 2610, 2620, 2630을 발생시킬 수 있다. 그리고 제어부 170은 식별 영상 1030에 대응하여 방사형 파동 2610, 2620, 2630들을 표시할 수 있다. 또한 제어부 170은 방사형 파동 2610, 2620, 2630들을 연속적으로 식별 영상 1030의 외측으로 진행시킬 수 있다. 이를 통해, 제어부 170은 식별 영상 1030으로부터 방사형 파동 2610, 2620, 2630들을 순차적으로 소멸시킬 수 있다.
여기서, 출력 시간들 간 시간차 또는 출력 시간들의 순서에 따라, 제어부 170은 방사형 파동 2610, 2620, 2630들의 컬러를 결정할 수 있다. 즉 출력 시간들 간 시간차 또는 출력 시간들의 순서에 기반하여, 제어부 170은 방사형 파동 2610, 2620, 2630들의 색상, 채도 또는 명도 중 적어도 어느 하나를 변경할 수 있다. 또는 출력 시간들 간 시간차 또는 출력 시간들의 순서에 따라, 제어부 170은 식별 영상 1030에 컬러를 추가할 수 있다. 즉 출력 시간들 간 시간차 또는 출력 시간들의 순서에 기반하여, 제어부 170은 식별 영상 1030의 색상, 채도 또는 명도 중 적어도 어느 하나를 변경할 수 있다. 또는 출력 시간들 간 시간차 또는 출력 시간들의 순서에 따라, 제어부 170은 식별 영상 1030을 미리 설정된 범위 내에서 진동시킬 수 있다. 즉 출력 시간들 간 시간차 또는 출력 시간들의 순서에 기반하여, 제어부 170은 식별 영상 1030의 진동 범위를 변경할 수 있다. 예컨대, 제어부 170은, 도 26의 (d)에 도시된 바와 같이 식별 영상 1030의 색상, 채도 또는 명도 중 적어도 어느 하나를 변경할 수 있다. 또는 제어부 170은, 도 26의 (d)에 도시된 바와 같이 식별 영상 1030의 진동 범위를 변경할 수 있다.
또는 제어부 170은 감성 데이터로부터 적어도 하나의 꽃잎 2700의 출력 위치를 검출할 수 있다. 그리고 제어부 170은, 도 27에 도시된 바와 같이 외부 장치의 식별 영상 1030으로부터 꽃잎 2700을 발생시킬 수 있다. 구체적으로, 제어부 170은 식별 영상 1030의 출력 위치로부터 꽃잎 2700을 분출시킬 수 있다. 여기서, 제어부 170은 출력 위치에 따른 이동 경로를 따라, 꽃잎 2700을 연속적으로 분출시킬 수 있다.
또는 제어부 170은 감성 데이터로부터 적어도 하나의 발광 입자 2800의 출력 위치를 검출할 수 있다. 그리고 제어부 170은, 도 28에 도시된 바와 같이 외부 장치의 식별 영상 1030으로부터 발광 입자 2800을 발생시킬 수 있다. 구체적으로, 제어부 170은 식별 영상 1030의 출력 위치로부터 발광 입자 2800을 분출시킬 수 있다. 여기서, 제어부 170은 출력 위치에 따른 이동 경로를 따라, 발광 입자 2800을 연속적으로 분출시킬 수 있다.
한편, 319 동작에서 바로가기 아이템 920이 선택되지 않으면, 제어부 170은 329 동작에서 통신 이벤트를 확인한다. 이를 위해, 엣지 핸들러 1000이 핸들러 알림창 2500을 더 포함할 수 있다. 예를 들면, 통신 이벤트의 식별 데이터가 바로가기 아이템 1020에 대응하지 않으면, 제어부 170은, 도 25의 (a)에 도시된 바와 같이 엣지 핸들러 1000에서 핸들러 알림창 2500을 표시할 수 있다. 그리고 제어부 170은 핸들러 알림창 2500에 통신 이벤트의 알림 정보를 표시할 수 있다. 한편, 다수개의 외부 장치들에 대응하여 다수개의 통신 이벤트들이 발생된 경우, 제어부 170은 도 25의 (b)에 도시된 바와 같이 다수개의 외부 장치들에 대응하여 다수개의 식별 영상 2510들을 표시함으로써, 통신 이벤트들의 알림 정보를 표시할 수 있다. 예를 들면, 제어부 170은 도 26, 도 27 및 도 28에 도시된 바와 같이 통신 이벤트를 통지할 수 있다. 이를 통해, 본 발명의 실시예에 따른 전자 장치 100의 통신 방법의 수행 절차가 종료될 수 있다.
도 8은 도 3에서 통신 이벤트 확인 동작의 수행 절차의 제 2 예를 도시하는 순서도이다.
도 8을 참조하면, 알림 정보가 선택되면, 제어부 170이 811 동작에서 이를 감지한다. 여기서, 핸들러 알림창 2500에서 알림 정보가 선택되면, 제어부 170이 이를 감지할 수 있다. 그리고 제어부 170은 813 동작에서 엣지 통신 정보를 표시할 수 있다. 이 때 엣지 통신 정보는 통신 이벤트의 상세 정보를 나타낼 수 있다. 또한 엣지 통신 정보는 감성 데이터를 포함할 수 있다. 이를 통해, 제어부 170은 감성 데이터를 분석하여, 외부 장치의 식별 영상 1030에 대응하여 객체를 출력할 수 있다. 여기서, 감성 데이터는 시간 정보 또는 위치 정보 중 적어도 어느 하나를 포함할 수 있다. 게다가, 객체는 진동, 소리, 이미지, 애니메이션 또는 드로잉 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 객체는 방사형 파동 또는 파티클 중 적어도 어느 하나를 포함할 수 있다. 아울러, 파티클은 꽃잎 또는 발광 입자 중 적어도 어느 하나를 포함할 수 있다. 이 후 제어부 170은 통신 이벤트 확인 동작의 수행 절차를 종료하고, 도 3으로 리턴할 수 있다.
예를 들면, 제어부 170은 감성 데이터로부터 적어도 하나의 방사형 파동 2610, 2620, 2630의 출력 시간을 검출할 수 있다. 그리고 제어부 170은, 도 26의 (a)에 도시된 바와 같이 외부 장치의 식별 영상 1030을 표시할 수 있다. 또한 제어부 170은, 도 26의 (b), (c), (d) 및 (e)에 도시된 바와 같이 출력 시간에, 식별 영상 1030에서 방사형 파동 2610, 2620, 2630을 발생시키고, 식별 영상 1030의 외측으로 진행시킬 수 있다. 이를 통해, 제어부 170은 식별 영상 1030으로부터 방사형 파동 2610, 2620, 2630을 소멸시킬 수 있다.
한편, 제어부 170은 다수개의 방사형 파동 2610, 2620, 2630들을 연속적으로 발생시킬 수 있다. 즉 제어부 170은 각각의 출력 시간에, 각각의 방사형 파동 2610, 2620, 2630을 발생시킬 수 있다. 그리고 제어부 170은 식별 영상 1030에 대응하여 방사형 파동 2610, 2620, 2630들을 표시할 수 있다. 또한 제어부 170은 방사형 파동 2610, 2620, 2630들을 연속적으로 식별 영상 1030의 외측으로 진행시킬 수 있다. 이를 통해, 제어부 170은 식별 영상 1030으로부터 방사형 파동 2610, 2620, 2630들을 순차적으로 소멸시킬 수 있다.
여기서, 출력 시간들 간 시간차 또는 출력 시간들의 순서에 따라, 제어부 170은 방사형 파동 2610, 2620, 2630들의 컬러를 결정할 수 있다. 즉 출력 시간들 간 시간차 또는 출력 시간들의 순서에 기반하여, 제어부 170은 방사형 파동 2610, 2620, 2630들의 색상, 채도 또는 명도 중 적어도 어느 하나를 변경할 수 있다. 또는 출력 시간들 간 시간차 또는 출력 시간들의 순서에 따라, 제어부 170은 식별 영상 1030에 컬러를 추가할 수 있다. 즉 출력 시간들 간 시간차 또는 출력 시간들의 순서에 기반하여, 제어부 170은 식별 영상 1030의 색상, 채도 또는 명도 중 적어도 어느 하나를 변경할 수 있다. 또는 출력 시간들 간 시간차 또는 출력 시간들의 순서에 따라, 제어부 170은 식별 영상 1030을 미리 설정된 범위 내에서 진동시킬 수 있다. 즉 출력 시간들 간 시간차 또는 출력 시간들의 순서에 기반하여, 제어부 170은 식별 영상 1030의 진동 범위를 변경할 수 있다. 예컨대, 제어부 170은, 도 26의 (d)에 도시된 바와 같이 식별 영상 1030의 색상, 채도 또는 명도 중 적어도 어느 하나를 변경할 수 있다. 또는 제어부 170은, 도 26의 (d)에 도시된 바와 같이 식별 영상 1030의 진동 범위를 변경할 수 있다.
또는 제어부 170은 감성 데이터로부터 적어도 하나의 꽃잎 2700의 출력 위치를 검출할 수 있다. 그리고 제어부 170은, 도 27에 도시된 바와 같이 외부 장치의 식별 영상 1030으로부터 꽃잎 2700을 발생시킬 수 있다. 구체적으로, 제어부 170은 식별 영상 1030의 출력 위치로부터 꽃잎 2700을 분출시킬 수 있다. 여기서, 제어부 170은 출력 위치에 따른 이동 경로를 따라, 꽃잎 2700을 연속적으로 분출시킬 수 있다.
또는 제어부 170은 감성 데이터로부터 적어도 하나의 발광 입자 2800의 출력 위치를 검출할 수 있다. 그리고 제어부 170은, 도 28에 도시된 바와 같이 외부 장치의 식별 영상 1030으로부터 발광 입자 2800을 발생시킬 수 있다. 구체적으로, 제어부 170은 식별 영상 1030의 출력 위치로부터 발광 입자 2800을 분출시킬 수 있다. 여기서, 제어부 170은 출력 위치에 따른 이동 경로를 따라, 발광 입자 2800을 연속적으로 분출시킬 수 있다.
한편, 313 동작에서 터치 이벤트가 엣지 영역 153으로부터 발생된 것이 아닌 것으로 판단되면, 제어부 170은 331 동작에서 해당 기능을 수행한다. 이 때 터치 이벤트는 메인 영역 151에서 발생될 수 있다. 그리고 제어부 170은 터치 이벤트에 대응하여, 메인 영역 151을 제어할 수 있다.
본 발명에 따르면, 전자 장치 100의 표시부 150이 메인 영역 151 뿐만 아니라 엣지 영역 153을 포함한다. 이를 통해, 전자 장치 100에서, 터치 동작이 메인 영역 151 뿐만 아니라 엣지 영역 153으로부터 발생될 수 있다. 이로 인하여, 전자 장치 100이 다양한 터치 동작들에 대하여, 다양한 인터렉션들을 제공할 수 있다. 즉 전자 장치 100이 다양한 터치 동작들에 대응하여, 표시 화면을 제어할 수 있다. 이에 따라, 전자 장치 100의 이용 효율성 및 사용자 편의성을 향상시킬 수 있다.
한편, 본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 즉 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.

Claims (30)

  1. 전자 장치의 통신 방법에 있어서,
    식별 데이터에 대응하는 식별 영상을 표시하는 동작;
    상기 식별 영상과 대응하여 입력되는 사용자 입력에 기반하여, 상기 식별 영상에 객체를 출력하기 위한 감성 데이터를 기록하는 동작; 및
    상기 기록된 감성 데이터를 전송하는 동작을 포함하는 통신 방법.
  2. 제 1 항에 있어서, 상기 감성 데이터 기록 동작은,
    상기 기록된 감성 데이터를 텍스트로 기록하는 통신 방법.
  3. 제 1 항에 있어서,
    상기 기록된 감성 데이터는 시간 정보 또는 위치 정보 중 적어도 어느 하나를 포함하는 통신 방법.
  4. 제 3 항에 있어서,
    상기 사용자 입력은 터치 이벤트에 대응하여 발생되는 통신 방법.
  5. 제 4 항에 있어서,
    상기 시간 정보는 상기 터치 이벤트의 검출 시간으로부터 결정되고,
    상기 위치 정보는 상기 터치 이벤트의 터치 위치로부터 결정되는 통신 방법.
  6. 제 1 항에 있어서,
    상기 사용자 입력에 기반하여, 상기 식별 영상에 상기 객체를 출력하는 동작을 더 포함하는 통신 방법.
  7. 제 1 항에 있어서,
    상기 객체는 진동, 소리, 이미지, 애니메이션 또는 드로잉 중 적어도 어느 하나를 포함하는 통신 방법.
  8. 제 7 항에 있어서,
    상기 객체는 상기 식별 영상으로부터 외측으로 진행하는 방사형 파동 또는 상기 식별 영상에서 발생되는 파티클 중 적어도 어느 하나를 포함하는 통신 방법.
  9. 제 8 항에 있어서,
    상기 파티클은 상기 식별 영상에서 분출되는 꽃잎 또는 발광 입자 중 적어도 어느 하나를 포함하는 통신 방법.
  10. 제 1 항에 있어서, 상기 감성 데이터 기록 동작은,
    미리 설정된 시간 동안, 수행되는 통신 방법.
  11. 제 1 항에 있어서, 상기 감성 데이터 전송 동작은,
    상기 식별 데이터를 이용하여, 상기 기록된 감성 데이터를 전송하는 통신 방법.
  12. 제 1 항에 있어서,
    외부 장치로부터 감성 데이터를 수신하는 동작;
    상기 외부 장치에 대응하는 식별 영상을 표시하는 동작; 및
    상기 수신된 감성 데이터를 분석하여, 상기 표시된 식별 영상에 대응하여 객체를 출력하는 동작을 더 포함하는 통신 방법.
  13. 제 12 항에 있어서, 상기 감성 데이터 수신 동작은,
    상기 감성 데이터를 텍스트로 수신하는 통신 방법.
  14. 제 12 항에 있어서,
    상기 수신된 감성 데이터는 시간 정보 또는 위치 정보 중 적어도 어느 하나를 포함하는 통신 방법.
  15. 제 14 항에 있어서, 상기 객체 출력 동작은,
    상기 시간 정보 또는 위치 정보 중 적어도 어느 하나에 기반하여, 객체를 출력하는 통신 방법.
  16. 통신부;
    표시부; 및
    상기 통신부 및 표시부에 연결된 제어부를 포함하며,
    상기 제어부는,
    식별 데이터에 대응하는 식별 영상을 표시하고,
    상기 식별 영상과 대응하여 입력되는 사용자 입력에 기반하여, 상기 식별 영상에 객체를 출력하기 위한 감성 데이터를 기록하고,
    상기 기록된 감성 데이터를 전송하도록 제어하는 전자 장치.
  17. 제 16 항에 있어서, 상기 제어부는,
    상기 기록된 감성 데이터를 텍스트로 기록하는 전자 장치.
  18. 제 16 항에 있어서,
    상기 기록된 감성 데이터는 시간 정보 또는 위치 정보 중 적어도 어느 하나를 포함하는 전자 장치.
  19. 제 18 항에 있어서,
    상기 사용자 입력은 터치 이벤트에 대응하여 발생되는 전자 장치.
  20. 제 19 항에 있어서,
    상기 시간 정보는 상기 터치 이벤트의 검출 시간으로부터 결정되고,
    상기 위치 정보는 상기 터치 이벤트의 터치 위치로부터 결정되는 전자 장치.
  21. 제 16 항에 있어서, 상기 제어부는,
    상기 사용자 입력에 기반하여, 상기 식별 영상에 상기 객체를 출력하는 전자 장치.
  22. 제 16 항에 있어서,
    상기 객체는 진동, 소리, 이미지, 애니메이션 또는 드로잉 중 적어도 어느 하나를 포함하는 전자 장치.
  23. 제 22 항에 있어서,
    상기 객체는 상기 식별 영상으로부터 외측으로 진행하는 방사형 파동 또는 상기 식별 영상에서 발생되는 파티클 중 적어도 어느 하나를 포함하는 전자 장치.
  24. 제 23 항에 있어서,
    상기 파티클은 상기 식별 영상에서 분출되는 꽃잎 또는 발광 입자 중 적어도 어느 하나를 포함하는 전자 장치.
  25. 제 16 항에 있어서, 상기 제어부는,
    미리 설정된 시간 동안, 상기 감성 데이터를 기록하는 전자 장치.
  26. 제 16 항에 있어서, 상기 제어부는,
    상기 식별 데이터를 이용하여, 상기 기록된 감성 데이터를 전송하는 전자 장치.
  27. 제 16 항에 있어서, 상기 제어부는,
    외부 장치로부터 감성 데이터를 수신하고,
    상기 외부 장치에 대응하는 식별 영상을 표시하고,
    상기 수신된 감성 데이터를 분석하여, 상기 표시된 식별 영상에 대응하여 객체를 출력하도록 제어하는 전자 장치.
  28. 제 27 항에 있어서, 상기 제어부는,
    상기 감성 데이터를 텍스트로 수신하는 전자 장치.
  29. 제 27 항에 있어서,
    상기 수신된 감성 데이터는 시간 정보 또는 위치 정보 중 적어도 어느 하나를 포함하는 전자 장치.
  30. 제 29 항에 있어서, 상기 제어부는,
    상기 시간 정보 또는 위치 정보 중 적어도 어느 하나에 기반하여, 객체를 출력하는 전자 장치.
KR1020150101275A 2015-07-16 2015-07-16 전자 장치 및 그의 통신 방법 KR20170009379A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150101275A KR20170009379A (ko) 2015-07-16 2015-07-16 전자 장치 및 그의 통신 방법
US15/212,118 US20170019522A1 (en) 2015-07-16 2016-07-15 Electronic apparatus and communicating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150101275A KR20170009379A (ko) 2015-07-16 2015-07-16 전자 장치 및 그의 통신 방법

Publications (1)

Publication Number Publication Date
KR20170009379A true KR20170009379A (ko) 2017-01-25

Family

ID=57775350

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150101275A KR20170009379A (ko) 2015-07-16 2015-07-16 전자 장치 및 그의 통신 방법

Country Status (2)

Country Link
US (1) US20170019522A1 (ko)
KR (1) KR20170009379A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110557474A (zh) * 2018-05-31 2019-12-10 努比亚技术有限公司 一种柔性屏终端拍摄方法、终端和计算机可读存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110262691B (zh) * 2019-06-20 2021-04-16 京东方科技集团股份有限公司 触控基板及其制备方法和驱动方法、触控显示面板

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8711102B2 (en) * 2007-06-15 2014-04-29 Microsoft Corporation Graphical communication user interface with graphical position user input mechanism for selecting a display image
US20090160778A1 (en) * 2007-12-19 2009-06-25 Nokia Corporation Apparatus, method and computer program product for using variable numbers of tactile inputs
US8594740B2 (en) * 2008-06-11 2013-11-26 Pantech Co., Ltd. Mobile communication terminal and data input method
US8532637B2 (en) * 2008-07-02 2013-09-10 T-Mobile Usa, Inc. System and method for interactive messaging
US20110316859A1 (en) * 2010-06-25 2011-12-29 Nokia Corporation Apparatus and method for displaying images
KR101859100B1 (ko) * 2011-07-19 2018-05-17 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
JP6053500B2 (ja) * 2012-12-21 2016-12-27 京セラ株式会社 携帯端末ならびにユーザインターフェース制御プログラムおよび方法
US9467558B2 (en) * 2013-06-14 2016-10-11 Lg Electronics Inc. Mobile terminal and controlling method thereof
KR101801554B1 (ko) * 2013-07-11 2017-11-27 삼성전자주식회사 컨텐츠를 표시하는 사용자 단말 장치 및 그 방법
US20160261675A1 (en) * 2014-08-02 2016-09-08 Apple Inc. Sharing user-configurable graphical constructs
USD769929S1 (en) * 2015-02-27 2016-10-25 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
KR20160143338A (ko) * 2015-06-05 2016-12-14 엘지전자 주식회사 이동단말기 및 그 제어방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110557474A (zh) * 2018-05-31 2019-12-10 努比亚技术有限公司 一种柔性屏终端拍摄方法、终端和计算机可读存储介质

Also Published As

Publication number Publication date
US20170019522A1 (en) 2017-01-19

Similar Documents

Publication Publication Date Title
US9999019B2 (en) Wearable device and method of setting reception of notification message therein
KR102318227B1 (ko) 정보 표시 장치 및 방법
US9456074B2 (en) System and method of providing voice-message call service
KR102415870B1 (ko) 적응적으로 작업 수행의 주체를 변경하기 위한 장치 및 방법
CN109032558B (zh) 发声控制方法、装置、电子装置及计算机可读介质
US20190306277A1 (en) Interaction between devices displaying application status information
US20150341900A1 (en) Wearable device and method of setting reception of notification message therein
CN108881568B (zh) 显示屏发声的方法、装置、电子装置及存储介质
KR20160105321A (ko) 사용자의 무드에 기초하는 액션 생성
KR102227659B1 (ko) Hmd 장치를 통하여 가상 이미지를 디스플레이하는 시스템 및 방법
CN108958697B (zh) 屏幕发声控制方法、装置以及电子装置
CN108810198B (zh) 发声控制方法、装置、电子装置及计算机可读介质
CN109086023B (zh) 发声控制方法、装置、电子设备及存储介质
EP2947540B1 (en) Wearable device and method of setting reception of notification message therein
KR20170009379A (ko) 전자 장치 및 그의 통신 방법
CN110505335B (zh) 发声控制方法、装置、电子装置及计算机可读介质
CN104244132A (zh) 一种智能耳机系统及其控制方法
KR102354326B1 (ko) 웨어러블 디바이스 및 웨어러블 장치의 메시지 수신 설정 방법
CN109032008B (zh) 发声控制方法、装置以及电子装置
CN109116982B (zh) 信息播放方法、装置以及电子装置
CN109144461B (zh) 发声控制方法、装置、电子装置及计算机可读介质
KR20160012781A (ko) 이동 단말기 및 그 제어 방법
US20170185264A1 (en) Touch button module, methods, and apparatuses for displaying a button icon
KR20160074160A (ko) Ptt 어플리케이션을 통해 음성 메시지를 전송하는 방법 및 이동 단말
JP6336587B2 (ja) 電子機器、制御方法及び記憶媒体