KR20180003175A - 전자 장치 및 그의 동작 방법 - Google Patents

전자 장치 및 그의 동작 방법 Download PDF

Info

Publication number
KR20180003175A
KR20180003175A KR1020160082683A KR20160082683A KR20180003175A KR 20180003175 A KR20180003175 A KR 20180003175A KR 1020160082683 A KR1020160082683 A KR 1020160082683A KR 20160082683 A KR20160082683 A KR 20160082683A KR 20180003175 A KR20180003175 A KR 20180003175A
Authority
KR
South Korea
Prior art keywords
display unit
display
content
electronic device
processor
Prior art date
Application number
KR1020160082683A
Other languages
English (en)
Inventor
이영재
박주연
윤경식
이현율
정승연
이요한
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160082683A priority Critical patent/KR20180003175A/ko
Priority to EP17820392.3A priority patent/EP3477449B1/en
Priority to US16/314,465 priority patent/US20190155562A1/en
Priority to PCT/KR2017/003826 priority patent/WO2018004115A1/ko
Publication of KR20180003175A publication Critical patent/KR20180003175A/ko
Priority to KR1020230160917A priority patent/KR20230163328A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Abstract

다양한 실시예들에 따른 전자 장치 및 그의 동작 방법은, 전자 장치의 자세에 기반하여, 제 1 방향을 향하는 제 1 표시부와 제 1 표시부의 배면에 배치되는 제 2 표시부를 결정하고, 전자 장치의 움직임에 기반하여, 제 1 표시부의 방향이 상기 제 1 방향에서 제 2 방향으로 변경되는 것을 감지하고, 제 1 표시부의 방향이 상기 제 1 방향에서 제 2 방향으로 변경되는 것에 대한 응답으로, 제 2 표시부에 컨텐츠를 표시하도록 구성될 수 있다.

Description

전자 장치 및 그의 동작 방법{ELECTRONIC APPARATUS AND OPERATING METHOD THEREOF}
다양한 실시예들은 전자 장치 및 그의 동작 방법에 관한 것이다.
일반적으로 전자 장치는 다양한 기능들이 부가되어 복합적인 기능을 수행할 수 있다. 예를 들면, 전자 장치는 이동 통신 기능, 데이터 통신 기능, 데이터 출력 기능, 데이터 저장 기능, 영상 촬영 기능, 음성 녹음 기능 등을 수행할 수 있다. 이러한 전자 장치는 표시부와 입력부를 구비할 수 있다. 이 때 표시부와 입력부가 결합되어, 터치 스크린(touch screen)으로 구현될 수 있다. 그리고 전자 장치는 터치 스크린을 통해 기능을 실행하고 제어할 수 있다.
그런데, 상기와 같은 전자 장치의 사용자가 한 손으로 터치 스크린을 조작하는 데 어려움이 있을 수 있다. 이러한 문제점은, 터치 스크린의 사이즈가 클수록, 심각해질 수 있다. 이에 따라, 전자 장치의 이용 효율성 및 사용자 편의성이 저하될 수 있다.
다양한 실시예들에 따른 전자 장치의 동작 방법은, 상기 전자 장치의 자세에 기반하여, 제 1 방향을 향하는 제 1 표시부와 상기 제 1 표시부의 배면에 배치되는 제 2 표시부를 결정하는 동작, 상기 전자 장치의 움직임에 기반하여, 상기 제 1 표시부의 방향이 상기 제 1 방향에서 제 2 방향으로 변경되는 것을 감지하는 동작, 및 상기 제 1 표시부의 방향이 상기 제 1 방향에서 제 2 방향으로 변경되는 것에 대한 응답으로, 상기 제 2 표시부에 컨텐츠를 표시하는 동작을 포함할 수 있다.
다양한 실시예들에 따른 전자 장치는, 다수개의 표시부들, 상기 표시부들에 전기적으로 연결된 프로세서 및 상기 프로세서와 전기적으로 연결된 메모리를 포함하고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 전자 장치의 자세에 기반하여, 제 1 방향을 향하는 제 1 표시부와 상기 제 1 표시부의 배면에 배치되는 제 2 표시부를 결정하고, 상기 전자 장치의 움직임에 기반하여, 상기 제 1 표시부의 방향이 상기 제 1 방향에서 제 2 방향으로 변경되는 것을 감지하고, 상기 제 1 표시부의 방향이 상기 제 1 방향에서 제 2 방향으로 변경되는 것에 대한 응답으로, 상기 제 2 표시부에 컨텐츠를 표시하도록 하는 인스트럭션들을 저장할 수 있다.
다양한 실시예들에 따르면, 전자 장치의 사용자가 한 손으로 전자 장치를 용이하게 조작할 수 있다. 즉 전자 장치는 제 1 표시부의 활성화 여부와 관계없이, 전자 장치의 움직임에 기반하여 제 2 표시부를 활성화할 수 있다. 이 때 전자 장치의 사용자가 전자 장치에서 그립 영역을 변경하지 않고도, 전자 장치를 조작할 수 있도록, 전자 장치가 제 2 표시부에 컨텐츠를 표시할 수 있다. 이를 위해, 전자 장치는 제 1 표시부에 표시되는 컨텐츠 또는 그립 영역의 위치 중 적어도 어느 하나에 기반하여, 제 2 표시부를 위한 컨텐츠를 결정할 수 있다. 이에 따라, 전자 장치의 이용 효율성 및 사용자 편의성이 향상될 수 있다.
도 1은 다양한 실시예들에 따른 전자 장치의 블록도를 도시한다.
도 2, 도 3, 도 4 및 도 5는 다양한 실시예들에 따른 전자 장치의 사시도들을 도시한다.
도 6은 다양한 실시예들에 따른 전자 장치의 회전을 설명하기 위한 예시도를 도시한다.
도 7은 다양한 실시예들에 따른 전자 장치의 동작 방법의 순서도를 도시한다.
도 8은 도 7에서 제 1 표시부 및 제 2 표시부 결정 동작의 순서도를 도시한다.
도 9는 도 7에서 제 2 표시부에서 기능 실행 동작의 순서도를 도시한다.
도 10은 도 7에서 제 2 표시부에서 기능 실행 동작의 순서도를 도시한다.
도 11은 도 7에서 제 2 표시부에서 기능 실행 동작의 순서도를 도시한다.
도 12, 도 13, 도 14, 도 15 및 도 16은 다양한 실시예들에 따른 전자 장치의 동작 방법을 설명하기 위한 예시도들을 도시한다.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 기재된다. 실시예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.
본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서의 다양한 실시예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예들에서, 전자 장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 다양한 실시예들에 따른 전자 장치(100)의 블록도를 도시한다. 그리고 도 2, 도 3, 도 4 및 도 5는 다양한 실시예들에 따른 전자 장치(100)의 사시도들을 도시한다. 또한 도 6은 다양한 실시예들에 따른 전자 장치(100)의 회전을 설명하기 위한 예시도를 도시한다.
도 1을 참조하면, 다양한 실시예들에 따른 전자 장치(100)는 통신부(110), 센서부(120), 카메라부(130), 영상 처리부(140), 표시부(150), 입력부(160), 메모리(170), 프로세서(180) 및 오디오 처리부(190)를 포함할 수 있다.
통신부(110)는 전자 장치(100)에서 통신을 수행할 수 있다. 이 때 통신부(110)는 다양한 통신 방식으로, 외부 장치와 통신할 수 있다. 예를 들면, 통신부(110)는 유선 또는 무선으로 통신을 수행할 수 있다. 이를 위해, 통신부(110)는 적어도 하나의 안테나(antenna)를 포함할 수 있다. 그리고 통신부(110)는 이동 통신망 또는 데이터 통신망 중 적어도 어느 하나에 접속할 수 있다. 또는 통신부(110)는 근거리 통신을 수행할 수 있다. 예를 들면, 외부 장치는 전자 장치, 기지국, 서버 또는 위성 중 적어도 어느 하나를 포함할 수 있다. 또한 통신 방식은 LTE(long term evolution), WCDMA(wideband code division multiple access), GSM(global system for mobile communications), WiFi(wireless fidelity), 무선랜(wireless LNA; wireless Local area network), 울트라소닉(ultra sonic), 블루투스(bluetooth), IC(Integrated Circuit) 칩 및 NFC(near field communications)를 포함할 수 있다.
센서부(120)는 전자 장치(100)의 주변 물리량을 계측할 수 있다. 또는 센서부(120)는 전자 장치(100)의 상태를 감지할 수 있다. 즉 센서부(120)는 물리적 신호를 검출할 수 있다. 그리고 센서부(120)는 물리적 신호를 전기적 신호로 변환할 수 있다. 이러한 센서부(120)는 적어도 하나의 센서를 포함할 수 있다. 예를 들면, 센서부(120)는 제스처 센서(gesture sensor), 자이로 센서(gyro sensor), 기압 센서(barometer), 마그네틱 센서(magnetic sensor), 가속도 센서(acceleration sensor), 그립 센서(grip sensor), 근접 센서(proximity sensor), 컬러 센서(color sensor), 생체 센서(medical sensor), 온/습도 센서(temperature-humidity sensor), 조도 센서(illuminance sensor), UV(ultra violet) 센서 중 적어도 어느 하나를 포함할 수 있다.
카메라부(130)는 전자 장치(100)에서 영상 데이터를 발생시킬 수 있다. 이를 위해, 카메라부(130)는 광학적 신호를 수신할 수 있다. 그리고 카메라부(130)는 광학적 신호로부터 영상 데이터를 발생시킬 수 있다. 여기서, 카메라부(130)는 카메라 센서와 신호 변환부를 구비할 수 있다. 카메라 센서는 광학적 신호를 전기적 영상 신호로 변환할 수 있다. 신호 변환부는 아날로그의 영상 신호를 디지털의 영상 데이터로 변환할 수 있다.
영상 처리부(140)는 전자 장치(100)에서 영상 데이터를 처리할 수 있다. 이 때 영상 처리부(140)는 영상 데이터를 프레임 단위로 처리하며, 표시부(150)의 특성 및 크기에 대응시켜 출력할 수 있다. 여기서, 영상 처리부(140)는 영상 데이터를 설정된 방식으로 압축하거나, 압축된 영상 데이터를 원래의 영상 데이터로 복원할 수 있다.
표시부(150)는 전자 장치(100)에서 표시 데이터를 출력할 수 있다. 예를 들면, 표시부(150)는 액정 디스플레이(LCD; liquid crystal display), 발광 다이오드(LED; light emitting diode) 디스플레이, 유기 발광 다이오드(OLED; organic light emitting diode) 디스플레이, 능동형 유기 발광 다이오드(AMOLED; active matrix light emitting diode) 디스플레이, 마이크로 전자기계 시스템(MEMS; micro electro mechanical systems) 및 전자 종이(electronic paper) 디스플레이를 포함할 수 있다.
다양한 실시예들에 따르면, 표시부(150)는 다수개의 표시부(151, 153)들, 즉 제 1 표시부(151) 및 제 2 표시부(153)를 포함할 수 있다. 이 때 제 1 표시부(151)의 배면과 제 2 표시부(153)의 배면이 상호에 대향할 수 있다. 그리고 제 1 표시부(151)와 제 2 표시부(153)가 상호로부터 기울어질 수 있다. 예를 들면, 제 1 표시부(151)와 제 2 표시부(153)가 상호에 나란할 수 있다. 또한 표시부(150)는 유연성(flexibility)을 갖는 플렉서블 표시부일 수 있다. 예를 들면, 제 1 표시부(151)와 제 2 표시부(153)는 각각 메인 영역(main area)을 포함할 수 있다. 한편, 제 1 표시부(151) 또는 제 2 표시부(153) 중 적어도 어느 하나가 적어도 하나의 엣지 영역(edge area)을 더 포함할 수 있다. 각각의 엣지 영역은 메인 영역의 모서리들 중 어느 하나로부터 연장될 수 있다.
한 실시예에 따르면, 제 1 표시부(151)와 제 2 표시부(153)는, 도 2에 도시된 바와 같이 상호 대향하는 양측의 가장자리들에서 결합될 수 있다. 다른 실시예에 따르면, 제 1 표시부(151)와 제 2 표시부(153)는, 도 3 또는 도 4에 도시된 바와 같이 일측의 가장자리에서 결합될 수 있다. 예를 들면, 제 1 표시부(151)의 엣지 영역과 제 2 표시부(153)의 엣지 영역이 연결될 수 있다. 또 다른 실시예에 따르면, 제 1 표시부(151)와 제 2 표시부(153)는, 도 5에 도시된 바와 같이 상호로부터 분리될 수 있다. 이 때 제 1 표시부(151)가 전자 장치(100)에서 스피커(191)와 동일한 면에 배치되고, 제 2 표시부(153)가 전자 장치(100)에서 카메라부(130)와 동일한 면에 배치되는 것으로 도시되었으나, 이에 한정하는 것은 아니다. 즉 제 1 표시부(151)의 위치와 제 2 표시부(153)의 위치는 전자 장치(100)에서 특정한 면들에 제한되지 않을 수 있다.
입력부(160)는 전자 장치(100)에서 입력 데이터를 발생시킬 수 있다. 이 때 입력부(160)는 적어도 하나의 입력 수단을 포함할 수 있다. 예를 들면, 입력부(160)는 키 패드(key pad), 돔 스위치(dome switch), 물리 버튼, 터치 패널(touch panel) 또는 조그 셔틀(jog & shuttle) 중 적어도 어느 하나를 포함할 수 있다. 그리고 입력부(160)는 표시부(150)에 결합되어, 터치 스크린(touch screen)으로 구현될 수 있다.
메모리(170)는 전자 장치(100)의 동작 프로그램들을 저장할 수 있다. 다양한 실시예들에 따르면, 메모리(170)는 전자 장치(100)의 회전에 기반하여, 표시부(150)를 제어하기 위한 프로그램들을 저장할 수 있다. 그리고 메모리(170)는 프로그램들을 수행하는 중에 발생되는 데이터를 저장할 수 있다. 또한 메모리(170)는 프로세서(180)의 동작을 위한 인스트럭션들을 저장할 수 있다. 예를 들면, 메모리(170)는 내장 메모리 또는 외장 메모리 중 적어도 어느 하나를 포함할 수 있다. 내장 메모리는 휘발성 메모리(예: DRAM, SRAM, 또는 SDRAM 등), 비휘발성 메모리(예: OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, 플래시 메모리, 하드 드라이브 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 어느 하나를 포함할 수 있다. 외장 메모리는 플래시 드라이브(flash drive), CF(compact flash), SD(secure digital), Micro-SD, Mini-SD, xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱 중 적어도 어느 하나를 포함할 수 있다.
프로세서(180)는 전자 장치(100)에서 전반적인 동작을 제어할 수 있다. 이 때 프로세서(180)는 메모리(170)로부터 인스트럭션들을 수신하여 동작할 수 있다. 즉 프로세서(180)는 전자 장치(100)의 구성요소들을 제어할 수 있다. 이를 통해, 프로세서(180)는 다양한 기능들을 수행할 수 있다.
다양한 실시예들에 따르면, 프로세서(180)는 전자 장치(100)의 움직임에 기반하여, 표시부(150)를 제어할 수 있다. 이 때 프로세서(180)는 표시부(150)에서 제 1 표시부(151)와 제 2 표시부(153)를 결정할 수 있다. 그리고 프로세서(180)는 전자 장치(100)의 움직임(예: 회전)을 감지할 수 있다. 예를 들면, 전자 장치(100)는, 도 6에 도시된 바와 같이 사용자에 의해 회전될 수 있다. 이에 따라, 전자 장치(100)의 방향 및/또는 자세가 변경될 수 있다. 전자 장치(100)의 자세는 전자 장치(100)가 지면에 나란한 평면에 대해 기울어진 각도를 기반으로 결정될 수 있다. 이 때 전자 장치(100)에서 사용자의 그립 영역이 결정될 수 있다. 또한 전자 장치(100)가 회전하더라도, 전자 장치(100)에서 사용자의 그립 영역은 유지될 수 있다. 예를 들면, 전자 장치(100)에서 사용자의 그립 영역은 제 2 표시부(153)의 메인 영역에서 결정될 수 있다. 아울러, 전자 장치(100)에서 사용자의 그립 영역은 제 1 표시부(151)의 엣지 영역 또는 제 2 표시부(153)의 엣지 영역 중 적어도 어느 하나에서 결정될 수 있다.
한 실시예에 따르면, 프로세서(180)는 센서부(120)를 이용하여, 제 1 표시부(151)와 제 2 표시부(153)를 결정할 수 있다. 이 때 프로세서(180)는, 전자 장치(100)에 포함된 다수개의 표시부들 각각이 향하는 방향에 따라 하나의 표시부를 제 1 표시부(151)로 결정하고, 다른 하나의 표시부를 제 2 표시부(153)로 결정할 수 있다. 예를 들어, 프로세서(180)는 다수 개의 표시부들 중에서 제 1 방향을 향하는 표시부를 제 1 표시부(151)로 결정하고, 제 2 방향을 향하는 표시부를 제 2 표시부(153)로 결정할 수 있다. 제 1 방향은 사용자를 향하는 방향이고, 제 2 방향은 제 1 방향에 반대되는 방향일 수 있다. 다른 실시 예에 따르면, 프로세서(180)는, 제 1 표시부(151)가 지면에 나란한 평면으로부터 기울어진 각도에 따라, 제 1 표시부(151)를 결정할 수 있다. 다른 실시예에 따르면, 프로세서(180)는 입력부(160)를 이용하여, 제 1 표시부(151)와 제 2 표시부(153)를 결정할 수 있다. 이 때 프로세서(180)는 사용자 입력을 기준으로, 제 1 표시부(151)를 결정할 수 있다. 예를 들면, 프로세서(180)는 활성화 이벤트에 따라, 제 1 표시부(151)를 결정할 수 있다. 또는 프로세서(180)는 전자 장치(100)에서 사용자의 그립 영역에 기반하여, 제 1 표시부(151)를 결정할 수 있다. 예를 들면, 프로세서(180)는 제 1 표시부(151) 및 제 2 표시부(153)에서 그립 영역의 구조, 형태 또는 사이즈 중 적어도 어느 하나에 기반하여, 제 1 표시부(151)를 결정할 수 있다. 또 다른 실시예에 따르면, 프로세서(180)는 카메라부(130)를 이용하여, 제 1 표시부(151)를 결정할 수 있다. 이 때 프로세서(180)는 카메라부(130)를 통해 수신되는 영상에서 사용자를 인식함으로써, 사용자에 대향하여 제 1 표시부(151)를 결정할 수 있다.
한 실시예에 따르면, 프로세서(180)는 센서부(120)를 이용하여, 전자 장치(100)의 움직임(예: 회전)을 감지할 수 있다. 예를 들어, 프로세서(180)는, 전자 장치(100)의 움직임에 의해 제 2 표시부(153)의 방향이 제 2 방향에서 제 1 방향으로 변경되는 것을 검출함에 따라, 전자 장치(100)가 회전된 것을 감지할 수 있다. 또 다른 예를 들면, 프로세서(180)는, 전자 장치(100)의 움직임에 의해 제 2 표시부(153)가 지면에 나란한 평면으로부터 기울어진 각도가 변경됨에 따라, 전자 장치(100)가 회전되는 것을 감지할 수 있다. 이러한 전자 장치(100)의 회전은 플립(flip)이라는 용어와 혼용될 수 있다. 여기서, 플립은 제 1 표시부(151)의 방향과 자세, 제 2 표시부(153)의 방향과 자세 및 전자 장치(100)의 움직임 속도 등에 기반하여, 결정될 수 있다. 예를 들면, 플립은 제 1 표시부(151)의 방향이 제 1 방향에서 제 2 방향으로 변경되고, 제 2 표시부(153)의 방향이 제 2 방향에서 제 1 방향으로 변경되는 것, 예컨대, 제 1 표시부(151)와 제 2 표시부(153)가 반전되는 것을 나타낼 수 있다. 일 예로, 제 1 표시부(151)의 방향이 사용자를 향하고, 제 2 표시부(153)의 방향이 지면을 향한 상태에서, 전자 장치(100)의 움직임에 의해 제 1 표시부(151)의 방향이 지면을 향하고 제 2 표시부(153)의 방향이 사용자를 향하도록 변경되는 것을 플립 및/또는 반전이라 할 수 있다. 다양한 실시 예에 따라, 플립 및/또는 반전은 제 1 표시부(151)와 제 2 표시부(153)의 방향을 나타내는 값이 임계치 이상 변경되는 것을 의미할 수 있다. 예컨대, 플립 및/또는 반전은 제 1 표시부(151)와 제 2 표시부(153)의 방향이 반대(예: 180도)로 변경되는 것뿐만 아니라, 제 1 표시부(151)와 제 2 표시부(153)의 방향이 임계치 이상 변경되는 것을 포함하는 의미일 수 있다. 다른 실시예에 따르면, 프로세서(180)는 입력부(160)를 이용하여, 전자 장치(100)의 움직임(예: 회전)을 감지할 수 있다. 이 때 프로세서(180)는 사용자 입력을 기준으로, 전자 장치(100)의 회전을 감지할 수 있다. 또 다른 실시예에 따르면, 프로세서(180)는 카메라부(130)를 이용하여, 전자 장치(100)의 움직임(예: 회전)을 감지할 수 있다. 이 때 프로세서(180)는 카메라부(130)를 통해 수신되는 영상에서 사용자를 인식하고 사용자에 대향하여 제 2 표시부(153)를 결정함으로써, 전자 장치(100)의 회전을 감지할 수 있다.
또한 프로세서(180)는 전자 장치(100)의 움직임(예: 회전)에 응답하여, 제 2 표시부(153)에 컨텐츠를 표시할 수 있다. 이 때 제 1 표시부(151)의 표시 타입과 제 2 표시부(153)의 표시 타입이 상이할 수 있다. 제 1 표시부(151)의 표시 타입은 제 1 표시부(151)를 기준으로 표시 방향 또는 제 1 표시부(151)에서 표시 영역의 사이즈 중 적어도 어느 하나를 포함할 수 있다. 제 2 표시부(153)의 표시 타입은 제 2 표시부(153)를 기준으로 표시 방향 또는 제 2 표시부(153)에서 표시 영역의 사이즈 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 제 1 표시부(151)의 표시 방향은 제 1 표시부(151)에 나란하고, 제 2 표시부(153)의 표시 방향은 제 2 표시부(153)에 수직할 수 있다. 이를 통해, 제 1 표시부(151)의 표시 방향과 제 2 표시부(153)의 표시 방향이 상호에 직교할 수 있다. 한편, 제 1 표시부(151)의 표시 영역의 사이즈가 제 2 표시부(153)의 표시 영역의 사이즈 이상일 수 있다. 이를 위해, 프로세서(180)는 제 2 표시부(153)에서 컨텐츠를 표시하기 위한 표시 영역을 결정할 수 있다. 이 때 제 2 표시부(153)에서 표시 영역의 위치는 미리 설정될 수 있다. 또는 프로세서(180)는 제 2 표시부(153)으로부터 그립 영역을 제외한 나머지 영역에서 표시 영역을 결정할 수 있다. 또한, 제 2 표시부(153)에 표시되는 컨텐츠는 제 1 표시부(151)에 표시된 컨텐츠와 연관된 컨텐츠일 수 있다. 예를 들어, 제 2 표시부(153)에 표시되는 컨텐츠는, 제 1 표시부(151)에 표시된 컨텐츠와 적어도 하나의 동일한 데이터를 포함하는 컨텐츠이거나, 제 1 표시부(151)에 표시된 컨텐츠에 미리 매핑된 컨텐츠이거나, 제 1 표시부(151)에 표시된 컨텐츠에 연관된 데이터를 포함하는 컨텐츠이거나, 제 1 표시부(151)에 표시된 컨텐츠에 의해 실행 가능한 기능들 중 적어도 하나의 기능을 포함하는 컨텐츠일 수 있다.
또한, 프로세서(180)는 전자 장치(100)의 움직임(예: 회전)에 응답하여, 제 2 표시부(153)에 컨텐츠를 표시하면서, 사용자 입력에 의해 제어 가능한 영역을 표시할 수 있다. 예를 들어, 프로세서(180)는 전자 장치(100)의 회전이 감지됨에 따라, 제 2 표시부(153)에 컨텐츠를 표시하면서, 표시된 컨텐츠에 대한 제어 가능 영역을 표시함으로써, 표시된 영역이 사용자 입력에 의해 제어 가능한 영역임을 사용자가 인지할 수 있도록 할 수 있다.
또한, 프로세서(180)는 전자 장치(100)의 움직임(예: 회전)에 응답하여, 제 1 표시부(151)와 제 2 표시부(153) 중에서 어느 하나의 표시부(151, 153)에 표시된 컨텐츠에 대한 사용자 입력을 기반으로, 다른 표시부(151, 153)에 표시될 컨텐츠를 제어할 수 있다. 예를 들어, 프로세서(180)는 제 2 표시부(153)에 표시된 컨텐츠에 대해 사용자 입력이 감지된 이후에 전자 장치(100)의 회전이 감지되는 경우, 제 2 표시부(153)에 표시된 컨텐츠에 대한 사용자 입력 결과를 포함하는 컨텐츠를 제 1 표시부(151)에 표시할 수 있다.
또한, 프로세서(180)는 전자 장치(100)의 움직임(예: 회전)에 응답하여, 제 1 표시부(151) 및/또는 제 2 표시부(153)의 활성 상태를 제어할 수 있다. 예를 들어, 프로세서(180)는 전자 장치(100)의 회전이 감지됨에 따라, 제 1 표시부(151)를 비활성화시키고, 제 2 표시부(153)를 활성화시킬 수 있다. 또한, 프로세서(180)는 전자 장치(100)의 회전이 감지됨에 따라, 제 1 표시부(151)를 활성화시키고, 제 2 표시부(153)를 비활성화시킬 수 있다.
오디오 처리부(190)는 전자 장치(100)에서 오디오 신호를 처리할 수 있다. 이 때 오디오 처리부(190)는 스피커(speaker; SPK; 191)와 마이크(microphone; MIC; 193)를 포함할 수 있다. 즉 오디오 처리부(190)는 오디오 신호를 스피커(191)를 통해 재생할 수 있다. 그리고 오디오 처리부(190)는 오디오 신호를 마이크(193)를 통해 수집할 수 있다.
다양한 실시예들에 따른 전자 장치(100)는, 다수개의 표시부(151, 153)들, 상기 표시부들(151, 153)에 전기적으로 연결된 프로세서(180) 및 상기 프로세서(180)와 전기적으로 연결된 메모리(170)를 포함할 수 있다.
다양한 실시예들에 따르면, 상기 메모리(170)는, 실행 시에, 상기 프로세서(180)가, 상기 전자 장치(100)의 자세에 기반하여, 제 1 방향을 향하는 제 1 표시부(151)와 상기 제 1 표시부(151)의 배면에 배치되는 제 2 표시부(153)를 결정하고, 상기 전자 장치(100)의 움직임에 기반하여, 상기 제 1 표시부(151)의 방향이 상기 제 1 방향에서 제 2 방향으로 변경되는 것을 감지하고, 상기 제 1 표시부(151)의 방향이 상기 제 1 방향에서 제 2 방향으로 변경되는 것에 대한 응답으로, 상기 제 2 표시부(153)에 컨텐츠를 표시하도록 하는 인스트럭션들을 저장할 수 있다.
다양한 실시예들에 따르면, 상기 제 1 표시부(151)의 컨텐츠 표시 타입과 상기 제 2 표시부(153)의 컨텐츠 표시 타입이 상이할 수 있다.
다양한 실시예들에 따르면, 상기 인스트럭션들은, 상기 제 2 표시부(153)의 일부를 그립 영역으로 결정하고, 상기 제 2 표시부(153)에서 그립 영역을 제외한 나머지 영역을 상기 컨텐츠를 표시하기 위한 표시 영역으로 결정하도록 할 수 있다.
다양한 실시예들에 따르면, 상기 인스트럭션들은, 상기 제 1 표시부(151)에 표시된 제 1 컨텐츠를 식별하고, 상기 제 1 표시부(151)에 표시된 제 1 컨텐츠와 연관된 제2 컨텐츠를 상기 제 2 표시부(153)에 표시하도록 할 수 있다.
다양한 실시예들에 따르면, 상기 인스트럭션들은, 상기 전자 장치의 움직임 동안에 상기 제 1 표시부(151) 또는 제 2 표시부(153) 중 적어도 어느 하나의 가장자리에서 그립 영역을 검출하고, 상기 그립 영역의 위치에 기반하여, 상기 제 2 표시부에 표시될 컨텐츠를 결정하도록 할 수 있다.
다양한 실시예들에 따르면, 상기 인스트럭션들은, 상기 그립 영역이 상기 제 1 표시부(151) 또는 상기 제 2 표시부(153) 중 적어도 어느 하나의 미리 정해진 영역에 대응되는지 여부를 결정하고, 상기 그립 영역이 상기 미리 정해진 영역에 대응되면, 상기 미리 정해진 영역에 할당된 기능에 대응하는 컨텐츠를 상기 제 2 표시부(153)에 표시될 컨텐츠로 결정하도록 할 수 있다.
다양한 실시예들에 따르면, 상기 인스트럭션들은, 통지 이벤트를 감지하고, 상기 통지 이벤트에 기반하여, 상기 제 1 표시부(151)에 표시될 제 1 컨텐츠를 결정하고, 상기 제 1 표시부(151)에 상기 제 1 컨텐츠를 표시하도록 할 수 있다.
다양한 실시예들에 따르면, 상기 인스트럭션들은, 상기 제 2 표시부(153)에 미리 설정된 기능들의 상위 아이템들 중 어느 하나를 표시하고, 상기 상위 아이템들을 스크롤하기 위한 사용자 입력을 검출하고, 상기 상위 아이템들을 스크롤하여, 상기 제 2 표시부(153)에 상기 상위 아이템들 중 다른 하나를 표시하도록 할 수 있다.
다양한 실시예들에 따르면, 상기 인스트럭션들은, 상기 표시되는 상위 아이템의 하위 아이템들을 표시하기 위한 사용자 입력을 검출하고, 상기 제 2 표시부(153)에 상기 하위 아이템들 중 어느 하나를 표시하고, 상기 하위 아이템들을 스크롤하기 위한 사용자 입력을 검출하고, 상기 하위 아이템들을 스크롤하여, 상기 제 2 표시부(153)에 상기 하위 아이템들 중 다른 하나를 표시하도록 할 수 있다.
다양한 실시예들에 따르면, 상기 인스트럭션들은, 상기 제 2 표시부(153)에 표시된 컨텐츠에 대한 사용자 입력을 감지하고, 상기 전자 장치의 움직임에 기반하여, 상기 제 1 표시부(151)의 방향이 상기 제 2 방향에서 상기 제 1 방향으로 변경되는 것을 감지하고, 상기 제 1 표시부(151)의 방향이 상기 제 2 방향에서 상기 제 1 방향으로 변경되는 것에 대한 응답으로, 상기 제 2 표시부(153)에 표시된 컨텐츠에 대한 사용자 입력 결과를 나타내는 컨텐츠를 상기 제 1 표시부(151)에 표시하도록 할 수 있다.
다양한 실시예들에 따르면, 전자 장치(100)의 사용자가 한 손으로 전자 장치(100)를 용이하게 조작할 수 있다. 즉 프로세서(180)는 제 1 표시부(151)의 활성화 여부와 관계없이, 전자 장치(100)의 회전에 기반하여 제 2 표시부(153)를 활성화할 수 있다. 이 때 전자 장치(100)의 사용자가 전자 장치(100)에서 그립 영역을 변경하지 않고도, 전자 장치(100)를 조작할 수 있도록, 프로세서(180)가 제 2 표시부(153)에 컨텐츠를 표시할 수 있다. 이를 위해, 프로세서(180)는 제 1 표시부(151)에 표시되는 컨텐츠 또는 그립 영역의 위치 중 적어도 어느 하나에 기반하여, 제 2 표시부(153)를 위한 컨텐츠를 결정할 수 있다. 이에 따라, 전자 장치(100)의 이용 효율성 및 사용자 편의성이 향상될 수 있다.
도 7은 다양한 실시예들에 따른 전자 장치(100)의 동작 방법의 순서도를 도시한다. 도 7에서 점선으로 표시된 동작은 다양한 실시예들에 따라 생략될 수 있다. 그리고 도 12, 도 13, 도 14, 도 15 및 도 16은 다양한 실시예들에 따른 전자 장치(100)의 동작 방법을 설명하기 위한 예시도들을 도시한다.
도 7을 참조하면, 다양한 실시예들에 따른 전자 장치(100)의 동작 방법은, 프로세서(180)가 711 동작에서 표시부(150)로부터 제 1 표시부(151) 및 제 2 표시부(153)를 결정하는 것으로부터 출발할 수 있다. 이 때 제 1 표시부(151)는 활성화되어 있을 수 있다. 예를 들면, 제 1 표시부(151)는 도 12의 (a) 또는 도 14의 (a)에 도시된 바와 같이 활성화되어 있을 수 있다. 이 때 프로세서(180)는 제 1 표시부(151)에 배경 화면을 표시하고 있을 수 있으며, 특정 기능의 컨텐츠를 표시하고 있을 수 있다. 또는 제 1 표시부(151)는 비활성화되어 있을 수 있다. 예를 들면, 제 1 표시부(151)는 도 13의 (a)에 도시된 바와 같이 비활성화되어 있을 수 있다.
한 실시예에 따르면, 프로세서(180)는 센서부(120)를 이용하여 전자 장치(100)의 방향 및/또는 자세를 감지하고, 감지된 방향 및/또는 자세를 기반으로 제 1 표시부(151)와 제 2 표시부(153)를 결정할 수 있다. 예를 들어, 프로세서(180)는, 전자 장치(100)에 포함된 다수개의 표시부들 각각이 향하는 방향에 따라 하나의 표시부를 제 1 표시부(151)로 결정하고, 다른 하나의 표시부를 제 2 표시부(153)로 결정할 수 있다. 예를 들어, 프로세서(180)는 다수 개의 표시부들 중에서 제 1 방향을 향하는 표시부를 제 1 표시부(151)로 결정하고, 제 2 방향을 향하는 표시부를 제 2 표시부(153)로 결정할 수 있다. 제 1 방향은 사용자를 향하는 방향이고, 제 2 방향은 제 1 방향에 반대되는 방향일 수 있다. 또 다른 예로, 프로세서(180)는, 제 1 표시부(151)가 지면에 나란한 평면으로부터 기울어진 각도에 따라, 제 1 표시부(151)를 결정할 수 있다. 다른 실시예에 따르면, 프로세서(180)는 입력부(160)를 이용하여, 제 1 표시부(151)와 제 2 표시부(153)를 결정할 수 있다. 이 때 프로세서(180)는 사용자 입력을 기준으로, 제 1 표시부(151)를 결정할 수 있다. 예를 들면, 프로세서(180)는 활성화 이벤트에 따라, 제 1 표시부(151)를 결정할 수 있다. 또는 프로세서(180)는 전자 장치(100)에서 사용자의 그립 영역에 기반하여, 제 1 표시부(151)를 결정할 수 있다. 예를 들면, 프로세서(180)는 제 1 표시부(151) 및 제 2 표시부(153)에서 그립 영역의 구조, 형태 또는 사이즈 중 적어도 어느 하나에 기반하여, 제 1 표시부(151)를 결정할 수 있다. 또 다른 실시예에 따르면, 프로세서(180)는 카메라부(130)를 이용하여, 제 1 표시부(151)를 결정할 수 있다. 이 때 프로세서(180)는 카메라부(130)를 통해 수신되는 영상에서 사용자를 인식함으로써, 사용자에 대향하여 제 1 표시부(151)를 결정할 수 있다.
한 실시예에 따르면, 프로세서(180)는 제 1 표시부(151) 또는 제 2 표시부(153) 중 적어도 어느 하나에서 사용자의 그립 영역을 결정할 수 있다. 예를 들면, 프로세서(180)는 제 1 표시부(151) 또는 제 2 표시부(153) 중 적어도 어느 하나에서 사용자와 접촉을 검출하고, 이로부터 그립 영역을 결정할 수 있다. 이 때 프로세서(180)는 제 2 표시부(153)의 메인 영역에서 그립 영역을 결정할 수 있다. 그리고 프로세서(180)는 제 1 표시부(151)의 엣지 영역 또는 제 2 표시부(153)의 엣지 영역 중 적어도 어느 하나에서 그립 영역을 결정할 수 있다. 다른 실시예에 따르면, 제 1 표시부(151) 또는 제 2 표시부(153) 중 적어도 어느 하나의 미리 정해진 위치에, 미리 설정된 기능이 할당된 기능 설정 영역이 존재할 수 있다.
도 8은 도 7에서 제 1 표시부(151) 및 제 2 표시부(153) 결정 동작의 순서도를 도시한다.
도 8을 참조하면, 프로세서(180)는 811 동작에서 제 1 표시부(151)와 제 2 표시부(153)를 결정할 수 있다. 한 실시 예에 따라, 프로세서(180)는 전자 장치(100)의 움직임에 기반하여, 제 1 표시부(151)와 제 2 표시부(153)를 결정할 수 있다. 한 실시예에 따르면, 표시부(150)에서 방향이나 자세, 활성화 여부, 그립 영역의 구조, 형태나 사이즈 또는 카메라부(130)를 통해 수신되는 영상 중 적어도 어느 하나에 기반하여, 제 1 표시부(151)와 제 2 표시부(153)를 결정할 수 있다.
다음으로, 통지 이벤트가 발생하면, 프로세서(180)는 813 동작에서 이를 감지할 수 있다. 여기서, 통지 이벤트는 통신 이벤트와 일정 이벤트를 포함할 수 있다. 예를 들면, 통신 이벤트는, 호, 메시지 또는 전력의 수신에 대응하여, 발생될 수 있다. 한편, 일정 이벤트는 스케줄 또는 알람 시간의 도래에 대응하여, 발생될 수 있다. 그리고 프로세서(180)는 815 동작에서 통지 이벤트에 응답하여, 제 1 표시부(151)가 활성화되어 있는 지의 여부를 판단할 수 있다. 이 때 815 동작에서 제 1 표시부(151)가 비활성화되어 있는 것으로 판단되면, 프로세서(180)는 817 동작에서 제 1 표시부(151)를 활성화할 수 있다. 한편, 815 동작에서 제 1 표시부(151)가 활성화되어 있는 것으로 판단되면, 프로세서(180)는 제 1 표시부(151)를 활성화되어 있는 것으로 유지할 수 있다.
다음으로, 프로세서(180)는 819 동작에서 제 1 표시부(151)에 제 1 통지 컨텐츠를 표시할 수 있다. 이 때 제 1 통지 컨텐츠는 통지 이벤트에 대응하는 컨텐츠로서, 제 1 표시부(151)를 위한 제 1 표시 화면으로 표현될 수 있다. 프로세서(180)는 도 12의 (a)에 도시된 바와 같이 제 1 표시부(151)에 제 1 통지 컨텐츠를 제 1 표시 화면으로 표시할 수 있다. 여기서, 제 1 표시 화면은 제 1 통지 컨텐츠를 제어하기 위한 적어도 하나의 제어 명령이 각각 할당된 적어도 하나의 제어 버튼을 포함할 수 있다. 예를 들면, 제어 버튼은 호 연결 요청을 수락하기 위한 수락 버튼 또는 호 연결 요청을 거절하기 위한 거절 버튼 중 적어도 어느 하나를 포함할 수 있다. 이 때 전자 장치(100)의 사용자가 전자 장치(100)에서 그립 영역을 변경하지 않고, 제어 버튼을 선택하는 데 어려움이 있을 수 있다.
다음으로, 제어 명령이 수신되면, 프로세서(180)는 821 동작에서 이를 감지할 수 있다. 그리고 프로세서(180)는 823 동작에서 제 1 표시부(151)에서 제 1 통지 컨텐츠를 제어할 수 있다. 즉 제 1 표시 화면에서 제어 버튼이 선택되면, 프로세서(180)는 제어 버튼에 할당된 제어 명령에 기반하여, 제 1 통지 컨텐츠를 제어할 수 있다. 예를 들면, 제 1 표시 화면에서 수락 버튼이 선택되면, 프로세서(180)는 호 연결 요청을 수락하고, 호 연결을 수행하기 위한 절차를 진행할 수 있다. 또는 제 1 표시 화면에서 거절 버튼이 선택되면, 프로세서(180)는 호 연결 요청을 거절하고, 호 연결을 차단하기 위한 절차를 진행할 수 있다. 이 후 도 7로 리턴할 수 있다.
한편, 813 동작에서 통지 이벤트가 감지되지 않으면, 프로세서(180)는 814 동작에서 해당 기능을 수행할 수 있다. 예를 들면, 프로세서(180)는 제 1 표시부(151)를 통해 해당 기능을 수행할 수 있다. 이 때 프로세서(180)는 제 1 표시부(151)에 배경 화면을 표시할 수 있으며, 특정 기능의 컨텐츠를 표시할 수 있다. 또는 프로세서(180)는 제 1 표시부(151)와 제 2 표시부(153)를 유지할 수 있다.
다양한 실시예들에 따르면, 전자 장치(100)의 움직임에 의해 전자 장치(100)의 회전이 발생하면, 프로세서(180)가 713 동작에서 이를 감지할 수 있다. 즉 전자 장치(100)의 사용자가 전자 장치(100)를 회전시킬 수 있다. 이 때 제 1 표시부(151)는 활성화되어 있을 수 있다. 예를 들면, 제 1 표시부(151)는 도 12의 (a) 또는 도 14의 (a)에 도시된 바와 같이 활성화되어 있을 수 있다. 이 때 프로세서(180)는 제 1 표시부(151)에 배경 화면을 표시하고 있을 수 있으며, 특정 기능의 컨텐츠를 표시하고 있을 수 있다. 또는 제 1 표시부(151)는 비활성화되어 있을 수 있다. 예를 들면, 제 1 표시부(151)는 도 13의 (a)에 도시된 바와 같이 비활성화되어 있을 수 있다.
한 실시예에 따르면, 프로세서(180)는 센서부(120)를 이용하여, 전자 장치(100)의 회전을 감지할 수 있다. 예를 들어, 프로세서(180)는, 전자 장치(100)의 움직임에 의해 제 2 표시부(153)의 방향이 제 2 방향에서 제 1 방향으로 변경되는 것을 검출함에 따라, 전자 장치(100)가 회전된 것을 감지할 수 있다. 또 다른 예로, 프로세서(180)는, 전자 장치(100)의 움직임에 의해 제 2 표시부(153)가 지면에 나란한 평면으로부터 기울어진 각도가 변경됨에 따라, 전자 장치(100)가 회전된 것을 감지할 수 있다. 이러한 전자 장치(100)의 회전은 플립(flip)이라는 용어와 혼용될 수 있다. 여기서, 플립은 제 1 표시부(151)의 방향과 자세, 제 2 표시부(153)의 방향과 자세 및 전자 장치(100)의 움직임 속도 등에 기반하여, 결정될 수 있다. 예를 들면, 플립은 제 1 표시부(151)의 방향이 제 1 방향에서 제 2 방향으로 변경되고, 제 2 표시부(153)의 방향이 제 2 방향에서 제 1 방향으로 변경되는 것, 예컨대, 제 1 표시부(151)와 제 2 표시부(153)가 반전되는 것을 나타낼 수 있다. 다른 실시예에 따르면, 프로세서(180)는 입력부(160)를 이용하여, 전자 장치(100)의 움직임(예: 회전)을 감지할 수 있다. 이 때 프로세서(180)는 사용자 입력을 기준으로, 전자 장치(100)의 회전을 감지할 수 있다. 또 다른 실시예에 따르면, 프로세서(180)는 카메라부(130)를 이용하여, 전자 장치(100)의 움직임(예: 회전)을 감지할 수 있다. 이 때 프로세서(180)는 카메라부(130)를 통해 수신되는 영상에서 사용자를 인식하고 사용자에 대향하여 제 2 표시부(153)를 결정함으로써, 전자 장치(100)의 회전을 감지할 수 있다.
한 실시예에 따르면, 전자 장치(100)가 회전하더라도, 전자 장치(100)에서 사용자의 그립 영역은 유지될 수 있다. 이 때 제 2 표시부(153)의 메인 영역에서 그립 영역이 유지될 수 있다. 그리고 제 1 표시부(151)의 엣지 영역 또는 제 2 표시부(153)의 엣지 영역 중 적어도 어느 하나에서 그립 영역이 유지될 수 있다. 다른 실시예에 따르면, 제 1 표시부(151) 또는 제 2 표시부(153) 중 적어도 어느 하나의 미리 정해진 위치에, 미리 설정된 기능이 할당된 기능 설정 영역이 존재할 수 있다.
다양한 실시예들에 따르면, 프로세서(180)는 715 동작에서 전자 장치(100)의 회전에 응답하여, 제 2 표시부(153)에 기능을 실행할 수 있다. 즉 프로세서(180)는 제 2 표시부(153)에 특정 기능의 컨텐츠를 표시할 수 있다. 이를 위해, 프로세서(180)는 도 12의 (b), 도 13의 (b), 도 14의 (b), 도 15 또는 도 16에 도시된 바와 같이 제 2 표시부(153)를 활성화할 수 있다. 이 때 제 1 표시부(151)의 표시 방향과 제 2 표시부(153)의 표시 방향이 상이할 수 있다. 예를 들면, 제 1 표시부(151)의 표시 방향과 제 2 표시부(153)의 표시 방향이 직교할 수 있다.
한 실시예에 따르면, 프로세서(180)는 제 1 표시부(151)의 활성화 여부 또는 제 1 표시부(151)에 표시된 컨텐츠 중 적어도 어느 하나에 기반하여, 제 2 표시부(153)를 위한 기능을 결정할 수 있다. 예를 들면, 제 1 표시부(151)가 활성화되어 있으면, 프로세서(180)는 도 12의 (b) 또는 도 14의 (b)에 도시된 바와 같이 제 1 표시부(151)에 표시된 컨텐츠의 기능을 제 2 표시부(153)에 실행할 수 있다. 또는 제 1 표시부(151)가 비활성화되어 있으면, 프로세서(180)는 도 13의 (b), 도 15 또는 도 16에 도시된 바와 같이 미리 설정된 기능을 제 2 표시부(153)에 실행할 수 있다. 또는 제 1 표시부(151)가 활성화되어 있더라도, 프로세서(180)는 도 13의 (b), 도 15 또는 도 16에 도시된 바와 같이 제 1 표시부(151)에 표시된 컨텐츠의 기능과 무관하게, 미리 설정된 기능을 제 2 표시부(153)에 실행할 수 있다. 예컨대, 프로세서(180)는 제 1 표시부(151)에 표시된 제 1 컨텐츠와 연관된 제 2 컨텐츠를 제 2 표시부(153)에 표시할 수 있다. 이때, 제 2 컨텐츠는 제 1 컨텐츠와 적어도 하나의 동일한 데이터를 포함하는 컨텐츠이거나, 제 1 컨텐츠에 미리 매핑된 컨텐츠이거나, 제 1 컨텐츠에 연관된 데이터를 포함하는 컨텐츠이거나, 제 1 컨텐츠에 의해 실행 가능한 기능들 중 적어도 하나의 기능을 포함하는 컨텐츠일 수 있다. 또한, 프로세서(180)는 제 2 표시부(153)에 제 1 표시부(151)에 표시된 제 1 컨텐츠와 연관되지 않은, 미리 설정된 컨텐츠를 표시할 수 있다.
다른 실시예에 따르면, 프로세서(180)는 그립 영역에 기반하여, 제 2 표시부(153)를 위한 기능을 결정할 수 있다. 예를 들면, 회전 중 그립 영역이 기능 설정 영역에 대응하면, 프로세서(180)는 도 13의 (b)에 도시된 바와 같이 기능 설정 영역에 할당된 기능을 제 2 표시부(153)에 실행할 수 있다. 또는 회전 중 그립 영역이 기능 설정 영역에 대응하지 않으면, 프로세서(180)는 도 15 또는 도 16에 도시된 바와 같이 미리 설정된 기능을 제 2 표시부(153)에 실행할 수 있다.
또 다른 실시예에 따르면, 프로세서(180)는 제 2 표시부(153)에서 컨텐츠를 표시하기 위한 표시 영역을 결정할 수 있다. 이 때 제 2 표시부(153)에서 표시 영역의 위치는 미리 설정될 수 있다. 또는 프로세서(180)는 제 2 표시부(153)으로부터 그립 영역을 제외한 나머지 영역에서 표시 영역을 결정할 수 있다.
도 9는 도 7에서 제 2 표시부(153)에서 기능 실행 동작의 순서도를 도시한다.
도 9를 참조하면, 프로세서(180)는 911 동작에서 제 1 표시부(151)를 비활성화할 수 있다. 예를 들면, 도 12의 (a)에 도시된 바와 같이 제 1 표시부(151)에 제 1 통지 컨텐츠를 제 1 표시 화면으로 표시하는 중에 전자 장치(100)의 회전이 감지되면, 프로세서(180)는 제 1 표시부(151)를 비활성화할 수 있다. 그리고 프로세서(180)는 913 동작에서 제 2 표시부(153)를 활성화할 수 있다.
다음으로, 프로세서(180)는 915 동작에서 제 2 표시부(153)에 제 2 통지 컨텐츠를 표시할 수 있다. 이 때 제 2 통지 컨텐츠는 제 1 통지 컨텐츠의 통지 이벤트에 대응하여, 제 2 표시부(153)를 위한 제 2 표시 화면으로 표현될 수 있다. 제 1 통지 컨텐츠는 제 1 표시부(151)의 비활성화 이전에 제 1 표시부(151)에 표시된 컨텐츠일 수 있다. 또한, 제 2 통지 컨텐츠는, 제 1 통지 컨텐츠와 연관된 컨텐츠일 수 있다. 프로세서(180)는 도 12의 (b)에 도시된 바와 같이 제 2 표시부(153)에 제 2 통지 컨텐츠를 제 2 표시 화면으로 표시할 수 있다. 여기서, 제 2 표시 화면은 제 2 통지 컨텐츠를 제어하기 위한 적어도 하나의 제어 명령이 각각 할당된 적어도 하나의 제어 버튼을 포함할 수 있다. 예를 들면, 제어 버튼은 호 연결 요청을 수락하기 위한 수락 버튼 또는 호 연결 요청을 거절하기 위한 거절 버튼 중 적어도 어느 하나를 포함할 수 있다. 이 때 전자 장치(100)의 사용자가 전자 장치(100)에서 그립 영역을 변경하지 않고도, 제어 버튼을 선택할 수 있도록, 프로세서(180)가 제 2 표시 화면에서 제어 버튼의 위치를 결정할 수 있다.
한 실시예에 따르면, 제 1 표시부(151)의 표시 방향과 제 2 표시부(153)의 표시 방향이 상이할 수 있다. 예를 들면, 제 1 표시부(151)의 표시 방향과 제 2 표시부(153)의 표시 방향이 직교할 수 있다. 이를 위해, 프로세서(180)는 제 2 표시부(153)에서 컨텐츠를 표시하기 위한 표시 영역을 결정할 수 있다. 이 때 제 2 표시부(153)에서 표시 영역의 위치는 미리 설정될 수 있다. 또는 프로세서(180)는 제 2 표시부(153)으로부터 그립 영역을 제외한 나머지 영역에서 표시 영역을 결정할 수 있다.
다음으로, 제어 명령이 수신되면, 프로세서(180)는 917 동작에서 이를 감지할 수 있다. 그리고 프로세서(180)는 919 동작에서 제 2 표시부(153)에서 제 2 통지 컨텐츠를 제어할 수 있다. 즉 제 2 표시 화면에서 제어 버튼이 선택되면, 프로세서(180)는 제어 버튼에 할당된 제어 명령에 기반하여, 제 2 통지 컨텐츠를 제어할 수 있다. 예를 들면, 제 2 표시 화면에서 수락 버튼이 선택되면, 프로세서(180)는 호 연결 요청을 수락하고, 호 연결을 수행하기 위한 절차를 진행할 수 있다. 또는 제 2 표시 화면에서 거절 버튼이 선택되면, 프로세서(180)는 호 연결 요청을 거절하고, 호 연결을 차단하기 위한 절차를 진행할 수 있다. 이 후 도 7로 리턴할 수 있다.
도 10은 도 7에서 제 2 표시부(153)에서 기능 실행 동작의 순서도를 도시한다.
도 10을 참조하면, 프로세서(180)는, 1010 동작에서 기능 설정 영역이 선택되는 지의 여부를 판단할 수 있다. 즉 프로세서(180)는, 전자 장치(100)의 회전 시 그립 영역이 기능 설정 영역에 대응하는 지의 여부를 판단할 수 있다. 바꿔 말하면, 프로세서(180)는, 전자 장치(100)의 사용자가 기능 설정 영역에 접촉한 상태로, 전자 장치(100)를 회전시킨 것인 지의 여부를 판단할 수 있다.
다음으로, 1010 동작에서 기능 설정 영역이 선택된 것으로 판단되면, 프로세서(180)는, 1013 동작에서 제 1 표시부(151)가 활성화되어 있는 지의 여부를 판단할 수 있다. 이 때 1013 동작에서 제 1 표시부(151)가 활성화되어 있는 것으로 판단되면, 프로세서(180)는 1015 동작에서 제 1 표시부(151)를 비활성화할 수 있다. 한편, 1013 동작에서 제 1 표시부(151)가 비활성화되어 있는 것으로 판단되면, 프로세서(180)는 제 1 표시부(151)를 비활성화되어 있는 것으로 유지할 수 있다. 예를 들면, 도 13의 (a)에 도시된 바와 같이 제 1 표시부(151)가 비활성화되어 있는 중에 전자 장치(100)의 회전이 감지되면, 프로세서(180)는 제 1 표시부(151)를 비활성화되어 있는 것으로 유지할 수 있다. 그리고 프로세서(180)는 1017 동작에서 제 2 표시부(153)를 활성화할 수 있다.
다음으로, 프로세서(180)는 1019 동작에서 제 2 표시부(153)에 제 1 기능 컨텐츠를 표시할 수 있다. 이 때 제 1 기능 컨텐츠는 기능 설정 영역에 할당된 기능에 대응하는 컨텐츠로서, 제 2 표시부(153)를 위한 제 2 표시 화면으로 표현될 수 있다. 프로세서(180)는 도 13의 (b)에 도시된 바와 같이 제 2 표시부(153)에 제 1 기능 컨텐츠를 제 2 표시 화면으로 표시할 수 있다. 예를 들면, 기능 설정 영역에 영상 촬영 기능이 할당될 수 있다. 이를 통해, 프로세서(180)는 카메라부(130)를 활성화하고 카메라부(130)로부터 영상을 수신할 수 있다. 그리고 프로세서(180)는 제 2 표시부(153)에 영상, 예컨대 프리뷰 영상을 표시할 수 있다.
한 실시예에 따르면, 제 1 표시부(151)의 표시 방향과 제 2 표시부(153)의 표시 방향이 상이할 수 있다. 예를 들면, 제 1 표시부(151)의 표시 방향과 제 2 표시부(153)의 표시 방향이 직교할 수 있다. 이를 위해, 프로세서(180)는 제 2 표시부(153)에서 컨텐츠를 표시하기 위한 표시 영역을 결정할 수 있다. 이 때 제 2 표시부(153)에서 표시 영역의 위치는 미리 설정될 수 있다. 또는 프로세서(180)는 제 2 표시부(153) 으로부터 그립 영역을 제외한 나머지 영역에서 표시 영역을 결정할 수 있다.
다음으로, 제어 명령이 수신되면, 프로세서(180)는 1021 동작에서 이를 감지할 수 있다. 그리고 프로세서(180)는 1023 동작에서 제 2 표시부(153)에서 제 1 기능 컨텐츠를 제어할 수 있다. 예를 들면, 제 2 표시 화면이 선택되면, 프로세서(180)는 제 2 표시부(153)에 표시되는 영상을 캡쳐하여, 메모리(170)에 저장할 수 있다. 이 후 도 7로 리턴할 수 있다.
한편, 1010 동작에서 기능 설정 영역이 선택되지 않은 것으로 판단되면, 프로세서(180)는 1031 동작에서 제 1 표시부(151)가 활성화되어 있는 지의 여부를 판단할 수 있다. 이 때 1031 동작에서 제 1 표시부(151)가 활성화되어 있는 것으로 판단되면, 프로세서(180)는 1033 동작에서 제 1 표시부(151)를 비활성화할 수 있다. 한편, 1031 동작에서 제 1 표시부(151)가 비활성화되어 있는 것으로 판단되면, 프로세서(180)는 제 1 표시부(151)를 비활성화되어 있는 것으로 유지할 수 있다. 예를 들면, 도 13의 (a)에 도시된 바와 같이 제 1 표시부(151)가 비활성화되어 있는 중에 전자 장치(100)의 회전이 감지되면, 프로세서(180)는 제 1 표시부(151)를 비활성화되어 있는 것으로 유지할 수 있다. 그리고 프로세서(180)는 1035 동작에서 제 2 표시부(153)를 활성화할 수 있다.
다음으로, 프로세서(180)는 1037 동작에서 제 2 표시부(153)에 제 2 기능 컨텐츠를 표시할 수 있다. 이 때 제 2 기능 컨텐츠는 미리 설정된 적어도 하나의 기능에 대응하는 컨텐츠로서, 제 2 표시부(153)를 위한 제 2 표시 화면으로 표현될 수 있다. 프로세서(180)는 도 15의 (a)에 도시된 바와 같이 제 2 표시부(153)에 제 2 기능 컨텐츠를 제 2 표시 화면으로 표시할 수 있다. 예를 들면, 프로세서(180)는 다수개의 기능들에 각각 대응하는 상위 아이템들 중 어느 하나를 제 2 표시부(153)에 카드(card) 타입으로 표시할 수 있다.
한 실시예에 따르면, 제 1 표시부(151)의 표시 방향과 제 2 표시부(153)의 표시 방향이 상이할 수 있다. 예를 들면, 제 1 표시부(151)의 표시 방향과 제 2 표시부(153)의 표시 방향이 직교할 수 있다. 이를 위해, 프로세서(180)는 제 2 표시부(153)에서 컨텐츠를 표시하기 위한 표시 영역을 결정할 수 있다. 이 때 제 2 표시부(153)에서 표시 영역의 위치는 미리 설정될 수 있다. 또는 프로세서(180)는 제 2 표시부(153) 으로부터 그립 영역을 제외한 나머지 영역에서 표시 영역을 결정할 수 있다.
다음으로, 제어 명령이 수신되면, 프로세서(180)는 1039 동작에서 이를 감지할 수 있다. 그리고 프로세서(180)는 1041 동작에서 제 2 표시부(153)에서 제 2 기능 컨텐츠를 제어할 수 있다. 예를 들면, 프로세서(180)는 상위 아이템들을 스크롤하기 위한 사용자 입력을 제어 명령으로 검출할 수 있다. 여기서, 상위 아이템들을 스크롤하기 위한 사용자 입력은, 예컨대 드래그(drag), 스와이프(swipe) 또는 플릿(flit) 중 적어도 어느 하나를 포함하는 터치 제스쳐일 수 있다. 이에 응답하여, 프로세서(180)는 상위 아이템들을 스크롤할 수 있다. 이를 통해, 프로세서(180)는 도 15의 (b) 또는 (c)에 도시된 바와 같이 상위 아이템들 중 다른 하나를 제 2 표시부(153)에 카드 타입으로 표시할 수 있다. 한편, 프로세서(180)는 상위 아이템들 중 어느 하나의 하위 아이템들을 표시하기 위한 사용자 입력을 제어 명령으로 검출할 수 있다. 여기서, 하위 아이템들을 표시하기 위한 사용자 입력은, 예컨대 싱글 탭(single tap), 멀티 탭(multi tap) 또는 연속 탭 중 적어도 어느 하나를 포함하는 터치 제스쳐일 수 있다. 이에 응답하여, 프로세서(180)는 도 16의 (a)에 도시된 바와 같이 하위 아이템들 중 어느 하나를 제 2 표시부(153)에 카드 타입으로 표시할 수 있다. 이에 더하여, 프로세서(180)는 하위 아이템들을 스크롤하기 위한 사용자 입력을 제어 명령으로 검출할 수 있다. 여기서, 하위 아이템들을 스크롤하기 위한 사용자 입력은, 예컨대 드래그, 스와이프 또는 플릿 중 적어도 어느 하나를 포함하는 터치 제스쳐일 수 있다. 이에 응답하여, 프로세서(180)는 하위 아이템들을 스크롤할 수 있다. 이를 통해, 프로세서(180)는 도 16의 (b) 또는 (c)에 도시된 바와 같이 하위 아이템들 중 다른 하나를 제 2 표시부(153)에 카드 타입으로 표시할 수 있다. 이 후 도 7로 리턴할 수 있다.
도 11은 도 7에서 제 2 표시부(153)에서 기능 실행 동작의 순서도를 도시한다.
도 11을 참조하면, 프로세서(180)는, 1111 동작에서 제 1 표시부(151)가 활성화되어 있는 지의 여부를 판단할 수 있다. 이 때 1111 동작에서 제 1 표시부(151)가 활성화되어 있는 것으로 판단되면, 프로세서(180)는, 1113 동작에서 제 1 표시부(151)에 검색 데이터가 표시되고 있는 지의 여부를 판단할 수 있다. 그리고 1113 동작에서 제 1 표시부(151)에 검색 데이터가 표시되고 있는 것으로 판단되면, 프로세서(180)는 1115 동작에서 제 1 표시부(151)를 비활성화할 수 있다. 예를 들면, 도 14의 (a)에 도시된 바와 같이 사용자의 음성에 따른 검색 결과로서 검색 데이터를 표시하는 중에 전자 장치(100)의 회전이 감지되면, 프로세서(180)는 제 1 표시부(151)를 비활성화할 수 있다. 또한 프로세서(180)는 1117 동작에서 제 2 표시부(153)를 활성화할 수 있다.
다음으로, 프로세서(180)는 1119 동작에서 제 2 표시부(153)에 검색 데이터를 표시할 수 있다. 프로세서(180)는 도 14의 (b)에 도시된 바와 같이 제 2 표시부(153)에 검색 데이터를 제 2 표시 화면으로 표시할 수 있다. 예를 들면, 제 1 표시부(151)에 표시되었던 검색 데이터가 다수개의 검색 아이템들을 포함하는 경우, 프로세서(180)는 검색 아이템들 중 적어도 하나를 제 2 표시부(153)에 카드 타입으로 표시할 수 있다.
한 실시예에 따르면, 제 1 표시부(151)의 표시 방향과 제 2 표시부(153)의 표시 방향이 상이할 수 있다. 예를 들면, 제 1 표시부(151)의 표시 방향과 제 2 표시부(153)의 표시 방향이 직교할 수 있다. 이를 위해, 프로세서(180)는 제 2 표시부(153)에서 컨텐츠를 표시하기 위한 표시 영역을 결정할 수 있다. 이 때 제 2 표시부(153)에서 표시 영역의 위치는 미리 설정될 수 있다. 또는 프로세서(180)는 제 2 표시부(153) 으로부터 그립 영역을 제외한 나머지 영역에서 표시 영역을 결정할 수 있다.
다음으로, 제어 명령이 수신되면, 프로세서(180)는 1121 동작에서 이를 감지할 수 있다. 그리고 프로세서(180)는 1123 동작에서 제 2 표시부(153)에서 제 검색 데이터를 제어할 수 있다. 예를 들면, 프로세서(180)는 검색 아이템들을 스크롤하기 위한 사용자 입력을 제어 명령으로 검출할 수 있다. 여기서, 검색 아이템들을 스크롤하기 위한 사용자 입력은, 예컨대 드래그, 스와이프 또는 플릿 중 적어도 어느 하나를 포함하는 터치 제스쳐일 수 있다. 이에 응답하여, 프로세서(180)는 검색 아이템들을 스크롤할 수 있다. 이를 통해, 프로세서(180)는 제 1 표시부(151)에 표시되었던 검색 아이템들 중 다른 적어도 하나의 아이템을 제 2 표시부(153)에 카드 타입으로 표시할 수 있다. 한편, 프로세서(180)는 검색 아이템들 중 어느 하나의 상세 정보를 표시하기 위한 사용자 입력을 제어 명령으로 검출할 수 있다. 여기서, 상세 정보를 표시하기 위한 사용자 입력은, 예컨대 싱글 탭, 멀티 탭 또는 연속 탭 중 적어도 어느 하나를 포함하는 터치 제스쳐일 수 있다. 이에 응답하여, 프로세서(180)는 검색 아이템들 중 어느 하나의 상세 정보를 제 2 표시부(153)에 표시할 수 있다. 이 후 도 7로 리턴할 수 있다.
한편, 1111 동작에서 제 1 표시부(151)가 활성화되어 있는 것으로 판단되었으나, 1113 동작에서 제 1 표시부(151)에 검색 데이터가 표시되고 있지 않은 것으로 판단되면, 프로세서(180)는 1133 동작에서 제 1 표시부(151)를 비활성화할 수 있다. 한편, 1111 동작에서 제 1 표시부(151)가 비활성화되어 있는 것으로 판단되면, 프로세서(180)는 제 1 표시부(151)를 비활성화되어 있는 것으로 유지할 수 있다. 그리고 프로세서(180)는 1135 동작에서 제 2 표시부(153)를 활성화할 수 있다.
다음으로, 프로세서(180)는 1137 동작에서 제 2 표시부(153)에 제 2 기능 컨텐츠를 표시할 수 있다. 이 때 제 2 기능 컨텐츠는 미리 설정된 적어도 하나의 기능에 대응하는 컨텐츠로서, 제 2 표시부(153)를 위한 제 2 표시 화면으로 표현될 수 있다. 프로세서(180)는 도 15의 (a)에 도시된 바와 같이 제 2 표시부(153)에 제 2 기능 컨텐츠를 제 2 표시 화면으로 표시할 수 있다. 예를 들면, 프로세서(180)는 다수개의 기능들에 각각 대응하는 상위 아이템들 중 어느 하나를 제 2 표시부(153)에 카드 타입으로 표시할 수 있다.
한 실시예에 따르면, 제 1 표시부(151)의 표시 방향과 제 2 표시부(153)의 표시 방향이 상이할 수 있다. 예를 들면, 제 1 표시부(151)의 표시 방향과 제 2 표시부(153)의 표시 방향이 직교할 수 있다. 이를 위해, 프로세서(180)는 제 2 표시부(153)에서 컨텐츠를 표시하기 위한 표시 영역을 결정할 수 있다. 이 때 제 2 표시부(153)에서 표시 영역의 위치는 미리 설정될 수 있다. 또는 프로세서(180)는 제 2 표시부(153) 으로부터 그립 영역을 제외한 나머지 영역에서 표시 영역을 결정할 수 있다.
다음으로, 제어 명령이 수신되면, 프로세서(180)는 1139 동작에서 이를 감지할 수 있다. 그리고 프로세서(180)는 1141 동작에서 제 2 표시부(153)에서 제 2 기능 컨텐츠를 제어할 수 있다. 예를 들면, 프로세서(180)는 상위 아이템들을 스크롤하기 위한 사용자 입력을 제어 명령으로 검출할 수 있다. 여기서, 상위 아이템들을 스크롤하기 위한 사용자 입력은, 예컨대 드래그, 스와이프 또는 플릿 중 적어도 어느 하나를 포함하는 터치 제스쳐일 수 있다. 이에 응답하여, 프로세서(180)는 상위 아이템들을 스크롤할 수 있다. 이를 통해, 프로세서(180)는 도 15의 (b) 또는 (c)에 도시된 바와 같이 상위 아이템들 중 다른 하나를 제 2 표시부(153)에 카드 타입으로 표시할 수 있다. 한편, 프로세서(180)는 상위 아이템들 중 어느 하나의 하위 아이템들을 표시하기 위한 사용자 입력을 제어 명령으로 검출할 수 있다. 여기서, 하위 아이템들을 표시하기 위한 사용자 입력은, 예컨대 싱글 탭, 멀티 탭 또는 연속 탭 중 적어도 어느 하나를 포함하는 터치 제스쳐일 수 있다. 이에 응답하여, 프로세서(180)는 도 16의 (a)에 도시된 바와 같이 하위 아이템들 중 어느 하나를 제 2 표시부(153)에 카드 타입으로 표시할 수 있다. 이에 더하여, 프로세서(180)는 하위 아이템들을 스크롤하기 위한 사용자 입력을 제어 명령으로 검출할 수 있다. 여기서, 하위 아이템들을 스크롤하기 위한 사용자 입력은, 예컨대 드래그, 스와이프 또는 플릿 중 적어도 어느 하나를 포함하는 터치 제스쳐일 수 있다. 이에 응답하여, 프로세서(180)는 하위 아이템들을 스크롤할 수 있다. 이를 통해, 프로세서(180)는 도 16의 (b) 또는 (c)에 도시된 바와 같이 하위 아이템들 중 다른 하나를 제 2 표시부(153)에 카드 타입으로 표시할 수 있다. 이 후 도 7로 리턴할 수 있다.
다양한 실시예들에 따르면, 프로세서(180)는 717동작에서 전자 장치(100)의 움직임에 의해 전자 장치(100)가 회전되는지 여부를 감지할 수 있다. 즉, 제 2 표시부(153)가 활성화되어 제 2 표시부(153)에 특정 기능의 컨텐츠가 디스플레이된 상태에서, 사용자에 의해 전자 장치(100)가 회전될 수 있다. 예를 들어, 전자 장치(100)의 제 2 표시부(153)는 도 13의 (b)에 도시된 바와 같이, 호 연결을 제어하기 위한 컨텐츠가 디스플레이된 상태에서 사용자 입력에 의한 제어 명령이 수신된 이후, 전자 장치(100)가 회전되는지 여부를 감지할 수 있다.
프로세서(180)는 전자 장치(100)가 회전되는 것에 대한 응답으로, 719동작에서 제 2 표시부(153)의 실행 기능에 따라 제 1 표시부(151)의 컨텐츠 표시를 제어할 수 있다. 예컨대, 프로세서(180)는 제 1 표시부(151)에 제 2 표시부(153)에 표시된 컨텐츠와 연관된 컨텐츠를 표시할 수 있다. 예를 들어, 프로세서(180)는 제 2 표시부(153)에 표시된 컨텐츠에 대해 수신된 제어 명령에 대응되는 결과 화면 및/또는 제어 명령에 따른 동작 수행 화면을 제 1 표시부(151)에 표시할 수 있다. 여기서, 제어 명령은 전자 장치(100)의 회전이 감지되기 이전인 715동작 동안에 사용자 입력에 의해 수신될 수 있다. 구체적인 예로, 도 13의 (b)에 도시된 바와 같이, 제 2 표시부(153)가 호 연결 제어 화면을 표시하는 동안에 사용자 입력에 의해 호 연결을 요청하는 제어 명령이 수신되고, 전자 장치(100)가 회전되는 것이 감지되면, 프로세서(180)는 호 연결을 수행하고, 제 1 표시부(151)에 호가 연결됨을 나타내는 컨텐츠를 표시할 수 있다. 이때, 제 1 표시부(151)의 표시 방향은 제 2 표시부(153)의 표시 방향과 상이할 수 있다. 예를 들어, 제 1 표시부(151)의 표시 방향은 제 2 표시부(153)의 표시 방향에 직교할 수 있다. 또한, 프로세서(180)는 제 2 표시부(153)를 비활성화시킬 수 있다. 다양한 실시예들에 따른 전자 장치(100)의 동작 방법은, 상기 전자 장치(100)의 자세에 기반하여, 제 1 방향을 향하는 제 1 표시부(151)와 상기 제 1 표시부(151)의 배면에 배치되는 제 2 표시부(153)를 결정하는 동작, 상기 전자 장치(100)의 회전에 기반하여, 상기 제 1 표시부(151)의 방향이 상기 제 1 방향에서 제 2 방향으로 변경되는 것을 감지하는 동작 및 상기 제 1 표시부(151)의 방향이 상기 제 1 방향에서 제 2 방향으로 변경되는 것에 대한 응답으로, 상기 제 2 표시부(153)에 컨텐츠를 표시하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 제 1 표시부(151)의 컨텐츠 표시 타입과 상기 제 2 표시부(153)의 상기 컨텐츠 표시 타입이 상이할 수 있다.
다양한 실시예들에 따르면, 상기 제 2 표시부(153)에 컨텐츠를 표시하는 동작은, 상기 제 2 표시부(153)의 일부를 그립 영역으로 결정하는 동작 및 상기 제 2 표시부(153)에서 상기 그립 영역을 제외한 나머지 영역을 상기 컨텐츠를 표시하기 위한 표시 영역으로 결정하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 제 2 표시부(153)에 컨텐츠를 표시하는 동작은, 상기 제 1 표시부(151)에 표시된 제 1 컨텐츠를 식별하는 동작, 및 상기 제 1 표시부(151)에 표시된 제 1 컨텐츠와 연관된 제2 컨텐츠를 상기 제 2 표시부(153)에 표시하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 제 2 표시부(153)에 컨텐츠를 표시하는 동작은, 상기 전자 장치의 움직임 동안에 상기 제 1 표시부(151) 또는 제 2 표시부(153) 중 적어도 어느 하나의 가장자리에서 그립 영역을 검출하는 동작 및 상기 그립 영역의 위치에 기반하여, 상기 제 2 표시부(153)에 표시될 컨텐츠를 결정하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 제 2 표시부(153)에 표시될 컨텐츠를 결정하는 동작은, 상기 그립 영역이 상기 제 1 표시부(151) 또는 상기 제 2 표시부(153) 중 적어도 어느 하나의 미리 정해진 영역에 대응되는지 여부를 결정하는 동작, 및 상기 그립 영역이 상기 미리 정해진 영역에 대응되면, 상기 미리 정해진 영역에 할당된 기능에 대응하는 컨텐츠를 상기 제 2 표시부(153)에 표시될 컨텐츠로 결정하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 제 1 표시부(151)와 상기 제 2 표시부(153)를 결정하는 동작은, 통지 이벤트를 감지하는 동작, 상기 통지 이벤트에 기반하여, 상기 제 1 표시부(151)에 표시될 제 1 컨텐츠를 결정하는 동작, 및 상기 제 1 표시부(151)에 상기 제 1 컨텐츠를 표시하는 동작을 더 포함할 수 있다.
다양한 실시예들에 따르면, 상기 제 2 표시부(153)에 컨텐츠를 표시하는 동작은, 상기 제 2 표시부(153)에 미리 설정된 기능들의 상위 아이템들 중 어느 하나를 표시하는 동작, 상기 상위 아이템들을 스크롤하기 위한 사용자 입력을 검출하는 동작 및 상기 상위 아이템들을 스크롤하여, 상기 제 2 표시부(153)에 상기 상위 아이템들 중 다른 하나를 표시하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 제 2 표시부(153)에 컨텐츠를 표시하는 동작은, 상기 표시되는 상위 아이템의 하위 아이템들을 표시하기 위한 사용자 입력을 검출하는 동작, 상기 제 2 표시부(153)에 상기 하위 아이템들 중 어느 하나를 표시하는 동작, 상기 하위 아이템들을 스크롤하기 위한 사용자 입력을 검출하는 동작 및 상기 하위 아이템들을 스크롤하여, 상기 제 2 표시부(153)에 상기 하위 아이템들 중 다른 하나를 표시하는 동작을 더 포함할 수 있다.
다양한 실시예들에 따르면, 전자 장치(100)의 동작 방법은, 상기 제 2 표시부(153)에 표시된 컨텐츠에 대한 사용자 입력을 감지하는 동작, 상기 전자 장치의 움직임에 기반하여, 상기 제 1 표시부(151)의 방향이 상기 제 2 방향에서 상기 제 1 방향으로 변경되는 것을 감지하는 동작, 상기 제 1 표시부(151)의 방향이 상기 제 2 방향에서 상기 제 1 방향으로 변경되는 것에 대한 응답으로, 상기 제 2 표시부(153)에 표시된 컨텐츠에 대한 사용자 입력 결과를 나타내는 컨텐츠를 상기 제 1 표시부(151)에 표시하는 동작을 더 포함할 수 있다.
다양한 실시예들에 따르면, 전자 장치(100)의 사용자가 한 손으로 전자 장치(100)를 용이하게 조작할 수 있다. 즉 프로세서(180)는 제 1 표시부(151)의 활성화 여부와 관계없이, 전자 장치(100)의 회전에 기반하여 제 2 표시부(153)를 활성화할 수 있다. 이 때 전자 장치(100)의 사용자가 전자 장치(100)에서 그립 영역을 변경하지 않고도, 전자 장치(100)를 조작할 수 있도록, 프로세서(180)가 제 2 표시부(153)에 컨텐츠를 표시할 수 있다. 이를 위해, 프로세서(180)는 제 1 표시부(151)에 표시되는 컨텐츠 또는 그립 영역의 위치 중 적어도 어느 하나에 기반하여, 제 2 표시부(153)를 위한 컨텐츠를 결정할 수 있다. 이에 따라, 전자 장치(100)의 이용 효율성 및 사용자 편의성이 향상될 수 있다.
본 문서에서 사용된 용어 "모듈"은, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은, 예를 들면, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, "모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 명령어가 프로세서(예: 프로세서(120))에 의해 실행될 경우, 하나 이상의 프로세서가 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리(130)가 될 수 있다.
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(read only memory), RAM(random access memory), 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다. 그리고 본 문서에 개시된 실시예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 문서에서 기재된 기술의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 문서의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시예를 포함하는 것으로 해석되어야 한다.
그리고 본 문서에 개시된 실시예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 발명의 다양한 실시예의 범위를 한정하는 것은 아니다. 따라서, 본 발명의 다양한 실시예의 범위는, 본 발명의 다양한 실시예의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시예를 포함하는 것으로 해석되어야 한다.

Claims (20)

  1. 전자 장치의 동작 방법에 있어서,
    상기 전자 장치의 자세에 기반하여, 제 1 방향을 향하는 제 1 표시부와 상기 제 1 표시부의 배면에 배치되는 제 2 표시부를 결정하는 동작;
    상기 전자 장치의 움직임에 기반하여, 상기 제 1 표시부의 방향이 상기 제 1 방향에서 제 2 방향으로 변경되는 것을 감지하는 동작; 및
    상기 제 1 표시부의 방향이 상기 제 1 방향에서 제 2 방향으로 변경되는 것에 대한 응답으로, 상기 제 2 표시부에 컨텐츠를 표시하는 동작을 포함하는 방법
  2. 제 1 항에 있어서,
    상기 제 1 표시부의 컨텐츠 표시 타입과 상기 제 2 표시부의 컨텐츠 표시 타입이 상이한 방법.
  3. 제 1 항에 있어서, 상기 제 2 표시부에 컨텐츠를 표시하는 동작은,
    상기 제 2 표시부의 일부를 그립 영역으로 결정하는 동작; 및
    상기 제 2 표시부에서 상기 그립 영역을 제외한 나머지 영역을 상기 컨텐츠를 표시하기 위한 표시 영역으로 결정하는 동작을 포함하는 방법.
  4. 제 1 항에 있어서, 상기 제 2 표시부에 컨텐츠를 표시하는 동작은,
    상기 제 1 표시부에 표시된 제 1 컨텐츠를 식별하는 동작; 및
    상기 제 1 표시부에 표시된 제 1 컨텐츠와 연관된 제2 컨텐츠를 상기 제 2 표시부에 표시하는 동작을 포함하는 방법.
  5. 제 1 항에 있어서, 상기 제 2 표시부에 컨텐츠를 표시하는 동작은,
    상기 전자 장치의 움직임 동안에 상기 제 1 표시부 또는 제 2 표시부 중 적어도 어느 하나의 가장자리에서 그립 영역을 검출하는 동작; 및
    상기 그립 영역의 위치에 기반하여, 상기 제 2 표시부에 표시될 컨텐츠를 결정하는 동작을 포함하는 방법.
  6. 제 5 항에 있어서,
    상기 제 2 표시부에 표시될 컨텐츠를 결정하는 동작은,
    상기 그립 영역이 상기 제 1 표시부 또는 상기 제 2 표시부 중 적어도 어느 하나의 미리 정해진 영역에 대응되는지 여부를 결정하는 동작; 및
    상기 그립 영역이 상기 미리 정해진 영역에 대응되면, 상기 미리 정해진 영역에 할당된 기능에 대응하는 컨텐츠를 상기 제 2 표시부에 표시될 컨텐츠로 결정하는 동작을 포함하는 방법.
  7. 제 1 항에 있어서, 상기 제 1 표시부와 제 2 표시부를 결정하는 동작은,
    통지 이벤트를 감지하는 동작;
    상기 통지 이벤트에 기반하여, 상기 제 1 표시부에 표시될 제 1 컨텐츠를 결정하는 동작; 및
    상기 제 1 표시부에 상기 제 1 컨텐츠를 표시하는 동작을 더 포함하는 방법.
  8. 제 1 항에 있어서, 상기 제 2 표시부에 컨텐츠를 표시하는 동작은,
    상기 제 2 표시부에 미리 설정된 기능들의 상위 아이템들 중 어느 하나를 표시하는 동작;
    상기 상위 아이템들을 스크롤하기 위한 사용자 입력을 검출하는 동작; 및
    상기 상위 아이템들을 스크롤하여, 상기 제 2 표시부에 상기 상위 아이템들 중 다른 하나를 표시하는 동작을 포함하는 방법.
  9. 제 8 항에 있어서, 상기 제 2 표시부에 컨텐츠를 표시하는 동작은,
    상기 표시되는 상위 아이템의 하위 아이템들을 표시하기 위한 사용자 입력을 검출하는 동작;
    상기 제 2 표시부에 상기 하위 아이템들 중 어느 하나를 표시하는 동작;
    상기 하위 아이템들을 스크롤하기 위한 사용자 입력을 검출하는 동작; 및
    상기 하위 아이템들을 스크롤하여, 상기 제 2 표시부에 상기 하위 아이템들 중 다른 하나를 표시하는 동작을 더 포함하는 방법.
  10. 제 1 항에 있어서,
    상기 제 2 표시부에 표시된 컨텐츠에 대한 사용자 입력을 감지하는 동작;
    상기 전자 장치의 움직임에 기반하여, 상기 제 1 표시부의 방향이 상기 제2 방향에서 상기 제 1 방향으로 변경되는 것을 감지하는 동작; 및
    상기 제 1 표시부의 방향이 상기 제 2 방향에서 상기 제 1 방향으로 변경되는 것에 대한 응답으로, 상기 제 2 표시부에 표시된 컨텐츠에 대한 사용자 입력 결과를 나타내는 컨텐츠를 상기 제 1 표시부에 표시하는 동작을 더 포함하는 방법.
  11. 전자 장치에 있어서,
    다수개의 표시부들;
    상기 표시부들에 전기적으로 연결된 프로세서; 및
    상기 프로세서와 전기적으로 연결된 메모리를 포함하고,
    상기 메모리는, 실행 시에, 상기 프로세서가,
    상기 전자 장치의 자세에 기반하여, 제 1 방향을 향하는 제 1 표시부와 상기 제 1 표시부의 배면에 배치되는 제 2 표시부를 결정하고,
    상기 전자 장치의 움직임에 기반하여, 상기 제 1 표시부의 방향이 상기 제 1 방향에서 제 2 방향으로 변경되는 것을 감지하고,
    상기 제 1 표시부의 방향이 상기 제1 방향에서 제 2 방향으로 변경되는 것에 대한 응답으로, 상기 제 2 표시부에 컨텐츠를 표시하도록 하는 인스트럭션들을 저장하는 장치.
  12. 제 11 항에 있어서,
    상기 제 1 표시부의 컨텐츠 표시 타입과 상기 제 2 표시부의 컨텐츠 표시 타입이 상이한 장치.
  13. 제 11 항에 있어서, 상기 인스트럭션들은,
    상기 제 2 표시부의 일부를 그립 영역으로 결정하고,
    상기 제 2 표시부에서 상기 그립 영역을 제외한 나머지 영역을 상기 컨텐츠를 표시하기 위한 표시 영역으로 결정하도록 하는 장치.
  14. 제 11 항에 있어서, 상기 인스트럭션들은,
    상기 제 1 표시부에 표시된 제 1 컨텐츠를 식별하고,
    상기 제 1 표시부에 표시된 제 1 컨텐츠와 연관된 제2 컨텐츠를 상기 제 2 표시부에 표시하도록 하는 장치.
  15. 제 11 항에 있어서, 상기 인스트럭션들은,
    상기 전자 장치의 움직임 동안에 상기 제 1 표시부 또는 제 2 표시부 중 적어도 어느 하나의 가장자리에서 그립 영역을 검출하고,
    상기 그립 영역의 위치에 기반하여, 상기 제 2 표시부에 표시될 컨텐츠를 결정하도록 하는 장치.
  16. 제 15 항에 있어서, 상기 인스트럭션들은,
    상기 그립 영역이 상기 제 1 표시부 또는 상기 제 2 표시부 중 적어도 어느 하나의 미리 정해진 영역에 대응되는지 여부를 결정하고,
    상기 그립 영역이 상기 미리 정해진 영역에 대응되면, 상기 미리 정해진 영역에 할당된 기능에 대응하는 컨텐츠를 상기 제 2 표시부에 표시될 컨텐츠로 결정하도록 하는 장치.
  17. 제 11 항에 있어서, 상기 인스트럭션들은,
    통지 이벤트를 감지하고,
    상기 통지 이벤트에 기반하여, 상기 제 1 표시부에 표시될 제 1 컨텐츠를 결정하고,
    상기 제 1 표시부에 상기 제 1 컨텐츠를 표시하도록 하는 장치.
  18. 제 11 항에 있어서, 상기 인스트럭션들은,
    상기 제 2 표시부에 미리 설정된 기능들의 상위 아이템들 중 어느 하나를 표시하고,
    상기 상위 아이템들을 스크롤하기 위한 사용자 입력을 검출하고,
    상기 상위 아이템들을 스크롤하여, 상기 제 2 표시부에 상기 상위 아이템들 중 다른 하나를 표시하도록 하는 장치.
  19. 제 18 항에 있어서, 상기 인스트럭션들은,
    상기 표시되는 상위 아이템의 하위 아이템들을 표시하기 위한 사용자 입력을 검출하고,
    상기 제 2 표시부에 상기 하위 아이템들 중 어느 하나를 표시하고,
    상기 하위 아이템들을 스크롤하기 위한 사용자 입력을 검출하고,
    상기 하위 아이템들을 스크롤하여, 상기 제 2 표시부에 상기 하위 아이템들 중 다른 하나를 표시하도록 하는 장치.
  20. 제 11 항에 있어서, 상기 인스트럭션들은,
    상기 제 2 표시부에 표시된 컨텐츠에 대한 사용자 입력을 감지하고,
    상기 전자 장치의 움직임에 기반하여, 상기 제 1 표시부의 방향이 상기 제 2 방향에서 상기 제 1 방향으로 변경되는 것을 감지하고,
    상기 제 1 표시부의 방향이 상기 제 2 방향에서 상기 제 1 방향으로 변경되는 것에 대한 응답으로, 상기 제 2 표시부에 표시된 컨텐츠에 대한 사용자 입력 결과를 나타내는 컨텐츠를 상기 제 1 표시부에 표시하도록 하는 장치.
KR1020160082683A 2016-06-30 2016-06-30 전자 장치 및 그의 동작 방법 KR20180003175A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020160082683A KR20180003175A (ko) 2016-06-30 2016-06-30 전자 장치 및 그의 동작 방법
EP17820392.3A EP3477449B1 (en) 2016-06-30 2017-04-12 Electronic device and operating method therefor
US16/314,465 US20190155562A1 (en) 2016-06-30 2017-04-12 Electronic device and operating method therefor
PCT/KR2017/003826 WO2018004115A1 (ko) 2016-06-30 2017-04-12 전자 장치 및 그의 동작 방법
KR1020230160917A KR20230163328A (ko) 2016-06-30 2023-11-20 전자 장치 및 그의 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160082683A KR20180003175A (ko) 2016-06-30 2016-06-30 전자 장치 및 그의 동작 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230160917A Division KR20230163328A (ko) 2016-06-30 2023-11-20 전자 장치 및 그의 동작 방법

Publications (1)

Publication Number Publication Date
KR20180003175A true KR20180003175A (ko) 2018-01-09

Family

ID=60787036

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020160082683A KR20180003175A (ko) 2016-06-30 2016-06-30 전자 장치 및 그의 동작 방법
KR1020230160917A KR20230163328A (ko) 2016-06-30 2023-11-20 전자 장치 및 그의 동작 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230160917A KR20230163328A (ko) 2016-06-30 2023-11-20 전자 장치 및 그의 동작 방법

Country Status (4)

Country Link
US (1) US20190155562A1 (ko)
EP (1) EP3477449B1 (ko)
KR (2) KR20180003175A (ko)
WO (1) WO2018004115A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108777731A (zh) * 2018-05-17 2018-11-09 Oppo广东移动通信有限公司 按键配置方法、装置、移动终端及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019227281A1 (zh) * 2018-05-28 2019-12-05 华为技术有限公司 一种拍摄的方法及电子设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7469381B2 (en) * 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US20120081317A1 (en) * 2010-10-01 2012-04-05 Imerj LLC Method and system for performing copy-paste operations on a device via user gestures
US20110242138A1 (en) * 2010-03-31 2011-10-06 Tribble Guy L Device, Method, and Graphical User Interface with Concurrent Virtual Keyboards
KR20110125356A (ko) * 2010-05-13 2011-11-21 엘지전자 주식회사 이동 단말기
KR101614024B1 (ko) * 2010-12-29 2016-04-20 주식회사 케이티 이동 단말기 및 이동 단말기에서의 화면 표시 제어 방법
US9098069B2 (en) * 2011-11-16 2015-08-04 Google Technology Holdings LLC Display device, corresponding systems, and methods for orienting output on a display
KR102164453B1 (ko) * 2012-04-07 2020-10-13 삼성전자주식회사 투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체
KR102060155B1 (ko) * 2013-01-11 2019-12-27 삼성전자주식회사 양면 디스플레이를 사용하는 전자장치의 멀티태스킹 제어 방법 및 장치
KR102137240B1 (ko) * 2013-04-16 2020-07-23 삼성전자주식회사 디스플레이 영역을 조절하기 위한 방법 및 그 방법을 처리하는 전자 장치
US20150213784A1 (en) * 2014-01-24 2015-07-30 Amazon Technologies, Inc. Motion-based lenticular image display
KR102245363B1 (ko) * 2014-04-21 2021-04-28 엘지전자 주식회사 디스플레이 장치 및 제어 방법
KR20150128201A (ko) * 2014-05-09 2015-11-18 삼성전자주식회사 화면 운용 방법 및 전자 장치
KR20160061053A (ko) * 2014-11-21 2016-05-31 삼성전자주식회사 전자장치 및 전자장치의 화면 표시방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108777731A (zh) * 2018-05-17 2018-11-09 Oppo广东移动通信有限公司 按键配置方法、装置、移动终端及存储介质

Also Published As

Publication number Publication date
EP3477449B1 (en) 2020-08-12
WO2018004115A1 (ko) 2018-01-04
US20190155562A1 (en) 2019-05-23
KR20230163328A (ko) 2023-11-30
EP3477449A1 (en) 2019-05-01
EP3477449A4 (en) 2019-05-15

Similar Documents

Publication Publication Date Title
US10834814B2 (en) Foldable electronic device and control method thereof
KR102537922B1 (ko) 디스플레이 사이의 각도를 측정하는 방법 및 이를 사용하는 전자 장치
EP3086217B1 (en) Electronic device for displaying screen and control method thereof
KR102183212B1 (ko) 화면 제어 방법 및 그 방법을 처리하는 전자 장치
KR102564267B1 (ko) 전자 장치 및 그 동작 방법
KR102391772B1 (ko) 터치 감응 디스플레이를 포함하는 전자 장치 및 이 전자 장치를 동작하는 방법
KR102324083B1 (ko) 화면 확대 제공 방법 및 그 전자 장치
US9965178B2 (en) Method and electronic device that controls a touch screen based on both a coordinate of a gesture performed thereon and a tilt change value
CN109416616B (zh) 电子装置及其操作方法
US20150370317A1 (en) Electronic device and method for controlling display
US10572104B2 (en) Electronic device for executing a plurality of applications and method for controlling the electronic device
US20160092022A1 (en) Method for reducing ghost touch and electronic device thereof
US20170344111A1 (en) Eye gaze calibration method and electronic device therefor
KR102341107B1 (ko) 전자 장치, 전자 장치를 보호하는 보호 장치 및 그 보호 방법
US10579256B2 (en) Display operating method and electronic device supporting the same
US11036381B2 (en) Flexible device and operation method of flexible device
KR20170046407A (ko) 전자 장치 및 그의 동작 방법
KR20230163328A (ko) 전자 장치 및 그의 동작 방법
KR102416071B1 (ko) 전자장치 및 전자장치의 어플리케이션 실행 방법
KR20180051002A (ko) 터치 스크린을 이용하는 전자 장치에서 애플리케이션의 실행을 제어하는 방법과 이를 위한 전자 장치
KR20160057822A (ko) 디스플레이를 제어하기 위한 방법 및 그 전자 장치
KR20160061053A (ko) 전자장치 및 전자장치의 화면 표시방법
KR102618480B1 (ko) 전자 장치 및 그의 운용 제공 방법
KR102548687B1 (ko) 전자 장치에서 실행된 어플리케이션을 제어하는 웨어러블 전자 장치 및 방법
KR20160045428A (ko) 잠금 해제 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X601 Decision of rejection after re-examination
A107 Divisional application of patent