KR20190136264A - Method for selecting location to execution screen of application - Google Patents

Method for selecting location to execution screen of application Download PDF

Info

Publication number
KR20190136264A
KR20190136264A KR1020180061716A KR20180061716A KR20190136264A KR 20190136264 A KR20190136264 A KR 20190136264A KR 1020180061716 A KR1020180061716 A KR 1020180061716A KR 20180061716 A KR20180061716 A KR 20180061716A KR 20190136264 A KR20190136264 A KR 20190136264A
Authority
KR
South Korea
Prior art keywords
application
area
user
displaying
screen
Prior art date
Application number
KR1020180061716A
Other languages
Korean (ko)
Other versions
KR102496603B1 (en
Inventor
이종주
Original Assignee
삼성에스디에스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성에스디에스 주식회사 filed Critical 삼성에스디에스 주식회사
Priority to KR1020180061716A priority Critical patent/KR102496603B1/en
Publication of KR20190136264A publication Critical patent/KR20190136264A/en
Application granted granted Critical
Publication of KR102496603B1 publication Critical patent/KR102496603B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Provided is a method for selecting a position of an execution screen of an application. According to one embodiment of the present invention, the method capable of providing an optimized execution position of an application graphical user interface (GUI) may comprise the steps of: obtaining a position of an initial execution area of an application GUI; receiving situational information for correcting the position of the initial execution area and correcting a position of an area for displaying the application GUI based on the situational information; and displaying the application GUI on the position of the area according to a correction result regardless of an operation input of a user.

Description

어플리케이션 실행 화면의 위치 선정 방법{METHOD FOR SELECTING LOCATION TO EXECUTION SCREEN OF APPLICATION}How to select the location of the application execution screen {METHOD FOR SELECTING LOCATION TO EXECUTION SCREEN OF APPLICATION}

본 발명은 어플리케이션 실행 화면의 위치 선정 방법에 관한 것이다. 보다 자세하게는, 컴퓨팅 장치에 대한 사용자 행위를 분석하고, 이에 기반하여 어플리케이션의 실행 화면 위치 선정하는 방법에 관한 것이다.The present invention relates to a method for selecting a location of an application execution screen. More specifically, the present invention relates to a method for analyzing a user's behavior on a computing device and selecting an execution screen position of an application based on the same.

PC 기기나 스마트 기기와 같은 컴퓨팅 장치에 연결된 표시 장치에서는 다양한 어플리케이션의 실행 화면이 표시될 수 있고, 어플리케이션의 표시 위치는 상기 표시 장치의 화면에서 다양한 위치 상에 배치될 수 있다. 이 때, 어플리케이션이 처음 실행되어 표시되는 위치는, 사용자가 입력한 별도의 설정에 따르거나 어플리케이션이 종료된 위치에서 다시 실행되어 표시되는 것이 일반적이다.In a display device connected to a computing device such as a PC device or a smart device, an execution screen of various applications may be displayed, and a display position of the application may be disposed on various locations on the screen of the display device. At this time, the position where the application is first executed and displayed is generally displayed according to a separate setting input by a user or executed again at the position where the application is terminated.

그러나, 일반적으로 표시 장치에서는 한 개의 어플리케이션만이 실행되어 표시되는 것이 아니고, 어느 한 어플리케이션이 실행되고 있는 시점에서 다른 어플리케이션이 추가적으로 실행되어 화면에 디스플레이 될 수 있다. 이 때, 제한된 화면 영역에서 실행 예정인 어플리케이션의 작업창이 기 실행되고 있는 어플리케이션의 작업창에 중첩되어 표시되면, 사용자가 진행 중인 작업을 방해할 수 있다.However, in general, in the display device, only one application is not executed and displayed, and another application may be additionally executed and displayed on the screen at the time when one application is executed. At this time, if the task pane of the application scheduled to be executed in the limited screen area is displayed superimposed on the task pane of the previously executed application, the user may interfere with the work in progress.

아래에서 서술되는 발명은 상기에서 언급한 문제점을 해결하기 위하여 안출 된 것으로서, 사용자가 진행 중인 작업을 방해하지 않으면서도 화면 상의 최적의 위치에 어플리케이션 GUI(Graphical User Interface)를 표시하기 위한 다양한 수단들을 제공하고자 한다.The invention described below has been made to solve the above-mentioned problems, and provides various means for displaying an application graphical user interface (GUI) in an optimal position on the screen without disturbing the user's ongoing work. I would like to.

한국공개특허 제2013-0106147호Korean Patent Publication No. 2013-0106147

본 발명이 해결하고자 하는 기술적 과제는, 컴퓨팅 장치의 화면 상에서 최적화 된 어플리케이션 GUI 실행 위치를 제공할 수 있는 방법 및 장치를 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made in an effort to provide a method and apparatus capable of providing an optimized application GUI execution position on a screen of a computing device.

본 발명이 해결하고자 하는 다른 기술적 과제는, 사용자에게 최적화 된 어플리케이션 GUI 실행 위치를 제공하기 위하여, 사용자가 의도한 컴퓨팅 장치 상 화면 영역을 예측하는 방법 및 장치를 제공하는 것이다.Another technical problem to be solved by the present invention is to provide a method and apparatus for predicting a screen area on a computing device intended by a user in order to provide an optimized application GUI execution position to a user.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the above-mentioned technical problems, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 해결하기 위한, 본 발명의 일 실시예에 따른 어플리케이션 실행 화면의 위치 선정 방법은, 어플리케이션 GUI(Graphical User Interface)의 최초 실행 영역의 위치를 획득하는 단계, 상기 최초 실행 영역의 위치를 보정하기 위한 상황 정보를 수신하고, 상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계, 상기 보정 결과에 따른 영역 위치에 상기 어플리케이션 GUI를 사용자의 조작 입력과 무관하게 표시하는 단계를 포함할 수 있다.In order to solve the technical problem, the method of selecting an application execution screen according to an embodiment of the present invention, the step of obtaining the position of the first execution region of the application graphical user interface (GUI), the position of the first execution region Receiving situation information for correction, correcting a position of an area for displaying the application GUI based on the situation information, and displaying the application GUI at an area position according to the correction result irrespective of a user's operation input It may include the step.

일 실시예에서, 상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는, 상기 어플리케이션 GUI을 표시할 수 있는 화면 영역의 일부인 사용자의 시선 영역을 판단하는 단계, 상기 시선 영역에서의 어플리케이션의 활성화 및 상기 어플리케이션에 대한 사용자 입력 중 적어도 하나를 감지하는 단계, 상기 감지 결과에 따라, 상기 시선 영역을 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치로 결정하는 단계를 포함할 수 있다.In one embodiment, correcting the position of an area for displaying the application GUI based on the context information may include determining a gaze area of a user that is a part of a screen area capable of displaying the application GUI, wherein the gaze And sensing at least one of activation of an application in an area and a user input to the application, and determining the gaze area as a location of an area for displaying the application GUI according to the detection result. .

일 실시예에서, 상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는, 상기 화면 영역에서 실행 중인 적어도 하나의 어플리케이션 GUI의 실행 영역을 판단하는 단계, 상기 화면 영역 중, 상기 실행 영역을 제외한 비 실행 영역을 상기 어플리케이션 GUI를 표시하기 위한 위치로 결정하는 단계를 포함할 수 있다.In one embodiment, correcting a position of an area for displaying the application GUI based on the context information may include determining an execution area of at least one application GUI running in the screen area, wherein the screen area is selected from among the screen areas. And determining a non-execution area except the execution area as a location for displaying the application GUI.

일 실시예에서, 상기 실행 영역을 제외한 비 실행 영역을 상기 어플리케이션 GUI를 표시하기 위한 위치로 결정하는 단계는, 상기 화면 영역 중 일부 영역에 가상 입력 인터페이스의 실행을 위한 표시 영역이 감지된 경우, 상기 가상 입력 인터페이스의 실행을 위한 표시 영역을 제외한 영역을 상기 어플리케이션 GUI를 표시하기 위한 위치로 결정하는 단계를 포함할 수 있다The determining of the non-execution area other than the execution area as a location for displaying the application GUI may include: when a display area for executing a virtual input interface is detected in a part of the screen area, The method may include determining an area other than a display area for executing a virtual input interface as a location for displaying the application GUI.

일 실시예에서, 상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는, 사용자 입력 장치로부터 수신한 조작 정보에 기초하여, 상기 어플리케이션 GUI의 최초 실행 영역의 위치를 기준으로 변경된 위치를 판단하는 단계, 상기 변경된 위치를 상기 어플리케이션 GUI를 표시하기 위한 위치로 결정하는 단계를 포함할 수 있다.In one embodiment, correcting the position of the area for displaying the application GUI based on the situation information, based on the position of the first execution area of the application GUI based on the operation information received from the user input device. The method may include determining a changed position as a location, and determining the changed location as a location for displaying the application GUI.

일 실시예에서, 어플리케이션 GUI(Graphical User Interface)의 최초 실행 영역의 위치를 획득하는 단계는, 상기 화면 영역은 적어도 제1 화면 영역 및 제2 화면 영역으로 구분되되, 상기 제1 화면 영역 및 상기 제2 화면 영역 중 어느 하나인 최초 실행 위치를 획득하는 단계를 포함하고, 상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는, 사용자 입력 장치로부터 수신된 조작 정보에 따른 상기 어플리케이션 GUI의 최초 실행 위치로부터 변경된 위치를 확인하고, 상기 컴퓨팅 장치에 탑재된 이미지 디바이스로부터 수신된 사용자의 얼굴 정보에 기초하여 상기 사용자의 시선이 상기 변경된 위치에 일치하는지 여부를 판단한 결과에 따라 보정하는 단계를 포함하고, 상기 보정 결과에 따른 영역 위치에 상기 어플리케이션 GUI를 사용자의 조작 입력과 무관하게 표시하는 단계는, 상기 변경된 위치를 새로운 위치로 하여 상기 어플리케이션 GUI를 표시하는 단계를 포함할 수 있다.In an embodiment, the obtaining of the position of the first execution region of the application graphical user interface (GUI) may include: the screen region is divided into at least a first screen region and a second screen region, and the first screen region and the first screen region. Acquiring an initial execution position, which is one of two screen regions, and correcting the position of the region for displaying the application GUI based on the situation information comprises: acquiring an operation position received from a user input device; Confirm the changed position from the initial execution position of the application GUI, and correct according to a result of determining whether the gaze of the user matches the changed position based on face information of the user received from the image device mounted in the computing device. And the application at an area position according to the correction result. The method comprising the illustration GUI displayed regardless of the operation input of the user, may be subject to the changed position to a new position include the step of displaying the application GUI.

일 실시예에서, 상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는, 상기 화면 영역에 대하여 적어도 일부 영역에 포함되는 기 실행 중인 어플리케이션 표시 영역 중, 정보 입출력 영역이 제외된 영역을 판단한 결과에 따라 상기 어플리케이션의 실행을 표시하기 위한 위치로 결정하는 단계를 포함하고, 상기 보정 결과에 따른 영역 위치에 상기 어플리케이션 GUI를 사용자의 조작 입력과 무관하게 표시하는 단계는, 상기 정보 입출력 영역이 제외된 영역을 상기 새로운 위치로 하여 상기 어플리케이션 GUI를 표시하는 단계를 포함할 수 있다.In an embodiment, the correcting of the position of the region for displaying the application GUI based on the context information may include: an information input / output region of an application display region that is being executed included in at least a portion of the screen region. And determining a location for displaying the execution of the application according to a result of determining the excluded area, and displaying the application GUI regardless of a user's operation input at an area location according to the correction result. And displaying the application GUI using an area in which an information input / output area is excluded as the new location.

일 실시예에서, 상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는, 상기 화면 영역에서 상기 어플리케이션과 다른 기 실행 중인 어플리케이션의 속성에 따라 상기 어플리케이션의 실행을 표시하기 위한 영역에서 상기 화면 영역을 제한하는 단계를 포함하고, 상기 보정 결과에 따른 영역 위치에 상기 어플리케이션 GUI를 사용자의 조작 입력과 무관하게 표시하는 단계는, 상기 제한의 결과에 따라 상기 기 실행 중인 어플리케이션 GUI를 상기 어플리케이션 GUI 표시에 우선 순위를 부여하는 단계를 포함할 수 있다.In an embodiment, the correcting of the position of the region for displaying the application GUI based on the context information may include displaying execution of the application according to an attribute of an application which is different from the application in the screen region. And limiting the screen area in an area for the display, and displaying the application GUI at an area position according to the correction result irrespective of a user's operation input, according to the result of the restriction. The method may include assigning a priority to the application GUI display.

일 실시예에서, 상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는, 상기 컴퓨팅 장치에 탑재된 이미지 디바이스로부터 사용자가 센싱 되지 않은 경우, 상기 어플리케이션 GUI를 표시하지 않는 것으로 결정하는 단계를 포함하고, 상기 보정 결과에 따른 영역 위치에 상기 어플리케이션 GUI를 사용자의 조작 입력과 무관하게 표시하는 단계는, 상기 결정에 따라 상기 화면 영역에서 상기 어플리케이션의 실행을 위한 표시를 제한하는 단계를 포함할 수 있다.In one embodiment, correcting the position of the area for displaying the application GUI based on the context information may not display the application GUI when the user is not sensed from an image device mounted in the computing device. And determining that the application GUI is irrelevant to a user's operation input at an area position according to the correction result, wherein the display is limited to display for execution of the application in the screen area according to the determination. It may include a step.

상기 기술적 과제를 해결하기 위한, 본 발명의 일 실시예에 따른 어플리케이션 실행 화면의 위치 선정 학습 방법은 표시 장치의 화면 영역 중 일부이고, 사용자의 시선 방향과 일치하는 영역인 제1 표시 영역을 확인하는 단계, 상기 제1 표시 영역 내에 적어도 하나의 어플리케이션의 실행 여부를 판단하는 단계, 상기 판단 결과에 따라 상기 제1 표시 영역에 상기 적어도 하나의 어플리케이션이 실행 중인 것으로 판단된 경우, 상기 제1 표시 영역을 상기 사용자의 관심 영역으로 결정하는 단계를 포함할 수 있다.In order to solve the above technical problem, the positioning learning method of the application execution screen according to an embodiment of the present invention is to identify a first display area which is a part of the screen area of the display device and which matches the direction of the user's gaze. Determining whether to execute at least one application in the first display area; and when it is determined that the at least one application is running in the first display area according to the determination result, the first display area is determined. And determining the region of interest of the user.

일 실시예에서, 상기 제1 표시 영역을 상기 사용자의 관심 영역으로 결정하는 단계는, 상기 적어도 하나의 어플리케이션에 대한 사용자 조작 입력이 감지된 경우 상기 제1 표시 영역을 사용자의 관심 영역으로 결정하는 단계를 포함할 수 있다.The determining of the first display area as the ROI of the user may include determining the first display area as the ROI of the user when a user manipulation input to the at least one application is detected. It may include.

상기 기술적 과제를 해결하기 위한, 본 발명의 다른 실시예에 따른 어플리케이션 실행 화면의 위치 선정 학습 방법은 표시 장치의 화면 영역 중 일부이고, 사용자의 시선 방향과 일치하지 않는 영역인 제2 표시 영역을 확인하는 단계, 상기 제2 표시 영역에서 적어도 하나의 어플리케이션의 실행 여부를 판단하는 단계, 상기 판단 결과에 따라 상기 제2 표시 영역에서 상기 적어도 하나의 어플리케이션이 실행 중인 것으로 판단된 경우, 상기 제2 표시 영역을 상기 사용자의 관심 영역으로 결정하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a positioning learning method of an application execution screen, wherein the second display area is a part of a screen area of a display device and is an area that does not coincide with a user's gaze direction. Determining whether the at least one application is running in the second display area; and when it is determined that the at least one application is running in the second display area according to the determination result, the second display area Determining the area of interest of the user may include.

일 실시예에서, 상기 제2 표시 영역을 상기 사용자의 관심 영역으로 결정하는 단계는, 사용자 입력 장치로부터 수신한 조작 정보에 기초하여 상기 제2 표시 영역을 사용자의 관심 영역으로 결정하는 단계를 포함하되, 상기 조작 정보는 상기 화면 영역 내의 이동 방향을 가리키는 것일 수 있다.In an embodiment, the determining of the second display area as the ROI of the user may include determining the second display area as the ROI of the user based on operation information received from a user input device. The manipulation information may indicate a moving direction in the screen area.

상기 기술적 과제를 해결하기 위한, 본 발명의 다른 실시예에 따른 어플리케이션 실행 화면의 위치 선정 방법은 적어도 하나의 제1 어플리케이션의 실행을 표시하기 위한 제1 표시 영역 및 적어도 하나의 제2 어플리케이션의 실행을 표시하기 위한 제2 표시 영역 중 사용자의 주시 대상이 되는 어느 하나의 표시 영역을 감지하는 단계, 상기 감지 결과에 따라 상기 어느 하나의 표시 영역이 제1 표시 영역인 것으로 판단된 경우, 상기 제2 어플리케이션을 상기 제1 표시 영역에 표시하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for selecting an application execution screen according to another embodiment of the present invention to execute execution of at least one second application and a first display area for displaying execution of at least one first application. Detecting any one display area of the second display area to be displayed, the second application area being determined as the first display area according to the detection result; May be displayed on the first display area.

일 실시예에서, 상기 제2 어플리케이션을 상기 제1 표시 영역에 표시하는 단계는, 상기 제1 표시 영역에 상기 제1 어플리케이션이 실행 중인 것을 판단한 결과에 따라 상기 제1 표시 영역에 상기 제2 어플리케이션을 표시하는 단계를 포함할 수 있다.The displaying of the second application on the first display area may include displaying the second application on the first display area according to a result of determining that the first application is running on the first display area. It may include the step of displaying.

일 실시예에서, 상기 제2 어플리케이션을 상기 제1 표시 영역에 표시하는 단계는, 상기 제1 표시 영역에 상기 제1 어플리케이션이 실행 중인 것을 판단한 결과에 따라 상기 제1 표시 영역에 새로운 어플리케이션의 표시를 제한하는 단계를 포함할 수 있다.The displaying of the second application on the first display area may include displaying a new application on the first display area according to a result of determining that the first application is running on the first display area. It may comprise the step of limiting.

일 실시예에서, 사용자의 주시 대상이 되는 어느 하나의 표시 영역을 감지하는 단계는, 상기 폴더블 전자 장치가 폴딩 상태인 경우, 상기 제1 표시 영역 및 상기 제2 표시 영역 중 상기 사용자와 마주한 표시 영역을 감지하되, 상기 마주한 표시 영역은 제1 표시 영역인, 단계를 포함할 수 있다.In an embodiment, the detecting of any one display area that is a gaze of a user may include: displaying the user facing the user among the first display area and the second display area when the foldable electronic device is in a folding state. Detecting an area, wherein the facing display area is a first display area.

일 실시예에서, 상기 제2 어플리케이션을 상기 제1 표시 영역에 표시하는 단계는, 상기 제2 어플리케이션의 표시 위치를 상기 제2 표시 영역으로 이동하되, 상기 제2 표시 영역은 상기 사용자의 시야에서 벗어난 것인, 단계를 포함할 수 있다.The displaying of the second application on the first display area may include moving a display position of the second application to the second display area, wherein the second display area is out of view of the user. Which may include a step.

상술한 기술적 과제를 해결하기 위한 본 발명의 또 다른 실시예에 따른 컴퓨터 프로그램은, 어플리케이션 GUI(Graphical User Interface)의 최초 실행 영역의 위치를 획득하는 단계, 상기 최초 실행 영역의 위치를 보정하기 위한 상황 정보를 수신하고, 상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계, 상기 보정 결과에 따른 영역 위치에 상기 어플리케이션 GUI를 사용자의 조작 입력과 무관하게 표시하는 단계를 실행시키도록 기록 매체에 저장되어 구현될 수 있다.According to another aspect of the present invention, there is provided a computer program including: acquiring a position of an initial execution region of an application graphical user interface (GUI), and a situation for correcting the position of the first execution region; Receiving information, correcting a position of an area for displaying the application GUI based on the situation information, and displaying the application GUI at an area position according to the correction result irrespective of a user's operation input; It can be stored and implemented in a recording medium to make it.

도 1은 본 발명의 몇몇 실시예에 따른 어플리케이션 실행 화면의 위치 선정 방법이 수행되는 장치의 블록도이다.
도 2는 본 발명의 몇몇 실시예에서 참조되는 학습 데이터를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 어플리케이션 실행 화면의 위치 선정 방법의 순서도이다.
도 4 내지 도 5는 도 3의 S300 단계의 세부 과정을 설명하기 위한 상세 순서도이다.
도 6은 본 발명의 일 실시예에 따라 어플리케이션의 실행이 표시되는 위치를 선정하는 예시를 설명하기 위한 도면이다.
도 7은 본 발명의 다른 실시예에 따라 어플리케이션의 실행이 표시되는 위치를 선정하는 예시를 설명하기 위한 도면이다.
도 8은 본 발명의 또 다른 실시예에 따라 어플리케이션의 실행이 표시되는 위치를 선정하는 예시를 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따라 다중 화면에서 어플리케이션의 실행이 표시되는 위치를 선정하는 예시를 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따라 모바일 화면에서 어플리케이션의 실행이 표시되는 위치를 선정하는 예시를 설명하기 위한 도면이다.
도 11은 본 발명의 다른 실시예에 따라 폴더블 화면에서 어플리케이션의 실행이 표시되는 위치를 선정하는 예시를 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시예에 따른 어플리케이션 실행 화면의 위치 선정 학습 방법의 순서도이다.
도 13은 상기 도 13에 따른 어플리케이션 실행 화면의 위치 선정 학습 방법의 설명을 돕기 위한 도면이다.
도 14는 본 발명의 다른 실시예에 따른 어플리케이션 실행 화면의 위치 선정 학습 방법의 순서도이다.
도 15는 상기 도 15에 따른 어플리케이션 실행 화면의 위치 선정 학습 방법의 설명을 돕기 위한 도면이다.
1 is a block diagram of an apparatus in which a method for positioning an application execution screen is performed according to some embodiments of the present invention.
FIG. 2 is a diagram for describing learning data referred to in some embodiments of the present invention.
3 is a flowchart illustrating a method for selecting a location of an application execution screen according to an embodiment of the present invention.
4 to 5 are detailed flowcharts for describing a detailed process of step S300 of FIG. 3.
6 is a diagram for explaining an example of selecting a position at which execution of an application is displayed according to an embodiment of the present invention.
FIG. 7 illustrates an example of selecting a location at which execution of an application is displayed according to another exemplary embodiment of the present invention.
8 is a diagram for describing an example of selecting a position at which execution of an application is displayed according to another exemplary embodiment of the present invention.
9 is a diagram for describing an example of selecting a position at which execution of an application is displayed on a multi-screen according to an embodiment of the present invention.
FIG. 10 is a diagram for describing an example of selecting a position at which execution of an application is displayed on a mobile screen according to an embodiment of the present invention.
FIG. 11 is a diagram for describing an example of selecting a location at which execution of an application is displayed on a foldable screen according to another embodiment of the present invention.
12 is a flowchart illustrating a positioning learning method of an application execution screen according to an embodiment of the present invention.
FIG. 13 is a diagram to help explain a method of learning location selection of an application execution screen according to FIG. 13.
14 is a flowchart illustrating a positioning learning method of an application execution screen according to another exemplary embodiment of the present invention.
FIG. 15 is a diagram to help explain a method of learning location selection of an application execution screen according to FIG. 15.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various different forms, and only the embodiments make the disclosure of the present invention complete, and the general knowledge in the art to which the present invention belongs. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims. Like reference numerals refer to like elements throughout.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms used in the present specification (including technical and scientific terms) may be used as meanings that can be commonly understood by those skilled in the art. In addition, terms that are defined in a commonly used dictionary are not ideally or excessively interpreted unless they are specifically defined clearly. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase.

명세서에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.As used herein, “comprises” and / or “comprising” refers to a component, step, operation and / or element that is mentioned in the presence of one or more other components, steps, operations and / or elements. Or does not exclude additions.

이하, 본 발명의 몇몇 실시예들에 대하여 첨부된 도면에 따라 상세하게 설명한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 몇몇 실시예에 따른 어플리케이션 실행 화면의 위치 선정 방법이 수행되는 장치의 블록도이다. 이하, 설명의 편의를 위해 어플리케이션 실행 화면의 위치 선정 방법이 수행되는 장치는 기능 실행 장치로 약칭한다.1 is a block diagram of an apparatus in which a method for positioning an application execution screen is performed according to some embodiments of the present invention. Hereinafter, for convenience of description, an apparatus in which a method of selecting an application execution screen is performed is referred to as a function execution apparatus.

도 1에 도시된 기능 실행 장치(100)는, 터치 기반의 모바일 컴퓨팅 장치일 수 있다. 예를 들어, 몇몇 실시예에 따른 기능 실행 장치(100)에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다.The function execution device 100 illustrated in FIG. 1 may be a touch-based mobile computing device. For example, the function execution device 100 according to some embodiments includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant, a portable multimedia player (PMP), Navigation, slate PC, tablet PC, ultrabook, wearable device (e.g., smart watch, smart glass, HMD (head) mounted display)).

그러나, 몇몇 실시 예에 따른 구성은 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 통상의 기술자라면 쉽게 알 수 있을 것이다.However, it will be apparent to those skilled in the art that the configuration according to some embodiments may be applied to fixed terminals such as digital TVs, desktop computers, digital signages, and the like.

도 1을 참조하면, 기능 실행 장치(100)는, 통신부(110), 입력부(120), 출력부(130), 저장부(140) 및 제어부(150)를 포함할 수 있다. 도 1에 도시된 구성요소들은 기능 실행 장치(100)를 구현하는데 있어서 필수적인 것은 아니어서, 몇몇 실시예에서 설명되는 기능 실행 장치(100)는 위에서 열거된 구성요소들보다 많거나 또는 적은 구성요소들을 가질 수 있다. 단, 기능 실행 장치(100)는 사용자의 상황 정보를 입력하기 위한 다양한 입력 수단이 포함될 수 있다. 상기 상황 정보에 대하여는 도 2를 참조하여 자세히 서술하도록 한다.Referring to FIG. 1, the function execution device 100 may include a communication unit 110, an input unit 120, an output unit 130, a storage unit 140, and a controller 150. The components shown in FIG. 1 are not essential to implementing the function execution apparatus 100, so that the function execution apparatus 100 described in some embodiments may have more or fewer components than those listed above. Can have However, the function execution device 100 may include various input means for inputting user's context information. The situation information will be described in detail with reference to FIG. 2.

통신부(110)는 외부 장치와 통신하기 위한 이동통신 모듈, 무선 통신 모듈을 구비할 수 있다. 통신부(110)는 음성 신호, 화상 통화 신호, 문자/멀티미디어 메시지, E-메일, 멀티미디어 컨텐츠 등의 데이터를 수신할 수 있다.The communication unit 110 may include a mobile communication module and a wireless communication module for communicating with an external device. The communication unit 110 may receive data such as a voice signal, a video call signal, a text / multimedia message, an E-mail, and multimedia content.

통신부(110)에 구비된 이동통신 모듈은 이동통신을 위한 기술 표준들 또는 통신 방식 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다.The mobile communication module provided in the communication unit 110 may include technical standards for mobile communication or technical standards or communication methods (for example, Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (EV-DO), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), A wireless signal is transmitted and received with at least one of a base station, an external terminal, and a server on a mobile communication network constructed according to Long Term Evolution (LTE) and Long Term Evolution-Advanced (LTE-A).

통신부(110)에 구비된 무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이에 사용되는 무선 인터넷 기술로는 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있다.The wireless Internet module provided in the communication unit 110 refers to a module for wireless Internet access. The wireless Internet technologies used in the communication unit 110 include WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), and Wi-Fi (Wireless Fidelity). ) Direct, Digital Living Network Alliance (DLNA), Wireless Broadband (WiBro), World Interoperability for Microwave Access (WiMAX), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE) And Long Term Evolution-Advanced (LTE-A).

입력부(120)는, 영상 신호 입력을 위한 카메라 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone), 또는 오디오 입력부, 사용자로부터 정보를 입력 받기 위한 사용자 입력부(예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다. 특히, 입력부(120)는 기능 실행 장치(100)의 사용자의 상태 또는 행동을 학습하기 위하여 다양한 센싱 장치를 통하여 상황 정보에 관한 다양한 데이터를 생성할 수 있도록 한다. 예로 들면, 노트북이나 스마트 기기에 구비된 이미지 센싱 장치를 가리킬 수 있다. 노트북이나 스마트 기기에 구비된 이미지 센싱 장치를 통하여 상황 정보의 하나로 볼 수 있는 사용자의 안면 이미지 및 홍채 이미지 등에 관한 데이터를 생성할 수 있다. 또한, 사용자가 기능 실행 장치(100)를 조작하기 위한 다양한 기기를 가리킬 수 있다. 마우스 또는 키보드 등이 몇몇 예가 될 수 있다. 사용자가 기능 실행 장치(100)를 조작하기 위한 다양한 수단 등을 통하여 사용자의 행동 정보에 관한 데이터를 획득할 수 있다. 이외에도, 스마트 기기 등에 구비된 다양한 센서 등을 가리킬 수 있다. 예로 들면, 스마트 기기 자체에 내장된 중력센서, 자이로 센서, 조도 센서, 근접 센서 등이다. 본 명세서에서는 입력부(120)에 관하여 모든 수단을 기재하지 않았지만, 사용자의 행동 분석을 위한 상황 정보를 획득할 수 있는 모든 수단을 의미할 수 있음에 유의한다.The input unit 120 may include a camera or an image input unit for inputting an image signal, a microphone for inputting an audio signal, or an audio input unit, and a user input unit for receiving information from a user (for example, a touch key). , Mechanical keys, etc.). The voice data or the image data collected by the input unit 120 may be analyzed and processed as a control command of the user. In particular, the input unit 120 may generate various data regarding the situation information through various sensing devices in order to learn the state or behavior of the user of the function execution device 100. For example, it may refer to an image sensing device provided in a notebook or a smart device. Through an image sensing device provided in a notebook or a smart device, data about a face image and an iris image of a user, which can be viewed as one of the situation information, may be generated. In addition, the user may point to various devices for operating the function execution device 100. Some examples are mice or keyboards. The user may acquire data regarding behavior information of the user through various means for operating the function execution device 100. In addition, the present invention may refer to various sensors provided in a smart device or the like. Examples include gravity sensors, gyro sensors, illuminance sensors, and proximity sensors built into smart devices themselves. In the present specification, all the means are not described with respect to the input unit 120, but it may mean that all means for acquiring the situation information for analyzing the behavior of the user may be used.

출력부(130)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(135)를 포함할 수 있다. 다만 이에 한정되는 것은 아니고, 음향 출력부, 햅틱 모듈, 광 출력부 중 적어도 하나를 포함할 수 있다.The output unit 130 is to generate an output related to visual, auditory, or tactile, and may include a display unit 135. However, the present invention is not limited thereto, and may include at least one of a sound output unit, a haptic module, and a light output unit.

디스플레이부(135)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치스크린을 구현할 수 있다. 이러한 터치스크린은, 기능 실행 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 입력부(120)로써 기능함과 동시에, 기능 실행 장치(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The display unit 135 forms a layer structure with or is integrally formed with the touch sensor, thereby implementing a touch screen. The touch screen may function as an input unit 120 providing an input interface between the function execution device 100 and the user, and at the same time, may provide an output interface between the function execution device 100 and the user.

디스플레이부(135)는 터치 센서를 구비할 수 있다. 터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러 가지 터치방식 중 적어도 하나를 이용하여 터치스크린(또는 디스플레이부(135))에 가해지는 터치(또는 터치 입력)을 감지한다.The display unit 135 may include a touch sensor. The touch sensor applies a touch (or touch input) applied to the touch screen (or the display unit 135) using at least one of various touch methods such as a resistive film method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method. Detect.

이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내 진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(150)로 전송한다. 이로써, 제어부(150)는 디스플레이부(135)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어부(150)와 별도의 구성요소일 수 있고, 제어부(150) 자체일 수 있다.As such, when there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and then transmits the corresponding data to the controller 150. As a result, the controller 150 may determine which area of the display unit 135 is touched. Here, the touch controller may be a separate component from the controller 150 or may be the controller 150 itself.

한편, 제어부(150)는, 디스플레이부(135)를 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할지는, 현재 기능 실행 장치(100)의 동작상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다.Meanwhile, the controller 150 may perform different control or may perform the same control according to the type of the touch object that touches the display 135. Whether to perform different control or the same control according to the type of touch object may be determined according to the operation state of the current function execution device 100 or an application program being executed.

디스플레이부(135)가 상기 터치 스크린으로 구현되는 경우, 상기 터치 스크린은 사용자의 손가락을 통해 입력되는 터치 입력과 더불어, 터치 펜 또는 스타일러스 펜(Stylus pen), 포인터 등을 이용한 터치 입력을 감지할 수도 있다. 또한, 터치 스크린은 터치 스크린의 표면과 접촉한 채로 입력되는 터치 입력과 더불어, 상기 터치 스크린과 소정의 거리의 근접 터치 제스처 또한 감지할 수 있다. 이를 위해, 터치 스크린은 근접 센서를 추가로 구비할 수도 있다.When the display unit 135 is implemented as the touch screen, the touch screen may detect a touch input using a touch pen, a stylus pen, a pointer, etc., in addition to a touch input input through a user's finger. have. In addition, the touch screen may also detect a proximity touch gesture of a predetermined distance from the touch screen, in addition to the touch input input while being in contact with the surface of the touch screen. To this end, the touch screen may further include a proximity sensor.

저장부(140)는 기능 실행 장치(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 저장부(140)는 기능 실행 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 어플리케이션(application)), 기능 실행 장치(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는 무선 통신을 통해 외부 서버로부터 다운로드될 수 있다. 또한, 이러한 응용 프로그램 중 적어도 일부는, 기능 실행 장치(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능 등)을 위하여 출고 당시부터 기능 실행 장치(100) 상에 존재할 수 있다. 한편, 응용 프로그램은 저장부(140)에 저장되고, 기능 실행 장치(100) 상에 설치되어 제어부(150)에 의하여 기능 실행 장치의 동작(또는 기능)을 수행하도록 구동될 수 있다.The storage unit 140 may store data supporting various functions of the function execution device 100. The storage 140 may store a plurality of application programs or applications that are driven by the function execution apparatus 100, data for operating the function execution apparatus 100, and instructions. At least some of these applications may be downloaded from an external server via wireless communication. In addition, at least some of these applications may be installed on the function execution device 100 from the time of shipment for the basic functions of the function execution device 100 (for example, a call forwarding, an outgoing function, a message reception, a callout function, and the like). May exist. Meanwhile, the application program may be stored in the storage 140 and installed on the function execution device 100 to be driven by the controller 150 to perform an operation (or function) of the function execution device.

저장부(140)는 외부 장치로부터 전달되거나, 사용자에 의해 입력된 데이터, 또는 제어부(150)의 연산 결과를 임시적으로 또는 비임시적으로 저장할 수 있다. 저장부(140)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다. 한편, 도1 에서 저장부(140)는 별도의 구성으로 도시되었으나, 후술할 제어부(150)와 통합되어 기능 실행 장치에 구비될 수도 있다.The storage 140 may temporarily or non-temporarily store data transmitted from an external device, input by a user, or an operation result of the controller 150. The storage unit 140 may include a nonvolatile memory such as a read only memory (ROM), an erasable programmable ROM (EPROM), an electrically erasable programmable ROM (EEPROM), a flash memory, a hard disk, a removable disk, or the like. And any well-known computer readable recording medium. Meanwhile, although the storage 140 is illustrated in a separate configuration in FIG. 1, the storage 140 may be integrated with the controller 150 to be described later and provided in the function execution device.

제어부(150)는 각 구성의 전반적인 동작을 제어한다. 제어부(150)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 제어부(150)는 몇몇 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 어플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다.The controller 150 controls the overall operation of each component. The controller 150 may include a central processing unit (CPU), a micro processor unit (MPU), a micro controller unit (MCU), or any type of processor well known in the art. In addition, the controller 150 may perform an operation on at least one application or program for executing a method according to some embodiments.

한편, 도 1에 대한 설명에서 기능 실행 장치(100)의 구성으로 통신부(110), 입력부(120), 출력부(130), 저장부(140) 및 제어부(150)가 설명되었으나, 본 발명의 실시예에 따르면, 기능 실행 장치(100)는 입력부(120), 디스플레이부(135) 및 제어부 (150)만을 포함하여 구성될 수도 있다.Meanwhile, in the description of FIG. 1, the communication unit 110, the input unit 120, the output unit 130, the storage unit 140, and the controller 150 have been described as the configuration of the function execution device 100. According to an exemplary embodiment, the function execution device 100 may include only the input unit 120, the display unit 135, and the controller 150.

도 2는 본 발명의 몇몇 실시예에서 참조되는 상황 정보를 설명하기 위한 도면이다.2 is a view for explaining context information referred to in some embodiments of the present invention.

도 2에 도시된 바와 같이, 기능 실행 장치(100)는 노트북에 구비된 카메라(101), 다기능 센서 (103), 스마트 기기에 구비된 카메라(105), 마우스(107) 및 키보드(109)를 통하여 상황 정보를 생성할 수 있다.As shown in FIG. 2, the function execution device 100 may include a camera 101, a multifunction sensor 103, a camera 105, a mouse 107, and a keyboard 109 provided in a laptop. Through this, situation information can be generated.

노트북 및 스마트 기기에 구비된 카메라(101, 105)는 기능 실행 장치(100) 주변의 사용자의 존재 여부, 움직임 및 안면 이미지에 대한 정보를 수신할 수 있다. 특히, 3D 센서가 탑재되어 홍채 인식과 안면 인식 기능이 구현되는 카메라가 노트북 및 스마트 기기에 구비되어 사용자의 다양한 상황 정보를 획득할 수 있다.The cameras 101 and 105 provided in the laptop and the smart device may receive information about the presence, movement, and facial image of a user around the function execution device 100. In particular, a camera equipped with a 3D sensor and implementing iris recognition and face recognition may be provided in a notebook and a smart device to acquire various situation information of a user.

다기능 센서(103)는 사용자 자체에 관한 정보 이외에 다양한 상황 정보를 획득할 수 있다. 다기능 센서(103)의 예로, 중력 센서, 자이로 센서, 조도 센서 및 근접 센서 등을 들 수 있다. 상기와 같은 다양한 센서들을 이용하여 사용자 행위 정보를 보완할 수 있다.The multifunction sensor 103 may acquire various contextual information in addition to the information about the user itself. Examples of the multifunction sensor 103 include a gravity sensor, a gyro sensor, an illuminance sensor, a proximity sensor, and the like. The user behavior information may be supplemented by using various sensors as described above.

사용자 입력 장치의 예시로 마우스(107) 및 키보드(109)를 들 수 있다. 상기 사용자 입력 장치를 통하여 사용자의 조작 정보를 획득할 수 있을 것이다. Examples of user input devices include a mouse 107 and a keyboard 109. The user's manipulation information may be obtained through the user input device.

또한, 도 2에는 도시되지 않았으나 터치 입력 장치에 의한 다양한 입력 제스처, 제어부를 통하여 현재 활성화 중인 어플리케이션의 속성 및 정보를 참조하여 상황 정보를 획득할 수 있을 것이다.In addition, although not shown in FIG. 2, context information may be obtained by referring to properties and information of an application currently being activated through various input gestures and a control unit by the touch input device.

본 발명의 몇몇 실시예에서 참조되는 상황 정보는, 컴퓨팅 장치에 탑재된 이미지 디바이스로부터 센싱 된 사용자 안면에 대한 정보, 사용자 입력 장치로부터 수신된 조작 정보 및 상기 컴퓨팅 장치에서 실행되고 있는 어플리케이션의 활성화 정보 중 적어도 어느 하나를 포함할 수 있다. 상기 사용자 안면에 대한 정보는 사용자의 이목구비에 대한 특징점을 이용한 정보를 포함할 수 있고, 홍채 인식 기법을 이용하여 사용자의 시선을 파악할 수 있다.The contextual information referred to in some embodiments of the present invention includes information about a user's face sensed from an image device mounted on a computing device, manipulation information received from a user input device, and activation information of an application running on the computing device. It may include at least one. The information on the user's face may include information using feature points of the user's eyes, and the eyes of the user may be grasped using an iris recognition technique.

이하에서는 상술한 다양한 장치 구성으로서 수행되는 어플리케이션 실행 화면의 위치 선정 방법 및 어플리케이션 실행 화면의 위치 선정 학습 방법에 관하여 상세히 설명한다.Hereinafter, a method of selecting a location of an application execution screen and a method of learning location selection of an application execution screen will be described in detail.

도 3은 본 발명의 일 실시예에 따른 어플리케이션 실행 화면의 위치 선정 방법의 순서도이다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.3 is a flowchart illustrating a method for selecting a location of an application execution screen according to an embodiment of the present invention. However, this is only a preferred embodiment for achieving the object of the present invention, of course, some steps may be added or deleted as necessary.

S100 단계에서, 어플리케이션 GUI(Graphical User Interface)의 최초 실행 영역의 위치를 획득한다. 상기 어플리케이션 GUI는 화면 영역 내에 어플리케이션이 실행되고 있거나, 실행된 결과 표시될 수 있는 작업창 등을 의미할 수 있다.In operation S100, a position of an initial execution region of an application graphical user interface (GUI) is obtained. The application GUI may mean a task window in which an application is executed in the screen area or a result of executing the application.

S200 단계에서, 상기 최초 실행 영역의 위치를 보정하기 위한 상황 정보를 수신한다. 상기 상황 정보는 사용자에게 변경된 실행 영역의 위치를 제공하기 위한 사용자 행위를 분석 및 예측하기 위한 정보를 가리킨다. 상술한 바와 같이 상기 상황 정보는 다양한 입력 장치를 통하여 수신된 사용자와 연관된 컨텍스트(Context) 정보를 가리킨다.In operation S200, context information for correcting the position of the first execution region is received. The context information refers to information for analyzing and predicting a user's behavior for providing a user with a changed location of an execution region. As described above, the context information indicates context information associated with a user received through various input devices.

S300 단계에서, 상황 정보에 기초하여 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정한다. 이는, 수신된 상황 정보를 분석하여 이전에 실행되었던 어플리케이션 GUI의 표시 위치를 이동하기 위함이다. 사용자가 이전에 작업을 수행하였던 어플리케이션을 상황 정보 분석에 기초하여 최적의 위치에 표시하여 편의성을 제공할 수 있다. 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하기 위한 세부적인 과정에 대해서는 하기의 도 4 및 도 5를 통하여 상세히 서술한다.In operation S300, the position of the area for displaying the application GUI is corrected based on the situation information. This is to move the display position of the previously executed application GUI by analyzing the received situation information. An application that the user has performed previously may be displayed in an optimal position based on analysis of situation information to provide convenience. Detailed processes for correcting the position of the area for displaying the application GUI will be described in detail with reference to FIGS. 4 and 5 below.

S400 단계에서, 상기 보정 결과에 따른 영역 위치에 어플리케이션 GUI를 사용자 조작 입력과 무관하게 표시한다. S400 단계에 따라 표시되는 어플리케이션 GUI가 표시되는 영역의 위치는 사용자가 어플리케이션 GUI가 표시되길 바라는 위치 또는 사용자가 어플리케이션 GUI가 표시되지 않길 바라는 위치 중 어느 하나일 수 있다.In operation S400, the application GUI is displayed regardless of a user operation input at an area position according to the correction result. The location of the area where the application GUI displayed according to step S400 is displayed may be either a location where the user wishes to display the application GUI or a location where the user does not want the application GUI to be displayed.

예를 들어, 표시 장치의 화면 영역이 각각 좌측 영역과 우측 영역으로 구분되는 것으로 가정한다. 기능 실행 장치가 사용자의 상황 정보를 분석한 결과, 사용자가 화면 영역 중 우측 영역을 주시하고 있거나, 우측 영역에서 문서 편집 어플리케이션을 이용한 문서 편집 작업을 수행할 것이라는 분석 결과가 도출되면, 사용자의 어플리케이션 실행 입력에 응답하여 사용자의 조작 또는 설정이 없이 자동적으로 우측 영역에 상기 문서 편집 어플리케이션 작업창이 표시될 것이다. 다른 예로, 사용자가 왼쪽 영역에서 기 실행 중인 어플리케이션의 정보를 제공받는 상태인 것으로 가정한다. 이때, 사용자는 기 실행 중인 어플리케이션의 화면이 가려지는 것을 원하지 않을 것이다. 이 경우, 사용자의 새로운 어플리케이션 실행 입력에 응답하여 사용자의 조작 또는 설정이 없이 자동적으로 우측 영역에 새로운 어플리케이션 작업창이 표시될 것이다.For example, it is assumed that the screen area of the display device is divided into a left area and a right area, respectively. If the function execution device analyzes the user's situation information and the analysis result indicates that the user is looking at the right side of the screen area or performs the document editing operation using the document editing application in the right side, the user's application execution is executed. In response to the input, the document editing application task window will be automatically displayed in the right area without user's manipulation or setting. As another example, it is assumed that a user is provided with information of an application which is already running in the left area. In this case, the user may not want to block the screen of the previously running application. In this case, in response to the user's new application execution input, a new application task window is automatically displayed in the right region without the user's manipulation or setting.

일 실시예에서, 상황 정보에 기초하여 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는, 사용자 입력 장치로부터 수신한 조작 정보에 기초하여, 상기 어플리케이션 GUI의 최초 실행 영역의 위치를 기준으로 변경된 위치를 판단하는 단계와 상기 변경된 위치를 상기 어플리케이션 GUI를 표시하기 위한 위치로 결정하는 단계를 포함할 수 있다. 본 실시예에 따르면, 사용자의 과거 행동 기반으로 사용자가 원하는 위치에 새로운 어플리케이션 GUI 실행 위치를 결정할 수 있다.In one embodiment, correcting the position of the region for displaying the application GUI based on the context information may be changed based on the position of the first execution region of the application GUI based on the operation information received from the user input device. The method may include determining a location and determining the changed location as a location for displaying the application GUI. According to the present embodiment, a new application GUI execution position may be determined at a position desired by the user based on the past behavior of the user.

도 4 내지 도 5는 도 3의 S300 단계의 세부 과정을 설명하기 위한 상세 순서도이다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.4 to 5 are detailed flowcharts for describing a detailed process of step S300 of FIG. 3. However, this is only a preferred embodiment for achieving the object of the present invention, of course, some steps may be added or deleted as necessary.

상기 S300 단계의 세부 과정을 상세히 설명하기에 앞서서, 상기 세부 과정은 다음과 같은 2 가지 방식으로 분류될 수 있음을 미리 밝혀 둔다. 첫째는 포지티브(Positive) 방식으로, 사용자가 의도한 영역 위치에 어플리케이션 GUI를 표시하는 방식이다. 둘째는, 네거티브(Negative) 방식으로, 사용자가 의도하지 않는 영역을 제외한 영역에 어플리케이션 GUI를 표시하는 방식이다.Prior to explaining the detailed process of the step S300 in detail, it is noted that the detailed process can be classified in the following two ways. The first method is a positive method, in which an application GUI is displayed at a location intended by a user. Second, in a negative manner, the application GUI is displayed in an area except an area not intended by the user.

도 4는 본 발명의 몇몇 실시예에서 참조되는 포지티브 방식의 위치 보정 방식을 설명하기 위한 순서도이다. 이하, 도 4를 참조하여 상기 포지티브 방식의 위치 보정 방식을 상세히 설명한다.4 is a flowchart illustrating a positive position correction method referenced in some embodiments of the present invention. Hereinafter, the positive position correction method will be described in detail with reference to FIG. 4.

S302 단계에서, 어플리케이션 GUI를 표시할 수 있는 화면 영역의 일부인 사용자의 시선 영역을 판단한다. 상기 시선 영역은 사용자가 실제 주시하고 있는 표시 장치에서 디스플레이 되고 있는 화면 영역의 일부에 해당한다. 시선 영역의 판단은 상술한 노트북 및 스마트 기기에 구비된 카메라를 통하여 안면 인식 또는 홍채 인식을 통하여 수행될 수 있다.In operation S302, the gaze area of the user, which is a part of the screen area capable of displaying the application GUI, is determined. The gaze area corresponds to a part of the screen area displayed on the display device which the user actually watches. The determination of the gaze area may be performed through facial recognition or iris recognition through the cameras provided in the above-described notebook and smart devices.

S304 단계에서, 상기 시선 영역에서의 어플리케이션의 활성화 및 어플리케이션에 대한 사용자 입력 중 적어도 어느 하나를 감지한다. 사용자가 화면 영역의 일부인 시선 영역을 주시하고 있음과 동시에 상기 시선 영역에서 어플리케이션이 활성화되고 있거나, 해당 어플리케이션에 대한 사용자 입력이 발생한 경우에는 사용자가 시선 영역을 통하여 어플리케이션 GUI를 실제로 인지하고 있음이 분명할 것이다.In operation S304, at least one of activation of an application in the gaze area and a user input for the application is sensed. If the user is looking at the gaze area that is part of the screen area and an application is activated in the gaze area or if a user input for the application occurs, it will be clear that the user is actually aware of the application GUI through the gaze area. will be.

어플리케이션의 활성화 및 어플리케이션에 대한 사용자 입력 중 적어도 어느 하나가 감지되면(S306), 사용자가 시선 영역을 실제로 주시하고 있는 것으로 판단될 수 있고(S308), 상기 시선 영역을 어플리케이션 GUI를 표시하기 위한 영역의 위치로 결정할 수 있다(S310). 이 때, 결정 결과를 바탕으로 하여 도 3의 S300 단계에서 적용될 수 있다.When at least one of activation of an application and a user input to the application is sensed (S306), it may be determined that the user is actually watching the gaze area (S308), and the gaze area may be determined as an area for displaying an application GUI. The position may be determined (S310). At this time, based on the determination result may be applied in step S300 of FIG.

반대로, 어플리케이션의 활성화 및 어플리케이션에 대한 사용자 입력이 모두 감지되지 않으면(S306), 사용자가 시선 영역을 실제로 주시하지 않고 있는 것으로 판단하여, 아무런 결정도 수행되지 않고, S300 단계에서의 보정은 수행되지 않을 것이다.On the contrary, if both the activation of the application and the user input for the application are not sensed (S306), it is determined that the user is not actually looking at the gaze area, no determination is made, and the correction at step S300 is not performed. will be.

일 실시예에서, 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는, 상기 어플리케이션 GUI를 표시할 수 있는 화면 영역의 일부인 사용자의 시선 영역을 판단하는 단계를 포함하고, 상기 시선 영역에서의 어플리케이션의 활성화 및 상기 어플리케이션에 대한 사용자 입력 중 적어도 하나를 감지하는 단계와 상기 감지 결과에 따라 상기 시선 영역을 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치로 결정하는 단계를 포함할 수 있다.In an embodiment, correcting a position of an area for displaying the application GUI based on context information includes determining a gaze area of a user that is a part of a screen area capable of displaying the application GUI, Detecting at least one of activation of an application in the gaze area and a user input to the application; and determining the gaze area as a location of an area for displaying the application GUI according to the detection result. have.

도 5는 본 발명의 몇몇 실시예에서 참조되는 네거티브 방식의 위치 보정 방식을 설명하기 위한 순서도이다. 이하, 도 5를 참조하여 상기 네거티브 방식의 위치 보정 방식을 상세히 설명한다.FIG. 5 is a flowchart illustrating a negative position correction method referenced in some embodiments of the present invention. Hereinafter, the negative position correction method will be described in detail with reference to FIG. 5.

S322 단계에서, 어플리케이션 GUI를 표시할 수 있는 화면 영역에서 기 실행 중인 적어도 하나의 어플리케이션의 실행 영역을 판단한다. 본 실시예는 사용자가 원하지 않는 곳에 어플리케이션 GUI가 표시되지 않도록 하기 위한 것으로 기 실행 중인 어플리케이션의 활성화 여부가 중요 기준이 될 수 있다.In operation S322, an execution region of at least one application that is previously executed is determined in a screen region capable of displaying an application GUI. The present embodiment is for preventing the application GUI from being displayed where the user does not want to be. The important criterion may be whether or not the previously running application is activated.

S324 단계에서, 실행 영역에서 기 실행 중인 적어도 하나의 어플리케이션에 대한 사용자의 조작 입력을 감지한다. 상기 화면 영역에서 다수의 어플리케이션이 실행 중이더라도, 실제로 사용하고 있거나 메인이 되는 어플리케이션은 하나의 어플리케이션이 될 것이다. 본 단계에서는 어플리케이션의 활성화를 판단함과 동시에 별도의 사용자의 조작 입력을 감지하여 사용자가 작업 중인 실행 영역이 다른 어플리케이션 GUI에 의하여 방해되지 않도록 하기 위함이다.In operation S324, a user's manipulation input for at least one application previously executed in the execution region is sensed. Even if a plurality of applications are running in the screen area, the application which is actually used or becomes the main application will be one application. In this step, it is to determine the activation of the application and at the same time detect an operation input of a separate user so that the execution region in which the user is working is not disturbed by another application GUI.

사용자의 조작 입력이 감지되면(S326), 화면 영역 중 실행 영역을 제외한 비 실행 영역을 어플리케이션 GUI를 표시하기 위한 위치로 결정한다(S328). 상기 비 실행 영역은 S322 단계 내지 S326 단계에 의하여 실행 영역임을 명확히 판단한 결과 새로운 어플리케이션 GUI가 표시되어도 사용자의 작업을 방해하지 않는 영역에 해당한다. 다만, S324 단계 내지 S326 단계가 생략될 수 있음에 유의한다. 도 5에 도시된 바와 같이, 실행 영역을 판단한 뒤, 실행 영역을 제외한 나머지 영역인 비 실행 영역에 새로운 어플리케이션 GUI를 표시하기 위한 위치로 결정할 수 있다. 이 경우, 몇몇 과정이 생략된 결과 빠른 판단이 내려질 수 있을 것이고, 화면 영역 중 빈 공간에 즉각적으로 새로운 어플리케이션 GUI가 표시될 수 있을 것이다.When the user's operation input is detected (S326), the non-execution area except the execution area of the screen area is determined as a position for displaying the application GUI (S328). As a result of clearly determining that the non-execution area is the execution area in steps S322 to S326, the non-execution area corresponds to an area that does not disturb a user's work even when a new application GUI is displayed. However, it should be noted that steps S324 to S326 may be omitted. As illustrated in FIG. 5, after determining the execution region, the execution region may be determined as a position for displaying a new application GUI in a non-execution region other than the execution region. In this case, as a result of some processes being omitted, a quick judgment can be made, and a new application GUI can be displayed immediately in an empty space of the screen area.

반대로, 사용자의 조작 입력이 감지되지 않으면(S326), 실행 영역 및 비 실행 영역 모두를 어플리케이션 GUI를 표시하기 위한 위치로 결정하고, S300 단계에서의 보정은 수행되지 않을 것이다.On the contrary, if the user's manipulation input is not detected (S326), both the execution region and the non-execution region are determined as positions for displaying the application GUI, and the correction in step S300 will not be performed.

일 실시예에서, 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는, 상기 화면 영역에서 실행 중인 적어도 하나의 어플리케이션 GUI의 실행 영역을 판단하는 단계와 상기 화면 영역 중, 상기 실행 영역을 제외한 비 실행 영역을 상기 어플리케이션 GUI를 표시하기 위한 위치로 결정하는 단계를 포함할 수 있다.In one embodiment, correcting the position of an area for displaying the application GUI based on context information may include determining an execution area of at least one application GUI running in the screen area, and among the screen areas. And determining the non-execution area except the execution area as a location for displaying the application GUI.

다른 실시예에서, 상기 실행 영역을 제외한 비 실행 영역을 상기 어플리케이션 GUI를 표시하기 위한 위치로 결정하는 단계는, 상기 화면 영역 중 일부 영역에 가상 입력 인터페이스의 실행을 위한 표시 영역이 감지된 경우, 상기 가상 입력 인터페이스의 실행을 위한 표시 영역을 제외한 영역을 상기 어플리케이션 GUI를 표시하기 위한 위치로 결정하는 단계를 포함할 수 있다. 상기 가상 입력 인터페이스의 실행을 위한 표시 영역은 예를 들어, 가상 키보드, 메시지 입력 영역 등 정보를 입출력하기 위한 모든 인터페이스를 가리킨다.In another embodiment, determining the non-execution area other than the execution area as a location for displaying the application GUI, when a display area for executing a virtual input interface is detected in a part of the screen area, The method may include determining an area except for a display area for executing a virtual input interface as a location for displaying the application GUI. The display area for executing the virtual input interface refers to all interfaces for inputting / outputting information such as a virtual keyboard and a message input area.

한편, 이하에서는 상술한 몇몇 방법들에 의하여 어플리케이션 GUI가 화면 영역에서 표시되는 다양한 예시 및 다양한 표시 장치에서 다양한 결과가 구현되는 예시를 설명한다.Meanwhile, hereinafter, various examples in which the application GUI is displayed in the screen area and various results in various display devices will be described.

도 6은 본 발명의 일 실시예에 따라 어플리케이션 GUI가 표시되는 위치를 선정하는 예시를 설명하기 위한 도면이다. 도시된 도 6의 화면 영역(10)을 분할된 4개의 영역으로 구분하였지만, 이는 설명의 편의를 위한 것이며 아래에서 설명되는 예시를 응용하여 적어도 2개 이상의 영역으로 구분되어 어플리케이션 GUI를 표시할 수 있음에 유의한다.6 is a diagram illustrating an example of selecting a location where an application GUI is displayed according to an embodiment of the present invention. Although the screen region 10 of FIG. 6 is divided into four divided regions, this is for convenience of description and may be divided into at least two regions to display an application GUI by applying the example described below. Please note.

도 6의 상단에 도시된 바와 같이, 제1 표시 장치(1001)에 구비된 센싱 장치(101)를 통하여, 실제로 사용자(1)가 주시하고 있는 화면 영역(10) 중 일부인 시선 영역(11)이 판단되면, 시선 영역(11)에서의 사용자 입력(102)을 감지한다. 상기 감지 결과에 따라, 대상 영역(12)에 어플리케이션 GUI가 표시될 수 있다.As shown in the upper part of FIG. 6, through the sensing device 101 provided in the first display device 1001, the gaze area 11, which is part of the screen area 10 that the user 1 watches, is actually When it is determined, the user input 102 in the gaze area 11 is sensed. According to the detection result, an application GUI may be displayed on the target area 12.

한편, 도 6의 하단에 도시된 바와 같이, 제1 표시 장치(1001)에 구비된 센싱 장치(101)를 통하여, 실제로 사용자(1)가 주시하고 있는 화면 영역(10) 중 일부인 시선 영역(11)이 판단되었고, 대상 영역(12)에는 기 실행 중인 어플리케이션 GUI가 실행 중인 것으로 가정한다(미도시). 이 때, 사용자(1)는 대상 영역(12)에 새로운 어플리케이션 GUI가 표시되지 않는 것을 원할 것이다. 동시에, 시선 영역(11)에 사용자 입력(102)이 감지된 경우(예를 들어, 마우스 조작 입력이 감지된 경우)에는 사용자(1)가 시선 영역(11)에서 작업을 예상하고 있는 것으로 추정할 수 있을 것이다. 이 경우에는, 대상 영역(12)을 제외한 나머지 화면 영역에 새로운 어플리케이션 GUI가 표시될 수 있다. 도 6의 하단에는 도시되지 않았으나, 대상 영역(12)이 제외된 영역인 시선 영역(11)에 인접한 좌측 또는 상측에 새로운 어플리케이션 GUI가 표시될 수 도 있을 것이다.On the other hand, as shown in the lower portion of FIG. 6, through the sensing device 101 provided in the first display device 1001, the gaze area 11 that is actually a part of the screen area 10 that the user 1 watches. ) Is determined, and it is assumed that the application GUI that is already executed is being executed in the target area 12 (not shown). At this time, the user 1 would like the new application GUI not to be displayed in the target area 12. At the same time, when the user input 102 is detected in the gaze area 11 (eg, when a mouse manipulation input is detected), it is assumed that the user 1 is expected to work in the gaze area 11. Could be. In this case, a new application GUI may be displayed in the remaining screen areas except for the target area 12. Although not shown at the bottom of FIG. 6, a new application GUI may be displayed on the left side or the upper side adjacent to the gaze area 11, which is an area in which the target area 12 is excluded.

도 7은 본 발명의 다른 실시예에 따라 어플리케이션의 실행이 표시되는 위치를 선정하는 예시를 설명하기 위한 도면이다.FIG. 7 illustrates an example of selecting a location at which execution of an application is displayed according to another exemplary embodiment of the present invention.

도 7에 도시된 바와 같이, 제1 표시 장치(1001)의 화면 영역(10)에는 문서 작업용 어플리케이션이 실행 중인 것을 확인할 수 있다. 이 경우, 상기 작업용 어플리케이션 화면 영역은 정보 입출력 영역인 제1 영역(13)과 정보 입출력 영역이 제외된 제2 영역(14)으로 구분될 수 있다. 기존에는, 사용자가 문서 작업 중에 새로운 어플리케이션을 실행하면 어플리케이션 GUI 가 임의의 위치에 표시되었다. 만약에, 실행된 어플리케이션 GUI가 제1 영역(13) 상 적어도 일부와 일치하는 위치에 표시된다면 사용자가 현재 진행 중인 문서 작업을 방해하게 될 것이다. 따라서, 본 실시예에서는 상기와 같은 방해를 방지하기 위하여 제2 영역(14)에 새로운 어플리케이션 GUI가 표시될 수 있도록 한다. 이는, 기 실행 중인 어플리케이션의 활성화 여부 및 제2 영역(14)의 위치 및 크기를 고려하여 표시될 수 있다.As illustrated in FIG. 7, it may be confirmed that an application for a document task is running in the screen area 10 of the first display device 1001. In this case, the work application screen area may be divided into a first area 13 which is an information input / output area and a second area 14 in which the information input / output area is excluded. Previously, when a user ran a new application while working on a document, the application GUI was displayed in an arbitrary location. If the executed application GUI is displayed at a position coincident with at least a portion of the first area 13, the user will interfere with the document work currently in progress. Therefore, in the present embodiment, a new application GUI can be displayed in the second area 14 in order to prevent such interference. This may be displayed in consideration of whether the previously running application is activated and the position and size of the second area 14.

일 실시예에서, 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는, 상기 화면 영역에 대하여 적어도 일부 영역에 포함되는 기 실행 중인 어플리케이션 표시 영역 중, 정보 입출력 영역이 제외된 영역을 판단한 결과에 따라 상기 어플리케이션의 실행을 표시하기 위한 위치로 결정하는 단계를 포함하고, 상기 보정 결과에 따른 영역 위치에 상기 어플리케이션 GUI를 사용자의 조작 입력과 무관하게 표시하는 단계는, 상기 정보 입출력 영역이 제외된 영역을 상기 새로운 위치로 하여 상기 어플리케이션 GUI를 표시하는 단계를 포함할 수 있다. 이에 따라, 정보 입출력 영역이 제외된 제2 영역(14)에서 크기가 조정된 새로운 어플리케이션 GUI가 실행되어 표시될 수 있다.In an embodiment, the correcting the position of the region for displaying the application GUI based on the context information may include an information input / output region, among application execution regions that are already included in at least a portion of the screen region. And determining a location for displaying the execution of the application according to the determined region, and displaying the application GUI regardless of a user's operation input at the location of the region according to the correction result. And displaying the application GUI using the region where the input / output region is excluded as the new position. Accordingly, a new application GUI having a size adjusted in the second area 14 in which the information input / output area is excluded may be executed and displayed.

도 8은 본 발명의 또 다른 실시예에 따라 어플리케이션의 실행이 표시되는 위치를 선정하는 예시를 설명하기 위한 도면이다.8 is a diagram for describing an example of selecting a position at which execution of an application is displayed according to another exemplary embodiment of the present invention.

도 8에 도시된 바와 같이, 제1 표시 장치(1001)의 화면 영역에는 프리젠테이션 어플리케이션이 실행 중인 것을 확인할 수 있다. 도 8에는 도시되지 않았으나, 표시 장치가 단일 컴퓨팅 장치에 2개 이상이 연결된 듀얼 모니터인 경우, 사용자는 프리젠테이션 어플리케이션이 실행 중인 제1 표시 장치(1001)에 새로운 어플리케이션 GUI가 표시되는 것을 원하지 않을 것이다. 따라서, 상기 프리젠테이션 어플리케이션의 활성화 여부를 감지하여 제1 표시 장치(1001) 이외의 표시 장치에 새로운 어플리케이션 GUI가 표시되도록 위치를 보정할 수 있다.As illustrated in FIG. 8, it may be confirmed that the presentation application is running in the screen area of the first display device 1001. Although not shown in FIG. 8, when the display device is a dual monitor having two or more connected to a single computing device, the user may not want the new application GUI to be displayed on the first display device 1001 on which the presentation application is running. . Accordingly, by detecting whether the presentation application is activated or not, the position may be corrected such that a new application GUI is displayed on a display device other than the first display device 1001.

유사한 예시로, 표시 장치 근처에 사용자가 없는 경우를 고려할 수 있다. 이때, 사용자가 표시 장치 근처에 부재한 것으로 판단되면, 새로운 어플리케이션 GUI가 표시될 필요가 없다.As a similar example, it may be considered that there is no user near the display device. At this time, if it is determined that the user is absent near the display device, the new application GUI does not need to be displayed.

일 실시예에서, 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는, 상기 컴퓨팅 장치에 탑재된 이미지 디바이스로부터 사용자가 센싱 되지 않은 경우, 상기 어플리케이션 GUI를 표시하지 않는 것으로 결정하는 단계를 포함하고, 상기 보정 결과에 따른 영역 위치에 상기 어플리케이션 GUI를 사용자의 조작 입력과 무관하게 표시하는 단계는, 상기 결정에 따라 상기 화면 영역에서 상기 어플리케이션의 실행을 위한 표시를 제한하는 단계를 포함할 수 있다.In one embodiment, correcting the position of the area for displaying the application GUI based on context information may not display the application GUI when the user is not sensed from an image device mounted in the computing device. And determining the display of the application GUI regardless of a user's operation input at an area position according to the correction result. Restricting display for execution of the application in the screen area according to the determination. It may include.

다른 실시예에서, 상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는, 상기 화면 영역에서 상기 어플리케이션과 다른 기 실행 중인 어플리케이션의 속성에 따라 상기 어플리케이션의 실행을 표시하기 위한 영역에서 상기 화면 영역을 제한하는 단계를 포함하고, 상기 보정 결과에 따른 영역 위치에 상기 어플리케이션 GUI를 사용자의 조작 입력과 무관하게 표시하는 단계는, 상기 제한의 결과에 따라 상기 기 실행 중인 어플리케이션 GUI를 상기 어플리케이션 GUI 표시에 우선 순위를 부여하는 단계를 포함할 수 있다. 예를 들어, 기 실행 중인 어플리케이션에 높은 우선 순위가 부여되면, 새로운 어플리케이션이 실행되어도 새로운 어플리케이션 GUI가 표시되는 것을 방지할 수 있다.In another embodiment, correcting the position of the region for displaying the application GUI based on the context information may include displaying execution of the application according to attributes of an application which is different from the application in the screen region. And limiting the screen area in an area for the display, and displaying the application GUI at an area position according to the correction result irrespective of a user's operation input, according to the result of the restriction. The method may include assigning a priority to the application GUI display. For example, if a high priority is given to an already running application, a new application GUI can be prevented from being displayed even if a new application is executed.

도 9는 본 발명의 일 실시예에 따라 다중 화면에서 어플리케이션의 실행이 표시되는 위치를 선정하는 예시를 설명하기 위한 도면이다.9 is a diagram for describing an example of selecting a position at which execution of an application is displayed on a multi-screen according to an embodiment of the present invention.

도 9의 상단에 도시된 바와 같이, 다중 화면 영역은 제1 표지 장치(1001) 및 제2 표시 장치(1002)에서 디스플레이 된다. 제2 표시 장치(1002)에 구비된 센싱 장치(101)를 통하여, 실제로 사용자(1)가 주시하고 있는 화면 영역이 제1 표시 장치(1001)의 화면 영역의 일부인 시선 영역(11)인 것으로 판단되면, 시선 영역(11)에서의 사용자 입력(102)을 감지한다. 상기 감지 결과에 따라, 제1 표시 장치(1001)의 화면 영역의 일부인 대상 영역(12)에 어플리케이션 GUI가 표시될 수 있다.As shown at the top of FIG. 9, the multi-screen area is displayed on the first cover device 1001 and the second display device 1002. Through the sensing device 101 provided in the second display device 1002, it is determined that the screen area actually watched by the user 1 is the gaze area 11 that is part of the screen area of the first display device 1001. If so, the user input 102 in the gaze area 11 is sensed. According to the detection result, the application GUI may be displayed on the target area 12 that is a part of the screen area of the first display device 1001.

한편, 도 9의 하단에 도시된 바와 같이, 제2 표시 장치(1002)에 구비된 센싱 장치(101)를 통하여, 실제로 사용자(1)가 주시하고 있는 화면 영역 중 일부인 시선 영역(11)이 판단되었고, 제1 표시 장치(1001)의 화면 영역의 일부인 대상 영역(12)에는 기 실행 중인 어플리케이션 GUI가 실행 중인 것으로 가정한다(미도시). 이 때, 사용자(1)는 대상 영역(12)에 새로운 어플리케이션 GUI가 표시되지 않는 것을 원할 것이다. 동시에, 시선 영역(11)에 사용자 입력(102)이 감지된 경우(예를 들어, 마우스 조작 입력이 감지된 경우)에는 사용자(1)가 시선 영역(11)에서 작업을 예상하고 있는 것으로 추정할 수 있다. 이 경우에는, 대상 영역(12)을 제외한 나머지 화면 영역에 새로운 어플리케이션 GUI가 표시될 수 있다. 이 경우, 대상 영역(12)이 제외된 제1 표시 장치(1001)의 화면 영역에는 물론, 제2 표시 장치(1002)에 새로운 어플리케이션 GUI가 표시될 수 있을 것이다.Meanwhile, as shown in the lower part of FIG. 9, through the sensing device 101 provided in the second display device 1002, the gaze area 11 that is a part of the screen area that the user 1 actually watches is determined. It is assumed that an application GUI that is already running is being executed in the target area 12 that is a part of the screen area of the first display device 1001 (not shown). At this time, the user 1 would like the new application GUI not to be displayed in the target area 12. At the same time, when the user input 102 is detected in the gaze area 11 (eg, when a mouse manipulation input is detected), it is assumed that the user 1 is expected to work in the gaze area 11. Can be. In this case, a new application GUI may be displayed in the remaining screen areas except for the target area 12. In this case, a new application GUI may be displayed on the second display device 1002 as well as the screen area of the first display device 1001 in which the target area 12 is excluded.

일 실시예에서, 어플리케이션 GUI의 최초 실행 영역의 위치를 획득하는 단계는, 표시 장치의 화면 영역은 적어도 제1 화면 영역 및 제2 화면 영역으로 구분되되, 상기 제1 화면 영역 및 상기 제2 화면 영역 중 어느 하나인 최초 실행 위치를 획득하는 단계를 포함하고, 상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는, 사용자 입력 장치로부터 수신된 조작 정보에 따른 상기 어플리케이션 GUI의 최초 실행 위치로부터 변경된 위치를 확인하고, 상기 컴퓨팅 장치에 탑재된 이미지 디바이스로부터 수신된 사용자의 얼굴 정보에 기초하여 상기 사용자의 시선이 상기 변경된 위치에 일치하는지 여부를 판단한 결과에 따라 보정하는 단계를 포함하고, 상기 보정 결과에 따른 영역 위치에 상기 어플리케이션 GUI를 사용자의 조작 입력과 무관하게 표시하는 단계는, 상기 변경된 위치를 새로운 위치로 하여 상기 어플리케이션 GUI를 표시하는 단계를 포함할 수 있다.In an embodiment, the obtaining of the position of the first execution region of the application GUI may include: a screen region of the display device divided into at least a first screen region and a second screen region, wherein the first screen region and the second screen region Acquiring an initial execution position, which is any one, and correcting a position of an area for displaying the application GUI based on the situation information comprises: the application GUI according to operation information received from a user input device. Confirming the changed position from the initial execution position of and correcting according to a result of determining whether the gaze of the user matches the changed position based on face information of the user received from the image device mounted in the computing device. And using the application GUI at an area position according to the correction result. The displaying of the user GUI may include displaying the application GUI using the changed position as a new position regardless of the user's manipulation input.

도 9에서 설명한 예시는 다중 화면이 필수적으로 구현되는 폴더블 스마트폰에서도 구현될 수 있다(미도시). 폴더블 스마트폰의 특성에 따른 추가적인 예시는 하기의 도 11를 참조하여 설명한다.The example described in FIG. 9 may be implemented in a foldable smartphone in which multiple screens are essentially implemented (not shown). Additional examples according to the characteristics of the foldable smartphone will be described with reference to FIG. 11 below.

도 10은 본 발명의 일 실시예에 따라 모바일 화면에서 어플리케이션의 실행이 표시되는 위치를 선정하는 예시를 설명하기 위한 도면이다. 도시된 도 10의 화면 영역(10)을 분할된 2개의 영역으로 구분하였지만, 이는 설명의 편의를 위한 것이며 아래에서 설명되는 예시를 응용하여 적어도 2 이상의 영역으로 구분되어 어플리케이션 GUI를 표시할 수 있음에 유의한다.FIG. 10 is a diagram for describing an example of selecting a position at which execution of an application is displayed on a mobile screen according to an embodiment of the present invention. Although the screen area 10 shown in FIG. 10 is divided into two divided areas, this is for convenience of description and the application GUI may be displayed by being divided into at least two areas by applying the example described below. Be careful.

도 10의 상단에 도시된 바와 같이, 스마트폰 표시 장치(1003)의 화면 영역(30)은 제1 영역(31)과 제2 영역(32)으로 구분될 수 있다. 스마트폰 표시 장치(1003)에 구비된 센싱 장치(101)를 통하여, 실제로 사용자(1)가 주시하고 있는 시선 영역이 제1 영역(31)인 것으로 판단하고, 제1 영역(31)에서 사용자(1)의 터치 입력이 자주 발생되는 것으로 감지되면, 제1 영역(31)에 새로운 어플리케이션 GUI(33)를 표시하여 사용자(1)가 작업을 바로 수행할 수 있도록 편의성을 제공할 수 있다.As shown in the upper portion of FIG. 10, the screen area 30 of the smartphone display device 1003 may be divided into a first area 31 and a second area 32. Through the sensing device 101 provided in the smartphone display device 1003, it is determined that the gaze area gazed by the user 1 is actually the first area 31, and the user ( When it is detected that the touch input of 1) is frequently generated, a new application GUI 33 may be displayed on the first area 31 to provide convenience for the user 1 to immediately perform a task.

한편, 도 10의 하단에 도시된 바와 같이, 실제로 사용자(1)가 주시하고 있는 시선 영역이 제1 영역(31)인 것으로 판단하고, 제1 영역(31)에서 기 실행 중인 어플리케이션이 표시되어 있거나, 터치 입력이 자주 발생하는 것으로 가정한다. 이 때, 사용자(1)는 제1 영역(31)을 통하여 작업을 수행하고 있으므로, 제1 영역(31)에 새로운 어플리케이션 GUI가 표시됨으로 작업에 방해를 받지 않길 원할 것이다. 따라서, 도 10의 상단의 경우와 달리, 제1 영역(31)이 아닌 제2 영역(32)에 새로운 어플리케이션 GUI(33)가 표시될 수 있다. 도 10에는 미도시 하였으나, 제1 영역(31)에 가상 키보드와 같은 가상 입력 인터페이스 실행을 위한 표시 영역이 감지된 경우, 사용자(1)의 입력을 방해되지 않도록 제2 영역(32)에 새로운 어플리케이션 GUI(33)가 자동으로 표시될 수 있다.On the other hand, as shown at the bottom of FIG. 10, it is determined that the gaze area gazed by the user 1 is actually the first area 31, and an application currently running in the first area 31 is displayed or It is assumed that touch input occurs frequently. At this time, since the user 1 is performing the work through the first area 31, the user 1 will not want to be disturbed because the new application GUI is displayed in the first area 31. Accordingly, unlike the upper case of FIG. 10, the new application GUI 33 may be displayed in the second area 32 instead of the first area 31. Although not shown in FIG. 10, when a display area for executing a virtual input interface such as a virtual keyboard is detected in the first area 31, a new application is applied to the second area 32 so as not to disturb the input of the user 1. GUI 33 may be displayed automatically.

도 11은 본 발명의 일 실시예에 따라 폴더블 표시장치(1004)에서 어플리케이션의 실행이 표시되는 위치를 선정하는 예시를 설명하기 위한 도면이다.FIG. 11 is a diagram for describing an example of selecting a position at which execution of an application is displayed in the foldable display 1004 according to an exemplary embodiment.

도 11에 도시된 바와 같이 폴더블 표시 장치(1004)의 화면 영역은 제1 영역(41)과 제2 영역(42)으로 구분될 수 있다. 이 경우, 폴더블의 특성 상, 폴더블 표시 장치(1004)가 펼쳐진 경우에는 제1 영역(41) 및 제2 영역(42)이 동시에 사용자(1)에게 제공되고, 폴더블 표시 장치(1004)가 접힌 경우에는 제1 영역(41) 및 제2 영역(42) 중 적어도 어느 한 영역은 사용자(1)의 시야에서 벗어날 수 있다. 본 예시에서는 상술한 폴더블의 특성을 반영하여 새로운 어플리케이션 GUI를 표시하기 위한 것이다.As illustrated in FIG. 11, the screen area of the foldable display device 1004 may be divided into a first area 41 and a second area 42. In this case, due to the nature of the foldable, when the foldable display device 1004 is unfolded, the first area 41 and the second area 42 are simultaneously provided to the user 1 and the foldable display device 1004. When is folded, at least one of the first area 41 and the second area 42 may be out of view of the user 1. In this example, the new application GUI is displayed by reflecting the above-described characteristics of the foldable.

폴더블 표시 장치(1004)가 펼쳐진 경우에는 도 9를 참조하여 설명한 예시가 적용될 수 있을 것이다.When the foldable display 1004 is unfolded, the example described with reference to FIG. 9 may be applied.

일 실시예에서, 폴더블 전자 장치에 의하여 수행되는 방법은, 적어도 하나의 제1 어플리케이션의 실행을 표시하기 위한 제1 표시 영역 및 적어도 하나의 제2 어플리케이션의 실행을 표시하기 위한 제2 표시 영역 중 사용자의 주시 대상이 되는 어느 하나의 표시 영역을 감지하는 단계와 상기 감지 결과에 따라 상기 어느 하나의 표시 영역이 제1 표시 영역인 것으로 판단된 경우, 상기 제2 어플리케이션을 상기 제1 표시 영역에 표시하는 단계를 포함할 수 있다. 이는, 적어도 2개 이상의 화면 영역으로 구분되는 폴더블 전자 장치의 디스플레이에서 사용자가 주시 중인 하나의 화면 영역으로 새로운 어플리케이션 GUI를 표시되도록 하기 위한 것이다.In an embodiment, the method performed by the foldable electronic device may include a first display area for displaying execution of at least one first application and a second display area for displaying execution of at least one second application. Detecting the display area to be the user's watched object; and if it is determined that the display area is the first display area according to the sensing result, displaying the second application on the first display area. It may include the step. This is to allow a new application GUI to be displayed on one screen area that the user watches on the display of the foldable electronic device divided into at least two screen areas.

다른 실시예에서, 상기 제2 어플리케이션을 상기 제1 표시 영역에 표시하는 단계는, 상기 제1 표시 영역에 상기 제1 어플리케이션이 실행 중인 것을 판단한 결과에 따라 상기 제1 표시 영역에 상기 제2 어플리케이션을 표시하는 단계를 포함할 수 있다. 이는, 사용자가 주시하지 않는 화면에서 디스플레이 될 수 있는 새로운 어플리케이션 GUI를 사용자가 주시하고 있는 화면 영역으로 표시되도록 하기 위한 것이다.In another embodiment, the displaying of the second application on the first display area may include displaying the second application on the first display area according to a result of determining that the first application is running on the first display area. It may include the step of displaying. This is to allow a new application GUI that can be displayed on a screen that is not watched by the user to be displayed as a screen area that the user is watching.

또 다른 실시예에서, 상기 제2 어플리케이션을 상기 제1 표시 영역에 표시하는 단계는, 상기 제1 표시 영역에 상기 제1 어플리케이션이 실행 중인 것을 판단한 결과에 따라, 상기 제1 표시 영역에 새로운 어플리케이션 GUI의 표시를 제한하는 단계를 포함할 수 있다. 이는, 사용자가 제1 표시 영역을 주시하고 있는 경우, 실행될 예정인 새로운 어플리케이션 GUI가 제1 표시 영역을 가리지 않도록 하기 위함이다.In another embodiment, the displaying of the second application on the first display area may include: a new application GUI in the first display area according to a result of determining that the first application is running in the first display area. Limiting the display of may include. This is to prevent a new application GUI to be executed when the user watches the first display area from covering the first display area.

또 다른 실시예에서, 사용자의 주시 대상이 되는 어느 하나의 표시 영역을 감지하는 단계는, 상기 폴더블 전자 장치가 폴딩 상태인 경우, 상기 제1 표시 영역 및 상기 제2 표시 영역 중 상기 사용자와 마주한 표시 영역을 구비된 센싱 장치를 통하여 감지할 수 있다. 이 때, 사용자와 마주한 표시 영역이 상기 제1 표시 영역이라면, 제2 표시 영역은 사용자의 시야에서 벗어난 표시 영역에 해당할 것이다. 이 경우, 기 실행 중 이거나 실행 예정인 제2 어플리케이션의 표시 위치를 상기 제2 표시 영역으로 이동할 수 있다.In another embodiment, the detecting of any one display area that is a gaze of a user may include: facing the user among the first display area and the second display area when the foldable electronic device is in a folding state. The sensing device may include a display area. In this case, if the display area facing the user is the first display area, the second display area may correspond to the display area that is out of the user's field of view. In this case, the display position of the second application which is being executed or is scheduled to be executed may be moved to the second display area.

한편, 폴더블 표시 장치(1004)가 접힌 경우를 가정한다. 이 경우, 제1 영역(41) 및 제2 영역(42) 중 적어도 어느 한 영역만이 사용자(1)가 볼 수 있는 화면 영역이 될 수 있다. 도 11에 도시된 바와 같이, 폴더블 표시 장치(1004)에 구비된 센싱 장치(101)를 통하여 사용자(1)가 주시하고 있는 화면 영역이 제1 영역(41)인 것으로 판단할 수 있다. 폴더블 표시 장치(1004)의 특성 상, 사용자(1)가 볼 수 있는 화면 영역은 배타적이므로, 사용자(1) 주시하고 있는 화면 영역을 판단하는 것은 비교적 간단하고 정확할 것이다. 제1 영역(41)이 시선 영역인 것으로 판단된 경우, 제1 영역(41)에서 실행 중인 어플리케이션의 속성에 따라 새로운 어플리케이션 GUI의 표시 영역을 결정할 수 있다. 예를 들어, 새롭게 실행될 어플리케이션이 사용자(1)가 실행 후에 바로 사용하지 않는 것인 어플리케이션인 경우, 제1 영역(41)에 배치할 필요가 없으므로, 이 경우, 제1 영역(41)에서 실행 중인 작업의 영속성을 보장하기 위하여, 제2 영역(42)에 새로운 어플리케이션 GUI가 표시될 수 있을 것이다.On the other hand, it is assumed that the foldable display device 1004 is folded. In this case, only at least one of the first area 41 and the second area 42 may be a screen area visible to the user 1. As illustrated in FIG. 11, it may be determined that the screen area gazed by the user 1 is the first area 41 through the sensing device 101 provided in the foldable display device 1004. Since the screen area visible to the user 1 is exclusive due to the characteristics of the foldable display device 1004, it is relatively simple and accurate to determine the screen area that the user 1 watches. When it is determined that the first area 41 is the gaze area, the display area of the new application GUI may be determined according to the property of the application running in the first area 41. For example, if the application to be newly executed is an application that is not used immediately by the user 1, it does not need to be placed in the first area 41. In this case, the application to be newly executed is running in the first area 41. In order to ensure the persistence of the work, a new application GUI may be displayed in the second area 42.

도 11에는 도시되지 않았으나, 다음과 같은 경우를 가정할 수 있다. 폴더블 표시 장치(1004)의 폴딩 상태가 직각인 경우 또는 직각에 근접한 경우, 사용자(1)가 제1 영역(41) 및 제2 영역(42) 중 어느 한 영역만을 주시하고 있을 수 있다. 이 때, 주시하고 있는 영역을 판단함에 있어서, 폴더블 표시 장치(1004)에 구비된 다기능 센서(예: 중력 센서, 자이로 센서, 조도 센서, 근접 센서 등등) 등을 활용할 수 있을 것이다. 예를 들어, 상기 다기능 센서에 의하여 제1 영역(41)이 제2 영역(42)보다 지면에 더 수평에 가까운 것인 것으로 감지되면, 제1 영역(41)이 사용자(1) 실제로 주시하고 있는 화면 영역인 것으로 판단할 수 있을 것이다. 이에 따라, 새로운 어플리케이션 GUI를 제1 영역(41) 및 제2 영역(42) 중 어느 영역에 표시할 것인지 결정함에 있어서 참작 대상이 될 수 있다.Although not shown in FIG. 11, the following cases may be assumed. When the folding state of the foldable display device 1004 is at right angles or is close to the right angle, the user 1 may be watching only one of the first area 41 and the second area 42. In this case, in determining the area to be watched, a multifunctional sensor (eg, a gravity sensor, a gyro sensor, an illumination sensor, a proximity sensor, etc.) included in the foldable display device 1004 may be utilized. For example, if the multi-function sensor detects that the first area 41 is closer to the ground than the second area 42, the first area 41 is actually watching the user 1. It may be determined that the screen area. Accordingly, in determining which of the first area 41 and the second area 42 to display the new application GUI, it may be a reference object.

한편, 상술한 어플리케이션 GUI 표시의 위치를 선정하는 과정에 있어서, 화면 영역 중, 사용자가 주시하고 있는 시선 영역을 판단하는 것은 매우 중요하다. 이 때, 센싱 장치를 통하여 획득한 영상 데이터 등을 분석하여, 사용자의 시선을 쉽게 파악할 수 있으나, 사용자가 화면 영역 중 주시하고 있을 뿐만이 아니라 실제로 인지하고 있는 영역을 파악하기 위하여는 새로운 학습 방법이 필요하다. 또한, 사용자의 시선 영역은 짧은 시간 내에서도 이동될 수 있다. 아래에서 설명되는 몇몇 실시예에 따른 학습 방법은 언급한 문제점들을 해결하고, 사용자가 실제로 의도하거나 의도하지 않은 영역을 구분하기 위하여 사용자의 관심 영역을 판단하고자 한다.On the other hand, in the process of selecting the position of the application GUI display described above, it is very important to determine the gaze area that the user is watching from the screen area. At this time, the user's eyes can be easily identified by analyzing image data acquired through the sensing device, but a new learning method is needed to identify not only the user's gaze but also the area of the screen. Do. In addition, the gaze area of the user may be moved even within a short time. The learning method according to some embodiments described below attempts to determine the region of interest of the user in order to solve the problems mentioned and to distinguish the region that the user actually intends or does not intend.

도 12은 본 발명의 일 실시예에 따른 어플리케이션 실행 화면의 위치 선정 학습 방법의 순서도이다. 본 실시예에 대한 설명은 도 13을 함께 참조하여 설명하도록 한다.12 is a flowchart illustrating a positioning learning method of an application execution screen according to an embodiment of the present invention. Description of the present embodiment will be described with reference to FIG.

표시 장치의 화면 영역 중 일부이고, 사용자(1)의 시선 방향과 일치하는 영역인 제1 표시 영역(110)을 확인하고(S202), 제1 표시 영역(110) 내에 적어도 하나의 어플리케이션 실행 여부를 판단한다(S204).The first display area 110, which is a part of the screen area of the display device and which matches the visual direction of the user 1, is checked (S202), and whether or not at least one application is executed in the first display area 110 is determined. It is determined (S204).

제1 표시 영역(110)에 적어도 하나의 어플리케이션이 실행되고 있는지 여부를 판단하고(S206), 상기 어플리케이션에 대한 사용자 조작 입력(102)이 감지되면(S208), 제1 표시 영역(110)을 사용자의 관심 영역으로 결정한다(S210). 이는, 사용자(1)의 시선과 일치하는 영역에서의 어플리케이션에 대한 활성화 여부와 사용자의 적극적인 조작 행위가 있는지 여부를 통하여 사용자(1)가 의도하고 있는 영역을 정확히 판단할 수 있다.It is determined whether at least one application is running in the first display area 110 (S206), and when a user manipulation input 102 for the application is detected (S208), the first display area 110 is user-defined. Determine as the region of interest of (S210). This may accurately determine the area intended by the user 1 based on whether the application is activated in the area that matches the gaze of the user 1 and whether there is an active manipulation of the user.

제1 표시 영역(110)에서 어플리케이션이 실행 중이지 않거나(S206), 실행 중이지만 상기 어플리케이션에 대한 사용자 조작 입력이 없다면(S208), 제1 표시 영역(110)은 사용자(1)의 관심 영역이 아닌 것으로 판단될 수 있다.If the application is not running in the first display area 110 (S206) or is running but there is no user operation input for the application (S208), the first display area 110 is not the region of interest of the user 1. It can be determined.

일 실시예에서, 상기 제1 표시 영역(10)을 사용자(1)의 관심 영역으로 결정하는 단계는, 적어도 하나의 어플리케이션에 대한 사용자 조작 입력이 감지된 경우 제1 표시 영역(110)을 사용자의 관심 영역으로 결정하는 단계를 포함할 수 있다.In an embodiment, the determining of the first display area 10 as the ROI of the user 1 may include determining the first display area 110 when the user manipulation input for at least one application is detected. And determining the region of interest.

도 14는 본 발명의 다른 실시예에 따른 어플리케이션 실행 화면의 위치 선정 학습 방법의 순서도이다. 본 실시예에 대한 설명은 도 15를 함께 참조하여 설명하도록 한다.14 is a flowchart illustrating a positioning learning method of an application execution screen according to another exemplary embodiment of the present invention. A description of this embodiment will be described with reference to FIG. 15 together.

표시 장치의 화면 영역 중 일부이고, 사용자(1)의 시선 방향과 일치하지 않는 영역인 제2 표시 영역(120)을 확인하고(S222), 제2 표시 영역(120)에서 적어도 하나의 어플리케이션의 실행 여부를 판단한다(S224).The second display area 120, which is a part of the screen area of the display device and does not match the direction of the eye of the user 1, is checked (S222), and at least one application is executed in the second display area 120. It is determined whether or not (S224).

제2 표시 영역(120)에 적어도 하나의 어플리케이션이 실행되고 있는지 여부를 판단하고(S226), 사용자 조작 입력(120)의 방향이 제2 표시 영역(120)으로 향하는 것을 감지한다(S228). 이는, 가까운 장래에 사용자가 작업을 수행할 영역을 예측하기 위한 것이다.It is determined whether at least one application is running in the second display area 120 (S226), and it is detected that the direction of the user manipulation input 120 is directed to the second display area 120 (S228). This is to predict the area where the user will work in the near future.

제2 표시 영역(120)에 적어도 하나의 어플리케이션이 실행되고 있고, 제2 표시 영역(120)으로의 사용자의 조작 입력에 따른 이동이 감지된다면, 제2 표시 영역(120)을 사용자의 관심 영역으로 결정한다(S230).If at least one application is running in the second display area 120 and a movement according to a user's manipulation input to the second display area 120 is detected, the second display area 120 is moved to the user's interest area. Determine (S230).

만약에, 제2 표시 영역(120)에서 어플리케이션이 실행 중이지 않거나, 사용자의 조작 입력(102)이 전혀 감지되지 않았다면, 제2 표시 영역(120)을 사용자의 관심 영역이 아닌 것으로 판단할 수 있다(S232).If the application is not running in the second display area 120 or if the user's manipulation input 102 is not detected at all, it may be determined that the second display area 120 is not the user's area of interest. (S232).

일 실시예에서, 상기 제2 표시 영역(120)을 사용자(1)의 관심 영역으로 결정하는 단계는, 사용자 입력 장치로부터 수신한 조작 정보에 기초하여 제2 표시 영역(120)을 사용자의 관심 영역으로 결정하는 단계를 포함하되, 상기 조작 정보는 상기 화면 영역 내의 이동 방향을 가리키는 것일 수 있다. 예를 들어, 제2 표시 영역(120)에 어플리케이션이 실행 중에 있고, 제2 표시 영역(120)향하여 마우스의 방향이 제2 표시 영역(120)을 향하고 있는 것으로 판단되면, 제2 표시 영역(120)을 사용자의 관심 영역으로 결정할 수 있다.In an exemplary embodiment, the determining of the second display area 120 as the ROI of the user 1 may include determining the second display area 120 based on the manipulation information received from the user input device. And determining, wherein the manipulation information indicates a moving direction in the screen area. For example, when it is determined that an application is running in the second display area 120 and the direction of the mouse toward the second display area 120 is directed to the second display area 120, the second display area 120 is displayed. ) May be determined as a user's region of interest.

도 12 및 도 13를 참조하여 설명한 각각의 모든 단계는 일회에 걸쳐 수행되어 사용자의 관심 영역을 결정하는 것일 수 있으나, 각 단계가 반복되어 수행된 결과 사용자의 관심 영역의 패턴을 확인할 수 도 있다. 이에 따라, 짧은 시간에 사용자의 관심 영역을 정확히 판단할 수 있다.Each of the steps described with reference to FIGS. 12 and 13 may be performed once to determine the ROI of the user. However, as a result of the repeated steps, the pattern of the ROI of the user may be confirmed. Accordingly, the ROI of the user can be accurately determined in a short time.

지금까지 도 1 내지 도 15를 참조하여 설명된 본 발명의 개념은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.The concepts of the present invention described above with reference to FIGS. 1 through 15 may be implemented in computer readable code on a computer readable medium. The computer-readable recording medium may be, for example, a removable recording medium (CD, DVD, Blu-ray disc, USB storage device, removable hard disk) or a fixed recording medium (ROM, RAM, computer equipped hard disk). Can be. The computer program recorded on the computer-readable recording medium may be transmitted to another computing device and installed in the other computing device through a network such as the Internet, thereby being used in the other computing device.

도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.Although the operations are shown in a specific order in the drawings, it should not be understood that the operations must be performed in the specific order or sequential order shown or that all the illustrated operations must be executed to achieve the desired results. In certain circumstances, multitasking and parallel processing may be advantageous. Moreover, the separation of the various configurations in the embodiments described above should not be understood as such separation being necessary, and the described program components and systems may generally be integrated together into a single software product or packaged into multiple software products. It should be understood.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described above with reference to the accompanying drawings, those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features thereof. I can understand that. Therefore, it is to be understood that the embodiments described above are exemplary in all respects and not restrictive.

Claims (19)

컴퓨팅 장치에 의하여 수행되는 방법에 있어서,
어플리케이션 GUI(Graphical User Interface)의 최초 실행 영역의 위치를 획득하는 단계;
상기 최초 실행 영역의 위치를 보정하기 위한 상황 정보를 수신하고, 상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계; 및
상기 보정 결과에 따른 영역 위치에 상기 어플리케이션 GUI를 사용자의 조작 입력과 무관하게 표시하는 단계를 포함하는,
어플리케이션 실행 화면의 위치 선정 방법.
A method performed by a computing device,
Obtaining a location of an initial execution region of an application graphical user interface (GUI);
Receiving context information for correcting the position of the first execution region, and correcting the position of the region for displaying the application GUI based on the context information; And
Displaying the application GUI at an area position according to the correction result irrespective of a user's operation input.
How to select the location of the application execution screen.
제1 항에 있어서,
상기 상황 정보는,
상기 컴퓨팅 장치에 탑재된 이미지 디바이스로부터 센싱 된 사용자 안면에 대한 정보, 사용자 입력 장치로부터 수신된 조작 정보 및 상기 컴퓨팅 장치에서 실행되고 있는 어플리케이션의 활성화 정보 중 적어도 어느 하나를 포함하는,
어플리케이션의 실행 화면의 위치 선정 방법.
According to claim 1,
The situation information,
And at least one of information about a user's face sensed from an image device mounted in the computing device, operation information received from a user input device, and activation information of an application running on the computing device.
How to select the location of the execution screen of the application.
제1 항에 있어서,
상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는,
상기 어플리케이션 GUI을 표시할 수 있는 화면 영역의 일부인 사용자의 시선 영역을 판단하는 단계;
상기 시선 영역에서의 어플리케이션의 활성화 및 상기 어플리케이션에 대한 사용자 입력 중 적어도 하나를 감지하는 단계; 및
상기 감지 결과에 따라, 상기 시선 영역을 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치로 결정하는 단계를 포함하는,
어플리케이션 실행 화면의 위치 선정 방법.
According to claim 1,
Correcting the position of the area for displaying the application GUI based on the situation information,
Determining a gaze area of a user that is a part of a screen area capable of displaying the application GUI;
Sensing at least one of activation of an application in the gaze area and a user input to the application; And
Determining the gaze area as a location of an area for displaying the application GUI according to the detection result;
How to select the location of the application execution screen.
제1 항에 있어서,
상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는,
상기 화면 영역에서 실행 중인 적어도 하나의 어플리케이션 GUI의 실행 영역을 판단하는 단계; 및
상기 화면 영역 중, 상기 실행 영역을 제외한 비 실행 영역을 상기 어플리케이션 GUI를 표시하기 위한 위치로 결정하는 단계를 포함하는,
어플리케이션 실행 화면의 위치 선정 방법.
According to claim 1,
Correcting the position of the area for displaying the application GUI based on the situation information,
Determining an execution region of at least one application GUI running in the screen region; And
Determining a non-execution area of the screen area other than the execution area as a location for displaying the application GUI;
How to select the location of the application execution screen.
제4 항에 있어서,
상기 실행 영역을 제외한 비 실행 영역을 상기 어플리케이션 GUI를 표시하기 위한 위치로 결정하는 단계는,
상기 화면 영역 중 일부 영역에 가상 입력 인터페이스의 실행을 위한 표시 영역이 감지된 경우, 상기 가상 입력 인터페이스의 실행을 위한 표시 영역을 제외한 영역을 상기 어플리케이션 GUI를 표시하기 위한 위치로 결정하는 단계를 포함하는,
어플리케이션 실행 화면의 위치 선정 방법.
The method of claim 4, wherein
The determining of the non-execution area except the execution area as a location for displaying the application GUI may include:
If a display area for executing the virtual input interface is detected in a part of the screen area, determining an area except the display area for executing the virtual input interface as a location for displaying the application GUI; ,
How to select the location of the application execution screen.
제1 항에 있어서,
상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는,
사용자 입력 장치로부터 수신한 조작 정보에 기초하여, 상기 어플리케이션 GUI의 최초 실행 영역의 위치를 기준으로 변경된 위치를 판단하는 단계; 및
상기 변경된 위치를 상기 어플리케이션 GUI를 표시하기 위한 위치로 결정하는 단계를 포함하는,
어플리케이션 실행 화면의 위치 선정 방법.
According to claim 1,
Correcting the position of the area for displaying the application GUI based on the situation information,
Determining the changed position based on the position of the first execution region of the application GUI based on the operation information received from the user input device; And
Determining the changed location as a location for displaying the application GUI,
How to select the location of the application execution screen.
제1 항에 있어서,
어플리케이션 GUI(Graphical User Interface)의 최초 실행 영역의 위치를 획득하는 단계는,
상기 화면 영역은 적어도 제1 화면 영역 및 제2 화면 영역으로 구분되되, 상기 제1 화면 영역 및 상기 제2 화면 영역 중 어느 하나인 최초 실행 위치를 획득하는 단계를 포함하고,
상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는,
사용자 입력 장치로부터 수신된 조작 정보에 따른 상기 어플리케이션 GUI의 최초 실행 위치로부터 변경된 위치를 확인하고, 상기 컴퓨팅 장치에 탑재된 이미지 디바이스로부터 수신된 사용자의 얼굴 정보에 기초하여 상기 사용자의 시선이 상기 변경된 위치에 일치하는지 여부를 판단한 결과에 따라 보정하는 단계를 포함하고,
상기 보정 결과에 따른 영역 위치에 상기 어플리케이션 GUI를 사용자의 조작 입력과 무관하게 표시하는 단계는,
상기 변경된 위치를 새로운 위치로 하여 상기 어플리케이션 GUI를 표시하는 단계를 포함하는,
어플리케이션 실행 화면의 위치 선정 방법.
According to claim 1,
Acquiring the position of the first execution region of the application graphical user interface (GUI),
The screen area may be divided into at least a first screen area and a second screen area, and the method may include obtaining an initial execution position which is one of the first screen area and the second screen area.
Correcting the position of the area for displaying the application GUI based on the situation information,
A position changed from the initial execution position of the application GUI according to the operation information received from the user input device, and the gaze of the user is changed based on the face information of the user received from the image device mounted in the computing device And correcting according to a result of determining whether
The displaying of the application GUI at an area position according to the correction result irrespective of a user's operation input may include
Displaying the application GUI using the changed location as a new location;
How to select the location of the application execution screen.
제1 항에 있어서,
상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는,
상기 화면 영역에 대하여 적어도 일부 영역에 포함되는 기 실행 중인 어플리케이션 표시 영역 중, 정보 입출력 영역이 제외된 영역을 판단한 결과에 따라 상기 어플리케이션의 실행을 표시하기 위한 위치로 결정하는 단계를 포함하고,
상기 보정 결과에 따른 영역 위치에 상기 어플리케이션 GUI를 사용자의 조작 입력과 무관하게 표시하는 단계는,
상기 정보 입출력 영역이 제외된 영역을 상기 새로운 위치로 하여 상기 어플리케이션 GUI를 표시하는 단계를 포함하는,
어플리케이션 실행 화면의 위치 선정 방법.
According to claim 1,
Correcting the position of the area for displaying the application GUI based on the situation information,
Determining a position for displaying the execution of the application according to a result of determining the region in which the information input / output region is excluded from the previously executed application display region included in at least a portion of the screen region;
The step of displaying the application GUI regardless of the user's operation input in the area position according to the correction result,
Displaying the application GUI using an area in which the information input / output area is excluded as the new location;
How to select the location of the application execution screen.
제1 항에 있어서,
상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는,
상기 화면 영역에서 상기 어플리케이션과 다른 기 실행 중인 어플리케이션의 속성에 따라 상기 어플리케이션의 실행을 표시하기 위한 영역에서 상기 화면 영역을 제한하는 단계를 포함하고,
상기 보정 결과에 따른 영역 위치에 상기 어플리케이션 GUI를 사용자의 조작 입력과 무관하게 표시하는 단계는,
상기 제한의 결과에 따라 상기 기 실행 중인 어플리케이션 GUI를 상기 어플리케이션 GUI 표시에 우선 순위를 부여하는 단계를 포함하는,
어플리케이션 실행 화면의 위치 선정 방법.
According to claim 1,
Correcting the position of the area for displaying the application GUI based on the situation information,
Limiting the screen area in an area for displaying execution of the application according to an attribute of a previously running application different from the application in the screen area,
The displaying of the application GUI at an area position according to the correction result irrespective of a user's operation input may include:
Prioritizing the application GUI display based on the previously running application GUI according to a result of the restriction;
How to select the location of the application execution screen.
제1 항에 있어서,
상기 상황 정보에 기초하여 상기 어플리케이션 GUI를 표시하기 위한 영역의 위치를 보정하는 단계는,
상기 컴퓨팅 장치에 탑재된 이미지 디바이스로부터 사용자가 센싱 되지 않은 경우, 상기 어플리케이션 GUI를 표시하지 않는 것으로 결정하는 단계를 포함하고,
상기 보정 결과에 따른 영역 위치에 상기 어플리케이션 GUI를 사용자의 조작 입력과 무관하게 표시하는 단계는,
상기 결정에 따라 상기 화면 영역에서 상기 어플리케이션의 실행을 위한 표시를 제한하는 단계를 포함하는,
어플리케이션 실행 화면의 위치 선정 방법.
According to claim 1,
Correcting the position of the area for displaying the application GUI based on the situation information,
Determining not to display the application GUI when a user is not sensed from an image device mounted in the computing device,
The displaying of the application GUI at an area position according to the correction result irrespective of a user's operation input may include
Limiting the display for execution of the application in the screen area according to the determination;
How to select the location of the application execution screen.
표시 장치의 화면 영역 중 일부이고, 사용자의 시선 방향과 일치하는 영역인 제1 표시 영역을 확인하는 단계;
상기 제1 표시 영역 내에 적어도 하나의 어플리케이션의 실행 여부를 판단하는 단계; 및
상기 판단 결과에 따라 상기 제1 표시 영역에 상기 적어도 하나의 어플리케이션이 실행 중인 것으로 판단된 경우, 상기 제1 표시 영역을 상기 사용자의 관심 영역으로 결정하는 단계를 포함하는,
어플리케이션 실행 화면의 위치 선정 학습 방법
Identifying a first display area which is a part of the screen area of the display device, and which is an area corresponding to the user's gaze direction;
Determining whether to execute at least one application in the first display area; And
If it is determined that the at least one application is running on the first display area according to the determination result, determining the first display area as the ROI of the user.
How to learn positioning of application execution screen
제11 항에 있어서,
상기 제1 표시 영역을 상기 사용자의 관심 영역으로 결정하는 단계는,
상기 적어도 하나의 어플리케이션에 대한 사용자 조작 입력이 감지된 경우 상기 제1 표시 영역을 사용자의 관심 영역으로 결정하는 단계를 포함하는,
어플리케이션 실행 화면의 위치 선정 학습 방법.
The method of claim 11, wherein
The determining of the first display area as the ROI of the user may include:
Determining the first display area as an ROI of a user when a user manipulation input for the at least one application is detected;
How to learn positioning of application execution screen.
표시 장치의 화면 영역 중 일부이고, 사용자의 시선 방향과 일치하지 않는 영역인 제2 표시 영역을 확인하는 단계;
상기 제2 표시 영역에서 적어도 하나의 어플리케이션의 실행 여부를 판단하는 단계; 및
상기 판단 결과에 따라 상기 제2 표시 영역에서 상기 적어도 하나의 어플리케이션이 실행 중인 것으로 판단된 경우, 상기 제2 표시 영역을 상기 사용자의 관심 영역으로 결정하는 단계를 포함하는,
어플리케이션 실행 화면의 위치 선정 학습 방법.
Identifying a second display area which is a part of the screen area of the display device, and is an area which does not match the direction of the user's gaze;
Determining whether to execute at least one application in the second display area; And
If it is determined that the at least one application is running in the second display area according to the determination result, determining the second display area as the ROI of the user.
How to learn positioning of application execution screen.
제13 항에 있어서,
상기 제2 표시 영역을 상기 사용자의 관심 영역으로 결정하는 단계는,
사용자 입력 장치로부터 수신한 조작 정보에 기초하여 상기 제2 표시 영역을 사용자의 관심 영역으로 결정하는 단계를 포함하되, 상기 조작 정보는 상기 화면 영역 내의 이동 방향을 가리키는 것인,
어플리케이션 실행 화면의 위치 선정 학습 방법.
The method of claim 13,
The determining of the second display area as the ROI of the user may include:
Determining the second display area as a user's region of interest based on operation information received from a user input device, wherein the operation information indicates a direction of movement in the screen area;
How to learn positioning of application execution screen.
폴더블 전자 장치에 의하여 수행되는 방법에 있어서,
적어도 하나의 제1 어플리케이션의 실행을 표시하기 위한 제1 표시 영역 및 적어도 하나의 제2 어플리케이션의 실행을 표시하기 위한 제2 표시 영역 중 사용자의 주시 대상이 되는 어느 하나의 표시 영역을 감지하는 단계;
상기 감지 결과에 따라 상기 어느 하나의 표시 영역이 제1 표시 영역인 것으로 판단된 경우, 상기 제2 어플리케이션을 상기 제1 표시 영역에 표시하는 단계를 포함하는,
어플리케이션 실행 화면의 위치 선정 방법.
In the method performed by the foldable electronic device,
Detecting any one display area of a user's gaze among a first display area for displaying execution of at least one first application and a second display area for displaying execution of at least one second application;
Displaying the second application on the first display area when it is determined that the one display area is the first display area according to the detection result.
How to select the location of the application execution screen.
제15 항에 있어서,
상기 제2 어플리케이션을 상기 제1 표시 영역에 표시하는 단계는,
상기 제1 표시 영역에 상기 제1 어플리케이션이 실행 중인 것을 판단한 결과에 따라 상기 제1 표시 영역에 상기 제2 어플리케이션을 표시하는 단계를 포함하는,
어플리케이션 실행 화면의 위치 선정 방법.
The method of claim 15,
The displaying of the second application on the first display area may include:
Displaying the second application on the first display area according to a result of determining that the first application is running on the first display area.
How to select the location of the application execution screen.
제15 항에 있어서,
상기 제2 어플리케이션을 상기 제1 표시 영역에 표시하는 단계는,
상기 제1 표시 영역에 상기 제1 어플리케이션이 실행 중인 것을 판단한 결과에 따라 상기 제1 표시 영역에 새로운 어플리케이션의 표시를 제한하는 단계를 포함하는,
어플리케이션 실행 화면의 위치 선정 방법.
The method of claim 15,
The displaying of the second application on the first display area may include:
Limiting display of a new application in the first display area according to a result of determining that the first application is running in the first display area;
How to select the location of the application execution screen.
제15 항에 있어서,
사용자의 주시 대상이 되는 어느 하나의 표시 영역을 감지하는 단계는,
상기 폴더블 전자 장치가 폴딩 상태인 경우, 상기 제1 표시 영역 및 상기 제2 표시 영역 중 상기 사용자와 마주한 표시 영역을 감지하되, 상기 마주한 표시 영역은 제1 표시 영역인, 단계를 포함하는,
어플리케이션 실행 화면의 위치 선정 방법.
The method of claim 15,
Detecting any one display area that is the user's attention target,
When the foldable electronic device is in a folded state, detecting a display area facing the user among the first display area and the second display area, wherein the display area facing is a first display area;
How to select the location of the application execution screen.
제18 항에 있어서,
상기 제2 어플리케이션을 상기 제1 표시 영역에 표시하는 단계는,
상기 제2 어플리케이션의 표시 위치를 상기 제2 표시 영역으로 이동하되, 상기 제2 표시 영역은 상기 사용자의 시야에서 벗어난 것인, 단계를 포함하는,
어플리케이션 실행 화면의 위치 선정 방법.
The method of claim 18,
The displaying of the second application on the first display area may include:
Moving the display position of the second application to the second display area, wherein the second display area is out of view of the user;
How to select the location of the application execution screen.
KR1020180061716A 2018-05-30 2018-05-30 Method for selecting location to execution screen of application KR102496603B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180061716A KR102496603B1 (en) 2018-05-30 2018-05-30 Method for selecting location to execution screen of application

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180061716A KR102496603B1 (en) 2018-05-30 2018-05-30 Method for selecting location to execution screen of application

Publications (2)

Publication Number Publication Date
KR20190136264A true KR20190136264A (en) 2019-12-10
KR102496603B1 KR102496603B1 (en) 2023-02-03

Family

ID=69002631

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180061716A KR102496603B1 (en) 2018-05-30 2018-05-30 Method for selecting location to execution screen of application

Country Status (1)

Country Link
KR (1) KR102496603B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000047589A (en) * 1998-12-16 2000-07-25 포만 제프리 엘 Method and apparatus for presenting proximal feedback in voice command systems
WO2010116652A1 (en) * 2009-03-30 2010-10-14 日本電気株式会社 Device and method for providing application arrangement display rule, and application execution terminal device, and display method therefor
JP2013122529A (en) * 2011-12-12 2013-06-20 Sharp Corp Display device and display method for osd
KR20130106147A (en) 2012-03-19 2013-09-27 (주)티아이스퀘어 Method for controlling background image of application executed on touchscreen display device
KR20140081810A (en) * 2011-09-30 2014-07-01 마이크로소프트 코포레이션 Visual focus-based control of coupled displays

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000047589A (en) * 1998-12-16 2000-07-25 포만 제프리 엘 Method and apparatus for presenting proximal feedback in voice command systems
WO2010116652A1 (en) * 2009-03-30 2010-10-14 日本電気株式会社 Device and method for providing application arrangement display rule, and application execution terminal device, and display method therefor
KR20140081810A (en) * 2011-09-30 2014-07-01 마이크로소프트 코포레이션 Visual focus-based control of coupled displays
JP2013122529A (en) * 2011-12-12 2013-06-20 Sharp Corp Display device and display method for osd
KR20130106147A (en) 2012-03-19 2013-09-27 (주)티아이스퀘어 Method for controlling background image of application executed on touchscreen display device

Also Published As

Publication number Publication date
KR102496603B1 (en) 2023-02-03

Similar Documents

Publication Publication Date Title
US11314804B2 (en) Information search method and device and computer readable recording medium thereof
KR102230708B1 (en) User termincal device for supporting user interaxion and methods thereof
KR102479491B1 (en) Method for controlling multiple operating systems installed device and the same device
EP3872599A1 (en) Foldable device and method of controlling the same
US20140040828A1 (en) Method and system for tagging information about image, apparatus and computer-readable recording medium thereof
US20180132088A1 (en) MOBILE TERMINAL AND METHOD FOR CONTROLLING THE SAME (As Amended)
KR20140034612A (en) Display apparatus for multi user and the method thereof
US20140362002A1 (en) Display control device, display control method, and computer program product
US9671949B2 (en) Method and apparatus for controlling user interface by using objects at a distance from a device without touching
US20150033175A1 (en) Portable device
US10019148B2 (en) Method and apparatus for controlling virtual screen
US20210117048A1 (en) Adaptive assistive technology techniques for computing devices
US11915671B2 (en) Eye gaze control of magnification user interface
EP2677413B1 (en) Method for improving touch recognition and electronic device thereof
KR20190063853A (en) Method and apparatus for moving an input field
US20130111327A1 (en) Electronic apparatus and display control method
US9665260B2 (en) Method and apparatus for controlling screen of mobile device
KR102496603B1 (en) Method for selecting location to execution screen of application
KR102353919B1 (en) Electronic device and method for performing predefined operations in response to pressure of touch
EP2755124A1 (en) Enhanced display of interactive elements in a browser
EP3128397B1 (en) Electronic apparatus and text input method for the same
US10395132B2 (en) Electronic device for extracting distance of object and displaying information and method thereof
KR102324946B1 (en) Method and apparatus for automatic division of display area
US11416140B2 (en) Touchscreen devices to transmit input selectively
KR20190063803A (en) Method and apparatus for image synthesis of object

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant