KR20200000423A - System and method of determining micro spare time using sensor of mobile apparatus - Google Patents
System and method of determining micro spare time using sensor of mobile apparatus Download PDFInfo
- Publication number
- KR20200000423A KR20200000423A KR1020190174436A KR20190174436A KR20200000423A KR 20200000423 A KR20200000423 A KR 20200000423A KR 1020190174436 A KR1020190174436 A KR 1020190174436A KR 20190174436 A KR20190174436 A KR 20190174436A KR 20200000423 A KR20200000423 A KR 20200000423A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- mobile device
- time
- determining
- sensor
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
-
- H04M1/72522—
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72469—User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
-
- H04M1/72583—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/34—Microprocessors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/36—Memories
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/38—Displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/12—Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
Abstract
Description
본 발명은 모바일 기기와 센서를 이용한 자투리 시간 판단 시스템 및 방법에 관한 것으로, 보다 구체적으로는 모바일 기기와 센서를 통해 얻은 사용자의 물리적 상황정보 및 모바일 기기 사용정보를 기초로 자투리 시간을 판단하는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for determining the utterance time using a mobile device and a sensor, and more particularly, a system for determining the utterance time based on the physical situation information and the mobile device usage information of a user obtained through the mobile device and the sensor; It is about a method.
직장 혹은 작업에 많은 시간을 보내는 현대인의 특성상 직장 외 다른 곳에 쓸 수 있는 시간을 (예, 직장인 부모가 아이들을 위해 사용하는 시간) 충분히 확보하는 것은 매우 어렵다. Due to the nature of modern people who spend a lot of time at work or at work, it is very difficult to secure enough time for work outside of work (eg, the time parents spend on their children).
이러한 문제는 직장 혹은 작업에 소비하는 시간과 직장 외 다른 곳에 사용하는 시간은 상호 배타적인 것으로 인식되는 것으로부터 기인한다고 할 수 있다. This problem can be attributed to the fact that the time spent at work or at work and the time spent outside the work are perceived as mutually exclusive.
본 발명이 이루고자 하는 목적은 모바일 기기와 센서를 이용하여 사용자의 자투리 시간을 판단하는 시스템 및 방법을 제공하는 것이다. It is an object of the present invention to provide a system and method for determining a user's utterance time using a mobile device and a sensor.
상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 모바일 기기의 센서를 이용한 자투리 시간 판단 방법은 하드웨어 센서부 및 소프트웨어 센서부 중 적어도 어느 하나를 이용하여 사용자의 정보를 획득하는 단계 및 상기 사용자의 정보를 기초로 사용자의 자투리 시간을 판단하는 단계를 포함한다.According to an embodiment of the present invention, a method for determining a utterance time using a sensor of a mobile device includes: acquiring user information using at least one of a hardware sensor unit and a software sensor unit; Determining the utterance time of the user based on the information of the.
본 발명의 일 실시예에 있어서, 상기 사용자의 정보를 획득하는 단계는 상기 하드웨어 센서부를 이용하여 상기 사용자의 물리적 상황 정보를 획득할 수 있다.In an embodiment of the present disclosure, the acquiring of the information of the user may acquire physical state information of the user by using the hardware sensor unit.
본 발명의 일 실시예에 있어서, 상기 사용자의 정보를 획득하는 단계는 상기 소프트웨어 센서부를 이용하여 상기 사용자의 모바일 기기 사용 정보를 획득할 수 있다.In an embodiment of the present disclosure, the acquiring of the information of the user may acquire the mobile device usage information of the user by using the software sensor unit.
본 발명의 일 실시예에 있어서, 상기 사용자의 자투리 시간이 검출된 경우, 상기 사용자에게 즉시적으로 알림을 수행하는 단계를 더 포함할 수 있다. In an embodiment of the present disclosure, if the user's utterance time is detected, the method may further include immediately notifying the user.
본 발명의 일 실시예에 있어서, 상기 사용자의 상기 자투리 시간을 판단하는 단계는 상기 사용자가 이어폰을 착용하고서 혼자서 걸어가는 경우를 의미하는 이어폰 착용 걷기 이벤트를 판단할 수 있다. 상기 이어폰 착용 걷기 이벤트는 상기 하드웨어 센서부의 가속도계 또는 GPS 센서와 상기 소프트웨어 센서부의 이벤트 검출기의 이어폰 이벤트를 이용하여 판단될 수 있다.In one embodiment of the present invention, the step of determining the poke time of the user may determine the wearing event walking wear earphone means that the user walks alone wearing the earphone. The earphone wearing walking event may be determined using an earphone event of an accelerometer or a GPS sensor of the hardware sensor unit and an event detector of the software sensor unit.
본 발명의 일 실시예에 있어서, 상기 사용자의 상기 자투리 시간을 판단하는 단계는 상기 사용자가 미팅 시작 전에 대기하고 있는 것을 의미하는 미팅 대기 이벤트를 판단할 수 있다. 상기 미팅 대기 이벤트는 상기 모바일 기기의 캘린더 정보 및 미팅 참가자의 GPS 위치 정보를 이용하여 판단될 수 있다.In one embodiment of the present invention, the step of determining the dolmen time of the user may determine a meeting waiting event that means that the user is waiting before the start of the meeting. The meeting waiting event may be determined using calendar information of the mobile device and GPS location information of a meeting participant.
본 발명의 일 실시예에 있어서, 상기 사용자의 상기 자투리 시간을 판단하는 단계는 상기 사용자가 메신저를 이용하여 상대방과 대화 중이고, 상기 사용자가 상기 상대방의 메시지를 대기 중인 것을 의미하는 메신저 응답 대기 이벤트를 판단할 수 있다. 상기 메신저 응답 대기 이벤트는 상기 소프트웨어 센서부의 앱 사용 모니터를 이용하여 판단될 수 있다.In one embodiment of the present invention, the step of determining the utterance time of the user is a messenger response waiting event means that the user is talking to the other party using a messenger, the user is waiting for a message of the other party You can judge. The messenger response waiting event may be determined using an app usage monitor of the software sensor unit.
본 발명의 일 실시예에 있어서, 상기 사용자의 상기 자투리 시간을 판단하는 단계는 상기 사용자가 건물 내에서 이동 중인 것을 의미하는 건물 내 걷기 이벤트를 판단할 수 있다. 상기 건물 내 걷기 이벤트는 상기 하드웨어 센서부의 GPS 센서 및 Wi-Fi 신호를 이용하여 판단될 수 있다.In one embodiment of the present invention, the step of determining the poke time of the user may determine a walking event in the building means that the user is moving in the building. The walking event in the building may be determined using a GPS sensor and a Wi-Fi signal of the hardware sensor unit.
본 발명의 일 실시예에 있어서, 상기 사용자의 상기 자투리 시간을 판단하는 단계는 상기 사용자가 엘리베이터를 기다리고 있는 것을 의미하는 엘리베이터 기다림 이벤트를 판단할 수 있다. 상기 엘리베이터 기다림 이벤트는 상기 하드웨어 센서부의 자기장 센서 및 가속도계를 이용하여 판단될 수 있다.In one embodiment of the present invention, the step of determining the dead time of the user may determine the elevator waiting event means that the user is waiting for the elevator. The elevator waiting event may be determined using a magnetic field sensor and an accelerometer of the hardware sensor unit.
본 발명에 따른 모바일 기기와 센서를 이용한 자투리 시간 판단 방법에 따르면, 사용자의 모바일 기기와 센서들을 이용하여 사용자의 다양한 타입의 자투리 시간을 실시간으로 판단할 수 있다. 상기 사용자의 자투리 시간을 활용하여 상기 사용자에게 다양한 애플리케이션 서비스를 제공할 수 있다. According to the method for determining a utterance time using a mobile device and a sensor according to the present invention, various types of utterance time of a user can be determined in real time using the user's mobile device and sensors. Various application services may be provided to the user by utilizing the user's utterance time.
도 1은 본 발명의 일 실시예에 따른 오디오 북 제작 시스템을 나타내는 블록도이다.
도 2는 도 1의 모바일 장치의 제1 유저 인터페이스의 북 리스트 페이지를 나타내는 개념도이다.
도 3은 도 1의 모바일 장치의 제1 유저 인터페이스의 북 레코딩 페이지를 나타내는 개념도이다. 1 is a block diagram illustrating an audio book production system according to an embodiment of the present invention.
FIG. 2 is a conceptual diagram illustrating a book list page of the first user interface of the mobile device of FIG. 1.
3 is a conceptual diagram illustrating a book recording page of the first user interface of the mobile device of FIG. 1.
본문에 개시되어 있는 본 발명의 실시예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다.With respect to the embodiments of the present invention disclosed in the text, specific structural to functional descriptions are merely illustrated for the purpose of describing the embodiments of the present invention, embodiments of the present invention may be implemented in a variety of forms and It should not be construed as limited to the embodiments described in.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to a specific disclosed form, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms may be used for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between. Other expressions describing the relationship between components, such as "between" and "immediately between," or "neighboring to," and "directly neighboring to" should be interpreted as well.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "having" are intended to indicate that the described features, numbers, steps, operations, components, parts or combinations thereof exist, but one or more other features or numbers, It is to be understood that it does not exclude in advance the possibility of the presence or addition of steps, actions, components, parts or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. .
한편, 어떤 실시예가 달리 구현 가능한 경우에 특정 블록 내에 명기된 기능 또는 동작이 순서도에 명기된 순서와 다르게 일어날 수도 있다. 예를 들어, 연속하는 두 블록이 실제로는 실질적으로 동시에 수행될 수도 있고, 관련된 기능 또는 동작에 따라서는 상기 블록들이 거꾸로 수행될 수도 있다.On the other hand, when an embodiment is otherwise implemented, a function or operation specified in a specific block may occur out of the order specified in the flowchart. For example, two consecutive blocks may actually be performed substantially simultaneously, and the blocks may be performed upside down depending on the function or operation involved.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. The same reference numerals are used for the same elements in the drawings, and duplicate descriptions of the same elements are omitted.
도 1은 본 발명의 일 실시예에 따른 오디오 북 제작 시스템을 나타내는 블록도이다. 도 2는 도 1의 모바일 장치의 제1 유저 인터페이스의 북 리스트 페이지를 나타내는 개념도이다. 도 3은 도 1의 모바일 장치의 제1 유저 인터페이스의 북 레코딩 페이지를 나타내는 개념도이다. 1 is a block diagram illustrating an audio book production system according to an embodiment of the present invention. FIG. 2 is a conceptual diagram illustrating a book list page of the first user interface of the mobile device of FIG. 1. 3 is a conceptual diagram illustrating a book recording page of the first user interface of the mobile device of FIG. 1.
도 1 내지 도 3을 참조하면, 상기 오디오 북 제작 시스템은 사용자(예컨대, 부모)로 하여금 상기 사용자의 자투리 시간을 활용하여 자녀를 위한 오디오 북을 만들 수 있도록 해준다. 1 to 3, the audio book production system enables a user (eg, a parent) to make an audio book for a child by using the user's utterance time.
본 발명에서 상기 자투리 시간이란 일상 생활에서 종종 발생하는 인지 부하(cognitive load)가 적은, 짧은 시간 단위를 의미한다. 상기 자투리 시간은 사용자의 계획된 일정들 사이에 발생하는, 계획되지 않은 여유시간을 의미할 수 있다. 예를 들어, 상기 자투리 시간은 엘리베이터를 기다리는 시간일 수 있다. In the present invention, the term “cutting time” refers to a short time unit having a low cognitive load that often occurs in daily life. The cut time may mean unplanned spare time that occurs between the user's planned schedules. For example, the cut time may be a time waiting for an elevator.
상기 자투리 시간은 아래와 같은 특징을 포함한다.The cut time includes the following features.
1) 일상 생활에서 종종 발생하나 무심코 지나쳐버리기 쉽다. 1) Often occurs in everyday life, but it is easy to overlook.
2) 인지 부하가 적은 시간이기 때문에 부수적인 태스크를 수행 할 수 있다.2) Since the cognitive load is low, additional tasks can be performed.
3) 하나 하나는 짧은 단위의 시간이지만 이들이 모이면 의미있는 큰 단위의 시간이 될 수 있다.3) Each one is a short unit of time, but when they come together, it can be a significant large unit of time.
상기 오디오 북 제작 시스템은 상기 사용자의 직장에서의 상기 자투리 시간을 실시간으로 판단하여, 상기 사용자로 하여금 오디오 북을 문장 단위로 녹음할 수 있도록 할 수 있다. 상기 오디오 북 제작 시스템에서 상기 자녀는 상기 부모의 목소리로 녹음된 오디오 북을 즐길 수 있다. The audio book production system may determine in real time the utterance time at the user's workplace to enable the user to record the audio book in sentence units. In the audio book production system, the child can enjoy the audio book recorded in the voice of the parents.
상기 오디오 북 제작 시스템의 디자인 목표는 아래와 같다. The design goal of the audio book production system is as follows.
1) 상기 자투리 시간 동안 하나의 녹음 동작을 수행할 수 있도록 한다. 상기 오디오 북 제작 시스템에서 제공하는 녹음 태스크의 단위는 하나의 자투리 시간 세션 동안 완료될 수 있도록 충분히 짧아야 한다 (예, 한 문장 녹음). 1) It is possible to perform one recording operation during the cut time. The unit of recording task provided by the audio book production system should be short enough to be completed during one narration time session (eg, one sentence recording).
2) 녹음의 기회를 극대화 한다. 상기 오디오 북 녹음의 기회를 극대화하기 위해서는 상기 사용자가 녹음이 가능한 시점을 실시간으로 알 수 있고, 적극적으로 판단할 수 있어야 한다.2) Maximize recording opportunities. In order to maximize the opportunity of recording the audio book, the user should be able to know in real time the time at which the recording is possible and actively determine it.
3) 상황에 적합한 녹음 옵션을 제공한다. 직장에서는 직장 동료와 휴게실에서 함께 있는 것과 같이 다른 사람과 같이 있는 공용 공간에서 상기 자투리 시간이 발생하는 경우가 많다. 다른 사람 옆에서 연극을 하듯이 오디오 북을 녹음하는 것은 상기 사용자에게 곤란한 일일 수 있다. 따라서, 상기 오디오 북 제작 시스템은 상황에 적합한 녹음 옵션을 제공할 수 있다. 3) Provide recording options appropriate to the situation. At work, the time is often spent in a common space with another person, such as in a break room with a co-worker. Recording audiobooks, such as playing next to others, can be frustrating for the user. Accordingly, the audio book production system can provide a recording option suitable for a situation.
상기 오디오 북 제작 시스템은 제1 모바일 장치(100), 서버(200) 및 제2 모바일 장치(300)를 포함할 수 있다. 상기 제1 모바일 장치(100)는 상기 사용자의 모바일 장치일 수 있다. 예를 들어, 상기 제1 모바일 장치(100)는 상기 사용자의 상기 스마트폰일 수 있다. 상기 제2 모바일 장치(300)는 상기 사용자의 자녀의 모바일 장치일 수 있다. 예를 들어, 상기 제2 모바일 장치(300)는 상기 사용자의 자녀의 태블릿일 수 있다. The audio book production system may include a first
상기 제1 모바일 장치(100)는 상기 사용자가 상기 오디오 북을 녹음하기 위한 장치이다. 상기 제1 모바일 장치(100)는 상기 제1 모바일 장치(100)의 관련 이벤트를 계속하여 모니터하며, 상기 사용자의 상기 자투리 시간을 검출한다. The first
상기 사용자의 상기 자투리 시간이 검출되면, 상기 제1 모바일 장치(100)는 상기 사용자에게 상기 자투리 시간이 검출되었음을 알린다. 상기 제1 모바일 장치(100)는 진동과 함께 알림 바를 화면에 표시할 수 있다. When the cut time of the user is detected, the first
도 2에서 보는 바와 같이, 상기 제1 모바일 장치(100)의 유저 인터페이스의 북 리스트 페이지는 상기 사용자가 녹음할 책을 선택할 수 있도록 등록된 책의 제목과 등록된 책의 표지 썸네일을 포함하는 등록된 책의 리스트를 표시할 수 있다. 또한 상기 등록된 책의 리스트는 상기 등록된 책의 녹음 진행 정도를 표시할 수 있다. 상기 사용자가 책의 녹음을 완료한 경우, 상기 등록된 책의 리스트에는 종료 마크가 표시될 수 있다. As shown in FIG. 2, the book list page of the user interface of the first
도 3에서 보는 바와 같이, 상기 제1 모바일 장치(100)의 상기 유저 인터페이스의 북 레코딩 페이지는 상기 제1 모바일 장치(100)의 표시부에 책의 한 페이지를 표시한다. 또한, 녹음 태스크는 책의 한 문장으로 설정될 수 있다. 유아용 그림 책의 경우, 상기 한 문장의 길이가 짧으므로, 상기 자투리 시간 세션 동안 녹음 태스크를 수행하기에 적절한 길이일 수 있다. As shown in FIG. 3, the book recording page of the user interface of the first
상기 한 페이지에 여러 개의 문장들이 있는 경우, 상기 북 레코딩 페이지는 녹음 대상의 문장을 강조하여 표시할 수 있다. 예를 들어, 상기 강조 표시는 밑줄일 수 있다. If there are several sentences on the page, the book recording page may highlight and display the sentences to be recorded. For example, the highlight may be underlined.
상기 북 레코딩 페이지는 녹음 버튼, 재생 버튼 등을 포함할 수 있다. 상기 북 레코딩 페이지를 좌우로 스와이프하는 경우, 상기 책의 페이지가 이전 및 다음으로 넘어갈 수 있다. The book recording page may include a record button, a play button, and the like. When swiping the book recording page from side to side, the pages of the book can be turned to previous and next.
상기 오디오 북 제작 시스템은 두 가지 녹음 모드를 제공할 수 있다. 제1 녹음 모드는 watch-record 모드이고, 제2 녹음 모드는 listen-record 모드이며, 상기 녹음 모드는 상기 사용자의 상황에 따라 선택될 수 있다. The audio book production system may provide two recording modes. The first recording mode is a watch-record mode, the second recording mode is a listen-record mode, and the recording mode may be selected according to the situation of the user.
상기 제1 녹음 모드에서 상기 사용자는 상기 제1 모바일 장치(100)의 표시부를 보면서 녹음을 진행할 수 있다. 상기 사용자가 상기 제1 모바일 장치(100)의 상기 표시부의 녹음 버튼을 누르면 상기 녹음이 시작되고, 다시 상기 녹음 버튼을 누르면 상기 녹음이 종료될 수 있다.In the first recording mode, the user may perform recording while watching the display unit of the first
상기 제2 녹음 모드는 주변에 다른 사람이 있는 경우에 적합한 녹음 모드이다. 상기 사용자가 상기 제1 모바일 장치(100)를 상기 사용자의 귀에 접근시키면 상기 제2 녹음 모드가 자동으로 활성화되고, 상기 사용자가 상기 제1 모바일 장치(100)를 상기 사용자의 귀에서 떨어뜨리면 상기 제2 녹음 모드는 자동적으로 비활성화된다. 상기 제1 모바일 장치(100)는 근접 센서를 이용하여 상기 제2 녹음 모드의 활성화 및 비활성화를 판단할 수 있다. 상기 제2 녹음 모드에서, 상기 사용자가 상기 제1 모바일 장치(100)를 상기 사용자의 귀에 접근시키면 수화기를 통해 읽어야 할 문장이 기계 음성으로 재생된다. 상기 사용자는 상기 기계 음성으로 재생된 문장을 따라 읽어 녹음을 진행한다. 상기 제2 녹음 모드에서 상기 사용자가 상기 제1 모바일 장치(100)를 상기 사용자의 귀에서 떨어뜨리면 상기 제2 녹음 모드가 종료되면서 상기 녹음 내용이 자동으로 저장될 수 있다. The second recording mode is a recording mode suitable when there is another person around. When the user approaches the first
상기 서버(200)는 상기 제1 모바일 장치(100)에서 녹음된 녹음 파일을 저장하며, 상기 녹음 파일을 문장 단위로 또는 오디오 북으로 병합하여 상기 제2 모바일 장치(300)에 출력할 수 있다. The
상기 제2 모바일 장치(300)는 상기 제1 모바일 장치(100)의 사용자에 의해 녹음된 녹음 파일 또는 상기 녹음 파일의 집합인 오디오 북을 재생한다. The second
예를 들어, 상기 제2 모바일 장치(300)의 사용자는 상기 제1 모바일 장치(100)의 사용자의 자녀일 수 있다. For example, the user of the second
상기 제2 모바일 장치(300)의 유저 인터페이스는 상기 제1 모바일 장치(100)의 유저 인터페이스에서 녹음 버튼이 없는 것을 제외하고는 거의 동일하다.The user interface of the second
또한, 상기 제2 모바일 장치(300)는 상기 사용자의 자녀의 인터랙션을 모니터하여, 상기 서버(200)로 전송할 수 있다. 상기 인터랙션 정보는 상기 서버(200)를 거쳐 상기 제1 모바일 장치(100)로 전달될 수 있다. 예를 들어, 상기 인터랙션 정보는 상기 사용자의 자녀가 상기 녹음 파일을 재생한 횟수를 포함할 수 있다. 예를 들어, 상기 인터랙션 정보는 상기 녹음 파일을 재생하는 동안의 상기 사용자의 자녀의 표정일 수 있다. 상기 녹음 파일을 재생하는 동안의 상기 사용자의 자녀의 표정은 상기 제2 모바일 장치(300)의 카메라에 의해 촬영될 수 있다. 예를 들어, 상기 인터랙션 정보는 상기 녹음 파일을 재생하는 동안의 상기 사용자의 자녀의 목소리일 수 있다. 상기 녹음 파일을 재생하는 동안의 상기 사용자의 자녀의 목소리는 상기 제2 모바일 장치(300)의 마이크에 의해 녹음될 수 있다. 예를 들어, 상기 인터랙션 정보는 상기 녹음 파일을 재생하는 동안의 상기 사용자의 자녀의 감정일 수 있다. 상기 녹음 파일을 재생하는 동안의 상기 사용자의 자녀의 감정은 상기 사용자의 자녀의 표정 또는 상기 사용자의 자녀의 상기 목소리 등을 통해 상기 제2 모바일 장치(300)에서 판단될 수 있다. In addition, the second
도 1을 다시 참조하면, 상기 제1 모바일 장치(100)는 제1 유저 인터페이스(110), 북 매니저(120), 자투리 시간 판단부(130), TTS 매니저(140), 녹음 매니저(150), 알림 매니저(160), 제1 웹 API 클라이언트(170), 제1 하드웨어 센서부(180), 제1 소프트웨어 센서부(190) 및 제1 데이터베이스(195)를 포함할 수 있다. Referring back to FIG. 1, the first
예를 들어, 상기 제1 하드웨어 센서부(180)는 가속도계(181), 근접 센서(182), 마이크(183) 및 GPS 센서(184)를 포함할 수 있다. 예를 들어, 상기 제1 소프트웨어 센서부(190)는 앱 사용 모니터(191) 및 이벤트 검출기(192)를 포함할 수 있다.For example, the first
상기 서버(200)는 웹 API 서버(210), 북 컨텐트 매니저(220), 북 데이터베이스(230), 녹음 데이터베이스(240), 패밀리 데이터베이스(250) 및 인터랙션 데이터베이스(260)를 포함할 수 있다. The
상기 제2 모바일 장치(300)는 제2 유저 인터페이스(310), 제2 웹 API 클라이언트(320), 인터랙션 모니터(330), 제2 하드웨어 센서부(340), 제2 소프트웨어 센서부(350) 및 제2 데이터베이스(360)를 포함할 수 있다. The second
상기 제1 유저 인터페이스(110)는 도 2 및 도 3에서 보듯이, 상기 제1 모바일 장치(100)가 녹음할 책을 선택하고, 녹음을 진행할 수 있도록 하는 인터페이스를 제공한다.As shown in FIGS. 2 and 3, the
상기 북 매니저(120)는 상기 서버(200)의 상기 북 데이터베이스(230)로부터 상기 사용자와 관련된 책 정보를 수신한다. The
상기 자투리 시간 판단부(130)는 상기 제1 하드웨어 센서부(180) 및 상기 제1 소프트웨어 센서부(190)를 이용하여 상기 사용자의 자투리 시간을 판단한다. The edge
상기 자투리 시간 판단부(130)가 판단하는 제1 자투리 시간은 '여가용 장기 사용 이벤트'일 수 있다. 상기 여가용 장기 사용 이벤트는 상기 제1 소프트웨어 센서부(190)의 상기 앱 사용 모니터(191)를 이용하여 판단될 수 있다. The first cut time determined by the
예를 들어, 웹 브라우저 또는 소셜 네트워크 서비스 어플리케이션의 사용이 특정 시간 이상 지속된 경우, 상기 자투리 시간 판단부(130)는 상기 여가용 장기 사용 이벤트로 판단할 수 있다. 예를 들어, 상기 특정 시간은 90초로 설정될 수 있다. For example, when the use of a web browser or a social network service application continues for a specific time or more, the utterance
상기 자투리 시간 판단부(130)가 판단하는 제2 자투리 시간은 '전화 통화 직후 이벤트'일 수 있다. 상기 전화 통화 직후 이벤트는 상기 제1 소프트웨어 센서부(190)의 상기 이벤트 검출기(192)를 이용하여 판단될 수 있다. 상기 사용자가 전화 통화를 한다는 것은 큰 소리를 내어 말을 할 수 있는 상황에 있음을 의미할 수 있다. 따라서, 상기 자투리 시간 판단부(130)는 상기 전화 통화 직후를 상기 자투리 시간 중 하나로 판단할 수 있다. The second cut time determined by the
예를 들어, 상기 이벤트 검출기(192)를 통해 전화 통화가 끝나거나, 전화 통화가 취소된 것을 인식한 경우, 상기 자투리 시간 판단부(130)는 상기 전화 통화 직후 이벤트로 판단할 수 있다. For example, when it is recognized through the
상기 자투리 시간 판단부(130)가 판단하는 제3 자투리 시간은 '혼자 걷기 이벤트'일 수 있다. 상기 혼자 걷기 이벤트는 상기 제1 하드웨어 센서부(180)의 상기 가속도계(181) 및 상기 제1 소프트웨어 센서부(190)의 상기 이벤트 검출기(192)를 이용하여 판단될 수 있다. 이와는 달리, 상기 혼자 걷기 이벤트는 상기 제1 하드웨어 센서부(180)의 상기 GPS 센서(184) 및 상기 제1 소프트웨어 센서부(190)의 상기 이벤트 검출기(192)를 이용하여 판단될 수 있다. 상기 가속도계(181) 또는 상기 GPS 센서(184)를 통해 상기 사용자가 이동하는 것을 판단할 수 있고, 상기 이벤트 검출기(192)를 통해 이어폰 이벤트가 발생하는지 판단할 수 있다. 상기 사용자가 걸어가면서 이어폰 잭에 이어폰을 연결하거나 이어폰을 조작했다는 것은 상기 사용자가 혼자 걷는 상황으로 볼 수 있으며, 혼자 걷는 상황은 상기 자투리 시간 중 하나가 될 수 있다. The third cut time determined by the
즉, 상기 가속도계(181) 또는 상기 GPS 센서(184)를 통해 상기 사용자가 이동한 것으로 판단하고, 상기 이벤트 검출기(192)를 통해 상기 이어폰 이벤트가 발생한 것으로 판단하면, 상기 자투리 시간 판단부(130)는 상기 혼자 걷기 이벤트로 판단할 수 있다. That is, when it is determined that the user has moved through the
상기 자투리 시간 판단부(130)가 판단하는 제5 자투리 시간은 '운전 중 멈춤 이벤트'일 수 있다. 신호등으로 인해 운전 중에 차량이 멈추면 수십 초 내지 수 분의 여유 시간이 발생할 수 있으므로, 상기 자투리 시간 판단부(130)는 상기 운전 중 멈춤 이벤트를 다른 작업이나 활동 (예를 들어, 책을 읽을 수 있는 상황)으로 판단할 수 있다. 상기 자투리 시간 판단부(130)는 상기 GPS 센서(184)를 통해 상기 제1 모바일 장치(100)의 위치 변화를 추적하여 상기 운전 중 멈춤 이벤트를 판단할 수 있다. The fifth cut time determined by the
상기 자투리 시간 판단부(130)가 판단하는 제6 자투리 시간은 '미팅 대기 이벤트'일 수 있다. 상기 미팅 대기 이벤트는 상기 제1 모바일 장치(100)의 캘린더 정보를 동기화하여 상기 미팅 개최 여부 및 미팅 참가자를 판단하고, 상기 미팅 참가자의 GPS 위치 정보를 수신하여 판단될 수 있다. The sixth drop time determined by the drop
상기 자투리 시간 판단부(130)가 판단하는 제7 자투리 시간은 '메신저 응답 대기 이벤트'일 수 있다. 상기 메신저 응답 대기 이벤트는 상기 제1 모바일 장치(100)의 상기 앱 사용 모니터(191)를 이용하여 판단될 수 있다. 상기 사용자가 메신저로 다른 사람과 대화 중이고, 상기 사용자가 상대방의 메시지를 대기 중이라면 상기 자투리 시간 판단부(130)는 상기 메신저 응답 대기 이벤트를 판단할 수 있다. The seventh cut time determined by the
상기 자투리 시간 판단부(130)가 판단하는 제8 자투리 시간은 '건물 내 걷기 이벤트'일 수 있다. 건물 내에서 이동 중일 때에는 실외 환경에 비해 조용하므로 책을 녹음하기에 적합한 상황일 수 있다. 상기 자투리 시간 판단부(130)는 상기 GPS 센서(184) 및 Wi-Fi 신호를 이용하여 상기 건물 내 걷기 이벤트를 판단할 수 있다. 상기 GPS 센서(184)를 이용하여 상기 사용자가 건물 내에 있는지를 판단할 수 있고, 상기 Wi-Fi 신호를 이용하여 상기 사용자가 건물 내에서 이동 중인지를 판단할 수 있다. The eighth time determined by the dead
상기 자투리 시간 판단부(130)가 판단하는 제9 자투리 시간은 '엘리베이터 기다림 이벤트'일 수 있다. 엘리베이터를 기다리는 시간은 책을 녹음하기에 적합한 상황일 수 있다. 상기 자투리 시간 판단부(130)는 상기 하드웨어 센서부(180)의 자기장 센서 및 가속도계를 이용하여 상기 엘리베이터 기다림 이벤트를 판단할 수 있다. The ninth cut time determined by the
상기 TTS 매니저(140)는 상기 listen-record 모드를 지원하기 위한 구성이다. 상기 TTS 매니저(140)는 텍스트 투 스피치 기능을 지원한다. 상기 TTS 매니저(140)는 상기 북 매니저(120)가 로드하고, 상기 제1 유저 인터페이스(110)에서 선택된 문장을 기계 음성으로 재생한다. The
상기 녹음 매니저(150)는 상기 제1 녹음 모드 및 상기 제2 녹음 모드에 따라 녹음 동작을 수행할 수 있도록 한다. 상기 제1 녹음 모드에서는 상기 북 레코딩 페이지에 문장을 표시하고, 상기 마이크(183)를 이용하여 사용자의 음성을 녹음한다. 상기 제2 녹음 모드에서는 상기 TTS 매니저(140)를 이용하여 기계 음성을 출력하고, 상기 마이크(183)를 이용하여 사용자의 음성을 녹음한다. 상기 제2 녹음 모드의 시작 및 종료는 상기 근접 센서(182)를 통해 판단될 수 있다. The
상기 알림 매니저(160)는 상기 자투리 시간 판단부(130)가 상기 자투리 시간을 검출한 경우, 상기 사용자에게 실시간으로 알림을 수행한다. 상기 알림은 진동이나 소리를 이용할 수 있다. 또한, 상기 알림 매니저(160)는 상기 자투리 시간 판단부(130)가 상기 자투리 시간을 검출한 경우, 상기 제1 모바일 장치(100)의 표시부에 알림 바를 표시할 수 있다. The
상기 제1 웹 API 클라이언트(170)는 상기 서버(200)의 상기 제1 웹 API 서버(210)와 통신한다. 상기 제1 웹 API 클라이언트(170)는 상기 제1 웹 API 서버(210)를 통해 상기 북 데이터베이스(230)로부터 책 정보를 수신할 수 있고, 상기 인터랙션 데이터베이스(260)로부터 상기 제2 모바일 장치(300)의 사용자의 인터랙션 정보를 수신할 수 있다. The first
상기 수신된 인터랙션 정보는 상기 제1 유저 인터페이스(110)를 통해 상기 제1 모바일 장치(100)의 표시부에 표시될 수 있다. 상기 수신된 인터랙션 정보는 상기 북 레코딩 페이지의 책 제목 아래 부분에 표시될 수 있다. The received interaction information may be displayed on the display unit of the first
상기 제1 데이터베이스(195)는 상기 제1 모바일 장치(100)의 기능을 수행하기 위해 필요한 정보들을 저장할 수 있다. 예를 들어, 상기 제1 데이터베이스(195)는 상기 서버(200)의 북 데이터베이스(230)로부터 수신한 책의 리스트 및 책의 문장들을 저장할 수 있다. 예를 들어, 상기 제1 데이터베이스(195)는 상기 서버(200)의 인터랙션 데이터베이스(260)로부터 수신한 인터랙션 정보를 저장할 수 있다. 예를 들어, 상기 제1 데이터베이스(195)는 상기 녹음 매니저(150)에 의해 생성된 녹음 파일을 저장할 수 있다. The
상기 웹 API 서버(210)는 상기 제1 웹 API 클라이언트(170)를 통해 상기 제1 모바일 장치(100)와 통신할 수 있다. 또한, 상기 웹 API 서버(210)는 상기 제2 웹 API 클라이언트(320)를 통해 상기 제2 모바일 장치(300)와 통신할 수 있다.The
상기 북 컨텐트 매니저(220)는 상기 북 데이터베이스(230)에 저장되는 북 컨텐트를 관리한다. 예를 들어, 상기 북 컨텐트 매니저(220)는 상기 북 데이터베이스(230)에 저장된 책들이 상기 사용자와 관련된 책인지를 판단할 수 있다. 예를 들어, 상기 북 컨텐트 매니저(220)는 상기 책의 내용을 문장 단위로 분할 관리할 수 있다. The
또한, 상기 북 컨텐트 매니저(220)는 상기 제1 모바일 장치(100)에 의해 생성된 녹음 파일들을 결합하여 오디오 북을 생성할 수도 있다. 또한, 상기 북 컨텐트 매니저(220)는 녹음 파일들을 녹음 파일 단위로 별도 관리할 수도 있다. In addition, the
상기 북 데이터베이스(230)는 책의 문장들을 저장할 수 있다. The
상기 녹음 데이터베이스(240)는 상기 제1 모바일 장치(100)에 의해 생성된 녹음 파일들을 저장할 수 있다. The
상기 패밀리 데이터베이스(250)는 상기 제1 모바일 장치(100)의 사용자와 상기 제2 모바일 장치(300)의 사용자의 관계에 대한 정보를 포함할 수 있다. 예를 들어, 상기 제1 모바일 장치(100)의 사용자와 상기 제2 모바일 장치(300)의 사용자가 가족에 해당하는지에 대한 정보를 포함할 수 있다. The
상기 인터랙션 데이터베이스(260)는 상기 제2 모바일 장치(300)의 인터랙션 모니터(330)로부터 생성된 인터랙션 정보를 수신하여, 상기 인터랙션 정보를 상기 제1 모바일 장치(100)의 상기 제1 유저 인터페이스(110) 또는 상기 제1 데이터베이스(195)로 전달할 수 있다. The
상기 제2 유저 인터페이스(310)는 상기 제2 모바일 장치(300)가 재생할 책을 선택하고, 재생을 진행할 수 있도록 하는 인터페이스를 제공한다. 상기 설명한 바와 같이, 상기 제2 유저 인터페이스(310)는 상기 제1 유저 인터페이스(110)와 유사하며, 상기 제2 유저 인터페이스(310)는 녹음 버튼을 포함하지 않는다. The
상기 제2 웹 API 클라이언트(320)는 상기 서버(200)의 상기 웹 API 서버(210)와 통신한다.The second
상기 인터랙션 모니터(330)는 상기 제2 모바일 장치(300)의 사용자의 인터랙션 정보를 획득하여 상기 서버(200)의 상기 인터랙션 데이터베이스(260)로 전송할 수 있다. The interaction monitor 330 may obtain the interaction information of the user of the second
상기 제2 하드웨어 센서부(340)는 상기 제2 모바일 장치(300) 내의 센서이며, 예를 들어, 카메라 및 마이크를 포함할 수 있다. The second
상기 제2 소프트웨어 센서부(350)는 상기 제2 모바일 장치(300) 내의 센서이며, 예를 들어, 앱 사용 모니터, 이벤트 검출기 등을 포함할 수 있다. The second
상기 제2 데이터 베이스(360)는 상기 제2 모바일 장치(300)의 기능을 수행하기 위해 필요한 정보들을 저장할 수 있다. 예를 들어, 상기 제2 데이터베이스(360)는 상기 서버(200)의 녹음 데이터베이스(240)로부터 수신한 녹음 파일을 저장할 수 있다. 예를 들어, 상기 제2 데이터베이스(360)는 상기 인터랙션 모니터(330)에 의해 생성된 인터랙션 정보를 저장할 수 있다. The
본 실시예에 따르면, 사용자의 모바일 장치(100)를 이용하여 사용자의 다양한 타입의 자투리 시간을 판단할 수 있다. 상기 모바일 장치(100)가 상기 자투리 시간을 판단하면, 상기 사용자에게 알림을 발송할 수 있다. 상기 사용자가 책의 문장 단위로 음성을 녹음할 수 있도록 유저 인터페이스(110)를 제공할 수 있다. 따라서, 사용자는 자투리 시간을 활용하여 효과적으로 오디오 북을 제작할 수 있다.According to the present embodiment, the user's
본 발명은 사용자의 스마트폰, 태블릿, 노트북, PDA, PMP 등 통신 기능을 수행할 수 있는 다양한 전자 장치에 적용될 수 있다. The present invention can be applied to various electronic devices capable of performing communication functions, such as a user's smart phone, tablet, notebook, PDA, PMP.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 것이다.While the above has been described with reference to a preferred embodiment of the present invention, those skilled in the art will be able to variously modify and change the present invention without departing from the spirit and scope of the invention as set forth in the claims below. I will understand.
100: 제1 모바일 장치
110: 제1 유저 인터페이스
120: 북 매니저
130: 자투리 시간 판단부
140: TTS 매니저
150: 녹음 매니저
160: 알림 매니저
170: 제1 웹 API 클라이언트
180: 제1 하드웨어 센서부
181: 가속도계
182: 근접 센서
183: 마이크
184: GPS 센서
190: 제1 소프트웨어 센서부
191: 앱 사용 모니터
192: 이벤트 검출기
195: 제1 데이터베이스
200: 서버
210: 웹 API 서버
220: 북 컨텐트 매니저
230: 북 데이터베이스
240: 녹음 데이터베이스
250: 패밀리 데이터베이스
260: 인터랙션 데이터베이스
300: 제2 모바일 장치
310: 제2 유저 인터페이스
320: 제2 웹 API 클라이언트
330: 인터랙션 모니터
340: 제2 하드웨어 센서부
350: 제2 소프트웨어 센서부
360: 제2 데이터베이스100: first mobile device 110: first user interface
120: book manager 130: cut time judgment
140: TTS Manager 150: Recording Manager
160: notification manager 170: the first web API client
180: first hardware sensor unit 181: accelerometer
182: proximity sensor 183: microphone
184: GPS sensor 190: first software sensor unit
191: Monitor app usage 192: Event detector
195: first database 200: server
210: web API server 220: book content manager
230: book database 240: recording database
250: family database 260: interaction database
300: second mobile device 310: second user interface
320: second web API client 330: interaction monitor
340: second hardware sensor unit 350: second software sensor unit
360: second database
Claims (15)
획득한 상기 사용자의 정보를 기초로 인지부하가 적은 순간을 감지하여, 부수적인 일을 수행할 수 있는 자투리 시간을 판단하는 단계를 포함하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.Obtaining user information using at least one of a hardware sensor unit and a software sensor unit of the mobile device; And
Detecting a moment of low cognitive load based on the obtained information of the user, and determining the utterance time that can perform ancillary work, the utterance time determination method using a mobile device and a sensor.
상기 하드웨어 센서부를 이용하여 상기 사용자의 상황 정보 또는 행동 정보를 획득하는 것을 특징으로 하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.The method of claim 1, wherein the obtaining of the user information comprises:
Method of determining the utterance time using a mobile device and a sensor, characterized in that to obtain the user's context information or behavior information using the hardware sensor unit.
상기 소프트웨어 센서부를 이용하여 상기 사용자의 모바일 기기 사용 정보를 획득하는 것을 특징으로 하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.The method of claim 1, wherein the obtaining of the user information comprises:
Method of determining the utterance time using a mobile device and a sensor, characterized in that to obtain the mobile device usage information of the user using the software sensor unit.
상기 사용자의 상황 정보를 기초로 상기 사용자가 대기 상황에 있음을 감지하여 자투리 시간임을 판단하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.The method of claim 1, wherein the determining of the utterance time of the user
A method of determining a utterance time using a mobile device and a sensor that detects that the user is in a standby state based on the situation information of the user and determines that the utterance time is.
상기 사용자의 상황 정보 또는 행동 정보를 기초로 상기 사용자가 혼자서 걷거나 행동하고 있음을 감지하여 자투리 시간임을 판단하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.The method of claim 1, wherein the determining of the utterance time of the user
A method of determining a utterance time using a mobile device and a sensor that detects that the user is walking or acting alone based on the user's situation information or behavior information.
상기 사용자의 모바일 기기 사용 정보를 기초로 상기 사용자가 상기 모바일 기기를 이용하여 여가 활동 서비스를 사용하는 중임을 감지하여 자투리 시간임을 판단하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.The method of claim 1, wherein the determining of the utterance time of the user
A method for determining a utterance time using a mobile device and a sensor that detects that the user is using a leisure activity service using the mobile device based on the user's mobile device usage information and determines the utterance time.
상기 이어폰 착용 걷기 이벤트는 상기 하드웨어 센서부의 가속도계 또는 GPS 센서와 상기 소프트웨어 센서부의 이벤트 검출기의 이어폰 이벤트를 이용하여 판단되는 것을 특징으로 하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.The method of claim 1, wherein the determining of the time of the user's utterance comprises determining an earphone wearing walking event, which means a case where the user walks with wearing the earphone,
The earphone wearing walking event is determined using the accelerometer or GPS sensor of the hardware sensor unit and the earphone event of the event detector of the software sensor unit.
상기 미팅 대기 이벤트는 상기 모바일 기기의 캘린더 정보 및 미팅 참가자의 GPS 위치 정보를 이용하여 판단되는 것을 특징으로 하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.The method of claim 1, wherein the determining of the user's utterance time comprises: determining a meeting waiting event, meaning that the user is waiting before a meeting starts,
The meeting waiting event is determined using the calendar information of the mobile device and the GPS location information of the meeting participant, the edge time determination method using a mobile device and a sensor.
상기 메신저 응답 대기 이벤트는 상기 소프트웨어 센서부의 앱 사용 모니터를 이용하여 판단되는 것을 특징으로 하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.The method of claim 1, wherein the determining of the utterance time of the user comprises: determining a messenger response waiting event meaning that the user is talking to the other party using a messenger, and the user is waiting for a message of the other party;
The messenger response waiting event is determined using an app usage monitor of the software sensor unit.
상기 건물 내 걷기 이벤트는 상기 하드웨어 센서부의 GPS 센서 및 Wi-Fi 신호를 이용하여 판단되는 것을 특징으로 하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.The method of claim 1, wherein the determining of the time of the user's utterance comprises determining a walking event in the building, which means that the user is moving in the building.
The walking event in the building is determined using a GPS sensor and a Wi-Fi signal of the hardware sensor unit, the edge time determination method using a mobile device and the sensor.
상기 엘리베이터 기다림 이벤트는 상기 하드웨어 센서부의 자기장 센서 및 가속도계를 이용하여 판단되는 것을 특징으로 하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.The method of claim 1, wherein the determining of the user's utterance time comprises determining an elevator waiting event, which means that the user is waiting for an elevator.
The elevator wait event is determined using a magnetic field sensor and an accelerometer of the hardware sensor unit, the edge time determination method using a mobile device and a sensor.
상기 사용자의 정보를 기초로 상기 사용자의 계획된 일정들 사이에 인지 부하가 적은 순간을 감지하여, 일정에는 없지만 부수적인 일을 수행할 수 있는 자투리 시간을 판단하는 단계를 포함하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.Obtaining user information using at least one of a hardware sensor unit and a software sensor unit of the mobile device; And
Detecting a moment when there is little cognitive load between the scheduled schedules of the user based on the information of the user, and using the mobile device and the sensor comprising the step of determining the time spent on the schedule, but not ancillary work How to determine the time of detention.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190174436A KR102124757B1 (en) | 2019-12-24 | 2019-12-24 | System and method of determining micro spare time using sensor of mobile apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190174436A KR102124757B1 (en) | 2019-12-24 | 2019-12-24 | System and method of determining micro spare time using sensor of mobile apparatus |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180021763A Division KR102061619B1 (en) | 2018-02-23 | 2018-02-23 | Mobile apparatus, audio book creating system having the same and method of creating audio book using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200000423A true KR20200000423A (en) | 2020-01-02 |
KR102124757B1 KR102124757B1 (en) | 2020-06-19 |
Family
ID=69155389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190174436A KR102124757B1 (en) | 2019-12-24 | 2019-12-24 | System and method of determining micro spare time using sensor of mobile apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102124757B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210128056A (en) | 2020-04-16 | 2021-10-26 | 안철수 | Method for providing service of job seeker-centric using spare time |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120130417A (en) * | 2011-05-23 | 2012-12-03 | 김정환 | Mobile terminal and method for managing schedule for self-directed learning |
KR20130048428A (en) * | 2011-11-02 | 2013-05-10 | 이전구 | Game system and method using mobile terminal |
KR20130117102A (en) * | 2012-04-17 | 2013-10-25 | 주이스 주식회사 | A remote education system using push nortification function and method thereof |
-
2019
- 2019-12-24 KR KR1020190174436A patent/KR102124757B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120130417A (en) * | 2011-05-23 | 2012-12-03 | 김정환 | Mobile terminal and method for managing schedule for self-directed learning |
KR20130048428A (en) * | 2011-11-02 | 2013-05-10 | 이전구 | Game system and method using mobile terminal |
KR20130117102A (en) * | 2012-04-17 | 2013-10-25 | 주이스 주식회사 | A remote education system using push nortification function and method thereof |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210128056A (en) | 2020-04-16 | 2021-10-26 | 안철수 | Method for providing service of job seeker-centric using spare time |
Also Published As
Publication number | Publication date |
---|---|
KR102124757B1 (en) | 2020-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104008749B (en) | Method and apparatus for the Voice command of mobile device | |
JP4787328B2 (en) | Method and apparatus for capturing audio during a conference call | |
US20180069815A1 (en) | Application-based messaging system using headphones | |
RU2530267C2 (en) | Method for user communication with information dialogue system | |
US9876985B2 (en) | Providing a log of events to an isolated user | |
KR20140022824A (en) | Audio-interactive message exchange | |
US8737581B1 (en) | Pausing a live teleconference call | |
CN110419206A (en) | The opportunism timing of equipment notice | |
CN102550121A (en) | User-selectable environments for mobile communications devices | |
EP2166706A1 (en) | Method of changing status of instant message software | |
US20090170567A1 (en) | Hands-free communication | |
KR102124757B1 (en) | System and method of determining micro spare time using sensor of mobile apparatus | |
US20160150384A1 (en) | Method for processing an audio message | |
KR102061619B1 (en) | Mobile apparatus, audio book creating system having the same and method of creating audio book using the same | |
JP2014102324A (en) | Portable information terminal, shadow speech management method, and computer program | |
JP2003218999A (en) | Mobile phone with voice recognition function and control program thereof | |
JP4922462B1 (en) | Content playback apparatus and content playback method | |
US20110216915A1 (en) | Providing audible information to a speaker system via a mobile communication device | |
JP2004259198A (en) | Information management apparatus, information management system and program | |
WO2015175938A1 (en) | Asynchronous auditory messaging facilitation apparatuses, methods and systems | |
JP2002041279A (en) | Agent message system | |
JP2017033376A (en) | Information processing device, information processing method, and control program | |
JP5034111B2 (en) | Data storage system, data storage / playback method, and program | |
KR101562901B1 (en) | System and method for supporing conversation | |
KR102324656B1 (en) | Portable device for coping with critcal situation and system for coping with critcal situation using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |