KR20200000423A - System and method of determining micro spare time using sensor of mobile apparatus - Google Patents

System and method of determining micro spare time using sensor of mobile apparatus Download PDF

Info

Publication number
KR20200000423A
KR20200000423A KR1020190174436A KR20190174436A KR20200000423A KR 20200000423 A KR20200000423 A KR 20200000423A KR 1020190174436 A KR1020190174436 A KR 1020190174436A KR 20190174436 A KR20190174436 A KR 20190174436A KR 20200000423 A KR20200000423 A KR 20200000423A
Authority
KR
South Korea
Prior art keywords
user
mobile device
time
determining
sensor
Prior art date
Application number
KR1020190174436A
Other languages
Korean (ko)
Other versions
KR102124757B1 (en
Inventor
송준화
강범수
민철홍
김원중
박천종
이승철
이성주
황인석
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020190174436A priority Critical patent/KR102124757B1/en
Publication of KR20200000423A publication Critical patent/KR20200000423A/en
Application granted granted Critical
Publication of KR102124757B1 publication Critical patent/KR102124757B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72522
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • H04M1/72583
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/36Memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Abstract

According to a method for determining a spare time using a sensor of a mobile device, which comprises the steps of: acquiring user information using at least one of a hardware sensor unit and a software sensor unit; and determining the spare time of a user in real time based on the user information.

Description

모바일 기기와 센서를 이용한 자투리 시간 판단 시스템 및 방법 {SYSTEM AND METHOD OF DETERMINING MICRO SPARE TIME USING SENSOR OF MOBILE APPARATUS}System and Method for Determining Stuck Time Using Mobile Devices and Sensors {SYSTEM AND METHOD OF DETERMINING MICRO SPARE TIME USING SENSOR OF MOBILE APPARATUS}

본 발명은 모바일 기기와 센서를 이용한 자투리 시간 판단 시스템 및 방법에 관한 것으로, 보다 구체적으로는 모바일 기기와 센서를 통해 얻은 사용자의 물리적 상황정보 및 모바일 기기 사용정보를 기초로 자투리 시간을 판단하는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for determining the utterance time using a mobile device and a sensor, and more particularly, a system for determining the utterance time based on the physical situation information and the mobile device usage information of a user obtained through the mobile device and the sensor; It is about a method.

직장 혹은 작업에 많은 시간을 보내는 현대인의 특성상 직장 외 다른 곳에 쓸 수 있는 시간을 (예, 직장인 부모가 아이들을 위해 사용하는 시간) 충분히 확보하는 것은 매우 어렵다. Due to the nature of modern people who spend a lot of time at work or at work, it is very difficult to secure enough time for work outside of work (eg, the time parents spend on their children).

이러한 문제는 직장 혹은 작업에 소비하는 시간과 직장 외 다른 곳에 사용하는 시간은 상호 배타적인 것으로 인식되는 것으로부터 기인한다고 할 수 있다. This problem can be attributed to the fact that the time spent at work or at work and the time spent outside the work are perceived as mutually exclusive.

본 발명이 이루고자 하는 목적은 모바일 기기와 센서를 이용하여 사용자의 자투리 시간을 판단하는 시스템 및 방법을 제공하는 것이다. It is an object of the present invention to provide a system and method for determining a user's utterance time using a mobile device and a sensor.

상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 모바일 기기의 센서를 이용한 자투리 시간 판단 방법은 하드웨어 센서부 및 소프트웨어 센서부 중 적어도 어느 하나를 이용하여 사용자의 정보를 획득하는 단계 및 상기 사용자의 정보를 기초로 사용자의 자투리 시간을 판단하는 단계를 포함한다.According to an embodiment of the present invention, a method for determining a utterance time using a sensor of a mobile device includes: acquiring user information using at least one of a hardware sensor unit and a software sensor unit; Determining the utterance time of the user based on the information of the.

본 발명의 일 실시예에 있어서, 상기 사용자의 정보를 획득하는 단계는 상기 하드웨어 센서부를 이용하여 상기 사용자의 물리적 상황 정보를 획득할 수 있다.In an embodiment of the present disclosure, the acquiring of the information of the user may acquire physical state information of the user by using the hardware sensor unit.

본 발명의 일 실시예에 있어서, 상기 사용자의 정보를 획득하는 단계는 상기 소프트웨어 센서부를 이용하여 상기 사용자의 모바일 기기 사용 정보를 획득할 수 있다.In an embodiment of the present disclosure, the acquiring of the information of the user may acquire the mobile device usage information of the user by using the software sensor unit.

본 발명의 일 실시예에 있어서, 상기 사용자의 자투리 시간이 검출된 경우, 상기 사용자에게 즉시적으로 알림을 수행하는 단계를 더 포함할 수 있다. In an embodiment of the present disclosure, if the user's utterance time is detected, the method may further include immediately notifying the user.

본 발명의 일 실시예에 있어서, 상기 사용자의 상기 자투리 시간을 판단하는 단계는 상기 사용자가 이어폰을 착용하고서 혼자서 걸어가는 경우를 의미하는 이어폰 착용 걷기 이벤트를 판단할 수 있다. 상기 이어폰 착용 걷기 이벤트는 상기 하드웨어 센서부의 가속도계 또는 GPS 센서와 상기 소프트웨어 센서부의 이벤트 검출기의 이어폰 이벤트를 이용하여 판단될 수 있다.In one embodiment of the present invention, the step of determining the poke time of the user may determine the wearing event walking wear earphone means that the user walks alone wearing the earphone. The earphone wearing walking event may be determined using an earphone event of an accelerometer or a GPS sensor of the hardware sensor unit and an event detector of the software sensor unit.

본 발명의 일 실시예에 있어서, 상기 사용자의 상기 자투리 시간을 판단하는 단계는 상기 사용자가 미팅 시작 전에 대기하고 있는 것을 의미하는 미팅 대기 이벤트를 판단할 수 있다. 상기 미팅 대기 이벤트는 상기 모바일 기기의 캘린더 정보 및 미팅 참가자의 GPS 위치 정보를 이용하여 판단될 수 있다.In one embodiment of the present invention, the step of determining the dolmen time of the user may determine a meeting waiting event that means that the user is waiting before the start of the meeting. The meeting waiting event may be determined using calendar information of the mobile device and GPS location information of a meeting participant.

본 발명의 일 실시예에 있어서, 상기 사용자의 상기 자투리 시간을 판단하는 단계는 상기 사용자가 메신저를 이용하여 상대방과 대화 중이고, 상기 사용자가 상기 상대방의 메시지를 대기 중인 것을 의미하는 메신저 응답 대기 이벤트를 판단할 수 있다. 상기 메신저 응답 대기 이벤트는 상기 소프트웨어 센서부의 앱 사용 모니터를 이용하여 판단될 수 있다.In one embodiment of the present invention, the step of determining the utterance time of the user is a messenger response waiting event means that the user is talking to the other party using a messenger, the user is waiting for a message of the other party You can judge. The messenger response waiting event may be determined using an app usage monitor of the software sensor unit.

본 발명의 일 실시예에 있어서, 상기 사용자의 상기 자투리 시간을 판단하는 단계는 상기 사용자가 건물 내에서 이동 중인 것을 의미하는 건물 내 걷기 이벤트를 판단할 수 있다. 상기 건물 내 걷기 이벤트는 상기 하드웨어 센서부의 GPS 센서 및 Wi-Fi 신호를 이용하여 판단될 수 있다.In one embodiment of the present invention, the step of determining the poke time of the user may determine a walking event in the building means that the user is moving in the building. The walking event in the building may be determined using a GPS sensor and a Wi-Fi signal of the hardware sensor unit.

본 발명의 일 실시예에 있어서, 상기 사용자의 상기 자투리 시간을 판단하는 단계는 상기 사용자가 엘리베이터를 기다리고 있는 것을 의미하는 엘리베이터 기다림 이벤트를 판단할 수 있다. 상기 엘리베이터 기다림 이벤트는 상기 하드웨어 센서부의 자기장 센서 및 가속도계를 이용하여 판단될 수 있다.In one embodiment of the present invention, the step of determining the dead time of the user may determine the elevator waiting event means that the user is waiting for the elevator. The elevator waiting event may be determined using a magnetic field sensor and an accelerometer of the hardware sensor unit.

본 발명에 따른 모바일 기기와 센서를 이용한 자투리 시간 판단 방법에 따르면, 사용자의 모바일 기기와 센서들을 이용하여 사용자의 다양한 타입의 자투리 시간을 실시간으로 판단할 수 있다. 상기 사용자의 자투리 시간을 활용하여 상기 사용자에게 다양한 애플리케이션 서비스를 제공할 수 있다. According to the method for determining a utterance time using a mobile device and a sensor according to the present invention, various types of utterance time of a user can be determined in real time using the user's mobile device and sensors. Various application services may be provided to the user by utilizing the user's utterance time.

도 1은 본 발명의 일 실시예에 따른 오디오 북 제작 시스템을 나타내는 블록도이다.
도 2는 도 1의 모바일 장치의 제1 유저 인터페이스의 북 리스트 페이지를 나타내는 개념도이다.
도 3은 도 1의 모바일 장치의 제1 유저 인터페이스의 북 레코딩 페이지를 나타내는 개념도이다.
1 is a block diagram illustrating an audio book production system according to an embodiment of the present invention.
FIG. 2 is a conceptual diagram illustrating a book list page of the first user interface of the mobile device of FIG. 1.
3 is a conceptual diagram illustrating a book recording page of the first user interface of the mobile device of FIG. 1.

본문에 개시되어 있는 본 발명의 실시예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다.With respect to the embodiments of the present invention disclosed in the text, specific structural to functional descriptions are merely illustrated for the purpose of describing the embodiments of the present invention, embodiments of the present invention may be implemented in a variety of forms and It should not be construed as limited to the embodiments described in.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to a specific disclosed form, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms may be used for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between. Other expressions describing the relationship between components, such as "between" and "immediately between," or "neighboring to," and "directly neighboring to" should be interpreted as well.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "having" are intended to indicate that the described features, numbers, steps, operations, components, parts or combinations thereof exist, but one or more other features or numbers, It is to be understood that it does not exclude in advance the possibility of the presence or addition of steps, actions, components, parts or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. .

한편, 어떤 실시예가 달리 구현 가능한 경우에 특정 블록 내에 명기된 기능 또는 동작이 순서도에 명기된 순서와 다르게 일어날 수도 있다. 예를 들어, 연속하는 두 블록이 실제로는 실질적으로 동시에 수행될 수도 있고, 관련된 기능 또는 동작에 따라서는 상기 블록들이 거꾸로 수행될 수도 있다.On the other hand, when an embodiment is otherwise implemented, a function or operation specified in a specific block may occur out of the order specified in the flowchart. For example, two consecutive blocks may actually be performed substantially simultaneously, and the blocks may be performed upside down depending on the function or operation involved.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. The same reference numerals are used for the same elements in the drawings, and duplicate descriptions of the same elements are omitted.

도 1은 본 발명의 일 실시예에 따른 오디오 북 제작 시스템을 나타내는 블록도이다. 도 2는 도 1의 모바일 장치의 제1 유저 인터페이스의 북 리스트 페이지를 나타내는 개념도이다. 도 3은 도 1의 모바일 장치의 제1 유저 인터페이스의 북 레코딩 페이지를 나타내는 개념도이다. 1 is a block diagram illustrating an audio book production system according to an embodiment of the present invention. FIG. 2 is a conceptual diagram illustrating a book list page of the first user interface of the mobile device of FIG. 1. 3 is a conceptual diagram illustrating a book recording page of the first user interface of the mobile device of FIG. 1.

도 1 내지 도 3을 참조하면, 상기 오디오 북 제작 시스템은 사용자(예컨대, 부모)로 하여금 상기 사용자의 자투리 시간을 활용하여 자녀를 위한 오디오 북을 만들 수 있도록 해준다. 1 to 3, the audio book production system enables a user (eg, a parent) to make an audio book for a child by using the user's utterance time.

본 발명에서 상기 자투리 시간이란 일상 생활에서 종종 발생하는 인지 부하(cognitive load)가 적은, 짧은 시간 단위를 의미한다. 상기 자투리 시간은 사용자의 계획된 일정들 사이에 발생하는, 계획되지 않은 여유시간을 의미할 수 있다. 예를 들어, 상기 자투리 시간은 엘리베이터를 기다리는 시간일 수 있다. In the present invention, the term “cutting time” refers to a short time unit having a low cognitive load that often occurs in daily life. The cut time may mean unplanned spare time that occurs between the user's planned schedules. For example, the cut time may be a time waiting for an elevator.

상기 자투리 시간은 아래와 같은 특징을 포함한다.The cut time includes the following features.

1) 일상 생활에서 종종 발생하나 무심코 지나쳐버리기 쉽다. 1) Often occurs in everyday life, but it is easy to overlook.

2) 인지 부하가 적은 시간이기 때문에 부수적인 태스크를 수행 할 수 있다.2) Since the cognitive load is low, additional tasks can be performed.

3) 하나 하나는 짧은 단위의 시간이지만 이들이 모이면 의미있는 큰 단위의 시간이 될 수 있다.3) Each one is a short unit of time, but when they come together, it can be a significant large unit of time.

상기 오디오 북 제작 시스템은 상기 사용자의 직장에서의 상기 자투리 시간을 실시간으로 판단하여, 상기 사용자로 하여금 오디오 북을 문장 단위로 녹음할 수 있도록 할 수 있다. 상기 오디오 북 제작 시스템에서 상기 자녀는 상기 부모의 목소리로 녹음된 오디오 북을 즐길 수 있다. The audio book production system may determine in real time the utterance time at the user's workplace to enable the user to record the audio book in sentence units. In the audio book production system, the child can enjoy the audio book recorded in the voice of the parents.

상기 오디오 북 제작 시스템의 디자인 목표는 아래와 같다. The design goal of the audio book production system is as follows.

1) 상기 자투리 시간 동안 하나의 녹음 동작을 수행할 수 있도록 한다. 상기 오디오 북 제작 시스템에서 제공하는 녹음 태스크의 단위는 하나의 자투리 시간 세션 동안 완료될 수 있도록 충분히 짧아야 한다 (예, 한 문장 녹음). 1) It is possible to perform one recording operation during the cut time. The unit of recording task provided by the audio book production system should be short enough to be completed during one narration time session (eg, one sentence recording).

2) 녹음의 기회를 극대화 한다. 상기 오디오 북 녹음의 기회를 극대화하기 위해서는 상기 사용자가 녹음이 가능한 시점을 실시간으로 알 수 있고, 적극적으로 판단할 수 있어야 한다.2) Maximize recording opportunities. In order to maximize the opportunity of recording the audio book, the user should be able to know in real time the time at which the recording is possible and actively determine it.

3) 상황에 적합한 녹음 옵션을 제공한다. 직장에서는 직장 동료와 휴게실에서 함께 있는 것과 같이 다른 사람과 같이 있는 공용 공간에서 상기 자투리 시간이 발생하는 경우가 많다. 다른 사람 옆에서 연극을 하듯이 오디오 북을 녹음하는 것은 상기 사용자에게 곤란한 일일 수 있다. 따라서, 상기 오디오 북 제작 시스템은 상황에 적합한 녹음 옵션을 제공할 수 있다. 3) Provide recording options appropriate to the situation. At work, the time is often spent in a common space with another person, such as in a break room with a co-worker. Recording audiobooks, such as playing next to others, can be frustrating for the user. Accordingly, the audio book production system can provide a recording option suitable for a situation.

상기 오디오 북 제작 시스템은 제1 모바일 장치(100), 서버(200) 및 제2 모바일 장치(300)를 포함할 수 있다. 상기 제1 모바일 장치(100)는 상기 사용자의 모바일 장치일 수 있다. 예를 들어, 상기 제1 모바일 장치(100)는 상기 사용자의 상기 스마트폰일 수 있다. 상기 제2 모바일 장치(300)는 상기 사용자의 자녀의 모바일 장치일 수 있다. 예를 들어, 상기 제2 모바일 장치(300)는 상기 사용자의 자녀의 태블릿일 수 있다. The audio book production system may include a first mobile device 100, a server 200, and a second mobile device 300. The first mobile device 100 may be a mobile device of the user. For example, the first mobile device 100 may be the smart phone of the user. The second mobile device 300 may be a mobile device of a child of the user. For example, the second mobile device 300 may be a tablet of the child of the user.

상기 제1 모바일 장치(100)는 상기 사용자가 상기 오디오 북을 녹음하기 위한 장치이다. 상기 제1 모바일 장치(100)는 상기 제1 모바일 장치(100)의 관련 이벤트를 계속하여 모니터하며, 상기 사용자의 상기 자투리 시간을 검출한다. The first mobile device 100 is a device for the user to record the audio book. The first mobile device 100 continuously monitors the related event of the first mobile device 100 and detects the utterance time of the user.

상기 사용자의 상기 자투리 시간이 검출되면, 상기 제1 모바일 장치(100)는 상기 사용자에게 상기 자투리 시간이 검출되었음을 알린다. 상기 제1 모바일 장치(100)는 진동과 함께 알림 바를 화면에 표시할 수 있다. When the cut time of the user is detected, the first mobile device 100 notifies the user that the cut time is detected. The first mobile device 100 may display a notification bar on the screen together with the vibration.

도 2에서 보는 바와 같이, 상기 제1 모바일 장치(100)의 유저 인터페이스의 북 리스트 페이지는 상기 사용자가 녹음할 책을 선택할 수 있도록 등록된 책의 제목과 등록된 책의 표지 썸네일을 포함하는 등록된 책의 리스트를 표시할 수 있다. 또한 상기 등록된 책의 리스트는 상기 등록된 책의 녹음 진행 정도를 표시할 수 있다. 상기 사용자가 책의 녹음을 완료한 경우, 상기 등록된 책의 리스트에는 종료 마크가 표시될 수 있다. As shown in FIG. 2, the book list page of the user interface of the first mobile device 100 is registered including a title of a registered book and a cover thumbnail of the registered book so that the user can select a book to record. A list of books can be displayed. In addition, the list of registered books may indicate the progress of recording of the registered book. When the user completes recording of the book, an end mark may be displayed on the list of registered books.

도 3에서 보는 바와 같이, 상기 제1 모바일 장치(100)의 상기 유저 인터페이스의 북 레코딩 페이지는 상기 제1 모바일 장치(100)의 표시부에 책의 한 페이지를 표시한다. 또한, 녹음 태스크는 책의 한 문장으로 설정될 수 있다. 유아용 그림 책의 경우, 상기 한 문장의 길이가 짧으므로, 상기 자투리 시간 세션 동안 녹음 태스크를 수행하기에 적절한 길이일 수 있다. As shown in FIG. 3, the book recording page of the user interface of the first mobile device 100 displays one page of a book on the display unit of the first mobile device 100. In addition, the recording task may be set to one sentence of the book. In the case of an infant picture book, since the length of one sentence is short, it may be an appropriate length for performing a recording task during the utterance session.

상기 한 페이지에 여러 개의 문장들이 있는 경우, 상기 북 레코딩 페이지는 녹음 대상의 문장을 강조하여 표시할 수 있다. 예를 들어, 상기 강조 표시는 밑줄일 수 있다. If there are several sentences on the page, the book recording page may highlight and display the sentences to be recorded. For example, the highlight may be underlined.

상기 북 레코딩 페이지는 녹음 버튼, 재생 버튼 등을 포함할 수 있다. 상기 북 레코딩 페이지를 좌우로 스와이프하는 경우, 상기 책의 페이지가 이전 및 다음으로 넘어갈 수 있다. The book recording page may include a record button, a play button, and the like. When swiping the book recording page from side to side, the pages of the book can be turned to previous and next.

상기 오디오 북 제작 시스템은 두 가지 녹음 모드를 제공할 수 있다. 제1 녹음 모드는 watch-record 모드이고, 제2 녹음 모드는 listen-record 모드이며, 상기 녹음 모드는 상기 사용자의 상황에 따라 선택될 수 있다. The audio book production system may provide two recording modes. The first recording mode is a watch-record mode, the second recording mode is a listen-record mode, and the recording mode may be selected according to the situation of the user.

상기 제1 녹음 모드에서 상기 사용자는 상기 제1 모바일 장치(100)의 표시부를 보면서 녹음을 진행할 수 있다. 상기 사용자가 상기 제1 모바일 장치(100)의 상기 표시부의 녹음 버튼을 누르면 상기 녹음이 시작되고, 다시 상기 녹음 버튼을 누르면 상기 녹음이 종료될 수 있다.In the first recording mode, the user may perform recording while watching the display unit of the first mobile device 100. When the user presses the record button of the display unit of the first mobile device 100, the recording may be started, and when the user presses the record button again, the recording may be terminated.

상기 제2 녹음 모드는 주변에 다른 사람이 있는 경우에 적합한 녹음 모드이다. 상기 사용자가 상기 제1 모바일 장치(100)를 상기 사용자의 귀에 접근시키면 상기 제2 녹음 모드가 자동으로 활성화되고, 상기 사용자가 상기 제1 모바일 장치(100)를 상기 사용자의 귀에서 떨어뜨리면 상기 제2 녹음 모드는 자동적으로 비활성화된다. 상기 제1 모바일 장치(100)는 근접 센서를 이용하여 상기 제2 녹음 모드의 활성화 및 비활성화를 판단할 수 있다. 상기 제2 녹음 모드에서, 상기 사용자가 상기 제1 모바일 장치(100)를 상기 사용자의 귀에 접근시키면 수화기를 통해 읽어야 할 문장이 기계 음성으로 재생된다. 상기 사용자는 상기 기계 음성으로 재생된 문장을 따라 읽어 녹음을 진행한다. 상기 제2 녹음 모드에서 상기 사용자가 상기 제1 모바일 장치(100)를 상기 사용자의 귀에서 떨어뜨리면 상기 제2 녹음 모드가 종료되면서 상기 녹음 내용이 자동으로 저장될 수 있다. The second recording mode is a recording mode suitable when there is another person around. When the user approaches the first mobile device 100 to the user's ear, the second recording mode is automatically activated. When the user drops the first mobile device 100 from the user's ear, the second recording mode is automatically activated. 2 Recording mode is automatically disabled. The first mobile device 100 may determine activation and deactivation of the second recording mode using a proximity sensor. In the second recording mode, when the user approaches the first mobile device 100 to the user's ear, the sentence to be read through the handset is reproduced as a machine voice. The user reads along the sentence reproduced by the machine voice and proceeds with recording. When the user drops the first mobile device 100 from the user's ear in the second recording mode, the recording may be automatically stored as the second recording mode ends.

상기 서버(200)는 상기 제1 모바일 장치(100)에서 녹음된 녹음 파일을 저장하며, 상기 녹음 파일을 문장 단위로 또는 오디오 북으로 병합하여 상기 제2 모바일 장치(300)에 출력할 수 있다. The server 200 may store a recording file recorded by the first mobile device 100 and merge the recording file in a sentence unit or in an audio book and output the recorded file to the second mobile device 300.

상기 제2 모바일 장치(300)는 상기 제1 모바일 장치(100)의 사용자에 의해 녹음된 녹음 파일 또는 상기 녹음 파일의 집합인 오디오 북을 재생한다. The second mobile device 300 plays an audio book which is a recording file or a collection of recording files recorded by a user of the first mobile device 100.

예를 들어, 상기 제2 모바일 장치(300)의 사용자는 상기 제1 모바일 장치(100)의 사용자의 자녀일 수 있다. For example, the user of the second mobile device 300 may be a child of the user of the first mobile device 100.

상기 제2 모바일 장치(300)의 유저 인터페이스는 상기 제1 모바일 장치(100)의 유저 인터페이스에서 녹음 버튼이 없는 것을 제외하고는 거의 동일하다.The user interface of the second mobile device 300 is almost the same except that there is no record button in the user interface of the first mobile device 100.

또한, 상기 제2 모바일 장치(300)는 상기 사용자의 자녀의 인터랙션을 모니터하여, 상기 서버(200)로 전송할 수 있다. 상기 인터랙션 정보는 상기 서버(200)를 거쳐 상기 제1 모바일 장치(100)로 전달될 수 있다. 예를 들어, 상기 인터랙션 정보는 상기 사용자의 자녀가 상기 녹음 파일을 재생한 횟수를 포함할 수 있다. 예를 들어, 상기 인터랙션 정보는 상기 녹음 파일을 재생하는 동안의 상기 사용자의 자녀의 표정일 수 있다. 상기 녹음 파일을 재생하는 동안의 상기 사용자의 자녀의 표정은 상기 제2 모바일 장치(300)의 카메라에 의해 촬영될 수 있다. 예를 들어, 상기 인터랙션 정보는 상기 녹음 파일을 재생하는 동안의 상기 사용자의 자녀의 목소리일 수 있다. 상기 녹음 파일을 재생하는 동안의 상기 사용자의 자녀의 목소리는 상기 제2 모바일 장치(300)의 마이크에 의해 녹음될 수 있다. 예를 들어, 상기 인터랙션 정보는 상기 녹음 파일을 재생하는 동안의 상기 사용자의 자녀의 감정일 수 있다. 상기 녹음 파일을 재생하는 동안의 상기 사용자의 자녀의 감정은 상기 사용자의 자녀의 표정 또는 상기 사용자의 자녀의 상기 목소리 등을 통해 상기 제2 모바일 장치(300)에서 판단될 수 있다. In addition, the second mobile device 300 may monitor the interaction of the child of the user, and transmit it to the server 200. The interaction information may be transmitted to the first mobile device 100 via the server 200. For example, the interaction information may include the number of times a child of the user plays the recording file. For example, the interaction information may be an expression of a child of the user while playing the recording file. The expression of the child of the user while playing the recording file may be photographed by the camera of the second mobile device 300. For example, the interaction information may be a voice of the child of the user while playing the recording file. The voice of the child of the user while playing the recording file may be recorded by the microphone of the second mobile device 300. For example, the interaction information may be an emotion of a child of the user while playing the recording file. The emotion of the child of the user while playing the recording file may be determined by the second mobile device 300 through the facial expression of the user of the user or the voice of the child of the user.

도 1을 다시 참조하면, 상기 제1 모바일 장치(100)는 제1 유저 인터페이스(110), 북 매니저(120), 자투리 시간 판단부(130), TTS 매니저(140), 녹음 매니저(150), 알림 매니저(160), 제1 웹 API 클라이언트(170), 제1 하드웨어 센서부(180), 제1 소프트웨어 센서부(190) 및 제1 데이터베이스(195)를 포함할 수 있다. Referring back to FIG. 1, the first mobile device 100 includes a first user interface 110, a book manager 120, a narration time determiner 130, a TTS manager 140, a recording manager 150, The notification manager 160, the first web API client 170, the first hardware sensor unit 180, the first software sensor unit 190, and the first database 195 may be included.

예를 들어, 상기 제1 하드웨어 센서부(180)는 가속도계(181), 근접 센서(182), 마이크(183) 및 GPS 센서(184)를 포함할 수 있다. 예를 들어, 상기 제1 소프트웨어 센서부(190)는 앱 사용 모니터(191) 및 이벤트 검출기(192)를 포함할 수 있다.For example, the first hardware sensor unit 180 may include an accelerometer 181, a proximity sensor 182, a microphone 183, and a GPS sensor 184. For example, the first software sensor unit 190 may include an app usage monitor 191 and an event detector 192.

상기 서버(200)는 웹 API 서버(210), 북 컨텐트 매니저(220), 북 데이터베이스(230), 녹음 데이터베이스(240), 패밀리 데이터베이스(250) 및 인터랙션 데이터베이스(260)를 포함할 수 있다. The server 200 may include a web API server 210, a book content manager 220, a book database 230, a recording database 240, a family database 250, and an interaction database 260.

상기 제2 모바일 장치(300)는 제2 유저 인터페이스(310), 제2 웹 API 클라이언트(320), 인터랙션 모니터(330), 제2 하드웨어 센서부(340), 제2 소프트웨어 센서부(350) 및 제2 데이터베이스(360)를 포함할 수 있다. The second mobile device 300 may include a second user interface 310, a second web API client 320, an interaction monitor 330, a second hardware sensor unit 340, a second software sensor unit 350, and It may include a second database 360.

상기 제1 유저 인터페이스(110)는 도 2 및 도 3에서 보듯이, 상기 제1 모바일 장치(100)가 녹음할 책을 선택하고, 녹음을 진행할 수 있도록 하는 인터페이스를 제공한다.As shown in FIGS. 2 and 3, the first user interface 110 provides an interface that allows the first mobile device 100 to select a book to be recorded and proceed with recording.

상기 북 매니저(120)는 상기 서버(200)의 상기 북 데이터베이스(230)로부터 상기 사용자와 관련된 책 정보를 수신한다. The book manager 120 receives book information related to the user from the book database 230 of the server 200.

상기 자투리 시간 판단부(130)는 상기 제1 하드웨어 센서부(180) 및 상기 제1 소프트웨어 센서부(190)를 이용하여 상기 사용자의 자투리 시간을 판단한다. The edge time determining unit 130 determines the edge time of the user using the first hardware sensor unit 180 and the first software sensor unit 190.

상기 자투리 시간 판단부(130)가 판단하는 제1 자투리 시간은 '여가용 장기 사용 이벤트'일 수 있다. 상기 여가용 장기 사용 이벤트는 상기 제1 소프트웨어 센서부(190)의 상기 앱 사용 모니터(191)를 이용하여 판단될 수 있다. The first cut time determined by the cut time determiner 130 may be a 'leisure long-term use event'. The leisure long use event may be determined using the app usage monitor 191 of the first software sensor 190.

예를 들어, 웹 브라우저 또는 소셜 네트워크 서비스 어플리케이션의 사용이 특정 시간 이상 지속된 경우, 상기 자투리 시간 판단부(130)는 상기 여가용 장기 사용 이벤트로 판단할 수 있다. 예를 들어, 상기 특정 시간은 90초로 설정될 수 있다. For example, when the use of a web browser or a social network service application continues for a specific time or more, the utterance time determining unit 130 may determine the leisure long-term use event. For example, the specific time may be set to 90 seconds.

상기 자투리 시간 판단부(130)가 판단하는 제2 자투리 시간은 '전화 통화 직후 이벤트'일 수 있다. 상기 전화 통화 직후 이벤트는 상기 제1 소프트웨어 센서부(190)의 상기 이벤트 검출기(192)를 이용하여 판단될 수 있다. 상기 사용자가 전화 통화를 한다는 것은 큰 소리를 내어 말을 할 수 있는 상황에 있음을 의미할 수 있다. 따라서, 상기 자투리 시간 판단부(130)는 상기 전화 통화 직후를 상기 자투리 시간 중 하나로 판단할 수 있다. The second cut time determined by the cut time determiner 130 may be an event immediately after a phone call. An event immediately after the phone call may be determined using the event detector 192 of the first software sensor unit 190. When the user makes a phone call, it may mean that the user is in a situation in which a user can speak loudly. Therefore, the cut time determiner 130 may determine immediately after the phone call as one of the cut time.

예를 들어, 상기 이벤트 검출기(192)를 통해 전화 통화가 끝나거나, 전화 통화가 취소된 것을 인식한 경우, 상기 자투리 시간 판단부(130)는 상기 전화 통화 직후 이벤트로 판단할 수 있다. For example, when it is recognized through the event detector 192 that the telephone call is ended or the telephone call is cancelled, the utterance time determining unit 130 may determine the event immediately after the telephone call.

상기 자투리 시간 판단부(130)가 판단하는 제3 자투리 시간은 '혼자 걷기 이벤트'일 수 있다. 상기 혼자 걷기 이벤트는 상기 제1 하드웨어 센서부(180)의 상기 가속도계(181) 및 상기 제1 소프트웨어 센서부(190)의 상기 이벤트 검출기(192)를 이용하여 판단될 수 있다. 이와는 달리, 상기 혼자 걷기 이벤트는 상기 제1 하드웨어 센서부(180)의 상기 GPS 센서(184) 및 상기 제1 소프트웨어 센서부(190)의 상기 이벤트 검출기(192)를 이용하여 판단될 수 있다. 상기 가속도계(181) 또는 상기 GPS 센서(184)를 통해 상기 사용자가 이동하는 것을 판단할 수 있고, 상기 이벤트 검출기(192)를 통해 이어폰 이벤트가 발생하는지 판단할 수 있다. 상기 사용자가 걸어가면서 이어폰 잭에 이어폰을 연결하거나 이어폰을 조작했다는 것은 상기 사용자가 혼자 걷는 상황으로 볼 수 있으며, 혼자 걷는 상황은 상기 자투리 시간 중 하나가 될 수 있다. The third cut time determined by the cut time determiner 130 may be a 'alone walking event'. The walking alone event may be determined using the accelerometer 181 of the first hardware sensor unit 180 and the event detector 192 of the first software sensor unit 190. Alternatively, the walking alone event may be determined using the GPS sensor 184 of the first hardware sensor unit 180 and the event detector 192 of the first software sensor unit 190. The user may determine that the user moves through the accelerometer 181 or the GPS sensor 184, and may determine whether an earphone event occurs through the event detector 192. As the user walks, connecting the earphone to the earphone jack or operating the earphone may be regarded as a situation in which the user walks alone, and the walking alone may be one of the time periods.

즉, 상기 가속도계(181) 또는 상기 GPS 센서(184)를 통해 상기 사용자가 이동한 것으로 판단하고, 상기 이벤트 검출기(192)를 통해 상기 이어폰 이벤트가 발생한 것으로 판단하면, 상기 자투리 시간 판단부(130)는 상기 혼자 걷기 이벤트로 판단할 수 있다. That is, when it is determined that the user has moved through the accelerometer 181 or the GPS sensor 184, and when it is determined that the earphone event has occurred through the event detector 192, the edge time determining unit 130 is determined. May be determined as the walking alone event.

상기 자투리 시간 판단부(130)가 판단하는 제5 자투리 시간은 '운전 중 멈춤 이벤트'일 수 있다. 신호등으로 인해 운전 중에 차량이 멈추면 수십 초 내지 수 분의 여유 시간이 발생할 수 있으므로, 상기 자투리 시간 판단부(130)는 상기 운전 중 멈춤 이벤트를 다른 작업이나 활동 (예를 들어, 책을 읽을 수 있는 상황)으로 판단할 수 있다. 상기 자투리 시간 판단부(130)는 상기 GPS 센서(184)를 통해 상기 제1 모바일 장치(100)의 위치 변화를 추적하여 상기 운전 중 멈춤 이벤트를 판단할 수 있다. The fifth cut time determined by the cut time determiner 130 may be a 'stop event during driving'. When the vehicle is stopped while driving due to a traffic light, a spare time of several tens of seconds to several minutes may occur, so that the edge time determination unit 130 may stop the driving during other driving or other tasks or activities (for example, read a book). Situation). The edge time determination unit 130 may determine a stop event during the driving by tracking the position change of the first mobile device 100 through the GPS sensor 184.

상기 자투리 시간 판단부(130)가 판단하는 제6 자투리 시간은 '미팅 대기 이벤트'일 수 있다. 상기 미팅 대기 이벤트는 상기 제1 모바일 장치(100)의 캘린더 정보를 동기화하여 상기 미팅 개최 여부 및 미팅 참가자를 판단하고, 상기 미팅 참가자의 GPS 위치 정보를 수신하여 판단될 수 있다. The sixth drop time determined by the drop time determination unit 130 may be a 'waiting event'. The meeting waiting event may be determined by synchronizing calendar information of the first mobile device 100 to determine whether the meeting is held and a meeting participant, and receiving GPS location information of the meeting participant.

상기 자투리 시간 판단부(130)가 판단하는 제7 자투리 시간은 '메신저 응답 대기 이벤트'일 수 있다. 상기 메신저 응답 대기 이벤트는 상기 제1 모바일 장치(100)의 상기 앱 사용 모니터(191)를 이용하여 판단될 수 있다. 상기 사용자가 메신저로 다른 사람과 대화 중이고, 상기 사용자가 상대방의 메시지를 대기 중이라면 상기 자투리 시간 판단부(130)는 상기 메신저 응답 대기 이벤트를 판단할 수 있다. The seventh cut time determined by the cut time determiner 130 may be a 'messenger response wait event'. The messenger response waiting event may be determined using the app usage monitor 191 of the first mobile device 100. If the user is talking to another person through a messenger and the user is waiting for a message of the other party, the utterance time determining unit 130 may determine the messenger response waiting event.

상기 자투리 시간 판단부(130)가 판단하는 제8 자투리 시간은 '건물 내 걷기 이벤트'일 수 있다. 건물 내에서 이동 중일 때에는 실외 환경에 비해 조용하므로 책을 녹음하기에 적합한 상황일 수 있다. 상기 자투리 시간 판단부(130)는 상기 GPS 센서(184) 및 Wi-Fi 신호를 이용하여 상기 건물 내 걷기 이벤트를 판단할 수 있다. 상기 GPS 센서(184)를 이용하여 상기 사용자가 건물 내에 있는지를 판단할 수 있고, 상기 Wi-Fi 신호를 이용하여 상기 사용자가 건물 내에서 이동 중인지를 판단할 수 있다. The eighth time determined by the dead time determination unit 130 may be a 'walking event in the building'. When you are moving in a building, it is quieter than the outdoor environment, so it may be suitable for recording books. The edge time determination unit 130 may determine the walking event in the building using the GPS sensor 184 and the Wi-Fi signal. The GPS sensor 184 may determine whether the user is in a building, and the Wi-Fi signal may determine whether the user is moving in a building.

상기 자투리 시간 판단부(130)가 판단하는 제9 자투리 시간은 '엘리베이터 기다림 이벤트'일 수 있다. 엘리베이터를 기다리는 시간은 책을 녹음하기에 적합한 상황일 수 있다. 상기 자투리 시간 판단부(130)는 상기 하드웨어 센서부(180)의 자기장 센서 및 가속도계를 이용하여 상기 엘리베이터 기다림 이벤트를 판단할 수 있다. The ninth cut time determined by the cut time determiner 130 may be an 'elevator wait event'. Waiting for the elevator may be a suitable situation for recording a book. The edge time determining unit 130 may determine the elevator waiting event by using a magnetic field sensor and an accelerometer of the hardware sensor unit 180.

상기 TTS 매니저(140)는 상기 listen-record 모드를 지원하기 위한 구성이다. 상기 TTS 매니저(140)는 텍스트 투 스피치 기능을 지원한다. 상기 TTS 매니저(140)는 상기 북 매니저(120)가 로드하고, 상기 제1 유저 인터페이스(110)에서 선택된 문장을 기계 음성으로 재생한다. The TTS manager 140 is a component for supporting the listen-record mode. The TTS manager 140 supports a text-to-speech function. The TTS manager 140 loads the book manager 120 and reproduces the sentence selected in the first user interface 110 as a machine voice.

상기 녹음 매니저(150)는 상기 제1 녹음 모드 및 상기 제2 녹음 모드에 따라 녹음 동작을 수행할 수 있도록 한다. 상기 제1 녹음 모드에서는 상기 북 레코딩 페이지에 문장을 표시하고, 상기 마이크(183)를 이용하여 사용자의 음성을 녹음한다. 상기 제2 녹음 모드에서는 상기 TTS 매니저(140)를 이용하여 기계 음성을 출력하고, 상기 마이크(183)를 이용하여 사용자의 음성을 녹음한다. 상기 제2 녹음 모드의 시작 및 종료는 상기 근접 센서(182)를 통해 판단될 수 있다. The recording manager 150 may perform a recording operation according to the first recording mode and the second recording mode. In the first recording mode, a sentence is displayed on the book recording page, and the user's voice is recorded using the microphone 183. In the second recording mode, the machine voice is output using the TTS manager 140, and the voice of the user is recorded using the microphone 183. The start and end of the second recording mode may be determined by the proximity sensor 182.

상기 알림 매니저(160)는 상기 자투리 시간 판단부(130)가 상기 자투리 시간을 검출한 경우, 상기 사용자에게 실시간으로 알림을 수행한다. 상기 알림은 진동이나 소리를 이용할 수 있다. 또한, 상기 알림 매니저(160)는 상기 자투리 시간 판단부(130)가 상기 자투리 시간을 검출한 경우, 상기 제1 모바일 장치(100)의 표시부에 알림 바를 표시할 수 있다. The notification manager 160 notifies the user in real time when the dead time determination unit 130 detects the dead time. The notification may use vibration or sound. In addition, the notification manager 160 may display a notification bar on the display unit of the first mobile device 100 when the cut time determiner 130 detects the cut time.

상기 제1 웹 API 클라이언트(170)는 상기 서버(200)의 상기 제1 웹 API 서버(210)와 통신한다. 상기 제1 웹 API 클라이언트(170)는 상기 제1 웹 API 서버(210)를 통해 상기 북 데이터베이스(230)로부터 책 정보를 수신할 수 있고, 상기 인터랙션 데이터베이스(260)로부터 상기 제2 모바일 장치(300)의 사용자의 인터랙션 정보를 수신할 수 있다. The first web API client 170 communicates with the first web API server 210 of the server 200. The first web API client 170 may receive book information from the book database 230 through the first web API server 210, and the second mobile device 300 from the interaction database 260. Interaction information of the user may be received.

상기 수신된 인터랙션 정보는 상기 제1 유저 인터페이스(110)를 통해 상기 제1 모바일 장치(100)의 표시부에 표시될 수 있다. 상기 수신된 인터랙션 정보는 상기 북 레코딩 페이지의 책 제목 아래 부분에 표시될 수 있다. The received interaction information may be displayed on the display unit of the first mobile device 100 through the first user interface 110. The received interaction information may be displayed under a book title of the book recording page.

상기 제1 데이터베이스(195)는 상기 제1 모바일 장치(100)의 기능을 수행하기 위해 필요한 정보들을 저장할 수 있다. 예를 들어, 상기 제1 데이터베이스(195)는 상기 서버(200)의 북 데이터베이스(230)로부터 수신한 책의 리스트 및 책의 문장들을 저장할 수 있다. 예를 들어, 상기 제1 데이터베이스(195)는 상기 서버(200)의 인터랙션 데이터베이스(260)로부터 수신한 인터랙션 정보를 저장할 수 있다. 예를 들어, 상기 제1 데이터베이스(195)는 상기 녹음 매니저(150)에 의해 생성된 녹음 파일을 저장할 수 있다. The first database 195 may store information necessary to perform a function of the first mobile device 100. For example, the first database 195 may store a list of books and sentences of the book received from the book database 230 of the server 200. For example, the first database 195 may store the interaction information received from the interaction database 260 of the server 200. For example, the first database 195 may store a recording file generated by the recording manager 150.

상기 웹 API 서버(210)는 상기 제1 웹 API 클라이언트(170)를 통해 상기 제1 모바일 장치(100)와 통신할 수 있다. 또한, 상기 웹 API 서버(210)는 상기 제2 웹 API 클라이언트(320)를 통해 상기 제2 모바일 장치(300)와 통신할 수 있다.The web API server 210 may communicate with the first mobile device 100 through the first web API client 170. In addition, the web API server 210 may communicate with the second mobile device 300 through the second web API client 320.

상기 북 컨텐트 매니저(220)는 상기 북 데이터베이스(230)에 저장되는 북 컨텐트를 관리한다. 예를 들어, 상기 북 컨텐트 매니저(220)는 상기 북 데이터베이스(230)에 저장된 책들이 상기 사용자와 관련된 책인지를 판단할 수 있다. 예를 들어, 상기 북 컨텐트 매니저(220)는 상기 책의 내용을 문장 단위로 분할 관리할 수 있다. The book content manager 220 manages book content stored in the book database 230. For example, the book content manager 220 may determine whether books stored in the book database 230 are books related to the user. For example, the book content manager 220 may divide and manage the contents of the book in sentence units.

또한, 상기 북 컨텐트 매니저(220)는 상기 제1 모바일 장치(100)에 의해 생성된 녹음 파일들을 결합하여 오디오 북을 생성할 수도 있다. 또한, 상기 북 컨텐트 매니저(220)는 녹음 파일들을 녹음 파일 단위로 별도 관리할 수도 있다. In addition, the book content manager 220 may generate an audio book by combining the recording files generated by the first mobile device 100. In addition, the book content manager 220 may separately manage recording files in recording file units.

상기 북 데이터베이스(230)는 책의 문장들을 저장할 수 있다. The book database 230 may store sentences of a book.

상기 녹음 데이터베이스(240)는 상기 제1 모바일 장치(100)에 의해 생성된 녹음 파일들을 저장할 수 있다. The recording database 240 may store the recording files generated by the first mobile device 100.

상기 패밀리 데이터베이스(250)는 상기 제1 모바일 장치(100)의 사용자와 상기 제2 모바일 장치(300)의 사용자의 관계에 대한 정보를 포함할 수 있다. 예를 들어, 상기 제1 모바일 장치(100)의 사용자와 상기 제2 모바일 장치(300)의 사용자가 가족에 해당하는지에 대한 정보를 포함할 수 있다. The family database 250 may include information about a relationship between a user of the first mobile device 100 and a user of the second mobile device 300. For example, information about whether the user of the first mobile device 100 and the user of the second mobile device 300 corresponds to a family may be included.

상기 인터랙션 데이터베이스(260)는 상기 제2 모바일 장치(300)의 인터랙션 모니터(330)로부터 생성된 인터랙션 정보를 수신하여, 상기 인터랙션 정보를 상기 제1 모바일 장치(100)의 상기 제1 유저 인터페이스(110) 또는 상기 제1 데이터베이스(195)로 전달할 수 있다. The interaction database 260 receives the interaction information generated from the interaction monitor 330 of the second mobile device 300 and transmits the interaction information to the first user interface 110 of the first mobile device 100. ) Or to the first database 195.

상기 제2 유저 인터페이스(310)는 상기 제2 모바일 장치(300)가 재생할 책을 선택하고, 재생을 진행할 수 있도록 하는 인터페이스를 제공한다. 상기 설명한 바와 같이, 상기 제2 유저 인터페이스(310)는 상기 제1 유저 인터페이스(110)와 유사하며, 상기 제2 유저 인터페이스(310)는 녹음 버튼을 포함하지 않는다. The second user interface 310 provides an interface that allows the second mobile device 300 to select a book to play and to proceed with playback. As described above, the second user interface 310 is similar to the first user interface 110, and the second user interface 310 does not include a record button.

상기 제2 웹 API 클라이언트(320)는 상기 서버(200)의 상기 웹 API 서버(210)와 통신한다.The second web API client 320 communicates with the web API server 210 of the server 200.

상기 인터랙션 모니터(330)는 상기 제2 모바일 장치(300)의 사용자의 인터랙션 정보를 획득하여 상기 서버(200)의 상기 인터랙션 데이터베이스(260)로 전송할 수 있다. The interaction monitor 330 may obtain the interaction information of the user of the second mobile device 300 and transmit the interaction information to the interaction database 260 of the server 200.

상기 제2 하드웨어 센서부(340)는 상기 제2 모바일 장치(300) 내의 센서이며, 예를 들어, 카메라 및 마이크를 포함할 수 있다. The second hardware sensor unit 340 is a sensor in the second mobile device 300, and may include, for example, a camera and a microphone.

상기 제2 소프트웨어 센서부(350)는 상기 제2 모바일 장치(300) 내의 센서이며, 예를 들어, 앱 사용 모니터, 이벤트 검출기 등을 포함할 수 있다. The second software sensor unit 350 is a sensor in the second mobile device 300, and may include, for example, an app usage monitor and an event detector.

상기 제2 데이터 베이스(360)는 상기 제2 모바일 장치(300)의 기능을 수행하기 위해 필요한 정보들을 저장할 수 있다. 예를 들어, 상기 제2 데이터베이스(360)는 상기 서버(200)의 녹음 데이터베이스(240)로부터 수신한 녹음 파일을 저장할 수 있다. 예를 들어, 상기 제2 데이터베이스(360)는 상기 인터랙션 모니터(330)에 의해 생성된 인터랙션 정보를 저장할 수 있다. The second database 360 may store information necessary to perform a function of the second mobile device 300. For example, the second database 360 may store a recording file received from the recording database 240 of the server 200. For example, the second database 360 may store the interaction information generated by the interaction monitor 330.

본 실시예에 따르면, 사용자의 모바일 장치(100)를 이용하여 사용자의 다양한 타입의 자투리 시간을 판단할 수 있다. 상기 모바일 장치(100)가 상기 자투리 시간을 판단하면, 상기 사용자에게 알림을 발송할 수 있다. 상기 사용자가 책의 문장 단위로 음성을 녹음할 수 있도록 유저 인터페이스(110)를 제공할 수 있다. 따라서, 사용자는 자투리 시간을 활용하여 효과적으로 오디오 북을 제작할 수 있다.According to the present embodiment, the user's mobile device 100 may be used to determine various types of utterance time of the user. When the mobile device 100 determines the cut time, the mobile device 100 may send a notification to the user. The user interface 110 may be provided to enable the user to record voice in units of sentences of a book. Therefore, the user can effectively produce an audio book by using the time spent on the utterance.

본 발명은 사용자의 스마트폰, 태블릿, 노트북, PDA, PMP 등 통신 기능을 수행할 수 있는 다양한 전자 장치에 적용될 수 있다. The present invention can be applied to various electronic devices capable of performing communication functions, such as a user's smart phone, tablet, notebook, PDA, PMP.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 것이다.While the above has been described with reference to a preferred embodiment of the present invention, those skilled in the art will be able to variously modify and change the present invention without departing from the spirit and scope of the invention as set forth in the claims below. I will understand.

100: 제1 모바일 장치 110: 제1 유저 인터페이스
120: 북 매니저 130: 자투리 시간 판단부
140: TTS 매니저 150: 녹음 매니저
160: 알림 매니저 170: 제1 웹 API 클라이언트
180: 제1 하드웨어 센서부 181: 가속도계
182: 근접 센서 183: 마이크
184: GPS 센서 190: 제1 소프트웨어 센서부
191: 앱 사용 모니터 192: 이벤트 검출기
195: 제1 데이터베이스 200: 서버
210: 웹 API 서버 220: 북 컨텐트 매니저
230: 북 데이터베이스 240: 녹음 데이터베이스
250: 패밀리 데이터베이스 260: 인터랙션 데이터베이스
300: 제2 모바일 장치 310: 제2 유저 인터페이스
320: 제2 웹 API 클라이언트 330: 인터랙션 모니터
340: 제2 하드웨어 센서부 350: 제2 소프트웨어 센서부
360: 제2 데이터베이스
100: first mobile device 110: first user interface
120: book manager 130: cut time judgment
140: TTS Manager 150: Recording Manager
160: notification manager 170: the first web API client
180: first hardware sensor unit 181: accelerometer
182: proximity sensor 183: microphone
184: GPS sensor 190: first software sensor unit
191: Monitor app usage 192: Event detector
195: first database 200: server
210: web API server 220: book content manager
230: book database 240: recording database
250: family database 260: interaction database
300: second mobile device 310: second user interface
320: second web API client 330: interaction monitor
340: second hardware sensor unit 350: second software sensor unit
360: second database

Claims (15)

모바일 기기의 하드웨어 센서부 및 소프트웨어 센서부 중 적어도 어느 하나를 이용하여 사용자의 정보를 획득하는 단계; 및
획득한 상기 사용자의 정보를 기초로 인지부하가 적은 순간을 감지하여, 부수적인 일을 수행할 수 있는 자투리 시간을 판단하는 단계를 포함하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.
Obtaining user information using at least one of a hardware sensor unit and a software sensor unit of the mobile device; And
Detecting a moment of low cognitive load based on the obtained information of the user, and determining the utterance time that can perform ancillary work, the utterance time determination method using a mobile device and a sensor.
제1항에 있어서, 상기 사용자의 정보를 획득하는 단계는
상기 하드웨어 센서부를 이용하여 상기 사용자의 상황 정보 또는 행동 정보를 획득하는 것을 특징으로 하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.
The method of claim 1, wherein the obtaining of the user information comprises:
Method of determining the utterance time using a mobile device and a sensor, characterized in that to obtain the user's context information or behavior information using the hardware sensor unit.
제1항에 있어서, 상기 사용자의 정보를 획득하는 단계는
상기 소프트웨어 센서부를 이용하여 상기 사용자의 모바일 기기 사용 정보를 획득하는 것을 특징으로 하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.
The method of claim 1, wherein the obtaining of the user information comprises:
Method of determining the utterance time using a mobile device and a sensor, characterized in that to obtain the mobile device usage information of the user using the software sensor unit.
제1항에 있어서, 상기 사용자의 자투리 시간을 판단하는 단계는
상기 사용자의 상황 정보를 기초로 상기 사용자가 대기 상황에 있음을 감지하여 자투리 시간임을 판단하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.
The method of claim 1, wherein the determining of the utterance time of the user
A method of determining a utterance time using a mobile device and a sensor that detects that the user is in a standby state based on the situation information of the user and determines that the utterance time is.
제1항에 있어서, 상기 사용자의 자투리 시간을 판단하는 단계는
상기 사용자의 상황 정보 또는 행동 정보를 기초로 상기 사용자가 혼자서 걷거나 행동하고 있음을 감지하여 자투리 시간임을 판단하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.
The method of claim 1, wherein the determining of the utterance time of the user
A method of determining a utterance time using a mobile device and a sensor that detects that the user is walking or acting alone based on the user's situation information or behavior information.
제1항에 있어서, 상기 사용자의 자투리 시간을 판단하는 단계는
상기 사용자의 모바일 기기 사용 정보를 기초로 상기 사용자가 상기 모바일 기기를 이용하여 여가 활동 서비스를 사용하는 중임을 감지하여 자투리 시간임을 판단하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.
The method of claim 1, wherein the determining of the utterance time of the user
A method for determining a utterance time using a mobile device and a sensor that detects that the user is using a leisure activity service using the mobile device based on the user's mobile device usage information and determines the utterance time.
제1항에 있어서, 상기 사용자의 상기 자투리 시간을 판단하는 단계는 상기 사용자가 이어폰을 착용하고 걸어가는 경우를 의미하는 이어폰 착용 걷기 이벤트를 판단하고,
상기 이어폰 착용 걷기 이벤트는 상기 하드웨어 센서부의 가속도계 또는 GPS 센서와 상기 소프트웨어 센서부의 이벤트 검출기의 이어폰 이벤트를 이용하여 판단되는 것을 특징으로 하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.
The method of claim 1, wherein the determining of the time of the user's utterance comprises determining an earphone wearing walking event, which means a case where the user walks with wearing the earphone,
The earphone wearing walking event is determined using the accelerometer or GPS sensor of the hardware sensor unit and the earphone event of the event detector of the software sensor unit.
제1항에 있어서, 상기 사용자의 상기 자투리 시간을 판단하는 단계는 상기 사용자가 미팅 시작 전에 대기하고 있는 것을 의미하는 미팅 대기 이벤트를 판단하고,
상기 미팅 대기 이벤트는 상기 모바일 기기의 캘린더 정보 및 미팅 참가자의 GPS 위치 정보를 이용하여 판단되는 것을 특징으로 하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.
The method of claim 1, wherein the determining of the user's utterance time comprises: determining a meeting waiting event, meaning that the user is waiting before a meeting starts,
The meeting waiting event is determined using the calendar information of the mobile device and the GPS location information of the meeting participant, the edge time determination method using a mobile device and a sensor.
제1항에 있어서, 상기 사용자의 상기 자투리 시간을 판단하는 단계는 상기 사용자가 메신저를 이용하여 상대방과 대화 중이고, 상기 사용자가 상기 상대방의 메시지를 대기 중인 것을 의미하는 메신저 응답 대기 이벤트를 판단하고,
상기 메신저 응답 대기 이벤트는 상기 소프트웨어 센서부의 앱 사용 모니터를 이용하여 판단되는 것을 특징으로 하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.
The method of claim 1, wherein the determining of the utterance time of the user comprises: determining a messenger response waiting event meaning that the user is talking to the other party using a messenger, and the user is waiting for a message of the other party;
The messenger response waiting event is determined using an app usage monitor of the software sensor unit.
제1항에 있어서, 상기 사용자의 상기 자투리 시간을 판단하는 단계는 상기 사용자가 건물 내에서 이동 중인 것을 의미하는 건물 내 걷기 이벤트를 판단하고,
상기 건물 내 걷기 이벤트는 상기 하드웨어 센서부의 GPS 센서 및 Wi-Fi 신호를 이용하여 판단되는 것을 특징으로 하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.
The method of claim 1, wherein the determining of the time of the user's utterance comprises determining a walking event in the building, which means that the user is moving in the building.
The walking event in the building is determined using a GPS sensor and a Wi-Fi signal of the hardware sensor unit, the edge time determination method using a mobile device and the sensor.
제1항에 있어서, 상기 사용자의 상기 자투리 시간을 판단하는 단계는 상기 사용자가 엘리베이터를 기다리고 있는 것을 의미하는 엘리베이터 기다림 이벤트를 판단하고,
상기 엘리베이터 기다림 이벤트는 상기 하드웨어 센서부의 자기장 센서 및 가속도계를 이용하여 판단되는 것을 특징으로 하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.
The method of claim 1, wherein the determining of the user's utterance time comprises determining an elevator waiting event, which means that the user is waiting for an elevator.
The elevator wait event is determined using a magnetic field sensor and an accelerometer of the hardware sensor unit, the edge time determination method using a mobile device and a sensor.
모바일 기기의 하드웨어 센서부 및 소프트웨어 센서부 중 적어도 어느 하나를 이용하여 사용자의 정보를 획득하는 단계; 및
상기 사용자의 정보를 기초로 상기 사용자의 계획된 일정들 사이에 인지 부하가 적은 순간을 감지하여, 일정에는 없지만 부수적인 일을 수행할 수 있는 자투리 시간을 판단하는 단계를 포함하는 모바일 기기와 센서를 이용한 자투리 시간 판단 방법.
Obtaining user information using at least one of a hardware sensor unit and a software sensor unit of the mobile device; And
Detecting a moment when there is little cognitive load between the scheduled schedules of the user based on the information of the user, and using the mobile device and the sensor comprising the step of determining the time spent on the schedule, but not ancillary work How to determine the time of detention.
모바일 기기의 하드웨어 센서부 및 소프트웨어 센서부 중 적어도 어느 하나를 이용하여 사용자의 정보를 획득하고, 획득한 상기 사용자의 정보를 기초로 인지부하가 적은 순간을 감지하여, 부수적인 일을 수행할 수 있는 자투리 시간을 판단하는 모바일 기기와 센서를 이용한 자투리 시간 판단 시스템.Acquiring user information using at least one of a hardware sensor unit and a software sensor unit of the mobile device, and detects a moment when the cognitive load is low based on the obtained user information, and can perform ancillary work. A decay time determination system using a mobile device and a sensor to determine a decay time. 제1항 내지 제12항의 자투리 시간 판단 방법을 이용하여 자투리 시간을 판단하고, 상기 자투리 시간을 오디오북 제작에 활용하는 방법.The method of claim 1, characterized in that the determination of the rim time using the rim time determination method of the method, and using the rim time for audiobook production. 제13항의 자투리 시간 판단 시스템을 이용하여 자투리 시간을 판단하고, 상기 자투리 시간을 오디오북 제작에 활용하는 시스템.A system for judging a drop time by using the drop time determination system of claim 13, and using the drop time for audiobook production.
KR1020190174436A 2019-12-24 2019-12-24 System and method of determining micro spare time using sensor of mobile apparatus KR102124757B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190174436A KR102124757B1 (en) 2019-12-24 2019-12-24 System and method of determining micro spare time using sensor of mobile apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190174436A KR102124757B1 (en) 2019-12-24 2019-12-24 System and method of determining micro spare time using sensor of mobile apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180021763A Division KR102061619B1 (en) 2018-02-23 2018-02-23 Mobile apparatus, audio book creating system having the same and method of creating audio book using the same

Publications (2)

Publication Number Publication Date
KR20200000423A true KR20200000423A (en) 2020-01-02
KR102124757B1 KR102124757B1 (en) 2020-06-19

Family

ID=69155389

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190174436A KR102124757B1 (en) 2019-12-24 2019-12-24 System and method of determining micro spare time using sensor of mobile apparatus

Country Status (1)

Country Link
KR (1) KR102124757B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210128056A (en) 2020-04-16 2021-10-26 안철수 Method for providing service of job seeker-centric using spare time

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120130417A (en) * 2011-05-23 2012-12-03 김정환 Mobile terminal and method for managing schedule for self-directed learning
KR20130048428A (en) * 2011-11-02 2013-05-10 이전구 Game system and method using mobile terminal
KR20130117102A (en) * 2012-04-17 2013-10-25 주이스 주식회사 A remote education system using push nortification function and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120130417A (en) * 2011-05-23 2012-12-03 김정환 Mobile terminal and method for managing schedule for self-directed learning
KR20130048428A (en) * 2011-11-02 2013-05-10 이전구 Game system and method using mobile terminal
KR20130117102A (en) * 2012-04-17 2013-10-25 주이스 주식회사 A remote education system using push nortification function and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210128056A (en) 2020-04-16 2021-10-26 안철수 Method for providing service of job seeker-centric using spare time

Also Published As

Publication number Publication date
KR102124757B1 (en) 2020-06-19

Similar Documents

Publication Publication Date Title
CN104008749B (en) Method and apparatus for the Voice command of mobile device
JP4787328B2 (en) Method and apparatus for capturing audio during a conference call
US20180069815A1 (en) Application-based messaging system using headphones
RU2530267C2 (en) Method for user communication with information dialogue system
US9876985B2 (en) Providing a log of events to an isolated user
KR20140022824A (en) Audio-interactive message exchange
US8737581B1 (en) Pausing a live teleconference call
CN110419206A (en) The opportunism timing of equipment notice
CN102550121A (en) User-selectable environments for mobile communications devices
EP2166706A1 (en) Method of changing status of instant message software
US20090170567A1 (en) Hands-free communication
KR102124757B1 (en) System and method of determining micro spare time using sensor of mobile apparatus
US20160150384A1 (en) Method for processing an audio message
KR102061619B1 (en) Mobile apparatus, audio book creating system having the same and method of creating audio book using the same
JP2014102324A (en) Portable information terminal, shadow speech management method, and computer program
JP2003218999A (en) Mobile phone with voice recognition function and control program thereof
JP4922462B1 (en) Content playback apparatus and content playback method
US20110216915A1 (en) Providing audible information to a speaker system via a mobile communication device
JP2004259198A (en) Information management apparatus, information management system and program
WO2015175938A1 (en) Asynchronous auditory messaging facilitation apparatuses, methods and systems
JP2002041279A (en) Agent message system
JP2017033376A (en) Information processing device, information processing method, and control program
JP5034111B2 (en) Data storage system, data storage / playback method, and program
KR101562901B1 (en) System and method for supporing conversation
KR102324656B1 (en) Portable device for coping with critcal situation and system for coping with critcal situation using the same

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant