KR101113690B1 - 활동 정보 분석 장치 및 그 방법 - Google Patents

활동 정보 분석 장치 및 그 방법 Download PDF

Info

Publication number
KR101113690B1
KR101113690B1 KR1020090086813A KR20090086813A KR101113690B1 KR 101113690 B1 KR101113690 B1 KR 101113690B1 KR 1020090086813 A KR1020090086813 A KR 1020090086813A KR 20090086813 A KR20090086813 A KR 20090086813A KR 101113690 B1 KR101113690 B1 KR 101113690B1
Authority
KR
South Korea
Prior art keywords
sensor
activity
voice
database
activity information
Prior art date
Application number
KR1020090086813A
Other languages
English (en)
Other versions
KR20110029231A (ko
Inventor
최호진
김수경
이상훈
최영일
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020090086813A priority Critical patent/KR101113690B1/ko
Publication of KR20110029231A publication Critical patent/KR20110029231A/ko
Application granted granted Critical
Publication of KR101113690B1 publication Critical patent/KR101113690B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/535Tracking the activity of the user
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 활동 정보 분석 장치 및 방법에 관한 것으로서, 이차센서 및 데이터베이스센서와 같은 자동 센서와 음성센서와 같은 센서들을 조합하여 이용함으로써 정확한 사용자의 활동 정보 수집하기 위해, 적어도 하나 이상의 센서를 포함하는 센서의 조합을 이용하여 미리 정의된 활동에 대한 시작시간과 종료시간을 포함하는 활동 정보를 수집하는 활동 정보 수집 모듈; 및 상기 활동 정보로부터 상기 활동의 작업 시간을 분석하는 활동 정보 처리 모듈을 포함한다.
PSP, 타임로그, 음성센서, 이차센서, 데이터베이스센서, 활동 정보 수집

Description

활동 정보 분석 장치 및 그 방법{APPARATUS AND METHOD FOR ANSLYZING ACTIVITY INFORMATION}
본 발명은 활동 정보 분석 장치 및 방법에 관한 것으로서, 특히, 다양한 센서들의 조합을 이용하여 사용자의 특정 활동에 대한 시작시간 및 종료시간에 대한 타임로그를 정확하게 기록할 수 있고, 이러한 타임로그를 이용하여 사용자의 활동 정보를 분석할 수 있는 활동 정보 분석 장치 및 그 방법에 관한 것이다.
현재까지 센서를 통한 데이터 수집의 경우는 여러 소프트웨어 지원 도구에서 사용되었고, 1개 이상의 센서를 사용하여 데이터 측정을 수행하는 지원 도구는 대표적인 예로 Hackystat의 데이터 측정 시스템을 들 수 있다.
이러한 기존의 수작업 기반 활동 정보 수집 및 단순 센서 기반 활동 정보 수집에서 나타나는 문제점인 리코딩 오버헤드(recording overhead) 및 문맥교환(context switching)의 발생이나 자료 기록의 소홀성, 활동의 시작과 종료 시점에 대한 로그 참조의 어려움 등과 같은 문제점이 존재했다.
따라서, 소프트웨어 개발 환경에 개인 소프트웨어 프로세스(Personal Software Process, 이하, PSP)를 적용하는데 발생하는 기존의 레코딩 오버헤드와 문맥교환시에 발생하는 문제점을 해결하기 위한 각 활동에 대한 새로운 데이터 기록 방법이 요구되었다.
본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위한 것으로, 이차센서 및 데이터베이스센서와 같은 자동 센서와 음성센서와 같은 센서들을 조합하여 이용함으로써 정확한 사용자의 활동 정보 수집이 가능한 활동 정보 분석 장치 및 방법을 제공하는데 그 목적이 있다.
상기한 목적을 달성하기 위한, 본 발명의 제 1 실시예에 의한 활동 정보 분석 장치는 적어도 하나 이상의 센서를 포함하는 센서의 조합을 이용하여 미리 정의된 활동에 대한 시작시간과 종료시간을 포함하는 활동 정보를 수집하는 활동 정보 수집 모듈 및 상기 활동 정보로부터 상기 활동의 작업 시간을 분석하는 활동 정보 처리 모듈을 포함한다.
이때, 상기 센서의 조합은 음성센서, 이차센서 및 데이터베이스센서로 이루어진 그룹 중 선택되는 하나의 센서로 이루어질 수 있다.
또한, 상기 센서의 조합은 음성센서 하나를 포함하거나, 음성센서, 이차센서 및 데이터베이스센서로 이루어진 그룹 중 선택되는 두 개의 센서로 이루어질 수 있다.
또한, 상기 센서의 조합은 음성센서, 이차센서 및 데이터베이스센서를 포함할 수 있다.
한편, 상기 음성센서는 상기 활동을 정의하는 키워드를 음성 인식할 수 있고, 상기 이차센서는 IDE 센서, 인터넷 익스플러 (IE) 센서, OS 센서 중 하나로 구성될 수 있다.
여기서, 상기 이차센서는 활동의 시작시간 및 종료시간에 대한 타임로그를 기록할 수 있고, 상기 데이터베이스센서는 상기 활동에 대한 스케줄 관리 시스템이며, 상기 활동의 스케줄에 따른 타임로그를 기록할 수 있다. 상기 스케줄 정보는 프로젝트 스케줄, 미팅 스케줄, 클래스 스케줄 및 오피스 작업 시간 중 하나일 수 있다.
상기 센서의 조합으로부터 기록되는 타임로그를 저장하는 타임로그 데이터베이스 또는 사용자로부터 활동에 해당하는 키워드를 음성으로 입력받아 정의하는 활동 정보 정의 모듈을 더 포함할 수 있다.
상기한 목적을 달성하기 위한, 본 발명의 제 2 실시예에 의한 활동 정보 분석 방법은 적어도 하나 이상의 센서를 포함하는 센서 조합을 이용하여 미리 정의된 활동의 시작시간과 종료시간에 대한 활동 정보를 수집하는 단계 및 상기 활동 정보로부터 상기 센서로부터 기록된 타임로그를 분석하여 작업 시간을 관리하는 단계를 포함할 수 있다.
상기한 목적을 달성하기 위한, 본 발명의 제 3 실시예에 의한 활동 정보 분석 장치는 적어도 하나 이상의 센서를 포함하는 센서의 조합을 이용하여 미리 정의 된 활동에 대한 시작시간과 종료시간을 포함하는 활동 정보를 수집하는 활동 정보 수집 모듈; 상기 활동 정보로부터 상기 활동의 작업 시간을 분석하는 활동 정보 처리 모듈; 상기 센서의 조합으로부터 기록되는 타임로그를 저장하는 타임로그 데이터베이스; 및 사용자로부터 활동에 해당하는 키워드를 음성으로 입력받아 정의하는 활동 정보 정의 모듈을 포함한다.
또한, 상기와 같은 목적을 달성하기 위한, 본 발명의 제 4 실시예에 의한 컴퓨터에 실행됨으로써, 사용자의 활동 정보를 분석하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체는, 적어도 하나 이상의 센서를 포함하는 센서의 조합을 이용하여 미리 정의된 활동에 대한 시작시간과 종료시간을 포함하는 활동 정보를 수집하는 활동 정보 수집 수단; 상기 활동 정보로부터 상기 활동의 작업 시간을 분석하는 활동 정보 처리 수단; 상기 센서의 조합으로부터 기록되는 타임로그를 저장하는 수단; 및 사용자로부터 활동에 해당하는 키워드를 음성으로 입력받아 정의하는 수단이 상기 컴퓨터에서 실행되도록 할 수 있다.
본 발명에 따르면, 소프트웨어 개발 환경에 개인 소프트웨어 프로세스(Personal Software Process, 이하, PSP)를 적용하여 정확한 사용자의 활동 정보를 수집할 수 있으며, 또한, 수집된 데이터의 유용한 활용이 가능한 효과가 있다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 형태들을 설명한다. 그러나, 본 발명의 실시 형태들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명하는 실시 형태들로 한정되는 것은 아니다. 또한, 본 발명의 실시 형태들은 당해 기술 분야에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서 동일한 부호로 표시되는 요소는 동일한 요소이다.
본 발명의 일실시 형태에 따른 활동 정보 분석 장치는, 사용자의 활동 정보를 정확하게 분석하는데 유용하도록, 다양한 센서의 조합을 이용함으로써 활동 정보에 대한 정확한 데이터의 수집이 가능하다. 이를 위해, 음성센서, 이차센서 및 데이터베이스센서 중 적어도 하나 이상의 센서를 포함하는 센서의 조합을 이용하여 활동에 대한 타임로그를 기록한다.
도 1 은 본 발명의 일실시 형태에 따른 활동 정보 분석 장치의 구성을 개략적으로 나타낸 블럭도이다.
도 1에 도시된 바와 같이, 활동 정보 분석 장치는 활동 정보 정의 모듈(100), 활동 정보 수집 모듈(200), 타임로그 데이터베이스(300) 및 활동 정보 처리 모듈(400)로 이루어진다.
여기서, 활동 정보 정의 모듈(100)은 사용자가 수행하는 활동을 분류하고, 각 활동에 해당되는 키워드를 정의한다. 여기서, 키워드는 음성센서를 통해 입력되는 사용자의 음성을 통해 미리 정의되며, 이후 센서들은 키워드에 의해 정의된 활동에 대한 정보만을 수집한다. 특히, 음성센서(210)는 상기 키워드에 해당하는 활동만을 인식한다.
표 1은 상기 활동 정보 정의 모듈(100)에 의해 정의된 활동에 대한 키워드의 매핑 테이블의 예시를 나타낸 것이다.
키워드로 정의된 활동 매핑 테이블
활동의 정의 키워드 설명
분석(analysis) 분석 작업
아키텍처(architecture) 소프트웨어 아키텍처 설계
코딩(coding) 소스코드작성
디버깅(debugging) 소프트웨어 디버깅
디자인(design) 소프트웨어설계
문서(documentation) 프로젝트문서 작성
점심(lunch) 점심
프리젠테이션(presentation) 프로젝트 발표
보고서(report) 프로젝트 보고서 작성
활동 정보 정의 모듈(100)에서 정의된 키워드는 타임로그 데이터베이스(300)에 저장된다. 또한, 활동 정보 정의 모듈(100)로부터 정의되는 활동에 해당되는 키워드를 저장하는 데이터베이스를 별도로 더 구비할 수도 있다.
활동 정보 수집 모듈(200)은 음성센서(210), 이차센서(220) 및 데이터베이스센서(230) 중 선택되는 적어도 하나 이상의 센서의 조합을 포함하고, 이러한 센서의 조합으로부터 수집되는 각 센서의 타임 로그를 활동정보 데이터베이스(300)에 저장한다. 그리고, 활동 정보 수집 모듈(200)은 각 센서의 조합으로부터 입력되는 활동 정보에 대해, 미리 정의되어 있는 활동과 매칭시켜서 해당하는 활동에 대한 타임 로그만을 수집한다.
음성센서(210)를 통해 미리 정의된 활동과 이차센서(220)를 통해 획득되는 활동 정보를 매핑한 예를 표 2에 나타낸다. 표 2는 미리 정의된 활동에 대한 이차센서로부터 수집되는 활동의 매핑 테이블의 예시를 나타낸 것이다.
음성센서 활동과 이차센서 활동의 매팅 테이블
No. 음성센서 활동 이차센서 활동
1

디버깅

Eclipse SDK
Microsoft Visual Studio
Internet Explorer
2
문서
Microsoft Word
Notepad
3
디자인
Microsoft Visio
Adobe Photoshop
4

코딩

Eclipse SDK
Microsoft Visual Studio
Notepad
구체적으로, 센서 조합은 음성센서(210), 이차센서(220) 및 데이터베이스센서(230)로 이루어진 그룹 중에서 선택되는 적어도 하나 이상의 센서의 조합으로부터 구성되며, 이러한 센서 조합은, 크게 음성센서(210)만으로 이루어진 조합, 음성센서(210)와 이차센서(220)의 조합, 음성센서(210)와 데이터베이스센서(220)의 조합, 이차센서(220)와 데이터베이스센서(230)의 조합, 음성센서(210), 이차센서(220) 및 데이터베이스센서(230)의 조합으로 분류된다. 그리고, 음성센서(210), 이차센서(220) 및 데이터베이스센서(230)의 조합은 음성센서(210)와 이차센서(220)의 조합 후 데이터베이스센서(230)의 조합, 음성센서(210)와 데이터베이스센서(230)의 조합 후 이차센서(220)의 조합, 이차센서(220) 및 데이터베이스센서(230)의 조합 후 음성센서(210)의 조합으로 분류된다.
여기서, 음성센서(210)는 사용자가 직접 발성한 음성을 인식하여 미리 정의된 키워드에 해당하는 활동에 대한 시작 및 종료에 대한 정보를 타임로그로 데이터베이스(300)에 저장한다. 이차센서(220)는 사용자의 활동과 관련된 프로그램 또는 시스템의 시작 및 종료에 대한 정보를 타임 로그로 기록하여 데이터베이스(300)에 저장하며, 이러한 이차센서(220)는 IDE 센서, IE(Internet Explorer) 센서, OS(Operating System) 센서 등을 포함한다. 그리고, 데이터베이스센서(230)는 다양한 소스, 즉, 온라인 리소스(online resource), 프로젝트 매니저먼트 시스템(project management system), 클래스 매니저먼트 시스템(class management system), 개인적인 전자 다이어리(personal electronic diary)와 같은 인터넷 매니저먼트 시스템(internal management systems)으로부터 자동적으로 사용자의 스케줄 정보를 획득하고, 스케줄 정보에 따른 시작 및 종료에 대한 정보를 타임 로그로 기록하여 데이터베이스(300)에 저장하며, 이러한 데이터베이스센서(230)로부터 획득되는 정보는 프로젝트 스케줄, 미팅 스케줄, 클래스 스케줄, 오피스 작업 시간 등을 포함한다.
이러한 각 센서별 활동의 입력 및 출력에 사용되는 데이터 구조를 표 3 내지 표 7에 나타낸 바와 같으며, 도 2는 음성센서의 입력 및 출력 데이터 구조를 이용하여 활동 A에 대한 음성센서의 타임로그를 나타낸 예시도이다.
입력으로 사용되는 음성센서 활동의 데이터 구조
Speech Sensor Activity
String Name
Time Speech Sensor recorded time SP
입력으로 사용되는 이차센서 활동의 데이터 구조
Secondary Sensor Activity
String Name
Time Schedule Start Time tS
Time Sensor recorded time tE
입력으로 사용되는 데이터베이스센서의 데이터 구조
Scchedule Activity
String Name
Time Schedule Start Time SS
Time Schedule End Time SE
입력으로 사용되는 활동의 매핑 데이터 구조
Mapped Activities
String Speech Sensor Activity Name
String [] Secondary Sensor Activity Name
출력으로 사용되는 데이터 구조
Activity_List
String Name
Time Activity Start Range ASS
Time Activity Start Range ASE
Time Activity End Range AES
Time Activity End Range AEE
int Minimum Duration Min
int Maximum Duration Max
Activity_List [Total number of Activities]
한편, 본 발명의 일실시 형태에 따른 활동 정보 분석 장치에 채용되는 센서의 조합은 각각 규칙과 알고리즘이 존재하며, 이러한 규칙과 알고리즘에 따라 수집된 타임로그는 타임로그 데이터베이스(300)에 기록되며, 이때, 타임로그 데이터베이스(300)는 각 센서별 타임로그 데이터베이스로 구분될 수 있다.
이러한 각 센서의 조합에 따른 활동 정보의 처리 규칙 및 알고리즘에 대해서는 이후 도 3 내지 도 9를 참조하여 상세하게 설명하도록 한다. 즉, 상기 처리 규칙 및 알고리즘은 각 센서들이 측정한 값을 분석하여 어떠한 정보가 기록되어야 하는지에 대한 분석을 위한 타임로그 프로세싱 알고리즘이다.
그리고, 활동 정보 처리 모듈(400)은 활동 정보 수집 모듈(200)에서 수집되어 타임로그 데이터베이스(300)에 저장된 각 센서별 타임로그를 이용하여 사용자의 활동에 대한 작업 시간을 분석한다. 이때, 활동 정보 처리 모듈(400)은 각 센서의 조합에 따른 규칙 및 알고리즘에 따라 각 센서별 타임로그를 분석하여 사용자의 활동에 대한 작업 시간을 산출한다.
따라서, 본 발명에 따른 활동 정보 분석 장치는, 다양한 센서의 조합을 이용함으로써 더욱 정확한 사용자의 활동 정보를 수집할 수 있고, 또한, 사용자의 활동별 작업 시간을 유용하게 산출할 수 있다.
이하, 각 센서의 조합에 대한 규칙 및 알고리즘에 대해서 도 3 내지 도 9를 참조하여 상세히 설명하도록 한다.
먼저, 도 3 은 음성센서로만 이루어진 경우의 규칙에 따라 구현한 알고리즘을 나타낸 것이다. 음성센서로만 이루어진 경우는 4가지 규칙을 가진다. 여기서, 음성센서는 사용자로부터 발성된 음성을 인식하여 미리 저장된 키워드를 인식하고, 상기 키워드에 해당하는 활동에 대한 타임로그를 기록한다.
구체적으로, 음성센서로만 이루어진 경우의 4가지 규칙을 설명하면, 규칙 1은 타임 로그상에 반복되는 활동에 있어서, 활동의 최소 기간은 활동의 마지막 발생 시간에서 활동의 첫 번째 발생 시간의 차를 나타내며, 활동 최대 기간은 다음 활동의 첫 발생시간에서 이전 활동의 마지막 발생 시간의 차가 된다.
규칙 2는 타임 로그상에 반복되지 않는 활동에 있어서 활동의 최소 기간은 1초이며 활동의 활동 최대 기간은 다음 활동의 첫 발생시간에서 이전 활동의 마지막 발생시간의 차이다.
규칙 3은 현재 활동이 음성 기록상의 처음 활동이면, 이전 활동 시간은 업무 시간과 동일하다.
규칙 4는 현재 활동이 음성 기록상의 마지막 활동이면, 다음 활동시간은 업무 종료시간과 동일하다.
그리고, 도 4는 음성센서와 데이터베이스센서로 이루어진 센서 조합의 경우에 대한 규칙을 구현한 알고리즘을 나타낸 것이다. 음성센서와 데이터베이스센서로 이루어진 센서 조합의 경우는 9가지 규칙을 가진다.
구체적으로 9 가지 규칙을 설명하면, 규칙 1은 활동이 데이터베이스센서 활동 시간 중에 음성센서의 활동이 발생하고, 음성 센서에 대한 아무런 방해가 없다면, 원래 스케줄대로 진행되었다고 가정한다.
규칙 2는 음성 센서의 활동이 데이터베이스센서 시작시간 후에 시작하였고, 음성 센서에 대해 이전 활동으로부터의 방해가 없다면, 데이터베이스센서 시작시간을 음성센서 시작시간으로 가정한다. 이 경우, 해당 행동은 데이터베이스센서 시작시간을 따르지 않기 때문에 음성 센서 규칙을 적용한다.
규칙 3은 음성센서가 데이터베이스센서 이전에 종료되고 다음 활동으로부터의 방해가 없다면 데이터베이스 종료 시간을 활동 종료 시간으로 간주한다. 이 경우 해당 행동은 데이터베이스센서 종료 시간을 따르지 않기 때문에 음성 센서 규칙을 적용한다.
규칙 4는 데이터베이스센서 활동에 대응되는 음성 센서 활동이 없다면 데이터베이스센서 활동을 따르지 않는다고 가정한다.
규칙 5는 현재 활동 기간이 음성 센서 규칙에 따라 계산되고 다음 데이터베이스센서 활동이 다음 음성 센서 활동과 같으며, 다음 데이터베이스센서 활동이 현재 활동 종료 시간과 다음 음성센서 활동 시작시간 사이에 시작한다면, 음성 센서의 다음 활동의 시작이라고 하기보다 사용자의 다음 활동은 데이터베이스센서 시작시간에 시작하였고, 현재 활동에 대한 종료 시간이 다음 데이터베이스센서 활동시작이라고 간주한다.
규칙 6은 현재 활동 기간이 음성 센서 규칙에 따라 계산되고 이전 활동이 데이터베이스센서 종료 시간에 따라 종료되면, 음성 센서에 대한 이전 활동의 마지막 인스턴스가 아닌 이전 활동의 종료 시간을 취한다.
규칙 7은 데이터베이스센서에 대응되는 음성센서 활동이 없다면, 데이터베이스센서 활동을 따르지 않는다.
규칙 8은 현재 활동이 음성이 기록된 센서의 처음 활동이면, 이전 활동은 업무 시작시간과 동일하다.
규칙 9는 현재 활동이 음성이 기록된 센서의 마지막 활동이라면, 다음 활동 시간은 업무 종료 시간과 동일하다.
도 5a, 도 5b 및 도 5c는 음성센서와 이차센서로 이루어진 센서 조합의 경우에 대한 규칙을 구현한 알고리즘을 나타낸 것이다. 이때, 음성센서와 이차센서로 이루어진 조합은 13가지 규칙을 따른다.
구체적으로 13가지 규칙을 설명하면, 규칙 1은 생성된 음성센서 타임로그에 이차센서 활동이 음성 센서 활동 중에 발생하고, 이차센서 활동이 음성 센서 활동으로 대응된다면, 활동 기간은 음성센서 규칙에 따라 계산된다.
규칙 2는 이차 센서 활동이 생성된 음성 센서 시간 기록에 포함된 음성센서 활동과 겹치고 이차 센서 활동이 음성센서 후에 종료되며, 이차센서 활동이 음성센서 활동에 대응되면, 해당 활동은 이차센서 종료시간에 완료되고, 활동 최소 기간은 현재의 최소 기간에 이차센서와 음성센서 활동의 지난 인스턴스의 차를 더한 기간이 된다.
규칙 3은 생성된 음성 센서 타임 로그에 포함된 음성 센서 활동이 이차센서 활동과 겹치고 이차센서 활동이 음성센서 이전에 시작되며, 이차 센서 활동이 음성 센서 활동과 대응되면, 해당 활동이 이차센서 시작시간과 활동 최소기간은 현재 최소기간과 음성센서 활동의 첫번째 인스턴스와 이차센서 활동의 시작시간의 차를 더한 값이 된다.
규칙 4는 이차센서 활동이 생성된 음성센서 타임로그에 포함되는 어떠한 음성센서 활동중에 일어나지 않고, 활동이 다음 음성 센서 활동에 대응된다면, 다음 활동 시작은 두 번째 활동 시작시간이고, 최소 기간은 현재 최소 기간에 이차센서 활동 시작 및 종료 시간의 차를 합한 값이 된다.
규칙 5는 이차센서 활동이 생성된 음성센서 타임 로그에 포함되는 어떠한 음성센서 활동중에 일어나지 않고, 활동이 이전의 음성 센서 활동에 대응된다면, 이전 활동 종료는 두번째 활동 종료 시간이고, 최소 기간은 현재 최소 기간에 이차센서 활동 시작 및 종료 시간의 차를 합한 값이 된다.
규칙 6은 이차센서 활동이 생성된 음성 센서 타임 로그에 포함되는 어떠한 음성 센서 활동 중에 일어나지 않고 활동이 이전 음성센서와 다음 음성센서 활동에 대응이 된다면, 이차센서 활동을 무시한다. 이전 및 다음 활동 기간은 음성센서 규칙에 따라 계산된다.
규칙 7은 생성된 음성센서 타임로그에 포함되는 음성센서 활동에 대해 가능한 이차센서 정보가 없다면 음성센서 규칙에 따라 계산된다.
규칙 8은 이차센서 활동이 생성된 음성센서 타임로그에 포함되는 음성센서 활동 중에 발생하고, 이차센서 활동이 음성센서 활동에 대응되지 않을 때, 이 경우 이차센서 활동은 충돌을 일으키고, 아닌 경우 이차센서 활동이 없는 활동이 된다. 이때, 이차센서 활동이 한 개 이상의 음성센서에 대응되면 이를 무시하고, 아닌 경우 현재 활동 사이에 이차센서 활동 정보를 추가한다.
규칙 9는 생성된 음성센서 타임로그에 포함되는 이차센서 활동이 어떠한 음성센서 활동시간에 포함되지 않고, 이차센서 활동이 이전 음성센서 활동 및 음성센서 활동에도 대응되지 않는 경우, 이차센서 활동은 없는 활동이 된다. 이 경우, 이차센서 활동이 한 개 이상의 음성센서 활동과 대응되면, 그것을 무시하고, 아니라면 이차센서 활동 정보를 이전활동과 다음 활동 사이에 추가한다.
규칙 10은 현재 활동이 음성센서에 의해 기록된 첫번째 활동이라면, 이전 활동 시간은 업무 시작시간과 동일하다.
규칙 11은 현재 활동이 음성센서에 의해 기록된 마지막 활동이라면, 다음 활동시간은 업무 종료시간과 동일하다.
규칙 12는 현재 활동 기간이 음성센서 규칙에 따라 계산되고, 다음 이차센서 활동이 음성센서의 다음 활동에 대응되면, 이차센서 활동을 시작함에 따라 사용자가 다음 활동을 시작하고, 현재 활동의 종료시점은 다음 이차센서 활동의 시작이라고 가정한다.
규칙 13은 이차센서 활동 동안 2개 또는 이상의 다른 음성센서 활동이 발생하면 이차센서 활동은 충돌을 나타낸다. 이 규칙은 음성센서 규칙에 따라 음성센서 활동을 해결한다.
그리고, 도 6은 이차센서와 데이터베이스센서로 이루어진 센서 조합에 따른 규칙을 구현한 알고리즘을 나타낸 것이다. 이차센서와 데이터베이스센서로 이루어진 센서 조합의 경우는 9가지 규칙을 가진다.
구체적으로 9가지 규칙을 설명하면, 규칙 1은 이차센서 활동이 데이터베이스센서 활동기간 동안 존재하고 이차센서 활동이 데이터베이스센서에 대응되며 데이터베이스센서 활동을 방해하는 이차센서 활동이 존재하지 않고 데이터베이스센서 활동에 대응되지 않으면 해당 활동은 데이터베이스 활동 시간에 따라 시작 및 종료한다고 가정한다.
규칙 2는 이차센서 활동이 데이터베이스센서 활동과 겹치고, 이차센서 활동이 데이터베이스센서에 대응될 때, 이차센서가 데이터베이스센서 활동 이전에 시작하면 해당 활동이 이차센서 시작시간에 시작한 것이라 가정하고, 활동 최소 기간은 현재 활동의 최소 시간에 이차센서의 종료시간과 시작시간의 차를 더한 값이 된다. 그렇지 않으면 해당 활동은 데이터베이스 시작시간에 시작한 것으로 한다.
규칙 3은 이차센서 활동이 데이터베이스센서 활동과 겹치고 이차센서 활동이 데이터베이스센서 활동에 대응되는 경우 이차센서가 데이터베이스센서 활동 종료후에 끝나면 해당활동은 이차센서 종료시간에 끝나고 활동 최소 기간은 현재 활동 최소 기간에 이차센서 종료시간과 시작시간의 차이를 더한 값이 된다. 그렇지 않으면 활동 종료시간은 데이터베이스 종료시간이 된다.
규칙 4은 이차센서 활동이 어떠한 데이터베이스센서 활동 중에 있지 않으며 이전 또는 다음 데이터베이스센서와 대응되지 않을 때 이차센서 활동은 없는 활동이 되고 이차센서 활동이 한 개 이상의 음성 센서 활동과 대응되면 그것을 무시한다. 그렇지 않은 경우 이차센서 활동 정보를 현재 활동 사이에 추가한다.
규칙 5는 이차센서 활동이 어떠한 데이터베이스센서 활동 중에도 존재하지 않고 이전 음성 센서 활동에 대응되면 이전 활동이 이차활동 종료시간이 되고, 최소 기간은 현재 최단 기간에 이차센서 활동 시작 및 종료시간의 차이를 합한 값이 된다.
규칙 6은 이차센서 활동이 어떠한 데이터베이스센서 활동에도 존재하지 않고 다음 음성 센서 활동에 대응되면 다음 활동은 이차센서 활동 시작시간이고 최소 기간은 현재 최소 기간에 이차센서 활동 시작과 종료 시간의 차를 더한 값이라고 가정한다.
규칙 7은 이차센서 활동이 어떠한 데이터베이스센서 활동에도 존재하지 않고 이전 데이터베이스센서 활동과 다음 데이터베이스센서 활동에 대응되면 이차센서 활동 및 데이터베이스센서 활동을 무시한다.
규칙 8은 이차센서 활동이 데이터베이스센서 활동 이전/이후/중간/겹치는 경우나 데이터베이스센서 활동에 대응되면 데이터베이스센서 활동이 일어나지 않았다고 가정한다.
규칙 9는 이차센서 활동이 어떠한 데이터베이스센서 활동 중 또는 겹치거나, 데이터베이스센서 활동에 대응되지 않는 경우, 이차센서 활동이 한 개 이상의 음성 센서 활동에 대응되면 무시하고, 그렇지 않으면 이차센서 활동 정보를 추가한다.
그리고, 도 7a 및 도 7b는 음성센서와 데이터베이스센서를 조합한 후 이차센서를 조합한 경우의 규칙에 따라 구현한 알고리즘을 나타낸 것이다. 이러한 음성센서와 데이터베이스센서를 조합한 후 이차센서와 조합한 경우는 10가지 규칙을 가진다.
구체적으로 10가지 규칙을 설명하면, 규칙 1은 이차센서 활동이 음성센서와 데이터베이스센서 활동 중에 있고 이차센서 활동이 음성센서와 데이터베이스센서 활동에 대응되면 음성센서와 데이터베이스센서 활동 시간을 음성센서와 데이터베이스센서 규칙에 따라 음성센서와 데이터베이스센서 활동을 해석한다.
규칙 2는 이차센서 활동이 음성센서와 데이터베이스센서 활동 중에 있거나 또는 겹치지 않는다면 이차센서 활동은 없는 활동이 된다. 이 경우, 이차센서 활동이 한 개 이상의 음성센서 활동에 대응되면 이를 무시하고, 그렇지 않으면 이차센서 활동 정보를 현재 활동 사이에 추가한다.
규칙 3은 이차센서 활동이 음성센서와 데이터베이스센서 중에 있고 이차센서 활동이 음성센서와 데이터베이스센서에 대응되지 않는 경우, 이차센서 활동 시간 중에 존재했던 음성센서 타임로그로부터 어떠한 음성센서 활동이 있다면 이차센서 활동은 충돌을 일으킨다. 이를 위해 음성센서와 데이터베이스센서 활동을 음성센서와 데이터베이스센서 규칙에 따른다. 하지만, 음성센서 활동이 없다면 이차센서 활동은 없는 활동이 된다. 이 경우 이차센서 활동이 한 개 이상의 음성 센서 활동과 대응되면 이를 무시하고, 그렇지 않은 경우에는 이차센서 활동 정보를 현재 활동 사이에 추가한다.
규칙 4는 음성센서와 데이터베이스센서 활동이 이차센서 활동과 겹쳐지고 이차센서 활동이 음성센서와 데이터베이스센서와 대응되면 음성센서와 데이터베이스센서 활동은 이차센서 종료시간 이전에 끝난다. 만약 다음 음성센서와 데이터베이스센서 활동으로부터의 방해가 없다면 출력활동 종료시간을 이차센서 종료시간으로 설정하고 최소기간은 이차센서 종료시간과 활동 시작시간의 차로 정한다. 이와는 다르게 이차센서 활동 시간 중에 존재하던 음성센서 타임로그로부터 어떠한 음성센서 활동이라도 존재하는 경우라면 이차센서 활동은 충돌을 일으킨다. 이를 위해 음성센서와 데이터베이스센서 활동은 데이터베이스센서 규칙에 따라 해석하고, 아닐 경우 이차센서 활동은 없는 활동이 된다. 이에 대해 이차센서 활동이 한 개 이상의 음성 센서 활동에 대응되면, 이를 무시하고 아닐 경우 이차센서 활동 정보를 현재 활동 사이에 추가한다.
규칙 5는 음성센서와 데이터베이스센서 활동이 이차센서 활동과 중복되고 이차센서 활동이 음성센서와 데이터베이스센서와 대응되고 음성센서와 데이터베이스센서 활동이 이차센서 시작시간 이후에 시작하는 경우, 이전 음성센서와 데이터베이스센서 활동으로부터 방해가 없으면 출력 활동 시작시간을 이차센서 시작시간으로 설정하고 최단 기간은 활동 시작시간과 이차센서 종료시간의 차로 설정한다. 아닐 경우, 이차센서 활동 시간 동안 존재했던 음성센서 타임 로그로부터 어떠한 음성 센서 활동이라도 존재한다면 이차센서 활동은 충돌을 일으킨다. 이를 위해, 음성센서와 데이터베이스센서 활동은 음성센서와 데이터베이스센서 규칙에 따라 해석하고, 아니라면 이차센서 활동은 없는 활동이 된다. 이 경우 이차센서 활동이 한 개 이상의 음성센서 활동과 대응되면 이를 무시하고, 대응되지 않으면 이차센서 활동 정보를 현재 활동 사이에 추가한다.
규칙 6은 이차센서 활동이 음성센서와 데이터베이스센서 중간 또는 겹쳐지지 않고 이차센서 활동이 다음 음성센서와 데이터베이스센서 활동에 대응되면, 다음 활동은 이차센서 활동 시간에 시작한다. 다음 활동의 최단 기간은 이차센서 활동 기간과 다음 활동 최단 기간과 같게 된다.
규칙 7은 이차센서 활동이 음성센서와 데이터베이스센서 중간에 없고, 겹쳐지지 않으며 이차센서 활동이 이전 음성센서와 데이터베이스센서 활동과 대응되면 이전활동은 이차센서 활동 종료시간에 끝나게 된다. 활동의 최단 기간은 이차센서 활동 기간과 이전 활동 최단 기간과 같게 된다.
규칙 8은 이차센서 활동이 어떠한 음성센서와 데이터베이스센서 활동 중에 있지 않고, 이차센서 활동이 이전의 음성센서와 데이터베이스센서, 다음의 음성센서와 데이터베이스센서에 대응되면 이차센서 활동을 무시한다.
규칙 9는 이차센서 활동이 음성센서와 데이터베이스센서 활동 중에 있지 않으면 활동 기간은 음성센서와 데이터베이스센서 규칙에 따라 산정한다.
규칙 10은 어떠한 음성센서와 데이터베이스센서 활동에 대해 다음 이차센서 활동이 단 하나의 활동에만 대응되고, 다음 이차센서 활동이 음성센서와 데이터베이스센서 활동과 겹쳐지지 않거나 활동중에 있지 않다면, 현재 음성센서와 데이터베이스센서의 종료시간은 이차센서 시작시간이 된다.
그리고, 도 8은 음성센서와 이차센서의 조합 후 데이터베이스센서와 조합하는 경우의 규칙에 따라 구현한 알고리즘을 나타낸 것이다. 이러한 음성센서와 이차센서의 조합 후 데이터베이스센서와 조합하는 경우는 5가지 규칙을 가진다.
구체적으로 5가지 규칙을 설명하면, 규칙 1은 음성센서와 이차센서의 활동이 데이터베이스센서 시작시간 이후에 시작하고, 이전 음성센서와 이차센서 활동들로부터 방해가 없다면 음성센서와 이차센서 활동이 데이터베이스센서 시작시간에 시작했다고 가정한다. 그렇지 않은 경우에는 음성센서와 이차센서 규칙에 따라 시작한다.
규칙 2는 음성센서와 이차센서 활동이 데이터베이스센서 종료시간 이후에 끝나고 다음 음성센서와 이차센서 활동으로부터 방해가 없다면 음성센서와 이차센서 활동이 데이터베이스센서 종료 시간에 끝났다고 가정한다. 아닐 경우 음성센서와 이차센서 규칙에 따라 끝난다.
규칙 3은 음성센서와 이차센서 활동이 데이터베이스센서 정보를 포함하고 있지 않다면 음성센서와 이차센서 규칙에 따라 해석한다.
규칙 4는 현재 활동 기간이 음성센서와 이차센서 규칙에 따라 계산되고, 다음 데이터베이스센서 활동이 다음 음성센서와 이차센서 활동과 같으며, 다음 데이터베이스센서 활동 시작이 현재 음성센서와 이차센서 활동 종료시간과 다음 음성센서와 이차센서 활동 시작시간 사이에 있다면, 사용자가 다음 음성센서와 이차센서를 데이터베이스센서 시작시간에 시작했으며 현재 음성센서와 이차센서 활동에 대한 종료시간은 다음 음성센서와 이차센서 활동의 시작이 아니라 다음 데이터베이스센서 활동 시작시간이 된다.
규칙 5는 음성센서와 이차센서 활동이 데이터베이스센서 안의 어떠한 활동에도 포함되지 않으면, 활동을 수행하지 않았다고 가정한다.
그리고, 도 9 는 이차센서와 데이터베이스센서를 조합한 후 음성센서와 조합하는 경우의 규칙에 따라 구현한 알고리즘을 나타낸 것이다. 이러한 이차센서와 데이터베이스센서를 조합한 후 음성센서와 조합하는 경우는 10 가지 규칙을 가진다.
구체적으로 10 가지 규칙을 설명하면, 규칙 1은 음성센서 활동이 데이터베이스센서 활동 중에 있고, 다른 음성 센서 활동으로부터 방해가 없었다면 해당 활동은 이차센서와 데이터베이스센서 규칙에 따라 시작하고 종료된다.
규칙 2는 음성센서 활동에 대응되는 이차센서와 데이터베이스센서 활동이 존재하지 않는다면, 음성센서 규칙만 사용한다.
규칙 3은 이차센서와 데이터베이스센서 활동에 대응되는 음성센서 활동이 존재하지 않는다면 이차센서와 데이터베이스센서 규칙을 이차센서와 데이터베이스센서 활동시작 및 종료 시간을 계산하기 위해 사용한다.
규칙 4는 이차센서와 데이터베이스센서 활동이 음성 활동 중에 있고, 두 가지 활동이 서로 다른 활동인 경우, 이차센서와 데이터베이스센서 활동이 있었다면 이차센서와 데이터베이스센서 활동은 충돌을 일으키며 이를 위해 음성센서 규칙을 따르게 되고, 음성 센서 활동이 없었다면 이차센서와 데이터베이스센서 활동 정보를 현재 활동 사이에 추가한다.
규칙 5는 이차센서와 데이터베이스센서활동이 서로 다른 음성에 센서 활동 중에 또는 겹치는 경우 이차센서와 데이터베이스센서는 충돌을 일으키고, 이를 위해 음성 센서 규칙을 사용한다.
규칙 6은 이차센서와 데이터베이스센서 활동이 음성센서 활동 중에 있지 않고, 중복되지 않고, 다음 음성센서 활동이 이차센서와 데이터베이스센서 활동과 같다면, 다음 음성 센서 활동은 이차센서와 데이터베이스센서 활동 시작시간에 시작한다. 이때 다음 활동의 최단 기간은 다음 음성센서 최단 기간에 이차센서와 데이터베이스센서의 최단 기간을 더한 값이 된다.
규칙 7은 이차센서와 데이터베이스센서 활동이 음성센서 활동과 중복되거나 겹쳐지지 않고, 이전 음성센서 활동이 이차센서와 데이터베이스센서활동과 같다면, 이전 음성센서 활동은 이차센서와 데이터베이스센서 활동의 종료시간에 끝나게 된다. 이때, 이전 활동의 최단 기간은 이전 음성센서 최단 기간에 이차센서와 데이터베이스센서 최단 기간을 더한 값이 된다.
규칙 8은 다음 이차센서와 데이터베이스센서 활동이 현재 활동 종료와 다음 음성센서 활동 사이에 시작하고, 다음 음성센서와 데이터베이스센서 활동이 다음 음성센서 활동과 같다면, 현재 활동의 종료는 이차센서와 데이터베이스센서 활동의 시작이 된다.
규칙 9는 이차센서와 데이터베이스센서활동이 음성센서 활동과 겹쳐지고, 이차센서와 데이터베이스센서가 음성센서 활동과 같고 음성센서가 이차센서와 데이터베이스 활동 후에 시작하며, 이전 음성센서 활동으로부터 방해가 없다면 음성센서 활동은 이차센서와 데이터베이스센서 활동 시작시간에 시작했다고 가정한다.
규칙 10은 이차센서와 데이터베이스센서 활동이 음성센서 활동과 겹쳐지고, 이차센서와 데이터베이스센서가 음성센서 활동과 같고 음성센서 활동이 이차센서와 데이터베이스센서 활동 이전에 종료되며 다음 음성센서 활동으로부터 방해가 없다면 음성센서 활동이 음성센서와 데이터베이스센서 활동 종료시간에 끝났다고 가정한다.
본 발명은 상술한 실시형태 및 첨부된 도면에 의해 한정되는 것이 아니며, 첨부된 청구범위에 의해 한정된다. 따라서, 청구범위에 기재된 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 형태의 치환, 변형 및 변경이 가능하다는 것은 당 기술분야의 통상의 지식을 가진 자에게는 자명할 것이며, 이 또한 첨부된 청구범위에 기재된 기술적 사상에 속한다 할 것이다.
도 1은 본 발명의 일실시 형태에 따른 활동 정보 분석 장치의 구성을 개략적으로 나타낸 블럭도이다.
도 2는 음성센서의 입력 및 출력 데이터 구조를 이용하여 활동 A에 대한 음성센서의 타임로그를 나타낸 예시도이다.
도 3은 음성센서로만 이루어진 센서 조합의 경우에 따른 규칙을 구현한 알고리즘 예시도이다.
도 4는 음성센서와 데이터베이스센서로 이루어진 센서 조합의 경우에 따른 규칙을 구현한 알고리즘 예시도이다.
도 5a, 도 5b 및 도 5c는 음성센서와 이차센서로 이루어진 센서 조합의 경우에 따른 규칙을 구현한 알고리즘 예시도이다.
도 6은 이차센서와 데이터베이스센서로 이루어진 센서 조합의 경우에 따른 규칙을 구현한 알고리즘 예시도이다.
도 7a 및 도 7b는 음성센서와 데이터베이스센서를 조합한 후 이차센서를 조합한 센서 조합의 경우에 따른 규칙을 구현한 알고리즘 예시도이다.
도 8은 음성센서와 이차센서의 조합 후 데이터베이스센서를 조합한 센서 조합의 경우에 따른 규칙을 구현한 알고리즘 예시도이다.
도 9는 이차센서와 데이터베이스센서를 조합한 후 음성센서를 조합한 센서 조합의 경우에 따른 규칙을 구현한 알고리즘 예시도이다.

Claims (24)

  1. 음성센서, 이차센서 및 데이터베이스센서 중 하나 또는 그 이상의 센서를 포함하는 센서의 조합을 이용하여 미리 정의된 활동에 대한 시작시간과 종료시간을 포함하는 활동 정보를 수집하는 활동 정보 수집 모듈; 및
    상기 활동 정보로부터 상기 활동의 작업 시간을 분석하는 활동 정보 처리 모듈;을 포함하는 활동 정보 분석 장치.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 제1항에 있어서,
    상기 음성센서는 상기 활동을 정의하는 키워드를 음성 인식하는 것을 특징으로 하는 활동 정보 분석 장치.
  10. 제1항에 있어서,
    상기 이차센서는 IDE 센서, 인테넷 익스플러 (IE) 센서, OS 센서 중 하나인 것을 특징으로 하는 활동 정보 분석 장치.
  11. 제10항에 있어서,
    상기 이차센서는 활동의 시작시간 및 종료시간에 대한 타임로그를 기록하는 것을 특징으로 하는 활동 정보 분석 장치.
  12. 제1항 중 어느 한 항에 있어서,
    상기 데이터베이스센서는 상기 활동에 대한 스케줄 관리 시스템이며, 상기 활동의 스케줄에 따른 타임로그를 기록하는 것을 특징으로 하는 활동 정보 분석 장치.
  13. 제12항에 있어서,
    상기 스케줄 정보는 프로젝트 스케줄, 미팅 스케줄, 클래스 스케줄 및 오피스 작업 시간 중 하나인 것을 특징으로 하는 활동 정보 분석 장치.
  14. 음성센서, 이차센서 및 데이터베이스센서 중 하나 또는 그 이상의 센서를 포함하는 센서의 조합을 이용하여 미리 정의된 활동에 대한 시작시간과 종료시간을 포함하는 활동 정보를 수집하는 활동 정보 수집 모듈;
    상기 활동 정보로부터 상기 활동의 작업 시간을 분석하는 활동 정보 처리 모듈;
    상기 센서의 조합으로부터 기록되는 타임로그를 저장하는 타임로그 데이터베이스; 및
    사용자로부터 활동에 해당하는 키워드를 음성으로 입력받아 정의하는 활동 정보 정의 모듈을 포함하는 활동 정보 분석 장치.
  15. 청구항 15은(는) 설정등록료 납부시 포기되었습니다.
    컴퓨터에 실행됨으로써, 사용자의 활동 정보를 분석하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체에 있어서,
    상기 컴퓨터에,
    음성센서, 이차센서 및 데이터베이스센서 중 하나 또는 그 이상의 센서를 포함하는 센서의 조합을 이용하여 미리 정의된 활동에 대한 시작시간과 종료시간을 포함하는 활동 정보를 수집하는 활동 정보 수집 수단;
    상기 활동 정보로부터 상기 활동의 작업 시간을 분석하는 활동 정보 처리 수단;
    상기 센서의 조합으로부터 기록되는 타임로그를 저장하는 수단; 및
    사용자로부터 활동에 해당하는 키워드를 음성으로 입력받아 정의하는 수단을 실행시키는 것을 특징으로 하는 활동 정보 분석 프로그램을 기록한 컴퓨터로 판독가능한 기록매체.
  16. 음성센서, 이차센서 및 데이터베이스센서 중 하나 또는 그 이상의 센서를 포함하는 센서의 조합을 이용하여 미리 정의된 활동의 시작시간과 종료시간에 대한 활동 정보를 수집하는 단계; 및
    상기 활동 정보로부터 상기 센서로부터 기록된 타임로그를 분석하여 작업 시간을 관리하는 단계;를 포함하는 활동 정보 분석 방법.
  17. 제16항에 있어서,
    상기 활동 정보를 수집하는 단계 이전에, 사용자로부터 활동을 정의하는 키워드를 음성센서를 통해 입력받아 미리 정의하는 단계;를 더 포함하는 것을 특징으로 하는 활동 정보 분석 방법.
  18. 제16항에 있어서,
    상기 활동 정보를 수집하는 단계는, 상기 활동에 대한 센서별 타임로그를 기록하는 단계인 것을 특징으로 하는 활동 정보 분석 방법.
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 청구항 24은(는) 설정등록료 납부시 포기되었습니다.
    제 16 항 내지 제 18항 중 어느 하나의 항에 있어서,
    상기 각각의 단계를 수행할 수 있는 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.
KR1020090086813A 2009-09-15 2009-09-15 활동 정보 분석 장치 및 그 방법 KR101113690B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090086813A KR101113690B1 (ko) 2009-09-15 2009-09-15 활동 정보 분석 장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090086813A KR101113690B1 (ko) 2009-09-15 2009-09-15 활동 정보 분석 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20110029231A KR20110029231A (ko) 2011-03-23
KR101113690B1 true KR101113690B1 (ko) 2012-02-14

Family

ID=43935140

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090086813A KR101113690B1 (ko) 2009-09-15 2009-09-15 활동 정보 분석 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR101113690B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101396498B1 (ko) * 2012-08-17 2014-05-19 이화여자대학교 산학협력단 소셜 네트워크 서비스에서 사용자의 활동을 식별하고 표시하는 방법
KR101685495B1 (ko) * 2014-12-03 2016-12-28 한국과학기술연구원 이종 센서 매시업 방법, 이를 수행하기 위한 기록 매체 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6519763B1 (en) 1998-03-30 2003-02-11 Compuware Corporation Time management and task completion and prediction software
US20080141214A1 (en) 2006-12-06 2008-06-12 Todd Adam Olson Method and system for comparative community based analytics

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6519763B1 (en) 1998-03-30 2003-02-11 Compuware Corporation Time management and task completion and prediction software
US20080141214A1 (en) 2006-12-06 2008-06-12 Todd Adam Olson Method and system for comparative community based analytics

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"A Framework for analyzing activity time data", Ibrahim 외 1명, 2008 IEEE International Symposium on Service-Oriented System Engineering, 2008년 09월 공개.*
"개인 소프트웨어 프로세스 지원을 위한 도구", 신현일 외 4명, 정보과학회논문지 소프트웨어 및 응용 제34권 제8호, 2007년 08월 공개.*

Also Published As

Publication number Publication date
KR20110029231A (ko) 2011-03-23

Similar Documents

Publication Publication Date Title
US10514998B2 (en) Diagnostic tool and method for efficient software development
Alam et al. Impact and challenges of requirement engineering in agile methodologies: A systematic review
CN109299150B (zh) 一种可配置多数据源适配规则引擎解决方法
Bijan et al. Systems requirements engineering—State of the methodology
US8078914B2 (en) Open error-handling system
US20140156849A1 (en) Map-reduce workflow processing apparatus and method, and storage media storing the same
Cappiello et al. An approach to design business processes addressing data quality issues
CN102043720A (zh) 利用sql语句自动生成测试数据的方法和装置
KR101113690B1 (ko) 활동 정보 분석 장치 및 그 방법
JP2008226054A (ja) 工数管理システム、サーバ端末、工数管理方法、プログラム、及びコンピュータ読み取り可能な記録媒体
Waterman et al. How much architecture? Reducing the up-front effort
US20070033080A1 (en) Method and apparatus for process discovery related applications
Neumann et al. Towards a Decision Support Architecture for Digital Preservation of Business Processes.
JP2013077124A (ja) ソフトウェアテストケース生成装置
CN109491651A (zh) 数据预处理方法,装置,存储介质及电子设备
CN110851332B (zh) 一种日志文件的处理方法、装置、设备和介质
CN109344145B (zh) 一种基于数据标准规范的数据清洗方法、装置和系统
Fernández-Ropero et al. Repairing business process models as retrieved from source code
CN109271161B (zh) 样板代码生成方法、装置及存储设备及计算机设备
Saini et al. Prediction of Euclidean distance between existing and target product for software product line testing using FeatureIDE
Rahman et al. Pattern analysis of TXL programs
Ripon et al. PVS embedding of cCSP semantic models and their relationship
Ling et al. Verification of itineraries for mobile agent enabled interorganizational workflow
Carmona et al. Preparation
Muhammad et al. Parallelism viewpoint: An architecture viewpoint to model parallelism behaviour of parallelism-intensive software systems

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160128

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190201

Year of fee payment: 8