KR102635981B1 - 양육 지원 상담 및 코칭 어플리케이션 제공 장치 - Google Patents

양육 지원 상담 및 코칭 어플리케이션 제공 장치 Download PDF

Info

Publication number
KR102635981B1
KR102635981B1 KR1020230015375A KR20230015375A KR102635981B1 KR 102635981 B1 KR102635981 B1 KR 102635981B1 KR 1020230015375 A KR1020230015375 A KR 1020230015375A KR 20230015375 A KR20230015375 A KR 20230015375A KR 102635981 B1 KR102635981 B1 KR 102635981B1
Authority
KR
South Korea
Prior art keywords
information
child
guardian
coaching
section
Prior art date
Application number
KR1020230015375A
Other languages
English (en)
Inventor
김영숙
Original Assignee
김영숙
김유천
김서현
손경락
이상희
이수진
권범선
이지성
이송이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김영숙, 김유천, 김서현, 손경락, 이상희, 이수진, 권범선, 이지성, 이송이 filed Critical 김영숙
Priority to KR1020230015375A priority Critical patent/KR102635981B1/ko
Application granted granted Critical
Publication of KR102635981B1 publication Critical patent/KR102635981B1/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Educational Technology (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Automation & Control Theory (AREA)
  • Human Resources & Organizations (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Nursing (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치에서 구현되는 양육 지원 상담 및 코칭 어플리케이션 제공 장치에 있어서, 어시스턴스 로봇의 본체 일 영역에 위치한 카메라 모듈을 통해 보호자와 아동을 촬영한 영상 정보를 수신하는 경우, 상기 수신된 영상 정보를 통해 보호자와 아동의 상호 작용 동작을 식별하여, 식별된 상호 작용 동작이 포함된 구간 영상 정보를 생성하는 구간 정보 생성부; 상기 구간 영상 정보의 생성이 완료되면, 상기 생성된 구간 영상 정보를 아동 전문가의 전문가 계정에게 전송하여, 아동 전문가로 하여금 상기 수신된 구간 영상 정보를 통해 보호자와 아동의 상호 작용 동작에 대한 피드백 정보를 생성하도록 하여, 상기 전문가 계정으로부터 상기 생성된 피드백 정보를 수신하는 정보 송수신부; 및 상기 피드백 정보의 수신이 완료되면, 상기 수신된 피드백 정보에 포함된 복수 개의 관리 항목을 식별하여, 상기 식별된 복수 개의 관리 항목에 기반한 코칭 가이드를 상기 어시스턴스 로봇의 출력 수단을 통해 출력해 보호자와 아동 간의 상호 작용을 관리하는 코칭 가이드 제공부;를 포함하는 것을 특징으로 한다. 이외에도 본 문서를 통해 파악되는 다양한 실시예들이 가능하다.

Description

양육 지원 상담 및 코칭 어플리케이션 제공 장치{A DEVICE THAT PROVIDES PARENTING SUPPORT COUNSELING AND COACHING APPLICATIONS}
본 발명은 양육 지원 상담 및 코칭 어플리케이션 제공 장치에 관한 것으로, 구체적으로는 어시스턴스 로봇의 본체 일 영역에 위치한 카메라 모듈을 통해 보호자와 아동을 촬영한 영상 보를 수신 시, 영상 정보를 통해 보호자와 아동의 상호 작용 동작을 식별해 상호 작용 동작이 포함된 구간 영상 정보를 생성하고, 생성된 구간 영상 정보를 아동 전문가의 전문가 계정에게 전송하여, 아동 전문가로 하여금 보호자와 아동의 상호 작용 동작에 대한 피드백 정보를 생성하도록 하여, 생성된 피드백 정보를 수신하고, 수신된 피드백 정보에 포함된 복수 개의 관리 항목을 식별하여, 식별된 복수 개의 관리 항목 각각에 입력된 코칭 가이드를 어시스턴스 로봇의 출력 수단을 통해 출력해 보호자와 아동 간의 상호 작용을 관리하도록 하는 기술에 관한 것이다.
보호자와 아동 간의 상호 작용이란 부모 또는 주양육자와 영유아간에 발생하는 상호 교환을 의미하는 것으로, 부모와 아동 초기의 사회적 상호 작용은 아동이 부모와 형제, 동료와 앞으로의 관계를 형성하는 기초가 되는 동시에 아동의 인지능력 발달, 언어 발달, 사회성 기술 및 정서적 안정성 발달에 영향을 미친다는 점에서 중요하다. 이에 따라, 상호 작용에 대한 보호자의 관심이 증가하고 있는 반면에, 상당수의 보호자들은 이러한 상호 작용에 대한 전문적인 교육을 받은 경험이 전무한 실정이다.
업계에서는 이러한 문제점을 해결하기 위하여, 보호자와 아동 간의 상호 작용을 보조하기 위한 다양한 기술들을 개발하고 있다.
일 예로서, 한국등록특허 10-2158910(부모의 성향과 아이의 성향을 동시에 고려한 육아가이드를 제공하는 육아코칭 및 상담 서비스 제공방법 및 제공 시스템)에는 부모 검사 데이터 및 아이 검사 데이터를 분석하여, 부모와 아이의 성향을 도출하는 기술이 개시되어 있다.
그러나, 상술한 선행기술에서는 단순히 검사 데이터를 통해 부모와 아이의 성향을 도출하고, 도출된 성향에 매칭되는 육아 가이드를 식별해 사용자 단말에게 제공하는 기술만이 개시되어 있을 뿐, 어시스턴스 로봇의 본체 일 영역에 위치한 카메라 모듈을 통해 보호자와 아동을 촬영한 영상 정보를 수신 시, 영상 정보를 통해 보호자와 아동의 상호 작용 동작을 식별해 상호 작용 동작이 포함된 구간 영상 정보를 생성하고, 생성된 구간 영상 정보를 아동 전문가의 전문가 계정에게 전송하여, 아동 전문가로 하여금 보호자와 아동의 상호 작용 동작에 대한 피드백 정보를 생성하도록 하여, 생성된 피드백 정보를 수신하고, 수신된 피드백 정보에 포함된 복수 개의 관리 항목을 식별하여, 식별된 복수 개의 관리 항목 각각에 입력된 코칭 가이드를 어시스턴스 로봇의 출력 수단을 통해 출력해 보호자와 아동 간의 상호 작용을 관리하도록 하는 기술은 개시되어 있지 않아, 이를 해결할 수 있는 기술의 필요성이 대두되고 있다.
이에 본 발명은, 양육 지원 상담 및 코칭 어플리케이션 제공 장치을 통해 어시스턴스 로봇의 본체 일 영역에 위치한 카메라 모듈을 통해 보호자와 아동을 촬영한 영상 정보를 수신 시, 영상 정보를 통해 보호자와 아동의 상호 작용 동작을 식별해 상호 작용 동작이 포함된 구간 영상 정보를 생성하고, 생성된 구간 영상 정보를 아동 전문가의 전문가 계정에게 전송하여, 아동 전문가로 하여금 보호자와 아동의 상호 작용 동작에 대한 피드백 정보를 생성하도록 하여, 생성된 피드백 정보를 수신하고, 수신된 피드백 정보에 포함된 복수 개의 관리 항목을 식별하여, 식별된 복수 개의 관리 항목 각각에 입력된 코칭 가이드를 어시스턴스 로봇의 출력 수단을 통해 출력해 보호자와 아동 간의 상호 작용을 관리하도록 함으로써, 보호자가 상호 작용에 대한 전문적인 교육을 수료하지 않더라도 아동에게 긍정적인 영향을 미치는 육아 가이드를 통해 아동을 케어하는 것에 그 목적이 있다.
본 발명의 일 실시예에 따른 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치에서 구현되는 양육 지원 상담 및 코칭 어플리케이션 제공 장치에 있어서, 어시스턴스 로봇의 본체 일 영역에 위치한 카메라 모듈을 통해 보호자와 아동을 촬영한 영상 정보를 수신하는 경우, 상기 수신된 영상 정보를 통해 보호자와 아동의 상호 작용 동작을 식별하여, 식별된 상호 작용 동작이 포함된 구간 영상 정보를 생성하는 구간 정보 생성부; 상기 구간 영상 정보의 생성이 완료되면, 상기 생성된 구간 영상 정보를 아동 전문가의 전문가 계정에게 전송하여, 아동 전문가로 하여금 상기 수신된 구간 영상 정보를 통해 보호자와 아동의 상호 작용 동작에 대한 피드백 정보를 생성하도록 하여, 상기 전문가 계정으로부터 상기 생성된 피드백 정보를 수신하는 정보 송수신부; 및 상기 피드백 정보의 수신이 완료되면, 상기 수신된 피드백 정보에 포함된 복수 개의 관리 항목을 식별하여, 상기 식별된 복수 개의 관리 항목에 기반한 코칭 가이드를 상기 어시스턴스 로봇의 출력 수단을 통해 출력해 보호자와 아동 간의 상호 작용을 관리하는 코칭 가이드 제공부;를 포함하는 것을 특징으로 한다.
상기 어시스턴스 로봇은, 상기 구간 정보 생성부, 상기 정보 송수신부 및 상기 코칭 가이드 제공부가 상기 어시스턴스 로봇의 내부에 위치하여, 하나의 로봇형 교구로 구성된 것이 바람직하다.
상기 구간 정보 생성부는, 상기 영상 정보가 수신되는 경우, 기 저장된 영상 분석 알고리즘을 통해 상기 영상 정보를 분석하여, 상기 영상 정보에 기반한 영상 내에서 보호자와 아동을 식별하는 객체 식별부; 및 상기 객체 식별부의 기능 수행에 의해 보호자와 아동의 식별이 완료된 상태에서, 보호자에 대응되는 제1 객체와 아동에 대응되는 제2 객체가 지정된 상호 작용 조건을 만족하는 것을 확인하면, 상기 지정된 상호 작용 조건을 만족하는 영상의 구간을 추출해 상기 구간 영상 정보를 생성하는 상호 작용 조건 확인부;를 포함하는 것이 가능하다.
상기 지정된 상호 작용 조건은,
상기 제1 객체와 제2 객체 간의 거리가 지정된 거리 이내인 제1 조건; 상기 제1 객체와 제2 객체가 대화를 시작하는 제2 조건; 및 상기 제1 객체 및 제2 객체의 동작이 지정된 동작을 만족하는 제3 조건;을 포함하는 것이 가능하다.
상기 정보 송수신부는, 상기 상호 작용 조건 확인부의 기능 수행에 의해 상기 구간 영상 정보의 생성이 완료되면, 상기 생성된 구간 영상 정보를 상기 전문가 계정에게 전송함과 동시에 기 저장된 양식 정보를 상기 전문가 계정에게 전송하는 정보 전송부; 및 상기 정보 전송부의 기능 수행이 완료되면, 상기 전문가 계정이 상기 구간 영상 정보를 검토함에 따라 기 저장된 양식 정보를 기반으로 작성된 피드백 정보를 상기 전문가 계정으로부터 수신하는 정보 수신부;를 포함하는 것이 가능하다.
상기 기 저장된 양식 정보는, 상기 전문가 계정이 상기 정보 전송부로부터 수신한 구간 영상 정보를 검토하여, 보호자와 아동 간의 상호 작용을 분석 및 평가한 평가 정보가 입력되는 정보로써, 비언어 항목, 어투 항목, 전반적 태도 항목, 모범 사례 항목, 상기 모범 사례 항목에 대한 비교 항목 및 보완 가이드 항목 중 적어도 하나를 포함하는 복수 개의 관리 항목으로 구성된 정보인 것이 가능하다.
상기 코칭 가이드 제공부는, 상기 피드백 정보의 수신이 완료되면, 상기 수신된 피드백 정보에 포함된 복수 개의 관리 항목에 입력된 평가 정보를 상기 출력 수단을 통해 출력하여, 보호자와 아동 간의 상호 작용을 관리하기 위한 코칭 가이드를 제공하는 가이드 서비스 제공부; 상기 가이드 서비스 제공부의 기능이 다수 수행됨에 따라, 기 설정된 기간 동안 상기 전문가 계정으로부터 상기 피드백 정보를 다수 회 수신하는 경우, 기 저장된 인공지능 알고리즘을 기반으로, 누적된 피드백 정보의 복수 개의 관리 항목에 입력된 평가 정보 간의 상관 관계를 분석하여, 상기 분석 결과를 통해 행동 변화 정보를 생성하는 행동 변화 정보 생성부; 및 상기 행동 변화 정보의 생성이 완료되면, 상기 생성된 행동 변화 정보를 리포트 정보로 변환하여, 상기 리포트 정보를 상기 전문가 계정에게 제공하는 리포트 정보 제공부;를 포함하는 것이 가능하다.
상기 기 저장된 인공지능 알고리즘은, 상기 누적된 피드백 정보의 복수 개의 관리 항목 각각에 입력된 평가 정보 간의 상관 관계를 분석하기 위하여, 다른 보호자와 다른 아동들 각각의 피드백 정보의 복수 개의 관리 항목 각각에 입력된 평가 정보 간의 상관 관계를 분석 및 학습하는 알고리즘인 것이 가능하다.
상기 양육 지원 상담 및 코칭 어플리케이션 제공 장치은, 초기 정보 입력부;를 더 포함하고, 상기 초기 정보 입력부는, 상기 어시스턴스 로봇이 초기 이용될 시, 보호자의 육아 스타일 정보 및 아동의 성장 발달 정보를 포함하는 사전 정보를 수신해 상기 전문가 계정에게 우선적으로 제공하는 것이 가능하다.
본 발명인 양육 지원 상담 및 코칭 어플리케이션 제공 장치을 통해 보호자가 상호 작용에 대한 전문적인 교육을 수료하지 않더라도 아동에게 긍정적인 영향을 미치는 육아 가이드를 통해 아동을 훈육할 수 있다.
이에 따라, 보호자와 아동의 사이를 돈독하게 만들 수 있고, 아동의 정서 발달에 긍정적인 효과를 제공할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 양육 지원 상담 및 코칭 어플리케이션 제공 장치의 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 양육 지원 상담 및 코칭 어플리케이션 제공 장치에 포함된 구간 정보 생성부의 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 양육 지원 상담 및 코칭 어플리케이션 제공 장치에 포함된 정보 송수신부의 블록도이다.
도 4는 본 발명의 일 실시 예에 따른 양육 지원 상담 및 코칭 어플리케이션 제공 장치에 포함된 코칭 가이드 제공부의 블록도이다.
도 5는 본 발명의 일 실시 예에 따른 양육 지원 상담 및 코칭 어플리케이션 제공 장치에 포함된 초기 정보 입력부의 블록도이다.
도 6은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 설명하기 위한 도면이다.
이하에서는, 다양한 실시 예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.
본 명세서에서 사용되는 "실시 예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.
또한, 제 1, 제 2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
또한, 본 발명의 실시 예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시 예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 본 발명의 일 실시 예에 따른 양육 지원 상담 및 코칭 어플리케이션 제공 장치의 블록도이다.
도 1을 참조하면, 양육 지원 상담 및 코칭 어플리케이션 제공 장치(100)(이하, 양육 지원 코칭 장치로 칭함)은 구간 정보 생성부(101), 정보 송수신부(103) 및 코칭 가이드 제공부(105)를 포함할 수 있다.
일 실시예에 따르면, 상기 구간 정보 생성부(101)는 어시스턴스 로봇(100)의 본체 일 영역에 위치한 카메라 모듈을 통해 보호자와 아동을 촬영한 영상 정보(101a)을 수신하는 경우, 수신된 영상 정보(101a)를 통해 보호자와 아동의 상호 작용 동작을 식별하여, 상기 식별된 상호 작용 동작이 포함된 구간 영상 정보를 생성할 수 있다.
일 실시예에 따르면, 상기 어시스턴스 로봇(100)은 상기 카메라 모듈을 통해 보호자와 아동을 촬영함으로써, 영상 정보(101a)를 획득할 수 있다. 이 때, 획득되는 영상 정보(101a)는 단순히 이미지(영상)뿐만 아니라 음성 정보도 함께 포함할 수 있다. 즉, 상기 어시스턴스 로봇(100)은 본체 일 영역에 별도의 입력 수단(예: 마이크)를 포함할 수 있다.
일 실시예에 따르면, 상기 어시스턴스 로봇(100)은 상기 구간 정보 생성부(101), 정보 송수신부(103) 및 코칭 가이드 제공부(105)를 본체 내부 일 영역에 포함하고 있는 하나의 로봇형 교구로써, 보호자와 아동 인근에 위치해 보호자와 아동 간에 발생하는 상호 작용을 촬영 및 녹음하는 로봇일 수 있다.
일 실시예에 따르면, 상기 구간 정보 생성부(101)는 상기 수신된 영상 정보(101a)를 기 저장된 영상 분석 알고리즘을 통해 분석하여, 상기 영상 정보(101a)에 기반한 영상 내에서 보호자와 아동이 상호 작용하는지를 판단할 수 있다. 상기 구간 정보 생성부(101)가 보호자와 아동 간의 상호 작용을 판단하는 자세한 설명은 도 2에서 설명하도록 한다.
상기와 관련하여, 상기 구간 정보 생성부(101)는 상기 영상 정보(101a)에 기반한 영상 내에서 보호자와 아동 간에서 상호 작용이 발생하는 경우, 상기 상호 작용이 발생된 구간을 식별해 구간 영상 정보(101b)를 생성할 수 있다. 즉, 상기 구간 영상 정보(101b)는 보호자와 아동 간에 발생하는 상호 작용에 대한 영상에 대응되는 정보일 수 있다.
일 실시예에 따르면, 상기 정보 송수신부(103)는 상기 구간 영상 정보(101b)의 생성이 완료되면, 생성된 구간 영상 정보(101b)를 아동 전문가의 전문가 계정에게 전송하여, 아동 전문가로 하여금 수신된 구간 영상 정보(101b)를 통해 보호자와 아동의 상호 작용 동작에 대한 피드백 정보(103a)를 생성하도록 요청하고, 상기 전문가 계정으로부터 상기 생성된 피드백 정보(103a)를 수신할 수 있다.
상기와 관련하여, 아동 전문가는 아동 심리 전문가, 육아 전문가, 정신건강 의사일 수 있으며, 보호자와 아동 간의 상호 작용을 확인해 피드백 정보(103a)에 대응되는 피드백을 작성하는 주체일 수 있다.
일 실시예에 따르면, 아동 전문가는 상기 구간 영상 정보(101b)를 통해 보호자와 아동 간의 상호 작용을 확인하고, 확인 결과에 기반한 피드백을 작성하여 상기 피드백 정보(103a)를 생성하고, 생성된 피드백 정보(103a)를 상기 코칭 가이드 제공부(105)에게 전송할 수 있다.
일 실시예에 따르면, 상기 코칭 가이드 제공부(105)는 상기 피드백 정보(103a)의 수신이 완료되면, 상기 수신된 피드백 정보(103a)에 포함된 복수 개의 관리 항목을 식별하여, 상기 식별된 복수 개의 관리 항목 각각에 기반한 코칭 가이드를 상기 어시스턴스 로봇의 출력 수단(예: 디스플레이, 스피커 등)을 통해 출력해 보호자와 아동 간의 상호 작용을 관리하도록 할 수 있다.
상기와 관련하여, 상기 코칭 가이드는 상기 복수 개의 관리 항목 각각에 입력된 평가 정보로써, 보다 자세하게 상기 복수 개의 관리 항목 중 보완 가이드 항목에 입력된 평가 정보에 대응되는 구성일 수 있다.
이에 따라, 보호자는 상기 출력 수단을 통해 출력되는 코칭 가이드에 따라 아동과 긍정적인 상호 작용이 발생되도록 하는 언행을 수행할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 양육 지원 상담 및 코칭 어플리케이션 제공 장치에 포함된 구간 정보 생성부의 블록도이다.
도 2를 참조하면, 양육 지원 상담 및 코칭 어플리케이션 제공 장치(예: 도 1의 양육 지원 상담 및 코칭 어플리케이션 제공 장치(100))(이하, 양육 지원 코칭 장치로 칭함)은 구간 정보 생성부(200)(예: 도 1의 구간 정보 생성부(101))를 포함할 수 있다.
일 실시예에 따르면, 상기 구간 정보 생성부(200)는 어시스턴스 로봇의 본체 일 영역에 위치한 카메라 모듈을 통해 보호자와 아동을 촬영한 영상 정보(201a)을 수신하는 경우, 수신된 영상 정보(201a)를 통해 보호자와 아동의 상호 작용 동작을 식별하여, 상기 식별된 상호 작용 동작이 포함된 구간 영상 정보를 생성할 수 있다.
일 실시예에 따르면, 상기 구간 정보 생성부(200)는 상술한 기능을 수행하기 위한 세부 구성으로, 객체 식별부(201) 및 상호 작용 조건 확인부(203)를 포함할 수 있다.
일 실시예에 따르면, 상기 객체 식별부(201)는 상기 영상 정보(201a)가 수신되는 경우, 기 저장된 영상 분석 알고리즘(201b)을 통해 영상 정보(201a)를 분석하여, 상기 영상 정보(@01a)에 기반한 영상 내에서 보호자와 아동을 식별할 수 있다.
일 실시예에 따르면, 상기 기 저장된 영상 분석 알고리즘(201b)은 CNN(Convolution Neural Network) 기반의 알고리즘 및 LSTM(Long Short Term Memory)을 포함할 수 있다. 상기 CNN 기반의 알고리즘은 상기 영상 정보(201a)에 기반한 영상을 연속적인 프레임으로 분류하여 나열하고, 3D 커널을 적용하여 복수 개의 객체(보호자 및 아동) 각각에 대한 움직임 정보를 축적한 특징 정보를 생성하는 알고리즘일 수 있다. 상기 LSTM기반의 알고리즘은 영상 정보(201a)에 기반한 영상을 프레임 별로 분석하되, 이전 프레임이 행동인식에 있어 상호 작용(예: 보호자가 아동을 훈육하는 움직임 정보, 보호자가 아동을 훈육하는 패턴 정보)를 가지고 있다고 판단되면, 상호 작용이 판단된 프레임을 유지하고 이전 프레임에 상호 작용이 없는 경우, 해당 프레임의 정보를 기억하지 않는 알고리즘일 수 있다.
보다 자세하게, 상기 객체 식별부(201)는 상기 영상 정보(201a)를 수신 시, 상기 영상 정보(201a)에 기반한 영상 내에 포함된 복수 개의 객체 각각에 대한 모션 벡터를 추출하여, 상기 추출된 모션 벡터를 기 저장된 영상 분석 알고리즘(201b)을 통해 분석할 수 있다.
일 실시예에 따르면, 상기 객체 식별부(201)는 상기 복수 개의 객체 각각에 대한 모션 벡터에 기반하여, 복수 개의 객체 중 상호 작용을 수행하는 객체를 보호자와 아동으로 판별할 수 있다. 이 때, 객체 식별부(201)는 보호자가 수행하는 모션과 아동이 수행하는 모션에 대한 정보 값을 이미 저장하고 있어, 상기 기 저장된 영상 분석 알고리즘(201b)을 통해 상기 모션 벡터 분석 시, 복수 개의 객체 중 보호자에 대응되는 제1 객체와 아동에 대응되는 제2 객체를 구분할 수 있다.
일 실시예에 따르면, 상기 상호 작용 조건 확인부(203)는 상기 객체 식별부(201)의 기능 수행에 의해 보호자와 아동의 식별이 완료된 상태에서, 보호자에 대응되는 제1 객체와 아동에 대응되는 제2 객체가 지정된 상호 작용 조건을 만족하는 것을 확인하면, 지정된 상호 작용 조건을 만족하는 영상의 구간을 추출해 구간 영상 정보를 생성할 수 있다.
일 실시예에 따르면, 상기 상호 작용 조건 확인부(203)는 상기 제1 객체와 상기 제2 객체의 식별을 완료한 상태에서, 상기 기 저장된 영상 분석 알고리즘(201b)을 통해 상기 영상 정보(201a)에 기반한 영상의 연속된 비디오 프레임에서 상기 복수 개의 객체 각각에 대한 모션 벡터 및 특징 벡터를 통해 상기 모션 벡터 및 특징 벡터를 기반으로 상기 프레임마다 포함되어 있는 복수 개의 객체에 대한 상호 작용을 분석할 수 있다. 상기 상호 작용은 상기 기 저장된 영상 분석 알고리즘(201b)에 포함되어 있는 정보로써, 보호자의 패턴 정보, 보호자의 모션 정보, 아동의 패턴 정보 및 아동의 모션 정보를 포함할 수 있다.
상기와 관련하여, 상기 상호 작용 조건 확인부(203)는 상기 분석된 상호 작용이 지정된 상호 작용 조건(203a)을 만족하는지를 판단할 수 있다. 상기 지정된 상호 작용 조건(203a)은 제1 객체와 제2 객체 간의 거리가 지정된 거리 이내인 제1 조건, 제1 객체와 제2 객체가 대화를 시작하는 제2 조건 및 제1 객체 및 제2 객체의 동작이 지정된 동작(패턴 정보 및 모션 정보에 대응되는 동작)을 만족하는 제3 조건을 포함할 수 있다.
예를 들어, 상기 상호 작용 조건 확인부(203)는 제1 객체와 제2 객체 간의 거리가 지정된 거리 이내인 경우, 지정된 거리 이내에 대응되는 영상의 구간을 상기 상호 작용이 발생하기 전 준비 구간으로 판단해 상기 제1 조건을 만족하는 것으로 확인할 수 있다.
또한, 상기 상호 작용 조건 확인부(203)는 이후에 후술할 초기 정보 입력부를 통해 입력된 보호자와 아동의 음성 정보를 통해 보호자와 아동의 대화가 시작하는 것을 감지하는 경우, 상기 제2 조건을 만족하는 것으로 확인할 수 있다. 마지막으로, 상기 상호 작용 조건 확인부(203)는 상기 제1 객체와 제2 객체가 상기 지정된 동작(패턴 정보 및 모션 정보 중 적어도 하나에 대응되는 동작)을 만족하는 경우, 제3 조건을 만족하는 것으로 확인할 수 있다.
상기 제3 조건과 관련하여, 보호자의 패턴 정보는 제1 객체(보호자)가 제2 객체(아동)에게 장난감을 사용하는 방법을 설명하기 위해 준비하는 패턴, 책을 읽어주기 위해 준비하는 패턴 등을 포함하며, 보호자가 아동에게 상호 작용을 발생하기 전에 수행하는 패턴에 대한 정보를 포함할 수 있다. 또한, 아동의 모션 정보는 제2 객체가 제1 객체에게 책을 읽어달라고 요청하는 모션, 제2 객체가 제1 객체에게 도움을 요청하는 모션 등을 포함하며, 아동이 보호자에게 도움을 요청하는 모션에 대한 정보를 포함할 수 있다. 즉, 상기 패턴 정보는 상기 상호 작용 발생 전에 보호자 및 아동이 수행하는 패턴(몸짓이나 행동 및 표정)에 대한 정보이고, 상기 모션 정보는 상기 상호 작용이 발생해 보호자 및 아동이 수행하는 모션에 대한 정보일 수 있다.
일 실시예에 따르면, 상기 상호 작용 조건 확인부(203)는 상기 복수 개의 객체 각각에 대한 모션 벡터 및 특징 벡터를 통해 복수 개의 객체 각각이 상기 지정된 상호 작용 조건을 만족하는지를 확인할 수 있다.
이에 따라, 상기 상호 작용 조건 확인부(203)는 상기 지정된 상호 작용 조건을 만족하는 영상의 구간을 상기 영상 정보(201a)에서 추출하여, 상기 추출된 영상을 통해 구간 영상 정보를 생성할 수 있다.
도 3은 본 발명의 일 실시 예에 따른 양육 지원 상담 및 코칭 어플리케이션 제공 장치에 포함된 정보 송수신부의 블록도이다.
도 3을 참조하면, 양육 지원 상담 및 코칭 어플리케이션 제공 장치(예: 도 1의 양육 지원 상담 및 코칭 어플리케이션 제공 장치(100))(이하, 양육 지원 코칭 장치로 칭함)은 정보 송수신부(300)(예: 도 1의 정보 송수신부(103))를 포함할 수 있다.
일 실시예에 따르면, 상기 정보 송수신부(300)는 구간 영상 정보의 생성이 완료되면, 상기 생성된 구간 영상 정보를 아동 전문가의 전문가 계정에게 전송하여, 아동 전문가로 하여금 상기 수신된 구간 영상 정보를 통해 보호자와 아동의 상호 작용 동작에 대한 피드백 정보(303a)를 생성하도록 하여, 상기 전문가 계정으로부터 상기 생성된 피드백 정보(303a)를 수신할 수 있다.
일 실시예에 따르면, 상기 정보 송수신부(300)는 상술한 기능을 수행하기 위한 세부 구성으로, 정보 전송부(301) 및 정보 수신부(303)를 포함할 수 있다.
일 실시예에 따르면, 상기 정보 송수신부(300)는 상호 작용 조건 확인부(예: 도 2의 상호 작용 조건 확인부(203))의 기능 수행에 의해 구간 영상 정보(301a)의 생성이 완료되면, 상기 생성된 구간 영상 정보를 전문가 계정에게 전송함과 동시에 기 저장된 양식 정보(301a)를 전문가 계정에게 전송할 수 있다.
일 실시예에 따르면, 상기 기 저장된 양식 정보(301a)는, 상기 전문가 계쩡이 상기 정보 전송부로부터 수신한 구간 영상 정보를 검토하여, 보호자와 아동 간의 상호 작용을 분석 및 평가한 평가 정보가 입력되는 정보로써, 비언어 항목, 어투 항목, 전반적 태도 항목, 모범 사례 항목, 모범 사례 항목에 대한 비교 항목 및 보완 가이드 항목 중 적어도 하나를 포함하는 복수 개의 관리 항목으로 구성된 정보일 수 있다.
상기와 관련하여, 상기 비언어 항목은 보호자와 아동 사이에 발생하는 상호 작용 중 직접적인 언어 표현을 제외한 것들(언어가 아닌 의사나 감정을 표현하거나 전달하는데 사용된 몸짓, 손짓, 표정 등)에 대해 전문가 계정이 분석한 평가 정보가 입력되는 항목일 수 있다. 또한, 상기 어투 항목은 보호자와 아동 사이에 발생하는 상호 작용 중 언어 표현에 대해 전문가 계정이 분석한 평가 정보가 입력되는 항목일 수 있다. 상기 전반적 태도 항목은 보호자와 아동 사이에 발생하는 상호 작용에 대한 보호자 및 아동 각각의 태도(예: 고압적인 태도, 폭력적인 태도, 무관심한 태도, 과잉 보호 태도 등)에 대해 전문가 계정이 분석한 평가 정보가 입력되는 항목일 수 있다. 상기 모범 사례 항목은 상기 보호자와 아동 사이에 발생하는 상호 작용에 대해 전문가 계정이 분석한 문제점이 발생하기 전에 해결된 모범 사례 정보가 입력되는 항목일 수 있다. 상기 모범 사례 항목에 대한 비교 항목은 상기 모범 사례 정보와 대비하여 보호자와 아동 사이에 발생한 상호 작용에 기반한 문제점을 비교한 평가 정보가 입력되는 항목일 수 있다. 마지막으로, 상기 보완 가이드 항목은 상기 전문가 계정에 의해 보호자와 아동 사이에 발생한 상호 작용에 기반한 문제점을 보완 및 개선하기 위한 평가 정보가 입력되는 항목으로, 도 1에서 언급한 코칭 가이드에 대응되는 정보가 입력되는 항목일 수 있다.
일 실시예에 따르면, 상기 정보 수신부(303)는 상기 전송부(301)의 기능 수행이 완료되면, 상기 전문가 계정이 구간 영상 정보를 검토함에 따라 기 저장된 양식 정보(301a)를 기반으로 작성된 피드백 정보(303a)를 상기 전문가 계정으로부터 수신할 수 있다.
상기와 관련하여, 상기 전문가 계정은 상기 수신한 구간 영상 정보를 통해 보호자와 아동 간에 발생하는 상호 작용을 분석하여, 분석 결과를 기반으로 상기 기 저장된 양식 정보(301a)에 포함된 비언어 항목, 어투 항목, 전반적 태도 항목, 모범 사례 항목, 모범 사례 항목에 대한 비교 항목 및 보완 가이드 항목 각각에 평가 정보와 모범 사례 정보를 입력할 수 있다. 이에 따라, 전문가 계정이 접속된 전자 장치는 상기 평가 정보 및 모범 사례 정보가 입력된 기 저장된 양식 정보(301a)를 통해 피드백 정보(303a)를 생성하여, 생성된 피드백 정보(303a)를 상기 정보 수신부(303)에게 전송할 수 있다.
도 4는 본 발명의 일 실시 예에 따른 양육 지원 상담 및 코칭 어플리케이션 제공 장치에 포함된 코칭 가이드 제공부의 블록도이다.
도 4를 참조하면, 양육 지원 상담 및 코칭 어플리케이션 제공 장치(예: 도 1의 양육 지원 상담 및 코칭 어플리케이션 제공 장치(100))(이하, 양육 지원 코칭 장치로 칭함)은 코칭 가이드 제공부(400)(예: 도 1의 코칭 가이드 제공부(105))를 포함할 수 있다.
일 실시예에 따르면, 상기 코칭 가이드 제공부(400)는 정보 수신부(예: 도 3의 정보 수신부(303))가 전문가 계정으로부터 피드백 정보를 수신하면, 상기 수신된 피드백 정보에 포함된 복수 개의 관리 항목을 식별하여, 상기 식별된 복수 개의 관리 항목에 기반한 코칭 가이드를 상기 어시스턴스 로봇의 출력 수단을 통해 출력해 보호자와 아동 간의 상호 작용을 관리할 수 있다.
일 실시예에 따르면, 상기 코칭 가이드 제공부(400)는 상술한 기능을 수행하기 위한 세부 구성으로, 가이드 서비스 제공부(401), 행동 변화 정보 생성부(403) 및 리포트 정보 제공부(405)를 포함할 수 있다.
일 실시예에 따르면, 상기 가이드 서비스 제공부(401)는 상기 피드백 정보의 수신이 완료되면, 수신된 피드백 정보에 포함된 복수 개의 관리 항목에 입력된 평가 정보를 상기 출력 수단을 통해 출력하여, 보호자와 아동 간의 상호 작용을 관리하기 위한 코칭 가이드(401a)를 제공할 수 있다.
상기와 관련하여, 상기 가이드 서비스 제공부(401)는 상기 어시스턴스 로봇에 구비된 출력 수단이 디스플레이인 경우, 상기 피드백 정보에 포함된 복수 개의 관리 항목 각각에 입력된 평가 정보를 상기 코칭 가이드(401a)로써 상기 디스플레이를 통해 출력할 수 있다. 또한, 상기 가이드 서비스 제공부(401)는 상기 어시스턴스 로봇에 구비된 출력 수단이 스피커인 경우, 상기 피드백 정보에 포함된 복수 개의 관리 항목 중 보완 가이드 항목에 입력된 평가 정보를 상기 코칭 가이드(401a)로써 상기 스피커를 통해 출력할 수 있다.
일 실시예에 따르면, 상기 행동 변화 정보 생성부(403)는 상기 가이드 서비스 제공부(401)의 기능이 다수 수행됨에 따라, 기 설정된 기간 동안 전문가 계정으로부터 피드백 정보를 다수 회 수신하는 경우, 기 저장된 인공지능 알고리즘(403b)을 기반으로, 누적된 피드백 정보의 복수 개의 관리 항목에 입력된 평가 정보 간의 상관 관계를 분석하여, 상기 분석 결과를 통해 행동 변화 정보를 생성할 수 있다. 상기 누적된 피드백 정보는 상기 어시스턴스 로봇의 피드백 정보 데이터베이스(403a)에 기간 별로 구분되어 저장된 상태일 수 있다.
상기와 관련하여, 기 저장된 인공지능 알고리즘(403b)은 누적된 피드백 정보의 복수 개의 관리 항목 각각에 입력된 평가 정보 간의 상관 관계를 분석하기 위하여, 다른 보호자와 다른 아동들 각각의 피드백 정보의 복수 개의 관리 항목 각각에 입력된 평가 정보 간의 상관 관계를 분석 및 학습하는 알고리즘일 수 있다.
보다 자세하게, 상기 기 저장된 인공지능 알고리즘(403b)은 지도 학습 알고리즘, 준지도 학습 알고리즘, 비지도 자율 학습 알고리즘 중 적어도 하나를 포함할 수 있으며, 이에 한정되지 않는다. 더불어, 상기 기 저장된 인공지능 알고리즘(403b)은 ANN 모델(artificial neural network model), CNN 모델(convolution neural network model) 및 RNN 모델(recurrent neural network model)을 포함할 수 있으며, 이 외에도 다양한 모델의 알고리즘을 포함할 수 있다.
예를 들어, 상기 행동 변화 정보 생성부(403)는 상기 가이드 서비스 제공부(401)의 기능이 다수 수행됨에 따라, 기 설정된 기간 동안 전문가 계정으로부터 피드백 정보를 다수 회 수신하는 경우, 기 저장된 인공지능 알고리즘(403b)을 기반으로, 제1 피드백 정보의 복수 개의 관리 항목 중 전반적 태도 항목에 입력된 제1 평가 정보와 제2 피드백 정보의 복수 개의 관리 항목 중 전반적 태도 항목에 입력된 제2 평가 정보 간의 상관 관계를 분석할 수 있다.
이 때, 제1 피드백 정보는 상기 제2 피드백 정보보다 이전에 생성된 정보일 수 있다. 상기와 관련하여, 제1 피드백 정보에 입력된 제1 평가 정보에 기반한 전문가 계정의 평가가 "아동에 대해 보호자의 과잉 보호가 우려되며, 이러한 과잉 보호의 영향으로 아동의 다른 아동들에 비해 사회적 능력이 결핍되는 것으로 보임"의 내용을 포함하고, 제2 평가 정보에 기반한 전문가 계정의 평가가 "아동에 대한 보호자의 관심이 다른 보호자들과 유사한 듯 보이며, 보호자가 적극적으로 아동의 훈육에 집중한 결과 결핍되고 있는 사회적 능력이 개선되는 것으로 보임"의 내용을 포함할 수 있다.
이에 따라, 상기 행동 변화 정보 생성부(403)는 상기 기 저장된 인공지능 알고리즘(403b)을 통해 상기 제1 평가 정보 및 상기 제2 평가 정보 간의 상관 관계를 분석하여, "지난 번 검사와 달리 아동에 대한 부모의 과잉 보호가 줄어들고, 적극적인 훈육으로 인해 아동이 또래들과 쉽게 어울리며 적극적으로 변하고 있음"이라는 내용을 포함하는 행동 변화 정보를 생성할 수 있다. 즉, 상기 행동 변화 정보는, 지정된 기간 동안 누적되었던 피드백 정보가 상기 기 저장된 인공지능 알고리즘에 의해 분석됨에 따라 보호자 및 아동의 행동 변화 양식이 도출되어 작성된 정보일 수 있다.
일 실시예에 따르면, 상기 리포트 정보 제공부(405)는 상기 행동 변화 정보의 생성이 완료되면, 상기 생성된 행동 변화 정보를 리포트 정보로 변환하여, 상기 리포트 정보를 전문가 계정에게 제공할 수 있다.
상기와 관련하여, 상기 리포트 정보는 상기 전문가 계정이 상기 기 설정된 기간 동안 보호자와 아이 간의 상호 작용에 대한 변화를 보다 쉽게 확인할 수 있도록 상기 행동 변화 정보를 기간 별로 필터링해 가공한 정보일 수 있다. 이 때, 상기 리포트 정보는 상기 복수 개의 관리 항목마다 대응되는 행동 변화 정보를 포함하고 있어, 전문가 계정으로 하여금 복수 개의 관리 항목(행동 변화 정보에서는 비언어 항목, 어투 항목, 전반적 태도 항목, 보완 가이드 항목만이 적용됨) 각각에 대한 보호자와 아동의 상호 작용을 명확하게 확인하도록 할 수 있다.
도 5는 본 발명의 일 실시 예에 따른 양육 지원 상담 및 코칭 어플리케이션 제공 장치에 포함된 초기 정보 입력부의 블록도이다.
도 5를 참조하면, 양육 지원 상담 및 코칭 어플리케이션 제공 장치(예: 도 1의 양육 지원 상담 및 코칭 어플리케이션 제공 장치(100))(이하, 양육 지원 코칭 장치로 칭함)은 초기 정보 입력부(501)를 더 포함할 수 있다.
일 실시예에 따르면, 상기 어시스턴스 로봇은 본체의 내부 일 영역에 상기 초기 정보 입력부(501)를 포함할 수 있다.
일 실시예에 따르면, 상기 초기 정보 입력부(501)는 상기 어시스턴스 로봇이 초기 이용될 시, 보호자의 육아 스타일 정보 및 아동의 성장 발달 정보를 포함하는 사전 정보를 수신해 전문가 계정에게 우선적으로 제공할 수 있다.
상기와 관련하여, 상기 초기 정보 입력부(501)는 상기 어시스턴스 로봇이 최초 가동된 시점을 기준으로 지정된 기간 동안 보호자로 하여금 육아 스타일 정보 및 아동의 성장 발달 정보를 작성하도록 할 수 있다. 보다 자세하게, 상기 초기 정보 입력부(501)는 상기 어시스턴스 로봇에 구비된 디스플레이 또는 어시스턴스 로봇과 연동되는 보호자의 전자 장치(예: PC, 스마트 폰)을 통해 기 설정된 지문을 제공하여, 상기 보호자로 하여금 기 설정된 지문을 통해 상기 육아 스타일 정보 및 성장 발달 정보를 작성하도록 요청할 수 있다.
이에 따라, 상기 초기 정보 입력부(501)는 보호자에 의해 상기 육아 스타일 정보 및 성장 발달 정보의 작성이 완료되면, 상기 작성된 육아 스타일 정보 및 성장 발정 정보를 포함하는 사전 정보를 생성해 상기 전문가 계정에게 제공할 수 있다.
도 6은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 도시하였으며, 이하의 설명에 있어서, 상술한 도 1 내지 5에 대한 설명과 중복되는 불필요한 실시 예에 대한 설명은 생략하기로 한다.
도 6에 도시한 바와 같이, 컴퓨팅 장치(10000)은 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripEHRal interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(10000)은 촉각 인터페이스 장치에 연결된 유저 단말이기(A) 혹은 전술한 컴퓨팅 장치(B)에 해당될 수 있다.
메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(10000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다.
이때, 프로세서(11000)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11000)에 의해 제어될 수 있다.
주변장치 인터페이스(11300)는 컴퓨팅 장치(10000)의 입력 및/또는 출력 주변장치를 프로세서(11000) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11000)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(10000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.
입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.
전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.
통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.
또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.
이러한 도 6의 실시 예는, 컴퓨팅 장치(10000)의 일례일 뿐이고, 컴퓨팅 장치(10000)은 도 6에 도시된 일부 컴포넌트가 생략되거나, 도 6에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 6에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(11600)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(10000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.
본 발명의 실시 예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시 예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시 예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술 분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시 예들이 비록 한정된 실시 예와 도면에 의해 설명되었으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시 예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (9)

  1. 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 컴퓨팅 장치에서 구현되는 양육 지원 상담 및 코칭 어플리케이션 제공 장치에 있어서,
    어시스턴스 로봇의 본체 일 영역에 위치한 카메라 모듈을 통해 보호자와 아동을 촬영한 영상 정보를 수신하는 경우, 상기 수신된 영상 정보를 통해 보호자와 아동의 상호 작용 동작을 식별하여, 식별된 상호 작용 동작이 포함된 구간 영상 정보를 생성하는 구간 정보 생성부;
    상기 구간 영상 정보의 생성이 완료되면, 상기 생성된 구간 영상 정보를 아동 전문가의 전문가 계정에게 전송하여, 아동 전문가로 하여금 상기 수신된 구간 영상 정보를 통해 보호자와 아동의 상호 작용 동작에 대한 피드백 정보를 생성하도록 하여, 상기 전문가 계정으로부터 상기 생성된 피드백 정보를 수신하는 정보 송수신부; 및
    상기 피드백 정보의 수신이 완료되면, 상기 수신된 피드백 정보에 포함된 복수 개의 관리 항목을 식별하여, 상기 식별된 복수 개의 관리 항목에 기반한 코칭 가이드를 상기 어시스턴스 로봇의 출력 수단을 통해 출력해 보호자와 아동 간의 상호 작용을 관리하는 코칭 가이드 제공부;를 포함하되,
    상기 어시스턴스 로봇은,
    상기 구간 정보 생성부, 상기 정보 송수신부 및 상기 코칭 가이드 제공부가 상기 어시스턴스 로봇의 내부에 위치하여, 하나의 로봇형 교구로 구성된 것을 특징으로 하는 양육 지원 상담 및 코칭 어플리케이션 제공 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 구간 정보 생성부는,
    상기 영상 정보가 수신되는 경우, 기 저장된 영상 분석 알고리즘을 통해 상기 영상 정보를 분석하여, 상기 영상 정보에 기반한 영상 내에서 보호자와 아동을 식별하는 객체 식별부; 및
    상기 객체 식별부의 기능 수행에 의해 보호자와 아동의 식별이 완료된 상태에서, 보호자에 대응되는 제1 객체와 아동에 대응되는 제2 객체가 지정된 상호 작용 조건을 만족하는 것을 확인하면, 상기 지정된 상호 작용 조건을 만족하는 영상의 구간을 추출해 상기 구간 영상 정보를 생성하는 상호 작용 조건 확인부;를 포함하는 것을 특징으로 하는 양육 지원 상담 및 코칭 어플리케이션 제공 장치.
  4. 제3항에 있어서,
    상기 지정된 상호 작용 조건은,
    상기 제1 객체와 제2 객체 간의 거리가 지정된 거리 이내인 제1 조건;
    상기 제1 객체와 제2 객체가 대화를 시작하는 제2 조건; 및
    상기 제1 객체 및 제2 객체의 동작이 지정된 동작을 만족하는 제3 조건;을 포함하는 것을 특징으로 하는 양육 지원 상담 및 코칭 어플리케이션 제공 장치.
  5. 제4항에 있어서,
    상기 정보 송수신부는,
    상기 상호 작용 조건 확인부의 기능 수행에 의해 상기 구간 영상 정보의 생성이 완료되면, 상기 생성된 구간 영상 정보를 상기 전문가 계정에게 전송함과 동시에 기 저장된 양식 정보를 상기 전문가 계정에게 전송하는 정보 전송부; 및
    상기 정보 전송부의 기능 수행이 완료되면, 상기 전문가 계정이 상기 구간 영상 정보를 검토함에 따라 기 저장된 양식 정보를 기반으로 작성된 피드백 정보를 상기 전문가 계정으로부터 수신하는 정보 수신부;를 포함하는 것을 특징으로 하는 양육 지원 상담 및 코칭 어플리케이션 제공 장치.
  6. 제5항에 있어서,
    상기 기 저장된 양식 정보는,
    상기 전문가 계정이 상기 정보 전송부로부터 수신한 구간 영상 정보를 검토하여, 보호자와 아동 간의 상호 작용을 분석 및 평가한 평가 정보가 입력되는 정보로써, 비언어 항목, 어투 항목, 전반적 태도 항목, 모범 사례 항목, 상기 모범 사례 항목에 대한 비교 항목 및 보완 가이드 항목 중 적어도 하나를 포함하는 복수 개의 관리 항목으로 구성된 정보인 것을 특징으로 하는 양육 지원 상담 및 코칭 어플리케이션 제공 장치.
  7. 제6항에 있어서,
    상기 코칭 가이드 제공부는,
    상기 피드백 정보의 수신이 완료되면, 상기 수신된 피드백 정보에 포함된 복수 개의 관리 항목에 입력된 평가 정보를 상기 출력 수단을 통해 출력하여, 보호자와 아동 간의 상호 작용을 관리하기 위한 코칭 가이드를 제공하는 가이드 서비스 제공부;
    상기 가이드 서비스 제공부의 기능이 다수 수행됨에 따라, 기 설정된 기간 동안 상기 전문가 계정으로부터 상기 피드백 정보를 다수 회 수신하는 경우, 기 저장된 인공지능 알고리즘을 기반으로, 누적된 피드백 정보의 복수 개의 관리 항목에 입력된 평가 정보 간의 상관 관계를 분석하여, 상기 분석 결과를 통해 행동 변화 정보를 생성하는 행동 변화 정보 생성부; 및
    상기 행동 변화 정보의 생성이 완료되면, 상기 생성된 행동 변화 정보를 리포트 정보로 변환하여, 상기 리포트 정보를 상기 전문가 계정에게 제공하는 리포트 정보 제공부;를 포함하는 것을 특징으로 하는 양육 지원 상담 및 코칭 어플리케이션 제공 장치.
  8. 제7항에 있어서,
    상기 기 저장된 인공지능 알고리즘은,
    상기 누적된 피드백 정보의 복수 개의 관리 항목 각각에 입력된 평가 정보 간의 상관 관계를 분석하기 위하여, 다른 보호자와 다른 아동들 각각의 피드백 정보의 복수 개의 관리 항목 각각에 입력된 평가 정보 간의 상관 관계를 분석 및 학습하는 알고리즘인 것을 특징으로 하는 양육 지원 상담 및 코칭 어플리케이션 제공 장치.
  9. 제7항에 있어서,
    상기 양육 지원 상담 및 코칭 어플리케이션 제공 장치은,
    초기 정보 입력부;를 더 포함하고,
    상기 초기 정보 입력부는,
    상기 어시스턴스 로봇이 초기 이용될 시, 보호자의 육아 스타일 정보 및 아동의 성장 발달 정보를 포함하는 사전 정보를 수신해 상기 전문가 계정에게 우선적으로 제공하는 것을 특징으로 하는 양육 지원 상담 및 코칭 어플리케이션 제공 장치.
KR1020230015375A 2023-02-06 2023-02-06 양육 지원 상담 및 코칭 어플리케이션 제공 장치 KR102635981B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230015375A KR102635981B1 (ko) 2023-02-06 2023-02-06 양육 지원 상담 및 코칭 어플리케이션 제공 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230015375A KR102635981B1 (ko) 2023-02-06 2023-02-06 양육 지원 상담 및 코칭 어플리케이션 제공 장치

Publications (1)

Publication Number Publication Date
KR102635981B1 true KR102635981B1 (ko) 2024-02-13

Family

ID=89899494

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230015375A KR102635981B1 (ko) 2023-02-06 2023-02-06 양육 지원 상담 및 코칭 어플리케이션 제공 장치

Country Status (1)

Country Link
KR (1) KR102635981B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160096256A (ko) * 2015-02-04 2016-08-16 (주)싸이월드 보호자 디바이스, 피보호자 모니터링 시스템 및 그 방법
KR20190114931A (ko) * 2019-09-19 2019-10-10 엘지전자 주식회사 로봇 및 그의 제어 방법
KR20200022065A (ko) * 2018-08-21 2020-03-03 주식회사 그로잉맘 부모의 성향과 아이의 성향을 동시에 고려한 육아가이드를 제공하는 육아코칭 및 상담 서비스 제공방법 및 제공시스템
KR20200062229A (ko) * 2017-10-12 2020-06-03 퀄컴 인코포레이티드 오디오 활동 추적 및 요약들
KR102359344B1 (ko) * 2021-09-13 2022-02-08 가온플랫폼 주식회사 인공지능 기반의 영유아 행동 및 심리분석 스마트 보육환경 모니터링 시스템 및 그 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160096256A (ko) * 2015-02-04 2016-08-16 (주)싸이월드 보호자 디바이스, 피보호자 모니터링 시스템 및 그 방법
KR20200062229A (ko) * 2017-10-12 2020-06-03 퀄컴 인코포레이티드 오디오 활동 추적 및 요약들
KR20200022065A (ko) * 2018-08-21 2020-03-03 주식회사 그로잉맘 부모의 성향과 아이의 성향을 동시에 고려한 육아가이드를 제공하는 육아코칭 및 상담 서비스 제공방법 및 제공시스템
KR20190114931A (ko) * 2019-09-19 2019-10-10 엘지전자 주식회사 로봇 및 그의 제어 방법
KR102359344B1 (ko) * 2021-09-13 2022-02-08 가온플랫폼 주식회사 인공지능 기반의 영유아 행동 및 심리분석 스마트 보육환경 모니터링 시스템 및 그 방법

Similar Documents

Publication Publication Date Title
US10922866B2 (en) Multi-dimensional puppet with photorealistic movement
US20190304157A1 (en) Artificial intelligence in interactive storytelling
KR102448382B1 (ko) 텍스트와 연관된 이미지를 제공하는 전자 장치 및 그 동작 방법
Kächele et al. Inferring depression and affect from application dependent meta knowledge
Russo et al. PARLOMA–a novel human-robot interaction system for deaf-blind remote communication
Dwivedi et al. Exploring machine teaching with children
KR20200010680A (ko) 기계학습 모델을 이용하여 n개의 프레임에 기초하여 대상의 감정인식을 수행하는 감정인식 시스템, 방법, 및 컴퓨터-판독가능매체
Meudt et al. Going further in affective computing: how emotion recognition can improve adaptive user interaction
Hartmann et al. XAINES: Explaining AI with narratives
Yadav et al. Review of automated depression detection: Social posts, audio and video, open challenges and future direction
Khenkar et al. Engagement Detection Based on Analyzing Micro Body Gestures Using 3D CNN.
Lang et al. HMMCF: A human-computer collaboration algorithm based on multimodal intention of reverse active fusion
Bremers et al. Using social cues to recognize task failures for hri: A review of current research and future directions
KR102635981B1 (ko) 양육 지원 상담 및 코칭 어플리케이션 제공 장치
Pataranutaporn et al. Machinoia, machine of multiple me: integrating with past, future and alternative selves
Efthymiou et al. A robotic edutainment framework for designing child-robot interaction scenarios
Healy et al. Preforming real-time emotion classification using an Intel RealSense camera, multiple facial expression databases and a Support Vector Machine
Gotsman et al. Valence/Arousal Estimation of Occluded Faces from VR Headsets
Hou et al. STMMI: A Self‐Tuning Multi‐Modal Fusion Algorithm Applied in Assist Robot Interaction
Sánchez et al. Facial expression recognition via transfer learning in cooperative game paradigms for enhanced social ai
KR102675228B1 (ko) 영상 내 생활 패턴에 기반해 낙상 유무를 판단하는 방법, 장치 및 컴퓨터-판독 가능 기록 매체
Rai et al. Using Machine Learning to Detect Emotions and Predict Human Psychology
Boman et al. Toward learning machines at a mother and baby unit
Nikbakhtbideh An AI-based Framework For Parent-child Interaction Analysis
Sruthi et al. Multi-language: ensemble learning-based speech emotion recognition

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant