KR102442783B1 - Apparatus for Learning Service based on Motion and Driving Method Thereof - Google Patents

Apparatus for Learning Service based on Motion and Driving Method Thereof Download PDF

Info

Publication number
KR102442783B1
KR102442783B1 KR1020200049024A KR20200049024A KR102442783B1 KR 102442783 B1 KR102442783 B1 KR 102442783B1 KR 1020200049024 A KR1020200049024 A KR 1020200049024A KR 20200049024 A KR20200049024 A KR 20200049024A KR 102442783 B1 KR102442783 B1 KR 102442783B1
Authority
KR
South Korea
Prior art keywords
students
motion
practice
instructor
control unit
Prior art date
Application number
KR1020200049024A
Other languages
Korean (ko)
Other versions
KR20210130922A (en
Inventor
신종우
Original Assignee
신한대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 신한대학교 산학협력단 filed Critical 신한대학교 산학협력단
Priority to KR1020200049024A priority Critical patent/KR102442783B1/en
Publication of KR20210130922A publication Critical patent/KR20210130922A/en
Application granted granted Critical
Publication of KR102442783B1 publication Critical patent/KR102442783B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Feedback Control In General (AREA)
  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 모션 기반의 학습서비스장치 및 그 장치의 구동방법에 관한 것으로서, 본 발명의 실시예에 따른 모션 기반의 학습서비스장치는, 실습 과목의 실습 순서에 대하여 각 단계별로 교수자의 모션을 취득해 모션 데이터로서 저장하는 저장부, 및 실습 과목을 실습하는 학생들의 촬영영상에 대한 분석 결과 및 저장한 모션 데이터를 근거로 학생들의 각 단계에서의 일치도를 분석하여 기준에서 벗어날 때, 기준에서 벗어난 학생의 학생 단말장치로 교수자의 실습 동영상을 제공하는 제어부를 포함할 수 있다.The present invention relates to a motion-based learning service apparatus and a method of driving the apparatus, wherein the motion-based learning service apparatus according to an embodiment of the present invention acquires the instructor's motion at each step with respect to the practice sequence of the practice subject. Based on the storage unit that stores motion data, and the analysis results of the recorded images of students practicing the practical subject and the stored motion data, the degree of agreement at each stage of the students is analyzed and, when deviating from the standard, the student who deviates from the standard The student terminal device may include a control unit that provides a video of the instructor's practice.

Description

모션 기반의 학습서비스장치 및 그 장치의 구동방법{Apparatus for Learning Service based on Motion and Driving Method Thereof}Apparatus for Learning Service based on Motion and Driving Method Thereof

본 발명은 모션 기반의 학습서비스장치 및 그 장치의 구동방법에 관한 것으로서, 더 상세하게는 가령 대학의 지정 실습 과목의 수업시 교수(자) 1인을 통해서도 학생들의 효율적인 수업지도가 가능한 모션 기반의 학습서비스장치 및 그 장치의 구동방법에 관한 것이다.The present invention relates to a motion-based learning service device and a driving method of the device, and more particularly, to a motion-based learning service device that enables efficient class guidance of students even through a single professor during a class in a designated practical course at a university. It relates to a learning service apparatus and a driving method of the apparatus.

대학교 내 수업에 있어서 각종 실습을 통한 학습이 진행되는 경우가 많이 있다. 각각의 실습 과정은 통상 개별 또는 그룹을 지어 수업이 진행되는 것이 일반적이다. 하지만, 이러한 수업시간에 교수 1인이 담당해야 할 학생수가 많기 때문에 각 학생별 또는 그룹별 지도에 있어서 충분한 맨투맨 수업이 진행되지 못하는 문제가 있다. 예를 들어 치기공학과 등과 같은 학과에서는 의치를 제작하는 과정에 일정한 순서에 따라 작업이 이루어져야 하는데 이러한 과정을 제한된 시간 내에서 수업에 참여하는 학생 모두에게 지도할 수 없게 된다.In university classes, there are many cases where learning is carried out through various practical exercises. Each practice course is usually taught individually or in groups. However, there is a problem in that sufficient one-to-one classes cannot be conducted in guidance for each student or group because the number of students that one professor has to take charge of during these class times is large. For example, in departments such as the Department of Dental Engineering, work must be done in a certain order in the process of making dentures, and it is impossible to teach this process to all the students participating in the class within a limited time.

한국공개특허공보 제10-2016-0040750호(2016.04.15)Korean Patent Publication No. 10-2016-0040750 (2016.04.15)

본 발명의 실시예는 가령 대학의 지정 실습 과목의 수업시 교수(자) 1인을 통해서도 학생들의 효율적인 수업지도가 가능한 학습서비스장치 및 그 장치의 구동방법을 제공함에 그 목적이 있다.An object of the present invention is to provide a learning service device capable of efficiently teaching students even through one professor (self) during a class in a designated practical course of a university, and a method of driving the device.

본 발명의 실시예에 따른 모션 기반의 학습서비스장치는, 실습 과목의 실습 순서에 대하여 각 단계별로 교수자의 모션을 취득해 모션 데이터로서 저장하는 저장부, 및 상기 실습 과목을 실습하는 학생들의 촬영 영상에 대한 분석 결과 및 상기 저장한 모션 데이터를 근거로 상기 학생들의 각 단계에서의 일치도를 분석하여 기준에서 벗어날 때, 상기 기준에서 벗어난 학생의 학생 단말장치로 상기 교수자의 실습 동영상을 제공하는 제어부를 포함한다.A motion-based learning service apparatus according to an embodiment of the present invention includes a storage unit that acquires the instructor's motion for each step in the practice sequence of a practical subject and stores it as motion data, and a photographed image of students practicing the practical subject Based on the analysis result and the stored motion data, it analyzes the degree of agreement at each stage of the students and, when deviating from the standard, includes a control unit that provides a video of the instructor's practice to the student terminal device of the student who deviates from the standard do.

상기 제어부는, 상기 실습 동영상의 제공 이전에, 오류가 있는 학생들의 지도가 이루어지도록 상기 기준에서 벗어난 학생들에 정보를 상기 교수자의 교수 단말장치로 전송할 수 있다.The control unit may transmit information to the students deviating from the standard to the instructor's teaching terminal device so that the guidance of the students with errors is made prior to the provision of the practice video.

상기 학습서비스장치는, 상기 학생들이 착용하는 웨어러블장치, 스마트폰, 상기 실습이 이루어지는 실습 공간에 설치된 카메라 중 적어도 하나의 장치와 통신을 수행하여 상기 촬영 영상을 수신하는 통신 인터페이스부를 더 포함할 수 있다.The learning service device may further include a communication interface unit configured to receive the captured image by performing communication with at least one device among a wearable device worn by the students, a smartphone, and a camera installed in a practice space where the training is performed. .

상기 제어부는, 상기 실습 이전에 상기 교수자의 몸에 부착된 모션 센서를 통해 취득되는 모션 데이터를 기준 모션 데이터로서 상기 저장부에 저장하며, 상기 기준 모션 데이터를 상기 촬영 영상의 학생들에 대한 움직임 분석 결과와 비교하여 일치도를 분석할 수 있다.The control unit stores motion data acquired through a motion sensor attached to the body of the instructor before the practice as reference motion data in the storage unit, and stores the reference motion data as a result of motion analysis for students of the captured image Concordance can be analyzed by comparing

또한, 본 발명의 실시예에 따른 모션기반의 학습서비스장치의 구동방법은, 저장부 및 제어부를 포함하는 모션기반의 학습서비스장치의 구동방법으로서, 실습 과목의 실습 순서에 대하여 각 단계별로 교수자의 모션을 취득해 모션 데이터로서 상기 저장부에 저장하는 단계, 및 상기 제어부가, 상기 실습 과목을 실습하는 학생들의 촬영 영상에 대한 분석 결과 및 상기 저장한 모션 데이터를 근거로 상기 학생들의 각 단계에서의 일치도를 분석하여 기준에서 벗어날 때, 상기 기준에서 벗어난 학생의 학생 단말장치로 상기 교수자의 실습 동영상을 제공하는 단계를 포함한다.In addition, the method of driving a motion-based learning service apparatus according to an embodiment of the present invention is a method of driving a motion-based learning service apparatus including a storage unit and a control unit. Acquiring motion and storing it in the storage unit as motion data, and the control unit in each step of the students based on the analysis result of the captured images of students practicing the practical subject and the stored motion data and, when deviating from the standard by analyzing the degree of agreement, providing a video of the instructor's practice to the student terminal device of the student deviating from the standard.

상기 제공하는 단계는, 상기 실습 동영상의 제공 이전에, 오류가 있는 학생들의 지도가 이루어지도록 상기 기준에서 벗어난 학생들의 정보를 상기 교수자의 교수 단말장치로 전송할 수 있다.In the providing step, prior to the provision of the practice video, information of students deviating from the standard may be transmitted to a teaching terminal device of the instructor so that the guidance of students with errors is made.

상기 구동방법은, 상기 학생들이 착용하는 웨어러블장치, 스마트폰, 상기 실습이 이루어지는 실습 공간에 설치된 카메라 중 적어도 하나의 장치와 통신을 수행하여 상기 촬영 영상을 수신하는 단계를 더 포함할 수 있다.The driving method may further include receiving the captured image by performing communication with at least one device among a wearable device worn by the students, a smartphone, and a camera installed in a practice space where the training is performed.

상기 구동방법은, 상기 실습 이전에 상기 교수자의 몸에 부착된 모션 센서를 통해 취득되는 모션 데이터를 기준 모션 데이터로서 상기 저장부에 저장하는 단계, 및 상기 기준 모션 데이터를 상기 촬영 영상의 학생들에 대한 움직임 분석 결과와 비교하여 일치도를 분석하는 단계를 더 포함할 수 있다.The driving method includes the steps of storing motion data acquired through a motion sensor attached to the body of the instructor before the practice as reference motion data in the storage unit, and storing the reference motion data for students of the captured image. The method may further include analyzing the degree of agreement by comparing it with the motion analysis result.

본 발명의 실시예에 따르면, 지정 실습 과목에 대하여 교수자가 사전에 모션 인식 기반으로 데이터를 저장한 후, 실습시 촬영되는 학생들의 촬영 영상과 비교하여 학생들의 각 단계별 작업 순서를 확인하고, 확인 결과에 따라 오류가 있는 학생들을 중심으로 지도가 이루어지도록 함으로써 교수자의 학생 지도가 매우 수월해 질 수 있을 것이다.According to an embodiment of the present invention, after the instructor stores data based on motion recognition in advance for a designated practice subject, compares it with the photographed images of the students taken during the practice, checks the work order of each step of the students, and the confirmation result Accordingly, the instructor's student guidance will be very easy by making the guidance centering on the students with errors.

도 1은 본 발명의 실시예에 따른 학습서비스시스템을 나타내는 도면,
도 2는 도 1의 학습서비스시스템의 동작 과정을 도식화하여 나타낸 도면,
도 3은 도 1의 학습서비스장치의 세부 구조를 예시한 블록다이어그램, 그리고
도 4는 본 발명의 실시예에 따른 학습서비스 과정을 나타내는 흐름도이다.
1 is a view showing a learning service system according to an embodiment of the present invention;
2 is a diagram schematically showing the operation process of the learning service system of FIG. 1;
3 is a block diagram illustrating a detailed structure of the learning service apparatus of FIG. 1, and
4 is a flowchart illustrating a learning service process according to an embodiment of the present invention.

이하, 도면을 참조하여 본 발명의 실시예에 대하여 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 실시예에 따른 학습서비스시스템을 나타내는 도면이며, 도 2는 도 1의 학습서비스시스템의 동작 과정을 도식화하여 나타낸 도면이다.1 is a diagram illustrating a learning service system according to an embodiment of the present invention, and FIG. 2 is a diagram schematically illustrating an operation process of the learning service system of FIG. 1 .

도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 학습서비스시스템(90)은 교수자장치(100), 학습자장치(110), 통신망(120) 및 학습서비스장치(130)의 일부 또는 전부를 포함한다.As shown in FIG. 1 , the learning service system 90 according to an embodiment of the present invention includes some or all of the instructor device 100 , the learner device 110 , the communication network 120 , and the learning service device 130 . include

여기서, "일부 또는 전부를 포함한다"는 것은 통신망(120)과 같은 일부 구성요소가 생략되어 교수자장치(100)나 학습서비스장치(130)가 다이렉트 통신(예: P2P 통신)을 수행하거나, 학습서비스장치(130)의 일부 또는 전부가 통신망(120) 내의 네트워크장치(예: 무선교환장치 등)에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, "including some or all" means that some components such as the communication network 120 are omitted so that the instructor device 100 or the learning service device 130 performs direct communication (eg, P2P communication) or learning It means that a part or all of the service device 130 can be configured by being integrated into a network device (eg, a wireless switching device, etc.) in the communication network 120, and includes all of it to help a sufficient understanding of the invention. Explain.

교수자장치(100)는 교수자의 모션취득장치(예: 센서, 마커 등), 데스크탑컴퓨터, 랩탑컴퓨터, 태블릿PC, 스마트폰 등의 다양한 장치를 포함하며, 카메라 등의 촬영장치를 더 포함할 수 있다. 가령 대학의 치기공학과 등의 학과에서 이루어지는 의치를 제작하는 과정에 일정한 순서에 따라 작업이 이루어지게 되는데, 교수자장치(100)는 이러한 작업의 순서와 관련하여 교수자에 의해 생성된 모션 데이터를 저장한다. 물론 모션 데이터는 교수자에 의해 직접 제작된 경우가 아니더라도 다양한 경로를 통해 수집될 수도 있다. 모션 데이터 제작을 위하여 해당 작업 순서를 교수자가 직접 수행하게 되며, 이때 교수자장치(100)는 모션에 대한 데이터를 취득하여 실습 평가에 기준이 될 수 있는 기준 모션 데이터를 확보하게 된다.The instructor device 100 includes various devices such as a motion acquisition device (eg, a sensor, a marker, etc.) of the instructor, a desktop computer, a laptop computer, a tablet PC, a smart phone, etc., and may further include a photographing device such as a camera. . For example, in the process of manufacturing dentures made in departments such as the dental engineering department of the university, the operation is performed according to a predetermined sequence, and the instructor device 100 stores motion data generated by the instructor in relation to the sequence of these operations. Of course, motion data may be collected through various paths even if it is not directly produced by the instructor. In order to produce motion data, the instructor directly performs the corresponding work sequence, and in this case, the instructor device 100 acquires motion data to secure reference motion data that can be a standard for practice evaluation.

이와 같이, 학생들이 실습에서 수행해야 할 각 순서의 작업과 관련하여 모션 기준 데이터를 생성하기 위해 교수자는 사전에 몸에 부착된 모션센서 등을 통해 취득한 데이터를 이용하거나, 몸 특히 관절부위에 마커(marker)를 부착한 후 카메라로 촬영된 촬영영상에서 마커를 기반으로 모션 데이터를 생성하는 것도 얼마든지 가능할 수 있다. 예를 들어 마커를 부착한 채 영상에서는 해당 마커가 촬영되어 있을 것이므로, 각 단위 프레임 영상마다 해당 마커의 좌표를 근거로 움직임을 분석하여 각 순서의 작업 형태를 판단할 수 있을 것이다. 물론 좌표는 3차원 좌표가 바람직하지만, 2차원 좌표인 경우 3차원 좌표로 확보하는 것이 바람직할 수 있다. 가령, 2차원 영상을 3차원 영상으로 변환한 후 이를 통해 확보할 수도 있을 것이다.In this way, in order to generate motion reference data in relation to each sequence of tasks that students need to perform in practice, the instructor uses data acquired through a motion sensor attached to the body in advance, or uses markers ( After attaching the marker), it may be possible to generate motion data based on the marker in the captured image taken with the camera. For example, since the corresponding marker will be photographed in the image with the marker attached, the motion of each sequence may be determined by analyzing the movement based on the coordinates of the corresponding marker for each unit frame image. Of course, the coordinates are preferably three-dimensional coordinates, but in the case of two-dimensional coordinates, it may be desirable to secure the three-dimensional coordinates. For example, after converting a 2D image into a 3D image, it may be secured through this.

이외에도, 모션 취득을 위하여, 모션센서나 마커를 활용하지 않는 마커프리 모션 캡쳐 방식도 가능할 수 있다. 자유 복장 상태의 동작자 즉 교수자에 대해 실시간으로 모션을 캡쳐할 수 있는 기술이다. 교수자가 광학이나 자기성, 또는 음향성 마커를 부착하지 않고 활동할 수 있어 동작에 제약이 거의없고, 자연스러운 특징이 있다. 인체의 실루엣 해석에 의한 모션 복원 방법이나 블랍(blob) 해석에 의해 신체 각 부위를 구분 검출하고, 이들의 3차원 위치 복원과 모션 구조화의 과정으로 인체 동작을 캡처하는 방법 등이 활용될 수 있다.In addition, for motion acquisition, a marker-free motion capture method that does not use a motion sensor or marker may be possible. It is a technology that can capture motion in real time for an operator in a free dress state, that is, an instructor. There are almost no restrictions on movement and natural features as instructors can work without attaching optical, magnetic, or acoustic markers. A method of recovering motion by analyzing the silhouette of a human body or a method of detecting each part of the body separately by analyzing a blob, and capturing the motion of the human body through the process of restoring their three-dimensional position and structuring the motion may be utilized.

또한, 교수자장치(100)는 사전에 제작되어 생성된 모션 데이터를 도 1의 DB(130a)에 저장한 후, 이에 근거하여 제공되는 학생들의 정보를 수신한다. 다시 말해, 실습 시간이 진행되면 실습 장소에서는 학생들의 실습에 대한 촬영이 진행될 수 있고, 학습서비스장치(130)는 학생들의 작업 순서를 촬영한 촬영영상을 수신해 분석하여 DB(130a)에 기저장된 교수자의 모션 데이터를 비교하고 이를 통해 모션의 일치도를 판단한다. 만약, 일치도의 판단 결과, 오류가 있다고 판단되는 학생에 대하여는 해당 학생에 대한 사용자 정보를 교수자장치(100), 가령 해당 실습 장소에 있는 교수자의 스마트폰 등의 단말장치로 전송해 줌으로써 현장에서 바로 해당 학생의 지도를 수행할 수 있게 되는 것이다. 이러한 정보 전송은 각 단계별 작업 순서와 동기화되어 전송되는 것이 바람직할 수 있다.In addition, the instructor device 100 stores the motion data produced and generated in advance in the DB 130a of FIG. 1 , and then receives the information of the students provided based thereon. In other words, when the practice time progresses, the shooting of the students' practice can be performed at the practice location, and the learning service device 130 receives and analyzes the captured images of the students' work order and stores them in the DB 130a. It compares the instructor's motion data and judges the degree of motion matching through this. If, as a result of the determination of the degree of agreement, it is determined that there is an error, the user information about the student is transmitted to the instructor device 100, for example, a terminal device such as a smartphone of the instructor in the practice place, so that the corresponding You will be able to conduct student guidance. It may be desirable to transmit such information in synchronization with the operation sequence of each step.

이와 같이, 실습 장소에서 교수자가 많은 학생들의 실습을 지도할 때, 자신의 시야를 벗어나는 학생들에 대하여도 실습 진행 상황에 대하여 관찰이 가능하므로, 실습 지도의 효율성은 증가할 수 있을 것이다.In this way, when the instructor instructs the practice of many students at the practice location, since it is possible to observe the progress of the practice even for students who go out of their field of view, the effectiveness of the practice guidance may be increased.

예를 들어, 교수자장치(100)는 같은 공간에서 학생들의 작업 순서와 관련하여 실시간으로 정보를 수신할 수 있기 때문에 바로바로 학생들의 작업 순서에 대한 오류를 바로 잡을 수 있겠지만, 좀더 효율을 위해서는 해당 학생의 정보가 전송될 때, 어느 작업 순서에 대한 오류가 발생했는지에 대한 정보를 함께 수신하는 것이 바람직할 수 있다. 따라서, 같은 공간에 있는 교수자가 시간적 여유를 갖고 학생들을 지도하는 것이 얼마든지 가능할 수 있게 된다.For example, since the instructor device 100 can receive information in real time in relation to the work order of students in the same space, it is possible to immediately correct errors in the work order of the students, but for more efficiency, It may be desirable to receive information about which task sequence an error occurred when the information of Therefore, it becomes possible for the instructor in the same space to lead the students with sufficient time.

학습자장치(110)는 학습자가 소지하는, 더 정확하게는 학습자의 실습 과정을 촬영할 수 있는 웨어러블장치, 스마트폰, 또는 해당 실습 공간에 설치되어 있는 카메라 등을 포함할 수 있다. 물론, 카메라는 학습자가 소유하는 카메라일 수 있지만, 실습 공간 내의 벽면이나 천장에 설치되어 모든 학생들을 함께 촬영할 수 있는 것이 바람직하며, 복수의 카메라를 설치하여 실습이 이루어지는 학생들을 그룹별로, 또는 공간을 나눈 각 영역별로 촬영하는 것도 얼마든지 가능할 수 있다.The learner device 110 may include a wearable device, a smart phone, or a camera installed in the corresponding practice space, which the learner possesses, more precisely, which can photograph the learner's practice process. Of course, the camera can be a camera owned by the learner, but it is desirable to be installed on the wall or ceiling in the practice space so that all students can be photographed together. It is also possible to take pictures for each divided area.

이와 같은 다양한 방식을 통해 실습 공간에서 이루어지는 학생들의 실습 작업에 대한 순서를 촬영하여 촬영영상은 학습서비스장치(130)로 전송된다. 학생들은 그에 따라 자신의 작업 순서에 오류가 발생한 경우, 교수자로부터 바로 혹은 빠른 시간 내에 지도를 받을 수 있게 된다. 뿐만 아니라, 가령 수업이 종료된 이후에도 해당 실습의 작업 순서와 관련한 자료가 필요한 경우, 학습서비스장치(130)로부터 교수자의 실습 동영상을 수신할 수도 있을 것이다.Through such various methods, the sequence of the students' practice work performed in the practice space is photographed, and the photographed image is transmitted to the learning service device 130 . Accordingly, if an error occurs in their work sequence, students can receive guidance from the instructor immediately or within a short time. In addition, for example, if data related to the work sequence of the corresponding practice is required even after the class is over, the instructor's practice video may be received from the learning service device 130 .

통신망(120)은 유무선 통신망을 모두 포함한다. 가령 통신망(120)으로서 유무선 인터넷망이 이용되거나 연동될 수 있다. 여기서 유선망은 케이블망이나 공중 전화망(PSTN)과 같은 인터넷망을 포함하는 것이고, 무선 통신망은 CDMA, WCDMA, GSM, EPC(Evolved Packet Core), LTE(Long Term Evolution), 와이브로(Wibro) 망 등을 포함하는 의미이다. 물론 본 발명의 실시예에 따른 통신망(120)은 이에 한정되는 것이 아니며, 향후 구현될 차세대 이동통신 시스템의 접속망으로서 가령 클라우드 컴퓨팅 환경하의 클라우드 컴퓨팅망, 5G망 등에 사용될 수 있다. 가령, 통신망(120)이 유선 통신망인 경우 통신망(120) 내의 액세스포인트는 전화국의 교환국 등에 접속할 수 있지만, 무선 통신망인 경우에는 통신사에서 운용하는 SGSN 또는 GGSN(Gateway GPRS Support Node)에 접속하여 데이터를 처리하거나, BTS(Base Station Transmission), NodeB, e-NodeB 등의 다양한 중계기에 접속하여 데이터를 처리할 수 있다.The communication network 120 includes both wired and wireless communication networks. For example, a wired/wireless Internet network may be used or interlocked as the communication network 120 . Here, the wired network includes an Internet network such as a cable network or a public telephone network (PSTN), and the wireless communication network includes CDMA, WCDMA, GSM, Evolved Packet Core (EPC), Long Term Evolution (LTE), and Wibro networks. meaning to include Of course, the communication network 120 according to the embodiment of the present invention is not limited thereto, and may be used as an access network of a next-generation mobile communication system to be implemented in the future, for example, a cloud computing network under a cloud computing environment, a 5G network, and the like. For example, when the communication network 120 is a wired communication network, the access point in the communication network 120 can connect to a switching center of a telephone company, etc., but in the case of a wireless communication network, it accesses the SGSN or GGSN (Gateway GPRS Support Node) operated by the communication company to transmit data. or by connecting to various repeaters such as Base Station Transmission (BTS), NodeB, and e-NodeB to process data.

통신망(120)은 액세스포인트를 포함할 수 있다. 여기서의 액세스포인트는 건물 내에 많이 설치되는 펨토(femto) 또는 피코(pico) 기지국과 같은 소형 기지국을 포함한다. 여기서, 펨토 또는 피코 기지국은 소형 기지국의 분류상 교수자장치(100), 학습자장치(110) 등을 최대 몇 대까지 접속할 수 있느냐에 따라 구분된다. 물론 액세스포인트는 교수자장치(100), 학습자장치(110)와 지그비 및 와이파이 등의 근거리 통신을 수행하기 위한 근거리 통신모듈을 포함한다. 액세스포인트는 무선통신을 위하여 TCP/IP 혹은 RTSP(Real-Time Streaming Protocol)를 이용할 수 있다. 여기서, 근거리 통신은 와이파이 이외에 블루투스, 지그비, 적외선, UHF(Ultra High Frequency) 및 VHF(Very High Frequency)와 같은 RF(Radio Frequency) 및 초광대역 통신(UWB) 등의 다양한 규격으로 수행될 수 있다. 이에 따라 액세스포인트는 데이터 패킷의 위치를 추출하고, 추출된 위치에 대한 최상의 통신 경로를 지정하며, 지정된 통신 경로를 따라 데이터 패킷을 다음 장치, 예컨대 학습서비스장치(130)로 전달할 수 있다. 액세스포인트는 일반적인 네트워크 환경에서 여러 회선을 공유할 수 있으며, 예컨대 라우터(router), 리피터(repeater) 및 중계기 등이 포함된다.The communication network 120 may include an access point. Here, the access point includes a small base station, such as a femto or pico base station, which is often installed in a building. Here, the femto or pico base station is classified according to the maximum number of access to the instructor device 100, the learner device 110, etc., in terms of the classification of the small base station. Of course, the access point includes a short-distance communication module for performing short-distance communication such as Zigbee and Wi-Fi with the instructor device 100 and the learner device 110 . The access point may use TCP/IP or Real-Time Streaming Protocol (RTSP) for wireless communication. Here, short-range communication may be performed in various standards such as Bluetooth, Zigbee, infrared, radio frequency (RF) such as ultra high frequency (UHF) and very high frequency (VHF), and ultra-wideband communication (UWB) in addition to Wi-Fi. Accordingly, the access point may extract the location of the data packet, designate the best communication path for the extracted location, and deliver the data packet to the next device, for example, the learning service device 130 along the designated communication path. The access point may share several lines in a general network environment, and includes, for example, a router, a repeater, and a repeater.

학습서비스장치(130)는 모션 기반의 학습 서비스를 제공할 수 있다. 더 정확하게는 가령 대학이나 학원 등에서 실습이 이루어질 때, 학습서비스장치(130)는 실습의 작업 순서 등의 과정에서 오류가 발생할 수 있는 학생 즉 학습자들을 빠르게 지도할 수 있도록 사전에 기저장되어 있는 실습의 작업 순서 등과 관련한 모션 데이터를 학생들의 촬영영상과 비교하여 모션의 일치도를 분석하고 그 결과를 근거로 지도가 이루어지도록 한다. 학생들의 촬영영상에서는 영상 분석을 통해 관절 부위의 추적을 통해 좌표값을 산출해내는 방식이 이용될 수 있을 것이다.The learning service device 130 may provide a motion-based learning service. More precisely, for example, when a practice is performed at a university or a private institute, the learning service device 130 provides information about the practice stored in advance so as to quickly guide students, that is, learners, who may have errors in the process of the operation sequence of the practice, etc. The motion data related to the work order is compared with the students' recorded images to analyze the degree of motion matching, and guidance is made based on the results. In the students' captured images, the method of calculating the coordinate values by tracking the joint area through image analysis may be used.

도 2를 참조하여 좀더 구체적으로 살펴보면, 우선 교수자는 특정 실습 순서를 각 단계별로 모션 기반 기술을 통해 작업 과정을 학습서비스장치(130)에 입력하게 된다. 작업 순서를 모션 기술 기반으로 데이터를 생성하는 방법은 앞서 충분히 설명한 바 있다. 그리고 실제 수업 시간에 학생들은 웨어러블기기를 착용하고 또는 자신의 스마트폰을 더 이용하여 자신의 실습 과정을 실시간으로 동영상으로 촬영하여 학습서비스장치(130)에 전송할 수 있다. 학습서비스장치(130)는 각각의 학생들로부터 수신한 영상을 교수자가 기입력된 모션과 일치하는지를 평가한다. 만약 실습 순서 및 각 순서에 해당하는 모션의 일치도를 분석하여 소정의 일치도에 도달하지 않는 경우, 가령 기준값을 벗어나는 경우 학습서비스장치(130)는 해당 교수자의 실습 동영상을 제공하거나 교수자의 스마트 단말을 통해 오류가 있는 학생의 정보를 제공함으로써 학생이 교수자에 별도의 질문을 하거나 질문을 요청하지 않아도 교수가 실시간으로 학생을 지도할 수 있게 된다.Referring to FIG. 2 in more detail, the instructor first inputs a specific practice sequence to the learning service device 130 through motion-based technology for each step. The method of generating data based on the motion technology for the operation sequence has been sufficiently described above. And during the actual class, students can wear a wearable device or use their own smart phone to record their practice process as a video in real time and transmit it to the learning service device 130 . The learning service device 130 evaluates whether the image received from each student matches the motion entered by the instructor. If a predetermined degree of agreement is not reached by analyzing the training sequence and the motion corresponding to each sequence, for example, out of a reference value, the learning service device 130 provides a training video of the instructor or through the instructor's smart terminal. By providing the information of the student in error, the professor can guide the student in real time without the student having to ask the instructor a separate question or ask a question.

앞서 언급한 대로, 학습서비스장치(130)는 시스템 설계자의 의도에 따라 다양하게 동작할 수 있다. 다시 말해, 학생의 촬영영상에 대한 분석 결과 및 기저장된 모션 데이터를 근거로 복수의 학생들에 대하여 오류가 발생하였다고 가정해 보자. 이의 경우 학습서비스장치(130)는 복수의 학생들에 대한 정보를 교수자장치(100)로 바로 전송한다. 교수자는 해당 정보를 근거로 지도를 할 수 있다. 따라서, 촬영영상으로부터 학생들의 정보를 취득하기 위하여는 수업 초기에 얼굴 인식 등을 통해 사전에 등록된 사용자 정보(예: 성명)를 전송해 줄 수 있다. 이의 경우, 단순히 성명과 같은 사용자 정보만 전송하기보다는 복수의 학생들에 대한 지도가 어려울 수도 있으므로, 작업 순서에 대한 정보를 함께 전송해 줄 수도 있다. 따라서, 학습서비스장치(130)는 각 순서에서 오류가 발생한 학생의 수에 따라 정보를 전송하는 형태를 결정할 수도 있을 것이다.As mentioned above, the learning service device 130 may operate in various ways according to the intention of the system designer. In other words, it is assumed that an error has occurred for a plurality of students based on the analysis result of the student's captured image and the pre-stored motion data. In this case, the learning service device 130 directly transmits information about a plurality of students to the instructor device 100 . The instructor can provide guidance based on the information. Therefore, in order to acquire students' information from the captured image, pre-registered user information (eg, name) may be transmitted through face recognition at the beginning of class. In this case, since it may be difficult to teach a plurality of students rather than simply transmitting user information such as a name, information on the work order may be transmitted together. Accordingly, the learning service device 130 may determine the form of transmitting information according to the number of students who have made an error in each sequence.

또한, 학습서비스장치(130)는 실습 과정에서 작업 순서에 오류가 있었던 학생이나, 또는 학생이 별도로 요청한 경우, 교수자의 실습 동영상을 제공해 줄 수도 있다. 동영상을 제공할 때, 풀 영상을 제공할 수 있지만, 오류가 발생한 부분에 대하여 편집하여 제공하는 것도 얼마든지 가능할 수 있다. 이와 같이, 본 발명의 실시예에 따른 학습서비스장치(130)는 시스템 설계자의 의도에 따라 다양한 방식으로 동작이 가능하며, 무엇보다 본 발명의 실시예는 실습에서 많은 학생들을 지도해야 하는 교수자가 자신이 사전에 구축한 작업 순서 관련 데이터를 근거로 학생들의 지도를 더 효율적이게 할 수 있다면 어떠한 형태이어도 무관하다.In addition, the learning service device 130 may provide a video of the instructor's practice in the case of a student who has an error in the work order in the practice process or when the student separately requests it. When providing a video, a full video may be provided, but it may be possible to edit and provide an error-prone part. As described above, the learning service device 130 according to the embodiment of the present invention can be operated in various ways according to the intention of the system designer, and above all, the embodiment of the present invention allows the instructor who must guide many students in practice. Based on this pre-constructed task sequence data, it may be in any form as long as it is possible to make the students' guidance more efficient.

도 3은 도 1의 학습서비스장치의 세부 구조를 예시한 블록다이어그램이다.FIG. 3 is a block diagram illustrating a detailed structure of the learning service apparatus of FIG. 1 .

도 3에 도시된 바와 같이, 본 발명의 실시예에 따른 도 1의 학습서비스장치(130)는 통신 인터페이스부(300), 제어부(310), 모션기반 학습처리부(320) 및 저장부(330)의 일부 또는 전부를 포함한다.As shown in FIG. 3 , the learning service apparatus 130 of FIG. 1 according to an embodiment of the present invention includes a communication interface unit 300 , a control unit 310 , a motion-based learning processing unit 320 and a storage unit 330 . includes some or all of

여기서, "일부 또는 전부를 포함한다"는 것은 저장부(330)와 같은 일부 구성요소가 생략되어 구성되거나, 모션기반 학습처리부(320)와 같은 구성요소의 일부 또는 전부가 제어부(310)와 같은 다른 구성요소에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, "including some or all" means that some components such as the storage unit 330 are omitted, or some or all of the components such as the motion-based learning processing unit 320 are the same as the control unit 310. It means that it can be configured by being integrated with other components, and it will be described as including all in order to help a sufficient understanding of the invention.

통신 인터페이스부(300)는 도 1의 통신망(120)을 경유하여 교수자장치(100) 및 학습자장치(110)와 통신을 수행한다. 이의 과정에서 통신 인터페이스부(300)는 변/복조, 먹싱/디먹싱, 인코딩/디코딩, 암호화/복호화 등의 동작을 수행한다. 통신 인터페이스부(300)는 교수자장치(100), 가령 카메라나 모션취득장치(예: 모션센서 등)로부터 촬영영상이나 센싱데이터를 수신하여 제어부(310)에 제공한다.The communication interface unit 300 communicates with the instructor device 100 and the learner device 110 via the communication network 120 of FIG. 1 . In this process, the communication interface unit 300 performs operations such as modulation/demodulation, muxing/demuxing, encoding/decoding, and encryption/decryption. The communication interface unit 300 receives the captured image or sensing data from the instructor device 100 , for example, a camera or a motion acquisition device (eg, a motion sensor, etc.) and provides it to the control unit 310 .

또한, 통신 인터페이스부(300)는 학습자장치(110)로부터 실습 중에 있는 학습자들에 대한 촬영영상을 수신하여 제어부(310)에 제공한다. 이를 위하여 통신 인터페이스부(300)는 도 1의 통신망(120)을 경유하여 실습 공간 내의 학생들이 소지하는 단말장치나 실습 공간 내에 설치되어 있는 고정 카메라, 나아가서는 복수의 고정 카메라, 이외에도 학생들이 직접 설치하는 카메라와 통신을 수행할 수 있다.In addition, the communication interface unit 300 receives the captured images of the learners in practice from the learner device 110 and provides them to the control unit 310 . To this end, the communication interface unit 300 is a terminal device possessed by students in the practice space via the communication network 120 of FIG. 1 or a fixed camera installed in the practice space, furthermore, a plurality of fixed cameras, and in addition, the students directly installed can communicate with the camera.

나아가, 통신 인터페이스부(300)는 기저장한 교수자의 모션 데이터 및 학생들의 촬영영상을 근거로 분석된 작업 순서에 오류가 있는 학생들에 대한 정보를 교수자장치(100)로 전송한다. 학생들에 대한 정보는 학생들의 성명 등에 대한 정보일 수 있으며, 얼굴을 캡쳐한 사진일 수 있다. 예를 들어, 실습 수업이 시작하기 전, 학습서비스장치(130)는 촬영영상을 통해 학생의 얼굴을 인식하고, 기저장된 사진과 비교하여 학생의 성명 등에 대한 정보를 추출할 수 있다. 다시 말해, 도 1의 DB(130a)에는 학생들의 사진 즉 사진 데이터와 성명에 대한 정보가 서로 매칭되어 저장될 수 있으므로 촬영영상에서 학생들의 얼굴을 DB(130a)에 저장된 데이터와 비교하여 그에 매칭된 학생의 정보가 교수자장치(100)로 전송될 수 있다.Furthermore, the communication interface unit 300 transmits, to the instructor device 100 , information about students having errors in the work sequence analyzed based on the pre-stored motion data of the instructor and the photographed images of the students. The information about the students may be information about the students' names, etc., and may be a photograph of a captured face. For example, before a practical class starts, the learning service device 130 may recognize a student's face through a photographed image and extract information about the student's name and the like by comparing it with a pre-stored photo. In other words, in the DB 130a of FIG. 1 , the students' photos, that is, the photo data and information about their names can be matched and stored, so the students' faces in the captured image are compared with the data stored in the DB 130a and matched thereto. Student information may be transmitted to the instructor device 100 .

물론, 학생 정보를 전송하면서 통신 인터페이스부(300)는 작업 순서에 대한 정보도 함께 제공할 수 있다. 예를 들어, 특정 실습이 작업 A, B, C로 구성되었다면 특정 작업에 대한 타이틀이나 정보를 전송한다. 이러한 정보는 실습 공간에서 학생의 작업 순서 오류를 바로잡기 위해 실시간으로 전송될 수 있을 것이다.Of course, while transmitting student information, the communication interface unit 300 may also provide information on the work order. For example, if a particular exercise consists of tasks A, B, and C, send the title or information for that particular task. This information could be transmitted in real time to correct student work order errors in the lab space.

뿐만 아니라, 제어부(310) 또는 모션기반 학습처리부(320)에서 작업 순서 등에 오류가 발생한 학생들을 체크하였다가 수업이 종료되었을 때에는 통신 인터페이스부(300)는 교수자의 실습 동영상을 전송해 줄 수 있다. 여기서, 실습 동영상을 제공하는 시점이나 방법은, 가령 수업 중일 때 바로 제공하거나, 수업이 종료된 후 제공하거나, 해당 부분만을 편집해서 제공하거나, 풀 영상으로 제공하는 등 다양한 형태의 동작이 가능할 수 있다.In addition, when the control unit 310 or the motion-based learning processing unit 320 checks the students who have errors in the work order, etc., and the class ends, the communication interface unit 300 may transmit the instructor's practice video. Here, the timing or method of providing the practice video may be, for example, provided immediately during class, provided after the class is over, provided by editing only the relevant part, or provided as a full video, etc. .

제어부(310)는 통신 인터페이스부(300), 모션기반 학습처리부(320), 저장부(330)의 전반적인 제어 동작을 담당한다. 앞서 언급한 대로, 제어부(310)는 통신 인터페이스부(300)로부터 실습 과목의 작업 순서에 대한 교수자의 모션 데이터(혹은 촬영영상), 학생들의 촬영영상 등을 수신하여 저장부(330)에 임시 저장한 후 불러내어 모션기반 학습처리부(320)에 제공할 수 있을 것이다.The control unit 310 is in charge of overall control operations of the communication interface unit 300 , the motion-based learning processing unit 320 , and the storage unit 330 . As mentioned above, the control unit 310 receives from the communication interface unit 300 the instructor's motion data (or photographed images), the students' photographed images, etc. for the work sequence of the practice subject, and temporarily stores it in the storage unit 330 . After doing so, it may be called and provided to the motion-based learning processing unit 320 .

또한, 제어부(310)는 모션기반 학습처리부(320)의 요청에 따라 교수자장치(100)로 작업 순서의 오류가 발생된 학생들에 대한 정보를 제공하도록 통신 인터페이스부(300)를 제어하거나, 오류가 발생된 학생들에게 교수자의 실습 동영상을 제공하도록 통신 인터페이스부(300)를 제어할 수 있을 것이다.In addition, the control unit 310 controls the communication interface unit 300 to provide information about students who have an error in the work order to the instructor device 100 according to the request of the motion-based learning processing unit 320, or It will be possible to control the communication interface unit 300 to provide the instructor's practice video to the generated students.

모션기반 학습처리부(320)는 실습 과정의 작업 순서와 관련해 사전에 제작된 모션 데이터, 또는 촬영영상, 실습 공간에서 실습 중인 학생들에 대한 촬영영상을 비교하여 모션의 일치 여부를 평가한다. 모션 데이터는 가령 특정 작업 순서를 수행하기 위한 팔이나 머리 등의 움직임에 대한 정보라면, 모션기반 학습처리부(320)는 학생들의 촬영영상을 분석하여 각 학생들의 동작에서 모션 데이터와 같은 동작이 이루어지는지를 판단할 수 있다. 이는 모션 데이터가 3차원 좌표값(x, y, z)의 형태로 저장될 수 있기 때문에, 촬영영상도 3차원 영상이 활용되는 것이 바람직하며, 2차원 영상이라 하더라도 3차원 영상으로 변경하거나 3차원 데이터를 얻는 프로그램을 통해 3차원 좌표값을 취득한 후 이를 근거로 비교할 수 있을 것이다.The motion-based learning processing unit 320 evaluates whether motion is consistent by comparing pre-made motion data, or captured images, and captured images of students practicing in the practice space in relation to the work sequence of the practice process. If the motion data is, for example, information about movement of an arm or head for performing a specific task sequence, the motion-based learning processing unit 320 analyzes the students' captured images to determine whether the motion data is performed in each student's motion. can judge Since motion data can be stored in the form of three-dimensional coordinate values (x, y, z), it is preferable that a three-dimensional image is used for the captured image, and even if it is a two-dimensional image, it can be changed to a three-dimensional image or a three-dimensional image. After acquiring 3D coordinates through a data acquisition program, it will be possible to compare them based on this.

모션기반 학습처리부(320)는 특정 작업의 작업 순서를 실시간으로 분석 비교하면서 특정 학생에게 오류가 발생하는 경우에는 해당 학생의 얼굴 인식 등을 통해 학생 정보를 추출하고, 학생 정보와 함께 오류 데이터를 교수자장치(100)로 전송하도록 제어부(310)에 요청할 수 있다. 여기서, 오류 데이터는 작업 순서와 관련된 타이틀을 나타내거나, 시간 변화를 근거로 일정 시간만큼만 편집한 촬영영상이 될 수도 있을 것이다.The motion-based learning processing unit 320 analyzes and compares the task sequence of a specific task in real time, and when an error occurs in a specific student, extracts student information through face recognition of the student, etc., and transmits the error data together with the student information to the instructor A request may be made to the controller 310 to transmit to the device 100 . Here, the error data may indicate a title related to a work sequence or may be a shot image edited for a certain amount of time based on time change.

뿐만 아니라, 모션기반 학습처리부(320)는 시스템 설계자, 더 정확하게는 서비스 제공자의 의도에 따라 실습이 종료된 시점에 학생들의 학습자장치(110)로 교수자의 실습 동영상을 제공하거나 할 수 있을 것이다. 물론 이메일로 전송하는 것도 얼마든지 가능할 수 있을 것이다.In addition, the motion-based learning processing unit 320 may provide or provide a video of the instructor's practice to the student's learner device 110 at the time the practice is finished according to the intention of the system designer, more precisely, the service provider. Of course, it would be possible to send it by e-mail as well.

더 나아가, 모션기반 학습처리부(320)는 서비스를 제공하기 위하여 지정 포맷을 갖도록 데이터를 가공하여 도 1의 DB(130a)에 저장시킬 수 있을 것이다.Furthermore, the motion-based learning processing unit 320 may process data to have a specified format in order to provide a service and store it in the DB 130a of FIG. 1 .

저장부(330)는 제어부(310)의 제어하에 처리되는 정보, 또는 데이터를 저장할 수 있다. 정보는 요청 및 응답과 같은 간단한 제어 신호를 의미하며, 데이터는 화소 데이터 등을 의미할 수 있지만, 본 발명의 실시예에서는 이러한 용어에 특별히 한정하지는 않을 것이다. 저장된 데이터 등은 제어부(310)의 요청에 따라 출력되어 모션기반 학습처리부(320) 등에 제공될 수 있을 것이다. 물론 그 역 동작도 얼마든지 가능할 수 있다.The storage unit 330 may store information or data processed under the control of the control unit 310 . Information may mean simple control signals such as request and response, and data may mean pixel data, etc., but the embodiment of the present invention will not specifically limit to these terms. The stored data may be output according to the request of the control unit 310 and provided to the motion-based learning processing unit 320 and the like. Of course, the reverse operation is also possible.

한편, 본 발명의 다른 실시예로서, 도 3의 제어부(310)는 CPU와 메모리를 포함하여 구성될 수 있으며, CPU와 메모리는 원칩화하여 형성될 수 있다. CPU는 제어회로, 연산부(ALU), 명령어해석부 및 레지스트리 등을 포함하며, 메모리를 램(RAM)을 포함할 수 있다. 제어회로는 제어동작을, 연산부는 2진 비트정보의 연산을, 그리고 명령어해석부는 컴파일러 등의 프로그램을 포함할 수 있으며, 고급언어를 기계어로 변환하거나 기계어를 고급언어로 변환하는 등의 동작을 수행할 수 있다. 또한, 레지스트리는 소프트웨어적인 데이터 저장에 관여할 수 있다.Meanwhile, as another embodiment of the present invention, the control unit 310 of FIG. 3 may include a CPU and a memory, and the CPU and the memory may be formed into a single chip. The CPU includes a control circuit, an arithmetic unit (ALU), a command interpreter and a registry, and the memory may include a RAM. The control circuit may include a control operation, the operation unit may include an operation of binary bit information, and the instruction interpretation unit may include a program such as a compiler. can do. Also, the registry may be involved in software data storage.

상기의 구성에 따라, CPU는 가령 도 3의 모션기반 학습처리부(320)에 저장되어 있는 데이터를 복사하여 메모리에 로딩한 후 이를 실행시킴으로써 데이터 연산 처리 속도를 빠르게 증가시킬 수 있게 될 것이다.According to the above configuration, the CPU will be able to quickly increase the data operation processing speed by copying the data stored in the motion-based learning processing unit 320 of FIG. 3 and loading it into the memory and then executing it.

도 4는 본 발명의 실시예에 따른 학습서비스 과정을 나타내는 흐름도이다.4 is a flowchart illustrating a learning service process according to an embodiment of the present invention.

설명의 편의상 도 4를 도 1과 함께 참조하면, 본 발명의 실시예에 따른 학습서비스장치(130)는 실습 과목의 실습 순서에 대하여 각 단계별로 교수자의 모션을 취득해 모션 데이터로서 저장부에 저장한다(S400). 예컨대, 대학의 치기공학과와 같은 경우에는 학과에 의치를 제작하는 과정에 일정한 순서에 따라 작업이 이루어져야 하며, 따라서 위의 "실습 순서에 대하여 각 단계"란 의치 제작 과정에서 일정한 순서에 따른 작업을 의미할 수 있다.Referring to FIG. 4 together with FIG. 1 for convenience of explanation, the learning service device 130 according to an embodiment of the present invention acquires the instructor's motion at each step with respect to the practice sequence of the practice subject and stores it in the storage unit as motion data. do (S400). For example, in the case of the dental engineering department of a university, the work must be done in a certain order in the process of manufacturing dentures in the department, and therefore "each step with respect to the order of practice" above means the work in a certain order in the process of making dentures. can do.

본 발명의 실시예에서는 교수자의 모션을 취득하여 모션 데이터를 생성해 구축하는 방법은 다양할 수 있음을 앞서 이미 설명한 바 있다. 교수자의 몸, 특히 관절 부위에 부착한 모션센서의 센싱데이터를 이용하거나, 몸에 마커를 부착하고 이를 촬영하여 촬영영상을 통해 교수자의 모션을 취득하거나, 나아가서는 마커프리 모션 캡쳐도 가능할 수 있다. 단순히 의복을 착용하거나, 앞서 언급한 대로 인체의 실루엣 해석이나 블랍 해석에 의한 방법 등 다양한 방법이 사용될 수 있을 것이다.In the embodiment of the present invention, it has been previously described that there may be various methods of acquiring the instructor's motion and generating and constructing motion data. Using the sensing data of the motion sensor attached to the body of the instructor, especially the joints, attaching a marker to the body and photographing it to acquire the instructor's motion through the captured image, or even marker-free motion capture may be possible. Various methods may be used, such as simply wearing clothes, or by analyzing the human body's silhouette or blobs as mentioned above.

또한, 도 1의 학습서비스장치(130)는 실습 과목을 실습하는 학생들의 촬영 영상에 대한 분석 결과 및 (기)저장한 모션 데이터를 근거로 학생들의 각 단계에서의 일치도를 분석하여 기준에서 벗어날 때 기준에서 벗어난 학생의 학생 단말장치, 가령 도 1의 학습자장치(110)로 교수자의 실습 동영상을 제공한다(S410).In addition, when the learning service device 130 of FIG. 1 deviates from the standard by analyzing the degree of agreement at each stage of the students based on the analysis results of the captured images of the students practicing the practical subject and the (group) stored motion data, the learning service device 130 of FIG. The instructor's practice video is provided to the student terminal device of the student deviating from the standard, for example, the learner device 110 of FIG. 1 (S410).

물론, 학습서비스장치(130)는 실습 동영상의 제공에 앞서, 오류가 발생한 학생들의 학생 정보를 먼저 교수자장치(100)로 전송해주어 실습 공간에서 바로바로 오류가 발생한 학생들을 인식하여 교정이 이루어지도록 하고, 실습 동영상은 실습 수업의 종료시에 제공되거나 할 수 있을 것이다.Of course, the learning service device 130 transmits the student information of the students who have made an error to the instructor device 100 before providing the practice video to recognize the students who have made an error right away in the practice space and to make corrections. In other words, the practice video may or may not be provided at the end of the practice class.

상기한 내용 이외에도 학습서비스장치(130)는 다양한 동작을 수행할 수 있으며, 이와 관련해서는 앞서 충분히 설명하였으므로, 그 내용들로 대신하고자 한다.In addition to the above, the learning service device 130 may perform various operations, and since this has been sufficiently described above, it will be replaced with the contents.

한편, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 비일시적 저장매체(non-transitory computer readable media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다.On the other hand, even though it has been described that all components constituting the embodiment of the present invention are combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more. In addition, all of the components may be implemented as one independent hardware, but a part or all of each component is selectively combined to perform some or all functions of the combined components in one or a plurality of hardware program modules It may be implemented as a computer program having Codes and code segments constituting the computer program can be easily deduced by those skilled in the art of the present invention. Such a computer program is stored in a computer-readable non-transitory computer readable media, read and executed by a computer, thereby implementing an embodiment of the present invention.

여기서 비일시적 판독 가능 기록매체란, 레지스터, 캐시(cache), 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라, 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리 카드, ROM 등과 같은 비일시적 판독가능 기록매체에 저장되어 제공될 수 있다.Here, the non-transitory readable recording medium refers to a medium that stores data semi-permanently and can be read by a device, not a medium that stores data for a short moment, such as a register, cache, memory, etc. . Specifically, the above-described programs may be provided by being stored in a non-transitory readable recording medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.In the above, preferred embodiments of the present invention have been illustrated and described, but the present invention is not limited to the specific embodiments described above, and it is common in the technical field to which the present invention pertains without departing from the gist of the present invention as claimed in the claims. Various modifications may be made by those having the knowledge of, of course, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

100: 교수자장치 110: 학습자장치
120: 통신망 130: 학습서비스장치
300: 통신 인터페이스부 310: 제어부
320: 모션기반 학습처리부 330: 저장부
100: instructor device 110: learner device
120: communication network 130: learning service device
300: communication interface unit 310: control unit
320: motion-based learning processing unit 330: storage unit

Claims (5)

실습 과목의 작업 순서에 대하여 각 단계별로 교수자의 모션을 취득해 모션 데이터로서 저장하는 저장부; 및
상기 실습 과목을 실습하는 학생들의 촬영영상에 대한 분석 결과 및 상기 저장한 모션 데이터를 근거로 상기 학생들의 각 단계에서의 일치도를 분석하여 기준에서 벗어날 때, 상기 기준에서 벗어난 학생의 학생 단말장치로 상기 교수자의 실습 동영상을 제공하는 제어부;를 포함하되,
상기 제어부는, 실습 과정에서 작업 순서에 오류가 있었던 학생 또는 학생으로부터 요청이 있는 경우 상기 실습 동영상을 제공하고,
상기 제어부는, 상기 실습 동영상의 제공 이전에, 오류가 있는 학생들의 지도가 이루어지도록 상기 기준에서 벗어난 학생들에 정보를 상기 학생들의 실습 장소에 있는 상기 교수자의 교수 단말장치로 전송하며,
상기 제어부는, 상기 각 단계별 작업 순서와 동기화하여 상기 기준에서 벗어난 학생들의 정보를 전송하되, 상기 정보를 전송할 때 어느 작업에 대한 오류가 발생했는지에 대한 정보를 함께 전송하고,
상기 제어부는, 각 작업 순서에서 오류가 발생한 학생의 수에 따라 상기 정보를 전송하는 형태를 결정하는 모션 기반의 학습서비스장치.
a storage unit that acquires the instructor's motion for each step of the work sequence of the practice subject and stores it as motion data; and
Based on the analysis result of the captured images of the students practicing the practical subject and the stored motion data, the degree of agreement at each stage of the students is analyzed and, when deviating from the standard, the student terminal device of the student deviating from the standard A control unit that provides a video of the instructor's practice; including,
The control unit provides the training video when there is a request from a student or a student who has an error in the work sequence in the practice process,
The control unit transmits, prior to the provision of the practice video, information on students deviating from the standard to the instructor's teaching terminal device in the practice location of the students so that the guidance of the students with errors is made,
The control unit transmits information of students deviating from the standard in synchronization with the work sequence for each step, and transmits information about which task an error occurred when transmitting the information together,
The control unit, a motion-based learning service device for determining a form of transmitting the information according to the number of students who have an error in each task sequence.
삭제delete 제1항에 있어서,
상기 학생들이 착용하는 웨어러블장치, 스마트폰, 상기 실습이 이루어지는 실습 공간에 설치된 카메라 중 적어도 하나의 장치와 통신을 수행하여 상기 촬영영상을 수신하는 통신 인터페이스부;를 더 포함하는 모션 기반의 학습서비스장치.
The method of claim 1,
A motion-based learning service device further comprising a wearable device worn by the students, a smart phone, and a communication interface unit for receiving the captured image by communicating with at least one device among a camera installed in a practice space where the practice is performed; .
제1항에 있어서,
상기 제어부는, 상기 실습 이전에 상기 교수자의 몸에 부착된 모션 센서를 통해 취득되는 모션 데이터를 기준 모션 데이터로서 상기 저장부에 저장하며, 상기 기준 모션 데이터를 상기 촬영영상의 학생들에 대한 움직임 분석 결과와 비교하여 일치도를 분석하는 모션 기반의 학습서비스장치.
The method of claim 1,
The controller stores motion data acquired through a motion sensor attached to the body of the instructor before the practice as reference motion data in the storage unit, and stores the reference motion data as a result of motion analysis for students of the captured image A motion-based learning service device that compares and analyzes the degree of matching.
저장부 및 제어부를 포함하는 모션기반의 학습서비스장치의 구동방법으로서,
실습 과목의 작업 순서에 대하여 각 단계별로 교수자의 모션을 취득해 모션 데이터로서 상기 저장부에 저장하는 단계; 및
상기 제어부가, 상기 실습 과목을 실습하는 학생들의 촬영영상에 대한 분석 결과 및 상기 저장한 모션 데이터를 근거로 상기 학생들의 각 단계에서의 일치도를 분석하여 기준에서 벗어날 때, 상기 기준에서 벗어난 학생의 학생 단말장치로 상기 교수자의 실습 동영상을 제공하는 단계;를 포함하되,
상기 제어부는, 실습 과정에서 작업 순서에 오류가 있었던 학생 또는 학생으로부터 요청이 있는 경우 상기 실습 동영상을 제공하고,
상기 제어부는, 상기 실습 동영상의 제공 이전에, 오류가 있는 학생들의 지도가 이루어지도록 상기 기준에서 벗어난 학생들에 정보를 상기 학생들의 실습 장소에 있는 상기 교수자의 교수 단말장치로 전송하며,
상기 제어부는, 상기 각 단계별 작업 순서와 동기화하여 상기 기준에서 벗어난 학생들의 정보를 전송하되, 상기 정보를 전송할 때 어느 작업에 대한 오류가 발생했는지에 대한 정보를 함께 전송하고,
상기 제어부는, 각 작업 순서에서 오류가 발생한 학생의 수에 따라 상기 정보를 전송하는 형태를 결정하는 포함하는 모션 기반의 학습서비스장치의 구동방법.
A method of driving a motion-based learning service device including a storage unit and a control unit, the method comprising:
Acquiring the motion of the instructor at each step with respect to the work sequence of the practice subject and storing the motion data in the storage unit; and
When the control unit deviates from the standard by analyzing the degree of agreement at each stage of the students based on the analysis result of the captured images of students practicing the practice subject and the stored motion data, the student of the student who deviates from the standard Including; providing a video of the instructor's practice to a terminal device;
The control unit provides the training video when there is a request from a student or a student who has an error in the work sequence in the practice process,
The control unit transmits, prior to the provision of the practice video, information on students deviating from the standard to the instructor's teaching terminal device in the practice location of the students so that the guidance of the students with errors is made,
The control unit transmits information of students deviating from the standard in synchronization with the work sequence for each step, and transmits information about which task an error occurred when transmitting the information together,
The control unit, a method of driving a motion-based learning service device comprising determining a form of transmitting the information according to the number of students who have made an error in each task sequence.
KR1020200049024A 2020-04-23 2020-04-23 Apparatus for Learning Service based on Motion and Driving Method Thereof KR102442783B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200049024A KR102442783B1 (en) 2020-04-23 2020-04-23 Apparatus for Learning Service based on Motion and Driving Method Thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200049024A KR102442783B1 (en) 2020-04-23 2020-04-23 Apparatus for Learning Service based on Motion and Driving Method Thereof

Publications (2)

Publication Number Publication Date
KR20210130922A KR20210130922A (en) 2021-11-02
KR102442783B1 true KR102442783B1 (en) 2022-09-13

Family

ID=78476497

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200049024A KR102442783B1 (en) 2020-04-23 2020-04-23 Apparatus for Learning Service based on Motion and Driving Method Thereof

Country Status (1)

Country Link
KR (1) KR102442783B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102608724B1 (en) * 2021-11-22 2023-12-01 주식회사 듀코젠 Method and system for providing practice in VR engineering practice content

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101036429B1 (en) * 2010-08-24 2011-05-23 윤상범 Apparatus and method for cyber training of martial art and the recording medium
JP2011227365A (en) 2010-04-22 2011-11-10 Osaka Prefecture Univ Learning support device for healthcare and nursing skills and learning method for healthcare and nursing skills

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160040750A (en) 2014-10-03 2016-04-15 주식회사 마당 Motion recognition with Virtual Reality based Realtime Interactive Korea Cargo Vessel Learning System
KR101839113B1 (en) * 2016-03-30 2018-03-16 (주)퓨처젠 Virtual network training processing unit included client system of immersive virtual training system that enables recognition of respective virtual training space and collective and organizational cooperative training in shared virtual workspace of number of trainees through multiple access and immersive virtual training method using thereof
KR102171319B1 (en) * 2016-06-13 2020-10-28 한국전자통신연구원 Appratus for writing motion-script, appratus for self-learning montion and method for using the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227365A (en) 2010-04-22 2011-11-10 Osaka Prefecture Univ Learning support device for healthcare and nursing skills and learning method for healthcare and nursing skills
KR101036429B1 (en) * 2010-08-24 2011-05-23 윤상범 Apparatus and method for cyber training of martial art and the recording medium

Also Published As

Publication number Publication date
KR20210130922A (en) 2021-11-02

Similar Documents

Publication Publication Date Title
US11940774B2 (en) Action imitation method and robot and computer readable storage medium using the same
JP6127188B1 (en) Counting method and counting device
US20170280130A1 (en) 2d video analysis for 3d modeling
KR101850534B1 (en) System and method for picture taking using IR camera and maker and application therefor
CN109357679A (en) A kind of indoor orientation method based on significant characteristics identification
KR102442783B1 (en) Apparatus for Learning Service based on Motion and Driving Method Thereof
CN109215069A (en) Object information acquisition method and device
TW201832131A (en) Object tracking method
US10438066B2 (en) Evaluation of models generated from objects in video
CN111353439A (en) Method, device, system and equipment for analyzing teaching behaviors
JP5679086B1 (en) Information processing apparatus and information processing program
KR102031001B1 (en) Apparatus for Providing Service of Checking Workpiece and Driving Method Thereof
KR20130107404A (en) An augmented object fusion system using media contents edit and a method thereof
US9854132B2 (en) Image processing apparatus, data registration method, and data registration program
KR102555667B1 (en) Learning data collection system and method
CN116266402A (en) Automatic object labeling method and device, electronic equipment and storage medium
JP2021190826A (en) Image processing device, image processing system, image processing method and program
CN107016351A (en) Shoot the acquisition methods and device of tutorial message
KR102442777B1 (en) Apparatus for Providing Service of Estimating Workpiece and Driving Method Thereof
JP2021129293A (en) Image processing apparatus, image processing system, image processing method, and program
CN106296758A (en) For implementing the system and method for real time imaging vector quantization
JP2023527679A (en) Panorama generation using mobile camera
KR102177444B1 (en) Apparatus for Providing Learning Service by Using Tridimensionality and Driving Method Thereof
KR102151461B1 (en) Apparatus for Tridimensionality Data Service and Driving Method Thereof
JP7272705B1 (en) Information processing device, information processing method and information processing program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant