KR101380765B1 - Electronic apparatus for providing function of solid figure learning - Google Patents

Electronic apparatus for providing function of solid figure learning Download PDF

Info

Publication number
KR101380765B1
KR101380765B1 KR1020130063908A KR20130063908A KR101380765B1 KR 101380765 B1 KR101380765 B1 KR 101380765B1 KR 1020130063908 A KR1020130063908 A KR 1020130063908A KR 20130063908 A KR20130063908 A KR 20130063908A KR 101380765 B1 KR101380765 B1 KR 101380765B1
Authority
KR
South Korea
Prior art keywords
vertex
item
learning
image
touch
Prior art date
Application number
KR1020130063908A
Other languages
Korean (ko)
Inventor
김태형
김진영
Original Assignee
김태형
김진영
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김태형, 김진영 filed Critical 김태형
Priority to KR1020130063908A priority Critical patent/KR101380765B1/en
Application granted granted Critical
Publication of KR101380765B1 publication Critical patent/KR101380765B1/en
Priority to CN201410243286.6A priority patent/CN104299460B/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/02Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for mathematics

Abstract

The present invention relates to an electronic device for solid figure learning. To this end, the electronic device for providing a solid figure learning function comprises a touch screen part (10) which detects a touch gesture for an object displayed on a display screen and generates an electrical signal corresponding to the touch gesture; an application part (20) which is composed of a series of instructions to instruct the electronic device to perform a processing operation corresponding to the touch gesture in response to the touch gesture transmitted in an electrical signal form from the touch screen part (10); a processor part (30) which executes the application part (20); and a storage part (40) which stores data processed by the processor part (30). [Reference numerals] (10) Touch screen; (20) Application part; (21) Corner finding module; (22) Lining module; (23) Twisted point finding module; (24) Plane finding module; (25) Surface area calculating module; (26) Volume calculating module; (27) Rotor drawing module; (30) Processor part; (40) Storage part

Description

입체도형 학습 기능을 제공하는 전자 장치{ELECTRONIC APPARATUS FOR PROVIDING FUNCTION OF SOLID FIGURE LEARNING}ELECTRONIC APPARATUS FOR PROVIDING FUNCTION OF SOLID FIGURE LEARNING

본 발명은 입체도형 학습용 전자 장치에 관한 것으로서, 보다 구체적으로는 피학습자의 학습 욕구나 학습 이해를 증진시킬 수 있도록 보조하는 입체도형 학습용 전자 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional figure learning electronic device, and more particularly, to a three-dimensional figure learning electronic device for assisting a learner to improve a learning desire or learning understanding.

일반적으로 수학 과목 가운데에서도 도형과 관련된 기하 학습은 3차원의 공간을 이용하는 입체도형이기 때문에 2차원 평면 형태로 구성된 교재로 학습을 할 경우, 제대로 이해하지 못하는 어려움이 발생한다.In general, geometric learning related to figures is a three-dimensional figure using a three-dimensional space among mathematics subjects, so when learning with a textbook composed of a two-dimensional plane form, difficulty in understanding it occurs.

실제, 일부 교사들은 입체도형에 대한 원리를 피학습자에게 이해시키기 위해 색종이나 두꺼운 종이 등을 사용하여 교보재를 만들어 시용하기도 하지만, 이러한 교보재만으로 입체도형에 대한 원리를 완전히 이해시키고 폭넓은 응용문제를 제안하기에는 많은 무리가 따른다.In fact, some teachers make and apply Kyobo materials using colored paper or thick paper to help learners understand the principles of stereoscopic figures, but with these materials, they fully understand the principles of stereoscopic figures and propose a wide range of application problems. There are a lot of crowds to follow.

입체적으로 이루어지는 3차원 도형물들은 평면이 아닌 공간 개념을 가지고 접근을 해야 하기 때문에 이를 보다 쉽게 이해하려면 피학습자로 하여금 입체 도형물이 어떻게 구성되는지 스스로 이해하도록 하는 것이 무엇보다 중요하다.Since three-dimensional figures made in three dimensions must be approached with the concept of space rather than a plane, it is important to have the learners understand themselves how the three-dimensional figures are constructed.

이를 위해서는, 피학습자로 하여금 입체 도형물을 다시 평면으로 나타내어 전개도를 만들게 하거나, 전개도 상태에서 그것의 입체 도형물과 대응하는 꼭지점, 모서리, 평면 등을 찾도록 하는 방법에 숙달되어야 하는데 이것은 반복적인 입체도형 학습 과정에 의해서만 달성될 수 있다.To do this, learners must be trained to create three-dimensional figures again by creating a flat pattern, or to find vertices, edges, and planes that correspond to their three-dimensional shapes in a flat state. It can only be achieved by the shape learning process.

그러나, 현재의 학교나 학원에서는 입체도형 학습을 효율적으로 시킬 수 있는 교보재나 도구 등이 없기 때문에, 여전히 2차원적인 평면 교재 또는 색종이 따위를 통해서만 학습을 수행할 수밖에 없으며, 이에 따라 복잡한 입체도형에 관한 피학습자의 학습 욕구나 학습 이해가 떨어지게 되는 문제점이 있다.However, at present schools and academies, there are no teaching materials or tools that can make three-dimensional figure learning more efficient. Therefore, it is still necessary to perform learning only through two-dimensional plane textbooks or colored paper. There is a problem that the learner's learning desires or learning understanding is reduced.

본 발명은 상술한 바와 같은 문제점을 감안하여 착안된 것으로서, 피학습자의 학습 욕구나 학습 이해를 증진시킬 수 있는 입체도형 학습용 전자 장치를 제공하는 것을 그 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been conceived in view of the above-described problems, and an object thereof is to provide a three-dimensional figure learning electronic device capable of improving a learning desire or learning understanding of a learner.

상술한 발명의 목적을 달성하기 위해 본 발명의 바람직한 일 형태는, 입체도형 학습 기능을 제공하는 전자 장치로서, 디스플레이 화면에 나타나 있는 객체에 대한 터치 제스처를 감지하여 그 터치 제스처에 대응하는 전기 신호를 발생시키는 터치스크린부(10); 상기 터치스크린부(10)로부터 전기 신호 형태로 전송되는 터치 제스처에 대한 응답으로 상기 전자 장치로 하여금 상기 터치 제스처에 대응하는 처리 동작을 수행하도록 지시하는 일련의 인스트럭션으로 구성된 애플리케이션부(20)로서, 사용자가 선택한 입체도형에 관한 모서리 찾기 학습을 진행시키는 알고리즘으로 구성된 모서리 찾기 모듈과, 사용자가 선택한 입체도형에 관한 선긋기 학습을 진행시키는 알고리즘으로 구성된 선긋기 모듈과, 사용자가 선택한 입체도형에 관한 꼬인 위치 찾기 학습을 진행시키는 알고리즘으로 구성된 꼬인 위치 찾기 모듈과, 사용자가 선택한 입체도형에 관한 평면 찾기 학습을 진행시키는 알고리즘으로 구성된 평면 찾기 모듈과, 사용자가 선택한 입체도형에 관한 겉넓이 계산 학습을 진행시키는 알고리즘으로 구성된 겉넓이 계산 모듈과, 사용자가 선택한 입체도형에 관한 부피 계산 학습을 진행시키는 알고리즘으로 구성된 부피 계산 모듈과, 사용자가 선택한 평면도형에 관한 회전체 그리기 학습을 진행시키는 알고리즘으로 구성된 회전체 그리기 모듈 중의 하나 이상의 모듈을 포함하는, 상기 애플리케이션부(20); 상기 애플리케이션부(20)를 실행시키는 프로세서부(30); 및 상기 프로세서부(30)에 의해 처리된 데이터를 저장하는 저장부(40)를 포함하는, 입체도형 학습 기능을 제공하는 전자 장치를 제공한다.In order to achieve the above object of the present invention, a preferred embodiment of the present invention is an electronic device that provides a stereoscopic learning function, and detects a touch gesture on an object displayed on a display screen to provide an electrical signal corresponding to the touch gesture. Generating a touch screen unit 10; An application unit 20 comprising a series of instructions for instructing the electronic device to perform a processing operation corresponding to the touch gesture in response to a touch gesture transmitted from the touch screen unit 10 in the form of an electrical signal. Finding the twisted position about the 3D shape selected by the edge finder module consisting of an algorithm for advancing the corner finding learning about the user-selected solid shape, an algorithm for advancing the line drawing learning about the user-selected solid figure; Twisted position finder module composed of algorithm for progressing learning, Planar finder module composed of algorithm for progressing learning the stereoscopic figure selected by the user, and Algorithm for advancing the calculation of the surface area of the stereoscopic selected by the user. Configured One of the volume calculation module is composed of an outer area calculation module, a volume calculation module consisting of an algorithm for advancing a volume calculation learning about a user-selected solid figure, and a rotating object drawing module including an algorithm for advancing a rotating object drawing learning for a user-selected floor plan. The application unit 20, including the above module; A processor unit 30 for executing the application unit 20; And a storage unit 40 for storing the data processed by the processor unit 30, the electronic device providing a stereoscopic learning function.

바람직한 실시예에 따라, 상기 모서리 찾기 모듈은, 상기 프로세서부(30)로 하여금, (a) 기호를 선택할 수 있도록 구성된 기호 입력 가상 버튼 항목(213) 중의 특정 기호 이미지에 대한 터치앤드래그(touch and drag) 이벤트를 감지함에 따라, 상기 특정 기호 이미지를 상기 터치앤드래그 이벤트의 시작 위치로부터 종착 위치로 이동시키는 단계와, (b) 이동된 상기 특정 기호 이미지의 상기 종착 위치가 여는 괄호와 닫는 괄호 사이의 공란(empty space) 영역인지의 여부를 판정하는 단계와, (c) 이동된 상기 특정 기호 이미지의 상기 종착 위치가 상기 여는 괄호와 닫는 괄호 사이의 공란 영역인 경우, 이동된 상기 특정 기호 이미지가, 학습 기준 정보를 제공하도록 구성된 기준 입체도형 표시 항목(211)에서 제공된 기준 꼭지점 정보(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8)와 부합하는지의 여부를 판정하는 단계와, (d) 이동된 상기 특정 기호 이미지가, 상기 기준 입체도형 표시 항목(211)에서 제공된 상기 학습 기준 정보(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8)와 부합하는 경우, 상기 특정 기호 이미지를 상기 여는 괄호와 닫는 괄호 사이의 공란 영역에 표시하는 단계의 처리 동작을 수행하도록 지시하는 인스트럭션을 포함하는 것일 수 있다.According to a preferred embodiment, the corner finding module is configured to allow the processor unit 30 to (a) touch and drag a specific symbol image in a symbol input virtual button item 213 configured to select a symbol. drag) moving the particular symbol image from a start position of the touch and drag event to a destination position upon detecting an event; (b) between the opening and closing parenthesis of the destination position of the moved particular symbol image; Determining whether it is an empty space area of the step; and (c) if the destination position of the moved particular symbol image is a blank area between the opening and closing parentheses, the moved specific symbol image is , Reference vertex information 211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 21 provided in the reference stereoscopic display item 211 configured to provide learning reference information. 1a-7 and 211a-8, and (d) the shifted specific symbol image is provided with the learning reference information 211a-1, provided in the reference stereoscopic display item 211. 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8), to display the particular symbolic image in the blank area between the opening and closing parentheses It may include an instruction instructing to perform the processing operation of the step.

바람직한 실시예에 따라, 상기 선긋기 모듈은, 상기 프로세서부(30)로 하여금, (a) 사용자가 선택한 전개도 이미지를 나타내도록 구성된 전개도 학습 항목(212)에서 제공하는 상기 전개도 이미지에 대한 선분 입력을 가능하게 하는 선분 입력 가상 버튼 항목(214)에 대한 터치 이벤트를 감지하는 단계와, (b) 상기 선분 입력 가상 버튼 항목(214)이 활성화 상태에 있다는 표시를 나타내는 단계와, (c) 상기 전개도 학습 항목(212)에 제공된 상기 전개도 이미지에 관한 제 1 꼭지점 터치 이벤트를 감지하는 단계와, (d) 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점이, 학습 기준 정보를 제공하도록 구성된 기준 입체도형 표시 항목(211)에서 제공된 기준 선분 정보(211b-1, 211b-2, 211b-3) 중의 어느 하나의 기준 선분과 부합하는 꼭지점인지의 여부를 판정하는 단계와, (e) 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점이, 상기 기준 선분 정보(211b-1, 211b-2, 211b-3) 중의 어느 하나의 기준 선분과 부합하는 꼭지점인 경우 그 꼭지점을 활성화시키는 단계와, (f) 상기 전개도 학습 항목(212)에 제공된 상기 전개도 이미지에 관한 제 2 꼭지점 터치 이벤트를 감지하는 단계와, (g) 상기 제 2 꼭지점 터치 이벤트가 발생한 꼭지점과 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점을 연결하는 선분이 상기 기준 선분 정보(211b-1, 211b-2, 211b-3) 중의 어느 하나의 기준 선분과 일치하는 경우, 상기 제 2 꼭지점 터치 이벤트가 발생한 꼭지점과 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점을 연결한 선분을 상기 전개도 이미지 위에 표시하는 단계의 처리 동작을 수행하도록 지시하는 인스트럭션을 포함하는 것일 수 있다.According to a preferred embodiment, the scribing module allows the processor unit 30 to input line segments for the scene image provided by the scene learning item 212 configured to (a) display a scene image selected by the user. Detecting a touch event for the line segment input virtual button item 214, (b) indicating an indication that the line segment input virtual button item 214 is in an active state, and (c) the exploded view learning item Detecting a first vertex touch event with respect to the exploded view image provided at 212; and (d) a reference stereoscopic display item 211 configured to provide learning reference information with a vertex at which the first vertex touch event occurs. Determining whether it is a vertex corresponding to any one of the reference line segment information 211b-1, 211b-2, and 211b-3 provided by the step (e). Activating a vertex when the vertex where the first vertex touch event is a vertex corresponding to any one of the reference line segment information 211b-1, 211b-2, and 211b-3, and (f) Detecting a second vertex touch event related to the development image provided in the exploration study item 212; and (g) connecting a vertex at which the second vertex touch event occurs and a vertex at which the first vertex touch event occurs; When a line segment matches any one of the reference line segment information 211b-1, 211b-2, and 211b-3, a vertex at which the second vertex touch event occurs and a vertex at which the first vertex touch event occurs are selected. It may include an instruction for performing a processing operation of displaying the connected line segment on the developed view image.

바람직한 실시예에 따라, 상기 꼬인 위치 찾기 모듈은, 상기 프로세서부(30)로 하여금, (a) 사용자가 선택한 전개도 이미지를 나타내도록 구성된 전개도 학습 항목(212)에서 제공하는 상기 전개도 이미지에 대한 선분 입력을 가능하게 하는 선분 입력 가상 버튼 항목(214)에 대한 터치 이벤트를 감지하는 단계와, (b) 상기 선분 입력 가상 버튼 항목(214)이 활성화 상태에 있다는 표시를 나타내는 단계와, (c) 상기 전개도 학습 항목(212)에 제공된 상기 전개도 이미지에 관한 제 1 꼭지점 터치 이벤트를 감지하는 단계와, (d) 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점이, 학습 기준 정보를 제공하도록 구성된 기준 입체도형 표시 항목(211)에서 제공된 기준 선분 정보(211b'-1)와 꼬인 위치 관계를 구성하는지의 여부를 판정하는 단계와, (e) 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점이, 상기 기준 선분 정보(211b'-1)와 꼬인 위치 관계의 선분을 구성가능한 경우 그 꼭지점을 활성화시키는 단계와, (f) 상기 전개도 학습 항목(212)에 제공된 상기 전개도 이미지에 관한 제 2 꼭지점 터치 이벤트를 감지하는 단계와, (g) 상기 제 2 꼭지점 터치 이벤트가 발생한 꼭지점과 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점을 연결하는 선분이 상기 선분 정보(211b'-1)와 꼬인 위치 관계를 구성하는 경우, 상기 제 2 꼭지점 터치 이벤트가 발생한 꼭지점과 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점을 연결한 선분을 상기 전개도 이미지 위에 표시하는 단계의 처리 동작을 수행하도록 지시하는 인스트럭션을 포함하는 것일 수 있다.According to a preferred embodiment, the twisted position finding module causes the processor unit 30 to input line segments for the developed image provided by the developed learning item 212 configured to (a) display the developed image selected by the user. Detecting a touch event for the line segment input virtual button item 214 that enables the user; (b) indicating an indication that the line segment input virtual button item 214 is in an active state; and (c) the development view. Detecting a first vertex touch event relating to the exploded view image provided in the learning item 212; and (d) a vertex in which the vertex in which the first vertex touch event occurs is provided to provide learning reference information. Determining whether to form a twisted positional relationship with the reference line segment information 211b'-1 provided in 211), and (e) the first vertex touch event. Activating the vertices when the vertices in which the curves are generated form a line segment having a twisted positional relationship with the reference line segment information 211b'-1; Detecting a second vertex touch event, and (g) a line segment connecting a vertex of the second vertex touch event and a vertex of the first vertex touch event is twisted with the line segment information 211b'-1. In the case of constructing a positional relationship, an instruction for performing a processing operation of displaying a line segment connecting a vertex of the second vertex touch event and a vertex of the first vertex touch event on the developed image. It may be.

바람직한 실시예에 따라, 상기 평면 찾기 모듈은, 상기 프로세서부(30)로 하여금, (a) 텍스트를 선택할 수 있도록 구성된 텍스트 입력 가상 버튼 항목(215) 중의 특정 텍스트 이미지에 대한 터치앤드래그(touch and drag) 이벤트를 감지함에 따라, 상기 특정 텍스트 이미지를 상기 터치앤드래그 이벤트의 시작 위치로부터 종착 위치로 이동시키는 단계와, (b) 이동된 상기 특정 텍스트 이미지의 상기 종착 위치가, 학습 기준 정보를 제공하도록 구성된 기준 입체도형 표시 항목(211)에서 제공된 기준 텍스트 정보(211c-1, 211c-2, 211c-3, 211c-4)와 부합하는지의 여부를 판정하는 단계와, (c) 이동된 상기 특정 텍스트 이미지의 상기 종착 위치가, 상기 기준 입체도형 표시 항목(211)에서 제공된 상기 학습 기준 정보(211c-1, 211c-2, 211c-3, 211c-4)와 부합하는 경우, 상기 특정 텍스트 이미지를 상기 종착 위치에 표시하는 단계의 처리 동작을 수행하도록 지시하는 인스트럭션을 포함하는 것일 수 있다.According to a preferred embodiment, the plane finding module is configured to allow the processor unit 30 to (a) touch and drag a specific text image of a text input virtual button item 215 configured to select text. and dragging the specific text image from the start position of the touch and drag event to a destination position, and (b) the destination position of the moved specific text image provides learning reference information. Determining whether the reference text information 211c-1, 211c-2, 211c-3, and 211c-4 provided in the reference stereoscopic display item 211 is configured to When the destination position of the text image matches the learning reference information 211c-1, 211c-2, 211c-3, and 211c-4 provided in the reference stereoscopic display item 211, the specific text is different. If it may be to include the instruction which instructs to perform the processing operation of displaying the jongchak position.

바람직한 실시예에 따라, 상기 겉넓이 계산 모듈은, 상기 프로세서부(30)로 하여금, 사용자가 선택한 전개도 이미지를 나타내도록 구성된 전개도 학습 항목(212)과, 이동가능한 자(ruler) 이미지를 표시하도록 구성된 가상 자 항목(216)과, 숫자 또는 측정 단위를 선택할 수 있도록 구성된 숫자/단위 입력 가상 버튼 항목(217)을 포함하는 사용자 인터페이스 화면을 상기 터치스크린부(10)에 제공하도록 지시하는 인스트럭션을 포함하는 것일 수 있다.According to a preferred embodiment, the outer surface calculating module is configured to cause the processor unit 30 to display a development learning item 212 and a movable ruler image configured to display a development image selected by the user. Instructions for providing the touch screen unit 10 with a user interface screen including a virtual child item 216 and a numeric / unit input virtual button item 217 configured to select a number or a unit of measurement. It may be.

바람직한 실시예에 따라, 상기 부피 계산 모듈은, 상기 프로세서부(30)로 하여금, 내용물이 포함된 입체도형 이미지를 나타내도록 구성된 부피 학습 항목(218)과, 상기 입체도형 이미지 중의 상기 내용물의 부피를 조절가능하도록 구성된 부피 채우기 가상 버튼 항목(219)과, 숫자 또는 측정 단위를 선택할 수 있도록 구성된 숫자/단위 입력 가상 버튼 항목(217)을 포함하는 사용자 인터페이스 화면을 상기 터치스크린부(10)에 제공하도록 지시하는 인스트럭션을 포함하는 것일 수 있다.According to a preferred embodiment, the volume calculation module is configured to cause the processor unit 30 to display a volume learning item 218 configured to display a stereoscopic image including contents, and a volume of the contents in the stereoscopic image. To provide the touch screen unit 10 with a user interface screen comprising an adjustable volume fill virtual button item 219 and a numeric / unit input virtual button item 217 configured to select a number or unit of measurement. It may include instructions indicating.

바람직한 실시예에 따라, 상기 회전체 그리기 모듈은, 상기 프로세서부(30)로 하여금, 사용자가 선택한 평면도형의 이미지 또는 상기 평면도형이 회전축을 중심으로 연속 회전될 경우 생성되는 회전체의 이미지를 나타내도록 구성된 회전체 그리기 학습 항목(300)과, 다수의 평면도형 중에서 어느 하나의 평면도형을 상기 사용자가 선택할 수 있도록 구성된 도형 선택 가상 버튼 항목(310)과, 상기 회전체 그리기 학습 항목(300)에 나타나 있는 상기 평면도형의 이미지 또는 상기 회전체의 이미지에 대해 다양한 동작 명령을 입력할 수 있도록 구성된 명령 입력 가상 버튼 항목(320)을 포함하는 사용자 인터페이스 화면을 상기 터치스크린부(10)에 제공하도록 지시하는 인스트럭션을 포함하는 것일 수 있다.According to a preferred embodiment, the rotating body drawing module causes the processor unit 30 to display an image of a planar shape selected by a user or an image of a rotating body generated when the planar shape is continuously rotated about an axis of rotation. To a rotating body drawing learning item 300, a figure selection virtual button item 310 configured to allow the user to select one of a plurality of top view types, and the rotating body drawing learning item 300. Instruct the touch screen unit 10 to provide a user interface screen including a command input virtual button item 320 configured to input various operation commands with respect to the planar image or the image of the rotating body. It may be to include an instruction to.

바람직한 실시예에 따라, 상기 명령 입력 가상 버튼 항목(320)은, 회전시키기 명령 버튼(321), 위에서 보기 명령 버튼(322), 앞에서 보기 명령 버튼(323), 단면 보기 명령 버튼(324), 자유 보기 명령 버튼(325), 회전 종료시키기 명령 버튼(325)을 포함하는 것일 수 있다.According to a preferred embodiment, the command input virtual button item 320 includes a rotate command button 321, a view command button 322 from above, a view command button 323 from above, a section view command button 324, free It may include a view command button 325, the rotation end command button 325.

바람직한 실시예에 따라, 상기 단면 보기 명령 버튼(324)은 회전축을 품은 단면 보기 명령 버튼(324a)과 회전축에 수직인 단면 보기 명령 버튼(324b)을 포함하는 것일 수 있다.According to a preferred embodiment, the cross section view command button 324 may include a cross section view command button 324a having a rotation axis and a cross section view command button 324b perpendicular to the rotation axis.

도 1은 본 발명에 따른 입체도형 학습용 전자 장치의 기능 구성을 설명하기 위한 블록도.
도 2는 본 발명에 따른 입체도형 학습용 전자 장치에 있어서, 입체 도형 선택 인터페이스 화면의 일 예를 나타낸 도면.
도 3a 내지 도 3d는 본 발명에 따른 입체도형 학습용 전자 장치에 적용되는 모서리 찾기 모듈을 설명하기 위한 도면.
도 4a 내지 도 4h는 본 발명에 따른 입체도형 학습용 전자 장치에 적용되는 선긋기 모듈을 설명하기 위한 도면.
도 5a 내지 도 5g는 본 발명에 따른 입체도형 학습용 전자 장치에 적용되는 꼬인위치 찾기 모듈을 설명하기 위한 도면.
도 6a 내지 도 6e는 본 발명에 따른 입체도형 학습용 전자 장치에 적용되는 평면 찾기 모듈을 설명하기 위한 도면.
도 7a 내지 도 7c는 본 발명에 따른 입체도형 학습용 전자 장치에 적용되는 겉넓이 계산 모듈을 설명하기 위한 도면.
도 8a 내지 도 8c는 본 발명에 따른 입체도형 학습용 전자 장치에 적용되는 부피 계산 모듈을 설명하기 위한 도면.
도 9a 내지 도 9e는 본 발명에 따른 입체도형 학습용 전자 장치에 적용되는 회전체 그리기 모듈을 설명하기 위한 도면.
1 is a block diagram illustrating a functional configuration of a stereoscopic learning electronic device according to the present invention.
2 is a view showing an example of a three-dimensional figure selection interface screen in the three-dimensional figure learning electronic device according to the present invention.
3A to 3D are diagrams for explaining an edge finding module applied to a stereoscopic learning electronic device according to the present invention;
4A to 4H are diagrams for describing a scribing module applied to a stereoscopic learning electronic device according to the present invention;
5A to 5G are diagrams for explaining a twisted position finder module applied to a stereoscopic learning electronic device according to the present invention;
6A to 6E are diagrams for describing a plane finder module applied to a stereoscopic learning electronic device according to the present invention;
7A to 7C are diagrams for describing an outer surface calculation module applied to a stereoscopic learning electronic device according to the present invention.
8A to 8C are diagrams for explaining a volume calculation module applied to a stereoscopic learning electronic device according to the present invention.
9A to 9E are diagrams for describing a rotating body drawing module applied to a stereoscopic learning electronic device according to the present invention.

이하, 첨부된 도면들을 참조하여 본 발명의 구체적인 실시예들 및 그 작용들을 설명하도록 한다. 본 명세서에 기재된 실시예들은 본 발명의 이해를 돕기 위해 설명되는 것이며, 이에 의해 본 발명의 기술적 사상이 제한되는 것이 아니다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하도록 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings. The embodiments described herein are set forth to assist in understanding the present invention and are not intended to limit the scope of the present invention. In addition, in describing the present invention, when it is determined that the detailed description of the related well-known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.

도 1은 본 발명에 따른 입체도형 학습 기능을 제공하는 전자 장치(1)의 구성을 개략적으로 나타낸 블록도이다.1 is a block diagram schematically illustrating a configuration of an electronic device 1 that provides a stereoscopic learning function according to the present invention.

전자 장치(1)는 터치스크린부(10), 애플리케이션부(20), 프로세서부(30), 및 저장부(40)를 포함한다. 전자 장치(1)의 일부 실시예는 예를 들어 키보드, 마우스 등과 같은 다른 입력 장치를 포함할 수도 있다.The electronic device 1 includes a touch screen unit 10, an application unit 20, a processor unit 30, and a storage unit 40. Some embodiments of the electronic device 1 may include other input devices such as, for example, a keyboard, a mouse, and the like.

전자 장치(1)는 휴대형 전자 장치 및 비휴대형 전자 장치를 모두 포함할 수 있다.The electronic device 1 may include both a portable electronic device and a non-portable electronic device.

예를 들어, 전자 장치(1)는 태블릿 PC, 노트북 컴퓨터, 개인용 컴퓨터, 스마트폰, PDA를 포함하는 개념이지만, 이하에서는 전자 장치(1)가 태블릿 PC인 것을 가정하여 본 발명을 설명하도록 한다.For example, the electronic device 1 is a concept including a tablet PC, a notebook computer, a personal computer, a smartphone, and a PDA. Hereinafter, the present invention will be described on the assumption that the electronic device 1 is a tablet PC.

터치스크린부(10)는 디스플레이 화면에 나타난 숫자, 문자, 기호 또는 아이콘을 포함하는 객체의 특정 위치에 대한 접촉을 감지하여 그 접촉에 대응하는 동작 처리를 수행할 수 있도록 하는 입출력 수단이다. 즉, 터치스크린부(10)는 본 발명에 따른 입체도형 학습 기능을 제공하는 전자 장치(1)의 각종 기능들, 예컨대 모서리 찾기 기능, 선긋기 기능, 꼬인위치 기능, 평면 찾기 기능, 겉넓이 계산 기능, 부피 계산 기능, 및 회전체 그리기 기능을 수행하기 위한 입력부의 역할을 수행한다. 이를 위해, 터치스크린부(10)는 디스플레이 화면으로부터 감지한 제스처를 나타내는 전기신호를 발생시키고, 이 전기신호를 프로세서부(30)에 제공하는 동작을 수행한다.The touch screen unit 10 is an input / output unit that detects a contact of a specific position of an object including a number, a letter, a symbol, or an icon displayed on a display screen and performs an operation process corresponding to the contact. That is, the touch screen unit 10 includes various functions of the electronic device 1 providing the three-dimensional drawing learning function according to the present invention, for example, a corner search function, a line drawing function, a twisted position function, a plane search function, and an area calculation function. , An input unit for performing a volume calculation function, and a rotating body drawing function. To this end, the touch screen unit 10 generates an electrical signal indicating a gesture detected from the display screen, and performs the operation of providing the electrical signal to the processor unit 30.

또한, 터치스크린부(10)는 프로세서부(30)에 의해 처리된 결과 화면을 외부로 출력하는 동작을 수행한다. 예를 들어, 터치스크린부(10)는 애플리케이션부(20)가 제공하는 입체도형 학습 관련 인터페이스 화면을 디스플레이할 수 있다. 예를 들어, 입체도형 학습 관련 인터페이스 화면은 사용자의 터치 입력에 따라 입체도형 학습 기능을 실행시키는 소정 영역의 제스처 검출존을 포함할 수 있다.In addition, the touch screen unit 10 performs an operation of outputting a result screen processed by the processor unit 30 to the outside. For example, the touch screen unit 10 may display a stereoscopic learning related interface screen provided by the application unit 20. For example, the 3D learning related interface screen may include a gesture detection zone of a predetermined region for executing the 3D learning function according to a user's touch input.

터치스크린부(10)는 프로세서부(30)의 제어에 따라, 전자 장치(1) 사용자에게 입체도형 학습 관련 인터페이스 화면의 출력을 제공한다. 예를 들어, 터치스크린부(10)가 제공하는 입체도형 학습 관련 인터페이스 화면은 입체도형 학습을 유도하는 텍스트 데이터, 그래픽 이미지 데이터 등을 포함할 수 있다.The touch screen unit 10 provides an output of a stereoscopic learning related interface screen to a user of the electronic device 1 under the control of the processor unit 30. For example, the stereoscopic learning related interface screen provided by the touch screen unit 10 may include text data, graphic image data, and the like for inducing stereoscopic learning.

애플리케이션부(20)는 터치스크린부(10)로부터 전기 신호 형태로 전송되는 터치 제스처에 대한 응답으로, 각각의 이벤트에 대응하는 입체도형 학습 과정을 터치스크린부(10)에 제공하도록 프로세서부(30)에 지시를 내리는 프로그램이다. 여기서, 터치 제스처란 터치스크린부(10)를 통한 명령 입력을 위한 터치 동작을 말하는 것으로, 두드리기(tapping), 미끄러지기(sliding, 드래그), 집기(pinching) 등의 터치 동작 제스처를 포함할 수 있다.The application unit 20 may provide a three-dimensional diagram learning process corresponding to each event to the touch screen unit 10 in response to a touch gesture transmitted from the touch screen unit 10 in the form of an electric signal. Is a program that gives instructions to). Here, the touch gesture refers to a touch operation for inputting a command through the touch screen unit 10 and may include a touch action gesture such as tapping, sliding, dragging, and pinching. .

애플리케이션부(20)는 터치스크린부(10)로부터 전기 신호 형태로 전송되는 터치 제스처에 대한 응답으로 프로세서부(30)로 하여금 상기 터치 제스처에 대응하는 처리 동작을 수행하도록 지시하는 일련의 인스트럭션으로 구성된다. 바람직한 실시예에 따라, 애플리케이션부(20)는 사용자가 선택한 입체도형에 관한 모서리 찾기 학습을 진행시키는 알고리즘으로 구성된 모서리 찾기 모듈(21)과, 사용자가 선택한 입체도형에 관한 선긋기 학습을 진행시키는 알고리즘으로 구성된 선긋기 모듈(22)과, 사용자가 선택한 입체도형에 관한 꼬인 위치 찾기 학습을 진행시키는 알고리즘으로 구성된 꼬인 위치 찾기 모듈(23)과, 사용자가 선택한 입체도형에 관한 평면 찾기 학습을 진행시키는 알고리즘으로 구성된 평면 찾기 모듈(24)과, 사용자가 선택한 입체도형에 관한 겉넓이 계산 학습을 진행시키는 알고리즘으로 구성된 겉넓이 계산 모듈(25)과, 사용자가 선택한 입체도형에 관한 부피 계산 학습을 진행시키는 알고리즘으로 구성된 부피 계산 모듈(26)과, 사용자가 선택한 평면도형에 관한 회전체 그리기 학습을 진행시키는 알고리즘으로 구성된 회전체 그리기 모듈(27)을 포함하여 구성될 수 있다.The application unit 20 includes a series of instructions for instructing the processor unit 30 to perform a processing operation corresponding to the touch gesture in response to a touch gesture transmitted from the touch screen unit 10 in the form of an electrical signal. do. According to a preferred embodiment, the application unit 20 is an edge search module 21 composed of an algorithm for advancing the corner finding learning about the three-dimensional figure selected by the user, and the algorithm for advancing the line learning for the three-dimensional figure selected by the user A twisted position finder module 23 composed of a line drawing module 22, an algorithm for progressing the twisted position search learning about the stereoscopic shape selected by the user, and an algorithm for progressing the plane search learning about the solid shape selected by the user. It is composed of an area calculation module 25 composed of a plane finder module 24, an algorithm for advancing an outer surface calculation learning about a user-selected solid figure, and an algorithm for advancing the volume calculation learning for a user-selected solid figure. Volume calculation module 26 and a rotating body of the user-selected plan view type It may be configured to include a rotating body drawing module 27 composed of an algorithm for advancing drawing learning.

애플리케이션부(20)를 구성하는 각각의 모듈들(21~27)에 대한 세부 구성은 도 2 내지 도 9의 관련 부분에서 상세하게 설명하도록 한다.Detailed configuration of each of the modules 21 to 27 constituting the application unit 20 will be described in detail in the relevant parts of FIGS. 2 to 9.

프로세서부(30)는 애플리케이션부(20)를 구성하는 각각의 모듈들(21~27)을 실행하기 위한 범용 마이크로프로세서, 마이크로제어기, 디지털 신호 프로세서 등일 수 있다.The processor unit 30 may be a general-purpose microprocessor, a microcontroller, a digital signal processor, or the like for executing each of the modules 21 to 27 constituting the application unit 20.

프로세서부(30)의 세부 구성은 본 발명이 속한 전자 장치 관련 기술분야에서 잘 알려져 있으며, 일반적으로 버스에 의해 상호 연결되는 실행유닛, 인스트럭션 디코딩, 레지스터, 메모리, 입/출력 포트 등을 포함할 수 있다.The detailed configuration of the processor unit 30 is well known in the art related to the electronic device to which the present invention pertains, and may include execution units, instruction decoding, registers, memory, input / output ports, and the like, which are generally interconnected by a bus. have.

데이터 저장부(40)는 프로세서부(30)에 의해 처리된 중간 데이터 또는 최종 데이터를 저장하며, 예를 들어 자기 저장소(예를 들면, 하드 디스크, 플로피 디스크, 테이프 등), 광학 저장소(예를 들면, 컴팩 디스크, 디지털 비디오 디스크 등), 또는 반도체 메모리(예를 들면, 정적 또는 동적 임의 액세스 메모리("SRAM" 또는 "DRAM"), 판독전용 메모리("ROM"), 플래시 메모리, 자기 임의 액세스 메모리("MRAM") 등을 포함할 수 있다.The data storage unit 40 stores intermediate data or final data processed by the processor unit 30, for example, magnetic storage (eg, hard disk, floppy disk, tape, etc.), optical storage (eg, For example, compact discs, digital video discs, etc., or semiconductor memory (eg, static or dynamic random access memory ("SRAM" or "DRAM"), read-only memory ("ROM"), flash memory, magnetic random access). Memory ("MRAM") and the like.

애플리케이션부(20)는 도 2에 나타낸 바와 같이 사용자가 다수의 입체도형(A, B, C...) 중의 특정 입체도형을 선택할 수 있도록 지원하는 사용자 인터페이스 화면(2a)을 제공한다.As shown in FIG. 2, the application unit 20 provides a user interface screen 2a that allows a user to select a specific three-dimensional figure among a plurality of three-dimensional figures A, B, and C..

일 실시예에서, 애플리케이션부(20)는 도 2의 사용자 인터페이스 화면(2a)에 제공된 다수의 입체도형(A, B, C...) 중의 특정 입체도형, 예를 들면 정육면체(B)를 선택하는 이벤트 신호를 감지하는 경우, 사용자가 그 특정 입체도형(B)에 관한 모서리 찾기 학습과정(10), 선긋기 학습과정(20), 꼬인위치 찾기 학습과정(30), 평면 찾기 학습과정(40), 겉넓이 계산 학습과정(50), 부피 계산 학습과정(60), 및 회전체 그리기 학습과정(70) 중의 어느 하나의 학습과정을 선택할 수 있도록 지원하는 가상 버튼들을 제공할 수 있다. In one embodiment, the application unit 20 selects a particular stereogram, for example a cube B, from among a plurality of stereograms A, B, C ... provided on the user interface screen 2a of FIG. When the user detects an event signal, the user finds a corner finding learning process 10, a drawing learning process 20, a twisted position finding learning process 30, and a planar finding learning process 40 about the specific solid figure B. The virtual buttons may be provided to assist in selecting any one of a learning process, a surface calculation learning process 50, a volume calculation learning process 60, and a rotating body drawing learning process 70.

일 실시예에서, 애플리케이션부(20)는 학습과정을 선택할 수 있도록 구성된 가상 버튼들(10~70) 중의 모서리 학습과정 가상 버튼(10)을 선택하는 이벤트 신호를 감지한 경우, 모서리 찾기 모듈(21)의 인스트럭션을 실행시킬 수 있다. 모서리 찾기 모듈(21)은, 예를 들어 도 3a 내지 도 3e에 나타낸 바와 같이, 사용자가 그 특정 입체도형(B)에 관한 모서리 찾기 학습과정(10)을 수행할 수 있도록 지원하는 인스트럭션들을 포함할 수 있다.In one embodiment, when the application unit 20 detects an event signal for selecting the corner learning process virtual button 10 among the virtual buttons 10 to 70 configured to select the learning process, the corner finding module 21. ) Instructions can be executed. The corner finder module 21 may include instructions for assisting a user to perform the corner find learning process 10 for the specific solid figure B as shown, for example, in FIGS. 3A-3E. Can be.

다른 실시예에서, 애플리케이션부(20)는 도 2의 사용자 인터페이스 화면(2a)에 제공된 다수의 입체도형(A, B, C...) 중의 특정 입체도형, 예를 들면 정육면체(B)를 선택하는 이벤트 신호를 감지하는 경우, 모서리 찾기 모듈(21)을 자동으로 호출함으로써, 도 3a 내지 도 3e에 나타낸 바와 같이, 사용자가 특정 입체도형(B)에 관한 모서리 찾기 학습과정(10)을 수행할 수 있도록 지원하는 사용자 인터페이스 화면을 자동으로 제공할 수 있다.In another embodiment, the application unit 20 selects a particular stereogram, for example a cube B, from among the plurality of stereograms A, B, C ... provided on the user interface screen 2a of FIG. When detecting the event signal, the edge finder module 21 is automatically called, so that the user can perform the corner finder learning process 10 for the specific solid figure B as shown in FIGS. 3A to 3E. It can automatically provide a user interface screen that supports this.

도 3a 내지 도 3e를 참조하면, 프로세서부(30)는 모서리 찾기 모듈(21)의 인스트럭션에 따라 기준 입체도형 표시 항목(211)과, 전개도 학습 항목(212)과, 기호 입력 가상 버튼 항목(213)을 포함하는 사용자 인터페이스 화면(2b)을 제공한다. 또한, 프로세서부(30)는 모서리 찾기 모듈(21)의 인스트럭션에 따라, 상기 기준 입체도형 표시 항목(211)에 나타나 있는 입체도형에 관한 다수의 전개도 이미지를 제공하는 전개도 선택 항목(3; 3a, 3b)을 더 제공할 수 있다. 아래에서 더 상세히 설명되는 바와 같이, 상기 기준 입체도형 표시 항목(211)에 나타나 있는 입체도형에 관한 다수의 전개도 이미지는 상기 전개도 선택 항목(3)을 선택하는 이벤트 신호를 감지하는 경우, 상기 사용자 인터페이스 화면(2b) 상에 오버랩되는 별도의 화면창을 통하여 제공될 수 있다.Referring to FIGS. 3A through 3E, the processor unit 30 displays the reference stereoscopic display item 211, the developed view learning item 212, and the symbol input virtual button item 213 according to the instructions of the corner finder module 21. It provides a user interface screen (2b) comprising a). In addition, the processor unit 30 may provide, according to the instructions of the edge finder module 21, a development plan selection item 3 (3a, 3a), which provides a plurality of development view images of the stereogram shown in the reference stereoscopic display item 211. 3b) may be further provided. As will be described in more detail below, the plurality of exploded view images of the three-dimensional diagram shown in the reference three-dimensional drawing display item 211 detects an event signal for selecting the development view selection item 3, the user interface. It may be provided through a separate screen window overlapping on the screen 2b.

바람직한 실시예에 따라, 기준 입체도형 표시 항목(211)에는 전술한 도 2에 나타낸 사용자 인터페이스 화면(2a)을 통해 선택된 특정 입체도형(예를 들면 정육면체(B))에 관한 학습 기준 정보(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8)가 포함되어 있다. 예를 들어, 상기 특정 입체도형(B)에 관한 학습 기준 정보(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8)는 상기 특정 입체도형(B)을 구성하는 각각의 꼭지점에 대해 부여한 임의의 기준 기호일 수 있다. 여기서, 상기 특정 입체도형(B)에 부여된 학습 기준 정보(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8)는, 전개도 학습 항목(212)을 통해 나타나는 소정 전개도 이미지(212a) 상에서 대응하는 입체도형(B)의 꼭지점을 입력하기 위한 기준 꼭지점 정보가 된다.According to a preferred embodiment, the reference stereoscopic display item 211 includes learning reference information 211a-regarding a specific stereoscopic shape (for example, a cube B) selected through the user interface screen 2a shown in FIG. 2 described above. 1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8). For example, the learning reference information 211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, and 211a-8 regarding the specific solid figure B may be It may be any reference symbol given to each vertex constituting the specific solid figure (B). Here, the learning reference information 211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, and 211a-8 provided to the specific solid figure B, It becomes reference vertex information for inputting a vertex of the corresponding three-dimensional figure B on the predetermined development image 212a shown through the development diagram learning item 212.

바람직한 실시예에 따라, 전개도 학습 항목(212)에는 상기 특정 입체도형(B)에 관한 소정 전개도 이미지(212a)가 포함되어 있고, 상기 소정 전개도 이미지(212a)에는 상기 기준 입체도형 표시 항목(211)을 통해 나타나 있는 상기 특정 입체도형(B)에 관한 학습 기준 정보(예컨대, 기준 꼭지점 정보)(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8)와 부합하는 정보(예컨대, 기준 꼭지점 정보와 대응하는 기호 정보)(212a-1, 212a-2, 212a-3, 212a-4, 212a-5, 212a-6)가 부분적으로 부여되어 있으며, 또한, 상기 기준 입체도형 표시 항목(211)을 통해 나타나 있는 상기 특정 입체도형(B)에 관한 학습 기준 정보(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8)와 부합하는 정보(꼭지점 정보)를 입력하도록 하는 공란(empty space)이 부분적으로 부여되어 있다.According to a preferred embodiment, an exploded view learning item 212 includes a predetermined developed view image 212a relating to the specific three-dimensional drawing B, and the predetermined developed view image 212a includes the reference three-dimensional drawing display item 211. Learning criterion information (eg, reference vertex information) related to the specific three-dimensional figure (B) shown through 211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a- 7, 211a-8 (for example, reference vertex information and corresponding symbol information) 212a-1, 212a-2, 212a-3, 212a-4, 212a-5, and 212a-6 partially. Learning reference information 211a-1, 211a-2, 211a-3, 211a-4, and 211a-related to the specific three-dimensional drawing B, which are assigned and are displayed through the reference three-dimensional drawing display item 211. 5, 211a-6, 211a-7, and 211a-8 are partially assigned an empty space for inputting information (vertex information).

바람직한 실시예에 따라, 기호 입력 가상 버튼 항목(213)에는 드래그 방식으로 이동 가능한 다수의 텍스트 이미지(도면에서는 자음 텍스트 이미지)가 포함되도록 구성할 수 있다.According to an exemplary embodiment, the symbol input virtual button item 213 may be configured to include a plurality of text images (consonant text images in the drawing) that can be moved in a dragging manner.

바람직한 실시예에 따라, 전개도 선택 항목(3; 3a, 3b)은 전술한 도 2에 나타낸 사용자 인터페이스 화면(2a)을 통해 선택된 특정 입체도형(예를 들면 정육면체(B))에 관한 다수의 전개도 이미지를 보여주고, 이에 따라, 학습자로 하여금 상기 다수의 전개도 이미지 중의 특정 전개도 이미지를 선택할 수 있도록 구성할 수 있다.According to a preferred embodiment, the exploded view selection items 3 (3a, 3b) are a plurality of exploded view images for a particular solid figure (e.g., cube B) selected via the user interface screen 2a shown in FIG. And, accordingly, learners can select a specific scene image from among the plurality of scene images.

예를 들어, 전개도 선택 항목(3)을 활성화시키는 가상 버튼(3a)에 대한 터치 이벤트 신호를 감지하는 경우, 프로세서부(30)는 모서리 찾기 모듈(21)의 인스트럭션에 따라, 상기 특정 입체도형(B)에 관한 다수의 전개도 이미지(3b-1, 3b-2, 3b-3, 3b-4, 3b-5, 3b-6, 3b-7, 3b-8, 3b-9, 3b-10)를 축소 나열한 미리보기 화면창(3b)을 제공할 수 있다(도 3b 참조).For example, when detecting a touch event signal for the virtual button 3a for activating the exploded view selection item 3, the processor unit 30 according to the instruction of the corner finder module 21, the specific stereoscopic figure ( Multiple development images (3b-1, 3b-2, 3b-3, 3b-4, 3b-5, 3b-6, 3b-7, 3b-8, 3b-9, 3b-10) for B) It is possible to provide a preview screen window 3b with a narrow list (see FIG. 3B).

예를 들어, 상기 특정 입체도형(B)에 관한 다수의 전개도 이미지(3b-1, 3b-2, 3b-3, 3b-4, 3b-5, 3b-6, 3b-7, 3b-8, 3b-9, 3b-10) 중의 특정 전개도 이미지(예를 들면, 전개도 이미지(3b-5))에 대한 터치 이벤트 신호를 감지하는 경우, 프로세서부(30)는 모서리 찾기 모듈(21)의 인스트럭션에 따라, 전개도 학습 항목(212)에 나타나 있는 전개도 이미지(212a)를 상기 터치 이벤트 신호가 감지된 전개도 이미지(3b-5)로 변환시키는 동작을 수행할 수 있다(도 3c 참조).For example, a plurality of developed image 3b-1, 3b-2, 3b-3, 3b-4, 3b-5, 3b-6, 3b-7, 3b-8, for the specific stereogram (B) When detecting a touch event signal with respect to a specific development image (eg, development image 3b-5) in 3b-9 and 3b-10, the processor unit 30 transmits an instruction to the instruction of the edge finder module 21. Accordingly, an operation of converting the developed image 212a shown in the developed pattern learning item 212 into the developed image 3b-5 in which the touch event signal is detected may be performed (see FIG. 3C).

모서리 찾기 모듈(21)의 인스트럭션에 따른 프로세서부(30)의 처리 알고리즘의 일 예를 설명하면 다음과 같다.An example of a processing algorithm of the processor unit 30 according to the instruction of the edge finder module 21 will be described below.

프로세서부(30)는 모서리 찾기 모듈(21)의 인스트럭션에 따라, (a) 기호를 선택할 수 있도록 구성된 기호 입력 가상 버튼 항목(213) 중의 특정 텍스트 이미지에 대한 터치앤드래그(touch and drag) 이벤트를 감지함에 따라, 상기 특정 텍스트 이미지를 시작 위치로부터 종착 위치로 이동시키는 단계와, (b) 이동된 상기 특정 텍스트 이미지의 상기 종착 위치가 여는 괄호와 닫는 괄호 사이의 공란(empty space) 영역인지의 여부를 판정하는 단계와, (c) 이동된 상기 특정 텍스트 이미지의 상기 종착 위치가 상기 여는 괄호와 닫는 괄호 사이의 공란 영역인 경우, 이동된 상기 특정 텍스트 이미지가, 기준 입체도형 표시 항목(211)에서 제공된 기준 꼭지점 정보(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8)와 부합하는지의 여부를 판정하는 단계와, (d) 이동된 상기 특정 텍스트 이미지가, 기준 입체도형 표시 항목(211)에서 제공된 기준 꼭지점 정보(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8)와 부합하는 경우, 상기 특정 텍스트 이미지를 상기 여는 괄호와 닫는 괄호 사이의 공란 영역에 표시하는 단계의 처리 동작을 수행할 수 있다.The processor unit 30 performs a touch and drag event on a specific text image in the symbol input virtual button item 213 configured to select a symbol according to the instruction of the corner finder module 21. Upon detection, moving the particular text image from a starting position to a destination position, and (b) whether the destination position of the moved particular text image is an empty space area between an opening and closing parenthesis. And (c) when the destination position of the shifted specific text image is a blank area between the opening and closing parentheses, the shifted specific text image is determined in the reference stereoscopic display item 211. Determining whether the reference vertex information 211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, and 211a-8 is provided, and (d ) The specific tech moved Image vertex information (211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8) provided by the reference stereoscopic display item 211. In response to, the processing of displaying the specific text image in the blank area between the opening and closing parentheses may be performed.

일 실시예에서, 프로세서부(30)는 모서리 찾기 모듈(21)의 인스트럭션에 따라, 상기 (b) 단계에서의 판정 결과, 이동된 상기 특정 텍스트 이미지의 상기 종착 위치가 여는 괄호와 닫는 괄호 사이의 공란 영역이 아닌 경우 상기 특정 텍스트 이미지를 소멸시키는 처리 동작을 수행할 수 있다.In one embodiment, the processor unit 30, according to the instructions of the corner finder module 21, determines that the end position of the shifted specific text image between the opening and closing parentheses as a result of the determination in step (b). If it is not the blank area, a processing operation for destroying the specific text image may be performed.

또한, 일 실시예에서, 프로세서부(30)는 모서리 찾기 모듈(21)의 인스트럭션에 따라, 상기 (c) 단계에서의 판정 결과, 이동된 상기 특정 텍스트 이미지가 기준 입체도형 표시 항목(211)에서 제공된 기준 꼭지점 정보(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8)와 부합하지 않는 경우 상기 특정 텍스트 이미지를 소멸시키는 처리 동작을 수행할 수 있다.Further, in one embodiment, the processor unit 30, according to the instructions of the corner finder module 21, as a result of the determination in the step (c), the moved specific text image in the reference stereoscopic display item 211 Processing to destroy the specific text image if it does not match the provided reference vertex information 211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8 You can perform the operation.

또한, 일 실시예에서, 프로세서부(30)는 모서리 찾기 모듈(21)의 인스트럭션에 따라, 상기 (d) 단계 이후에, 전개도 학습 항목(212)에서 제공된 전개도 이미지(212a)에 관한 공란들이 모두 채워졌는지의 여부를 판정하는 단계의 동작을 더 수행할 수 있다.Further, in one embodiment, the processor unit 30, according to the instructions of the corner finder module 21, after the step (d), all of the blanks for the developed image 212a provided in the developed pattern learning item 212 The operation of determining whether it is filled may be further performed.

예를 들어, 프로세서부(30)는 모서리 찾기 모듈(21)의 인스트럭션에 따라, 상기 전개도 학습 항목(212)에서 제공된 전개도 이미지(212a)에 관한 공란들이 모두 채워진 것으로 판정된 경우, 상기 전개도 이미지(212a)를 다른 형상의 전개도 이미지(212b)로 자동으로 전환하는 처리 동작을 수행할 수 있다.For example, when it is determined that all of the blanks of the development image 212a provided by the development learning item 212 are filled in according to the instruction of the corner finding module 21, the processor unit 30 may generate the development image ( A processing operation may be performed to automatically convert 212a to a developed view image 212b of another shape.

이에 따라, 피학습자는 자신이 선택한 특정 입체도형에 대하여 여러 가지 전개도 상에서 모서리 찾기 학습 과정을 반복 수행할 수 있다.
Accordingly, the learner may repeatedly perform the edge finding learning process on various developments with respect to a specific three-dimensional figure selected by the learner.

또한, 애플리케이션부(20)는 상기 가상 버튼들(10~70) 중의 선긋기 학습과정 가상 버튼(20)을 선택하는 이벤트 신호를 감지한 경우, 선긋기 모듈(22)의 인스트럭션을 실행시킨다. 선긋기 모듈(22)은, 예를 들어 도 4a 내지 도 4h에 나타낸 바와 같이, 사용자가 특정 입체도형(B)에 관한 선긋기 학습과정(10)을 수행할 수 있도록 지원하는 인스트럭션들을 포함할 수 있다.In addition, when the application unit 20 detects an event signal for selecting the virtual learning line 20 among the virtual buttons 10 to 70, the application unit 20 executes an instruction of the linearization module 22. The scribing module 22 may include instructions to assist the user to perform the scribing learning process 10 for a specific three-dimensional figure B, for example, as shown in FIGS. 4A-4H.

도 4a 내지 도 4h를 참조하면, 프로세서부(30)는 선긋기 모듈(22)의 인스트럭션에 따라 기준 입체도형 표시 항목(211)과, 전개도 학습 항목(212)과, 선분 입력 가상 버튼 항목(214)을 포함하는 사용자 인터페이스 화면을 제공한다. 또한, 프로세서부(30)는 선긋기 모듈(22)의 인스트럭션에 따라, 상기 기준 입체도형 표시 항목(211)에 나타나 있는 입체도형에 관한 다수의 전개도 이미지를 제공하는 전개도 선택 항목(3; 3a, 3b)을 더 제공할 수 있다.4A to 4H, the processor unit 30 displays the reference stereoscopic display item 211, the developed view learning item 212, and the line segment input virtual button item 214 according to the instruction of the line drawing module 22. It provides a user interface screen including a. Further, the processor unit 30 provides a development plan selection item (3; 3a, 3b) which provides a plurality of development view images of the stereogram shown in the reference stereoscopic display item 211 according to the instruction of the line drawing module 22. ) Can be provided further.

아래에서 더 상세히 설명되는 바와 같이, 상기 기준 입체도형 표시 항목(211)에 나타나 있는 입체도형에 관한 다수의 전개도 이미지는 상기 전개도 선택 항목(3; 3a, 3b)을 선택하는 이벤트 신호를 감지하는 경우, 사용자 인터페이스 화면상에 오버랩되는 별도의 화면창을 통하여 제공될 수 있다.As will be described in more detail below, when a plurality of exploded views of the three-dimensional diagram shown in the reference three-dimensional drawing display item 211 detect an event signal for selecting the development plan selection items 3; 3a and 3b. The user interface may be provided through a separate screen window overlapping the user interface screen.

바람직한 실시예에 따라, 기준 입체도형 표시 항목(211)에는 전술한 도 2에 나타낸 사용자 인터페이스 화면(2a)을 통해 선택된 특정 입체도형(예를 들면 정육면체(B))에 관한 학습 기준 정보(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211b-1, 211b-2, 211b-3)가 포함되어 있다. 예를 들어, 상기 특정 입체도형(B)에 관한 학습 기준 정보(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211b-1, 211b-2, 211b-3)는 상기 특정 입체도형(B)을 구성하는 각각의 꼭지점에 대해 부여한 임의의 기준 기호 정보(이하, 기준 꼭지점 정보라 칭할 경우도 있음)(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8)와 소정의 선분 정보(이하, 기준 선분 정보라 칭할 경우도 있음)(211b-1, 211b-2, 211b-3)를 포함한다. 여기서, 상기 특정 입체도형(B)에 부여된 학습 기준 정보(즉, 기준 꼭지점 정보와 기준 선분 정보)(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211b-1, 211b-2, 211b-3)는, 전개도 학습 항목(212)을 통해 나타나는 전개도 이미지(212a') 상에서 대응하는 입체도형(B)의 선분을 입력하기 위한 기준이 된다.According to a preferred embodiment, the reference stereoscopic display item 211 includes learning reference information 211a-regarding a specific stereoscopic shape (for example, a cube B) selected through the user interface screen 2a shown in FIG. 2 described above. 1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211b-1, 211b-2, 211b-3). For example, the learning reference information 211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, and 211b regarding the specific solid figure (B). -1, 211b-2 and 211b-3 are arbitrary reference symbol information (hereinafter sometimes referred to as reference vertex information) given to each vertex constituting the specific solid figure B (211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, and predetermined line segment information (hereinafter sometimes referred to as reference line segment information) (211b-1, 211b-2, 211b-3). Here, learning reference information (ie, reference vertex information and reference line segment information) assigned to the specific solid figure B (211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6) , 211a-7, 211a-8, 211b-1, 211b-2, and 211b-3 input a line segment of the corresponding solid figure B on the developed image 212a 'shown through the developed pattern learning item 212. It is a standard for doing so.

바람직한 실시예에 따라, 전개도 학습 항목(212)에는 상기 특정 입체도형(B)에 관한 소정 전개도 이미지(212a')가 포함되어 있고, 상기 소정 전개도 이미지(212a')에는 상기 기준 입체도형 표시 항목(211)을 통해 나타나 있는 상기 특정 입체도형(B)에 관한 학습 기준 정보(예컨대, 각각의 꼭지점에 대한 기호 정보인 기준 꼭지점 정보와 소정 꼭지점 두 개를 각각 연결하는 소정 개수의 선분들인 기준 선분 정보)(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211b-1, 211b-2, 211b-3)와 부합하는 정보(예컨대, 기준 꼭지점 정보)(212a-1, 212a-2, 212a-3, 212a-4, 212a-5, 212a-6)가 부분적으로 부여되어 있다.According to a preferred embodiment, an exploded view learning item 212 includes a predetermined developed view image 212a 'relating to the specific three-dimensional drawing B, and the predetermined developed view image 212a' includes the reference three-dimensional drawing display item ( Learning reference information (eg, reference vertex information, which is symbol information for each vertex, and reference segment information, which is a predetermined number of segments connecting two predetermined vertices, respectively) for the specific solid figure B shown through 211). Information corresponding to (211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211b-1, 211b-2, 211b-3) (E.g., reference vertex information) 212a-1, 212a-2, 212a-3, 212a-4, 212a-5, and 212a-6 are partially provided.

바람직한 실시예에 따라, 프로세서부(30)는 선긋기 모듈(22)의 인스트럭션에 따라, 선분 입력 가상 버튼 항목(214)에 대한 터치 이벤트 신호를 감지하는 경우, 전개도 학습 항목(212)을 통해 나타나 있는 전개도 이미지(212a', 212b', 212c')를 선분 입력 가능한 상태(즉, 활성상태)로 전환하고(도 4b 내지 도 4h), 다시 한번 선분 입력 가상 버튼 항목(214)에 대한 터치 이벤트 신호를 감지하는 경우, 전개도 학습 항목(212)을 통해 나타나 있는 전개도 이미지(212a')를 선분 입력 불가능한 상태(즉, 비활성상태)로 전환한다(도 4a).According to an exemplary embodiment, when the processor unit 30 detects a touch event signal for the line segment input virtual button item 214 according to the instruction of the line drawing module 22, the processor unit 30 may be displayed through the developed view learning item 212. Switching the exploded view images 212a ', 212b', and 212c 'into a line segment inputable state (i.e., active state) (FIGS. 4B-4H), and once again a touch event signal for line segment input virtual button item 214. When sensing, the scene image 212a ′ shown through the scene learning item 212 is switched to a non-segmentable state (ie, inactive) (FIG. 4A).

바람직한 실시예에 따라, 전개도 선택 항목(3; 3a, 3b)은 전술한 도 2에 나타낸 사용자 인터페이스 화면(2a)을 통해 선택된 특정 입체도형(예를 들면 정육면체(B))에 관한 다수의 전개도 이미지를 보여주고, 이에 따라, 학습자로 하여금 상기 다수의 전개도 이미지 중의 특정 전개도 이미지를 선택할 수 있도록 구성할 수 있다. 예를 들어, 전개도 선택 항목(3)을 활성화시키는 가상 버튼(3a)에 대한 터치 이벤트 신호를 감지하는 경우, 프로세서부(30)는 선 긋기 모듈(22)의 인스트럭션에 따라, 상기 특정 입체도형(B)에 관한 다수의 전개도 이미지(3b-1, 3b-2, 3b-3, 3b-4, 3b-5, 3b-6, 3b-7, 3b-8, 3b-9, 3b-10)를 축소 나열한 미리보기 화면창(3b)을 제공할 수 있다(도 4c 참조).According to a preferred embodiment, the exploded view selection items 3 (3a, 3b) are a plurality of exploded view images for a particular solid figure (e.g., cube B) selected via the user interface screen 2a shown in FIG. And, accordingly, learners can select a specific scene image from among the plurality of scene images. For example, when detecting a touch event signal for the virtual button 3a for activating the exploded view selection item 3, the processor unit 30 according to the instruction of the line drawing module 22, the specific stereoscopic figure ( Multiple development images (3b-1, 3b-2, 3b-3, 3b-4, 3b-5, 3b-6, 3b-7, 3b-8, 3b-9, 3b-10) for B) It is possible to provide a preview screen window 3b with a narrow list (see FIG. 4C).

예를 들어, 상기 특정 입체도형(B)에 관한 다수의 전개도 이미지(3b-1, 3b-2, 3b-3, 3b-4, 3b-5, 3b-6, 3b-7, 3b-8, 3b-9, 3b-10) 중의 특정 전개도 이미지(예를 들면, 전개도 이미지(3b-5))에 대한 터치 이벤트 신호를 감지하는 경우, 프로세서부(30)는 선 긋기 모듈(22)의 인스트럭션에 따라, 전개도 학습 항목(212)에 나타나 있는 전개도 이미지(212a')를 상기 터치 이벤트 신호가 감지된 전개도 이미지(3b-5)로 변환시키는 동작을 수행할 수 있다(도 4d 참조).For example, a plurality of developed image 3b-1, 3b-2, 3b-3, 3b-4, 3b-5, 3b-6, 3b-7, 3b-8, for the specific stereogram (B) When detecting a touch event signal with respect to a specific development image (for example, development image 3b-5) in 3b-9 and 3b-10, the processor unit 30 controls the instruction of the line drawing module 22. Accordingly, an operation of converting the development image 212a ′ shown in the development learning item 212 into the development image 3b-5 in which the touch event signal is detected may be performed (see FIG. 4D).

이제, 선 긋기 모듈(22)의 인스트럭션에 따른 프로세서부(30)의 처리 알고리즘의 일 예를 설명하면 다음과 같다.An example of a processing algorithm of the processor unit 30 according to the instruction of the line drawing module 22 will now be described.

프로세서부(30)는 선 긋기 모듈(22)의 인스트럭션에 따라, (a) 선분 입력 가상 버튼 항목(214)에 대한 터치 이벤트를 감지하는 단계와, (b) 상기 선분 입력 가상 버튼 항목(214)이 활성화 상태에 있다는 표시를 나타내는 단계(도 4e 참조)와, (c) 전개도 학습 항목(212)에 제공된 전개도 이미지(212b')에 관한 제 1 꼭지점 터치 이벤트를 감지하는 단계와, (d) 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점이, 기준 입체도형 표시 항목(211)에서 제공된 기준 선분 정보(211b-1, 211b-2, 211b-3)와 부합하는지의 여부를 판정하는 단계와, (e) 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점이, 기준 입체도형 표시 항목(211)에서 제공된 기준 선분 정보(211b-1, 211b-2, 211b-3)와 부합하는 경우 그 꼭지점을 활성화시키는 단계와, (f) 전개도 학습 항목(212)에 제공된 전개도 이미지(212b')에 관한 제 2 꼭지점 터치 이벤트를 감지하는 단계와, (g) 상기 제 2 꼭지점 터치 이벤트가 발생한 꼭지점이, 기준 입체도형 표시 항목(211)에서 제공된 기준 선분 정보(211b-1, 211b-2, 211b-3)와 부합하는 경우 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점과 상기 제 2 꼭지점 터치 이벤트가 발생한 꼭지점을 연결하는 선분을 발생시키는 단계(도 4f)의 처리 동작을 수행할 수 있다.The processor unit 30 detects a touch event for the line segment input virtual button item 214 according to the instruction of the line drawing module 22, and (b) the line segment input virtual button item 214. Indicating an indication that the device is in an active state (see FIG. 4E), (c) detecting a first vertex touch event relating to a scene image 212b 'provided in the scene learning item 212, and (d) Determining whether the vertex at which the first vertex touch event has occurred matches the reference line segment information 211b-1, 211b-2, and 211b-3 provided in the reference stereoscopic display item 211; and (e) Activating a vertex when the vertex at which the first vertex touch event occurs matches the reference line information 211b-1, 211b-2, and 211b-3 provided in the reference stereoscopic display item 211; f) for a scene image 212b 'provided in the scene learning item 212 Detecting a second vertex touch event; and (g) the reference line segment information 211b-1, 211b-2, and 211b-3 provided with the reference stereoscopic display item 211, wherein the vertex of the second vertex touch event has occurred. ) And generating a line segment connecting the vertex of the first vertex touch event and the vertex of the second vertex touch event (FIG. 4F).

일 실시예에서, 프로세서부(30)는 선 긋기 모듈(22)의 인스트럭션에 따라, 상기 (g) 단계 이후에, 기준 입체도형 표시 항목(211)에서 제공된 기준 선분 정보(211b-1, 211b-2, 211b-3)가 전개도 학습 항목(212)에 제공된 전개도 이미지(212b')상에 모두 표시되었는지의 여부를 판정하는 단계의 동작을 더 수행할 수 있다.In one embodiment, the processor unit 30, according to the instructions of the line drawing module 22, after the step (g), the reference line segment information 211b-1, 211b- provided in the reference stereoscopic display item 211. 2, 211b-3 may further perform an operation of determining whether or not all of the 211b-3 are displayed on the scene image 212b ′ provided to the scene learning item 212.

예를 들어, 프로세서부(30)는 선 긋기 모듈(22)의 인스트럭션에 따라, 상기 기준 입체도형 표시 항목(211)에서 제공된 기준 선분 정보(211b-1, 211b-2, 211b-3)가 전개도 학습 항목(212)에 제공된 전개도 이미지(212b')상에 모두 표시된 것으로 판정된 경우, 상기 전개도 이미지(212b')(도 4g 참조)를 다른 형상의 전개도 이미지(212c')(도 4h 참조)로 자동으로 전환하는 처리 동작을 수행할 수 있다.For example, the processor unit 30 expands the reference line segment information 211b-1, 211b-2, and 211b-3 provided by the reference stereoscopic display item 211 according to the instruction of the line drawing module 22. FIG. If it is determined that all of them are displayed on the development image 212b 'provided in the learning item 212, the development image 212b' (see FIG. 4G) is converted into another development image 212c '(see FIG. 4H). Processing operations that switch automatically can be performed.

이에 따라, 피학습자는 자신이 선택한 입체도형에 대하여 여러 가지 전개도 상에서 선 긋기 학습 과정을 반복 수행할 수 있다.
Accordingly, the learner can repeatedly perform the line drawing learning process on various developed views for the three-dimensional figure selected by the learner.

또한, 애플리케이션부(20)는 상기 가상 버튼들(10~70) 중의 꼬인 위치 찾기 학습과정 가상 버튼(30)을 선택하는 이벤트 신호를 감지한 경우, 꼬인 위치 찾기 모듈(23)의 인스트럭션을 실행시킨다. 꼬인 위치 찾기 모듈(23)은, 예를 들어 도 5a 내지 도 5g에 나타낸 바와 같이, 사용자가 특정 입체도형(B)에 관한 꼬인 위치 찾기 학습과정(30)을 수행할 수 있도록 지원하는 인스트럭션들을 포함할 수 있다.In addition, when the application unit 20 detects an event signal for selecting the twisted position finding learning process virtual button 30 among the virtual buttons 10 to 70, executes the instruction of the twisted position finding module 23. . The twisted position finder module 23 includes instructions for assisting a user to perform the twisted position finding learning process 30 for a particular solid figure B, as shown, for example, in FIGS. 5A-5G. can do.

도 5a 내지 도 5g를 참조하면, 프로세서부(30)는 꼬인 위치 찾기 모듈(23)의 인스트럭션에 따라 기준 입체도형 표시 항목(211)과, 전개도 학습 항목(212)과, 선분 입력 가상 버튼 항목(214)을 포함하는 사용자 인터페이스 화면을 제공한다. 또한, 프로세서부(30)는 꼬인 위치 찾기 모듈(23)의 인스트럭션에 따라, 상기 기준 입체도형 표시 항목(211)에 나타나 있는 입체도형(B)에 관한 다수의 전개도 이미지를 제공하는 전개도 선택 항목(3; 3a, 3b)을 더 제공할 수 있다.5A to 5G, the processor unit 30 includes a reference stereoscopic display item 211, a developed view learning item 212, and a line segment input virtual button item according to the instructions of the twisted position finding module 23. A user interface screen including 214 is provided. In addition, the processor unit 30 may provide a development plan selection item that provides a plurality of development view images of the three-dimensional drawing B shown in the reference three-dimensional drawing display item 211 according to the instructions of the twisted position finding module 23. 3; 3a, 3b) may be further provided.

아래에서 더 상세히 설명되는 바와 같이, 상기 기준 입체도형 표시 항목(211)에 나타나 있는 입체도형에 관한 다수의 전개도 이미지는 상기 전개도 선택 항목(3)을 선택하는 이벤트 신호를 감지하는 경우, 사용자 인터페이스 화면상에 오버랩되는 별도의 화면창을 통하여 제공될 수 있다.As will be described in more detail below, the user interface screen when a plurality of exploded view images of the three-dimensional drawing shown in the reference three-dimensional drawing display item 211 detects an event signal for selecting the development view selection item 3. It may be provided through a separate screen window overlapping the image.

바람직한 실시예에 따라, 기준 입체도형 표시 항목(211)에는 전술한 도 2에 나타낸 사용자 인터페이스 화면(2a)을 통해 선택된 특정 입체도형(예를 들면 정육면체(B))에 관한 학습 기준 정보(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211b'-1)가 포함되어 있다. 예를 들어, 상기 특정 입체도형(B)에 관한 학습 기준 정보(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211b'-1)는 상기 특정 입체도형(B)을 구성하는 각각의 꼭지점에 대해 부여한 임의의 기준 기호 정보(이하, 기준 꼭지점 정보라 칭할 경우도 있음)(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8)와 소정의 꼬인 위치 찾기용 기준 선분 정보(211b'-1)를 포함한다. 여기서, 상기 특정 입체도형(B)에 부여된 학습 기준 정보(즉, 기준 꼭지점 정보 및 기준 선분 정보)(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211b'-1)는, 전개도 학습 항목(212)을 통해 나타나는 전개도 이미지(212a'') 상에서 대응하는 입체도형(B)의 꼬인 위치를 입력하기 위한 기준이 된다.According to a preferred embodiment, the reference stereoscopic display item 211 includes learning reference information 211a-regarding a specific stereoscopic shape (for example, a cube B) selected through the user interface screen 2a shown in FIG. 2 described above. 1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211b'-1). For example, the learning reference information 211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, and 211b regarding the specific solid figure (B). '-1) is arbitrary reference symbol information (hereinafter sometimes referred to as reference vertex information) given to each vertex constituting the specific solid figure B (211a-1, 211a-2, 211a-3). , 211a-4, 211a-5, 211a-6, 211a-7, and 211a-8) and reference line information 211b'-1 for finding a predetermined twisted position. Here, learning reference information (ie, reference vertex information and reference line segment information) assigned to the specific solid figure B (211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6) , 211a-7, 211a-8, and 211b'-1 serve as a reference for inputting a twisted position of the corresponding solid figure B on the developed image 212a '' shown through the developed pattern learning item 212. .

바람직한 실시예에 따라, 전개도 학습 항목(212)에는 상기 특정 입체도형(B)에 관한 소정 전개도 이미지(212a'')가 포함되어 있고, 상기 소정 전개도 이미지(212a'')에는 상기 기준 입체도형 표시 항목(211)을 통해 나타나 있는 상기 특정 입체도형(B)에 관한 학습 기준 정보(예컨대, 각각의 꼭지점에 대한 기호 정보인 기준 꼭지점 정보 및 소정 꼭지점 두 개를 연결한 꼬인 위치 찾기용 기준 선분 정보)(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211b'-1)와 부합하는 정보(212a''-1, 212a''-2, 212a''-3, 212a''-4, LC)가 부분적으로 부여되어 있다.According to a preferred embodiment, an exploded view learning item 212 includes a predetermined developed view image 212a '' relating to the specific stereogram B, and the predetermined developed image 212a '' displays the reference stereogram. Learning criterion information about the specific solid figure B represented through the item 211 (for example, reference vertex information which is symbol information for each vertex and reference segment information for finding a twisted position connecting two predetermined vertices) Information 212a ''-1, 212a consistent with (211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211b'-1) '' -2, 212a ''-3, 212a ''-4, LC) are partially given.

바람직한 실시예에 따라, 프로세서부(30)는 꼬인 위치 찾기 모듈(23)의 인스트럭션에 따라, 선분 입력 가상 버튼 항목(214)에 대한 터치 이벤트 신호를 감지하는 경우, 전개도 학습 항목(212)을 통해 나타나 있는 전개도 이미지(212a'', 212b'', 212c'')를 선분 입력 가능한 상태(즉, 활성상태)로 전환하고(도 5b 내지 도 5g), 다시 한번 선분 입력 가상 버튼 항목(214)에 대한 터치 이벤트 신호를 감지하는 경우, 전개도 학습 항목(212)을 통해 나타나 있는 전개도 이미지(212a'')를 선분 입력 불가능한 상태(즉, 비활성상태)로 전환한다(도 5a).According to a preferred embodiment, when the processor unit 30 detects a touch event signal for the line segment input virtual button item 214 according to the instruction of the twisted position finder module 23, the processor unit 30 receives the developed pattern learning item 212. Switch the developed view images 212a '', 212b '', and 212c '' to a line segment input state (i.e., active state) (FIGS. 5B-5G), and once again to the line segment input virtual button item 214. In response to detecting a touch event signal, the scene image 212a ″ displayed through the scene learning item 212 is switched to a state where a line segment cannot be input (that is, in an inactive state) (FIG. 5A).

바람직한 실시예에 따라, 전개도 선택 항목(3)은 전술한 도 2에 나타낸 사용자 인터페이스 화면(2a)을 통해 선택된 특정 입체도형(예를 들면 정육면체(B))에 관한 다수의 전개도 이미지를 보여주고, 이에 따라, 학습자로 하여금 상기 다수의 전개도 이미지 중의 특정 전개도 이미지를 선택할 수 있도록 구성할 수 있다. 예를 들어, 전개도 선택 항목(3)을 활성화시키는 가상 버튼(3a)에 대한 터치 이벤트 신호를 감지하는 경우, 프로세서부(30)는 꼬인 위치 찾기 모듈(23)의 인스트럭션에 따라, 상기 특정 입체도형(B)에 관한 다수의 전개도 이미지(3b-1, 3b-2, 3b-3, 3b-4, 3b-5, 3b-6, 3b-7, 3b-8, 3b-9, 3b-10)를 축소 나열한 미리보기 화면창(3b)을 제공할 수 있다(도 5c 참조).According to a preferred embodiment, the exploded view selection item 3 shows a plurality of exploded view images about a specific solid figure (for example, a cube B) selected through the user interface screen 2a shown in FIG. 2 described above. Accordingly, the learner may be configured to select a specific scene image among the plurality of scene images. For example, when detecting a touch event signal for the virtual button 3a that activates the exploded view selection item 3, the processor unit 30 according to the instruction of the twisted position finding module 23, the specific stereoscopic figure. Multiple development image (3b-1, 3b-2, 3b-3, 3b-4, 3b-5, 3b-6, 3b-7, 3b-8, 3b-9, 3b-10) for (B) It is possible to provide a preview screen window (3b) of a narrow list of (see Fig. 5c).

예를 들어, 상기 특정 입체도형(B)에 관한 다수의 전개도 이미지(3b-1, 3b-2, 3b-3, 3b-4, 3b-5, 3b-6, 3b-7, 3b-8, 3b-9, 3b-10) 중의 특정 전개도 이미지(예를 들면, 전개도 이미지(3b-5))에 대한 터치 이벤트 신호를 감지하는 경우, 프로세서부(30)는 꼬인 위치 찾기 모듈(23)의 인스트럭션에 따라, 전개도 학습 항목(212)에 나타나 있는 전개도 이미지(212a'')를 상기 터치 이벤트 신호가 감지된 전개도 이미지(3b-5)로 변환시키는 동작을 수행할 수 있다(도 5d 참조).For example, a plurality of developed image 3b-1, 3b-2, 3b-3, 3b-4, 3b-5, 3b-6, 3b-7, 3b-8, for the specific stereogram (B) When detecting a touch event signal for a specific development image (eg, development image 3b-5) in 3b-9 and 3b-10, the processor unit 30 instructs instructions of the twisted position finding module 23. As a result, an operation of converting the development image 212a ″ shown in the development training item 212 into the development image 3b-5 in which the touch event signal is detected may be performed (see FIG. 5D).

이제, 꼬인 위치 찾기 모듈(23)의 인스트럭션에 따른 프로세서부(30)의 처리 알고리즘의 일 예를 설명하면 다음과 같다.Now, an example of a processing algorithm of the processor unit 30 according to the instruction of the twisted position finding module 23 will be described.

프로세서부(30)는 꼬인 위치 찾기 모듈(23)의 인스트럭션에 따라, (a) 선분 입력 가상 버튼 항목(214)에 대한 터치 이벤트를 감지하는 단계와, (b) 상기 선분 입력 가상 버튼 항목(214)이 활성화 상태에 있다는 표시를 나타내는 단계(도 5e 참조)와, (c) 전개도 학습 항목(212)에 제공된 전개도 이미지(212b'')에 관한 제 1 꼭지점 터치 이벤트를 감지하는 단계와, (d) 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점이, 기준 입체도형 표시 항목(211)에서 제공된 기준 선분 정보(211b'-1)와 꼬인 위치 관계를 구성하는지의 여부를 판정하는 단계와, (e) 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점이, 기준 입체도형 표시 항목(211)에서 제공된 기준 선분 정보(211b'-1)와 꼬인 위치 관계를 구성하는 경우 그 꼭지점을 활성화시키는 단계와, (f) 전개도 학습 항목(212)에 제공된 전개도 이미지(212b'')에 관한 제 2 꼭지점 터치 이벤트를 감지하는 단계와, (g) 상기 제 2 꼭지점 터치 이벤트가 발생한 꼭지점이, 기준 입체도형 표시 항목(211)에서 제공된 기준 선분 정보(211b'-1)와 꼬인 위치 관계를 구성하는 경우 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점과 상기 제 2 꼭지점 터치 이벤트가 발생한 꼭지점을 연결하는 선분을 발생시키는 단계(도 5f)의 처리 동작을 수행할 수 있다.The processor unit 30 detects a touch event for the line segment input virtual button item 214 according to the instruction of the twisted position finding module 23, and (b) the line segment input virtual button item 214. (C) detecting the first vertex touch event for the exploded view image 212b '' provided in the exploration study item 212, and (d) Determining whether or not a vertex in which the first vertex touch event has occurred constitutes a twisted positional relationship with the reference line information 211b'-1 provided in the reference stereoscopic display item 211, and (e) the Activating a vertex when the vertex in which the first vertex touch event occurs has a twisted positional relationship with the reference line information 211b'-1 provided in the reference stereoscopic display item 211; and (f) learning a developed view. Deployment provided for item 212 Detecting a second vertex touch event with respect to the image 212b ", and (g) the vertex at which the second vertex touch event occurred, the reference line segment information 211b'- provided in the reference stereoscopic display item 211; In the case of configuring a twisted position relationship with 1), a processing operation of generating a line segment connecting the vertex of the first vertex touch event and the vertex of the second vertex touch event may be performed (FIG. 5F).

일 실시예에서, 프로세서부(30)는 꼬인 위치 찾기 모듈(23)의 인스트럭션에 따라, 상기 (g) 단계 이후에, 기준 입체도형 표시 항목(211)에서 제공된 기준 선분 정보(211b'-1)와 꼬인 위치에 있는 선분이 전개도 이미지(212b'')상에 모두 표시되었는지의 여부를 판정하는 단계의 동작을 더 수행할 수 있다.In one embodiment, the processor unit 30, according to the instructions of the twisted position finding module 23, after the step (g), the reference line segment information 211b'-1 provided in the reference stereoscopic display item 211. The operation of determining whether or not the line segments in the twisted position and are all displayed on the developed view image 212b ″.

예를 들어, 프로세서부(30)는 꼬인 위치 찾기 모듈(23)의 인스트럭션에 따라, 상기 기준 입체도형 표시 항목(211)에서 제공된 기준 선분 정보(211b'-1)와 꼬인 위치에 있는 선분이 전개도 이미지(212b'')상에 모두 표시된 것으로 판정된 경우, 상기 전개도 이미지(212b'')(도 5f 참조)를 다른 형상의 전개도 이미지(212c'')(도 5g 참조)로 자동으로 전환하는 처리 동작을 수행할 수 있다.For example, the processor unit 30 develops a line segment in a twisted position with the reference line segment information 211b'-1 provided in the reference stereoscopic display item 211 according to the instruction of the twisted position finding module 23. If it is determined that all of the images are displayed on the image 212b '', the process of automatically converting the development image 212b '' (see FIG. 5F) into a development image 212c '' (see FIG. 5G) of another shape. You can perform the operation.

이에 따라, 피학습자는 자신이 선택한 입체도형에 대하여 여러 가지 전개도 상에서 꼬인 위치 찾기 학습 과정을 반복 수행할 수 있다.
Accordingly, the learner may repeatedly perform the location-finding learning process twisted on various developments with respect to the three-dimensional figure selected by the learner.

또한, 애플리케이션부(20)는 상기 가상 버튼들(10~70) 중의 평면 찾기 학습과정 가상 버튼(40)을 선택하는 이벤트 신호를 감지한 경우, 평면 찾기 모듈(24)의 인스트럭션을 실행시킨다. 평면 찾기 모듈(24)은, 예를 들어 도 6a 내지 도 6e에 나타낸 바와 같이, 사용자가 특정 입체도형(B)에 관한 평면 찾기 학습과정(40)을 수행할 수 있도록 지원하는 인스트럭션들을 포함할 수 있다.In addition, when the application unit 20 detects an event signal for selecting the plane search learning process virtual button 40 among the virtual buttons 10 to 70, the application unit 20 executes an instruction of the plane search module 24. The planar finder module 24 may include instructions to assist a user to perform the planar finder learning process 40 for a particular solid figure B, as shown, for example, in FIGS. 6A-6E. have.

도 6a 내지 도 6e를 참조하면, 프로세서부(30)는 평면 찾기 모듈(24)의 인스트럭션에 따라 기준 입체도형 표시 항목(211)과, 전개도 학습 항목(212)과, 텍스트 입력 가상 버튼 항목(215)을 포함하는 사용자 인터페이스 화면을 제공한다. 또한, 프로세서부(30)는 평면 찾기 모듈(24)의 인스트럭션에 따라, 상기 기준 입체도형 표시 항목(211)에 나타나 있는 입체도형에 관한 다수의 전개도 이미지를 제공하는 전개도 선택 항목(3; 3a, 3b)을 더 제공할 수 있다.6A to 6E, the processor unit 30 displays the reference stereoscopic display item 211, the exploded view learning item 212, and the text input virtual button item 215 according to the instructions of the planar search module 24. Provides a user interface screen including). In addition, the processor unit 30 may provide, according to the instructions of the planar search module 24, a development plan selection item (3; 3a), which provides a plurality of development view images of the stereogram shown in the reference stereoscopic display item 211. 3b) may be further provided.

아래에서 더 상세히 설명되는 바와 같이, 상기 기준 입체도형 표시 항목(211)에 나타나 있는 입체도형에 관한 다수의 전개도 이미지는 상기 전개도 선택 항목(3)을 선택하는 이벤트 신호를 감지하는 경우, 사용자 인터페이스 화면상에 오버랩되는 별도의 화면창을 통하여 제공될 수 있다.As will be described in more detail below, the user interface screen when a plurality of exploded view images of the three-dimensional drawing shown in the reference three-dimensional drawing display item 211 detects an event signal for selecting the development view selection item 3. It may be provided through a separate screen window overlapping the image.

바람직한 실시예에 따라, 기준 입체도형 표시 항목(211)에는 전술한 도 2에 나타낸 사용자 인터페이스 화면(2a)을 통해 선택된 특정 입체도형(예를 들면 정육면체(B))에 관한 학습 기준 정보(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211c-1, 211c-2, 211c-3, 211c-4)가 포함되어 있다. 예를 들어, 상기 특정 입체도형(B)에 관한 학습 기준 정보(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211c-1, 211c-2, 211c-3, 211c-4)는 상기 특정 입체도형(B)을 구성하는 각각의 꼭지점에 대해 부여한 임의의 기준 기호 정보(이하, 기준 꼭지점 정보라 칭할 경우도 있음)(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8)와 소정의 평면상의 텍스트 정보(이하, 기준 텍스트 정보라 칭할 경우도 있음)(211c-1, 211c-2, 211c-3, 211c-4)를 포함한다. 여기서, 상기 특정 입체도형(B)에 부여된 학습 기준 정보(즉, 기준 꼭지점 정보 및 기준 텍스트 정보)(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211c-1, 211c-2, 211c-3, 211c-4)는, 전개도 학습 항목(212)을 통해 나타나는 전개도 이미지(212a''', 212b''') 상에서 대응하는 입체도형(B)의 텍스트를 입력하기 위한 기준이 된다.According to a preferred embodiment, the reference stereoscopic display item 211 includes learning reference information 211a-regarding a specific stereoscopic shape (for example, a cube B) selected through the user interface screen 2a shown in FIG. 2 described above. 1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211c-1, 211c-2, 211c-3, 211c-4). . For example, the learning reference information 211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211c about the specific solid figure (B). -1, 211c-2, 211c-3, and 211c-4 include arbitrary reference symbol information (hereinafter, sometimes referred to as reference vertex information) given to each vertex constituting the specific solid figure B ( 211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, and 211a-8 and text information on a predetermined plane (hereinafter referred to as reference text information) (211c-1, 211c-2, 211c-3, 211c-4). Here, the learning reference information (ie, reference vertex information and reference text information) assigned to the specific solid figure B (211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6) , 211a-7, 211a-8, 211c-1, 211c-2, 211c-3, and 211c-4, on the scene images 212a '' 'and 212b' '' that appear through the scene learning item 212. It becomes a reference for inputting the text of the corresponding three-dimensional figure (B).

바람직한 실시예에 따라, 전개도 학습 항목(212)에는 상기 특정 입체도형(B)에 관한 소정 전개도 이미지(212a''')가 포함되어 있고, 상기 소정 전개도 이미지(212a''')에는 상기 기준 입체도형 표시 항목(211)을 통해 나타나 있는 상기 특정 입체도형(B)에 관한 학습 기준 정보(예컨대, 각각의 꼭지점에 대한 기호 정보인 기준 꼭지점 정보 및 소정 평면상의 텍스트 정보인 기준 텍스트 정보)(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211c-1, 211c-2, 211c-3, 211c-4)와 부합하는 정보(212a'''-1, 212a'''-2, 212a'''-3, 212a'''-4, TC)가 부분적으로 부여되어 있다.According to a preferred embodiment, the exploded view learning item 212 includes a predetermined developed image 212a '' 'for the specific solid figure B, and the predetermined developed image 212a' '' includes the reference stereoscopic image. Learning reference information (e.g., reference vertex information that is symbol information for each vertex and reference text information that is text information on a predetermined plane) related to the specific three-dimensional figure B displayed through the graphic display item 211 (211a-). 1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8, 211c-1, 211c-2, 211c-3, 211c-4) (212a '' '-1, 212a' ''-2, 212a '' '-3, 212a' ''-4, TC) are partially given.

바람직한 실시예에 따라, 텍스트 입력 가상 버튼 항목(215)에는 드래그 방식으로 이동 가능한 다수의 텍스트 이미지가 포함되도록 구성할 수 있다.According to a preferred embodiment, the text input virtual button item 215 may be configured to include a plurality of text images that can be moved in a dragging manner.

바람직한 실시예에 따라, 전개도 선택 항목(3)은 전술한 도 2에 나타낸 사용자 인터페이스 화면(2a)을 통해 선택된 특정 입체도형(예를 들면 정육면체(B))에 관한 다수의 전개도 이미지를 보여주고, 이에 따라, 학습자로 하여금 상기 다수의 전개도 이미지 중의 특정 전개도 이미지를 선택할 수 있도록 구성할 수 있다.According to a preferred embodiment, the exploded view selection item 3 shows a plurality of exploded view images about a specific solid figure (for example, a cube B) selected through the user interface screen 2a shown in FIG. 2 described above. Accordingly, the learner may be configured to select a specific scene image among the plurality of scene images.

예를 들어, 전개도 선택 항목(3)을 활성화시키는 가상 버튼(3a)에 대한 터치 이벤트 신호를 감지하는 경우, 프로세서부(30)는 평면 찾기 모듈(24)의 인스트럭션에 따라, 상기 특정 입체도형(B)에 관한 다수의 전개도 이미지(3b-1, 3b-2, 3b-3, 3b-4, 3b-5, 3b-6, 3b-7, 3b-8, 3b-9, 3b-10)를 축소 나열한 미리보기 화면창(3b)을 제공할 수 있다(도 6b 참조).For example, when detecting a touch event signal for the virtual button 3a for activating the exploded view selection item 3, the processor unit 30 according to the instruction of the plane finder module 24, the specific stereoscopic figure ( Multiple development images (3b-1, 3b-2, 3b-3, 3b-4, 3b-5, 3b-6, 3b-7, 3b-8, 3b-9, 3b-10) for B) It is possible to provide a preview screen window 3b with a narrow list (see FIG. 6B).

예를 들어, 상기 특정 입체도형(B)에 관한 다수의 전개도 이미지(3b-1, 3b-2, 3b-3, 3b-4, 3b-5, 3b-6, 3b-7, 3b-8, 3b-9, 3b-10) 중의 특정 전개도 이미지(예를 들면, 전개도 이미지(3b-5))에 대한 터치 이벤트 신호를 감지하는 경우, 프로세서부(30)는 모서리 찾기 모듈(21)의 인스트럭션에 따라, 전개도 학습 항목(212)에 나타나 있는 전개도 이미지(212a''')를 상기 터치 이벤트 신호가 감지된 전개도 이미지(3b-5)로 변환시키는 동작을 수행할 수도 있다.For example, a plurality of developed image 3b-1, 3b-2, 3b-3, 3b-4, 3b-5, 3b-6, 3b-7, 3b-8, for the specific stereogram (B) When detecting a touch event signal with respect to a specific development image (eg, development image 3b-5) in 3b-9 and 3b-10, the processor unit 30 transmits an instruction to the instruction of the edge finder module 21. Accordingly, an operation of converting the development image 212a '' 'shown in the development training item 212 into the development image 3b-5 in which the touch event signal is detected may be performed.

이제, 평면 찾기 모듈(24)의 인스트럭션에 따른 프로세서부(30)의 처리 알고리즘의 일 예를 설명하면 다음과 같다.Now, an example of a processing algorithm of the processor unit 30 according to the instruction of the plane finder module 24 will be described.

프로세서부(30)는 평면 찾기 모듈(24)의 인스트럭션에 따라, (a) 텍스트 입력 가상 버튼 항목(215) 중의 특정 텍스트 이미지에 대한 터치앤드래그(touch and drag) 이벤트를 감지함에 따라, 상기 특정 텍스트 이미지를 시작 위치로부터 종착 위치로 이동시키는 단계와, (b) 이동된 상기 특정 텍스트 이미지의 상기 종착 위치가 기준 입체도형 표시 항목(211)에서 제공된 평면 기준 정보(211c-1, 211c-2, 211c-3, 211c-4)와 부합하는지의 여부를 판정하는 단계와, (c) 이동된 상기 특정 텍스트 이미지의 상기 종착 위치가 기준 입체도형 표시 항목(211)에서 제공된 기준 텍스트 정보(211c-1, 211c-2, 211c-3, 211c-4)와 부합하는 경우, 상기 특정 텍스트 이미지를 상기 종착 위치에 표시하는 단계의 처리 동작을 수행할 수 있다.The processor unit 30 detects a touch and drag event for a specific text image in the text input virtual button item 215 according to the instruction of the plane finder module 24. Moving the text image from the start position to the end position; and (b) the planar reference information 211c-1, 211c-2, wherein the end position of the moved specific text image is provided in the reference stereoscopic display item 211. 211c-3, 211c-4), and (c) the reference text information 211c-1 in which the destination position of the moved specific text image is provided in the reference stereoscopic display item 211. , 211c-2, 211c-3, and 211c-4) may perform the processing operation of displaying the specific text image at the destination position.

일 실시예에서, 프로세서부(30)는 평면 찾기 모듈(24)의 인스트럭션에 따라, 상기 (b) 단계에서의 판정 결과, 이동된 상기 특정 텍스트 이미지의 상기 종착 위치가 기준 입체도형 표시 항목(211)에서 제공된 기준 텍스트 정보(211c-1, 211c-2, 211c-3, 211c-4)와 부합하지 않는 경우, 상기 특정 텍스트 이미지를 소멸시키는 처리 동작을 수행할 수 있다.According to an instruction of the plane finder module 24, the processor unit 30 determines that the destination position of the moved specific text image is the reference stereoscopic display item 211 as a result of the determination in step (b). If the reference text information 211c-1, 211c-2, 211c-3, and 211c-4 provided in FIG. 2 does not match, a processing operation for destroying the specific text image can be performed.

또한, 일 실시예에서, 프로세서부(30)는 평면 찾기 모듈(24)의 인스트럭션에 따라, 상기 (c) 단계 이후에, 기준 입체도형 표시 항목(211)에서 제공된 기준 텍스트 정보(211c-1, 211c-2, 211c-3, 211c-4)가 전개도 학습 항목(212)에 제공된 전개도 이미지(212a''')상에 모두 표시되었는지의 여부를 판정하는 단계의 동작을 더 수행할 수 있다.Further, in one embodiment, the processor unit 30, according to the instructions of the plane search module 24, after the step (c), the reference text information 211c-1, provided in the reference stereoscopic display item 211, The operation of determining whether 211c-2, 211c-3, and 211c-4 are all displayed on the development image 212a '' 'provided in the development training item 212 may be performed.

예를 들어, 프로세서부(30)는 평면 찾기 모듈(24)의 인스트럭션에 따라, 상기 기준 입체도형 표시 항목(211)에서 제공된 기준 텍스트 정보(211c-1, 211c-2, 211c-3, 211c-4)가 전개도 학습 항목(212)에 제공된 전개도 이미지(212a''')상에 모두 표시된 것으로 판정된 경우, 상기 전개도 이미지(212a''')(도 6d 참조)를 다른 형상의 전개도 이미지(212b''')(도 6e 참조)로 자동으로 전환하는 처리 동작을 수행할 수 있다.For example, the processor unit 30 may refer to the reference text information 211c-1, 211c-2, 211c-3, and 211c-provided by the reference stereoscopic display item 211 according to the instruction of the plane search module 24. If 4) is determined to be displayed on all of the development image 212a '' 'provided in the development diagram learning item 212, the development image 212a' '' (see FIG. 6D) is a development image 212b of another shape. '' '(See FIG. 6E) can be performed automatically.

이에 따라, 피학습자는 자신이 선택한 입체도형에 대하여 여러 가지 전개도 상에서 평면 찾기 학습 과정을 반복 수행할 수 있다.
Accordingly, the learner may repeat the planar search learning process on various developed views with respect to the three-dimensional figure selected by the learner.

또한, 애플리케이션부(20)는 상기 가상 버튼들(10~70) 중의 겉넓이 계산 학습과정 가상 버튼(50)을 선택하는 이벤트 신호를 감지한 경우, 겉넓이 계산 모듈(25)의 인스트럭션을 실행시킨다. 겉넓이 계산 모듈(25)은, 예를 들어 도 7a 내지 도 7c에 나타낸 바와 같이, 사용자가 특정 입체도형(B)에 관한 겉넓이 계산 학습과정(50)을 수행할 수 있도록 지원하는 인스트럭션들을 포함할 수 있다.In addition, when the application unit 20 detects an event signal for selecting the outer area calculation learning process virtual button 50 among the virtual buttons 10 to 70, the application unit 20 executes an instruction of the outer area calculation module 25. . The outer surface calculation module 25 includes instructions for assisting a user to perform the outer surface calculation learning process 50 for a specific solid figure B, as shown, for example, in FIGS. 7A-7C. can do.

도 7a 내지 도 7를 참조하면, 프로세서부(30)는 겉넓이 계산 모듈(25)의 인스트럭션에 따라 전개도 학습 항목(212)과, 가상 자 항목(216)과, 숫자/단위 입력 가상 버튼 항목(217)을 포함하는 사용자 인터페이스 화면을 제공한다. 또한, 프로세서부(30)는 겉넓이 계산 모듈(25)의 인스트럭션에 따라, 다수의 전개도 이미지를 제공하는 전개도 선택 항목(3; 3a, 3b)을 더 제공할 수 있다.Referring to FIGS. 7A to 7, the processor unit 30 may develop a learning plan item 212, a virtual ruler item 216, and a numeric / unit input virtual button item according to the instructions of the outer area calculation module 25. A user interface screen including 217 is provided. In addition, the processor unit 30 may further provide development view selection items 3 (3a and 3b) that provide a plurality of development view images according to the instructions of the surface area calculation module 25.

도 7b에 나타낸 바와 같이, 상기 다수의 전개도 이미지는 상기 전개도 선택 항목(3)을 선택하는 이벤트 신호를 감지하는 경우, 사용자 인터페이스 화면상에 오버랩되는 별도의 화면창을 통하여 제공될 수 있다.As illustrated in FIG. 7B, when detecting an event signal for selecting the development view selection item 3, the plurality of development view images may be provided through a separate screen window overlapping the user interface screen.

바람직한 실시예에 따라, 전개도 학습 항목(212)에는 특정 입체도형(B)에 관한 소정 전개도 이미지(212B)와, 상기 전개도 이미지(212B)의 넓이 및 측정 단위를 입력할 수 있도록 지원하는 여는 괄호와 닫는 괄호 사이의 공란(empty space) 영역(212A)이 포함되어 있다.According to a preferred embodiment, the exploded view learning item 212 includes a predetermined exploded view image 212B relating to a specific solid figure B, an opening parenthesis to assist in inputting a width and a unit of measurement of the developed view image 212B. An empty space area 212A is included between the closing parenthesis.

바람직한 실시에에 따라, 가상 자 항목(216)에는 터치 앤 드래그 방식으로 이동 가능한 자 형상의 이미지가 포함되어 있다.According to a preferred embodiment, the virtual ruler item 216 includes an image of a ruler shape which can be moved in a touch and drag manner.

바람직한 실시예에 따라, 숫자/단위 입력 가상 버튼 항목(217)에는 소정 갯수의 숫자 이미지와 넓이에 관한 측정 단위 이미지가 포함되어 있다.According to a preferred embodiment, the number / unit input virtual button item 217 includes a predetermined number of numerical images and unit of measure images for width.

바람직한 실시예에 따라, 숫자/단위 입력 가상 버튼 항목(217) 내의 소정 숫자 이미지 또는 측정 단위 이미지를 터치하는 경우, 그 숫자 이미지 또는 측정 단위 이미지가 여는 괄호와 닫는 괄호 사이의 공란 영역(212A)에 나타나는 것으로 구성할 수 있다.According to a preferred embodiment, when touching a predetermined numeric image or unit of measure image within numeric / unit input virtual button item 217, the numeric image or unit of measure image is placed in the blank area 212A between the opening and closing parentheses. It can be configured to appear.

바람직한 실시예에 따라, 프로세서부(30)는 겉넓이 계산 모듈(25)의 인스트럭션에 따라, (a) 공란 영역(212A)에 입력된 넓이 수치와 측정 단위가 전개도 이미지(215B')와 부합하는지의 여부를 판정하는 단계와, (b) 상기 공란 영역(212A)에 입력된 넓이 수치와 측정 단위가 전개도 이미지(212B)의 넓이 수치 및 측정 단위와 부합하는 경우, 상기 전개도 이미지(212B)(도 7b 참조)를 다른 형상의 전개도 이미지(212B')(도 7c 참조)로 자동으로 전환하는 처리 동작을 수행할 수 있다.According to a preferred embodiment, the processor unit 30 according to the instructions of the surface area calculating module 25, (a) whether the width value and the unit of measurement input in the blank area 212A correspond to the development image 215B '. And (b) if the width value and measurement unit input to the blank area 212A match the width value and measurement unit of the development image 212B, the development image 212B (Fig. 7b) may be automatically converted into a different shape of the developed view image 212B '(see FIG. 7C).

이에 따라, 피학습자는 자신이 선택한 입체도형에 대하여 여러 가지 전개도 상에서 겉넓이 계산 학습 과정을 반복 수행할 수 있다.
Accordingly, the learner can repeatedly perform the surface area calculation learning process on various developments for the three-dimensional figure selected by the learner.

또한, 애플리케이션부(20)는 상기 가상 버튼들(10~70) 중의 부피 계산 학습과정 가상 버튼(60)을 선택하는 이벤트 신호를 감지한 경우, 부피 계산 모듈(26)의 인스트럭션을 실행시킨다. 부피 계산 모듈(26)은, 예를 들어 도 8a 내지 도 8c에 나타낸 바와 같이, 사용자가 특정 입체도형(B)에 관한 부피 계산 학습과정(60)을 수행할 수 있도록 지원하는 인스트럭션들을 포함할 수 있다.In addition, when the application unit 20 detects an event signal for selecting the volume calculation learning process virtual button 60 among the virtual buttons 10 to 70, the application unit 20 executes an instruction of the volume calculation module 26. The volume calculation module 26 may include instructions to assist the user to perform the volume calculation learning process 60 for a particular solid figure B, for example as shown in FIGS. 8A-8C. have.

도 8a 내지 도 8c를 참조하면, 프로세서부(30)는 부피 계산 모듈(26)의 인스트럭션에 따라, 부피 학습 항목(218)과, 부피 채우기 가상 버튼 항목(219)과, 숫자/단위 입력 가상 버튼 항목(217)을 포함하는 사용자 인터페이스 화면을 제공한다. 8A to 8C, the processor unit 30 may include a volume learning item 218, a volume filling virtual button item 219, and a number / unit input virtual button according to the instructions of the volume calculating module 26. A user interface screen including item 217 is provided.

바람직한 실시예에 따라, 숫자/단위 입력 가상 버튼 항목(217)에는 소정 갯수의 숫자 이미지와 넓이에 관한 측정 단위 이미지가 포함되어 있다. 예를 들어, 숫자/단위 입력 가상 버튼 항목(217) 내의 소정 숫자 이미지 또는 측정 단위 이미지를 터치하는 경우, 그 숫자 이미지 또는 측정 단위 이미지가 여는 괄호와 닫는 괄호 사이의 공란 영역(218A)에 나타나는 것으로 구성할 수 있다.According to a preferred embodiment, the number / unit input virtual button item 217 includes a predetermined number of numerical images and unit of measure images for width. For example, if you touch a given numeric image or unit of measure image within numeric / unit input virtual button item 217, that numeric image or unit of measure image appears in the blank area 218A between the opening and closing parentheses. Can be configured.

바람직한 실시예에 따라, 부피 학습 항목(218)에는 특정 입체도형(B)에 내용물이 채워진 이미지(218B)와, 상기 특정 입체도형(B)에 채워진 내용물의 부피 및 측정 단위를 입력할 수 있도록 지원하는 여는 괄호와 닫는 괄호 사이의 공란 영역(218A)이 포함되어 있다.According to a preferred embodiment, the volume learning item 218 supports input of an image 218B having contents filled in a specific solid figure (B) and a volume and a unit of measurement of the contents filled in the specific solid figure (B). A blank area 218A is included between the opening and closing parentheses.

바람직한 실시 예에 따라, 부피 채우기 가상 버튼 항목(219)은 그 버튼 항목(219) 이미지를 한번 터치할 때마다 상기 부피 학습 항목(218) 내의 입체 도형(B)의 내용물이 증가 또는 감소하도록 구성될 수 있다. 예를 들어, 도 8a에는 최초의 입체 도형(B)의 내용물(가로 5㎝, 세로 5㎝, 높이 1㎝)이 나타나 있고, 도 8b에는 부피 채우기 가상 버튼 항목(219)을 1회째 터치한 경우의 내용물(가로 5㎝, 세로 5㎝, 높이 2㎝)이 나타나 있고, 도 8c에는 부피 채우기 가상 버튼 항목(219)을 3회째 터치한 경우의 내용물(가로 5㎝, 세로 5㎝, 높이 4㎝)이 나타나 있다.According to a preferred embodiment, the volume fill virtual button item 219 is configured to increase or decrease the contents of the three-dimensional figure B in the volume learning item 218 each time the button item 219 image is touched once. Can be. For example, FIG. 8A shows the contents of the first three-dimensional figure B (width 5cm, height 5cm, height 1cm), and in FIG. 8B, when the volume filling virtual button item 219 is first touched. Contents (5 cm, 5 cm, 2 cm) are shown, and the content (5 cm, 5 cm, 4 cm, height) when the volume-filling virtual button item 219 is touched for the third time in FIG. 8C. ) Is shown.

바람직한 실시예에 따라, 프로세서부(30)는 부피 계산 모듈(26)의 인스트럭션에 따라, (a) 공란 영역(218A)에 입력된 부피 수치와 측정 단위가 부피 학습 항목(218)에 제공된 입체 도형(B)의 내용물의 부피 수치 및 측정 단위와 부합하는지의 여부를 판정하는 단계와, (b) 상기 공란 영역(218A)에 입력된 부피 수치와 측정 단위가 부피 학습 항목(218)에 제공된 입체 도형(B)의 내용물의 부피 수치 및 측정 단위와 부합하는 경우, 상기 부피 학습 항목(218)에 제공된 입체 도형(B)의 내용물의 부피를 다른 부피로 자동 전환하는 처리 동작을 수행할 수 있다.According to a preferred embodiment, the processor unit 30, according to the instructions of the volume calculation module 26, (a) a three-dimensional figure in which the volume value and the unit of measurement input in the blank area 218A are provided in the volume learning item 218. Determining whether the volume value and the unit of measurement of the contents of (B) are matched, and (b) the volume figure and the unit of measurement input to the blank area 218A are provided in the volume learning item 218. If the volume value and the unit of measurement of the content of (B) is matched, a processing operation for automatically converting the volume of the content of the three-dimensional figure (B) provided in the volume learning item 218 to another volume may be performed.

이에 따라, 피학습자는 자신이 선택한 입체도형의 내용물을 다양하게 변경하면서 부피 학습 과정을 반복 수행할 수 있다.
Accordingly, the learner can repeat the volume learning process while variously changing the contents of the three-dimensional figure selected by the learner.

또한, 애플리케이션부(20)는 상기 가상 버튼들(10~70) 중의 회전체 학습과정 가상 버튼(70)을 선택하는 이벤트 신호를 감지한 경우, 회전체 그리기 모듈(27)의 인스트럭션을 실행시킨다. 회전체 그리기 모듈(27)은, 예를 들어 도 9a 내지 도 9e에 나타낸 바와 같이, 사용자가 특정 도형(A', B', C')에 관한 회전체 학습과정(70)을 수행할 수 있도록 지원하는 인스트럭션들을 포함할 수 있다.In addition, when the application unit 20 detects an event signal for selecting the rotating body learning process virtual button 70 among the virtual buttons 10 to 70, the application unit 20 executes an instruction of the rotating body drawing module 27. The rotating body drawing module 27 may allow the user to perform the rotating body learning process 70 for a specific figure A ', B', or C ', as shown in FIGS. 9A to 9E, for example. It may contain instructions that support it.

도 9a 내지 도 9e를 참조하면, 프로세서부(30)는 회전체 그리기 모듈(27)의 인스트럭션에 따라, 회전체 그리기 학습 항목(300)과, 도형 선택 가상 버튼 항목(310)과, 명령 입력 가상 버튼 항목(320)을 포함하는 사용자 인터페이스 화면을 제공한다. Referring to FIGS. 9A to 9E, the processor unit 30, according to the instructions of the rotating body drawing module 27, draws a rotating body learning item 300, a figure selecting virtual button item 310, and a command input virtual object. A user interface screen including a button item 320 is provided.

바람직한 실시예에 따라, 회전체 그리기 학습 항목(300)에는 모터 형상의 이미지(300a)가 포함되어 있다.According to a preferred embodiment, the rotating body drawing learning item 300 includes a motor-shaped image 300a.

바람직한 실시예에 따라, 도형 선택 가상 버튼 항목(310)에는 축을 기준으로 회전가능한 다양한 평면 도형들에 관한 이미지가 포함되어 있다.According to a preferred embodiment, the figure selection virtual button item 310 includes images of various planar figures rotatable about an axis.

바람직한 실시예에 따라, 명령 입력 가상 버튼 항목(320)에는 회전시키기 명령(321), 위에서 보기 명령(322), 앞에서 보기 명령(323), 단면 보기 명령(324), 자유 보기 명령(325), 및 회전 종료시키기 명령(326)을 입력할 수 있는 가상 버튼 이미지들이 포함되어 있다.According to a preferred embodiment, the command input virtual button item 320 includes a rotate command 321, a view command 322 from above, a view command 323 from the front, a section view command 324, a free view command 325, And virtual button images capable of entering a rotation termination command 326.

예를 들어, 도 9b에 도시되 바와 같이, 피학습자가 도형 선택 가상 버튼 항목(310)에서 사각형 도형(B')을 선택하는 터치 입력 신호를 발생시키고 드래그 방식으로 그 사각형 도형(B')을 회전체 그리기 학습 항목(300) 내에 위치한 경우에는, 모터 형상의 이미지(300a) 중의 축 부분과 사각형 도형(B')의 축 부분이 서로 결합하여 300b와 같은 형상이 되는 것으로 구성될 수 있다. 이후에, 도 9c에 나타낸 바와 같이, 피학습자가 명령 입력 가상 버튼 항목(320) 중의 회전시키기 버튼(321)을 터치한 경우에는 모터가 구동하여 사각형 도형(B')이 그것의 회전체(300c)를 구성하는 것으로 구성될 수 있다. 이후에, 도 9d에 나타낸 바와 같이, 피학습자가 명령 입력 가상 버튼 항목(320) 중의 위에서 보기 버튼(322)을 터치한 경우에는 모터의 위치가 회전되어 회전체(300c)를 위에서 본 형상(300d)을 보여주는 것으로 구성될 수 있다. 마찬가지로, 피학습자가 명령 입력 가상 버튼 항목(320) 중의 앞에서 보기 버튼(322)을 터치한 경우에는 모터의 위치가 회전되어 회전체(300c)를 앞에서 본 형상을 보여주는 것으로 구성될 수 있다. For example, as illustrated in FIG. 9B, a learner generates a touch input signal for selecting a rectangular shape B ′ from the figure selection virtual button item 310 and drags the rectangular shape B ′ by a dragging method. In the case of being located in the rotating body drawing learning item 300, the shaft portion of the motor-shaped image 300a and the shaft portion of the quadrangular shape B ′ may be coupled to each other to form a shape such as 300b. Subsequently, as shown in FIG. 9C, when the learner touches the rotate button 321 in the command input virtual button item 320, the motor is driven so that the rectangular figure B ′ is rotated 300C thereof. It can be configured to). Subsequently, as shown in FIG. 9D, when the learner touches the view button 322 from the top of the command input virtual button item 320, the position of the motor is rotated so that the rotor 300c is viewed from above (300d). ) May be shown. Similarly, when the learner touches the front view button 322 in the command input virtual button item 320, the position of the motor may be rotated to show the shape of the rotating body 300c as viewed from the front.

또한, 도 9e에 나타낸 바와 같이, 피학습자가 명령 입력 가상 버튼 항목(320) 중의 단면 보기 버튼(324)을 터치한 경우에는 회전축을 품은 단면(324a)과 회전축에 수직인 단면(324b)을 선택할 수 있는 메뉴 항목을 제공할 수 있으며, 만일 사용자가 회전축을 품은 단면(324a) 항목을 터치한 경우에는 회전체(300c)에 관한 회전축을 품은 단면의 이미지(300e)를 보여주고(도 9e), 만일 사용자가 회전축에 수직인 단면(324b) 항목을 터치한 경우에는 회전체(300c)에 관한 회전축에 수직인 단면의 이미지(300f)를 보여주는 것으로 구성될 수 있다.In addition, as illustrated in FIG. 9E, when the learner touches the cross-sectional view button 324 in the command input virtual button item 320, the learner selects a cross section 324a bearing the rotation axis and a cross section 324b perpendicular to the rotation axis. It can provide a menu item, and if the user touches the cross section (324a) bearing the rotation axis shows an image 300e of the cross section bearing the rotation axis about the rotating body (300c) (Fig. 9E), If the user touches an item of the cross section 324b perpendicular to the rotation axis, it may be configured to show an image 300f of the cross section perpendicular to the rotation axis with respect to the rotating body 300c.

특히, 본 발명에 따른 장치(1)의 명령 입력 가상 버튼 항목(320)에는 자유 보기 명령 버튼(325)이 포함되어 있으므로, 도 9g에 나타낸 바와 같이, 피학습자는 자유 보기 명령 버튼(325)을 터치한 후에 회전체 그리기 학습 항목(300) 내의 회전체 이미지(300g)를 좌우 방향 또는 상하 방향으로 드래그하는 방식으로 그 회전체 이미지(300e)를 X축, Y축, 또는 Z축을 기준으로 각 축을 0°~360°범위 내에서 회전시키는 동작을 수행할 수 있다. 이에 따라, 피학습자는 원하는 방향에서 회전체 이미지를 관찰할 수 있게 된다.In particular, since the command input virtual button item 320 of the apparatus 1 according to the present invention includes a free view command button 325, as shown in FIG. 9G, the learner may select the free view command button 325. After touch, drag the rotating body image 300g in the rotating body drawing learning item 300 in a horizontal direction or up and down direction to rotate the rotating body image 300e on the X, Y, or Z axis. The operation of rotating within the range of 0 ° to 360 ° may be performed. Accordingly, the learner can observe the rotating body image in the desired direction.

마지막으로, 피학습자가 회전 종료시키기 명령 버튼(326)을 터치한 경우에는, 회전체 그리기 학습 항목(300) 내의 이미지가 다시 도 9b의 상태로 되돌아간다.Lastly, when the learner touches the end-rotation command button 326, the image in the rotating body drawing learning item 300 returns to the state of FIG. 9B again.

본 발명에 따른 입체 도형 학습용 전자 장치(1)에 적용되는 모서리 찾기 모듈(21), 선긋기 모듈(22), 꼬인위치 찾기 모듈(23), 평면 찾기 모듈(24), 겉넓이 계산 모듈(25), 부피 계산 모듈(26), 회전체 그리기 모듈(27)은 전자 장치(1)에 미리 탑재되어 있거나, 네트워크를 통한 다운로드 등을 통해 저장된 것일 수 있다.Corner finding module 21, line drawing module 22, twisted position finding module 23, planar finding module 24, surface calculating module 25 applied to three-dimensional figure learning electronic device 1 according to the present invention The volume calculation module 26 and the rotating body drawing module 27 may be pre-mounted in the electronic device 1 or may be stored by downloading through a network.

또한, 본 발명에 따른 입체 도형 학습용 전자 장치(1)에 적용되는 모서리 찾기 모듈(21), 선긋기 모듈(22), 꼬인위치 찾기 모듈(23), 평면 찾기 모듈(24), 겉넓이 계산 모듈(25), 부피 계산 모듈(26), 회전체 그리기 모듈(27)은 컴퓨터로 판독가능한 기록매체에 기록될 수도 있다. 이러한 컴퓨터 판독가능한 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터 판독가능한 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인(Functional) 프로그램, 코드 및 코드 세그먼트들은 본 실시예가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있을 것이다.In addition, the edge finder module 21, the line drawing module 22, the twisted position finder module 23, the plane finder module 24, the surface calculation module applied to the three-dimensional figure learning electronic device 1 according to the present invention ( 25, the volume calculation module 26, the rotating body drawing module 27 may be recorded on a computer-readable recording medium. Examples of such computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, as well as being implemented in the form of a carrier wave (e.g., transmission over the Internet) . The computer-readable recording medium may also be distributed over a networked computer system so that computer readable code in a distributed manner may be stored and executed. In addition, functional programs, codes, and code segments for implementing the present embodiment can be easily inferred by programmers in the technical field to which the present embodiment belongs.

또한, 이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. In addition, the present invention is not necessarily limited to these embodiments, as long as all the constituent elements constituting the embodiment of the present invention are described as being combined into one operation. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to provide a program module that performs some or all of the functions in one or a plurality of hardware As shown in FIG.

또한, 이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or essential characteristics thereof. . Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

1: 전자 장치 10: 터치스크린부
20: 애플리케이션부 21: 모서리 찾기 모듈
22: 선긋기 모듈 23: 꼬인위치 찾기 모듈
24: 평면 찾기 모듈 25: 겉넓이 계산 모듈
26: 부피 계산 모듈 27: 회전체 그리기 모듈
1: electronic device 10: touch screen unit
20: application unit 21: corner finder module
22: Drawing module 23: Twisting module
24: Plane Finding Module 25: Surface Calculation Module
26: Volume Calculation Module 27: Rotating Body Drawing Module

Claims (10)

입체도형 학습 기능을 제공하는 전자 장치로서,
디스플레이 화면에 나타나 있는 객체에 대한 터치 제스처를 감지하여 그 터치 제스처에 대응하는 전기 신호를 발생시키는 터치스크린부(10);
상기 터치스크린부(10)로부터 전기 신호 형태로 전송되는 터치 제스처에 대한 응답으로 상기 전자 장치로 하여금 상기 터치 제스처에 대응하는 처리 동작을 수행하도록 지시하는 일련의 인스트럭션으로 구성된 애플리케이션부(20)로서, 사용자가 선택한 입체도형에 관한 모서리 찾기 학습을 진행시키는 알고리즘으로 구성된 모서리 찾기 모듈과, 사용자가 선택한 입체도형에 관한 선긋기 학습을 진행시키는 알고리즘으로 구성된 선긋기 모듈과, 사용자가 선택한 입체도형에 관한 꼬인 위치 찾기 학습을 진행시키는 알고리즘으로 구성된 꼬인 위치 찾기 모듈과, 사용자가 선택한 입체도형에 관한 평면 찾기 학습을 진행시키는 알고리즘으로 구성된 평면 찾기 모듈과, 사용자가 선택한 입체도형에 관한 겉넓이 계산 학습을 진행시키는 알고리즘으로 구성된 겉넓이 계산 모듈과, 사용자가 선택한 입체도형에 관한 부피 계산 학습을 진행시키는 알고리즘으로 구성된 부피 계산 모듈과, 사용자가 선택한 평면도형에 관한 회전체 그리기 학습을 진행시키는 알고리즘으로 구성된 회전체 그리기 모듈 중의 하나 이상의 모듈을 포함하는, 상기 애플리케이션부(20);
상기 애플리케이션부(20)를 실행시키는 프로세서부(30); 및
상기 프로세서부(30)에 의해 처리된 데이터를 저장하는 저장부(40)를 포함하고,
상기 모서리 찾기 모듈은, 상기 프로세서부(30)로 하여금,
(a) 기호를 선택할 수 있도록 구성된 기호 입력 가상 버튼 항목(213) 중의 특정 기호 이미지에 대한 터치앤드래그(touch and drag) 이벤트를 감지함에 따라, 상기 특정 기호 이미지를 상기 터치앤드래그 이벤트의 시작 위치로부터 종착 위치로 이동시키는 단계와,
(b) 이동된 상기 특정 기호 이미지의 상기 종착 위치가, 전개도 학습 항목(212)에서 제공하는 전개도 이미지에 포함된 임의의 꼭지점에 대응하는 여는 괄호와 닫는 괄호 사이의 공란(empty space) 영역인지의 여부를 판정하는 단계와,
(c) 이동된 상기 특정 기호 이미지의 상기 종착 위치가 상기 여는 괄호와 닫는 괄호 사이의 공란 영역인 경우, 이동된 상기 특정 기호 이미지가, 학습 기준 정보를 제공하도록 구성된 기준 입체도형 표시 항목(211)에서 제공된 기준 꼭지점 정보(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8)와 부합하는지의 여부를 판정하는 단계와,
(d) 이동된 상기 특정 기호 이미지가, 상기 기준 입체도형 표시 항목(211)에서 제공된 상기 기준 꼭지점 정보(211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, 211a-8)와 부합하는 경우, 상기 특정 기호 이미지를 상기 여는 괄호와 닫는 괄호 사이의 공란 영역에 표시하는 단계의 처리 동작을 수행하도록 지시하는 인스트럭션을 포함하는 것을 특징으로 하는 입체도형 학습 기능을 제공하는 전자 장치.
An electronic device providing a stereoscopic learning function,
A touch screen unit 10 for detecting a touch gesture on an object displayed on a display screen and generating an electric signal corresponding to the touch gesture;
An application unit 20 comprising a series of instructions for instructing the electronic device to perform a processing operation corresponding to the touch gesture in response to a touch gesture transmitted from the touch screen unit 10 in the form of an electrical signal. Finding the twisted position about the 3D shape selected by the edge finder module consisting of an algorithm for advancing the corner finding learning about the user-selected solid shape, an algorithm for advancing the line drawing learning about the user-selected solid figure; Twisted position finder module composed of algorithm for progressing learning, Planar finder module composed of algorithm for progressing learning the stereoscopic figure selected by the user, and Algorithm for advancing the calculation of the surface area of the stereoscopic selected by the user. Configured One of the volume calculation module is composed of an outer area calculation module, a volume calculation module consisting of an algorithm for advancing a volume calculation learning about a user-selected solid figure, and a rotating object drawing module including an algorithm for advancing a rotating object drawing learning for a user-selected floor plan. The application unit 20, including the above module;
A processor unit 30 for executing the application unit 20; And
It includes a storage unit 40 for storing the data processed by the processor unit 30,
The corner finder module, the processor unit 30,
(a) In response to detecting a touch and drag event for a specific symbol image in the symbol input virtual button item 213 configured to select a symbol, the specific symbol image is detected as a start position of the touch and drag event. Moving from to a destination position,
(b) whether the end position of the shifted particular symbol image is an empty space region between the opening and closing parentheses corresponding to any vertex included in the development image provided by the development plan learning item 212. Determining whether or not,
(c) the reference stereogram display item 211 configured to provide learning reference information when the destination position of the moved specific sign image is a blank area between the opening and closing parentheses. Determining whether the vertex information (211a-1, 211a-2, 211a-3, 211a-4, 211a-5, 211a-6, 211a-7, and 211a-8) provided by
(d) The reference vertex information 211a-1, 211a-2, 211a-3, 211a-4, 211a-5, and 211a-6, wherein the specific symbol image moved is provided in the reference stereoscopic display item 211. And 211a-7, 211a-8), instructions for instructing a processing operation of displaying the specific symbol image in the blank area between the opening and closing parentheses. An electronic device providing a shape learning function.
삭제delete 제 1 항에 있어서,
상기 선긋기 모듈은, 상기 프로세서부(30)로 하여금,
(a1) 사용자가 선택한 전개도 이미지를 나타내도록 구성된 전개도 학습 항목(212)에서 제공하는 상기 전개도 이미지에 대한 선분 입력을 가능하게 하는 선분 입력 가상 버튼 항목(214)에 대한 터치 이벤트를 감지하는 단계와,
(b1) 상기 선분 입력 가상 버튼 항목(214)이 활성화 상태에 있다는 표시를 나타내는 단계와,
(c1) 상기 전개도 학습 항목(212)에 제공된 상기 전개도 이미지에 관한 제 1 꼭지점 터치 이벤트를 감지하는 단계와,
(d1) 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점이, 학습 기준 정보를 제공하도록 구성된 기준 입체도형 표시 항목(211)에서 제공된 기준 선분 정보(211b-1, 211b-2, 211b-3) 중의 어느 하나의 기준 선분과 부합하는 꼭지점인지의 여부를 판정하는 단계와,
(e1) 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점이, 상기 기준 선분 정보(211b-1, 211b-2, 211b-3) 중의 어느 하나의 기준 선분과 부합하는 꼭지점인 경우 그 꼭지점을 활성화시키는 단계와,
(f1) 상기 전개도 학습 항목(212)에 제공된 상기 전개도 이미지에 관한 제 2 꼭지점 터치 이벤트를 감지하는 단계와,
(g1) 상기 제 2 꼭지점 터치 이벤트가 발생한 꼭지점과 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점을 연결하는 선분이 상기 기준 선분 정보(211b-1, 211b-2, 211b-3) 중의 어느 하나의 기준 선분과 일치하는 경우, 상기 제 2 꼭지점 터치 이벤트가 발생한 꼭지점과 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점을 연결한 선분을 상기 전개도 이미지 위에 표시하는 단계의 처리 동작을 수행하도록 지시하는 인스트럭션을 포함하는 것을 특징으로 하는 입체도형 학습 기능을 제공하는 전자 장치.
The method according to claim 1,
The scribing module causes the processor unit 30 to
(a1) detecting a touch event for a line segment input virtual button item 214 that enables line segment input for the scene image provided by a scene study item 212 configured to display a scene image selected by the user;
(b1) indicating an indication that the line segment input virtual button item 214 is in an active state;
(c1) detecting a first vertex touch event relating to the scene image provided in the scene learning item 212;
(d1) any one of the reference line segment information 211b-1, 211b-2, and 211b-3 provided in the reference stereoscopic display item 211 configured to provide learning reference information with the vertex at which the first vertex touch event occurs. Determining whether a vertex meets the reference segment of;
(e1) activating a vertex when the vertex where the first vertex touch event is a vertex corresponding to any one of the reference line segment information 211b-1, 211b-2, and 211b-3; ,
(f1) detecting a second vertex touch event relating to the scene image provided in the scene learning item 212;
(g1) a line segment connecting the vertex of the second vertex touch event and the vertex of the first vertex touch event is one of the reference line segments information 211b-1, 211b-2, and 211b-3. And an instruction for performing a processing operation of displaying a line segment connecting the vertex of the second vertex touch event and the vertex of the first vertex touch event on the developed image. An electronic device providing a stereoscopic learning function.
제 1 항에 있어서,
상기 꼬인 위치 찾기 모듈은, 상기 프로세서부(30)로 하여금,
(a1) 사용자가 선택한 전개도 이미지를 나타내도록 구성된 전개도 학습 항목(212)에서 제공하는 상기 전개도 이미지에 대한 선분 입력을 가능하게 하는 선분 입력 가상 버튼 항목(214)에 대한 터치 이벤트를 감지하는 단계와,
(b1) 상기 선분 입력 가상 버튼 항목(214)이 활성화 상태에 있다는 표시를 나타내는 단계와,
(c1) 상기 전개도 학습 항목(212)에 제공된 상기 전개도 이미지에 관한 제 1 꼭지점 터치 이벤트를 감지하는 단계와,
(d1) 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점이, 학습 기준 정보를 제공하도록 구성된 기준 입체도형 표시 항목(211)에서 제공된 기준 선분 정보(211b'-1)와 꼬인 위치 관계를 구성하는지의 여부를 판정하는 단계와,
(e1) 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점이, 상기 기준 선분 정보(211b'-1)와 꼬인 위치 관계의 선분을 구성가능한 경우 그 꼭지점을 활성화시키는 단계와,
(f1) 상기 전개도 학습 항목(212)에 제공된 상기 전개도 이미지에 관한 제 2 꼭지점 터치 이벤트를 감지하는 단계와,
(g1) 상기 제 2 꼭지점 터치 이벤트가 발생한 꼭지점과 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점을 연결하는 선분이 상기 선분 정보(211b'-1)와 꼬인 위치 관계를 구성하는 경우, 상기 제 2 꼭지점 터치 이벤트가 발생한 꼭지점과 상기 제 1 꼭지점 터치 이벤트가 발생한 꼭지점을 연결한 선분을 상기 전개도 이미지 위에 표시하는 단계의 처리 동작을 수행하도록 지시하는 인스트럭션을 포함하는 것을 특징으로 하는 입체도형 학습 기능을 제공하는 전자 장치.
The method according to claim 1,
The twisted position finding module causes the processor unit 30 to
(a1) detecting a touch event for a line segment input virtual button item 214 that enables line segment input for the scene image provided by a scene study item 212 configured to display a scene image selected by the user;
(b1) indicating an indication that the line segment input virtual button item 214 is in an active state;
(c1) detecting a first vertex touch event relating to the scene image provided in the scene learning item 212;
(d1) whether or not a vertex in which the first vertex touch event occurs forms a twisted positional relationship with the reference line segment information 211b'-1 provided in the reference solid figure display item 211 configured to provide learning reference information. Determining;
(e1) activating a vertex when the vertex at which the first vertex touch event occurs is configured to form a line segment having a twisted positional relationship with the reference line segment information 211b'-1;
(f1) detecting a second vertex touch event relating to the scene image provided in the scene learning item 212;
(g1) when a line segment connecting the vertex of the second vertex touch event and the vertex of the first vertex touch event forms a twisted position relationship with the line segment information 211b'-1, the second vertex touch And an instruction for performing a processing operation of displaying a line segment connecting the vertex of the event and the vertex of the first vertex touch event on the development image. Device.
제 1 항에 있어서,
상기 평면 찾기 모듈은, 상기 프로세서부(30)로 하여금,
(a1) 텍스트를 선택할 수 있도록 구성된 텍스트 입력 가상 버튼 항목(215) 중의 특정 텍스트 이미지에 대한 터치앤드래그(touch and drag) 이벤트를 감지함에 따라, 상기 특정 텍스트 이미지를 상기 터치앤드래그 이벤트의 시작 위치로부터 종착 위치로 이동시키는 단계와,
(b1) 이동된 상기 특정 텍스트 이미지의 상기 종착 위치가, 학습 기준 정보를 제공하도록 구성된 기준 입체도형 표시 항목(211)에서 제공된 기준 텍스트 정보(211c-1, 211c-2, 211c-3, 211c-4)와 부합하는지의 여부를 판정하는 단계와,
(c1) 이동된 상기 특정 텍스트 이미지의 상기 종착 위치가, 상기 기준 입체도형 표시 항목(211)에서 제공된 상기 학습 기준 정보(211c-1, 211c-2, 211c-3, 211c-4)와 부합하는 경우, 상기 특정 텍스트 이미지를 상기 종착 위치에 표시하는 단계의 처리 동작을 수행하도록 지시하는 인스트럭션을 포함하는 것을 특징으로 하는 입체도형 학습 기능을 제공하는 전자 장치.
The method according to claim 1,
The plane finder module causes the processor unit 30 to
(a1) In response to detecting a touch and drag event for a specific text image in the text input virtual button item 215 configured to select text, the specific text image is detected as a start position of the touch and drag event. Moving from to a destination position,
(b1) the reference text information 211c-1, 211c-2, 211c-3, and 211c-provided that the destination position of the moved specific text image is provided in the reference stereoscopic display item 211 configured to provide learning reference information. Determining whether it is in accordance with 4),
(c1) the destination position of the shifted specific text image corresponds to the learning reference information 211c-1, 211c-2, 211c-3, and 211c-4 provided in the reference stereoscopic display item 211. And instructing to perform a processing operation of displaying the specific text image at the destination position.
제 1 항에 있어서,
상기 겉넓이 계산 모듈은, 상기 프로세서부(30)로 하여금,
사용자가 선택한 전개도 이미지를 나타내도록 구성된 전개도 학습 항목(212)과, 이동가능한 자(ruler) 이미지를 표시하도록 구성된 가상 자 항목(216)과, 숫자 또는 측정 단위를 선택할 수 있도록 구성된 숫자/단위 입력 가상 버튼 항목(217)을 포함하는 사용자 인터페이스 화면을 상기 터치스크린부(10)에 제공하도록 지시하는 인스트럭션을 포함하는 것을 특징으로 하는 입체도형 학습 기능을 제공하는 전자 장치.
The method according to claim 1,
The outer surface calculation module causes the processor unit 30 to
A scene learning item 212 configured to represent a user selected scene image, a virtual child item 216 configured to display a movable ruler image, and a numeric / unit input virtual configured to select a number or unit of measure. And an instruction for instructing the touch screen unit to provide a user interface screen including a button item 217 to the touch screen unit.
제 1 항에 있어서,
상기 부피 계산 모듈은, 상기 프로세서부(30)로 하여금,
내용물이 포함된 입체도형 이미지를 나타내도록 구성된 부피 학습 항목(218)과, 상기 입체도형 이미지 중의 상기 내용물의 부피를 조절가능하도록 구성된 부피 채우기 가상 버튼 항목(219)과, 숫자 또는 측정 단위를 선택할 수 있도록 구성된 숫자/단위 입력 가상 버튼 항목(217)을 포함하는 사용자 인터페이스 화면을 상기 터치스크린부(10)에 제공하도록 지시하는 인스트럭션을 포함하는 것을 특징으로 하는 입체도형 학습 기능을 제공하는 전자 장치.
The method according to claim 1,
The volume calculation module, the processor unit 30,
Select a volume learning item 218 configured to represent a stereoscopic image with contents, a volume fill virtual button item 219 configured to adjust the volume of the contents in the stereoscopic image, and a number or unit of measurement And an instruction for instructing the touch screen unit to provide a user interface screen including a numeric / unit input virtual button item (217).
제 1 항에 있어서,
상기 회전체 그리기 모듈은, 상기 프로세서부(30)로 하여금,
사용자가 선택한 평면도형의 이미지 또는 상기 평면도형이 회전축을 중심으로 연속 회전될 경우 생성되는 회전체의 이미지를 나타내도록 구성된 회전체 그리기 학습 항목(300)과, 다수의 평면도형 중에서 어느 하나의 평면도형을 상기 사용자가 선택할 수 있도록 구성된 도형 선택 가상 버튼 항목(310)과, 상기 회전체 그리기 학습 항목(300)에 나타나 있는 상기 평면도형의 이미지 또는 상기 회전체의 이미지에 대해 다양한 동작 명령을 입력할 수 있도록 구성된 명령 입력 가상 버튼 항목(320)을 포함하는 사용자 인터페이스 화면을 상기 터치스크린부(10)에 제공하도록 지시하는 인스트럭션을 포함하는 것을 특징으로 하는 입체도형 학습 기능을 제공하는 전자 장치.
The method according to claim 1,
The rotating body drawing module causes the processor unit 30 to
Rotating drawing learning item 300 configured to display an image of a planar shape selected by a user or an image of a rotating body generated when the planar shape is continuously rotated about a rotation axis, and any one of a plurality of planar shapes Various operation commands can be input to the figure selection virtual button item 310 configured to be selected by the user, and the planar image or the image of the rotating body shown in the drawing drawing training item 300. And an instruction for instructing the touch screen unit to provide a user interface screen including a command input virtual button item 320 configured to be provided.
제 8 항에 있어서,
상기 명령 입력 가상 버튼 항목(320)은, 회전시키기 명령 버튼(321), 위에서 보기 명령 버튼(322), 앞에서 보기 명령 버튼(323), 단면 보기 명령 버튼(324), 자유 보기 명령 버튼(325), 회전 종료시키기 명령 버튼(325)을 포함하는 것을 특징으로 하는 입체도형 학습 기능을 제공하는 전자 장치.
The method of claim 8,
The command input virtual button item 320 may include a rotate command button 321, a view command button 322 from above, a front view command button 323, a cross-sectional view command button 324, and a free view command button 325. And an end command button 325 for rotating the electronic device.
제 9 항에 있어서,
상기 단면 보기 명령 버튼(324)은 회전축을 품은 단면 보기 명령 버튼(324a)과 회전축에 수직인 단면 보기 명령 버튼(324b)을 포함하는 것을 특징으로 하는 입체도형 학습 기능을 제공하는 전자 장치.
The method of claim 9,
The section view command button (324) includes a section view command button (324a) having a rotation axis and a section view command button (324b) perpendicular to the axis of rotation.
KR1020130063908A 2013-06-04 2013-06-04 Electronic apparatus for providing function of solid figure learning KR101380765B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130063908A KR101380765B1 (en) 2013-06-04 2013-06-04 Electronic apparatus for providing function of solid figure learning
CN201410243286.6A CN104299460B (en) 2013-06-04 2014-06-03 The electronic installation of solid figure learning functionality is provided

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130063908A KR101380765B1 (en) 2013-06-04 2013-06-04 Electronic apparatus for providing function of solid figure learning

Publications (1)

Publication Number Publication Date
KR101380765B1 true KR101380765B1 (en) 2014-04-02

Family

ID=50656368

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130063908A KR101380765B1 (en) 2013-06-04 2013-06-04 Electronic apparatus for providing function of solid figure learning

Country Status (2)

Country Link
KR (1) KR101380765B1 (en)
CN (1) CN104299460B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102468831B1 (en) * 2022-03-28 2022-11-18 국제능력교육원 주식회사 Apparatus and method for education of cube characteristics using educational block

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107507283B (en) 2017-08-21 2019-06-25 广州视源电子科技股份有限公司 Expansion rendering method, device, electronic equipment and the storage medium of solid figure
CN107918549B (en) * 2017-11-27 2021-01-19 广州视睿电子科技有限公司 Marking method and device for three-dimensional expansion drawing, computer equipment and storage medium
CN108053492B (en) * 2017-12-19 2020-09-22 广州视源电子科技股份有限公司 Method, device and equipment for presenting expansion process of three-dimensional graph and storage medium
CN108986598B (en) * 2018-07-30 2021-02-05 深圳点猫科技有限公司 Multiplication table teaching interaction method based on game education and electronic equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007175260A (en) * 2005-12-28 2007-07-12 Nintendo Co Ltd Training program and training device
JP3164697U (en) * 2010-09-30 2010-12-09 吉川 由理子 Teaching material for learning solid figures
KR20120067407A (en) * 2010-12-16 2012-06-26 주식회사 씨지브이알 Method for learning development figure of solid figure and apparatus thereof
KR20120076233A (en) * 2010-12-29 2012-07-09 김종훈 Rotation type of cross section geometry study kit

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062436A (en) * 2002-07-26 2004-02-26 Canon Inc Graphic processor and its method, and program
JP2004199260A (en) * 2002-12-17 2004-07-15 Casio Comput Co Ltd Graphics preparing device and graphics preparing method
CN101281688A (en) * 2008-03-26 2008-10-08 博采林电子科技(深圳)有限公司 Portable learning equipment as well as dynamic geometric construction method thereof
JP2012133693A (en) * 2010-12-24 2012-07-12 Nec Corp State quantity display device, state quantity display method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007175260A (en) * 2005-12-28 2007-07-12 Nintendo Co Ltd Training program and training device
JP3164697U (en) * 2010-09-30 2010-12-09 吉川 由理子 Teaching material for learning solid figures
KR20120067407A (en) * 2010-12-16 2012-06-26 주식회사 씨지브이알 Method for learning development figure of solid figure and apparatus thereof
KR20120076233A (en) * 2010-12-29 2012-07-09 김종훈 Rotation type of cross section geometry study kit

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102468831B1 (en) * 2022-03-28 2022-11-18 국제능력교육원 주식회사 Apparatus and method for education of cube characteristics using educational block

Also Published As

Publication number Publication date
CN104299460A (en) 2015-01-21
CN104299460B (en) 2017-06-27

Similar Documents

Publication Publication Date Title
KR101380765B1 (en) Electronic apparatus for providing function of solid figure learning
JP5671921B2 (en) Information processing apparatus, information processing method, and program
CN110262711A (en) User interface object operation in user interface
Ha et al. ARtalet: tangible user interface based immersive augmented reality authoring tool for Digilog book
KR20160046150A (en) Apparatus and method for drawing and solving a figure content
JP5992934B2 (en) 3D viewing method
Tomaschko et al. Augmented reality in mathematics education: The case of GeoGebra AR
JP2012146278A (en) Simulation method and system for three-dimensional operation interface
Carrozzino et al. Designing interaction metaphors for Web3D cultural dissemination
Nobel-Jørgensen et al. 3D interactive topology optimization on hand-held devices
Butnariu et al. DEVELOPMENT OF A NATURAL USER INTERFACE FOR INTUITIVE PRESENTATIONS IN EDUCATIONAL PROCESS.
Kovárová et al. Using virtual reality for teaching solid geometry: A case study for a cube section
KR101462419B1 (en) Terminal for drawing vector graphics
KR20120063133A (en) Apparatus for learning virtual experiment and method thereof
Hu et al. The effects of screen size on rotating 3D contents using compound gestures on a mobile device
JP6872883B2 (en) Display control device, display system, display method and program
KR101495149B1 (en) Electronic apparatus for providing fraction learning function
Bohak et al. Kinect web kiosk framework
JP4683560B2 (en) Method for concealing drawing object in electronic blackboard system and electronic blackboard system
Fastag egami: Virtual paperfolding and diagramming software
Wischniewsky Movie-like animation with Excel’s single step iteration exemplified by Lissajous figures
JP2014002554A (en) Display device and control method for display device
Singhose et al. Development of an interactive textbook for introductory mechanical design
Müller et al. Augmenting Elastic Displays with Active Vibrotactile Feedback
Madni et al. Content-orientation for collaborative learning using tabletop surfaces

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170308

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180202

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190220

Year of fee payment: 6