KR101966799B1 - A Diagnosis System of Mobile Apparatus - Google Patents
A Diagnosis System of Mobile Apparatus Download PDFInfo
- Publication number
- KR101966799B1 KR101966799B1 KR1020170010879A KR20170010879A KR101966799B1 KR 101966799 B1 KR101966799 B1 KR 101966799B1 KR 1020170010879 A KR1020170010879 A KR 1020170010879A KR 20170010879 A KR20170010879 A KR 20170010879A KR 101966799 B1 KR101966799 B1 KR 101966799B1
- Authority
- KR
- South Korea
- Prior art keywords
- mobile device
- screen
- robot
- computer
- screen view
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/22—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
- G06F11/26—Functional testing
- G06F11/263—Generation of test inputs, e.g. test vectors, patterns or sequences ; with adaptation of the tested hardware for testability with external testers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Quality & Reliability (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 모바일 기기 진단시스템에 관한 것으로서, 특히 애플리케이션이 탑재된 모바일 기기가 안착되는 베드와; 상기 베드 주위에 설치되어 터치펜을 사용하여 베드에 안착된 모바일 기기의 터치스크린을 조작하는 로봇과; 상기 모바일 기기의 화면 뷰 정보와 사용자 인터페이스 요소에 관한 정보를 수신하여 화면에 디스플레이하고, 디스플레이된 화면 뷰 정보에 대해 접근성 평가 작업에 따라 상기 로봇을 조작하여 터치펜으로 모바일 기기의 터치스크린을 조작하도록 하는 컴퓨터;를 포함하여 구성되어, 모바일 기기에 탑재되는 애플리케이션의 접근성에 대한 점검을 편리하게 수행할 수 있는 효과가 있다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mobile device diagnosis system, and more particularly, to a mobile device diagnosis system including a bed on which a mobile device on which an application is installed is seated; A robot installed around the bed and operating a touch screen of a mobile device placed on a bed using a touch pen; And displays information on the screen view information and the user interface element of the mobile device, displays the information on the screen, and operates the robot on the displayed screen view information according to the accessibility evaluation operation to operate the touch screen of the mobile device with the touch pen The present invention is advantageous in that the accessibility of an application installed in the mobile device can be conveniently checked.
Description
본 발명은 모바일 기기 진단시스템에 관한 것으로서, 특히 휴대폰, 스마트폰, 태블릿 PC, 게임기 등의 모바일 기기에 탑재되는 애플리케이션의 접근성 점검을 편리하게 수행할 수 있는 모바일 기기 진단시스템에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mobile device diagnostic system, and more particularly, to a mobile device diagnostic system capable of conveniently performing accessibility check of an application installed in a mobile device such as a mobile phone, a smart phone, a tablet PC,
장애인 접근성에 관한 사회의 인식이 크게 향상되어 우리나라뿐 아니라 외국에서도 점차 정보통신제품 및 서비스에 대한 장애인 접근성을 의무화하고 있다.The awareness of the society about the accessibility of the disabled has been greatly improved, and it is imperative for the disabled to access information and communication products and services not only in Korea but also in foreign countries.
장애인 접근성을 의무화하고 있는 대표적인 예가 월드 와이드 웹(World Wide Web)이다. 월드 와이드 웹 (World Wide Web)을 창시한 팀 버너스 리(Tim Berners-Lee)가 웹이란 '장애에 구애 없이 모든 사람들이 손쉽게 정보를 공유할 수 있는 공간'이라고 정의하였으며, 웹 콘텐츠를 제작할 때에는 장애에 구애됨이 없이 누구나 접근할 수 있도록 제작하여야 한다고 하였다.A representative example of compulsory accessibility for the disabled is the World Wide Web. Tim Berners-Lee, the founder of the World Wide Web, defined the Web as "a space where everyone can easily share information without disability," and when creating web content, It should be made accessible to anyone without any discretion.
현재 우리나라에서는 2008년 4월 11일 장애인 차별 금지 및 권리 구제 등에 관한 법률(장애인 차별 금지법)이 발표되었고, 그 동안 소외 받던 장애인이 능동적 복지의 주체로서 권리를 행사할 수 있도록 법으로 규정하고 있다. 특히 이 법에서 장애인, 노인 등 보편적인 정보 취약 계층에게 정보 접근권을 보장하도록 의무화하고 있으며 이에 대한 처벌 규정까지 마련하였다.Currently, in Korea, the Act on Discrimination against Disabled Persons and the Right to Remedies for Persons with Disabilities (Act on Discrimination against Persons with Disabilities) was announced on April 11, 2008, and the law stipulates that persons with disabilities who have been neglected by the law can exercise their rights as the subject of active welfare. In particular, the law obliges universal information-vulnerable groups such as the handicapped and the elderly to have access to information.
미국에서는 모바일 기기의 장애인 접근성을 강화하기 위한 노력을 기울이고 있다. 우리나라에서도 2011년 9월 국가정보화기본법 제32조 제5항에 의거하여 행정안전부 고시(2013년 8월 미래창조과학부 개정 고시)로 모바일 앱 접근성 지침을 제시하고 국가기관, 지방자치단체 및 공공기관 등이 제공하는 모바일 앱은 이 고시를 준수하도록 요구하고 있다.In the United States, efforts are being made to enhance the accessibility of mobile devices for people with disabilities. In Korea, in accordance with Article 32, Paragraph 5 of the National Informatization Act of September 2011, the Ministry of Public Administration and Security notified the Ministry of Information and Communication of the Ministry of Public Administration and Security The mobile apps they provide require compliance with this notice.
이렇게 모바일 기기의 접근성을 강화하기 위한 노력들이 증가되고 있는 반면에, 아직까지는 모바일 기기의 접근성을 용이하게 평가하기 위한 시스템이 별도로 제시되어 있지는 않다.While efforts are being made to enhance the accessibility of mobile devices, there is not yet a system for easily evaluating the accessibility of mobile devices.
본 발명은 상기한 종래기술의 문제점을 해결하기 위하여 안출된 것으로서, 모바일 기기에 탑재되는 애플리케이션의 접근성에 대한 점검을 편리하게 수행할 수 있는 모바일 기기 진단시스템을 제공하는데 그 목적이 있다.It is an object of the present invention to provide a mobile device diagnosis system that can conveniently check accessibility of an application installed in a mobile device.
상기한 과제를 해결하기 위한 본 발명에 의한 모바일 기기 진단시스템은 애플리케이션이 탑재된 모바일 기기가 안착되는 베드와; 상기 베드 주위에 설치되어 터치펜을 사용하여 베드에 안착된 모바일 기기의 터치스크린을 조작하는 로봇과; 상기 모바일 기기의 화면 뷰 정보와 사용자 인터페이스 요소에 관한 정보를 수신하여 화면에 디스플레이하고, 디스플레이된 화면 뷰 정보에 대해 접근성 평가 작업에 따라 상기 로봇을 조작하여 터치펜으로 모바일 기기의 터치스크린을 조작하도록 하는 컴퓨터;를 포함하여 구성된다.According to an aspect of the present invention, there is provided a mobile device diagnosis system including a bed on which a mobile device on which an application is installed is placed; A robot installed around the bed and operating a touch screen of a mobile device placed on a bed using a touch pen; And displays information on the screen view information and the user interface element of the mobile device, displays the information on the screen, and operates the robot on the displayed screen view information according to the accessibility evaluation operation to operate the touch screen of the mobile device with the touch pen And a computer.
여기서, 상기 모바일 기기 진단시스템은 서버(50)를 더 포함하고, 상기 모바일 기기(M)는 상기 서버(50)에 애플리케이션의 화면 뷰 정보를 전송하며, 상기 서버(50)는 수신한 화면 뷰 정보를 저장하고, 상기 컴퓨터(40)로부터 요청이 있으면 저장된 화면 뷰 정보를 상기 컴퓨터(40)에 전송한다.The mobile device diagnosis system further includes a
그리고, 상기 모바일 기기 진단시스템은 상기 컴퓨터와 통신하는 카메라를 더 포함하되, 상기 카메라는 모바일 기기의 화면 뷰를 캡처하여 상기 컴퓨터에 전송할 수도 있다.The mobile device diagnosis system further includes a camera for communicating with the computer, and the camera may capture a screen view of the mobile device and transmit the screen view to the computer.
또한, 상기 컴퓨터는 접근성 평가 작업의 수행에 의한 화면 뷰 정보를 상기 모바일 기기로부터 전송받을 수도 있다.In addition, the computer may receive screen view information by performing the accessibility evaluation work from the mobile device.
한편, 상기 로봇은 베드 상측에 설치되는 X축 가이드와; 상기 X축 가이드를 따라 X축 방향으로 움직이는 Y축 가이드와; 상기 Y축 가이드를 따라 X축과 직교하는 Y축 방향으로 움직이는 Z축 가이드와; 상기 Z축 가이드를 따라 X축 및 Y축 각각에 직교하는 Z축 방향으로 움직이고, 상기 터치펜이 설치된 툴 플레이트;로 구성된다.The robot includes an X-axis guide installed on a bed; A Y-axis guide moving in the X-axis direction along the X-axis guide; A Z-axis guide moving in the Y-axis direction orthogonal to the X-axis along the Y-axis guide; And a tool plate that moves in the Z-axis direction orthogonal to the X-axis and the Y-axis along the Z-axis guide and in which the touch pen is installed.
그리고, 상기 로봇은 바닥면에 대하여 360도 회전가능하게 설치되는 바디와; 상기 바디에 회동 가능하게 설치되는 하나 이상의 로봇암과; 상기 로봇암의 끝단에 상하이동 가능하게 설치되는 승강블록과; 상기 승강블록의 끝단에 360도 회전가능하게 설치되고, 상기 터치펜이 설치된 툴 플레이트;로 구성될 수도 있다.The robot includes a body installed to be rotatable 360 degrees with respect to a floor; At least one robot arm rotatably installed on the body; A lift block installed on an end of the robot arm so as to be movable up and down; And a tool plate rotatably installed on the end of the lifting block 360 degrees and equipped with the touch pen.
또한, 상기 툴 플레이트에는 2 이상의 터치펜이 이격되게 설치되고, 이격되게 설치된 터치펜은 툴 플레이트에서 직선운동하여 그 이격거리가 조절된다.In addition, two or more touch pens are provided on the tool plate so as to be spaced apart from each other, and the spaced apart touch pen is linearly moved on the tool plate to adjust a distance therebetween.
또한, 상기 컴퓨터는 모바일 기기의 터치스크린 상에서 탭(Tap), 더블탭(Double tap), 스와이프(Swipe), 드래그(Drag), 핀치(Pinch), 스프레드(Spread), 로테이트(Rotate) 제스처를 수행할 수 있도록 터치펜을 제어한다.In addition, the computer can perform a tap, a double tap, a swipe, a drag, a pinch, a spread, and a rotate gesture on a touch screen of a mobile device Control the touch pen so that it can be performed.
상기와 같이 구성되는 본 발명의 모바일 기기 진단시스템은 사용자가 실제 사용하는 것처럼 컴퓨터가 터치펜의 제스처를 제어함으로써 모바일 애플리케이션의 사용성 진단 및 접근성 진단이 적절한지를 편리하게 확인할 수 있는 이점이 있다.The mobile device diagnostic system of the present invention configured as described above is advantageous in that it can conveniently check whether the usability diagnosis and the accessibility diagnosis of the mobile application are appropriate by the computer by controlling the gesture of the touch pen as if the user actually used it.
도 1은 본 발명에 의한 모바일 기기 진단시스템의 네트워크 구성을 간단히 보인 도.
도 2는 본 발명에 의한 모바일 기기 진단시스템을 설명하기 위한 개념도.
도 3a 및 도 3b는 본 발명에 의한 모바일 기기 진단시스템의 로봇의 일 실시예를 보인 도.
도 4a 및 도 4b는 본 발명에 의한 모바일 기기 진단시스템의 로봇의 다른 실시예를 보인 도.
도 5는 본 발명에 의한 모바일 기기 진단시스템의 터치펜의 다양한 제스처 모습을 보인 도.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram briefly showing a network configuration of a mobile device diagnosis system according to the present invention; FIG.
2 is a conceptual diagram for explaining a mobile device diagnosis system according to the present invention;
FIGS. 3A and 3B are views showing an embodiment of a robot of a mobile device diagnosis system according to the present invention;
4A and 4B are views showing another embodiment of the robot of the mobile device diagnosis system according to the present invention.
5 is a view showing various gestures of a touch pen of a mobile device diagnosis system according to the present invention.
이하, 본 발명에 의한 모바일 기기 진단시스템의 실시 예를 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, embodiments of a mobile device diagnosis system according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 의한 모바일 기기 진단시스템의 네트워크 구성을 간단히 보인 도이고, 도 2는 본 발명에 의한 모바일 기기 진단시스템을 설명하기 위한 개념도이다.FIG. 1 is a view showing a network configuration of a mobile device diagnosis system according to the present invention. FIG. 2 is a conceptual diagram illustrating a mobile device diagnosis system according to the present invention.
그리고, 도 3a 및 도 3b는 본 발명에 의한 모바일 기기 진단시스템의 로봇의 일 실시예를 보인 도이며, 도 4a 및 도 4b는 본 발명에 의한 모바일 기기 진단시스템의 로봇의 다른 실시예를 보인 도이고, 도 5는 본 발명에 의한 모바일 기기 진단시스템의 터치펜의 다양한 제스처 모습을 보인 도이다.4A and 4B are views showing another embodiment of the robot of the mobile device diagnosis system according to the present invention. FIG. 3A and FIG. 3B are views showing an embodiment of the robot of the mobile device diagnosis system according to the present invention, And FIG. 5 is a view showing various gestures of the touch pen of the mobile device diagnosis system according to the present invention.
본 발명에 의한 모바일 기기 진단시스템은 핸드폰, 스마트폰, PDA, 태블릿 PC, 게임기 등과 같은 모바일 기기에 탑재되는 애플리케이션(Application) 접근성 및 여타의 기능 점검을 편리하게 수행하기 위한 것이다.The mobile device diagnosis system according to the present invention is intended to conveniently perform accessibility of applications and other functions mounted on mobile devices such as mobile phones, smart phones, PDAs, tablet PCs, game machines, and the like.
이러한 본 발명에 의한 모바일 기기 진단시스템은 베드(10)와, 상기 베드(10) 주위에 설치되는 로봇(20)과, 상기 로봇(20)에 설치되는 터치펜(30)과, 상기 로봇(20)을 제어하는 컴퓨터(40)를 포함하여 구성된다.The mobile device diagnosis system according to the present invention includes a
상기 베드(10)에는 애플리케이션이 탑재된 모바일 기기(M)가 안착된다.A mobile device (M) on which an application is mounted is mounted on the bed (10).
상기 로봇(20)은 터치펜(30)을 사용하여 베드(10)에 안착된 모바일 기기(M)의 터치스크린을 조작한다.The
본 발명에 사용되는 이러한 로봇(20)은 X-Y-Z축 제어가 가능한 플로터 타입의 로봇일 수도 있고, 3관절 이상을 가짐으로써 자유로운 각도조절이 가능한 다관절 로봇일 수도 있다.The
먼저, 플로터 타입의 로봇(20)은 X축 가이드(21)와, 상기 X축 가이드(21)에 수직이 되게 설치되는 Y축 가이드(22)와, 상기 X축 가이드(21) 및 Y축 가이드(22)에 수직이 되게 설치되는 Z축 가이드(23)와, 상기 Z축 가이드(23)에 설치되는 툴 플레이트(24)로 구성된다.First, the float-
상기 X축 가이드(21)는 베드(10)의 상부 양측에 각각 하나씩 설치된다.The
상기 Y축 가이드(22)는 양단이 X축 가이드(21)의 상면에 설치되어, X축 가이드(21)를 따라 X축 방향으로 움직인다.Both ends of the Y-
상기 Z축 가이드(23)는 Y축 가이드(22)의 전면 또는 후면에 설치되어, Y축 가이드(22)를 따라 X축과 직교하는 Y축 방향으로 움직인다.The Z-
상기 툴 플레이트(24)는 Y축 가이드(22)의 전면에 설치되어, Z축 가이드(23)를 따라 X축 및 Y축 각각에 직교하는 Z축 방향으로 움직인다. 이렇게 Y축 가이드(22)가 X축 방향으로 움직이고 Z축 가이드(23)가 Y축 방향으로 움직이며 툴 플레이트(24)가 Z축 방향으로 움직이기 때문에, 결과적으로 툴 플레이트(24)는 X-Y-Z축 방향으로 움직이게 된다. 따라서 툴 플레이트(24)에 설치된 터치펜(30)은 모바일 기기(M)의 터치스크린 전역의 특정 위치로 이동할 수 있게 된다.The
한편, 앞서 기재한 것처럼 본 발명에서 사용되는 로봇(20)은 3관절 이상을 갖는 다관절 로봇일 수 있다. 이러한 다관절 로봇(20)은 바디(25)와, 상기 바디(25)에 설치되는 하나 이상의 로봇암(26)과, 상기 로봇암(26)에 설치되는 승강블록(27)과, 상기 승강블록(27)에 설치되는 툴 플레이트(28)로 구성된다.Meanwhile, as described above, the
상기 바디(25)는 베드(10)가 설치된 바닥면에 대하여 360도 회전가능하게 설치된다.The
상기 로봇암(26)은 바디(25)에 일정각도 회동가능하게 설치되는데, 다수개가 서로 연결될 때는 이 다수개의 로봇암(26) 끼리도 서로 일정각도 회동가능하게 설치된다.The
상기 승강블록(27)은 다수개의 로봇암(26) 중에서 바디(25)에 가장 멀리 떨어져 있는 로봇암(26)의 끝단에 상하방향으로 이동 가능하게 설치된다.The
상기 툴 플레이트(28)는 승강블록(27)의 끝단에 360도 회전가능하게 설치된다. 이로써, 툴 플레이트(28)에는 바디(25)의 회전각도, 다수 로봇암(26)의 회전각도, 승강블록(27)의 상하방향 이동거리 및 툴 플레이트(28) 자체의 회전각도가 모두 적용되어, 툴 플레이트(28)에 설치된 터치펜(30)은 모바일 기기(M)의 터치스크린 전역의 특정 위치로 이동할 수 있게 된다.The
상기 터치펜(30)은 터치스크린을 사용하는 모바일 기기(M)를 사용할 때 손 대신 터치스크린을 터치하여 편리하게 사용할 수 있도록 도와주는 것으로서, 툴 플레이트(24,28)에 설치된다.The
이러한 터치펜(30)은 툴 플레이트(24,28)에 하나만 설치될 수도 있지만 2개 이상이 설치될 수도 있다.The
본 발명이 모바일 기기(M)를 실제의 일반적 환경에서 사용할 때 사용자의 지시에 따라 모바일 기기(M)의 애플리케이션이 제대로 작동되는지를 점검하기 위하여 사용되는 것이라는 점을 감안했을 때 터치펜(30)은 도면에 도시된 것처럼 2개가 설치되는 것이 바람직하다. Considering that the present invention is used to check whether the application of the mobile device M is properly operated according to the user's instruction when using the mobile device M in an actual general environment, It is preferable that two are provided as shown in the figure.
실제 환경에서 사용자가 모바일 기기(M)의 터치스크린을 터치하여 조작하는 방법들을 간략하게 살펴보면, 사용자는 터치스크린을 가볍게 1회 터치 또는 탭(Tap)을 하거나, 연속적으로 2회 터치 또는 탭을 하는 더블탭(Double tap)을 하거나, 터치스크린을 좀 강하게 누른 상태에서 한쪽으로 쭉 끌어서 움직이는 스와이프(Swipe)를 하거나, 터치스크린을 가볍게 터치한 상태에서 한쪽으로 끌어당기는 드래그(Drag)를 하거나, 터치스크린에 손가락 2개를 터치한 상태에서 손가락 사이가 좁아지도록 안쪽으로 오므리는 핀치(Pinch)를 하거나, 터치스크린에 손가락 2개를 터치한 상태에서 손가락 사이가 멀어지도록 바깥쪽으로 벌리는 스프레드(Spread)를 하거나, 터치스크린에 손가락 2개를 터치한 상태에서 손가락을 회전시키는 로테이트(Rotate)를 하거나, 그 외에도 슬라이드(Slide), 프레스 앤 드레그(Press & Drag), 홀드 앤 프레스(Hold & Press)와 같은 많은 제스처들을 수행한다. A brief description will now be made of a method in which a user operates the touch screen of the mobile device M by touching the touch screen in a real environment. The user may touch the touch screen lightly once or tap the touch screen, You can do a double tap or swipe by dragging the touch screen to one side while holding the touch screen slightly stronger or by dragging the touch screen with one touch while dragging it, Touch the two fingers on the screen and pinch the inside to narrow the gap between the fingers. Or touch the two fingers on the touch screen and spread the spread outward Alternatively, the user rotates the finger while rotating the finger while touching two fingers on the touch screen. In addition, It performs a number of gestures, such as de (Slide), press and drag (Press & Drag), press and hold (Hold & Press).
이러한 제스처들은 실제 환경에서 사용자들이 많이 수행하는 터치스크린 조작으로서, 본 발명은 이러한 제스처들을 하는데 로봇(20)의 툴 플레이트(24,28)에 설치된 터치펜(30)을 사용하도록 한다.These gestures are touch-screen operations performed by a large number of users in an actual environment, and the present invention uses the
모바일 기기(M)를 시각장애인 모드로 설정하면 터치스크린 사용법이 달라진다. 예를 들어, 한번 터치하면 터치 한 곳의 사용자 인터페이스 요소를 선택하고 그 내용을 음성으로 읽어준다. 이 상태에서 터치스크린을 두 번 탭하면 이전에 선택되었던 사용자 인터페이스를 실행한다.If the mobile device (M) is set to the visually impaired mode, the usage of the touch screen is changed. For example, once you touch it, you can select the user interface element of the place you touched and read the contents by voice. In this state, double-tap the touch screen to launch the previously selected user interface.
또한, 비장애인모드에서의 화면 전환은 한손가락으로 스와이프 하지만 시각장애인 모드에서는 두 개 또는 세 손가락으로 스와이프를 해야 한다. Also, the screen switching in non-disabled mode will swipe to one hand, but in the blind mode you should swipe with two or three fingers.
위에서 살펴본 바와 같이 일반적으로 많이 사용되는 터치스크린의 조작에는 손가락이 하나가 필요한 것도 있지만 시각장애인 모드에서는 손가락이 2개가 필요한 것도 있고, 3개의 손가락이 움직여야만 하는 것도 있다. As we have seen above, some commonly used touch screen operations require one finger, but in the visually impaired mode, two fingers are required, and three fingers must be moved.
이러한 손가락의 움직임을 터치펜(30)의 움직임으로 대체해야 하기 때문에 본 발명에서는 툴 플레이트(24,28)에 2개 또는 3개의 터치펜(30)을 이격되게 설치하고, 이격되게 설치된 터치펜(30)을 툴 플레이트(24,28) 상에서 직선운동하여 그 이격거리가 조절되도록 한다.In order to replace the movement of the finger with the movement of the
상기 컴퓨터(40)는 모바일 기기(M)의 화면 뷰 정보와 사용자 인터페이스 요소에 관한 정보를 수신하여 화면에 디스플레이한다. 이렇게 디스플레이된 화면 뷰 정보에 대해 접근성 평가 작업에 따라 로봇(20)을 조작하여 터치펜(30)으로 모바일 기기(M)의 터치스크린을 조작하도록 한다.The
부연하면, 사용자는 컴퓨터(40)의 모니터 화면에 디스플레이된 모바일 기기(M)의 애플리케이션의 화면 뷰 정보와 사용자 인터페이스 요소에 관한 정보를 보면서 접근성 평가를 수행할 수 있다. 본 발명에서는 접근성 평가 작업의 대부분의 검사항목을 컴퓨터(40) 화면을 통해 직관적으로 평가할 수 있고, 컴퓨터(40)의 마우스 및 키보드와 같은 입력장치를 이용하여 모바일 기기(M)의 조작이 가능하다. In addition, the user can perform the accessibility evaluation while viewing the screen view information of the application of the mobile device (M) displayed on the monitor screen of the computer (40) and the information related to the user interface element. In the present invention, most of the inspection items of the accessibility evaluation work can be intuitively evaluated through the screen of the
그리고, 컴퓨터(40)는 접근성 검사 항목별로 모바일 기기(M)로부터 전달받은 화면 뷰 정보와 사용자 인터페이스 요소에 관한 정보를 선별하여 모니터 화면에 표시하고, 사용자는 이 정보를 보면서 해당 검사항목에 관한 접근성 평가를 수행할 수 있다.Then, the
즉, 본 발명에서 컴퓨터(40)는 모바일 기기(M)를 연결하여 모바일 기기(M)에서의 애플리케이션의 접근성을 평가하기 위한 접근성 평가 작업을 수행하는데, 그 수행방법의 일환으로 로봇(20)을 제어하여 로봇(20)에 설치된 터치펜(30)을 사용하여 모바일 기기(M)의 터치스크린을 다양한 제스처로 조작을 한다.That is, in the present invention, the
이때, 컴퓨터(40)에서 터치펜(30)을 제어하여 모바일 기기(M)의 터치스크린 상에서 수행하는 제스처는 앞에 기재한 것처럼 탭(Tap), 더블탭(Double tap), 스와이프(Swipe), 드래그(Drag), 핀치(Pinch), 스프레드(Spread), 로테이트(Rotate), 슬라이드(Slide), 슬라이드(Slide), 프레스 앤 드레그(Press & Drag), 홀드 앤 프레스(Hold & Press) 등이다. 그 외에도 다양한 제스처들이 컴퓨터(40)에 의해 제어되는 터치펜(30)에 의해 수행될 수 있다.At this time, the gesture performed by the
이렇게 상기와 같은 제스처들을 컴퓨터(40)가 제어함으로써 모바일 기기(M)를 조작함에 따른 모바일 기기(M)의 반응을 토대로 접근성 평가 작업이 수행되고, 그 접근성 평가 작업 수행 중의 화면 뷰 정보가 상기 모바일 기기(M)로부터 컴퓨터(40)에 전송된다. 즉 컴퓨터(40)는 접근성 평가 작업의 수행에 의한 화면 뷰 정보를 모바일 기기(M)로부터 전송받는다.The accessibility evaluation work is performed based on the response of the mobile device M as the
한편, 본 발명은 컴퓨터(40) 및 모바일 기기(M) 등과 통신하는 서버(50)를 더 포함하는데, 모바일 기기(M)는 서버(50)에 애플리케이션의 화면 뷰 정보를 전송하며, 서버(50)는 수신한 화면 뷰 정보를 저장하고, 컴퓨터(40)로부터 요청이 있으면 저장된 화면 뷰 정보를 컴퓨터(40)에 전송한다.The present invention further includes a
또한, 본 발명은 컴퓨터(40)와 통신하는 카메라(60)를 더 포함할 수도 있는데, 카메라(60)는 모바일 기기(M)의 화면 뷰를 캡처하여 컴퓨터(40)에 전송한다. 이 카메라(60)는 컴퓨터(40)로 직접 캡처한 화면 뷰를 전송할 수 있다.The present invention may also include a
따라서, 본 발명은 컴퓨터(40)가 화면 뷰 정보를 모바일 기기(M)로부터 직접 전송받을 수도 있지만, 모바일 화면 뷰를 전달하는 서버(50)를 통해 전송받을 수도 있고, 경우에 따라서는 모바일 기기(M)의 화면을 촬영하는 카메라(60)를 통해 전송받을 수도 있다.Accordingly, the present invention may receive the screen view information directly from the mobile device M by the
그리고, 본 발명에서는 시각장애인 모드에서 모바일 기기(M)가 읽어주는 음성을 입력받아 텍스트 정보로 변환하여 모바일 기기(M)에서 전송받은 사용자 인터페이스 정보와 비교하는 음성변환장치(70)가 더 포함될 수 있다. 모바일 기기(M)에서 지원하고 있는 다양한 시각장애인 접근성 기능, 예를 들면 안드로이드 플랫폼의 TalkBack, 아이폰의 VoiceOver와 같은 기능을 활성화시켰을 때 모바일 기기(M)는 선택된 사용자 인터페이스 요소를 음성으로 읽어준다. 이때, 모바일 기기가 읽어주는 음성 정보가 화면 뷰의 정보와 다르면 사용자는 음성을 듣고 사용자 인터페이스 요소를 분별할 수 없게 된다.The present invention may further include a
여기서 모바일 기기(M)가 읽어주는 음성은 별도의 스피커를 통해 들을 수도 있다. 또한, 컴퓨터(40)가 모바일 기기(M)으로부터 전달받은 사용자 인터페이스 요소를 읽어주는데도 사용된다.Here, the voice read by the mobile device M may be heard through a separate speaker. The
컴퓨터(40)는 모바일 기기(M)로부터 전달받은 정보와 음성변환장치(70)로부터 전달받은 정보를 비교하여 접근성 평가를 수행하게 된다. The
10: 베드 20: 로봇
21: X축 가이드 22: Y축 가이드
23: Z축 가이드 24: 툴 플레이트
25: 바디 26: 로봇암
27: 승강블록 28: 툴 플레이트
30: 터치펜 40: 컴퓨터
50: 서버 60: 카메라
70: 음성변환장치 M: 모바일 기기10: Bed 20: Robot
21: X-axis guide 22: Y-axis guide
23: Z-axis guide 24: tool plate
25: Body 26: Robot arm
27: lift block 28: tool plate
30: touch pen 40: computer
50: server 60: camera
70: voice conversion device M: mobile device
Claims (9)
상기 베드(10) 주위에 설치되어 터치펜(30)을 사용하여 베드(10)에 안착된 모바일 기기(M)의 터치스크린을 조작하는 로봇(20); 및
상기 모바일 기기(M)의 화면 뷰 정보와 사용자 인터페이스 요소에 관한 정보를 수신하여 화면에 디스플레이하고, 디스플레이된 화면 뷰 정보에 대해 접근성 평가 작업에 따라 상기 로봇(20)을 조작하여 터치펜(30)으로 모바일 기기(M)의 터치스크린을 조작하도록 하는 컴퓨터(40); 를 포함하며,
상기 로봇(20)은,
상기 베드(10) 상측에 설치되는 X축 가이드(21);
상기 X축 가이드(21)를 따라 X축 방향으로 움직이는 Y축 가이드(22);
상기 Y축 가이드(22)를 따라 X축과 직교하는 Y축 방향으로 움직이는 Z축 가이드(23); 및
상기 Z축 가이드(23)를 따라 X축 및 Y축 각각에 직교하는 Z축 방향으로 움직이고, 상기 터치펜(30)이 설치된 툴 플레이트(24); 를 포함하는 것을 특징으로 하는 모바일 기기 진단시스템.
A bed (10) on which a mobile device (M) loaded with an application is seated;
A robot 20 installed around the bed 10 and operating a touch screen of the mobile device M placed on the bed 10 using the touch pen 30; And
And displays information on the screen view information and the user interface element of the mobile device M and displays the screen view information on the screen, and operates the robot 20 according to the accessibility evaluation operation on the displayed screen view information, A computer 40 for allowing the user to operate the touch screen of the mobile device M. / RTI >
The robot (20)
An X-axis guide 21 installed above the bed 10;
A Y-axis guide 22 moving in the X-axis direction along the X-axis guide 21;
A Z-axis guide 23 moving in the Y-axis direction orthogonal to the X-axis along the Y-axis guide 22; And
A tool plate (24) provided with the touch pen (30) and moving in the Z axis direction orthogonal to the X axis and the Y axis along the Z axis guide (23); And the mobile device diagnostic system.
상기 베드(10) 주위에 설치되어 터치펜(30)을 사용하여 베드(10)에 안착된 모바일 기기(M)의 터치스크린을 조작하는 로봇(20); 및
상기 모바일 기기(M)의 화면 뷰 정보와 사용자 인터페이스 요소에 관한 정보를 수신하여 화면에 디스플레이하고, 디스플레이된 화면 뷰 정보에 대해 접근성 평가 작업에 따라 상기 로봇(20)을 조작하여 터치펜(30)으로 모바일 기기(M)의 터치스크린을 조작하도록 하는 컴퓨터(40); 를 포함하며,
상기 로봇(20)은,
바닥면에 대하여 360도 회전가능하게 설치되는 바디(25);
상기 바디(25)에 회동 가능하게 설치되는 하나 이상의 로봇암(26);
상기 로봇암(26)의 끝단에 상하이동 가능하게 설치되는 승강블록(27); 및
상기 승강블록(27)의 끝단에 360도 회전가능하게 설치되고, 상기 터치펜(30)이 설치된 툴 플레이트(28); 를 포함하는 것을 특징으로 하는 모바일 기기 진단시스템.
A bed (10) on which a mobile device (M) loaded with an application is seated;
A robot 20 installed around the bed 10 and operating a touch screen of the mobile device M placed on the bed 10 using the touch pen 30; And
And displays information on the screen view information and the user interface element of the mobile device M and displays the screen view information on the screen, and operates the robot 20 according to the accessibility evaluation operation on the displayed screen view information, A computer 40 for allowing the user to operate the touch screen of the mobile device M. / RTI >
The robot (20)
A body 25 installed to be rotatable 360 degrees with respect to the bottom surface;
At least one robot arm (26) rotatably installed on the body (25);
A lift block 27 installed at an end of the robot arm 26 so as to be vertically movable; And
A tool plate (28) rotatably mounted on the end of the lifting block (27) and having the touch pen (30) installed therein; And the mobile device diagnostic system.
상기 모바일 기기 진단시스템은 서버(50); 를 더 포함하고,
상기 모바일 기기(M)는 상기 서버(50)에 애플리케이션의 화면 뷰 정보를 전송하며,
상기 서버(50)는 수신한 화면 뷰 정보를 저장하고, 상기 컴퓨터(40)로부터 요청이 있으면 저장된 화면 뷰 정보를 상기 컴퓨터(40)에 전송하는 것을 특징으로 하는 모바일 기기 진단시스템.
The method according to claim 1 or 2,
The mobile device diagnostic system includes a server (50); Further comprising:
The mobile device M transmits screen view information of an application to the server 50,
Wherein the server (50) stores the received screen view information and transmits the stored screen view information to the computer (40) when requested by the computer (40).
상기 모바일 기기 진단시스템은 상기 컴퓨터(40)와 통신하는 카메라(60); 를 더 포함하되,
상기 카메라(60)는 모바일 기기(M)의 화면 뷰를 캡처하여 상기 컴퓨터(40)에 전송하는 것을 특징으로 하는 모바일 기기 진단시스템.
The method according to claim 1 or 2,
The mobile device diagnostic system includes a camera (60) in communication with the computer (40); Further comprising:
Wherein the camera (60) captures a screen view of the mobile device (M) and transmits the captured screen view to the computer (40).
상기 컴퓨터(40)는 접근성 평가 작업의 수행에 의한 화면 뷰 정보를 상기 모바일 기기(M)로부터 전송받는 것을 특징으로 하는 모바일 기기 진단시스템.
The method according to claim 1 or 2,
And the computer (40) receives the screen view information by performing the accessibility evaluation work from the mobile device (M).
상기 툴 플레이트에는 2 이상의 터치펜(30)이 이격되게 설치되고, 이격되게 설치된 터치펜(30)은 툴 플레이트에서 직선운동하여 그 이격거리가 조절되는 것을 특징으로 하는 모바일 기기 진단시스템.
The method according to claim 1 or 2,
Wherein at least two touch pens (30) are provided on the tool plate so as to be spaced apart from each other, and the touch pen (30) installed to be spaced apart linearly moves on the tool plate to adjust a distance therebetween.
상기 컴퓨터(40)는 모바일 기기(M)의 터치스크린 상에서 탭(Tap), 더블탭(Double tap), 스와이프(Swipe), 드래그(Drag), 핀치(Pinch), 스프레드(Spread), 로테이트(Rotate) 제스처를 수행할 수 있도록 터치펜(30)을 제어하는 것을 특징으로 하는 모바일 기기 진단시스템.
The method according to claim 1 or 2,
The computer 40 is capable of performing various operations such as Tap, Double tap, Swipe, Drag, Pinch, Spread, Rotate And controls the touch pen (30) to perform a rotation gesture.
상기 모바일 기기(M)가 읽어주는 음성을 입력받아 텍스트 정보로 변환하여 모바일 기기(M)에서 전송받은 사용자 인터페이스 정보와 비교하는 음성변환장치(70); 를 포함하여 구성된 것을 특징으로 하는 모바일 기기 진단시스템.The method according to claim 1 or 2,
A voice converter 70 for receiving a voice read by the mobile device M and converting the voice into text information and comparing the voice information with user interface information received from the mobile device M; The mobile device diagnostic system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170010879A KR101966799B1 (en) | 2017-01-24 | 2017-01-24 | A Diagnosis System of Mobile Apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170010879A KR101966799B1 (en) | 2017-01-24 | 2017-01-24 | A Diagnosis System of Mobile Apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180086878A KR20180086878A (en) | 2018-08-01 |
KR101966799B1 true KR101966799B1 (en) | 2019-04-08 |
Family
ID=63227691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170010879A KR101966799B1 (en) | 2017-01-24 | 2017-01-24 | A Diagnosis System of Mobile Apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101966799B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101198336B1 (en) * | 2012-06-28 | 2012-11-06 | 전년하 | Tablet testing apparatus and method for touch screen panel using electro magnetic type |
KR101475228B1 (en) | 2013-09-25 | 2014-12-23 | 이승우 | Voice diagnostic system and its service method using dianostic device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101270317B1 (en) * | 2011-10-28 | 2013-05-31 | 에스케이씨앤씨 주식회사 | Method for diagnosing/repairing electronic device and system using the same |
JP5927014B2 (en) | 2012-04-18 | 2016-05-25 | Hoya株式会社 | Silicone hydrogel soft contact lens with wettable surface |
KR101612321B1 (en) * | 2014-02-26 | 2016-04-14 | 충북대학교 산학협력단 | Evaluation system for application accessibility service in mobile apparatus |
-
2017
- 2017-01-24 KR KR1020170010879A patent/KR101966799B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101198336B1 (en) * | 2012-06-28 | 2012-11-06 | 전년하 | Tablet testing apparatus and method for touch screen panel using electro magnetic type |
KR101475228B1 (en) | 2013-09-25 | 2014-12-23 | 이승우 | Voice diagnostic system and its service method using dianostic device |
Also Published As
Publication number | Publication date |
---|---|
KR20180086878A (en) | 2018-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2842013B1 (en) | Systems and methods for managing the display of content on an electronic device by detecting covered areas of the display | |
JP5759660B2 (en) | Portable information terminal having touch screen and input method | |
KR101861395B1 (en) | Detecting gestures involving intentional movement of a computing device | |
JP6009454B2 (en) | Enhanced interpretation of input events that occur when interacting with a computing device that uses the motion of the computing device | |
US10684673B2 (en) | Apparatus and control method based on motion | |
US20150035746A1 (en) | User Interface Device | |
KR20150103240A (en) | Depth-based user interface gesture control | |
JP2006340370A (en) | Input device by fingertip-mounting sensor | |
TW201035809A (en) | Method and apparatus for causing display of a cursor | |
KR102021851B1 (en) | Method for processing interaction between object and user of virtual reality environment | |
JP2008203911A (en) | Pointing device and computer | |
CN109669747A (en) | A kind of method and mobile terminal of moving icon | |
CN109800045A (en) | A kind of display methods and terminal | |
CN109558061A (en) | A kind of method of controlling operation thereof and terminal | |
TW201741814A (en) | Interface control method and mobile terminal | |
CN104731469A (en) | Touch equipment and one-hand operation method for same | |
JP6465277B6 (en) | Electronic device, processing method and program | |
KR101966799B1 (en) | A Diagnosis System of Mobile Apparatus | |
WO2015174316A1 (en) | Terminal, and terminal control method | |
CN107977180A (en) | System and method for enabling low visual acuity user to be interacted with touch-sensitive slave display | |
CN103488319B (en) | A kind of virtual touch method and system | |
CN109407951A (en) | A kind of unread message processing method and terminal | |
US20190041997A1 (en) | Pointer control in a handheld computer by way of hid commands | |
KR20150093270A (en) | Motion interface device | |
CN103345358A (en) | Display device and information processing method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |