KR20230171786A - Electronic apparatus and method of controlling thereof - Google Patents

Electronic apparatus and method of controlling thereof Download PDF

Info

Publication number
KR20230171786A
KR20230171786A KR1020220072350A KR20220072350A KR20230171786A KR 20230171786 A KR20230171786 A KR 20230171786A KR 1020220072350 A KR1020220072350 A KR 1020220072350A KR 20220072350 A KR20220072350 A KR 20220072350A KR 20230171786 A KR20230171786 A KR 20230171786A
Authority
KR
South Korea
Prior art keywords
display
information
processor
factory
operation information
Prior art date
Application number
KR1020220072350A
Other languages
Korean (ko)
Inventor
서상인
김성호
김용환
Original Assignee
주식회사 컴퓨터메이트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 컴퓨터메이트 filed Critical 주식회사 컴퓨터메이트
Priority to KR1020220072350A priority Critical patent/KR20230171786A/en
Publication of KR20230171786A publication Critical patent/KR20230171786A/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41885Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by modeling, simulation of the manufacturing system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0259Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the response to fault detection
    • G05B23/0267Fault communication, e.g. human machine interface [HMI]
    • G05B23/0272Presentation of monitored results, e.g. selection of status reports to be displayed; Filtering information to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치가 개시된다. 본 개시에 따른 전자 장치는 적어도 하나의 인스트럭션(instruction)을 저장하는 메모리, 통신 인터페이스, 디스플레이 및 적어도 하나의 인스트럭션을 실행하는 프로세서를 포함하고, 프로세서는 공장 내 위치한 장치에 대응되는 3D 오브젝트를 획득하고, 공장 내 위치한 장치 목록 중 장치를 선택하는 사용자 입력을 수신하면, 장치의 동작 정보를 수신하고, 3D 오브젝트를 렌더링하도록 디스플레이를 제어하고, 수신된 장치의 동작 정보에 기초하여 장치의 동작이 기설정된 범위를 벗어난 것으로 판단된 경우, 알림 메시지를 표시하도록 디스플레이를 제어한다. An electronic device is disclosed. The electronic device according to the present disclosure includes a memory that stores at least one instruction, a communication interface, a display, and a processor that executes the at least one instruction, where the processor acquires a 3D object corresponding to a device located in the factory, , upon receiving a user input to select a device from the list of devices located in the factory, the operation information of the device is received, the display is controlled to render a 3D object, and the operation of the device is preset based on the received operation information of the device. If it is determined to be out of range, the display is controlled to display a notification message.

Description

전자 장치 및 이의 제어 방법 { ELECTRONIC APPARATUS AND METHOD OF CONTROLLING THEREOF }Electronic device and method of controlling the same { ELECTRONIC APPARATUS AND METHOD OF CONTROLLING THEREOF }

본 개시는 전자 장치 및 이의 제어 방법에 관한 것으로, 구체적으로는 공장 내 환경을 3D 오브젝트로 구현하여 공장 내 생산 현장을 모니터링 하는 전자 장치 및 이의 제어 방법에 관한 것이다. This disclosure relates to an electronic device and a control method thereof, and more specifically, to an electronic device and a control method for monitoring a production site within a factory by implementing the environment within the factory as a 3D object.

CPPS(Cyber Physical Production Systems)는 스마트 공장 설계, 운영을 위한 사이버 물리 생산 시스템으로, 제품, 공정, 설비 등 생산시스템을 포함하는 실제 물리 세계와 가상 세계를 통합한 통합 시스템이다. CPPS (Cyber Physical Production Systems) is a cyber-physical production system for smart factory design and operation. It is an integrated system that integrates the real physical world and the virtual world, including production systems such as products, processes, and facilities.

CPPS의 구축 및 활용은 스마트 공장 실현을 위한 핵심적인 기술 요소임에도 불구하고, 비용 및 설계상의 어려움으로 인하여 중소제조기업 현장에서는 CPPS 도입에 어려움이 있었다.Although the construction and use of CPPS is a key technological element for realizing a smart factory, there were difficulties in introducing CPPS at small and medium-sized manufacturing companies due to cost and design difficulties.

본 개시는 상술한 어려움을 해결하기 위한 것으로, 본 개시의 목적은 공장 내 위치한 장치의 3D 오브젝트 및 동작 정보를 이용하여 공장 내 장치를 실시간 모니터링하는 전자 장치 및 이의 제어 방법을 제공함에 있다. The present disclosure is intended to solve the above-mentioned difficulties, and the purpose of the present disclosure is to provide an electronic device and a control method for real-time monitoring of devices in a factory using 3D objects and motion information of devices located in the factory.

상술한 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 전자 장치는, 어도 하나의 인스트럭션(instruction)을 저장하는 메모리, 통신 인터페이스, 디스플레이 및 상기 적어도 하나의 인스트럭션을 실행하는 프로세서;를 포함하고, 상기 프로세서는, 공장 내 위치한 장치에 대응되는 3D 오브젝트를 획득하고, 상기 공장 내 위치한 장치 목록 중 상기 장치를 선택하는 사용자 입력을 수신하면, 상기 장치의 동작 정보를 수신하고, 상기 수신된 동작 정보에 기초하여 상기 3D 오브젝트를 렌더링하도록 상기 디스플레이를 제어하고, 상기 수신된 장치의 동작 정보에 기초하여 상기 장치의 동작이 기설정된 범위를 벗어난 것으로 판단된 경우, 알림 메시지를 표시하도록 상기 디스플레이를 제어한다.An electronic device according to an embodiment of the present disclosure for achieving the above-described object includes a memory storing at least one instruction, a communication interface, a display, and a processor executing the at least one instruction, The processor acquires a 3D object corresponding to a device located in the factory, receives a user input for selecting the device from a list of devices located in the factory, receives operation information of the device, and operates on the received operation information. The display is controlled to render the 3D object based on the received operation information of the device, and if the operation of the device is determined to be outside a preset range based on the received operation information of the device, the display is controlled to display a notification message.

그리고, 상기 프로세서는, 사용자 입력에 따라 상기 3D 오브젝트의 색상, 위치, 각도, 크기 및 회전 정보 중 적어도 하나의 속성 정보가 변경되면, 상기 변경된 속성 정보에 기초하여 상기 3D 오브젝트가 표시되도록 상기 디스플레이를 제어할 수 있다. And, when at least one attribute information of color, position, angle, size, and rotation information of the 3D object changes according to a user input, the processor configures the display to display the 3D object based on the changed attribute information. You can control it.

또한, 상기 프로세서는, 사용자 입력에 따라 상기 동작 정보가 변경되면, 상기 변경된 동작 정보를 상기 장치 또는 외부 장치에 전송하고, 상기 변경된 동작 정보에 기초하여 상기 3D 오브젝트를 렌더링하도록 상기 디스플레이를 제어할 수 있다. Additionally, when the motion information is changed according to a user input, the processor may transmit the changed motion information to the device or an external device and control the display to render the 3D object based on the changed motion information. there is.

그리고, 상기 프로세서는, 상기 장치와 연결된 장치 정보를 획득하고, 사용자 입력에 의해 상기 3D 오브젝트가 선택되면, 상기 연결된 장치 정보를 표시하도록 상기 디스플레이를 제어할 수 있다. Additionally, the processor may obtain device information connected to the device and control the display to display the connected device information when the 3D object is selected by user input.

또한, 상기 프로세서는, 상기 디스플레이 상에 표시된 가상의 공간에 시점을 설정하고, 사용자의 입력에 따라 상기 시점의 위치, 방향 및 시야 각도 중 적어도 하나의 시점 정보가 변경되면, 상기 변경된 시점 정보에 기초하여 상기 3D 오브젝트를 렌더링하도록 상기 디스플레이를 제어할 수 있다. In addition, the processor sets a viewpoint in a virtual space displayed on the display, and when at least one viewpoint information among the position, direction, and viewing angle of the viewpoint changes according to the user's input, based on the changed viewpoint information. Thus, the display can be controlled to render the 3D object.

한편, 본 개시의 또 다른 실시 예에 따른 3D 오브젝트 표시 방법은, 공장 내 위치한 장치에 대응되는 3D 오브젝트를 획득하는 단계, 상기 공장 내 위치한 장치 목록 중 상기 장치를 선택하는 사용자 입력을 수신하면, 상기 장치의 동작 정보를 수신하고, 상기 수신된 동작 정보에 기초하여 상기 3D 오브젝트를 렌더링하는 단계 및 상기 수신된 장치의 동작 정보에 기초하여 상기 장치의 동작이 기설정된 범위를 벗어난 것으로 판단된 경우, 알림 메시지를 표시하는 단계를 포함한다. Meanwhile, a 3D object display method according to another embodiment of the present disclosure includes obtaining a 3D object corresponding to a device located in a factory, upon receiving a user input for selecting the device from a list of devices located in the factory, Receiving operation information of the device, rendering the 3D object based on the received operation information, and notifying if the operation of the device is determined to be outside a preset range based on the received operation information of the device. It includes the step of displaying a message.

그리고, 사용자 입력에 따라 상기 3D 오브젝트의 색상, 위치, 각도, 크기 및 회전 정보 중 적어도 하나의 속성 정보가 변경되면, 상기 변경된 속성 정보에 기초하여 상기 3D 오브젝트를 표시하는 단계를 더 포함할 수 있다. And, when at least one attribute information of the color, position, angle, size, and rotation information of the 3D object changes according to the user input, the method may further include displaying the 3D object based on the changed attribute information. .

또한, 사용자 입력에 따라 상기 동작 정보가 변경되면, 상기 변경된 동작 정보를 상기 외부 장치에 전송하는 단계 및 상기 변경된 동작 정보에 기초하여 상기 3D 오브젝트를 렌더링하는 단계를 더 포함할 수 있다. Additionally, when the motion information is changed according to a user input, the method may further include transmitting the changed motion information to the external device and rendering the 3D object based on the changed motion information.

그리고, 상기 장치와 연결된 장치 정보를 획득하는 단계 및 사용자 입력에 의해 상기 3D 오브젝트가 선택되면, 상기 연결된 장치 정보를 표시하는 단계를 더 포함할 수 있다. The method may further include obtaining device information connected to the device and displaying the connected device information when the 3D object is selected by user input.

또한, 상기 디스플레이 상에 표시된 가상의 공간에 시점을 설정하는 단계 및 사용자의 입력에 따라 상기 시점의 위치, 방향 및 시야 각도 중 적어도 하나의 시점 정보가 변경되면, 상기 변경된 시점 정보에 기초하여 상기 3D 오브젝트를 렌더링하는 단계를 더 포함할 수 있다. In addition, when setting a viewpoint in a virtual space displayed on the display and at least one viewpoint information among the position, direction, and viewing angle of the viewpoint is changed according to the user's input, the 3D display is displayed based on the changed viewpoint information. A step of rendering the object may be further included.

한편, 본 개시의 또 다른 일 실시 예에 따른 3D 오브젝트 표시 방법을 실행하기 위한 프로그램을 포함하는 컴퓨터 판독가능 기록매체에 있어서, 상기 3D 오브젝트 표시 방법은 공장 내 위치한 장치에 대응되는 3D 오브젝트를 획득하는 단계, 상기 가상의 장치의 동작 정보 및 통신 설정 정보를 입력하는 사용자 입력이 수신되면, 상기 공장 내 위치한 장치 목록 중 상기 장치를 선택하는 사용자 입력을 수신하면, 상기 장치의 동작 정보를 수신하고, 상기 수신된 동작 정보에 기초하여 상기 3D 오브젝트를 렌더링하는 단계 및 상기 수신된 장치의 동작 정보에 기초하여 상기 장치의 동작이 기설정된 범위를 벗어난 것으로 판단된 경우, 알림 메시지를 표시하는 단계를 포함한다. Meanwhile, in a computer-readable recording medium including a program for executing a 3D object display method according to another embodiment of the present disclosure, the 3D object display method includes obtaining a 3D object corresponding to a device located in a factory. Step, when a user input for entering operation information and communication setting information of the virtual device is received, and when a user input for selecting the device from a list of devices located in the factory is received, operation information of the device is received, It includes rendering the 3D object based on received motion information, and displaying a notification message when it is determined that the operation of the device is outside a preset range based on the received motion information of the device.

도 1은 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 도면,
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도,
도 3a 내지 도 3d는 본 개시의 일 실시 예에 따라 생성된 3D 오브젝트의 설정 정보를 입력하기 위한 UI를 설명하기 위한 도면,
도 4a 및 도 4b는 본 개시의 일 실시 예에 따라 디스플레이 상에 표시된 시점 이동에 따라 렌더링되는 3D 오브젝트를 설명하기 위한 도면,
도 5는 본 개시의 일 실시 예에 따라 3D 오브젝트에 대응되는 장치 정보를 표시하는 전자 장치를 설명하기 위한 도면,
도 6은 본 개시의 일 실시 예에 따라 3D 오브젝트에 대응되는 장치를 모니터링하는 전자 장치를 설명하기 위한 도면, 및
도 7은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
1 is a diagram for explaining an electronic device according to an embodiment of the present disclosure;
2 is a block diagram for explaining the configuration of an electronic device according to an embodiment of the present disclosure;
3A to 3D are diagrams for explaining a UI for inputting setting information of a 3D object created according to an embodiment of the present disclosure;
4A and 4B are diagrams for explaining a 3D object rendered according to a movement of a viewpoint displayed on a display according to an embodiment of the present disclosure;
5 is a diagram for explaining an electronic device that displays device information corresponding to a 3D object according to an embodiment of the present disclosure;
6 is a diagram for explaining an electronic device that monitors a device corresponding to a 3D object according to an embodiment of the present disclosure, and
FIG. 7 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present disclosure will be described in detail.

본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the embodiments of the present disclosure have selected general terms that are currently widely used as much as possible while considering the functions in the present disclosure, but this may vary depending on the intention or precedent of a technician working in the art, the emergence of new technology, etc. . In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description part of the relevant disclosure. Therefore, the terms used in this disclosure should be defined based on the meaning of the term and the overall content of this disclosure, rather than simply the name of the term.

이하, 본 문서의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 문서의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, various embodiments of this document are described with reference to the attached drawings. However, this is not intended to limit the technology described in this document to specific embodiments, and should be understood to include various modifications, equivalents, and/or alternatives to the embodiments of this document. . In connection with the description of the drawings, similar reference numbers may be used for similar components.

본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as “have,” “may have,” “includes,” or “may include” refer to the existence of the corresponding feature (e.g., a numerical value, function, operation, or component such as a part). , and does not rule out the existence of additional features.

본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as “A or B,” “at least one of A or/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” includes (1) at least one A, (2) at least one B, or (3) it may refer to all cases including both at least one A and at least one B.

본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as “first,” “second,” “first,” or “second,” used in this document can modify various components regardless of order and/or importance, and can refer to one component. It is only used to distinguish from other components and does not limit the components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, a first component may be renamed a second component without departing from the scope of rights described in this document, and similarly, the second component may also be renamed to the first component.

본 문서에서 사용된 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.Terms such as “module,” “unit,” and “part” used in this document are terms to refer to components that perform at least one function or operation, and these components are implemented in hardware or software. Alternatively, it can be implemented through a combination of hardware and software. In addition, a plurality of "modules", "units", "parts", etc. are integrated into at least one module or chip, except in cases where each needs to be implemented with individual specific hardware, and is integrated into at least one processor. It can be implemented as:

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (e.g., a first component) is “(operatively or communicatively) coupled with/to” another component (e.g., a second component). When referred to as being “connected to,” it should be understood that any component may be directly connected to the other component or may be connected through another component (e.g., a third component). On the other hand, when a component (e.g., a first component) is said to be “directly connected” or “directly connected” to another component (e.g., a second component), It may be understood that no other component (e.g., a third component) exists between other components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다. As used in this document, the expression “configured to” depends on the situation, for example, “suitable for,” “having the capacity to.” ," can be used interchangeably with "designed to," "adapted to," "made to," or "capable of." The term “configured (or set to)” may not necessarily mean “specifically designed to” in hardware. Instead, in some contexts, the expression “a device configured to” may mean that the device is “capable of” working with other devices or components. For example, the phrase "processor configured (or set) to perform A, B, and C" refers to a processor dedicated to performing the operations (e.g., an embedded processor), or by executing one or more software programs stored on a memory device. , may refer to a general-purpose processor (e.g., CPU or application processor) capable of performing the corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.Terms used in this document are merely used to describe specific embodiments and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions, unless the context clearly indicates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the technical field described in this document. Among the terms used in this document, terms defined in general dictionaries may be interpreted to have the same or similar meaning as the meaning they have in the context of related technology, and unless clearly defined in this document, have an ideal or excessively formal meaning. It is not interpreted as In some cases, even terms defined in this document cannot be interpreted to exclude embodiments of this document.

아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Below, with reference to the attached drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily practice them. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present disclosure in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

본 개시에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.In this disclosure, the term user may refer to a person using an electronic device or a device (eg, an artificial intelligence electronic device) using an electronic device.

이하 첨부된 도면들을 참조하여 본 개시의 일 실시 예를 보다 상세하게 설명한다.Hereinafter, an embodiment of the present disclosure will be described in more detail with reference to the attached drawings.

도 1은 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 도면이다. 1 is a diagram for explaining an electronic device according to an embodiment of the present disclosure.

본 개시의 다양한 실시예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. Electronic devices according to various embodiments of the present disclosure include, for example, smartphones, tablet PCs, mobile phones, video phones, e-book readers, desktop PCs, laptop PCs, netbook computers, workstations, servers, PDAs, and PMPs. (portable multimedia player), may include at least one of an MP3 player, a camera, or a wearable device.

도 1에 도시된 바와 같이, 전자 장치(100)는 공장 내 환경에 대한 3D 오브젝트를 표시할 수 있다. 이때, 공장 내 환경을 포함하는 3D 오브젝트는 실제 공장 내 환경을 3차원으로 구현한 오브젝트일 수 있다. 구체적으로, 전자 장치(100)는 실제 공장 내 장치(또는 설비), 재료, 벽, 또는 바닥에 대응되는 3D 오브젝트를 렌더링하여 공장 내 환경에 대한 3D 오브젝트를 표시할 수 있다. As shown in FIG. 1, the electronic device 100 can display a 3D object about the environment within the factory. At this time, the 3D object including the environment within the factory may be an object that implements the environment within the actual factory in three dimensions. Specifically, the electronic device 100 may display 3D objects for the environment within the factory by rendering 3D objects corresponding to devices (or equipment), materials, walls, or floors within the actual factory.

본 개시에서 공장 내 장치는 공장에서 물품을 생산하는데 사용하는 장치 뿐 만 아니라 공장 내 위치한 모든 장치를 의미할 수 있다. 가령, 공장 내 장치는 공장 내 생산 장치, 품질 감지 장치, 포장 장치 뿐만 아니라, 이동 장치, 환기 장치, 배수 장치, 방음 장치, 통신 장치, 또는 센서 등을 포함할 수 있다. In this disclosure, the device within the factory may refer to all devices located within the factory as well as devices used to produce goods in the factory. For example, in-factory devices may include in-factory production devices, quality detection devices, packaging devices, as well as movement devices, ventilation devices, drainage devices, soundproofing devices, communication devices, or sensors.

전자 장치(100)는 공장 내 환경에 대한 3D 오브젝트를 획득하고 이를 표시할 수 있다. 가령, 전자 장치(100)는 공장 내 장치, 재료, 벽, 또는 바닥 각각에 대응되는 3D 오브젝트를 획득하고 이를 렌더링하여 공장 내 환경에 대한 3D 오브젝트를 표시할 수 있다. The electronic device 100 can obtain a 3D object for the environment within the factory and display it. For example, the electronic device 100 may acquire 3D objects corresponding to each device, material, wall, or floor within the factory and render them to display the 3D object for the environment within the factory.

전자 장치(100)는 사용자의 입력에 의해 3D 오브젝트의 명칭, 색상, 위치, 크기 등을 변경할 수 있다. 가령, 사용자가 3D 오브젝트의 위치를 변경하기 위하여 3D 오브젝트가 위치할 좌표 값을 입력하는 경우, 전자 장치(100)는 입력된 좌표 값 위치에 3D 오브젝트를 표시할 수 있다. The electronic device 100 can change the name, color, location, size, etc. of a 3D object based on user input. For example, when a user inputs coordinate values where the 3D object will be located in order to change the location of the 3D object, the electronic device 100 may display the 3D object at the input coordinate value location.

전자 장치(100)는 공장 내 장치의 동작 정보를 수신할 수 있다. 구체적으로, 전자 장치(100)는 공장 내 장치 또는 공장 내 장치를 제어하는 제어 장치(가령, PLC, Programmable Logic Controller)로부터 공장 내 장치의 동작 정보를 수신할 수 있다. 이를 위하여 전자 장치(100)는 공장 내 장치 또는 공장 내 장치를 제어하는 제어 장치와 통신을 수행할 수 있다. The electronic device 100 may receive operation information of devices within the factory. Specifically, the electronic device 100 may receive operation information of devices within the factory from devices within the factory or a control device (eg, PLC, Programmable Logic Controller) that controls the devices within the factory. To this end, the electronic device 100 may communicate with a device within the factory or a control device that controls the device within the factory.

그리고, 전자 장치(100)는 수신한 장치의 동작 정보를 기초로 장치의 동작을 모니터링할 수 있다. 구체적으로, 전자 장치(100)는 장치의 동작 정보를 주기적으로 수신하면서, 장치의 동작 정보가 기설정된 범위를 벗어나는 경우 이상 동작이 발생하였음을 감지하고, 이에 대한 알람을 사용자에게 제공할 수 있다. Additionally, the electronic device 100 may monitor the operation of the device based on the received operation information of the device. Specifically, the electronic device 100 may periodically receive device operation information, detect that an abnormal operation has occurred when the device operation information is outside a preset range, and provide an alarm regarding this to the user.

이에 따라, 전자 장치(100)는 사용자에게 공장 내 환경에 대한 정보를 제공함으로써, 사용자가 공장 내 환경 정보를 모니터링 할 수 있도록 할 수 있다. Accordingly, the electronic device 100 may provide the user with information about the environment within the factory, allowing the user to monitor the environment information within the factory.

도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다. Figure 2 is a block diagram for explaining the configuration of an electronic device according to an embodiment of the present disclosure.

도 2에 개시된 바와 같이, 전자 장치(100)는 통신 인터페이스(110), 디스플레이(120), 메모리(130) 및 프로세서(140)를 포함한다. As disclosed in FIG. 2 , the electronic device 100 includes a communication interface 110, a display 120, a memory 130, and a processor 140.

통신 인터페이스(110)는 전자 장치(100)가 외부 장치(미도시)와 통신을 수행하기 위한 구성 요소이다. 전자 장치(100)는 통신 인터페이스(110)를 통하여 공장 내 장치 또는 공장 내 장치를 제어하는 제어 장치와 통신을 수행할 수 있다.The communication interface 110 is a component that allows the electronic device 100 to communicate with an external device (not shown). The electronic device 100 may communicate with a device within the factory or a control device that controls the device within the factory through the communication interface 110.

또 다른 일 실시 예에 따라, 전자 장치(100)는 통신 인터페이스(110)를 통하여 외부 서버와 통신을 수행할 수 있다. 이때, 외부 서버는 공장 내 장치 또는 공장 내 장치와 연결된 장치로 전자 장치(100)는 외부 서버를 통하여 공장 내 장치 또는 공장 내 장치와 연결된 장치의 동작 정보를 수신하거나, 공장 내 장치의 제어 명령을 전송할 수 있다. According to another embodiment, the electronic device 100 may communicate with an external server through the communication interface 110. At this time, the external server is a device within the factory or a device connected to the device within the factory, and the electronic device 100 receives operation information of the device within the factory or a device connected to the device within the factory through the external server, or sends control commands to the device within the factory. Can be transmitted.

통신 인터페이스(110)는 유선 통신 모듈(미도시), 근거리 무선 통신 모듈(미도시), 무선 통신 모듈(미도시) 등과 같은 다양한 통신 모듈을 포함할 수 있다. The communication interface 110 may include various communication modules, such as a wired communication module (not shown), a short-range wireless communication module (not shown), and a wireless communication module (not shown).

여기에서, 유선 통신 모듈은 유선 이더넷(Ethernet)과 같이 유선 통신 방식에 따라 외부 장치(미도시)와 통신을 수행하기 위한 모듈이다. 그리고, 근거리 무선 통신 모듈이란 블루투스(Bluetooth, BT), BLE(Bluetooth Low Energy), ZigBee 방식 등과 같은 근거리 무선 통신 방식에 따라 근거리에 위치한 외부 장치(미도시)와 통신을 수행하기 위한 모듈이다. 또한, 무선 통신 모듈이란 WiFi, IEEE 등과 같은 무선 통신 프로토콜에 따라 외부 네트워크에 연결되어 외부 장치(미도시)와 통신을 수행하는 모듈이다. 이 밖에 무선 통신 모듈은 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), LTE-A(LTE Advanced), 5세대 네트워크(5G Networks) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신망에 접속하여 통신을 수행하는 이동 통신 모듈을 더 포함할 수도 있다. Here, the wired communication module is a module for communicating with an external device (not shown) according to a wired communication method, such as wired Ethernet. Additionally, the short-range wireless communication module is a module for communicating with an external device (not shown) located nearby according to a short-range wireless communication method such as Bluetooth (BT), BLE (Bluetooth Low Energy), or ZigBee. Additionally, a wireless communication module is a module that is connected to an external network and communicates with an external device (not shown) according to a wireless communication protocol such as WiFi, IEEE, etc. In addition, wireless communication modules comply with various mobile communication standards such as 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), LTE (Long Term Evolution), LTE-A (LTE Advanced), and 5G Networks. It may further include a mobile communication module that connects to a mobile communication network and performs communication.

디스플레이(120)는 공장 내 환경을 포함하는 3D 오브젝트를 표시하기 위한 구성 요소이다. 본 개시에서 디스플레이(120)는 공장 내 장치, 재료, 벽 또는 바닥과 같은 공장 내 환경에 포함된 객체에 대응되는 3D 오브젝트를 렌더링할 수 있다. 뿐만 아니라, 디스플레이(120)는 3D 오브젝트의 명칭, 색상, 위치, 크기 등을 변경하기 위한 UI를 표시할 수도 있다. 또는, 디스플레이(120)는 공장 내 환경을 포함하는 3D 오브젝트의 시점을 변경하기 위한 UI를 표시할 수도 있다. The display 120 is a component for displaying 3D objects including the environment within the factory. In the present disclosure, the display 120 may render 3D objects corresponding to objects included in the environment within the factory, such as devices, materials, walls, or floors within the factory. In addition, the display 120 may display a UI for changing the name, color, location, size, etc. of the 3D object. Alternatively, the display 120 may display a UI for changing the viewpoint of a 3D object including the environment within the factory.

디스플레이(120)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, PDP(Plasma Display Panel), Wall, Micro LED 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(120) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(120)는 터치 센서와 결합된 터치 스크린, 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등으로 구현될 수 있다.The display 120 may be implemented as various types of displays, such as Liquid Crystal Display (LCD), Organic Light Emitting Diodes (OLED) display, Plasma Display Panel (PDP), Wall, Micro LED, etc. The display 120 may also include a driving circuit and a backlight unit that may be implemented in the form of a-si TFT, low temperature poly silicon (LTPS) TFT, or organic TFT (OTFT). Meanwhile, the display 120 may be implemented as a touch screen combined with a touch sensor, a flexible display, a 3D display, etc.

메모리(130)는 전자 장치(100)의 동작에 필요한 각종 프로그램 및 데이터 등을 저장하기 위한 구성 요소이다. 메모리(130)에는 프로세서(140)가 전자 장치(100)를 동작시키기 위한 적어도 하나의 인스트럭션(instruction)이 저장되어 있을 수 있다. The memory 130 is a component for storing various programs and data necessary for the operation of the electronic device 100. At least one instruction for the processor 140 to operate the electronic device 100 may be stored in the memory 130 .

그리고, 메모리(130)에는 공장 내 위치한 장치에 대응되는 3D 오브젝트가 저장되어 있을 수 있다. 이때, 메모리(130)에 저장된 3D 오브젝트는 전자 장치(100)에서 생성된 오브젝트일 수도 있고, 외부 장치로부터 수신한 오브젝트일 수도 있다. Additionally, 3D objects corresponding to devices located within the factory may be stored in the memory 130. At this time, the 3D object stored in the memory 130 may be an object created in the electronic device 100 or an object received from an external device.

메모리(130)는 비휘발성 메모리(ex, 하드디스크, SSD(Solid state drive), 플래시 메모리), 휘발성 메모리 등으로 구현될 수 있다. 한편, 메모리(130)는 프로세서(140)와 물리적으로 구분되는 메모리로 구현될 수 있다. 이 경우, 메모리(130)는 데이터 저장 용도에 따라 전자 장치(100)에 임베디드된 메모리 형태로 구현되거나, 전자 장치(100)에 탈부착할 수 있는 메모리 형태로 구현될 수도 있다. The memory 130 may be implemented as non-volatile memory (eg, hard disk, solid state drive (SSD), flash memory), volatile memory, etc. Meanwhile, the memory 130 may be implemented as a memory that is physically separate from the processor 140. In this case, the memory 130 may be implemented as a memory embedded in the electronic device 100 or as a memory detachable from the electronic device 100 depending on the data storage purpose.

예를 들어, 메모리(130)는 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)), 메모리 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결 가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.For example, the memory 130 may include volatile memory (e.g., dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.), non-volatile memory (e.g., OTPROM ( one time programmable ROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash memory (such as NAND flash or NOR flash, etc.), hard drive , or a solid state drive (SSD), memory card (e.g., compact flash (CF), secure digital (SD), micro secure digital (Micro-SD), mini secure digital (Mini-SD) , xD (extreme digital), MMC (multi-media card), etc.), external memory that can be connected to a USB port (for example, USB memory), etc.

또한, 메모리(130)는 프로세서(140)에 포함된 롬(ROM)(예를 들어, EEPROM(electrically erasable programmable read-only memory)), 램(RAM) 등의 내부 메모리로 구현될 수도 있다.Additionally, the memory 130 may be implemented as internal memory such as ROM (eg, electrically erasable programmable read-only memory (EEPROM)) or RAM included in the processor 140.

프로세서(140)는 메모리(130)와 전기적으로 연결되어 전자 장치(100)의 전반적인 동작 및 기능을 제어할 수 있다. 예를 들어, 프로세서(140)는 운영 체제 또는 응용 프로그램을 구동하여 프로세서(140)에 연결된 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 또한, 프로세서(140)는 다른 구성요소들 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장할 수 있다. The processor 140 is electrically connected to the memory 130 and can control the overall operation and functions of the electronic device 100. For example, the processor 140 can control hardware or software components connected to the processor 140 by running an operating system or application program, and can perform various data processing and calculations. Additionally, the processor 140 may load and process commands or data received from at least one of the other components into volatile memory and store various data in non-volatile memory.

이를 위해, 프로세서(140)는 해당 동작을 수행하기 위한 전용 프로세서(예, 임베디드 프로세서) 또는 메모리 디바이스에 저장된 하나 이상의 소프트웨어 프로그램을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU (Central Processing Unit) 또는 application processor)로 구현될 수 있다. To this end, the processor 140 is a dedicated processor (e.g., embedded processor) or a general-purpose processor (e.g., CPU (Central)) capable of performing the corresponding operations by executing one or more software programs stored in a memory device. It can be implemented as a processing unit or application processor.

본 개시에서 프로세서는 하나 또는 복수의 프로세서로 구성될 수 있다. 이때, 하나 또는 복수의 프로세서는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공지능 전용 프로세서일 수 있다. 하나 또는 복수의 프로세서는, 메모리에 저장된 기 정의된 동작 규칙 또는 인공지능 모델에 따라, 입력 데이터를 처리하도록 제어한다. 또는, 하나 또는 복수의 프로세서가 인공지능 전용 프로세서인 경우, 인공지능 전용 프로세서는, 특정 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다. In the present disclosure, the processor may consist of one or multiple processors. At this time, one or more processors may be a general-purpose processor such as a CPU, AP, or DSP (Digital Signal Processor), a graphics-specific processor such as a GPU or VPU (Vision Processing Unit), or an artificial intelligence-specific processor such as an NPU. One or more processors control input data to be processed according to predefined operation rules or artificial intelligence models stored in memory. Alternatively, when one or more processors are dedicated artificial intelligence processors, the artificial intelligence dedicated processors may be designed with a hardware structure specialized for processing a specific artificial intelligence model.

프로세서(140)는 공장 내 환경에 대한 3D 오브젝트를 획득할 수 있다. 구체적으로, 프로세서(140)는 공장 내 장치(또는 설비), 재료, 벽, 또는 바닥과 같이 공장 내 구성요소를 포함하는 3D 오브젝트를 획득할 수 있다. 이때, 3D 오브젝트는 공장 내 장치, 재료, 벽, 또는 바닥과 동일한 형상의 3D 오브젝트일 수 있으나, 반드시 이에 한하는 것은 아니다. 가령, 3D 오브젝트는 직육면체, 삼각뿔, 구와 같은 일반적인 도형의 입체 형상일 수 있다. The processor 140 may acquire a 3D object for the environment within the factory. Specifically, the processor 140 may acquire a 3D object including components within the factory, such as devices (or equipment), materials, walls, or floors within the factory. At this time, the 3D object may be a 3D object with the same shape as a device, material, wall, or floor in the factory, but is not necessarily limited to this. For example, a 3D object may be a three-dimensional shape of a general shape such as a cuboid, a triangular pyramid, or a sphere.

이때, 3D 오브젝트는 전자 장치(100)가 생성한 오브젝트이거나, 서버와 같은 외부 장치(미도시)로부터 수신한 오브젝트일 수 있다. At this time, the 3D object may be an object created by the electronic device 100 or an object received from an external device (not shown) such as a server.

프로세서(140)는 사용자의 입력에 따라 3D 오브젝트를 렌더링하도록 디스플레이(120)를 제어할 수 있다. 구체적으로, 프로세서(140)는, 공장 내 장치, 재료, 벽 또는 바닥과 같은 공장 내 구성 요소에 대한 목록 중 하나를 선택하는 사용자 입력을 수신하면, 선택된 구성 요소에 대응되는 3D 오브젝트를 렌더링하도록 디스플레이(120)를 제어할 수 있다. The processor 140 may control the display 120 to render a 3D object according to a user's input. Specifically, when processor 140 receives a user input selecting one of a list of components within a factory, such as devices, materials, walls, or floors, the processor 140 displays a display to render a 3D object corresponding to the selected component. (120) can be controlled.

프로세서(140)는 공장 내 위치한 장치 목록 중 하나의 장치를 선택하는 사용자 입력을 수신하면, 선택된 장치의 동작 정보를 수신하고, 선택된 장치의 3D 오브젝트를 렌더링하도록 디스플레이(120)를 제어할 수 있다. When the processor 140 receives a user input for selecting one device from a list of devices located in the factory, the processor 140 may receive operation information of the selected device and control the display 120 to render a 3D object of the selected device.

구체적으로, 프로세서(140)는 공장 내 위치한 장치 목록 중 하나의 장치를 선택하는 사용자 입력을 수신하면, 선택된 장치, 선택된 장치를 제어하는 제어 장치, 또는 선택된 장치의 동작 정보를 수신하는 외부 장치로부터 선택된 장치의 동작 정보를 수신할 수 있다. Specifically, when the processor 140 receives a user input for selecting one device from a list of devices located in the factory, the processor 140 selects the selected device from the selected device, a control device that controls the selected device, or an external device that receives operation information of the selected device. You can receive device operation information.

이때, 장치의 동작 정보는, 장치의 동작 여부, 동작 종류, 동작 방향, 동작 속도, 또는 동작 이상 발생 여부와 같은 장치의 동작과 관련된 정보를 포함할 수 있다. At this time, the operation information of the device may include information related to the operation of the device, such as whether the device is operating, type of operation, direction of operation, speed of operation, or whether an operation abnormality occurs.

프로세서(140)는 수신된 동작 정보에 기초하여 장치에 대한 3D 오브젝트를 렌더링하도록 디스플레이(120)를 제어할 수 있다. 가령, 수신된 장치의 동작 정보가 공장 내 1층과 2층을 이동하는 이동 장치의 동작 정보로 이동 장치가 1층에 위치한 정보를 포함한다면, 프로세서(140)는 1층에 위치하는 이동 장치에 대응되는 객체를 포함하는 3D 오브젝트를 렌더링하도록 디스플레이(120)를 제어할 수 있다.Processor 140 may control display 120 to render a 3D object for the device based on the received motion information. For example, if the received operation information of the device is operation information of a mobile device moving between the first and second floors in a factory and includes information that the mobile device is located on the first floor, the processor 140 may provide information about the mobile device located on the first floor. The display 120 can be controlled to render a 3D object including a corresponding object.

프로세서(140)는 수신된 장치의 동작 정보에 기초하여 장치의 동작이 기설정된 범위를 벗어난 것으로 판단된 경우, 알림 메시지를 표시하도록 디스플레이(120)를 제어할 수 있다. 이에 대한 구체적인 설명은 도 6에서 후술하도록 한다. If it is determined that the operation of the device is outside a preset range based on the received operation information of the device, the processor 140 may control the display 120 to display a notification message. A detailed description of this will be provided later in FIG. 6.

한편, 프로세서(140)는 사용자로부터 3D 오브젝트에 대한 속성 정보를 입력받을 수 있다. 이를 위하여, 프로세서(140)는 사용자로부터 3D 오브젝트에 대한 속성 정보를 입력 받기 위한 UI(User Interface)를 표시하도록 디스플레이(120)를 제어할 수 있다. Meanwhile, the processor 140 may receive attribute information about a 3D object from the user. To this end, the processor 140 may control the display 120 to display a UI (User Interface) for receiving attribute information about a 3D object from a user.

여기에서, 속성 정보는 3D 오브젝트에 포함된 객체의 종류, 렌더링될 위치, 객체명, 객체의 색상, 크기, 회전도, 동작 종류 및 동작 속도와 같은 속성을 포함할 수 있다. Here, the attribute information may include attributes such as the type of object included in the 3D object, the location to be rendered, the object name, the object's color, size, rotation, type of motion, and motion speed.

프로세서(140)는 사용자의 입력에 따라 3D 오브젝트의 색상, 위치, 각도, 크기 및 회전 정보 중 적어도 하나의 속성 정보가 변경되면, 변경된 속성 정보에 기초하여 3D 오브젝트가 표시되도록 디스플레이(120)를 제어할 수 있다. When at least one of the color, position, angle, size, and rotation information of the 3D object changes according to the user's input, the processor 140 controls the display 120 to display the 3D object based on the changed attribute information. can do.

프로세서(140)는 사용자의 입력에 따라 3D 오브젝트에 대응되는 장치에 대한 동작 정보가 변경되면, 변경된 동작 정보를 장치 또는 외부 장치에 전송하고, 변경된 동작 정보에 기초하여 3D 오브젝트를 렌더링하도록 디스플레이(120)를 제어할 수 있다. 여기에서, 외부 장치는 3D 오브젝트에 대응되는 장치를 제어하기 위한 제어 장치나 서버를 포함할 수 있다. When the motion information for the device corresponding to the 3D object changes according to the user's input, the processor 140 transmits the changed motion information to the device or an external device, and displays the display 120 to render the 3D object based on the changed motion information. ) can be controlled. Here, the external device may include a control device or server for controlling the device corresponding to the 3D object.

가령, A 동작을 수행하고 있는 장치에 대하여 B 동작을 수행하도록 하기 위한 사용자 명령이 입력되면, 프로세서(140)는 B 동작에 대한 정보를 장치 또는 외부 장치에 전송하고, B 동작 정보에 기초하여 3D 오브젝트를 렌더링할 수 있다. 이때, 프로세서(140)는 B 동작을 수행하고 있는 장치에 대응되는 3D 오브젝트를 표시하거나 B 동작 정보를 표시하도록 디스플레이(120)를 제어할 수 있다. For example, when a user command is input to perform operation B on a device that is performing operation A, the processor 140 transmits information about operation B to the device or an external device and creates a 3D image based on the operation information B. Objects can be rendered. At this time, the processor 140 may control the display 120 to display a 3D object corresponding to the device performing the B operation or to display B operation information.

한편, 프로세서(140)는 공장 내 장치와 연결된 장치의 장치 정보를 획득할 수 있다. 구체적으로, 프로세서(140)는 사용자 입력을 통하여 장치와 전기적으로 연결된 장치의 장치 정보를 획득할 수 있다. 또는, 프로세서(140)는 공장 내 장치나 장치를 제어하는 제어 장치로부터 공장 내 장치와 전기적으로 연결된 장치의 정보를 수신할 수 있다. Meanwhile, the processor 140 can obtain device information on devices connected to devices in the factory. Specifically, the processor 140 may obtain device information of a device electrically connected to the device through user input. Alternatively, the processor 140 may receive information about a device electrically connected to a device within the factory from a device within the factory or a control device that controls the device.

프로세서(140)는 사용자 입력에 의해 3D 오브젝트가 선택되면, 선택된 객체에 대응되는 장치와 연결된 장치 정보를 표시하도록 디스플레이(120)를 제어할 수 있다. 여기에서 연결된 장치 정보는 연결된 장치의 이름, 종류, 동작 상태와 같은 정보를 포함할 수 있다. 예를 들어, A 장치와 온도계가 연결된 경우, 사용자 입력에 의해 A 장치에 대응되는 3D 오브젝트가 선택되면 프로세서(140)는 온도계에 의해 감지된 온도를 표시하도록 디스플레이(120)를 제어할 수 있다. When a 3D object is selected by a user input, the processor 140 may control the display 120 to display device information connected to a device corresponding to the selected object. Here, the connected device information may include information such as the name, type, and operating status of the connected device. For example, when device A and a thermometer are connected, when a 3D object corresponding to device A is selected by user input, the processor 140 can control the display 120 to display the temperature detected by the thermometer.

한편, 프로세서(140)는 디스플레이(120)에 표시되는 3D 오브젝트에 대한 시점을 변경할 수 있다. Meanwhile, the processor 140 may change the viewpoint of the 3D object displayed on the display 120.

구체적으로, 프로세서(140)는 디스플레이(120) 상에 표시된 가상의 공간에 시점을 설정할 수 있으며, 사용자 입력에 따라 시점을 변경할 수 있다. Specifically, the processor 140 can set a viewpoint in a virtual space displayed on the display 120 and change the viewpoint according to user input.

사용자의 입력에 따라 시점의 위치, 방향 및 시야 각도 중 적어도 하나의 시점 정보가 변경되면, 프로세서(140)는 변경된 시점 정보에 기초하여 3D 오브젝트를 렌더링하도록 디스플레이(120)를 제어할 수 있다. 이에 대한 구체적인 설명은 도 4a 및 4b에서 후술하도록 한다. If at least one viewpoint information among the position, direction, and viewing angle of the viewpoint changes according to the user's input, the processor 140 may control the display 120 to render a 3D object based on the changed viewpoint information. A detailed description of this will be provided later in FIGS. 4A and 4B.

도 3a 내지 도 3d는 본 개시의 일 실시 예에 따라 생성된 3D 오브젝트의 속성 정보를 입력하기 위한 UI를 설명하기 위한 도면이다. 3A to 3D are diagrams for explaining a UI for inputting attribute information of a 3D object created according to an embodiment of the present disclosure.

상술한 바와 같이, 프로세서(140)는 사용자로부터 3D 오브젝트의 속성 정보를 입력 받기 위한 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. As described above, the processor 140 may control the display 120 to display a UI for receiving attribute information of a 3D object from the user.

도 3a에 도시된 바와 같이, 프로세서(140)는 3D 오브젝트(가령, 장치)의 종류, 명칭, 색상(31), 크기(32), 회전(33), 위치(34)와 같은 속성 정보를 입력 받기 위한 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. As shown in FIG. 3A, the processor 140 inputs attribute information such as type, name, color (31), size (32), rotation (33), and position (34) of the 3D object (e.g., device). The display 120 can be controlled to display a UI for receiving.

여기에서, 회전은 3D 오브젝트가 회전되어 렌더링되는 정도를 나타내는 값을 의미할 수 있다. 가령, 프로세서(140)는, 회전 값이 0°인 경우 오브젝트의 정면이 렌더링되도록 디스플레이(120)를 제어하고, 회전 값이 90°인 경우 오브젝트의 우측면(또는 좌측면)이 렌더링되도록 디스플레이(120)를 제어하고, 회전 값이 180°인 경우 오브젝트의 후면이 렌더링되도록 디스플레이(120)를 제어하고, 회전 값이 270°인 경우 오브젝트의 좌측면(또는 우측면)이 렌더링되도록 디스플레이(120)를 제어할 수 있다. Here, rotation may mean a value indicating the degree to which a 3D object is rotated and rendered. For example, the processor 140 controls the display 120 to render the front side of the object when the rotation value is 0°, and controls the display 120 to render the right side (or left side) of the object when the rotation value is 90°. ), and if the rotation value is 180°, the display 120 is controlled to render the back of the object, and if the rotation value is 270°, the display 120 is controlled to render the left side (or right side) of the object. can do.

또한, 위치는 3D 오브젝트가 표시될 좌표 값을 의미할 수 있다. 프로세서(140)는 3D 오브젝트가 렌더링 될 배경 오브젝트 상에서 기준점을 설정하고, 그 기준점을 기준으로 좌표 값에 따라 3D 오브젝트가 표시될 위치를 결정할 수 있다. 그리고, 프로세서(140)는 결정된 위치에 3D 오브젝트를 렌더링할 수 있도록 디스플레이(120)를 제어할 수 있다. Additionally, the location may mean the coordinate value at which the 3D object will be displayed. The processor 140 may set a reference point on the background object on which the 3D object will be rendered, and determine a position where the 3D object will be displayed according to coordinate values based on the reference point. Additionally, the processor 140 may control the display 120 to render a 3D object at a determined location.

프로세서(140)는 입력된 속성 정보에 기초하여 객체의 3D 오브젝트를 렌더링하도록 디스플레이(120)를 제어할 수 있다. 가령, 도 3a에 도시된 바와 같이, 장치 Loader에 대응되는 3D 오브젝트의 색상(31), 크기(32), 회전도(33), 위치(34) 정보가 입력된 경우, 프로세서(140)는 크기가 100 사이즈이고 색상이 31인 장치 Loader의 정면(회전도 0°대응)을 좌표 (-1, -11) 위치에 렌더링하도록 디스플레이(120)를 제어할 수 있다. The processor 140 may control the display 120 to render a 3D object based on the input attribute information. For example, as shown in FIG. 3A, when color (31), size (32), rotation (33), and position (34) information of a 3D object corresponding to the device loader is input, the processor 140 determines the size. The display 120 can be controlled to render the front of the device loader (corresponding to a rotation degree of 0°) with a size of 100 and a color of 31 at the coordinates (-1, -11).

한편, 도 3a에 도시된 'event 생성하기' 아이콘(35)은 3D 오브젝트의 동작 정보를 입력하기 위한 UI이다. Meanwhile, the 'create event' icon 35 shown in FIG. 3A is a UI for inputting operation information of a 3D object.

사용자가 도 3a의 'event 생성하기' 아이콘(35)을 선택하면, 프로세서(140)는 도 3b에 도시된 바와 같이 3D 오브젝트의 동작 종류 또는 동작 속도를 입력하기 위한 UI(37)를 표시하도록 디스플레이(120)를 제어할 수 있다. 여기에서 동작 종류 및 동작 속도는 3D 오브젝트에 대응되는 공장 내 장치의 동작 종류 및 동작 속도를 의미할 수 있다.When the user selects the 'Create event' icon 35 in FIG. 3A, the processor 140 displays the UI 37 for inputting the operation type or operation speed of the 3D object as shown in FIG. 3B. (120) can be controlled. Here, the operation type and operation speed may mean the operation type and operation speed of the device in the factory corresponding to the 3D object.

사용자 입력에 따라 장치의 동작 정보가 변경되면 프로세서(140)는 변경된 동작 정보를 장치 또는 외부 장치에 전송하고, 변경된 동작 정보에 기초하여 3D 오브젝트를 렌더링하도록 디스플레이(120)를 제어할 수 있다. When the operation information of the device changes according to the user input, the processor 140 may transmit the changed operation information to the device or an external device and control the display 120 to render a 3D object based on the changed operation information.

이때, 전자 장치(100) 또는 외부 장치로부터 변경된 동작 정보를 수신한 장치(미도시)는 수신한 동작 정보에 기초하여 동작을 변경할 수 있다. At this time, the electronic device 100 or a device (not shown) that has received changed operation information from an external device may change its operation based on the received operation information.

프로세서(140)는 동작 정보를 장치 또는 외부 장치에 전송하기 위하여 장치 또는 외부 장치와의 연결을 설정할 수 있다. The processor 140 may establish a connection with the device or an external device to transmit operation information to the device or an external device.

도 3a에 표시된 'connect 생성하기' 아이콘(36)은 장치 또는 외부 장치와의 연결을 설정하기 위한 UI이다. The 'create connect' icon 36 shown in FIG. 3A is a UI for setting up a connection with a device or an external device.

사용자가 도 3a의 'connect 생성하기' 아이콘(36)을 선택하면, 프로세서(140)는 도 3c 또는 도 3d의 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. When the user selects the 'create connect' icon 36 in FIG. 3A, the processor 140 can control the display 120 to display the UI of FIG. 3C or 3D.

구체적으로 프로세서(140)는 통신 모드에 따라 서로 다른 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. Specifically, the processor 140 may control the display 120 to display different UIs depending on the communication mode.

가령, 도 3c에 도시된 바와 같이 연결 모드(39)가 'MES 모드'인 경우, 프로세서(140)는 서버와 같은 외부 장치를 통하여 동작 정보를 전송할 수 있다. 이 경우, 전자 장치(100)는 외부 장치와 이미 연결이 되어 있다는 점에서 프로세서(140)는 장치 식별 정보(가령, 설비 코드)만을 입력하는 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. For example, when the connection mode 39 is 'MES mode' as shown in FIG. 3C, the processor 140 may transmit operation information through an external device such as a server. In this case, given that the electronic device 100 is already connected to an external device, the processor 140 can control the display 120 to display a UI for inputting only device identification information (e.g., equipment code).

도 3d에 도시된 바와 같이 연결 모드(39)가 'OPCUA'인 경우, 프로세서(140)는 OPCUA 프로토콜을 사용하여 동작 정보를 전송할 수 있다. 이 경우, 프로세서(140)는 동작 정보를 전송할 장치의 URL, port, tag 등을 입력하기 위한 UI를 표시하도록 디스플레이(120)를 제어할 수 있다. As shown in FIG. 3D, when the connection mode 39 is 'OPCUA', the processor 140 can transmit operation information using the OPCUA protocol. In this case, the processor 140 may control the display 120 to display a UI for inputting the URL, port, tag, etc. of the device to transmit operation information.

도 3c 및 도 3d에서는 통신 모드가 'MES 모드' 또는 'OPCUA'인 경우를 도시하였으나, 통신 모드가 반드시 이에 한하는 것은 아니다. 가령, 통신 모드는 HTTP(Hyper Text Transfer Protocol), TCP/IP(Transfer Control Protocol/Internet Protocol) 등과 같이 다양한 통신 모드를 사용할 수 있으며, 통신 모드에 따라 UI의 입력 내용은 달라질 수 있다. 3C and 3D illustrate the case where the communication mode is 'MES mode' or 'OPCUA', but the communication mode is not necessarily limited to this. For example, various communication modes such as HTTP (Hyper Text Transfer Protocol) and TCP/IP (Transfer Control Protocol/Internet Protocol) can be used, and the input content of the UI may vary depending on the communication mode.

도 4a 및 도 4b는 본 개시의 일 실시 예에 따라 디스플레이 상에 표시된 시점 이동에 따라 렌더링되는 3D 오브젝트를 설명하기 위한 도면이다. FIGS. 4A and 4B are diagrams for explaining a 3D object rendered according to a movement of a viewpoint displayed on a display according to an embodiment of the present disclosure.

프로세서(140)는 디스플레이(120) 상에 표시된 가상의 공간에 시점을 설정할 수 있다. 본 개시에서, 시점은 3D 오브젝트에 대응되는 공장 내 구성요소를 바라보는 시력의 중심이 닿는 점을 의미한다. 가령, 도 4a에 표시된 3D 오브젝트의 시점은 3D 오브젝트(43,44, 및 45)의 우상향에 위치한다. The processor 140 may set a viewpoint in a virtual space displayed on the display 120. In the present disclosure, the viewpoint refers to the point where the center of vision touches a component in the factory corresponding to the 3D object. For example, the viewpoint of the 3D object shown in FIG. 4A is located to the upper right of the 3D objects 43, 44, and 45.

프로세서(140)는 렌더링되는 3D 오브젝트의 시점을 변경하고, 변경된 시점에 따라 3D 오브젝트를 표시하도록 디스플레이(120)를 제어할 수 있다. The processor 140 may change the viewpoint of the rendered 3D object and control the display 120 to display the 3D object according to the changed viewpoint.

프로세서(140)는 3D 오브젝트의 시점을 변경하기 위한 UI(41 및 42)를 표시할 수 있다. 이때, 프로세서(140)는 3D 오브젝트와 비슷한 형상을 포함하는 UI(41)를 디스플레이(120)상의 임의의 한 지점에 표시할 수 있다. 이때, 프로세서(140)는 시점 방향을 나타내기 위하여 X축, Y축 및 Z축을 UI(41)와 함께 표시하도록 디스플레이(120)를 제어할 수 있다. 또는, 프로세서(140)는 정육면체 형상의 UI(42)를 표시하고 UI(42)의 각 면에 시점 방향(42-1)을 표시하도록 디스플레이(120)를 제어할 수 있다. The processor 140 may display UIs 41 and 42 for changing the viewpoint of a 3D object. At this time, the processor 140 may display the UI 41 including a shape similar to a 3D object at an arbitrary point on the display 120. At this time, the processor 140 may control the display 120 to display the X-axis, Y-axis, and Z-axis together with the UI 41 to indicate the viewing direction. Alternatively, the processor 140 may control the display 120 to display the cube-shaped UI 42 and display the viewpoint direction 42-1 on each side of the UI 42.

프로세서(140)는 사용자의 입력에 따라 시점의 위치, 방향 및 시야 각도 중 적어도 하나의 시점 정보가 변경되면, 변경된 시점 정보에 기초하여 3D 오브젝트를 렌더링하도록 디스플레이(120)를 제어할 수 있다. If at least one viewpoint information among the position, direction, and viewing angle of the viewpoint changes according to the user's input, the processor 140 may control the display 120 to render a 3D object based on the changed viewpoint information.

구체적으로, 도 4a에 도시된 바와 같이 공장 내 장치에 대응되는 3D 오브젝트(43, 44, 및 45)가 표시된 상태에서, UI(41) 또는 UI(42)를 통해 시점의 위치를 시점 방향(42-1)으로 변경하려는 사용자의 입력이 수신되면, 프로세서(140)는 사용자 입력에 기초하여 시점 방향(42-1)에서 바라본 장치에 대응되는 3D 오브젝트를 렌더링하도록 디스플레이(120)를 제어할 수 있다. 이 경우, 도 4b에 도시된 바와 같이 3D 오브젝트(44) 뒤에 위치하는 3D 오브젝트 (45)는 렌더링 되지 않을 수 있다.Specifically, as shown in FIG. 4A, with 3D objects 43, 44, and 45 corresponding to devices in the factory displayed, the position of the viewpoint is displayed in the viewpoint direction 42 through the UI 41 or UI 42. When a user's input to change to -1) is received, the processor 140 may control the display 120 to render a 3D object corresponding to the device viewed from the viewpoint direction 42-1 based on the user input. . In this case, as shown in FIG. 4B, the 3D object 45 located behind the 3D object 44 may not be rendered.

도 5는 본 개시의 일 실시 예에 따라 3D 오브젝트에 대응되는 장치 정보를 표시하는 전자 장치를 설명하기 위한 도면이다. FIG. 5 is a diagram for explaining an electronic device that displays device information corresponding to a 3D object according to an embodiment of the present disclosure.

도 5에 도시된 바와 같이, 프로세서(140)는 공장 내 환경에 대한 3D 오브젝트를 표시할 수 있다. 구체적으로, 프로세서(140)는 공장 내 구성 요소에 대응되는 3D 오브젝트를 렌더링하여 공장 내 환경에 대한 3D 오브젝트를 표시할 수 있다. As shown in FIG. 5, the processor 140 can display a 3D object for the environment within the factory. Specifically, the processor 140 may display 3D objects for the environment within the factory by rendering 3D objects corresponding to components within the factory.

프로세서(140)는 도 3a 내지 도 3d에서의 UI를 통하여 입력 받은 설정 정보와 함께 3D 오브젝트를 매핑할 수 있다. 그리고, 프로세서(140)는 도 3c 또는 도 3d의 통신 연결 UI를 통하여 설정된 연결 방법에 의해 3D 오브젝트에 대응되는 장치의 동작 정보를 수신하거나, 사용자 입력에 따른 동작 정보를 3D 오브젝트에 대응되는 장치에 전송할 수 있다. The processor 140 may map a 3D object along with setting information input through the UI in FIGS. 3A to 3D. Then, the processor 140 receives operation information of the device corresponding to the 3D object by the connection method set through the communication connection UI of FIG. 3C or 3D, or transmits operation information according to user input to the device corresponding to the 3D object. Can be transmitted.

프로세서(140)는 3D 오브젝트가 선택된 경우, 선택된 3D 오브젝트가 다른 3D 오브젝트와 식별되도록 하기 위하여 선택된 3D 오브젝트에 하이라이트를 표시하도록 디스플레이(120)를 제어할 수 있다. When a 3D object is selected, the processor 140 may control the display 120 to display a highlight on the selected 3D object in order to distinguish the selected 3D object from other 3D objects.

프로세서(140)는 3D 오브젝트가 선택된 경우, 선택된 3D 오브젝트에 관한 정보(52)를 표시하도록 디스플레이(120)를 제어할 수 있다. 특히, 사용자에 의해 선택된 3D 오브젝트가 공장 내 장치에 해당하는 경우, 프로세서(140)는 선택된 3D 오브젝트에 대응되는 공장 내 장치의 정보를 수신하고 이를 표시하도록 디스플레이(120)를 제어할 수 있다. When a 3D object is selected, the processor 140 may control the display 120 to display information 52 about the selected 3D object. In particular, when the 3D object selected by the user corresponds to a device in the factory, the processor 140 may control the display 120 to receive information on the device in the factory corresponding to the selected 3D object and display it.

구체적으로, 프로세서(140)는 3D 오브젝트의 설정 정보에 기초하여 3D 오브젝트에 대응되는 장치로부터 동작 정보를 수신하고, 수신한 정보를 표시하도록 디스플레이(120)를 제어할 수 있다. Specifically, the processor 140 may receive operation information from a device corresponding to the 3D object based on the setting information of the 3D object and control the display 120 to display the received information.

프로세서(140)는 3D 오브젝트에 대응되는 장치에 관한 정보 뿐만 아니라, 3D 오브젝트에 대응되는 장치와 전기적으로 연결된 장치에 관한 정보도 수신할 수 있다. 그리고, 프로세서(140)는 장치에 대한 동작 정보 및 장치와 연결된 장치에 관한 정보를 표시하도록 디스플레이(120)를 제어할 수 있다. 이때, 연결된 장치에 관한 장치 정보는 연결된 장치의 동작 유무, 동작 종류, 동작 속도, 이상 여부와 같은 동작 정보를 포함할 수 있다. 다만, 이에 한정하는 것은 아니고, 장치 정보는 연결된 장치의 종류에 따라 다양할 수 있다. 가령, 연결된 장치가 온도계, 습도계, 소음 감지 장치와 같은 센서인 경우, 장치 정보는 감지 유무, 감지 결과 등을 포함할 수 있다. The processor 140 may receive not only information about the device corresponding to the 3D object, but also information about the device electrically connected to the device corresponding to the 3D object. Additionally, the processor 140 may control the display 120 to display operation information about the device and information about devices connected to the device. At this time, device information about the connected device may include operation information such as whether the connected device is operating, type of operation, operation speed, and abnormality. However, it is not limited to this, and device information may vary depending on the type of connected device. For example, if the connected device is a sensor such as a thermometer, hygrometer, or noise detection device, device information may include presence or absence of detection, detection results, etc.

가령, 도 5에 도시된 바와 같이, 공장 내 장치 A에 대응되는 3D 오브젝트(51)가 선택된 경우, 프로세서(140)는 장치 A에 대한 장치 정보로 '레진 현재 계량 결과' 및 '동작 여부(operation)'만을 수신하는 것이 아니라, 장치 A와 연결된 온도계의 온도 감지 결과를 수신할 수도 있다. For example, as shown in FIG. 5, when the 3D object 51 corresponding to device A in the factory is selected, the processor 140 displays 'resin current weighing result' and 'operation status' as device information for device A. )', you can also receive the temperature detection results of the thermometer connected to device A.

도 6은 본 개시의 일 실시 예에 따라 3D 오브젝트에 대응되는 장치를 모니터링하는 전자 장치를 설명하기 위한 도면이다. FIG. 6 is a diagram for explaining an electronic device that monitors a device corresponding to a 3D object according to an embodiment of the present disclosure.

프로세서(140)는 3D 오브젝트에 대응되는 장치로부터 장치의 동작 정보를 수신할 수 있다. The processor 140 may receive device operation information from a device corresponding to a 3D object.

구체적으로, 장치에 대응되는 3D 오브젝트가 디스플레이(120)에 렌더링되면, 프로세서(140)는 3D 오브젝트의 설정 정보에 포함된 통신 연결에 따라 3D 오브젝트에 대응되는 장치에 동작 정보를 요청할 수 있으며, 장치로부터 주기적으로 장치의 동작 정보를 수신할 수 있다. Specifically, when a 3D object corresponding to a device is rendered on the display 120, the processor 140 may request operation information from the device corresponding to the 3D object according to the communication connection included in the setting information of the 3D object, and the device You can periodically receive device operation information from.

프로세서(140)는 수신된 장치의 동작 정보에 기초하여 장치의 동작이 기설정된 동작 범위를 벗어난 것인지 판단할 수 있다. 여기에서 기설정된 동작 범위는 장치의 정상 동작 범위를 의미한다. 이를 위하여, 프로세서(140)는 각 장치의 정상 동작 범위 정보를 포함하는 데이터를 미리 확보할 수 있다. The processor 140 may determine whether the operation of the device is outside a preset operation range based on the received operation information of the device. Here, the preset operating range refers to the normal operating range of the device. To this end, the processor 140 may secure data containing information on the normal operating range of each device in advance.

프로세서(140)는 수신된 장치의 동작 정보에 기초하여 장치의 동작이 기설정된 범위를 벗어난 것으로 판단된 경우, 알림 메시지(61)를 표시하도록 디스플레이(120)를 제어할 수 있다. 다만, 반드시 이에 한하는 것은 아니며, 가령 프로세서(140)는 스피커(미도시)를 통하여 알림 메시지를 출력할 수도 있다. If it is determined that the operation of the device is outside a preset range based on the received operation information of the device, the processor 140 may control the display 120 to display a notification message 61. However, it is not necessarily limited to this, and for example, the processor 140 may output a notification message through a speaker (not shown).

프로세서(140)는 장치의 명칭, 장치의 동작 상태를 포함하는 알림 메시지(61)를 표시하도록 디스플레이(120)를 제어할 수 있다. The processor 140 may control the display 120 to display a notification message 61 including the name of the device and the operating status of the device.

이에 따라, 사용자는 공장 내 장치 중 어떠한 장치에 어떠한 이상이 발생하였는지 용이하게 식별할 수 있다. Accordingly, the user can easily identify which device in the factory has a problem.

도 7은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다. FIG. 7 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.

우선, 공장 내 환경에 대한 3D 오브젝트를 획득한다(S710). 이때, 3D 오브젝트는 전자 장치(100)가 생성한 오브젝트거나, 서버와 같은 외부 장치(미도시)로부터 수신한 오브젝트일 수 있다. First, 3D objects for the environment within the factory are acquired (S710). At this time, the 3D object may be an object created by the electronic device 100 or an object received from an external device (not shown) such as a server.

그리고, 사용자의 입력에 기초하여 획득한 3D 오브젝트를 렌더링할 수 있다. 구체적으로, 공장 내 장치, 재료, 벽 또는 바닥과 같은 공장 내 구성 요소에 대한 목록 중 하나를 선택하는 사용자 입력을 수신하면, 선택된 구성 요소에 대응되는 3D 오브젝트를 렌더링할 수 있다. And, the 3D object obtained based on the user's input can be rendered. Specifically, upon receiving a user input selecting one of a list of components within the factory, such as devices, materials, walls, or floors, a 3D object corresponding to the selected component may be rendered.

공장 내 위치한 장치 목록 중 하나의 장치를 선택하는 사용자 입력을 수신하면, 선택된 장치의 동작 정보를 수신하고, 선택된 장치의 3D 오브젝트를 렌더링할 수 있다(S720). When receiving a user input for selecting one device from the list of devices located in the factory, operation information of the selected device can be received and a 3D object of the selected device can be rendered (S720).

이때, 장치, 선택된 장치를 제어하는 제어 장치, 또는 선택된 장치의 동작 정보를 수신하는 외부 장치로부터 선택된 장치의 동작 정보를 수신할 수 있다. At this time, operation information of the selected device may be received from the device, a control device that controls the selected device, or an external device that receives operation information of the selected device.

수신된 장치의 동작 정보에 기초하여 장치의 동작이 기설정된 범위를 벗어난 것으로 판단된 경우, 알림 메시지를 표시할 수 있다(S730).If the operation of the device is determined to be outside the preset range based on the received operation information of the device, a notification message may be displayed (S730).

한편, 사용자로부터 3D 오브젝트에 대한 속성 정보를 입력받을 수 있다. 이를 위하여, 사용자로부터 3D 오브젝트에 대한 속성 정보를 입력 받기 위한 UI(User Interface)를 표시할 수 있다. Meanwhile, attribute information about a 3D object can be input from the user. To this end, a UI (User Interface) can be displayed to receive attribute information about the 3D object from the user.

사용자의 입력에 따라 3D 오브젝트의 색상, 위치, 각도, 크기 및 회전 정보 중 적어도 하나의 속성 정보가 변경되면, 변경된 속성 정보에 기초하여 3D 오브젝트를 표시할 수 있다. If at least one attribute information among the color, position, angle, size, and rotation information of the 3D object changes according to the user's input, the 3D object may be displayed based on the changed attribute information.

사용자의 입력에 따라 3D 오브젝트에 대응되는 장치에 대한 동작 정보가 변경되면, 변경된 동작 정보를 장치 또는 외부 장치에 전송하고, 변경된 동작 정보에 기초하여 3D 오브젝트를 렌더링할 수 있다. If motion information about a device corresponding to a 3D object changes according to a user's input, the changed motion information can be transmitted to the device or an external device, and the 3D object can be rendered based on the changed motion information.

공장 내 장치와 연결된 장치의 장치 정보를 획득할 수 있다. 구체적으로, 사용자 입력을 통하여 장치와 전기적으로 연결된 장치의 장치 정보를 획득할 수 있다. 또는, 공장 내 장치나 장치를 제어하는 제어 장치로부터 공장 내 장치와 전기적으로 연결된 장치의 정보를 수신할 수 있다. You can obtain device information of devices connected to devices in the factory. Specifically, device information of a device electrically connected to the device can be obtained through user input. Alternatively, information about a device electrically connected to a device within the factory may be received from a device within the factory or a control device that controls the device.

사용자 입력에 의해 3D 오브젝트가 선택되면, 선택된 3D 오브젝트에 대응되는 장치와 연결된 장치 정보를 표시할 수 있다. When a 3D object is selected by user input, device information connected to the device corresponding to the selected 3D object can be displayed.

한편, 3D 오브젝트에 대한 시점을 변경할 수 있다. 구체적으로, 사용자의 입력에 기초하여 3D 오브젝트의 시점을 변경할 수 있다. Meanwhile, the viewpoint of the 3D object can be changed. Specifically, the viewpoint of a 3D object can be changed based on user input.

사용자의 입력에 따라 시점의 위치, 방향 및 시야 각도 중 적어도 하나의 시점 정보가 변경되면, 변경된 시점 정보에 기초하여 3D 오브젝트를 렌더링할 수 있다. If at least one viewpoint information among the position, direction, and viewing angle of the viewpoint changes according to the user's input, a 3D object may be rendered based on the changed viewpoint information.

이상에서 전자 장치(100)를 통해 수행되는 것으로 기재된 다양한 동작들은, 전자 장치를 포함하는 시스템의 제어 방법 내지 동작 방법의 형태로 하나 이상의 전자 장치를 통해 수행될 수 있다. Various operations described above as being performed through the electronic device 100 may be performed through one or more electronic devices in the form of a control method or operation method of a system including an electronic device.

한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다.Meanwhile, the various embodiments described above may be implemented in a recording medium that can be read by a computer or similar device using software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 본 개시에서 설명되는 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(Programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processor), 컨트롤러(controller), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessor), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다.According to hardware implementation, the embodiments described in this disclosure include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and field programmable gate arrays (FPGAs). ), processor, controller, micro-controllers, microprocessor, and other electrical units for performing functions.

한편, 상술한 본 개시의 다양한 실시 예들에 따른 사용자 장치 또는 관리자 장치에서의 처리동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 사용자 장치 및/또는 관리자 장치의 처리 동작을 상술한 특정 기기가 수행하도록 한다.Meanwhile, computer instructions for performing processing operations on a user device or administrator device according to various embodiments of the present disclosure described above may be stored in a non-transitory computer-readable medium. You can. The computer instructions stored in such a non-transitory computer-readable medium, when executed by a processor of a specific device, cause the specific device to perform processing operations of the user device and/or the administrator device according to the various embodiments described above.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다. A non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as registers, caches, and memories. Specifically, the various applications or programs described above may be stored and provided on non-transitory readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, etc.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.In addition, although preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the invention pertains without departing from the gist of the present invention as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical idea or perspective of the present invention.

100: 전자 장치 110: 통신 인터페이스
120: 디스플레이 130: 메모리
140: 프로세서
100: electronic device 110: communication interface
120: display 130: memory
140: processor

Claims (11)

전자 장치에 있어서,
적어도 하나의 인스트럭션(instruction)을 저장하는 메모리;
통신 인터페이스;
디스플레이; 및
상기 적어도 하나의 인스트럭션을 실행하는 프로세서;를 포함하고,
상기 프로세서는,
공장 내 위치한 장치에 대응되는 3D 오브젝트를 획득하고,
상기 공장 내 위치한 장치 목록 중 상기 장치를 선택하는 사용자 입력을 수신하면, 상기 장치의 동작 정보를 수신하고, 상기 3D 오브젝트를 렌더링하도록 상기 디스플레이를 제어하고,
상기 수신된 장치의 동작 정보에 기초하여 상기 장치의 동작이 기설정된 범위를 벗어난 것으로 판단된 경우, 알림 메시지를 표시하도록 상기 디스플레이를 제어하는 전자 장치.
In electronic devices,
a memory storing at least one instruction;
communication interface;
display; and
Including a processor executing the at least one instruction,
The processor,
Obtain 3D objects corresponding to devices located in the factory,
Upon receiving a user input for selecting the device from a list of devices located in the factory, receiving operation information of the device and controlling the display to render the 3D object;
An electronic device that controls the display to display a notification message when it is determined that the operation of the device is outside a preset range based on the received operation information of the device.
제1항에 있어서,
상기 프로세서는,
사용자 입력에 따라 상기 3D 오브젝트의 색상, 위치, 각도, 크기 및 회전 정보 중 적어도 하나의 속성 정보가 변경되면, 상기 변경된 속성 정보에 기초하여 상기 3D 오브젝트를 렌더링하도록 상기 디스플레이를 제어하는, 전자 장치.
According to paragraph 1,
The processor,
When at least one attribute information of color, position, angle, size, and rotation information of the 3D object changes according to a user input, the electronic device controls the display to render the 3D object based on the changed attribute information.
제1항에 있어서,
상기 프로세서는
사용자 입력에 따라 상기 장치에 대한 동작 정보가 변경되면, 상기 변경된 동작 정보를 상기 장치 또는 외부 장치에 전송하고, 상기 변경된 동작 정보에 기초하여 상기 3D 오브젝트를 렌더링하도록 상기 디스플레이를 제어하는, 전자 장치.
According to paragraph 1,
The processor is
When operation information for the device changes according to a user input, the electronic device transmits the changed operation information to the device or an external device and controls the display to render the 3D object based on the changed operation information.
제1항에 있어서,
상기 프로세서는,
상기 장치와 연결된 장치 정보를 획득하고,
사용자 입력에 의해 상기 3D 오브젝트가 선택되면, 상기 연결된 장치 정보를 표시하도록 상기 디스플레이를 제어하는, 전자 장치.
According to paragraph 1,
The processor,
Obtain device information connected to the device,
An electronic device that controls the display to display the connected device information when the 3D object is selected by user input.
제1항에 있어서,
상기 프로세서는,
상기 디스플레이 상에 표시된 가상의 공간에 시점을 설정하고,
사용자의 입력에 따라 상기 시점의 위치, 방향 및 시야 각도 중 적어도 하나의 시점 정보가 변경되면, 상기 변경된 시점 정보에 기초하여 상기 3D 오브젝트를 렌더링하도록 상기 디스플레이를 제어하는, 전자 장치.
According to paragraph 1,
The processor,
Set the viewpoint in the virtual space displayed on the display,
When at least one viewpoint information among the position, direction, and viewing angle of the viewpoint changes according to a user's input, the electronic device controls the display to render the 3D object based on the changed viewpoint information.
3D 오브젝트 표시 방법에 있어서,
공장 내 위치한 장치에 대응되는 3D 오브젝트를 획득하는 단계;
상기 공장 내 위치한 장치 목록 중 상기 장치를 선택하는 사용자 입력을 수신하면, 상기 장치의 동작 정보를 수신하고, 상기 수신된 동작 정보에 기초하여 상기 3D 오브젝트를 렌더링하는 단계; 및
상기 수신된 장치의 동작 정보에 기초하여 상기 장치의 동작이 기설정된 범위를 벗어난 것으로 판단된 경우, 알림 메시지를 표시하는 단계;를 포함하는, 3D 오브젝트 표시 방법.
In a method of displaying a 3D object,
Obtaining a 3D object corresponding to a device located in the factory;
Upon receiving a user input for selecting the device from a list of devices located in the factory, receiving operation information of the device and rendering the 3D object based on the received operation information; and
A 3D object display method including; displaying a notification message when it is determined that the operation of the device is outside a preset range based on the received operation information of the device.
제6항에 있어서,
사용자 입력에 따라 상기 3D 오브젝트의 색상, 위치, 각도, 크기 및 회전 정보 중 적어도 하나의 속성 정보가 변경되면, 상기 변경된 속성 정보에 기초하여 상기 3D 오브젝트를 렌더링하는 단계;를 더 포함하는, 3D 오브젝트 표시 방법.
According to clause 6,
When at least one attribute information of color, position, angle, size, and rotation information of the 3D object changes according to a user input, rendering the 3D object based on the changed attribute information; 3D object further comprising How to display.
제6항에 있어서,
사용자 입력에 따라 상기 동작 정보가 변경되면,
상기 변경된 동작 정보를 상기 외부 장치에 전송하는 단계; 및
상기 변경된 동작 정보에 기초하여 상기 3D 오브젝트를 렌더링하는 단계; 를 더 포함하는, 3D 오브젝트 표시 방법.
According to clause 6,
When the operation information changes according to user input,
transmitting the changed operation information to the external device; and
rendering the 3D object based on the changed motion information; A method for displaying a 3D object, further comprising:
제6항에 있어서,
상기 장치와 연결된 장치 정보를 획득하는 단계; 및
사용자 입력에 의해 상기 3D 오브젝트가 선택되면, 상기 연결된 장치 정보를 표시하는 단계;를 더 포함하는, 3D 오브젝트 표시 방법.
According to clause 6,
Obtaining device information connected to the device; and
A method for displaying a 3D object, further comprising: displaying the connected device information when the 3D object is selected by a user input.
제6항에 있어서,
상기 디스플레이 상에 표시된 가상의 공간에 시점을 설정하는 단계; 및
사용자의 입력에 따라 상기 시점의 위치, 방향 및 시야 각도 중 적어도 하나의 시점 정보가 변경되면, 상기 변경된 시점 정보에 기초하여 상기 3D 오브젝트를 렌더링하는 단계;를 더 포함하는, 3D 오브젝트 표시 방법.
According to clause 6,
setting a viewpoint in a virtual space displayed on the display; and
When at least one viewpoint information among the position, direction, and viewing angle of the viewpoint changes according to a user's input, rendering the 3D object based on the changed viewpoint information.
3D 오브젝트 표시 방법을 실행하기 위한 프로그램을 포함하는 컴퓨터 판독가능 기록매체에 있어서,
상기 3D 오브젝트 표시 방법은,
공장 내 위치한 장치에 대응되는 3D 오브젝트를 획득하는 단계;
상기 가상의 장치의 동작 정보 및 통신 설정 정보를 입력하는 사용자 입력이 수신되면,
상기 공장 내 위치한 장치 목록 중 상기 장치를 선택하는 사용자 입력을 수신하면, 상기 장치의 동작 정보를 수신하고, 상기 수신된 동작 정보에 기초하여 상기 3D 오브젝트를 렌더링하는 단계; 및
상기 수신된 장치의 동작 정보에 기초하여 상기 장치의 동작이 기설정된 범위를 벗어난 것으로 판단된 경우, 알림 메시지를 표시하는 단계;를 포함하는, 컴퓨터 판독가능 기록매체.

A computer-readable recording medium containing a program for executing a 3D object display method,
The method of displaying the 3D object is,
Obtaining a 3D object corresponding to a device located in the factory;
When a user input for entering operation information and communication setting information of the virtual device is received,
Upon receiving a user input for selecting the device from a list of devices located in the factory, receiving operation information of the device and rendering the 3D object based on the received operation information; and
A computer-readable recording medium comprising; displaying a notification message when it is determined that the operation of the device is outside a preset range based on the received operation information of the device.

KR1020220072350A 2022-06-14 2022-06-14 Electronic apparatus and method of controlling thereof KR20230171786A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220072350A KR20230171786A (en) 2022-06-14 2022-06-14 Electronic apparatus and method of controlling thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220072350A KR20230171786A (en) 2022-06-14 2022-06-14 Electronic apparatus and method of controlling thereof

Publications (1)

Publication Number Publication Date
KR20230171786A true KR20230171786A (en) 2023-12-21

Family

ID=89320893

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220072350A KR20230171786A (en) 2022-06-14 2022-06-14 Electronic apparatus and method of controlling thereof

Country Status (1)

Country Link
KR (1) KR20230171786A (en)

Similar Documents

Publication Publication Date Title
EP2755107B1 (en) Method and apparatus for controlling multitasking in electronic device using double-sided display
US10007360B1 (en) User terminal device and method for controlling the user terminal device thereof
EP2966617B1 (en) System comprising image data generating device and portable terminal device
ES2634316T3 (en) Control system for controlling the operation of a numerical control machine tool, and rear end and front end control devices for use in such a system
US10628022B2 (en) Method and system for prototyping graphic user interface
KR102176645B1 (en) Method for managing applicationand electronic device implementing the same
US10885229B2 (en) Electronic device for code integrity checking and control method thereof
US20200027236A1 (en) System and method for 3d association of detected objects
WO2018063671A1 (en) Augmented reality rendered structured content
ES2747703T3 (en) Human-machine interface system
KR20230171786A (en) Electronic apparatus and method of controlling thereof
US9965173B2 (en) Apparatus and method for precise multi-touch input
EP3374863B1 (en) Model-based human machine interface (hmi)
US20120314020A1 (en) Move-it: monitoring, operating, visualizing, editing integration toolkit for reconfigurable physical computing
TWI448098B (en) Media object control system and method of the same
KR102594885B1 (en) 3D space remote control function introduction system
US20240192653A1 (en) Control of semiconductor manufacturing equipment in mixed reality environments
US11803478B1 (en) Controlled activation of interdependent bindings
EP3059673A1 (en) Mobile application systems and methods of operation
KR102612591B1 (en) Apparatus and method for control display based on object recognition
US20140201226A1 (en) Image display method and electronic device using the seme
KR20230089066A (en) Method for loading cargo and system
CN118132392A (en) Temperature point display method and computing equipment
US20160328126A1 (en) Object connection breaking system and method
CN117170756A (en) Equipment display control method, device and storage medium