KR100966783B1 - Information processing apparatus, control method of information processing apparatus and storage medium - Google Patents

Information processing apparatus, control method of information processing apparatus and storage medium Download PDF

Info

Publication number
KR100966783B1
KR100966783B1 KR1020080090956A KR20080090956A KR100966783B1 KR 100966783 B1 KR100966783 B1 KR 100966783B1 KR 1020080090956 A KR1020080090956 A KR 1020080090956A KR 20080090956 A KR20080090956 A KR 20080090956A KR 100966783 B1 KR100966783 B1 KR 100966783B1
Authority
KR
South Korea
Prior art keywords
configuration information
external devices
display area
screen
information
Prior art date
Application number
KR1020080090956A
Other languages
Korean (ko)
Other versions
KR20090030224A (en
Inventor
세이지 오모리
Original Assignee
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캐논 가부시끼가이샤 filed Critical 캐논 가부시끼가이샤
Publication of KR20090030224A publication Critical patent/KR20090030224A/en
Application granted granted Critical
Publication of KR100966783B1 publication Critical patent/KR100966783B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

네트워크를 거쳐서 접속된 복수의 외부장치들로부터 데이터를 수신하고, 상기 데이터의 내용에 의거하여 조작 화면을 표시하는 정보처리장치는, 상기 복수의 외부장치들로부터 송신되는 복수의 데이터를 수신하는 수신유닛과, 상기 수신 유닛에 의해 수신된 각각의 상기 데이터를 해석하고, 각각의 상기 데이터에 공통되는 제 1의 구성 부분과, 상기 제 1의 구성 부분에 포함되지 않는 제 2의 구성 부분을 해석하는 해석유닛과, 상기 제 1의 구성부분에 포함되는 정보를 조작 화면의 공통 표시 영역에 표시하고, 상기 제 2의 구성 부분에 포함되는 정보를 상기 조작 화면의 개별 표시 영역에 표시하는 표시유닛을 구비한다.An information processing apparatus for receiving data from a plurality of external apparatuses connected via a network and displaying an operation screen based on the contents of the data, includes: a receiving unit for receiving a plurality of data transmitted from the plurality of external apparatuses And an analysis for analyzing each of the data received by the receiving unit, and analyzing a first component part common to each of the data and a second component part not included in the first component part. A unit, and a display unit for displaying information included in the first component part in a common display area of the operation screen, and displaying information included in the second component part in a separate display area of the operation screen. .

정보처리장치, 외부장치, 기억매체, 네트워크, 조작화면 Information processing device, external device, storage medium, network, operation screen

Description

정보처리장치, 정보처리장치의 제어방법, 및 기억매체{INFORMATION PROCESSING APPARATUS, CONTROL METHOD OF INFORMATION PROCESSING APPARATUS AND STORAGE MEDIUM}TECHNICAL PROCESSING APPARATUS, CONTROL METHOD OF INFORMATION PROCESSING APPARATUS AND STORAGE MEDIUM

본 발명은, 네트워크를 거쳐서 외부장치로부터 수신한 데이터를 처리하는 정보처리기술에 관한 것이다.The present invention relates to an information processing technique for processing data received from an external device via a network.

종래, 네트워크를 거쳐서 PC(personal computer)등으로부터 외부장치를 원격 조작하는 것이 가능한 시스템이 있었다. 예를 들면, 원격지의 감시 용도 등에 사용할 수 있는 네트워크 카메라 시스템에 있어서는, PC과 카메라를 네트워크를 거쳐서 접속하고, PC로부터 카메라를 조작하는 것이 가능하다. 일반적으로, 네트워크 카메라 시스템에 있어서는, 카메라로부터는 화상/영상, 조작 버튼 정보 등이 PC로 송신되고, PC에서는 수신한 화상/영상, 조작 버튼 등을, 웹브라우저나 전용 애플리케이션 위에 표시한다. 또한, 오퍼레이터가 PC에서 조작한 정보가 카메라에 보내져, 카메라의 방향이나 줌 배율을 변경하는 것이 가능하다.Conventionally, there has been a system capable of remotely operating an external device from a personal computer (PC) or the like via a network. For example, in a network camera system that can be used for remote monitoring purposes, it is possible to connect a PC and a camera via a network and operate the camera from the PC. Generally, in a network camera system, an image / video, operation button information, etc. are transmitted from a camera to a PC, and the PC displays the received image / video, operation buttons, etc. on a web browser or a dedicated application. Moreover, the information which the operator operated in the PC is sent to a camera, and it is possible to change a camera direction and a zoom magnification.

하나의 장치로부터 복수의 외부장치를 조작하는 것이 가능한 원격 조작 시스 템도 있다. 복수의 외부장치를 조작 가능한 장치의 표시부에 있어서는, 그 표시 구성으로서 이미 몇 개의 방법이 있다.Some remote control systems allow you to operate multiple external devices from a single device. In the display part of the apparatus which can operate a some external apparatus, there exist several methods as the display structure.

제 1 방법에서는, 도 17에 나타나 있는 바와 같은 외부장치의 선택 화면을 표시하고, 오퍼레이터가 복수의 장치(카메라 1, 2, 3, 4) 중의 하나를 선택하면, 선택된 장치의 조작 화면을 표시한다. 즉, 오퍼레이터가 어떠한 방법으로 복수의 장치(카메라 1, 2, 3, 4) 중의 하나를 선택하면, 하나의 화면이 표시된다. In the first method, a selection screen of an external device as shown in FIG. 17 is displayed, and when an operator selects one of a plurality of devices (cameras 1, 2, 3, 4), an operation screen of the selected device is displayed. . That is, when the operator selects one of the plurality of apparatuses (cameras 1, 2, 3, 4) by some method, one screen is displayed.

제 2 방법은, 도 16에 나타나 있는 바와 같이, 복수의 외부장치의 조작 화면을 하나의 화면에 동시에 표시하는 것을 수반한다. 예를 들면, 웹브라우저로부터 외부장치의 조작이 가능한 시스템에 있어서는, PC에 있어서 복수의 웹브라우저를 기동하면, 도 16과 같은 조작 화면을 구성하는 것이 가능하다. 또한, 전용의 애플리케이션 소프트웨어로 이러한 표시를 실현하는 것도 가능하다.As shown in Fig. 16, the second method involves simultaneously displaying operation screens of a plurality of external devices on one screen. For example, in a system in which an external device can be operated from a web browser, when a plurality of web browsers are started on a PC, the operation screen shown in FIG. 16 can be configured. It is also possible to realize such display with dedicated application software.

웹브라우저로부터 외부장치를 조작하는 시스템에서는, Java(등록상표)나 JavaScript 등의 언어를 종종 사용할 수 있다. 이들 언어들 사용했을 경우, 시큐리티(security)에 기인한 제약이 있어, 하나의 웹브라우저 화면에서 복수의 외부기기를 제어하는 것은 일반적으로 불가능하다. 그 때문에, 복수의 외부장치를 일람하면서 조작하기 위해서는, 복수의 웹브라우저를 기동해서 도 16과 같은 화면을 구성할 필요가 있다.In systems that operate external devices from a web browser, languages such as Java (registered trademark) and JavaScript can often be used. When using these languages, there is a restriction due to security, and it is generally impossible to control a plurality of external devices from one web browser screen. Therefore, in order to operate while listing a plurality of external devices, it is necessary to start a plurality of web browsers and configure a screen as shown in FIG.

제 3 방법은, 조작 버튼을 각 외부장치에 대하여 공통인 버튼으로서 1개소에 배치하고, 각 외부장치로부터 수신한 복수의 영상을 표시하는 감시 카메라 제어 시스템도 있다 (예를 들면, 일본국 공개특허공보 특개2003-046994호를 참조).In the third method, there is also a surveillance camera control system which arranges operation buttons as one common button for each external device and displays a plurality of images received from each external device. See Japanese Patent Application Laid-Open No. 2003-046994).

그렇지만, 전술의 제 1 방법에서는, 복수의 외부장치의 조작 화면을 한번에 표시할 수 없다고 하는 문제가 있고, 또한 다른 외부장치의 조작 화면을 표시하기 위해서는, 다시 외부장치의 선택 화면을 표시시키지 않으면 안 된다고 하는 조작상의 번거로움이 있다.However, in the first method described above, there is a problem that the operation screens of a plurality of external devices cannot be displayed at once, and in order to display the operation screens of other external devices, the selection screen of the external device must be displayed again. There is operational trouble to say.

전술의 제 2 방법에서는, 복수의 장치의 조작 화면을 동시에 표시할 수 있지만, 개개의 장치의 조작 화면이 작다고 하는 문제가 있다. 또한, 유사한 장치의 조작 화면을 동시에 표시하는 경우에는, 같은 조작 버튼이 화면 위에 다수 표시되어, 오퍼레이터가 조작할 때에 혼란을 초래하는 경우가 있다. 같은 조작 버튼을 화면 위에 다수 표시하는 것에 대해서는, 처리에서의 용장성(redundancy)도 있다. 웹브라우저를 사용한 시스템에 있어서는, 복수의 웹브라우저를 기동해야만 한다고 하는 조작상의 번거로움도 있다.In the second method described above, the operation screens of a plurality of devices can be displayed simultaneously, but there is a problem that the operation screens of individual devices are small. In addition, when simultaneously displaying operation screens of similar devices, many of the same operation buttons are displayed on the screen, which may cause confusion when the operator operates. There is also redundancy in processing for displaying many of the same operation buttons on the screen. In a system using a web browser, there is an operational inconvenience in that a plurality of web browsers must be started.

상기의 제 3 방법에서는, 접속되는 외부장치의 조작 버튼을 미리 고려한 전용 애플리케이션을 필요로 한다. 예를 들면, 외부장치가 치환되어 새로운 조작 버튼이 필요하게 되었을 경우에는, 전용 애플리케이션의 갱신도 필요하게 되어, 외부장치의 기능에 대하여 유연한 대응을 행할 수 없었다.In the third method described above, a dedicated application that takes into consideration the operation buttons of the connected external device is required. For example, when an external device is replaced and a new operation button is needed, updating of a dedicated application is also required, and a flexible response cannot be made to the function of the external device.

본 발명은, 복수의 외부장치를 일람할 수 있고, 또한, 개개의 조작 화면을 최대한 크게 표시하는 것이 가능한 정보처리기술을 제공하는 것을 목적으로 한다.An object of the present invention is to provide an information processing technique capable of listing a plurality of external devices and displaying individual operation screens as large as possible.

또, 본 발명은, 같은 묘화 처리를 반복하는 것을 방지하고, 효율적인 묘화 처리를 행하는 것이 가능한 정보처리기술을 제공하는 것을 목적으로 한다.Moreover, an object of this invention is to provide the information processing technique which can prevent the same drawing process from repeating and can perform an efficient drawing process.

또, 본 발명은 외부장치의 조작방법의 차이에 유연하게 대응하는 것이 가능한 정보처리기술을 제공하는 것을 목적으로 한다.Moreover, an object of the present invention is to provide an information processing technology capable of flexibly responding to differences in an operation method of an external device.

본 발명의 일 국면에 따른, 네트워크를 통해서 접속된 복수의 외부장치로부터 구조화 문서 데이터를 수신하고, 상기 구조화 문서 데이터에 포함되는 구성정보에 의거하여 조작 화면을 표시하는 정보처리장치는 According to an aspect of the present invention, an information processing apparatus for receiving structured document data from a plurality of external devices connected through a network, and displaying an operation screen based on configuration information included in the structured document data

상기 복수의 외부장치 각각으로부터 송신되는 상기 복수의 외부장치를 제어하기 위한 조작 지시화면을 나타내는 제1의 구성정보와 상기 복수의 외부장치가 촬상한 이미지를 특정하는 제2의 구성정보를 포함하는 구조화문서 데이터를 수신하는 수신 수단과,A structure including first configuration information indicating an operation instruction screen for controlling the plurality of external devices transmitted from each of the plurality of external devices and second configuration information specifying an image picked up by the plurality of external devices Receiving means for receiving document data,

상기 수신수단에 의해 수신하는 각각의 상기 구조화문서 데이터 중의 구성정보를 해석하고, 각각의 상기 구조화문서 데이터에 공통되는 상기 제1의 구성정보와, 상기 제2의 구성정보를 식별하는 해석 수단과,Analysis means for analyzing configuration information in each of said structured document data received by said receiving means, and identifying said first configuration information and said second configuration information common to each of said structured document data;

상기 제1의 구성정보에 의해 나타나는 상기 복수의 외부장치를 제어하기 위한 조작지시화면을 상기 조작화면의 공통표시영역에 표시하고, 상기 제 2의 구성정보로 특정되는 상기 복수의 외부장치가 촬상한 화상을 상기 조작화면의 개별표시영역에 표시하는 표시수단을 구비한다.An operation instruction screen for controlling the plurality of external devices indicated by the first configuration information is displayed in a common display area of the operation screen, and the plurality of external devices specified by the second configuration information are captured. And display means for displaying an image in an individual display area of the operation screen.

본 발명의 또 다른 국면에 따른, 네트워크를 통해서 접속된 복수의 외부장치로부터 구조화문서 데이터를 수신하고, 상기 구조화문서 데이터에 포함되는 구성정보에 의거하여 조작 화면을 표시하는 정보처리장치의 제어방법은,According to still another aspect of the present invention, a control method of an information processing apparatus for receiving structured document data from a plurality of external devices connected through a network, and displaying an operation screen based on configuration information included in the structured document data ,

상기 복수의 외부장치 각각으로부터 송신되는, 상기 복수의 외부장치를 제어하기 위한 조작 지시 화면을 나타내는 제1의 구성 정보와 상기 복수의 외부장치가 촬상한 화상을 특정하는 제2의 구성 정보를 포함하는 구조화문서 데이터를 수신하는 수신공정과,First configuration information indicating an operation instruction screen for controlling the plurality of external devices and second configuration information for specifying images picked up by the plurality of external devices, transmitted from each of the plurality of external devices. A receiving process for receiving the structured document data;

상기 수신공정에 의해 수신하는 각각의 상기 구조화문서 데이터 중의 구성정보를 해석하고, 각각의 상기 구조화문서 데이터에 공통되는 상기 제 1의 구성 정보와, 상기 제2의 구성 정보를 식별하는 해석공정과, An analysis step of analyzing configuration information in each of the structured document data received by the receiving step, identifying the first configuration information and the second configuration information common to each of the structured document data;

상기 제1의 구성 정보에 의해 나타나는 상기 복수의 외부장치를 제어하기 위한 조작 지시 화면을 상기 조작 화면의 공통 표시 영역에 표시하고, 상기 제2의 구성정보에서 특정되는 상기 복수의 외부장치가 촬상한 화상을 상기 조작 화면의 개별 표시 영역에 표시하는 표시공정을 포함한다.An operation instruction screen for controlling the plurality of external devices indicated by the first configuration information is displayed on a common display area of the operation screen, and the plurality of external devices specified by the second configuration information are picked up. And a display step of displaying an image on an individual display area of the operation screen.

본 발명에 의하면, 복수의 외부장치를 일람할 수 있고, 또한, 개개의 조작 화면을 최대한 크게 표시하는 것이 가능한 정보처리 기술을 제공하는 것이 가능하게 된다. 즉, 복수의 외부장치의 조작 화면을 표시하는 시스템에 있어서, 오퍼레이터가 조작하기 쉬운 유저 인터페이스를 실현하는 정보처리기술의 제공이 가능해진다.Industrial Applicability According to the present invention, it is possible to provide an information processing technique capable of listing a plurality of external devices and displaying an individual operation screen as large as possible. That is, in the system for displaying the operation screens of a plurality of external devices, it becomes possible to provide an information processing technology for realizing a user interface that is easy for the operator to operate.

또, 같은 묘화 처리를 반복하는 것을 방지하고, 효율적인 묘화 처리를 행하는 것이 가능한 정보처리기술을 제공하는 것이 가능하게 된다.Moreover, it becomes possible to provide the information processing technique which can prevent the same drawing process from repeating and can perform an efficient drawing process.

또한, 외부장치의 조작방법의 차이에 유연하게 대응하는 것이 가능한 정보처리 기술을 제공하는 것이 가능하게 된다.In addition, it becomes possible to provide an information processing technique which can flexibly cope with the difference in the operation method of an external device.

본 발명의 그 외의 특징들은 (첨부도면을 참조하면서) 이하의 예시적인 실시 예의 설명으로부터 밝혀질 것이다.Other features of the present invention will be apparent from the following description of exemplary embodiments (with reference to the attached drawings).

이하, 도면을 참조하여, 본 발명의 바람직한 실시 예를 예시적으로 자세히 설명한다. 다만, 이 실시 예에 기재되어 있는 구성요소는 어디까지나 예시이며, 본 발명의 기술적 범위는, 특허청구범위에 의해 확정되는 것이고, 이하의 개별의 실시 예에 의해서 한정되는 것이 아니다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. However, the components described in this embodiment are only examples, and the technical scope of the present invention is determined by the claims, and is not limited by the following individual embodiments.

<제 1 실시 예><First Embodiment>

본 실시 예에 있어서는, 본 발명에 따른 구조화 문서 처리장치(정보처리장치)로서 컴퓨터 장치를 예로 들어 설명한다. 본 실시 예의 컴퓨터 장치의 구성에 대해서, 도 1의 블럭도를 참조해서 설명한다.In this embodiment, a computer device is described as an example of a structured document processing apparatus (information processing apparatus) according to the present invention. The structure of the computer device of this embodiment is demonstrated with reference to the block diagram of FIG.

도 1에 있어서, CPU(101)는 시스템 제어부로서 기능하여, 장치 전체를 제어한다. ROM(102)은, CPU(101)의 제어프로그램과 각종 고정 데이터를 저장하는 판독 전용 메모리다. RAM(103)은, SRAM, DRAM 등으로 구성된 재기록 가능한 메모리이며, 프로그램 제어 변수 등을 저장하기 위한 것이다. 각종 설정 파라미터, 각종 워크용 버퍼 등도 RAM(103)에 저장된다. 하드 디스크(104)는, XML 파일 등의 각종 파일을 저장하기 위한 것이다. 조작부(106)는, 하드 키보드나 포인팅 디바이스 등으로 구성되어, 오퍼레이터가 각종 입력 조작을 행하기 위한 것이다. 표시부(105)는, LCD 등을 사용해서 오퍼레이터에 표시로 통지하기 위한 것이다. 참조번호 107은 유닛 101∼106을 통신 가능하게 접속하는 시스템 버스다.In Fig. 1, the CPU 101 functions as a system control unit and controls the entire apparatus. The ROM 102 is a read-only memory for storing the control program of the CPU 101 and various fixed data. The RAM 103 is a rewritable memory composed of SRAM, DRAM, and the like, for storing program control variables and the like. Various setting parameters, various work buffers, and the like are also stored in the RAM 103. The hard disk 104 is for storing various files such as an XML file. The operation unit 106 is composed of a hard keyboard, a pointing device, and the like, for the operator to perform various input operations. The display unit 105 is for notifying the operator by display using an LCD or the like. Reference numeral 107 denotes a system bus that connects units 101 to 106 to communicate with each other.

도 2는, 본 발명의 실시 예에 따른 컴퓨터 장치를 포함한 시스템의 개요를 나타낸 구성도다.2 is a block diagram showing an outline of a system including a computer device according to an embodiment of the present invention.

도 2에 있어서, 컴퓨터 장치(201)와 카메라 1, 2, 3 및 4는 LAN(202)에 접속되어, 서로 통신 가능하다. 컴퓨터 장치(201)는 XML 데이터의 해석 기능을 갖는다. 도 2에 있어서는, LAN(202)에 접속되어 있는 장치는 컴퓨터 장치(201)와 4대의 카메라이지만, LAN(202)에 다른 장치가 접속되어도 되고, 접속되는 카메라는 4대에 한정되지 않고 몇 대여도 된다.In Fig. 2, the computer device 201 and the cameras 1, 2, 3, and 4 are connected to the LAN 202 and can communicate with each other. The computer device 201 has a function of interpreting XML data. In FIG. 2, the apparatus connected to the LAN 202 is a computer apparatus 201 and four cameras. Other apparatuses may be connected to the LAN 202, and the cameras connected to the LAN 202 are not limited to four but can be rented. You may also

본 발명의 실시 예에 따른 컴퓨터 장치(201)는, LAN(202)에 접속된 카메라 1∼4로 촬영된 영상(예를 들면, 동작 화상 또는 정지 화상을 포함한다)을 표시부(105)에 표시하는 것이 가능하다. 또한, 컴퓨터 장치(201)로부터 카메라 1∼ 4의 동작을 제어하는 것이 가능하다.The computer device 201 according to the embodiment of the present invention displays an image (eg, including an operation image or a still image) captured by cameras 1 to 4 connected to the LAN 202 on the display unit 105. It is possible to do It is also possible to control the operations of the cameras 1 to 4 from the computer device 201.

도 3은, LAN(202)에 접속된 카메라 1, 2, 3, 4로부터 컴퓨터 장치(201)에 송신되는 XML 데이터의 일례다. 컴퓨터 장치(201)는 도 3에 나타낸 XML 데이터에 대한 처리를 행한다.3 is an example of XML data transmitted to the computer device 201 from cameras 1, 2, 3, and 4 connected to the LAN 202. The computer device 201 performs processing on the XML data shown in FIG.

도 3에 나타낸 바와 같이, 본 실시 예의 시스템에서는 카메라로부터 컴퓨터 장치(201)에 송신되는 XML 데이터로서 SVG(Scalable Vector Graphics) 형식의 데이터를 사용하고 있다. 도 3의 XML 데이터에서는, 예를 들면, 식별 정보로서 id 속성의 값을 사용하는 것이 가능하다. id 속성이 "Keys"의 값을 갖는 g 요소는 주로 조작 버튼에 관한 정보를 포함하고, id 속성이 "Movie"의 값을 갖는 g 요소는 주로 촬영 영상에 관한 정보를 포함하고 있다. 도 3의 XML 데이터에는, 조작 버튼으로서 상하좌우 커서 버튼과 확대/축소 버튼의 묘화 정보가 기술되어 있다. 또한, 영상정보의 URL 레퍼런스(reference)가 기술되어 있다. 도 3의 예에서는, URL 레퍼런스로서 "http://192.168.0.10/view.mpg"이 기술되어 있지만, "192.168.0.10"은 카메라의 IP 어드레스를 의미하고, LAN(202)에 접속된 카메라마다 다르다. 한편, 각 카메 라로부터 전해진 XML 데이터 중, id 속성이 "Keys"의 값을 갖는 g 요소는 모두 동일하다. 컴퓨터 장치(201)의 CPU(101)는, 카메라로부터 수신한 XML 데이터를 해석하고, 그 정보를 표시부(105)에 표시한다. CPU(101)는, 수신한 각각의 데이터를 해석하고, 각각의 데이터에 공통되는 데이터의 구성 부분(제 1의 구성 부분)과, 제 1의 구성부부분에 포함되지 않는 제 2의 구성 부분을 식별하는 것이 가능하다.As shown in FIG. 3, in the system of the present embodiment, data in SVG (Scalable Vector Graphics) format is used as XML data transmitted from the camera to the computer device 201. In the XML data of FIG. 3, for example, it is possible to use the value of the id attribute as identification information. The g element whose id attribute has a value of "Keys" mainly contains information about an operation button, and the g element whose id attribute has a value of "Movie" mainly contains information about a captured image. In the XML data of FIG. 3, the drawing information of the up, down, left, right cursor buttons, and enlargement / reduction buttons are described as operation buttons. In addition, a URL reference of the image information is described. In the example of Fig. 3, "http://192.168.0.10/view.mpg" is described as the URL reference, but "192.168.0.10" means the IP address of the camera, and is for each camera connected to the LAN 202. different. On the other hand, among the XML data transmitted from each camera, all g elements whose id attribute has a value of "Keys" are the same. The CPU 101 of the computer device 201 analyzes the XML data received from the camera and displays the information on the display unit 105. The CPU 101 analyzes each of the received data, and divides the component part (first component part) of the data common to the respective data and the second component part not included in the first component part part. It is possible to identify.

도 4는, 네트워크 카메라 시스템에 있어서의 PC 상의 조작 화면의 표시를 예시한 도면이다. 이 시스템에 있어서는, 카메라로부터 PC로 HTML 형식으로 기술된 데이터가 송신되고, PC는 카메라로부터 수신한 HTML을 웹브라우저를 이용해서 표시하는 것을 상정하고 있다. 도 4에 나타낸 바와 같이, PC 상의 조작 화면의 왼쪽에 조작 버튼이 배치되고, 오른쪽에 카메라가 촬영한 영상이 표시되어 있다. 이들의 조작 버튼 및 영상은 HTML에 포함되어 있고, PC가 카메라로부터 수신한 것이다.4 is a diagram illustrating display of an operation screen on a PC in a network camera system. In this system, data described in HTML format is transmitted from the camera to the PC, and the PC is supposed to display the HTML received from the camera using a web browser. As shown in Fig. 4, an operation button is arranged on the left side of the operation screen on the PC, and an image captured by the camera is displayed on the right side. These operation buttons and images are included in the HTML, and are received by the PC from the camera.

도 4의 화면에 있어서, 오퍼레이터가 마우스를 이용해서 조작 버튼을 클릭하면, 그 정보가 PC으로부터 카메라로 송신되고, 카메라는 수신한 조작 정보에 의거하여 카메라의 방향과 줌 배율을 변경한다.In the screen of Fig. 4, when an operator clicks an operation button using a mouse, the information is transmitted from the PC to the camera, and the camera changes the direction and zoom magnification of the camera based on the received operation information.

네트워크 카메라 이외에도, PC로부터 네트워크를 거쳐서 조작 및 설정 내용의 변경을 행하는 것이 가능한 프린터와 라우터 등의 주변기기가 있다. 이들 장치에 있어서도, 오퍼레이터는 PC 상의 웹브라우저나 전용 애플리케이션을 사용해서 동작이나 설정 내용을 변경한다.In addition to network cameras, there are peripheral devices such as printers and routers that can perform operations and change setting contents from a PC via a network. Also in these apparatuses, the operator uses a web browser or a dedicated application on the PC to change the operation and setting contents.

도 4는, 도 3의 XML 데이터를 컴퓨터 장치(201)의 표시부(105)에 표시한 상태를 나타낸 예다. 도 4에 나타낸 예에 있어서는, 1대의 카메라로부터 전해진 XML 데이터를 표시한다. 도 4에 나타낸 바와 같이, 컴퓨터 장치(201)는, 1대의 카메라로부터 수신한 XML 데이터를 표시할 경우에, 표시부(105)의 왼쪽에 조작 버튼을 표시하고, 오른쪽에 영상을 표시한다. 여기에서는, 카메라로 촬영한 영상부분은 사선으로 표시되어 있다. 이 예에서는, 조작 버튼에는, 상하좌우의 커서 버튼과 확대/축소 버튼이 포함되어 있다.4 is an example showing a state where the XML data of FIG. 3 is displayed on the display unit 105 of the computer device 201. In the example shown in FIG. 4, XML data transmitted from one camera is displayed. As shown in FIG. 4, when displaying the XML data received from one camera, the computer device 201 displays an operation button on the left side of the display unit 105 and an image on the right side. Here, the video portion photographed with the camera is indicated by diagonal lines. In this example, the operation buttons include cursor buttons on the top, bottom, left and right, and an enlargement / reduction button.

도 5는, 컴퓨터 장치(201)의 표시부(105)에 있어서의 영역의 정의를 나타낸 개략도다. 공통 표시 영역(501)은 조작 버튼 등을 표시하기 위한 영역이다. 개별표시 영역(502)은 영상 등을 표시하는 영역이다.5 is a schematic diagram showing the definition of an area in the display unit 105 of the computer device 201. The common display area 501 is an area for displaying operation buttons and the like. The individual display area 502 is an area for displaying an image or the like.

CPU(101)는 카메라로부터 송신된 데이터를 해석하고, 제 1의 구성 부분에 포함되는 정보를 조작 화면의 공통 표시 영역에 표시하고, 제 2의 구성 부분에 포함되는 정보를 조작 화면의 개별 표시 영역에 표시하는 것을 제어할 수 있다.The CPU 101 interprets the data transmitted from the camera, displays the information included in the first component part in the common display area of the operation screen, and displays the information included in the second component part in the individual display area of the operation screen. You can control what is displayed on the screen.

도 6은, 4대의 카메라로부터 수신한 XML 데이터를 컴퓨터 장치(201)의 표시부(105)에 표시한 상태를 나타낸 예다. 도 6에 나타낸 바와 같이, 공통 표시 영역에는 조작 버튼을 도 5와 같이 표시하고, 개별 표시 영역에는 4대 카메라로부터 수신한 영상을 각각 표시하고 있다. 여기에서는, 4대 카메라로부터의 영상을 표시하기 위해서 개별 표시 영역을 4개로 분할하고 있다. 5대 이상의 카메라로부터의 영상을 표시하기 위해서, 개별 표시 영역을 한층 더 분할해도 되고, 개별표시 영역을 스크롤할 수 있게 컴퓨터 장치(201)를 구성해도 된다.6 is an example showing a state in which XML data received from four cameras is displayed on the display unit 105 of the computer device 201. As shown in FIG. 6, operation buttons are displayed in the common display area as shown in FIG. 5, and images received from four cameras are displayed in respective display areas. Here, the individual display areas are divided into four in order to display the images from the four cameras. In order to display images from five or more cameras, the individual display areas may be further divided, or the computer device 201 may be configured to scroll the individual display areas.

도 6에 나타낸 화면의 좌측에 배치되어 있는 조작 버튼에 관한 정보는 미리 조작 단말측에 설치되어 있고, 조작 단말에 설치된 소프트웨어에 의해 표시된다. 한편, 도 6의 오른쪽에 배치되어 있는 정보는, 감시 카메라 제어 시스템의 경우에는 동영상 정보이며, 외부장치로부터 송신되는 것이다.The information about the operation button arrange | positioned at the left side of the screen shown in FIG. 6 is previously provided in the operation terminal side, and is displayed by the software installed in the operation terminal. In addition, the information arrange | positioned at the right side of FIG. 6 is moving picture information in the case of a surveillance camera control system, and is transmitted from an external apparatus.

도 7은, 컴퓨터 장치(201)가 표시부(105)에 도 6의 화면을 표시할 때의 처리를 나타낸 플로차트다. 본 실시 예에 있어서는, 컴퓨터 장치(201)의 하드 디스크(104)에 저장된 프로그램 코드를 CPU(101)가 판독해 실행함에 의해, 처리가 행해진다.FIG. 7 is a flowchart showing processing when the computer device 201 displays the screen of FIG. 6 on the display unit 105. In the present embodiment, the processing is performed by the CPU 101 reading out and executing the program code stored in the hard disk 104 of the computer device 201.

도 7에 도시한 바와 같이, 컴퓨터 장치(201)에서는, 우선, 각 카메라로부터 묘화 정보를 구성하는 XML 데이터를 각각 수신하고, 이 데이터를 해석해서 내부 데이터로 변환한다(S701). 여기에서 언급하는 내부 데이터는, 프로그램을 이용해서 행해진 처리를 쉽게 하기 위한 데이터이며, 예를 들면 XML의 각 요소와 속성을 프로그램 언어로 정의된 구조체에 할당한 형식의 데이터이다. 이 내부 데이터는 컴퓨터 장치(201)의 RAM(103)에 저장되어 있다. 여기에서는, 수신한 XML 데이터를 내부 데이터로 변환하고 있지만, 수신한 XML 데이터를, 변경하지 않고 RAM(103)에 저장해도 된다. S701의 처리 시에, LAN(202)에 접속되어 있는 카메라의 수에 따라, 표시부(105)의 개별 표시 영역의 분할 수를 결정한다.As shown in FIG. 7, the computer device 201 first receives XML data constituting drawing information from each camera, and analyzes the data to convert the data into internal data (S701). The internal data referred to here is data for facilitating processing performed using a program, for example, data in a form in which each element and attribute of XML is assigned to a structure defined in a programming language. This internal data is stored in the RAM 103 of the computer device 201. Here, although the received XML data is converted into internal data, the received XML data may be stored in the RAM 103 without changing. In the process of S701, the number of divisions of the individual display areas of the display unit 105 is determined according to the number of cameras connected to the LAN 202.

S702에 있어서, 첫 번째의 카메라로부터 수신한 XML 데이터를 화면에 묘화한다. 본 실시 예에서는, 컴퓨터 장치(201)와 통신하는 복수의 카메라에는, 미리 번호가 부여되어 있고, 그 순서대로 처리를 행한다. S702의 묘화 처리에서는, S701에 있어서 내부 데이터화한 데이터를 처리하고, 수신한 XML 데이터 중, 조작 버튼에 관한 정보와 영상에 관한 정보를 해석해서 표시한다.In S702, the XML data received from the first camera is drawn on the screen. In the present embodiment, a plurality of cameras communicating with the computer device 201 are given numbers in advance, and processing is performed in that order. In the drawing process of S702, the data data-formed in S701 is processed, and the information regarding an operation button and the information about a video are analyzed and displayed among the received XML data.

계속해서, S703에 있어서, 두 번째 이후의 카메라로부터 수신한 XML 데이터 중, id 속성이 "Movie"의 값을 갖는 g 요소에 포함된 정보를 개별 표시 영역에 묘화한다. 여기에서는, id 속성이 "Keys"의 값을 갖는 g 요소에 포함된 정보는 묘화되지 않는다. 조작 버튼에 관한 XML 데이터의 부분은 각 카메라로부터 송신된 XML 데이터에 공통이고, 이 부분은 이미 S702에서 묘화되어 있어, S703에서는 묘화되지 않는다. S703에서는, 영상 부분만의 묘화 처리를 행한다. 본 실시 예에서는 4대의 카메라가 LAN(202)에 접속되어 있으므로, S703에서는 두 번째 내지 네 번째의 카메라로부터 수신한 XML 데이터를 순차 처리한다.Subsequently, in S703, among the XML data received from the second and subsequent cameras, the information contained in the g element whose id attribute has a value of "Movie" is drawn in the individual display area. Here, the information contained in the g element whose id attribute has the value of "Keys" is not drawn. The part of XML data concerning an operation button is common to the XML data transmitted from each camera, and this part is already drawn in S702, and is not drawn in S703. In S703, a drawing process of only the video portion is performed. In the present embodiment, four cameras are connected to the LAN 202, so in step S703, XML data received from the second to fourth cameras is processed sequentially.

최후에, S704에 있어서, 수신한 XML 데이터에 포함된 정보 이외의 부가 정보를 묘화하여 표시부(105)에 표시한다. 여기에서, 묘화된 부가 정보는, 도 6에 나타낸 묘화 예 중, "카메라 1", "카메라 2", "카메라 3", 및 "카메라 4"의 각 문자열과, 카메라 1의 영상부분 주위에 제공된 굵은 선의 프레임을 나타낸다. 각 문자열은 각 카메라의 명칭을 의미하고, 굵은 선 프레임은 카메라가 선택되어 있는 오퍼레이터를 나타내기 위한 것이다. 이 정보는, 컴퓨터 장치(201)의 RAM(103)에 미리 저장되어 있고, S704에서는 미리 정해진 위치에 이들 정보를 묘화한다.Finally, in S704, additional information other than the information included in the received XML data is drawn and displayed on the display unit 105. Here, the drawn additional information is provided around each video string of "Camera 1", "Camera 2", "Camera 3", and "Camera 4" in the drawing example shown in FIG. Represents a thick line frame. Each character string represents a name of each camera, and a thick line frame is used to indicate an operator whose camera is selected. This information is stored in advance in the RAM 103 of the computer device 201, and at S704, these information are drawn at a predetermined position.

도 7의 플로차트에 나타낸 처리 중, S702 및 S703의 처리는, 수신한 XML 데이터를 바탕으로 도 5에 나타낸 각 영역(공통 표시 영역 501 및 개별 표시 영역 502)에 묘화하는 것을 수반하고 있다. 수신한 XML 데이터는 SVG 데이터이며, 각 오브젝트(oject)의 묘화 위치가 미리 좌표값으로서 기술되어 있다. 이들 오브젝트를 공통 표시 영역(501) 또는 개별 표시 영역(502)에 묘화할 때는, XML 데이터로부터 취득한 좌표값에 대하여, 좌표변화처리를 행한다. 예를 들면, 조작 버튼에 관한 정보를 공통 표시 영역(501)에 표시할 때는, 공통 표시 영역(501)의 좌상측 코너를 원점으로 한 좌표 공간을 가정하고, 공통 표시 영역(501) 내에 모든 조작 버튼이 들어가도록 하기 위해서 XML 데이터에 포함된 좌표값에 대하여 1차 변환처리를 행한다. 특히, SVG 데이터는, 벡터 그래픽(vector graphics)으로 구성되기 때문에, 이러한 좌표변화처리는 비교적 간단한 계산으로 행하는 것이 가능하고, 확대 또는 축소를 행해도 조작 버튼의 묘화 화질은 열화하지 않는다.Among the processing shown in the flowchart of FIG. 7, the processing of S702 and S703 involves drawing to each area (common display area 501 and individual display area 502) shown in FIG. 5 based on the received XML data. The received XML data is SVG data, and the drawing position of each object is previously described as a coordinate value. When drawing these objects in the common display area 501 or the individual display area 502, coordinate change processing is performed with respect to the coordinate value acquired from XML data. For example, when displaying information about an operation button in the common display area 501, all operations are performed in the common display area 501 assuming a coordinate space with the upper left corner of the common display area 501 as the origin. In order to make a button enter, a primary conversion process is performed on the coordinate values contained in the XML data. In particular, since the SVG data is composed of vector graphics, such coordinate change processing can be performed by a relatively simple calculation, and the drawing quality of the operation button does not deteriorate even if the enlargement or reduction is performed.

도 7의 플로차트에 나타낸 처리 중, S704에서 표시된 정보는 컴퓨터 장치(201)의 RAM(103)에 미리 저장되어 있다. 컴퓨터 장치(201)에는, 외부장치의 명칭을 입력하는 기능과, 외부장치 중의 하나를 선택하는 기능을 갖는 소프트웨어가 설치되어 있다. S704에서 표시되는 정보는, 그 소프트웨어를 사용해서 오퍼레이터에 의해 입력되어, RAM(103)에 저장된다. 이 소프트웨어는 컴퓨터 장치(201)에 미리 설치되어 있는 것보다, 오히려 외부장치 중의 하나로부터 다운로드 되어 실행되거나, 혹은 웹브라우저의 플러그인(plugin) 소프트웨어로서 실장되어 있어도 된다. 이 소프트웨어는 JavaScript 등에 기술되어 있고, 외부장치 중의 하나로부터 도 3에 나타낸 XML 데이터와 함께 송신되어도 되고, 컴퓨터 장치로 실행되어도 된다.During the processing shown in the flowchart of FIG. 7, the information displayed in S704 is stored in advance in the RAM 103 of the computer device 201. The computer device 201 is provided with software having a function of inputting a name of an external device and a function of selecting one of the external devices. The information displayed in S704 is input by the operator using the software and stored in the RAM 103. The software may be downloaded and executed from one of the external devices, or may be implemented as plug-in software of a web browser, rather than being pre-installed in the computer device 201. This software is described in JavaScript or the like, and may be transmitted from one of the external devices together with the XML data shown in FIG. 3 or executed by a computer device.

도 8은, 도 7의 플로차트에 나타낸 처리 중, 특히 S702의 처리를 구체적으로 나타낸 플로차트다. 본 처리는 CPU(101)의 제어 하에 실행된다. S702의 처리에서 XML 데이터의 각 요소를 처리할 때는 도 8에 나타낸 처리를 행한다.FIG. 8 is a flowchart specifically showing a process of S702 among the processes shown in the flowchart of FIG. 7. This process is executed under the control of the CPU 101. When processing each element of XML data in the process of S702, the process shown in FIG. 8 is performed.

우선, 묘화하려고 하는 요소가 조작 버튼에 관한 것인지의 여부를 판단한다. 즉, S801에 있어서, id 속성이 "Keys"의 값을 갖는 g 요소에 포함되지 아닌지를 판단한다.First, it is determined whether the element to be drawn relates to the operation button. That is, in S801, it is determined whether or not the id attribute is included in the g element having the value of "Keys".

S801에 있어서, 묘화하려고 하는 요소가 조작 버튼에 관한 것이라고 판단되면(S801:YES), S802에 있어서, 그 요소를 공통 표시 영역에 묘화한다. 묘화하려고 하는 요소가 조작 버튼에 관한 것이 아니라고 판단되면(S801:NO), S803에 있어서, 그 요소를 개별 표시 영역에 묘화한다.If it is determined in S801 that the element to be drawn relates to the operation button (S801: YES), the element is drawn in the common display area in S802. If it is determined that the element to be drawn is not related to the operation button (S801: NO), the element is drawn in the individual display area in S803.

도 7 및 도 8의 플로차트에 나타낸 처리를 행함으로써, 도 6에 나타낸 화면을 컴퓨터 장치(201)의 표시부(105)에 표시하는 것이 가능해진다.By performing the processing shown in the flowcharts of FIGS. 7 and 8, the screen shown in FIG. 6 can be displayed on the display unit 105 of the computer device 201.

도 6에 나타낸 바와 같이 표시함으로써, 공통 부분인 조작 버튼을 크게 표시시킬 수 있고, 또 복수의 카메라로부터의 영상을 동시에 열람할 수 있기 때문에, 유저가 사용하기 쉬운 조작 화면을 실현할 수 있다.By displaying as shown in FIG. 6, the operation button which is a common part can be displayed large, and the video from a some camera can be read simultaneously, and the operation screen which a user can use is realizable.

오퍼레이터가 컴퓨터 장치(201)의 조작을 행하는 경우에는, 마우스 등의 포인팅 디바이스(pointing device)로 개별 표시 영역 중의 원하는 카메라 화면을 선택한 후에, 조작 버튼을 선택할 수 있다. 컴퓨터 장치(201)는, 오퍼레이터에 의하여 선택된 카메라에 대하여, 선택된 조작 버튼에 해당하는 커맨드(command)를 송신한다. 이 경우, 컴퓨터 장치(201)의 CPU(101)는, 조작 화면의 조작 버튼을 통해서 입력된 정보를 복수의 외부장치 중의 적어도 하나에 송신하기 위한 송신 제어를 실행한다.When the operator performs the operation of the computer device 201, after selecting a desired camera screen in the individual display area with a pointing device such as a mouse, the operation button can be selected. The computer device 201 transmits a command corresponding to the selected operation button to the camera selected by the operator. In this case, the CPU 101 of the computer device 201 executes transmission control for transmitting the information input through the operation button on the operation screen to at least one of the plurality of external devices.

이러한 오퍼레이터에 의한 조작에 응답한 처리는 컴퓨터 장치(201)에 실장된 소프트웨어에 의해 실행된다. 본 실시 예에 있어서는, 이러한 처리를 행하는 컴퓨 터 프로그램을, 예를 들면 미리 컴퓨터 장치(201)의 하드 디스크(104)에 저장해 두는 것이 가능하다. 외부장치 중의 하나로부터 컴퓨터 프로그램을 다운로드해서 실행해도 된다. 웹브라우저의 플러그인 소프트웨어로서 컴퓨터 프로그램이 실장되어 있어도 되고, 그 경우에는, 복수의 웹브라우저를 기동하지 않고 복수의 외부장치의 조작 화면을 표시하는 것도 가능하다.The processing in response to the operation by such an operator is executed by software mounted on the computer device 201. In the present embodiment, it is possible to store, for example, a computer program that performs such processing on the hard disk 104 of the computer device 201 in advance. You may download and run a computer program from one of the external devices. A computer program may be mounted as the plug-in software of the web browser. In this case, it is also possible to display the operation screens of a plurality of external devices without starting up the plurality of web browsers.

이 소프트웨어가 JavaScript 등에 기술되어 있고, 외부장치 중의 하나로부터 도 3에 나타낸 XML 데이터와 함께 송신되어, 컴퓨터 장치로 실행되어도 된다.This software is described in JavaScript or the like, and may be transmitted from one of the external devices together with the XML data shown in FIG. 3 to be executed by the computer device.

특히, JavaScript의 경우에는, 일반적으로 시큐리티상의 제약에 의해 하나의 JavaScript 코드로는 하나의 외부장치밖에 통신을 행할 수 없다. 이 경우, 오퍼레이터의 조작에 따라 실행하는 JavaScript 코드를 변환해서, 복수 장치와 통신을 행하도록 해도 된다.In particular, in the case of JavaScript, in general, due to security restrictions, only one external device can communicate with one JavaScript code. In this case, JavaScript code executed according to an operator's operation may be converted to communicate with a plurality of devices.

본 실시 예에 의하면, 복수의 외부장치를 일람할 수 있고, 또한, 개개의 조작 화면을 최대한 크게 표시하는 것이 가능한 정보처리기술을 제공하는 것이 가능하게 된다. 즉, 복수의 외부장치의 조작 화면을 표시하는 시스템에 있어서, 오퍼레이터가 조작하기 쉬운 유저 인터페이스를 실현하는 정보처리기술의 제공이 가능해 진다.According to the present embodiment, it becomes possible to provide an information processing technique capable of listing a plurality of external devices and displaying each operation screen as large as possible. That is, in the system for displaying the operation screens of a plurality of external devices, it becomes possible to provide an information processing technique for realizing a user interface that is easy for the operator to operate.

또한, 본 실시 예에 의하면, 같은 묘화 처리를 반복하는 것을 방지하고, 효율적인 묘화 처리를 행하는 것이 가능한 정보처리기술을 제공하는 것이 가능하게 된다.Further, according to the present embodiment, it becomes possible to provide an information processing technique capable of preventing the same drawing process from being repeated and performing an efficient drawing process.

<제 2 실시 예>Second Embodiment

제 1 실시 예에서는, 각 카메라로부터 송신된 XML 데이터 중, id 속성이 "Keys"의 값을 갖는 g 요소의 내용은 모두 동일하다고 하는 전제의 시스템에 있어서의 처리를 설명했다. 본 실시 예에서는, id 속성이 "Keys"의 값을 갖는 g 요소의 내용이 다른 시스템에 있어서의 처리를 설명한다. 도 1의 블럭도 및 도 2의 시스템 구성도는, 제 1 실시 예와 같다.In the first embodiment, the processing in the premise system that the contents of the g element whose id attribute has the value of "Keys" in the XML data transmitted from each camera is all explained. In this embodiment, processing in a system in which the content of the g element whose id attribute has a value of "Keys" is different will be described. The block diagram of FIG. 1 and the system configuration diagram of FIG. 2 are the same as those of the first embodiment.

도 3 및 도 9는, LAN(202)에 접속된 카메라(203, 204, 205, 206)로부터 컴퓨터 장치(201)에 송신되는 XML 데이터의 예다. 도 3 및 도 9에 나타낸 XML 데이터에서는, 조작 버튼에 관한 기술 내용이 다르다. 도 3의 XML 데이터에는 확대 및 축소 버튼의 정보가 포함되어 있지만, 도 9에는 확대 및 축소 버튼이 없다. 즉, 확대/축소 기능을 갖지 않는 카메라로부터는 도 9에 나타나 있는 바와 같은 XML 데이터가 송신되고, 확대/축소 기능을 갖는 카메라로부터는 도 3에 나타나 있는 바와 같은 XML 데이터가 송신된다. 본 실시 예에서는, 카메라 1 및 2는 확대/축소 기능을 갖고, 카메라 3 및 4는 확대/축소 기능을 갖지 않는다.3 and 9 are examples of XML data transmitted to the computer device 201 from the cameras 203, 204, 205, and 206 connected to the LAN 202. In the XML data shown in FIG. 3 and FIG. 9, the description of the operation button is different. Although the XML data of FIG. 3 includes information of zoom in and zoom out buttons, there is no zoom in and zoom out buttons in FIG. 9. That is, XML data as shown in FIG. 9 is transmitted from the camera which does not have an enlargement / reduction function, and XML data as shown in FIG. 3 is transmitted from a camera having an enlargement / reduction function. In this embodiment, the cameras 1 and 2 have a zoom function, and the cameras 3 and 4 do not have a zoom function.

도 6 및 도 11은, 본 실시 예에 있어서의 표시부(105)의 화면표시의 예다. 본 실시 예에 있어서도, 제 1 실시 예와 마찬가지로, 표시부(105)는 도 5의 개략도에 나타낸 공통 표시 영역(501)과 개별 표시 영역(502)을 표시하는 것이 가능하다.6 and 11 show examples of screen display of the display unit 105 in the present embodiment. Also in this embodiment, like the first embodiment, the display unit 105 can display the common display area 501 and the individual display area 502 shown in the schematic diagram of FIG. 5.

도 10은, 본 실시 예에 있어서의 컴퓨터 장치(201)가 표시부(105)에 표시를 행할 때의 처리를 나타낸 플로차트다. 본 처리는, CPU(101)의 제어 하에 실행된다. 컴퓨터 장치(201)에서는, 우선, S1001에 있어서, 각 카메라로부터 묘화 정보를 구성하는 XML 데이터를 각각 수신하고, 그들 데이터를 해석해서 내부 데이터로 변환 한다.10 is a flowchart showing processing when the computer device 201 performs display on the display unit 105 in the present embodiment. This process is executed under the control of the CPU 101. In the computer device 201, first, in S1001, XML data constituting drawing information is received from each camera, and the data is analyzed and converted into internal data.

다음에, S1002에 있어서, 현재 선택되어 있는 카메라의 번호 N을 취득한다. 컴퓨터 장치(201)는, LAN(202)을 거쳐서 접속되어 있는 카메라를 관리하기 위해서 내부적으로 카메라에 유일한 번호를 할당하고 있다. 컴퓨터 장치(201)는, 오퍼레이터가 조작부(106)를 통해서 카메라를 선택할 수 있게 구성되어 있고, 현재 선택되어 있는 카메라의 번호는 RAM(103)에 저장되어 있다. S1002에서는, 현재 선택되어 있는 카메라의 번호 N을 RAM(103)로부터 판독한다.Next, in S1002, the number N of the camera currently selected is acquired. The computer device 201 internally assigns a unique number to the camera in order to manage the camera connected via the LAN 202. The computer device 201 is configured such that an operator can select a camera through the operation unit 106, and the number of the currently selected camera is stored in the RAM 103. In S1002, the number N of the camera currently selected is read from the RAM 103.

계속해서, S1003에 있어서, N번째의 카메라의 묘화 정보 중, id 속성이 "Keys"의 값을 갖는 g 요소에 포함된 정보를 공통 표시 영역(501)에 묘화한다. 즉, 현재 선택되어 있는 카메라의 조작 버튼을 공통 표시 영역(501)에 묘화한다.Subsequently, in S1003, among the drawing information of the Nth camera, the information contained in the g element whose id attribute has a value of "Keys" is drawn in the common display area 501. That is, the operation button of the currently selected camera is drawn in the common display area 501.

S1003의 처리에 계속해서, S1004에 있어서, 각 카메라의 묘화 정보 중, id 속성이 "Movie"의 값을 갖는 g 요소에 포함된 정보를 개별 표시 영역(502)에 각각 묘화한다. 그 후, S1005에 있어서, 부가 정보를 묘화한다.Subsequent to the process of S1003, in S1004, among the drawing information of each camera, the information contained in the g element whose id attribute has the value of "Movie" is drawn in the individual display area 502, respectively. After that, in S1005, additional information is drawn.

이상의 순서를 이용해서 처리를 행함으로써, 예를 들면 카메라 1이 선택되어 있을 때에는 도 6에 나타낸 화면을 표시부(105)에 표시할 수 있고, 카메라 3이 선택되어 있을 때에는 도 11에 나타낸 화면을 표시하는 것이 가능하다.By performing the processing using the above procedure, for example, when the camera 1 is selected, the screen shown in Fig. 6 can be displayed on the display unit 105, and when the camera 3 is selected, the screen shown in Fig. 11 is displayed. It is possible to do

오퍼레이터가 조작부(106)를 통해서 다른 카메라를 선택할 때마다, 도 10의 플로차트에 나타낸 처리가 행해지고, 공통 표시 영역은 그 카메라의 조작 버튼으로 전환된다. 이 경우, CPU(101)와 조작부(106)는, 개별 표시 영역에 표시된 복수의 표시 영역 중의 어느 하나의 표시 영역을 선택하도록 구성된 표시 영역 선택부로서 기능을 한다.Each time the operator selects another camera via the operation unit 106, the process shown in the flowchart of FIG. 10 is performed, and the common display area is switched to the operation button of the camera. In this case, the CPU 101 and the operation unit 106 function as a display area selection unit configured to select any one of the plurality of display areas displayed on the individual display areas.

본 실시 예에서는, 각 카메라로부터 송신된 XML 데이터에 그 카메라의 조작 버튼에 관한 정보가 포함되어 있고, 이 정보를 개별적으로 처리함으로써 표시 화면을 작성하고 있다. 그 때문에, 이미 접속되어 있는 다른 카메라에는 존재하지 않는 조작 버튼을 갖는 카메라를 새롭게 접속했을 경우에도, 그 카메라에 대응한 표시 화면을 구성하는 것이 가능하다.In the present embodiment, the XML data transmitted from each camera includes the information about the operation button of the camera, and the display screen is created by processing this information separately. Therefore, even when the camera which has an operation button which does not exist in another camera connected already is newly connected, the display screen corresponding to the camera can be comprised.

본 실시 예에 의하면, 외부장치의 조작방법의 차이에 유연하게 대응하는 것이 가능한 정보처리기술을 제공하는 것이 가능하게 된다.According to the present embodiment, it becomes possible to provide an information processing technology which can flexibly cope with the difference in the operation method of an external device.

<제 3 실시 예>Third Embodiment

제 1 실시 예 및 제 2 실시 예에서는, 각 카메라로부터 송신된 XML 데이터의, id 속성의 값을 사용해서 묘화 영역을 판단하는 방법을 설명했다. 본 실시 예에서는, id 속성을 사용하지 않고 처리를 행하는 방법을 설명한다.In the first and second embodiments, a method of determining a drawing area using the value of the id attribute of XML data transmitted from each camera has been described. In this embodiment, a method of performing processing without using an id attribute will be described.

도 1의 블록도 및 도 2의 시스템 구성도는, 제 1 실시 예와 같다.The block diagram of FIG. 1 and the system configuration diagram of FIG. 2 are the same as those of the first embodiment.

본 실시 예에 있어서도, 도 3 및 도 9에 예시한 XML 데이터가 LAN(202)에 접속된 카메라 1, 2, 3, 4로부터 컴퓨터 장치(201)에 송신된다. 도 6 및 도 11은, 본 실시 예에 있어서의 표시부(105)의 화면 표시의 예를 나타낸다. 본 실시 예에서도 제 1 및 제 2 실시 예와 마찬가지로, 표시부(105)는 도 5의 개략도에 나타낸 공통 표시 영역(501)과 개별 표시 영역(502)을 표시하는 것이 가능하다.Also in this embodiment, the XML data illustrated in FIGS. 3 and 9 is transmitted to the computer device 201 from cameras 1, 2, 3, and 4 connected to the LAN 202. 6 and 11 show examples of screen display of the display unit 105 in the present embodiment. Also in the present embodiment, like the first and second embodiments, the display unit 105 can display the common display area 501 and the individual display area 502 shown in the schematic diagram of FIG. 5.

도 12는, 본 실시 예에 있어서의 컴퓨터 장치(201)가 표시부(105)에 표시를 행할 때의 처리를 나타낸 플로차트다. 본 처리는 CPU(101)의 전체적인 제어 하에서 실행된다.12 is a flowchart showing processing when the computer device 201 performs display on the display unit 105 in the present embodiment. This process is executed under overall control of the CPU 101.

컴퓨터 장치(201)에서는, 우선, S1201에 있어서, 각 카메라로부터 묘화 정보를 구성하는 XML 데이터를 각각 수신하고, 그 데이터를 해석해서 내부 데이터로 변환한다.In the computer device 201, first, in S1201, XML data constituting drawing information is received from each camera, and the data is analyzed and converted into internal data.

다음에, S1202에 있어서, 각 카메라의 묘화 정보의 공통 부분과 비공통 부분을 판별한다. 즉, 각 카메라로부터 수신한 합 4개의 묘화 정보를 해석하고, 모든 묘화정보에 공통인 부분과 공통이 아닌 부분을 판별한다. 공통인 부분과 비공통 부분의 판단은, XML 데이터의 기술을 요소단위로 비교해서 동일한지 아닌지를 판단하는 것을 수반한다. 도 3 및 도 9에 나타낸 XML 데이터의 경우에는, 상하좌우 커서에 관한 기술은 동일하기 때문에 공통 부분이라고 간주하지만, 그 이외의 기술은 동일하지 않기 때문에 비공통 부분이라고 간주한다.Next, in S1202, the common part and the non-common part of the drawing information of each camera are discriminated. That is, the total four drawing information received from each camera is analyzed, and the part common to all the drawing information and the part which is not common are discriminated. The determination of the common part and the non-common part involves comparing the description of XML data element by element to determine whether they are the same or not. In the case of the XML data shown in Figs. 3 and 9, since the descriptions of the up, down, left, and right cursors are the same, they are regarded as common parts.

계속해서, S1203에 있어서, 이전의 스텝 S1202에서 공통 부분이라고 판단된 부분을 표시부(105)의 공통 표시 영역(501)에 묘화한다. S1204에 있어서, 이전의 스텝 S1202에서 비공통 부분이라고 판단된 부분을 개별 표시 영역(502)에 묘화한다. 비공통 부분은, 각 카메라의 묘화 정보에 각각 포함되어 있기 때문에, 순차 처리되어 묘화된다. 최후에, S1205에 있어서, 부가 정보를 묘화하고, 도 12의 플로차트의 처리를 종료한다.Subsequently, in S1203, the portion determined as the common portion in the previous step S1202 is drawn in the common display area 501 of the display unit 105. In S1204, the part judged as a non-common part in previous step S1202 is drawn in the individual display area 502. As shown in FIG. Since the non-common part is included in the drawing information of each camera, respectively, it processes and draws sequentially. Finally, in S1205, additional information is drawn, and the process of the flowchart of FIG. 12 is complete | finished.

도 13은, 도 12의 플로차트를 따라 처리를 행했을 경우의, 표시부(105)의 표시의 일례를 나타낸다. 도 13에 나타나 있는 바와 같이, 본 실시 예에서는, 카메라 1과 카메라 2의 묘화 정보에는 확대 버튼 및 축소버튼의 기술이 있기 때문에, 개별 표시 영역 중 카메라 1과 2의 표시 영역에는, 이들의 버튼이 묘화되어 있다. 한편, 카메라 3과 카메라 4의 묘화 정보에는 확대 버튼 또는 축소 버튼의 기술이 없기 때문에, 개별 표시 영역 중 카메라 3 및 4의 표시 영역에는 이들 버튼은 묘화되어 있지 않다. 상하좌우 커서 버튼은, 모든 카메라의 묘화 정보에 포함되는 것이기 때문에, 공통 표시 영역(501)에 묘화되어 있다.FIG. 13 shows an example of the display of the display unit 105 when the processing is performed along the flowchart of FIG. 12. As shown in Fig. 13, in the present embodiment, the drawing information of the camera 1 and the camera 2 includes the description of the enlargement button and the reduction button. It is drawn. On the other hand, since the drawing information of the cameras 3 and 4 does not have a description of an enlarged button or a reduced button, these buttons are not drawn in the display areas of the cameras 3 and 4 among the individual display areas. Since the up, down, left, and right cursor buttons are included in the drawing information of all the cameras, they are drawn in the common display area 501.

본 실시 예에 의하면, 외부장치의 조작방법의 차이에 유연하게 대응하는 것이 가능한 정보처리기술을 제공하는 것이 가능하게 된다.According to the present embodiment, it becomes possible to provide an information processing technology which can flexibly cope with the difference in the operation method of an external device.

<제 4 실시 예>Fourth Embodiment

제 1 ∼ 제 3 실시 예에서는, 주로 조작 버튼을 공통 표시 영역에 표시하고, 주로 영상정보를 개별 표시 영역에 표시하는 예를 나타낸다. 본 실시 예에서는, 조작 버튼을 개별 표시 영역에 표시하고, 영상정보를 공통 표시 영역에 표시하는 예를 나타낸다. 도 1의 블록도 및 도 2의 시스템 구성도는, 제 1 실시 예와 같다.In the first to third embodiments, an operation button is mainly displayed in a common display area, and an example of mainly displaying video information in an individual display area is shown. In this embodiment, an operation button is displayed in an individual display area, and an example in which video information is displayed in a common display area is shown. The block diagram of FIG. 1 and the system configuration diagram of FIG. 2 are the same as those of the first embodiment.

본 실시 예에 있어서도, 도 3 및 도 9에 예시한 XML 데이터가 LAN(202)에 접속된 카메라 1, 2, 3 및 4로부터 컴퓨터 장치(201)에 송신된다.Also in this embodiment, the XML data illustrated in FIGS. 3 and 9 is transmitted to the computer device 201 from cameras 1, 2, 3, and 4 connected to the LAN 202.

본 실시 예에 있어서는, 표시부(105)는 도 5의 개략도에 나타낸 영역을 표시하는 것이 가능하지만, 제 1 내지 제 3 실시 예와는 다르게, 도 5의 파선 501로 나타낸 영역이 개별표시 영역으로서 기능하고, 도 5의 파선 502로 나타낸 영역이 공통 표시 영역으로서 기능한다.In the present embodiment, the display unit 105 can display the region shown in the schematic diagram of FIG. 5, but unlike the first to third embodiments, the region indicated by the broken line 501 of FIG. 5 functions as an individual display region. The area shown by the broken line 502 in FIG. 5 functions as a common display area.

본 실시 예에 있어서는, 제 1 실시 예 및 제 2 실시 예 와 마찬가지로, 컴퓨터 장치(201)는 XML 데이터의 id 속성을 사용해서, 공통 표시 영역에 묘화할지 개 별 표시 영역에 묘화할지를 판단한다. 제 1 및 제 2 실시 예에서는, id 속성이 "Keys"의 값을 갖는 g 요소의 내용을 공통 표시 영역에 묘화하는 예를 설명했다. 본 실시 예에서는, id 속성이 "Keys"의 값을 갖는 g 요소의 내용을 개별 표시 영역에 묘화하고, id 속성이 "Movie"의 값을 갖는 g 요소의 내용을 공통 표시 영역에 묘화하는 구성을 설명한다.In the present embodiment, similarly to the first and second embodiments, the computer device 201 determines whether to draw in the common display area or the individual display area by using the id attribute of the XML data. In the first and second embodiments, an example has been described in which the contents of the g element whose id attribute has a value of "Keys" are drawn in the common display area. In this embodiment, a configuration is described in which the content of the g element whose id attribute has a value of "Keys" is drawn in a separate display area, and the content of the g element whose id attribute has a value of "Movie" in a common display area. Explain.

도 14는, 본 실시 예에 있어서의 컴퓨터 장치(201)가 표시부(105)에 표시를 행할 때의 처리를 나타낸 플로차트다. 본 처리는 CPU(101)의 전체적인 제어 하에서 처리를 실행한다.14 is a flowchart showing processing when the computer device 201 performs display on the display unit 105 in the present embodiment. This process executes the process under overall control of the CPU 101.

도 14의 플로차트에 나타낸 처리의 흐름은, 제 2 실시 예에서 나타낸 도 10의 플로차트의 흐름과 거의 동일하지만, S1403 및 S1404에 있어서의 처리의 id 속성의 값은 서로 다르다.The flow of the process shown in the flowchart of FIG. 14 is almost the same as the flow of the flowchart of FIG. 10 shown in the second embodiment, but the value of the id attribute of the process in S1403 and S1404 is different from each other.

S1401, S1402, 및 S1405은, 각각 S1001, S1002, S1005와 같기 때문에, 그 설명을 생략한다.Since S1401, S1402, and S1405 are the same as S1001, S1002, and S1005, respectively, description thereof is omitted.

S1403에서는, N번째의 카메라의 묘화 정보 중, id속성이 "Movie"의 값을 갖는 g 요소에 기술된 정보를, 공통 표시 영역으로서 기능하는 영역 1502(도 15)에 묘화한다. 즉, 현재 선택되어 있는 카메라의 영상정보를, 공통 표시 영역으로서 기능하는 영역 1502(도 15)에 묘화한다.In S1403, among the drawing information of the Nth camera, the information described in the g element whose id attribute has the value of "Movie" is drawn in the area 1502 (FIG. 15) which functions as a common display area. That is, the video information of the camera currently selected is drawn in the area 1502 (FIG. 15) which functions as a common display area.

각 카메라의 묘화 정보 중, id 속성이 "Keys"의 값을 갖는 g 요소에 기술된 정보를, 개별 표시 영역으로서 기능하는 영역 1501(도 15)에 묘화한다(S1404).Among the drawing information of each camera, the information described in the g element whose id attribute has the value of "Keys" is drawn in the area 1501 (FIG. 15) which functions as an individual display area (S1404).

도 15는, 도 14의 플로차트에 따라 처리를 행했을 경우의, 표시부(105)의 표 시의 일례를 나타낸다. 도 15에 나타낸 바와 같이, 화면 좌측의 개별표시 영역으로서 기능하는 영역 1501은 카메라의 개수에 따라 분할되고, 개개의 카메라의 조작 버튼이 표시되어 있다. 화면 우측의 공통 표시 영역으로서 기능하는 영역 1502에는, 현재 선택되어 있는 카메라로부터 송신된 영상이 표시되어 있다.FIG. 15 shows an example of the display of the display portion 105 when the processing is performed in accordance with the flowchart of FIG. 14. As shown in Fig. 15, an area 1501 serving as an individual display area on the left side of the screen is divided according to the number of cameras, and operation buttons of individual cameras are displayed. In an area 1502 serving as a common display area on the right side of the screen, a video transmitted from the camera currently selected is displayed.

도 15의 화면에 있어서, 조작부(106)를 통해서 오퍼레이터가 다른 카메라를 선택하면 다시 도 14의 플로차트에 나타낸 처리가 행해지고, 공통 표시 영역은 그 카메라로부터의 영상으로 전환된다.In the screen of FIG. 15, when an operator selects another camera through the operation part 106, the process shown in the flowchart of FIG. 14 is performed again, and a common display area is switched to the image from the camera.

본 실시 예의 방법에서는, 영상 표시 부분을 크게 하는 것이 가능해서, 영상의 시인성을 향상시킬 수 있다. 접속된 외부장치의 조작패널을 일람할 수 있기 때문에, 각 외부장치가 어떤 기능을 갖는지를 오퍼레이터가 파악하기 쉽다고 하는 이점도 있다.In the method of this embodiment, it is possible to enlarge the video display portion, thereby improving the visibility of the video. Since the operation panels of the connected external devices can be listed, there is an advantage that it is easy for the operator to know what function each external device has.

<제 5 실시 예><Fifth Embodiment>

제 1 내지 제 4 실시 예에서는, 주로 표시 방법 및 표시 처리에 관한 예를 나타냈다. 본 실시 예에서는, 제 1 실시 예 또는 제 3 실시 예에 나타낸 표시 방법을 수행하는 장치에 있어서, 오퍼레이터에 의한 조작을 했을 경우의 처리의 예를 나타낸다.In the first to fourth embodiments, examples of mainly the display method and the display processing are shown. In the present embodiment, an example of a process in the case of performing an operation by an operator in the apparatus for performing the display method shown in the first or third embodiment is shown.

도 1의 블럭도 및 도 2의 시스템 구성도는, 제 1 실시 예와 같다. The block diagram of FIG. 1 and the system configuration diagram of FIG. 2 are the same as those of the first embodiment.

본 실시 예에 있어서도, 도 3 및 도 9에 예시한 XML 데이터는, LAN(202)에 접속된 카메라(203, 204, 205, 206)로부터 컴퓨터 장치(201)에 송신된다.Also in this embodiment, the XML data illustrated in FIGS. 3 and 9 is transmitted to the computer device 201 from the cameras 203, 204, 205, and 206 connected to the LAN 202.

도 18은, 복수의 카메라가 선택되었을 때의 표시부(105)의 표시 상태를 나타 낸 예이다. 도 18에 나타냈던 것처럼, 카메라 2 및 3의 영상 부분에 굵은 선의 프레임이 표시되어, 오퍼레이터가 선택 상태를 인식할 수 있게 되어 있다.18 shows an example of the display state of the display unit 105 when a plurality of cameras is selected. As shown in Fig. 18, a thick frame is displayed on the video portions of the cameras 2 and 3 so that the operator can recognize the selection state.

본 실시 예에 있어서는, 마우스 등의 포인팅 디바이스에 의해, 1개 또는 복수의 카메라를 선택 가능하다. 오퍼레이터가 공통 표시 영역에 있는 버튼을 조작했을 경우에는, 그 버튼에 상당하는 코맨드가 선택된 카메라에 송신되고, 코맨드를 수신한 카메라는 코맨드에 따른 동작을 수행한다. 복수의 카메라로 선택되어 있는 상태에서 오퍼레이터가 공통 표시 영역의 버튼 조작을 행했을 경우에는, 선택된 카메라의 모두에 코맨드가 송신된다.In the present embodiment, one or a plurality of cameras can be selected by a pointing device such as a mouse. When the operator has operated a button in the common display area, a command corresponding to the button is sent to the selected camera, and the camera receiving the command performs an operation according to the command. When an operator performs a button operation of a common display area in the state which is selected by the some camera, the command is transmitted to all the selected cameras.

도 19는, 오퍼레이터가 공통 표시 영역에 있는 버튼 조작을 행했을 때의 장치의 처리를 나타낸 플로차트다.19 is a flowchart showing the processing of the apparatus when the operator performs a button operation in the common display area.

도 19에 나타냈던 것처럼, 오퍼레이터가 공통 표시 영역에 있는 버튼의 조작을 행했을 경우에는, 우선, 개별 표시 영역의 카메라 화면 중, 선택 상태에 있는 것의 리스트를 취득한다(S1701). 이 리스트는 내부 관리용의 리스트이며, 예를 들면 카메라 2 및 3이 선택되어 있는 경우에는, 리스트의 0번째에는 카메라 2를 나타내는 ID 번호가 저장되고, 리스트의 1번째에는 카메라 3을 나타내는 ID 번호가 저장된다. 선택되어 있는 카메라가 2개인 경우에는, 리스트의 0번째와 1번째만이 존재한다. 즉 리스트의 2번째 이후는 존재하지 않는다.As shown in FIG. 19, when an operator operates the button in a common display area, the list of the camera screen of an individual display area which is in a selection state is acquired first (S1701). This list is for internal management. For example, when cameras 2 and 3 are selected, the ID number indicating camera 2 is stored in the 0th of the list, and the ID number indicating camera 3 in the first of the list. Is stored. If there are two cameras selected, only the 0th and 1st of the list exist. In other words, there is no second or later in the list.

S1701의 처리 후에는, 리스트의 인덱스 번호를 나타내는 변수 N을 0으로 설정한다(S1702).After the processing of S1701, the variable N indicating the index number of the list is set to 0 (S1702).

다음에, S1701에서 취득한 리스트의 N번째가 존재하는지 아닌지를 판단한 다(S1703). S1703에 있어서 리스트의 N번째가 존재한다고 판단되면, 리스트의 N번째에 저장된 ID 번호에 상당하는 카메라에, 코맨드를 송신한다(S1704). 여기에 송신된 코맨드는, 오퍼레이터가 조작한 버튼에 대응하는 것이다. 코멘드가 송신되는 카메라에 따라 코맨드의 종류나 송신 방법을 변경하는 구성도 가능하다.Next, it is judged whether the Nth of the list acquired in S1701 exists or not (S1703). If it is determined in S1703 that the Nth of the list exists, the command is transmitted to the camera corresponding to the ID number stored in the Nth of the list (S1704). The command transmitted here corresponds to the button operated by the operator. It is also possible to change the type of command and the transmission method according to the camera to which the command is transmitted.

S1704의 처리 후에는, 변수 N에 1을 더하고(S1705), S1703로 처리가 돌아온다.After the process of S1704, 1 is added to the variable N (S1705), and the process returns to S1703.

S1703에 있어서, 리스트의 N번째가 존재하지 않는다고 판단되면, 처리를 종료한다.In S1703, if it is determined that the Nth of the list does not exist, the process ends.

이상 설명한 것처럼, 본 실시 예에 나타낸 방법을 이용하면, 같은 버튼을 갖는 복수의 외부 장치에 1회의 조작으로 코맨드를 송신하는 것이 가능해져, 오퍼레이터의 편리성을 향상시키는 것이 가능해진다.」As described above, using the method shown in the present embodiment, it is possible to transmit a command to a plurality of external devices having the same button by one operation, thereby improving the convenience of the operator.

이상, 5개의 실시 예를 설명했지만, 이들의 실시 예를 모두 제공하고, 상황에 따라 처리 형태를 전환하는 방법을 사용해도 된다. 5개의 실시 예에서는, 표시부(105)를 도 5에 나타나 있는 바와 같이 2개의 영역으로 분할한 형태를 설명했지만, 이 영역은 2개보다 많아도 된다. 예를 들면, 표시부(105)를 1개의 공통 표시 영역과 2개의 개별 표시 영역으로 구성된 합 3개의 영역으로 분할해도 된다. 예를 들면, 컴퓨터 장치(201)는 개별 표시 영역이 복수 있는 경우에는, 어느 개별표시 영역에 표시할지를, id 속성의 값 등에 근거해서 판단한다As mentioned above, although five embodiment was described, the method of providing all these embodiments and switching a process form according to a situation may be used. In the five embodiments, the form in which the display portion 105 is divided into two regions as illustrated in FIG. 5 has been described, but there may be more than two regions. For example, the display unit 105 may be divided into three regions composed of one common display region and two individual display regions. For example, when there are a plurality of individual display areas, the computer device 201 determines which individual display area to display on the basis of the value of the id attribute or the like.

이러한 실시 예에서는 네트워크 접속된 카메라를 원격 조작하는 시스템을 예로 들어 설명했지만, 본 발명의 취지는 카메라에 한정되는 것이 아니라는 것은 말 할 필요도 없다. 본 발명은 예를 들면, 프린터, 라우터, 스캐너, 복사기, 팩시밀리 장치 등, 네트워크에 접속 가능한 모든 장치의 원격 조작 시스템에 적용가능하다. 또한, "원격조작"은 외부장치를 기계적으로 움직이는 것뿐만 아니라, 외부장치에 포함된 소프트웨어 프로그램의 설정 정보를 변경하는 것도 포함한다.In this embodiment, a system for remotely controlling a network-connected camera has been described as an example, but needless to say, the gist of the present invention is not limited to the camera. The present invention is applicable to a remote operation system of any device that can be connected to a network, for example, a printer, a router, a scanner, a copier, a facsimile device, and the like. In addition, "remote operation" includes not only mechanically moving the external device but also changing setting information of a software program included in the external device.

본 발명의 목적은 전술한 실시 예의 기능을 실현하는 컴퓨터 프로그램을 기록한 기록 매체를, 시스템 혹은 장치에 공급함으로써도 달성하는 것이 가능하다. 또한, 본 발명의 목적은 시스템 혹은 장치의 컴퓨터(또는 CPU 또는 MPU)가 기억매체에 저장된 컴퓨터 프로그램을 판독해서 실행함으로써도, 달성되는 것은 말할 필요도 없다. 이 경우, 컴퓨터 판독가능한 기억매체로부터 판독된 실제의 컴퓨터 프로그램이 전술한 실시 예의 기능을 실현하고, 그 컴퓨터 프로그램을 기억한 컴퓨터 판독가능한 기억매체는 본 발명을 구성하게 된다.The object of the present invention can also be achieved by supplying a system or apparatus with a recording medium on which a computer program for realizing the functions of the above-described embodiments is provided. It is needless to say that the object of the present invention is also achieved by a computer (or CPU or MPU) of a system or apparatus reading out and executing a computer program stored in a storage medium. In this case, the actual computer program read from the computer readable storage medium realizes the functions of the above-described embodiments, and the computer readable storage medium storing the computer program constitutes the present invention.

컴퓨터 프로그램을 공급하기 위해 사용 가능한 기억매체로서는, 예를 들면 플렉시블 디스크, 하드 디스크, 광디스크, 광자기 디스크 등을 사용할 수 있다. 또한, 기억매체로서, CD-ROM, CD-R, 자기 테이프, 비휘발성의 메모리 카드, ROM, DVD 등을 사용할 수 있다.As a storage medium which can be used for supplying a computer program, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, or the like can be used. As the storage medium, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, DVD and the like can be used.

또한, 컴퓨터가 판독한 컴퓨터 프로그램을 실행함으로써, 전술한 실시 예의 기능이 실현된다. 또한, 그 컴퓨터 프로그램의 지시에 근거하여, 컴퓨터상에서 가동하고 있는 오퍼레이팅 시스템(OS) 등이 실제의 처리의 일부 또는 전부를 실행한다. 그리고, 그 처리에 의해 전술한 실시 예의 기능이 실현될 경우도 실시 예에 포함되는 것은 말할 필요도 없다.In addition, by executing the computer program read by the computer, the functions of the above-described embodiments are realized. In addition, based on the instructions of the computer program, an operating system (OS) or the like running on the computer executes part or all of the actual processing. In addition, it goes without saying that even if the function of the above-mentioned embodiment is implemented by the process, it is included in an embodiment.

한층 더, 기억매체로부터 판독된 컴퓨터 프로그램이, 컴퓨터에 삽입된 기능 확장 보드나 컴퓨터에 접속된 기능 확장 유닛에 구비된 메모리에 기록될 수도 있다. 그 후에, 그 컴퓨터 프로그램의 지시에 근거하여, 그 기능 확장 보드나 기능 확장 유닛에 구비된 CPU 등이 실제의 처리의 일부 또는 전부를 실행한다. 그 처리에 의해 전술한 실시 예의 기능이 실현될 경우도 본 발명의 실시 예에 포함되는 것은 말할 필요도 없다.Furthermore, the computer program read from the storage medium may be recorded in a memory provided in a function expansion board inserted in the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the computer program, the CPU or the like provided in the function expansion board or the function expansion unit executes part or all of the actual processing. Needless to say, what is included in the embodiment of the present invention even when the function of the above-described embodiment is realized by the processing.

본 발명은 예시적인 실시 예들을 참조하면서 설명되었지만, 본 발명은 개시된 예시적인 실시 예에 한정되는 것이 아니라는 것을 이해할 것이다. 이하의 특허청구범위는 그러한 모든 변형과 균등구조 및 기능을 포함하도록 가장 넓게 해석되어야 한다.While the invention has been described with reference to exemplary embodiments, it will be understood that the invention is not limited to the disclosed exemplary embodiments. The scope of the following claims is to be accorded the broadest interpretation so as to encompass all such modifications and equivalent structures and functions.

도 1은 본 발명의 실시 예에 따른 컴퓨터 장치(201)의 구성을 나타내는 블록도이다.1 is a block diagram showing the configuration of a computer device 201 according to an embodiment of the present invention.

도 2는 본 발명의 실시 예에 따른 컴퓨터 장치(201)를 포함한 네트워크의 구성을 도시한 도면이다.2 is a diagram illustrating a configuration of a network including a computer device 201 according to an embodiment of the present invention.

도 3은 컴퓨터 장치(201)로 처리되는 XML 데이터의 기술 예를 도시한 도면이다.3 is a diagram showing an example of description of XML data processed by the computer device 201.

도 4는 외부장치의 조작 화면을 컴퓨터 장치(201)의 표시부(105)에 표시한 상태를 예시하는 도면이다.4 is a diagram illustrating a state in which an operation screen of an external device is displayed on the display unit 105 of the computer device 201.

도 5는 컴퓨터 장치(201)의 표시부(105)에 있어서의 영역의 정의를 예시하는 도면이다.5 is a diagram illustrating a definition of an area in the display portion 105 of the computer device 201.

도 6은 복수의 카메라로부터 수신한 XML 데이터를 컴퓨터 장치(201)의 표시부(105)에 표시한 상태를 예시하는 도면이다.FIG. 6 is a diagram illustrating a state in which XML data received from a plurality of cameras is displayed on the display unit 105 of the computer device 201.

도 7은 컴퓨터 장치(201)가 표시부(105)에 표시를 행할 때의 처리를 설명하는 플로차트다.7 is a flowchart for describing processing when the computer device 201 performs display on the display unit 105.

도 8은 도 7의 플로차트에 나타낸 처리 중, S702의 처리를 구체적으로 설명하는 플로차트다.FIG. 8 is a flowchart specifically describing a process of S702 among the processes shown in the flowchart of FIG. 7.

도 9는 컴퓨터 장치(201)로 처리되는, 도 3과는 다른, XML 데이터의 기술 예를 도시한 도면이다.FIG. 9 is a diagram showing an example of description of XML data, different from FIG. 3, processed by the computer device 201.

도 10은 컴퓨터 장치(201)가 표시부(105)에 표시를 행할 때의 처리를 설명하 는 플로차트다.FIG. 10 is a flowchart for describing processing when the computer device 201 performs display on the display unit 105.

도 11은 복수의 카메라로부터 수신한 XML 데이터를 컴퓨터 장치(201)의 표시부(105)에 표시한 상태를 예시하는 도면이다.11 is a diagram illustrating a state in which XML data received from a plurality of cameras is displayed on the display unit 105 of the computer device 201.

도 12는 컴퓨터 장치(201)가 표시부(105)에 표시를 행할 때의 처리를 나타낸 플로차트다.12 is a flowchart showing processing when the computer device 201 performs display on the display unit 105.

도 13은 도 12의 플로차트에 따라 처리를 행했을 경우의, 컴퓨터 장치(201)의 표시부(105)의 표시를 예시하는 도면이다.FIG. 13 is a diagram illustrating display of the display unit 105 of the computer device 201 when the processing is performed in accordance with the flowchart of FIG. 12.

도 14는 컴퓨터 장치(201)가 표시부(105)에 표시를 행할 때의 처리를 설명하는 플로차트다.14 is a flowchart for describing processing when the computer device 201 performs display on the display unit 105.

도 15는 도 14의 플로차트에 따라 처리를 행했을 경우의 표시부(105)에의 표시를 예시하는 도면이다.FIG. 15 is a diagram illustrating display on the display unit 105 when the processing is performed in accordance with the flowchart of FIG. 14.

도 16은 PC 상에서 복수의 웹브라우저를 기동해서 외부장치의 조작 화면을 표시한 예를 나타내는 도면이다.Fig. 16 is a diagram showing an example in which an operation screen of an external device is displayed by starting a plurality of web browsers on a PC.

도 17은 외부장치의 선택 화면을 예시하는 도면이다.17 is a diagram illustrating a selection screen of an external device.

도 18은 컴퓨터 장치(201)의 표시부(105)의 표시의 일례이다.18 is an example of the display of the display portion 105 of the computer device 201.

도 19는 컴퓨터 장치(201)의 처리를 나타낸 플로차트다.19 is a flowchart showing processing of the computer device 201.

Claims (19)

네트워크를 통해서 접속된 복수의 외부장치로부터 구조화 문서 데이터를 수신하고, 상기 구조화 문서 데이터에 포함되는 구성정보에 의거하여 조작 화면을 표시하는 정보처리장치로서,An information processing apparatus for receiving structured document data from a plurality of external devices connected through a network, and displaying an operation screen based on the configuration information included in the structured document data. 상기 복수의 외부장치 각각으로부터 송신되는 상기 복수의 외부장치를 제어하기 위한 조작 지시화면을 나타내는 제1의 구성정보와 상기 복수의 외부장치가 촬상한 이미지를 특정하는 제2의 구성정보를 포함하는 구조화문서 데이터를 수신하는 수신 수단과,A structure including first configuration information indicating an operation instruction screen for controlling the plurality of external devices transmitted from each of the plurality of external devices and second configuration information specifying an image picked up by the plurality of external devices Receiving means for receiving document data, 상기 수신수단에 의해 수신하는 각각의 상기 구조화문서 데이터 중의 구성정보를 해석하고, 각각의 상기 구조화문서 데이터에 공통되는 상기 제1의 구성정보와, 상기 제2의 구성정보를 식별하는 해석 수단과,Analysis means for analyzing configuration information in each of said structured document data received by said receiving means, and identifying said first configuration information and said second configuration information common to each of said structured document data; 상기 제1의 구성정보에 의해 나타나는 상기 복수의 외부장치를 제어하기 위한 조작지시화면을 상기 조작화면의 공통표시영역에 표시하고, 상기 제2의 구성정보로 특정되는 상기 복수의 외부장치가 촬상한 화상을 상기 조작화면의 개별표시영역에 표시하는 수단을 구비한 것을 특징으로 하는 정보 처리 장치.An operation instruction screen for controlling the plurality of external devices indicated by the first configuration information is displayed on a common display area of the operation screen, and the plurality of external devices specified by the second configuration information are picked up. And means for displaying an image in a separate display area of the operation screen. 삭제delete 제 1항에 있어서,The method of claim 1, 상기 복수의 외부장치 중에서 하나의 외부장치를 선택하는 선택 수단을 더 구비하고,And selecting means for selecting one external device among the plurality of external devices, 상기 해석 수단에 의한 해석에 의해, 상기 외부장치에 따라 다른 상기 제1의 구성정보가 특정되는 경우에, 상기 표시 수단은, 상기 선택 수단에 의해 선택된 외부장치의 상기 제 1의 구성정보에 의해 나타나는 조작 지시 화면을, 상기 조작 화면의 공통표시 영역에 표시하는 것을 특징으로 하는 정보처리장치.When the first configuration information different according to the external device is specified by the analysis by the analysis means, the display means is represented by the first configuration information of the external device selected by the selection means. An information processing apparatus characterized by displaying an operation instruction screen on a common display area of the operation screen. 삭제delete 삭제delete 제 1항에 있어서,The method of claim 1, 상기 조작 화면의 상기 조작 지시 화면에 의거하여 입력된 정보를, 복수의 상기 외부장치 중의 적어도 하나에 송신하는 송신 수단을 더 구비한 것을 특징으로 하는 정보처리장치.And transmitting means for transmitting information input based on the operation instruction screen of the operation screen to at least one of the plurality of external devices. 삭제delete 제 1항에 있어서,The method of claim 1, 상기 개별 표시 영역에 표시된 복수의 화상 중에서 어느 하나의 화상을 선택하는 화상 선택수단을 더 구비한 것을 특징으로 하는 정보처리장치.And an image selecting means for selecting any one of a plurality of images displayed in said individual display area. 제 8항에 있어서,The method of claim 8, 상기 송신 수단은, 상기 화상 선택수단에 의해 선택된 화상에 대응하는 외부장치에, 상기 조작 지시화면에 의거하여 입력된 정보를 송신하는 것을 특징으로 하는 정보처리장치.And the transmitting means transmits the information input based on the operation instruction screen to an external device corresponding to the image selected by the image selecting means. 제 1항에 있어서, The method of claim 1, 상기 표시 수단은, 상기 구조화 문서 데이터 각각의 공통되는 제1의 구성 정보의 조작 지시 화면을 상기 조작 화면의 공통 표시 영역에 반복되지 않도록 표시시켜, 상기 구조화문서 데이터 각각의 상기 제 2의 구성 정보에서 특정되는 화상을 상기 조작 화면의 개별 표시 영역에 개별로 표시시키는 것을 특징으로 하는 정보처리장치.The display means displays the operation instruction screen of the common first configuration information of each of the structured document data so as not to be repeated in the common display area of the operation screen, so that the second configuration information of each of the structured document data is displayed. An information processing apparatus characterized by displaying a specified image individually on an individual display area of the operation screen. 제 1항에 있어서, The method of claim 1, 상기 복수의 외부장치 중에서 하나를 선택하는 선택 수단과,Selecting means for selecting one of the plurality of external devices; 상기 선택 수단에 의해 선택된 외부 장치에 대해서, 상기 공통 표시 영역에 표시되어 있는 정보에 대한 유저 지시에 의해 생성된 커맨드를 송신하는 송신 수단을 더 구비한 것을 특징으로 하는 정보처리장치.And transmitting means for transmitting a command generated by the user's instruction to the information displayed in the common display area, to the external device selected by the selecting means. 제 1항에 있어서,The method of claim 1, 상기 제 2의 구성정보에서 특정되는 화상은, 상기 제2의 구성 정보에 기재되어 있는 참조 URL에 의해 특정되는 것을 특징으로 하는 정보처리장치.The image specified in the second configuration information is specified by a reference URL described in the second configuration information. 네트워크를 통해서 접속된 복수의 외부장치로부터 구조화문서 데이터를 수신하고, 상기 구조화문서 데이터에 포함되는 구성정보에 의거하여 조작 화면을 표시하는 정보처리장치의 제어방법으로서,A control method of an information processing apparatus for receiving structured document data from a plurality of external devices connected through a network, and displaying an operation screen based on configuration information included in the structured document data. 상기 복수의 외부장치 각각으로부터 송신되는, 상기 복수의 외부장치를 제어하기 위한 조작 지시 화면을 나타내는 제1의 구성 정보와 상기 복수의 외부장치가 촬상한 화상을 특정하는 제2의 구성 정보를 포함하는 구조화문서 데이터를 수신하는 수신공정과,First configuration information indicating an operation instruction screen for controlling the plurality of external devices and second configuration information for specifying images picked up by the plurality of external devices, transmitted from each of the plurality of external devices. A receiving process for receiving the structured document data; 상기 수신공정에 의해 수신하는 각각의 상기 구조화문서 데이터 중의 구성정보를 해석하고, 각각의 상기 구조화문서 데이터에 공통되는 상기 제 1의 구성 정보와, 상기 제2의 구성 정보를 식별하는 해석공정과, An analysis step of analyzing configuration information in each of the structured document data received by the receiving step, identifying the first configuration information and the second configuration information common to each of the structured document data; 상기 제1의 구성 정보에 의해 나타나는 상기 복수의 외부장치를 제어하기 위한 조작 지시 화면을 상기 조작 화면의 공통 표시 영역에 표시하고, 상기 제2의 구성정보에서 특정되는 상기 복수의 외부장치가 촬상한 화상을 상기 조작 화면의 개별 표시 영역에 표시하는 표시공정을 구비하는 것을 특징으로 하는 정보처리장치의 제어방법.An operation instruction screen for controlling the plurality of external devices indicated by the first configuration information is displayed on a common display area of the operation screen, and the plurality of external devices specified by the second configuration information are picked up. And a display step of displaying an image on an individual display area of the operation screen. 컴퓨터를 청구항 1에 기재된 수단으로서 기능시키는 컴퓨터 프로그램을 기억한 컴퓨터 판독가능한 기억매체.A computer-readable storage medium storing a computer program for causing a computer to function as the means of claim 1. 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020080090956A 2007-09-19 2008-09-17 Information processing apparatus, control method of information processing apparatus and storage medium KR100966783B1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JPJP-P-2007-00242907 2007-09-19
JP2007242907 2007-09-19
JPJP-P-2008-00217325 2008-08-26
JP2008217325A JP5075061B2 (en) 2007-09-19 2008-08-26 Information processing apparatus, information processing apparatus control method, computer program, and storage medium

Publications (2)

Publication Number Publication Date
KR20090030224A KR20090030224A (en) 2009-03-24
KR100966783B1 true KR100966783B1 (en) 2010-06-29

Family

ID=40494581

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080090956A KR100966783B1 (en) 2007-09-19 2008-09-17 Information processing apparatus, control method of information processing apparatus and storage medium

Country Status (4)

Country Link
JP (1) JP5075061B2 (en)
KR (1) KR100966783B1 (en)
CN (1) CN101394547B (en)
RU (1) RU2402080C2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5912452B2 (en) * 2011-11-25 2016-04-27 学校法人千葉工業大学 Remote control system for unmanned vehicle
JP5982417B2 (en) * 2014-03-07 2016-08-31 ソフトバンク株式会社 Display control apparatus and program
CN110851015A (en) * 2019-10-31 2020-02-28 上海点技电子科技有限公司 Network driving display device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002158995A (en) 2000-11-20 2002-05-31 Yokogawa Electric Corp Monitor system
JP2005072879A (en) 2003-08-22 2005-03-17 Nec Commun Syst Ltd Remote image monitoring system
JP2005129999A (en) 2003-10-21 2005-05-19 Yokogawa Electric Corp Monitoring system
JP2006115435A (en) * 2004-10-12 2006-04-27 Neo Planning:Kk Remote monitoring system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63259721A (en) * 1987-04-17 1988-10-26 Nec Corp Terminal equipment for controlling computer
JPH11317990A (en) * 1997-10-03 1999-11-16 Toshiba Corp Controller
CN1354417A (en) * 2000-11-16 2002-06-19 开碁数位科技股份有限公司 Computer system capable of displaying several viewing window pictures and its display method
CN1747548A (en) * 2004-09-10 2006-03-15 西安美太信息有限公司 Long-range monitoring method based on camera device
US8872879B2 (en) * 2006-01-26 2014-10-28 Polycom, Inc. System and method for controlling videoconference with touch screen interface

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002158995A (en) 2000-11-20 2002-05-31 Yokogawa Electric Corp Monitor system
JP2005072879A (en) 2003-08-22 2005-03-17 Nec Commun Syst Ltd Remote image monitoring system
JP2005129999A (en) 2003-10-21 2005-05-19 Yokogawa Electric Corp Monitoring system
JP2006115435A (en) * 2004-10-12 2006-04-27 Neo Planning:Kk Remote monitoring system

Also Published As

Publication number Publication date
JP2009093629A (en) 2009-04-30
CN101394547A (en) 2009-03-25
RU2402080C2 (en) 2010-10-20
JP5075061B2 (en) 2012-11-14
CN101394547B (en) 2011-07-20
KR20090030224A (en) 2009-03-24
RU2008137426A (en) 2010-03-27

Similar Documents

Publication Publication Date Title
US8022992B2 (en) Data processing system, data processing device, image display device, and recording medium that records processing program thereof
US20060200737A1 (en) Image display device, image display system, and a program for executing an image displaying method by a computer
JP4821529B2 (en) Image display apparatus and program
US20070279437A1 (en) Method and apparatus for displaying document image, and information processing device
US10691385B2 (en) Image processing apparatus, image processing method, and storage medium in which a text element and an image element are arranged based on layouts in a webpage
CN101598916B (en) Display apparatus, and display control method
JP2000115476A (en) System and method for operating area of scanned image
JP2005228243A (en) Information processor and control method therefor and program
JP7434001B2 (en) Information processing device, program, information processing method
KR20140027525A (en) Image processing apparatus, image processing method, and storage medium
US20080229212A1 (en) Screen data generating apparatus, image processor, screen data generating method, and computer program product
US9203990B2 (en) Priority ordered user interface screens for controlling a device
JP2018073125A (en) Server device, client device, information processing method, and program
KR100966783B1 (en) Information processing apparatus, control method of information processing apparatus and storage medium
JP2017134486A (en) Information processing device, data processing method of information processing device, and program
KR101376905B1 (en) Image processing apparatus, image processing method and storage medium
EP2040233A2 (en) Information processing apparatus, control method of information processing apparatus, computer program and storage medium
JP4766135B2 (en) Information providing apparatus, information providing method, and information providing program
JP2009271779A (en) Image processing apparatus, image processing method, program of the same, and storage medium
US10425549B2 (en) Information processing apparatus, method of controlling information processing apparatus, and program
JP2007148482A (en) Image forming apparatus
JP7154982B2 (en) Information processing device, control method, and program
JP3897772B2 (en) File name creation device and file name creation program
JP5298484B2 (en) Document processing device
JP2019020954A (en) Information processing device, control method for information processing device, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130528

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140527

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150527

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160525

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170526

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180525

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20190618

Year of fee payment: 10