KR102449306B1 - 페어링 표시 장치, 페어링 표시 시스템 및 페어링 표시 방법 - Google Patents

페어링 표시 장치, 페어링 표시 시스템 및 페어링 표시 방법 Download PDF

Info

Publication number
KR102449306B1
KR102449306B1 KR1020217040054A KR20217040054A KR102449306B1 KR 102449306 B1 KR102449306 B1 KR 102449306B1 KR 1020217040054 A KR1020217040054 A KR 1020217040054A KR 20217040054 A KR20217040054 A KR 20217040054A KR 102449306 B1 KR102449306 B1 KR 102449306B1
Authority
KR
South Korea
Prior art keywords
user
processing unit
unit
moving object
image
Prior art date
Application number
KR1020217040054A
Other languages
English (en)
Other versions
KR20220002663A (ko
Inventor
미키 아라이
게이 가스가
다카야스 하시모토
티바우드 겐틸
Original Assignee
미쓰비시덴키 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 미쓰비시덴키 가부시키가이샤 filed Critical 미쓰비시덴키 가부시키가이샤
Publication of KR20220002663A publication Critical patent/KR20220002663A/ko
Application granted granted Critical
Publication of KR102449306B1 publication Critical patent/KR102449306B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Selective Calling Equipment (AREA)
  • Telephone Function (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Traffic Control Systems (AREA)
  • Manipulator (AREA)

Abstract

페어링 표시 장치(10)는, 표시부(2) 및 검출부(3)를 가진 이동체(1)와 페어링된 이용자(A)를, 검출부(3)를 이용하여 검출하는 검출 처리부(10b)와, 검출 처리부(10b)에 의해 이용자(A)가 검출된 경우, 이용자(A)가 이동체(1)와 페어링되어 있는 것을 나타내는 정보를, 표시부(2)를 이용하여 이동체(1) 주위의 바닥면(B)에 표시하는 출력 처리부(10a)를 구비한다.

Description

페어링 표시 장치, 페어링 표시 시스템 및 페어링 표시 방법
본 발명은, 이동체와 이용자의 페어링에 관한 표시를 행하는 페어링 표시 장치, 페어링 표시 시스템 및 페어링 표시 방법에 관한 것이다.
최근, 이동체를 이용한 시설 내 유도 시스템이 주목받고 있다. 시설로서, 예를 들면, 병원, 공항 또는 상업 시설을 들 수 있다. 이동체는, 시설 내에서 이용자를 실어 이동하거나, 또는, 이용자에게 추종하여 이동한다. 이동체로서는, 예를 들면, 전동 휠체어, 전동 카트 또는 이동 로봇을 들 수 있다. 이용자는, 이동체에 시설 내의 목적 장소를 전함으로써, 이동체에 의해 목적 장소까지 이동할 수 있다.
시설에 준비된 이동체를 이용할 때에, 이용자는, 이용하고 싶은 이동체와 페어링을 행할 필요가 있다. 페어링이란, 시스템에 등록된 이용자인지 여부를 개인 인증하고, 시스템에 등록된 이용자라고 인증된 경우에, 이동체를, 당해 이용자로부터의 지시로 동작 가능하게 대응시키는 처리이다.
예를 들면, 특허문헌 1에 기재되어 있는 시스템에서는, 서버가, 로봇의 현재의 이용 예약 상황에 관한 예약 상황 데이터를 이용자 단말에 송신하고, 이용자 단말이, 예약 상황 데이터를 고려하여 이용자에 의해 입력된 로봇의 이용을 예약하기 위한 예약 데이터를 서버에 송신한다. 서버는, 예약 데이터에 근거하여 이용자를 인증하는 것에 의해 로봇의 이용 예약을 결정한다.
[특허문헌 1] 일본 특허공개 제2005-64837호 공보
특허문헌 1에 기재된 종래의 기술에서는, 이용자 단말을 이용하여, 로봇의 이용 예약, 즉, 페어링을 행할 수 있다. 그러나, 로봇과 접촉(컨택트)하지 않고 페어링을 행한 이용자는, 로봇이 배치되어 있는 시설에 있어서, 실제로 로봇과 페어링되어 있는지 여부를 알기 어렵다고 하는 과제가 있었다.
또, 시설에 간 이용자를 로봇이 인증하여 페어링을 행하는 것도 생각할 수 있다. 그러나, 이용자는, 일반적으로, 시설에 배치되어 있는 로봇 중, 어느 로봇이 이미 페어링되어 있는지를 알 수 없고, 어느 로봇과 페어링에 관한 컨택트를 취해야할 것인지 알 수 없다. 이 때문에, 이용자는, 이용 가능한 로봇을 스스로 찾거나, 이용 가능한 로봇을 시설의 관리자에게 물을 필요가 있어, 편리성이 좋지 않았다.
본 발명은 상기 과제를 해결하는 것이며, 이동체와 이용자가 페어링되어 있는 것을 전하는 표시를 행할 수 있는 페어링 표시 장치, 페어링 표시 시스템 및 페어링 표시 방법을 얻는 것을 목적으로 한다.
본 발명에 따른 페어링 표시 장치는, 표시부 및 검출부를 가진 이동체와 페어링된 이용자를, 검출부를 이용하여 검출하는 검출 처리부와, 검출 처리부에 의해 이용자가 검출된 경우, 이용자가 이동체와 페어링되어 있는 것을 나타내는 정보를, 표시부를 이용하여 이동체의 주위의 바닥면에 표시하는 출력 처리부를 구비하고, 출력 처리부는, 이동체와 이용자가 페어링된 상태인 것을 나타내는 화상을 당해 이동체 주위의 바닥면에 표시한다.
본 발명에 의하면, 이동체와 페어링된 이용자를, 검출부를 이용하여 검출하고, 이용자가 검출된 경우, 이용자가 이동체와 페어링되어 있는 것을 나타내는 정보를, 표시부를 이용하여 이동체의 주위의 바닥면에 표시한다. 이용자는, 바닥면에 표시된 정보를 시인하는 것에 의해, 이 정보를 표시한 이동체와 페어링되어 있는 것을 인식할 수 있다.
도 1은 실시의 형태 1에 따른 페어링 표시 장치의 구성을 나타내는 블럭도이다.
도 2는 실시의 형태 1에 따른 페어링 표시 방법을 나타내는 흐름도이다.
도 3은 실시의 형태 1에 따른 페어링 표시 시스템의 구성을 나타내는 블럭도이다.
도 4(a)는, 실시의 형태 1에 따른 페어링 표시 장치의 기능을 실현하는 하드웨어 구성을 나타내는 블럭도이다. 도 4(b)는, 실시의 형태 1에 따른 페어링 표시 장치의 기능을 실현하는 소프트웨어를 실행하는 하드웨어 구성을 나타내는 블럭도이다.
도 5는 이동체와 이용자의 페어링 상태의 표시예를 나타내는 도면이다.
도 6은 실시의 형태 2에 따른 페어링 표시 장치의 구성을 나타내는 블럭도이다.
도 7은 실시의 형태 2에 따른 페어링 표시 방법을 나타내는 흐름도이다.
도 8(a)는, 실시의 형태 2에 있어서의 조작 화상의 예를 나타내는 도면이다. 도 8(b)는, 도 8(a)의 조작 화상에 대한 조작의 진행 상황을 나타내는 도면이다. 도 8(c)는, 도 8(a)의 조작 화상에 대한 조작의 완료를 나타내는 도면이다.
도 9(a)는, 시중자(시중(수발)을 드는 사람; companion)가 있는 이용자에 의한 조작 화상의 조작을 나타내는 도면이다. 도 9(b)는, 시중자를 확인하는 표시의 예를 나타내는 도면이다. 도 9(c)는, 이동체와 이용자 및 시중자와의 페어링 상태의 표시예를 나타내는 도면이다.
도 10은 실시의 형태 3에 따른 페어링 표시 장치의 구성을 나타내는 블럭도이다.
(실시의 형태 1)
도 1은, 실시의 형태 1에 따른 페어링 표시 장치(10)의 구성을 나타내는 블럭도이다. 이동체(1)는, 자율적인 이동이 가능하고, 예를 들면, 전동 휠체어, 전동 카트 또는 이동 로봇을 들 수 있다. 도 1에 나타내는 이동체(1)는, 표시부(2), 검출부(3), 소리 출력부(4), 및 페어링 표시 장치(10)를 구비한다.
표시부(2)는, 이동체(1) 주위의 바닥면 B에 정보를 표시하는 표시부이며, 예를 들면, 바닥면 B에 정보를 투영하는 프로젝터(투영부)이다. 또, 표시부(2)는, 이동체(1) 주위의 바닥면 B에 정보를, 3차원으로 표시하는 것이 가능하다. 예를 들면, 표시부(2)가 프로젝터인 경우, 당해 프로젝터는, 이동체(1) 주위의 바닥면 B에 정보를 3차원으로 투영한다. 여기서, 「3차원으로 표시한다」 또는 「3차원으로 투영한다」란, 정보를, 인간의 시각에 있어 입체적으로 보이는 것과 같은 표현으로 표시 또는 투영하는 것을 나타낸다. 다만, 표시부(2)는 반드시 정보를 3차원적으로 표시하지 않아도 되고, 2차원적인 표시를 행해도 상관없다.
검출부(3)는, 이동체(1)의 주위의 이용자 A를 검출하는 검출부이며, 예를 들면, 이동체(1)의 주위를 촬영 가능한 카메라 장치이다. 이용자 A는, 이동체(1)와 페어링된 인물이며, 페어링 표시 장치(10)에는, 이용자 A의 외관 정보가 등록되어 있다. 검출부(3)인 카메라 장치는 이용자 A를 촬영하고, 그 영상 정보를 페어링 표시 장치(10)에 출력한다. 또, 검출부(3)는, 적외선, 광 및 음파의 어느 것과 카메라 장치를 조합한 센서여도 좋다.
소리 출력부(4)는, 이동체(1)의 주위에 음성을 출력하는 음성 출력부이며, 예를 들면, 스피커이다. 예를 들면, 소리 출력부(4)는, 페어링 표시 장치(10)로부터 지시받은 효과음 정보, 음성 안내 및 경보를 출력한다. 효과음 정보는, 표시부(2)에 의해 이동체(1) 주위의 바닥면 B에 표시된 정보에 따른 소리 정보이다.
페어링 표시 장치(10)는, 이동체(1)와 이용자 A의 페어링에 관한 표시를 행한다. 도 1에 나타내는 페어링 표시 장치(10)는, 출력 처리부(10a) 및 검출 처리부(10b)를 구비하고 있다. 출력 처리부(10a)는, 검출 처리부(10b)에 의해 이용자 A가 검출된 경우에, 이용자 A가 이동체(1)와 페어링되어 있는 것을 나타내는 정보를, 표시부(2)를 이용하여 이동체(1) 주위의 바닥면 B에 표시한다. 이용자 A가 이동체(1)와 페어링되어 있는 것을 나타내는 정보는, 예를 들면, 이용자 A의 이름, 얼굴 화상 또는 특정 마크 중 적어도 어느 하나의 화상(20)이다. 예를 들면, 출력 처리부(10a)는, 검출부(3)의 검출 범위 내에 이용자 A가 진입한 타이밍에, 화상(20)을 이동체(1) 주위의 바닥면 B에 표시한다.
또, 출력 처리부(10a)는, 이동체(1) 주위의 바닥면 B에 있어서의 검출부(3)의 유효 검출 범위로 되는 영역에 화상(20)을 표시할 수 있다. 유효 검출 범위는, 검출부(3)에 의해 안정된 대상물의 검출이 가능한 범위이며, 예를 들면, 검출부(3)가 카메라 장치인 경우, 카메라 장치의 시야 각도 등으로부터 규정된다. 안정 검출 범위라고도 불린다. 검출부(3)의 유효 검출 범위로 되는 영역에 화상(20)이 표시되므로, 검출부(3)에 의해 안정적으로 검출되는 영역으로 이용자 A를 안내할 수 있다.
화상(20)은, 이용자 A가 이동체(1)와 페어링되어 있는 것을 나타내기 위한 표시 정보이며, 도형 또는 문자 혹은 이러한 조합으로 구성된다. 화상(20)은, 표시 모양이 경시적으로 변화하는 애니메이션 화상이어도 좋다. 출력 처리부(10a)는, 표시부(2)가 프로젝터인 경우, 당해 프로젝터를 이용하여, 화상(20)을, 이동체(1) 주위의 바닥면 B에 3차원으로 투영한다.
출력 처리부(10a)는, 소리 출력부(4)를 이용하여, 이동체(1) 주위의 바닥면 B에 표시한 정보에 따른 소리를 출력시켜도 좋다. 효과음의 출력 양태는, 효과음의 주파수, 리듬 및 템포에 의해 규정되므로, 출력 처리부(10a)는, 이것들을 변화시켜도 좋다.
검출 처리부(10b)는, 검출부(3)를 이용하여, 화상(20)을 조작하고 있는 이용자 A를 검출한다. 예를 들면, 검출 처리부(10b)는, 검출부(3)인 카메라 장치에 의해 촬영된 이동체(1)의 주변의 영상을 화상 해석하고, 이용자 A의 외관 정보와 화상 해석 결과에 근거하여 영상으로부터 이용자 A를 검출할 수 있다. 화상 해석에는, 예를 들면, 패턴 매칭이라고 하는 화상 해석 방법이 이용된다.
다음에, 실시의 형태 1에 따른 페어링 표시 방법에 대해 상세하게 설명한다.
도 2는, 실시의 형태 1에 따른 페어링 표시 방법을 나타내는 흐름도이다.
검출 처리부(10b)는, 이동체(1)와 페어링되어 있는 이용자 A를 검출한다(단계 ST1). 예를 들면, 검출 처리부(10b)는, 카메라 장치에 의해 촬영된 이동체(1)의 주변의 영상을 화상 해석하고, 화상 해석 결과에 근거하여 이용자 A를 검출한다. 이용자 A가 검출되지 않으면(단계 ST1;아니오), 검출 처리부(10b)는, 이용자 A가 검출될 때까지, 단계 ST1의 검출 처리를 반복한다.
출력 처리부(10a)는, 검출 처리부(10b)에 의해 이용자 A가 검출된 경우(단계 ST1;예), 표시부(2)를 이용하여, 화상(20)을 이동체(1) 주위의 바닥면 B에 표시한다(단계 ST2). 예를 들면, 도 1에 나타내는 바와 같이, 화상(20)으로서 이용자 A의 얼굴 화상이 바닥면 B에 표시된다. 이용자 A는, 화상(20)을 시인하는 것에 의해, 화상(20)을 바닥면 B에 표시하고 있는 이동체(1)와 페어링되어 있는 것을 인식할 수 있다.
다음에, 실시의 형태 1에 따른 페어링 표시 시스템에 대해 설명한다.
도 3은, 실시의 형태 1에 따른 페어링 표시 시스템의 구성을 나타내는 블럭도이다. 도 3에 있어서, 도 1과 동일한 구성 요소에는, 동일한 부호를 붙여 설명을 생략한다. 도 3에 나타내는 페어링 표시 시스템은, 이동체(1)와 이용자 A가 페어링되어 있는 것을 표시하는 시스템이며, 이동체(1) 및 서버(30)를 구비한다.
이동체(1)는 자율적인 이동이 가능하고, 예를 들면, 전동 휠체어, 전동 카트 또는 이동 로봇을 들 수 있다. 도 3에 나타내는 이동체(1)는, 표시부(2), 검출부(3), 소리 출력부(4) 및 통신부(5)를 구비한다. 통신부(5)는, 서버(30)와 통신을 행한다. 표시부(2), 검출부(3) 및 소리 출력부(4)는, 각각 통신부(5)를 통해서 서버(30)로부터 수신된 제어 신호에 근거하여 동작한다.
표시부(2)는, 통신부(5)를 통해서 서버(30)로부터 수신된 제어 정보에 근거하여, 이동체(1) 주위의 바닥면 B에 정보를 표시하는 표시부이다. 이동체(1)는, 예를 들면, 바닥면 B에 정보를 투영하는 프로젝터이다. 검출부(3)는, 이동체(1)의 주위의 이용자 A를 검출하고, 통신부(5)를 통해서 서버(30)에 송신한다. 소리 출력부(4)는, 통신부(5)를 통해서 서버(30)로부터 수신된 제어 정보에 근거하여, 이동체(1)의 주위에 음성을 출력한다.
서버(30)는, 이동체(1)로부터 수신한 정보에 근거하여, 표시부(2)를 이용하여, 이동체(1)와 이용자 A의 페어링에 관한 표시를 행하는 장치이다. 도 3에 나타내는 바와 같이, 서버(30)는, 출력 처리부(10a), 검출 처리부(10b) 및 통신부(10c)를 구비한다. 통신부(10c)는, 이동체(1)가 구비하는 통신부(5)와 통신을 행한다.
출력 처리부(10a)는, 통신부(10c)를 통해서 이동체(1)에 제어 신호를 송신하여 표시부(2)를 제어하는 것에 의해, 화상(20)을 이동체(1) 주위의 바닥면 B에 표시한다. 검출 처리부(10b)는, 통신부(10c)를 통해서 이동체(1)에 제어 신호를 송신하여 검출부(3)를 제어하는 것에 의해 이용자 A를 검출한다.
다음에, 페어링 표시 장치(10)의 기능을 실현하는 하드웨어 구성에 대해 설명한다.
페어링 표시 장치(10)에 있어서의 출력 처리부(10a) 및 검출 처리부(10b)의 기능은, 처리 회로에 의해 실현된다. 즉, 페어링 표시 장치(10)는, 도 2의 단계 ST1부터 단계 ST2까지의 처리를 실행하기 위한 처리 회로를 구비한다. 처리 회로는, 전용의 하드웨어여도 좋지만, 메모리에 기억된 프로그램을 실행하는 CPU(Central Processing Unit)여도 좋다.
도 4(a)는, 페어링 표시 장치(10)의 기능을 실현하는 하드웨어 구성을 나타내는 블럭도이다. 도 4(b)는, 페어링 표시 장치(10)의 기능을 실현하는 소프트웨어를 실행하는 하드웨어 구성을 나타내는 블럭도이다. 도 4(a) 및 도 4(b)에 있어서, 입력 인터페이스(100)는, 검출부(3)로부터 페어링 표시 장치(10)가 구비하는 검출 처리부(10b)에 출력되는 정보를 중계하는 인터페이스이다. 출력 인터페이스(101)는, 출력 처리부(10a)로부터, 표시부(2) 또는 소리 출력부(4) 혹은 이들 양쪽에 출력되는 정보를 중계하는 인터페이스이다.
처리 회로가 도 4(a)에 나타내는 전용 하드웨어인 처리 회로(102)인 경우, 처리 회로(102)는, 예를 들면, 단일 회로, 복합 회로, 프로그램화한 프로세서, 병렬 프로그램화한 프로세서, ASIC(Application Specific Integrated Circuit), FPGA(Field-Programmable Gate Array), 또는 이들을 조합한 것이 해당한다. 페어링 표시 장치(10)에 있어서의 출력 처리부(10a) 및 검출 처리부(10b)의 기능을, 다른 처리 회로로 실현해도 좋고, 이들 기능을 정리해 1개의 처리 회로로 실현해도 좋다.
처리 회로가 도 4(b)에 나타내는 프로세서(103)인 경우, 페어링 표시 장치(10)에 있어서의 출력 처리부(10a) 및 검출 처리부(10b)의 기능은, 소프트웨어, 펌웨어 또는 소프트웨어와 펌웨어의 조합에 의해 실현된다. 또, 소프트웨어 또는 펌웨어는, 프로그램으로서 기술되어 메모리(104)에 기억된다.
프로세서(103)는, 메모리(104)에 기억된 프로그램을 판독하여 실행함으로써, 페어링 표시 장치(10)에 있어서의 출력 처리부(10a) 및 검출 처리부(10b)의 기능을 실현한다. 예를 들면, 페어링 표시 장치(10)는, 프로세서(103)에 의해 실행될 때, 도 2에 나타낸 흐름도에 있어서의 단계 ST1로부터 단계 ST2의 처리가 결과적으로 실행되는 프로그램을 기억하기 위한 메모리(104)를 구비한다. 이러한 프로그램은, 출력 처리부(10a) 및 검출 처리부(10b)의 순서 또는 방법을, 컴퓨터에 실행하게 한다. 메모리(104)는, 컴퓨터를, 출력 처리부(10a) 및 검출 처리부(10b)로서 기능시키기 위한 프로그램이 기억된 컴퓨터 판독 가능 기억 매체여도 좋다.
메모리(104)는, 예를 들면, RAM(Random Access Memory), ROM(Read Only Memory), 플래시 메모리, EPROM(Erasable Programmable Read Only Memory), EEPROM(Electrically-EPROM) 등의 비휘발성 또는 휘발성의 반도체 메모리, 자기 디스크, 플렉서블 디스크, 광디스크, 콤팩트 디스크, 미니 디스크, DVD 등이 해당한다.
페어링 표시 장치(10)에 있어서의, 출력 처리부(10a) 및 검출 처리부(10b)의 기능에 대해, 일부를 전용의 하드웨어로 실현하고, 일부를 소프트웨어 또는 펌웨어로 실현해도 좋다. 예를 들면, 출력 처리부(10a)는 전용의 하드웨어인 처리 회로(102)에 의해 기능을 실현하고, 검출 처리부(10b)는, 프로세서(103)가 메모리(104)에 기억된 프로그램을 판독하여 실행하는 것으로써 기능을 실현한다. 이와 같이 처리 회로는, 하드웨어, 소프트웨어, 펌웨어 또는 이들 조합에 의해 상기 기능을 실현할 수 있다.
다음에, 페어링 표시 장치(10)에 의한 표시의 변형에 대해 설명한다.
도 5는, 이동체(1A)와 이용자 A1의 페어링 상태 및 이동체(1B)와 이용자 A2의 페어링 상태의 표시예를 나타내는 도면이다. 도 5에 있어서, 이용자 A1은, 이동체(1A)와 페어링되고, 이용자 A2는, 이동체(1B)와 페어링되어 있다. 이동체(1A) 및 이동체(1B)에는, 페어링 표시 장치(10)가 각각 탑재되어 있다.
이동체(1A)에 탑재된 페어링 표시 장치(10)에 있어서, 출력 처리부(10a)는, 표시부(2)를 이용하여, 이동체(1A)와 이용자 A1이 페어링된 상태인 것을, 이동체(1A)의 주위의 바닥면 B에 표시한다. 마찬가지로 이동체(1B)에 탑재된 페어링 표시 장치(10)에 있어서, 출력 처리부(10a)는, 표시부(2)를 이용하여, 이동체(1B)와 이용자 A2가 페어링된 상태인 것을, 이동체(1B) 주위의 바닥면 B에 표시한다.
예를 들면, 이동체(1A)와 이용자 A1이 페어링된 후, 검출 처리부(10b)는, 검출부(3)를 이용하여, 이용자 A1의 움직임을 검출한다. 출력 처리부(10a)는, 표시부(2)를 제어함으로써, 이용자 A1의 아래쪽의 화상(20a)과, 이동체(1A)의 표시부(2)로부터 화상(20a)에 연장된 점선 형상의 화상(20b)을, 검출 처리부(10b)에 의해 검출된 이용자 A1의 움직임에 맞추어 바닥면 B에 표시한다. 마찬가지로 출력 처리부(10a)는, 이용자 A2의 아래쪽의 화상(20a)과, 이동체(1B)의 표시부(2)로부터 화상(20a)에 연장된 점선 형상의 화상(20b)을, 검출 처리부(10b)에 의해 검출된 이용자 A2의 움직임에 맞추어 바닥면 B에 표시한다.
이용자 A1은, 이용자 A2의 아래쪽의 화상(20a)과 점선 형상의 화상(20b)을 시인하는 것에 의해, 이용자 A2와 이동체(1B)가 페어링되어 있는 것을 파악할 수 있다. 한편, 이용자 A2는, 이용자 A1의 아래쪽의 화상(20a)과 점선 형상의 화상(20b)을 시인하는 것에 의해, 이용자 A1과 이동체(1A)가 페어링되어 있는 것을 파악할 수 있다. 또, 이용자 A1 및 이용자 A2 이외의 이용자는, 화상(20a) 및 화상(20b)을 시인하는 것에 의해, 이동체(1A) 및 이동체(1B)가, 당해 이용자에 대한 페어링 대상 외인 것을 파악할 수 있다.
또, 이동체(1A)가 이용자 A1에 추종하여 이동하는 이동체인 경우, 이용자 A1 이외의 이용자는, 이동체(1A)와 이용자 A1이 페어링되어 있는 것을 나타내는 화상(20a) 및 화상(20b)을 시인하는 것에 의해, 이용자 A1과 이동체(1A) 사이를 차단하면, 이동체(1A)에 충돌될 가능성이 있다고 하는 주의가 환기된다. 이것에 의해, 이용자 A1 이외의 이용자는, 이용자 A1과 이동체(1A) 사이를 차단하지 않게 이동하므로, 이동체(1A)의 이용의 안전성이 향상한다. 이것은, 이용자 A1을 포함하는 이용자 A2 이외의 이용자에 있어서도 마찬가지이다.
이상과 같이, 실시의 형태 1에 따른 페어링 표시 장치(10)는, 이동체(1)와 페어링된 이용자 A를, 검출부(3)를 이용하여 검출하고, 이용자 A가 검출된 경우, 이용자 A가 이동체(1)와 페어링되어 있는 것을 나타내는 화상(20)을, 표시부(2)를 이용하여 이동체(1) 주위의 바닥면 B에 표시한다. 이용자 A는, 바닥면 B에 표시된 화상(20)을 시인하는 것에 의해, 화상(20)을 표시한 이동체(1)와 페어링되어 있는 것을 인식할 수 있다.
또, 실시의 형태 1에 따른 페어링 표시 장치(10)에 있어서, 출력 처리부(10a)는, 이동체(1A)와 이용자 A1이 페어링된 상태인 것을 나타내는 화상(20a, 20b)을, 이동체(1A)의 주위의 바닥면 B에 표시한다. 이용자 A1 이외의 사람이, 이용자 A1의 아래쪽의 화상(20a)과 점선 형상의 화상(20b)을 시인하는 것에 의해, 이용자 A1과 이동체(1A)가 페어링되어 있는 것을 파악할 수 있다.
(실시의 형태 2)
실시의 형태 2에 따른 페어링 표시 장치는, 실시의 형태 1과 마찬가지로, 이동체와 이용자가 페어링되어 있는 것을 나타내는 화상을 바닥면에 표시한 후에, 이용자가 조작 가능한 화상을 바닥면에 표시한다. 실시의 형태 1에 있어서의 화상의 표시로 이동체와 페어링되어 있는 것을 실감한 이용자는, 실시의 형태 2에 있어서의 화상에 대한 자신의 조작에 의해 이동체와의 페어링을 성립시켰다고 인식할 수 있으므로(이 조작 전에 페어링 자체는 성립하고 있으므로, 유사적인 조작), 이동체(1)를 안심하고 이용할 수 있다.
도 6은, 실시의 형태 2에 따른 페어링 표시 장치(10)의 구성을 나타내는 블럭도이다. 이동체(1)는, 실시의 형태 1과 마찬가지로, 자율적인 이동이 가능하고, 예를 들면, 전동 휠체어, 전동 카트 또는 이동 로봇을 들 수 있다. 도 6에 나타내는 이동체(1)는, 표시부(2), 검출부(3), 소리 출력부(4) 및 페어링 표시 장치(10)를 구비한다. 또, 이용자 A는, 이동체(1)와 페어링되어 있는 인물이며, 페어링 표시 장치(10)에는, 이용자 A의 식별 정보가 등록되어 있다.
실시의 형태 2에 따른 페어링 표시 장치(10)는, 이동체(1)와 이용자 A의 페어링에 관한 표시를 행하는 장치이며, 출력 처리부(10a), 검출 처리부(10b) 및 확인부(10d)를 구비한다. 출력 처리부(10a)는, 표시부(2)를 이용하여, 화상(20)과, 이 화상(20)에 대한 조작의 진행 상황을, 이동체(1) 주위의 바닥면 B에 표시한다.
실시의 형태 2에 있어서의 화상(20)은, 이용자 A에 페어링에 관한 조작을 행하게 하기 위한 조작 화상이며, 도형 또는 문자 혹은 이들 조합으로 구성된다. 화상(20)은, 표시 모양이 경시적으로 변화하는 애니메이션 화상이어도 좋다. 출력 처리부(10a)는, 표시부(2)가 프로젝터인 경우, 당해 프로젝터를 이용하여, 화상(20) 및 조작의 진행 상황을 나타내는 표시 정보를, 이동체(1) 주위의 바닥면 B에 3차원으로 투영한다. 실시의 형태 1에서 나타낸 바와 같이, 「3차원으로 표시한다」 또는 「3차원으로 투영한다」란, 정보를, 인간의 시각에 있어 입체적으로 보이는 것과 같은 표현으로 표시 또는 투영하는 것을 나타낸다. 다만, 표시부(2)는 반드시 정보를 3차원적으로 표시하지 않아도 되고, 2차원적인 표시를 행해도 상관없다.
출력 처리부(10a)는, 이동체(1) 주위의 바닥면 B에 있어서의 검출부(3)의 유효 검출 범위로 되는 영역에 화상(20)을 표시할 수 있다. 유효 검출 범위는, 검출부(3)에 의해 안정된 대상물의 검출이 가능한 범위이며, 예를 들면, 검출부(3)가 카메라 장치인 경우, 카메라 장치의 시야 각도 등으로부터 규정된다. 안정 검출 범위라고도 불린다. 검출부(3)의 유효 검출 범위로 되는 영역에 화상(20)이 표시되므로, 검출부(3)에 의해 안정적으로 검출되는 영역에 이용자 A를 안내할 수 있다.
출력 처리부(10a)는, 화상(20)을 이용한 조작의 진행 상황에 따라 화상(20)의 표시 모양을 변화시켜도 좋다. 예를 들면, 바닥면 B에 표시된 화상(20)을 이용자 A가 다리를 사용하여 조작하는 경우, 출력 처리부(10a)는, 검출 처리부(10b)에 의해 검출된 이용자 A의 다리로 조작된 화상(20)의 표시 모양을 변화시킨다. 이용자 A는, 조작의 진행 상황에 따라 변화하는 화상(20)의 표시 모양을 시인하는 것에 의해, 이용자 A 자신이 능동적으로 이동체(1)와의 페어링을 성립시켰다고 인식할 수 있다. 또, 이용자 A가 이동체(1)에 직접 접촉하거나 근접하거나 할 필요가 없기 때문에, 부주의로 이동체(1)의 본체에 부딪칠 우려가 감소하고, 안전성이 높아진다고 하는 효과가 있다.
출력 처리부(10a)는, 화상(20)에 대한 조작의 완료를, 이동체(1) 주위의 바닥면 B에 표시한다. 예를 들면, 출력 처리부(10a)는, 확인부(10d)에 의해, 화상(20)을 조작하는 인물이 이용자 A인 것이 확인된 타이밍에서, 화상(20)의 표시 모양을 변화시킨다. 이용자 A는, 화상(20)의 표시 모양의 변화를 시인하는 것에 의해, 화상(20)에 대한 조작의 완료를 용이하게 파악할 수 있다.
출력 처리부(10a)는, 소리 출력부(4)를 이용하여, 이동체(1) 주위의 바닥면 B에 표시한 정보에 따른 소리를 출력시켜도 좋다. 효과음의 출력 양태는, 효과음의 주파수, 리듬 및 템포에 의해 규정되므로, 출력 처리부(10a)는, 이들을 변화시켜도 좋다. 예를 들면, 출력 처리부(10a)는, 화상(20)의 조작이 개시된 타이밍에서, 소리 출력부(4)에 효과음을 출력시키고, 이 효과음의 출력 양태를, 조작의 진행 상황에 맞추어 변화시킨다. 화상(20)의 조작을 하고 있는 인물이 이용자 A라고 확인된 경우, 출력 처리부(10a)는, 이용자 A가 확인될 때까지의 효과음의 출력 양태와는 다른 모양으로 변화시킨다. 이것에 의해, 이용자 A는, 화상(20)의 조작을, 시각적 및 청각적으로 실감할 수 있다.
검출 처리부(10b)는, 검출부(3)를 이용하여 화상(20)을 조작하고 있는 이용자 A를 검출한다. 검출 처리부(10b)에는, 이용자 A의 식별 정보가 설정되어 있다. 식별 정보에는, 이용자 A를 식별하기 위한 성별, 연령 및 얼굴 정보와 같은 개인 정보가 포함되어 있고, 이용자 A의 외관 정보가 포함되어도 좋다. 이용자 A의 외관 정보는, 화상(20)을 조작할 때의, 이용자 A의 복장, 머리 모양 또는 지팡이 등의 소지의 유무 또는 이러한 조합을 나타내는 정보여도 좋다. 예를 들면, 검출 처리부(10b)는, 검출부(3)인 카메라 장치에 의해 촬영된 이동체(1)의 주변의 영상을 화상 해석하고, 이용자 A의 외관 정보와 화상 해석 결과에 근거하여, 영상으로부터 이용자 A를 검출한다. 또, 화상 해석에는, 패턴 매칭 등의 화상 해석 방법을 이용할 수 있다.
확인부(10d)는, 화상(20)에 대한 조작의 진행 상황을 확인한다. 예를 들면, 확인부(10d)는, 검출 처리부(10b)에 의해 검출된 이용자 A의 다리의 영상의 화상 해석 결과에 근거하여 화상(20)에 대한 조작의 진행 상황을 판정한다. 확인부(10d)에 의해 확인된 화상(20)에 대한 조작의 진행 상황은, 출력 처리부(10a)에 순차 출력된다.
다음에, 실시의 형태 2에 따른 페어링 표시 방법에 대해 상세하게 설명한다.
도 7은, 실시의 형태 2에 따른 페어링 표시 방법을 나타내는 흐름도이다. 또, 도 7에 나타내는 처리가 실행되기 전에, 실시의 형태 1에 있어서의 화상(20)(이동체(1)와 이용자 A가 페어링되어 있는 것을 나타내는 화상)이 바닥면 B에 표시되고, 이용자 A는, 이동체(1)와 페어링되어 있는 것을 인식하고 있다. 또, 도 8(a)는, 이용자 A에 조작시키는 화상(20)의 예를 나타내는 도면이며, 바닥면 B 상에 3차원으로 표시된 누름 버튼 형상의 화상(20)을 나타내고 있다. 도 8(a)에 나타내는 화상(20)은, 표시부(2)에 의해 바닥면 B에 3차원으로 투영된 영상이다. 도 8(b)는, 도 8(a)의 화상(20)에 대한 조작의 진행 상황을 나타내는 도면이다. 도 8(c)는, 도 8(a)의 화상(20)에 대한 조작의 완료를 나타내는 도면이다.
출력 처리부(10a)는, 표시부(2)를 이용하여, 조작용의 화상(20)을 이동체(1) 주위의 바닥면 B에 표시한다(단계 ST1a). 예를 들면, 도 8(a)에 나타내는 바와 같이, 조작용의 화상(20)으로서, 페어링에 관한 조작을 행하기 위한 화상인 것을 나타내는 「페어」라고 하는 문자가 기재된 누름 버튼이 바닥면 B에 표시된다. 누름 버튼이 바닥면 B에 표시되어 있으므로, 이용자 A는, 양손을 조작에 사용할 수 없는 상태여도, 다리를 사용하여 누름 버튼을 누를 수 있다.
검출 처리부(10b)는, 조작용 화상(20)을 조작하고 있는 이용자 A를 검출한다(단계 ST2a). 예를 들면, 검출 처리부(10b)는, 누름 버튼을 조작(누름)하고 있는 이용자 A의 다리를 검출하고, 이 검출 정보를 확인부(10d)에 출력한다. 확인부(10d)는, 화상(20)에 대한 조작의 진행 상황을 확인하고, 출력 처리부(10a)에 출력한다. 출력 처리부(10a)는, 화상(20)에 대한 조작의 진행 상황에 따라, 단계 ST1a에 나타낸 화상(20)의 표시 모양을 변화시킨다. 예를 들면, 도 8(b)에 나타내는 바와 같이, 출력 처리부(10a)는, 표시부(2)를 이용하여 누름 버튼이 서서히 눌리는 화상으로 변화시킨다. 이 때, 출력 처리부(10a)는, 소리 출력부(4)를 이용하여, 누름 버튼을 누르는 것에 맞추어 효과음의 출력 양태를 변화시켜도 좋다.
확인부(10d)는, 화상(20)에 대한 조작이 완료됐는지 여부를 확인한다(단계 ST3a). 예를 들면, 확인부(10d)는, 검출 처리부(10b)에 의해 검출된 이용자 A의 다리의 위치가 바닥면 B에 접했는지 여부에 근거하여 조작의 완료를 판단한다. 화상(20)에 대한 조작이 완료되어 있지 않는 경우(단계 ST3a;아니오), 단계 ST3a의 처리를 반복한다.
한편, 화상(20)에 대한 조작이 완료된 경우(단계 ST3a;예), 출력 처리부(10a)는, 이용자 A의 조작이 완료된 것을 표시한다(단계 ST4a). 예를 들면, 도 8(c)에 나타내는 바와 같이, 누름 버튼의 화상을, 완전하게 눌린 상태의 화상으로 변화시킨다. 또한, 누름 버튼에 기재되어 있던 「페어」라고 하는 문자를, 이용자 A와 이동체(1)의 페어링에 성공한 것을 나타내는 「성공」이라고 하는 문자로 변경해도 좋다. 이 때, 출력 처리부(10a)는, 소리 출력부(4)로부터 출력되고 있던 효과음의 출력 양태를, 조작이 완료할 때까지와는 다른 모양으로 변화시켜도 좋다. 이용자 A는, 바닥면 B에 표시된 화상(20)의 표시 모양 및 소리 출력부(4)로부터 출력된 효과음에 의해, 자신의 조작으로 이동체(1)와의 페어링이 성립했다고 인식할 수 있다.
또, 검출 처리부(10b)에 의해 검출된 인물이 이용자 A 이외의 제삼자라고 판정된 경우, 출력 처리부(10a)는, 화상(20)인 누름 버튼에 기재된 문자를, 「당신은, 이 이동체의 이용자가 아닙니다」 등, 그 인물이 페어링해야 할 이용자가 아닌 취지의 표시로 일시적으로 변경해도 좋다. 또, 출력 처리부(10a)에 의해 표시되는 문자 및 문장은, 표시 장치가 사용되는 지역에 있어서 통상 사용되는 언어로 표시해도 좋고, 그 이외의 다른 언어에 의해 표시해도 좋다. 또, 검출 처리부(10b)에 의한 이용자의 확인 상황에 따라 언어를 바꾸어 표시해도 좋다.
또, 이동체와 페어링되는 대상자는, 이용자 뿐만 아니라, 당해 이용자의 시중자(companion)가 포함되어도 좋다. 검출 처리부(10b)는, 도 9(a)에 나타내는 바와 같이, 검출부(3)를 이용하여, 화상(20)을 조작하고 있는 이용자 A1의 주위에 존재하는 인물을 검출한다. 이용자 A1에 의한 조작이 완료하면, 출력 처리부(10a)는, 검출 처리부(10b)에 의해 검출된 인물이 이용자 A1의 시중자 A3인지 여부를 확인하는 조작을 행하기 위한 확인 화상을 표시한다. 예를 들면, 출력 처리부(10a)에 의해, 도 9(b)에 나타내는 것과 같은 누름 버튼(20c)이 바닥면 B에 표시된다. 누름 버튼(20c)에는, 시중자인지 여부를 확인하는 조작을 행하기 위한 화상인 것을 나타내는 「시중자?」라는 문자가 기재되어 있다. 시중자 A3은, 다리를 사용하여 누름 버튼(20c)을 누른다.
검출 처리부(10b)는, 누름 버튼(20c)을 조작하는 시중자 A3을 검출하고, 그 검출 정보를 확인부(10d)에 출력한다. 확인부(10d)는, 검출 처리부(10b)에 의해 검출된 시중자 A3의 다리의 영상을 화상 해석한 결과에 근거하여, 누름 버튼(20c)의 화상에 대한 시중자 A3의 조작의 진행 상황을 확인한다. 출력 처리부(10a)는, 확인부(10d)에 의해 확인된 조작의 진행 상황에 맞추어, 화상(20)을, 누름 버튼이 서서히 눌리는 화상으로 변화시킨다. 또, 출력 처리부(10a)는, 소리 출력부(4)를 이용하여, 누름 버튼(20c)의 눌림에 맞추어 효과음의 출력 양태를 변화시켜도 좋다.
출력 처리부(10a)는, 확인부(10d)에 의해 시중자 A3에 의한 누름 버튼(20c)의 조작이 완료됐다고 확인되면, 이동체(1)와 이용자 A1 및 시중자 A3이 페어링되어 있는 것을 나타내는 화상을, 바닥면 B에 표시한다. 이용자 A1 및 시중자 A3이 이동체(1)와 페어링되어 있는 경우, 이용자 A1 뿐만이 아니라, 시중자 A3의 행동이 이동체(1)의 움직임에 반영된다. 예를 들면, 이동체(1)가 이용자 A1을 실어 이동하는 이동체이며, 시중자 A3이, 이 이동체(1)의 뒤를 추종하여 이동하는 경우에, 시중자 A3이 이용자 A1과는 다른 행동을 해도, 이동체(1)는, 시중자 A3에 맞춘 행동을 취한다. 예를 들면, 이동체(1)의 이동 중에 시중자 A3이 갑자기 멈춰 섰을 경우, 이동체(1)는, 시중자 A3의 멈춤에 따라 정지한다. 이것에 의해, 이용자 A1과 시중자 A3이 놓치지 않고, 서로 행동을 같이 할 수 있다.
또, 이동체(1)와 이용자 A1 및 시중자 A3이 페어링된 후에, 출력 처리부(10a)는, 이동체(1)와 이용자 A1 및 시중자 A3이 페어링된 상태인 것을 나타내는 화상을 이동체(1) 주위의 바닥면 B에 표시해도 좋다. 예를 들면, 도 9(c)에 나타내는 바와 같이, 출력 처리부(10a)는, 이용자 A1 및 시중자 A3의 아래쪽의 화상(20a)과, 표시부(2)로부터 화상(20a)에 연장된 점선 형상의 화상(20b)을, 이용자 A1과 시중자 A3의 움직임에 맞추어 바닥면 B에 표시한다. 이용자 A1 및 시중자 A3 이외의 이용자는, 화상(20a) 및 화상(20b)을 시인하는 것에 의해, 이용자 A1 및 시중자 A3이 이동체(1)와 페어링되어 있고, 이동체(1)가 자신과의 페어링 대상 외인 것을 파악할 수 있다.
또, 페어링 표시 장치(10)에 있어서의 출력 처리부(10a), 검출 처리부(10b) 및 확인부(10d)의 기능은, 처리 회로에 의해 실현된다. 즉, 페어링 표시 장치(10)는, 도 7에 나타낸 단계 ST1a부터 단계 ST4a까지를 실행하기 위한 처리 회로를 구비한다. 처리 회로는, 전용의 하드웨어여도 좋지만, 메모리에 기억된 프로그램을 실행하는 CPU여도 좋다.
이상과 같이, 실시의 형태 2에 따른 페어링 표시 장치(10)는, 이용자 A가 페어링에 관한 조작을 행하기 위한 화상(20)을 이동체(1) 주위의 바닥면 B에 표시하고, 화상(20)을 조작하고 있는 이용자 A를 검출한다. 이용자 A는, 자신의 조작에 의해 이동체(1)와의 페어링을 성립시켰다고 인식할 수 있으므로, 이동체(1)를 안심하고 이용할 수 있다.
(실시의 형태 3)
도 10은, 실시의 형태 3에 따른 페어링 표시 장치(10A)의 구성을 나타내는 블럭도이다. 이동체(1)는 자율적인 이동이 가능하고, 예를 들면, 전동 휠체어, 전동 카트 또는 이동 로봇을 들 수 있다. 도 10에 나타내는 이동체(1)는, 표시부(2), 검출부(3), 소리 출력부(4) 및 페어링 표시 장치(10A)를 구비하고 있다. 이용자 A는, 이동체(1)를 이용 가능한 서비스에 등록하고 있는 이용자이며, 이용자 A의 식별 정보가 페어링 표시 장치(10A)에 설정되어 있다. 이용자 A는, 이용자 단말(40)을 휴대하고 있다. 이용자 단말(40)은, 페어링 표시 장치(10A)와 통신을 행하는 단말 장치이며, 예를 들면, 스마트폰, 휴대전화 단말 또는 태블릿 정보 단말이다.
이용자 A는, 이용자 단말(40)을 이용하여, 자신의 외관 정보를 페어링 표시 장치(10A)에 송신할 수 있다. 이용자 A의 외관 정보는, 이동체(1)가 존재하는 현장에서의 이용자 A의 복장, 머리 모양 또는 지팡이 등의 소지의 유무 또는 이들 조합을 나타내는 정보이다.
페어링 표시 장치(10A)는, 이동체(1)와 이용자 A의 페어링에 관한 표시를 행하는 장치이며, 예를 들면, 이동체(1)에 탑재되어 있다. 도 10에 나타내는 바와 같이, 페어링 표시 장치(10A)는, 출력 처리부(10a), 검출 처리부(10b) 및 통신부(10e)를 구비한다. 또, 도 3에 나타낸 바와 같이, 이들 구성 요소는 서버(30)가 구비해도 좋다.
이용자 A는, 이동체(1)가 존재하는 현장에 가기 전에, 이용자 단말(40)을 이용하여, 이용 예약 데이터를, 이동체(1)에 탑재된 페어링 표시 장치(10A)에 송신하고 있다. 페어링 표시 장치(10A)가 구비하는 통신부(10e)는, 이용자 단말(40)과 통신하여 이용 예약 데이터를 수신하고, 수신된 이용 예약 데이터를 검출 처리부(10b)에 출력한다. 검출 처리부(10b)는, 이용 예약 데이터를 받으면, 이용자 A와 이동체(1)의 페어링이 성립했다고 인식한다.
검출 처리부(10b)는, 통신부(10e)를 통해서, 이용자 A에 의한 이동체(1)의 페어링이 성립한 것을, 이용자 단말(40)에 송신한다. 이용자 A는, 이동체(1)의 페어링이 성립한 경우, 이용자 단말(40)을 이용하여, 이용자 A의 외관 정보를 페어링 표시 장치(10A)에 송신한다. 통신부(10e)는, 이용자 단말(40)로부터 수신한 이용자 A의 외관 정보를, 검출 처리부(10b)에 출력한다.
검출 처리부(10b)는, 이동체(1)의 주변에 존재하는 인물을 검출하고, 검출한 인물의 외관이 이용자 A의 외관 정보와 합치하는지 여부를 판정한다. 이동체(1)의 주변에 존재하는 인물이 이용자 A의 외관 정보와 일치하는 경우, 검출 처리부(10b)는, 이 인물이 이용자 A라고 판정한다. 출력 처리부(10a)는, 검출 처리부(10b)에 의해 이용자 A가 검출되면, 표시부(2)를 이용하여, 이동체(1) 주위의 바닥면 B에 화상(20)을 표시한다.
또, 페어링 표시 장치(10A)에 있어서의 출력 처리부(10a), 검출 처리부(10b) 및 통신부(10e)의 기능은, 처리 회로에 의해 실현된다. 즉, 페어링 표시 장치(10A)는, 상술한 처리를 실행하기 위한 처리 회로를 구비한다. 처리 회로는, 전용의 하드웨어여도 좋지만, 메모리에 기억된 프로그램을 실행하는 CPU여도 좋다.
이상과 같이, 실시의 형태 3에 따른 페어링 표시 장치(10A)에 있어서, 통신부(10e)가, 이용자 단말(40)을 이용하여 송신된 이용자 A의 외관 정보를 수신한다. 검출 처리부(10b)는, 통신부(10e)에 의해 수신된 외관 정보를 이용하여 이용자 A를 검출한다. 출력 처리부(10a)는, 검출 처리부(10b)에 의해 이용자 A가 검출되면, 이용자 A가 이동체(1)와 페어링되어 있는 것을 나타내는 화상(20)을, 이동체(1) 주위의 바닥면 B에 표시한다. 이용자 A는, 바닥면 B에 표시된 화상(20)을 시인하는 것에 의해, 바닥면 B에 화상(20)을 표시한 이동체(1)와 페어링되어 있는 것을 인식할 수 있다.
또, 본 발명은 상기 실시의 형태로 한정되는 것은 아니고, 본 발명의 범위 내에 있어서, 실시의 형태의 각각의 자유로운 조합 또는 실시의 형태의 각각의 임의의 구성 요소의 변형 또는 실시의 형태의 각각에 있어서 임의의 구성 요소의 생략이 가능하다.
(산업상의 이용 가능성)
본 발명에 따른 페어링 표시 장치는, 예를 들면, 전동 휠체어, 전동 카트 또는 이동 로봇이라는 이동체와 이용자의 페어링에 이용 가능하다.
1, 1A, 1B : 이동체 2 : 표시부
3 : 검출부 4 : 소리 출력부
5 : 통신부 10, 10A : 페어링 표시 장치
10a : 출력 처리부 10b : 검출 처리부
10c, 10e : 통신부 10d : 확인부
20, 20a, 20b : 화상 20c : 누름 버튼
30 : 서버 40 : 이용자 단말
100 : 입력 인터페이스 101 : 출력 인터페이스
102 : 처리 회로 103 : 프로세서
104 : 메모리

Claims (11)

  1. 표시부 및 검출부를 가진 이동체와 페어링된 이용자를, 상기 검출부를 이용하여 검출하는 검출 처리부와,
    상기 검출 처리부에 의해 상기 이용자가 검출된 경우, 상기 이용자가 상기 이동체와 페어링되어 있는 것을 나타내는 정보를, 상기 표시부를 이용하여 상기 이동체의 주위의 바닥면에 표시하는 출력 처리부
    를 구비하고,
    상기 출력 처리부는, 상기 이동체와 상기 이용자가 페어링된 상태인 것을 나타내는 화상을 당해 이동체 주위의 바닥면에 표시하고,
    상기 출력 처리부는, 상기 표시부를 이용하여, 상기 이동체와 상기 이용자와의 페어링에 관한 조작을 행하기 위한 조작 화상을 상기 이동체의 주위의 바닥면에 표시하고,
    상기 검출 처리부는, 상기 검출부를 이용하여, 상기 조작 화상을 조작하는 상기 이용자를 검출하는 것
    을 특징으로 하는 페어링 표시 장치.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 출력 처리부는, 상기 이동체의 주위의 바닥면에 있어서의 상기 검출부의 유효 검출 범위로 되는 영역에 상기 조작 화상을 표시하는 것
    을 특징으로 하는 페어링 표시 장치.
  4. 제 1 항에 있어서,
    상기 표시부는, 상기 이동체의 주위의 바닥면에 화상을 투영하는 투영부이며,
    상기 출력 처리부는, 상기 투영부를 이용하여, 상기 이동체와 상기 이용자가 페어링된 상태인 것을 나타내는 화상으로서, 선, 도형 또는 문자 혹은 이들 조합으로 구성된 화상을 표시하는 것
    을 특징으로 하는 페어링 표시 장치.
  5. 제 1 항에 있어서,
    상기 조작 화상에 대한 조작의 진행 상황을 확인하는 확인부를 구비한 것
    을 특징으로 하는 페어링 표시 장치.
  6. 제 1 항에 있어서,
    상기 검출 처리부는, 상기 검출부를 이용하여 상기 이용자의 시중자(companion)를 검출하고,
    상기 출력 처리부는, 상기 검출 처리부에 의해 상기 시중자가 검출된 경우, 상기 이용자 및 상기 시중자와 상기 이동체가 페어링되어 있는 것을 나타내는 정보를, 상기 이동체의 주위의 바닥면에 표시하는 것
    을 특징으로 하는 페어링 표시 장치.
  7. 제 1 항에 있어서,
    이용자 단말과 통신을 행하는 통신부를 구비하고,
    상기 통신부는, 상기 이용자에 의해 상기 이용자 단말을 이용하여 송신된 이용 예약 데이터를 수신하고,
    상기 출력 처리부는, 상기 이용자 단말을 이용하여 상기 이용 예약 데이터를 송신한 상기 이용자가, 상기 검출 처리부에 의해 검출되면, 상기 이용자가 상기 이동체와 페어링되어 있는 것을 나타내는 정보를, 상기 표시부를 이용하여 상기 이동체 주위의 바닥면에 표시하는 것
    을 특징으로 하는 페어링 표시 장치.
  8. 제 1 항에 있어서,
    상기 이동체는, 소리 출력부를 갖고,
    상기 출력 처리부는, 상기 소리 출력부를 이용하여, 상기 이동체의 주위의 바닥면에 표시한 정보에 따른 소리를 출력하는 것
    을 특징으로 하는 페어링 표시 장치.
  9. 표시부 및 검출부를 가진 이동체와,
    상기 이동체와 페어링된 이용자를, 상기 검출부를 이용하여 검출하는 검출 처리부와,
    상기 검출 처리부에 의해 상기 이용자가 검출된 경우, 상기 이용자가 상기 이동체와 페어링되어 있는 것을 나타내는 정보를, 상기 표시부를 이용하여 상기 이동체의 주위의 바닥면에 표시하는 출력 처리부
    를 구비하고,
    상기 출력 처리부는, 상기 이동체와 상기 이용자가 페어링된 상태인 것을 나타내는 화상을 당해 이동체 주위의 바닥면에 표시하고,
    상기 출력 처리부는, 상기 표시부를 이용하여, 상기 이동체와 상기 이용자와의 페어링에 관한 조작을 행하기 위한 조작 화상을 상기 이동체의 주위의 바닥면에 표시하고,
    상기 검출 처리부는, 상기 검출부를 이용하여, 상기 조작 화상을 조작하는 상기 이용자를 검출하는 것
    을 특징으로 하는 페어링 표시 시스템.
  10. 검출 처리부가, 표시부 및 검출부를 가진 이동체와 페어링된 이용자를, 상기 검출부를 이용하여 검출하는 단계와,
    출력 처리부가, 상기 검출 처리부에 의해 상기 이용자가 검출된 경우, 상기 이용자가 상기 이동체와 페어링되어 있는 것을 나타내는 정보를, 상기 표시부를 이용하여 상기 이동체 주위의 바닥면에 표시하는 단계
    를 구비하고,
    상기 출력 처리부는, 상기 이동체와 상기 이용자가 페어링된 상태인 것을 나타내는 화상을 당해 이동체 주위의 바닥면에 표시하고,
    상기 출력 처리부는, 상기 표시부를 이용하여, 상기 이동체와 상기 이용자와의 페어링에 관한 조작을 행하기 위한 조작 화상을 상기 이동체의 주위의 바닥면에 표시하고,
    상기 검출 처리부는, 상기 검출부를 이용하여, 상기 조작 화상을 조작하는 상기 이용자를 검출하는 것
    것을 특징으로 하는 페어링 표시 방법.
  11. 삭제
KR1020217040054A 2019-06-19 2019-06-19 페어링 표시 장치, 페어링 표시 시스템 및 페어링 표시 방법 KR102449306B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/024248 WO2020255286A1 (ja) 2019-06-19 2019-06-19 ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法

Publications (2)

Publication Number Publication Date
KR20220002663A KR20220002663A (ko) 2022-01-06
KR102449306B1 true KR102449306B1 (ko) 2022-09-29

Family

ID=72146122

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217040054A KR102449306B1 (ko) 2019-06-19 2019-06-19 페어링 표시 장치, 페어링 표시 시스템 및 페어링 표시 방법

Country Status (6)

Country Link
US (1) US20220076598A1 (ko)
JP (1) JP6746013B1 (ko)
KR (1) KR102449306B1 (ko)
CN (1) CN113950711B (ko)
DE (1) DE112019007321B4 (ko)
WO (1) WO2020255286A1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007149053A (ja) * 2005-10-24 2007-06-14 Shimizu Corp 道案内システムおよび道案内方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4214860B2 (ja) 2003-08-12 2009-01-28 沖電気工業株式会社 ロボットによる中継システム、ロボットによる中継プログラム及びその方法
DE102007033391A1 (de) * 2007-07-18 2009-01-22 Robert Bosch Gmbh Informationsvorrichtung, Verfahren zur Information und/oder Navigation von einer Person sowie Computerprogramm
WO2010019802A1 (en) * 2008-08-15 2010-02-18 Gesturetek, Inc. Enhanced multi-touch detection
US9586135B1 (en) * 2008-11-12 2017-03-07 David G. Capper Video motion capture for wireless gaming
US20130285919A1 (en) * 2012-04-25 2013-10-31 Sony Computer Entertainment Inc. Interactive video system
JP5942840B2 (ja) * 2012-12-21 2016-06-29 ソニー株式会社 表示制御システム及び記録媒体
JP6111706B2 (ja) * 2013-02-01 2017-04-12 セイコーエプソン株式会社 位置検出装置、調整方法、および調整プログラム
KR101917700B1 (ko) * 2013-12-23 2018-11-13 엘지전자 주식회사 이동 단말기 및 그 제어 방법
JP6296447B2 (ja) * 2014-03-19 2018-03-20 株式会社日本総合研究所 自動運転交通システムを利用した撮影情報共有システム、撮影情報管理装置及び撮影情報共有方法
JP6598255B2 (ja) * 2014-03-31 2019-10-30 エイディシーテクノロジー株式会社 運転支援装置、及び運転支援システム
WO2016002527A1 (ja) * 2014-06-30 2016-01-07 みこらった株式会社 移動体呼び寄せシステム、呼び寄せ装置及び無線通信装置
US9682477B2 (en) * 2015-03-24 2017-06-20 Toyota Jidosha Kabushiki Kaisha Robot communication of intent and functioning
CN106470236B (zh) * 2015-08-20 2019-05-10 腾讯科技(深圳)有限公司 基于移动终端的打车方法、装置和系统
JP6707654B2 (ja) * 2016-09-30 2020-06-10 アジア航測株式会社 移動体情報提供システム及び移動体情報提供プログラム
KR102003940B1 (ko) * 2016-11-11 2019-10-01 엘지전자 주식회사 자율 주행 차량 및 그 제어방법
CN110785795A (zh) * 2017-06-16 2020-02-11 本田技研工业株式会社 配车服务提供装置、配车服务提供方法及程序
JPWO2018230679A1 (ja) * 2017-06-16 2020-05-21 本田技研工業株式会社 送迎管理装置、送迎管理方法、およびプログラム
WO2018230698A1 (ja) * 2017-06-16 2018-12-20 本田技研工業株式会社 イベント配車装置、イベント配車方法、プログラム、および管理システム
WO2019079790A1 (en) * 2017-10-21 2019-04-25 Eyecam, Inc ADAPTIVE GRAPHIC USER INTERFACE SYSTEM
EP3613638A1 (en) * 2018-08-10 2020-02-26 Lg Electronics Inc. Vehicle display system for vehicle
JPWO2020031740A1 (ja) * 2018-08-10 2021-09-09 ソニーグループ株式会社 制御装置および制御方法、並びにプログラム
KR102619558B1 (ko) * 2018-11-16 2024-01-02 현대모비스 주식회사 자율주행차의 제어시스템 및 그 제어방법
DE102019206644B3 (de) 2019-05-08 2020-08-06 Audi Ag Verfahren zum Betrieb einer Umgebungsbeleuchtungseinrichtung eines Kraftfahrzeugs und Kraftfahrzeug
US11072277B2 (en) * 2019-09-20 2021-07-27 Adway International Inc. Method and apparatus to dynamically identify a vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007149053A (ja) * 2005-10-24 2007-06-14 Shimizu Corp 道案内システムおよび道案内方法

Also Published As

Publication number Publication date
CN113950711B (zh) 2023-11-21
DE112019007321T5 (de) 2022-07-07
JP6746013B1 (ja) 2020-08-26
CN113950711A (zh) 2022-01-18
KR20220002663A (ko) 2022-01-06
DE112019007321B4 (de) 2024-05-29
US20220076598A1 (en) 2022-03-10
WO2020255286A1 (ja) 2020-12-24
JPWO2020255286A1 (ja) 2021-09-13

Similar Documents

Publication Publication Date Title
US10205883B2 (en) Display control method, terminal device, and storage medium
JP5779641B2 (ja) 情報処理装置、方法およびプログラム
US10996474B2 (en) Virtual reality system and information processing system
US20180104816A1 (en) Robot device and non-transitory computer readable medium
KR101954989B1 (ko) 시각 장애인을 위한 정보 제공 장치
JP6439806B2 (ja) ロボット装置及びプログラム
EP3731118A1 (en) Electronic device and method for performing biometric authentication function and intelligent agent function using user input in electronic device
WO2015194017A1 (ja) ウェアラブル装置および認証方法
US20210129344A1 (en) Moving robot and control method therefor
US10929517B2 (en) Touch response method and device
KR20160017593A (ko) 글라스형 웨어러블 디바이스를 이용한 탈출경로 제공방법 및 프로그램
CN113035196A (zh) 用于自助一体机的无接触操控方法和装置
KR20180057839A (ko) 사람 인식이 가능한 지능형 로봇 및 그 동작방법
KR102449306B1 (ko) 페어링 표시 장치, 페어링 표시 시스템 및 페어링 표시 방법
KR101657377B1 (ko) 휴대용 단말기, 휴대용 단말기 케이스 및 그를 이용한 홍채 인식 방법
CN108279778A (zh) 用户交互方法、装置以及系统
CN110544335B (zh) 目标识别系统及方法、电子设备和存储介质
KR101629758B1 (ko) 글라스형 웨어러블 디바이스의 잠금해제 방법 및 프로그램
US11195525B2 (en) Operation terminal, voice inputting method, and computer-readable recording medium
WO2018056169A1 (ja) 対話装置、処理方法、プログラム
JP7371395B2 (ja) 情報コード読取装置
JP2023032869A (ja) 迷子保護システム
WO2018061871A1 (ja) 端末装置、情報処理システム、処理方法、プログラム
CN115179303A (zh) 机器人、沟通系统、沟通方法以及计算机可读介质
WO2018047932A1 (ja) 対話装置、ロボット、処理方法、プログラム

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant