WO2022009826A1 - ディスプレイ装置 - Google Patents

ディスプレイ装置 Download PDF

Info

Publication number
WO2022009826A1
WO2022009826A1 PCT/JP2021/025274 JP2021025274W WO2022009826A1 WO 2022009826 A1 WO2022009826 A1 WO 2022009826A1 JP 2021025274 W JP2021025274 W JP 2021025274W WO 2022009826 A1 WO2022009826 A1 WO 2022009826A1
Authority
WO
WIPO (PCT)
Prior art keywords
display device
user
voice
display
image data
Prior art date
Application number
PCT/JP2021/025274
Other languages
English (en)
French (fr)
Inventor
俊之 喜多
Original Assignee
株式会社喜多俊之デザイン研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社喜多俊之デザイン研究所 filed Critical 株式会社喜多俊之デザイン研究所
Priority to US18/011,904 priority Critical patent/US20230247176A1/en
Priority to CN202180046568.5A priority patent/CN115777124A/zh
Publication of WO2022009826A1 publication Critical patent/WO2022009826A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M11/00Stands or trestles as supports for apparatus or articles placed thereon ; Stands for scientific apparatus such as gravitational force meters
    • F16M11/02Heads
    • F16M11/04Means for attachment of apparatus; Means allowing adjustment of the apparatus relatively to the stand
    • F16M11/043Allowing translations
    • F16M11/046Allowing translations adapted to upward-downward translation movement
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M11/00Stands or trestles as supports for apparatus or articles placed thereon ; Stands for scientific apparatus such as gravitational force meters
    • F16M11/02Heads
    • F16M11/04Means for attachment of apparatus; Means allowing adjustment of the apparatus relatively to the stand
    • F16M11/06Means for attachment of apparatus; Means allowing adjustment of the apparatus relatively to the stand allowing pivoting
    • F16M11/10Means for attachment of apparatus; Means allowing adjustment of the apparatus relatively to the stand allowing pivoting around a horizontal axis
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M11/00Stands or trestles as supports for apparatus or articles placed thereon ; Stands for scientific apparatus such as gravitational force meters
    • F16M11/02Heads
    • F16M11/04Means for attachment of apparatus; Means allowing adjustment of the apparatus relatively to the stand
    • F16M11/06Means for attachment of apparatus; Means allowing adjustment of the apparatus relatively to the stand allowing pivoting
    • F16M11/10Means for attachment of apparatus; Means allowing adjustment of the apparatus relatively to the stand allowing pivoting around a horizontal axis
    • F16M11/105Means for attachment of apparatus; Means allowing adjustment of the apparatus relatively to the stand allowing pivoting around a horizontal axis the horizontal axis being the roll axis, e.g. for creating a landscape-portrait rotation
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M11/00Stands or trestles as supports for apparatus or articles placed thereon ; Stands for scientific apparatus such as gravitational force meters
    • F16M11/20Undercarriages with or without wheels
    • F16M11/2007Undercarriages with or without wheels comprising means allowing pivoting adjustment
    • F16M11/2014Undercarriages with or without wheels comprising means allowing pivoting adjustment around a vertical axis
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M11/00Stands or trestles as supports for apparatus or articles placed thereon ; Stands for scientific apparatus such as gravitational force meters
    • F16M11/20Undercarriages with or without wheels
    • F16M11/22Undercarriages with or without wheels with approximately constant height, e.g. with constant length of column or of legs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1601Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
    • G06F1/1605Multimedia displays, e.g. with integrated or attached speakers, cameras, microphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4782Web browsing, e.g. WebTV
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M11/00Stands or trestles as supports for apparatus or articles placed thereon ; Stands for scientific apparatus such as gravitational force meters
    • F16M11/02Heads
    • F16M11/18Heads with mechanism for moving the apparatus relatively to the stand
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M2200/00Details of stands or supports
    • F16M2200/08Foot or support base
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance

Definitions

  • the present invention relates to a display device that outputs a predetermined image on a front panel.
  • It is configured to display a processing device, a camera connected to the processing device and configured to generate multiple images on the processing device, and a first scene connected to the processing device and output by the processing device. It has a display device connected to the processing device and a memory device configured to store the process of the interactive display and instruct the processing device to execute the process of the interactive display, and is photographed by a camera.
  • a determination means for determining a plurality of gestures corresponding to a plurality of images, an interpretation means for interpreting a predetermined combination of gestures among the plurality of gestures as a first command, and a first in response to the first command.
  • An interactive display system including a scene output means for outputting a scene of the above is disclosed (see Patent Document 1).
  • the interactive display system can detect a predetermined combination of gestures performed by the user and instruct the interactive display system to respond to the user without inputting data into the input device. Can interact with the interactive display system.
  • the interactive display system disclosed in Patent Document 1 does not transmit the image data taken by the camera or the sound data collected by the microphone to another server, the image taken by the camera is displayed on the display of the other server. Cannot output (display) to, and the sound collected by the microphone cannot be output from the speaker of another server. Further, since the predetermined image data is not received from the other server, the image received from the other server cannot be output (displayed) on the display, and the predetermined audio data is received from the other server. Because there is no such thing, the sound received from other servers cannot be output (displayed) from the speaker.
  • the interactive display system cannot acquire various image information and audio information from other servers (third parties), and provides various image information and audio information to other servers (third parties). I can't.
  • the display does not rotate clockwise and counterclockwise around its center, the display does not move up and down, and the display is centered on the stanchion in the counterclockwise and right directions of the stanchion. Since it does not rotate in the clockwise direction, the display cannot be automatically moved to the most visible position for the user, and the display cannot be in the most visible position for the user regardless of the user's position. ..
  • An object of the present invention is that image data and audio data can be transmitted and received in both directions, various image information and audio information can be acquired from another server (third party), and another server (first).
  • the purpose is to provide a display device capable of providing various image information and audio information to the three parties).
  • Another object of the present invention is that the front panel can be automatically moved to the position most easily viewed by the user regardless of the position of the user, and the front panel can be made in the most easily viewed state by the user.
  • the purpose is to provide a display device.
  • the premise of the present invention for solving the above problems is that the first and second edge edges extend in one direction in parallel with each other and the first and second sides extend in the crossing direction in parallel with each other and intersect with the one direction.
  • a display device having edges and a front panel and a back area surrounded by their edge edges and their side edges, formed into a rectangle having a predetermined area long in one direction or an intersecting direction, and outputting a predetermined image to the front panel. Is.
  • the features of the present invention in the above premise are a first extension portion having a predetermined area and a second extension portion having a first outer peripheral edge in which the display device draws an arc so as to be radially outwardly convex from the first edge.
  • a second extending portion of a predetermined area having a second outer peripheral edge that draws an arc so as to be radially outwardly convex from the edge, and an arc so as to be radially outwardly convex from the first side edge.
  • a camera that has a section and captures an object facing the front panel is installed in at least one of the first to fourth extension sections, and a display device uses a predetermined network to perform the other.
  • Communication means that can send and receive predetermined data to and from the server, image shooting means that shoots an object using a camera, and image data of an object shot by the shooting means is transmitted to another server using the communication means.
  • an object photographed by a camera is a user of a display device, and an object facing the user via the display device is a third party who interacts with the user via the display device.
  • the shooting means shoots the user using the camera
  • the image data transmitting means transmits the image data of the user shot by the shooting means to another server using the communication means, and receives the image data.
  • the means receives the image data of the third party from another server by using the communication means, and the image data output means outputs the image of the third party received by the image data receiving means to the front panel.
  • a microphone that collects the voice of the user facing the front panel of the display is installed in at least one of the first to fourth extension portions, and a predetermined sound is provided.
  • a speaker for producing a sound is installed in at least one of the first to fourth extension portions, and a display device is used as a voice collecting means for collecting a user's sound by using a microphone.
  • Website referral information receiving means that receives information from other servers using communication means
  • website referral information output means that outputs website referral information received by the website referral information receiving means to the front panel
  • the web It includes a website output means for outputting the specified website to the front panel when a predetermined website is specified from various various websites output by the site introduction information output means.
  • the display device collects the request sounded by the user by the voice sound collecting means
  • various request-related information related to the request is transmitted by the communication means using the request as a keyword. It includes a request-related information receiving means received from another server using the above, and a request-related information output means for outputting the request-related information received by the request-related information receiving means to the front panel.
  • the display device translates the voice pronounced by the user and the voice of a third party received from another server into a predetermined language, and the user translated by the translation means.
  • a translated audio output means that outputs audio and third party audio using a speaker.
  • the predetermined process corresponding to the command is executed by using a communication means. It includes a process execution means for causing an electric device to execute a predetermined process while transmitting to the electric device.
  • a motion sensor that detects a person when a person is positioned in front of the front panel is installed in at least one of the first to fourth extension portions.
  • the first display starting means for activating the display device when the display device detects a person by the motion sensor, and the display device activated when the person is no longer detected after the motion sensor detects the person.
  • the display includes a first stop means for stopping the display.
  • the image data of the photographed person and the image data of the photographed person are stored in advance while photographing the person located in front of the front panel by the photographing means.
  • the image data first comparison means including the image data first comparison means for comparing the image data of the person, the image of the photographed person and the image of the photographed person were stored. If the image is different from the user's image, the display first stop means is implemented.
  • the display device collects the activation message pronounced by the user by the voice collecting means
  • the voice of the user's activation message collected and the voice of the user stored in advance are used.
  • the voice of the activation message and the voice of the memorized user are the same.
  • a light that illuminates the front from the front panel is installed in at least one of the first to fourth extension portions, and is a light detection that detects the light around the display device.
  • the sensor is installed in at least one of the first to fourth extension portions and the display device detects a person by the human sensor, the light detection sensor is in the vicinity of the display device.
  • the first lighting means for activating the lighting and the human sensor do not detect a person, or when the light detection sensor detects the light around the display device, the activated lighting is turned off.
  • the lighting including the first extinguishing means.
  • the image data of the photographed person and the image data of the photographed person are stored in advance while photographing the person located in front of the front panel by the photographing means.
  • the image data second comparison means the image of the photographed person and the image of the photographed person are included. If the stored image of the user is different, the first lighting stop means is implemented.
  • the display device collects the lighting activation message pronounced by the user by the voice collecting means
  • the voice of the user's lighting activation message collected and the voice of the user stored in advance are stored.
  • the voice of the second voice comparison means for comparing with the voice and the voice of the memorized user with the voice of the lighting activation message by the voice second comparison means
  • the voice of the lighting activation message and the voice of the memorized user are obtained. If they are the same, it includes a second lighting means for activating the lighting and a second lighting means for turning off the activated lighting when the lighting stop message sounded by the user is collected by the voice collecting means. ..
  • the display device includes a support column installed in the rear area and extending in the vertical direction, and can move up and down in the vertical direction and downward along the support column, and is centered on the support column.
  • the column can be rotated clockwise and counterclockwise, and can be turned clockwise and counterclockwise around the center of the display device, and the display device visually recognizes the front panel.
  • the front panel is visually recognized by inputting the image data of the user's face taken by the imaging means into the trained learning model in which machine learning is performed to estimate the degree of adaptability to the user's facial posture.
  • the display device is installed so that the adaptability estimation means that acquires the adaptability score indicating the degree of adaptability of the face posture of the user from the learning model and the adaptability score acquired by the adaptability estimation means satisfy the predetermined conditions.
  • the adaptability estimation means that acquires the adaptability score indicating the degree of adaptability of the face posture of the user from the learning model and the adaptability score acquired by the adaptability estimation means satisfy the predetermined conditions.
  • the display device from the first extending portion of a predetermined area having a first outer peripheral edge that draws an arc so as to be radially outwardly convex from the first edge, and from the second edge.
  • a camera that has and shoots an object facing the front panel is installed in at least one of the first to fourth extension sections, and sends and receives predetermined data to and from other servers using a predetermined network.
  • Possible communication means an image photographing means for photographing an object using a camera, an image data transmitting means for transmitting image data of an object photographed by the photographing means to another server using the communication means, and a user.
  • Image data receiving means that receives image data of objects facing each other via a display device from another server using communication means, and image data output that outputs the image of the object received by the image data receiving means to the front panel.
  • the image data of the object taken by the camera is transmitted to another server by using the communication means, and the image data of the object is received from the other server by using the communication means.
  • Image data of objects can be sent and received bidirectionally with other servers, and various image information can be acquired and output (displayed) from other servers (third parties), and other servers (other servers (third parties) can be acquired and output (displayed).
  • Various image information can be provided to a third party).
  • the object photographed by the camera is the user of the display device, the object facing the user via the display device is a third party who interacts with the user via the display device, and the photographing means uses the camera.
  • the user is photographed, the image data of the user photographed by the image data transmitting means is transmitted to another server by using the communication means, and the image data receiving means transmits the image data of a third party to the communication means.
  • the display device that receives from another server using the image data and outputs the image of a third party received by the image data receiving means to the front panel is a communication means for the user's image data taken by the camera.
  • the image data of the user or the third party can be transferred to and from the other server. It can send and receive in both directions, and can acquire and output (display) image information of a third party from another server (third party), and image information of the user to another server (third party). Can be provided.
  • a microphone that collects the user's voice facing the front panel of the display is installed in at least one of the first to fourth extension sections, and a speaker that produces a predetermined sound is installed in the first to fourth extension sections. It is installed in at least one of the extension units and communicates the voice data of the user collected by the voice collection means with the voice collection means that collects the user's voice using a microphone.
  • a voice data transmitting means for transmitting to another server by means, and a voice data receiving means for receiving voice data of a third party who interacts with a user via a display device from another server by using a communication means.
  • the display device including the voice output means for outputting (sounding) the voice of a third party received by the voice data receiving means by using the speaker uses the communication means for the voice data of the user collected by the microphone. And send it to another server, and receive the voice data of the third party from the other server using the communication means, so that the voice data of the user or the third party is bidirectional with the other server. It is possible to send and receive various voice information to other servers (third parties), acquire and output (display) various voice information from other servers (third parties), and provide various voice information to other servers (third parties). Can be done.
  • Website referral information receiving means When the request made by the user is collected by the voice collecting means, the website introduction information of various websites corresponding to the request is received from other servers by using the communication means.
  • Website referral information receiving means website referral information outputting means that outputs website referral information received by the website referral information receiving means to the front panel, and various webs output by the website referral information outputting means.
  • a display device that includes a website output means that outputs a specified website to the front panel when a specified website is specified from the site is a website of various websites that respond to the requests pronounced by the user.
  • the display device including the information receiving means and the request-related information output means for outputting the request-related information received by the request-related information receiving means to the front panel has various requests related to the request pronounced by the user.
  • By outputting (displaying) related information to the front panel it is possible to output (display) various requested related information desired by the user to the front panel only by voice, and the desired requested by voice.
  • the user can obtain various information useful to himself / herself.
  • a translation means that translates the voice pronounced by the user and the voice of a third party received from another server into a predetermined language, and the voice of the user and the voice of the third party translated by the translation means are used.
  • the display device including the translated voice output means for outputting translates the user's voice and the voice of a third party into a predetermined language, and outputs the translated voice of the user and the voice of the third party using a speaker. Therefore, it is possible to communicate with foreigners in different languages through dialogue, convey various useful information to third parties in other countries, and obtain useful various information from third parties in other countries. can.
  • the predetermined process corresponding to the command is transmitted to the electric device by using a communication means, and the predetermined process is executed. Since the display device including the process execution means for causing the electric device to execute the process causes the electric device to execute a predetermined process corresponding to the command by the IOT, various processes desired by the user are executed by the electric device via the IOT. IOT can be used to operate electrical equipment by remote control.
  • a display device including a display first starting means for activating a display device and a display first stopping means for stopping the activated display device when a person is no longer detected after the motion sensor detects a person.
  • the display device can be automatically activated and the motion sensor no longer detects the person.
  • the activated display device can be automatically stopped, and the display device can be automatically started and stopped by using the motion sensor.
  • the image data first comparison is performed by comparing the image data of the photographed person with the image data of the user stored in advance while photographing the person located in front of the front panel by the photographing means.
  • the image data first comparison means including the means, if the image of the photographed person and the image of the memorized user are different, the first stop of the display
  • the display device that implements the means stops the activated display device. Therefore, only a legitimate user can use the display device, and the display device can be used. Unauthorized use can be prevented.
  • the voice first comparison means for comparing the voice of the collected user's activation message with the voice of the user stored in advance, and the activation message
  • the display second activation means for activating the display device and the display second activation means.
  • the display device is activated. Therefore, not only the voice of the user can be used to activate the display device, but also the voice of the activation message can be activated.
  • the display device is not activated, so that only a legitimate user can activate the display device, and unauthorized use of the display device can be prevented.
  • the display device can automatically stop the display device by the stop message pronounced by the user, and can automatically start and stop the display device by the voice of the user.
  • Lighting that illuminates the front from the front panel is installed in at least one of the 1st to 4th extension parts, and a light detection sensor that detects the light around the display device is in the 1st to 4th extension parts.
  • the first lighting means for activating the lighting is installed in at least one of the extension portions.
  • the display device including the first lighting means for turning off the activated lighting when the human sensor does not detect a person or when the light detection sensor detects the light around the display device is a human feeling.
  • the light detection sensor detects the light around the display device, and the light detection sensor does not detect the light.
  • the lighting can be automatically activated, and if a person is not detected by the human sensor, or if the light is detected by the light detection sensor, the activated lighting can be automatically turned off, and the human feeling. Lighting can be started and stopped automatically by using a sensor or a light detection sensor.
  • the image data of the photographed person is compared with the image data of the user stored in advance while photographing the person located in front of the front panel by the photographing means.
  • the image data second comparison means including the two comparison means, if the image of the photographed person and the image of the memorized user are different, the lighting first.
  • the display device that implements the stopping means stops the activated lighting when the user of the display device and the person who took the picture are different, so that only a legitimate user can use the display device including the lighting. , Unauthorized use of display devices including lighting can be prevented.
  • the sound of the user's lighting activation message collected and the voice of the user stored in advance are compared with the second voice comparison means and the lighting.
  • the second voice comparison means As a result of comparing the voice of the activation message and the voice of the memorized user by the second voice comparison means, when the voice of the lighting activation message and the voice of the memorized user are the same, the second lighting activation that activates the lighting.
  • the display device including the means and the second lighting means for turning off the activated lighting when the lighting stop message sounded by the user is collected by the voice collecting means can be used as the sound of the lighting activation message.
  • the lighting is activated, so that not only the lighting can be activated only by the voice of the user, but also the lighting can be activated. If the voice of the lighting activation message and the stored voice of the user are different, the lighting will not be activated, so only a legitimate user can use the display device including the lighting, and the display device including the lighting can be used. Unauthorized use can be prevented.
  • the display device can automatically stop the lighting by the lighting stop message pronounced by the user, and can automatically start and stop the lighting by the voice of the user.
  • stanchions that are installed in the rear area and extend vertically, can move up and down vertically and downward along the stanchions, and can rotate around the stanchions in the clockwise and counterclockwise directions of the stanchions.
  • the adaptability score indicating the degree of adaptability of the user's facial posture to visually recognize the front panel is obtained.
  • An adaptability estimation means acquired from the learning model and a display movable means for automatically moving the display device up and down, rotating, or turning so that the adaptability score acquired by the adaptability estimation means satisfies a predetermined condition.
  • the display device including the user automatically moves the display device up and down, rotates, or turns so that the adaptability score acquired by the adaptability estimation means implemented by artificial intelligence satisfies a predetermined condition. Regardless of the position, the user who visually recognizes the front panel can automatically move the display device to the position where the front panel is most easily seen, and the front panel can be made in the most easily visible state by the user.
  • the perspective view of the display apparatus shown as an example.
  • the front view of the display device of FIG. The rear view of the display device of FIG.
  • a side view of the display device of FIG. An exploded view showing a state in which the first to fourth extension members are removed from the display body.
  • the perspective view of the display apparatus shown as another example.
  • the front view of the display device of FIG. The rear view of the display device of FIG.
  • FIG. 9 is a side view of the display device of FIG.
  • FIG. 1 An exploded view showing a state in which the first to fourth extension portions are removed from the display device.
  • FIG. 1 is a perspective view of the display device 10A shown as an example.
  • 2 is a front view of the display device 10A of FIG. 1
  • FIG. 3 is a rear view of the display device 10A of FIG. 1.
  • FIG. 4 is a side view of the display device 10A of FIG. 1
  • FIG. 5 is an exploded view showing a state in which the first to fourth extension members 12a to 12d are removed from the display device 10A.
  • FIG. 6 is a front view showing a state in which the display device 10A is turned clockwise or counterclockwise
  • FIG. 7 is a front view showing a state in which the display device 10A is moved upward in the vertical direction along the support column 37.
  • FIG. 8 is a visual view showing a state in which the display device 10A rotates around the support column 37 in the circumferential direction of the support column 37.
  • the vertical direction is indicated by an arrow A
  • the width direction is indicated by an arrow B.
  • the turning direction is indicated by an arrow C
  • the rotation direction is indicated by an arrow D.
  • the display device 10A (display system) is formed of a display main body 11 and first to fourth extension members 12a to 12d (first to fourth extension portions) attached to the display main body 11.
  • the display body 11 has a first edge 13 and a second edge 14 extending in the width direction (one direction) in parallel with each other, and a vertical direction (intersection direction) in parallel with each other and intersecting the width direction (one direction). It has a first side edge 15 and a second side edge 16 extending, and a front panel 17 and a back area 18 surrounded by the edge edges 13, 14 and the side edges 15, 16.
  • the display body 11 front panel 17 and back area 18
  • the display body 11 front panel 17 and back area 18 may be formed into a rectangle having a predetermined area long in the width direction (one direction).
  • a predetermined image is output (displayed) on the front panel 17 of the display body 11.
  • a controller (control device) (not shown) is housed in the display main body 11.
  • the first extension member 12a (first extension portion) is detachably attached to the first end edge 13 of the display body 11.
  • the first extending member 12a has a first inner peripheral edge 19a extending in the width direction (one direction) in parallel with the first end edge 13 and an upper vertical direction (diameter) from the first inner peripheral edge 19a (first end edge 13). It has a first outer peripheral edge 20a that draws an arc so as to be convex in the outward direction).
  • the first extending member 12a is formed into a crescent shape whose planar shape (front shape) is long in the width direction, and extends upward in the vertical direction (outward in the radial direction) from the first end edge 13 of the display body 11. ..
  • a device accommodating space (not shown) is formed inside the first extending member 12a.
  • the front opening 21 of the first extending member 12a is covered with a fabric 22 (woven fabric or knitting such as a speaker grill net).
  • a first mounting plate 23a extending in the width direction (one direction) is integrally connected to the first inner peripheral edge 19a of the first extending member 12a.
  • the first mounting plate 23a is fixed to the first end edge 13 of the display body 11 by a predetermined mounting means (mounting bolt, screw, etc.), so that the first end edge of the display body 11 is fixed. It is installed at 13.
  • a digital camera 24 (camera), a microphone 25, a motion sensor 26, and a light detection sensor 27 are housed in the device storage space of the first extension member 12a.
  • the control unit of the digital camera 24 is connected to the controller via an interface, the lens of the digital camera 24 faces forward from the front opening 21 of the first extending member 12a, and a user or an object located in front of the front panel 17 is photographed. do.
  • the control unit of the digital camera 24 transmits the captured image data to the controller.
  • the microphone 25 is connected to the controller via an interface and collects the voice of the user located in front of the front panel 17.
  • the microphone 25 transmits the collected voice data to the controller.
  • the motion sensor 26 is connected to the controller via the interface and detects a person located in front of the front panel 17.
  • the motion sensor 26 transmits a human detection signal or a non-human detection signal to the controller.
  • the photodetection sensor 27 is connected to the controller via an interface and detects the light around the display device 10A.
  • the photodetection sensor 27 transmits a photodetection signal or a non-photodetection signal to the controller.
  • the second extension member 12b (second extension portion) is detachably attached to the second end edge 14 of the display body 11.
  • the second extending member 12b has a second inner peripheral edge 19b extending in the width direction (one direction) in parallel with the second end edge 14 and a lower vertical direction (diameter) from the second inner peripheral edge 19b (second end edge 14). It has a second outer peripheral edge 20b that draws an arc so as to be convex in the outward direction.
  • the second extending member 12b is formed into a crescent shape whose planar shape (front shape) is long in the width direction, and extends downward in the vertical direction (outward in the radial direction) from the second end edge 14 of the display body 11. ..
  • a device accommodating space (not shown) is formed inside the second extending member 12b.
  • the front opening 21 of the second extending member 12b is covered with a fabric 22 (woven fabric or knitting such as a speaker grill net).
  • a second mounting plate 23b extending in the width direction (one direction) is integrally connected to the second inner peripheral edge 19b of the second extending member 12b.
  • the second extension member 12b has a second end edge of the display body 11 by fixing the second mounting plate 23b to the second end edge 14 of the display body 11 by a predetermined mounting means (mounting bolt, screw, etc.). It is installed at 14.
  • the LED lighting 28 (lighting) is housed in the device housing space of the second extending member 12b.
  • the LED lighting 28 is connected to the controller via an interface and illuminates the front of the front panel 17.
  • the third extension member 12c (third extension portion) is detachably attached to the first side edge 15 of the display body 11.
  • the third extending member 12c has a third inner peripheral edge 19c extending in the width direction (one direction) in parallel with the first side edge 15 and a third inner peripheral edge 19c (first side edge 15) outward in the width direction (1st side edge 15). It has a third outer peripheral edge 20c that draws an arc so as to be convex in the radial direction).
  • the third extending member 12c is formed into a crescent shape whose planar shape (front shape) is long in the vertical direction, and extends outward in the width direction (outward in the radial direction) from the first side edge 15 of the display body 11. There is.
  • a device accommodating space (not shown) is formed inside the third extension member 12c.
  • the front opening 21 of the third extending member 12c is covered with a fabric 22 (woven fabric or knitting such as a speaker grill net).
  • a third mounting plate 23c extending in the width direction (one direction) is integrally connected to the third inner peripheral edge 19c of the third extending member 12c.
  • the third mounting plate 23c is fixed to the first side edge 15 of the display body 11 by a predetermined mounting means (mounting bolt, screw, etc.), so that the first side edge of the display body 11 is fixed. It is installed at 15.
  • the speaker 29 and the LED lighting 28 (lighting) are housed in the 12c device storage space of the third extension member.
  • the speaker 29 is connected to the controller via the interface and generates a predetermined sound.
  • the LED lighting 28 is connected to the controller via an interface and illuminates the front of the front panel 17.
  • the fourth extension member 12d (fourth extension portion) is detachably attached to the second side edge 16 of the display body 11.
  • the fourth extending member 12d has a fourth inner peripheral edge 19d extending in the width direction (one direction) in parallel with the second side edge 16 and a fourth inner peripheral edge 19d (second side edge 16) outward in the width direction (2nd side edge 16). It has a fourth outer peripheral edge 20d that draws an arc so as to be convex in the radial direction).
  • the fourth extending member 12d is formed into a crescent shape whose planar shape (front shape) is long in the vertical direction, and extends outward in the width direction (outward in the radial direction) from the second side edge 16 of the display body 11. There is.
  • a device accommodating space (not shown) is formed inside the fourth extending member 12d.
  • the front opening 21 of the fourth extending member 12d is covered with a fabric 22 (woven fabric or knitting such as a speaker grill net).
  • a fourth mounting plate 23d extending in the width direction (one direction) is integrally connected to the fourth inner peripheral edge 19d of the fourth extending member 12d.
  • the fourth extension member 12d has a second side edge of the display body 11 by fixing the fourth mounting plate 23d to the second side edge 16 of the display body 11 by a predetermined mounting means (mounting bolt, screw, etc.). It is installed at 16.
  • the speaker 29 and the LED lighting 28 (lighting) are housed in the device storage space of the fourth extension member 12d.
  • the speaker 29 is connected to the controller via the interface and generates a predetermined sound.
  • the LED lighting 28 is connected to the controller via an interface and illuminates the front of the front panel 17.
  • the first outer peripheral edge 20a that draws an arc of the first extension member 12a (first extension portion) and the third outer peripheral edge 20c that draws an arc of the third extension member 12c (third extension portion). Is connected at the first virtual intersection peripheral edge 30a, and the first outer peripheral edge 20a that draws an arc of the first extending member 12a and the fourth outer peripheral edge 20d that draws an arc of the fourth extending member 12d (fourth extending portion).
  • the second outer peripheral edge 20b that draws an arc of the second extension member 12b (second extension portion) and the third outer peripheral edge 20c that draws an arc of the third extension member 12c are connected at the third virtual intersection peripheral edge 30c.
  • the second outer peripheral edge 20b that draws an arc of the second extending member 12b and the fourth outer peripheral edge 20d that draws an arc of the fourth extending member 12d are connected at the fourth virtual intersection peripheral edge 30d.
  • the first outer peripheral edge 20a and the third outer peripheral edge 20c are connected via the first virtual intersection peripheral edge 30a, and the first outer peripheral edge 20a and the fourth outer peripheral edge 20d are connected via the second virtual intersection peripheral edge 30b.
  • the second outer peripheral edge 20b and the third outer peripheral edge 20c are connected via the third virtual intersection peripheral edge 30c, and the second outer peripheral edge 20b and the fourth outer peripheral edge 20d are connected via the fourth virtual intersection peripheral edge 30d.
  • the first crossing corner portion 31a where the first end edge 13 and the first side edge 15 of the display body 11 intersect is the first outer peripheral edge 20a and the third extending member 12c of the first extending member 12a.
  • the third crossing corner portion 31c where the second end edge 14 and the first side edge 15 of the display body 11 intersect is the third outer peripheral edge 20b of the second extending member 12b and the third extending member 12c.
  • the fourth intersection corner portion 31d which extends radially outward from the third virtual intersection peripheral edge 30c connecting the outer peripheral edge 20c and where the second end edge 14 and the second side edge 16 intersect, is the second extending member 12b.
  • the second outer peripheral edge 20b and the fourth outer peripheral edge 20d of the fourth extending member 12d are extended outward in the radial direction from the fourth virtual crossing peripheral edge 30d connecting the second outer peripheral edge 20b.
  • the display device 10A draws an arc of the first to fourth extension members 12a to 12d (first to fourth extension portions) that imitate a long ellipse in the vertical direction (or width direction).
  • the peripheral edges 20a to 20d and the first to fourth virtual intersection peripheral edges 30a to 30d surround the front panel 17, and the first to fourth intersection corners 31a to 31d imitate an ellipse.
  • the rectangular front panel 17 is made up of a combination of a rectangular shape and an elliptical shape (circular shape) by the first to fourth extending members 12a to 12d, which is a decorative beauty or a functional beauty. Can be provided.
  • the display device 10A has an excellent aesthetic appearance having a decorative beauty or a functional beauty composed of a combination of a rectangle and an ellipse (circle), and the front panel 17 has a good view, so that the user who sees the front panel 17 can see it. It is possible to evoke a sense of beauty, to motivate the user to want to use the display device 10A (willingness to use), and to motivate the user to purchase.
  • FIG. 9 is a perspective view of the display device 10B shown as another example, and FIG. 10 is a front view of the display device 10B of FIG. 9. 11 is a rear view of the display device 10B of FIG. 9, and FIG. 12 is a side view of the display device 10B of FIG. FIG. 13 is an exploded view showing a state in which the first to fourth extension members 32a to 32d are removed from the display device 10B.
  • the vertical direction is indicated by an arrow A
  • the width direction is indicated by an arrow B.
  • the display device 10B (display system) is formed of a display main body 11 and first to fourth extension members 32a to 32d (first to fourth extension portions) attached to the display main body 11.
  • the display body 11 has a first edge 13 and a second edge 14 extending in the width direction (one direction) in parallel with each other, and a vertical direction (intersection direction) in parallel with each other and intersecting the width direction (one direction). It has a first side edge 15 and a second side edge 16 extending, and a front panel 17 and a back area 18 surrounded by the edge edges 13, 14 and the side edges 15, 16.
  • the display body 11 front panel 17 and back area 18
  • the display body 11 front panel 17 and back area 18 may be formed into a rectangle having a predetermined area long in the vertical direction (intersection direction). A predetermined image is output (displayed) on the front panel 17 of the display body 11.
  • a controller (control device) (not shown) is housed in the display main body 11.
  • the first extension member 32a (first extension portion) is detachably attached to the first end edge 13 of the display body 11.
  • the first extending member 32a has a first inner peripheral edge 19a extending in the width direction (one direction) in parallel with the first end edge 13 and an upper vertical direction (diameter) from the first inner peripheral edge 19a (first end edge 13). It has a first outer peripheral edge 20a that draws an arc so as to be convex in the outward direction).
  • the first extending member 12a is formed into a crescent shape whose planar shape (front shape) is long in the width direction, and extends upward in the vertical direction (outward in the radial direction) from the first end edge 13 of the display body 11. ..
  • a device accommodating space (not shown) is formed inside the first extending member 32a.
  • the front opening 21 of the first extending member 32a is covered with a fabric 22 (woven fabric or knitting such as a speaker grill net).
  • a first mounting plate 33a extending in the width direction (one direction) is integrally connected to the first inner peripheral edge 19a of the first extending member 32a.
  • the first mounting plate 33a is fixed to the first end edge 13 of the display body 11 by a predetermined mounting means (mounting bolt, screw, etc.), so that the first end edge of the display body 11 is fixed. It is installed at 13.
  • the digital camera 24 and the microphone 25 are accommodated in the device accommodating space of the first extension member 32a.
  • the digital camera 24 is connected to a controller via an interface, and its lens faces forward from the front opening 21 of the first extending member 32a to photograph a user or an object located in front of the front panel 17.
  • the digital camera 24 transmits the captured image data to the controller.
  • the microphone 25 is connected to the controller via an interface and collects the voice of the user located in front of the front panel 17.
  • the microphone 17 transmits the collected voice data to the controller.
  • the second extension member 32b (second extension portion) is detachably attached to the second end edge 14 of the display body 11.
  • the second extending member 32b has a second inner peripheral edge 19b extending in the width direction (one direction) in parallel with the second end edge 14 and a lower vertical direction (diameter) from the second inner peripheral edge 19b (second end edge 14). It has a second outer peripheral edge 20b that draws an arc so as to be convex in the outward direction.
  • the second extending member 32b is formed into a crescent shape whose planar shape (front shape) is long in the width direction, and extends upward in the vertical direction (outward in the radial direction) from the second end edge 14 of the display body 11. ..
  • a device accommodating space (not shown) is formed inside the second extending member 32b.
  • the front opening 21 of the second extending member 32b is covered with a fabric 22 (woven fabric or knitting such as a speaker grill net).
  • a second mounting plate 33b extending in the width direction (one direction) is integrally connected to the second inner peripheral edge 19b of the second extending member 32b.
  • the second mounting plate 33b is fixed to the second end edge 14 of the display body 11 by a predetermined mounting means (mounting bolt, screw, etc.), so that the second end edge of the display body 11 is fixed. It is installed at 14.
  • the LED lighting 28 (lighting), the motion sensor 26, and the light detection sensor 27 are housed in the device storage space of the second extension member 32b.
  • the LED lighting 28 is connected to the controller via an interface and illuminates the front of the front panel 17.
  • the motion sensor 26 is connected to the controller via an interface and senses a person located in front of the front panel 17.
  • the motion sensor 26 transmits a human detection signal or a non-human detection signal to the controller.
  • the photodetection sensor 27 is connected to the controller via an interface and detects the light around the display device 10B.
  • the photodetection sensor 27 transmits a photodetection signal or a non-photodetection signal to the controller.
  • the third extension member 32c (third extension portion) is detachably attached to the first side edge 15 of the display body 11.
  • the third extending member 32c has a third inner peripheral edge 19c extending in the width direction (one direction) in parallel with the first side edge 15 and a third inner peripheral edge 19c (first side edge 15) outward in the width direction (1st side edge 15). It has a third outer peripheral edge 20c that draws an arc so as to be convex in the radial direction).
  • the third extending member 32c is formed into a crescent shape whose planar shape (front shape) is long in the vertical direction, and extends outward in the width direction (outward in the radial direction) from the first side edge 15 of the display body 11. There is.
  • a device accommodating space (not shown) is formed inside the third extension member 32c.
  • the front opening 21 of the third extending member 32c is covered with a fabric 22 (woven fabric or knitting such as a speaker grill net).
  • a third mounting plate 33c extending in the width direction (one direction) is integrally connected to the third inner peripheral edge 19c of the third extending member 32c.
  • the third mounting plate 33c is fixed to the first side edge 15 of the display body 11 by a predetermined mounting means (mounting bolt, screw, etc.), so that the first side edge of the display body 11 is fixed. It is installed at 15.
  • the speaker 29 and the LED lighting 28 (lighting) are housed in the device storage space of the third extension member 32c.
  • the speaker 29 is connected to the controller via the interface and generates a predetermined sound.
  • the LED lighting 28 is connected to the controller via an interface and illuminates the front of the front panel 17.
  • the fourth extension member 32d (fourth extension portion) is detachably attached to the second side edge 16 of the display body 11.
  • the fourth extending member 32d has a fourth inner peripheral edge 19d extending in the width direction (one direction) in parallel with the second side edge 16 and a fourth inner peripheral edge 19d (second side edge 16) outward in the width direction (2nd side edge 16). It has a fourth outer peripheral edge 20d that draws an arc so as to be convex in the radial direction).
  • the fourth extending member 32d is formed into a crescent shape whose planar shape (front shape) is long in the vertical direction, and extends outward in the width direction (outward in the radial direction) from the second side edge 16 of the display body 11. There is.
  • a device accommodating space (not shown) is formed inside the fourth extending member 32d.
  • the front opening 21 of the fourth extending member 32d is covered with a fabric 22 (woven fabric or knitting such as a speaker grill net).
  • a fourth mounting plate 33d extending in the width direction (one direction) is integrally connected to the fourth inner peripheral edge 19d of the fourth extending member 32d.
  • the fourth extension member 32d has a second side edge of the display body 11 by fixing the fourth mounting plate 33d to the second side edge 16 of the display body 11 by a predetermined mounting means (mounting bolt, screw, etc.). It is installed at 16.
  • the speaker 29 and the LED lighting 28 (lighting) are housed in the device storage space of the fourth extension member 32d.
  • the speaker 29 is connected to the controller via the interface and generates a predetermined sound.
  • the LED lighting 28 is connected to the controller via an interface and illuminates the front of the front panel 17.
  • the first outer peripheral edge 20a that draws an arc of the first extending member 32a and the fourth outer peripheral edge 20d that draws an arc of the fourth extending member 32d (fourth extending portion) are connected to each other at the first intersecting peripheral edge 34a. It is connected at the second crossing peripheral edge 34b.
  • the second outer peripheral edge 20b that draws an arc of the second extending member 32b (second extending portion) and the third outer peripheral edge 20c that draws an arc of the third extending member 32c are connected at the third intersecting peripheral edge 34c.
  • the second outer peripheral edge 20b that draws an arc of the second extending member 32b and the fourth outer peripheral edge 20d that draws an arc of the fourth extending member 32d are connected at the fourth crossing peripheral edge 34d.
  • the first outer peripheral edge 20a and the third outer peripheral edge 20c are connected, the first outer peripheral edge 20a and the fourth outer peripheral edge 20d are connected, and the second outer peripheral edge 20b and the third outer peripheral edge 20c are connected.
  • the first to fourth outer peripheral edges 20a to 20d and the first to fourth intersecting peripheral edges 34a to the first to fourth extending members 12a to 12d are connected.
  • 34d draws a long ellipse in the width direction (one direction).
  • the first to fourth outer peripheral edges 20a to 20d and the first to fourth intersecting peripheral edges 34a to 34d of the first to fourth extending members 12a to 12d draw a long ellipse in the vertical direction (intersection direction). You may.
  • the first corner 35a where the first end edge 13 and the first side edge 15 intersect is the first outer peripheral edge 20a of the first extending member 32a and the third outer peripheral edge 20c of the third extending member 32c.
  • the second corner 35b where the first edge 13 and the second side edge 16 intersect is located inward in the radial direction of the first crossing peripheral edge 34a where the first extending member 32a intersects with the first outer peripheral edge 20a. It is located in the radial direction of the second crossing peripheral edge 34b where the fourth outer peripheral edge 20d of the fourth extending member 32d intersects with the fourth outer peripheral edge 20d.
  • the third corner 35c where the second end edge 14 and the first side edge 15 intersect intersects the second outer peripheral edge 20b of the second extending member 32b and the third outer peripheral edge 20c of the third extending member 32c.
  • the fourth corner 35d which is located inward in the radial direction of the third crossing peripheral edge 34c and where the second end edge 14 and the second side edge 16 intersect, is the second outer peripheral edge 20b and the fourth of the second extending member 32b. It is located radially inward of the fourth crossing peripheral edge 34d where the fourth outer peripheral edge 20d of the extending member 32d intersects.
  • the arrangements of the digital camera 24, the microphone 25, the motion sensor 26, the LED lighting 27 (lighting), and the speakers 28 with respect to the first to fourth extension members 12a to 12d and 32a to 32d are shown in the figure.
  • the arrangement of the digital camera 24, the microphone 25, the motion sensor 26, the LED lighting 27 (lighting), and the speaker 28 with respect to the first to fourth extending members 12a to 12d and 32a to 32d is freely determined. can do.
  • the display device 10B has a first to fourth outer peripheral edge that draws an arc of the first to fourth extending members 32a to 32d (first to fourth extending portions) that draw a long ellipse in the width direction (or the vertical direction).
  • 20a to 20d and the first to fourth crossing edges 34a to 34d surround the front panel 17, and the first to fourth corners 35a to 35d form an ellipse in the radial direction of the first to fourth crossing edges 34a to 34d.
  • the first to fourth extending members 32a to 32d allow the rectangular front panel 17 to have a decorative or functional beauty consisting of a combination of a rectangle and an ellipse (circle).
  • the display device 10B has an excellent aesthetic appearance having a decorative beauty or a functional beauty composed of a combination of a rectangle and an ellipse (circle), and the front panel 17 has a good view, so that the user who sees the front panel 17 can see it. It can provoke a sense of beauty, motivate the user to use the display device 10B, and motivate the user to purchase.
  • the controller (control device) built in the display body 11 of the display devices 10A and 10B is connected to the cloud server 36 virtually (formed) in the cloud (cloud computing) on the Internet.
  • the cloud server 36 is a virtual server that has a virtual CPU or a virtual MPU (central processing unit), a virtual main memory, and a virtual cache memory (memory) and operates by an independent operating system (virtual OS), and has a large capacity storage. The area has been generated.
  • Infrastructure as a Service IaaS
  • PaaS Platform as a Service
  • SaaS Software as a Service
  • the virtual main memory of the cloud server 36 has a display system application (a 3D design application that processes image data into a 3D image, a translation application that translates voice and characters into multiple languages, and artificial intelligence) that implements each means described later in the display system. (Including the algorithm) is stored (stored).
  • a display system application a 3D design application that processes image data into a 3D image
  • a translation application that translates voice and characters into multiple languages, and artificial intelligence
  • the controller may be a physical server (computer).
  • the physical server includes a central processing unit (CPU or MPU) and a memory (main memory and cache memory), and has a large capacity storage area (large capacity hard disk).
  • the cloud server 36 (or a physical server) is formed (installed) in a data center contracted by a provider (provider company) that provides a display system.
  • a cloud server 36 (or a physical server) may be formed (installed) at a business office or office of a provider (provider company) that provides a display system.
  • the cloud server 36 (or physical server) is a DSN server that sets the correspondence between the host name and the IP address assigned to the host name, and receives requests from other computers and other servers to read and write various information.
  • Database / file server that provides the function to publish, Web server required to publish the homepage, mail server for sending and receiving e-mail, all data such as created sentences and images can be saved and searched.
  • Various servers such as document servers are connected, and these servers form a server group (virtual server group).
  • the cloud server 36 (or physical server) itself has a DSN server function, a database server function, a Web server function, a mail server function, and a document server function, and is classified by software according to each server function. There may be.
  • the cloud server 36 (or a physical server) can access any other server having no access restriction by using the Internet while passing through various various DSN servers connected to the Internet.
  • the cloud server 36 (or physical server) forms a network with other servers in a data center located anywhere in the world via the Internet.
  • the user-specific information of the user who uses the display device 10A is stored (stored) in the large-capacity storage area of the cloud server 36 (or the large-capacity storage area of the physical server), and the display devices 10A and 10B are stored.
  • the face image data of the user to be used is stored (stored), and the voice data of the user using the display devices 10A and 10B is stored (stored) (user attribute information information storage means).
  • the user attribute information is stored in the large-capacity virtual storage area in a state associated with the user identification information (password, ID number, unique identifier, etc.) of the user.
  • the user attribute information includes a user's name, a user's address, a telephone number, a fax number, an age, a gender, an e-mail address, and the like.
  • the URL (including the URL of a foreign friend's server) or IP address of another server is stored (stored) in the large-capacity storage area of the cloud server 36 (or the large-capacity storage area of the physical server). ..
  • the large-capacity storage area of the cloud server 36 (or the large-capacity storage area of the physical server) includes refrigerators, air conditioners (air conditioners), washing machines, water heaters (water heaters), lighting appliances, cleaning robots, kotatsu, and floors.
  • Electrical equipment identification information that identifies electrical appliances (electrical equipment) such as heating appliances is stored (stored) (electrical equipment identification information storage means).
  • the electrical device identification information solid identification numbers and machine numbers of refrigerators, air conditioners, washing machines, water heaters, lighting fixtures, cleaning robots, kotatsu, floor heaters, etc. can be used, as well as cloud server 36 (or cloud server 36).
  • Physical server can independently generate unique identifiers that identify them, and the generated identifiers can be used as electrical equipment identification information.
  • the electrical device identification information is stored in the large-capacity virtual storage area in a state associated with the sub-user identification information (password, ID number, unique identifier, etc.) of the user who uses the electric appliance (electrical device). ..
  • Electrical equipment includes not only those described above, but all electrical equipment that can be operated by IOT.
  • a refrigerator In the large-capacity storage area of the cloud server 36 (or the large-capacity storage area of the physical server), a refrigerator, an air conditioner, a washing machine, a water heater, a lighting appliance, a cleaning robot, a kotatsu, and floor heating are used.
  • a process (job) to be performed by an electric appliance (electrical device) such as an electric appliance is stored (stored) in a state associated with the electric device identification information (process storage means).
  • the electrical device has a wireless LAN function, receives predetermined information (process) from the cloud server 36 (or physical server) via the wireless LAN, and becomes the cloud server 36 (or physical server) via the wireless LAN. Send the specified information.
  • a support column 37 extending vertically in the vertical direction is installed.
  • a first motor (not shown) is installed on the upper part of the column 37 (center of the rear area 18).
  • the control unit of the first motor is connected to the controller via an interface.
  • a linear motor (not shown) is installed on the support column 37.
  • the control unit of the linear motor is connected to the controller via an interface.
  • a stand 39 having four legs 38 is connected to the lower part of the support column 37.
  • a second motor (not shown) is installed on the stand 39. The control unit of the second motor is connected to the controller via an interface.
  • the display devices 10A and 10B including the first to fourth extension members 12a to 12d and 32a to 32d are automatically (automatically) clockwise and counterclockwise around the center of the display device 10A and 10B by the first motor.
  • the display devices 10A and 10B including the first to fourth extension members 12a to 12d and 32a to 32d are automatically (automatically) moved up and down along the support column 37 in the vertical direction upward and vertical direction downward by a linear motor. (See Fig. 7).
  • the display devices 10A and 10B including the first to fourth extension members 12a to 12d and 32a to 32d automatically rotate (automatically) around the support column 37 in the direction around the support column 37 (see FIG. 8).
  • the display devices 10A and 10B have communication means for transmitting and receiving predetermined data to and from other servers using the Internet (predetermined network).
  • the display devices 10A and 10B implement image photographing means for photographing an object or a user by using a digital camera 24, and the object or the user photographed by the photographing means.
  • Implement the image data transmission means for transmitting the image data of the above to another server by using the communication means.
  • the display devices 10A and 10B use communication means to transfer image data of an object or a third party facing the user via the display devices 10A and 10B to another.
  • An image data receiving means received from a server is implemented, and an image data output means for outputting (displaying) an image of an object or a third party received by the image data receiving means on the front panel 17 is implemented.
  • the display devices 10A and 10B implement a voice sound collecting means for collecting the user's sound by using the microphone 25, and collect the sound by the voice sound collecting means.
  • a voice data transmission means for transmitting a user's voice data to another server by using a communication means.
  • the display devices 10A and 10B (controller (cloud server 36 or physical server)) transmit voice data of a third party that interacts with the user via the display devices 10A and 10B from another server by using a communication means.
  • the voice data receiving means for receiving is carried out, and the voice output means for sounding (outputting) the voice of a third party received by the voice data receiving means by using the speaker 29 is carried out.
  • various plurality of display devices 10A and 10B (controller (cloud server 36 or physical server)) respond to the request by using the request as a keyword.
  • Implement the website introduction information receiving means to receive the website introduction information of the website from other servers using the communication means, and output the website introduction information received by the website introduction information receiving means to the front panel 17.
  • a predetermined website is specified from various websites output (displayed) by the website introduction information output means while implementing the website introduction information output means to be (displayed)
  • the specified website is displayed in front.
  • Implement the website output means to output (display) on the panel 17.
  • Request-related data is received from another server using a communication means.
  • the request-related data receiving means is implemented, and the request-related data received by the request-related data receiving means is output (displayed) on the front panel 17.
  • Requests Implement related data output means are implemented.
  • the display devices 10A and 10B implement translation means for translating the voice pronounced by the user and the voice of a third party received from another server into a predetermined language.
  • the translated voice output means for outputting the voice of the user translated by the translation means and the voice of a third party by using the speaker 29 is implemented.
  • the display devices 10A and 10B (cloud server 36 or a physical server) perform a predetermined process corresponding to the command on the Internet (communication means).
  • a process execution means for causing an electric device to execute a predetermined process while transmitting to the electric device by using the above.
  • the display devices 10A and 10B implement the first display starting means for activating the display devices 10A and 10B when a person is detected by the motion sensor 26, and the motion is felt. After the sensor 26 detects a person, when the person is no longer detected, the first display stopping means for stopping the activated display devices 10A and 10B is implemented.
  • the display devices 10A and 10B are activated by the display first activation means, and then the person who photographed the person located in front of the front panel 17 by the photographing means.
  • the first display stopping means is implemented.
  • the display devices 10A and 10B (controller (cloud server 36 or physical server)) collect the activation message pronounced by the user by the voice collecting means, the voice of the user's activation message and the voice of the user's activation message are collected in advance.
  • the first voice comparison means for comparing the voice of the memorized user and comparing the voice of the activation message with the voice of the memorized user by the first voice comparison means, the voice of the activation message and the stored use
  • the second display starting means for activating the display devices 10A and 10B is implemented, and when the stop message uttered by the user is collected by the voice collecting means, the activated display is performed.
  • a second display stopping means for stopping the devices 10A and 10B is implemented.
  • the display devices 10A and 10B detect a person by the human sensor 26, and the light detection sensor 27 detects the light around the display devices 10A and 10B. If not, the first lighting means for activating the LED lighting 28 is implemented, and the human sensor 26 does not detect a person, or the light detection sensor 27 detects the light around the display devices 10A and 10B. The first lighting means for turning off the activated LED lighting 28 is implemented.
  • the display devices 10A and 10B activate the LED lighting 28 by the lighting first activation means, and then photograph a person located in front of the front panel 17 by the photographing means.
  • the second image data comparison means for comparing the image data of the photographed person with the image data of the user stored in advance is carried out, and the image of the photographed person and the stored image of the user are compared with the second image data comparison means. As a result of comparison, when the image of the photographed person and the image of the stored user are different, the first lighting stop means is implemented.
  • the display devices 10A and 10B collect the lighting activation message pronounced by the user by the voice collecting means, the voice of the user's lighting activation message collected.
  • the second voice comparison means for comparing the voice of the user and the voice of the user stored in advance was carried out, and the voice of the lighting activation message was compared with the voice of the stored user by the second voice comparison means.
  • a second lighting means for turning off the turned off LED lighting 28 is implemented.
  • the display devices 10A and 10B When the display devices 10A and 10B (controller (cloud server 36 or physical server)) collect the display swivel message pronounced by the user by the voice collecting means, the display devices 10A and 10B are rotated clockwise or in the clockwise direction. Implement a display turning means that automatically turns in the counterclockwise direction.
  • the display devices 10A and 10B When the display devices 10A and 10B (controller (cloud server 36 or physical server)) collect the display vertical movement message pronounced by the user by the voice sound collecting means, the display devices 10A and 10B are moved upward in the vertical direction or upward.
  • Implement display vertical movement means that automatically moves up and down in the vertical direction.
  • the display devices 10A and 10B (controller (cloud server 36 or physical server)) rotate the display devices 10A and 10B clockwise or left when the display rotation message pronounced by the user is collected by the voice collecting means.
  • a display rotating means that automatically rotates in the clockwise direction.
  • the display devices 10A and 10B are trained learning models in which machine learning is performed to estimate the degree of adaptability to the facial posture of the user who visually recognizes the front panel 17.
  • an adaptation score indicating the degree of adaptability of the user's facial posture to visually recognize the front panel 17 is obtained from the learning model.
  • a sex estimation means is implemented, and a display movable means for automatically moving the display device up and down, rotating, or turning is implemented so that the adaptability score acquired by the adaptability estimation means satisfies a predetermined condition.
  • the learning model is generated using a known machine learning algorithm (artificial intelligence algorithm) such as a neural network.
  • the teacher data input to the machine learning algorithm is, for example, an image of the user's face located near the front panel 17 of the display devices 10A and 10B, taken from various angles by an image taking means, and taken. It is created by associating the adaptability score with the image data of the face.
  • a 10-step numerical parameter from 0 to 10 is used for the adaptability score. For example, when the black eye (pupil) of the user's eye for visually recognizing the front panel 17 (looking at the front panel 17) is located at the center of the eye, the display devices 10A and 10B are considered to be in the optimum position and have high numerical parameters. To set.
  • the display devices 10A and 10B are considered to be not in the optimum position and are low. Set numerical parameters.
  • the start / stop, turning, vertical movement, and rotation of the display device 10A will be described by exemplifying the display device 10A, and the start / stop of the LED lighting 28 will be described.
  • the rotation and the start and stop of the LED lighting 28 are the same as those of the display device 10A.
  • An example of starting and stopping the display device 10A is as follows. When the user is located near the display device 10A (a distance of 50 to 500 cm from the display device 10A) and in front of the front panel 17, the motion sensor 26 detects the user (person), and the motion sensor 26 detects the user (person). Send a human detection signal to the controller.
  • the controller (cloud server 37 or physical server) that has received the human detection signal turns on the ON / OFF switch of the display device 10A to start the display device 10A (display first starting means).
  • the motion sensor 26 After the motion sensor 26 detects the user (person), when the user separates from the front of the front panel 17 and the motion sensor 26 no longer detects the user (person), the motion sensor 26 stops the user (person). Send a non-detection signal to the controller.
  • the controller (cloud server 36 or physical server) that has received the human non-detection signal turns off the ON / OFF switch of the display device 10A to stop the display device 10A (display first stop means).
  • the human sensor 26 detects the presence or absence of a person in front of the front panel 17, and when the human sensor 26 detects a person, the display device 10A is automatically activated. When a person is no longer detected by the human sensor 26, the activated display device 10A can be automatically stopped, and the display device 10A is automatically started and stopped using the human sensor 26. be able to.
  • the controller activates the display device 10A by the display first activation means, and then captures a photographing signal for capturing a face image of a user (person) located in front of the front panel 17. Is transmitted to the control unit of the digital camera 24, and the face image of the user (person) located in front of the front panel 17 is photographed using the digital camera 24 (image photographing means), and the photographed person (user) is photographed.
  • the face image data (image data) of the user and the user's face image data (image data) stored in advance are compared (image data first comparison means).
  • the controller uses the first image data comparison means to compare the photographed person's (user's) face image data (image data) and the stored user's face image data (image data). As a result of comparison, when the photographed person's (user's) face image data and the stored user's face image data are different, the ON / OFF switch of the display device 10A is turned off to stop the display device 10A (display No. 1). 1 Stop means). Since the display device 10A (including the display device 10B) stops the activated display device 10A when the user of the display device 10A and the person who took the picture are different, only a legitimate user is allowed to use the display device 10A. This makes it possible to prevent unauthorized use of the display device 10A.
  • the user of the display device 10A moves to the vicinity of the display device 10A (a distance of 50 to 500 cm from the display device 10A) and sounds an activation message (for example, ON, activation, etc.) of the display device 10A.
  • the activation message pronounced by the user is collected by the speaker 29, and the electric signal of the activation message is transmitted to the controller (voice sound collecting means).
  • the controller (cloud server 36 or physical server) that receives the electrical signal of the activation message is the voice data (voice) of the user's activation message collected by the voice sound collecting means and the user's voice data stored in advance.
  • the display device 10A is activated (ON) (display second activation means).
  • the user pronounces a stop message (for example, OFF, stop, etc.) of the display device 10A.
  • the stop message pronounced by the user is collected by the speaker 29, and the electric signal of the stop message is transmitted to the controller (voice sound collecting means).
  • the controller (cloud server 36 or physical server) that has received the electric signal of the stop message stops (OFF) the activated display device 10A (display second stop means).
  • the operation of starting and stopping the display device 10A can also be performed by a remote controller (not shown).
  • the display device 10A (including the display device 10B) compares the voice of the activation message with the voice of the memorized user, and when the voice of the activation message and the voice of the memorized user are the same, the display device 10A is used. Since it is activated, not only can the display device 10A be activated only by the voice of the user, but also if the voice of the activation message and the stored voice of the user are different, the display device 10A will not be activated. Only a legitimate user can activate the display device 10A, and unauthorized use of the display device 10A can be prevented.
  • the display device 10A (including the display device 10B) can automatically stop the display device 10A by a stop message pronounced by the user, and can automatically start and stop the display device 10A by the voice of the user. ..
  • An example of starting and stopping the LED lighting 28 installed on the second to fourth extending members 12a to 12d of the display device 10A is as follows.
  • the motion sensor 26 detects the user (person), and the motion sensor 26 detects the user (person).
  • the photodetection sensor 27 does not detect the light around the display device 10A, the photodetection signal is transmitted to the controller.
  • the controller (cloud server 36 or physical server) receives the human detection signal from the motion sensor 26, and the controller (cloud server 36 or physical server) receives the light non-detection signal from the light detection sensor 27.
  • the LED lighting 28 is activated (ON) to illuminate the front of the front panel 17 (lighting first activation means).
  • the motion sensor 26 uses the non-human detection signal as the controller. Send.
  • the controller (cloud server 36 or physical server) that has received the human non-detection signal from the motion sensor 26 stops (turns off) the activated LED lighting 28 (lighting first extinguishing means).
  • the light detection sensor 27 is a non-light detection signal.
  • the controller (cloud server 36 or physical server) that has received the light non-detection signal from the light detection sensor 27 stops (turns off) the activated LED lighting 28 (lighting first extinguishing means).
  • the human sensor 26 detects the presence or absence of a person in front of the front panel 17, and the light sensor 27 detects a person by the human sensor 26.
  • the LED lighting 28 can be automatically activated, and when the human sensor 26 does not detect a person, or the light sensing sensor.
  • the activated LED lighting 28 can be automatically turned off, and the LED lighting 28 can be automatically started and stopped by using the human sensor 26 and the light sensing sensor 27. ..
  • the controller activates the LED lighting 28 by the lighting first activation means, and then captures a shooting signal for capturing a face image of a user (person) located in front of the front panel 17. Is transmitted to the control unit of the digital camera 24, and the face image of the user (person) located in front of the front panel 17 is photographed using the digital camera 24 (image photographing means), and the photographed person (user) is photographed.
  • the face image data (image data) of the user and the user's face image data (image data) stored in advance are compared (image data second comparison means).
  • the controller uses a second image data comparison means to compare the photographed person's (user's) face image data (image data) and the stored user's face image data (image data).
  • the LED lighting 28 is stopped (OFF) (lighting first extinguishing means). Since the display device 10A (including the display device 10B) stops the activated LED lighting 28 when the user of the display device 10A and the person who took the picture are different, the display including the LED lighting 28 only for a legitimate user.
  • the device 10A can be used, and unauthorized use of the display device 10A including the LED lighting 28 can be prevented.
  • the user of the display device 10A moves to the vicinity of the display device 10A (a distance of 50 to 500 cm from the display device 10A) and sounds a lighting activation message (for example, lighting ON, LED activation, etc.).
  • the lighting activation message pronounced by the user is collected by the speaker 29, and the electric signal of the lighting activation message is transmitted to the controller (voice sound collecting means).
  • the controller (cloud server 36 or physical server) that receives the electric signal of the lighting activation message receives the voice data (voice) of the user's lighting activation message collected by the voice sound collecting means and the user's voice stored in advance.
  • the voice data and storage of the lighting activation message are stored.
  • the LED lighting 28 is activated (lighting second activation means).
  • the user When the LED lighting 28 is stopped (OFF), the user sounds a lighting stop message (for example, lighting OFF, LED stop, etc.) of the LED lighting 28.
  • the lighting stop message pronounced by the user is collected by the speaker 29, and the electric signal of the lighting stop message is transmitted to the controller (voice sound collecting means).
  • the controller (cloud server 36 or physical server) that has received the electric signal of the lighting stop message stops (turns off) the activated LED lighting 28 (lighting second extinguishing means).
  • the LED lighting 28 can be started or stopped by a remote controller (not shown).
  • the display device 10A (including the display device 10B) compares the voice of the lighting activation message with the memorized user's voice, and when the lighting activation message's voice and the memorized user's voice are the same, the LED lighting Since the 28 is activated, not only the LED lighting 28 can be activated only by the user's voice, but also the LED lighting 28 can be activated when the voice of the lighting activation message and the stored user's voice are different. Therefore, only a legitimate user can use the display device 10A including the LED lighting 28, and unauthorized use of the display device 10A including the LED lighting 28 can be prevented.
  • the display device 10A (including the display device 10B) can automatically stop the LED lighting 28 by the lighting stop message pronounced by the user, and can automatically start and stop the LED lighting 28 by the user's voice. can.
  • An example of automatic turning of the display device 10A is as follows.
  • a user located in the vicinity of the display device 10A pronounces a display turn message (eg, turn right, turn left, etc.).
  • the display swivel message pronounced by the user is collected by the speaker 29, and the electric signal of the display swivel message is transmitted to the controller (voice sound collecting means).
  • the controller (cloud server 36 or physical server) that receives the electric signal of the display turning message activates the first motor when the display turning message is turning clockwise, and the first to fourth motors are rotated by the rotation of the first motor.
  • the display device 10A including the extension members 12a to 12d is swiveled in the clockwise direction (display swivel means), and when the display swivel message is swivel to the left, the first motor is started and the first to first motors are rotated by the rotation of the first motor. 4
  • the display device 10A including the extending members 12a to 12d is swiveled in the counterclockwise direction (display swivel means).
  • the display turning means can be implemented after the display device 10A is started by the display first starting means or the display second starting means. Further, the turning operation of the display device 10A can also be performed by a remote controller (not shown).
  • the display device 10A (including the display device 10B), the display device 10A automatically moves in the clockwise direction and the counterclockwise direction (automatically) by the swivel message voice in the clockwise direction or the counterclockwise direction of the user. Since it turns, the front panel 17 can be changed to either a vertically long portrait state or a horizontally long landscape state only by the user's voice, and the front panel 17 can be changed according to the user's voice. It can be automatically changed to either portrait or landscape.
  • An example of automatic vertical movement of the display device 10A is as follows.
  • a user located in the vicinity of the display device 10A pronounces a display vertical movement message (for example, ascending (extending), descending (expanding), etc.).
  • the swirling message pronounced by the user is collected by the speaker 29, and the electric signal of the swirling message is transmitted to the controller (voice sound collecting means).
  • the controller (cloud server 36 or physical server) that receives the electric signal of the display vertical movement message activates the linear motor when the display vertical movement message rises (extends), and the first to first steps are driven by driving the linear motor.
  • the display device 10A including the extending members 12a to 12d is moved upward (moved) along the support column in the vertical direction (display vertical movement means).
  • the linear motor is activated, and the display device 10A including the first to fourth extending members 12a to 12d is descended vertically and downward along the support column by driving the linear motor.
  • Move) (display up / down movement means).
  • the display vertical movement means can be implemented after the display device 10A is activated by the display first activation means or the display second activation means. Further, the vertical movement operation of the display device 10A can also be performed by a remote controller (not shown).
  • the display device 10A automatically (automatically) moves up and down in the vertical direction upward and vertical direction downward by the vertical movement message voice of the user in the vertical direction upward or vertical direction downward. Since it moves, the front panel 17 can be automatically moved up and down in the vertical direction and downward in the vertical direction only by the voice of the user, and the position of the front panel 17 in the vertical direction is automatically changed according to the voice of the user. In addition, the vertical position of the front panel 17 can be adjusted to a position that is easy for the user to see.
  • An example of automatic rotation of the display device 10A (including the display device 10B) is as follows.
  • a user located in the vicinity of the display device 10A sounds a display rotation message (for example, right rotation, left rotation, etc.).
  • the controller that receives the electric signal of the display rotation message activates the second motor, and the rotation of the second motor causes the first to fourth extension.
  • the display device 10A including the projecting members 12a to 12d is rotated clockwise around the support column 37 (display rotating means).
  • the second motor When the display rotation message is rotated counterclockwise, the second motor is activated, and the rotation of the second motor causes the display device 10A including the first to fourth extension members 12a to 12d to rotate counterclockwise around the support column 37.
  • Display rotation means The display rotating means can be implemented after the display device 10A is started by the display first starting means or the display second starting means. Further, the rotation operation of the display device 10A can also be performed by a remote controller (not shown).
  • the display device 10A (including the display device 10B), the display device 10A automatically rotates in the clockwise direction and the counterclockwise direction of the support 37 around the support column 37 by the rotation message voice of the user. Even if it is in the position, the front panel 17 can be automatically moved to a position where the user can easily see it only by the user's voice, and the front panel 17 is made visible to the user according to the user's voice. be able to.
  • An image of the user's face located in the vicinity of the front panel 17 of the display device 10A is taken by a digital camera (image shooting means).
  • the image data of the user's face taken by the image taking means is transmitted to the controller (cloud server 36 or physical server).
  • the cloud server 36 (or physical server) that has received the image data of the user's face visually recognizes the front panel 17 (looks at the front panel 17), and the user's facial posture (black eyes of the user's eyes (or the black eyes of the user)).
  • a trained learning model that has undergone machine learning to estimate the degree of adaptability to (pupil)) (the degree to which the black eye (pupil) is located in the center of the eye or the black eye (pupil) is deviated from the center of the eye).
  • the adaptability of the user's facial posture to visually recognize the front panel 17 is achieved.
  • An adaptability score indicating the degree of (the degree to which the black eye (pupil) is located in the center of the eye or the black eye (pupil) is deviated from the center of the eye) is obtained from the learning model (adaptability estimation means).
  • the cloud server 36 (or a physical server) displays so that the adaptability score acquired by the adaptability estimation means satisfies a predetermined condition (so that the adaptability score is held in a high numerical parameter).
  • a movable signal for moving, rotating, or turning the device 10A up and down is transmitted to the controller.
  • the controller automatically moves the display device 10A up and down, rotates, or turns according to a movable signal from the cloud server 36 (or a physical server) (display movable means).
  • the display device 10A (including the display device 10B) is provided so that the adaptability score acquired by the adaptability estimation means implemented by artificial intelligence (artificial intelligence algorithm) satisfies a predetermined condition (to a numerical parameter having a high adaptability score). Since the display device 10A is automatically moved up and down, rotated, or swiveled so as to be held), the user who visually recognizes the front panel 17 can see the front panel 17 most easily regardless of the position of the user. The display device 10A can be automatically moved to the position, and the front panel 17 can be in the most visible state for the user.
  • artificial intelligence artificial intelligence
  • FIG. 14 is a diagram showing an example of a menu screen output to the front panel 17 of the display device 10A
  • FIG. 15 is a diagram showing an example of a website introduction information screen output to the front panel 17 of the display device 10A.
  • FIG. 16 is a diagram showing an example of an online medical care screen output on the front panel 17 of the display device 10A. In FIGS. 14 to 16, the columns 37 and the stand 39 are not shown.
  • the use of the website will be described by exemplifying the display device 10A, but the use of the website by the display device 10B is the same as that of the display device 10A.
  • a standby screen (not shown) is output (displayed) on the front panel 17 of the display body 11.
  • a terrestrial digital broadcasting icon, a BS digital broadcasting icon, a CS digital broadcasting icon, a game icon, a display system icon, and an OFF button are output (displayed) on the standby screen.
  • the OFF button is tapped (clicked), a message indicating OFF is sounded, or the OFF button on the remote controller is pressed, the display device 10A is turned off and the display device 10A is stopped (the same applies to the following OFF buttons). ).
  • the display device 10A By tapping (clicking) the terrestrial digital broadcasting icon, BS digital broadcasting icon, or CS digital broadcasting icon, or by sounding a message indicating the broadcasting icon and determining the broadcasting icon with the remote control, the display device 10A (display device 10B) can be operated. (Including) allows you to watch various broadcasts. By tapping (clicking) the game icon, pronouncing a message indicating the game icon, or determining the game icon with the remote control, various games can be played by the display device 10A (including the display device 10B). .. A series of operations (broadcast channel change, volume, playback, recording, etc.) of the display device 10A (including the display device 10B) can be performed by voice or a remote controller (not shown).
  • the menu screen shown in FIG. 14 is output (displayed) on the front panel 17 of the display body 11.
  • a website introduction icon 14a a request item display icon 14b, an IOT icon 14c, a translation icon 14d, and an OFF button 14e are output (displayed).
  • the user taps the website introduction icon 14a, sounds a message indicating the website introduction icon 14a, or determines the website introduction icon 14a by the remote control.
  • a request input screen is output (displayed) on the front panel 17 of the display body 11 (not shown).
  • a request item input area for inputting a request item (keyword), a request item determination button, a clear button, and an OFF button are output (displayed). Tap (click) the clear button to clear the request (data) entered in the input area and enter the data again (the same applies to the clear button below).
  • the user inputs a predetermined request in the request input area, and then taps the request decision button. Or, pronounce a message indicating a predetermined request.
  • the request message pronounced by the user is collected by the microphone 25, and the electric signal of the request (keyword) is transmitted to the controller (voice sound collecting means).
  • the request is "online medical treatment” or "remote diagnosis”.
  • the controller cloud server 36 or physical server
  • the front panel 17 displays the introduction information of various websites received from other servers using the Internet (communication means) (site introduction information receiving means) and received from other servers by the website introduction information receiving means.
  • Output (display) website introduction information output means).
  • the controller (cloud server 36 or physical server) outputs (displays) the website introduction information screen shown in FIG. 15 to the front panel 17.
  • the website output areas 15a to 15d, the OFF button 15e, and the menu button 15f that output (display) the websites (homepages) of various medical institutions capable of online medical treatment are output.
  • the menu button 15f is tapped (clicked) or a message indicating a menu is pronounced
  • the menu screen of FIG. 14 is output (displayed) on the front panel 17 (the same applies to the following menu buttons and menu messages).
  • the user taps (selects) the desired medical institution from the medical institution's website (homepage) output (displayed) on the website introduction information screen of FIG. 15, or sounds a message indicating the desired medical institution.
  • the controller cloud server 36 or physical server
  • the website (homepage) of the medical institution is output to the front panel 11 (website output means), and the procedure for online medical treatment is started. When the prescribed procedure is completed, online medical treatment will start.
  • the controller photographs the user using the digital camera 24 (imaging means), and captures the image data of the user captured by the photographing means. It is transmitted to a server (other server) of a medical institution using the Internet (communication means) (image data transmission means).
  • a user's image moving image or 3D image
  • a display connected to a server of a medical institution.
  • the controller uses the Internet (communication means) to transfer the image data of the doctor (third party) who faces the user via the display device 10A to the server (other) of the medical institution.
  • the image (video or 3D image) of the doctor (third party) received from the server) (image data receiving means) and received by the image data receiving means is output (displayed) on the front panel 17 of the display device 10A (image data).
  • Output means The online medical treatment screen shown in FIG. 16 is output (displayed) on the front panel 17, and online medical treatment is started. On the online medical examination screen of FIG.
  • a doctor video output area 16a for outputting (displaying) a video of a doctor at a medical institution
  • a comment output area 16b for outputting (displaying) a doctor's comment during a medical examination
  • an OFF button 16c for outputting (displaying) a doctor's comment during a medical examination
  • an OFF button 16c for outputting (displaying) a doctor's comment during a medical examination
  • an OFF button 16c for outputting (displaying) a doctor's comment during a medical examination
  • an OFF button 16c for outputting (displaying) a doctor's comment during a medical examination
  • an OFF button 16c for outputting (displaying) a doctor's comment during a medical examination
  • an OFF button 16c for outputting (displaying) a doctor's comment during a medical examination
  • an OFF button 16c for outputting (displaying) a doctor's comment during a medical examination
  • an OFF button 16c for outputting (displaying) a doctor's comment during a medical examination
  • the controller (cloud server 36 or physical server) outputs (displays) the video of the doctor on the front panel 17 of the display device 10A, and collects the user's voice using the microphone 25 (the sound of the user is collected (displayed).
  • the voice data of the user collected by the voice collecting means) and the voice collecting means is transmitted to the server (other server) of the medical institution using the Internet (communication means) (voice data transmitting means).
  • the controller (cloud server 36 or physical server) receives voice data of a doctor (third party) interacting with the user via the display device 10A from another server using the Internet (communication means) ( (Voice data receiving means), the voice of a doctor (third party) received by the voice data receiving means is pronounced (output) by using the speaker 29 (voice output means).
  • the display device 10A and the server of the medical institution are connected via the Internet (communication means), and face-to-face medical care is performed by images and voice between the user and the doctor of the medical institution.
  • the display device 10A (including the display device 10B) is used not only for online medical treatment, but also for online classes, online seminars, online English conversation, online classes (cooking classes, tea classes, flower classes, writing classes, fitness, etc.). You can do anything that is done in. Further, the display device 10A (including the display device 10B) can output (display) any website corresponding to the user's request.
  • the display device 10A (including the display device 10B) outputs (displays) website introduction information of various websites corresponding to the requests pronounced by the user to the front panel 17, and is desired by the user.
  • the website introduction information can be output (displayed) on the front panel 17 only by voice, and the specified website can be output (displayed) on the front panel 17, and the desired website requested by voice can be confirmed. By doing so, the user can obtain various information that is useful to him / herself.
  • FIG. 17 is a diagram showing an example of a request-related site introduction information screen output to the front panel 17 of the display device 10A.
  • the support column 38 and the stand 39 are not shown.
  • the output of the required items will be described by exemplifying the display device 10A, but the output of the requested items by the display device 10B is also the same as that of the display device 10A.
  • the user taps the request display icon 14b on the menu screen of FIG. 14, or sounds a message indicating the request display icon 14b, or
  • the request item display icon 14b is determined by the remote controller.
  • a request item input screen is output (displayed) on the front panel 17 of the display body 11 (not shown).
  • a request item input area for inputting a request item (keyword), a request item determination button, a clear button, and an OFF button are output (displayed).
  • the user inputs a predetermined request in the request input area, and then taps the request decision button. Or, pronounce a message indicating a predetermined request.
  • the request message pronounced by the user is collected by the microphone 25, and the electric signal of the request (keyword) is transmitted to the controller (voice sound collecting means).
  • the request is "sneaker shopping" or “sneaker shopping”.
  • the controller cloud server 36 or physical server
  • the controller is associated with various requests corresponding to the request with the request as a keyword.
  • Receive the site (various request-related data related to the request with the request as a keyword) from the servers (other servers) of various sneaker makers using the Internet (communication means) (request-related data reception).
  • request-related data Outputs the introduction information of various sneaker makers' sites (introduction information of various requests-related sites) received from the sneaker maker's server (other server) by the receiving means to the front panel 17.
  • (Display) Request related site introduction information output means).
  • the controller (cloud server 36 or physical server) outputs (displays) the request-related site introduction information screen shown in FIG. 17 to the front panel 17.
  • Requests in Fig. 17 On the related site introduction information screen, the website output areas 17a to 17d, the OFF button 17e, and the menu button that output (display) the websites (homepages) of various sneaker manufacturers that can shop for sneakers are displayed. 17f is output (displayed). By scrolling the request-related site introduction information screen in the vertical direction, the websites (homepages) of various other sneaker makers can be displayed.
  • the user taps (selects) the desired site (homepage) of the sneaker maker output (displayed) on the request-related site introduction information screen in Fig. 17, or sounds a message indicating the sneaker maker.
  • the controller cloud server 36 or physical server
  • the manufacturer's website (home page) (request-related data received by the request-related data receiving means) is output to the front panel 17 (request-related data output means). Users shop online on the sneaker manufacturer's website (homepage).
  • the display device 10A (including the display device 10B) can receive various request-related information related to (corresponding to) not only online shopping but also all other requests from other servers. Request-related information can be output (displayed) on the front panel 17.
  • the display device 10A (including the display device 10B) outputs (displays) various request-related information related to the request sounded (or input) by the user to the front panel 17, and is desired by the user.
  • Various request-related information can be output (displayed) on the front panel 17 only by voice (or input), and the user can check the desired request-related information requested by voice (or input) by himself / herself. You can get various information that is useful for you.
  • FIG. 18 is a diagram showing an example of a foreigner introduction information screen output to the front panel 17 of the display device 10A
  • FIG. 19 shows an example of an online dialogue screen output to the front panel 17 of the display device 10A. It is a figure. In FIGS. 18 and 19, the columns 37 and the stand 39 are not shown.
  • the online dialogue will be described by exemplifying the display device 10A, but the online dialogue by the display device 10B is also the same as that of the display device 10A.
  • a translation request input screen is output (displayed) on the front panel 17 of the display body 11 (not shown).
  • a translation request input area for inputting a translation request (keyword), a translation request determination button, a clear button, and an OFF button are output (displayed).
  • the user inputs a predetermined translation request in the translation request input area, and then taps the translation request determination button. Alternatively, pronounce a message indicating a predetermined translation request.
  • the translation request message pronounced by the user is collected by the microphone 25, and the electric signal of the translation request (keyword) is transmitted to the controller (voice sound collecting means).
  • the translation request is "translation into English”.
  • the controller cloud server 36 or physical server
  • the controller responds to the translation request with the translation request as a keyword in Japanese.
  • the controller (cloud server or physical server) translates Japanese into English using a translation application (translation means) and outputs the translated English to the Japanese ⁇ English translation screen (display). )do.
  • the controller uses the translation request as a keyword to connect various interactive foreigners (including the URL (contact information) of the foreigner (third party)) corresponding to the translation request to the Internet (communication means).
  • the referral information (URL) of various foreigners (third parties) received from other servers by using (foreigner referral information receiving means) and received from other servers by the foreigner referral information receiving means is displayed in front of the server.
  • the controller (cloud server 36 or physical server) outputs (displays) the foreigner introduction information screen shown in FIG. 18 to the front panel 17.
  • the foreigner output areas 18a to 18d, the OFF button 18e, and the menu button 18f that output (display) a plurality of interactive foreigners (third parties) are output (displayed).
  • a plurality of other foreigners (third parties) can be displayed.
  • the user taps (selects) the foreigner (URL) who wants to talk from the foreigner who is output (displayed) in the foreigner output areas 18a to 18d of the foreigner introduction information screen in FIG. 18, or the foreigner who wants to talk.
  • the controller cloud server 36 or physical server logs in to the specified (selected) foreigner's server for dialogue.
  • the image of the designated (selected) foreigner is output to the front panel 17 (foreigner output means), and the dialogue with the foreigner is started.
  • the controller (cloud server 36 or physical server) takes a picture of the user using the digital camera 24 (image taking means), and the image data of the user taken by the taking means is taken on the Internet. It is transmitted to the server (other server) of the foreigner to be interacted with by using (communication means) (image data transmission means).
  • a user's image moving image or 3D image
  • the controller uses the Internet (communication means) to transfer image data of a foreigner (third party) who faces the user via the display device 10A to the foreigner's server (other). (Image data receiving means), and outputs (displays) an image (video or 3D image) of a foreigner (third party) received by the image data receiving means on the front panel 17 of the display device 10A (display). Image data output means).
  • the online dialogue screen shown in FIG. 19 is output (displayed) on the front panel 17, and the dialogue is started. On the online dialogue screen of FIG.
  • the foreigner video output area 19a for outputting (displaying) the video of the foreigner to be dialogued
  • the conversation output area 19b for outputting (displaying) the conversation of the foreigner during the dialogue
  • the OFF button 19c for outputting (displaying) the conversation of the foreigner during the dialogue
  • Menu button 19d is output (displayed).
  • the controller (cloud server 36 or physical server) outputs (displays) the moving image of a foreigner on the front panel 17 of the display device 10A, and collects the user's voice using the microphone 25.
  • Voice collecting means the voice data of the user collected by the voice collecting means is translated into a language that can be heard by the foreigner to be interacted with by using the translation application (translation means).
  • the controller (cloud server 36 or physical server) transmits the user's voice data translated by the translation means to a foreign server (another server) using the Internet (communication means) (voice data transmission means). ).
  • the translated user's voice is output (pronounced) from a speaker connected to a foreigner's server.
  • the controller receives voice data of a foreigner (third party) interacting with the user via the display device 10A from another server using the Internet (communication means).
  • voice data receiving means the voice data of a foreigner received by the voice data receiving means is translated into a language that can be heard by the user using a translation application (translation means).
  • the controller (cloud server 36 or physical server) outputs (pronounces) the voice of a foreigner translated by the translation means using the speaker 29 (voice output means).
  • the translated voice of the user in a foreign language is output (displayed) in chronological order
  • the translated voice of the foreigner is output (displayed) in chronological order.
  • the display device 10A and the foreigner's server are connected via the Internet (communication means), a face-to-face dialogue is performed between the user and the foreigner by image and voice, and both can be understood by the translation means.
  • the display device 10A (including the display device 10B) translates all foreign information into a language that can be understood by the user, not only by online dialogue but also by translation means.
  • the display device 10A (including the display device 10B) translates the voice of the user and the voice of a foreigner (third party) into a predetermined language, and uses the speaker 29 to translate the voice of the user and the voice of the foreigner. It is possible to communicate with foreigners in different languages through dialogue, convey various useful information to foreigners in other countries, and obtain various useful information from foreigners in other countries. Can be done.
  • FIG. 20 is a diagram showing an example of an IOT target device selection screen output to the front panel 17 of the display device 10A.
  • the support column 37 and the stand 39 are not shown.
  • the operation of the electric appliances by the IOT Internet of Things
  • the operation of the electric appliances by the IOT in the display device 10B is also the same as that of the display device 10A.
  • the controller (cloud server 36 or physical server) displays the IOT target device selection screen shown in FIG. 20 on the front panel 17 of the display body 11. Output (display) to.
  • the IOT target device output area 20a, the OFF button 20b, and the menu button 20c that output (display) the IOT target device are output (displayed).
  • the IOT target device output area 20a refrigerators, air conditioners, washing machines, water heaters, lighting equipment, and cleaning robots are output (displayed) as target devices (electric appliances), but the target devices (electric appliances) are.
  • the target equipment (electrical appliances) includes all electrical equipment that can be operated by IOT.
  • the user taps an electric appliance (target device) operated by IOT from the output area 20a of the IOT target device, sounds a message indicating the IOT target device (for example, a refrigerator, an air conditioner, etc.), or uses a remote controller to perform IOT. Determine the target device.
  • an electric appliance (target device) is tapped or pronounced (sound collected by voice collecting means) or determined
  • the electric device identification information of the electric appliance tapped or pronounced or determined is transmitted from the controller to the cloud server 36 (or physical server). Will be sent to.
  • the cloud server 36 (or a physical server) identifies the IOT target device by the electrical device identification information, and selects a process (job) instructing the identified IOT target device.
  • the cloud server 36 (or a physical server) sends the selected process to the electric appliance (target device) using the Internet, and causes the electric appliance to execute the selected process (process execution means).
  • the electric appliance executes each process transmitted from the cloud server 36 (or a physical server) via the Internet.
  • the process of having the refrigerator run by IOT includes door opening / closing management, family safety confirmation based on the opening / closing of the door, a message function to pronounce a message from the refrigerator, and remote control of the refrigerator temperature.
  • the process of causing the air conditioner to be executed by IOT includes remote control of air conditioner switch ON / OFF, remote control of wind speed and temperature, timer setting by remote control, mode switching by remote control, and the like.
  • the process of causing the washing machine to be executed by the IOT includes remote control of the washing machine switch ON / OFF, setting of a course suitable for the laundry, confirmation of the washing status, and the like.
  • the process of causing the water heater to be executed by IOT includes remote control of the switch ON / OFF of the water heater, remote control of temperature, remote control of the amount of water, and the like.
  • the process of causing the luminaire to be executed by the IOT includes remote control of the switch ON / OFF of the luminaire, remote control of the brightness of the luminaire, dimming of the luminaire, and the like.
  • the process of causing the cleaning robot to execute by IOT includes remote control of the switch ON / OFF of the cleaning robot, remote control of the output of the cleaning robot, and the like.
  • the display device 10A (including the display device 10B) causes the electric equipment (refrigerator, air conditioner, washing machine, water heater, lighting equipment, cleaning robot) to execute a predetermined process corresponding to the command by the IOT, the user can use it.
  • Various desired processes can be executed by the electric appliance via the IOT, and the electric appliance can be operated by remote control using the IOT.
  • Motion sensor Motion sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Collating Specific Patterns (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】画像データを双方向に送受信することができ、他のサーバから各種の画像情報を取得することができるとともに、他のサーバに各種の画像情報を提供することができるディスプレイ装置を提供する。 【解決手段】ディスプレイ装置10Aでは、正面パネル17に向かい合う利用者を撮影するデジタルカメラ24が第1延出部材12aに設置されている。ディスプレイ装置10Aは、インターネットを利用して他のサーバと所定のデータを送受信可能な通信手段と、デジタルカメラ24を利用して利用者を撮影する画像撮影手段と、撮影手段によって撮影した利用者の画像データを通信手段を利用して他のサーバに送信する画像データ送信手段と、利用者とディスプレイ装置10Aを介して対面する第三者の画像データを通信手段を利用して他のサーバから受信する画像データ受信手段と、画像データ受信手段によって受信した第三者の画像を正面パネル17に出力する画像データ出力手段とを有する。

Description

ディスプレイ装置
 本発明は、正面パネルに所定の画像を出力するディスプレイ装置に関する。
 処理装置と、処理装置に接続されて処理装置に複数の画像を生成するように構成されたカメラと、処理装置に接続されて処理装置によって出力された第1のシーンを表示するように構成されたディスプレイ装置と、処理装置に接続されて対話型ディスプレイのプロセスを記憶し、処理装置に指示して対話型ディスプレイのプロセスを実行するように構成されたメモリ装置とを有し、カメラによって撮影された複数の画像に対応する複数のジェスチャを判定する判定手段と、複数のジェスチャのうちのジェスチャの所定の組合せを第1のコマンドとして解釈する解釈手段と、第1のコマンドに応答して第1のシーンを出力するシーン出力手段とを含む対話型ディスプレイシステムが開示されている(特許文献1参照)。対話型ディスプレイシステムは、利用者によって実行される所定のジェスチャの組合せを検出し、対話型ディスプレイシステムに指示して利用者に応答することができ、入力装置にデータを入力することなく、利用者が対話型ディスプレイシステムと対話することができる。
特開2020-52991号公報
 前記特許文献1に開示の対話型ディスプレイシステムは、カメラが撮影した画像データやマイクロフォンが集音した音声データを他のサーバに送信することがないから、カメラが撮影した画像を他のサーバのディスプレイに出力(表示)させることができず、マイクロフォンが集音した音声を他のサーバのスピーカーから出力させることができない。又、他のサーバから所定の画像データを受信することはないから、他のサーバから受信した画像をディスプレイに出力(表示)することができず、他のサーバから所定の音声データを受信することはないから、他のサーバから受信した音声をスピーカーから出力(表示)することができない。対話型ディスプレイシステムは、他のサーバ(第三者)から各種の画像情報や音声情報を取得することができず、他のサーバ(第三者)に各種の画像情報や音声情報を提供することができない。更に、ディスプレイがその中心を軸として時計回り方向と半時計回り方向とへ回転することはなく、ディスプレイが上下方向へ上下動することはなく、ディスプレイが支柱を中心として支柱の左回り方向と右回り方向とへ回転することはないから、ディスプレイを利用者が最も見易い位置に自動的に動かすことができず、利用者の位置にかかわらず、ディスプレイを利用者が最も見易い状態にすることができない。
 本発明の目的は、画像データや音声データを双方向に送受信することができ、他のサーバ(第三者)から各種の画像情報や音声情報を取得することができるとともに、他のサーバ(第三者)に各種の画像情報や音声情報を提供することができるディスプレイ装置を提供することにある。本発明の他の目的は、利用者がどの位置にいたとしても、正面パネルを利用者が最も見易い位置に自動的に動かすことができ、正面パネルを利用者が最も見易い状態にすることができるディスプレイ装置を提供することにある。
 前記課題を解決するための本発明の前提は、互いに並行して一方向へ延びる第1及び第2端縁と、互いに並行して前記一方向と交差する交差方向へ延びる第1及び第2側縁と、それら端縁及びそれら側縁に囲繞された正面パネル及び背面エリアとを有し、一方向又は交差方向へ長い所定面積の矩形に成形されて正面パネルに所定の画像を出力するディスプレイ装置である。
 前記前提における本発明の特徴は、ディスプレイ装置が、第1端縁から径方向外方へ凸となるように円弧を画く第1外周縁を備えた所定面積の第1延出部と、第2端縁から径方向外方へ凸となるように円弧を画く第2外周縁を備えた所定面積の第2延出部と、第1側縁から径方向外方へ凸となるように円弧を画く第3外周縁を備えた所定面積の第3延出部と、第2側縁から径方向外方へ凸となるように円弧を画く第4外周縁を備えた所定面積の第4延出部とを有し、正面パネルに向かい合う物体を撮影するカメラが、第1~第4延出部のうちの少なくとも1つの延出部に設置され、ディスプレイ装置が、所定のネットワークを利用して他のサーバと所定のデータを送受信可能な通信手段と、カメラを利用して物体を撮影する画像撮影手段と、撮影手段によって撮影した物体の画像データを通信手段を利用して他のサーバに送信する画像データ送信手段と、利用者とディスプレイ装置を介して対面する物体の画像データを通信手段を利用して他のサーバから受信する画像データ受信手段と、画像データ受信手段によって受信した物体の画像を正面パネルに出力する画像データ出力手段とを有することにある。
 本発明の一例としては、カメラによって撮影される物体が、ディスプレイ装置の利用者であり、利用者とディスプレイ装置を介して対面する物体が、利用者とディスプレイ装置を介して対話する第三者であり、撮影手段が、カメラを利用して利用者を撮影し、画像データ送信手段が、撮影手段によって撮影した利用者の画像データを通信手段を利用して他のサーバに送信し、画像データ受信手段が、第三者の画像データを通信手段を利用して他のサーバから受信し、画像データ出力手段が、画像データ受信手段によって受信した第三者の画像を正面パネルに出力する。
 本発明の他の一例としては、ディスプレイの正面パネルに向かい合う利用者の音声を集音するマイクロフォンが、第1~第4延出部のうちの少なくとも1つの延出部に設置され、所定の音を発音するスピーカーが、第1~第4延出部のうちの少なくとも1つの延出部に設置され、ディスプレイ装置が、マイクロフォンを利用して利用者の音声を集音する音声集音手段と、音声集音手段によって集音した利用者の音声データを通信手段を利用して他のサーバに送信する音声データ送信手段と、ディスプレイ装置を介して利用者と対話する第三者の音声データを通信手段を利用して他のサーバから受信する音声データ受信手段と、音声データ受信手段によって受信した第三者の音声をスピーカーを利用して出力する音声出力手段とを含む。
 本発明の他の一例としては、ディスプレイ装置が、利用者が発音した要望事項を音声集音手段によって集音した場合、要望事項をキーワードとして要望事項に対応する各種複数のウェブサイトのウェブサイト紹介情報を通信手段を利用して他のサーバから受信するウェブサイト紹介情報受信手段と、ウェブサイト紹介情報受信手段によって受信したウェブサイト紹介情報を正面パネルに出力するウェブサイト紹介情報出力手段と、ウェブサイト紹介情報出力手段によって出力された各種複数のウェブサイトから所定のウェブサイトを指定したときに、指定したウェブサイトを正面パネルに出力するウェブサイト出力手段とを含む。
 本発明の他の一例としては、ディスプレイ装置が、利用者が発音した要望事項を音声集音手段によって集音した場合、要望事項をキーワードとして要望事項に関連する各種の要望事項関連情報を通信手段を利用して他のサーバから受信する要望事項関連情報受信手段と、要望事項関連情報受信手段によって受信した要望事項関連情報を正面パネルに出力する要望事項関連情報出力手段とを含む。
 本発明の他の一例としては、ディスプレイ装置が、利用者が発音した音声及び他のサーバから受信した第三者の音声を所定の言語に翻訳する翻訳手段と、翻訳手段によって翻訳した利用者の音声及び第三者の音声をスピーカーを利用して出力する翻訳音声出力手段とを含む。
 本発明の他の一例としては、利用者が所定の電気機器にIOTによって所定のプロセスを実行させるコマンドをディスプレイ装置を介して入力した場合、コマンドに対応する所定のプロセスを通信手段を利用して電気機器に送信しつつ、所定のプロセスを電気機器に実行させるプロセス実行手段を含む。
 本発明の他の一例としては、正面パネルの前方に人が位置したときにその人を検知する人感センサが、第1~第4延出部のうちの少なくとも1つの延出部に設置され、ディスプレイ装置が、人感センサによって人を検知した場合、ディスプレイ装置を起動させるディスプレイ第1起動手段と、人感センサが人を検知した後、人が検知されなくなった場合、起動させたディスプレイ装置を停止させるディスプレイ第1停止手段とを含む。
 本発明の他の一例としては、ディスプレイ装置が、ディスプレイ第1起動手段によって起動した後、撮影手段によって正面パネルの前方に位置する人を撮影しつつ、撮影した人の画像データと予め記憶した利用者の画像データとを比較する画像データ第1比較手段を含み、撮影した人の画像と記憶した利用者の画像とを画像データ第1比較手段によって比較した結果、撮影した人の画像と記憶した利用者の画像とが異なる場合、ディスプレイ第1停止手段を実施する。
 本発明の他の一例としては、ディスプレイ装置が、利用者が発音した起動メッセージを音声集音手段によって集音した場合、集音した利用者の起動メッセージの音声と予め記憶した利用者の音声とを比較する音声第1比較手段と、起動メッセージの音声と記憶した利用者の音声とを音声第1比較手段によって比較した結果、起動メッセージの音声と記憶した利用者の音声とが同一である場合、ディスプレイ装置を起動させるディスプレイ第2起動手段と、利用者が発音した停止メッセージを音声集音手段によって集音した場合、起動させたディスプレイ装置を停止させるディスプレイ第2停止手段とを含む。
 本発明の他の一例としては、正面パネルから前方を照らす照明が、第1~第4延出部のうちの少なくとも1つの延出部に設置され、ディスプレイ装置の周辺の光を検知する光検知センサが、第1~第4延出部のうちの少なくとも1つの延出部に設置され、ディスプレイ装置が、人感センサによって人を検知した場合であって、光検知センサがディスプレイ装置の周辺の光を感知しない場合、照明を起動させる照明第1起動手段と、人感センサによって人を検知しない場合、又は、光検知センサがディスプレイ装置の周辺の光を感知した場合、起動させた照明を消灯させる照明第1消灯手段とを含む。
 本発明の他の一例としては、ディスプレイ装置が、照明第1起動手段によって照明を起動した後、撮影手段によって正面パネルの前方に位置する人を撮影しつつ、撮影した人の画像データと予め記憶した利用者の画像データとを比較する画像データ第2比較手段を含み、撮影した人の画像と記憶した利用者の画像とを画像データ第2比較手段によって比較した結果、撮影した人の画像と記憶した利用者の画像とが異なる場合、照明第1停止手段を実施する。
 本発明の他の一例としては、ディスプレイ装置が、利用者が発音した照明起動メッセージを音声集音手段によって集音した場合、集音した利用者の照明起動メッセージの音声と予め記憶した利用者の音声とを比較する音声第2比較手段と、照明起動メッセージの音声と記憶した利用者の音声とを音声第2比較手段によって比較した結果、照明起動メッセージの音声と記憶した利用者の音声とが同一である場合、照明を起動させる照明第2起動手段と、利用者が発音した照明停止メッセージを音声集音手段によって集音した場合、起動させた照明を消灯させる照明第2消灯手段とを含む。
 本発明の他の一例としては、ディスプレイ装置が、背面エリアに設置されて上下方向へ延びる支柱を含み、支柱に沿って上下方向上方と上下方向下方とへ上下動可能であり、支柱を中心として支柱の右回り方向と左回り方向とへ回転可能であるとともに、ディスプレイ装置の中心部を軸として時計回り時方向と半時計回り方向とへ旋回可能であり、ディスプレイ装置は、正面パネルを視認する利用者の顔面姿勢に対する適応性の程度を推定するための機械学習を行った学習済み学習モデルに、画像撮影手段によって撮影された利用者の顔面の画像データを入力することで、正面パネルを視認する利用者の顔面姿勢の適応性の程度を示す適応性スコアを学習モデルから取得する適応性推定手段と、適応性推定手段によって取得した適応性スコアが所定の条件を満たすように、ディスプレイ装置を自動的に上下動させ又は回転させ或いは旋回させるディスプレイ可動手段とを含む。
 本発明に係るディスプレイ装置によれば、第1端縁から径方向外方へ凸となるように円弧を画く第1外周縁を備えた所定面積の第1延出部と、第2端縁から径方向外方へ凸となるように円弧を画く第2外周縁を備えた所定面積の第2延出部と、第1側縁から径方向外方へ凸となるように円弧を画く第3外周縁を備えた所定面積の第3延出部と、第2側縁から径方向外方へ凸となるように円弧を画く第4外周縁を備えた所定面積の第4延出部とを有し、正面パネルに向かい合う物体を撮影するカメラが第1~第4延出部のうちの少なくとも1つの延出部に設置され、所定のネットワークを利用して他のサーバと所定のデータを送受信可能な通信手段と、カメラを利用して物体を撮影する画像撮影手段と、撮影手段によって撮影した物体の画像データを通信手段を利用して他のサーバに送信する画像データ送信手段と、利用者とディスプレイ装置を介して対面する物体の画像データを通信手段を利用して他のサーバから受信する画像データ受信手段と、画像データ受信手段によって受信した物体の画像を正面パネルに出力する画像データ出力手段とを有し、カメラによって撮影した物体の画像データを通信手段を利用して他のサーバに送信し、物体の画像データを通信手段を利用して他のサーバから受信することで、所定の物体の画像データを他のサーバとの間で双方向に送受信することができ、他のサーバ(第三者)から各種の画像情報を取得・出力(表示)することができ、他のサーバ(第三者)に各種の画像情報を提供することができる。
 カメラによって撮影される物体がディスプレイ装置の利用者であり、利用者とディスプレイ装置を介して対面する物体が利用者とディスプレイ装置を介して対話する第三者であり、撮影手段がカメラを利用して利用者を撮影し、画像データ送信手段が撮影手段によって撮影した利用者の画像データを通信手段を利用して他のサーバに送信し、画像データ受信手段が第三者の画像データを通信手段を利用して他のサーバから受信し、画像データ出力手段が画像データ受信手段によって受信した第三者の画像を正面パネルに出力するディスプレイ装置は、カメラによって撮影した利用者の画像データを通信手段を利用して他のサーバに送信し、第三者の画像データを通信手段を利用して他のサーバから受信することで、利用者や第三者の画像データを他のサーバとの間で双方向に送受信することができ、他のサーバ(第三者)から第三者の画像情報を取得・出力(表示)することができ、他のサーバ(第三者)に利用者の画像情報を提供することができる。
 ディスプレイの正面パネルに向かい合う利用者の音声を集音するマイクロフォンが第1~第4延出部のうちの少なくとも1つの延出部に設置され、所定の音を発音するスピーカーが第1~第4延出部のうちの少なくとも1つの延出部に設置され、マイクロフォンを利用して利用者の音声を集音する音声集音手段と、音声集音手段によって集音した利用者の音声データを通信手段を利用して他のサーバに送信する音声データ送信手段と、ディスプレイ装置を介して利用者と対話する第三者の音声データを通信手段を利用して他のサーバから受信する音声データ受信手段と、音声データ受信手段によって受信した第三者の音声をスピーカーを利用して出力(発音)する音声出力手段とを含むディスプレイ装置は、マイクロフォンによって集音した利用者の音声データを通信手段を利用して他のサーバに送信し、第三者の音声データを通信手段を利用して他のサーバから受信することで、利用者や第三者の音声データを他のサーバとの間で双方向に送受信することができ、他のサーバ(第三者)から各種の音声情報を取得・出力(表示)することができるとともに、他のサーバ(第三者)に各種の音声情報を提供することができる。
 利用者が発音した要望事項を音声集音手段によって集音した場合、要望事項をキーワードとして要望事項に対応する各種複数のウェブサイトのウェブサイト紹介情報を通信手段を利用して他のサーバから受信するウェブサイト紹介情報受信手段と、ウェブサイト紹介情報受信手段によって受信したウェブサイト紹介情報を正面パネルに出力するウェブサイト紹介情報出力手段と、ウェブサイト紹介情報出力手段によって出力された各種複数のウェブサイトから所定のウェブサイトを指定したときに、指定したウェブサイトを正面パネルに出力するウェブサイト出力手段とを含むディスプレイ装置は、利用者が発音した要望事項に対応する各種複数のウェブサイトのウェブサイト紹介情報を正面パネルに出力(表示)することで、利用者が所望するウェブサイト紹介情報を音声だけで正面パネルに出力(表示)させることができるとともに、指定したウェブサイトを正面パネルに出力(表示)させることができ、音声によって要望した所望のウェブサイトを確認することで利用者が自己にとって有益な各種情報を得ることができる。
 利用者が発音した要望事項を音声集音手段によって集音した場合、要望事項をキーワードとして要望事項に関連する各種の要望事項関連情報を通信手段を利用して他のサーバから受信する要望事項関連情報受信手段と、要望事項関連情報受信手段によって受信した要望事項関連情報を正面パネルに出力する要望事項関連情報出力手段とを含むディスプレイ装置は、利用者が発音した要望事項に関連する各種の要望事項関連情報を正面パネルに出力(表示)することで、利用者が所望する各種の要望事項関連情報を音声だけで正面パネルに出力(表示)させることができ、音声によって要望した所望の要望事項関連情報を確認することで利用者が自己にとって有益な各種情報を得ることができる。
 利用者が発音した音声及び他のサーバから受信した第三者の音声を所定の言語に翻訳する翻訳手段と、翻訳手段によって翻訳した利用者の音声及び第三者の音声をスピーカーを利用して出力する翻訳音声出力手段とを含むディスプレイ装置は、利用者の音声及び第三者の音声を所定の言語に翻訳し、翻訳した利用者の音声及び第三者の音声をスピーカーを利用して出力するから、言語が異なる各国の外国人と対話によってコミュニケーションを取ることができ、他国の第三者に有益な各種情報を伝えることができ、他国の第三者から有益な各種情報を得ることができる。
 利用者が所定の電気機器にIOTによって所定のプロセスを実行させるコマンドをディスプレイ装置を介して入力した場合、コマンドに対応する所定のプロセスを通信手段を利用して電気機器に送信しつつ、所定のプロセスを電気機器に実行させるプロセス実行手段を含むディスプレイ装置は、IOTによってコマンドに対応する所定のプロセスを電気機器に実行させるから、利用者が所望する各種のプロセスをIOTを介して電気機器に実行させることができ、IOTを利用して電気機器を遠隔操作によって稼働させることができる。
 正面パネルの前方に人が位置したときにその人を検知する人感センサが第1~第4延出部のうちの少なくとも1つの延出部に設置され、人感センサによって人を検知した場合、ディスプレイ装置を起動させるディスプレイ第1起動手段と、人感センサが人を検知した後、人が検知されなくなった場合、起動させたディスプレイ装置を停止させるディスプレイ第1停止手段とを含むディスプレイ装置は、人感センサが正面パネルの前方の人の有無を検知し、人感センサによって人が検知された場合、自動でディスプレイ装置を起動させることができ、人感センサによって人が検知されなくなった場合、起動させたディスプレイ装置を自動で停止させることができ、人感センサを利用してディスプレイ装置の発停を自動で行うことができる。
 ディスプレイ第1起動手段によって起動した後、撮影手段によって正面パネルの前方に位置する人を撮影しつつ、撮影した人の画像データと予め記憶した利用者の画像データとを比較する画像データ第1比較手段を含み、撮影した人の画像と記憶した利用者の画像とを画像データ第1比較手段によって比較した結果、撮影した人の画像と記憶した利用者の画像とが異なる場合、ディスプレイ第1停止手段を実施するディスプレイ装置は、ディスプレイ装置の利用者と撮影した人とが異なる場合、起動させたディスプレイ装置を停止させるから、正当な利用者のみにディスプレイ装置を利用させることができ、ディスプレイ装置の不正な利用を防ぐことができる。
 利用者が発音した起動メッセージを音声集音手段によって集音した場合、集音した利用者の起動メッセージの音声と予め記憶した利用者の音声とを比較する音声第1比較手段と、起動メッセージの音声と記憶した利用者の音声とを音声第1比較手段によって比較した結果、起動メッセージの音声と記憶した利用者の音声とが同一である場合、ディスプレイ装置を起動させるディスプレイ第2起動手段と、利用者が発音した停止メッセージを音声集音手段によって集音した場合、起動させたディスプレイ装置を停止させるディスプレイ第2停止手段とを含むディスプレイ装置は、起動メッセージの音声と記憶した利用者の音声とを比較し、起動メッセージの音声と記憶した利用者の音声とが同一である場合、ディスプレイ装置を起動させるから、利用者の音声だけでディスプレイ装置を起動させることができるのみならず、起動メッセージの音声と記憶した利用者の音声とが異なる場合、ディスプレイ装置が起動することはないから、正当な利用者のみがディスプレイ装置を起動させることができ、ディスプレイ装置の不正な利用を防ぐことができる。ディスプレイ装置は、利用者が発音した停止メッセージによってディスプレイ装置を自動で停止させることができ、利用者の音声によってディスプレイ装置の発停を自動で行うことができる。
 正面パネルから前方を照らす照明が第1~第4延出部のうちの少なくとも1つの延出部に設置され、ディスプレイ装置の周辺の光を検知する光検知センサが第1~第4延出部のうちの少なくとも1つの延出部に設置され、人感センサによって人を検知した場合であって、光検知センサがディスプレイ装置の周辺の光を感知しない場合、照明を起動させる照明第1起動手段と、人感センサによって人を検知しない場合、又は、光検知センサがディスプレイ装置の周辺の光を感知した場合、起動させた照明を消灯させる照明第1消灯手段とを含むディスプレイ装置は、人感センサが正面パネルの前方の人の有無を検知し、人感センサによって人が検知された場合であって、光検知センサがディスプレイ装置の周辺の光を検知し、光検知センサによって光が感知されない場合、自動で照明を起動させることができ、人感センサによって人が検知されない場合、又は、光検知センサによって光が感知された場合、起動させた照明を自動で消灯させることができ、人感センサや光検知センサを利用して照明の発停を自動で行うことができる。
 照明第1起動手段によって照明を起動した後、撮影手段によって正面パネルの前方に位置する人を撮影しつつ、撮影した人の画像データと予め記憶した利用者の画像データとを比較する画像データ第2比較手段を含み、撮影した人の画像と記憶した利用者の画像とを画像データ第2比較手段によって比較した結果、撮影した人の画像と記憶した利用者の画像とが異なる場合、照明第1停止手段を実施するディスプレイ装置は、ディスプレイ装置の利用者と撮影した人とが異なる場合、起動させた照明を停止させるから、正当な利用者のみに照明を含むディスプレイ装置を利用させることができ、照明を含むディスプレイ装置の不正な利用を防ぐことができる。
 利用者が発音した照明起動メッセージを音声集音手段によって集音した場合、集音した利用者の照明起動メッセージの音声と予め記憶した利用者の音声とを比較する音声第2比較手段と、照明起動メッセージの音声と記憶した利用者の音声とを音声第2比較手段によって比較した結果、照明起動メッセージの音声と記憶した利用者の音声とが同一である場合、照明を起動させる照明第2起動手段と、利用者が発音した照明停止メッセージを音声集音手段によって集音した場合、起動させた照明を消灯させる照明第2消灯手段とを含むディスプレイ装置は、照明起動メッセージの音声と記憶した利用者の音声とを比較し、照明起動メッセージの音声と記憶した利用者の音声とが同一である場合、照明を起動させるから、利用者の音声だけで照明を起動させることができるのみならず、照明起動メッセージの音声と記憶した利用者の音声とが異なる場合、照明が起動することはないから、正当な利用者のみが照明を含むディスプレイ装置を利用することができ、照明を含むディスプレイ装置の不正な利用を防ぐことができる。ディスプレイ装置は、利用者が発音した照明停止メッセージによって照明を自動で停止させることができ、利用者の音声によって照明の発停を自動で行うことができる。
 背面エリアに設置されて上下方向へ延びる支柱を含み、支柱に沿って上下方向上方と上下方向下方とへ上下動可能であり、支柱を中心として支柱の右回り方向と左回り方向とへ回転可能であるとともに、ディスプレイ装置の中心部を軸として時計回り時方向と半時計回り方向とへ旋回可能であり、正面パネルを視認する利用者の顔面姿勢に対する適応性の程度を推定するための機械学習を行った学習済み学習モデルに、画像撮影手段によって撮影された利用者の顔面の画像データを入力することで、正面パネルを視認する利用者の顔面姿勢の適応性の程度を示す適応性スコアを前記学習モデルから取得する適応性推定手段と、適応性推定手段によって取得した適応性スコアが所定の条件を満たすように、ディスプレイ装置を自動的に上下動させ又は回転させ或いは旋回させるディスプレイ可動手段とを含むディスプレイ装置は、人工知能により実施される適応性推定手段によって取得した適応性スコアが所定の条件を満たすように、ディスプレイ装置を自動的に上下動させ又は回転させ或いは旋回させるから、利用者がどの位置にいたとしても、正面パネルを視認する利用者が正面パネルを最も見易い位置にディスプレイ装置を自動で動かすことができ、正面パネルを利用者が最も見易い状態にすることができる。
一例として示すディスプレイ装置の斜視図。 図1のディスプレイ装置の正面図。 図1のディスプレイ装置の背面図。 図1のディスプレイ装置の側面図。 ディスプレイ本体から第1~第4延出部材を取り外した状態で示す分解図。 ディスプレイ装置が時計回り方向又は半時計回り方向へ旋回した状態を示す正面図。 ディスプレイ装置が支柱に沿って上下方向上方へ移動した状態を示す正面図。 ディスプレイ装置が支柱を中心として支柱の周り方向へ回転する状態を示す視図。 他の一例として示すディスプレイ装置の斜視図。 図9のディスプレイ装置の正面図。 図9のディスプレイ装置の背面図。 図9のディスプレイ装置の側面図。 第1~第4延出部をディスプレイ装置から取り外した状態で示す分解図。 ディスプレイ装置の正面パネルに出力されたメニュー画面の一例を示す図。 ディスプレイ装置の正面パネルに出力されたウェブサイト紹介情報画面の一例を示す図。 ディスプレイ装置の正面パネルに出力されたオンライン診療画面の一例を示す図。 ディスプレイ装置の正面パネルに出力された要望事項関連サイト紹介情報画面の一例を示す図。 ディスプレイ装置の正面パネルに出力された外国人紹介情報の一例を示す図。 ディスプレイ装置の正面パネルに出力されたオンライン対話画面の一例を示す図。 ディスプレイ装置の正面パネルに出力されたIOT対象機器選択画面の一例を示す図。
 一例として示すディスプレイ装置10Aの斜視図である図1等の添付の図面を参照し、本発明に係るディスプレイ装置の詳細を説明すると、以下のとおりである。尚、図2は、図1のディスプレイ装置10Aの正面図であり、図3は、図1のディスプレイ装置10Aの背面図である。図4は、図1のディスプレイ装置10Aの側面図であり、図5は、ディスプレイ装置10Aから第1~第4延出部材12a~12dを取り外した状態で示す分解図である。図6は、ディスプレイ装置10Aが時計回り方向又は半時計回り方向へ旋回した状態を示す正面図であり、図7は、ディスプレイ装置10Aが支柱37に沿って上下方向上方へ移動した状態を示す正面図である。図8は、ディスプレイ装置10Aが支柱37を中心として支柱37の周り方向へ回転する状態を示す視図である。図1では、上下方向を矢印Aで示し、幅方向を矢印Bで示す。図6では、旋回方向を矢印Cで示し、図8では、回転方向を矢印Dで示す。
 ディスプレイ装置10A(ディスプレイシステム)は、ディスプレイ本体11と、ディスプレイ本体11に取り付けられた第1~第4延出部材12a~12d(第1~第4延出部)とから形成されている。ディスプレイ本体11は、互いに並行して幅方向(一方向)へ延びる第1端縁13及び第2端縁14と、互いに並行して幅方向(一方向)と交差する上下方向(交差方向)へ延びる第1側縁15及び第2側縁16と、それら端縁13,14及びそれら側縁15,16に囲繞された正面パネル17及び背面エリア18とを有する。ディスプレイ本体11(正面パネル17及び背面エリア18)は、上下方向(交差方向)へ長い所定面積の矩形に成形されている。尚、ディスプレイ本体11(正面パネル17及び背面エリア18)が幅方向(一方向)へ長い所定面積の矩形に成形されていてもよい。ディスプレイ本体11の正面パネル17には、所定の画像が出力(表示)される。ディスプレイ本体11には、コントローラ(制御装置)(図示せず)が収容されている。
 第1延出部材12a(第1延出部)は、ディスプレイ本体11の第1端縁13に着脱可能に取り付けられている。第1延出部材12aは、第1端縁13に並行して幅方向(一方向)へ延びる第1内周縁19aと、第1内周縁19a(第1端縁13)から上下方向上方(径方向外方)へ凸となるように円弧を画く第1外周縁20aとを有する。第1延出部材12aは、その平面形状(正面形状)が幅方向へ長い三日月形に成形され、ディスプレイ本体11の第1端縁13から上下方向上方(径方向外方)へ延出している。
 第1延出部材12aは、その内部にデバイス収容スペース(図示せず)が形成されている。第1延出部材12aの前面開口21は、生地22(スピーカーグリルネット等の織物や編み物)によって被覆されている。第1延出部材12aの第1内周縁19aには、幅方向(一方向)へ延びる第1取付プレート23aが一体に繋がっている。第1延出部材12aは、第1取付プレート23aがディスプレイ本体11の第1端縁13に所定の取付手段(取付ボルトやビス等)によって固定されることで、ディスプレイ本体11の第1端縁13に設置される。
 第1延出部材12aのデバイス収容スペースには、デジタルカメラ24(カメラ)、マイクロフォン25、人感センサ26、光検知センサ27が収容されている。デジタルカメラ24は、その制御部がインターフェイスを介してコントローラに接続され、そのレンズが第1延出部材12aの前面開口21から前方へ向かい、正面パネル17の前方に位置した利用者や物体を撮影する。デジタルカメラ24の制御部は、撮影した画像データをコントローラに送信する。マイクロフォン25は、インターフェイスを介してコントローラに接続され、正面パネル17の前方に位置した利用者の音声を集音する。マイクロフォン25は、集音した音声データをコントローラに送信する。
 人感センサ26は、インターフェイスを介してコントローラに接続され、正面パネル17の前方に位置した人を感知する。人感センサ26は、人検知信号又は人非検知信号をコントローラに送信する。光検知センサ27は、インターフェイスを介してコントローラに接続され、ディスプレイ装置10Aの周辺の光を検知する。光検知センサ27は、光検知信号又は光非検知信号をコントローラに送信する。
 第2延出部材12b(第2延出部)は、ディスプレイ本体11の第2端縁14に着脱可能に取り付けられている。第2延出部材12bは、第2端縁14に並行して幅方向(一方向)へ延びる第2内周縁19bと、第2内周縁19b(第2端縁14)から上下方向下方(径方向外方)へ凸となるように円弧を画く第2外周縁20bとを有する。第2延出部材12bは、その平面形状(正面形状)が幅方向へ長い三日月形に成形され、ディスプレイ本体11の第2端縁14から上下方向下方(径方向外方)へ延出している。
 第2延出部材12bは、その内部にデバイス収容スペース(図示せず)が形成されている。第2延出部材12bの前面開口21は、生地22(スピーカーグリルネット等の織物や編み物)によって被覆されている。第2延出部材12bの第2内周縁19bには、幅方向(一方向)へ延びる第2取付プレート23bが一体に繋がっている。第2延出部材12bは、第2取付プレート23bがディスプレイ本体11の第2端縁14に所定の取付手段(取付ボルトやビス等)によって固定されることで、ディスプレイ本体11の第2端縁14に設置される。第2延出部材12bのデバイス収容スペースには、LED照明28(照明)が収容されている。LED照明28は、インターフェイスを介してコントローラに接続され、正面パネル17の前方を照らす。
 第3延出部材12c(第3延出部)は、ディスプレイ本体11の第1側縁15に着脱可能に取り付けられている。第3延出部材12cは、第1側縁15に並行して幅方向(一方向)へ延びる第3内周縁19cと、第3内周縁19c(第1側縁15)から幅方向外方(径方向外方)へ凸となるように円弧を画く第3外周縁20cとを有する。第3延出部材12cは、その平面形状(正面形状)が上下方向へ長い三日月形に成形され、ディスプレイ本体11の第1側縁15から幅方向外方(径方向外方)へ延出している。
 第3延出部材12cは、その内部にデバイス収容スペース(図示せず)が形成されている。第3延出部材12cの前面開口21は、生地22(スピーカーグリルネット等の織物や編み物)によって被覆されている。第3延出部材12cの第3内周縁19cには、幅方向(一方向)へ延びる第3取付プレート23cが一体に繋がっている。第3延出部材12cは、第3取付プレート23cがディスプレイ本体11の第1側縁15に所定の取付手段(取付ボルトやビス等)によって固定されることで、ディスプレイ本体11の第1側縁15に設置される。第3延出部材の12cデバイス収容スペースには、スピーカー29、LED照明28(照明)が収容されている。スピーカー29は、インターフェイスを介してコントローラに接続され、所定の音を発生する。LED照明28は、インターフェイスを介してコントローラに接続され、正面パネル17の前方を照らす。
 第4延出部材12d(第4延出部)は、ディスプレイ本体11の第2側縁16に着脱可能に取り付けられている。第4延出部材12dは、第2側縁16に並行して幅方向(一方向)へ延びる第4内周縁19dと、第4内周縁19d(第2側縁16)から幅方向外方(径方向外方)へ凸となるように円弧を画く第4外周縁20dとを有する。第4延出部材12dは、その平面形状(正面形状)が上下方向へ長い三日月形に成形され、ディスプレイ本体11の第2側縁16から幅方向外方(径方向外方)へ延出している。
 第4延出部材12dは、その内部にデバイス収容スペース(図示せず)が形成されている。第4延出部材12dの前面開口21は、生地22(スピーカーグリルネット等織物や編み物)によって被覆されている。第4延出部材12dの第4内周縁19dには、幅方向(一方向)へ延びる第4取付プレート23dが一体に繋がっている。第4延出部材12dは、第4取付プレート23dがディスプレイ本体11の第2側縁16に所定の取付手段(取付ボルトやビス等)によって固定されることで、ディスプレイ本体11の第2側縁16に設置される。第4延出部材12dのデバイス収容スペースには、スピーカー29、LED照明28(照明)が収容されている。スピーカー29は、インターフェイスを介してコントローラに接続され、所定の音を発生する。LED照明28は、インターフェイスを介してコントローラに接続され、正面パネル17の前方を照らす。
 ディスプレイ装置10Aでは、第1延出部材12a(第1延出部)の円弧を画く第1外周縁20aと第3延出部材12c(第3延出部)の円弧を画く第3外周縁20cとが第1仮想交差周縁30aにおいて繋がり、第1延出部材12aの円弧を画く第1外周縁20aと第4延出部材12d(第4延出部)の円弧を画く第4外周縁20dとが第2仮想交差周縁30bにおいて繋がっている。更に、第2延出部材12b(第2延出部)の円弧を画く第2外周縁20bと第3延出部材12cの円弧を画く第3外周縁20cとが第3仮想交差周縁30cにおいて繋がり、第2延出部材12bの円弧を画く第2外周縁20bと第4延出部材12dの円弧を画く第4外周縁20dとが第4仮想交差周縁30dにおいて繋がっている。
 ディスプレイ装置10Aでは、第1外周縁20aと第3外周縁20cとが第1仮想交差周縁30aを介して繋がり、第1外周縁20aと第4外周縁20dとが第2仮想交差周縁30bを介して繋がり、第2外周縁20bと第3外周縁20cとが第3仮想交差周縁30cを介して繋がるとともに、第2外周縁20bと第4外周縁20dとが第4仮想交差周縁30dを介して繋がることで、第1~第4延出部材12a~12dの第1~第4外周縁20a~20dと第1~第4仮想交差周縁30a~30dとが上下方向(交差方向)へ長い楕円形を模っている。尚、第1~第4延出部材12a~12dの第1~第4外周縁20a~20dと第1~第4仮想交差周縁30a~30dとが幅方向(一方向)へ長い楕円形を模っていてもよい。
 ディスプレイ装置10Aでは、ディスプレイ本体11の第1端縁13と第1側縁15とが交差する第1交差角部31aが第1延出部材12aの第1外周縁20aと第3延出部材12cの第3外周縁20cとを繋ぐ第1仮想交差周縁30aよりも径方向外方へ延出し、ディスプレイ本体11の第1端縁13と第2側縁16とが交差する第2交差角部31bが第1延出部材12aの第1外周縁20aと第4延出部材12dの第4外周縁20dとを繋ぐ第2仮想交差周縁30bよりも径方向外方へ延出している。更に、ディスプレイ本体11の第2端縁14と第1側縁15とが交差する第3交差角部31cが第2延出部材12bの第2外周縁20bと第3延出部材12cの第3外周縁20cとを繋ぐ第3仮想交差周縁30cよりも径方向外方へ延出し、第2端縁14と第2側縁16とが交差する第4交差角部31dが第2延出部材12bの第2外周縁20bと第4延出部材12dの第4外周縁20dとを繋ぐ第4仮想交差周縁30dよりも径方向外方へ延出している。
 ディスプレイ装置10Aは、上下方向(又は幅方向)へ長い楕円形を模る第1~第4延出部材12a~12d(第1~第4延出部)の円弧を画く第1~第4外周縁20a~20dと第1~第4仮想交差周縁30a~30dとが正面パネル17を囲み、第1~第4交差角部31a~31dが楕円形を模る第1~第4仮想交差周縁30a~30dよりも径方向外方へ延出することで、第1~第4延出部材12a~12dによって矩形の正面パネル17が矩形と楕円形(円形)との組み合わせからなる装飾美又は機能美を備えることができる。ディスプレイ装置10Aは、矩形と楕円形(円形)との組み合わせからなる装飾美又は機能美を備えた優れた美観を有し、正面パネル17の見場が良く、正面パネル17を見た利用者に美感を起こさせることができ、利用者にディスプレイ装置10Aを使ってみたいという意欲(使用意欲)を惹起させることができるとともに、利用者の購買意欲を惹起することができる。
 図9は、他の一例として示すディスプレイ装置10Bの斜視図であり、図10は、図9のディスプレイ装置10Bの正面図である。図11は、図9のディスプレイ装置10Bの背面図であり、図12は、図9のディスプレイ装置10Bの側面図である。図13は、第1~第4延出部材32a~32dをディスプレイ装置10Bから取り外した状態で示す分解図である。図9では、上下方向を矢印Aで示し、幅方向を矢印Bで示す。
 ディスプレイ装置10B(ディスプレイシステム)は、ディスプレイ本体11と、ディスプレイ本体11に取り付けられた第1~第4延出部材32a~32d(第1~第4延出部)とから形成されている。ディスプレイ本体11は、互いに並行して幅方向(一方向)へ延びる第1端縁13及び第2端縁14と、互いに並行して幅方向(一方向)と交差する上下方向(交差方向)へ延びる第1側縁15及び第2側縁16と、それら端縁13,14及びそれら側縁15,16に囲繞された正面パネル17及び背面エリア18とを有する。ディスプレイ本体11(正面パネル17及び背面エリア18)は、幅方向(一方向)へ長い所定面積の矩形に成形されている。尚、ディスプレイ本体11(正面パネル17及び背面エリア18)が上下方向(交差方向)へ長い所定面積の矩形に成形されていてもよい。ディスプレイ本体11の正面パネル17には、所定の画像が出力(表示)される。ディスプレイ本体11には、コントローラ(制御装置)(図示せず)が収容されている。
 第1延出部材32a(第1延出部)は、ディスプレイ本体11の第1端縁13に着脱可能に取り付けられている。第1延出部材32aは、第1端縁13に並行して幅方向(一方向)へ延びる第1内周縁19aと、第1内周縁19a(第1端縁13)から上下方向上方(径方向外方)へ凸となるように円弧を画く第1外周縁20aとを有する。第1延出部材12aは、その平面形状(正面形状)が幅方向へ長い三日月形に成形され、ディスプレイ本体11の第1端縁13から上下方向上方(径方向外方)へ延出している。
 第1延出部材32aは、その内部にデバイス収容スペース(図示せず)が形成されている。第1延出部材32aの前面開口21は、生地22(スピーカーグリルネット等の織物や編み物)によって被覆されている。第1延出部材32aの第1内周縁19aには、幅方向(一方向)へ延びる第1取付プレート33aが一体に繋がっている。第1延出部材32aは、第1取付プレート33aがディスプレイ本体11の第1端縁13に所定の取付手段(取付ボルトやビス等)によって固定されることで、ディスプレイ本体11の第1端縁13に設置される。
 第1延出部材32aのデバイス収容スペースには、デジタルカメラ24、マイクロフォン25が収容されている。デジタルカメラ24は、インターフェイスを介してコントローラに接続され、そのレンズが第1延出部材32aの前面開口21から前方へ向かい、正面パネル17の前方に位置した利用者や物体を撮影する。デジタルカメラ24は、撮影した画像データをコントローラに送信する。マイクロフォン25は、インターフェイスを介してコントローラに接続され、正面パネル17の前方に位置した利用者の音声を集音する。マイクロフォン17は、集音した音声データをコントローラに送信する。
 第2延出部材32b(第2延出部)は、ディスプレイ本体11の第2端縁14に着脱可能に取り付けられている。第2延出部材32bは、第2端縁14に並行して幅方向(一方向)へ延びる第2内周縁19bと、第2内周縁19b(第2端縁14)から上下方向下方(径方向外方)へ凸となるように円弧を画く第2外周縁20bとを有する。第2延出部材32bは、その平面形状(正面形状)が幅方向へ長い三日月形に成形され、ディスプレイ本体11の第2端縁14から上下方向上方(径方向外方)へ延出している。
 第2延出部材32bは、その内部にデバイス収容スペース(図示せず)が形成されている。第2延出部材32bの前面開口21は、生地22(スピーカーグリルネット等の織物や編み物)によって被覆されている。第2延出部材32bの第2内周縁19bには、幅方向(一方向)へ延びる第2取付プレート33bが一体に繋がっている。第2延出部材32bは、第2取付プレート33bがディスプレイ本体11の第2端縁14に所定の取付手段(取付ボルトやビス等)によって固定されることで、ディスプレイ本体11の第2端縁14に設置される。
 第2延出部材32bのデバイス収容スペースには、LED照明28(照明)、人感センサ26、光検知センサ27が収容されている。LED照明28は、インターフェイスを介してコントローラに接続され、正面パネル17の前方を照らす。人感センサ26は、インターフェイスを介してコントローラに接続され、正面パネル17の前方に位置した人を感知する。人感センサ26は、人検知信号又は人非検知信号をコントローラに送信する。光検知センサ27は、インターフェイスを介してコントローラに接続され、ディスプレイ装置10Bの周辺の光を検知する。光検知センサ27は、光検知信号又は光非検知信号をコントローラに送信する。
 第3延出部材32c(第3延出部)は、ディスプレイ本体11の第1側縁15に着脱可能に取り付けられている。第3延出部材32cは、第1側縁15に並行して幅方向(一方向)へ延びる第3内周縁19cと、第3内周縁19c(第1側縁15)から幅方向外方(径方向外方)へ凸となるように円弧を画く第3外周縁20cとを有する。第3延出部材32cは、その平面形状(正面形状)が上下方向へ長い三日月形に成形され、ディスプレイ本体11の第1側縁15から幅方向外方(径方向外方)へ延出している。
 第3延出部材32cは、その内部にデバイス収容スペース(図示せず)が形成されている。第3延出部材32cの前面開口21は、生地22(スピーカーグリルネット等の織物や編み物)によって被覆されている。第3延出部材32cの第3内周縁19cには、幅方向(一方向)へ延びる第3取付プレート33cが一体に繋がっている。第3延出部材32cは、第3取付プレート33cがディスプレイ本体11の第1側縁15に所定の取付手段(取付ボルトやビス等)によって固定されることで、ディスプレイ本体11の第1側縁15に設置される。第3延出部材32cのデバイス収容スペースには、スピーカー29、LED照明28(照明)が収容されている。スピーカー29は、インターフェイスを介してコントローラに接続され、所定の音を発生する。LED照明28は、インターフェイスを介してコントローラに接続され、正面パネル17の前方を照らす。
 第4延出部材32d(第4延出部)は、ディスプレイ本体11の第2側縁16に着脱可能に取り付けられている。第4延出部材32dは、第2側縁16に並行して幅方向(一方向)へ延びる第4内周縁19dと、第4内周縁19d(第2側縁16)から幅方向外方(径方向外方)へ凸となるように円弧を画く第4外周縁20dとを有する。第4延出部材32dは、その平面形状(正面形状)が上下方向へ長い三日月形に成形され、ディスプレイ本体11の第2側縁16から幅方向外方(径方向外方)へ延出している。
 第4延出部材32dは、その内部にデバイス収容スペース(図示せず)が形成されている。第4延出部材32dの前面開口21は、生地22(スピーカーグリルネット等の織物や編み物)によって被覆されている。第4延出部材32dの第4内周縁19dには、幅方向(一方向)へ延びる第4取付プレート33dが一体に繋がっている。第4延出部材32dは、第4取付プレート33dがディスプレイ本体11の第2側縁16に所定の取付手段(取付ボルトやビス等)によって固定されることで、ディスプレイ本体11の第2側縁16に設置される。第4延出部材32dのデバイス収容スペースには、スピーカー29、LED照明28(照明)が収容されている。スピーカー29は、インターフェイスを介してコントローラに接続され、所定の音を発生する。LED照明28は、インターフェイスを介してコントローラに接続され、正面パネル17の前方を照らす。
 ディスプレイ装置10Bでは、第1延出部材32a(第1延出部)の円弧を画く第1外周縁20aと第3延出部材32c(第3延出部)の円弧を画く第3外周縁20cとが第1交差周縁34aにおいて繋がり、第1延出部材32aの円弧を画く第1外周縁20aと第4延出部材32d(第4延出部)の円弧を画く第4外周縁20dとが第2交差周縁34bにおいて繋がっている。更に、第2延出部材32b(第2延出部)の円弧を画く第2外周縁20bと第3延出部材32cの円弧を画く第3外周縁20cとが第3交差周縁34cにおいて繋がり、第2延出部材32bの円弧を画く第2外周縁20bと第4延出部材32dの円弧を画く第4外周縁20dとが第4交差周縁34dにおいて繋がっている。
 ディスプレイ装置10Bでは、第1外周縁20aと第3外周縁20cとが繋がり、第1外周縁20aと第4外周縁20dとが繋がり、第2外周縁20bと第3外周縁20cとが繋がるとともに、第2外周縁20bと第4外周縁20dとが繋がることで、第1~第4延出部材12a~12dの第1~第4外周縁20a~20dと第1~第4交差周縁34a~34dとが幅方向(一方向)へ長い楕円形を画いている。尚、第1~第4延出部材12a~12dの第1~第4外周縁20a~20dと第1~第4交差周縁34a~34dとが上下方向(交差方向)へ長い楕円形を画いていてもよい。
 ディスプレイ装置10Bでは、第1端縁13と第1側縁15とが交差する第1角35aが第1延出部材32aの第1外周縁20aと第3延出部材32cの第3外周縁20cとが交差する第1交差周縁34aの径方向内方に位置し、第1端縁13と第2側縁16とが交差する第2角35bが第1延出部材32aの第1外周縁20aと第4延出部材32dの第4外周縁20dとが交差する第2交差周縁34bの径方向内方に位置している。更に、第2端縁14と第1側縁15とが交差する第3角35cが第2延出部材32bの第2外周縁20bと第3延出部材32cの第3外周縁20cとが交差する第3交差周縁34cの径方向内方に位置し、第2端縁14と第2側縁16とが交差する第4角35dが第2延出部材32bの第2外周縁20bと第4延出部材32dの第4外周縁20dとが交差する第4交差周縁34dの径方向内方に位置している。
 尚、ディスプレイ装置10A,10Bでは、デジタルカメラ24、マイクロフォン25、人感センサ26、LED照明27(照明)、スピーカー28の第1~第4延出部材12a~12d,32a~32dに対する配置が図示のそれらに限定されず、デジタルカメラ24、マイクロフォン25、人感センサ26、LED照明27(照明)、スピーカー28の第1~第4延出部材12a~12d,32a~32dに対する配置を自由に決定することができる。
 ディスプレイ装置10Bは、幅方向(又は上下方向)へ長い楕円形を画く第1~第4延出部材32a~32d(第1~第4延出部)の円弧を画く第1~第4外周縁20a~20dと第1~第4交差周縁34a~34dとが正面パネル17を囲み、第1~第4角35a~35dが楕円形を画く第1~第4交差周縁34a~34dよりも径方向内方に位置することで、第1~第4延出部材32a~32dによって矩形の正面パネル17が矩形と楕円形(円形)との組み合わせからなる装飾美又は機能美を備えることができる。ディスプレイ装置10Bは、矩形と楕円形(円形)との組み合わせからなる装飾美又は機能美を備えた優れた美観を有し、正面パネル17の見場が良く、正面パネル17を見た利用者に美感を起こさせることができ、利用者にディスプレイ装置10Bを使ってみたいという意欲を惹起させることができるとともに、利用者の購買意欲を惹起することができる。
 ディスプレイ装置10A,10B(ディスプレイシステム)のディスプレイ本体11に内蔵されたコントローラ(制御装置)は、インターネット上のクラウド(クラウドコンピューティング)に仮想(形成)されたクラウドサーバ36に接続されている。クラウドサーバ36は、仮想CPU又は仮想MPU(中央処理部)と仮想メインメモリ及び仮想キャッシュメモリ(メモリ)とを有して独立したオペレーティングシステム(仮想OS)によって動作する仮想サーバであり、大容量記憶領域が生成されている。クラウドとしては、Infrastructure as a Service(IaaS)、Platform as a Service(PaaS)、Software as a Service(SaaS)を利用することができる。クラウドサーバ36の仮想メインメモリには、ディスプレイシステムの後記する各手段を実施させるディスプレイシステムアプリケーション(画像データを3D画像に加工する3Dデザインアプリケーション、音声や文字を多国語に翻訳する翻訳アプリケーション、人工知能アルゴリズムを含む)が記憶(格納)されている。
 尚、コントローラ(制御装置)が物理的なサーバ(コンピュータ)であってもよい。物理的なサーバは、中央処理部(CPU又はMPU)とメモリ(メインメモリおよびキャッシュメモリ)とを備え、大容量記憶領域(大容量ハードディスク)を内蔵している。クラウドサーバ36(又は物理的なサーバ)は、ディスプレイシステムを提供する提供者(提供会社)が契約するデータセンターに形成(設置)されている。クラウドサーバ36(又は物理的なサーバ)がディスプレイシステムを提供する提供者(提供会社)の事業所や事務所に形成(設置)される場合もある。
 クラウドサーバ36(又は物理的なサーバ)には、ホスト名とそのホスト名に割り当てるIPアドレスとの対応付けを設定するDNSサーバ、他のコンピュータや他のサーバからの要求を受け付けて各種情報を読み書きする機能を提供するデータベース・ファイルサーバ、ホームページを公開するために必要なWebサーバ、電子メールの送受信用のメールサーバ、作成された文章や画像等のデータをすべて保存してそれらのデータを検索可能にするドキュメントサーバ等の各種サーバ(各種仮想サーバ)が接続され、それらサーバがサーバ群(仮想サーバ群)を形成している。
 尚、クラウドサーバ36(又は物理的なサーバ)は、それ自体がDNSサーバ機能、データベースサーバ機能、Webサーバ機能、メールサーバ機能、ドキュメントサーバ機能を有し、各サーバ機能別にソフトウェア的に区分されている場合がある。クラウドサーバ36(又は物理的なサーバ)は、インターネットに接続された各種複数のDNSサーバ等を経由しつつ、インターネットを利用してアクセス制限がない他のあらゆるサーバにアクセスすることができる。クラウドサーバ36(又は物理的なサーバ)は、世界のいずれかに施設されたデータセンターの他のサーバとインターネットを介してネットワークを形成している。
 クラウドサーバ36の大容量記憶領域(又は、物理的なサーバの大容量記憶領域)には、ディスプレイ装置10Aを利用する利用者の利用者特定情報が記憶(格納)され、ディスプレイ装置10A,10Bを利用する利用者の顔画像データが記憶(格納)されているとともに、ディスプレイ装置10A,10Bを利用する利用者の音声データが記憶(格納)されている(利用者属性情報報記憶手段)。利用者属性情報は、利用者の利用者識別情報(パスワードやID番号、ユニークな識別子等)に関連付けられた状態で大容量仮想記憶領域に記憶されている。利用者属性情報には、利用者の氏名、使用者の住所、電話番号、FAX番号、年齢、性別、メールアドレス等が含まれる。
 クラウドサーバ36の大容量記憶領域(又は、物理的なサーバの大容量記憶領域)には、他のサーバのURL(外国友人のサーバのURLを含む)やIPアドレスが記憶(格納)されている。クラウドサーバ36の大容量記憶領域(又は、物理的なサーバの大容量記憶領域)には、冷蔵庫やエアーコンディショナー(エアコン)、洗濯機、給湯器(湯沸かし器)、照明器具、清掃ロボット、コタツ、床暖房器具等の電化製品(電気機器)を特定する電気機器識別情報が記憶(格納)されている(電気機器識別情報記憶手段)。
 電気機器識別情報には、冷蔵庫やエアーコンディショナー、洗濯機、給湯器、照明器具、清掃ロボット、コタツ、床暖房器具等の固体識別番号や機械番号を利用することができる他、クラウドサーバ36(又は、物理的なサーバ)がそれらを識別するユニークな識別子を独自に生成し、生成した識別子を電気機器識別情報にすることができる。電気機器識別情報は、電化製品(電気機器)を利用する利用者の従利用者識別情報(パスワードやID番号、ユニークな識別子等)に関連付けられた状態で大容量仮想記憶領域に記憶されている。
 電気機器には、既述のそれらのみならず、IOTによって操作可能なすべての電気機器が含まれる。クラウドサーバ36の大容量記憶領域(又は、物理的なサーバの大容量記憶領域)には、IOTを利用して冷蔵庫やエアーコンディショナー、洗濯機、給湯器、照明器具、清掃ロボット、コタツ、床暖房器具等の電化製品(電気機器)に行わせるプロセス(ジョブ)が電気機器識別情報に関連付けられた状態で記憶(格納)されている(プロセス記憶手段)。電気機器は、無線LAN機能を備え、無線LAN経由でクラウドサーバ36(又は物理的なサーバ)から所定の情報(プロセス)を受信し、無線LAN経由でクラウドサーバ36(又は物理的なサーバ)に所定の情報を送信する。
 ディスプレイ装置10A,10Bの背面エリア18には、上下方向へ直状に延びる支柱37が設置されている。支柱37の上部(背面エリア18の中央)には、第1モーター(図示せず)が設置されている。第1モーターは、その制御部がコントローラにインターフェイスを介して接続されている。支柱37には、リニアモーター(図示せず)が設置されている。リニアモーターは、その制御部がコントローラにインターフェイスを介して接続されている。支柱37の下部には、4本の脚部38を有するスタンド39が連結されている。スタンド39には、第2モーター(図示せず)が設置されている。第2モーターは、その制御部がコントローラにインターフェイスを介して接続されている。
 第1~第4延出部材12a~12d,32a~32dを含むディスプレイ装置10A,10Bは、第1モーターによってその中心部を軸として時計回り時方向と半時計回り方向とへオートマチックで(自動的に)旋回する(図6参照)。第1~第4延出部材12a~12d,32a~32dを含むディスプレイ装置10A,10Bは、リニアモーターによって支柱37に沿って上下方向上方と上下方向下方とへオートマチックで(自動的に)上下動する(図7参照)。第1~第4延出部材12a~12d,32a~32dを含むディスプレイ装置10A,10Bは、支柱37を中心として支柱37の周り方向へオートマチックで(自動的に)回転する(図8参照)。
 ディスプレイ装置10A,10B(コントローラ(クラウドサーバ又は物理的なサーバ))は、インターネット(所定のネットワーク)を利用して他のサーバとの間で所定のデータを送受信する通信手段を有する。ディスプレイ装置10A,10B(コントローラ(クラウドサーバ36又は物理的なサーバ))は、デジタルカメラ24を利用して物体又は利用者を撮影する画像撮影手段を実施し、撮影手段によって撮影した物体又は利用者の画像データを通信手段を利用して他のサーバに送信する画像データ送信手段を実施する。ディスプレイ装置10A,10B(コントローラ(クラウドサーバ36又は物理的なサーバ))は、利用者とディスプレイ装置10A,10Bを介して対面する物体又は第三者の画像データを通信手段を利用して他のサーバから受信する画像データ受信手段を実施し、画像データ受信手段によって受信した物体又は第三者の画像を正面パネル17に出力(表示)する画像データ出力手段を実施する。
 ディスプレイ装置10A,10B(コントローラ(クラウドサーバ36又は物理的なサーバ))は、マイクロフォン25を利用して利用者の音声を集音する音声集音手段を実施し、音声集音手段によって集音した利用者の音声データを通信手段を利用して他のサーバに送信する音声データ送信手段を実施する。ディスプレイ装置10A,10B(コントローラ(クラウドサーバ36又は物理的なサーバ))は、ディスプレイ装置10A,10Bを介して利用者と対話する第三者の音声データを通信手段を利用して他のサーバから受信する音声データ受信手段とを実施し、音声データ受信手段によって受信した第三者の音声をスピーカー29を利用して発音(出力)する音声出力手段を実施する。
 ディスプレイ装置10A,10B(コントローラ(クラウドサーバ36又は物理的なサーバ))は、利用者が発音した要望事項を音声集音手段によって集音した場合、要望事項をキーワードとして要望事項に対応する各種複数のウェブサイトのウェブサイト紹介情報を通信手段を利用して他のサーバから受信するウェブサイト紹介情報受信手段を実施し、ウェブサイト紹介情報受信手段によって受信したウェブサイト紹介情報を正面パネル17に出力(表示)するウェブサイト紹介情報出力手段を実施するとともに、ウェブサイト紹介情報出力手段によって出力(表示)された各種複数のウェブサイトから所定のウェブサイトを指定したときに、指定したウェブサイトを正面パネル17に出力(表示)するウェブサイト出力手段を実施する。
 ディスプレイ装置10A,10B(コントローラ(クラウドサーバ36又は物理的なサーバ))は、利用者が発音した要望事項を音声集音手段によって集音した場合、要望事項をキーワードとして要望事項に関連する各種の要望事項関連データを通信手段を利用して他のサーバから受信する要望事項関連データ受信手段を実施し、要望事項関連データ受信手段によって受信した要望事項関連データを正面パネル17に出力(表示)する要望事項関連データ出力手段を実施する。
 ディスプレイ装置10A,10B(コントローラ(クラウドサーバ36又は物理的なサーバ))は、利用者が発音した音声及び他のサーバから受信した第三者の音声を所定の言語に翻訳する翻訳手段を実施し、翻訳手段によって翻訳した利用者の音声及び第三者の音声をスピーカー29を利用して出力する翻訳音声出力手段を実施する。ディスプレイ装置10A,10B(クラウドサーバ36又は物理的なサーバ)は、所定の電気機器にIOTによって所定のプロセスを実行させるコマンドが入力された場合、コマンドに対応する所定のプロセスをインターネット(通信手段)を利用して電気機器に送信しつつ、所定のプロセスを電気機器に実行させるプロセス実行手段を実施する。
 ディスプレイ装置10A,10B(コントローラ(クラウドサーバ36又は物理的なサーバ))は、人感センサ26によって人を検知した場合、ディスプレイ装置10A,10Bを起動させるディスプレイ第1起動手段を実施し、人感センサ26が人を検知した後、人が検知されなくなった場合、起動させたディスプレイ装置10A,10Bを停止させるディスプレイ第1停止手段を実施する。
 ディスプレイ装置10A,10B(コントローラ(クラウドサーバ36又は物理的なサーバ))は、ディスプレイ第1起動手段によって起動した後、撮影手段によって正面パネル17の前方に位置する人を撮影しつつ、撮影した人の画像データと予め記憶した利用者の画像データとを比較する画像データ第1比較手段を実施し、撮影した人の画像と記憶した利用者の画像とを画像データ第1比較手段によって比較した結果、撮影した人の画像と記憶した利用者の画像とが異なる場合、ディスプレイ第1停止手段を実施する。
 ディスプレイ装置10A,10B(コントローラ(クラウドサーバ36又は物理的なサーバ))は、利用者が発音した起動メッセージを音声集音手段によって集音した場合、集音した利用者の起動メッセージの音声と予め記憶した利用者の音声とを比較する音声第1比較手段を実施し、起動メッセージの音声と記憶した利用者の音声とを音声第1比較手段によって比較した結果、起動メッセージの音声と記憶した利用者の音声とが同一である場合、ディスプレイ装置10A,10Bを起動させるディスプレイ第2起動手段を実施するとともに、利用者が発音した停止メッセージを音声集音手段によって集音した場合、起動させたディスプレイ装置10A,10Bを停止させるディスプレイ第2停止手段を実施する。
 ディスプレイ装置10A,10B(コントローラ(クラウドサーバ36又は物理的なサーバ))は、人感センサ26によって人を検知した場合であって、光検知センサ27がディスプレイ装置10A,10Bの周辺の光を検知しない場合、LED照明28を起動させる照明第1起動手段を実施し、人感センサ26によって人を検知しない場合、又は、光検知センサ27がディスプレイ装置10A,10Bの周辺の光を検知した場合、起動させたLED照明28を消灯させる照明第1消灯手段を実施する。
 ディスプレイ装置10A,10B(コントローラ(クラウドサーバ36又は物理的なサーバ))は、照明第1起動手段によってLED照明28を起動した後、撮影手段によって正面パネル17の前方に位置する人を撮影しつつ、撮影した人の画像データと予め記憶した利用者の画像データとを比較する画像データ第2比較手段を実施し、撮影した人の画像と記憶した利用者の画像とを画像データ第2比較手段によって比較した結果、撮影した人の画像と記憶した利用者の画像とが異なる場合、照明第1停止手段を実施する。
 ディスプレイ装置10A,10B(コントローラ(クラウドサーバ36又は物理的なサーバ))は、利用者が発音した照明起動メッセージを音声集音手段によって集音した場合、集音した利用者の照明起動メッセージの音声と予め記憶した利用者の音声とを比較する音声第2比較手段を実施し、照明起動メッセージの音声と記憶した利用者の音声とを音声第2比較手段によって比較した結果、照明起動メッセージの音声と記憶した利用者の音声とが同一である場合、LED照明28を起動させる照明第2起動手段を実施するとともに、利用者が発音した照明停止メッセージを音声集音手段によって集音した場合、起動させたLED照明28を消灯させる照明第2消灯手段を実施する。
 ディスプレイ装置10A,10B(コントローラ(クラウドサーバ36又は物理的なサーバ))は、利用者が発音したディスプレイ旋回メッセージを音声集音手段によって集音した場合、ディスプレイ装置10A,10Bを時計回り時方向又は半時計回り方向へ自動的に旋回させるディスプレイ旋回手段を実施する。ディスプレイ装置10A,10B(コントローラ(クラウドサーバ36又は物理的なサーバ))は、利用者が発音したディスプレイ上下動メッセージを音声集音手段によって集音した場合、ディスプレイ装置10A,10Bを上下方向上方又は上下方向下方へ自動的に上下動させるディスプレイ上下動手段を実施する。ディスプレイ装置10A,10B(コントローラ(クラウドサーバ36又は物理的なサーバ))は、利用者が発音したディスプレイ回転メッセージを音声集音手段によって集音した場合、ディスプレイ装置10A,10Bを右回り方向又は左回り方向へ自動的に回転させるディスプレイ回転手段を実施する。
 ディスプレイ装置10A,10B(コントローラ(クラウドサーバ36又は物理的なサーバ))は、正面パネル17を視認する利用者の顔面姿勢に対する適応性の程度を推定するための機械学習を行った学習済み学習モデルに、画像撮影手段によって撮影された利用者の顔面の画像データを入力することで、正面パネル17を視認する利用者の顔面姿勢の適応性の程度を示す適応性スコアを学習モデルから取得する適応性推定手段を実施し、適応性推定手段によって取得した適応性スコアが所定の条件を満たすように、ディスプレイ装置を自動的に上下動させ又は回転させ或いは旋回させるディスプレイ可動手段を実施する。
 学習モデルは、ニューラルネットワーク等の公知の機械学習アルゴリズム(人工知能アルゴリズム)を利用して生成する。機械学習アルゴリズム(人工知能アルゴリズム)に入力する教師データは、例えば、ディスプレイ装置10A,10Bの正面パネル17の近傍に位置する利用者の顔面の画像を画像撮影手段によって様々な角度から撮影し、撮影した顔面の画像データに適応性スコアを紐づけることで作成する。適応性スコアには、0~10までの10段階の数値パラメータを使用する。例えば、正面パネル17を視認する(正面パネル17に視線を向ける)利用者の目の黒目(瞳孔)が目の中心に位置する場合、ディスプレイ装置10A,10Bが最適な位置にあるとして高い数値パラメータを設定する。逆に、正面パネル17を視認する(正面パネル17に視線を向ける)利用者の目の黒目(瞳孔)が目の中心からずれている場合、ディスプレイ装置10A,10Bが最適な位置にないとして低い数値パラメータを設定する。
 以下、ディスプレイ装置10Aを例示してその起動や停止、旋回、上下動、回転を説明するとともに、LED照明28の起動や停止を説明するが、ディスプレイ装置10Bによる起動や停止、旋回、上下動、回転、LED照明28の起動や停止もディスプレイ装置10Aのそれらと同一である。ディスプレイ装置10Aの起動及び停止の一例は以下のとおりである。利用者がディスプレイ装置10Aの近傍(ディスプレイ装置10Aから50~500cmの距離)であって正面パネル17の前方に位置すると、人感センサ26が利用者(人)を検知し、人感センサ26が人検知信号をコントローラに送信する。人検知信号を受信したコントローラ(クラウドサーバ37又は物理的なサーバ)は、ディスプレイ装置10AのON/OFFスイッチをONにしてディスプレイ装置10Aを起動させる(ディスプレイ第1起動手段)。
 人感センサ26が利用者(人)を検知した後、利用者が正面パネル17の前方から離間し、人感センサ26が利用者(人)を検知しなくなった場合、人感センサ26が人非検知信号をコントローラに送信する。人非検知信号を受信したコントローラ(クラウドサーバ36又は物理的なサーバ)は、ディスプレイ装置10AのON/OFFスイッチをOFFにしてディスプレイ装置10Aを停止させる(ディスプレイ第1停止手段)。
 ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、人感センサ26が正面パネル17の前方の人の有無を検知し、人感センサ26によって人が検知された場合、自動でディスプレイ装置10Aを起動させることができ、人感センサ26によって人が検知されなくなった場合、起動させたディスプレイ装置10Aを自動で停止させることができ、人感センサ26を利用してディスプレイ装置10Aの発停を自動で行うことができる。
 尚、コントローラ(クラウドサーバ36又は物理的なサーバ)は、ディスプレイ第1起動手段によってディスプレイ装置10Aを起動した後、正面パネル17の前方に位置する利用者(人)の顔画像を撮影する撮影信号をデジタルカメラ24の制御部に送信し、デジタルカメラ24を利用して正面パネル17の前方に位置する利用者(人)の顔画像を撮影し(画像撮影手段)、撮影した人(利用者)の顔画像データ(画像データ)と予め記憶した利用者の顔画像データ(画像データ)とを比較する(画像データ第1比較手段)。
 コントローラ(クラウドサーバ36又は物理的なサーバ)は、撮影した人(利用者)の顔画像データ(画像データ)と記憶した利用者の顔画像データ(画像データ)とを画像データ第1比較手段によって比較した結果、撮影した人(利用者)の顔画像データと記憶した利用者の顔画像データとが異なる場合、ディスプレイ装置10AのON/OFFスイッチをOFFにしてディスプレイ装置10Aを停止させる(ディスプレイ第1停止手段)。ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、ディスプレイ装置10Aの利用者と撮影した人とが異なる場合、起動させたディスプレイ装置10Aを停止させるから、正当な利用者のみにディスプレイ装置10Aを利用させることができ、ディスプレイ装置10Aの不正な利用を防ぐことができる。
 ディスプレイ装置10Aの起動及び停止の他の一例は以下のとおりである。ディスプレイ装置10Aの利用者は、ディスプレイ装置10Aの近傍(ディスプレイ装置10Aから50~500cmの距離)に移動し、ディスプレイ装置10Aの起動メッセージ(例えば、ONや起動等)を発音する。利用者が発音した起動メッセージは、スピーカー29によって集音され、起動メッセージの電気信号がコントローラに送信される(音声集音手段)。起動メッセージの電気信号を受信したコントローラ(クラウドサーバ36又は物理的なサーバ))は、音声集音手段によって集音した利用者の起動メッセージの音声データ(音声)と予め記憶した利用者の音声データ(音声)とを比較し(音声第1比較手段)、起動メッセージの音声データと記憶した利用者の音声データとを音声第1比較手段によって比較した結果、起動メッセージの音声データと記憶した利用者の音声データとが同一である場合、ディスプレイ装置10Aを起動(ON)させる(ディスプレイ第2起動手段)。
 ディスプレイ装置10Aを停止(OFF)させる場合、利用者は、ディスプレイ装置10Aの停止メッセージ(例えば、OFFや停止等)を発音する。利用者が発音した停止メッセージは、スピーカー29によって集音され、停止メッセージの電気信号がコントローラに送信される(音声集音手段)。停止メッセージの電気信号を受信したコントローラ(クラウドサーバ36又は物理的なサーバ))は、起動させたディスプレイ装置10Aを停止(OFF)させる(ディスプレイ第2停止手段)。尚、ディスプレイ装置10Aの起動操作や停止操作は、リモコン(図示せず)によって行うこともできる。
 ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、起動メッセージの音声と記憶した利用者の音声とを比較し、起動メッセージの音声と記憶した利用者の音声とが同一である場合、ディスプレイ装置10Aを起動させるから、利用者の音声だけでディスプレイ装置10Aを起動させることができるのみならず、起動メッセージの音声と記憶した利用者の音声とが異なる場合、ディスプレイ装置10Aが起動することはないから、正当な利用者のみがディスプレイ装置10Aを起動させることができ、ディスプレイ装置10Aの不正な利用を防ぐことができる。ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、利用者が発音した停止メッセージによってディスプレイ装置10Aを自動で停止させることができ、利用者の音声によってディスプレイ装置10Aの発停を自動で行うことができる。
 ディスプレイ装置10Aの第2~第4延出部材12a~12dに設置されたLED照明28の起動及び停止の一例は以下のとおりである。利用者がディスプレイ装置10Aの近傍(ディスプレイ装置10Aから50~500cmの距離)であって正面パネル17の前方に位置すると、人感センサ26が利用者(人)を検知し、人感センサ26が人検知信号をコントローラに送信する。更に、光検知センサ27がディスプレイ装置10Aの周辺の光を感知しない場合、光非検知信号をコントローラに送信する。コントローラ(クラウドサーバ36又は物理的なサーバ)は、人感センサ26から人検知信号を受信するとともに光検知センサ27から光非検知信号を受信したコントローラ(クラウドサーバ36又は物理的なサーバ)は、LED照明28を起動(ON)させ、正面パネル17の前方を照らす(照明第1起動手段)。
 LED照明28を起動させた後、利用者が正面パネル17の前方から離間し、人感センサ26が利用者(人)を検知しなくなった場合、人感センサ26が人非検知信号をコントローラに送信する。人感センサ26から人非検知信号を受信したコントローラ(クラウドサーバ36又は物理的なサーバ)は、起動させたLED照明28を停止(OFF)させる(照明第1消灯手段)。又は、LED照明28を起動させた後、ディスプレイ装置10Aの周辺が例えば自然光によって明かるくなり、光検知センサ27がディスプレイ装置10Aの周辺の光を検知した場合、光検知センサ27が光非検知信号をコントローラに送信する。光検知センサ27から光非検知信号を受信したコントローラ(クラウドサーバ36又は物理的なサーバ)は、起動させたLED照明28を停止(OFF)させる(照明第1消灯手段)。
 ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、人感センサ26が正面パネル17の前方の人の有無を検知し、人感センサ26によって人が検知された場合であって、光感知センサ27がディスプレイ装置10Aの周辺の光を検知し、光感知センサ27によって光が感知されない場合、自動でLED照明28を起動させることができ、人感センサ26によって人が検知されない場合、又は、光感知センサ27によって光が感知された場合、起動させたLED照明28を自動で消灯させることができ、人感センサ26や光感知センサ27を利用してLED照明28の発停を自動で行うことができる。
 尚、コントローラ(クラウドサーバ36又は物理的なサーバ)は、照明第1起動手段によってLED照明28を起動した後、正面パネル17の前方に位置する利用者(人)の顔画像を撮影する撮影信号をデジタルカメラ24の制御部に送信し、デジタルカメラ24を利用して正面パネル17の前方に位置する利用者(人)の顔画像を撮影し(画像撮影手段)、撮影した人(利用者)の顔画像データ(画像データ)と予め記憶した利用者の顔画像データ(画像データ)とを比較する(画像データ第2比較手段)。
 コントローラ(クラウドサーバ36又は物理的なサーバ)は、撮影した人(利用者)の顔画像データ(画像データ)と記憶した利用者の顔画像データ(画像データ)とを画像データ第2比較手段によって比較した結果、撮影した人(利用者)の顔画像データと記憶した利用者の顔画像データとが異なる場合、LED照明28を停止(OFF)させる(照明第1消灯手段)。ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、ディスプレイ装置10Aの利用者と撮影した人とが異なる場合、起動させたLED照明28を停止させるから、正当な利用者のみにLED照明28を含むディスプレイ装置10Aを利用させることができ、LED照明28を含むディスプレイ装置10Aの不正な利用を防ぐことができる。
 LED照明28の起動及び停止の他の一例は以下のとおりである。ディスプレイ装置10Aの利用者は、ディスプレイ装置10Aの近傍(ディスプレイ装置10Aから50~500cmの距離)に移動し、照明起動メッセージ(例えば、照明ONやLED起動等)を発音する。利用者が発音した照明起動メッセージは、スピーカー29によって集音され、照明起動メッセージの電気信号がコントローラに送信される(音声集音手段)。照明起動メッセージの電気信号を受信したコントローラ(クラウドサーバ36又は物理的なサーバ)は、音声集音手段によって集音した利用者の照明起動メッセージの音声データ(音声)と予め記憶した利用者の音声データ(音声)とを比較し(音声第2比較手段)、照明起動メッセージの音声データと記憶した利用者の音声データとを音声第2比較手段によって比較した結果、照明起動メッセージの音声データと記憶した利用者の音声データとが同一である場合、LED照明28を起動させる(照明第2起動手段)。
 LED照明28を停止(OFF)させる場合、利用者は、LED照明28の照明停止メッセージ(例えば、照明OFFやLED停止等)を発音する。利用者が発音した照明停止メッセージは、スピーカー29によって集音され、照明停止メッセージの電気信号がコントローラに送信される(音声集音手段)。照明停止メッセージの電気信号を受信したコントローラ(クラウドサーバ36又は物理的なサーバ))は、起動させたLED照明28を停止(OFF)させる(照明第2消灯手段)。尚、LED照明28の起動操作や停止操作は、リモコン(図示せず)によって行うこともできる。
 ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、照明起動メッセージの音声と記憶した利用者の音声とを比較し、照明起動メッセージの音声と記憶した利用者の音声とが同一である場合、LED照明28を起動させるから、利用者の音声だけでLED照明28を起動させることができるのみならず、照明起動メッセージの音声と記憶した利用者の音声とが異なる場合、LED照明28が起動することはないから、正当な利用者のみがLED照明28を含むディスプレイ装置10Aを利用することができ、LED照明28を含むディスプレイ装置10Aの不正な利用を防ぐことができる。ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、利用者が発音した照明停止メッセージによってLED照明28を自動で停止させることができ、利用者の音声によってLED照明28の発停を自動で行うことができる。
 ディスプレイ装置10A(ディスプレイ装置10Bを含む)の自動旋回の一例は以下のとおりである。ディスプレイ装置10Aの近傍(ディスプレイ装置10Aから50~500cmの距離)に位置する利用者は、ディスプレイ旋回メッセージ(例えば、右旋回や左旋回等)を発音する。利用者が発音したディスプレイ旋回メッセージは、スピーカー29によって集音され、ディスプレイ旋回メッセージの電気信号がコントローラに送信される(音声集音手段)。ディスプレイ旋回メッセージの電気信号を受信したコントローラ(クラウドサーバ36又は物理的なサーバ)は、ディスプレイ旋回メッセージが右旋回の場合、第1モーターを起動させ、第1モーターの回転によって第1~第4延出部材12a~12dを含むディスプレイ装置10Aを時計回り方向へ旋回させ(ディスプレイ旋回手段)、ディスプレイ旋回メッセージが左旋回の場合、第1モーターを起動させ、第1モーターの回転によって第1~第4延出部材12a~12dを含むディスプレイ装置10Aを反時計回り方向へ旋回させる(ディスプレイ旋回手段)。尚、ディスプレイ旋回手段は、ディスプレイ第1起動手段やディスプレイ第2起動手段によってディスプレイ装置10Aを起動させた後に実施することができる。又、ディスプレイ装置10Aの旋回操作は、リモコン(図示せず)によって行うこともできる。
 ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、利用者の時計回り時方向又は半時計回り方向への旋回メッセージ音声によってディスプレイ装置10Aが時計回り時方向と半時計回り方向とへオートマチックで(自動的に)旋回するから、利用者の音声だけで正面パネル17を縦方向へ長い縦長状態と横方向へ長い横長状態とのいずれかに変えることができ、利用者の音声に応じて正面パネル17を縦長と横長とのいずれかの状態に自動で変更することができる。
 ディスプレイ装置10A(ディスプレイ装置10Bを含む)の自動上下動の一例は以下のとおりである。ディスプレイ装置10Aの近傍(ディスプレイ装置10Aから50~500cmの距離)に位置する利用者は、ディスプレイ上下動メッセージ(例えば、上昇(伸長)や下降(伸縮)等)を発音する。利用者が発音した旋回メッセージは、スピーカー29によって集音され、旋回メッセージの電気信号がコントローラに送信される(音声集音手段)。ディスプレイ上下動メッセージの電気信号を受信したコントローラ(クラウドサーバ36又は物理的なサーバ)は、ディスプレイ上下動メッセージが上昇(伸長)の場合、リニアモーターを起動させ、リニアモーターの駆動によって第1~第4延出部材12a~12dを含むディスプレイ装置10Aを支柱に沿って上下方向上方へ上昇(移動)させる(ディスプレイ上下動手段)。ディスプレイ上下動メッセージが下降(収縮)の場合、リニアモーターを起動させ、リニアモーターの駆動によって第1~第4延出部材12a~12dを含むディスプレイ装置10Aを支柱に沿って上下方向下方へ下降(移動)させる(ディスプレイ上下動手段)。尚、ディスプレイ上下動手段は、ディスプレイ第1起動手段やディスプレイ第2起動手段によってディスプレイ装置10Aを起動させた後に実施することができる。又、ディスプレイ装置10Aの上下動操作は、リモコン(図示せず)によって行うこともできる。
 ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、利用者の上下方向上方又は上下方向下方への上下動メッセージ音声によってディスプレイ装置10Aが上下方向上方と上下方向下方とへオートマチックで(自動的に)上下動するから、利用者の音声だけで正面パネル17を上下方向上方と上下方向下方とへ自動で移動させることができ、利用者の音声に応じて正面パネル17の上下方向の位置を自動で変更することができるとともに、正面パネル17の上下方向の位置を利用者の見易い位置に合わせることができる。
 ディスプレイ装置10A(ディスプレイ装置10Bを含む)の自動回転の一例は以下のとおりである。ディスプレイ装置10Aの近傍(ディスプレイ装置10Aから50~500cmの距離)に位置する利用者は、ディスプレイ回転メッセージ(例えば、右回転や左回転等)を発音する。ディスプレイ回転メッセージの電気信号を受信したコントローラ(クラウドサーバ36又は物理的なサーバ)は、ディスプレイ回転メッセージが右回転の場合、第2モーターを起動させ、第2モーターの回転によって第1~第4延出部材12a~12dを含むディスプレイ装置10Aを支柱37を中心に時計回り方向へ回転させる(ディスプレイ回転手段)。ディスプレイ回転メッセージが左回転の場合、第2モーターを起動させ、第2モーターの回転によって第1~第4延出部材12a~12dを含むディスプレイ装置10Aを支柱37を中心に反時計回り方向へ回転させる(ディスプレイ回転手段)。尚、ディスプレイ回転手段は、ディスプレイ第1起動手段やディスプレイ第2起動手段によってディスプレイ装置10Aを起動させた後に実施することができる。又、ディスプレイ装置10Aの回転操作は、リモコン(図示せず)によって行うこともできる。
 ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、利用者の回転メッセージ音声によってディスプレイ装置10Aが支柱37を中心として支37の右回り方向と左回り方向とへオートマチックで回転するから、利用者がどの位置にいたとしても、利用者の音声だけで利用者が見易い位置に正面パネル17をオートマチックで移動させることができ、利用者の音声に応じて正面パネル17を利用者が視認可能な状態にすることができる。
 ディスプレイ装置10A(ディスプレイ装置10Bを含む)の自動旋回や自動上下動、自動回転の他の一例は以下のとおりである。ディスプレイ装置10Aの正面パネル17の近傍(ディスプレイ装置10Aの正面パネル17から50~500cmの距離)に位置する利用者の顔面の画像がデジタルカメラによって撮影される(画像撮影手段)。画像撮影手段によって撮影された利用者の顔面の画像データは、コントローラ(クラウドサーバ36又は物理的なサーバ)に送信される。利用者の顔面の画像データを受信したクラウドサーバ36(又は物理的なサーバ)は、正面パネル17を視認する(正面パネル17に視線を向ける)利用者の顔面姿勢(利用者の目の黒目(瞳孔))に対する適応性の程度(黒目(瞳孔)が目の中心に位置するか又は黒目(瞳孔)が目の中心からずれている程度)を推定するための機械学習を行った学習済み学習モデルに、画像撮影手段によって撮影された利用者の顔面の画像データ(利用者の目の黒目(瞳孔)の画像データ)を入力することで、正面パネル17を視認する利用者の顔面姿勢の適応性の程度(黒目(瞳孔)が目の中心に位置するか又は黒目(瞳孔)が目の中心からずれている程度)を示す適応性スコアを前記学習モデルから取得する(適応性推定手段)。
 次に、クラウドサーバ36(又は物理的なサーバ)は、適応性推定手段によって取得した適応性スコアが所定の条件を満たすように(適応性スコアが高い数値パラメータに保持されるように)、ディスプレイ装置10Aを上下動させ又は回転させ或いは旋回させる可動信号をコントローラに送信する。コントローラは、クラウドサーバ36(又は物理的なサーバ)からの可動信号に従ってディスプレイ装置10Aを自動的に上下動させ又は回転させ或いは旋回させる(ディスプレイ可動手段)。
 ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、人工知能(人工知能アルゴリズム)により実施される適応性推定手段によって取得した適応性スコアが所定の条件を満たすように(適応性スコアが高い数値パラメータに保持されるように)、ディスプレイ装置10Aを自動的に上下動させ又は回転させ或いは旋回させるから、利用者がどの位置にいたとしても、正面パネル17を視認する利用者が正面パネル17を最も見易い位置にディスプレイ装置10Aを自動で動かすことができ、正面パネル17を利用者が最も見易い状態にすることができる。
 図14は、ディスプレイ装置10Aの正面パネル17に出力されたメニュー画面の一例を示す図であり、図15は、ディスプレイ装置10Aの正面パネル17に出力されたウェブサイト紹介情報画面の一例を示す図である。図16は、ディスプレイ装置10Aの正面パネル17に出力されたオンライン診療画面の一例を示す図である。図14~図16では、支柱37やスタンド39の図示を省略している。以下、ディスプレイ装置10Aを例示してウェブサイトの利用を説明するが、ディスプレイ装置10Bによるウェブサイトの利用もディスプレイ装置10Aのそれと同一である。
 ディスプレイ装置10Aが起動すると、ディスプレイ本体11の正面パネル17に待ち受け画面(図示せず)が出力(表示)される。待ち受け画面には、地デジ放送アイコン、BSデジタル放送アイコン、CSデジタル放送アイコン、ゲームアイコン、ディスプレイシステムアイコン、OFFボタンが出力(表示)される。OFFボタンをタップ(クリック)し、又は、OFFを示すメッセージを発音し、或いは、リモコンのOFFボタンを押すと、ディスプレイ装置10AがOFFになり、ディスプレイ装置10Aが停止する(以下のOFFボタンも同様)。
 地デジ放送アイコンやBSデジタル放送アイコン、CSデジタル放送アイコンをタップ(クリック)し、又は、放送アイコンを示すメッセージを発音し、リモコンによって放送アイコンを決定することで、ディスプレイ装置10A(ディスプレイ装置10Bを含む)によって各種放送を視聴することができる。ゲームアイコンをタップ(クリック)し、又は、ゲームアイコンを示すメッセージを発音し、或いは、リモコンによってゲームアイコンを決定することで、ディスプレイ装置10A(ディスプレイ装置10Bを含む)によって各種ゲームを行うことができる。尚、ディスプレイ装置10A(ディスプレイ装置10Bを含む)の一連の操作(放送チャンネル変更、ボリューム、再生、録画等)を音声又はリモコン(図示せず)によって行うことができる。
 利用者がディスプレイシステムを利用する場合は、待ち受け画面のディスプレイシステムアイコンをタップし、又は、ディスプレイシステムアイコンを示すメッセージを発音し、或いは、リモコンによってディスプレイシステムアイコンを決定する。ディスプレイシステムアイコンをタップ又は発音(音声集音手段によって集音)或いは決定すると、ディスプレイ本体11の正面パネル17に図14に示すメニュー画面が出力(表示)される。図14のメニュー画面には、ウェブサイト紹介アイコン14a、要望事項表示アイコン14b、IOTアイコン14c、翻訳アイコン14d、OFFボタン14eが出力(表示)される。
 利用者が所望のウェブサイトを見るには、ウェブサイト紹介アイコン14aをタップし、又は、ウェブサイト紹介アイコン14aを示すメッセージを発音し、或いは、リモコンによってウェブサイト紹介アイコン14aを決定する。ウェブサイト紹介アイコン14aをタップ又は発音(音声集音手段によって集音)或いは決定すると、図示はしていないが、ディスプレイ本体11の正面パネル17に要望事項入力画面が出力(表示)される。要望事項入力画面には、要望事項(キーワード)を入力する要望事項入力エリア、要望事項決定ボタン、クリアボタン、OFFボタンが出力(表示)される。クリアボタンをタップ(クリック)すると、入力エリアに入力した要望事項(データ)がクリアされ、再度データを入力する(以下のクリアボタンも同様)。
 利用者は、要望事項入力エリアに所定の要望事項を入力した後、要望事項決定ボタンをタップする。又は、所定の要望事項を示すメッセージを発音する。利用者が発音した要望事項メッセージは、マイクロフォン25によって集音され、要望事項(キーワード)の電気信号がコントローラに送信される(音声集音手段)。尚、要望事項は「オンライン診療」又は「遠隔診断」とする。要望事項決定ボタンがタップされ、又は、要望事項の電気信号が送信されると、コントローラ(クラウドサーバ36又は物理的なサーバ)は、要望事項をキーワードとして要望事項に対応する各種複数のウェブサイトをインターネット(通信手段)を利用して他のサーバから受信し(ウェブサイト紹介情報受信手段)、ウェブサイト紹介情報受信手段によって他のサーバから受信した各種複数のウェブサイトの紹介情報を正面パネル17に出力(表示)する(ウェブサイト紹介情報出力手段)。
 ウェブサイト紹介情報出力手段においてコントローラ(クラウドサーバ36又は物理的なサーバ)は、図15に示すウェブサイト紹介情報画面を正面パネル17に出力(表示)する。図15のウェブサイト紹介情報画面には、オンライン診療が可能な各種複数の医療機関のウェブサイト(ホームページ)を出力(表示)したウェブサイト出力エリア15a~15d、OFFボタン15e、メニューボタン15fが出力(表示)される。メニューボタン15fをタップ(クリック)し、又は、メニューを示すメッセージを発音すると、図14のメニュー画面が正面パネル17に出力(表示)される(以下のメニューボタン、メニューメッセージも同様)。尚、ウェブサイト紹介情報画面を上下方向へスクロールすることによって他の各種複数の医療機関のウェブサイト(ホームページ)を表示させることができる。
 利用者が図15のウェブサイト紹介情報画面に出力(表示)された医療機関のウェブサイト(ホームページ)から希望のそれをタップ(選択)し、又は、希望の医療機関を示すメッセージを発音し、或いは、リモコンによって希望の医療機関のウェブサイト(ホームページ)を決定すると、コントローラ(クラウドサーバ36又は物理的なサーバ)は、指定(選択)された医療機関のサーバにログインし、指定(選択)された医療機関のウェブサイト(ホームページ)を正面パネル11に出力し(ウェブサイト出力手段)、オンライン診療の手続きが開始される。所定の手続きが終了すると、オンライン診療が開始される。オンライン診療が開始されると、コントローラ(クラウドサーバ36又は物理的なサーバ)は、デジタルカメラ24を利用して利用者を撮影し(画像撮影手段)、撮影手段によって撮影した利用者の画像データをインターネット(通信手段)を利用して医療機関のサーバ(他のサーバ)に送信する(画像データ送信手段)。図示はしていないが、医療機関のサーバに接続されたディスプレイには、利用者の画像(動画や3D画像)が出力(表示)される。
 コントローラ(クラウドサーバ36又は物理的なサーバ)は、利用者とディスプレイ装置10Aを介して対面する医師(第三者)の画像データをインターネット(通信手段)を利用して医療機関のサーバ(他のサーバ)から受信し(画像データ受信手段)、画像データ受信手段によって受信した医師(第三者)の画像(動画や3D画像)をディスプレイ装置10Aの正面パネル17に出力(表示)する(画像データ出力手段)。図16に示すオンライン診療画面が正面パネル17に出力(表示)され、オンライン診療が開始される。図16のオンライン診療画面には、医療機関の医師の動画を出力(表示)する医師動画出力エリア16a、診察中に医師のコメントを出力(表示)するコメント出力エリア16b、OFFボタン16c、メニューボタン16dが出力(表示)される。
 コントローラ(クラウドサーバ36又は物理的なサーバ)は、医師の動画をディスプレイ装置10Aの正面パネル17に係属して出力(表示)するとともに、マイクロフォン25を利用して利用者の音声を集音し(音声集音手段)、音声集音手段によって集音した利用者の音声データをインターネット(通信手段)を利用して医療機関のサーバ(他のサーバ)に送信する(音声データ送信手段)。コントローラ(クラウドサーバ36又は物理的なサーバ)は、ディスプレイ装置10Aを介して利用者と対話する医師(第三者)の音声データをインターネット(通信手段)を利用して他のサーバから受信し(音声データ受信手段)、音声データ受信手段によって受信した医師(第三者)の音声をスピーカー29を利用して発音(出力)する(音声出力手段)。
 オンライン診療では、ディスプレイ装置10Aと医療機関のサーバとがインターネット(通信手段)を介して繋がり、利用者と医療機関の医師との間で画像及び音声による対面診療が行われる。尚、ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、オンライン診療のみならず、オンライン授業やオンラインセミナー、オンライン英会話、オンライン教室(料理教室、お茶教室、生花教室、習字教室、フィットネス等)等のオンラインで行われるあらゆる行為を行うことができる。又、ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、利用者の要望事項に対応するあらゆるウェブサイトを出力(表示)することができる。
 ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、利用者が発音した要望事項に対応する各種複数のウェブサイトのウェブサイト紹介情報を正面パネル17に出力(表示)することで、利用者が所望するウェブサイト紹介情報を音声だけで正面パネル17に出力(表示)させることができるとともに、指定したウェブサイトを正面パネル17に出力(表示)させることができ、音声によって要望した所望のウェブサイトを確認することで利用者が自己にとって有益な各種情報を得ることができる。
 図17は、ディスプレイ装置10Aの正面パネル17に出力された要望事項関連サイト紹介情報画面の一例を示す図である。図17では、支柱38やスタンド39の図示を省略している。以下、ディスプレイ装置10Aを例示して要望事項の出力を説明するが、ディスプレイ装置10Bによる要望事項の出力もディスプレイ装置10Aのそれと同一である。
 利用者が要望事項に関連する関連情報(関連データ)を見るには、図14のメニュー画面の要望事項表示アイコン14bをタップし、又は、要望事項表示アイコン14bを示すメッセージを発音し、或いは、リモコンによって要望事項表示アイコン14bを決定する。要望事項表示アイコン14bをタップ又は発音(音声集音手段によって集音)或いは決定すると、図示はしていないが、ディスプレイ本体11の正面パネル17に要望事項入力画面が出力(表示)される。要望事項入力画面には、要望事項(キーワード)を入力する要望事項入力エリア、要望事項決定ボタン、クリアボタン、OFFボタンが出力(表示)される。
 利用者は、要望事項入力エリアに所定の要望事項を入力した後、要望事項決定ボタンをタップする。又は、所定の要望事項を示すメッセージ発音する。利用者が発音した要望事項メッセージは、マイクロフォン25によって集音され、要望事項(キーワード)の電気信号がコントローラに送信される(音声集音手段)。尚、要望事項は「スニーカーショッピング」又は「スニーカー買い物」とする。要望事項決定ボタンがタップされ、又は、要望事項の電気信号が送信されると、コントローラ(クラウドサーバ36又は物理的なサーバ)は、要望事項をキーワードとして要望事項に対応する各種複数の要望事項関連サイト(要望事項をキーワードとして要望事項に関連する各種の要望事項関連データ)をインターネット(通信手段)を利用して各種複数のスニーカーメーカーのサーバ(他のサーバ)から受信し(要望事項関連データ受信手段)、要望事項関連データ受信手段によってスニーカーメーカーのサーバ(他のサーバ)から受信した各種複数のスニーカーメーカーのサイトの紹介情報(各種複数の要望事項関連サイトの紹介情報)を正面パネル17に出力(表示)する(要望事項関連サイト紹介情報出力手段)。
 要望事項関連サイト紹介情報出力手段においてコントローラ(クラウドサーバ36又は物理的なサーバ)は、図17に示す要望事項関連サイト紹介情報画面を正面パネル17に出力(表示)する。図17の要望事項関連サイト紹介情報画面には、スニーカーのショッピングが可能な各種複数のスニーカーメーカーのウェブサイト(ホームページ)を出力(表示)したウェブサイト出力エリア17a~17d、OFFボタン17e、メニューボタン17fが出力(表示)される。尚、要望事項関連サイト紹介情報画面を上下方向へスクロールすることによって他の各種複数のスニーカーメーカーのウェブサイト(ホームページ)を表示させることができる。
 利用者が図17の要望事項関連サイト紹介情報画面に出力(表示)されたスニーカーメーカーのウェブサイト(ホームページ)から希望のそれをタップ(選択)し、又は、スニーカーメーカーを示すメッセージを発音し、或いは、リモコンによってスニーカーメーカーのウェブサイト(ホームページ)を決定すると、コントローラ(クラウドサーバ36又は物理的なサーバ)は、指定(選択)されたスニーカーメーカーのサーバにログインし、指定(選択)されたスニーカーメーカーのウェブサイト(ホームページ)(要望事項関連データ受信手段によって受信した要望事項関連データ)を正面パネル17に出力する(要望事項関連データ出力手段)。利用者は、スニーカーメーカーのウェブサイト(ホームページ)においてオンラインショッピングを行う。尚、ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、オンラインショッピングのみならず、他のあらゆる要望事項に関連(対応)する各種の要望事項関連情報を他のサーバから受信することができ、受信した要望事項関連情報を正面パネル17に出力(表示)することができる。
 ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、利用者が発音(又は入力)した要望事項に関連する各種の要望事項関連情報を正面パネル17に出力(表示)することで、利用者が所望する各種の要望事項関連情報を音声(又は入力)だけで正面パネル17に出力(表示)させることができ、音声(又は入力)によって要望した所望の要望事項関連情報を確認することで利用者が自己にとって有益な各種情報を得ることができる。
 図18は、ディスプレイ装置10Aの正面パネル17に出力された外国人紹介情報画面の一例を示す図であり、図19は、ディスプレイ装置10Aの正面パネル17に出力されたオンライン対話画面の一例を示す図である。図18,19では、支柱37やスタンド39の図示を省略している。以下、ディスプレイ装置10Aを例示してオンライン対話を説明するが、ディスプレイ装置10Bによるオンライン対話もディスプレイ装置10Aのそれと同一である。
 利用者が翻訳を希望する場合、図14のメニュー画面の翻訳アイコン14dをタップし、又は、翻訳アイコン14dを示すメッセージを発音し、或いは、リモコンによって翻訳アイコン14dを決定する。翻訳アイコン14cをタップ又は発音(音声集音手段によって集音)或いは決定すると、図示はしていないが、ディスプレイ本体11の正面パネル17に翻訳要望事項入力画面が出力(表示)される。翻訳要望事項入力画面には、翻訳要望事項(キーワード)を入力する翻訳要望事項入力エリア、翻訳要望事項決定ボタン、クリアボタン、OFFボタンが出力(表示)される。
 利用者は、翻訳要望事項入力エリアに所定の翻訳要望事項を入力した後、翻訳要望事項決定ボタンをタップする。又は、所定の翻訳要望事項を示すメッセージを発音する。利用者が発音した翻訳要望事項メッセージは、マイクロフォン25によって集音され、翻訳要望事項(キーワード)の電気信号がコントローラに送信される(音声集音手段)。尚、翻訳要望事項は「英語への翻訳」とする。翻訳要望事項決定ボタンがタップされ、又は、翻訳要望事項の電気信号が送信されると、コントローラ(クラウドサーバ36又は物理的なサーバ)は、翻訳要望事項をキーワードとして翻訳要望事項に対応する日本語→英語翻訳画面(図示せず)を正面パネル17に出力(表示)する。
 利用者は、日本語→英語翻訳画面に翻訳したい言葉を発音し、又は、翻訳したい言葉を日本語→英語翻訳画面のテキスト入力エリアに入力し、翻訳ボタンをタップする。翻訳ボタンをタップすると、コントローラ(クラウドサーバ又は物理的なサーバ)は、翻訳アプリケーションを利用して日本語を英語に翻訳し(翻訳手段)、翻訳した英語を日本語→英語翻訳画面に出力(表示)する。
 又、翻訳要望事項が「外国人対話」又は「外国友人会話」であり、翻訳要望事項決定ボタンがタップされ、又は、翻訳要望事項の電気信号が送信されると、コントローラ(クラウドサーバ36又は物理的なサーバ)は、翻訳要望事項をキーワードとして翻訳要望事項に対応する各種複数の対話可能な外国人(その外国人(第三者)のURL(連絡先)を含む)をインターネット(通信手段)を利用して他のサーバから受信し(外国人紹介情報受信手段)、外国人紹介情報受信手段によって他のサーバから受信した各種複数の外国人(第三者)の紹介情報(URL)を正面パネル17に出力(表示)する(外国人紹介情報出力手段)。
 外国人紹介情報出力手段においてコントローラ(クラウドサーバ36又は物理的なサーバ)は、図18に示す外国人紹介情報画面を正面パネル17に出力(表示)する。図18の外国人紹介情報画面には、対話可能な複数の外国人(第三者)を出力(表示)した外国人出力エリア18a~18d、OFFボタン18e、メニューボタン18fが出力(表示)される。尚、外国人紹介情報画面を上下方向へスクロールすることによって他の複数の外国人(第三者)を表示させることができる。
 利用者が図18の外国人紹介情報画面の外国人出力エリア18a~18dに出力(表示)された外国人から対話希望の外国人(URL)をタップ(選択)し、又は、対話希望の外国人を示すメッセージを発音し、或いは、リモコンによって対話希望の外国人を決定すると、コントローラ(クラウドサーバ36又は物理的なサーバ)は、指定(選択)された対話対象の外国人のサーバにログインし、指定(選択)された外国人の画像を正面パネル17に出力し(外国人出力手段)、その外国人との対話が開始される。対話が開始されると、コントローラ(クラウドサーバ36又は物理的なサーバ)は、デジタルカメラ24を利用して利用者を撮影し(画像撮影手段)、撮影手段によって撮影した利用者の画像データをインターネット(通信手段)を利用して対話対象の外国人のサーバ(他のサーバ)に送信する(画像データ送信手段)。図示はしていないが、対話対象の外国人のサーバに接続されたディスプレイには、利用者の画像(動画や3D画像)が出力(表示)される。
 コントローラ(クラウドサーバ36又は物理的なサーバ)は、利用者とディスプレイ装置10Aを介して対面する外国人(第三者)の画像データをインターネット(通信手段)を利用して外国人のサーバ(他のサーバ)から受信し(画像データ受信手段)、画像データ受信手段によって受信した外国人(第三者)の画像(動画や3D画像)をディスプレイ装置10Aの正面パネル17に出力(表示)する(画像データ出力手段)。図19に示すオンライン対話画面が正面パネル17に出力(表示)され、対話が開始される。図19のオンライン対話画面には、対話対象の外国人の動画を出力(表示)する外国人動画出力エリア19a、対話中に外国人の会話を出力(表示)する会話出力エリア19b、OFFボタン19c、メニューボタン19dが出力(表示)される。
 コントローラ(クラウドサーバ36又は物理的なサーバ)は、外国人の動画をディスプレイ装置10Aの正面パネル17に係属して出力(表示)するとともに、マイクロフォン25を利用して利用者の音声を集音し(音声集音手段)、音声集音手段によって集音した利用者の音声データを翻訳アプリケーションを利用して対話対象の外国人が聞き取り可能な言語に翻訳する(翻訳手段)。コントローラ(クラウドサーバ36又は物理的なサーバ)は、翻訳手段によって翻訳した利用者の音声データをインターネット(通信手段)を利用して外国人のサーバ(他のサーバ)に送信する(音声データ送信手段)。翻訳された利用者の音声は、外国人のサーバに接続されたスピーカーから出力(発音)される。
 コントローラ(クラウドサーバ36又は物理的なサーバ)は、ディスプレイ装置10Aを介して利用者と対話する外国人(第三者)の音声データをインターネット(通信手段)を利用して他のサーバから受信し(音声データ受信手段)、音声データ受信手段によって受信した外国人の音声データを翻訳アプリケーションを利用して利用者が聞き取り可能な言語に翻訳する(翻訳手段)。コントローラ(クラウドサーバ36又は物理的なサーバ)は、翻訳手段によって翻訳した外国人の音声をスピーカー29を利用して出力(発音)する(音声出力手段)。尚、会話出力エリア19bには、翻訳された利用者の外国語の音声が時系列に出力(表示)されるとともに、翻訳された外国人の音声が時系列に出力(表示)される。
 オンライン対話では、ディスプレイ装置10Aと外国人のサーバとがインターネット(通信手段)を介して繋がり、利用者と外国人との間で画像及び音声による対面対話が行われ、翻訳手段によって双方が理解可能な言語に翻訳される。尚、ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、オンライン対話のみならず、翻訳手段によって外国のあらゆる情報を利用者が理解可能な言語に翻訳する。ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、利用者の音声及び外国人(第三者)の音声を所定の言語に翻訳し、翻訳した利用者の音声及び外国人の音声をスピーカー29を利用して出力するから、言語が異なる各国の外国人と対話によってコミュニケーションを取ることができ、他国の外国人に有益な各種情報を伝えることができ、他国の外国人から有益な各種情報を得ることができる。
 図20は、ディスプレイ装置10Aの正面パネル17に出力されたIOT対象機器選択画面の一例を示す図である。図20では、支柱37やスタンド39の図示を省略している。以下、ディスプレイ装置10Aを例示してIOT(Internet of Things)による電化製品の操作を説明するが、ディスプレイ装置10BにおけるIOTによる電化製品の操作もディスプレイ装置10Aのそれと同一である。
 利用者がIOTによる電化製品の操作を希望する場合、図14のメニュー画面のIOTアイコン14cをタップし、又は、IOTアイコン14cを示すメッセージ(例えば、IOT)を発音し、或いは、リモコンによってIOTアイコン14cを決定する。IOTアイコン14cをタップ又は発音(音声集音手段によって集音)或いは決定すると、コントローラ(クラウドサーバ36又は物理的なサーバ)は、図20に示すIOT対象機器選択画面をディスプレイ本体11の正面パネル17に出力(表示)する。
 図20のIOT対象機器選択画面には、IOT対象機器を出力(表示)したIOT対象機器出力エリア20a、OFFボタン20b、メニューボタン20cが出力(表示)される。IOT対象機器出力エリア20aには、対象機器(電化製品)として、冷蔵庫、エアーコンディショナー、洗濯機、給湯器、照明器具、清掃ロボットが出力(表示)されているが、対象機器(電化製品)は図示のそれらに限定されず、対象機器(電化製品)にはIOTによって操作可能なすべての電気機器が含まれる。
 利用者は、IOT対象機器出力エリア20aからIOTによって操作する電化製品(対象機器)をタップし、又は、IOT対象機器を示すメッセージ(例えば、冷蔵庫やエアコン等)を発音し、或いは、リモコンによってIOT対象機器を決定する。電化製品(対象機器)をタップ又は発音(音声集音手段によって集音)或いは決定すると、タップ又は発音或いは決定された電化製品の電気機器識別情報がコントローラからクラウドサーバ36(又は物理的なサーバ)に送信される。クラウドサーバ36(又は物理的なサーバ)は、電気機器識別情報によってIOT対象機器を識別し、識別したIOT対象機器に指示するプロセス(ジョブ)を選択する。クラウドサーバ36(又は物理的なサーバ)は、選択したプロセスをインターネットを利用して電化製品(対象機器)に送信し、電化製品に選択したプロセスを実行させる(プロセス実行手段)。電化製品は、クラウドサーバ36(又は物理的なサーバ)からインターネットを経由して送信された各プロセスを実行する。
 IOTによって冷蔵庫に実行させるプロセスには、ドアの開閉管理、ドアの開閉に基づく家族の安否確認、冷蔵庫から伝言を発音する伝言機能、冷蔵庫の温度の遠隔操作等がある。IOTによってエアーコンディショナーに実行させるプロセスには、エアコンのスイッチON/OFFの遠隔操作、風速や温度の遠隔操作、遠隔操作によるタイマー設定、遠隔操作によるモード切り替え等がある。IOTによって洗濯機に実行させるプロセスには、洗濯機のスイッチON/OFFの遠隔操作、洗濯物の合ったコース設定、洗濯状況の確認等がある。IOTによって給湯器に実行させるプロセスには、給湯器のスイッチON/OFFの遠隔操作、温度の遠隔操作、水量の遠隔操作等がある。IOTによって照明器具に実行させるプロセスには、照明器具のスイッチON/OFFの遠隔操作、照明器具の明るさの遠隔操作、照明器具の調光等がある。IOTによって清掃ロボットに実行させるプロセスには、清掃ロボットのスイッチON/OFFの遠隔操作、清掃ロボットの出力の遠隔操作等がある。
 ディスプレイ装置10A(ディスプレイ装置10Bを含む)は、IOTによってコマンドに対応する所定のプロセスを電気機器(冷蔵庫、エアーコンディショナー、洗濯機、給湯器、照明器具、清掃ロボット)に実行させるから、利用者が所望する各種のプロセスをIOTを介して電気機器に実行させることができ、IOTを利用して電気機器を遠隔操作によって稼働させることができる。
 10A ディスプレイ装置(ディスプレイシステム)
 10B ディスプレイ装置(ディスプレイシステム)
 11  ディスプレイ本体
 12a~12d 第1~第4延出部材(第1~第4延出部)
 13  第1端縁
 14  第2端縁
 15  第1側縁
 16  第2側縁
 17  正面パネル
 18  背面エリア
 19a~19d 第1~第4内周縁
 20a~20d 第1~第4外周縁
 21  前面開口
 22  生地
 23a~23d 第1~第4取付プレート
 24  デジタルカメラ(カメラ)
 25  マイクロフォン
 26  人感センサ
 27  光検知センサ
 28  LED照明
 29  スピーカー
 30a~30d 第1~第4仮想交差周縁
 31a~31d 第1~第4交差角部
 32a~32d 第1~第4延出部材(第1~第4延出部)
 33a~33d 第1~第4取付プレート
 34a~34d 第1~第4交差周縁
 35a~35d 第1~第4角
 36  クラウドサーバ
 37  支柱
 38  脚部
 39  スタンド

Claims (14)

  1.  互いに並行して一方向へ延びる第1及び第2端縁と、互いに並行して前記一方向と交差する交差方向へ延びる第1及び第2側縁と、それら端縁及びそれら側縁に囲繞された正面パネル及び背面エリアとを有し、前記一方向又は前記交差方向へ長い所定面積の矩形に成形されて前記正面パネルに所定の画像を出力するディスプレイ装置において、
     前記ディスプレイ装置が、前記第1端縁から径方向外方へ凸となるように円弧を画く第1外周縁を備えた所定面積の第1延出部と、前記第2端縁から径方向外方へ凸となるように円弧を画く第2外周縁を備えた所定面積の第2延出部と、前記第1側縁から径方向外方へ凸となるように円弧を画く第3外周縁を備えた所定面積の第3延出部と、前記第2側縁から径方向外方へ凸となるように円弧を画く第4外周縁を備えた所定面積の第4延出部とを有し、前記正面パネルに向かい合う物体を撮影するカメラが、前記第1~第4延出部のうちの少なくとも1つの延出部に設置され、
     前記ディスプレイ装置が、所定のネットワークを利用して他のサーバと所定のデータを送受信可能な通信手段と、前記カメラを利用して前記物体を撮影する画像撮影手段と、前記撮影手段によって撮影した物体の画像データを前記通信手段を利用して他のサーバに送信する画像データ送信手段と、前記利用者と該ディスプレイ装置を介して対面する物体の画像データを前記通信手段を利用して前記他のサーバから受信する画像データ受信手段と、前記画像データ受信手段によって受信した物体の画像を前記正面パネルに出力する画像データ出力手段とを有することを特徴とするディスプレイ装置。
  2.  前記カメラによって撮影される物体が、前記ディスプレイ装置の利用者であり、前記利用者と前記ディスプレイ装置を介して対面する物体が、該利用者と該ディスプレイ装置を介して対話する第三者であり、前記撮影手段が、前記カメラを利用して前記利用者を撮影し、前記画像データ送信手段が、前記撮影手段によって撮影した利用者の画像データを前記通信手段を利用して他のサーバに送信し、前記画像データ受信手段が、前記第三者の画像データを前記通信手段を利用して前記他のサーバから受信し、前記画像データ出力手段が、前記画像データ受信手段によって受信した第三者の画像を前記正面パネルに出力する請求項1に記載のディスプレイ装置。
  3.  前記ディスプレイの正面パネルに向かい合う利用者の音声を集音するマイクロフォンが、前記第1~第4延出部のうちの少なくとも1つの延出部に設置され、所定の音を発音するスピーカーが、前記第1~第4延出部のうちの少なくとも1つの延出部に設置され、前記ディスプレイ装置が、前記マイクロフォンを利用して前記利用者の音声を集音する音声集音手段と、前記音声集音手段によって集音した利用者の音声データを前記通信手段を利用して他のサーバに送信する音声データ送信手段と、該ディスプレイ装置を介して前記利用者と対話する第三者の音声データを前記通信手段を利用して前記他のサーバから受信する音声データ受信手段と、前記音声データ受信手段によって受信した第三者の音声を前記スピーカーを利用して出力する音声出力手段とを含む請求項2に記載のディスプレイ装置。
  4.  前記ディスプレイ装置が、前記利用者が発音した要望事項を前記音声集音手段によって集音した場合、前記要望事項をキーワードとして該要望事項に対応する各種複数のウェブサイトのウェブサイト紹介情報を前記通信手段を利用して他のサーバから受信するウェブサイト紹介情報受信手段と、前記ウェブサイト紹介情報受信手段によって受信したウェブサイト紹介情報を前記正面パネルに出力するウェブサイト紹介情報出力手段と、前記ウェブサイト紹介情報出力手段によって出力された各種複数のウェブサイトから所定のウェブサイトを指定したときに、指定したウェブサイトを前記正面パネルに出力するウェブサイト出力手段とを含む請求項3に記載のディスプレイ装置。
  5.  前記ディスプレイ装置が、前記利用者が発音した要望事項を前記音声集音手段によって集音した場合、前記要望事項をキーワードとして該要望事項に関連する各種の要望事項関連情報を前記通信手段を利用して他のサーバから受信する要望事項関連情報受信手段と、前記要望事項関連情報受信手段によって受信した要望事項関連情報を前記正面パネルに出力する要望事項関連情報出力手段とを含む請求項3又は請求項4に記載のディスプレイ装置。
  6.  前記ディスプレイ装置が、前記利用者が発音した音声及び他のサーバから受信した第三者の音声を所定の言語に翻訳する翻訳手段と、前記翻訳手段によって翻訳した前記利用者の音声及び前記第三者の音声を前記スピーカーを利用して出力する翻訳音声出力手段とを含む請求項3ないし請求項5いずれかに記載のディスプレイ装置。
  7.  前記利用者が所定の電気機器にIOTによって所定のプロセスを実行させるコマンドを前記ディスプレイ装置を介して入力した場合、前記コマンドに対応する所定のプロセスを前記通信手段を利用して前記電気機器に送信しつつ、前記所定のプロセスを該電気機器に実行させるプロセス実行手段を含む請求項3ないし請求項6いずれかに記載のディスプレイ装置。
  8.  前記正面パネルの前方に人が位置したときにその人を検知する人感センサが、前記第1~第4延出部のうちの少なくとも1つの延出部に設置され、前記ディスプレイ装置が、前記人感センサによって前記人を検知した場合、前記ディスプレイ装置を起動させるディスプレイ第1起動手段と、前記人感センサが前記人を検知した後、該人が検知されなくなった場合、起動させた前記ディスプレイ装置を停止させるディスプレイ第1停止手段とを含む請求項1ないし請求項7いずれかに記載のディスプレイ装置。
  9.  前記ディスプレイ装置が、前記ディスプレイ第1起動手段によって起動した後、前記撮影手段によって前記正面パネルの前方に位置する人を撮影しつつ、撮影した人の画像データと予め記憶した前記利用者の画像データとを比較する画像データ第1比較手段を含み、撮影した人の画像と記憶した前記利用者の画像とを前記画像データ第1比較手段によって比較した結果、撮影した人の画像と記憶した前記利用者の画像とが異なる場合、前記ディスプレイ第1停止手段を実施する請求項8に記載のディスプレイ装置。
  10.  前記ディスプレイ装置が、前記利用者が発音した起動メッセージを前記音声集音手段によって集音した場合、集音した利用者の起動メッセージの音声と予め記憶した利用者の音声とを比較する音声第1比較手段と、前記起動メッセージの音声と記憶した利用者の音声とを前記音声第1比較手段によって比較した結果、前記起動メッセージの音声と記憶した利用者の音声とが同一である場合、前記ディスプレイ装置を起動させるディスプレイ第2起動手段と、前記利用者が発音した停止メッセージを前記音声集音手段によって集音した場合、起動させた前記ディスプレイ装置を停止させるディスプレイ第2停止手段とを含む請求項3ないし請求項9いずれかに記載のディスプレイ装置。
  11.  前記正面パネルから前方を照らす照明が、前記第1~第4延出部のうちの少なくとも1つの延出部に設置され、前記ディスプレイ装置の周辺の光を検知する光検知センサが、前記第1~第4延出部のうちの少なくとも1つの延出部に設置され、前記ディスプレイ装置が、前記人感センサによって前記人を検知した場合であって、前記光検知センサが前記ディスプレイ装置の周辺の光を感知しない場合、前記照明を起動させる照明第1起動手段と、前記人感センサによって前記人を検知しない場合、又は、前記光検知センサが前記ディスプレイ装置の周辺の光を感知した場合、起動させた前記照明を消灯させる照明第1消灯手段とを含む請求項8ないし請求項10いずれかに記載のディスプレイ装置。
  12.  前記ディスプレイ装置が、前記照明第1起動手段によって前記照明を起動した後、前記撮影手段によって前記正面パネルの前方に位置する人を撮影しつつ、撮影した人の画像データと予め記憶した前記利用者の画像データとを比較する画像データ第2比較手段を含み、撮影した人の画像と記憶した前記利用者の画像とを前記画像データ第2比較手段によって比較した結果、撮影した人の画像と記憶した前記利用者の画像とが異なる場合、前記照明第1停止手段を実施する請求項11に記載のディスプレイ装置。
  13.  前記ディスプレイ装置が、前記利用者が発音した照明起動メッセージを前記音声集音手段によって集音した場合、集音した利用者の照明起動メッセージの音声と予め記憶した利用者の音声とを比較する音声第2比較手段と、前記照明起動メッセージの音声と記憶した利用者の音声とを前記音声第2比較手段によって比較した結果、前記照明起動メッセージの音声と記憶した利用者の音声とが同一である場合、前記照明を起動させる照明第2起動手段と、前記利用者が発音した照明停止メッセージを前記音声集音手段によって集音した場合、起動させた前記照明を消灯させる照明第2消灯手段とを含む請求項11又は請求項12いずれかに記載のディスプレイ装置。
  14.  前記ディスプレイ装置が、前記背面エリアに設置されて上下方向へ延びる支柱を含み、前記支柱に沿って上下方向上方と上下方向下方とへ上下動可能であり、前記支柱を中心として該支柱の右回り方向と左回り方向とへ回転可能であるとともに、該ディスプレイ装置の中心部を軸として時計回り時方向と半時計回り方向とへ旋回可能であり、前記ディスプレイ装置は、前記正面パネルを視認する前記利用者の顔面姿勢に対する適応性の程度を推定するための機械学習を行った学習済み学習モデルに、前記画像撮影手段によって撮影された前記利用者の顔面の画像データを入力することで、前記正面パネルを視認する前記利用者の顔面姿勢の適応性の程度を示す適応性スコアを前記学習モデルから取得する適応性推定手段と、前記適応性推定手段によって取得した前記適応性スコアが所定の条件を満たすように、該ディスプレイ装置を自動的に前記上下動させ又は前記回転させ或いは前記旋回させるディスプレイ可動手段とを含む請求項1ないし請求項12に記載のディスプレイ装置。
PCT/JP2021/025274 2020-07-09 2021-07-05 ディスプレイ装置 WO2022009826A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/011,904 US20230247176A1 (en) 2020-07-09 2021-07-05 Display device
CN202180046568.5A CN115777124A (zh) 2020-07-09 2021-07-05 显示器装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-118300 2020-07-09
JP2020118300A JP7488559B2 (ja) 2020-07-09 2020-07-09 ディスプレイ装置

Publications (1)

Publication Number Publication Date
WO2022009826A1 true WO2022009826A1 (ja) 2022-01-13

Family

ID=79553128

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/025274 WO2022009826A1 (ja) 2020-07-09 2021-07-05 ディスプレイ装置

Country Status (4)

Country Link
US (1) US20230247176A1 (ja)
JP (1) JP7488559B2 (ja)
CN (1) CN115777124A (ja)
WO (1) WO2022009826A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005536906A (ja) * 2001-12-12 2005-12-02 ユニバーサル ディスプレイ コーポレーション 情報処理機能を持つマルチメディア・ディスプレイ通信システム
US20070089343A1 (en) * 2005-10-24 2007-04-26 United Visual Arts, Llc Picture frame
JP2010162227A (ja) * 2009-01-16 2010-07-29 Sony Computer Entertainment Inc 操作装置及び携帯情報端末
WO2013077110A1 (ja) * 2011-11-22 2013-05-30 Necカシオモバイルコミュニケーションズ株式会社 翻訳装置、翻訳システム、翻訳方法およびプログラム
JP2014238442A (ja) * 2013-06-06 2014-12-18 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 撮像表示装置
WO2016174784A1 (ja) * 2015-04-28 2016-11-03 シャープ株式会社 制御装置および表示装置
JP2018084775A (ja) * 2016-11-25 2018-05-31 株式会社半導体エネルギー研究所 表示装置、電子機器、及び情報提供方法
JP2018131267A (ja) * 2017-02-17 2018-08-23 シャープ株式会社 梱包材、表示装置、テレビジョン受信機および梱包方法
WO2019130756A1 (ja) * 2017-12-26 2019-07-04 ソニー株式会社 表示装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005536906A (ja) * 2001-12-12 2005-12-02 ユニバーサル ディスプレイ コーポレーション 情報処理機能を持つマルチメディア・ディスプレイ通信システム
US20070089343A1 (en) * 2005-10-24 2007-04-26 United Visual Arts, Llc Picture frame
JP2010162227A (ja) * 2009-01-16 2010-07-29 Sony Computer Entertainment Inc 操作装置及び携帯情報端末
WO2013077110A1 (ja) * 2011-11-22 2013-05-30 Necカシオモバイルコミュニケーションズ株式会社 翻訳装置、翻訳システム、翻訳方法およびプログラム
JP2014238442A (ja) * 2013-06-06 2014-12-18 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 撮像表示装置
WO2016174784A1 (ja) * 2015-04-28 2016-11-03 シャープ株式会社 制御装置および表示装置
JP2018084775A (ja) * 2016-11-25 2018-05-31 株式会社半導体エネルギー研究所 表示装置、電子機器、及び情報提供方法
JP2018131267A (ja) * 2017-02-17 2018-08-23 シャープ株式会社 梱包材、表示装置、テレビジョン受信機および梱包方法
WO2019130756A1 (ja) * 2017-12-26 2019-07-04 ソニー株式会社 表示装置

Also Published As

Publication number Publication date
JP2022015451A (ja) 2022-01-21
US20230247176A1 (en) 2023-08-03
JP7488559B2 (ja) 2024-05-22
CN115777124A (zh) 2023-03-10

Similar Documents

Publication Publication Date Title
JP7411133B2 (ja) 仮想現実ディスプレイシステム、拡張現実ディスプレイシステム、および複合現実ディスプレイシステムのためのキーボード
IL266888B1 (en) Virtual user input controls in a mixed reality environment
CN104137118B (zh) 视频中的增强的脸部识别
KR101568347B1 (ko) 지능형 로봇 특성을 갖는 휴대형 컴퓨터 장치 및 그 동작 방법
CN111163906B (zh) 能够移动的电子设备及其操作方法
US9900541B2 (en) Augmented reality remote control
WO2014190886A1 (zh) 智能交互系统及其软件系统
JP2022504302A (ja) 家庭電器に制御用ユーザインタフェースを提供する方法及びシステム
US20130077831A1 (en) Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program
JP2013025789A (ja) 現実世界環境におけるジェスチャベースの対話型ホットスポット生成のシステム、方法及びプログラム
CN114391163A (zh) 手势检测系统和方法
JP6096391B2 (ja) 注意にもとづくレンダリングと忠実性
JP7258766B2 (ja) 割り込みに対するゲーム内反応
JP7036327B2 (ja) 高次脳機能障害用のリハビリテーションシステム及び画像処理装置
WO2022009826A1 (ja) ディスプレイ装置
CN113359503A (zh) 设备控制方法及相关装置
WO2022009825A1 (ja) ディスプレイ装置
WO2023230290A1 (en) Devices, methods, and graphical user interfaces for user authentication and device management
TW202336563A (zh) 用於經由人工實境裝置和實體裝置互動之方法和系統
US11720165B2 (en) Multi-party location-based VR shared space usage optimization
CN112424731B (zh) 信息处理设备,信息处理方法和记录介质
JP2022160778A (ja) ディスプレイユニット
Shi et al. A new gaze-based interface for environmental control
JP7270196B2 (ja) 高次脳機能障害用のリハビリテーションシステム及び画像処理装置
WO2020209184A1 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21838487

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21838487

Country of ref document: EP

Kind code of ref document: A1