WO2017109953A1 - 移動体表示システム、移動体表示方法及び移動体表示プログラム - Google Patents

移動体表示システム、移動体表示方法及び移動体表示プログラム Download PDF

Info

Publication number
WO2017109953A1
WO2017109953A1 PCT/JP2015/086282 JP2015086282W WO2017109953A1 WO 2017109953 A1 WO2017109953 A1 WO 2017109953A1 JP 2015086282 W JP2015086282 W JP 2015086282W WO 2017109953 A1 WO2017109953 A1 WO 2017109953A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
product
information
product information
building
Prior art date
Application number
PCT/JP2015/086282
Other languages
English (en)
French (fr)
Inventor
結佳 藤田
川浦 健央
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2015/086282 priority Critical patent/WO2017109953A1/ja
Publication of WO2017109953A1 publication Critical patent/WO2017109953A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising

Definitions

  • the present invention relates to a mobile object display system, a mobile object display method, and a mobile object display program.
  • flyer information of a plurality of stores is displayed using a small display area such as a smart phone, a tablet terminal, a personal computer, or a car navigation system.
  • a small display area such as a smart phone, a tablet terminal, a personal computer, or a car navigation system.
  • the conventional store guidance system has a problem that a plurality of products cannot be displayed at a time because flyer information of a plurality of stores is displayed on a small display area. Even if it can be displayed all at once, the displayed information becomes very fine because the display area is small, and there is a problem that the displayed information cannot be recognized without enlarging the displayed information.
  • the user wants to know information on a plurality of products at a time while using the automobile, there is no room for the user of the automobile to expand the displayed information from the viewpoint of safety.
  • An object of the present invention is to display information on a plurality of products at once and safely so that a user can recognize them by using a large display area inside the mobile body.
  • a mobile object display system includes: A display device that uses the entire front shield of the moving object as a display area; A determination unit that determines whether or not to display product information that is product information in the display area based on the state of the moving body; And an information display unit that displays the product information in the entire display area when the determination unit determines to display the product information in the display region.
  • the mobile object display system of the present invention it is determined whether or not to display product information in the display area based on the display device having the entire front shield of the mobile object as the display area and the state of the mobile object. Since the determination unit and the information display unit that displays the product information in the entire display area when the determination unit determines that the product information is to be displayed in the display region, the large display area inside the mobile body Product information can be displayed on the entire surface of a certain front shield so that the user can recognize it safely.
  • FIG. 1 is an overall configuration diagram of a mobile object display system 100 according to Embodiments 1 to 6.
  • FIG. The block diagram of the server 10 which concerns on Embodiment 1-6.
  • the block diagram of the in-building apparatus 40 which concerns on Embodiment 1-6.
  • FIG. 7 is a configuration diagram of a mobile terminal device 70 according to the first to sixth embodiments.
  • the block diagram of the moving body 20 which concerns on Embodiment 1-6.
  • the block diagram of the vehicle-mounted apparatus 50 which concerns on Embodiment 1-6.
  • the block diagram of the merchandise information 131 which concerns on Embodiment 1.
  • FIG. The flowchart which shows the mobile body display method 510 of the mobile body display system 100 which concerns on Embodiment 1, and the mobile body display process S100 of the mobile body display program 520.
  • FIG. 4 shows an example of an information display screen 331 displayed on the front shield 32 according to the first embodiment.
  • the block diagram of the vehicle-mounted apparatus 50 which is a modification of Embodiment 1.
  • FIG. The figure which shows an example of the purchase list
  • wrist 211b which is a list of the goods purchased in B building.
  • FIG. 10 is a flowchart showing a part of route search processing S150a according to the third embodiment.
  • the mobile object display system 100 includes a server 10, a mobile object 20, and an in-building device 40 arranged in the building 4.
  • the server 10 has a storage device 13.
  • the moving body 20 includes an in-vehicle device 50 and a display device 30.
  • the moving body 20 is an automobile.
  • the in-vehicle device 50 is a car navigation device and is also called a car navigation system.
  • the in-building device 40 manages information related to a plurality of stores or sales floors operating in the building 4 such as a building. There may be one store or sales floor operating in the building 4.
  • the building 4 and the in-building apparatus 40 are connected to the mobile body display system 100, the building 4 and the in-building apparatus 40 with which the mobile body display system 100 is provided may be one.
  • the server 10 and the in-vehicle device 50 are connected via the Internet 1.
  • the server 10 and the in-building device 40 are connected by the Internet 1.
  • the mobile display system 100 may include a mobile terminal device 70 that is carried by the user.
  • the mobile terminal device 70 is carried by a user of a mobile object.
  • the mobile terminal device 70 is a smart phone, a tablet terminal, or a personal computer.
  • the mobile terminal device 70 is a smartphone.
  • the mobile terminal device 70 and the in-vehicle device 50 are connected by the short-range communication 2.
  • the mobile terminal device 70 and the in-building device 40 are connected by the short-range communication 2.
  • the short-range communication 2 is specifically Bluetooth (registered trademark) communication, communication by Wi-Fi (registered trademark) (Wireless Fidelity), or the like.
  • Bluetooth (registered trademark) communication is used as an example of short-range communication, but communication using Wi-Fi (registered trademark) or other short-range wireless communication may be used.
  • the server 10 is a computer and includes hardware such as a CPU 11 (Central Processing Unit), a LAN (Local Area Network) interface 12, and a storage device 13.
  • the LAN interface 12 is connected to the Internet 1.
  • the storage device 13 stores product information 131 described later.
  • the CPU 11 is connected to other hardware via a signal line and controls these other hardware.
  • the in-building device 40 is a computer and includes hardware such as a CPU 41, a LAN interface 42, a scanner 43, a memory 44, an image processor 45, an image input interface 46, a display interface 47 connected to a monitor 471, and a short-range communication interface 48. Wear.
  • the LAN interface 42 is connected to the Internet 1.
  • the near field communication interface 48 is a Bluetooth (registered trademark) interface.
  • the CPU 41 is connected to other hardware via a signal line, and controls these other hardware.
  • the mobile terminal device 70 is a computer and includes hardware such as a CPU 71, a memory 72, a short-range communication interface 73, a mobile network interface 74, an image processor 75, a display interface 76 connected to a touch panel 761, and a sensor interface 77.
  • the near field communication interface 73 is a Bluetooth (registered trademark) interface.
  • the CPU 71 is connected to other hardware via a signal line and controls these other hardware.
  • the moving body 20 is an automobile and includes the hardware shown below.
  • the moving body 20 includes an ECU 201 (Engine / Control / Unit) that comprehensively controls engine operation control.
  • the ECU 201 includes an ECU 22 connected to the key ceiling 21, an ECU 24 connected to the gear 23, an ECU 26 connected to the parking brake 25, and a fuel consumption ECU 27.
  • the mobile body 20 includes the in-vehicle device 50 and the display device 30.
  • the display device 30 includes a display interface 31, a front shield 32, and a frame memory 33.
  • the frame memory 33 stores an information display screen 331 described later.
  • the display device 30 is a display device that uses the front shield 32 of the moving body 20 as a display area 301.
  • the display device 30 uses the entire surface of the front shield 32 as a display area 301.
  • the front shield 32 is a windshield.
  • the display area 301 is an area including a front area of the user such as the driver of the moving body 20 in the front shield 32.
  • the entire surface of the front shield 32 is 100% of the front shield 32, but may not be 100%, and may be approximately 80% or more of the front shield 32. Preferably, it is approximately 90% or more and 100% or less of the front shield 32.
  • the in-vehicle device 50 is a computer and includes hardware such as a CPU 51, a storage device 52, an image processing processor 53, and a sound processing processor 54.
  • the in-vehicle device 50 further includes a CAN (Controller / Area / Network) interface 55, a sensor interface 56 connected to the touch panel 561, a LAN interface 57, a voice interface 58 connected to the microphone 581, and a short-range communication interface 59.
  • the short-range communication interface 59 is specifically a Bluetooth (registered trademark) interface.
  • the LAN interface 57 is connected to the Internet 1.
  • the CAN interface 55 is connected to a CAN that connects the ECU 201 that is various ECUs.
  • the in-vehicle device 50 includes a reception unit 501, a determination unit 502, an information display unit 503, a navigation unit 504, and a storage unit 521 as functional configurations.
  • the functions of the reception unit 501, the determination unit 502, the information display unit 503, and the navigation unit 504 in the in-vehicle device 50 are referred to as “functions” of the in-vehicle device 50.
  • the function of “unit” of the in-vehicle device 50 is realized by software.
  • the storage unit 521 is realized by the storage device 52.
  • the CPU 51 is connected to other hardware via a signal line and controls these other hardware.
  • the CPU 51 is an integrated circuit (IC) that performs processing.
  • the CPU 51 is a processor. 6 has an image processing processor 53 and a sound processing processor 54 in addition to the CPU 51, the CPU 51 may also serve as the image processing processor 53 and the sound processing processor 54.
  • the storage device 52 includes an auxiliary storage device and a memory.
  • the auxiliary storage device is a ROM (Read / Only / Memory), a flash memory, or an HDD (Hard / Disk / Drive).
  • the memory is a RAM (Random Access Memory).
  • the storage device 52 may be realized by an auxiliary storage device or a memory.
  • the storage device 52 may be realized by both an auxiliary storage device and a memory.
  • the LAN interface 57 and the short-range communication interface 59 are communication devices.
  • the communication device is a NIC (Network, Interface, Card).
  • the communication apparatus includes a reception NIC and a transmission NIC.
  • the receiving NIC is a receiver, and the transmitting NIC is a transmitter.
  • the in-vehicle device 50 may include a communication device other than the LAN interface 57 and the short-range communication interface 59.
  • the audio interface 58 is connected to the microphone 581 and takes the audio into the in-vehicle device 50.
  • the sensor interface 56 is connected to the touch panel 561 and detects a position touched on the touch panel 561.
  • the sensor interface 56 is connected to various sensors such as a human sensor and a camera, and captures sensing data from the various sensors into the in-vehicle device 50.
  • the CAN interface 55 is connected to a CAN that is an in-vehicle network to which the ECU 201 mounted on the moving body 20 is connected, and takes in information from the ECU 201.
  • the auxiliary storage device stores a program that realizes the function of “unit”.
  • a program that realizes the function of “part” is also referred to as a moving object display program 520. This program is loaded into the memory, read into the CPU 51, and executed by the CPU 51.
  • Information, data, signal values, and variable values indicating the processing results of “unit” are stored in an auxiliary storage device, memory, or a register or cache memory in the CPU 51.
  • the program for realizing the function of “part” may be stored in a portable recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, or a DVD (Digital Versatile Disc).
  • a portable recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, or a DVD (Digital Versatile Disc).
  • a mobile display program product is a storage medium and a storage device on which a program that realizes the function described as “part” is recorded, and can be read by a computer regardless of the appearance format. The program is being loaded.
  • the storage device 13 stores product information as product information 131.
  • a product is a product sold at each of a plurality of stores operating in the building 4.
  • the product information 131 is generated by the in-building device 40 and stored in the storage device 13 via the Internet 1.
  • the building information 311 is information relating to the building and includes the name, address, telephone number, and recognition code 311a of the building.
  • the sales floor information 312 is information regarding the sales floor, and includes information on the name, floor, and position of the sales floor (position information 312a). Specifically, the sales floor is a store. However, even if they are in the same store, different sales floor information may be created when sales floors are divided according to the type of sales. Further, the position information 312a specifically represents the position by longitude and latitude.
  • the product 313 is information regarding the product, and includes the product name, unit, quantity, amount, target period, and photograph of the product.
  • the target period is a period in which the amount of the product 313 is valid.
  • the product information 131 is set with information regarding a plurality of products for each store or sales floor.
  • the product information 131 is also referred to as leaflet information or leaflet information with a recognition code.
  • the product information 131 may be described as leaflet information or leaflet information with a recognition code.
  • the CPU 41 of the in-building device 40 acquires sales floor information 312 including products 313 collected from each store or sales floor operating in the building 4.
  • the CPU 41 of the in-building apparatus 40 adds the building information 311 including the unique recognition code 311a of the building 4 to the sales floor information 312 collected from the store or the sales floor, and generates product information.
  • a specific example of the unique recognition code 311a of the building 4 is Code_buildingA. jpg.
  • the CPU 41 of the in-building device 40 transmits the generated product information from the LAN interface 42 to the server 10 via the Internet 1.
  • the product information of the building 4 is also referred to as leaflet information of the building 4.
  • the CPU 11 of the server 10 receives product information from the Internet 1 through the LAN interface 12 and stores it in the storage device 13 as product information 131.
  • the moving body 20 turns on the power of the in-vehicle device 50, that is, the car navigation device.
  • the ECU 22 recognizes that the ignition is turned on and turns on the power of the in-vehicle device 50.
  • the CPU 51 executes initial settings and puts the touch panel 561 into a touch waiting state.
  • the moving body display process S100 includes a reception process S110, a determination process S120, an information display process S130, and a product selection process S140.
  • the reception unit 501 receives a display request that is a request for displaying the product information 131 on the display device 30.
  • the determination unit 502 determines whether or not to display the product information 131 that is product information in the display area 301 based on the state of the moving body 20.
  • the display area 301 is the front shield 32 of the moving body 20.
  • the display area 301 is preferably the entire surface of the front shield 32 of the moving body 20.
  • the information display unit 503 displays the product information 131 in the display area 301 when it is determined in the determination process S120 that the product information 131 is displayed in the display area 301.
  • the information display unit 503 preferably displays the product information 131 in the entire area of the display area 301. That is, the information display unit 503 displays the product information 131 by filling the entire area of the front shield 32.
  • the information display unit 503 stores a purchase list 211 including information on the product selected from the product information 131 displayed in the display area 301 and a recognition code 311a for authenticating a store that sells the product. Store in the unit 521.
  • the purchase list 211 is an example of the selected product list 200 that is a list of selected products.
  • step S111 the sensor interface 56 determines whether or not the voice input button of the touch panel 561 has been touched.
  • the sensor interface 56 determines whether or not the voice input button is touched by detecting the touched position on the touch panel 561. If the voice input button on the touch panel 561 is not touched (NO in step S111), the sensor interface 56 repeats step S111.
  • the sensor interface 56 notifies the reception unit 501 that the voice input button has been touched.
  • the accepting unit 501 instructs the voice interface 58 to wait for voice input.
  • the voice interface 58 enters a voice input waiting state waiting for voice input from the microphone 581.
  • step S ⁇ b> 112 the audio interface 58 determines whether audio is input from the microphone 581. If no voice is input (NO in step S112), the voice interface 58 repeats step S112. When voice is input from the microphone 581 (YES in step S112), the voice interface 58 passes the input voice to the voice processor 54 as voice data. The voice interface 58 notifies the reception unit 501 that the voice data has been passed to the voice processor 54. The accepting unit 501 instructs the speech processor 54 to perform speech recognition processing.
  • step S113 the voice processing processor 54 executes voice recognition processing of voice data.
  • the input of the voice “flyer” is a display request for displaying the product information 131 on the display device 30.
  • the voice processor 54 performs voice recognition processing on the input voice data and notifies the reception unit 501 of the processing result.
  • the reception unit 501 is notified that the voice “flyer” has been input as a processing result.
  • step S114 the voice processor 54 determines whether or not a voice “flyer” has been input.
  • the voice “flyer” is input (YES in step S114)
  • a voice other than “flyer” is input (NO in step S114)
  • the process returns to step S111, and the touch panel 561 is set in a touch waiting state.
  • step S ⁇ b> 121 the determination unit 502 acquires information representing the state of the moving body 20. Specifically, the determination unit 502 acquires the state of the key ceiling 21, the state of the gear 23, and the state of the parking brake 25 via the CAN interface 55.
  • step S ⁇ b> 122 the determination unit 502 determines whether or not to display the product information 131 in the display area 301 based on the acquired state of the moving body 20. Specifically, the determination unit 502 determines whether or not to display the product information 131 in the display area 301 based on the state of the key ceiling 21, the state of the gear 23, and the state of the parking brake 25. In the present embodiment, the product information 131 is displayed on the entire surface of the front shield 32 so that the content of the displayed product information 131 can be recognized. Therefore, during the movement of the mobile object 20, the product information 131 cannot be displayed basically from the viewpoint of safety. The determination unit 502 determines whether or not the moving body 20 is stopped.
  • the determination unit 502 determines that the engine is on, the gear is neutral, and the parking brake is applied, as a stopped state. Further, when the moving body 20 is an automatic vehicle, the determination unit 502 determines that the engine is on, the gear is parked or neutral, and the parking brake is applied as a stopped state. In addition to the above, other conditions may be used as long as it can be determined whether or not the moving body 20 is stopped. In the case of a moving body that does not have a parking brake, the determination may be made only from the state of the gear.
  • step S ⁇ b> 123 the determination unit 502 determines whether or not to display the product information 131 on the front shield 32. Specifically, the determination unit 502 determines to display the product information 131 on the front shield 32 when the state of the moving body 20 is in a stopped state. The determination unit 502 determines that the product information 131 is not displayed on the front shield 32 when the moving body 20 is in the moving state. When it is determined that the product information 131 is displayed on the front shield 32 (YES in step S123), the process proceeds to the information display process S130. If it is determined that the product information 131 is not displayed on the front shield 32 (NO in step S123), the process proceeds to step S124. In step S124, the determination unit 502 outputs a warning to the output device of the in-vehicle device 50 that the product information 131 cannot be displayed because it is moving. This warning is output from the monitor or speaker of the in-vehicle device 50.
  • the information display process S130 will be described with reference to FIG.
  • the information display unit 503 displays the product information 131 in the display area 301 on the entire surface of the front shield 32 when it is determined in the determination process S120 that the product information 131 is displayed in the display area 301.
  • step S ⁇ b> 131 the information display unit 503 transmits a request for sending the product information 131 to the server 10 via the Internet 1 using the LAN interface 57, and puts the LAN interface 57 in a standby state for receiving the product information 131.
  • the sending request received by the LAN interface 12 is transferred to the CPU 11, and the CPU 11 analyzes the contents of the sending request.
  • the CPU 11 instructs the LAN interface 12 to transmit the product information 131 stored in the storage device 13 to the in-vehicle device 50.
  • the LAN interface 12 transmits product information 131 to the in-vehicle device 50 via the Internet 1.
  • step S132 the LAN interface 57 of the in-vehicle device 50 determines whether or not the product information 131 has been received. If the merchandise information 131 has not been received (NO in step S132), the LAN interface 57 repeats step S132. When the merchandise information 131 is received (YES in step S132), the LAN interface 57 stores the received merchandise information 131 in the storage unit 521 which is a nonvolatile memory, and the information display unit 503 indicates that the merchandise information 131 has been received. Notice.
  • step S133 the information display unit 503 recognizes that the product information 131 stored in the storage unit 521 is the product information 131 of the plurality of buildings 40.
  • the information display unit 503 analyzes the product information 131, extracts one piece of product information 131a from the product information 131, determines the placement in the frame memory 33 via the display interface 31, and places the product information 131a in the frame memory 33.
  • the product information 131 includes product information 131a, 131b,... For each building 4.
  • step S134 the information display unit 503 specifies the arrangement of the product information 131a in the frame memory 33 and requests the image processor 53 to generate one image from the product information 131a.
  • the image processor 53 generates one image.
  • step S ⁇ b> 135, the image processor 53 places the generated one image at a designated position in the frame memory 33.
  • step S136 the information display unit 503 determines whether or not the product information 131a is the last product information 131. If the product information 131a is not the last product information 131 (NO in step S136), the process proceeds to step S137.
  • step S ⁇ b> 137 the information display unit 503 determines whether the display area 301 of the frame memory 33 is filled. When it is determined that the display area 301 of the frame memory 33 is not filled (NO in step S137), the information display unit 503 repeats steps 133 to S136.
  • step S136 If the product information 131a is the last product information 131 (YES in step S136), the information display unit 503 proceeds to step S138. If it is determined that the display area 301 of the frame memory 33 is filled (YES in step S137), the information display unit 503 proceeds to step S138.
  • the content of the frame memory 33 is an information display screen 331 that is a screen displayed on the front shield 32.
  • step S138 the information display unit 503 causes the display interface 31 to display the contents of the frame memory 33, that is, the information display screen 331, on the front shield 32.
  • the process proceeds to the product selection process S140.
  • FIG. 11 shows a piece of product information 131 a that is a part of the information display screen 331 displayed on the front shield 32.
  • the information displayed on the front shield 32 is displayed in a size that allows the user to recognize the contents in the displayed state. As shown in FIG. 11, it is possible to display all the products of all the stores in the building at once, and also display them for each store or each product type by the user operating the tab.
  • the information display unit 503 displays the plurality of product information 131 side by side until the display area 301 is filled. .
  • the display area 301 of the front shield 32 has fewer restrictions on the display area than a small monitor of a portable terminal such as a smartphone or a tablet, and can display a variety of information.
  • the product selection process S140 is a process in which the user selects a product from the information display screen 331 of the front shield 32 after the in-vehicle device 50 displays the product information 131 on the display device 30.
  • step S141 the information display unit 503 determines whether or not there is a product selection sign from the user. Specifically, the user transmits a product selection sign including information on the selected product to the microphone or the camera by gesture or voice. When the sensor interface 56 captures these product selection signs, the information display unit 503 determines that there is a product selection sign. If there is a merchandise selection sign (YES in step S141), the information display unit 503 proceeds to step S143. If there is no product selection sign (NO in step S141), the information display unit 503 proceeds to step S142.
  • step S142 the information display unit 503 determines whether or not there has been a selection end sign by the user. If there is a selection end sign (YES in step S142), the information display unit 503 proceeds to the end process of step S144. If there is no selection end sign (NO in step S142), the information display unit 503 returns to step S141.
  • step S143 the information display unit 503 stores the information on the selected product included in the product selection sign in the storage unit 521 as the purchase list 211. Specifically, the information display unit 503 adds the information on the product selected by the user to the purchase list 211 prepared in the storage unit 521, and returns to step S141.
  • the purchase list 211 the selected product, the sales floor information of the store or sales floor where the product is sold, and the building information of the building 4 in which the store or sales floor is located are associated with each other. That is, the configuration of the purchase list 211 is the same as the configuration of the product information 131.
  • step S144 the information display unit 503 determines whether a display end instruction for instructing to end the display of the product information 131 on the front shield 32 is received. When the display end instruction has not been received, the information display unit 503 waits for the display end instruction. When the display end instruction is received, the information display unit 503 ends the display of the product information 131 on the front shield 32, and returns to step S111.
  • the display end instruction is generated by a request from the user and transmitted to the information display unit 503. Alternatively, the in-vehicle device 50 may automatically generate a display end instruction from the state of the moving body 20.
  • the display on the front shield 32 is forcibly made depending on the state of the moving body 20 such that the side brake is released or the gear enters driving. It may be finished.
  • the operation of the moving body 20 may be restricted.
  • the function of the “unit” of the in-vehicle device 50 is realized by software, but as a modification, the function of the “unit” of the in-vehicle device 50 may be realized by hardware.
  • a configuration of an in-vehicle device 50 according to a modified example of the present embodiment will be described with reference to FIG. As illustrated in FIG. 12, the in-vehicle device 50 includes a processing circuit 909 instead of the CPU 51 and the storage device 52 illustrated in FIG. 6.
  • the processing circuit 909 is a dedicated electronic circuit that realizes the function of the “unit” and the storage unit 521 described above. Specifically, the processing circuit 909 includes a single circuit, a composite circuit, a programmed processor, a processor programmed in parallel, a logic IC, a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), or FPGA (Field-Programmable / Gate / Array).
  • unit may be realized by one processing circuit 909 or may be realized by being distributed to a plurality of processing circuits 909.
  • the function of the in-vehicle device 50 may be realized by a combination of software and hardware. That is, some functions of the in-vehicle device 50 may be realized by dedicated hardware, and the remaining functions may be realized by software.
  • the processor 910, the storage device 920, and the processing circuit 909 are collectively referred to as a “processing circuit”. That is, regardless of the configuration of the in-vehicle device 50 shown in FIGS. 6 and 12, the function of “unit” and the storage unit 521 are realized by a processing circuit.
  • Part may be read as “Process”, “Procedure” or “Process”. Further, the function of “unit” may be realized by firmware.
  • the product selection process S140 that allows the displayed product to be selected is executed after the information display process S130 that displays the product information 131 on the entire surface of the front shield 32.
  • the product selection process S140 may be omitted. In that case, what is necessary is just to perform step S144 after step S138.
  • the determination unit 502 determines that the product information 131 is displayed on the front shield 32 when the moving body 20 is in the stopped state. However, when the moving body 20 has an automatic driving function for automatic driving, the determination unit 502 may determine that the product information 131 is displayed on the front shield 32 when the moving body 20 is in the automatic driving state. . That is, when the moving body 20 is an autonomous driving vehicle, it may be determined that the product information 131 is displayed on the front shield 32 regardless of whether the vehicle 20 is in an automatic driving or stopped state.
  • the flyer information of a plurality of products of a plurality of buildings is displayed and the user selects the product, but when the user's purchase product is determined, if the product name is input by voice recognition or the like, It is also possible to search from a plurality of buildings and display flyer information of only the product.
  • the display method may be classified and presented as meat, vegetables, fruits, cereals, daily miscellaneous goods, etc., or it may be selected at random so that products of all buildings are displayed evenly. May be.
  • the server when requesting the display of flyer information, the position of the car is specified, and the server sends the flyer information with a recognition code regarding a building within a certain range from the position. May be.
  • a desired display range may be specified and requested to the server.
  • the recognition code is shown as a JPEG image.
  • any file format can be used as long as it can be displayed on a smartphone. May be.
  • a password may be used instead of an image.
  • the building may have a password input unit instead of an identification code reading unit.
  • the monitor of the vehicle-mounted apparatus 50 may not be a touch panel, and the system which can select a button by movement of a cursor may be used.
  • the voice for requesting the display of the merchandise information may not be a “flyer”, and any voice may be used as long as it is defined as a merchandise display request.
  • the product display request may not be a voice, but may be a button on the touch panel.
  • the mobile object display system when the user wants to know information on a plurality of stores and a plurality of products while traveling by car, there is no room for expanding the displayed information from the viewpoint of safety.
  • the mobile object display system it is possible to display information on a plurality of products at once using a large display area inside the mobile object.
  • the merchandise information which can recognize the content can be displayed on a front shield, without going through the operation
  • the display has a function of disappearing when attempting to move, so that it is safer.
  • Embodiment 2 FIG. *** Explanation of configuration ***
  • a part added to the first embodiment or a part different from the first embodiment will be mainly described.
  • the processing until the vehicle-mounted device 50 presents the product information 131 on the front shield 32 of the moving body 20 and the product is selected by the user has been described.
  • the operation of the mobile display system until the product selected by the user is actually purchased at a store or a sales floor will be described.
  • the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof may be omitted.
  • the configuration of the mobile object display system 100 according to the present embodiment is the same as that described in the first embodiment.
  • the purchase list 211 of the storage unit 521 stores a purchase list 211a which is a list of products purchased at the A building and a purchase list 211b which is a list of products purchased at the B building.
  • FIG. 13 is a diagram illustrating an example of a purchase list 211a that is a list of products purchased in the A building.
  • FIG. 14 is a diagram illustrating an example of a purchase list 211b which is a list of products to be purchased at B building.
  • FIG. 15 is a diagram illustrating an example of a map around the user's home. Here, it is assumed that the home is the current location.
  • the route search process S150 is a process in which the navigation unit 504 guides the moving body 20 to the store based on the location information of the store included in the product information. Specifically, the navigation unit 504 determines a search route to the store based on the purchase list 211 that is the selected product list 200.
  • the route search process S150 may be executed when there is a selection end sign in step S142 of FIG. Moreover, it may be executed when the in-vehicle device 50 receives a route search request from the user.
  • step S 151 the navigation unit 504 extracts building information from the purchase list 211 stored in the storage unit 521.
  • step S152 the navigation unit 504 arranges the building information in order from the home, which is the current location, to building A and building B.
  • step S153 the navigation unit 504 sets Building B, which is the last building, as a destination, and sets Building A, which is the other building, as a waypoint.
  • step S154 the navigation unit 504 performs a route search using the set destination and waypoint.
  • step S ⁇ b> 155 the navigation unit 504 stores the search route that is the route search processing result in the storage unit 521.
  • the navigation process S160 is a process of navigating the moving body 20 based on the searched route when the user starts the engine and starts driving.
  • step S161 when the key ceiling 21 is turned by the user and the engine is started, the power of the moving body 20 is once turned off and the power is turned on again. As a result, the vehicle-mounted device 50 is also turned on after the power is turned off.
  • the CPU 51 finishes the initial setting.
  • step S162 the navigation unit 504 reads the search route and the map from the storage unit 521.
  • step S163 the navigation unit 504 causes the image processing processor 53 to synthesize the search route and the map.
  • step S164 the navigation unit 504 causes the touch panel 561 to display a composite image of the search route and the map.
  • step S165 when the user starts driving, the navigation unit 504 performs navigation in accordance with the movement of the moving body 20.
  • the user support process S ⁇ b> 170 is a process in which the navigation unit 504 transmits the selected product list 200 to the mobile terminal device 70 by the short-range communication 2.
  • the user support processing S ⁇ b> 170 is executed when the mobile body 20 arrives at the building 4 and the user performs shopping at the building 4.
  • the user support process S170 may be started automatically after step S165 of FIG. 17 or may be started by a user request.
  • step S ⁇ b> 171 the navigation unit 504 detects that the mobile object 20 has arrived at building A, which is a transit point.
  • step S ⁇ b> 172 the navigation unit 504 reads the purchase list 211 a that is the flyer information of A building from the purchase list 211 stored in the storage unit 521.
  • step S173 the navigation unit 504 transfers the purchase list 211a to the mobile terminal device 70 via the short-range communication 2 by the short-range communication interface 59.
  • the short-range communication 2 is Bluetooth (registered trademark) communication
  • a specific example of the mobile terminal device 70 is a smartphone.
  • the portable support process S180 is a process in which the portable terminal device 70 and the in-vehicle device 50 that are carried when the user shop in the building 4 cooperates to support the purchase of the product by the user.
  • the portable support process S180 is started when the portable terminal device 70 receives the purchase list 211a transferred from the in-vehicle device 50 in step S173 of FIG.
  • the mobile terminal device 70 is authenticated for purchase of the product in the store by the store recognition code 311 a included in the selected product list 200 received from the navigation unit 504.
  • step S181 the near field communication interface 73 determines whether or not there is a near field communication reception, that is, Bluetooth (registered trademark) reception. If there is a near field communication reception, in step S182, the near field communication interface 73 stores the received content in the memory 72 and notifies the CPU 71 that it has been received. When there is no near field communication reception, that is, when there is no Bluetooth (registered trademark) reception, the near field communication interface 73 repeats step S181.
  • step S183 the CPU 71 confirms the received content and determines whether the received content is the purchase list 211a. If the received content is not the purchase list 211a, the CPU 71 returns to step S181. If the received content is the purchase list 211a, the contents of the purchase list 211a are analyzed in step S184.
  • step S185 the CPU 71 causes the touch panel 761 to display a list of store names to be purchased included in the purchase list 211a via the display interface 76.
  • a greengrocer of A building having the contents shown in FIG. 13 is displayed on the touch panel 761.
  • step S186 when A greengrocer is clicked by the user, the sensor interface 77 recognizes that the display area of “A greengrocer” has been clicked, and notifies the CPU 71 of it. If there is no click, step S186 is repeated.
  • step S187 the CPU 71 determines whether it is a product list display request. If it is a product list display request, in step S188, the CPU 71 reads a product list associated with “A greengrocer” from the memory 72, and displays the product list and the characters “coupon” on the touch panel 761. If it is not a product list display request, the process proceeds to step S191. In step S191, the CPU 71 determines whether or not there is a coupon display request.
  • the sensor interface 77 recognizes that the display area of “coupon” has been clicked, and notifies the CPU 71 of it.
  • the CPU 71 displays a coupon. That is, the CPU 71 displays a list of recognition codes associated with the building A, which is the building of the purchase list 211a, which is flyer information, and a character “Please hold it over the coupon reader at the store” on the touch panel 761 via the display interface 76. Display.
  • step S193 the CPU 71 determines whether or not there has been short-range communication reception, that is, Bluetooth (registered trademark) reception.
  • short-range communication reception that is, Bluetooth (registered trademark) reception.
  • the scanner 43 reads the recognition code and stores the read image in the memory 44 of the in-building device 40.
  • the CPU 41 of the in-building device 40 compares the original image in the memory 44 with the image that has just been read, and if it is the same, authentication is possible and the mobile terminal device 70 is communicated to the mobile terminal device 70 via short-range communication, that is, Bluetooth (registered trademark) communication. Notify via As a result, the user can purchase cabbage for 88 yen per piece and onions for 100 yen per bag.
  • step S 194 the CPU 71 determines that the user has been able to purchase at a discount price when authentication is received through near field communication reception. Moreover, the number of purchasers can be grasped in the in-building apparatus 40 of the A building.
  • the CPU 71 determines whether or not “return” is clicked (step S195 and step S196), and when it is “return”, the process returns to step S186. If “return” is not clicked, the process returns to step S193.
  • step S189 If it is determined in step S189 that the user has completed shopping at the building A, the CPU 71 displays “all product purchase completed” on the touch panel 761 in step S190, and the process ends. If shopping at A building is not completed, the process returns to step S186. When the user finishes shopping at the building A, the user returns to the moving body 20 and starts the engine, the navigation unit 504 similarly navigates the moving body 20 to the B building. You can purchase “Daiginjo Nihonkai” for ⁇ 1,500 at a liquor store, and you can know the number of buyers.
  • the user can purchase a product at a flyer price included in the product information by reading the building recognition code, and the number of purchasers on the store side can be increased. I can grasp. Therefore, an index of effectiveness of the mobile object display system can be obtained.
  • the mobile object display system is used for everyday shopping using leaflets.
  • it may be a non-flyer, for example, it may be used to obtain guide map information with a recognition code at a travel destination, present the guide map on the front shield, and use it to determine the next destination with all car occupants Good.
  • it may be anywhere as long as it can be displayed, even if it is an automobile ceiling, a side shield, the air etc. Good.
  • the destination is the farthest building, but it is only necessary to be able to shop in the shortest time.
  • it may be the case where the nearest building is arranged in order from the farthest, the case where the product has fresh and other products and the purchase of fresh products as much as possible, the case where the destination is at home .
  • the reason for setting the destination as home is that when the departure point is shopping at the home with flyer information, most of the final destination is home.
  • Embodiment 3 a part added to the first and second embodiments or a part different from the first and second embodiments will be mainly described.
  • the navigation unit 504 according to the present embodiment arrives at the store when the time condition of the time for purchasing the product is set for the product 313 included in the selected product list 200.
  • the search route to the store is determined on the basis of the travel time required for the store.
  • the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof may be omitted.
  • the configuration of mobile display system 100 according to the present embodiment is the same as that described in the first embodiment.
  • the user purchases four products of cabbage, onion, chicken and pork from three stores of A greengrocer, B butcher and C butcher in three buildings of A building, B building and C building.
  • the purchase list 211 of the storage unit 521 includes a purchase list 211a which is a list of products purchased at the building A in FIG. 13, a purchase list 211b which is a list of products purchased at the building B in FIG.
  • a purchase list 211c which is a list of products to be purchased at C Building, is stored.
  • the time sale of pork from C butcher in C building starts at 15:00.
  • a time sale is set from 15:00 as a time condition for purchasing a product.
  • the map showing the home and each building is shown in FIG. 15, and the current time is 13:30.
  • FIG. 22 is a flowchart showing a part of route search processing S150a according to the present embodiment.
  • the route search process S150a in the specific example of the present embodiment will be described with reference to FIGS.
  • step S ⁇ b> 151 the navigation unit 504 extracts the building information 311 from the purchase list 211 stored in the storage unit 521.
  • step S152 the navigation unit 504 arranges the buildings in the order from the home that is the current location. That is, the navigation part 504 arranges in order of A building, B building, and C building.
  • the process proceeds to step S80 in FIG. 22 after step S152.
  • step S80 the navigation unit 504 puts 13:30 of the current time in t0 and 00:00 in the building cumulative estimated shopping time t2.
  • step S81 the navigation unit 504 takes out the purchase list 211a which is flyer information of the building A that is a nearby building.
  • step S ⁇ b> 82 the navigation unit 504 estimates the shopping time t ⁇ b> 1 at this building and stores it in the storage unit 521.
  • step S82 the navigation unit 504 determines whether or not there is a time sale item among the shopping items in this building. If there is a time sale product, the process proceeds to step S84. If there is no time sale item, the process proceeds to step S88.
  • the navigation unit 504 extracts the purchase list 211b, which is flyer information of the building B that is the next closest building (step S81), estimates the shopping time t1 at this building, and stores it in the storage unit 521 (step S82).
  • the navigation unit 504 determines whether or not it is the last building (step S88), and returns to step S81 because it is not the last.
  • the navigation unit 504 retrieves the purchase list 211c, which is flyer information of the C building, which is the next closest building (step S81), estimates the shopping time t1 at this building, and stores it in the storage unit 521 (step S82).
  • step S87 the navigation unit 504 rearranges the C building in the order of A building, C building, and B building, and returns to step S81.
  • step S81 the next closest building is C building, and the building purchase list 211c is taken out.
  • step S89 If it is determined in step S89 that it is the last building, the processing returns to FIG. 16, and the navigation unit 504 uses the last building B as the destination, the other building A, and then the C building. (Step S153), and route search is executed (step S154). Then, the navigation unit 504 stores the search route in the storage unit 521 (step S155).
  • a route search can be performed in time for the time sale.
  • the route will be routed as early as the time sale item It is also possible to decide.
  • Embodiment 4 FIG.
  • a portion added to the first to third embodiments or a portion different from the first to third embodiments will be mainly described.
  • a product such as a time sale or a store opening time is limited in time is shown.
  • Embodiments 1 to 3 the same components as those in Embodiments 1 to 3 are denoted by the same reference numerals, and the description thereof may be omitted.
  • the configuration of mobile display system 100 according to the present embodiment is the same as that described in the first embodiment.
  • the fuel consumption ECU 27 calculates the fuel consumption (km / L) from the speed and the fuel per unit time. Therefore, the in-vehicle device 50 is connected to a CAN that can acquire various information of the automobile, acquires fuel consumption (km / L), and calculates a fuel cost from the travel distance and the fuel unit price (yen / L).
  • AGS A and B gas stations (hereinafter abbreviated as GS) is selected for refueling an automobile.
  • AGS is 5 km from home, and today's price is 1L130 yen for product information 131, which is flyer information with a recognition code.
  • BGS is 10 km from home, and today's price is 1 L120 yen in the product information 131 which is flyer information with a recognition code.
  • the fuel consumption is 10 km / L
  • the fuel remaining amount is 20 L
  • the fuel full amount 60 L
  • the price at the previous refueling is 120 yen / L.
  • Three cases will be described for the case where the moving body 20 departs from home under the above conditions.
  • the product information 131 as a flyer is displayed on the entire surface of the front shield 32 as described in the first embodiment.
  • the CAN interface 55 acquires the fuel consumption information, the fuel full amount, and the remaining fuel amount from the fuel consumption ECU 27.
  • the CPU 51 performs route search and calculates the distances from the home to AGS and BGS as 5 km and 10 km, respectively. Further, the CPU 51 further acquires the stored price of 120 yen / L at the previous refueling and the round trip gasoline cost, and calculates the gasoline amount xL that satisfies the same condition from the following formula 1.
  • the CPU 51 inquires of the user what kind of refueling is to be performed, and “full tank”, “specify the amount of money”, “the amount of refueling” are displayed together with a display of “what kind of refueling?” Display “designate” “designate a shop” “prioritize short distance” is displayed on the touch panel 561.
  • Embodiment 5 FIG.
  • a part added to Embodiments 1 to 4 or a part different from Embodiments 1 to 4 will be mainly described.
  • the same components as those in Embodiments 1 to 4 are denoted by the same reference numerals, and the description thereof may be omitted.
  • the configuration of mobile display system 100 according to the present embodiment is the same as that described in the first embodiment.
  • the in-vehicle device 50 indicates a route for purchasing a product when the product is selected.
  • the case where the in-vehicle device 50 goes to gasoline refueling in consideration of the fuel cost of the route is shown.
  • a method for purchasing at a lower price in consideration of fuel costs will be described in the case where the same product as the selected product is sold at other stores. That is, in the present embodiment, when the product included in the selected product list 200 is sold at a plurality of stores, the actual cost for purchasing the product is calculated based on the price of the product and the fuel cost to the store, A method for selecting a store having the lowest actual cost from a plurality of stores will be described.
  • the in-vehicle device 50 selects the B clothing store with the lower price.
  • the in-vehicle device 50 may automatically navigate the moving body 20 to the B clothes store or display the selection result on the touch panel 561.
  • the navigation unit 504 may be executed in the functional configuration of the CPU 51.
  • Embodiment 6 FIG. In the present embodiment, parts different from those of the fifth embodiment will be mainly described. In the present embodiment, a method for calculating the actual cost based on the price of the product and the fuel cost to the store as well as the personnel cost to the store will be described.
  • the same components as those in the first to fifth embodiments are denoted by the same reference numerals, and the description thereof may be omitted.
  • the configuration of mobile display system 100 according to the present embodiment is the same as that described in the first embodiment.
  • the case where the cheaper one is selected as the sum of the product cost and the fuel cost is shown, but in this embodiment, the case where the labor cost is taken into consideration for the product cost and the fuel cost is shown.
  • the in-vehicle device 50 selects the A clothing store with the lower price.
  • the in-vehicle device 50 may automatically navigate the moving body 20 to the A clothing store or display the selection result on the touch panel 561.
  • the navigation unit 504 may be executed in the functional configuration of the CPU 51.
  • the functional blocks of the embedded device are arbitrary as long as the functions described in the above embodiments can be realized.
  • the mobile object display system may be configured with any combination of these functional blocks or with any block configuration.
  • the mobile object display system does not have to have the device configuration shown in FIG. 1 and may have any device configuration as long as the above-described functions can be realized.
  • the Bluetooth (registered trademark) communication and the Bluetooth (registered trademark) interface are used as examples of the near field communication and the near field communication interface.
  • the short-range communication and the short-range communication interface may be a Wi-Fi (registered trademark) communication and a Wi-Fi (registered trademark) interface. Further, other short-range wireless communication may be used.
  • Embodiments 1 to 6 have been described, a plurality of these embodiments may be partially combined. Alternatively, one of these embodiments may be partially implemented. In addition, these embodiments may be implemented in any combination as a whole or in part. In addition, said embodiment is an essentially preferable illustration, Comprising: It does not intend restrict

Landscapes

  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

移動体のフロントシールドの全面を表示領域とする表示機器(30)と、移動体の状態に基づいて、商品の情報である商品情報を表示領域(301)の全領域に表示するか否かを判定する判定部(502)であって、移動体の状態が停止状態の場合あるいは移動体の状態が自動運転状態の場合に、表示領域(301)に商品情報を表示すると判定する判定部(502)と、表示領域(301)に商品情報を表示すると判定された場合に、表示領域(301)の全領域に商品情報を表示する情報表示部(503)とを備えた。

Description

移動体表示システム、移動体表示方法及び移動体表示プログラム
 本発明は、移動体表示システム、移動体表示方法及び移動体表示プログラムに関する。
 特許文献1及び特許文献2に開示されているように、従来の店舗案内システムでは、スマートホン、タブレット端末、パーソナルコンピュータあるいはカーナビゲーションシステムといった表示面積の小さいものを用いて複数店舗のチラシ情報を表示していた。
特開2014-052812号公報 特開2001-306716号公報
 上述のように、従来の店舗案内システムでは、表示面積の小さいものに複数店舗のチラシ情報を表示しているため、複数商品を一挙に表示することができないという課題があった。たとえ一挙に表示することができたとしても、表示面積が小さいために表示された情報が非常に細かくなり、表示された情報を拡大しなくては認識することができないという課題があった。特に、自動車の利用中に複数商品の情報を一挙に知りたい場合、安全上の観点から自動車のユーザが表示された情報を拡大している余裕はない。
 本発明は、移動体の内部における大きな表示領域を利用することにより、複数商品の情報を一挙に、かつ、安全にユーザが認識できるように表示することを目的とする。
 本発明に係る移動体表示システムは、
 移動体のフロントシールドの全面を表示領域とする表示機器と、
 前記移動体の状態に基づいて、商品の情報である商品情報を前記表示領域に表示するか否かを判定する判定部と、
 前記判定部により前記表示領域に前記商品情報を表示すると判定された場合に、前記表示領域の全領域に前記商品情報を表示する情報表示部とを備えた。
 本発明に係る移動体表示システムによれば、移動体のフロントシールドの全面を表示領域とする表示機器と、移動体の状態に基づいて、表示領域に商品情報を表示するか否かを判定する判定部と、判定部により表示領域に商品情報を表示すると判定された場合に、表示領域の全領域に商品情報を表示する情報表示部とを備えたので、移動体の内部の大きな表示領域であるフロントシールドの全面に、商品情報を安全に、かつ、ユーザが認識できるように表示することができる。
実施の形態1から6に係る移動体表示システム100の全体構成図。 実施の形態1から6に係るサーバ10の構成図。 実施の形態1から6に係る建物内装置40の構成図。 実施の形態1から6に係る携帯端末装置70の構成図。 実施の形態1から6に係る移動体20の構成図。 実施の形態1から6に係る車載装置50の構成図。 実施の形態1に係る商品情報131の構成図。 実施の形態1に係る移動体表示システム100の移動体表示方法510及び移動体表示プログラム520の移動体表示処理S100を示すフロー図。 実施の形態1に係る受付処理S110及び判定処理S120を示すフロー図。 実施の形態1に係る情報表示処理S130及び商品選択処理S140を示すフロー図。 実施の形態1に係るフロントシールド32に表示される情報表示画面331の一例を示す図。 実施の形態1の変形例である車載装置50の構成図。 Aビルで購入する商品の一覧である購入一覧211aの一例を示す図。 Bビルで購入する商品の一覧である購入一覧211bの一例を示す図。 ユーザの自宅周辺地図の一例を示す図。 実施の形態2に係るルート探索処理S150のフロー図。 実施の形態2に係るナビゲーション処理S160のフロー図。 実施の形態2に係るユーザ支援処理S170のフロー図。 実施の形態2に係る携帯支援処理S180のフロー図。 実施の形態2に係る携帯支援処理S180のフロー図。 Cビルで購入する商品の一覧である購入一覧211cの一例を示す図。 実施の形態3に係るルート探索処理S150aの一部を示すフロー図。
 実施の形態1.
***構成の説明***
 図1を用いて、本実施の形態に係る移動体表示システム100の全体構成の概要について説明する。
 図1に示すように、移動体表示システム100は、サーバ10と、移動体20と、建物4に配置された建物内装置40とを有する。
 サーバ10は、記憶機器13を有する。
 移動体20は、車載装置50と、表示機器30とを有する。移動体20は、具体的には、自動車である。車載装置50は、カーナビゲーション装置であり、カーナビともいう。
 建物内装置40は、ビルなどの建物4で営業している複数の店舗あるいは売り場に関する情報を管理する。建物4で営業している店舗あるいは売り場は1つでも構わない。また、移動体表示システム100には、複数の建物4及び建物内装置40が接続されているが、移動体表示システム100が備える建物4及び建物内装置40は1つでも構わない。
 サーバ10と車載装置50とはインターネット1により接続される。また、サーバ10と建物内装置40とはインターネット1により接続される。
 また、移動体表示システム100は、ユーザが携帯する携帯端末装置70を備えていてもよい。携帯端末装置70は、具体的には、移動体の利用者が携帯している。携帯端末装置70は、具体的には、スマートホン、タブレット端末、パーソナルコンピュータである。本実施の形態では、携帯端末装置70はスマートホンである。
 携帯端末装置70と車載装置50とは近距離通信2により接続される。また、携帯端末装置70と建物内装置40とは近距離通信2により接続される。
 近距離通信2は、具体的には、Bluetooth(登録商標)通信、Wi-Fi(登録商標)(Wireless・Fidelity)による通信等である。以下の説明では、近距離通信の例としてBluetooth(登録商標)通信を用いて説明するが、Wi-Fi(登録商標)による通信、その他の近距離無線通信でも構わない。
 図2を用いて、本実施の形態に係るサーバ10の構成について説明する。
 サーバ10は、コンピュータであり、CPU11(Central・Processing・Unit)、LAN(Local・Area・Network)インタフェース12、記憶機器13といったハードウェアを備える。LANインタフェース12は、インターネット1に接続される。
 記憶機器13は、後述する商品情報131を記憶する。
 CPU11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 図3を用いて、本実施の形態に係る建物内装置40の構成について説明する。
 建物内装置40は、コンピュータであり、CPU41、LANインタフェース42、スキャナ43、メモリ44、画像処理プロセッサ45、画像入力インタフェース46、モニタ471と接続された表示器インタフェース47、近距離通信インタフェース48といったハードウェアを備える。LANインタフェース42は、インターネット1に接続される。近距離通信インタフェース48は、具体的には、Bluetooth(登録商標)インタフェースである。
 CPU41は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 図4を用いて、本実施の形態に係る携帯端末装置70の構成について説明する。
 携帯端末装置70は、コンピュータであり、CPU71、メモリ72、近距離通信インタフェース73、携帯網インタフェース74、画像処理プロセッサ75、タッチパネル761と接続された表示器インタフェース76、センサインタフェース77といったハードウェアを備える。近距離通信インタフェース73は、具体的には、Bluetooth(登録商標)インタフェースである。
 CPU71は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 図5を用いて、本実施の形態に係る移動体20の構成について説明する。
 移動体20は、自動車であり、以下に示すハードウェアを備える。移動体20は、エンジンの運転制御を総合的に制御するECU201(Engine・Control・Unit)を備える。ECU201は、キーシーリング21と接続されたECU22と、ギア23と接続されたECU24と、パーキングブレーキ25と接続されたECU26と、燃費ECU27とを含む。また、移動体20は、車載装置50と、表示機器30とを搭載する。表示機器30は、表示インタフェース31、フロントシールド32、フレームメモリ33を備える。フレームメモリ33には、後述する情報表示画面331が記憶される。
 表示機器30は、移動体20のフロントシールド32を表示領域301とする表示機器である。表示機器30は、フロントシールド32の全面を表示領域301とする。フロントシールド32とは具体的にはフロントガラスである。
 なお、表示領域301は、フロントシールド32において移動体20の運転者といったユーザの正面領域を含む領域である。フロントシールド32の全面とは、フロントシールド32の100%であるが、100%でなくてもよく、フロントシールド32の略80%以上であればよい。好ましくは、フロントシールド32の略90%以上100%以下であることが好ましい。
 図6を用いて、本実施の形態に係る車載装置50の構成について説明する。
 車載装置50は、コンピュータであり、CPU51、記憶装置52、画像処理プロセッサ53、音声処理プロセッサ54といったハードウェアを備える。また、車載装置50は、さらに、CAN(Controller・Area・Network)インタフェース55、タッチパネル561と接続されたセンサインタフェース56、LANインタフェース57、マイク581と接続された音声インタフェース58、近距離通信インタフェース59といったハードウェアを備える。近距離通信インタフェース59は、具体的には、Bluetooth(登録商標)インタフェースである。
 LANインタフェース57は、インターネット1に接続される。
 CANインタフェース55は、各種ECUであるECU201を接続するCANに接続される。
 また、車載装置50は、機能構成として、受付部501と、判定部502と、情報表示部503と、ナビゲーション部504と、記憶部521とを備える。以下の説明では、車載装置50における受付部501と、判定部502と、情報表示部503と、ナビゲーション部504との機能を、車載装置50の「部」の機能という。車載装置50の「部」の機能は、ソフトウェアで実現される。
 また、記憶部521は記憶装置52で実現される。
 CPU51は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 CPU51は、プロセッシングを行うIC(Integrated・Circuit)である。CPU51はプロセッサである。図6の車載装置50は、CPU51の他に、画像処理プロセッサ53、音声処理プロセッサ54を有しているが、CPU51が画像処理プロセッサ53や音声処理プロセッサ54を兼ねていてもよい。
 記憶装置52は、補助記憶装置及びメモリを含む。
 補助記憶装置は、具体的には、ROM(Read・Only・Memory)、フラッシュメモリ、又は、HDD(Hard・Disk・Drive)である。メモリは、具体的には、RAM(Random・Access・Memory)である。記憶装置52は、補助記憶装置により実現されてもよいし、メモリにより実現されてもよい。また、記憶装置52は、補助記憶装置及びメモリの両方により実現されてもよい。
 LANインタフェース57と、近距離通信インタフェース59とは通信装置である。通信装置は、具体的には、NIC(Network・Interface・Card)である。通信装置は、受信NICと送信NICとを備える。受信NICはレシーバであり、送信NICはトランスミッタである。車載装置50は、LANインタフェース57、近距離通信インタフェース59以外の通信装置を備えていてもよい。
 音声インタフェース58は、マイク581に接続され、音声を車載装置50に取り込む。
 センサインタフェース56は、タッチパネル561に接続され、タッチパネル561においてタッチされた位置を検出する。また、センサインタフェース56は、人感センサやカメラといった各種センサに接続され、各種センサからのセンシングデータを車載装置50に取り込む。
 CANインタフェース55は、移動体20に搭載されたECU201が接続される車載ネットワークであるCANに接続され、ECU201から情報を取り込む。
 補助記憶装置には、「部」の機能を実現するプログラムが記憶されている。「部」の機能を実現するプログラムを移動体表示プログラム520ともいう。このプログラムは、メモリにロードされ、CPU51に読み込まれ、CPU51によって実行される。
 「部」の処理の結果を示す情報、データ、信号値、及び、変数値は、補助記憶装置、メモリ、又は、CPU51内のレジスタ又はキャッシュメモリに記憶される。
 「部」の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital・Versatile・Disc)といった可搬記録媒体に記憶されてもよい。
 なお、移動体表示プログラムプロダクトと称されるものは、「部」として説明している機能を実現するプログラムが記録された記憶媒体及び記憶装置であり、見た目の形式に関わらず、コンピュータ読み取り可能なプログラムをロードしているものである。
 次に、図7を用いて、本実施の形態に係る商品情報131の構成について説明する。
 記憶機器13は、商品の情報を商品情報131として記憶する。
 商品とは、建物4で営業している複数の店舗の各店舗で販売される販売物である。
 商品情報131は、建物内装置40が生成し、インターネット1を介して記憶機器13に記憶される。
 商品情報131は、建物情報311と、売り場情報312と、商品313とが階層的に設定されている。
 建物情報311は、建物に関する情報であり、建物の名前、住所、電話番号、認識コード311aを含む。
 売り場情報312は、売り場に関する情報であり、売り場の名前、階、位置の情報(位置情報312a)を含む。売り場とは、具体的には、店舗である。しかし、同一店舗であっても販売物の種類によって売り場を分けている場合には、異なる売り場情報を作成しても構わない。また、位置情報312aは、具体的には、経度及び緯度で位置を表す。
 商品313は、商品に関する情報であり、商品の品名、単位、数量、金額、対象期間、写真を含む。対象期間とは、商品313の金額が有効な期間である。
 このように、商品情報131は、店舗あるいは売り場ごとに複数の商品に関する情報が設定される。商品情報131は、チラシ情報、あるいは認識コード付きチラシ情報ともいう。以下の説明では、商品情報131をチラシ情報、あるいは認識コード付きチラシ情報と称して説明する場合もある。
***動作の説明***
 まず、商品情報131を記憶機器13に格納する際の、建物内装置40の動作及びサーバ10の動作について説明する。
 建物内装置40のCPU41は、建物4で営業する各店舗あるいは各売り場から収集した商品313を含む売り場情報312を取得する。建物内装置40のCPU41は、店舗あるいは売り場から集めた売り場情報312に、建物4の固有の認識コード311aを含む建物情報311を付加して、商品情報を生成する。図7に示すように、建物4の固有の認識コード311aの具体例は、Code_buildingA.jpgである。建物内装置40のCPU41は、生成した商品情報をLANインタフェース42からインターネット1を介してサーバ10に送信する。この建物4の商品情報は、建物4のチラシ情報ともいう。
 サーバ10のCPU11は、LANインタフェース12によりインターネット1から商品情報を受信し、商品情報131として記憶機器13に記憶する。
 次に、移動体20が、車載装置50、すなわちカーナビゲーション装置の電源をオンにする動作について説明する。
 ユーザにより移動体20のキーシーリング21がイグニッションオンの状態になると、ECU22がイグニッションオンになったことを認識し、車載装置50の電源をオンにする。車載装置50の電源がオンになると、CPU51が初期設定を実行し、タッチパネル561をタッチ待ち状態とする。
 図8を用いて、本実施の形態に係る移動体表示システム100の移動体表示方法510及び移動体表示プログラム520の移動体表示処理S100の概要について説明する。
 移動体表示処理S100は、受付処理S110と、判定処理S120と、情報表示処理S130と、商品選択処理S140とを有する。
 受付処理S110において、受付部501は、商品情報131を表示機器30に表示する要求である表示要求を受け付ける。
 判定処理S120において、判定部502は、移動体20の状態に基づいて、商品の情報である商品情報131を表示領域301に表示するか否かを判定する。表示領域301とは、移動体20のフロントシールド32である。また、表示領域301は、移動体20のフロントシールド32の全面であることが好ましい。
 情報表示処理S130において、情報表示部503は、判定処理S120により表示領域301に商品情報131を表示すると判定された場合に、表示領域301に商品情報131を表示する。情報表示部503は、表示領域301の全領域に商品情報131を表示することが好ましい。すなわち、情報表示部503は、フロントシールド32の全領域を埋め尽くして商品情報131を表示する。
 商品選択処理S140において、情報表示部503は、表示領域301に表示した商品情報131から選択された商品の情報と、この商品を販売する店舗を認証する認識コード311aとを含む購入一覧211を記憶部521に記憶する。購入一覧211は、選択された商品の一覧である選択商品一覧200の例である。
<受付処理S110の説明>
 図9を用いて、本実施の形態に係る受付処理S110について説明する。
 ステップS111において、センサインタフェース56は、タッチパネル561の音声入力ボタンがタッチされたか否かを判定する。センサインタフェース56は、タッチパネル561においてタッチされた位置を検出することにより、音声入力ボタンがタッチされたか否かを判定する。
 タッチパネル561の音声入力ボタンがタッチされていない場合(ステップS111でNO)、センサインタフェース56は、ステップS111を繰り返す。
 タッチパネル561の音声入力ボタンがタッチされた場合(ステップS111でYES)、センサインタフェース56は、音声入力ボタンがタッチされたことを受付部501に通知する。受付部501は、この通知を受け取ると音声インタフェース58に音声入力待ちを指示する。音声インタフェース58は、マイク581からの音声入力を待つ音声入力待ち状態となる。
 ステップS112において、音声インタフェース58は、マイク581から音声が入力されたか否かを判定する。
 音声が入力されていない場合(ステップS112でNO)、音声インタフェース58は、ステップS112を繰り返す。
 マイク581から音声が入力された場合(ステップS112でYES)、音声インタフェース58は、入力された音声を音声データとして音声処理プロセッサ54に渡す。音声インタフェース58は、音声データを音声処理プロセッサ54に渡したことを受付部501に通知する。受付部501は、音声処理プロセッサ54に音声認識処理を指示する。
 ステップS113において、音声処理プロセッサ54は、音声データの音声認識処理を実行する。
 本実施の形態では、具体例として、「チラシ」という音声の入力が、商品情報131を表示機器30に表示する表示要求であるとする。
 音声処理プロセッサ54は、入力された音声データの音声認識処理を行い、処理結果を受付部501に通知する。ここでは、処理結果として「チラシ」という音声が入力されたことを受付部501に通知するものとする。
 ステップS114において、音声処理プロセッサ54は、「チラシ」という音声が入力されたか否か判定する。
 「チラシ」という音声が入力された場合(ステップS114でYES)、受付部501が表示要求を受け付けたことを意味し、判定処理S120に進む。
 「チラシ」以外の音声が入力された場合(ステップS114でNO)、ステップS111に戻り、タッチパネル561をタッチ待ち状態とする。
<判定処理S120の説明>
 図9を用いて、本実施の形態に係る判定処理S120について説明する。
 ステップS121において、判定部502は、移動体20の状態を表す情報を取得する。具体的には、判定部502は、CANインタフェース55を介して、キーシーリング21の状態、ギア23の状態、パーキングブレーキ25の状態を取得する。
 ステップS122において、判定部502は、取得した移動体20の状態に基づいて、商品情報131を表示領域301に表示するか否かを判定する。具体的には、判定部502は、キーシーリング21の状態、ギア23の状態、パーキングブレーキ25の状態に基づいて、商品情報131を表示領域301に表示するか否かを判定する。
 本実施の形態では、商品情報131は、表示された商品情報131の内容が認識できるように、フロントシールド32の全面に表示される。したがって、移動体20の移動中は、安全上の観点から、基本的には商品情報131を表示することができない。
 判定部502は、移動体20が停止しているか否かを判定する。具体的には、判定部502は、移動体20がマニュアル車の場合、エンジンがオン、ギアがニュートラル、パーキングブレーキが引かれている状態を停止状態と判定する。また、判定部502は、移動体20がオートマチック車の場合、エンジンがオン、ギアがパーキングまたはニュートラル、パーキングブレーキが引かれている状態を停止状態と判定する。
 上記の他にも、移動体20が停止しているか否かを判定することができれば、他の条件を用いて判定しても構わない。パーキングブレーキがない移動体の場合はギアの状態のみから判定してもよい。
 ステップS123において、判定部502は、フロントシールド32に商品情報131を表示するか否かを判定する。具体的には、判定部502は、移動体20の状態が停止状態の場合、フロントシールド32に商品情報131を表示すると判定する。判定部502は、移動体20の状態が移動状態の場合、フロントシールド32に商品情報131を表示しないと判定する。
 フロントシールド32に商品情報131を表示すると判定した場合(ステップS123でYES)、情報表示処理S130に進む。
 フロントシールド32に商品情報131を表示しないと判定した場合(ステップS123でNO)、ステップS124に進む。
 ステップS124において、判定部502は、移動中のため商品情報131を表示できない旨の警告を車載装置50の出力装置に出力する。この警告は、車載装置50のモニタやスピーカなどから出力される。
<情報表示処理S130の説明>
 図10を用いて、本実施の形態に係る情報表示処理S130について説明する。
 情報表示処理S130において、情報表示部503は、判定処理S120により表示領域301に商品情報131を表示すると判定された場合に、フロントシールド32の全面の表示領域301に商品情報131を表示する。
 ステップS131において、情報表示部503は、LANインタフェース57によりインターネット1を介してサーバ10に商品情報131の送付要求を送信し、LANインタフェース57を商品情報131の受信待ち状態とする。
 サーバ10では、LANインタフェース12で受信した送付要求がCPU11に渡され、CPU11が送付要求の内容を解析する。CPU11が解析した送付要求の内容を商品情報131の送付要求である認識すると、CPU11は記憶機器13に記憶されている商品情報131を車載装置50に送信するようにLANインタフェース12に指示する。LANインタフェース12はインターネット1を介して商品情報131を車載装置50に送信する。
 ステップS132において、車載装置50のLANインタフェース57は、商品情報131を受信したか否かを判定する。
 商品情報131を受信していない場合(ステップS132でNO)、LANインタフェース57は、ステップS132を繰り返す。
 商品情報131を受信した場合(ステップS132でYES)、LANインタフェース57は、受信した商品情報131を不揮発性メモリである記憶部521に記憶し、商品情報131を受信したことを情報表示部503に通知する。
 ステップS133において、情報表示部503は、記憶部521に記憶された商品情報131が複数の建物40の商品情報131であると認識する。情報表示部503は、商品情報131を解析し、商品情報131から1つの商品情報131aを取り出し、表示インタフェース31を介してフレームメモリ33への配置を決め、商品情報131aにフレームメモリ33への配置を紐付けて記憶部521に記憶する。なお、商品情報131には、建物4ごとの商品情報131a,131b,・・・が含まれるものとする。
 ステップS134において、情報表示部503は、画像処理プロセッサ53に商品情報131aのフレームメモリ33への配置を指定して、商品情報131aから1つの画像の生成を依頼する。画像処理プロセッサ53は、1つの画像を生成する。
 ステップS135において、画像処理プロセッサ53は、生成した1つの画像をフレームメモリ33の指定位置に配置する。
 ステップS136において、情報表示部503は、商品情報131aが最後の商品情報131か否かを判定する。
 商品情報131aが最後の商品情報131でない場合(ステップS136でNO)、ステップS137に進む。
 ステップS137において、情報表示部503は、フレームメモリ33の表示領域301を埋め尽くしたか否かを判定する。
 フレームメモリ33の表示領域301を埋め尽くしていないと判定した場合(ステップS137でNO)、情報表示部503は、ステップ133からステップS136を繰り返す。
 商品情報131aが最後の商品情報131である場合(ステップS136でYES)、情報表示部503は、ステップS138に進む。
 また、フレームメモリ33の表示領域301を埋め尽くしたと判定した場合(ステップS137でYES)、情報表示部503は、ステップS138に進む。ここで、フレームメモリ33の内容とは、フロントシールド32に表示される画面である情報表示画面331のことである。
 ステップS138において、情報表示部503は、表示インタフェース31にフレームメモリ33の内容、すなわち情報表示画面331をフロントシールド32に表示させる。情報表示画面331がフロントシールド32に表示されると、商品選択処理S140に進む。
 図11を用いて、本実施の形態に係るフロントシールド32に表示される情報表示画面331の一例について説明する。図11は、フロントシールド32に表示された情報表示画面331の一部分である1つの商品情報131aを切り出したものである。また、フロントシールド32に表示された情報は、表示された状態のままでユーザが内容を認識できる大きさに表示されるものとする。
 図11に示すように、建物の全店舗の全商品を一挙に表示できるとともに、ユーザがタブを操作することにより、店舗ごとあるいは商品種別ごとに表示することもできる。また、商品情報131b,131c,・・・のように複数の商品情報131がある場合は、情報表示部503は、表示領域301が埋め尽くされるまで、複数の商品情報131を縦横に並べて表示する。
 このように、フロントシールド32の表示領域301は、スマートホンやタブレットといった携帯端末の小型モニタと比較すると表示領域に制約が少なく、多様な情報を表示することが可能である。
<商品選択処理S140の説明>
 図10を用いて、本実施の形態に係る商品選択処理S140について説明する。
 商品選択処理S140は、車載装置50が商品情報131を表示機器30に表示した後に、ユーザにフロントシールド32の情報表示画面331から商品を選択させる処理である。
 ステップS141において、情報表示部503は、ユーザからの商品選択サインがあったか否かを判定する。具体的には、ユーザはジェスチャーまたは音声により、選択した商品の情報を含む商品選択サインをマイクあるいはカメラに対して発信する。センサインタフェース56がこれらの商品選択サインを捉えると、情報表示部503は商品選択サインがあったと判定する。
 商品選択サインがあった場合(ステップS141でYES)、情報表示部503は、ステップS143に進む。
 商品選択サインがない場合(ステップS141でNO)、情報表示部503は、ステップS142に進む。
 ステップS142において、情報表示部503は、ユーザによる選択終了サインがあったか否かを判定する。
 選択終了サインがあった場合(ステップS142でYES)、情報表示部503は、ステップS144の終了処理に進む。
 選択終了サインがない場合(ステップS142でNO)、情報表示部503は、ステップS141に戻る。
 ステップS143において、情報表示部503は、商品選択サインに含まれる選択された商品の情報を購入一覧211として記憶部521に記憶する。具体的には、情報表示部503は、ユーザにより選択された商品の情報を記憶部521に用意した購入一覧211に加え、ステップS141に戻る。購入一覧211には選択された商品と、この商品を販売している店舗または売り場の売り場情報と、この店舗または売り場が入っている建物4の建物情報とが対応付けられている。すなわち、購入一覧211の構成は、商品情報131の構成と同一である。
 ステップS144において、情報表示部503は、フロントシールド32への商品情報131の表示の終了を指示する表示終了指示を受信したか否かを判定する。表示終了指示を受信していない場合、情報表示部503は、表示終了指示を待つ。表示終了指示を受信した場合、情報表示部503は、フロントシールド32への商品情報131の表示を終了し、ステップS111に戻る。なお、表示終了指示は、ユーザからの要求により生成され、情報表示部503に送信される。あるいは、移動体20の状態から車載装置50が自動的に表示終了指示を生成してもよい。具体的には、商品情報131がフロントシールド32に表示中であっても、サイドブレーキが解除される、ギアが運転に入るといった移動体20の状態により、強制的にフロントシールド32への表示を終了するとしてもよい。あるいは、フロントシールド32に商品情報131が表示されている場合は、移動体20の操作が制限されるとしてもよい。
 以上で、本実施の形態に係る移動体表示処理S100についての説明を終わる。
***他の構成***
 本実施の形態では、車載装置50の「部」の機能がソフトウェアで実現されるが、変形例として、車載装置50の「部」の機能がハードウェアで実現されてもよい。
 図12を用いて、本実施の形態の変形例に係る車載装置50の構成について説明する。
 図12に示すように、車載装置50は、図6のCPU51及び記憶装置52に替えて、処理回路909を備える。
 処理回路909は、前述した「部」の機能及び記憶部521を実現する専用の電子回路である。処理回路909は、具体的には、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate・Array)、ASIC(Application・Specific・Integrated・Circuit)、又は、FPGA(Field-Programmable・Gate・Array)である。
 「部」の機能は、1つの処理回路909で実現されてもよいし、複数の処理回路909に分散して実現されてもよい。
 別の変形例として、車載装置50の機能がソフトウェアとハードウェアとの組合せで実現されてもよい。すなわち、車載装置50の一部の機能が専用のハードウェアで実現され、残りの機能がソフトウェアで実現されてもよい。
 プロセッサ910、記憶装置920、及び、処理回路909を、総称して「プロセッシングサーキットリ」という。つまり、車載装置50の構成が図6及び図12のいずれに示した構成であっても、「部」の機能及び記憶部521は、プロセッシングサーキットリにより実現される。
 「部」を「工程」又は「手順」又は「処理」に読み替えてもよい。また、「部」の機能をファームウェアで実現してもよい。
 また、本実施の形態に係る移動体表示処理S100では、商品情報131をフロントシールド32の全面に表示する情報表示処理S130の後に、表示された商品を選択できる商品選択処理S140を実行した。しかし、商品選択処理S140はなくても構わない。その場合は、ステップS138の次にステップS144を実行すればよい。
 また、本実施の形態では、判定部502は、移動体20の状態が停止状態の場合に、フロントシールド32に商品情報131を表示すると判定している。しかし、移動体20が自動運転する自動運転機能を有する場合は、判定部502は、移動体20の状態が自動運転状態の場合に、フロントシールド32に商品情報131を表示すると判定してもよい。すなわち、移動体20が自動運転車の場合は、自動運転中または停車中のいずれであっても、フロントシールド32に商品情報131を表示すると判定して構わない。
 また、本実施の形態では、複数建物の複数商品のチラシ情報を表示して、ユーザが選択するものを説明したが、ユーザの購入商品が決まっている場合、音声認識等で品名を入力すると、複数建物から検索し、当該商品のみのチラシ情報を表示することも可能である。
 また表示方法では、肉、野菜、果物、穀類、日用雑貨等というように分類して提示するようにしてもよいし、ランダムに選択して全ての建物の商品が均等に表示されるようにしても良い。
 また、本実施の形態では明示しなかったが、チラシ情報の表示を要求する際、自動車の位置を指定し、サーバで当該位置から一定の範囲内の建物に関する認識コード付きチラシ情報を送るようにしても良い。かつ、チラシ情報の表示を要求する際、表示希望の範囲を指定して、サーバに要求するようにしてもよい。
 また、ユーザが建物や店舗を指定したい場合、指定された建物や店舗のチラシ情報のみを表示することも可能である。
 また、上記実施の形態では、認識コードとしてJPEG画像で示すものを示したが、スマートホンで表示可能であればどのようなファイル形式でもよく、また認識できれば生成するたびに異なる形状の画像であっても良い。かつ画像ではなくパスワードであってもよく、その場合、建物には認識コード読取部ではなくパスワード入力部があればよい。
 また、車載装置50のモニタはタッチパネルでなくてもよく、カーソルの移動によりボタンを選択できる方式でもよい。
 また、商品情報の表示を要求するための音声は「チラシ」でなくてもよく、商品表示要求であると定義しておけばどのような音声でも構わない。また、商品表示要求は音声でなくてもよく、タッチパネル上のボタンでもよい。
***本実施の形態の効果の説明***
 以上のように、複数店舗で複数商品から構成される認識コード付きチラシ情報からの情報を一挙にフロントシールドに提示するようにしているので、ユーザはより多くの店舗のより多くの商品から好みの商品を選択できる。
 上述のように、表示面積の小さいものに複数店舗のチラシ情報を表示している店舗案内システムでは、複数店舗及び複数商品を一挙に表示することができない場合がある。たとえ一挙に表示することができたとしても、表示された情報が非常に細かくなり、表示された情報を拡大しなくては認識することができない場合がある。特に、自動車での移動中に複数店舗及び複数商品の情報を知りたい場合、安全上の観点から表示された情報を拡大している余裕はない。
 本実施の形態に係る移動体表示システムによれば、移動体の内部における大きな表示領域を利用して複数の商品の情報を一挙に表示することができる。また、本実施の形態に係る移動体表示システムによれば、表示された情報を拡大する作業を介さずに内容が認識可能な商品情報をフロントシールドに表示することができる。
 また、自動車が完全に駐車している状態、あるいは自動運転中に限って、自動車のフロントシールドの全面に複数のチラシを表示するので、安全も確保される。
 また、移動しようとすると表示が消える機能を有しているので、より安全である。
 実施の形態2.
***構成の説明***
 本実施の形態では、主に、実施の形態1に追加する部分あるいは実施の形態1と異なる部分について説明する。
 実施の形態1では、車載装置50が商品情報131を移動体20のフロントシールド32に提示し、ユーザにより商品選択がされるまでの処理について説明した。本実施の形態では、実施の形態1以降、ユーザが選択した商品を実際に店舗または売り場で購入するまでの移動体表示システムの動作について説明する。
 本実施の形態において、実施の形態1と同様の構成には同一の符号を付し、その説明を省略する場合がある。
 本実施の形態に係る移動体表示システム100の構成は、実施の形態1で説明したものと同様である。
***動作の説明***
 本実施の形態では、ユーザが、AビルとBビルとの2つの建物において、A八百屋とB肉屋とB酒店との3店舗から、キャベツと玉ねぎと鶏肉と日本酒との4商品を購入する場合について説明する。また、既に、実施の形態1の商品選択処理S140が実行されているものとする。よって、記憶部521の購入一覧211には、Aビルで購入する商品の一覧である購入一覧211aと、Bビルで購入する商品の一覧である購入一覧211bとが記憶されている。
 図13は、Aビルで購入する商品の一覧である購入一覧211aの一例を示す図である。
 図14は、Bビルで購入する商品の一覧である購入一覧211bの一例を示す図である。
 図15は、ユーザの自宅周辺地図の一例を示す図である。なお、ここでは、自宅が現在地であるものとする。
<ルート探索処理S150の説明>
 図16を用いて、本実施の形態に係るルート探索処理S150について説明する。
 ルート探索処理S150は、ナビゲーション部504が商品情報に含まれる店舗の位置情報に基づいて、移動体20を店舗に誘導する処理である。具体的には、ナビゲーション部504は、選択商品一覧200である購入一覧211に基づいて、店舗までの探索ルートを決定する。ルート探索処理S150は、図10のステップS142で選択終了サインがあった場合に実行されるとしてもよい。また、車載装置50がユーザによるルート探索要求を受信した場合に実行されるとしてもよい。
 ステップS151において、ナビゲーション部504は、記憶部521に格納した購入一覧211から、建物情報を取り出す。
 ステップS152において、ナビゲーション部504は、現在地である自宅から近い順に建物情報をAビル、Bビルと並べる。
 ステップS153において、ナビゲーション部504は、最後の建物であるBビルを目的地として設定し、それ以外の建物であるAビルを経由地として設定する。
 ステップS154において、ナビゲーション部504は、設定した目的地と経由地とを用いて、ルート探索を実行する。
 ステップS155において、ナビゲーション部504は、ルート探索処理結果である探索ルートを記憶部521に記憶する。
<ナビゲーション処理S160の説明>
 図17を用いて、本実施の形態に係るナビゲーション処理S160について説明する。
 ナビゲーション処理S160は、ユーザによりエンジンが始動され運転が開始されると、探索ルートに基づいて移動体20をナビゲートする処理である。
 ステップS161において、ユーザによりキーシーリング21が回され、エンジンが始動されると、移動体20では一旦電源がオフとなり、再度電源がオンとなる。これにより車載装置50も電源がオフからオンとなり、再起動される。車載装置50は、CPU51が初期設定を終える。
 ステップS162において、ナビゲーション部504は、記憶部521から探索ルートと地図とを読み出す。
 ステップS163において、ナビゲーション部504は、画像処理プロセッサ53に探索ルートと地図とを画像合成させる。
 ステップS164において、ナビゲーション部504は、タッチパネル561に探索ルートと地図との合成画像を表示させる。
 ステップS165において、ユーザにより運転が開始されると、ナビゲーション部504は、移動体20の動きに合わせてナビゲーションを実行する。
<ユーザ支援処理S170の説明>
 図18を用いて、本実施の形態に係るユーザ支援処理S170について説明する。
 ユーザ支援処理S170は、ナビゲーション部504が選択商品一覧200を近距離通信2により携帯端末装置70に送信する処理である。ユーザ支援処理S170は、移動体20が建物4に到着し、ユーザが建物4で買い物をする際に実行される。ユーザ支援処理S170は、図17のステップS165の後に自動的に開始されてもよいし、ユーザの要求により開始されるとしてもよい。
 ステップS171において、ナビゲーション部504は、移動体20が経由地であるAビルに到着したことを検出する。
 ステップS172において、ナビゲーション部504は、記憶部521に記憶されている購入一覧211からAビルのチラシ情報である購入一覧211aを読み出す。
 ステップS173において、ナビゲーション部504は、購入一覧211aを、近距離通信インタフェース59により近距離通信2を介して携帯端末装置70に転送する。なお、上述したように、近距離通信2の具体例はBluetooth(登録商標)通信であり、携帯端末装置70の具体例はスマートホンである。
<携帯支援処理S180の説明>
 図19及び図20を用いて、本実施の形態に係る携帯支援処理S180について説明する。
 携帯支援処理S180は、ユーザが建物4で買い物をする際に携帯する携帯端末装置70と車載装置50とが連携してユーザによる商品の購入を支援する処理である。携帯支援処理S180は、図18のステップS173において車載装置50から転送された購入一覧211aを携帯端末装置70が受信すると開始される。携帯端末装置70は、ナビゲーション部504から受信した選択商品一覧200に含まれる店舗の認識コード311aにより、店舗における商品の購入が認証される。
 ステップS181において、近距離通信インタフェース73は、近距離通信受信、すなわちBluetooth(登録商標)受信があったか否かを判定する。
 近距離通信受信があった場合、ステップS182において、近距離通信インタフェース73は、受信内容をメモリ72に格納し、受信したことをCPU71に通知する。
 近距離通信受信、すなわちBluetooth(登録商標)受信がない場合、近距離通信インタフェース73はステップS181を繰り返す。
 ステップS183において、CPU71は、受信内容を確認し、受信内容が購入一覧211aであるか否かを判定する。
 受信内容が購入一覧211aでない場合、CPU71はステップS181に戻る。
 受信内容が購入一覧211aである場合、ステップS184において、購入一覧211aの内容を解析する。
 ステップS185において、CPU71は、購入一覧211aに含まれる購入予定の店舗名を表示器インタフェース76経由でタッチパネル761に一覧表示させる。
 具体例では、図13に示す内容のAビルのA八百屋がタッチパネル761に表示される。以下、具体例を用いて説明する。
 ステップS186において、ユーザによりA八百屋がクリックされると、「A八百屋」の表示領域がクリックされたことをセンサインタフェース77が認識し、CPU71に伝える。クリックがなければ、ステップS186を繰り返す。
 ステップS187において、CPU71は、商品一覧表示要求か否かを判定する。商品一覧表示要求であれば、ステップS188において、CPU71は「A八百屋」に紐付いた商品一覧をメモリ72から読み出し、商品一覧と「クーポン」という文字をタッチパネル761に表示する。
 商品一覧表示要求でなければ、ステップS191に進む。ステップS191において、CPU71は、クーポン表示要求があったか否かを判定する。例えば、ユーザが表示に従ってショッピングし、商品を会計する時にタッチパネル761上の「クーポン」をクリックすると、「クーポン」の表示領域がクリックされたことをセンサインタフェース77が認識し、CPU71に伝える。
 ステップS192において、CPU71は、クーポンを表示する。すなわち、CPU71は、チラシ情報である購入一覧211aの建物であるAビルに紐付いた認識コードと、「お店のクーポン読取機にかざしてください」という文字を表示器インタフェース76経由でタッチパネル761に一覧表示させる。
 ステップS193において、CPU71は、近距離通信受信、すなわちBluetooth(登録商標)受信があったか否かを判定する。ユーザが建物内装置40のスキャナ43に携帯端末装置70のタッチパネル761をかざすと、スキャナ43が認識コードを読み取り、読み取った画像を建物内装置40のメモリ44に格納する。建物内装置40のCPU41は、メモリ44にある元画像と今読み取った画像とを比較し、同一であれば認証可として、携帯端末装置70に近距離通信経由で、すなわちBluetooth(登録商標)通信経由で通知する。これによって、ユーザはキャベツを1個88円、玉ねぎを1袋100円で購入できる。すなわち、ユーザは商品を割引価格で購入できる。
 ステップS194において、CPU71は、近距離通信受信により認証可が受信された場合にユーザが割引価格で購入できたと判定する。また、Aビルの建物内装置40では購買者数を把握できる。
 認証可が近距離通信経由で通知されない場合、CPU71は、「戻る」がクリックされたかを判定し(ステップS195及びステップS196)、「戻る」の場合はステップS186に戻る。また、「戻る」がクリックされていない場合はステップS193に戻る。
 ステップS189においてユーザによるAビルでの買い物が終了したと判定されると、CPU71は、ステップS190において「全商品購入終了」をタッチパネル761に表示し、処理を終了する。Aビルでの買い物が終了していない場合、ステップS186に戻る。
 ユーザによるAビルでの買い物が終了し、ユーザが移動体20に戻り、エンジンを始動させると、ナビゲーション部504は同様にBビルに移動体20をナビゲートし、ユーザは同様にB肉屋で鶏肉を100g108円で、B酒屋で「大吟醸日本海」を1升3500円で購入でき、Bビルの建物内装置40は購買者数を把握できる。
***本実施の形態の効果の説明***
 以上のように、本実施の形態に係る移動体表示システムによれば、建物の認識コードを読み取ることでユーザは商品情報に含まれるチラシ価格で商品を購入でき、かつ店舗側では購買者数を把握できる。よって、移動体表示システムの有効性の指標を得ることができる。
 上記実施の形態1及び実施の形態2では、チラシによる普段の買い物に移動体表示システムを利用する場合について説明した。なお、チラシではないものでもよく、例えば旅行先での認識コード付きガイドマップ情報を取得してガイドマップをフロントシールドに提示し、自動車乗員全員で次の行先を決めるのに利用するといったものであってもよい。また、実施の形態1及び実施の形態2では、チラシやガイドマップをフロントシールドに表示するものについて説明したが、表示できる場所であればどこでもよく、自動車の天井やサイドシールド、空中等であってもよい。
 また、実施の形態1及び実施の形態2においては、目的地を最も遠い建物としたが、最短で買い物ができればよい。例えば、遠い順に並べて最も近い建物を目的地にするケース、商品に生鮮品とそれ以外がある場合に生鮮品をできるだけ最後に買うようにするケース、目的地を自宅にするケースであってもよい。目的地を自宅にするのは、出発地点が自宅でチラシ情報で買い物をする場合、その殆どが最終目的地は自宅であるためである。
 実施の形態3.
 本実施の形態では、主に、実施の形態1,2に追加する部分あるいは実施の形態1,2と異なる部分について説明する。
 実施の形態1,2では、1日中特価の商品を購入する場合について説明したが、本実施の形態では選択した商品の中にタイムセール品がある場合について説明する。
 すなわち、本実施の形態に係るナビゲーション部504は、選択商品一覧200に含まれる商品313に、商品を購入する時間の時間条件が設定されている場合、時間条件と、現在時刻と、店舗に到着するまでにかかる移動時間とに基づいて、店舗までの探索ルートを決定する。
 本実施の形態において、実施の形態1と同様の構成には同一の符号を付し、その説明を省略する場合がある。
 本実施の形態に係る移動体表示システム100の構成は、実施の形態1で説明したものと同様である。
 本実施の形態では、ユーザがAビルとBビルとCビルとの3つの建物で、A八百屋とB肉屋とC肉屋との3店舗から、キャベツと玉ねぎと鶏肉と豚肉との4商品を購入する場合を具体例として説明する。また、既に、実施の形態1の商品選択処理S140が実行されているものとする。よって、記憶部521の購入一覧211には、図13のAビルで購入する商品の一覧である購入一覧211aと、図14のBビルで購入する商品の一覧である購入一覧211bと、図21のCビルで購入する商品の一覧である購入一覧211cとが記憶されている。
 図21に示すように、CビルのC肉屋の豚肉は15:00からタイムセールが始まる。すなわち、商品を購入する時間の時間条件として15:00からタイムセールが設定されている。なお、自宅と各ビルの示された地図は図15であり、現在時刻は13:30であるものとする。
 図22は、本実施の形態に係るルート探索処理S150aの一部を示すフロー図である。
 本実施の形態の具体例におけるルート探索処理S150aについて、図16及び図22を用いて説明する。
 ステップS151において、ナビゲーション部504は、記憶部521に格納した購入一覧211から、建物情報311を取り出す。
 ステップS152において、ナビゲーション部504は、現在地である自宅から近い順に建物を並べる。すなわち、ナビゲーション部504は、Aビル、Bビル、Cビルの順に並べる。
 本実施の形態では、ステップS152の後に図22のステップS80に進む。
 ステップS80において、ナビゲーション部504は、t0に現在時刻の13:30、建物累計想定買い物時間t2に00:00を入れる。
 ステップS81において、ナビゲーション部504は、近い建物であるAビルのチラシ情報である購入一覧211aを取り出す。
 ステップS82において、ナビゲーション部504は、この建物での買い物時間t1を推測し、記憶部521に記憶する。ここでt1は、自宅からAビルまでの移動時間5分間、Aビル駐車場から店舗までの10分間、店舗での2商品の買い物に15分間と想定する。すなわち、ナビゲーション部504は、t1=0:05+0:10×2+0:15=0:40とt1を算出する。すなわち、t1は、Aビルでの買い物が終了するまでの時間である。
 ステップS82において、ナビゲーション部504は、この建物での買い物商品にタイムセール品があるか否かを判定する。
 タイムセール品があればステップS84に進む。
 タイムセール品がなければステップS88に進む。
 Aビルではタイムセール品がないため、ステップS88において、ナビゲーション部504は、t2=t2+t1=0:00+0:40=0:40とする。
 ステップS89において、ナビゲーション部504は、最後の建物か否かを判定し、最後ではないのでステップS81に戻る。
 ナビゲーション部504は、次に近い建物であるBビルのチラシ情報である購入一覧211bを取り出し(ステップS81)、この建物での買い物時間t1を推測し、記憶部521に記憶する(ステップS82)。ここでt1は、AビルからBビルまでの移動時間6分間、Bビル駐車場から店舗まで10分、店舗での1商品の買い物に10分と想定し、t1=0:06+0:10×2+0:10=0:36と算出する。
 Bビルにもタイムセール品はないので(ステップS83)、t2=t2+t1=0:40+0:36=1:16と算出される。すなわち、t2は、自宅を出発してからBビルでの買い物が終了するまでの建物累計想定買い物時間である。
 ナビゲーション部504は、最後の建物か否かを判定し(ステップS88)、最後ではないのでステップS81に戻る。
 ナビゲーション部504は、次に近い建物であるCビルのチラシ情報である購入一覧211cを取り出し(ステップS81)、この建物での買い物時間t1を推測し、記憶部521に記憶する(ステップS82)。ここでt1は、BビルからCビルまでの移動時間5分間、Cビル駐車場から店舗まで10分、店舗での1商品の買い物に10分と想定し、t1=0:05+0:10×2+0:10=0:35と算出する。
 Cビルで購入予定の豚肉はタイムセール品なので(ステップS83)、ステップS84において、ナビゲーション部504は、t0+t1+t2がタイムセール時刻を過ぎているか否かを判定する。t0+t1+t2=13:30+0:35+1:16=15:21であるため、ナビゲーション部504はタイムセール時刻を過ぎていると判定する。
 タイムセール時刻を過ぎていると判定した場合、ステップS85に進む。
 タイムセール時刻を過ぎていないと判定した場合、ステップS88に進む。
 ステップS85において、ナビゲーション部504は、1つ前の建物であるBビルでの買い物時間t4=0:36を読み出す。
 ステップS86において、ナビゲーション部504は、Aビル、Bビル、Cビルと順に買い物をした場合の買い物推定時刻から1つ前の建物であるBビルでの買い物時間を差し引く。すなわち、t2=t2-t4=1:16-0:36=0:46と算出される。
 ステップS87において、ナビゲーション部504は、Cビルの順番を1つ前にして、Aビル、Cビル、Bビルに並べ替え、ステップS81に戻る。
 ステップS81おいて、次に近い建物はCビルとなり、建物の購入一覧211cを取り出す。ここでt1はAビルからCビルまでの移動時間13分間、Cビル駐車場から店舗まで10分、店舗での1商品の買い物に10分と想定し、t1=0:13+0:10×2+0:10=0:43と算出される。
 タイムセール品があるので(ステップS83)、ステップS184において、ナビゲーション部504は、t0+t1+t2=13:30+0:43+0:46=14:59と算出する。14:59はタイムセール前なので、ステップS88に進む。
 ステップS88おいて、ナビゲーション部504は、t2=t2+t1=0:46+0:43=1:29であると算出する。Cビルは最後の建物ではないので、ステップS81に戻り、Bビルについて上記同様に処理を行う。
 以上の処理により、タイムセールに間に合うようにルート探索をすることができる。
 ステップS89で最後の建物と判定されると、図16に戻り、ナビゲーション部504は、最後の建物であるBビルを目的地に、それ以外の建物であるAビル、続いてCビルを経由地にそれぞれ設定し(ステップS153)、ルート探索を実行する(ステップS154)。そして、ナビゲーション部504は、探索ルートを記憶部521に記憶する(ステップS155)。
 本実施の形態に係る移動体表示システムによれば、商品情報にタイムセールの情報がある場合に、タイムセールに間に合うようにルート探索をすることができる。
 また、チラシ情報である商品情報に在庫状況という項目を設定し、在庫が少なくなっている場合や、店舗や建物の営業時間が迫っている場合も、タイムセール品と同様に早い経由地としてルートを決定するといったことも可能である。
 実施の形態4.
 本実施の形態では、主に、実施の形態1から3に追加する部分あるいは実施の形態1から3と異なる部分について説明する。
 上記の実施の形態では、タイムセールや店舗営業時間等の商品に時間的制約のある例を示したが、本実施の形態では自動車の燃料代も考慮してもっとも安く商品を購入できるようにする場合について、説明する。
 本実施の形態において、実施の形態1から3と同様の構成には同一の符号を付し、その説明を省略する場合がある。
 本実施の形態に係る移動体表示システム100の構成は、実施の形態1で説明したものと同様である。
 燃費ECU27は速度と単位時間あたりの燃料で燃費(km/L)を求めている。よって、車載装置50は、自動車の様々な情報を取得できるCANに接続して燃費(km/L)を取得し、走行距離と燃料単価(円/L)とから燃料代を算出する。
 本実施の形態では、以下のような具体例を用いて説明する。
 本実施の形態においては、自動車の給油にA、B2つのガソリンスタンド(以下GSと略す)のいずれを選択するかについて説明する。AGSは自宅から5km、認識コード付きチラシ情報である商品情報131では本日価格は1L130円であるものとする。また、BGSは自宅から10km、認識コード付きチラシ情報である商品情報131では本日価格は1L120円であるものとする。移動体20において、燃費は10km/L、燃料残量は20L、燃料満タン量は60L、前回給油時の価格120円/Lとする。
 以上の条件のもとで、移動体20が自宅から出発する場合について、3つのケースについて説明する。
 移動体20のユーザが音声認識ボタンを押下し、「チラシ」というと、上記実施の形態1で説明したようにフロントシールド32の全面にチラシである商品情報131が表示される。次にユーザが「ガソリン」というと、CANインタフェース55は、燃費ECU27から燃費情報と燃料満タン量と燃料残量とを取得する。
 CPU51は、ルート探索を行って、自宅からAGSとBGSとまでの距離をそれぞれ5km、10kmと算出する。また、CPU51は、さらに、記憶していた前回給油時の価格120円/Lと、往復のガソリン代とを取得し、同じ条件となるガソリン量xLを以下の式1から算出する。
(式1)130円/L×xL+5km×2÷10Km/L×120円=120円/L×xL+10Km×2÷10KM/L×120円
 (式1)より、xL=12Lとなる。また、CPU51は、移動体20を満タンにするには、60L-20L=40Lであると算出する。
 続いて、CPU51は、どのような給油をするかをユーザに問い合わせるため、「どのような給油をしますか?」という表示、音声とともに、「満タン」「金額を指定する」「給油量を指定する」「お店を指定する」「短距離を優先する」という表示をタッチパネル561に出す。
<ケース1の例:「満タン」>
 給油量40Lは、往復のガソリン代を含めて同じ条件となるガソリン量12Lより多いので、車載装置50は遠くても安いBGSにナビゲートする。往復のガソリン代を含めて同じ条件となるガソリン量とは、往復のガソリン代を考慮して、同じ条件となるガソリン量のことである。
<ケース2の例:「給油量指定」>
 給油量10Lの場合は、往復のガソリン代を含めて同じ条件となるガソリン量12Lより少ないので、車載装置50は高くても近いAGSにナビゲートする。
 給油量20Lの場合は、往復のガソリン代を含めて同じ条件となるガソリン量12Lより多いので、車載装置50は遠くても安いBGSにナビゲートする。
<ケース3の例:「金額指定」>
 金額指定1000円でAGSでは、1000円÷130円/L=7.7Lとなるので、往復のガソリン代を含めて同じ条件となるガソリン量12Lより少ないため、車載装置50は、AGSにナビゲートする。
 金額指定2000円でAGSでは、1000円÷130円/L=15.4Lとなるので、往復のガソリン代を含めて同じ条件となるガソリン量12Lより多いので、車載装置50は、BGSにナビゲートする。
 以上のように、本実施の形態で説明した方式によれば、自動車の燃料代も考慮してもっとも安く商品を購入することができる。
 実施の形態5.
 本実施の形態では、主に、実施の形態1から4に追加する部分あるいは実施の形態1から4と異なる部分について説明する。
 本実施の形態において、実施の形態1から4と同様の構成には同一の符号を付し、その説明を省略する場合がある。
 なお、本実施の形態に係る移動体表示システム100の構成は、実施の形態1で説明したものと同様である。
 実施の形態1から3では、車載装置50は商品が選択されるとそれを購入するためのルートを示した。実施の形態4では、車載装置50はルートの燃料費を考慮してガソリン給油に行く場合について示した。
 本実施の形態では、選択された商品に同様の商品が他店舗でも販売されていた場合について、燃料代を考慮してより安く購入する方法について説明する。
 すなわち、本実施の形態では、選択商品一覧200に含まれる商品が複数の店舗で販売されている場合、商品の価格と店舗までの燃料代とに基づいて商品の購入にかかる実費を算出し、複数の店舗から実費が最も安い店舗を選択する方式について説明する。
 以下に、具体例を示して説明する。
 実施の形態4と同様の条件で、ユーザが「チラシ、洋服」といい、Aスカートを選択したところ、A洋服店とB洋服店の2店舗で検索され、かつA洋服店では自宅から5km、Aスカート価格は2000円、B洋服店では自宅から20km、Aスカート価格は1500円だった場合について説明する。
 洋服のチラシ、すなわち商品情報131がフロントシールド32に表示され、その中からユーザがAスカートを選択すると、CPU51が検索をし、Aスカートを売る店舗を2店舗検出し、これを表示する。次にユーザにより「金額優先指定」が指示されると、まずCPU51はルート探索を行い、A洋服店は自宅から5km、B洋服店が20kmと算出する。続いて、CPU51はCANインタフェース55から燃費を取得し、記憶していた前回給油時の価格120円/Lと、往復のガソリン代とを取得し、以下の通りAスカートの購入にかかる実費を計算する。
 A洋服店では、2000円+5km÷10km/L×120円/L=2060円がAスカートの実費であると算出する。
 B洋服店では、1500円+20km÷10km/L×120円/L=1740円がAスカートの実費であると算出する。
 よって、車載装置50は、価格が安い方のB洋服店を選択する。車載装置50は、自動的に移動体20をB洋服店にナビゲートしてもよいし、選択結果をタッチパネル561に表示してもよい。
 以上のように、本実施の形態で説明した方式によれば、自動車の燃料代も考慮して商品の購入にかかる実費を算出することができる。
 なお、本実施の形態の方式は、CPU51が実行するとして説明したが、CPU51の機能構成のうちナビゲーション部504が実行するとしてよい。
 実施の形態6.
 本実施の形態では、主に、実施の形態5と異なる部分について説明する。
 本実施の形態では、商品の価格と店舗までの燃料代とに加え、さらに店舗までの人件費と基づいて実費を算出する方式について説明する。
 本実施の形態において、実施の形態1から5と同様の構成には同一の符号を付し、その説明を省略する場合がある。
 なお、本実施の形態に係る移動体表示システム100の構成は、実施の形態1で説明したものと同様である。
 実施の形態5では、商品代と燃料代の合計で安い方を選択する場合を示したが、本実施の形態では、商品代と燃料代に人件費を考慮する場合について示す。
 実施の形態5と同様の条件で、人件費として2000円/h、郊外の平均速度20km/hとして、説明する。
 実施の形態5と同様に、CPU51では、以下の通りAスカートの購入にかかる実費を計算する。
 A洋服店では、2000円+5km÷10km/L×120円/L+5km÷20km/h×2000円=2560円がAスカートの実費であると算出する。
 B洋服店では、1500円+20km÷10km/L×120円/L+20km÷20km/h×2000円=3740円がAスカートの実費であると算出する。
 よって、車載装置50は、価格が安い方のA洋服店を選択する。車載装置50は、自動的に移動体20をA洋服店にナビゲートしてもよいし、選択結果をタッチパネル561に表示してもよい。
 以上のように、本実施の形態で説明した方式によれば、商品価格と自動車の燃料代とに加え、人件費も考慮して商品の購入にかかる実費を算出することができる。
 なお、本実施の形態の方式は、CPU51が実行するとして説明したが、CPU51の機能構成のうちナビゲーション部504が実行するとしてよい。
 以上、本発明の実施の形態1から6について説明したが、これらの実施の形態の説明において「部」として説明するもののうち、いずれか1つのみを採用してもよいし、いくつかの任意の組合せを採用してもよい。つまり、組込み装置の機能ブロックは、上記の実施の形態で説明した機能を実現することができれば、任意である。これらの機能ブロックを、どのような組合せ、あるいは任意のブロック構成で移動体表示システムを構成しても構わない。また、移動体表示システムは、図1に示した装置構成でなくてもよく、上述した機能を実現することができればどのような装置構成でも構わない。
 また、実施の形態1から6では、近距離通信及び近距離通信インタフェースの例としてBluetooth(登録商標)通信及びBluetooth(登録商標)インタフェースを用いて説明した。しかし、近距離通信及び近距離通信インタフェースは、Wi-Fi(登録商標)による通信及びWi-Fi(登録商標)インタフェースでもよい。また、その他の近距離無線通信を用いても構わない。
 また、実施の形態1から6について説明したが、これらの実施の形態のうち、複数を部分的に組合せて実施しても構わない。あるいは、これらの実施の形態のうち、1つの実施の形態を部分的に実施しても構わない。その他、これらの実施の形態を、全体としてあるいは部分的に、どのように組合せて実施しても構わない。
 なお、上記の実施の形態は、本質的に好ましい例示であって、本発明、その適用物や用途の範囲を制限することを意図するものではなく、必要に応じて種々の変更が可能である。
 1 インターネット、2 近距離通信、100 移動体表示システム、10 サーバ、11 CPU、12 LANインタフェース、13 記憶機器、131,131a,131b,131c 商品情報、20 移動体、21 キーシーリング、22,24,26,27,201 ECU、23 ギア、25 パーキングブレーキ、27 燃費ECU、30 表示機器、31 表示インタフェース、32 フロントシールド、33 フレームメモリ、301 表示領域、331 情報表示画面、50 車載装置、51 CPU、52 記憶装置、53 画像処理プロセッサ、54 音声処理プロセッサ、55 CANインタフェース、56 センサインタフェース、561 タッチパネル、57 LANインタフェース、58 音声インタフェース、581 マイク、59 近距離通信インタフェース、501 受付部、502 判定部、503 情報表示部、504 ナビゲーション部、521 記憶部、311 建物情報、311a 認識コード、312 売り場情報、313 商品、200 選択商品一覧、211,211a,211b,211c 購入一覧、4 建物、40 建物内装置、41 CPU、42 LANインタフェース、43 スキャナ、44 メモリ、45 画像処理プロセッサ、46 画像入力インタフェース、47 表示器インタフェース、471 モニタ、48 近距離通信インタフェース、70 携帯端末装置、71 CPU、72 メモリ、73 近距離通信インタフェース、74 携帯網インタフェース、75 画像処理プロセッサ、76 表示器インタフェース、761 タッチパネル、77 センサインタフェース、909 処理回路、S100 移動体表示処理、S110 受付処理、S120 判定処理、S130 情報表示処理、S140 商品選択処理、S150,S150a ルート探索処理、S160 ナビゲーション処理、S170 ユーザ支援処理、S180 携帯支援処理、150 探索ルート、312a 位置情報。

Claims (11)

  1.  移動体のフロントシールドの全面を表示領域とする表示機器と、
     前記移動体の状態に基づいて、商品の情報である商品情報を前記表示領域に表示するか否かを判定する判定部と、
     前記判定部により前記表示領域に前記商品情報を表示すると判定された場合に、前記表示領域の全領域に前記商品情報を表示する情報表示部と
    を備えた移動体表示システム。
  2.  前記判定部は、
     前記移動体の状態が停止状態の場合、前記フロントシールドに前記商品情報を表示すると判定し、前記移動体の状態が移動状態の場合、前記フロントシールドに前記商品情報を表示しないと判定する請求項1に記載の移動体表示システム。
  3.  前記移動体は、自動運転する自動運転機能を有し、
     前記判定部は、
     前記移動体の状態が自動運転状態の場合に、前記フロントシールドに前記商品情報を表示すると判定する請求項1に記載の移動体表示システム。
  4.  前記商品情報は、前記商品を販売する店舗の位置情報を含み、
     前記移動体表示システムは、
     前記位置情報に基づいて、前記移動体を前記店舗に誘導するナビゲーション部を備えた請求項1から3のいずれか1項に記載の移動体表示システム。
  5.  前記情報表示部は、
     前記表示領域に表示した前記商品情報から選択された商品の情報と前記商品を販売する店舗を認証する認識コードとを含む選択商品一覧を記憶部に記憶し、
     前記ナビゲーション部は、
     前記選択商品一覧に基づいて、前記店舗までの探索ルートを決定する請求項4に記載の移動体表示システム。
  6.  前記移動体表示システムは、携帯端末装置を備え、
     前記ナビゲーション部は、
     前記選択商品一覧を近距離通信により前記携帯端末装置に送信し、
     前記携帯端末装置は、
     前記ナビゲーション部から受信した前記選択商品一覧に含まれる前記店舗の前記認識コードにより、前記店舗における前記商品の購入が認証される請求項5に記載の移動体表示システム。
  7.  前記ナビゲーション部は、
     前記選択商品一覧に含まれる前記商品の情報に、前記商品を購入する時間の時間条件が設定されている場合、前記時間条件と、現在時刻と、前記店舗に到着するまでにかかる時間とに基づいて、前記店舗までの前記探索ルートを決定する請求項5または6に記載の移動体表示システム。
  8.  前記ナビゲーション部は、
     前記選択商品一覧に含まれる前記商品が複数の店舗で販売されている場合、前記商品の価格と前記店舗までの燃料代とに基づいて前記商品の購入にかかる実費を算出し、前記複数の店舗から前記実費が最も安い店舗を選択する請求項5から7のいずれか1項に記載の移動体表示システム。
  9.  前記ナビゲーション部は、
     前記商品の価格と前記店舗までの燃料代とに加え、さらに前記店舗までの人件費と基づいて前記実費を算出する請求項8に記載の移動体表示システム。
  10.  判定部が、フロントシールドの全面を表示領域とする表示機器を備えた移動体の状態に基づいて、商品の情報である商品情報を前記表示領域に表示するか否かを判定し、
     情報表示部が、前記判定部により前記表示領域に前記商品情報を表示すると判定された場合に、前記表示領域の全領域に前記商品情報を表示する移動体表示方法。
  11.  フロントシールドの全面を表示領域とする表示機器を備えた移動体の状態に基づいて、商品の情報である商品情報を前記表示領域に表示するか否かを判定する判定処理と、
     前記判定処理により前記表示領域に前記商品情報を表示すると判定された場合に、前記表示領域の全領域に前記商品情報を表示する情報表示処理と
    をコンピュータに実行させる移動体表示プログラム。
PCT/JP2015/086282 2015-12-25 2015-12-25 移動体表示システム、移動体表示方法及び移動体表示プログラム WO2017109953A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/086282 WO2017109953A1 (ja) 2015-12-25 2015-12-25 移動体表示システム、移動体表示方法及び移動体表示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/086282 WO2017109953A1 (ja) 2015-12-25 2015-12-25 移動体表示システム、移動体表示方法及び移動体表示プログラム

Publications (1)

Publication Number Publication Date
WO2017109953A1 true WO2017109953A1 (ja) 2017-06-29

Family

ID=59089775

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/086282 WO2017109953A1 (ja) 2015-12-25 2015-12-25 移動体表示システム、移動体表示方法及び移動体表示プログラム

Country Status (1)

Country Link
WO (1) WO2017109953A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002048562A (ja) * 2000-08-01 2002-02-15 Institute For Welcome System Ltd 端末の空間的位置情報に対応して、位置情報に関連づけられた各種情報をサーバから端末に送信するサービスを利用して、道路標識、交通規制情報、看板、広告等を、現実の空間的位置における物理的実体から位置情報に対応してサーバ内に格納された情報に置き換える方法および機構
JP2002056178A (ja) * 2000-08-10 2002-02-20 Tomioka Insatsu Kk 最適消費行動検索システム
JP2002288286A (ja) * 2001-03-23 2002-10-04 Toshiba Corp 車両管理システムを利用したビジネス支援システムおよびその支援方法
JP2003057050A (ja) * 2001-08-10 2003-02-26 Aisin Aw Co Ltd 購入計画情報提供方法、購入計画情報提供システム及びプログラム
JP2005022720A (ja) * 2003-07-04 2005-01-27 Fabrica Toyama Corp 容器シール装置
JP2011197419A (ja) * 2010-03-19 2011-10-06 Nomura Research Institute Ltd 表示装置を搭載した移動体での広告収集方法
JP2014016654A (ja) * 2010-09-28 2014-01-30 Nec Corp 情報処理システム、及び、広告提示方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002048562A (ja) * 2000-08-01 2002-02-15 Institute For Welcome System Ltd 端末の空間的位置情報に対応して、位置情報に関連づけられた各種情報をサーバから端末に送信するサービスを利用して、道路標識、交通規制情報、看板、広告等を、現実の空間的位置における物理的実体から位置情報に対応してサーバ内に格納された情報に置き換える方法および機構
JP2002056178A (ja) * 2000-08-10 2002-02-20 Tomioka Insatsu Kk 最適消費行動検索システム
JP2002288286A (ja) * 2001-03-23 2002-10-04 Toshiba Corp 車両管理システムを利用したビジネス支援システムおよびその支援方法
JP2003057050A (ja) * 2001-08-10 2003-02-26 Aisin Aw Co Ltd 購入計画情報提供方法、購入計画情報提供システム及びプログラム
JP2005022720A (ja) * 2003-07-04 2005-01-27 Fabrica Toyama Corp 容器シール装置
JP2011197419A (ja) * 2010-03-19 2011-10-06 Nomura Research Institute Ltd 表示装置を搭載した移動体での広告収集方法
JP2014016654A (ja) * 2010-09-28 2014-01-30 Nec Corp 情報処理システム、及び、広告提示方法

Similar Documents

Publication Publication Date Title
JP6051323B1 (ja) 拡張現実基盤のショッピング情報提供システム及びその制御方法
US10032126B2 (en) Customer controlled home delivery
EP2648428B1 (en) User terminal device and information providing method using the same
US20200160393A1 (en) Information processing apparatus, information processing system, and advertisement distribution method for vehicle
US11810182B2 (en) Techniques for completing pre-arranged transactions
JP2019531521A (ja) 情報処理のためのシステム及び方法
CN104036412A (zh) 导购系统、导购管理装置及方法
JP6977726B2 (ja) 在庫管理装置、顧客端末、商品販売システムおよび在庫管理方法
US20220036426A1 (en) Proximity-based vehicle comparison
CN110262503B (zh) 无人售卖车调度方法、装置、设备和可读存储介质
US11087384B2 (en) Information processing system, storage medium storing program, and control method
US20190005565A1 (en) Method and system for stock-based vehicle navigation
JP5596827B1 (ja) 車両査定支援装置、および車両査定支援システム
WO2016136077A1 (ja) 情報処理装置、情報処理システム、プログラム、及び制御方法
JP2017096897A (ja) ナビゲーション端末、商品予約システム、商品予約方法及びナビゲーション端末用プログラム
WO2017109953A1 (ja) 移動体表示システム、移動体表示方法及び移動体表示プログラム
WO2017158324A1 (en) Sensor systems and methods
US20210201252A1 (en) Server apparatus, control apparatus, storage medium, mobile shop, and operating method for information processing system
JP2020190777A (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP7282154B1 (ja) 携帯端末、その制御方法、ならびに、支払プログラム
US20210133673A1 (en) Server apparatus, medium, and operation method for information processing system
JP2009053751A (ja) カーナビゲーション連携システム、それに用いる装置、方法およびプログラム
JP2004326190A (ja) 案内システム
CN113497749A (zh) 控制装置和计算机可读存储介质
JP2017191500A (ja) 携帯端末に対して地点情報を提供する装置、方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15911390

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15911390

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP