WO2022030248A1 - 情報処理装置、情報処理方法、及び情報処理システム - Google Patents

情報処理装置、情報処理方法、及び情報処理システム Download PDF

Info

Publication number
WO2022030248A1
WO2022030248A1 PCT/JP2021/027161 JP2021027161W WO2022030248A1 WO 2022030248 A1 WO2022030248 A1 WO 2022030248A1 JP 2021027161 W JP2021027161 W JP 2021027161W WO 2022030248 A1 WO2022030248 A1 WO 2022030248A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
area
information processing
content
map
Prior art date
Application number
PCT/JP2021/027161
Other languages
English (en)
French (fr)
Inventor
裕昭 足立
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to JP2022541429A priority Critical patent/JPWO2022030248A1/ja
Priority to US18/007,157 priority patent/US20230236019A1/en
Publication of WO2022030248A1 publication Critical patent/WO2022030248A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Definitions

  • This technology relates to information processing devices, information processing methods, and information processing systems that can be applied to the production of content using location information.
  • Patent Document 1 discloses a technique for correcting an error in position information obtained by GPS (Global Positioning System).
  • the purpose of this technology is to provide an information processing device, an information processing method, and an information processing system capable of easily producing contents using position information.
  • the information processing apparatus includes a first acquisition unit, a setting unit, a storage unit, and a display control unit.
  • the first acquisition unit acquires map information.
  • the setting unit sets a content area to which the content data is associated, based on the designation of the area by the user.
  • the storage unit stores the set content area and the map information in association with each other.
  • the display control unit superimposes and displays the content area on the map information.
  • the content area is set based on the area designation by the user.
  • the set content area is displayed superimposed on the map information. This makes it possible to easily create content using location information.
  • the information processing device may further include a second acquisition unit and an output unit.
  • the second acquisition unit acquires accuracy information regarding the accuracy of the position information acquired by the position sensor.
  • the output unit outputs support information regarding the setting of the content area based on the acquired accuracy information.
  • the information processing apparatus further has a first position information set based on the map information and a second position acquired by the position sensor at a position in the real world corresponding to the first position information.
  • a generation unit that generates the accuracy information based on the difference from the information may be provided.
  • the generation unit obtains the accuracy information based on the difference between the route information set based on the map information and the position information acquired by the position sensor in the real-world route corresponding to the route information. May be generated.
  • the support information may include image information including the map information for setting at least one of the content area or the route information.
  • the output unit may display one or a plurality of correction areas based on the one or a plurality of the content areas input based on the map information in the image information in the map information. ..
  • the output unit displays a region including the position information that may be acquired by the position sensor at a position in the real world corresponding to the input position in the content region as the correction region. good.
  • the output unit may change at least one of the positions or sizes of the plurality of correction areas so that the overlap is eliminated when the plurality of correction areas overlap each other.
  • the output unit may output warning information when the plurality of correction areas overlap each other.
  • the output unit may highlight and display the overlapping areas.
  • the output unit may output information about the content data associated with the content area corresponding to each of the plurality of overlapping areas when the plurality of correction areas overlap each other.
  • the output unit may output information regarding the scale of the map information.
  • the output unit provides comparison target information consisting of a set of route information set based on the map information and the position information acquired by the position sensor in a real-world route corresponding to the route information. It may be displayed in the image information.
  • the output unit may superimpose the comparison target information on the map information in the image information.
  • the content data may include at least one of audio data and image data.
  • the position sensor may be a GPS sensor.
  • the information processing method is an information processing method executed by a computer system and includes acquiring map information.
  • the content area to which the content data is associated is set based on the area specified by the user.
  • the set content area and the map information are stored in association with each other.
  • the content area is superimposed on the map information and displayed.
  • the information processing system includes a first acquisition unit, a setting unit, a storage unit, and a display unit.
  • the first acquisition unit acquires map information.
  • the setting unit sets a content area to which the content data is associated, based on the designation of the area by the user.
  • the storage unit stores the set content area in association with the map information.
  • the display unit superimposes the content area on the map information and displays it.
  • FIG. 1 is a schematic diagram showing a configuration example of a content production system according to an embodiment of the present technology.
  • the content production system 100 functions as an embodiment of an information processing system according to the present technology. Further, in the present embodiment, the content production system 100 functions as a system for producing content using location information.
  • content using location information when a content experiencer (viewer) wearing an acoustic output device such as headphones or earphones enters a predetermined area, sound, BGM, narration, etc. are reproduced. Take the sound content map as an example.
  • the application of this technology is not limited to the production of the sound content map described above.
  • FIG. 2 is a schematic diagram for explaining a sound content map.
  • the sound content map is content using a voice AR system capable of providing an auditory augmented reality (AR) experience to the content experiencer 2.
  • AR auditory augmented reality
  • the sound is virtually arranged in a predetermined area 3 in the real world.
  • any sound content such as BGM, narration, character dialogue, etc.
  • a sound content map in which arbitrary sound contents such as BGM, narration, and character dialogue are arranged on a map will be described as an example, but the present embodiment is not limited to this.
  • non-sound content such as AR objects and advertising objects may be used, in which case the name is, for example, a content map.
  • the content experience person 2 can hear the sound arranged in the area 3 by entering the area 3 in the real world.
  • content experiencers 2 are sightseeing while walking in the cities of Ryogoku, they hear narration explaining the history of sumo and loud cheers as if sumo is being held the moment they enter the Ryogoku Kokugikan. It will be possible to experience virtual content such as coming.
  • Content production is performed by the content creator (creator) 6.
  • the area 3 is set based on the map information.
  • the position information of the set area 3 is defined by, for example, latitude information and longitude information.
  • the region 3 is defined by latitude information and longitude information such as peripheral edges, vertices, and center positions of the region 3.
  • the creator 6 arranges the sound in the set area 3.
  • the position information of the area 3 is associated with the sound content data for reproducing the sound. That is, the latitude information and the longitude information and the sound content data are stored in association with each other.
  • the creator 6 sets the content area 3.
  • the creator 6 corresponds to an embodiment of a user according to the present technology.
  • the sound reproduction is executed by the mobile terminal 4 held by the content experience person 2 and the headphones 5 attached to the content experience person 2.
  • any device equipped with a position sensor capable of acquiring position information may be used.
  • a case where a GPS sensor is mounted as a position sensor will be taken as an example.
  • the GPS sensor can acquire position information (latitude information and longitude information) by receiving GPS signals sent from GPS satellites.
  • the present invention is not limited to this, and any other position sensor may be mounted.
  • an application (application program) related to the present technology for experiencing a sound content map is installed on a user terminal possessed by the content experiencer 2, such as a smartphone or a tablet terminal.
  • a dedicated device for experiencing the sound content map may be prepared as the mobile terminal 4 and lent to the content experience person 2.
  • the device capable of outputting sound is not limited to the headphone 5, and for example, an earphone, a head-mounted display, or any other device may be used.
  • the mobile terminal 4 compares the position information acquired by the GPS sensor with the position information of the content area 3 set on the map by the creator 6, so that the content experience person 2 enters or leaves the content area 3. Is detected.
  • the sound content data associated with the content area 3 is reproduced.
  • the sound corresponding to the sound content data is output from the headphone 5.
  • a process of stopping the reproduction of the sound content data associated with the content area 3 is executed. For example, when the sound is BGM, the playback of BGM is stopped or faded out.
  • the reproduction is continued until the dialogue or the like ends, and the reproduction is stopped when the dialogue or the like ends.
  • Arbitrary control may be executed without being limited to the reproduction and stop of the reproduction of such sound contents.
  • the sound content map enables the content experiencer 2 to obtain a high-quality virtual experience that has never been seen before.
  • the content production system 100 includes a mobile terminal 8, a server device 9, and an information processing device 10.
  • the mobile terminal 8, the server device 9, and the information processing device 10 are connected to each other so as to be able to communicate with each other via the network 1.
  • the network 1 is constructed by, for example, the Internet, a wide area communication network, or the like.
  • any WAN (Wide Area Network), LAN (Local Area Network), or the like may be used, and the protocol for constructing the network 1 is not limited.
  • Each of the mobile terminal 8, the server device 9, and the information processing device 10 has hardware necessary for configuring a computer, such as a processor such as a CPU, GPU, and DSP, a memory such as a ROM or RAM, and a storage device such as an HDD. Have. Of course, hardware such as FPGA and ASIC may be used (see FIG. 25).
  • the processor loads a program according to the present technology recorded in advance in a ROM or the like into a RAM and executes the program, whereby the information processing method according to the present technology is executed.
  • the program is installed on each device, for example via various recording media. Alternatively, the program may be installed via the Internet or the like.
  • the type of recording medium on which the program is recorded is not limited, and any computer-readable recording medium may be used.
  • any non-transient storage medium readable by a computer may be used.
  • each device can be realized by any computer such as a PC or a smartphone.
  • the mobile terminal 8, the server device 9, and the information processing device 10 are not limited to the case where they have the same configuration.
  • any device equipped with a position sensor capable of acquiring position information may be used.
  • a device equipped with a GPS sensor is used.
  • the latitude information and longitude information of the mobile terminal 8 are acquired as position information by the GPS sensor.
  • the user terminal is used as the mobile terminal 4.
  • a device capable of exhibiting general GPS accuracy is used.
  • a dedicated device is used as the mobile terminal 4.
  • the dedicated device is used as the mobile terminal 8.
  • the present invention is not limited to this, and any other device may be used.
  • the server device 9 executes various processes related to the production of the sound content map.
  • the server device 9 includes a DB (database) 11.
  • the DB 11 may be constructed by a storage device provided in the server device 9.
  • the DB 11 may be constructed in an external storage device. In this case, it can be regarded as the server device 9 including the external storage device.
  • Various information about the content production system 100 is stored in the DB 11. For example, map information, information of the content area 3, and the like are stored. Further, various information and history information generated in the past may be stored.
  • the information processing apparatus 10 is used by the creator 6 for setting the content area 3. That is, the information processing apparatus 10 is used as a creator tool.
  • the information processing apparatus 10 has a first acquisition unit 13, a setting unit 14, a storage unit 15, and a display control unit 16 as functional blocks.
  • the first acquisition unit 13, the setting unit 14, and the display control unit 16 are realized as software blocks, for example, by the processor executing a predetermined program. Of course, in order to realize each block, dedicated hardware such as an IC (integrated circuit) may be used.
  • the storage unit 15 is realized by a memory, a storage device, or the like.
  • the first acquisition unit 13 acquires map information.
  • the first acquisition unit 13 acquires map information of various areas from a map server or the like connected to the network 1.
  • map information may be acquired via a storage medium or the like.
  • Latitude information and longitude information are associated with the map information as the position information of each point.
  • the information processing apparatus 10 can display the acquired map information on the display unit. Further, the information processing apparatus 10 can acquire the position information (f latitude information and longitude information) of the point designated by the creator 6 or the like with respect to the map information.
  • As the map information a panoramic image taken panoramicly at each point in the real world may be displayed. For example, a panoramic image taken from Hyakutan-dori may be displayed as map information.
  • an aerial photograph may be displayed as map information.
  • software for using map information may be downloaded from a map server or the like, and it may be possible to display map information, change the scale, acquire position information of each point according to the scale, and the like.
  • an API Application Programming Interface
  • the map information may be made available by calling the API.
  • the mobile terminal 8 and the server device 9 can also acquire and use map information.
  • the setting unit 14 sets the content area 3 to which the content data is associated based on the designation of the area by the creator 6.
  • the storage unit 15 stores the set content area 3 in association with the map information.
  • the display control unit 16 superimposes and displays the content area 3 on the map information.
  • FIG. 3 is a schematic diagram showing an example of an area setting GUI (Graphical User Interface).
  • the area can be specified by the creator 6, the content area 3 can be set by the setting unit 14, and the content area 3 can be superimposed and displayed on the map information by the display control unit 16 via the area setting GUI 18 as illustrated in FIG. Will be executed.
  • GUI Graphic User Interface
  • the area setting GUI 18 includes a map display unit 19 for displaying map information, an area setting button 20 selected when setting the content area 3, an OK button 21, and an erase button 22. It has a scale display unit 23 for displaying the scale of map information, and a + button /-button 24 for changing the scale.
  • the map information displayed on the map display unit 19 can be arbitrarily changed.
  • the creator 6 displays desired map information and operates the + button /-button 24 to adjust the scale.
  • the creator 6 draws a region having a predetermined shape by operating a touch pen, a mouse, or the like. As a result, the area is designated by the creator 6.
  • the creator 6 selects the OK button 21. If you want to erase the drawn area, select the erase button 22.
  • the setting unit 14 sets the position information (latitude information / longitude information) of the area drawn by the creator 6 as the position information of the content area 3.
  • the storage unit 15 stores the position information (latitude information / longitude information) of the set content area 3 in association with the map information (latitude information / longitude information).
  • the display control unit 16 superimposes the content area 3 on the map information and displays it on the map display unit 19.
  • the area setting GUI 18 corresponds to an embodiment of image information including map information for setting a content area.
  • FIG. 4 is a schematic diagram showing a configuration example of a content production system according to another embodiment.
  • the content production system 100 shown in FIG. 4 functional blocks are further added to the server device 9 and the information processing device 10.
  • the content production system 100 shown in FIG. 4 makes it possible to sufficiently suppress the influence of an error in position information (GPS error) on the production of a sound content map.
  • GPS error position information
  • FIG. 5 is a schematic diagram for explaining GPS accuracy.
  • FIG. 5 shows a locus of position information measured by GPS when a mobile terminal 4 equipped with a GPS sensor is held and travels on the same route.
  • the position information acquired by the GPS sensor may have an error with respect to the actual standing position. Depending on the surrounding environment and the like, an error may occur in the range of several meters to several hundreds of meters.
  • the GPS accuracy is low, the accuracy of detecting entry and exit from the content area 3 will decrease.
  • the entry to the landmark cannot be detected depending on the GPS accuracy, or conversely, the entry to the landmark is detected even if it is far from the landmark. There may be cases where it ends up. Further, when a plurality of content areas 3 are densely packed, there is a high possibility that the influence of GPS accuracy has a large effect. If the entry into the content area 3 is not detected, for example, the sound (BGM, narration, dialogue, etc.) will not be reproduced. When the entry into another adjacent content area 3 is erroneously detected, for example, sounds that should not overlap (narration between different content areas 3 and the like) are superimposed and heard.
  • the sound that should be reproduced may be overwritten, and a sound different from the expected one may be reproduced (the narration that should be reproduced in the content area A can be heard in the content area B, etc.).
  • a sound different from the expected one may be reproduced (the narration that should be reproduced in the content area A can be heard in the content area B, etc.).
  • the server device 9 further has a generation unit 26 as a functional block.
  • the generation unit 26 is realized as a software block by, for example, a processor executing a predetermined program. Of course, in order to realize the generation unit 26, dedicated hardware such as an IC (integrated circuit) may be used.
  • the generation unit 26 generates accuracy information regarding the accuracy of the position information acquired by the position sensor. In this embodiment, accuracy information regarding the accuracy of position information (latitude information and longitude information) acquired by the GPS sensor is generated. For example, the position information (referred to as the first position information) set by the creator 6 based on the map information is transmitted to the server device 9.
  • the creator 6 carries the mobile terminal 8 and actually moves to a position in the real world corresponding to the set first position information. Then, the position information (referred to as the second position information) acquired by the GPS sensor of the mobile terminal 8 is transmitted to the server device 9.
  • the generation unit 26 is based on the difference between the first position information set based on the map information and the second position information acquired by the GPS sensor at the position in the real world corresponding to the first position information. And generate accuracy information.
  • the difference between the first position information and the second position information corresponds to GPS accuracy.
  • the GPS accuracy is also information included in the accuracy information. That is, calculating the difference between the first position information and the second position information is also included in generating the accuracy information based on the difference between the first position information and the second position information.
  • arbitrary information regarding the accuracy of position information may be generated as accuracy information.
  • GPS accuracy a correction value or the like for correcting the second position information
  • another method may be used as a method for generating accuracy information.
  • the first position information, the second position information, the accuracy information, the support information, and the like are stored in the DB 11. Further, various information and history information generated in the past may be stored.
  • the information processing apparatus 10 further has a second acquisition unit 27 and an output unit 28 as functional blocks.
  • the second acquisition unit 27 and output unit 28 are realized as software blocks, for example, by the processor executing a predetermined program. Of course, in order to realize each block, dedicated hardware such as an IC (integrated circuit) may be used.
  • the second acquisition unit 27 acquires accuracy information regarding the accuracy of the position information acquired by the position sensor. In the present embodiment, the accuracy information generated by the server device 9 is acquired via the network 1.
  • the output unit 28 outputs support information regarding the setting of the content area 3 associated with the content data based on the acquired accuracy information.
  • the support information includes arbitrary information that can support the setting work of the content area 3 by the creator 6.
  • the output of the support information includes an arbitrary data output method capable of presenting the support information to the creator 6, such as displaying an image such as a GUI and outputting a voice such as a guide voice.
  • the output of the image information (support information) to the display device for displaying the image information (support information) by the display device is also included in the output of the support information.
  • the output of the support information to the speaker or the like for the output of the voice information (support information) by the speaker or the like is also included in the output of the support information.
  • the area setting GUI 18 for setting the content area 3 including the map information is displayed on the display unit of the information processing apparatus 10. Then, various information such as warning information, correction area, margin area, content data information, and the like are displayed in the area setting GUI 18.
  • the display of the area setting GUI 18 and the display of various support information in the area setting GUI 18 are also embodiments of the output of the support information according to the present technology. Therefore, the display control unit 16 shown in FIG. 1 may function as the output unit 28. On the contrary, the output unit 28 shown in FIG. 4 may function as the display control unit 16 shown in FIG.
  • the accuracy information acquired by the second acquisition unit 27 may be output as it is as support information.
  • the set of the first position information and the second position information described above as an example of generating accuracy information may be displayed as support information. That is, the set of the first position information set based on the map information and the second position information acquired by the GPS sensor (position sensor) at the position in the real world corresponding to the first position information is , May be displayed in the area setting GUI.
  • the creator 6 can obtain information such as a region with high GPS accuracy, a region with low GPS accuracy, and a region where GPS accuracy suddenly deteriorates. This makes it possible to execute the setting of the content area 3 with good workability. It is possible to set the content area 3 that can accurately detect the entry and exit of the content experience person 2.
  • FIG. 6 is a block diagram showing a functional configuration example of the content production system 100.
  • the mobile terminal 8 has a communication unit 30, a GPS sensor 31, a display unit 32, an operation unit 33, and a control unit 34.
  • the communication unit 30 is a device for communicating with another device.
  • a wireless LAN module such as WiFi
  • a communication device such as a modem or a router are used. Any other communication device may be used.
  • the display unit 32 displays various information such as map information and GUI.
  • any display device such as a liquid crystal display or an organic EL (Electro Luminescence) display may be used.
  • the operation unit 33 is, for example, a keyboard, a pointing device, a touch panel, or other operation device.
  • the touch panel may be integrated with the display unit 32.
  • the control unit 34 has hardware necessary for configuring a computer, such as a processor such as a CPU, a memory such as a ROM or RAM, and a storage device such as an HDD.
  • the processor executes the program related to the present technology to realize the position information acquisition unit 35 and the route information output unit 36 as functional blocks.
  • dedicated hardware such as an IC (integrated circuit) may be used.
  • a GPS measurement application is installed as a program related to the present technology. Then, the position information acquisition unit 35 and the route information output unit 36 execute the processing for GPS measurement.
  • the server device 9 has a communication unit 38, a DB 11, and a control unit 39.
  • the control unit 39 has hardware necessary for configuring a computer, such as a processor such as a CPU, a memory such as a ROM or RAM, and a storage device such as an HDD.
  • the processor executes a program related to the present technology to have a GPS accuracy analysis unit 40 and a DB management unit 41 as functional blocks.
  • the DB management unit 41 manages the information stored in the DB 11. Further, the DB management unit 41 writes data to the DB 11 and reads data from the DB 11.
  • the GPS accuracy analysis unit 40 realizes the generation unit 26 shown in FIG. That is, the GPS accuracy analysis unit 40 generates accuracy information.
  • the server device 9 can also be called a sound content map server.
  • the information processing device 10 includes a communication unit 43, a display unit 44, an operation unit 45, and a control unit 46.
  • the control unit 46 has hardware necessary for configuring a computer, such as a processor such as a CPU, a memory such as a ROM or RAM, and a storage device such as an HDD.
  • the processor executes a program related to the present technology to have a region analysis unit 47, a route analysis unit 48, an input determination unit 49, and a GUI generation unit 50 as functional blocks.
  • the GUI generation unit 50 generates various GUIs for producing a sound content map and displays them on the display unit 44.
  • an area setting GUI for setting the content area 3 and a route setting GUI for setting an accuracy measurement path (hereinafter, simply referred to as a measurement path) are generated and displayed.
  • FIG. 7 is a schematic diagram showing an example of a GUI for area setting and a GUI for route setting.
  • the area setting GUI 18 and the route setting GUI 52 are collectively configured as one GUI.
  • the area setting GUI 18 has a map display unit 19 for displaying map information, an area setting button 20 selected when setting the content area 3, an OK button 21, an erase button 22, and a scale of map information. It has a scale display unit 23 for displaying and a + button /-button 24 for changing the scale.
  • the map information displayed on the map display unit 19 can be arbitrarily changed. Then, by designating a desired area on the map information, the content area 3 can be input. For example, the creator 6 displays desired map information and operates the + button /-button 24 to adjust the scale.
  • the creator 6 draws a region having a predetermined shape by operating a touch pen, a mouse, or the like. As a result, the area is designated by the creator 6. When the creator 6 finally determines the designated area as the content area 3, the creator 6 selects the OK button 21. If you want to erase the drawn area, select the erase button 22.
  • the route setting GUI 52 includes a map display unit 19, a measurement route setting button 53 selected when setting a measurement route, an OK button 21, an erase button 22, a scale display unit 23, and a + button /-. It has a button 24 and. That is, in the area setting GUI 18 and the route setting GUI 52, the map display unit 19, the OK button 21, the erase button 22, the scale display unit 23, and the + button /-button 24 are used as common elements.
  • the creator 6 displays desired map information and operates the + button /-button 24 to adjust the scale.
  • the creator 6 draws a line at a predetermined position by operating a touch pen, a mouse, or the like.
  • the creator 6 selects the OK button 21 when he / she wants to set the line as the measurement path.
  • the configurations of the area setting GUI 18 and the route setting GUI 52 are not limited and may be arbitrarily designed. That is, the area setting GUI18, the route setting GUI52, the types, numbers, shapes, and the like of various buttons are not limited to this example.
  • the route setting GUI 52 corresponds to an embodiment of image information including map information for setting route information.
  • the measurement route can also be called a measurement route.
  • GUI generation unit 50 can also generate and display various GUIs. Further, the GUI generation unit 50 draws an area or a line in the GUI according to the operation of the creator 6.
  • the GUI generation unit 50 can also display warning information and the like in the GUI. For example, functional blocks such as an area drawing unit, a route drawing unit, and an information display unit may be constructed in the GUI generation unit 50.
  • the input determination unit 49 determines the information input by the creator 6 via the operation unit 45. For example, for an operation on a touch panel or the like, a determination of an input instruction, a determination of coordinate information specified according to a drawing operation, or the like is determined and output to each block. For example, the input determination unit 49 generates corresponding operation information according to the operation of selecting each button illustrated in FIG. 7, and outputs the corresponding operation information to the GUI generation unit 50 or the like. Further, the coordinate information instructed is acquired according to the area drawing operation for the map information and the line drawing operation, and is output to the GUI generation unit 50 or the like. The GUI generation unit 50 executes area drawing and line drawing according to the drawing operation of the creator 6 based on the coordinate information determined by the input determination unit 49.
  • the area analysis unit 47 analyzes the content area 3 input by the creator 6. Further, the area analysis unit 47 acquires the accuracy information generated by the server device 9, and generates a correction area and a margin area as support information.
  • the route analysis unit 48 analyzes the measurement route input by the creator 6. In the present embodiment, the area analysis unit 47, the route analysis unit 48, the input determination unit 49, and the GUI generation unit 50 realize the first acquisition unit 13, the setting unit 14, and the display control unit 16 shown in FIG. To. Further, the area analysis unit 47, the route analysis unit 48, the input determination unit 49, and the GUI generation unit 50 realize the second acquisition unit 27 and the output unit 28 shown in FIG.
  • the mobile terminal 8, the server device 9, and the information processing device 10 are communicably connected to the map server 37 via the network 1.
  • the map server 37 can output map information of various areas. Further, the map information is associated with latitude information and longitude information as position information of each point.
  • the mobile terminal 8, the server device 9, and the information processing device 10 can acquire map information from the map server 37 and display it on each display unit. Further, the mobile terminal 8, the server device 9, and the information processing device 10 can acquire the position information (latitude information and longitude information) of the point designated by the creator or the like with respect to the map information.
  • the map information a panoramic image taken panoramicly at each point in the real world may be displayed.
  • a panoramic image taken from Hyakutan-dori may be displayed as map information.
  • an aerial photograph may be displayed as map information.
  • software for using map information may be downloaded from the map server 37, and it may be possible to display the map information, change the scale, acquire the position information of each point according to the scale, and the like.
  • the map information may be made available by calling the API.
  • FIG. 8 is a flowchart showing an example of setting a measurement path.
  • FIG. 9 is an example of the route setting GUI 52 displayed when the measurement route is set. Note that FIG. 9 shows only the map display unit 19 of the route setting GUI 52.
  • Map information is acquired from the map server 37 by the information processing device 10 (step 101).
  • the GUI generation unit 50 displays the route setting GUI 52 (step 102).
  • the creator 6 selects the measurement route setting button 53, and the line drawing operation is input to the map displayed on the map display unit 19.
  • the input determination unit 49 and the GUI generation unit 50 display the measurement path 55 superimposed on the map information in accordance with the line drawing operation of the creator 6 (step 103).
  • the route analysis unit 48 acquires latitude information / longitude information at each point of the measurement route 55 (step 104).
  • the information processing device 10 transmits the latitude information / longitude information of the measurement path 55 to the server device 9.
  • the latitude information / longitude information of the measurement path 55 is registered in the DB 11 by the DB management unit 41 of the server device 9 (step 105).
  • the latitude information / longitude information of the measurement path 55 is included in the first position information set based on the map information. Further, the latitude information / longitude information of the measurement path 55 corresponds to the route information set based on the map information.
  • the measurement path 55 is displayed with an icon 56 that can be recognized as a route that should actually go to the site and perform GPS measurement.
  • information supporting the setting may be output to the measurement path 55.
  • the drawing operation may be guided so that the measurement path 55 can be drawn along the white line of the road, the guardrail, or the like.
  • the road, the start point, and the end point may be designated by the creator 6, and the measurement path 55 may be set and drawn so as to actually walk easily according to the designation.
  • the GUI generation unit 50 may output information regarding the scale of the map information. For example, when the scale is small (when the scale denominator is large) and when the scale is large (when the scale denominator is small), the width of the real world corresponding to the width of the measurement path 55 shown in FIG. 9 is different. For example, if the scale is too large, the width of the real-world path corresponding to the measurement path 55 will be very large. Therefore, as a real-world route corresponding to the measurement route 55, the range to be walked becomes wide. As a result, when the position information acquired by the GPS sensor 31 while walking is compared with the position information of the measurement path 55 set via the route setting GUI 52, an accurate result cannot be obtained as the GPS accuracy. There can be.
  • a range of scales for which setting is permitted may be determined. For example, when the scale is larger than a predetermined threshold value, the input of the measurement path may not be permitted and the warning information to that effect may be displayed. For example, it may be presented to the creator by text display or voice such as "The scale is too large. Please set the scale to 1/000 or less.” Of course, depending on the selection of the measurement path setting button 53, information such as "Please set the scale to 1/000 or less" may be output from the beginning.
  • FIG. 10 and 11 are schematic views for explaining another example of setting the measurement path.
  • a panoramic image taken panoramicly in the real world is taken as map information.
  • the creator 6 can set the measurement path 55 at the boundary portion between the roadway and the sidewalk on the left side by operating the operation unit 45.
  • an aerial photograph may be displayed as the map information. The aerial photograph makes it possible to set the measurement path 55 with high accuracy along the sidewalk.
  • FIG. 12 is a flowchart showing an example of GPS measurement.
  • the creator 6 takes the mobile terminal 8 and moves to a point in the real world path corresponding to the measurement path 55 (hereinafter, referred to as a corresponding measurement path). Then, the GPS measurement application according to the present technology is activated.
  • Map information is acquired from the map server 37 by the mobile terminal 8 (step 201).
  • the route information output unit 36 acquires the position information (latitude information and longitude information) of the measurement route 55 set via the route setting GUI 52 from the server device 9. Then, the measurement path 55 is superimposed and displayed on the map information. For example, map information including the measurement path 55 as illustrated in FIG. 9 is displayed.
  • the icon 56 is not displayed when the measurement path 55 is set, and may be displayed only during GPS measurement. Further, a panoramic image including the measurement path 55 as illustrated in FIG. 10 or an aerial photograph including the measurement path 55 as illustrated in FIG. 11 may be displayed.
  • the scale may be set unconditionally. That is, the measurement path 55 is input at a very wide scale.
  • the route analysis unit 48 acquires the latitude information / longitude information of the measurement path 55 in response to the input, and transmits the latitude information / longitude information to the server device 9.
  • the creator 6 optimizes the scale for the map information including the measurement path 55 displayed on the display unit 32 of the mobile terminal 8 at the time of GPS measurement. For example, when an aerial photograph or the like as illustrated in FIG. 11 is used, by optimizing the scale, it becomes possible to accurately grasp the route to be walked by oneself.
  • the range of the scale that can be set may be determined, and at the time of GPS measurement, the scale of the map information including the measurement path 55 may be optimized by the creator 6.
  • the position information acquisition unit 35 acquires the position information sensed in the corresponding measurement path.
  • position information (latitude information and longitude information) is acquired by the GPS sensor 31 while walking along the corresponding measurement path (step 203).
  • the creator 6 is urged to input a start button or the like that triggers the start of GPS measurement at the start point of the corresponding measurement path.
  • the creator 6 is prompted to input an end button that triggers the end of GPS measurement at the end point of the corresponding measurement path.
  • the position information acquisition unit 35 acquires the position information acquired by the GPS sensor 31 as an actual measurement result in response to the input of the start button.
  • the acquired position information is transmitted to the server device 9, and is registered in the DB 11 as the actual measurement result of the measurement path 55 by the DB management unit 41 (step 204). Steps 203 and 204 are repeated until the end button is input. When the end button is input, it is determined that the measurement is completed, and the process ends (step 205). As described above, in the present embodiment, the position information acquisition unit 35 acquires the position information acquired by the GPS sensor between the input of the start button and the input of the end button as the actual measurement result. Of course, it is not limited to such a method.
  • FIG. 13 is a flowchart showing an example of generating accuracy information.
  • the GPS accuracy analysis unit 40 of the server device 9 generates accuracy information from the difference between the position information of the measurement path 55 and the measured value (position information) in the corresponding measurement path. That is, accuracy information is generated based on the difference between the route information set based on the map information and the position information acquired by the GPS sensor 31 on the route in the real world corresponding to the route information (step 301). ..
  • latitude information and longitude information are associated with each point.
  • latitude information and longitude information are acquired at a predetermined frame rate while walking along the corresponding measurement path.
  • a set of measurement time and position information (latitude information and longitude information) is acquired in units of 1 second. It should be noted that the set of the measurement time and the position information (latitude information and longitude information) is also acquired when the start button is input and the end button is input. Of course, the actually measured value first acquired after the input of the end button may be used as the actually measured value at the end of the measurement.
  • the GPS accuracy analysis unit 40 associates the position information of the measurement path 55 with the measurement start time, the measurement end time, and the actually measured value acquired every second during that time, and generates the difference as the accuracy information. It is possible.
  • the position information at the start point of the measurement path 55 is associated with the actually measured value acquired at the start of measurement. Further, the position information at the end point of the measurement path 55 is associated with the actually measured value acquired at the end of the measurement.
  • the measurement path 55 is divided (for example, evenly divided) by the same number of division points as the number of actually measured values acquired every second between the start of measurement and the end of measurement, and a plurality of actually measured values are combined. , Multiple division points are associated in order from the measurement start side. The difference between the measured values corresponding to each other and the position information of the division point is generated as accuracy information.
  • FIG. 14 is a schematic diagram for explaining another example of the correspondence between the measurement path and the actually measured value.
  • the total distance of the measurement path 55 set by the creator 6 is calculated.
  • a plurality of control points r1 to r5 are designated by the creator 6 and a measurement path 55 is set so as to connect them.
  • the control point r1 is the start point of the measurement path 55
  • the control point r5 is the end point of the measurement path 55.
  • the GPS accuracy analysis unit 40 acquires the position information (latitude information and longitude information) of each control point r1 to r5.
  • the distances of the control points r1 to r2, the control points r2 to r3, the control points r3 to r4, and the control points r4 to r5 are calculated using the Hubeny formula. By adding the calculated distances, the total distances of the control points r1 to r5 are calculated. The total distance is the total distance traveled by the creator 6 at the time of actual measurement. In addition, any method may be used as a method for calculating the total distance of the measurement path 55.
  • FIG. 14B shows the GPS actual measurement result 57.
  • the GPS actual measurement result 57 is a line connecting the actual measurement values acquired every second from the actual measurement value b1 at the start of measurement to the actual measurement value b2 at the end of measurement in chronological order.
  • the actual measurement was performed at the position corresponding to the control point r1 of the measurement path 55, and as a result, the actual measurement value b1 was obtained. Further, at the end of the measurement, the actual measurement is performed at the position corresponding to the control point r5 of the measurement path, and as a result, the actual measurement value b2 is obtained.
  • the average moving speed (total moving distance / measurement time) based on the total moving distance of the control points r1 to r5 and the measurement time (measurement time of the actual measurement value b2-measurement time of the actual measurement value b1) by the GPS accuracy analysis unit 40. ) Is calculated.
  • the position P of the measurement path 55 is calculated every second when the measurement path 55 is moved from the control points r1 to r5 at the average moving speed.
  • the distance between the control points r1 and r2 is 150 m and the average moving speed is 50 m / min.
  • the straight line (length 150 m) from the control point r1 to the control point r2 is advanced by 5/6 m every second.
  • the position (coordinates) of the control point r1 on the aerial photograph shown in FIG. 14B is r1, and the position (coordinates) of the control point r2 is r2.
  • the position 1 second after the creator starting from the control point r1 is the position P1 of (r2-r1) ⁇ (5/6) ⁇ (1/150).
  • the position after 2 seconds is the position P2 of 2 ⁇ (r2-r1) ⁇ (5/6) ⁇ (1/150).
  • the measured value 1 second after the start of measurement (the first measured value) is acquired.
  • the measured value 2 seconds after the start of measurement (the second measured value) is acquired.
  • the accuracy information generated by the DB management unit 41 of the server device 9 is stored in the DB 11 (step 302).
  • the accuracy information may be described as GPS accuracy.
  • FIG. 15 is a flowchart showing a calculation example of the correction area (margin area).
  • FIG. 16 is an example of the area setting GUI 18 displayed when the content area 3 is set. In FIG. 16, only the map display unit 19 of the GUI for setting the area is shown.
  • Map information is acquired from the map server 37 by the information processing device 10 (step 401).
  • the GUI generation unit 50 displays the area setting GUI 18 (step 402).
  • the creator 6 selects the area setting button 20, and the area drawing operation is input to the map displayed on the map display unit 19.
  • the content area 3 is superimposed and displayed on the map information by the input determination unit 49 and the GUI generation unit 50 in accordance with the drawing operation of the area of the creator 6 (step 403).
  • the area analysis unit 47 acquires the GPS accuracy (accuracy information) in the vicinity of the drawn content area 3 from the server device 9. For example, the GPS accuracy generated based on the measurement path 55 set to pass through the drawn content area 3 is acquired. Of course, the present invention is not limited to this, and the GPS accuracy generated based on the measurement path set in the vicinity of the drawn content area 3 may be acquired. Further, the set measurement path 55 and the set of the measured values may be acquired together with the accuracy information. Since the set of the measurement path 55 and the measured value set for generating the accuracy information is also the information related to the GPS accuracy, it is the information included in the accuracy information.
  • the area analysis unit 47 calculates the margin area 58 based on the GPS accuracy.
  • the margin area 58 is calculated with reference to the content area 3 input based on the map information in the area setting GUI 18.
  • the margin area 58 is an area including position information that may be acquired by the GPS sensor 31 at a position in the real world corresponding to the position in the content area 3 input by the creator.
  • the GPS actual measurement result 57 is shifted to the upper left as a whole with respect to the measurement path 55.
  • the GPS accuracy accuracy information
  • the difference between the position of the measurement path corresponding to each other and the measured value is acquired as vector information, for example.
  • the margin area 58 may be provided to all peripheral portions of the content area 3. That is, in the example shown in FIG. 16, a margin area 58 may be provided on all the left, right, top, and bottom sides of the rectangular content area 3. Alternatively, the margin area 58 may be provided only to a part of the peripheral portion of the content area 3.
  • the shape of the margin region 58 is not limited to the rectangular shape, and when the shape is applied to all the left, right, top, and bottom sides of the rectangular content region 3, the shape may be different depending on each side.
  • the margin area 58 is not limited to the case where the margin area 58 is calculated so as to include all the position information that may be acquired by the GPS sensor 31 at the position in the real world corresponding to the position in the content area 3.
  • a region including at least one actually measured value measured at a position in the content region 3 is included in the margin region 58 according to the present technology.
  • the area in which the margin area 58 and the input content area 3 are combined is referred to as a correction area 59.
  • the correction area 59 serves as a reference area when correcting the content area 3. It is also possible to apply the present technology to the margin region 58 as an embodiment of the correction region according to the present technology. Similar to the margin area 58, the correction area 59 is an area calculated with reference to the content area 3 input based on the map information in the area setting GUI 18. Further, the correction area 59 is an area including position information that may be acquired by the GPS sensor 31 at a position in the real world corresponding to the position in the content area 3 input by the creator 6.
  • FIG. 17 is a schematic diagram for explaining another example of calculating the margin region 58.
  • the actually measured value acquired every second from the start of measurement is associated with the position P (the position of the creator every second) when the actually measured value is acquired.
  • the area analysis unit 47 extracts the position Pin that entered the content area 3 from outside the content area 3 and the position Pout that went out of the content area 3 from inside the content area 3 with respect to the position P of the creator every second. do.
  • the extraction can be determined by comparing the latitude information and longitude information of each position P with the latitude information and longitude information of the content area 3.
  • the actual measurement result 57 from the actual measurement value at the position Pin from the outside of the region to the actual measurement value at the position Pout from the inside of the region to the outside of the region is extracted.
  • the extracted actual measurement result 57 becomes the actual measurement value acquired while moving in the content area 3.
  • For each measured value constituting the extracted actual measurement result 57 it is determined whether it is inside the content area 3 or outside the content area 3.
  • the area between the actually measured value determined to be outside the content area 3 and the content area 3 is calculated as the margin area 58.
  • the area displayed in gray color is the margin area 58.
  • the area in which the margin area 58 and the content area 3 are combined is the correction area 59.
  • the generated margin area 58 is displayed superimposed on the map information of the area setting GUI18.
  • the correction area 59 in which the margin area 58 and the content area 3 are combined is displayed (step 406).
  • the present invention is not limited to this, and only the margin area 58 may be displayed.
  • the information 60 regarding the GPS accuracy in the vicinity where the creator 6 has input the content area 3 may be output. For example, information such as "GPS accuracy at this point is high” or “GPS accuracy at this point is low” may be output.
  • FIG. 18 is a schematic diagram for explaining a case where a plurality of content areas 3 are input.
  • the creator 6 may input a plurality of content areas 3.
  • the region analysis unit 47 displays a plurality of correction regions 59 (plural margin regions 58) based on the plurality of content regions 3 on the region setting GUI 18. That is, steps 403 to 406 are executed for each content area 3, and the correction area 59 is displayed.
  • the one or more correction areas 59 based on the one or more content areas 3 input based on the map information in the area setting GUI 18 (image information) are the map information. It is displayed in.
  • the area analysis unit 47 determines whether or not the correction area 59 overlaps with another correction area 59. For example, when the creator 6 densely arranges the content regions 3 at points having low GPS accuracy, the region analysis unit 47 determines whether or not the correction regions 59 calculated for each content region 3 overlap. This determination corresponds to determining the overlap between the content regions 3 based on the GPS accuracy in each content region 3. For example, it is possible to intentionally overlap the content areas 3 so that the content experiencer can hear different types of sounds at the same time. On the other hand, the unintended overlapping of the content areas 3 causes erroneous recognition of the areas, causing unintended overlapping of sounds and the like, which is a problem.
  • the warning information 61 is output (step 408) as shown in FIG. 18A.
  • the correction areas overlap! The correction areas overlap, so please re-enter the content area.”
  • the drawing area is dense with respect to the GPS accuracy at this point, so the area is erroneously recognized. Will occur. Please specify the areas so that the areas do not overlap.
  • Warning information is displayed.
  • the present invention is not limited to this, and arbitrary warning information may be output.
  • warning information may be output by voice.
  • the overlap of the correction areas 59 includes not only the overlap of the margin areas 58 but also the overlap of the margin areas 58 and the content area 3.
  • the process ends.
  • the creator 6 corrects the content area 3 if necessary with reference to the displayed correction area 59, and inputs the OK button 21.
  • the content area 3 is set.
  • the displayed correction area 59 may be set as it is as the content area 3.
  • the content area 3 may be moved within the correction area 59.
  • any operation such as position change, size change, shape change, etc. can be executed. Of course, the modification does not have to be made.
  • FIG. 19 is a schematic diagram for explaining a processing example that can be executed when the correction regions 59 overlap each other.
  • the size of the correction area 59 may be automatically adjusted so that the correction areas 59 do not overlap.
  • the size adjustment of the correction area 59 includes any adjustment of the size of the margin area 58, the size adjustment of the original content area 3, and the size adjustment of both the margin area 58 and the content area 3.
  • the correction area 59 may be automatically moved so that the correction areas 59 do not overlap. That is, the position of the correction area 59 may be automatically adjusted.
  • the positions, sizes, shapes, and the like of the plurality of correction regions 59 may be arbitrarily changed so that the overlap is eliminated. That is, the correction region 59 may be appropriately shaped.
  • information 63 regarding correction regions 59 that overlap each other may be displayed.
  • information about the input content area 3 and information about the sound content data (sound) associated with the content area 3 are displayed.
  • [area name], [time across the area], [sound type], [sound file name], and [sound length] are displayed. Not limited to this information, any information may be displayed.
  • the [sound type], [sound file name], and [sound length] correspond to information related to the content data associated with the content area 3 corresponding to each of the plurality of correction areas 59.
  • the content area 3 is set based on the designation of the area by the creator 6. Further, the set content area 3 is superimposed and displayed on the map information. This makes it possible to easily create content using location information. Further, in the content production system 100 according to the present embodiment, support information regarding the setting of the content area 3 is output based on the accuracy information regarding the accuracy of the position information acquired by the GPS sensor 31. This makes it possible to suppress the influence of the error of the position information on the setting in the content area 3.
  • the fade-in / fade-out reproduction of the respective sound content data may be set in the overlapping regions.
  • the creator 6 can set fade-in / fade-out reproduction of sound content data by using the area setting GUI18.
  • the area analysis unit 47 may deform the content area 3 input by the creator 6 based on the GPS accuracy to display the actually detected detection area 65.
  • the modification of the content area 3 includes a change in position, a change in size, a change in shape, and the like. As a result, it becomes possible for the creator 6 to visually recognize how the input content area 3 is actually detected.
  • a set of the measurement path 55 (route information) set based on the map information and the actual measurement result 57 acquired by the GPS sensor 31 on the real-world route corresponding to the measurement path 55 ( Hereinafter referred to as comparison target information) may be displayed on the area setting GUI 18. Further, the comparison target information may be superimposed on the map information in the area setting GUI 18. The GPS accuracy of each point becomes visible to the creator 6, and it becomes possible to guide the point where the content area 3 can be set with high accuracy.
  • the POI68 around the measurement path 55 may be acquired from the map server 37, and the POI68 having a small difference between the measurement path 55 and the actual measurement result 57 may be displayed on the map. That is, the POI around the points with high GPS accuracy found by acquiring the GPS accuracy for each point may be acquired from the map server 37 and displayed. By displaying the POI 68 with high GPS accuracy on the creator 6, it is possible for the creator 6 to provide information as a hint when selecting the content area 3.
  • a plurality of comparison target information (a set of the measurement path 55 and the actual measurement result 57) may be merged on one map and displayed in an aggregated state.
  • the creator 6 can provide information as a hint when selecting the content area 3.
  • the collected comparison target information is aggregated by a plurality of creators 6.
  • the actual measurement may be performed a plurality of times, and the minimum value, the average value, the maximum value, etc. of the actual measurement result may be used. Further, the accuracy information may be generated or updated by providing a trial use of the sound content map or the like and using the actual measurement result when the content experience person 2 uses the sound content map.
  • audio data (sound content data) is given as an example as the content data associated with the content area 3.
  • other content data such as image data may be associated with the content area 3.
  • the server device 9 shown in FIG. 6 may be mounted on the information processing device 10.
  • a portable information processing device 10 may be used and may be equipped with some or all of the functions of the mobile terminal 8.
  • the information processing apparatus 10 may be provided with the generation unit 26 shown in FIG. That is, the content production system 100 may be realized by a plurality of computers or may be realized by one computer.
  • FIG. 25 is a block diagram showing a hardware configuration example of a computer 70 capable of realizing a mobile terminal 8, a server device 9, and an information processing device 10.
  • the computer 70 includes a CPU 71, a ROM 72, a RAM 73, an input / output interface 75, and a bus 74 connecting them to each other.
  • a display unit 76, an input unit 77, a storage unit 78, a communication unit 79, a drive unit 80, and the like are connected to the input / output interface 75.
  • the display unit 76 is a display device using, for example, a liquid crystal display, an EL, or the like.
  • the input unit 77 is, for example, a keyboard, a pointing device, a touch panel, or other operating device.
  • the touch panel may be integrated with the display unit 76.
  • the storage unit 78 is a non-volatile storage device, for example, an HDD, a flash memory, or other solid-state memory.
  • the drive unit 80 is a device capable of driving a removable recording medium 81 such as an optical recording medium or a magnetic recording tape.
  • the communication unit 79 is a modem, router, or other communication device for communicating with other devices that can be connected to a LAN, WAN, or the like. The communication unit 79 may communicate using either wired or wireless. The communication unit 79 is often used separately from the computer 70.
  • Information processing by the computer 70 having the hardware configuration as described above is realized by the cooperation between the software stored in the storage unit 78 or the ROM 72 and the hardware resources of the computer 70.
  • the information processing method according to the present technology is realized by loading the program constituting the software stored in the ROM 72 or the like into the RAM 73 and executing the program.
  • the program is installed on the computer 70, for example, via a recording medium 71.
  • the program may be installed on the computer 70 via a global network or the like.
  • any non-transient storage medium that can be read by a computer may be used.
  • the information processing method and program according to the present technology may be executed and the information processing apparatus according to the present technology may be constructed by the cooperation of a plurality of computers connected so as to be communicable via a network or the like. That is, the information processing method and program according to the present technology can be executed not only in a computer system composed of a single computer but also in a computer system in which a plurality of computers operate in conjunction with each other.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether or not all the components are in the same housing.
  • Information processing methods and program execution related to this technology by a computer system include, for example, acquisition of map information, setting of content area, superimposed display of content area, generation of accuracy information, acquisition of accuracy information, output of support information, etc. , Both when executed by a single computer and when each process is executed by a different computer. Further, the execution of each process by a predetermined computer includes having another computer execute a part or all of the process and acquiring the result. That is, the information processing method and program according to the present technology can be applied to a cloud computing configuration in which one function is shared by a plurality of devices via a network and jointly processed.
  • the content production system, sound content map, mobile terminal, server device, information processing device, each configuration of various GUIs, each processing flow, etc. described with reference to each drawing are merely one embodiment and deviate from the purpose of this technology. It can be deformed arbitrarily as long as it does not. That is, other arbitrary configurations, algorithms, and the like for implementing the present technology may be adopted.
  • expressions using "more” such as “greater than A” and “less than A” include both the concept including the case equivalent to A and the concept not including the case equivalent to A. It is an expression that includes the concept. For example, “greater than A” is not limited to the case where the equivalent of A is not included, and “greater than or equal to A” is also included. Further, “less than A” is not limited to “less than A” and includes “less than or equal to A”. When implementing this technique, specific settings and the like may be appropriately adopted from the concepts included in “greater than A” and “less than A” so that the effects described above can be exhibited.
  • this technology can also adopt the following configurations.
  • the first acquisition unit that acquires map information
  • a setting unit that sets the content area to which the content data is associated based on the area specified by the user
  • a storage unit that stores the set content area and the map information in association with each other
  • An information processing device including a display control unit that superimposes and displays the content area on the map information.
  • the information processing apparatus is based on the difference between the first position information set based on the map information and the second position information acquired by the position sensor at the position in the real world corresponding to the first position information.
  • An information processing device including a generator that generates accuracy information.
  • the information processing apparatus obtains the accuracy information based on the difference between the route information set based on the map information and the position information acquired by the position sensor in the real-world route corresponding to the route information.
  • Information processing device to generate.
  • the information processing apparatus is an information processing device including image information including the map information for setting at least one of the content area or the route information. (6) The information processing apparatus according to (5).
  • the output unit is an information processing device that displays one or a plurality of correction areas based on the one or a plurality of the content areas input based on the map information in the image information in the map information. .. (7)
  • the output unit displays an area including the position information that may be acquired by the position sensor at a position in the real world corresponding to the input position in the content area as the correction area.
  • Device. (8)
  • the output unit is an information processing device that changes at least one of the positions or sizes of the plurality of correction areas so that the overlap is eliminated when the plurality of correction areas overlap each other. (9) The information processing apparatus according to any one of (6) to (8).
  • the output unit is an information processing device that outputs warning information when the plurality of correction areas overlap each other.
  • the output unit is an information processing device that emphasizes and displays the overlapping areas when the plurality of correction areas overlap each other.
  • the output unit is an information processing device that outputs information about the content data associated with the content area corresponding to each of the plurality of overlapping areas when the plurality of correction areas overlap each other.
  • the output unit is an information processing device that outputs information regarding the scale of the map information.
  • the output unit provides comparison target information consisting of a set of route information set based on the map information and the position information acquired by the position sensor in a real-world route corresponding to the route information.
  • the output unit is an information processing device that superimposes the comparison target information on the map information in the image information.
  • the content data is an information processing device including at least one of audio data and image data.
  • the position sensor is an information processing device that is a GPS sensor.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

本技術の一形態に係る情報処理装置は、第1の取得部と、設定部と、記憶部と、表示制御部とを具備する。前記第1の取得部は、地図情報を取得する。前記設定部は、ユーザによる領域の指定に基づいて、コンテンツデータが関連付けられるコンテンツ領域を設定する。前記記憶部は、設定された前記コンテンツ領域と前記地図情報とを関連付けて記憶する。前記表示制御部は、前記地図情報に対して前記コンテンツ領域を重畳して表示する。これにより、位置情報を用いたコンテンツを容易に制作することが可能となる。

Description

情報処理装置、情報処理方法、及び情報処理システム
 本技術は、位置情報を用いたコンテンツの制作に適用可能な情報処理装置、情報処理方法、及び情報処理システムに関する。
 特許文献1には、GPS(Global Positioning System:全地球測位システム)により得られる位置情報の誤差を修正することに関する技術が開示されている。
特開2000-75013号公報
 今後も位置情報を用いたコンテンツは普及すると考えられ、コンテンツの制作を容易とする技術が求められている。
 以上のような事情に鑑み、本技術の目的は、位置情報を用いたコンテンツを容易に制作することが可能となる情報処理装置、情報処理方法、及び情報処理システムを提供することにある。
 上記目的を達成するため、本技術の一形態に係る情報処理装置は、第1の取得部と、設定部と、記憶部と、表示制御部とを具備する。
 前記第1の取得部は、地図情報を取得する。
 前記設定部は、ユーザによる領域の指定に基づいて、コンテンツデータが関連付けられるコンテンツ領域を設定する。
 前記記憶部は、設定された前記コンテンツ領域と前記地図情報とを関連付けて記憶する。
 前記表示制御部は、前記地図情報に対して前記コンテンツ領域を重畳して表示する。
 この情報処理装置では、ユーザによる領域の指定に基づいて、コンテンツ領域が設定される。また設定されたコンテンツ領域が地図情報に対して重畳して表示される。これにより、位置情報を用いたコンテンツを容易に制作することが可能となる。
 前記情報処理装置は、さらに、第2の取得部と、出力部とを具備してもよい。
 前記第2の取得部は、位置センサにより取得される位置情報の精度に関する精度情報を取得する。
 前記出力部は、取得された前記精度情報に基づいて、前記コンテンツ領域の設定に関する支援情報を出力する。
 前記情報処理装置は、さらに、前記地図情報に基づいて設定された第1の位置情報と、前記第1の位置情報に対応する現実世界の位置にて前記位置センサにより取得された第2の位置情報との差分に基づいて前記精度情報を生成する生成部を具備してもよい。
 前記生成部は、前記地図情報に基づいて設定された経路情報と、前記経路情報に対応する現実世界の経路にて前記位置センサにより取得された前記位置情報との差分に基づいて前記精度情報を生成してもよい。
 前記支援情報は、前記コンテンツ領域、又は前記経路情報の少なくとも一方を設定するための、前記地図情報を含む画像情報を含んでもよい。
 前記出力部は、前記画像情報内の前記地図情報に基づいて入力された1つ又は複数の前記コンテンツ領域を基準とした1つ又は複数の補正領域を、前記地図情報内に表示してもよい。
 前記出力部は、入力された前記コンテンツ領域内の位置に対応する現実世界の位置にて前記位置センサにより取得される可能性のある前記位置情報を含む領域を、前記補正領域として表示してもよい。
 前記出力部は、前記複数の補正領域が互いに重なる場合に、重なりが解消するように、前記複数の補正領域の位置又はサイズの少なくとも一方を変更してもよい。
 前記出力部は、前記複数の補正領域が互いに重なる場合に、警告情報を出力してもよい。
 前記出力部は、前記複数の補正領域が互いに重なる場合に、互いに重なる領域を強調して表示してもよい。
 前記出力部は、前記複数の補正領域が互いに重なる場合に、前記複数の重複領域の各々に対応する前記コンテンツ領域に関連付けられる前記コンテンツデータに関する情報を出力してもよい。
 前記出力部は、前記地図情報の縮尺に関する情報を出力してもよい。
 前記出力部は、前記地図情報に基づいて設定された経路情報と、前記経路情報に対応する現実世界の経路にて前記位置センサにより取得された前記位置情報との組からなる比較対象情報を、前記画像情報内に表示してもよい。
 前記出力部は、前記比較対象情報を、前記画像情報内の前記地図情報に重畳させてもよい。
 前記コンテンツデータは、音声データ、又は画像データの少なくとも一方を含んでもよい。
 前記位置センサは、GPSセンサであってもよい。
 本技術の一形態に係る情報処理方法は、コンピュータシステムが実行する情報処理方法であって、地図情報を取得することを含む。
 ユーザによる領域の指定に基づいて、コンテンツデータが関連付けられるコンテンツ領域が設定される。
 前記設定されたコンテンツ領域と前記地図情報とが関連付けて記憶される。
 前記地図情報に対して前記コンテンツ領域が重畳して表示される。
 本技術の一形態に係る情報処理システムは、第1の取得部と、設定部と、記憶部と、表示部とを具備する。
 前記第1の取得部は、地図情報を取得する。
 前記設定部は、ユーザによる領域の指定に基づいて、コンテンツデータが関連付けられるコンテンツ領域を設定する。
 前記記憶部は、前記設定されたコンテンツ領域と前記地図情報とを関連付けて記憶する。
 前記表示部は、前記地図情報に対して前記コンテンツ領域を重畳して表示する。
一実施形態に係るコンテンツ制作システムの構成例を示す模式図である。 サウンドコンテンツマップを説明するための模式図である。 領域設定用GUIの一例を示す模式図である。 他の実施形態に係るコンテンツ制作システムの構成例を示す模式図である。 GPS精度について説明するための模式図である。 コンテンツ制作システムの機能的な構成例を示すブロック図である。 領域設定用GUI、及び経路設定用GUIの一例を示す模式図である。 計測経路の設定例を示すフローチャートである。 計測経路の設定時に表示される経路設定用GUIの一例である。 測定経路の設定の他の例を説明するための模式図である。 測定経路の設定の他の例を説明するための模式図である。 GPS計測例を示すフローチャートである。 精度情報の生成例を示すフローチャートである。 計測経路と実測値との対応付けの他の例を説明するための模式図である。 補正領域(マージン領域)の算出例を示すフローチャートである。 コンテンツ領域の設定時に表示される領域設定用GUIの一例である。 マージン領域の算出の他の例を説明するための模式図である。 複数のコンテンツ領域3が入力される場合を説明するための模式図である。 補正領域の重なりが発生した場合に実行可能な処理例を説明するための模式図である。 フェードイン/フェードアウト再生について説明するための模式図である。 検出領域の表示について説明するための模式図である。 比較対象情報の表示について説明するための模式図である。 比較対象情報の表示について説明するための模式図である。 比較対象情報の表示について説明するための模式図である。 コンピュータのハードウェア構成例を示すブロック図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 [コンテンツ制作システム]
 図1は、本技術の一実施形態に係るコンテンツ制作システムの構成例を示す模式図である。コンテンツ制作システム100は、本技術に係る情報処理システムの一実施形態として機能する。
 また本実施形態では、コンテンツ制作システム100は、位置情報を用いたコンテンツを制作するためのシステムとして機能する。
 以下、位置情報を用いたコンテンツとして、ヘッドフォンやイヤホン等の音響出力装置を装着したコンテンツ体験者(視聴者)が、所定の領域内に進入した際に、サウンドやBGM、ナレーション等が再生されるサウンドコンテンツマップを例に挙げる。もちろん本技術の適用が、前述したサウンドコンテンツマップの制作に限定される訳ではない。
 [サウンドコンテンツマップ]
 図2は、サウンドコンテンツマップを説明するための模式図である。
 サウンドコンテンツマップは、コンテンツ体験者2に対して聴覚的な拡張現実(AR:Augmented Reality)体験を提供することが可能な音声ARシステムを用いたコンテンツである。
 図2に示すように、現実世界の所定の領域3に、サウンドが仮想的に配置される。サウンドとして、例えばBGM、ナレーション、キャラクターの台詞等、任意のサウンドコンテンツが用いられてよい。
 本実施形態では、BGM、ナレーション、キャラクターの台詞等の任意のサウンドコンテンツが地図上に配置されたサウンドコンテンツマップを例に説明するが、これに限定されない。サウンドコンテンツに限らず、ARオブジェクトや広告オブジェクト等の非サウンドコンテンツを用いても良く、その場合は例えばコンテンツマップという名称になる。またサウンドコンテンツと非サウンドコンテンツが組み合わされていてもよい。
 コンテンツ体験者2は、現実世界の中で領域3内に進入することで、領域3に配置されているサウンドを聴くことが可能となる。
 例えばコンテンツ体験者2は、両国の街を歩きながら観光をしていると、両国国技館に入った瞬間に相撲の歴史を説明するナレーションや、相撲が行われているような大きな歓声が聞こえてくるといった仮想コンテンツを体験することが可能となる。
 サウンドコンテンツマップを実現するためには、コンテンツの制作と、サウンドの再生とが実行される。
 コンテンツの制作は、コンテンツ制作者(クリエータ)6により行われる。具体例としては、地図情報に基づいて領域3が設定される。設定された領域3の位置情報は、例えば緯度情報及び経度情報により規定される。例えば、領域3の周縁部や頂点、中心位置等の緯度情報及び経度情報により、領域3が規定される。もちろんこのようなデータが用いられる場合に限定される訳ではない。
 クリエータ6は、設定された領域3にサウンドを配置する。具体的には、領域3の位置情報に、サウンドを再生するためのサウンドコンテンツデータが関連付けられる。すなわち緯度情報及び経度情報と、サウンドコンテンツデータとが関連付けられて記憶される。
 以下、図2に例示するようなサウンドが仮想的に配置される領域3を、同じ符号を用いて、サウンドコンテンツデータと関連付けられるコンテンツ領域3と記載する。クリエータ6により、コンテンツ領域3の設定が行われる。
 なお、クリエータ6は、本技術に係るユーザの一実施形態に相当する。
 サウンドの再生は、図2に示すように、コンテンツ体験者2が保持する携帯端末4と、コンテンツ体験者2に装着されたヘッドフォン5とにより実行される。
 携帯端末4としては、位置情報を取得可能な位置センサを搭載した任意のデバイスが用いられてよい。
 本実施形態では、位置センサとして、GPSセンサが搭載されている場合を例に挙げる。GPSセンサは、GPS衛星から送られてくるGPS信号を受信することで、位置情報(緯度情報及び経度情報)を取得することが可能である。もちろんこれに限定されず、他の任意の位置センサが搭載されてもよい。
 例えば、スマートフォンやタブレット端末等の、コンテンツ体験者2が所持するユーザ端末に、サウンドコンテンツマップを体験するための本技術に係るアプリケーション(アプリケーションプログラム)がインストールされる。これにより、ユーザ端末を、サウンドコンテンツマップを体験するための携帯端末4として用いることが可能となる。
 あるいは、サウンドコンテンツマップを体験するための専用の機器が携帯端末4として準備され、コンテンツ体験者2に貸与されてもよい。
 音声を出力可能な任意のデバイスとして、ヘッドフォン5に限定されず、例えばイヤホンやヘッドマウントディスプレイ、その他の任意のデバイスが用いられてよい。
 携帯端末4は、GPSセンサにより取得される位置情報と、クリエータ6により地図上に設定されたコンテンツ領域3の位置情報とを比較することで、コンテンツ領域3に対するコンテンツ体験者2の進入や退出等を検出する。
 コンテンツ体験者2のコンテンツ領域3への進入が検出された場合、コンテンツ領域3に関連付けられたサウンドコンテンツデータの再生処理が実行される。これにより、サウンドコンテンツデータに対応するサウンドが、ヘッドフォン5から出力される。
 コンテンツ体験者2のコンテンツ領域3からの退出が検出された場合、コンテンツ領域3に関連付けられたサウンドコンテンツデータの再生を停止する処理が実行される。
 例えば、サウンドがBGMである場合には、BGMの再生の停止やフェードアウトが実行される。サウンドが台詞やナレーションの場合は、台詞等が終わるまで再生が継続され、台詞等が終われば再生が停止される。
 このようなサウンドコンテンツの再生及び再生の停止に限定されず、任意の制御が実行されてよい。
 サウンドコンテンツマップにより、コンテンツ体験者2は、今までにない高品質な仮想体験を得ることが可能となる。
 図1に示すように、コンテンツ制作システム100は、携帯端末8と、サーバ装置9と、情報処理装置10とを有する。
 携帯端末8、サーバ装置9、及び情報処理装置10は、ネットワーク1を介して相互に通信可能に接続されている。
 ネットワーク1は、例えばインターネットや広域通信回線網等により構築される。その他、任意のWAN(Wide Area Network)やLAN(Local Area Network)等が用いられてよく、ネットワーク1を構築するためのプロトコルは限定されない。
 携帯端末8、サーバ装置9、及び情報処理装置10の各々は、例えばCPU、GPU、DSP等のプロセッサ、ROMやRAM等のメモリ、HDD等の記憶デバイス等、コンピュータの構成に必要なハードウェアを有する。もちろんFPGA、ASIC等のハードウェアが用いられてもよい(図25参照)。
 各デバイスにおいて、例えばプロセッサがROM等に予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、本技術に係る情報処理方法が実行される。
 プログラムは、例えば種々の記録媒体を介して各デバイスにインストールされる。あるいは、インターネット等を介してプログラムのインストールが実行されてもよい。
 プログラムが記録される記録媒体の種類等は限定されず、コンピュータが読み取り可能な任意の記録媒体が用いられてよい。例えば、コンピュータが読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
 例えばPCやスマートフォン等の任意のコンピュータにより、各デバイスを実現することが可能である。もちろん、携帯端末8、サーバ装置9、及び情報処理装置10が、互いに同じ構成を有する場合に限定される訳ではない。
 携帯端末8としては、位置情報を取得可能な位置センサを搭載した任意のデバイスが用いられてよい。本実施形態では、GPSセンサが搭載されたデバイスが用いられる。GPSセンサにより携帯端末8の緯度情報及び経度情報が位置情報として取得される。
 例えば、図2に例示するサウンドコンテンツマップの利用に関して、ユーザ端末が携帯端末4として用いられるとする。この場合には、例えば携帯端末8としては、一般的なGPS精度を発揮可能なデバイスが用いられる。もちろんこれに限定される訳ではない。
 図2に例示するサウンドコンテンツマップの利用に関して、専用の機器が携帯端末4として用いられるとする。この場合、例えば携帯端末8としては、当該専用の機器が用いられる。もちろんこれに限定されず、他の任意のデバイスが用いられてもよい。
 サーバ装置9は、サウンドコンテンツマップの制作に関する種々の処理を実行する。
 図1に示す例では、サーバ装置9は、DB(データベース)11を備える。DB11は、サーバ装置9に備えられた記憶デバイスにより構築されてもよい。あるいは、外部の記憶デバイスにDB11が構築されてもよい。この場合、当該外部の記憶デバイスも含めて、サーバ装置9と見做すことが可能である。
 DB11には、本コンテンツ制作システム100に関する種々の情報が記憶される。
 例えば、地図情報やコンテンツ領域3の情報等が記憶される。また過去に生成された種々の情報や履歴情報等が記憶されてもよい。
 情報処理装置10は、クリエータ6により、コンテンツ領域3の設定のために用いられる。すなわち情報処理装置10は、クリエータツールとして用いられる。
 情報処理装置10は、機能ブロックとして、第1の取得部13と、設定部14と、記憶部15と、表示制御部16とを有する。
 第1の取得部13、設定部14、及び表示制御部16は、例えばプロセッサが所定のプログラムを実行することで、ソフトウェアブロックとして実現される。もちろん各ブロックを実現するために、IC(集積回路)等の専用のハードウェアが用いられてもよい。
 記憶部15は、メモリや記憶デバイス等により実現される。
 第1の取得部13は、地図情報を取得する。
 例えば、第1の取得部13は、ネットワーク1に接続された地図サーバ等から、様々な地域の地図情報を取得する。もちろんこれに限定されず、記憶媒体等を介して、地図情報が取得されてもよい。
 地図情報には、各地点の位置情報として、緯度情報及び経度情報が関連付けられている。
 情報処理装置10は、取得された地図情報を表示部に表示させることが可能である。また情報処理装置10は、地図情報に対してクリエータ6等から指定された地点の位置情報(f緯度情報及び経度情報)を取得することが可能である。
 地図情報として、現実世界にて各地点でパノラマ撮影されたパノラマ画像が表示されてもよい。例えば、百反通りから撮影されたパノラマ画像等が、地図情報として表示されてもよい。また地図情報として、航空写真が表示されてもよい。
 例えば、地図サーバ等から地図情報を利用するためのソフトウェアがダウンロードされ、地図情報の表示、縮尺の変更、縮尺に応じた各地点の位置情報の取得等が実行可能でもよい。あるいは地図情報を利用するためのAPI(Application Programming Interface)が公開されている場合には、APIを呼び出すことで、地図情報が利用可能となってもよい。
 なお、携帯端末8やサーバ装置9も、地図情報を取得して利用することが可能である。
 設定部14は、クリエータ6による領域の指定に基づいて、コンテンツデータが関連付けられるコンテンツ領域3を設定する。
 記憶部15は、設定されたコンテンツ領域3と地図情報とを関連付けて記憶する。
 表示制御部16は、地図情報に対してコンテンツ領域3を重畳して表示する。
 図3は、領域設定用GUI(Graphical User Interface)の一例を示す模式図である。
 例えば、図3に例示するような領域設定用GUI18を介して、クリエータ6による領域の指定、設定部14によるコンテンツ領域3の設定、及び表示制御部16による地図情報に対するコンテンツ領域3の重畳表示が実行される。
 図3に示すように、領域設定用GUI18は、地図情報を表示する地図表示部19と、コンテンツ領域3を設定する際に選択される領域設定用ボタン20と、OKボタン21と、消去ボタン22と、地図情報の縮尺を表示する縮尺表示部23と、縮尺を変更するための+ボタン/-ボタン24とを有する。
 地図表示部19に表示される地図情報は任意に変更可能である。そして、地図情報上の所望の領域を指示することで、コンテンツ領域3を入力することが可能となる。
 例えば、クリエータ6は、所望の地図情報を表示させ、+ボタン/-ボタン24を操作して縮尺を調整する。クリエータ6は、タッチペンやマウス等を操作することで、所定の形状の領域を描画する。これにより、クリエータ6による領域の指定が実行される。
 クリエータ6は、指定した領域をコンテンツ領域3として最終的に決定する場合は、OKボタン21を選択する。描画した領域を消去したい場合は、消去ボタン22を選択する。
 設定部14は、クリエータ6により描画された領域の位置情報(緯度情報/経度情報)を、コンテンツ領域3の位置情報として設定する。
 記憶部15は、設定されたコンテンツ領域3の位置情報(緯度情報/経度情報)を、地図情報(緯度情報/経度情報)と関連付けて記憶する。
 表示制御部16は、地図情報にコンテンツ領域3を重畳して、地図表示部19に表示する。
 このように、コンテンツ領域3を地図情報に対して重畳して表示することで、サウンドコンテンツマップの制作が容易となる。なお、領域設定用GUI18は、コンテンツ領域を設定するための、地図情報を含む画像情報の一実施形態に相当する。
 図4は、他の実施形態に係るコンテンツ制作システムの構成例を示す模式図である。図4に示すコンテンツ制作システム100では、サーバ装置9、及び情報処理装置10に対して、さらに機能ブロックが追加して構成される。
 図4に示すコンテンツ制作システム100により、サウンドコンテンツマップの制作に対して、位置情報の誤差(GPS誤差)の影響を十分に抑制することが可能となる。
 図5は、GPS精度について説明するための模式図である。
 図5には、GPSセンサを備えた携帯端末4を持って、同じルートを移動したときにGPS計測された位置情報の軌跡が図示されている。
 図5に示すように、GPSセンサにより取得される位置情報は、実際に立っている位置に対して誤差が発生する場合がある。周りの環境等によっては、数m~数百mの範囲で誤差が発生する場合もあり得る。
 サウンドコンテンツマップを構築する際には、コンテンツ領域3に対する進入及び退出を高い精度で検出し、サウンドの再生を制御することが望ましい。一方で、GPS精度が低いと、コンテンツ領域3に対する進入及び退出の検出精度が低下してしまう。
 例えば、大きなランドマークをコンテンツ領域3として設定しても、GPS精度によってはランドマークへの進入を検出できない場合や、逆にランドマークから遠く離れているにかかわらずランドマークへの進入を検出してしまう場合等があり得る。
 また複数のコンテンツ領域3が密集している場合には、GPS精度の影響が大きく作用する可能性が高くなる。
 コンテンツ領域3への進入が検出されない場合、例えば、サウンド(BGM、ナレーション、台詞等)が再生されなくなってしまう。
 隣接する他のコンテンツ領域3への進入が誤検出される場合、例えば重なるはずのない音(異なるコンテンツ領域3同士のナレーション等)が重畳して聞こえてしまう。あるいは、本来再生されるべきサウンドが上書きされてしまい、想定と異なる音が再生されてしまう可能性がある(コンテンツ領域Aで再生されるはずのナレーションがコンテンツ領域Bで聞こえる等)。
 このような問題に対応するために、例えばコンテンツ領域3の設定後、現実世界において、膨大な現地評価を行うといったことが考えられる。この場合、多くの時間と労力が必要となり、サウンドコンテンツマップの制作の妨げとなってしまう可能性がある。
 図4に示すように本実施形態では、サーバ装置9は、機能ブロックとして、さらに生成部26を有する。
 生成部26は、例えばプロセッサが所定のプログラムを実行することで、ソフトウェアブロックとして実現される。もちろん生成部26を実現するために、IC(集積回路)等の専用のハードウェアが用いられてもよい。
 生成部26は、位置センサにより取得される位置情報の精度に関する精度情報を生成する。本実施形態では、GPSセンサにより取得される位置情報(緯度情報及び経度情報)の精度に関する精度情報が生成される。
 例えば、クリエータ6により地図情報に基づいて設定された位置情報(第1の位置情報とする)がサーバ装置9に送信される。クリエータ6は、設定した第1の位置情報に対応する現実世界の位置に、携帯端末8を携帯して実際に移動する。そして携帯端末8のGPSセンサにより取得される位置情報(第2の位置情報とする)がサーバ装置9に送信される。
 生成部26は、地図情報に基づいて設定された第1の位置情報と、第1の位置情報に対応する現実世界の位置にてGPSセンサにより取得された第2の位置情報との差分に基づいて、精度情報を生成する。
 第1の位置情報と第2の位置情報との差分は、GPS精度に相当する。当該GPS精度も、精度情報に含まれる情報である。すなわち第1の位置情報と第2の位置情報との差分を算出することも、第1の位置情報と第2の位置情報との差分に基づいて、精度情報を生成することに含まれる。
 その他、位置情報の精度(GPS精度)に関する任意の情報が、精度情報として生成されてよい。例えば、第2の位置情報を補正するための補正値等が精度情報として生成されてもよい。また精度情報の生成方法として、他の方法が用いられてもよい。
 図4に示す例では、DB11に、地図情報やコンテンツ領域3の情報に加えて、第1の位置情報、第2の位置情報、精度情報、支援情報等が記憶される。また過去に生成された種々の情報や履歴情報等が記憶されてもよい。
 情報処理装置10は、機能ブロックとして、さらに第2の取得部27と、出力部28とを有する。
 第2の取得部27及び出力部28は、例えばプロセッサが所定のプログラムを実行することで、ソフトウェアブロックとして実現される。もちろん各ブロックを実現するために、IC(集積回路)等の専用のハードウェアが用いられてもよい。
 第2の取得部27は、位置センサにより取得される位置情報の精度に関する精度情報を取得する。本実施形態では、サーバ装置9により生成された精度情報が、ネットワーク1を介して取得される。
 出力部28は、取得された精度情報に基づいて、コンテンツデータと関連付けられるコンテンツ領域3の設定に関する支援情報を出力する。
 支援情報は、クリエータ6によるコンテンツ領域3の設定作業を支援することが可能な任意の情報を含む。
 例えば、GUI、アイコン、ガイド等の任意の画像情報、ガイド音声等の任意の音声情報等、コンテンツ領域3の設定を支援することが可能な任意の情報が含まれる。
 また支援情報の出力は、GUI等の画像の表示、ガイド音声等の音声の出力等、支援情報をクリエータ6に対して提示可能な、任意のデータ出力方法を含む。
 もちろん、表示デバイスによる画像情報(支援情報)の表示のための、表示デバイスへの画像情報(支援情報)の出力も、支援情報の出力に含まれる。またスピーカ等による音声情報(支援情報)の出力のための、スピーカ等への支援情報の出力も、支援情報の出力に含まれる。
 本実施形態においても、情報処理装置10の表示部に、地図情報を含むコンテンツ領域3を設定するための領域設定用GUI18が表示される。
 そして、領域設定用GUI18内に、警告情報、補正領域、マージン領域、コンテンツデータの情報等、種々の情報が表示される。
 領域設定用GUI18の表示、領域設定用GUI18内での種々の支援情報の表示も、本技術に係る支援情報の出力の一実施形態となる。従って、図1に示す表示制御部16が、出力部28として機能する場合もあり得る。逆に、図4に示す出力部28が、図1に示す表示制御部16として機能する場合もあり得る。
 GPS精度が高い領域の表示、GPS精度の低い領域の表示、ランドマークの表示、POI(Point Of Interest)の表示、エラー音の出力等、支援情報の出力として、任意の形態が採用されてよい。
 また、第2の取得部27により取得された精度情報が、支援情報としてそのまま出力されてもよい。例えば、上記で精度情報の生成例として説明した第1の位置情報及び第2の位置情報の組が、支援情報として表示されてもよい。
 すなわち、地図情報に基づいて設定された第1の位置情報と、第1の位置情報に対応する現実世界の位置にてGPSセンサ(位置センサ)により取得された第2の位置情報との組が、領域設定用GUI内に表示されてもよい。
 これにより、クリエータ6は、GPS精度の高い領域、GPS精度の低い領域、GPS精度が急に悪くなる領域といった情報を得ることが可能となる。これにより、コンテンツ領域3の設定を、作業性よく実行することが可能となる。コンテンツ体験者2の進入や退出を精度よく検出可能なコンテンツ領域3を設定することが可能となる。
 図4に示すコンテンツ制作システム100について、詳細な実施形態を説明する。
 図6は、コンテンツ制作システム100の機能的な構成例を示すブロック図である。
 図6に示すように、携帯端末8は、通信部30、GPSセンサ31、表示部32、操作部33、及び制御部34を有する。
 通信部30は、他の装置と通信するためのデバイスである。通信部30としては、例えばWiFi等の無線LANモジュールや、モデムやルータ等の通信機器が用いられる。その他任意の通信デバイスが用いられてよい。
 表示部32は、地図情報やGUI等の種々の情報を表示する。表示部32としては、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイ等の、任意の表示デバイスが用いられてよい。
 操作部33は、例えばキーボード、ポインティングデバイス、タッチパネル、その他の操作装置である。操作部33がタッチパネルを含む場合、そのタッチパネルは表示部32と一体となり得る。
 制御部34は、例えばCPU等のプロセッサ、ROMやRAM等のメモリ、HDD等の記憶デバイス等、コンピュータの構成に必要なハードウェアを有する。
 本実施形態では、プロセッサが本技術に係るプログラムを実行することで、機能ブロックとして、位置情報取得部35と、経路情報出力部36とが実現される。もちろん機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが用いられてもよい。
 本実施形態では、本技術に係るプログラムとして、GPS計測アプリケーションがインストールされる。そして、位置情報取得部35、及び経路情報出力部36により、GPS計測のための処理が実行される。
 サーバ装置9は、通信部38と、DB11と、制御部39とを有する。
 制御部39は、例えばCPU等のプロセッサ、ROMやRAM等のメモリ、HDD等の記憶デバイス等、コンピュータの構成に必要なハードウェアを有する。
 本実施形態では、プロセッサが本技術に係るプログラムを実行することで、機能ブロックとして、GPS精度解析部40と、DB管理部41とを有する。
 DB管理部41は、DB11に記憶されている情報を管理する。またDB管理部41は、DB11へのデータの書き込み、及びDB11からのデータの読み出しを実行する。
 本実施形態では、GPS精度解析部40により、図4に示す生成部26が実現される。すなわちGPS精度解析部40により、精度情報が生成される。
 サーバ装置9を、サウンドコンテンツマップサーバと呼ぶことも可能である。
 情報処理装置10は、通信部43と、表示部44と、操作部45と、制御部46とを有する。
 制御部46は、例えばCPU等のプロセッサ、ROMやRAM等のメモリ、HDD等の記憶デバイス等、コンピュータの構成に必要なハードウェアを有する。
 本実施形態では、プロセッサが本技術に係るプログラムを実行することで、機能ブロックとして、領域解析部47と、経路解析部48と、入力判定部49と、GUI生成部50とを有する。
 GUI生成部50は、サウンドコンテンツマップを制作するための種々のGUIを生成して、表示部44に表示させる。
 本実施形態では、コンテンツ領域3を設定するための領域設定用GUI、及び精度計測経路(以下、単に計測経路と記載する)を設定するための経路設定用GUIが生成されて表示される。
 図7は、領域設定用GUI、及び経路設定用GUIの一例を示す模式図である。図7では、領域設定用GUI18、及び経路設定用GUI52が、1つのGUIとしてまとめて構成されている。
 領域設定用GUI18は、地図情報を表示する地図表示部19と、コンテンツ領域3を設定する際に選択される領域設定用ボタン20と、OKボタン21と、消去ボタン22と、地図情報の縮尺を表示する縮尺表示部23と、縮尺を変更するための+ボタン/-ボタン24とを有する。
 地図表示部19に表示される地図情報は任意に変更可能である。そして、地図情報上の所望の領域を指示することで、コンテンツ領域3を入力することが可能となる。
 例えば、クリエータ6は、所望の地図情報を表示させ、+ボタン/-ボタン24を操作して縮尺を調整する。クリエータ6は、タッチペンやマウス等を操作することで、所定の形状の領域を描画する。これにより、クリエータ6による領域の指定が実行される。
 クリエータ6は、指定した領域をコンテンツ領域3として最終的に決定する場合は、OKボタン21を選択する。描画した領域を消去したい場合は、消去ボタン22を選択する。
 経路設定用GUI52は、地図表示部19と、測定経路を設定する際に選択される計測経路設定用ボタン53と、OKボタン21と、消去ボタン22と、縮尺表示部23と、+ボタン/-ボタン24とを有する。
 すなわち領域設定用GUI18及び経路設定用GUI52において、地図表示部19、OKボタン21、消去ボタン22、縮尺表示部23、+ボタン/-ボタン24は、共通の要素として用いられる。
 例えば、クリエータ6は、所望の地図情報を表示させ、+ボタン/-ボタン24を操作して縮尺を調整する。クリエータ6は、タッチペンやマウス等を操作することで、所定の位置に線を描画する。クリエータ6は、当該線を計測経路として設定したい場合はOKボタン21を選択する。描画した線を消去したい場合は、消去ボタン22を選択する。
 領域設定用GUI18及び経路設定用GUI52の構成は限定されず、任意に設計されてよい。すなわち、領域設定用GUI18及び経路設定用GUI52、各種ボタンの種類や数、形状等はこの例に限定されない。経路設定用GUI52は、経路情報を設定するための、地図情報を含む画像情報の一実施形態に相当する。
 なお、計測経路を、計測ルートと呼ぶことも可能である。
 その他、GUI生成部50は、種々のGUIを生成して表示させることも可能である。またGUI生成部50は、クリエータ6の操作に応じて、GUI内にて領域や線の描画を実行する。またGUI生成部50は、警告情報等をGUI内に表示することも可能である。
 例えば、GUI生成部50内に、領域描画部、経路描画部、情報表示部等の機能的なブロックが構築されてよい。
 入力判定部49は、クリエータ6により操作部45を介して入力された情報を判定する。例えば、タッチパネル等に対する操作に対して、入力された指示の判定や、描画操作に応じて指定された座標情報等を判定し、各ブロックに出力する。
 例えば、入力判定部49により、図7に例示する各ボタンを選択する操作に応じて、対応する操作情報が生成され、GUI生成部50等に出力される。また地図情報に対する領域の描画操作や、線の描画操作に応じて、指示されている座標情報が取得され、GUI生成部50等に出力される。
 GUI生成部50は、入力判定部49により判定された座標情報に基づいて、クリエータ6の描画操作に合わせて、領域の描画や線の描画を実行する。
 領域解析部47は、クリエータ6により入力されるコンテンツ領域3を解析する。また領域解析部47は、サーバ装置9により生成された精度情報を取得し、支援情報として補正領域やマージン領域を生成する。
 経路解析部48は、クリエータ6により入力される計測経路を解析する。
 本実施形態では、領域解析部47、経路解析部48、入力判定部49、及びGUI生成部50により、図1に示す第1の取得部13、設定部14、及び表示制御部16が実現される。また領域解析部47、経路解析部48、入力判定部49、及びGUI生成部50により、図4に示す第2の取得部27、及び出力部28が実現される。
 図6に示すように、本実施形態では、携帯端末8、サーバ装置9、及び情報処理装置10は、ネットワーク1を介して、地図サーバ37と通信可能に接続されている。
 地図サーバ37は、様々な地域の地図情報を出力することが可能である。また地図情報には、各地点の位置情報として、緯度情報及び経度情報が関連付けられている。
 携帯端末8、サーバ装置9、及び情報処理装置10は、地図サーバ37から地図情報を取得して各表示部に表示することが可能である。また、携帯端末8、サーバ装置9、及び情報処理装置10は、地図情報に対してクリエータ等から指定された地点の位置情報(緯度情報及び経度情報)を取得することが可能である。
 地図情報として、現実世界にて各地点でパノラマ撮影されたパノラマ画像が表示されてもよい。例えば、百反通りから撮影されたパノラマ画像等が、地図情報として表示されてもよい。また地図情報として、航空写真が表示されてもよい。
 例えば、地図サーバ37から地図情報を利用するためのソフトウェアがダウンロードされ、地図情報の表示、縮尺の変更、縮尺に応じた各地点の位置情報の取得等が実行可能でもよい。あるいは地図情報を利用するためのAPIが公開されている場合には、APIを呼び出すことで、地図情報が利用可能となってもよい。
 [計測経路の設定]
 図8は、計測経路の設定例を示すフローチャートである。
 図9は、計測経路の設定時に表示される経路設定用GUI52の一例である。なお、図9では、経路設定用GUI52の地図表示部19のみが図示されている。
 情報処理装置10により、地図サーバ37から地図情報が取得される(ステップ101)。
 GUI生成部50により、経路設定用GUI52が表示される(ステップ102)。
 例えば、クリエータ6により、計測経路設定用ボタン53が選択され、地図表示部19に表示された地図に対して、線の描画操作が入力される。
 入力判定部49及びGUI生成部50により、クリエータ6の線の描画操作に合わせて、計測経路55が、地図情報に重畳されて表示される(ステップ103)。
 経路解析部48により、計測経路55の各地点の緯度情報/経度情報が取得される(ステップ104)。
 情報処理装置10により、計測経路55の緯度情報/経度情報がサーバ装置9に送信される。そして、サーバ装置9のDB管理部41により、計測経路55の緯度情報/経度情報がDB11に登録される(ステップ105)。
 本実施形態において、計測経路55の緯度情報/経度情報は、地図情報に基づいて設定された第1の位置情報に含まれる。また計測経路55の緯度情報/経度情報は、地図情報に基づいて設定された経路情報に相当する。
 図9に示す例では、計測経路55は、実際に現地に行ってGPS計測をするべき経路である旨が認識可能なアイコン56が表示されている。このように、計測経路55に設定を支援する情報が出力されてもよい。
 例えば、実際に計測経路55を歩く際には、目印になるものが存在していた方が、計測経路55を正確に歩くことに有用となる。従って、道路の白線やガードレール等に沿って、計測経路55が描画できるように、描画操作がガイドされてもよい。
 あるいは、道路と、開始点と、終了点とが、クリエータ6により指定され、当該指定に応じて、実際に歩きやすいように、計測経路55が設定され描画されてもよい。
 GUI生成部50により、地図情報の縮尺に関する情報が出力されてもよい。
 例えば、縮尺が小さい場合(縮尺分母が大きい場合)と、縮尺が大きい場合(縮尺分母が小さい場合)とでは、図9に示す計測経路55の幅に対応する現実世界の幅が異なってくる。
 例えば、縮尺が大きすぎると、計測経路55に対応する現実世界の経路の幅は、非常に大きいものとなってしまう。従って、計測経路55に対応する現実世界の経路として、歩くべき範囲が広くなってしまう。
 この結果、歩きながらGPSセンサ31により取得される位置情報と、経路設定用GUI52を介して設定された計測経路55の位置情報とを比較した場合のGPS精度として、正確な結果が得られない場合があり得る。
 従って、計測経路55を設定する際に、設定が許可される縮尺の範囲が定められてもよい。例えば、縮尺が所定の閾値よりも大きい場合、計測経路の入力が許可されず、その旨の警告情報が表示されてもよい。例えば「縮尺が大きすぎます。1/〇〇〇以下の縮尺に設定してください」といったテキスト表示や音声等でクリエータに提示されてもよい。
 もちろん、計測経路設定用ボタン53の選択に応じて、最初から「1/〇〇〇以下の縮尺に設定してください」といった情報が出力されてもよい。
 図10及び図11は、測定経路の設定の他の例を説明するための模式図である。
 図10に示す例では、地図情報として、現実世界でパノラマ撮影されたパノラマ画像が撮影されている。
 例えば、クリエータ6は、操作部45を操作することで、車道と、左側の歩道との境界部分に、計測経路55を設定することが可能である。
 また図11に示すように、地図情報として、航空写真が表示されてもよい。航空写真により、歩道に沿って精度よく、計測経路55を設定することが可能となる。
 [GPS計測]
 図12は、GPS計測例を示すフローチャートである。
 クリエータ6は、携帯端末8を持って、計測経路55に対応する現実世界の経路(以下、対応計測経路と記載する)の地点まで移動する。
 そして、本技術に係るGPS計測アプリケーションを起動させる。
 携帯端末8により、地図サーバ37から地図情報が取得される(ステップ201)。
 経路情報出力部36により、サーバ装置9から、経路設定用GUI52を介して設定された計測経路55の位置情報(緯度情報及び経度情報)が取得される。そして、計測経路55が、地図情報に重畳されて表示される。
 例えば、図9に例示したような、計測経路55を含む地図情報が表示される。なお、アイコン56は、計測経路55の設定時には表示されず、GPS計測の際のみに表示されてもよい。
 また、図10に例示したような計測経路55を含むパノラマ画像や、図11に例示したような計測経路55を含む航空写真が表示されてもよい。
 例えば、計測経路55の設定時には、縮尺は無条件に設定可能であってもよい。すなわち、非常に広い縮尺にて、計測経路55が入力される。経路解析部48は、当該入力に応じて、計測経路55の緯度情報/経度情報を取得し、サーバ装置9に送信する。
 クリエータ6は、GPS計測の際に、携帯端末8の表示部32に表示された計測経路55を含む地図情報に対して、縮尺を最適化する。例えば図11に例示したような航空写真等が用いられる場合は、縮尺を最適化することにより、自分が歩くべき経路を正確に把握することが可能となる。
 もちろん、計測経路55の設定時において、設定可能な縮尺の範囲が定められ、かつ、GPS計測時に、クリエータ6により、計測経路55を含む地図情報の縮尺が最適化されてもよい。
 位置情報取得部35により、対応計測経路にてセンシングされる位置情報が取得される。本実施形態では、対応計測経路を歩きながらGPSセンサ31により位置情報(緯度情報及び経度情報)が取得される(ステップ203)。
 例えば、GUI等を表示することで、クリエータ6に対して、対応計測経路の開始地点にてGPS計測を開始するトリガーとなる開始ボタン等の入力が促される。またクリエータ6に対して、対応計測経路の終了地点にてGPS計測を終了するトリガーとなる終了ボタンの入力等が促される。
 位置情報取得部35は、開始ボタンの入力に応じて、GPSセンサ31により取得される位置情報を実測結果として取得する。取得された位置情報は、サーバ装置9に送信され、DB管理部41により、計測経路55の実測結果としてDB11に登録される(ステップ204)。
 終了ボタンが入力されるまで、ステップ203及び204が繰り返される。終了ボタンが入力されると計測終了と判定され、処理は終わる(ステップ205)。
 このように、本実施形態では、位置情報取得部35により、開始ボタンの入力から終了ボタンの入力までの間にGPSセンサにより取得される位置情報が、実測結果として取得される。もちろん、このような方法に限定される訳ではない。
 [精度情報の生成]
 図13は、精度情報の生成例を示すフローチャートである。
 サーバ装置9のGPS精度解析部40により、計測経路55の位置情報と、対応計測経路における実測値(位置情報)との差分から、精度情報が生成される。すなわち地図情報に基づいて設定された経路情報と、経路情報に対応する現実世界の経路にてGPSセンサ31により取得された位置情報との差分に基づいて、精度情報が生成される(ステップ301)。
 例えば、地図情報に基づいた計測経路については、各地点において緯度情報及び経度情報が関連付けられている。
 GPSセンサ31により取得される実測値については、例えば対応計測経路を歩きながら所定のフレームレートにて、緯度情報及び経度情報が取得される。例えば、1秒単位で、計測時間と、位置情報(緯度情報及び経度情報)との組が取得される。
 なお、開始ボタンの入力及び終了ボタンの入力時にも、計測時間と、位置情報(緯度情報及び経度情報)との組が取得される。もちろん、終了ボタンの入力後に最初に取得された実測値が、計測終了時の実測値として用いられてもよい。
 例えば、GPS精度解析部40は、計測経路55の位置情報と、計測開始時間、計測終了時間、及びその間に1秒ごとに取得された実測値とを対応付け、その差分を精度情報として生成することが可能である。
 例えば、計測経路55の開始地点における位置情報と、計測開始時に取得された実測値とが対応付けられる。また計測経路55の終了地点における位置情報と、計測終了時に取得された実測値とが対応付けられる。
 計測開始時と計測終了時との間で1秒ごとに取得された実測値の数と同じ数の区分点により、計測経路55を分割する(例えば等分割される)そして、複数の実測値と、複数の区分点とを、計測開始側から順番に対応づける。互いに対応する実測値と、区分点の位置情報との差分が、精度情報として生成される。
 図14は、計測経路と実測値との対応付けの他の例を説明するための模式図である。
 まず、クリエータ6により設定された計測経路55の総距離が算出される。
 例えば、図14Aに示すように、クリエータ6により、複数の制御点r1~r5が指定され、これらを結ぶように計測経路55が設定されたとする。制御点r1が計測経路55の開始地点であり、制御点r5が計測経路55の終了地点である。
 GPS精度解析部40により、各制御点r1~r5の位置情報(緯度情報及び経度情報)が取得される。制御点r1~r2、制御点r2~r3、制御点r3~r4、制御点r4~r5の各距離が、ヒュベニ(Hubeny)の公式を用いて算出される。算出された距離を加算することで、制御点r1~r5の総距離が算出される。当該総距離は、クリエータ6が実測時に移動する移動総距離となる。
 その他、計測経路55の総距離を算出する方法として、任意の方法が用いられてよい。
 図14Bには、GPS実測結果57が図示されている。GPS実測結果57は、計測開始時の実測値b1から、計測終了時の実測値b2まで、1秒ごとに取得される実測値を時系列に並べて結んだ線となる。
 計測開始時において計測経路55の制御点r1に対応する位置にて実測が行われ、その結果、実測値b1が得られたことになる。また計測終了時において計測経路の制御点r5に対応する位置にて実測が行われ、その結果、実測値b2が得られたことになる。
 GPS精度解析部40により、制御点r1~r5の移動総距離と、計測時間(実測値b2の計測時間-実測値b1の計測時間)とに基づいて、平均移動速度(移動総距離/計測時間)が算出される。
 計測経路55を、平均移動速度で制御点r1からr5まで移動した際の1秒ごとの計測経路55の位置Pが算出される。
 例えば、制御点r1~r2の距離が150mであり、平均移動速度が50m/分であったとする。この場合、制御点r1から制御点r2までの直線(長さ150m)を、1秒ごとに5/6m進むことになる。
 図14Bに示す航空写真上における制御点r1の位置(座標)をr1とし、制御点r2の位置(座標)をr2とする。この場合、図14Bに示す航空写真上において、制御点r1から出発したクリエータの1秒後の位置は、(r2-r1)×(5/6)×(1/150)の位置P1となる。2秒後の位置は、2×(r2-r1)×(5/6)×(1/150)の位置P2となる。
 1秒後のクリエータの位置P1にて、計測開始から1秒後の実測値(1回目の実測値)が取得されたことになる。2秒後のクリエータの位置P2にて、計測開始から2秒後の実測値(2回目の実測値)が取得されたことになる。
 同様の計算を制御点r1から制御点r5まで繰り返し、計測経路55上のクリエータ6の1秒ごとの位置Pを算出することが可能である。算出された各位置Pにおける位置情報(緯度情報及経度情報)を取得し、各位置Pにて実測された実測値との差分を、精度情報として生成することが可能となる。
 その他、計測経路55と、実測値との差分に基づいた精度情報の生成として、任意のアルゴリズムが採用されてよい。
 サウンドコンテンツマップにおいて、コンテンツデータを再生させる携帯端末4で取得される緯度情報及び経度情報と、実際の経度及び緯度の誤差がどのくらいあるか分かれば、どのような方法が採用されてもよい。
 サーバ装置9のDB管理部41により、生成された精度情報がDB11に保存される(ステップ302)。以下、精度情報をGPS精度として説明を行う場合がある。
 [補正領域(マージン領域)の算出]
 図15は、補正領域(マージン領域)の算出例を示すフローチャートである。
 図16は、コンテンツ領域3の設定時に表示される領域設定用GUI18の一例である。なお、図16では、領域設定用GUIの地図表示部19のみが図示されている。
 情報処理装置10により、地図サーバ37から地図情報が取得される(ステップ401)。
 GUI生成部50により、領域設定用GUI18が表示される(ステップ402)。
 例えば、クリエータ6により、領域設定用ボタン20が選択され、地図表示部19に表示された地図に対して、領域の描画操作が入力される。
 図16Aに示すように、入力判定部49及びGUI生成部50により、クリエータ6の領域の描画操作に合わせて、コンテンツ領域3が、地図情報に重畳されて表示される(ステップ403)。
 領域解析部47により、描画されたコンテンツ領域3の近辺のGPS精度(精度情報)が、サーバ装置9から取得される。
 例えば、描画されたコンテンツ領域3を通るように設定された計測経路55に基づいて生成されたGPS精度が取得される。もちろんこれに限定されず、描画されたコンテンツ領域3の近辺にて設定された計測経路に基づいて生成されたGPS精度が取得されてもよい。
 また、精度情報とともに、設定された計測経路55及び実測値の組とが取得されてもよい。なお、精度情報を生成するために設定された計測経路55及び実測値の組も、GPS精度に関する情報であるので、精度情報に含まれる情報となる。
 領域解析部47により、GPS精度に基づいて、マージン領域58が算出される。
 図16Bに示すように、マージン領域58は、領域設定用GUI18内の地図情報に基づいて入力されたコンテンツ領域3を基準として算出される。マージン領域58は、クリエータにより入力されたコンテンツ領域3内の位置に対応する現実世界の位置にてGPSセンサ31により取得される可能性のある位置情報を含む領域である。
 例えば、図16Bに示す例では、計測経路55に対して、GPS実測結果57が全体的に左上にずれてしまっている。GPS精度(精度情報)としては、互いに対応する計測経路の位置及び実測値との差分が、例えばベクトル情報として取得される。コンテンツ領域3に含まれる部分の、計測経路55と実測値との差分のみが用いられて、GPS精度が生成されてもよい。
 GPS精度により、コンテンツ領域3内にてGPSセンサ31により、コンテンツ領域3よりも左上の位置情報が取得される可能性がある。従って、領域解析部47により、コンテンツ領域3の左辺側及び上辺側に、コンテンツ領域3の左上の領域に渡って、マージン領域58が算出される。
 マージン領域58は、コンテンツ領域3の全ての周縁部に付与されてもよい。すなわち図16に示す例において、矩形状のコンテンツ領域3の左右上下の全ての辺側に、マージン領域58が付与されてもよい。あるいは、コンテンツ領域3の一部の周縁部のみに、マージン領域58が付与されてもよい。また、マージン領域58の形状は矩形状に限定されず、矩形状のコンテンツ領域3の左右上下の全ての辺側に付与される際に、各辺によって形状が異なっていても良い。
 なお、コンテンツ領域3内の位置に対応する現実世界での位置でGPSセンサ31により取得される可能性のある全ての位置情報を含むようにマージン領域58が算出される場合に限定されない。コンテンツ領域3内の位置にて実測される実測値を少なくとも1つ含む領域であれば、本技術に係るマージン領域58に含まれる。
 本実施形態では、マージン領域58と、入力されたコンテンツ領域3とを合わせた領域を、補正領域59とする。補正領域59は、コンテンツ領域3を補正する際に基準となる領域となる。なお、マージン領域58を、本技術に係る補正領域の一実施形態として、本技術を適用することも可能である。
 補正領域59は、マージン領域58と同様に、領域設定用GUI18内の地図情報に基づいて入力されたコンテンツ領域3を基準として算出される領域となる。また補正領域59は、クリエータ6により入力されたコンテンツ領域3内の位置に対応する現実世界の位置にてGPSセンサ31により取得される可能性のある位置情報を含む領域となる。
 図17は、マージン領域58の算出の他の例を説明するための模式図である。
 図14Bを参照して説明したように、計測開始から1秒ごとに取得される実測値と、当該実測値が取得される際の位置P(クリエータの1秒ごとの位置)とが対応付けられているとする。
 クリエータ6により、図17に示すようなコンテンツ領域3が入力されたとする。
 領域解析部47は、1秒ごとのクリエータの位置Pに対して、コンテンツ領域3外からコンテンツ領域3内に入った位置Pinと、コンテンツ領域3内からコンテンツ領域3外へ出た位置Poutを抽出する。当該抽出は、各位置Pの緯度情報及び経度情報と、コンテンツ領域3の緯度情報及び経度情報とを比較することで判定することが可能である。
 領域外から領域内への位置Pinにおける実測値から、領域内から領域外への位置Poutにおける実測値までの実測結果57が抽出される。抽出された実測結果57が、コンテンツ領域3内を移動しながら取得された実測値となる。
 抽出された実測結果57を構成する各実測値について、コンテンツ領域3内であるかコンテンツ領域3外であるかが判定される。コンテンツ領域3外と判定された実測値と、コンテンツ領域3までの間の領域が、マージン領域58として算出される。
 図17に示す例では、グレーの色で表示された領域がマージン領域58となる。マージン領域58と、コンテンツ領域3とを合わせた領域が、補正領域59となる。本生成例を用いることで、精度の高いマージン領域58(補正領域59)を生成することが可能となる。
 生成されたマージン領域58が、領域設定用GUI18の地図情報に重畳された表示される。本実施形態では、マージン領域58とコンテンツ領域3とを合わせた補正領域59が表示される(ステップ406)。もちろんこれに限定されず、マージン領域58のみが表示されてもよい。
 図16Bに示すように、GPS精度に基づいて、クリエータ6がコンテンツ領域3を入力した近辺における、GPS精度に関する情報60が出力されてもよい。例えば、「この地点のGPS精度は高いです。」「この地点のGPS精度は低いです。」といった情報が出力されてもよい。
 図18は、複数のコンテンツ領域3が入力される場合を説明するための模式図である。
 クリエータ6により、複数のコンテンツ領域3が入力される場合もある。この場合、図18Aに示すように、領域解析部47により、複数のコンテンツ領域3を基準とした複数の補正領域59(複数のマージン領域58)が、領域設定用GUI18に表示される。すなわち各コンテンツ領域3に対して、ステップ403~406が実行され、補正領域59が表示される。
 このように本実施形態では、領域設定用GUI18(画像情報)内の地図情報に基づいて入力された1つ又は複数のコンテンツ領域3を基準とした1つ又は複数の補正領域59が、地図情報内に表示される。
 ステップ407では、領域解析部47により、補正領域59が、他の補正領域59と重なるか否か判定される。
 例えば、クリエータ6がGPS精度の低い地点にコンテンツ領域3を密集して配置した場合に、領域解析部47は、各コンテンツ領域3に対して算出される補正領域59の重なりの有無を判定する。この判定は、各コンテンツ領域3において、GPS精度に基づくコンテンツ領域3間の重なりを判定することに相当する。
 例えば、意図的にコンテンツ領域3を重ねて、異なる種類のサウンドを同時にコンテンツ体験者に聴かせるといったことは可能である。一方で、意図しないコンテンツ領域3の重なりは、領域の誤認識の原因となり、意図しないサウンド同士の重なり等を引き起こしてしまい、問題となる。
 本実施形態では、補正領域59の重なりが発生している場合には(ステップ407のYes)、図18Aに示すように、警告情報61が出力される(ステップ408)。例えば、「補正領域が重なっています!」「補正領域が重なっているので、コンテンツ領域の入力をやり直してください」「この地点のGPS精度に対して描画領域が密集しているため領域の誤認識が発生します。領域同士が重ならないように領域を指定してください」といった警告情報が表示される。
 もちろんこれに限定されず、任意の警告情報が出力されてよい。また音声により警告情報が出力されてもよい。
 図18Bに示すように、重なりが発生した場合に、補正領域59(マージン領域58)が互いに重なっている領域62のみが表示されてもよい。
 また、複数の補正領域59の互いに重なる領域62が強調して表示されてもよい。赤色等により互いに重なる領域62が強調されてもよい。あるいは、マーク等が表示されてもよい。なお、図18Bの互いに重なる領域62のみを表示することは、強調表示に含まれる。
 なお、補正領域59の重なりは、マージン領域58同士の重なりのみならず、マージン領域58とコンテンツ領域3との重なりも含む。
 補正領域59の重なりが発生していない場合には(ステップ407のNo)、処理が終了する。
 クリエータ6は、表示された補正領域59を参考にして、必要があればコンテンツ領域3を補正し、OKボタン21を入力する。これにより、コンテンツ領域3の設定が行われる。
 例えば、表示された補正領域59が、コンテンツ領域3としてそのまま設定されてもよい。あるいは、補正領域59内にて、コンテンツ領域3が移動されてもよい。その他、位置の変更、サイズの変更、形状の変更等、任意の操作が実行可能である。もちろん、修正が行われなくてもよい。
 図19は、補正領域59の重なりが発生した場合に実行可能な処理例を説明するための模式図である。
 図19Aに示すように、補正領域59が重ならないように、補正領域59のサイズが自動調整されてもよい。補正領域59のサイズの調整は、マージン領域58のサイズの調整、元のコンテンツ領域3のサイズの調整、及びマージン領域58及びコンテンツ領域3の両方のサイズの調整のいずれも含む。
 図19Bに示すように、補正領域59が重ならないように、補正領域59が自動的に移動されてもよい。すなわち補正領域59の位置が、自動的に調整されてもよい。
 図19A及びBに示すように、複数の補正領域59が互いに重なる場合に、重なりが解消するように、複数の補正領域59の位置、サイズ、又は形状等が任意に変更されてもよい。すなわち補正領域59が適宜整形されてもよい。
 図19Cに示すように、互いに重なった補正領域59に関する情報63が表示されてもよい。
 例えば、入力されるコンテンツ領域3に関する情報や、コンテンツ領域3に関連付けられるサウンドコンテンツデータ(サウンド)に関する情報が表示される。
 図19Cに示す例では、[領域名][領域を横断する時間][音種別][音ファイル名][音の長さ]が表示されている。これらの情報に限定されず、任意の情報が表示されてよい。
 なお、[音種別][音ファイル名][音の長さ]は、複数の補正領域59の各々に対応するコンテンツ領域3に関連付けられるコンテンツデータに関する情報に相当する。
 図19A~Cに例示するような処理を実行することで、コンテンツ領域3の設定を、作業性よく実行することが可能となる。また、コンテンツ体験者2の進入や退出を精度よく検出可能なコンテンツ領域3を設定することが可能となる。
 以上、本実施形態に係るコンテンツ制作システム100では、クリエータ6による領域の指定に基づいて、コンテンツ領域3が設定される。また設定されたコンテンツ領域3が地図情報に対して重畳して表示される。これにより、位置情報を用いたコンテンツを容易に制作することが可能となる。
 また、本実施形態に係るコンテンツ制作システム100では、GPSセンサ31により取得される位置情報の精度に関する精度情報に基づいて、コンテンツ領域3の設定に関する支援情報が出力される。これによりコンテンツ領域3に設定に関して、位置情報の誤差の影響を抑制することが可能となる。
 上記した本技術を適用することで、クリエータ6が指定したコンテンツ領域3にその地点のGPS精度を加味したマージン領域58を表示することが可能となる。
 またクリエータ6がGPS精度の低い地点にコンテンツ領域3を密集して配置した際、その地点のGPS精度に基づくコンテンツ領域3間の重なりを判定することが可能となる。そして、クリエータ6にコンテンツ領域3移動/変更を促すことが可能となる。もしくは重なりを自動調整することも可能である。
 この結果、現実世界における膨大な現地評価を省略しつつも、精度の高いサウンドコンテンツマップを制作することが可能となる。
 <その他の実施形態>
 本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
 図20に例示するように、補正領域59の重なりが発生した場合に、互いに重なった領域にて、各々のサウンドコンテンツデータのフェードイン/フェードアウト再生が設定可能であってもよい。
 例えば、クリエータ6は、領域設定用GUI18を用いて、サウンドコンテンツデータのフェードイン/フェードアウト再生を設定することが可能となる。
 図21に例示するように、領域解析部47により、GPS精度に基づいて、クリエータ6が入力したコンテンツ領域3が変形されて、実際に検出される検出領域65が表示されてもよい。なおコンテンツ領域3の変形は、位置の変更、サイズの変更、又は形状の変更等が含まれる。
 これにより、クリエータ6に対して、入力されたコンテンツ領域3が実際にはどのように検出されるかが視認可能となる。
 図22に示すように、地図情報に基づいて設定された計測経路55(経路情報)と、計測経路55に対応する現実世界の経路にてGPSセンサ31により取得された実測結果57との組(以下、比較対象情報と記載する)を、領域設定用GUI18に表示してもよい。また比較対象情報を領域設定用GUI18内の地図情報に重畳させてもよい。
 クリエータ6に対して、各地点のGPS精度が視認可能となり、精度高くコンテンツ領域3の設定が可能な地点をガイドすることが可能となる。
 図23に示すように、計測経路55の周辺のPOI68を地図サーバ37から取得し、計測経路55と実測結果57との差分が小さいPOI68を、地図上に表示させてもよい。
 すなわち、地点ごとのGPS精度の取得により判明したGPS精度が高い地点周辺のPOIを地図サーバ37から取得し表示させてもよい。
 クリエータ6にGPS精度の高いPOI68を表示することでクリエータ6がコンテンツ領域3を選定する際のヒントとして情報を提供することが可能となる。
 図24に示すように、複数の比較対象情報(計測経路55と実測結果57との組)が1つの地図上にマージされ、集約された状態で表示されてもよい。
 GPS精度の高い地点が視認可能となる1つの地図を作成する事でクリエータ6がコンテンツ領域3の選定の際のヒントとして情報を提供することが可能となる。
 例えば、複数のクリエータ6により、集められた比較対象情報が集約される。
 計測経路55に対応する実測結果57の取得について、複数回実測が行われ、実測結果の最小値、平均値、最大値等が用いられてもよい。
 また、サウンドコンテンツマップのお試し利用等を設け、コンテンツ体験者2にサウンドコンテンツマップを利用してもらった際の実測結果が用いられて、精度情報が生成あるいは更新されてもよい。
 上記では、コンテンツ領域3に関連付けられるコンテンツデータとして、音声データ(サウンドコンテンツデータ)を例に挙げた。これに限定されず、画像データ等の他のコンテンツデータがコンテンツ領域3に関連付けられてもよい。
 例えば、図6に示すサーバ装置9の一部または全部の機能が、情報処理装置10に搭載されてもよい。あるいは、携帯可能な情報処理装置10が用いられ、携帯端末8の一部または全部の機能が搭載されてもよい。例えば、情報処理装置10に、図4に示す生成部26が備えられてもよい。
 すなわちコンテンツ制作システム100は、複数のコンピュータにより実現されてもよいし、1台のコンピュータにより実現されてもよい。
 図25は、携帯端末8、サーバ装置9、及び情報処理装置10を実現可能なコンピュータ70のハードウェア構成例を示すブロック図である。
 コンピュータ70は、CPU71、ROM72、RAM73、入出力インタフェース75、及びこれらを互いに接続するバス74を備える。入出力インタフェース75には、表示部76、入力部77、記憶部78、通信部79、及びドライブ部80等が接続される。
 表示部76は、例えば液晶、EL等を用いた表示デバイスである。入力部77は、例えばキーボード、ポインティングデバイス、タッチパネル、その他の操作装置である。入力部77がタッチパネルを含む場合、そのタッチパネルは表示部76と一体となり得る。
 記憶部78は、不揮発性の記憶デバイスであり、例えばHDD、フラッシュメモリ、その他の固体メモリである。ドライブ部80は、例えば光学記録媒体、磁気記録テープ等、リムーバブルの記録媒体81を駆動することが可能なデバイスである。
 通信部79は、LAN、WAN等に接続可能な、他のデバイスと通信するためのモデム、ルータ、その他の通信機器である。通信部79は、有線及び無線のどちらを利用して通信するものであってもよい。通信部79は、コンピュータ70とは別体で使用される場合が多い。
 上記のようなハードウェア構成を有するコンピュータ70による情報処理は、記憶部78またはROM72等に記憶されたソフトウェアと、コンピュータ70のハードウェア資源との協働により実現される。具体的には、ROM72等に記憶された、ソフトウェアを構成するプログラムをRAM73にロードして実行することにより、本技術に係る情報処理方法が実現される。
 プログラムは、例えば記録媒体71を介してコンピュータ70にインストールされる。あるいは、グローバルネットワーク等を介してプログラムがコンピュータ70にインストールされてもよい。その他、コンピュータ読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
 ネットワーク等を介して通信可能に接続された複数のコンピュータが協働することで、本技術に係る情報処理方法及びプログラムが実行され、本技術に係る情報処理装置が構築されてもよい。
 すなわち本技術に係る情報処理方法、及びプログラムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。
 なお本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
 コンピュータシステムによる本技術に係る情報処理方法、及びプログラムの実行は、例えば地図情報の取得、コンテンツ領域の設定、コンテンツ領域の重畳表示、精度情報の生成、精度情報の取得、支援情報の出力等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部または全部を他のコンピュータに実行させその結果を取得することを含む。
 すなわち本技術に係る情報処理方法及びプログラムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
 各図面を参照して説明したコンテンツ制作システム、サウンドコンテンツマップ、携帯端末、サーバ装置、情報処理装置、各種GUIの各構成、各処理フロー等はあくまで一実施形態であり、本技術の趣旨を逸脱しない範囲で、任意に変形可能である。すなわち本技術を実施するための他の任意の構成やアルゴリズム等が採用されてよい。
 本開示において、「略」という文言が使用される場合、これはあくまで説明の理解を容易とするための使用であり、「略」という文言の使用/不使用に特別な意味があるわけではない。
 すなわち、本開示において、「中心」「中央」「均一」「等しい」「同じ」「直交」「平行」「対称」「延在」「軸方向」「円柱形状」「円筒形状」「リング形状」「円環形状」等の、形状、サイズ、位置関係、状態等を規定する概念は、「実質的に中心」「実質的に中央」「実質的に均一」「実質的に等しい」「実質的に同じ」「実質的に直交」「実質的に平行」「実質的に対称」「実質的に延在」「実質的に軸方向」「実質的に円柱形状」「実質的に円筒形状」「実質的にリング形状」「実質的に円環形状」等を含む概念とする。
 例えば「完全に中心」「完全に中央」「完全に均一」「完全に等しい」「完全に同じ」「完全に直交」「完全に平行」「完全に対称」「完全に延在」「完全に軸方向」「完全に円柱形状」「完全に円筒形状」「完全にリング形状」「完全に円環形状」等を基準とした所定の範囲(例えば±10%の範囲)に含まれる状態も含まれる。
 従って、「略」の文言が付加されていない場合でも、いわゆる「略」を付加して表現される概念が含まれ得る。反対に、「略」を付加して表現された状態について、完全な状態が排除される訳ではない。
 本開示において、「Aより大きい」「Aより小さい」といった「より」を使った表現は、Aと同等である場合を含む概念と、Aと同等である場合を含なまい概念の両方を包括的に含む表現である。例えば「Aより大きい」は、Aと同等は含まない場合に限定されず、「A以上」も含む。また「Aより小さい」は、「A未満」に限定されず、「A以下」も含む。
 本技術を実施する際には、上記で説明した効果が発揮されるように、「Aより大きい」及び「Aより小さい」に含まれる概念から、具体的な設定等を適宜採用すればよい。
 以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。
 なお、本技術は以下のような構成も採ることができる。
(1)
 地図情報を取得する第1の取得部と、
 ユーザによる領域の指定に基づいて、コンテンツデータが関連付けられるコンテンツ領域を設定する設定部と、
 設定された前記コンテンツ領域と前記地図情報とを関連付けて記憶する記憶部と、
 前記地図情報に対して前記コンテンツ領域を重畳して表示する表示制御部と
 を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、さらに、
 位置センサにより取得される位置情報の精度に関する精度情報を取得する第2の取得部と、
 取得された前記精度情報に基づいて、前記コンテンツ領域の設定に関する支援情報を出力する出力部と
 を具備する情報処理装置。
(3)(2)に記載の情報処理装置であって、さらに、
 前記地図情報に基づいて設定された第1の位置情報と、前記第1の位置情報に対応する現実世界の位置にて前記位置センサにより取得された第2の位置情報との差分に基づいて前記精度情報を生成する生成部を具備する
 情報処理装置。
(4)(3)に記載の情報処理装置であって、
 前記生成部は、前記地図情報に基づいて設定された経路情報と、前記経路情報に対応する現実世界の経路にて前記位置センサにより取得された前記位置情報との差分に基づいて前記精度情報を生成する
 情報処理装置。
(5)(4)に記載の情報処理装置であって、
 前記支援情報は、前記コンテンツ領域、又は前記経路情報の少なくとも一方を設定するための、前記地図情報を含む画像情報を含む
 情報処理装置。
(6)(5)に記載の情報処理装置であって、
 前記出力部は、前記画像情報内の前記地図情報に基づいて入力された1つ又は複数の前記コンテンツ領域を基準とした1つ又は複数の補正領域を、前記地図情報内に表示する
 情報処理装置。
(7)(6)に記載の情報処理装置であって、
 前記出力部は、入力された前記コンテンツ領域内の位置に対応する現実世界の位置にて前記位置センサにより取得される可能性のある前記位置情報を含む領域を、前記補正領域として表示する
 情報処理装置。
(8)(6)又は(7)に記載の情報処理装置であって、
 前記出力部は、前記複数の補正領域が互いに重なる場合に、重なりが解消するように、前記複数の補正領域の位置又はサイズの少なくとも一方を変更する
 情報処理装置。
(9)(6)から(8)のうちいずれか1つに記載の情報処理装置であって、
 前記出力部は、前記複数の補正領域が互いに重なる場合に、警告情報を出力する
 情報処理装置。
(10)(6)から(9)のうちいずれか1つに記載の情報処理装置であって、
 前記出力部は、前記複数の補正領域が互いに重なる場合に、互いに重なる領域を強調して表示する
 情報処理装置。
(11)(6)から(10)のうちいずれか1つに記載の情報処理装置であって、
 前記出力部は、前記複数の補正領域が互いに重なる場合に、前記複数の重複領域の各々に対応する前記コンテンツ領域に関連付けられる前記コンテンツデータに関する情報を出力する
 情報処理装置。
(12)(5)から(11)のうちいずれか1つに記載の情報処理装置であって、
 前記出力部は、前記地図情報の縮尺に関する情報を出力する
 情報処理装置。
(13)(5)から(12)のうちいずれか1つに記載の情報処理装置であって、
 前記出力部は、前記地図情報に基づいて設定された経路情報と、前記経路情報に対応する現実世界の経路にて前記位置センサにより取得された前記位置情報との組からなる比較対象情報を、前記画像情報内に表示する
 情報処理装置。
(14)(13)に記載の情報処理装置であって、
 前記出力部は、前記比較対象情報を、前記画像情報内の前記地図情報に重畳させる
 情報処理装置。
(15)(1)から(14)のうちいずれか1つに記載の情報処理装置であって、
 前記コンテンツデータは、音声データ、又は画像データの少なくとも一方を含む
 情報処理装置。
(16)(1)から(15)のうちいずれか1つに記載の情報処理装置であって、
 前記位置センサは、GPSセンサである
 情報処理装置。
(17)
 地図情報を取得し、
 ユーザによる領域の指定に基づいて、コンテンツデータが関連付けられるコンテンツ領域を設定し、
 前記設定されたコンテンツ領域と前記地図情報とを関連付けて記憶し、
 前記地図情報に対して前記コンテンツ領域を重畳して表示する
 ことをコンピュータシステムが実行する情報処理方法。
(18)
 地図情報を取得する第1の取得部と、
 ユーザによる領域の指定に基づいて、コンテンツデータが関連付けられるコンテンツ領域を設定する設定部と、
 前記設定されたコンテンツ領域と前記地図情報とを関連付けて記憶する記憶部と、
 前記地図情報に対して前記コンテンツ領域を重畳して表示する表示部と
 を具備する情報処理システム。
(19)
 地図情報を取得するステップと、
 ユーザによる領域の指定に基づいて、コンテンツデータが関連付けられるコンテンツ領域を設定するステップと、
 前記設定されたコンテンツ領域と前記地図情報とを関連付けて記憶するステップと、
 前記地図情報に対して前記コンテンツ領域を重畳して表示するステップと
 をコンピュータシステムに実行させるプログラム。
 3…コンテンツ領域
 6…クリエータ
 8…携帯端末
 9…サーバ装置
 10…情報処理装置
 13…第1の取得部
 14…設定部
 15…記憶部
 16…表示制御部
 26…生成部
 27…第1の取得部
 28…出力部
 18…領域設定用GUI
 52…経路設定用GUI
 55…計測経路
 57…実測結果
 58…マージン領域
 59…補正領域
 70…コンピュータ
 100…コンテンツ制作システム

Claims (18)

  1.  地図情報を取得する第1の取得部と、
     ユーザによる領域の指定に基づいて、コンテンツデータが関連付けられるコンテンツ領域を設定する設定部と、
     設定された前記コンテンツ領域と前記地図情報とを関連付けて記憶する記憶部と、
     前記地図情報に対して前記コンテンツ領域を重畳して表示する表示制御部と
     を具備する情報処理装置。
  2.  請求項1に記載の情報処理装置であって、さらに、
     位置センサにより取得される位置情報の精度に関する精度情報を取得する第2の取得部と、
     取得された前記精度情報に基づいて、前記コンテンツ領域の設定に関する支援情報を出力する出力部と
     を具備する情報処理装置。
  3.  請求項2に記載の情報処理装置であって、さらに、
     前記地図情報に基づいて設定された第1の位置情報と、前記第1の位置情報に対応する現実世界の位置にて前記位置センサにより取得された第2の位置情報との差分に基づいて前記精度情報を生成する生成部を具備する
     情報処理装置。
  4.  請求項3に記載の情報処理装置であって、
     前記生成部は、前記地図情報に基づいて設定された経路情報と、前記経路情報に対応する現実世界の経路にて前記位置センサにより取得された前記位置情報との差分に基づいて前記精度情報を生成する
     情報処理装置。
  5.  請求項4に記載の情報処理装置であって、
     前記支援情報は、前記コンテンツ領域、又は前記経路情報の少なくとも一方を設定するための、前記地図情報を含む画像情報を含む
     情報処理装置。
  6.  請求項5に記載の情報処理装置であって、
     前記出力部は、前記画像情報内の前記地図情報に基づいて入力された1つ又は複数の前記コンテンツ領域を基準とした1つ又は複数の補正領域を、前記地図情報内に表示する
     情報処理装置。
  7.  請求項6に記載の情報処理装置であって、
     前記出力部は、入力された前記コンテンツ領域内の位置に対応する現実世界の位置にて前記位置センサにより取得される可能性のある前記位置情報を含む領域を、前記補正領域として表示する
     情報処理装置。
  8.  請求項6に記載の情報処理装置であって、
     前記出力部は、前記複数の補正領域が互いに重なる場合に、重なりが解消するように、前記複数の補正領域の位置又はサイズの少なくとも一方を変更する
     情報処理装置。
  9.  請求項6に記載の情報処理装置であって、
     前記出力部は、前記複数の補正領域が互いに重なる場合に、警告情報を出力する
     情報処理装置。
  10.  請求項6に記載の情報処理装置であって、
     前記出力部は、前記複数の補正領域が互いに重なる場合に、互いに重なる領域を強調して表示する
     情報処理装置。
  11.  請求項6に記載の情報処理装置であって、
     前記出力部は、前記複数の補正領域が互いに重なる場合に、前記複数の重複領域の各々に対応する前記コンテンツ領域に関連付けられる前記コンテンツデータに関する情報を出力する
     情報処理装置。
  12.  請求項5に記載の情報処理装置であって、
     前記出力部は、前記地図情報の縮尺に関する情報を出力する
     情報処理装置。
  13.  請求項5に記載の情報処理装置であって、
     前記出力部は、前記地図情報に基づいて設定された経路情報と、前記経路情報に対応する現実世界の経路にて前記位置センサにより取得された前記位置情報との組からなる比較対象情報を、前記画像情報内に表示する
     情報処理装置。
  14.  請求項13に記載の情報処理装置であって、
     前記出力部は、前記比較対象情報を、前記画像情報内の前記地図情報に重畳させる
     情報処理装置。
  15.  請求項1に記載の情報処理装置であって、
     前記コンテンツデータは、音声データ、又は画像データの少なくとも一方を含む
     情報処理装置。
  16.  請求項1に記載の情報処理装置であって、
     前記位置センサは、GPSセンサである
     情報処理装置。
  17.  地図情報を取得し、
     ユーザによる領域の指定に基づいて、コンテンツデータが関連付けられるコンテンツ領域を設定し、
     前記設定されたコンテンツ領域と前記地図情報とを関連付けて記憶し、
     前記地図情報に対して前記コンテンツ領域を重畳して表示する
     ことをコンピュータシステムが実行する情報処理方法。
  18.  地図情報を取得する第1の取得部と、
     ユーザによる領域の指定に基づいて、コンテンツデータが関連付けられるコンテンツ領域を設定する設定部と、
     前記設定されたコンテンツ領域と前記地図情報とを関連付けて記憶する記憶部と、
     前記地図情報に対して前記コンテンツ領域を重畳して表示する表示部と
     を具備する情報処理システム。
PCT/JP2021/027161 2020-08-05 2021-07-20 情報処理装置、情報処理方法、及び情報処理システム WO2022030248A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022541429A JPWO2022030248A1 (ja) 2020-08-05 2021-07-20
US18/007,157 US20230236019A1 (en) 2020-08-05 2021-07-20 Information processing apparatus, information processing method, and information processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020133142 2020-08-05
JP2020-133142 2020-08-05

Publications (1)

Publication Number Publication Date
WO2022030248A1 true WO2022030248A1 (ja) 2022-02-10

Family

ID=80117325

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/027161 WO2022030248A1 (ja) 2020-08-05 2021-07-20 情報処理装置、情報処理方法、及び情報処理システム

Country Status (3)

Country Link
US (1) US20230236019A1 (ja)
JP (1) JPWO2022030248A1 (ja)
WO (1) WO2022030248A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002320295A (ja) * 2001-04-19 2002-10-31 Horiba Ltd 音声ガイド
JP2008224604A (ja) * 2007-03-15 2008-09-25 Funai Electric Co Ltd ナビゲーション装置
JP2018124926A (ja) * 2017-02-03 2018-08-09 Kddi株式会社 端末装置、端末装置の制御方法、コンピュータプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002320295A (ja) * 2001-04-19 2002-10-31 Horiba Ltd 音声ガイド
JP2008224604A (ja) * 2007-03-15 2008-09-25 Funai Electric Co Ltd ナビゲーション装置
JP2018124926A (ja) * 2017-02-03 2018-08-09 Kddi株式会社 端末装置、端末装置の制御方法、コンピュータプログラム

Also Published As

Publication number Publication date
US20230236019A1 (en) 2023-07-27
JPWO2022030248A1 (ja) 2022-02-10

Similar Documents

Publication Publication Date Title
US11068227B2 (en) Information processing device and information processing method for indicating a position outside a display region
US9602946B2 (en) Method and apparatus for providing virtual audio reproduction
WO2017186137A1 (zh) 无人飞行器控制方法及装置
US9746338B2 (en) Binaural navigation cues
US8566020B2 (en) Method and apparatus for transforming three-dimensional map objects to present navigation information
EP3503592B1 (en) Methods, apparatuses and computer programs relating to spatial audio
KR20110041383A (ko) 증강 현실에서의 구별 시행
CN109115221A (zh) 室内定位、导航方法及装置、计算机可读介质和电子设备
JP6527182B2 (ja) 端末装置、端末装置の制御方法、コンピュータプログラム
US20190311525A1 (en) Augmented reality object cluster rendering and aggregation
CN113345108A (zh) 增强现实数据展示方法、装置、电子设备及存储介质
WO2022030248A1 (ja) 情報処理装置、情報処理方法、及び情報処理システム
US20220358027A1 (en) Tool for mobile app development and testing using a physical mobile device
TW201636577A (zh) 基於建築空間資訊模型之室內導航方法、室內導航資訊產生方法、電腦可讀取記錄媒體及室內導航裝置
JP6651231B2 (ja) 携帯情報端末、情報処理装置、及びプログラム
CN113838163A (zh) 区域图形绘制插件、方法、装置、电子设备、系统及介质
CN111506280A (zh) 用于指示屏幕外兴趣点的图形用户界面
JPWO2016189633A1 (ja) 認知度算出装置、認知度算出方法及び認知度算出プログラム
KR20200029153A (ko) 경로 안내를 위한 콘텐츠 제공 방법 및 장치
JPWO2017221721A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP7400810B2 (ja) 情報処理装置、情報処理方法、及び記録媒体
WO2023224036A1 (ja) 情報処理方法、情報処理装置、及び情報処理プログラム
WO2022224586A1 (ja) 情報処理装置、情報処理方法、プログラム、ならびに、情報記録媒体
WO2023224033A1 (ja) 情報処理方法、情報処理装置、及び情報処理プログラム
JP6976186B2 (ja) 端末装置及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21852349

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022541429

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21852349

Country of ref document: EP

Kind code of ref document: A1