WO2017141325A1 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
WO2017141325A1
WO2017141325A1 PCT/JP2016/054322 JP2016054322W WO2017141325A1 WO 2017141325 A1 WO2017141325 A1 WO 2017141325A1 JP 2016054322 W JP2016054322 W JP 2016054322W WO 2017141325 A1 WO2017141325 A1 WO 2017141325A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving body
feature
information
height
display
Prior art date
Application number
PCT/JP2016/054322
Other languages
English (en)
French (fr)
Inventor
洋 入江
下谷 光生
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2016/054322 priority Critical patent/WO2017141325A1/ja
Priority to JP2017567589A priority patent/JP6312953B2/ja
Publication of WO2017141325A1 publication Critical patent/WO2017141325A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes

Definitions

  • the present invention relates to an information processing apparatus and an information processing method for processing acquired information and providing it to a user.
  • An information processing device such as a navigation device is mounted on a moving body such as a vehicle, processes acquired information, and provides a user with information such as a map showing a route to a destination.
  • information such as a map is provided, height information indicating the height of the moving object may be required.
  • Patent Document 1 A technique for obtaining the height information of a moving object is disclosed in Patent Document 1, for example.
  • the accuracy determination device disclosed in Patent Literature 1 holds point information (for example, X coordinate, Y coordinate, and Z coordinate) as the current position of the moving body in advance.
  • the accuracy determination apparatus creates a reference determination reference plane from the above-described point information and a plurality of pieces of point information suitable for the traveling direction of the moving object.
  • the accuracy determination apparatus creates a plane (hereinafter, also referred to as “determination surface”) after the moving body has moved from the created determination reference plane.
  • the accuracy determination device determines a distance in the Z direction from the created determination reference plane and determination plane as a deviation value, and corrects altitude data as height information.
  • An object of the present invention is to provide an information processing apparatus and an information processing method that can obtain accurate height information of a moving object with relatively simple processing.
  • An information processing apparatus is included in an image based on an image acquisition unit that acquires an image outside the moving body that is captured by an imaging unit that is mounted on the moving body, and an image that is acquired by the image acquisition unit.
  • An elevation angle detection unit that detects an elevation angle of a feature from a moving body, an elevation angle of the plurality of features detected by the elevation angle detection unit, and a height from a predetermined reference position of the plurality of features.
  • the information processing apparatus of the present invention is included in an image based on an image acquisition unit that acquires an image outside the moving body that is imaged by an imaging unit that is mounted on the moving body, and an image that is acquired by the image acquisition unit.
  • An elevation angle detecting unit that detects an elevation angle of a feature from a moving body at a plurality of points, an elevation angle of the feature at a plurality of points detected by the elevation angle detection unit, and a predetermined reference position of the feature Height information representing the height of the moving body from the reference position and inclination information representing the inclination of the road on which the moving body is located, based on the height of the vehicle and the distance between the moving body and the feature at each point
  • a processing unit that detects an elevation angle of a feature from a moving body at a plurality of points, an elevation angle of the feature at a plurality of points detected by the elevation angle detection unit, and a predetermined reference position of the feature Height information representing the height of the moving body from the reference position and inclination information representing the
  • An information processing method of the present invention acquires an image outside a moving body that is imaged by an imaging unit mounted on the moving body, and based on the acquired image, for a plurality of features included in the image, The elevation of the moving object is detected, and the reference of the moving object is determined based on the detected elevation angle of the plurality of features, the height from the predetermined reference position of the plurality of features, and the distance between the moving object and each feature. Height information indicating the height from the position and inclination information indicating the inclination of the road on which the moving body is located are obtained.
  • the information processing method of the present invention acquires an image outside the moving body imaged by the imaging unit mounted on the moving body, and based on the acquired image, the features included in the image are obtained at a plurality of points. Detects the elevation angle of a feature from a moving body, and based on the elevation angle of the feature at the detected points, the height of the feature from a predetermined reference position, and the distance between the moving body and the feature at each point Thus, height information representing the height of the mobile body from the reference position and slope information representing the slope of the road on which the mobile body is located are obtained.
  • an image outside the moving body captured by the imaging section mounted on the moving body is acquired by the image acquisition section.
  • the elevation angle from the moving body of the feature is detected by the elevation angle detection unit for the plurality of features included in the image.
  • the height information of the moving object and the road on which the moving object is located Is obtained by the processing unit.
  • an image outside the moving body captured by the imaging section mounted on the moving body is acquired by the image acquisition section.
  • the elevation angle from the moving body of the feature at a plurality of points is detected by the elevation angle detection unit for the feature included in the image.
  • the height information of the moving object and the moving object Information on the inclination of the located road is obtained by the processing unit.
  • an image outside the moving body captured by the imaging unit mounted on the moving body is acquired, and a plurality of features included in the image are acquired based on the acquired image.
  • the elevation angle of the feature from the moving body is detected. Based on the elevation angle of the detected multiple features, the height from the reference position of the multiple features, and the distance between the moving object and each feature, the height information of the moving object and the road on which the moving object is located Slope information is obtained.
  • accurate height information of the moving object can be obtained by a relatively simple process.
  • an image outside the moving body captured by the imaging unit mounted on the moving body is acquired, and a plurality of features included in the image are acquired based on the acquired image.
  • the elevation angle of the feature from the moving body is detected at the point. Based on the elevation angle of the feature at the detected points, the height from the reference position of the feature, and the distance between the moving object and the feature at each point, the height information of the moving object and the moving object Information on the inclination of the located road is obtained.
  • accurate height information of the moving object can be obtained by a relatively simple process.
  • FIG. 1 It is a figure which shows the further another example of the image of the feature in a three-dimensional display. It is a block diagram which shows the structure of the information processing apparatus in the 3rd Embodiment of this invention. It is a block diagram which shows the structure of the information processing apparatus in the 4th Embodiment of this invention.
  • FIG. 1 is a block diagram showing the configuration of the information processing apparatus 1 according to the first embodiment of the present invention.
  • the information processing apparatus 1 includes an image acquisition unit 11, an elevation angle detection unit 12, and a processing unit 13.
  • the information processing apparatus 1 is used by being mounted on a moving body such as a vehicle, for example.
  • the information processing apparatus 1 is provided in a navigation device, for example, and is mounted on a moving body.
  • An information processing method according to another embodiment of the present invention is executed by the information processing apparatus 1 according to the present embodiment.
  • the image acquisition unit 11 acquires an image outside the moving body imaged by the imaging unit mounted on the moving body.
  • the imaging unit is realized by a camera, for example.
  • the elevation angle detection unit 12 detects the elevation angle of the feature from the moving body for a plurality of features included in the image based on the image acquired by the image acquisition unit 11.
  • the processing unit 13 includes, for example, a central processing unit (abbreviation: CPU) and a memory such as a writable RAM (Random access memory).
  • the memory stores a control program.
  • the CPU executes the control program stored in the memory, the functions of the image acquisition unit 11 and the elevation angle detection unit 12 constituting the information processing apparatus 1 are realized.
  • the processing unit 13 Height information and inclination information of the road on which the moving body is located.
  • the height information represents the height of the moving body from the reference position.
  • the inclination information represents the inclination of the road on which the moving body is located.
  • the image acquisition unit 11 acquires an image outside the moving body that is imaged by the imaging unit mounted on the moving body. Based on the acquired image, the elevation angle detection unit 12 detects the elevation angle of the feature from the moving body for the plurality of features included in the image. Based on the elevation angle of the detected multiple features, the height from the reference position of the multiple features, and the distance between the moving object and each feature, the height information of the moving object and the road on which the moving object is located Is obtained by the processing unit 13. Thus, accurate height information of the moving body can be obtained by a relatively simple process.
  • position information indicating the position of the moving body that is moving can be obtained more accurately.
  • the position information indicating the position of the moving moving body when the information processing apparatus 1 is used as a navigation apparatus, a display closer to reality can be performed.
  • the height information of the moving body and the inclination information of the road are the elevation angle of the plurality of features, the height from the reference position of the plurality of features, and the moving body and each feature. It is calculated based on the distance.
  • the height information of the moving body and the road inclination information are not limited to this, and the elevation angle of the feature at a plurality of points, the height from the reference position of the feature, and the distance between the moving body and the feature at each point. And may be determined based on the above. As a result, the same effect as in the present embodiment can be obtained. Specifically, accurate height information of the moving body can be obtained by a relatively simple process.
  • FIG. 2 is a block diagram showing a configuration of the information processing apparatus 10 according to the second embodiment of the present invention.
  • the information processing device 10 constitutes an information providing device 20 together with the input device 22 and the display device 23.
  • the information providing device 20 includes an information processing device 10, an input device 22, and a display device 23.
  • the information providing apparatus 20 is mounted on a moving body.
  • the moving body is a vehicle, and the information providing apparatus 20 is mounted on the vehicle.
  • the information providing device 20 is realized by a navigation device having a navigation function for guiding a route.
  • the information processing apparatus 10 of the present embodiment includes the same configuration as the information processing apparatus 1 of the first embodiment shown in FIG. 1 described above, the same configuration is denoted by the same reference numeral. Thus, a common description is omitted.
  • An information processing method according to another embodiment of the present invention is executed by the information processing apparatus 10 according to the present embodiment.
  • the information processing apparatus 10 includes an image acquisition unit 11, an elevation angle detection unit 12, a processing unit 13, a position detection unit 14, an operation information acquisition unit 15, and a map information storage unit 16.
  • the processing unit 13 is connected to the display device 23.
  • the operation information acquisition unit 15 is connected to the input device 22.
  • the image acquisition unit 11 is connected to the camera 21.
  • the camera 21 corresponds to an imaging unit.
  • the camera 21 is mounted on the moving body together with the information providing apparatus 20 including the information processing apparatus 10.
  • the camera 21 is provided to detect a feature in the visible range from the moving body.
  • the camera 21 is installed in front of the moving body in the traveling direction, and captures an image of the outside of the moving body in front of the moving body.
  • the image acquisition unit 11 acquires from the camera 21 an image outside the moving body that is captured by the camera 21.
  • the moving body is a vehicle
  • the camera 21 captures an image outside the vehicle (hereinafter sometimes referred to as “external image”)
  • the image acquisition unit 11 acquires the external image from the camera 21. To do.
  • the image acquisition unit 11 gives the acquired outside-vehicle image to the elevation angle detection unit 12.
  • the elevation angle detection unit 12 detects the elevation angle of the feature from the moving body for a plurality of features included in the vehicle outside image based on the vehicle outside image provided from the image acquisition unit 11.
  • the elevation angle detection unit 12 gives the processing unit 13 the elevation angle of the detected feature from the moving body.
  • the map information storage unit 16 is realized by, for example, a hard disk drive (abbreviation: HDD) device or a storage device such as a semiconductor memory.
  • the map information storage unit 16 stores map information representing a map.
  • the map information storage unit 16 further stores search information related to the searched route and feature information related to the feature.
  • the feature information includes height information that represents the height of the feature from the reference position and position information that represents the position of the feature.
  • the position information of the feature includes, for example, the coordinates of the position where the feature exists, specifically, the X coordinate representing the longitude and the Y coordinate representing the latitude of the position where the feature exists.
  • the position detection unit 14 detects the current position of the moving object on which the information processing apparatus 10 is mounted.
  • the position detection unit 14 detects the current position of the information processing apparatus 10 as the current position of the moving object.
  • the position detection unit 14 detects the current position of the information processing apparatus 10 as follows, for example.
  • the position detection unit 14 reads map information stored in the map information storage unit 16 via the processing unit 13.
  • the position detection unit 14 acquires a radio wave signal (hereinafter also referred to as “GPS signal”) from a GPS satellite received by a global positioning system (abbreviation: GPS) reception unit (not shown).
  • GPS signal a radio wave signal
  • the position detection unit 14 calculates the current position of the information processing apparatus 10 using the read map information and the acquired GPS signal.
  • the position detection unit 14 generates current position information indicating the calculated current position of the information processing apparatus 10.
  • the position detection unit 14 gives the generated current position information of the information processing apparatus 10 to the processing unit 13 as current position information representing the current position of the moving body.
  • the current position information includes, for example, coordinates of the current position of the moving object, specifically, an X coordinate that represents the longitude of the current position of the moving object, and a Y coordinate that represents the latitude of the current position of the moving object.
  • the position detection unit 14 may be configured to detect the current position of the moving body using a travel distance sensor. In this case, the position detection unit 14 generates current position information indicating the detected current position of the moving body, and provides the generated current position information to the processing unit 13.
  • the position detection unit 14 may be configured to acquire the current position information of the moving body from the outside of the information processing apparatus 10, specifically, from the information providing apparatus 20, for example, by communication. Specifically, the position detection unit 14 may be configured to acquire the current position information of the mobile body from a server device outside the information providing apparatus 20 via a communication network such as the Internet. In this case, the position detection unit 14 gives the acquired current position information to the processing unit 13.
  • the input device 22 includes an operation input unit (not shown) that is operated by the user.
  • the operation input unit includes, for example, an operation switch and an operation button.
  • the input device 22 is used when the user inputs various information such as numeric information, character information, and instruction information to the information processing device 10.
  • the input device 22 When the operation input unit is operated by the user, the input device 22 generates operation information corresponding to the user's input operation and supplies the operation information to the operation information acquisition unit 15.
  • the operation input unit of the input device 22 may be configured by a touch panel or a voice input device capable of voice operation input instead of the operation switch and the operation button.
  • the touch panel is installed on the display screen of the display device 23 and detects the touch operation and touch position of the user.
  • the touch panel generates operation information corresponding to the detected touch operation and the touch position, and provides the operation information acquisition unit 15 with the operation information.
  • the voice input device When the operation input unit of the input device 22 is configured by a voice input device, the voice input device recognizes the input voice. The voice input device generates operation information corresponding to the recognized voice and gives it to the operation information acquisition unit 15.
  • the operation information acquisition unit 15 acquires operation information from the input device 22.
  • the operation information is information indicating the target and contents of the operation.
  • the operation information includes, for example, the type of operation, the number of operations, the length of the operation, the image to be operated and the display area of the image, the display information amount, the display position, the display processing load, and the display device 23. It includes one or more pieces of information indicating the position or area of the operation on the display screen.
  • the processing unit 13 includes, for example, a CPU and a memory such as a writable RAM.
  • the memory stores a control program.
  • the CPU executes the control program stored in the memory, the functions of the image acquisition unit 11, the elevation angle detection unit 12, the position detection unit 14, and the operation information acquisition unit 15 constituting the information processing apparatus 10 are realized.
  • the processing unit 13 controls the entire information processing apparatus 10. In the present embodiment, the processing unit 13 controls the entire information providing apparatus 20 including the information processing apparatus 10.
  • the processing unit 13 controls the display device 23 based on information given from the image acquisition unit 11, the elevation angle detection unit 12, the position detection unit 14, the operation information acquisition unit 15, and the map information storage unit 16. Specifically, the processing unit 13 controls the display device 23 as follows.
  • the processing unit 13 is based on the current position information of the moving object given from the position detection unit 14, the elevation angle from the moving object of the feature given from the elevation angle detection unit 12, and the feature information obtained from the map information storage unit 16.
  • the elevation angle of the plurality of features, the height from the reference position of the plurality of features, and the distance between the moving object and each feature are obtained.
  • the processing unit 13 determines the height information of the moving object and the moving object based on the obtained elevation angles of the plurality of features, the height from the reference position of the plurality of features, and the distance between the moving object and each feature. Find the slope information of the road where is located.
  • the feature information includes feature height information and position information.
  • the height information represents the height of the moving object or the feature from a predetermined reference position.
  • the inclination information represents the inclination of the road on which the moving body is located.
  • the processing unit 13 performs a display process for displaying the feature on the display device 23 according to the obtained height information and road inclination information of the moving body and the operation information given from the operation information acquisition unit 15. . Specifically, as the display process, the processing unit 13 generates display information so as to display the feature in a display form corresponding to the height information of the moving body, the road inclination information, and the operation information, and the generated display The information is converted into a video signal that can be handled by the display device 23, and a process of giving the display device 23 an instruction to display an image represented by the video signal together with the obtained video signal is performed.
  • the display device 23 is realized by, for example, a liquid crystal display.
  • the display device 23 displays an image represented by the video signal provided from the processing unit 13 on the display screen based on an instruction given from the processing unit 13. As a result, an image corresponding to the display information is displayed on the display screen of the display device 23. In this way, by displaying an image corresponding to the display information on the display screen of the display device 23, various types of information can be provided to the user of the information providing device 20.
  • the processing unit 13 has a function as car navigation for guiding a route from the current position to the destination. That is, the processing unit 13 uses the vehicle information given from a vehicle information acquisition unit (not shown) and the current position information given from the position detection unit 14 to display a map and a process for displaying a map. , Route search processing, route guidance processing, route guidance processing, and facility search processing.
  • FIG. 3 is a block diagram showing a hardware configuration of the information processing apparatus 10 according to the second embodiment of the present invention.
  • the information processing apparatus 10 includes at least a processing circuit 31, a memory 32, and an input / output interface 33.
  • the input device 22 and the display device 23 are configured to be externally attached to the information processing device 10, but hardware such as the input device 22 and the display device 23 is disposed inside the information processing device 10. It may be configured.
  • the functions of the image acquisition unit 11, the elevation angle detection unit 12, the processing unit 13, the position detection unit 14, and the operation information acquisition unit 15 in the information processing apparatus 10 are realized by the processing circuit 31. That is, in the information processing apparatus 10, the image acquisition unit 11 acquires an image outside the moving body, the elevation angle detection unit 12 detects the elevation angle of the feature from the moving body, and the position detection unit 14 detects the current position.
  • the operation information acquisition unit 15 acquires operation information, and the processing unit 13 includes a processing circuit 31 for controlling the display device 23.
  • the processing circuit 31 is a CPU (also called a central processing unit, processing unit, arithmetic unit, microprocessor, microcomputer, processor, DSP (Digital Signal Processor)) that executes a program stored in the memory 32.
  • Each function of the image acquisition unit 11, the elevation angle detection unit 12, the processing unit 13, the position detection unit 14, and the operation information acquisition unit 15 is realized by software, firmware, or a combination of software and firmware.
  • Software and firmware are described as programs and stored in the memory 32.
  • the processing circuit 31 realizes the function of each unit by reading and executing the program stored in the memory 32. That is, in the information processing apparatus 10, when executed by the processing circuit 31, the image acquisition unit 11 acquires an image outside the moving body, and the elevation angle detection unit 12 detects the elevation angle of the feature from the moving body. As a result, a step in which the position detection unit 14 acquires the current position, a step in which the operation information acquisition unit 15 acquires the operation information, and a step in which the processing unit 13 controls the display device 23 are executed.
  • a memory 32 is provided for storing the program to be changed.
  • these programs cause the computer to execute the procedures and methods of processing performed by the image acquisition unit 11, the elevation angle detection unit 12, the processing unit 13, the position detection unit 14, and the operation information acquisition unit 15.
  • the memory 32 is, for example, non-volatile or RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), or the like. Volatile semiconductor memories and magnetic disks, flexible disks, optical disks, compact disks, mini disks, DVDs (Digital Versatile Discs), and the like are applicable.
  • each function of the image acquisition unit 11, the elevation angle detection unit 12, the processing unit 13, the position detection unit 14, and the operation information acquisition unit 15 is any one of hardware and software.
  • This is a realized configuration.
  • the present invention is not limited to these configurations, and part of the image acquisition unit 11, the elevation angle detection unit 12, the processing unit 13, the position detection unit 14, and the operation information acquisition unit 15 is realized by dedicated hardware.
  • a configuration in which a part is realized by software or the like may be used.
  • the function of the processing unit 13 is realized by a processing circuit 31 as dedicated hardware, and the processing circuit 31 as a processor reads and executes a program stored in the memory 32 for other functions. Can be realized.
  • the processing circuit 31 can realize the aforementioned functions by hardware, software, or the like, or a combination thereof.
  • the map information storage unit 16 illustrated in FIG. 2 is configured by the memory 32, but it may be configured by one memory 32 or a plurality of memories 32.
  • FIG. 4 is a flowchart illustrating a processing procedure regarding display control processing in the information processing apparatus 10 according to the second embodiment of this invention.
  • Each step of the flowchart shown in FIG. 4 is executed by the image acquisition unit 11, the elevation angle detection unit 12, the processing unit 13, the position detection unit 14, and the operation information acquisition unit 15 that constitute the information processing apparatus 10.
  • the process of the flowchart shown in FIG. 4 is started when the information processing apparatus 10 is turned on or reaches a predetermined display form confirmation cycle, and the process proceeds to step a1.
  • the display form confirmation period is a period for confirming whether or not the display form should be changed.
  • step a1 the processing unit 13 determines whether a display form is selected by the input device 22 based on the operation information given from the operation information acquisition unit 15. If it is determined that the display form is selected, the process proceeds to step a2. If it is determined that the display form is not selected, the process returns to step a1 and waits until the display form is selected.
  • a two-dimensional display for displaying features in a two-dimensional manner
  • a three-dimensional display for displaying features in a three-dimensional manner.
  • step a2 the position detection unit 14 detects the current position of the moving object on which the information processing apparatus 10 is mounted. In the present embodiment, the position detection unit 14 detects the position of the information processing apparatus 10 as the current position of the moving object.
  • step a ⁇ b> 3 the image acquisition unit 11 acquires from the camera 21 an image outside the moving body captured by the camera 21, specifically an image outside the vehicle.
  • the camera 21 captures an image outside the vehicle from the current position of the moving body.
  • the camera 21 captures a forward image assuming that the navigation target by the information providing apparatus 20 is only forward in the traveling direction of the moving body.
  • step a4 the elevation angle detector 12 detects the elevation angle from the moving body of the feature included in the outside vehicle image, specifically, the elevation angle from the vehicle, based on the outside image acquired in step a3.
  • step a4 ends, the process proceeds to step a5.
  • step a5 the processing unit 13 determines whether or not the two-dimensional display has been selected based on the operation information given from the operation information acquisition unit 15. In other words, in step a5, the processing unit 13 determines whether the display form determined to have been selected in step a1 is a two-dimensional display or a three-dimensional display.
  • the processing is divided depending on whether the selected display form is 2D display or 3D display. If it is determined that the two-dimensional display is selected, the process proceeds to step a6. If it is determined that the two-dimensional display is not selected, it is determined that the three-dimensional display is selected, and the process proceeds to step a7.
  • step a6 the processing unit 13 performs a two-dimensional display process for performing a two-dimensional display. Details of the two-dimensional display process will be described later.
  • step a8 the process proceeds to step a8.
  • step a7 the processing unit 13 performs a three-dimensional display process for performing a three-dimensional display. Details of the three-dimensional display process will be described later.
  • step a8 the process proceeds to step a8.
  • step a8 the processing unit 13 instructs the display device 23 to display a navigation screen corresponding to the display information obtained by the display processing in step a6 or step a7 on the display screen of the display device 23.
  • step a8 ends, the process proceeds to step a9.
  • step a9 the processing unit 13 determines whether or not to end the display of the navigation screen based on the operation information given from the operation information acquisition unit 15.
  • the processing unit 13 determines whether or not to end the display of the navigation screen based on the operation information given from the operation information acquisition unit 15.
  • step a1 If it is determined not to end the display of the navigation screen, the process returns to step a1, and the process starting from the process of confirming whether or not the display form is selected in step a1 is repeated. When it is determined that the display of the navigation screen is finished, all processing procedures are finished.
  • FIG. 5 and 6 are diagrams for explaining the elevation angle ⁇ a of the feature from the moving body.
  • FIG. 6 shows a case where the road inclination angle ⁇ is smaller than 0 ° ( ⁇ ⁇ 0 °).
  • the road inclination angle ⁇ refers to the road inclination angle with respect to the horizontal plane.
  • the angle in the counterclockwise direction from the horizontal plane is defined as the positive direction of the inclination angle ⁇
  • the angle in the clockwise direction from the horizontal plane is defined as the negative direction of the inclination angle ⁇ .
  • the road inclination angle ⁇ corresponds to inclination information indicating the inclination of the road.
  • the elevation angle ⁇ a from the moving object of the feature is obtained when the target feature 40a (hereinafter sometimes referred to as “target feature”) is viewed from the moving object.
  • the predetermined point of the moving body is a point S0 where the camera 21 shown in FIG. 2 is installed (hereinafter also referred to as “the installation point of the camera 21”) S0. Therefore, the elevation angle ⁇ a of the feature from the moving body is the elevation angle of the feature from the installation point S0 of the camera 21.
  • the symbol “L” is the height from the reference position of the moving body.
  • the symbol “La” is the height of the target feature 40a from the reference position.
  • the symbol “Da” is the distance between the moving object and the target feature 40a, specifically, the distance between the installation point S0 of the camera 21 of the moving object and the apex of the target feature 40a.
  • FIG. 7 is a diagram for explaining how to obtain the elevation angle ⁇ a from the moving object of the target feature.
  • the elevation angle ⁇ a of the target feature from the moving body can be obtained, for example, from an image outside the moving body captured by the camera 21 (hereinafter sometimes referred to as “captured image”).
  • the processing unit 13 applies a grid-like angle of view to the captured image.
  • the processing unit 13 obtains the elevation angle ⁇ a of the target feature from the moving body from the fitted angle of view.
  • the elevation angle ⁇ a from the moving body is 30 ° in 6 squares.
  • the elevation angle ⁇ a from the moving body is 1.9 °, which is 9.5 °.
  • the elevation angle ⁇ a from the moving body is 18.5 ° for 3.7 squares.
  • FIG. 8 is a diagram for explaining an example of how to obtain the height information of the moving body and the inclination information of the road.
  • the processing unit 13 uses the elevation angle ⁇ a of the feature detected in step a4, the height information of the moving object, And obtain road slope information.
  • the height information of the moving body and the road inclination information are the elevation angle of the plurality of features detected by the elevation angle detection unit 12, the height from the reference position of the plurality of features, and the moving body. And the distance to each feature.
  • FIG. 8 shows, as an example, a case where a plurality of features that are target features are two features. In the following description, the two features may be referred to as “first feature 41” and “second feature 42”.
  • the processing unit 13 includes the elevation angles ⁇ 1 and ⁇ 2 of the features 41 and 42 detected by the elevation angle detection unit 12, the heights L1 and L2 from the reference positions of the features 41 and 42, the moving body and the features 41 and 42. Based on the distances D1 and D2, the height information of the moving body and the road inclination information are obtained.
  • the height L from the reference position of the camera 21 mounted at the installation point S0 of the moving body is obtained as the height information of the moving body.
  • the inclination angle ⁇ of the road where the moving body is located is obtained.
  • the distances D1 and D2 between the moving object and each of the features 41 and 42 are the position information of the feature included in the feature information acquired from the map information storage unit 16 and the current position of the moving object given from the position detection unit 14. It can be obtained from information. Specifically, distances D1 and D2 between the moving body and each of the features 41 and 42 are distances D1 and D2 between the current position of the moving body and each of the features 41 and 42, respectively.
  • the height information indicating the heights L1 and L2 of the features 41 and 42 can be acquired from the feature information acquired from the map information storage unit 16.
  • the elevation angles ⁇ 1 and ⁇ 2 from the moving bodies of the local features 41 and 42 are detected by the elevation angle detection unit 12 in step a4 of FIG. 4 described above.
  • the elevation angles ⁇ 1 and ⁇ 2 of the features 41 and 42, the heights L1 and L2 from the reference position of the features 41 and 42, the distances D1 and D2 between the moving object and the features 41 and 42, and the height of the moving object are established between the height L from the reference position of the camera 21 corresponding to and the road inclination angle ⁇ corresponding to the inclination of the moving body.
  • the processing unit 13 obtains the road inclination angle ⁇ and the height L from the reference position of the camera 21 from the two relational expressions (1) and (2) described above.
  • the height from the reference position of the road and the inclination angle of the camera 21 can be obtained from the above-described two relational expressions (1) and (2).
  • the tilt angle of the camera 21 refers to the tilt angle of the camera 21 with respect to the horizontal plane.
  • the image acquisition unit 11 acquires an image outside the moving body that is captured by the camera 21 mounted on the moving body. Based on the acquired image, the elevation angle detection unit 12 detects the elevation angle of the feature from the moving body for the plurality of features included in the image. Based on the elevation angle of the detected multiple features, the height from the reference position of the multiple features, and the distance between the moving object and each feature, the height information of the moving object and the road on which the moving object is located Is obtained by the processing unit 13. Thus, accurate height information of the moving body can be obtained by a relatively simple process.
  • position information indicating the position of the moving body that is moving can be obtained more accurately.
  • the position information indicating the position of the moving moving body when the information providing apparatus 20 including the information processing apparatus 10 is used as a navigation apparatus, a display closer to reality can be performed.
  • FIG. 9 is a diagram for explaining another example of how to obtain the moving body height information and road inclination information.
  • the height information of the moving body and the inclination information of the road are the elevation angle of the feature at a plurality of points detected by the elevation angle detection unit 12, the height from the reference position of the feature, and the moving body and the feature at each point. May be obtained based on the distance between the FIG. 9 shows, as an example, a case where there are two points of the moving body from which the elevation angle is obtained.
  • the two points of the moving body whose elevation angle is required are indicated by “first point S1” and “second point S2” using the installation points S1 and S2 of the camera 21 at the point. There is.
  • the processing unit 13 includes the elevation angles ⁇ 3 and ⁇ 4 of the feature 40a at the points S1 and S2, the height La from the reference position of the feature 40a, and the moving object and the ground at the points S1 and S2. Based on the distances D3 and D4 with the object 40a, the height information of the moving body and the inclination information of the road on which the moving body is located are obtained. In the present embodiment, heights L3 and L4 from the reference position of the camera 21 mounted on the moving body at each point S1 and S2 are obtained as the height information of the moving body. Further, as the inclination information of the road on which the moving body is located, the inclination angle ⁇ of the road on which the moving body is located is obtained.
  • the distances D3 and D4 between the moving body and the feature 40a at the points S1 and S2 are the position information of the feature included in the feature information acquired from the map information storage unit 16 and the movement given from the position detection unit 14. It can be obtained from the current position information of the body.
  • the height information representing the height La of the feature 40a can be acquired from the feature information acquired from the map information storage unit 16.
  • the elevation angles ⁇ 3 and ⁇ 4 from the moving body of the feature 40a at each of the points S1 and S2 are detected by the elevation angle detection unit 12 in step a4 of FIG. 4 described above.
  • D3 ⁇ tan ( ⁇ 3- ⁇ ) La ⁇ L3 (3)
  • the processing unit 13 determines the road inclination angle ⁇ and the height L3 from the reference position of the camera 21 from the three relational expressions (3), (4), and (5) described above. , L4, and similarly, the height from the reference position of the road and the inclination angle of the camera 21 can be obtained from the above-described three relational expressions (3), (4), (5). .
  • an image outside the moving body captured by the camera 21 mounted on the moving body is acquired by the image acquisition unit 11.
  • the elevation angle detection unit 12 Based on the acquired image, the elevation angle detection unit 12 detects the elevation angle of the feature from the moving body at a plurality of points with respect to the feature included in the image. Based on the elevation angle of the feature at the detected points, the height from the reference position of the feature, and the distance between the moving object and the feature at each point, the height information of the moving object and the moving object The inclination information of the road on which it is located is obtained by the processing unit 13.
  • accurate height information of the moving body can be obtained by a relatively simple process.
  • the road inclination angle ⁇ is obtained using the relational expressions (1), (2) or the relational expressions (3), (4), (5).
  • the height may be obtained by differentiating the height from the reference position of the road with respect to time.
  • the tilt angle of the camera 21 corresponding to the tilt of the moving body may also be obtained by differentiating the height L from the reference position of the camera 21 with respect to time.
  • FIG. 10 and FIG. 11 are diagrams showing an example of the feature image in the two-dimensional display.
  • the processing unit 13 changes the display of the feature in the two-dimensional display using the height information of the moving body obtained as described above.
  • the processing unit 13 uses the obtained height information of the moving body to convert a feature lower than the moving body into a feature having the same height as the moving body and a feature higher than the moving body.
  • Display information for two-dimensional display is generated so as to display in different display forms.
  • the height La of a feature to be displayed (hereinafter sometimes referred to as “display target feature”) is equal to or higher than the height L of the moving object (La ⁇ L
  • the feature is indicated by a solid line.
  • the display form is different from the normal case shown in FIG.
  • FIG. 12 is a diagram showing another example of the feature image in the two-dimensional display.
  • the moving body is moving, for example, when the height L of the moving body is sufficiently higher than the height La of the feature (La> L), as shown in FIG. 12A, for example, a normal display indicated by a solid line Is done.
  • a solid line Is As the height L of the moving object approaches the height La of the feature, for example, as shown in FIG. I will do it.
  • the display may be changed to a dotted line as shown in FIG.
  • the moving body when the moving body is moving, for example, when the height L of the moving body is sufficiently lower than the height La of the feature, display indicated by a dotted line is performed, and the height L of the moving body is the height of the feature. As the height of La is approached, the display of features is gradually darkened, and normal display is performed when the height L of the moving object becomes higher than the height La of the features. May be.
  • the above processing for changing the display form is performed on a plurality of display target features around the moving body.
  • the processing unit 13 uses the obtained height information of the moving body to replace features lower than the moving body with features and moving bodies having the same height as the moving body.
  • Display information for two-dimensional display is generated so as to display in a display form different from that of a high feature. As a result, it is possible to make the display easier to see, so that the convenience of the user can be improved.
  • FIG. 13 is a diagram illustrating an example of a feature image in a three-dimensional display.
  • the processing unit 13 changes the display of the feature in the three-dimensional display using the height information of the moving body obtained as described above.
  • the processing unit 13 uses the obtained height information of the moving body to convert a feature lower than the moving body into a feature having the same height as the moving body and a feature higher than the moving body.
  • Display information for three-dimensional display is generated so as to display in different display forms.
  • FIG. 14 is a diagram showing another example of the feature image in the three-dimensional display.
  • the processing unit 13 replaces the display shown in FIG. As shown in b), only the visible portion 90 from the moving body may be displayed.
  • the height L of the moving body is lower than the height Lb of the feature, as shown in FIG. 13 (b)
  • the feature is displayed in a translucent or dotted line. May be.
  • FIG. 15 is a diagram showing still another example of the feature image in the three-dimensional display.
  • the processing unit 13 may change the image of the feature as follows. For example, as illustrated in FIG. 15A, the processing unit 13 displays only the visible portion 90 when the height L1 of the moving body is sufficiently lower than the height Lb of the feature. As shown in FIG. 15B, the processing unit 13 gradually reduces the visible portion 90 that is the display portion of the feature as the height L2 of the moving body approaches the height Lb of the feature. To go. As shown in FIG. 15C, the processing unit 13 displays the feature as a semi-transparent or dotted line when the height L3 of the moving body is higher than the height Lb of the feature.
  • the feature is displayed in a translucent or dotted line, and the height of the moving body is displayed.
  • the visible portion 90 which is the display portion of the feature, may be displayed gradually gradually.
  • FIGS. 16 to 18 are diagrams showing still other examples of feature images in the three-dimensional display.
  • FIG. 17 shows a case where the road inclination angle ⁇ is smaller than 0 ° ( ⁇ ⁇ 0 °).
  • FIG. 18 shows a case where the road inclination angle ⁇ is larger than 0 ° ( ⁇ > 0 °).
  • the processing unit 13 performs three-dimensional display taking into consideration that the field of view from the moving body changes depending on the road inclination angle ⁇ . Thereby, it is possible to perform display with a three-dimensional image closer to the actual display target feature group around the moving body.
  • the processing unit 13 is higher than the height L of the moving object among the features as shown in FIG. Only the visible portion 90 is displayed, and the invisible portion 91 having a height L or less of the moving body is displayed as translucent or dotted.
  • the visible portion refers to a portion that is visible from the moving body
  • the invisible portion refers to a portion that is not visible from the moving body.
  • FIG. 19 is a diagram showing still another example of the feature image in the three-dimensional display.
  • the processing unit 13 When the processing unit 13 generates display information for displaying the feature 44 whose height from the reference position is higher than that of the moving object, using the obtained height information of the moving object, Display information is generated so that the visible portion 44a visible from the moving body and the invisible portion 44b not visible from the moving body are displayed in different display forms.
  • the processing unit 13 moves the moving object on the expressway or the like for the feature 44 Only the visible portion 44a that can be seen through the installation object 51 on the traveling road 50 is displayed with a solid line.
  • the processing unit 13 displays, for example, a translucent or dotted line for the invisible portion 44b hidden by the installation object 51 on the traveling road.
  • the processing unit 13 displays the semi-transparent or dotted line for the feature 43 that is entirely hidden by the installation object 51, similarly to the invisible portion 44b.
  • FIG. 20 is a diagram showing still another example of the feature image in the three-dimensional display.
  • the processing unit 13 may display the feature 44 as shown in FIG.
  • the processing unit 13 indicates the visible portion 44 a that can be seen from the moving body through the installation object 51 on the traveling road 50 on a highway or the like by a solid line as in the case shown in FIG. 19 described above. Display.
  • the processing unit 13 includes, among the invisible parts 44b, a shielding part 45a whose field of view from the moving body is blocked by the installation object 51 installed on the road on which the moving body moves, and a remaining part 45b excluding the shielding part 45a. Display information is generated so as to display in different display forms.
  • the remaining portion 45b excluding the shielding portion 45a is, for example, a portion below the height of the moving body, and is a portion that is blocked from view by the relationship between the height of the moving body and the height of the feature, and is not visible from the moving body. .
  • the processing unit 13 performs a display indicated by a dotted line, for example, for the shielding part 45a hidden by the installation object 51 on the traveling road 50.
  • the processing unit 13 displays, for example, a semi-transparent display in a display form different from the shielding portion for the portion 45b below the height of the moving body, which is the remaining portion excluding the shielding portion 45a in the invisible portion 44b. Do.
  • the processing unit 13 uses the obtained height information of the moving body to replace features lower than the moving body with features and moving bodies having the same height as the moving body.
  • Display information for three-dimensional display is generated so as to display in a display form different from that of a high feature. As a result, it is possible to make the display easier to see, so that the convenience of the user can be improved.
  • the processing unit 13 when generating the display information for displaying the feature 44 whose height from the reference position is higher than that of the moving object, the processing unit 13 visually recognizes the moving object among the features 44. Display information is generated so that the visible part 44a that can be seen and the invisible part 44b that cannot be seen from the moving body are displayed in different display forms. As a result, it is possible to make the display easier to see, so that the convenience for the user can be further improved.
  • the processing unit 13 includes a shielding part 45 a and a shielding part 45 a in which the field of view from the moving body is blocked by the installation object 51 installed on the road on which the moving body moves.
  • Display information is generated so as to display the remaining portion 45b except for in a different display form. As a result, it is possible to make the display more easily viewable, and the convenience for the user can be further improved.
  • the processing unit 13 may be configured to determine whether the road on which the moving body is located is an expressway or a general road based on the obtained height information of the moving body. As a result, more appropriate display can be performed, so that convenience for the user can be improved.
  • the information processing apparatus 10 of the present embodiment described above can be applied not only to a navigation apparatus that can be mounted on a vehicle, but also to a system in which communication terminal apparatuses, server apparatuses, and the like are appropriately combined.
  • the communication terminal device is, for example, a PND (Portable Navigation Device) and a portable communication device having a function of communicating with a server device.
  • the mobile communication device is, for example, a mobile phone, a smartphone, and a tablet terminal device.
  • each component of the information processing device 10 according to the present embodiment is distributed to each device that constructs the system. Arranged.
  • the elevation angle detection unit 12 and the map information storage unit 16 provided in the information processing device 10 may be arranged in a server device or a communication terminal device such as a portable communication device.
  • An information processing apparatus when the above-described elevation angle detection unit 12 and map information storage unit 16 are arranged in a server device has a configuration shown in the following third embodiment.
  • An information processing apparatus when the above-described elevation angle detection unit 12 is arranged in the mobile communication device and the map information storage unit 16 is arranged in the server device has a configuration shown in the following fourth embodiment.
  • FIG. 21 is a block diagram showing the configuration of the information processing apparatus according to the third embodiment of the present invention. Since the information processing apparatus according to the present embodiment is similar in configuration to the second embodiment described above, the same reference numerals are assigned to the same configurations, and common descriptions are omitted.
  • the information processing apparatus includes a server apparatus 70 and a navigation apparatus 20A that is an information providing apparatus.
  • the server device 70 includes an elevation angle detection unit 12, a map information storage unit 16, a server side processing unit 71, and a server side communication unit 72.
  • the server-side processing unit 71 includes, for example, a CPU and a memory such as a writable RAM.
  • the memory stores a control program.
  • the CPU controls the elevation angle detection unit 12 and the server side communication unit 72 in an integrated manner by executing a control program stored in the memory.
  • the server side communication unit 72 communicates with the navigation device 20A.
  • the server side communication unit 72 is configured to be able to communicate with the navigation device 20A via a communication network such as the Internet, for example.
  • Navigation device 20A is mounted on a vehicle.
  • the navigation device 20A includes a navigation device body 10A, an input device 22, and a display device 23.
  • the navigation device main body 10A includes an image acquisition unit 11, a position detection unit 14, an operation information acquisition unit 15, a navigation side processing unit 61, and a navigation side communication unit 62.
  • the navigation side processing unit 61 includes, for example, a CPU and a memory such as a writable RAM.
  • the memory stores a control program.
  • the CPU controls the image acquisition unit 11, the position detection unit 14, the operation information acquisition unit 15, and the navigation side communication unit 62 in an integrated manner by executing a control program stored in the memory.
  • the elevation angle detection unit 12 and the map information storage unit 16 are arranged in the server device 70. Even when arranged in this way, the same effects as those of the first and second embodiments described above can be obtained.
  • FIG. 22 is a block diagram showing the configuration of the information processing apparatus according to the fourth embodiment of the present invention. Since the information processing apparatus according to the present embodiment is similar in configuration to the second and third embodiments described above, the same reference numerals are given to the same configurations, and common descriptions are omitted. .
  • the information processing apparatus includes a server device 70A, a navigation device 20A, and a mobile communication device 80.
  • the server device 70A includes a map information storage unit 16, a server side processing unit 71, and a server side communication unit 72.
  • the mobile communication device 80 is realized by, for example, a mobile phone, a smartphone, or a tablet terminal device.
  • the mobile communication device 80 includes a mobile side processing unit 81, a mobile side communication unit 82, and an elevation angle detection unit 12.
  • the portable processing unit 81 is constituted by, for example, a CPU and a memory such as a writable RAM.
  • the memory stores a control program.
  • the CPU controls the elevation angle detection unit 12 and the portable communication unit 82 in an integrated manner by executing a control program stored in the memory.
  • the mobile-side communication unit 82 communicates with the server device 70A.
  • the portable communication unit 82 is configured to be communicable via a communication network such as the Internet when communicating with the server device 70A.
  • the mobile communication unit 82 communicates with the navigation device 20A.
  • the portable side communication unit 82 is configured to be able to communicate with the navigation device 20A by radio such as Bluetooth (registered trademark) that is a short-range wireless communication standard or a wireless LAN.
  • the mobile communication unit 82 may be configured to be communicable with the navigation device 20A through a wired line such as a USB cable or a LAN cable.
  • the map information storage unit 16 is disposed in the server device 70, and the elevation angle detection unit 12 is disposed in the mobile communication device 80. Even when configured in this manner, the same effects as those of the first and second embodiments described above can be obtained.
  • 1,10 Information processing device 10A navigation device body, 11 Image acquisition unit, 12 Elevation angle detection unit, 13 Processing unit, 14 Position detection unit, 15 Operation information acquisition unit, 16 Map information storage unit, 20, 20A Navigation device, 21 Camera, 22 input device, 23 display device, 31 processing circuit, 32 memory, 33 I / O interface, 43, 44 feature, 44a, 90 visible part, 44b, 91 invisible part, 45a shielding part, 50 traveling road, 51 installation 61, navigation side processing unit, 62 navigation side communication unit, 70, 70A server device, 71 server side processing unit, 72 server side communication unit, 80 mobile communication device, 81 mobile side processing unit, 82 mobile side communication unit.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本発明の情報処理装置(1)は、画像取得部(11)と、仰角検出部(12)と、処理部(13)とを備える。画像取得部(11)は、移動体に搭載される撮像部によって撮像される移動体の外部の画像を取得する。たとえば、仰角検出部(12)は、取得された画像に基づいて、画像に含まれる複数の地物について、地物の移動体からの仰角を検出する。処理部(13)は、検出された複数の地物の仰角と、複数の地物の基準位置からの高さと、移動体と各地物との距離とに基づいて、移動体の高さ情報および傾き情報を求める。

Description

情報処理装置および情報処理方法
 本発明は、取得した情報を処理して使用者に提供する情報処理装置および情報処理方法に関する。
 ナビゲーション装置などの情報処理装置は、車両などの移動体に搭載され、取得した情報を処理して、目的地までの経路を示す地図などの情報を使用者に提供する。地図などの情報を提供するときには、移動体の高さを表す高さ情報などが必要になる場合がある。
 移動体の高さ情報を求める技術は、たとえば特許文献1に開示されている。特許文献1に開示される確度判定装置は、予め、移動体の現在位置として地点情報、たとえばX座標、Y座標およびZ座標)を保持する。確度判定装置は、前述の地点情報と、移動体の進行方向に適した複数の地点情報とから、基準となる判定基準面を作成する。確度判定装置は、作成した判定基準面から移動体が移動した後の平面(以下「判定面」という場合がある)を作成する。確度判定装置は、作成した判定基準面と判定面とからZ方向の距離をズレ値と判定し、高さ情報である高度データを補正する。
特開2005-265690号公報
 前述の特許文献1に開示される技術では、判定基準面と判定面とを作成し、作成した判定基準面と判定面とからZ方向の距離をズレ値と判定して、高度データを補正するので、移動体の正確な高さ情報を求めるためには、繁雑な処理が必要である。
 本発明の目的は、比較的簡単な処理で移動体の正確な高さ情報を求めることができる情報処理装置および情報処理方法を提供することである。
 本発明の情報処理装置は、移動体に搭載される撮像部によって撮像される移動体の外部の画像を取得する画像取得部と、画像取得部によって取得される画像に基づいて、画像に含まれる複数の地物について、地物の移動体からの仰角を検出する仰角検出部と、仰角検出部によって検出される複数の地物の仰角と、複数の地物の予め定める基準位置からの高さと、移動体と各地物との距離とに基づいて、移動体の基準位置からの高さを表す高さ情報、および移動体が位置する道路の傾きを表す傾き情報を求める処理部とを備えることを特徴とする。
 また本発明の情報処理装置は、移動体に搭載される撮像部によって撮像される移動体の外部の画像を取得する画像取得部と、画像取得部によって取得される画像に基づいて、画像に含まれる地物について、複数の地点において地物の移動体からの仰角を検出する仰角検出部と、仰角検出部によって検出される複数の地点における地物の仰角と、地物の予め定める基準位置からの高さと、各地点における移動体と地物との距離とに基づいて、移動体の基準位置からの高さを表す高さ情報、および移動体が位置する道路の傾きを表す傾き情報を求める処理部とを備えることを特徴とする。
 本発明の情報処理方法は、移動体に搭載される撮像部によって撮像される移動体の外部の画像を取得し、取得した画像に基づいて、画像に含まれる複数の地物について、地物の移動体からの仰角を検出し、検出した複数の地物の仰角と、複数の地物の予め定める基準位置からの高さと、移動体と各地物との距離とに基づいて、移動体の基準位置からの高さを表す高さ情報、および移動体が位置する道路の傾きを表す傾き情報を求めることを特徴とする。
 また本発明の情報処理方法は、移動体に搭載される撮像部によって撮像される移動体の外部の画像を取得し、取得した画像に基づいて、画像に含まれる地物について、複数の地点において地物の移動体からの仰角を検出し、検出した複数の地点における地物の仰角と、地物の予め定める基準位置からの高さと、各地点における移動体と地物との距離とに基づいて、移動体の基準位置からの高さを表す高さ情報、および移動体が位置する道路の傾きを表す傾き情報を求めることを特徴とする。
 本発明の情報処理装置によれば、移動体に搭載される撮像部によって撮像される移動体の外部の画像が、画像取得部によって取得される。取得された画像に基づいて、画像に含まれる複数の地物について、地物の移動体からの仰角が、仰角検出部によって検出される。検出された複数の地物の仰角と、複数の地物の基準位置からの高さと、移動体と各地物との距離とに基づいて、移動体の高さ情報、および移動体が位置する道路の傾き情報が、処理部によって求められる。これによって、比較的簡単な処理で移動体の正確な高さ情報を求めることができる。
 また本発明の情報処理装置によれば、移動体に搭載される撮像部によって撮像される移動体の外部の画像が、画像取得部によって取得される。取得された画像に基づいて、画像に含まれる地物について、複数の地点において地物の移動体からの仰角が、仰角検出部によって検出される。検出された複数の地点における地物の仰角と、地物の基準位置からの高さと、各地点における移動体と地物との距離とに基づいて、移動体の高さ情報、および移動体が位置する道路の傾き情報が、処理部によって求められる。これによって、比較的簡単な処理で移動体の正確な高さ情報を求めることができる。
 また本発明の情報処理方法によれば、移動体に搭載される撮像部によって撮像される移動体の外部の画像が取得され、取得された画像に基づいて、画像に含まれる複数の地物について、地物の移動体からの仰角が検出される。検出された複数の地物の仰角と、複数の地物の基準位置からの高さと、移動体と各地物との距離とに基づいて、移動体の高さ情報、および移動体が位置する道路の傾き情報が求められる。これによって、比較的簡単な処理で移動体の正確な高さ情報を求めることができる。
 また本発明の情報処理方法によれば、移動体に搭載される撮像部によって撮像される移動体の外部の画像が取得され、取得された画像に基づいて、画像に含まれる地物について、複数の地点において地物の移動体からの仰角が検出される。検出された複数の地点における地物の仰角と、地物の基準位置からの高さと、各地点における移動体と地物との距離とに基づいて、移動体の高さ情報、および移動体が位置する道路の傾き情報が求められる。これによって、比較的簡単な処理で移動体の正確な高さ情報を求めることができる。
 本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
本発明の第1の実施の形態である情報処理装置1の構成を示すブロック図である。 本発明の第2の実施の形態である情報処理装置10の構成を示すブロック図である。 本発明の第2の実施の形態における情報処理装置10のハードウェア構成を示すブロック図である。 本発明の第2の実施の形態の情報処理装置10における表示制御処理に関する処理手順を示すフローチャートである。 地物の移動体からの仰角θaを説明するための図である。 地物の移動体からの仰角θaを説明するための図である。 対象地物の移動体からの仰角θaの求め方を説明するための図である。 移動体の高さ情報および道路の傾き情報の求め方の一例を説明するための図である。 移動体の高さ情報および道路の傾き情報の求め方の他の例を説明するための図である。 2次元表示における地物の画像の一例を示す図である。 2次元表示における地物の画像の一例を示す図である。 2次元表示における地物の画像の他の例を示す図である。 3次元表示における地物の画像の一例を示す図である。 3次元表示における地物の画像の他の例を示す図である。 3次元表示における地物の画像のさらに他の例を示す図である。 3次元表示における地物の画像のさらに他の例を示す図である。 3次元表示における地物の画像のさらに他の例を示す図である。 3次元表示における地物の画像のさらに他の例を示す図である。 3次元表示における地物の画像のさらに他の例を示す図である。 3次元表示における地物の画像のさらに他の例を示す図である。 本発明の第3の実施の形態における情報処理装置の構成を示すブロック図である。 本発明の第4の実施の形態における情報処理装置の構成を示すブロック図である。
 <第1の実施の形態>
 図1は、本発明の第1の実施の形態である情報処理装置1の構成を示すブロック図である。情報処理装置1は、画像取得部11、仰角検出部12および処理部13を備えて構成される。情報処理装置1は、たとえば、車両などの移動体に搭載されて使用される。情報処理装置1は、たとえば、ナビゲーション装置に備えられて、移動体に搭載される。本発明の他の実施の形態である情報処理方法は、本実施の形態の情報処理装置1によって実行される。
 画像取得部11は、移動体に搭載される撮像部によって撮像される移動体の外部の画像を取得する。撮像部は、たとえばカメラによって実現される。
 仰角検出部12は、画像取得部11によって取得される画像に基づいて、画像に含まれる複数の地物について、地物の移動体からの仰角を検出する。
 処理部13は、たとえば中央演算処理装置(Central Processing Unit;略称:CPU)と、書き込み可能なRAM(Random Access Memory)などのメモリとによって構成される。メモリは、制御プログラムを記憶する。CPUが、メモリに記憶されている制御プログラムを実行することによって、情報処理装置1を構成する画像取得部11および仰角検出部12の機能が実現される。
 処理部13は、仰角検出部12によって検出される複数の地物の仰角と、複数の地物の予め定める基準位置からの高さと、移動体と各地物との距離とに基づいて、移動体の高さ情報、および移動体が位置する道路の傾き情報を求める。高さ情報は、移動体の基準位置からの高さを表す。傾き情報は、移動体が位置する道路の傾きを表す。
 以上のように本実施の形態によれば、移動体に搭載される撮像部によって撮像される移動体の外部の画像が、画像取得部11によって取得される。取得された画像に基づいて、画像に含まれる複数の地物について、地物の移動体からの仰角が、仰角検出部12によって検出される。検出された複数の地物の仰角と、複数の地物の基準位置からの高さと、移動体と各地物との距離とに基づいて、移動体の高さ情報、および移動体が位置する道路の傾き情報が、処理部13によって求められる。これによって、比較的簡単な処理で移動体の正確な高さ情報を得ることができる。
 このようにして得られる移動体の正確な高さ情報を用いることによって、移動中の移動体の位置を表す位置情報を、より正確に求めることができる。この移動中の移動体の位置を表す位置情報を用いることによって、情報処理装置1をナビゲーション装置として使用した場合に、より現実に近い表示を行うことができる。
 以上のように本実施の形態では、移動体の高さ情報および道路の傾き情報は、複数の地物の仰角と、複数の地物の基準位置からの高さと、移動体と各地物との距離とに基づいて求められる。これに限定されず、移動体の高さ情報および道路の傾き情報は、複数の地点における地物の仰角と、地物の基準位置からの高さと、各地点における移動体と地物との距離とに基づいて求められてもよい。これによって、本実施の形態と同様の効果を得ることができる。具体的には、比較的簡単な処理で移動体の正確な高さ情報を得ることができる。
 <第2の実施の形態>
 図2は、本発明の第2の実施の形態である情報処理装置10の構成を示すブロック図である。情報処理装置10は、入力装置22および表示装置23とともに、情報提供装置20を構成する。情報提供装置20は、情報処理装置10、入力装置22および表示装置23を備えて構成される。情報提供装置20は、移動体に搭載される。本実施の形態では、移動体は車両であり、情報提供装置20は車両に搭載される。また本実施の形態では、情報提供装置20は、経路を案内するナビゲーション機能を有するナビゲーション装置によって実現される。
 本実施の形態の情報処理装置10は、前述の図1に示す第1の実施の形態の情報処理装置1と同一の構成を含んでいるので、同一の構成については同一の参照符号を付して、共通する説明を省略する。本発明の他の実施の形態である情報処理方法は、本実施の形態の情報処理装置10によって実行される。
 情報処理装置10は、画像取得部11、仰角検出部12、処理部13、位置検出部14、操作情報取得部15および地図情報記憶部16を備える。処理部13は、表示装置23に接続される。操作情報取得部15は、入力装置22に接続される。画像取得部11は、カメラ21に接続される。カメラ21は、撮像部に相当する。
 カメラ21は、情報処理装置10を含む情報提供装置20とともに、移動体に搭載される。カメラ21は、移動体から可視範囲の地物を検出するために設けられる。カメラ21は、移動体の進行方向の前方に設置され、移動体の進行方向の前方における移動体の外部の画像を撮像する。
 画像取得部11は、カメラ21から、カメラ21によって撮像される移動体の外部の画像を取得する。本実施の形態では、移動体は車両であり、カメラ21は、車両の外部の画像(以下「車外画像」という場合がある)を撮像し、画像取得部11は、カメラ21から車外画像を取得する。
 画像取得部11は、取得した車外画像を仰角検出部12に与える。仰角検出部12は、画像取得部11から与えられる車外画像に基づいて、車外画像に含まれる複数の地物について、地物の移動体からの仰角を検出する。仰角検出部12は、検出した地物の移動体からの仰角を処理部13に与える。
 地図情報記憶部16は、たとえば、ハードディスクドライブ(Hard Disk Drive;略称:HDD)装置、または半導体メモリなどの記憶装置によって実現される。地図情報記憶部16は、地図を表す地図情報を記憶する。本実施の形態では、地図情報記憶部16は、さらに、探索された経路に関する探索情報、および地物に関する地物情報を記憶する。地物情報は、地物の基準位置からの高さを表す高さ情報、および地物の位置を表す位置情報を含む。地物の位置情報は、たとえば、地物が存在する位置の座標、具体的には地物が存在する位置の経度を表すX座標および緯度を表すY座標を含む。
 位置検出部14は、情報処理装置10が搭載される移動体の現在位置を検出する。位置検出部14は、移動体の現在位置として、情報処理装置10の現在位置を検出する。位置検出部14は、たとえば以下のようにして、情報処理装置10の現在位置を検出する。
 位置検出部14は、処理部13を介して、地図情報記憶部16に記憶される地図情報を読み出す。位置検出部14は、不図示の全地球測位システム(Global Positioning System;略称:GPS)受信部で受信されるGPS衛星からの電波信号(以下「GPS信号」という場合がある)を取得する。位置検出部14は、読み出した地図情報と、取得したGPS信号とを用いて、情報処理装置10の現在位置を算出する。
 位置検出部14は、算出した情報処理装置10の現在位置を表す現在位置情報を生成する。位置検出部14は、生成した情報処理装置10の現在位置情報を、移動体の現在位置を表す現在位置情報として処理部13に与える。現在位置情報は、たとえば、移動体の現在位置の座標、具体的には移動体の現在位置の経度を表すX座標、および移動体の現在位置の緯度を表すY座標を含む。
 位置検出部14は、走行距離センサによって、移動体の現在位置を検出するように構成されてもよい。この場合、位置検出部14は、検出した移動体の現在位置を表す現在位置情報を生成し、生成した現在位置情報を処理部13に与える。
 また位置検出部14は、たとえば、通信によって、情報処理装置10の外部、具体的には情報提供装置20の外部から、移動体の現在位置情報を取得するように構成されてもよい。具体的には、位置検出部14は、情報提供装置20の外部のサーバ装置から、インターネットなどの通信網を介して、移動体の現在位置情報を取得するように構成されてもよい。この場合、位置検出部14は、取得した現在位置情報を処理部13に与える。
 入力装置22は、使用者によって操作される不図示の操作入力部を備える。操作入力部は、たとえば、操作スイッチおよび操作ボタンを含む。入力装置22は、使用者が、数字情報、文字情報および情報処理装置10への指示情報などの各種の情報を入力するときに用いられる。使用者によって操作入力部が操作されると、入力装置22は、使用者の入力操作に応じた操作情報を生成して、操作情報取得部15に与える。
 入力装置22の操作入力部は、操作スイッチおよび操作ボタンの代わりに、タッチパネル、または音声による操作入力が可能な音声入力装置によって構成されてもよい。
 入力装置22の操作入力部がタッチパネルで構成される場合、タッチパネルは、表示装置23の表示画面上に設置され、使用者のタッチ操作とタッチ位置とを検出する。タッチパネルは、検出したタッチ操作とタッチ位置とに応じた操作情報を生成して、操作情報取得部15に与える。
 入力装置22の操作入力部が音声入力装置で構成される場合、音声入力装置は、入力された音声を認識する。音声入力装置は、認識した音声に応じた操作情報を生成して、操作情報取得部15に与える。
 操作情報取得部15は、入力装置22から操作情報を取得する。操作情報は、操作の対象および内容を示す情報である。操作情報は、たとえば、操作の種別、操作の回数、操作の時間の長さ、操作の対象となる画像およびその画像の表示領域、表示情報量、表示位置、表示処理負荷、ならびに表示装置23の表示画面における操作の位置または領域などを示す情報の1つ以上を含む。
 処理部13は、たとえばCPUと、書き込み可能なRAMなどのメモリとによって構成される。メモリは、制御プログラムを記憶する。CPUが、メモリに記憶されている制御プログラムを実行することによって、情報処理装置10を構成する画像取得部11、仰角検出部12、位置検出部14および操作情報取得部15の各機能が実現される。
 処理部13は、情報処理装置10の全体を制御する。本実施の形態では、処理部13は、情報処理装置10を含む情報提供装置20の全体を制御する。
 処理部13は、画像取得部11、仰角検出部12、位置検出部14、操作情報取得部15および地図情報記憶部16から与えられる情報に基づいて、表示装置23を制御する。具体的には、処理部13は、以下のようにして表示装置23を制御する。
 処理部13は、位置検出部14から与えられる移動体の現在位置情報と、仰角検出部12から与えられる地物の移動体からの仰角と、地図情報記憶部16から得られる地物情報とから、複数の地物の仰角と、複数の地物の基準位置からの高さと、移動体と各地物との距離とを求める。処理部13は、求めた複数の地物の仰角と、複数の地物の基準位置からの高さと、移動体と各地物との距離とに基づいて、移動体の高さ情報、および移動体が位置する道路の傾き情報を求める。地物情報は、地物の高さ情報および位置情報を含む。高さ情報は、移動体または地物の予め定める基準位置からの高さを表す。傾き情報は、移動体が位置する道路の傾きを表す。
 処理部13は、求めた移動体の高さ情報および道路の傾き情報と、操作情報取得部15から与えられる操作情報とに応じて、地物を表示装置23に表示するための表示処理を行う。具体的には、処理部13は、表示処理として、移動体の高さ情報、道路の傾き情報および操作情報に応じた表示形態で地物を表示するように表示情報を生成し、生成した表示情報を、表示装置23で取扱い可能な映像信号に変換し、得られた映像信号とともに、映像信号が表す画像を表示する指示を表示装置23に与える処理を行う。
 表示装置23は、たとえば液晶ディスプレイによって実現される。表示装置23は、処理部13から与えられる指示に基づいて、処理部13から与えられる映像信号が表す画像を表示画面に表示する。これによって、表示情報に相当する画像が、表示装置23の表示画面に表示される。このようにして表示情報に相当する画像を表示装置23の表示画面に表示させることによって、情報提供装置20の使用者に各種の情報を提供することができる。
 処理部13は、本実施の形態では、現在位置から目的地までの経路を案内するカーナビゲーションとしての機能を有する。すなわち、処理部13は、不図示の車両情報取得部から与えられる車両情報、および位置検出部14から与えられる現在位置情報を用いて、地図表示を行わせるための処理、現在位置を表示させるための処理、経路探索処理、経路誘導処理、経路案内処理および施設検索処理を行う。
 図3は、本発明の第2の実施の形態における情報処理装置10のハードウェア構成を示すブロック図である。情報処理装置10は、図3に示すように、少なくとも処理回路31、メモリ32および入出力インタフェース33を含んで構成される。
 前述の図2に示すカメラ21、入力装置22および表示装置23は、入出力インタフェース33に接続される。図2では、入力装置22および表示装置23が、情報処理装置10に外付けされる構成としたが、入力装置22および表示装置23などのハードウェアが情報処理装置10の内部に配設される構成にしてもよい。
 情報処理装置10における画像取得部11、仰角検出部12、処理部13、位置検出部14および操作情報取得部15の各機能は、処理回路31によって実現される。すなわち、情報処理装置10は、画像取得部11が移動体の外部の画像を取得し、仰角検出部12が地物の移動体からの仰角を検出し、位置検出部14が現在位置を検出し、操作情報取得部15が操作情報を取得し、処理部13が表示装置23を制御するための処理回路31を備える。処理回路31は、メモリ32に記憶されるプログラムを実行するCPU(中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)ともいう)である。
 画像取得部11、仰角検出部12、処理部13、位置検出部14および操作情報取得部15の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせによって実現される。ソフトウェアおよびファームウェアはプログラムとして記述され、メモリ32に記憶される。
 処理回路31は、メモリ32に記憶されたプログラムを読み出して実行することによって、各部の機能を実現する。すなわち、情報処理装置10は、処理回路31によって実行されるときに、画像取得部11が移動体の外部の画像を取得するステップと、仰角検出部12が地物の移動体からの仰角を検出するステップと、位置検出部14が現在位置を取得するステップと、操作情報取得部15が操作情報を取得するステップと、処理部13が表示装置23を制御するステップとが結果的に実行されることになるプログラムを記憶するためのメモリ32を備える。
 また、これらのプログラムは、画像取得部11、仰角検出部12、処理部13、位置検出部14および操作情報取得部15が行う処理の手順および方法をコンピュータに実行させるものであるともいえる。
 ここで、メモリ32は、たとえば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、ならびに磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、およびDVD(Digital Versatile Disc)などが該当する。
 以上のように、本実施の形態では、画像取得部11、仰角検出部12、処理部13、位置検出部14および操作情報取得部15の各機能は、ハードウェアおよびソフトウェアなどのいずれか一方で実現される構成である。しかし、これらの構成に限られるものではなく、画像取得部11、仰角検出部12、処理部13、位置検出部14および操作情報取得部15の一部を専用のハードウェアで実現し、別の一部をソフトウェアなどで実現する構成であってもよい。たとえば、処理部13については専用のハードウェアとしての処理回路31でその機能を実現し、それ以外についてはプロセッサとしての処理回路31がメモリ32に記憶されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 以上のように、処理回路31は、ハードウェア、ソフトウェアなど、またはこれらの組み合わせによって、前述の各機能を実現することができる。また、図2に示す地図情報記憶部16は、メモリ32によって構成されるが、それは1つのメモリ32によって構成されてもよいし、複数のメモリ32によって構成されてもよい。
 図4は、本発明の第2の実施の形態の情報処理装置10における表示制御処理に関する処理手順を示すフローチャートである。図4に示すフローチャートの各ステップは、情報処理装置10を構成する画像取得部11、仰角検出部12、処理部13、位置検出部14および操作情報取得部15によって実行される。図4に示すフローチャートの処理は、情報処理装置10の電源が投入されるか、または予め定める表示形態確認周期に達すると開始され、ステップa1に移行する。表示形態確認周期は、表示形態を変更するべきか否かを確認する周期である。
 ステップa1において、処理部13は、操作情報取得部15から与えられる操作情報に基づいて、入力装置22によって表示形態が選択されたか否かを判断する。表示形態が選択されたと判断された場合は、ステップa2に移行し、表示形態が選択されていないと判断された場合は、ステップa1に戻り、表示形態が選択されるまで待機する。
 本実施の形態では、表示形態は、地物を平面的に表示する2次元表示と、地物を立体的に表示する3次元表示との2つである。
 ステップa2において、位置検出部14は、情報処理装置10が搭載される移動体の現在位置を検出する。本実施の形態では、位置検出部14は、移動体の現在位置として、情報処理装置10の位置を検出する。ステップa2の処理が終了すると、ステップa3に移行する。
 ステップa3において、画像取得部11は、カメラ21から、カメラ21によって撮像された移動体の外部の画像、具体的には車外画像を取得する。カメラ21は、移動体の現在位置からの車外画像を撮影する。本実施の形態では、カメラ21は、情報提供装置20によるナビゲーション対象を、移動体の進行方向の前方のみと仮定し、前方の画像を撮像する。ステップa3の処理が終了すると、ステップa4に移行する。
 ステップa4において、仰角検出部12は、ステップa3で取得された車外画像に基づいて、車外画像に含まれる地物の移動体からの仰角、具体的には車両からの仰角を検出する。ステップa4の処理が終了すると、ステップa5に移行する。
 ステップa5において、処理部13は、操作情報取得部15から与えられる操作情報に基づいて、2次元表示が選択されたか否かを判断する。換言すれば、ステップa5において、処理部13は、ステップa1で選択されたと判断された表示形態が、2次元表示および3次元表示のいずれであるのかを判断する。
 選択された表示形態が2次元表示か、3次元表示かで、処理が分かれる。2次元表示が選択されたと判断された場合は、ステップa6に移行し、2次元表示が選択されていないと判断された場合は、3次元表示が選択されたと判断し、ステップa7に移行する。
 ステップa6において、処理部13は、2次元表示を行うための2次元表示処理を行う。2次元表示処理の詳細については後述する。ステップa6の処理が終了すると、ステップa8に移行する。
 ステップa7において、処理部13は、3次元表示を行うための3次元表示処理を行う。3次元表示処理の詳細については後述する。ステップa7の処理が終了すると、ステップa8に移行する。
 ステップa8において、処理部13は、表示装置23に指示して、ステップa6またはステップa7の表示処理によって得られた表示情報に応じたナビゲーション画面を表示装置23の表示画面に表示させる。ステップa8の処理が終了すると、ステップa9に移行する。
 ステップa9において、処理部13は、操作情報取得部15から与えられる操作情報に基づいて、ナビゲーション画面の表示を終了するか否かを判断する。処理部13は、入力装置22によって、表示形態として、2次元表示および3次元表示以外のモードが選択された場合、たとえば通常の表示に戻すことを選択する操作などが行われた場合、ナビゲーション画面の表示を終了しないと判断する。
 ナビゲーション画面の表示を終了しないと判断された場合は、ステップa1に戻って、前述のステップa1の表示形態の選択の有無を確認する処理から始まる処理を繰返す。ナビゲーション画面の表示を終了すると判断された場合は、全ての処理手順を終了する。
 図5および図6は、地物の移動体からの仰角θaを説明するための図である。図5は、道路の傾斜角度αが0°の場合(α=0°)を示す。図6は、道路の傾斜角度αが0°よりも小さい場合(α<0°)を示す。ここで、道路の傾斜角度αとは、水平面に対する道路の傾斜角度をいう。水平面から反時計回りの方向の角度を傾斜角度αの正の方向とし、水平面から時計回りの方向の角度を傾斜角度αの負の方向とする。道路の傾斜角度αは、道路の傾きを表す傾き情報に相当する。
 前述の図4のステップa4の仰角検出処理において、地物の移動体からの仰角θaは、対象となる地物(以下「対象地物」という場合がある)40aを移動体から見たときに、移動体の予め定める点と地物の頂点とを結んだ直線と、移動体が位置する道路との成す角度として求められる。本実施の形態では、移動体の予め定める点は、図2に示すカメラ21が設置される点(以下「カメラ21の設置点」という場合がある)S0である。したがって、地物の移動体からの仰角θaは、カメラ21の設置点S0からの地物の仰角のことである。
 図5および図6において、記号「L」は、移動体の基準位置からの高さである。記号「La」は、対象地物40aの基準位置からの高さである。記号「Da」は、移動体と対象地物40aとの距離、具体的には、移動体のカメラ21の設置点S0と対象地物40aの頂点との距離である。
 図7は、対象地物の移動体からの仰角θaの求め方を説明するための図である。対象地物の移動体からの仰角θaは、たとえば、カメラ21によって撮影された移動体の外部の画像(以下「撮影画像」という場合がある)から求めることができる。
 具体的には、処理部13は、図7に示すように、撮影画像に対して、格子状の画角を当て嵌める。処理部13は、当て嵌めた画角から、対象地物の移動体からの仰角θaを求める。
 図7では、1マスが5°であるので、たとえば、図7の真ん中に記載される第1の地物40aの場合、移動体からの仰角θaは、6マス分で、30°となる。図7の左端に記載される第2の地物40bの場合、移動体からの仰角θaは、1.9マス分で、9.5°となる。図7の右端の第3の地物40cの場合、移動体からの仰角θaは、3.7マス分で、18.5°となる。
 図8は、移動体の高さ情報および道路の傾き情報の求め方の一例を説明するための図である。前述の図4のステップa6の2次元表示処理、またはステップa7の3次元表示処理において、処理部13は、ステップa4で検出される地物の仰角θaを用いて、移動体の高さ情報、および道路の傾き情報を求める。
 本実施の形態では、移動体の高さ情報、および道路の傾き情報は、仰角検出部12によって検出される複数の地物の仰角と、複数の地物の基準位置からの高さと、移動体と各地物との距離とに基づいて求められる。図8では、一例として、対象地物である複数の地物が、2つの地物である場合を示す。以下の説明では、2つの地物を、「第1の地物41」、「第2の地物42」という場合がある。
 処理部13は、仰角検出部12によって検出される各地物41,42の仰角θ1,θ2と、各地物41,42の基準位置からの高さL1,L2と、移動体と各地物41,42との距離D1,D2とに基づいて、移動体の高さ情報および道路の傾き情報を求める。本実施の形態では、移動体の高さ情報として、移動体の設置点S0に搭載されるカメラ21の基準位置からの高さLが求められる。また道路の傾き情報として、移動体が位置する道路の傾斜角度αが求められる。
 移動体と各地物41,42との距離D1,D2は、地図情報記憶部16から取得される地物情報に含まれる地物の位置情報と、位置検出部14から与えられる移動体の現在位置情報とから求めることができる。移動体と各地物41,42との距離D1,D2は、具体的には、移動体の現在位置と各地物41,42との距離D1,D2である。
 各地物41,42の高さL1,L2を表す高さ情報は、地図情報記憶部16から取得される地物情報から取得することができる。各地物41,42の移動体からの仰角θ1,θ2は、前述の図4のステップa4において、仰角検出部12によって検出される。
 各地物41,42の仰角θ1,θ2と、各地物41,42の基準位置からの高さL1,L2と、移動体と各地物41,42との距離D1,D2と、移動体の高さに相当するカメラ21の基準位置からの高さLと、移動体の傾きに相当する道路の傾斜角度αとの間には、以下の関係式(1),(2)が成立する。
 D1・tan(θ1-α)=L1-L           …(1)
 D2・tan(θ2-α)=L2-L           …(2)
 以上の2つの関係式(1),(2)から、道路の傾斜角度αと、移動体の高さに相当するカメラ21の基準位置からの高さLを算出することができる。
 このように本実施の形態では、処理部13は、前述の2つの関係式(1),(2)から、道路の傾斜角度αとカメラ21の基準位置からの高さLとを求めるが、同様にして、前述の2つの関係式(1),(2)から、道路の基準位置からの高さと、カメラ21の傾斜角度とを求めることもできる。ここで、カメラ21の傾斜角度とは、水平面に対するカメラ21の傾斜角度をいう。
 以上のように本実施の形態によれば、移動体に搭載されるカメラ21によって撮像される移動体の外部の画像が、画像取得部11によって取得される。取得された画像に基づいて、画像に含まれる複数の地物について、地物の移動体からの仰角が、仰角検出部12によって検出される。検出された複数の地物の仰角と、複数の地物の基準位置からの高さと、移動体と各地物との距離とに基づいて、移動体の高さ情報、および移動体が位置する道路の傾き情報が、処理部13によって求められる。これによって、比較的簡単な処理で移動体の正確な高さ情報を得ることができる。
 このようにして得られる移動体の正確な高さ情報を用いることによって、移動中の移動体の位置を表す位置情報を、より正確に求めることができる。この移動中の移動体の位置を表す位置情報を用いることによって、情報処理装置10を含む情報提供装置20をナビゲーション装置として使用した場合に、より現実に近い表示を行うことができる。
 図9は、移動体の高さ情報および道路の傾き情報の求め方の他の例を説明するための図である。移動体の高さ情報、および道路の傾き情報は、仰角検出部12によって検出される複数の地点における地物の仰角と、地物の基準位置からの高さと、各地点における移動体と地物との距離とに基づいて求められてもよい。図9では、一例として、仰角が求められる移動体の地点が2つである場合を示す。以下の説明では、仰角が求められる移動体の2つの地点を、その地点におけるカメラ21の設置点S1,S2を用いて、「第1の地点S1」、「第2の地点S2」で示す場合がある。
 図9に示す場合、処理部13は、各地点S1,S2における地物40aの仰角θ3,θ4と、地物40aの基準位置からの高さLaと、各地点S1,S2における移動体と地物40aとの距離D3,D4とに基づいて、移動体の高さ情報、および移動体が位置する道路の傾き情報を求める。本実施の形態では、移動体の高さ情報として、各地点S1,S2で移動体に搭載されるカメラ21の基準位置からの高さL3,L4が求められる。また移動体が位置する道路の傾き情報として、移動体が位置する道路の傾斜角度αが求められる。
 各地点S1,S2における移動体と地物40aとの距離D3,D4は、地図情報記憶部16から取得される地物情報に含まれる地物の位置情報と、位置検出部14から与えられる移動体の現在位置情報とから求めることができる。地物40aの高さLaを表す高さ情報は、地図情報記憶部16から取得される地物情報から取得することができる。各地点S1,S2における地物40aの移動体からの仰角θ3,θ4は、前述の図4のステップa4において、仰角検出部12によって検出される。
 各地点S1,S2における地物40aの仰角θ3,θ4と、地物40aの基準位置からの高さLaと、各地点S1,S2における移動体と地物40aとの距離D3,D4と、各地点S1,S2における移動体の高さに相当するカメラ21の基準位置からの高さL3,L4と、移動体の傾きに相当する道路の傾斜角度αとの間には、以下の関係式(3),(4),(5)が成立する。
 D3・tan(θ3-α)=La-L3          …(3)
 D4・tan(θ4-α)=La-L4          …(4)
 (D3-D4)・tanα=L3-L4          …(5)
 以上の3つの関係式(3),(4),(5)から、道路の傾斜角度αと、各地点S1,S2における移動体の高さに相当するカメラ21の基準位置からの高さL3,L4を算出することができる。
 このように本実施の形態では、処理部13は、前述の3つの関係式(3),(4),(5)から、道路の傾斜角度αと、カメラ21の基準位置からの高さL3,L4とを求めるが、同様にして、前述の3つの関係式(3),(4),(5)から、道路の基準位置からの高さと、カメラ21の傾斜角度とを求めることもできる。
 図9に示す方法を用いても、本実施の形態と同様の効果を得ることができる。具体的には、図9に示す方法では、移動体に搭載されるカメラ21によって撮像される移動体の外部の画像が、画像取得部11によって取得される。取得された画像に基づいて、画像に含まれる地物について、複数の地点において、地物の移動体からの仰角が、仰角検出部12によって検出される。検出された複数の地点における地物の仰角と、地物の基準位置からの高さと、各地点における移動体と地物との距離とに基づいて、移動体の高さ情報、および移動体が位置する道路の傾き情報が、処理部13によって求められる。これによって、比較的簡単な処理で移動体の正確な高さ情報を得ることができる。
 以上のように本実施の形態では、道路の傾斜角度αは、前述の関係式(1),(2)または関係式(3),(4),(5)を用いて求められるが、これに限定されず、道路の基準位置からの高さを時間で微分することによって求められてもよい。同様に、移動体の傾きに相当するカメラ21の傾斜角度についても、カメラ21の基準位置からの高さLを時間で微分することによって求められてもよい。
 図10および図11は、2次元表示における地物の画像の一例を示す図である。前述の図4のステップa6の2次元表示処理では、処理部13は、前述のようにして求めた移動体の高さ情報を用いて、2次元表示における地物の表示を変更する。
 本実施の形態では、処理部13は、求めた移動体の高さ情報を用いて、移動体よりも低い地物を、移動体と同じ高さの地物および移動体よりも高い地物と異なる表示形態で表示するように、2次元表示のための表示情報を生成する。
 たとえば、図10(a)に示すように、表示すべき地物(以下「表示対象地物」という場合がある)の高さLaが、移動体の高さL以上である場合(La≧L)、図10(b)に示す2次元表示においても、図10(a)に示す通常の場合と同様の表示となる。本実施の形態では、地物は、実線で示される。
 表示対象地物の高さLaが、移動体の高さLよりも小さい場合(La<L)、図11(b)に示す2次元表示では、地物は、たとえば破線で示される。このように、図11(a)に示す通常の場合とは異なる表示形態で示される。
 図12は、2次元表示における地物の画像の他の例を示す図である。移動体が移動中、たとえば移動体の高さLが地物の高さLaよりも十分に高い場合(La>L)は、図12(a)に示すように、たとえば実線で示される通常表示が行われる。移動体の高さLが地物の高さLaに近づくに伴って、たとえば図12(b)に示すように、太線の破線で地物を表すというように、地物の表示を徐々に薄くしていく。移動体の高さLが地物の高さLaよりも低くなった場合には、図12(c)に示すように、点線で示す表示に変更していってもよい。
 逆に、移動体が移動中、たとえば、移動体の高さLが地物の高さLaよりも十分に低い場合は、点線で示す表示を行い、移動体の高さLが地物の高さLaの高さに近づくに伴って、地物の表示を徐々に濃くしていき、移動体の高さLが地物の高さLaよりも高くなった場合に、通常表示を行うようにしてもよい。
 以上の表示形態を変更する処理は、移動体の周囲の複数の表示対象地物に対して行われる。
 以上のように本実施の形態では、処理部13は、求めた移動体の高さ情報を用いて、移動体よりも低い地物を、移動体と同じ高さの地物および移動体よりも高い地物と異なる表示形態で表示するように、2次元表示のための表示情報を生成する。これによって、より見やすい表示とすることができるので、使用者の利便性を向上させることができる。
 図13は、3次元表示における地物の画像の一例を示す図である。前述の図4のステップa7の3次元表示処理では、処理部13は、前述のようにして求めた移動体の高さ情報を用いて、3次元表示における地物の表示を変更する。
 本実施の形態では、処理部13は、求めた移動体の高さ情報を用いて、移動体よりも低い地物を、移動体と同じ高さの地物および移動体よりも高い地物と異なる表示形態で表示するように、3次元表示のための表示情報を生成する。
 たとえば、図13(b)に示すように、移動体の高さLよりも高さLbが低い地物に対しては、図13(a)に示す通常表示と異なる表示、具体的には、半透明または点線で示す表示を行う。
 図14は、3次元表示における地物の画像の他の例を示す図である。処理部13は、図14に示すように、地物の高さLbが移動体の高さLよりも高い場合は、図14(a)に示す全体を表示する表示に代えて、図14(b)に示すように移動体からの可視部分90のみを表示するようにしてもよい。これと併せて、移動体の高さLが地物の高さLbよりも低い場合は、前述の図13(b)に示すように、地物を半透明または点線で示す表示を行うようにしてもよい。
 図15は、3次元表示における地物の画像のさらに他の例を示す図である。移動体が移動中の場合、処理部13は、以下のように地物の画像を変更してもよい。たとえば、処理部13は、図15(a)に示すように、移動体の高さL1が地物の高さLbよりも十分低いときには、可視部分90のみの表示を行う。処理部13は、図15(b)に示すように、移動体の高さL2が地物の高さLbに近づくのに伴って、地物の表示部分である可視部分90を徐々に小さくしていく。処理部13は、図15(c)に示すように、移動体の高さL3が地物の高さLbよりも高くなったときには、地物を半透明または点線で示す表示を行う。
 また図15に示す場合とは逆に、移動体の高さL3が地物の高さLbよりも十分高い場合には、地物を半透明または点線で示す表示を行い、移動体の高さが地物の高さLbよりも低くなった場合に、地物の移動体からの可視部分の表示を行い、移動体の高さLが地物の高さLbよりも徐々に低くなるに従って、地物の表示部分である可視部分90を徐々に大きく表示するようにしてもよい。
 図16~図18は、3次元表示における地物の画像のさらに他の例を示す図である。図16は、道路の傾斜角度αが0°の場合(α=0°)を示す。図17は、道路の傾斜角度αが0°よりも小さい場合(α<0°)を示す。図18は、道路の傾斜角度αが0°よりも大きい場合(α>0°)を示す。図16~図18に示す例では、処理部13は、道路の傾斜角度αによって、移動体からの視界が変化することを考慮に入れた3次元表示を行う。これによって、移動体の周辺の表示対象地物群に対して、より実際に近い3次元画像で表示を行うことができる。
 具体的には、処理部13は、道路の傾斜角度αが0°の場合(α=0°)には、図16に示すように、地物のうち、移動体の高さLよりも高い可視部分90のみを表示し、移動体の高さL以下の不可視部分91は、半透明または点線で示す表示を行う。ここで、可視部分とは、移動体から視認可能な部分をいい、不可視部分とは、移動体から視認不可能な部分をいう。
 道路の傾斜角度αが変化して、水平面から時計回りの方向に大きくなって、0°よりも小さくなった場合(α<0°)、処理部13は、図16に示す道路の傾斜角度αが0°の場合(α=0°)に比べて、図17に示すように、地物のうち、可視部分90を増やして、表示を行う。
 道路の傾斜角度αが変化して、水平面から反時計回りの方向に大きくなって、0°よりも大きくなった場合(α>0°)、処理部13は、図18に示すように、図16に示す道路の傾斜角度αが0°の場合(α=0°)に比べて、地物のうち、可視部分90を減らして、表示を行う。
 図19は、3次元表示における地物の画像のさらに他の例を示す図である。処理部13は、求めた移動体の高さ情報を用いて、基準位置からの高さが移動体よりも高い地物44を表示するための表示情報を生成するとき、地物44のうち、移動体から視認可能な可視部分44aと、移動体から視認不可能な不可視部分44bとを異なる表示形態で表示するように、表示情報を生成する。
 たとえば、高速道路などにおいて、走行道路50の設置物51、たとえば防音壁によって、移動体からの視界が一部遮られている場合、処理部13は、地物44について、高速道路などにおいて移動体から走行道路50の設置物51越しに見える可視部分44aのみ実線で示す表示を行う。処理部13は、走行道路の設置物51によって隠れている不可視部分44bについては、たとえば、半透明または点線で示す表示を行う。処理部13は、設置物51で全体が隠れている地物43については、たとえば、不可視部分44bと同様に、半透明または点線で示す表示を行う。
 図20は、3次元表示における地物の画像のさらに他の例を示す図である。処理部13は、図20に示すように地物44の表示を行ってもよい。図20に示す例の場合、処理部13は、高速道路などにおいて移動体から走行道路50の設置物51越しに見える可視部分44aについては、前述の図19に示す場合と同様に、実線で示す表示を行う。
 処理部13は、不可視部分44bのうち、移動体からの視界が、移動体が移動する道路に設置される設置物51によって遮られる遮蔽部分45aと、遮蔽部分45aを除く残余の部分45bとを異なる表示形態で表示するように、表示情報を生成する。遮蔽部分45aを除く残余の部分45bは、たとえば、移動体の高さ以下の部分であり、移動体の高さと地物の高さとの関係から視界が遮られ、移動体から視認できない部分である。
 処理部13は、たとえば、走行道路50の設置物51によって隠れている遮蔽部分45aについては、点線で示す表示を行う。処理部13は、不可視部分44bのうち、遮蔽部分45aを除く残余の部分である、移動体の高さ以下の部分45bについては、遮蔽部分とは異なる表示形態で、たとえば半透明で示す表示を行う。
 以上のように本実施の形態では、処理部13は、求めた移動体の高さ情報を用いて、移動体よりも低い地物を、移動体と同じ高さの地物および移動体よりも高い地物と異なる表示形態で表示するように、3次元表示のための表示情報を生成する。これによって、より見やすい表示とすることができるので、使用者の利便性を向上させることができる。
 また図19に示すように、処理部13は、基準位置からの高さが移動体よりも高い地物44を表示するための表示情報を生成するとき、地物44のうち、移動体から視認可能な可視部分44aと、移動体から視認不可能な不可視部分44bとを異なる表示形態で表示するように、表示情報を生成する。これによって、更に見やすい表示とすることができるので、使用者の利便性を更に向上させることができる。
 また図20に示すように、処理部13は、不可視部分44bのうち、移動体からの視界が、移動体が移動する道路に設置される設置物51によって遮られる遮蔽部分45aと、遮蔽部分45aを除く残余の部分45bとを異なる表示形態で表示するように、表示情報を生成する。これによって、より一層見やすい表示とすることができるので、使用者の利便性をより一層向上させることができる。
 一般的に高速道路は、一般道路よりも高い位置を通っている。したがって、処理部13は、求めた移動体の高さ情報に基づいて、移動体が位置する道路が、高速道路および一般道路のいずれであるかを判断するように構成されてもよい。これによって、より適切な表示を行うことができるので、使用者の利便性を向上させることができる。
 以上に述べた本実施の形態の情報処理装置10は、車両に搭載可能なナビゲーション装置だけでなく、通信端末装置、およびサーバ装置などを適宜に組み合わせたシステムにも適用することができる。通信端末装置は、たとえばサーバ装置と通信を行う機能を有するPND(Portable Navigation Device)および携帯通信装置である。携帯通信装置は、たとえば携帯電話機、スマートフォンおよびタブレット型端末装置である。
 前述のようにナビゲーション装置と通信端末装置とサーバ装置とを適宜に組み合わせてシステムが構築される場合、本実施の形態の情報処理装置10の各構成要素は、前記システムを構築する各装置に分散して配置される。
 たとえば、情報処理装置10に備えられる仰角検出部12および地図情報記憶部16は、サーバ装置に配置されてもよいし、携帯通信装置などの通信端末装置に配置されてもよい。
 前述の仰角検出部12および地図情報記憶部16がサーバ装置に配置される場合の情報処理装置は、以下の第3の実施の形態に示す構成を有する。また、前述の仰角検出部12が携帯通信装置に配置され、地図情報記憶部16がサーバ装置に配置される場合の情報処理装置は、以下の第4の実施の形態に示す構成を有する。
 <第3の実施の形態>
 図21は、本発明の第3の実施の形態における情報処理装置の構成を示すブロック図である。本実施の形態の情報処理装置は、前述の第2の実施の形態と構成が類似しているので、同一の構成については同一の参照符号を付して、共通する説明を省略する。
 本実施の形態の情報処理装置は、サーバ装置70と情報提供装置であるナビゲーション装置20Aとを備えて構成される。サーバ装置70は、仰角検出部12、地図情報記憶部16、サーバ側処理部71およびサーバ側通信部72を備えて構成される。
 サーバ側処理部71は、たとえばCPUと、書き込み可能なRAMなどのメモリとによって構成される。メモリは、制御プログラムを記憶する。CPUが、メモリに記憶されている制御プログラムを実行することによって、仰角検出部12およびサーバ側通信部72を統括的に制御する。
 サーバ側通信部72は、ナビゲーション装置20Aと通信を行う。サーバ側通信部72は、ナビゲーション装置20Aと通信を行う場合、たとえば、インターネットなどの通信網を介して、ナビゲーション装置20Aと通信可能に構成される。
 ナビゲーション装置20Aは、車両に搭載される。ナビゲーション装置20Aは、ナビゲーション装置本体10A、入力装置22および表示装置23を備えて構成される。
 ナビゲーション装置本体10Aは、画像取得部11、位置検出部14、操作情報取得部15、ナビゲーション側処理部61およびナビゲーション側通信部62を備える。ナビゲーション側処理部61は、たとえばCPUと、書き込み可能なRAMなどのメモリとによって構成される。メモリは、制御プログラムを記憶する。CPUが、メモリに記憶されている制御プログラムを実行することによって、画像取得部11、位置検出部14、操作情報取得部15およびナビゲーション側通信部62を統括的に制御する。
 以上のように本実施の形態では、仰角検出部12および地図情報記憶部16は、サーバ装置70に配置される。このように配置される場合でも、前述の第1および第2の実施の形態と同様の効果を得ることができる。
 <第4の実施の形態>
 図22は、本発明の第4の実施の形態における情報処理装置の構成を示すブロック図である。本実施の形態の情報処理装置は、前述の第2および第3の実施の形態と構成が類似しているので、同一の構成については同一の参照符号を付して、共通する説明を省略する。
 本実施の形態の情報処理装置は、サーバ装置70Aと、ナビゲーション装置20Aと、携帯通信装置80とを備えて構成される。
 サーバ装置70Aは、地図情報記憶部16、サーバ側処理部71およびサーバ側通信部72を備えて構成される。
 携帯通信装置80は、たとえば携帯電話機、スマートフォンまたはタブレット型端末装置によって実現される。携帯通信装置80は、携帯側処理部81、携帯側通信部82および仰角検出部12を備えて構成される。
 携帯側処理部81は、たとえばCPUと、書き込み可能なRAMなどのメモリとによって構成される。メモリは、制御プログラムを記憶する。CPUが、メモリに記憶されている制御プログラムを実行することによって、仰角検出部12および携帯側通信部82を統括的に制御する。
 携帯側通信部82は、サーバ装置70Aと通信を行う。携帯側通信部82は、サーバ装置70Aと通信を行う場合、たとえばインターネットなどの通信網を介して、通信可能に構成される。
 また、携帯側通信部82は、ナビゲーション装置20Aと通信を行う。携帯側通信部82は、ナビゲーション装置20Aと通信を行う場合、たとえば、近距離無線通信規格であるブルートゥース(Bluetooth(登録商標))または無線LANなどの無線によって、ナビゲーション装置20Aと通信可能に構成される。携帯側通信部82は、USBケーブルまたはLANケーブルなどの有線によって、ナビゲーション装置20Aと通信可能に構成されてもよい。
 以上のように本実施の形態では、地図情報記憶部16はサーバ装置70に配置され、仰角検出部12は携帯通信装置80に配置される。このように構成される場合でも、前述の第1および第2の実施の形態と同様の効果を得ることができる。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせることが可能である。また、各実施の形態の任意の構成要素を適宜、変更または省略することが可能である。
 本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、本発明がそれに限定されるものではない。例示されていない無数の変形例が、本発明の範囲から外れることなく想定され得るものと解される。
 1,10 情報処理装置、10A ナビゲーション装置本体、11 画像取得部、12 仰角検出部、13 処理部、14 位置検出部、15 操作情報取得部、16 地図情報記憶部、20,20A ナビゲーション装置、21 カメラ、22 入力装置、23 表示装置、31 処理回路、32 メモリ、33 入出力インタフェース、43,44 地物、44a,90 可視部分、44b,91 不可視部分、45a 遮蔽部分、50 走行道路、51 設置物、61 ナビゲーション側処理部、62 ナビゲーション側通信部、70,70A サーバ装置、71 サーバ側処理部、72 サーバ側通信部、80 携帯通信装置、81 携帯側処理部、82 携帯側通信部。

Claims (14)

  1.  移動体に搭載される撮像部によって撮像される前記移動体の外部の画像を取得する画像取得部と、
     前記画像取得部によって取得される前記画像に基づいて、前記画像に含まれる複数の地物について、前記地物の前記移動体からの仰角を検出する仰角検出部と、
     前記仰角検出部によって検出される複数の前記地物の仰角と、複数の前記地物の予め定める基準位置からの高さと、前記移動体と各前記地物との距離とに基づいて、前記移動体の前記基準位置からの高さを表す高さ情報、および前記移動体が位置する道路の傾きを表す傾き情報を求める処理部とを備えることを特徴とする情報処理装置。
  2.  前記処理部は、求めた前記移動体の前記高さ情報を用いて、前記移動体よりも低い地物を、前記移動体と同じ高さの地物および前記移動体よりも高い地物と異なる表示形態で表示するように、前記地物を平面的に表示する2次元表示のための表示情報を生成することを特徴とする請求項1に記載の情報処理装置。
  3.  前記処理部は、求めた前記移動体の前記高さ情報を用いて、前記移動体よりも低い地物を、前記移動体と同じ高さの地物および前記移動体よりも高い地物と異なる表示形態で表示するように、前記地物を立体的に表示する3次元表示のための表示情報を生成することを特徴とする請求項1に記載の情報処理装置。
  4.  前記処理部は、求めた前記移動体の前記高さ情報を用いて、前記基準位置からの高さが前記移動体よりも高い地物を表示するための表示情報を生成するとき、前記地物のうち、前記移動体から視認可能な可視部分と、前記移動体から視認不可能な不可視部分とを異なる表示形態で表示するように、前記表示情報を生成することを特徴とする請求項1に記載の情報処理装置。
  5.  前記処理部は、前記不可視部分のうち、前記移動体からの視界が、前記移動体が移動する道路に設置される設置物によって遮られる遮蔽部分と、前記遮蔽部分を除く残余の部分とを異なる表示形態で表示するように、前記表示情報を生成することを特徴とする請求項4に記載の情報処理装置。
  6.  前記処理部は、求めた前記移動体の前記高さ情報に基づいて、前記移動体が位置する道路が、高速道路および一般道路のいずれであるかを判断することを特徴とする請求項1に記載の情報処理装置。
  7.  移動体に搭載される撮像部によって撮像される前記移動体の外部の画像を取得する画像取得部と、
     前記画像取得部によって取得される前記画像に基づいて、前記画像に含まれる地物について、複数の地点において前記地物の前記移動体からの仰角を検出する仰角検出部と、
     前記仰角検出部によって検出される前記複数の地点における前記地物の仰角と、前記地物の予め定める基準位置からの高さと、各前記地点における前記移動体と前記地物との距離とに基づいて、前記移動体の前記基準位置からの高さを表す高さ情報、および前記移動体が位置する道路の傾きを表す傾き情報を求める処理部とを備えることを特徴とする情報処理装置。
  8.  前記処理部は、求めた前記移動体の前記高さ情報を用いて、前記移動体よりも低い地物を、前記移動体と同じ高さの地物および前記移動体よりも高い地物と異なる表示形態で表示するように、前記地物を平面的に表示する2次元表示のための表示情報を生成することを特徴とする請求項7に記載の情報処理装置。
  9.  前記処理部は、求めた前記移動体の前記高さ情報を用いて、前記移動体よりも低い地物を、前記移動体と同じ高さの地物および前記移動体よりも高い地物と異なる表示形態で表示するように、前記地物を立体的に表示する3次元表示のための表示情報を生成することを特徴とする請求項7に記載の情報処理装置。
  10.  前記処理部は、求めた前記移動体の前記高さ情報を用いて、前記基準位置からの高さが前記移動体よりも高い地物を表示するための表示情報を生成するとき、前記地物のうち、前記移動体から視認可能な可視部分と、前記移動体から視認不可能な不可視部分とを異なる表示形態で表示するように、前記表示情報を生成することを特徴とする請求項7に記載の情報処理装置。
  11.  前記処理部は、前記不可視部分のうち、前記移動体からの視界が、前記移動体が移動する道路に設置される設置物によって遮られる遮蔽部分と、前記遮蔽部分を除く残余の部分とを異なる表示形態で表示するように、前記表示情報を生成することを特徴とする請求項10に記載の情報処理装置。
  12.  前記処理部は、求めた前記移動体の前記高さ情報に基づいて、前記移動体が位置する道路が、高速道路および一般道路のいずれであるかを判断することを特徴とする請求項7に記載の情報処理装置。
  13.  移動体に搭載される撮像部によって撮像される前記移動体の外部の画像を取得し、
     取得した前記画像に基づいて、前記画像に含まれる複数の地物について、前記地物の前記移動体からの仰角を検出し、
     検出した複数の前記地物の仰角と、複数の前記地物の予め定める基準位置からの高さと、前記移動体と各前記地物との距離とに基づいて、前記移動体の前記基準位置からの高さを表す高さ情報、および前記移動体が位置する道路の傾きを表す傾き情報を求めることを特徴とする情報処理方法。
  14.  移動体に搭載される撮像部によって撮像される前記移動体の外部の画像を取得し、
     取得した前記画像に基づいて、前記画像に含まれる地物について、複数の地点において前記地物の前記移動体からの仰角を検出し、
     検出した前記複数の地点における前記地物の仰角と、前記地物の予め定める基準位置からの高さと、各前記地点における前記移動体と前記地物との距離とに基づいて、前記移動体の前記基準位置からの高さを表す高さ情報、および前記移動体が位置する道路の傾きを表す傾き情報を求めることを特徴とする情報処理方法。
PCT/JP2016/054322 2016-02-15 2016-02-15 情報処理装置および情報処理方法 WO2017141325A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2016/054322 WO2017141325A1 (ja) 2016-02-15 2016-02-15 情報処理装置および情報処理方法
JP2017567589A JP6312953B2 (ja) 2016-02-15 2016-02-15 情報処理装置および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/054322 WO2017141325A1 (ja) 2016-02-15 2016-02-15 情報処理装置および情報処理方法

Publications (1)

Publication Number Publication Date
WO2017141325A1 true WO2017141325A1 (ja) 2017-08-24

Family

ID=59625856

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/054322 WO2017141325A1 (ja) 2016-02-15 2016-02-15 情報処理装置および情報処理方法

Country Status (2)

Country Link
JP (1) JP6312953B2 (ja)
WO (1) WO2017141325A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03277916A (ja) * 1990-03-28 1991-12-09 Honda Motor Co Ltd 車両の道路勾配検出装置
JPH07229727A (ja) * 1994-02-22 1995-08-29 Nikon Corp 路面検出装置
JPH10148522A (ja) * 1996-11-18 1998-06-02 Furukawa Electric Co Ltd:The 傾斜可能な車両を使用した屋外設備詳細設計方法
JPH1137730A (ja) * 1997-07-18 1999-02-12 Nissan Motor Co Ltd 道路形状推定装置
JP2005265690A (ja) * 2004-03-19 2005-09-29 Denso Corp 確度判定システム及び確度判定装置並びにサーバ装置
JP2011209251A (ja) * 2010-03-31 2011-10-20 Mazda Motor Corp 車高検出装置
JP2013002883A (ja) * 2011-06-14 2013-01-07 Honda Motor Co Ltd 測距装置
JP2013190281A (ja) * 2012-03-13 2013-09-26 Honda Elesys Co Ltd 設置状態検出システム、設置状態検出装置、及び設置状態検出方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03277916A (ja) * 1990-03-28 1991-12-09 Honda Motor Co Ltd 車両の道路勾配検出装置
JPH07229727A (ja) * 1994-02-22 1995-08-29 Nikon Corp 路面検出装置
JPH10148522A (ja) * 1996-11-18 1998-06-02 Furukawa Electric Co Ltd:The 傾斜可能な車両を使用した屋外設備詳細設計方法
JPH1137730A (ja) * 1997-07-18 1999-02-12 Nissan Motor Co Ltd 道路形状推定装置
JP2005265690A (ja) * 2004-03-19 2005-09-29 Denso Corp 確度判定システム及び確度判定装置並びにサーバ装置
JP2011209251A (ja) * 2010-03-31 2011-10-20 Mazda Motor Corp 車高検出装置
JP2013002883A (ja) * 2011-06-14 2013-01-07 Honda Motor Co Ltd 測距装置
JP2013190281A (ja) * 2012-03-13 2013-09-26 Honda Elesys Co Ltd 設置状態検出システム、設置状態検出装置、及び設置状態検出方法

Also Published As

Publication number Publication date
JP6312953B2 (ja) 2018-04-18
JPWO2017141325A1 (ja) 2018-07-12

Similar Documents

Publication Publication Date Title
JP4705170B2 (ja) ナビゲーションデバイス及びナビゲーションデバイス上に表示された地図データをスクロールする方法
JP4632793B2 (ja) ナビゲーション機能付き携帯型端末機
KR102021050B1 (ko) 내비게이션 정보를 제공하는 방법, 기계로 읽을 수 있는 저장 매체, 이동 단말 및 서버
US8352180B2 (en) Device with camera-info
US8423292B2 (en) Navigation device with camera-info
US20120026088A1 (en) Handheld device with projected user interface and interactive image
JP2008309529A (ja) ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム
US8731825B2 (en) Trajectory display device
US20200109962A1 (en) Method and system for generating navigation data for a geographical location
KR101076803B1 (ko) 실내 기동 로봇의 지도 작성 방법 및 이를 이용한 기동 위치 판별 방법
WO2017029759A1 (ja) 表示制御装置、表示装置および表示制御方法
US20160290799A1 (en) Device Orientation Detection
EP3236340B1 (en) Information processing apparatus and control method of information processing apparatus
JP4833384B1 (ja) ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体
US20180328733A1 (en) Position determining unit and a method for determining a position of a land or sea based object
JP4732421B2 (ja) ナビゲーション装置
JP2007309823A (ja) 車載用ナビゲーション装置
JP6312953B2 (ja) 情報処理装置および情報処理方法
JP2009036726A (ja) 探索経路表示方法及び探索経路表示システム
JP7023775B2 (ja) 経路案内プログラム、経路案内方法及び情報処理装置
JP2010122135A (ja) 車載用表示システムおよび表示方法
JP2006250673A (ja) ナビゲーション装置およびナビゲーション用プログラム
JP2009019970A (ja) ナビゲーション装置
RU2417398C2 (ru) Навигационное устройство и способ прокрутки картографических данных, отображаемых в навигационном устройстве
JP5356483B2 (ja) ナビゲーション装置及びナビゲーション方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16890468

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017567589

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16890468

Country of ref document: EP

Kind code of ref document: A1