WO2017188009A1 - 携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム - Google Patents

携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム Download PDF

Info

Publication number
WO2017188009A1
WO2017188009A1 PCT/JP2017/015139 JP2017015139W WO2017188009A1 WO 2017188009 A1 WO2017188009 A1 WO 2017188009A1 JP 2017015139 W JP2017015139 W JP 2017015139W WO 2017188009 A1 WO2017188009 A1 WO 2017188009A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
notification
unit
electronic device
Prior art date
Application number
PCT/JP2017/015139
Other languages
English (en)
French (fr)
Inventor
茂輝 田辺
英樹 森田
功 益池
信弥 齋藤
哲史 若狭
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to EP17789296.5A priority Critical patent/EP3432556B1/en
Priority to CN201780025595.8A priority patent/CN109076112A/zh
Publication of WO2017188009A1 publication Critical patent/WO2017188009A1/ja
Priority to US16/165,820 priority patent/US10609510B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72418User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting emergency services
    • H04M1/72421User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting emergency services with automatic activation of emergency service functions, e.g. upon sensing an alarm
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Definitions

  • This application relates to a portable electronic device, a portable electronic device control method, and a portable electronic device control program.
  • Some portable electronic devices such as portable communication devices can determine whether a user is moving. For example, a technique for determining a user's walk from a detection result of an acceleration sensor or the like has been proposed.
  • the portable electronic device includes a display unit, a first detection unit that acquires first information, a second detection unit that acquires second information, a notification unit, and a controller.
  • the controller detects that the user is walking based on the first information. If the controller determines that the user is in an area other than the predetermined area based on the second information, the controller displays a first screen on the display unit. The controller detects that the user is walking based on the first information. When the controller determines that the user is in the predetermined area based on the second information, the controller causes the notification unit to perform the first notification while displaying on the display unit.
  • the portable electronic device control method is a portable electronic device control method for controlling a portable electronic device including a display unit.
  • the portable electronic device control method acquires first information, determines whether the user is walking based on the first information, acquires second information, and determines the user based on the second information. Determining whether the user is in a predetermined area, and detecting that the user is walking and determining that the user is outside the predetermined area, causing the display unit to display a first screen, And a step of performing a first notification different from the display while displaying on the display unit when detecting that the user is walking and determining that the user is in the predetermined area. .
  • the portable electronic device control program obtains first information to a portable electronic device including a display unit, and determines whether the user is walking based on the first information; And determining whether or not the user is in a predetermined area based on the second information; detecting that the user is walking; and determining that the user is outside the predetermined area Then, displaying the first screen on the display unit, detecting that the user is walking, and determining that the user is in the predetermined area, in addition to displaying on the display unit, display and Perform different first notifications.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a control system.
  • FIG. 2 is a perspective view of the smartphone according to the embodiment.
  • FIG. 3 is a front view of the smartphone.
  • FIG. 4 is a rear view of the smartphone.
  • FIG. 5 is a block diagram of the smartphone.
  • FIG. 6 is a flowchart illustrating an example of control performed by the smartphone according to the embodiment.
  • FIG. 7 is a flowchart illustrating an example of control performed by the smartphone according to the embodiment.
  • FIG. 8 is a flowchart illustrating an example of control performed by the smartphone according to the embodiment.
  • FIG. 9 is a flowchart illustrating an example of control performed by the smartphone according to the embodiment.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a control system.
  • the control system 100 includes a smartphone 1 and a roadside device 104. In FIG. 1, one smartphone 1 and four roadside devices 104 at one intersection are shown, but the control system 100 includes a number of smartphones 1 and a number of roadside devices 104.
  • the control system 100 includes various communication devices that communicate with the smartphone 1 and transmit information related to the situation around the smartphone 1 to the smartphone 1.
  • the roadside device 104 controls the display of the traffic lights 106 and 108.
  • the traffic signal 106 and the traffic signal 108 are arranged at the intersection 109.
  • a pedestrian crossing 110 is provided on a road on which vehicles pass.
  • the traffic light 106 is installed with respect to the vehicle 102.
  • the traffic signal 106 is disposed on each road at the intersection 109 and indicates whether the corresponding road is in a passable state or a prohibited state.
  • the traffic light 108 is arranged for a pedestrian who crosses the pedestrian crossing 110.
  • the traffic signal 108 is arranged at each pedestrian crossing 110 at the intersection 109 and indicates whether the corresponding pedestrian crossing 110 is in a passable state or a prohibited state.
  • the roadside machine 104 includes a communication unit 112, a control unit 114, and a storage unit 116.
  • the communication unit 112 communicates wirelessly.
  • a communication method supported by the communication unit 112 is a wireless communication standard. Examples of wireless communication standards include WiMAX (Worldwide Interoperability for Microwave Access), IEEE802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (NearFild, etc.).
  • WiMAX Worldwide Interoperability for Microwave Access
  • IEEE802.11 Bluetooth
  • IrDA Infrared Data Association
  • NFC NearFild, etc.
  • As a wireless communication standard for example, there are cellular phone communication standards such as 2G, 3G, and 4G.
  • the communication unit 112 may support one or more of the communication standards described above.
  • the communication unit 112 may support wired communication. Wired communication includes, for example, Ethernet (registered trademark), fiber channel, and the like.
  • the communication unit 112 communicates with the other roadside devices 104, the traffic signals 106, and the traffic signals 108, and outputs signals that control the display of the traffic signals 106, 108.
  • the communication unit 112 communicates with a communication device in the predetermined area 120 by short-range wireless communication, specifically, a communication device mounted on the vehicle 102 and the smartphone 1 to transmit / receive data. .
  • the control unit 114 is an arithmetic processing device.
  • the arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto.
  • the control unit 114 controls various operations of the roadside machine 104 to realize various functions.
  • control unit 114 executes instructions included in the program stored in the storage unit 116 while referring to the data stored in the storage unit 116 as necessary. And the control part 114 controls a function part according to data and a command, and implement
  • the storage unit 116 stores programs and data.
  • the storage unit 116 is also used as a work area for temporarily storing the processing result of the control unit 114.
  • the storage unit 116 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium.
  • the storage unit 116 may include a plurality of types of storage media.
  • the storage unit 116 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reading device.
  • the storage unit 116 may include a storage device used as a temporary storage area, such as a RAM (Random Access Memory).
  • the programs stored in the storage unit 116 include a program that executes display control of the traffic light 106 and the traffic light 108, and a program that executes communication establishment processing with a communication device within a predetermined range and data transmission / reception control. Including.
  • the data stored in the storage unit 116 includes reference data for controlling display of the traffic light 106 and the traffic light 108 installed at each position, data to be transmitted to other communication devices, and the like.
  • the roadside device 104 communicates with other roadside devices 104 installed for the intersection 109 and controls the display of the traffic lights 106 and 108 arranged at the intersection 109. Specifically, the roadside device 104 displays a traffic light 106 and a traffic signal 108 on one of the intersecting roads, and displays a traffic light 106 and a traffic light 108 on the other road of the intersecting road. . When the predetermined time has elapsed from this state, the roadside machine 104 displays that the traffic lights 106 and traffic lights 108 of the intersecting roads are not allowed to pass, and then the traffic lights 106 and traffic lights 108 of one of the intersecting roads are displayed.
  • the roadside machine 104 restricts the vehicles 102 and people who can pass through the intersection 109, and suppresses the occurrence of an accident at the intersection 109. Further, the roadside device 104 can separately control the traffic light 106 for the vehicle and the traffic light 108 for the pedestrian so that only the pedestrian can pass or only the vehicle can pass.
  • the smartphone 1 has a housing 20.
  • the housing 20 includes a front face 1A, a back face 1B, and side faces 1C1 to 1C4.
  • the front face 1 ⁇ / b> A is the front of the housing 20.
  • the back face 1 ⁇ / b> B is the back surface of the housing 20.
  • the side faces 1C1 to 1C4 are side faces that connect the front face 1A and the back face 1B.
  • the side faces 1C1 to 1C4 may be collectively referred to as the side face 1C without specifying which face.
  • the smartphone 1 has a touch screen display 2, buttons 3A to 3C, an illuminance sensor 4, a proximity sensor 5, a receiver 7, a microphone 8, and a camera 12 on the front face 1A side.
  • the smartphone 1 has a speaker 11, a camera 13, and a light emitting unit 23 on the back face 1B side.
  • the smartphone 1 has buttons 3D to 3F and a connector 14 on the side face 1C.
  • the buttons 3A to 3F may be collectively referred to as the button 3 without specifying which button.
  • the touch screen display 2 has a display 2A and a touch screen 2B.
  • the display 2A and the touch screen 2B are substantially rectangular, but the shapes of the display 2A and the touch screen 2B are not limited to this.
  • Each of the display 2A and the touch screen 2B can take any shape such as a square or a circle.
  • the display 2A and the touch screen 2B are positioned so as to overlap each other, but the positions of the display 2A and the touch screen 2B are not limited to this.
  • the display 2A and the touch screen 2B may be positioned side by side or may be positioned apart from each other, for example. In the example of FIG.
  • the long side of the display 2A is along the long side of the touch screen 2B
  • the short side of the display 2A is along the short side of the touch screen 2B
  • the display 2A and the touch screen 2B are overlapped. Is not limited to this.
  • one or more sides of the display 2A may not be along any of the sides of the touch screen 2B.
  • the display 2A includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display device).
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • IELD Inorganic Electro-Luminescence Display device
  • the touch screen 2B detects contact of a finger, a pen, a stylus pen, or the like with the touch screen 2B.
  • the touch screen 2B can detect a position where a plurality of fingers, a pen, a stylus pen, or the like is in contact with the touch screen 2B.
  • the detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method, an infrared method, and a load detection method.
  • a capacitance method such as a capacitance method, a resistive film method, a surface acoustic wave method, an infrared method, and a load detection method.
  • the smartphone 1 is based on at least one of the contact detected by the touch screen 2B, the position at which the contact is detected, the change in the position at which the contact is detected, the interval at which the contact is detected, and the number of times the contact is detected. Determine the type of gesture.
  • the gesture is an operation performed on the touch screen 2B.
  • Gestures identified by the smartphone 1 include, but are not limited to, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out, for example.
  • FIG. 5 is a block diagram of the smartphone 1.
  • the smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver (sound output unit) 7, a microphone (sound output unit) 8, and a storage 9. , Controller 10, speaker 11, cameras 12 and 13, connector 14, acceleration sensor 15, orientation sensor 16, gyroscope 17, magnetic sensor 18, atmospheric pressure sensor 19, vibrator 22, and light emitting unit 23 and a GPS receiver 24.
  • the smartphone 1 may have a radio signal receiver from a positioning artificial satellite other than the GPS satellite as an alternative or supplement to the GPS receiver 24.
  • Positioning satellites other than GPS satellites include, for example, GLONASS (Global Navigation Satellite System) artificial satellites, IRNSS (Indian Regional Navigational Satellite System) artificial satellites, COMPASS artificial satellites, GALILEO artificial satellites, and the like.
  • the touch screen display 2 has the display 2A and the touch screen 2B as described above.
  • the display 2A displays characters, images, symbols, graphics, or the like.
  • the touch screen 2B detects contact.
  • the controller 10 detects a gesture for the smartphone 1. Specifically, the controller 10 detects an operation (gesture) on the touch screen 2B (touch screen display 2) by cooperating with the touch screen 2B.
  • the button 3 is operated by the user.
  • the button 3 has buttons 3A to 3F.
  • the controller 10 detects an operation on the button 3 by cooperating with the button 3.
  • the operation on the button 3 includes, for example, click, double click, triple click, push, and multi-push, but is not limited thereto.
  • the buttons 3A to 3C are, for example, a home button, a back button, or a menu button.
  • the button 3D is, for example, a power on / off button of the smartphone 1.
  • the button 3D may also serve as a sleep / sleep release button.
  • the buttons 3E and 3F are volume buttons, for example.
  • the illuminance sensor 4 detects the illuminance of the ambient light of the smartphone 1. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example.
  • the proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. The proximity sensor 5 detects that the touch screen display 2 is brought close to the face, for example.
  • the illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.
  • the communication unit 6 communicates wirelessly.
  • the communication unit 6 of an embodiment has at least a short-range wireless function.
  • the communication method supported by the communication unit 6 is a wireless communication standard.
  • wireless communication standards there are cellular phone communication standards such as 2G, 3G, 4G, and 5G, for example.
  • As communication standards of cellular phones for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Multiple Access), CDMA2000, PDC (Personal Digital Cellular), GSM (Regular Trademark) (GloSbMoS) (Personal Handy-phone System).
  • the communication unit 6 may support one or more of the communication standards described above.
  • the communication unit 6 may support wired communication. Wired communication includes, for example, Ethernet (registered trademark), fiber channel, and the like.
  • the communication unit 6 may support a communication standard for enabling communication with a roadside device arranged near the road.
  • the smartphone 1 may acquire information on the intelligent transportation system by communicating with a roadside device via the communication unit 6.
  • the communication unit 6 may support a communication standard for enabling communication with a communication device mounted on a vehicle.
  • the smartphone 1 may acquire vehicle information by communicating with the vehicle via the communication unit 6.
  • the receiver 7 and the speaker 11 are sound output units.
  • the receiver 7 and the speaker 11 output the sound signal transmitted from the controller 10 as sound.
  • the receiver 7 is used, for example, to output the other party's voice during a call.
  • the speaker 11 is used for outputting a ring tone and music, for example.
  • One of the receiver 7 and the speaker 11 may also function as the other.
  • the maximum volume that can be output from the speaker 11 is higher than the maximum volume that can be output from the receiver 7.
  • the microphone 8 is a sound input unit. The microphone 8 converts the user's voice or the like into a sound signal and transmits the sound signal to the controller 10.
  • the storage 9 stores programs and data.
  • the storage 9 is also used as a work area for temporarily storing the processing result of the controller 10.
  • the storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium.
  • the storage 9 may include a plurality of types of storage media.
  • the storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader.
  • the storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).
  • the program stored in the storage 9 includes an application executed in the foreground or the background and a control program that supports the operation of the application.
  • the application displays a screen on the display 2A, and causes the controller 10 to execute processing according to a gesture detected via the touch screen 2B.
  • the control program is, for example, an OS.
  • the application and the control program may be installed in the storage 9 via communication by the communication unit 6 or a non-transitory storage medium.
  • the storage 9 stores, for example, a control program 9A, situation determination data 9B, movement state data 9C, and setting data 9D.
  • the situation determination data 9B includes method information related to a method for determining a surrounding situation based on information detected by various sensors, and processing information related to a predetermined process executed by the smartphone 1 based on the determined surrounding situation.
  • the method information of the situation determination data 9B includes, for example, reference data for determining whether or not there is a user in the predetermined area 120.
  • the reference data includes identification information for communication of the roadside device 104, for example. For example, when the smartphone 1 receives the identification information from the roadside device 104, the smartphone 1 determines that the user is in the predetermined area 120.
  • the communication unit 6 can be regarded as a type of sensor for detecting that the user is in the predetermined area 120.
  • the process information is, for example, information indicating a condition for executing the predetermined process, and the predetermined process is a notification process as will be described in detail later.
  • the condition for executing the predetermined process is, for example, that the user is in the predetermined area 120.
  • the movement state data 9C includes information used for estimating a user's movement method.
  • the movement state data 9C stores a correspondence relationship between the detection results of the sensors (for example, the acceleration sensor 15, the azimuth sensor 16, and the gyroscope 18) and the movement method, which are detected in advance by a test, a simulation, or the like.
  • the movement state data 9C of an embodiment includes reference data for determining whether or not the user is walking as the correspondence relationship. For example, time series data of typical acceleration during walking (also referred to as registration data for walking) can be adopted as the reference data.
  • the controller 10 can determine that the user is walking when the time series data of the detected acceleration is similar to the registration data for walking.
  • the setting data 9 ⁇ / b> D includes information related to various settings related to the operation of the smartphone 1.
  • the control program 9A provides functions related to various controls for operating the smartphone 1.
  • the control program 9A realizes a call by controlling the communication unit 6, the receiver 7, the microphone 8, and the like, for example.
  • the functions provided by the control program 9A include a function for controlling information displayed on the display 2A.
  • the function provided by the control program 9A includes a function of performing various controls such as changing information displayed on the display 2A according to a gesture detected via the touch screen 2B.
  • the function provided by the control program 9A may be used in combination with a function provided by another program such as a mail application.
  • the controller 10 can comprehensively manage the operation of the smartphone 1 by controlling other components of the smartphone 1.
  • the controller 10 can also be said to be a control circuit.
  • the controller 10 includes at least one processor to provide control and processing capabilities to perform various functions, as described in further detail below.
  • At least one processor may be implemented as a single integrated circuit (IC) or as a plurality of communicatively connected integrated circuit ICs and / or discrete circuits. Good.
  • the at least one processor can be implemented according to various known techniques.
  • the processor includes one or more circuits or units configured to perform one or more data computation procedures or processes, for example, by executing instructions stored in associated memory.
  • the processor may be firmware (eg, a discrete logic component) configured to perform one or more data computation procedures or processes.
  • the processor may include one or more processors, controllers, microprocessors, microcontrollers, application specific integrated circuits (ASICs), digital signal processors, programmable logic devices, field programmable gate arrays, or the like.
  • ASICs application specific integrated circuits
  • digital signal processors programmable logic devices
  • field programmable gate arrays or the like.
  • the controller 10 is an arithmetic processing unit.
  • the arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto.
  • the controller 10 controls various operations of the smartphone 1 to realize various functions.
  • the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement
  • the functional unit may include, for example, at least one of the display 2A, the communication unit 6, the receiver 7, and the speaker 11, but is not limited thereto.
  • the controller 10 may change the control according to the detection result of the detection unit.
  • the detection unit includes, for example, a touch screen 2B, a button 3, an illuminance sensor 4, a proximity sensor 5, a microphone 8, a camera 12, a camera 13, an acceleration sensor 15, an orientation sensor 16, a gyroscope 17, a magnetic sensor 18, and an atmospheric pressure sensor 19. Although at least one may be included, it is not limited to these.
  • the controller 10 executes various controls such as changing the information displayed on the display 2A according to the gesture detected via the touch screen 2B by executing the control program 9A, for example.
  • the camera 12 is an in-camera that captures an object facing the front face 1A.
  • the camera 13 is an out camera that captures an object facing the back face 1B.
  • the connector 14 is a terminal to which other devices are connected.
  • the connector 14 may be a general-purpose terminal such as a USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), Light Peak (Thunderbolt (registered trademark)), or an earphone microphone connector.
  • the connector 14 may be a dedicated terminal such as a dock connector.
  • Devices connected to the connector 14 include, but are not limited to, external storage, speakers, and communication devices, for example.
  • the acceleration sensor 15 detects information indicating the direction and magnitude of acceleration acting on the smartphone 1.
  • the direction sensor 16 detects information indicating the direction of geomagnetism.
  • the gyroscope 17 detects information on the angle and angular velocity of the smartphone 1.
  • the magnetic sensor 18 detects magnetic force information around the smartphone 1.
  • the atmospheric pressure sensor 19 detects information on the atmospheric pressure (atmospheric pressure) outside the smartphone 1.
  • the atmospheric pressure sensor 19 is located inside the housing 20. The inside and the outside of the housing 20 communicate with each other in pressure via a hole that does not allow water to pass but allows air to pass. Thereby, the atmospheric
  • the detection results of the acceleration sensor 15, the azimuth sensor 16, and the gyroscope 17 are used in combination to detect changes in the position and orientation of the smartphone 1, for example.
  • the vibrator 22 vibrates the housing 20.
  • the vibrator includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration.
  • the light emitting unit 23 is disposed on the back face 1B and emits light.
  • the light emitting unit 23 functions as illumination that illuminates the surroundings, and is used, for example, when photographing with the camera 13.
  • the luminance of the light emitting unit 23 is higher than, for example, the maximum luminance value of the display 2A.
  • the GPS receiver 24 receives a radio signal of a predetermined frequency band from a GPS satellite.
  • the GPS receiver 24 demodulates the received radio wave signal and sends the processed signal to the controller 10.
  • the GPS receiver 24 supports calculation processing of the current position of the smartphone 1.
  • a receiver of radio signals from positioning artificial satellites other than GPS satellites may support calculation processing of the current position of the smartphone 1.
  • the GPS receiver 24 since the GPS receiver 24 is used for detection of the current position, it can be regarded as a kind of sensor from this viewpoint.
  • some or all of the programs and data stored in the storage 9 may be downloaded from other devices through communication by the communication unit 6.
  • some or all of the programs and data stored in the storage 9 may be stored in a non-transitory storage medium that can be read by the reading device included in the storage 9.
  • 5 may be stored in a non-transitory storage medium that can be read by a reading device connected to the connector 14.
  • Non-transitory storage media include, for example, optical disks such as CD (registered trademark), DVD (registered trademark), and Blu-ray (registered trademark), magneto-optical disks, magnetic storage media, memory cards, and solid-state storage media Including, but not limited to.
  • the configuration of the smartphone 1 shown in FIG. 5 is an example, and may be changed as appropriate without departing from the spirit of the present invention.
  • the number and type of buttons 3 are not limited to the example of FIG.
  • the smartphone 1 may include buttons such as a numeric keypad layout or a QWERTY layout instead of the buttons 3A to 3C as buttons for operations related to the screen.
  • the smartphone 1 may include only one button or may not include a button for operations related to the screen.
  • the smartphone 1 includes two cameras, but the smartphone 1 may include only one camera or may not include a camera.
  • the smartphone 1 includes three types of sensors (the acceleration sensor 15, the orientation sensor 16, and the gyroscope 17) in order to detect the position and orientation. May not be provided.
  • the smartphone 1 may include another type of sensor for detecting at least one of a position and a posture.
  • FIGS. 6 to 9 are flowcharts illustrating examples of control performed by the smartphone according to the embodiment.
  • the smartphone 1 can implement the functions shown in FIGS. 6 and 7 by causing the controller 10 to execute the control program 9 ⁇ / b> A stored in the storage 9.
  • the controller 10 may execute processing procedures for other functions in parallel with the processing procedures illustrated in FIGS. 6 and 7.
  • the controller 10 may repeatedly execute the process illustrated in FIG. 6 at a predetermined cycle, or may execute a change in the state of the smartphone 1 (for example, a change in the normal state / sleep state) as a trigger.
  • the controller 10 determines whether the screen is being displayed as step S12. That is, the controller 10 determines whether or not an image is being displayed on the display 2A. When it is determined that the screen is not being displayed (No in step S12), the controller 10 returns to the process in step S12. When it is determined that the screen is being displayed (Yes in step S12), the controller 10 acquires the detection result of the sensor as step S14. Specifically, the controller 10 acquires at least one detection result of the acceleration sensor 15, the magnetic sensor 18, and the gyroscope 17 and at least one detection result of the communication unit 6 and the GPS receiver 24.
  • At least one detection result of the acceleration sensor 15, the magnetic sensor 18, and the gyroscope 17 is used for determination of a moving state, and is used for determination of whether or not walking.
  • At least one detection result of the communication unit 6 and the GPS receiver 24 is used to determine whether or not the user who owns the smartphone 1 is in the predetermined area 120.
  • the controller 10 determines whether the user is walking as step S16. Specifically, the controller 10 compares the detection result (first information) of at least one of the acceleration sensor 15, the magnetic sensor 18, and the gyroscope 17 with the moving state data 9C, and based on the comparison result, It is determined whether the user is walking.
  • the movement state data 9C includes time-series data of typical acceleration when the user is walking as registration data for walking. The controller 10 determines whether or not the detection result of the acceleration sensor 15 and the registered data are similar to each other, and determines that the user is walking when it is determined that they are similar.
  • the state where the user is not walking means a state where the user has stopped for a long period of time and other moving means, for example, a user is a bicycle, a motorcycle, an automobile, a train, an amphibious vehicle, a ship and an airplane.
  • the state where the user is walking includes a state where the user moves with his / her foot.
  • the movement by the user's foot is a state in which the user is moving by himself / herself without getting on the vehicle for assisting the movement.
  • the movement by the user's feet includes at least one of walking, that is, walking and running, that is, running.
  • the movement by the user's foot includes a state in which the user stops temporarily (for a short period of time) without moving by the foot.
  • the movement by the user's foot includes that the user walks using a cane or a wheelbarrow.
  • step S16 If the controller 10 determines that the user is not walking (No in step S16), the controller 10 returns to step S12. When it is determined that the user is walking (Yes in step S16), the controller 10 determines whether the user is in the predetermined area 120 (hereinafter also referred to as an intersection area) as step S18.
  • the controller 10 of an embodiment determines whether communication between the smartphone 1 and the roadside device 104 has been established based on information (second information) acquired from the communication unit 6 and the situation determination data 9B. When it is determined that the communication between the smartphone 1 and the roadside device 104 has been established, the controller 10 determines that the user is in the intersection area. That is, the controller 10 determines that the user is in the predetermined area 120 when the signal can be received from the roadside device 104 arranged in the predetermined area 120.
  • step S32 the controller 10 detects a device capable of short-range wireless communication based on the detection result of the sensor.
  • a communicable device is a communication device in a range where a signal capable of transmitting and receiving data arrives.
  • the controller 10 determines whether communication with the roadside device 104 is possible in step S34. When it determines with the controller 10 being communicable with the roadside machine 104 (it is Yes at step S34), it determines with it being in an intersection area
  • step S34 When it is determined that the controller 10 cannot communicate with the roadside device 104 (No in step S34), the controller 10 determines that the vehicle is not in the intersection area as step S38. The controller 10 determines whether the user is in the intersection area based on the communication result of the communication unit 6 by the above processing.
  • the controller 10 determines that the user is not in the intersection area (No in step S18), the controller 10 displays the first screen on the display 2A as step S19.
  • the first screen is a screen in which a first notification image including a message “Walking smartphone attention” and having a transparent background is stacked on the screen displayed immediately before step S9.
  • the first notification image may be set in advance and stored in the storage 9 or the like.
  • the second screen is displayed as Step S20, and the housing 20 is vibrated by the vibrator 22 as Step S22.
  • the second screen is a screen in which a second notification image including a message “Please pay attention to the surroundings” and having a transparent background is stacked on the screen displayed immediately before step S20.
  • the second notification image is an image different from the first notification image, and the notification level of the second notification image is higher than the notification level of the first notification image.
  • the notification level here indicates, for example, the necessity, urgency or importance of notification.
  • the notification level is varied depending on the content of the message. For example, a message “Please pay attention to the surroundings” can inform the user that the necessity of attention to the surroundings is higher than a message “Walking smartphone”.
  • the second notification image may be set in advance and stored in the storage 9 or the like.
  • Smart phone 1 changes the notification method depending on whether or not the user is in the intersection area (predetermined area 120) when walking is detected as described above. Thereby, when there is a user in the predetermined area 120 that needs more attention, it is possible to make a notification by a method that is more easily communicated to the user. Thereby, since the notification method can be changed corresponding to the necessity of notification, it is possible to notify the user at a more appropriate notification level. As a result, the user can appropriately know the state that needs more attention.
  • the smartphone 1 may perform notification using the vibrator 22 when it is determined that the user is in the intersection area.
  • the controller 10 may cause the vibrator 22 to vibrate the housing 20 when determining that the user is walking and determining that the user is in the intersection area.
  • the user can receive notifications not only visually but also by tactile sensation. Therefore, the user can easily recognize the notification.
  • the notification level of notification with a plurality of notification methods is higher than the notification level of notification by a single notification method.
  • it is difficult for the user to use the smartphone 1 because the housing 20 vibrates. Therefore, it can suppress that a user uses the screen display of the smart phone 1 while walking at an intersection.
  • the smartphone 1 determines that the user is in the intersection area and determines that the user is walking, for example, in addition to the display by the display 2A, the smartphone 1 notifies the user by a method other than the vibration of the vibrator 22. You may go.
  • a warning sound or a warning message may be output from the speaker 11, or the light emitting unit 23 may emit light to notify with light. It can alert
  • the smart phone 1 can alert
  • the volume of the speaker 11 is larger than that of the receiver 7.
  • the surrounding people may feel it noisy.
  • the luminance of light from the light emitting unit 23 is higher than that of the display 2A, for example.
  • the surrounding people may feel dazzled. That is, they can be a nuisance to those around you. Therefore, an environment in which the user can easily stop using the smartphone 1 can be created.
  • the controller 10 acquires the detection result of the sensor with the screen being displayed as a trigger.
  • the data used for determining whether or not the user is walking and the data used for determining the surrounding situation may always be acquired, or may be executed by a process different from the process shown in FIG. .
  • the controller 10 can switch the process to be executed based on the situation when the user is walking, the order of determining whether the user is walking and whether the user is in the intersection area may be reversed. Good.
  • the message to be displayed is changed depending on whether or not the user is in the intersection area, but the message may be the same.
  • FIG. 8 is a flowchart illustrating an example of control performed by the smartphone according to one embodiment. The process of FIG. 8 may be applied to the process of FIG. Hereinafter, points peculiar to the processing of FIG. 8 will be described.
  • Controller 10 determines that the user is walking in step S16, and determines that the user is in the intersection area in step S18. And the controller 10 displays a 2nd screen by step S20, and after making the vibrator 22 vibrate by step S22, it is determined whether there exists any vehicle which approaches a user as step S42.
  • the controller 10 acquires information (third information) from the roadside device 104 via the communication unit 6 and acquires information indicating that the vehicle 102 with which the roadside device 104 can communicate exists, the vehicle approaching the user It is determined that there is.
  • the controller 10 ends this process.
  • the controller 10 outputs a sound from the speaker 11 as step S44.
  • the sound output from the speaker 11 may be a warning sound or a warning message.
  • the controller 10 determines that the user is walking, determines that the user is in the intersection area, and determines that there is a vehicle approaching the user, three means of sound in addition to display and vibration The user may be informed that more attention is required by performing notification. Thereby, the smart phone 1 may perform a more suitable alerting
  • the controller 10 causes the notification unit to perform the first notification while displaying on the display 2A.
  • the display unit 2A displays not only the first notification but also the second notification different from the first notification (for example, notification by sound) while displaying on the display 2A.
  • both the first screen and the second screen A different third screen may be displayed on the display 2A.
  • the third screen includes, for example, a message “Danger of collision”. “Collision danger” is a sentence that requires higher attention than the message on the second screen. That is, the notification level on the third screen is higher than that on the second screen.
  • the operation on the screen may be limited.
  • the smart phone 1 may restrict
  • the smart phone 1 of a certain embodiment determines that the user is walking, determines that the user is in the intersection area, and determines that there is a vehicle approaching the user, and notifies using the notification unit.
  • notification using the notification unit may be executed.
  • the smartphone 1 may determine whether or not direct communication with the vehicle 102 can be performed, and may determine whether the vehicle is approaching according to the determination result.
  • the controller 10 can directly communicate with the vehicle 102 via the wireless unit 6, the controller 10 determines that there is a vehicle 104 close to the user. As described above, even when the user is not in the predetermined area, it is possible to appropriately notify the user of necessary information by notifying the notification unit when there is a vehicle approaching the user.
  • the target with which the smartphone 1 communicates is the roadside device 104, and the target area is the intersection, but the present invention is not limited to this.
  • a GPS receiver 24 may be employed as a status detection unit that acquires surrounding information in addition to or instead of the communication unit 6.
  • the GPS receiver 24 receives GPS satellite information and specifies the current position information based on this information.
  • a road with a high degree of risk may be set in advance as a predetermined area.
  • the smartphone 1 may determine whether or not the user is walking in the predetermined area based on the position information and the predetermined area (or further, the detection result of the acceleration sensor 15).
  • the smartphone 1 may specify current position information by using a receiver of radio signals from positioning artificial satellites other than GPS satellites as a situation detection unit that acquires surrounding information.
  • FIG. 9 is a flowchart illustrating an example of control performed by the smartphone according to one embodiment. Of the processes shown in FIG. 9, the same processes as those shown in FIG. 6 are described briefly.
  • the controller 10 determines whether the screen is being displayed as step S12. When it is determined that the screen is not being displayed (No in step S12), the controller 10 returns to the process in step S12. When it is determined that the screen is being displayed (Yes in step S12), the controller 10 acquires the detection result of the sensor as step S14.
  • the controller 10 determines whether the user is walking as step S16. If the controller 10 determines that the user is not walking (No in step S16), the controller 10 returns to step S12. When it is determined that the user is walking (Yes in step S16), the controller 10 determines whether the user is in the station platform as step S52. Based on the information acquired from the communication unit 6 and the situation determination data 9B, the controller 10 of an embodiment determines whether communication has been established with the communication unit installed at the station platform. When it is determined that the controller 10 has established communication with the communication unit installed in the station platform, the controller 10 determines that the user is in the station platform.
  • the controller 10 determines that the user is not in the station platform (No in step S52)
  • the controller 10 displays the first screen as step S24.
  • the first screen is a screen in which the first notification image including the message “Walking smartphone attention” and having a transparent background is stacked on the screen displayed immediately before step S24.
  • the controller 10 displays the second screen as Step S20, and vibrates the housing 20 with the vibrator 22 as Step S22.
  • the second screen is a screen in which a second notification image including a message “Please pay attention to the surroundings” and having a transparent background is stacked on the screen displayed immediately before step S22.
  • the smartphone 1 is not limited to the intersection, and various places may be set in the predetermined area.
  • the smartphone 1 sets a place where attention is required in a predetermined area, and when the user walks in the predetermined area, notifies the user that further attention is required by performing a notification at a high notification level by the notification unit. can do.
  • whether or not the user is at the station platform may be determined based on the position information and the map information instead of the communication result of the communication unit.
  • the smartphone 1 uses an escalator and a staircase as a predetermined area, detects that the escalator is on the staircase, and when walking, in addition to the screen display, performs a notification of a high notification level from the notification unit. Also good. As a result, it is possible to prevent the escalator and the stairs from being dropped or dropped. Whether or not the escalator is on the stairs can be determined based on the change in the atmospheric pressure of the atmospheric pressure sensor 19. That is, the smartphone 1 can use the atmospheric pressure sensor 19 as a situation detection unit.
  • the smart phone 1 may determine based on a positional information and map information as a detection of whether it is on an escalator and a staircase, and communicates with the communication part in the escalator and the staircase which can perform near field communication. It may be detected.
  • each program shown in FIG. 5 may be divided into a plurality of modules or may be combined with other programs.
  • a smartphone has been described as an example of a portable electronic device, but the device according to the appended claims is not limited to a smartphone.
  • the device according to the appended claims may be a portable electronic device other than a smartphone.
  • the portable electronic device only needs to include a display unit, an operation unit, and a communication unit that communicates with other devices.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Environmental & Geological Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Telephone Function (AREA)

Abstract

携帯電子機器は、表示部と、第1情報を取得する第1検出部と、第2情報を取得する第2検出部と、報知部と、コントローラと、を有し、コントローラは、第1情報に基づいて、ユーザが歩行していることを検出し、かつ、第2情報に基づいて、ユーザが所定領域以外の領域にいると判定すると、第1画面を表示部に表示させ、第1情報に基づいて、ユーザが歩行していることを検出し、かつ、第2情報に基づいて、ユーザが所定領域にいると判定すると、表示部に表示を行わせつつ、報知部に第1報知を行わせる。

Description

携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム 関連出願の相互参照
 本出願は、日本国特許出願2016-089629号(2016年4月27日出願)の優先権を主張するものであり、当該出願の開示全体を、ここに参照のために取り込む。
 本出願は、携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラムに関する。
 携帯通信機器の携帯電子機器には、ユーザが移動中であるかを判定することができるものが存在する。例えば、従来から加速度センサなどの検出結果からユーザの歩行を判定する技術が提案されている。
 1つの態様に係る携帯電子機器は、表示部と、第1情報を取得する第1検出部と、第2情報を取得する第2検出部と、報知部と、コントローラと、を有する。前記コントローラは、前記第1情報に基づいて、ユーザが歩行していることを検出する。前記コントローラは、前記第2情報に基づいて、前記ユーザが所定領域以外の領域にいると判定すると、第1画面を前記表示部に表示させる。前記コントローラは、前記第1情報に基づいて、ユーザが歩行していることを検出する。前記コントローラは、前記第2情報に基づいて、前記ユーザが前記所定領域にいると判定すると、前記表示部に表示を行わせつつ、前記報知部に第1報知を行わせる。
 1つの態様に係る携帯電子機器制御方法は、表示部を備える携帯電子機器を制御する携帯電子機器制御方法である。前記携帯電子機器制御方法は、第1情報を取得し、前記第1情報に基づいてユーザが歩行しているかを判定するステップと、第2情報を取得し、前記第2情報に基づいて、ユーザが所定領域にいるか否かを判定するステップと、前記ユーザが歩行していることを検出し、かつ、前記ユーザが所定領域以外にいると判定すると、第1画面を前記表示部に表示させ、前記ユーザが歩行していることを検出し、かつ、前記ユーザが前記所定領域にいると判定すると、前記表示部に表示を行わせつつ、表示とは異なる第1報知を行うステップと、を含む。
 1つの態様に係る携帯電子機器制御プログラムは、表示部を備える携帯電子機器に、第1情報を取得し、前記第1情報に基づいてユーザが歩行しているかを判定するステップと、第2情報を取得し、前記第2情報に基づいて、ユーザが所定領域にいるか否かを判定するステップと、前記ユーザが歩行していることを検出し、かつ、前記ユーザが所定領域以外にいると判定すると、第1画面を前記表示部に表示させ、前記ユーザが歩行していることを検出し、かつ、前記ユーザが前記所定領域にいると判定すると、前記表示部への表示に加え、表示とは異なる第1報知を行うステップと、を実行させる。
図1は、制御システムの概略構成を示す模式図である。 図2は、実施形態に係るスマートフォンの斜視図である。 図3は、スマートフォンの正面図である。 図4は、スマートフォンの背面図である。 図5は、スマートフォンのブロック図である。 図6は、実施形態に係るスマートフォンが行う制御の一例を示すフローチャートである。 図7は、実施形態に係るスマートフォンが行う制御の一例を示すフローチャートである。 図8は、実施形態に係るスマートフォンが行う制御の一例を示すフローチャートである。 図9は、実施形態に係るスマートフォンが行う制御の一例を示すフローチャートである。
 実施形態の例を、図面を参照しつつ詳細に説明する。以下では、携帯電子機器の例として、スマートフォンについて説明する。
 スマートフォン1を含む制御システム100の概略構成について説明する。図1は、制御システムの概略構成を示す模式図である。制御システム100は、スマートフォン1と、路側機104と、を含む。なお、図1では、1つの交差点の1つのスマートフォン1と4つの路側機104とを示しているが、制御システム100は、多数のスマートフォン1と多数の路側機104と、を含む。制御システム100は、スマートフォン1と通信を行い、スマートフォン1にスマートフォン1の周囲の状況に関する情報を送信する種々の通信機器が含まれる。
 路側機104は、信号機106、信号機108の表示を制御する。信号機106、信号機108は、交差点109に配置されている。交差点109には、車両が通行する道路に横断歩道110が設けられている。信号機106は、車両102に対して設置されている。信号機106は、交差点109の各道路に配置され、対応する道路が通行可能な状態であるか、通行禁止の状態であるかを示す。信号機108は、横断歩道110を横断する歩行者に対して配置されている。信号機108は、交差点109の各横断歩道110に配置され、対応する横断歩道110が通行可能な状態であるか、通行禁止の状態であるかを示す。
 路側機104は、通信部112と、制御部114と、記憶部116と、を有する。通信部112は、無線により通信する。通信部112によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。無線通信規格として、例えば、さらに、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等がある。通信部112は、上述した通信規格の1つ又は複数をサポートしていてもよい。通信部112は、有線による通信をサポートしてもよい。有線による通信は、例えば、イーサネット(登録商標)、ファイバーチャネル等を含む。通信部112は、他の路側機104、信号機106、信号機108と通信を行い、信号機106、108の表示を制御する信号を出力する。また、通信部112は、近距離無線通信で所定領域120内にある通信機器、具体的には、車両102に搭載されている通信機器、および、スマートフォン1と通信を行い、データの送受信を行う。
 制御部114は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、及びFPGA(Field-Programmable Gate Array)を含むが、これらに限定されない。制御部114は、路側機104の動作を統括的に制御して各種の機能を実現する。
 具体的には、制御部114は、記憶部116に記憶されているデータを必要に応じて参照しつつ、記憶部116に記憶されているプログラムに含まれる命令を実行する。そして、制御部114は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。
 記憶部116は、プログラム及びデータを記憶する。記憶部116は、制御部114の処理結果を一時的に記憶する作業領域としても利用される。記憶部116は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non-transitory)な記憶媒体を含んでよい。記憶部116は、複数の種類の記憶媒体を含んでよい。記憶部116は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。記憶部116は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
 記憶部116に記憶されるプログラムには、信号機106、信号機108の表示制御を実行するプログラムと、所定の範囲にある通信機器との通信確立処理及びデータの送受信の制御を実行するプログラムと、を含む。記憶部116に記憶されるデータには、各位置に設置された信号機106、信号機108の表示を制御する基準のデータや、他の通信機器に送信するデータ等を含む。
 路側機104は、交差点109に対して設置された他の路側機104と通信を行い、交差点109に配置された信号機106、信号機108の表示を制御する。具体的には、路側機104は、交差する道路の一方の道路の信号機106、信号機108を通行可能な表示とし、交差する道路の他方の道路の信号機106、信号機108を通行不可の表示とする。路側機104は、この状態から、所定時間が経過した場合、交差する道路の両方の信号機106、信号機108を通行不可の表示とした後、交差する道路の一方の道路の信号機106、信号機108を通行不可の表示とし、交差する道路の他方の道路の信号機106、信号機108を通行可能な表示とする。これにより、路側機104は、交差点109を通行できる車両102や人を制限し、交差点109での事故の発生を抑制する。また、路側機104は、車両に対する信号機106と、歩行者に対する信号機108と、を別々に制御し、歩行者のみが通行可能な状態や、車両のみが通行可能な状態とすることもできる。
 図2から図4を参照しながら、実施形態の一つに係るスマートフォン1の全体的な構成について説明する。図2から図4に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1~1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1~1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1~1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
 スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A~3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1A側に有する。スマートフォン1は、スピーカ11と、カメラ13と、発光部23と、をバックフェイス1B側に有する。スマートフォン1は、ボタン3D~3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A~3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。
 タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。図2の例では、ディスプレイ2A及びタッチスクリーン2Bはそれぞれ略長方形状であるが、ディスプレイ2A及びタッチスクリーン2Bの形状はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、それぞれが正方形又は円形等のどのような形状もとりうる。図2の例では、ディスプレイ2A及びタッチスクリーン2Bは重なって位置しているが、ディスプレイ2A及びタッチスクリーン2Bの位置はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、例えば、並んで位置してもよいし、離れて位置してもよい。図2の例では、ディスプレイ2Aの長辺はタッチスクリーン2Bの長辺に沿っており、ディスプレイ2Aの短辺はタッチスクリーン2Bの短辺に沿っているが、ディスプレイ2A及びタッチスクリーン2Bの重ね方はこれに限定されない。ディスプレイ2Aとタッチスクリーン2Bとが重なって位置する場合、例えば、ディスプレイ2Aの1ないし複数の辺は、タッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。
 ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro-Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等のオブジェクトを表示する。
 タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。
 タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式、赤外線方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、ユーザはスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。
 スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーン2Bに対して行われる操作である。スマートフォン1によって判別されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。
 図5は、スマートフォン1のブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ(音出力部)7と、マイク(音出力部)8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12及び13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17と、磁気センサ18と、気圧センサ19と、バイブレータ22と、発光部23と、GPS受信機24と、を有する。なお、スマートフォン1は、GPS受信機24の代替、或いは、補完として、GPS衛星以外の測位用人工衛星からの電波信号の受信機を有してもよい。GPS衛星以外の測位用人工衛星は、例えば、GLONASS(Global Navigation Satellite System)の人工衛星、IRNSS(Indian Regional Navigational Satellite System)の人工衛星、COMPASSの人工衛星、GALILEOの人工衛星、等を含む。
 タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、接触を検出する。コントローラ10は、スマートフォン1に対するジェスチャを検出する。具体的には、コントローラ10は、タッチスクリーン2Bと協働することによって、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する操作(ジェスチャ)を検出する。
 ボタン3は、ユーザによって操作される。ボタン3は、ボタン3A~ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタン3に対する操作を検出する。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュを含むが、これらに限定されない。
 ボタン3A~3Cは、例えば、ホームボタン、バックボタンまたはメニューボタンである。ボタン3Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン3E及び3Fは、例えば、音量ボタンである。
 照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化または超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
 通信ユニット6は、無線により通信する。ある実施形態の通信ユニット6は、少なくとも近距離無線の機能を備えている。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G、5G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。通信ユニット6は、有線による通信をサポートしてもよい。有線による通信は、例えば、イーサネット(登録商標)、ファイバーチャネル等を含む。実施形態の1つにおいて、通信ユニット6は、道路傍に配置される路側機との通信を可能とするための通信規格をサポートしてよい。例えば、スマートフォン1は、通信ユニット6を介して路側機と通信することにより、高度道路交通システムの情報を取得してよい。実施形態の1つにおいて、通信ユニット6は、車両に搭載される通信機器との通信を可能とするための通信規格をサポートしてよい。例えば、スマートフォン1は、通信ユニット6を介して車両と通信することにより、車両の情報を取得してよい。
 レシーバ7及びスピーカ11は、音出力部である。レシーバ7及びスピーカ11は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。スピーカ11が出力可能な音量の最大値は、レシーバ7から出力可能な音量の最大値よりも高い。マイク8は、音入力部である。マイク8は、ユーザの音声等を音信号へ変換してコントローラ10へ送信する。
 ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non-transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
 ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させ、タッチスクリーン2Bを介して検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
 ストレージ9は、例えば、制御プログラム9A、状況判定データ9B、移動状態データ9C及び設定データ9Dを記憶する。状況判定データ9Bは、各種センサで検出した情報に基づいて周囲の状況を判定する方法に関する方法情報、及び判定した周囲の状況に基づいてスマートフォン1で実行される所定の処理に関する処理情報を含む。状況判定データ9Bの方法情報は、例えば、所定領域120にユーザがいるか否かを判定するための基準のデータを含んでいる。具体的には、この基準のデータは、例えば路側機104の通信用の識別情報を含んでいる。スマートフォン1は、例えば路側機104から識別情報を受信したときに、ユーザが所定領域120にいると判定する。言い換えれば、スマートフォン1が路側機104と通信を確立している場合に、ユーザが所定領域120にいると判定する。なお通信ユニット6は、ユーザが所定領域120にいることを検出するためのセンサの一種とみることができる。処理情報は、例えば、所定の処理を実行する条件を示す情報と、所定の処理は後に詳述するように報知処理である。所定の処理を実行する条件は、例えばユーザが所定領域120にいることである。
 移動状態データ9Cは、ユーザの移動方法の推定に用いられる情報を含む。移動状態データ9Cは、予め試験やシミュレーション等によって検出した、センサ(例えば加速度センサ15、方位センサ16およびジャイロスコープ18)の検出結果と移動方法との対応関係を記憶している。ある実施形態の移動状態データ9Cは、ユーザが歩行しているか否かを判定するための基準のデータを当該対応関係として含んでいる。例えば、歩行時の典型的な加速度の時系列データ(歩行用の登録データとも呼ぶ)が基準のデータとして採用され得る。コントローラ10は、検出した加速度の時系列データが歩行用の登録データと類似するときには、ユーザが歩行していると判定できる。設定データ9Dは、スマートフォン1の動作に関する各種の設定に関する情報を含む。
 制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、ディスプレイ2Aに表示する情報を制御する機能が含まれる。制御プログラム9Aが提供する機能には、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を行う機能が含まれる。制御プログラム9Aが提供する機能は、メールアプリケーション等の他のプログラムが提供する機能と組み合わせて利用されることがある。
 コントローラ10は、スマートフォン1の他の構成要素を制御することによって、スマートフォン1の動作を統括的に管理することが可能である。コントローラ10は制御回路とも言える。コントローラ10は、以下にさらに詳細に述べられるように、種々の機能を実行するための制御および処理能力を提供するために、少なくとも1つのプロセッサを含む。
 種々の実施形態によれば、少なくとも1つのプロセッサは、単一の集積回路(IC)として、または複数の通信可能に接続された集積回路ICおよび/またはディスクリート回路(discrete circuits)として実行されてもよい。少なくとも1つのプロセッサは、種々の既知の技術に従って実行されることが可能である。
 1つの実施形態において、プロセッサは、例えば、関連するメモリに記憶された指示を実行することによって1以上のデータ計算手続または処理を実行するように構成された1以上の回路またはユニットを含む。他の実施形態において、プロセッサは、1以上のデータ計算手続きまたは処理を実行するように構成されたファームウェア(例えば、ディスクリートロジックコンポーネント)であってもよい。
 種々の実施形態によれば、プロセッサは、1以上のプロセッサ、コントローラ、マイクロプロセッサ、マイクロコントローラ、特定用途向け集積回路(ASIC)、デジタル信号処理装置、プログラマブルロジックデバイス、フィールドプログラマブルゲートアレイ、またはこれらのデバイス若しくは構成の任意の組み合わせ、または他の既知のデバイスおよび構成の組み合わせを含み、以下に説明される機能を実行してもよい。
 本例では、コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、及びFPGA(Field-Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
 具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、レシーバ7、及びスピーカ11の少なくとも1つを含んでもよくこれらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、カメラ13、加速度センサ15、方位センサ16、ジャイロスコープ17、磁気センサ18及び気圧センサ19の少なくとも1つを含んでもよいが、これらに限定されない。
 コントローラ10は、例えば、制御プログラム9Aを実行することにより、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を実行する。
 カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。
 コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置を含むが、これらに限定されない。
 加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを示す情報を検出する。方位センサ16は、地磁気の向きを示す情報を検出する。ジャイロスコープ17は、スマートフォン1の角度及び角速度の情報を検出する。磁気センサ18は、スマートフォン1の周囲の磁力の情報を検出する。気圧センサ19は、スマートフォン1の外側の気圧(大気圧)の情報を検出する。気圧センサ19は、ハウジング20の内部に位置している。ハウジング20の内部および外部は、水は通過させないが空気を通過させる穴を介して気圧的に連通している。これにより、気圧センサ19は、内部に位置した状態で、スマートフォン1の外側の気圧を検出することができる。加速度センサ15、方位センサ16及びジャイロスコープ17の検出結果は、例えば、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。
 バイブレータ22は、ハウジング20を振動させる。バイブレータは、振動を発生させるために、例えば、圧電素子、又は偏心モータなどを有する。発光部23は、例えば、バックフェイス1Bに配置されており、光を出射する。発光部23は、周囲を照らす照明として機能し、例えばカメラ13での撮影時に用いられる。発光部23の輝度は例えばディスプレイ2Aの輝度の最大値よりも高い。
 GPS受信機24は、GPS衛星からの所定の周波数帯の電波信号を受信する。GPS受信機24は、受信した電波信号の復調処理を行って、処理後の信号をコントローラ10に送出する。GPS受信機24は、スマートフォン1の現在位置の演算処理をサポートする。GPS衛星以外の測位用人工衛星からの電波信号の受信機が、スマートフォン1の現在位置の演算処理をサポートしてもよい。なおGPS受信機24は、現在位置の検出に用いられるので、この観点ではセンサの一種とみることができる。
 図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による通信で他の装置からダウンロードされてもよい。図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。図5においてストレージ9が記憶するプログラム及びデータの一部又は全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu-ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。
 図5に示したスマートフォン1の構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図5の例に限定されない。スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A~3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてもよいし、ボタンを備えなくてもよい。図5に示した例では、スマートフォン1が2つのカメラを備えるが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。図5に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサ(加速度センサ15、方位センサ16およびジャイロスコープ17)を備えるが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよい。あるいは、スマートフォン1は、位置及び姿勢の少なくとも1つを検出するための他の種類のセンサを備えてもよい。
 次に、図6から図9を参照して、スマートフォン1が実行している制御について説明する。図6から図9は、それぞれ実施形態に係るスマートフォンが行う制御の一例を示すフローチャートである。
 まず、図6及び図7を用いて、スマートフォン1が実行する全体処理について説明する。スマートフォン1は、コントローラ10がストレージ9に記憶されている制御プログラム9Aを実行することで、図6及び図7に示す機能を実現することができる。また、コントローラ10は、図6及び図7に示す処理手順と並行して、他の機能の処理手順を実行することがある。コントローラ10は、図6に示す処理を所定周期で繰り返し実行してもよいし、スマートフォン1の状態の変化(例えば通常状態/スリープ状態の変化)をトリガーとして実行してもよい。
 まず、コントローラ10は、ステップS12として、画面を表示中であるかを判定する。つまり、コントローラ10は、ディスプレイ2Aに画像を表示させている状態であるかを判定する。コントローラ10は、画面を表示中ではない(ステップS12でNo)と判定した場合、ステップS12の処理に戻る。コントローラ10は、画面を表示中である(ステップS12でYes)と判定した場合、ステップS14として、センサの検出結果を取得する。具体的には、コントローラ10は、加速度センサ15、磁気センサ18及びジャイロスコープ17の少なくとも1つの検出結果と、通信ユニット6及びGPS受信機24の少なくとも1つの検出結果を取得する。加速度センサ15、磁気センサ18及びジャイロスコープ17の少なくとも1つの検出結果は、移動状態の判定に用いられ、歩行しているか否かの判定に用いられる。通信ユニット6及びGPS受信機24の少なくとも1つの検出結果は、スマートフォン1を所持しているユーザが所定領域120にいるか否かの判定に用いられる。
 コントローラ10は、センサの検出結果を取得した後、ステップS16として、ユーザが歩行しているかを判定する。具体的には、コントローラ10は、加速度センサ15、磁気センサ18、ジャイロスコープ17の少なくともいずれか一つの検出結果(第1情報)と移動状態データ9Cとを比較し、その比較結果に基づいて、ユーザが歩行しているかを判定する。例えば移動状態データ9Cは、ユーザが歩行しているときの典型的な加速度の時系列データを歩行用の登録データとして含んでいる。コントローラ10は、加速度センサ15の検出結果と登録データとが互いに類似するか否かを判定し、これらが類似すると判定したときに、ユーザが歩行していると判定する。ここで、ユーザが歩行していない状態とは、ユーザが例えば長期間に亘って立ち止まっている状態及び他の移動手段、例えば、ユーザが自転車、バイク、自動車、電車、水陸両用車、船及び飛行機で移動している状態を含む。また、ユーザが歩行している状態は、ユーザが足で移動する状態を含む。ユーザの足による移動とは、ユーザが、移動を補助する乗り物に乗らずに自力で移動している状態である。ユーザの足による移動には、歩行つまり歩いている及び走行つまり走っている、の少なくとも一方が含まれる。また、ユーザの足による移動には、ユーザが足で移動せずに例えば一時的(短期間)に立ち止まっている状態も含む。ユーザの足による移動には、ユーザが杖や手押し車等を用いて歩行することも含まれる。
 コントローラ10は、ユーザが歩行していない(ステップS16でNo)と判定した場合、ステップS12に戻る。コントローラ10は、ユーザが歩行している(ステップS16でYes)と判定した場合、ステップS18として、ユーザが所定領域120(以下、交差点領域とも呼ぶ)にいるかを判定する。ある実施形態のコントローラ10は、通信ユニット6から取得した情報(第2情報)と状況判定データ9Bとに基づいて、スマートフォン1と路側機104との間の通信が確立しているかを判定する。コントローラ10は、スマートフォン1と路側機104との通信を確立していると判定した場合、ユーザが交差点領域にいると判定する。つまり、コントローラ10は、所定領域120内に配置された路側機104から信号を受信できる場合には、ユーザが、所定領域120の中にいると判定する。
 図7を用いて、処理の一例をより具体的に説明する。コントローラ10は、ステップS32として、センサの検出結果に基づいて、近距離無線通信可能な機器を検出する。通信可能な機器とは、データを送受信できる信号が到達している範囲にある通信機器である。コントローラ10は、通信可能な機器を検出した場合、ステップS34として、路側機104と通信可能であるかを判定する。コントローラ10は、路側機104と通信可能である(ステップS34でYes)と判定した場合、ステップS36として、交差点領域にいると判定する。コントローラ10は、路側機104と通信可能ではない(ステップS34でNo)と判定した場合、ステップS38として、交差点領域にいないと判定する。コントローラ10は、以上の処理で、通信ユニット6の通信結果に基づいて、ユーザが交差点領域にいるかを判定する。
 コントローラ10は、ユーザが交差点領域にいない(ステップS18でNo)と判定した場合、ステップS19として、ディスプレイ2Aに第1画面を表示させる。第1画面は、「歩きスマホ注意」というメッセージを含み背景が透明な第1報知画像を、ステップS9の直前に表示している画面に積層させた画面である。この第1報知画像は例えば予め設定されて、ストレージ9などに記憶されてもよい。コントローラ10は、交差点領域にいる(ステップS18でYes)と判定した場合、ステップS20として、第2画面を表示させ、ステップS22として、バイブレータ22でハウジング20を振動させる。第2画面は、「周囲に注意してください」というメッセージを含み背景が透明な第2報知画像を、ステップS20の直前に表示している画面に積層させた画面である。この第2報知画像は例えば第1報知画像とは異なる画像であり、第2報知画像の報知レベルは第1報知画像の報知レベルよりも高い。ここでいう報知レベルとは、例えば報知の必要性、緊急性または重要性を示している。上述の例では、メッセージの内容で報知レベルを異ならせている。例えば「周囲に注意してください」というメッセージは、「歩きスマホ注意」というメッセージよりも、周囲への注意の必要性が高いことをユーザに報知することができる。第2報知画像は例えば予め設定されて、ストレージ9などに記憶されてもよい。
 スマートフォン1は、以上のように、歩行を検出している場合、ユーザが交差点領域(所定領域120)にいるか否かで報知の方法を変化させる。これにより、より注意が必要な所定領域120にユーザがいる場合に、よりユーザに伝わりやすい方法で報知を行うことができる。これにより、報知の必要性に対応して報知方法を変化させることができるため、ユーザに対してより適切な報知レベルで報知を行うことができる。これにより、ユーザはより注意が必要な状態を適切に知ることができる。
 また、ある実施形態のスマートフォン1は、ユーザが交差点領域にいると判定した場合、バイブレータ22を用いて報知を行ってもよい。具体的には、コントローラ10は、ユーザが歩行していると判定し、かつ、ユーザが交差点領域にいると判定したときには、バイブレータ22にハウジング20を振動させてもよい。この振動により、ユーザは、視覚のみならず触覚によっても、報知を受け取ることができる。よって、ユーザは報知をより認識しやすい。このように複数の報知方法で報知を行う場合には、より報知の必要性が高いと考えられる。つまり、複数の報知方法を伴う報知の報知レベルは、単一の報知方法による報知の報知レベルに比べて高い。またハウジング20が振動することで、ユーザはスマートフォン1を使いにくい。よって、ユーザが交差点で歩きながらスマートフォン1の画面表示を使用することを抑制することができる。
 また、スマートフォン1は、ユーザが交差点領域にいると判定し、かつ、ユーザが歩いていると判定した場合、例えばディスプレイ2Aによる表示に加えて、バイブレータ22の振動以外の方法で、ユーザに報知を行ってもよい。報知方法としては、スピーカ11から警告音または警告メッセージを出力してもよいし、発光部23を発光させ、光で報知してもよい。音または光で報知を行うことで、周囲にスマートフォン1を使用していることを報知することができる。つまり、スマートフォン1は、ディスプレイ2Aによる視覚のみならず、聴覚または発光部23による視覚を用いて、報知を受け取ることができる。複数の報知を受け取ることができるので、ユーザは報知をより認識しやすい。このように複数の報知方法で報知を行うことにより、スマートフォン1は高い報知レベルで報知を行うことができる。またスピーカ11の音量はレシーバ7に比べて大きい。スピーカ11から大音量の音が出力されると、周囲の人はこれをうるさく感じることがある。また発光部23からの光の輝度は、例えばディスプレイ2Aに比して高い。発光部23から高輝度の光が出力されると、周囲の人はまぶしく感じることがある。つまり、これらは周囲の人にとっては迷惑となり得る。したがって、ユーザがスマートフォン1の使用をやめやすい環境を作ることができる。
 なお、図6に示す処理では、コントローラ10は、画面が表示中であることをトリガーとして、センサの検出結果を取得した。しかしながら、ユーザが歩行しているか否かの判定に用いるデータ、周囲状況の判定に用いるデータの取得は、常に行ってもよいし、図6に示す処理とは別の処理で実行してもよい。また、コントローラ10は、ユーザが歩いているときの状況に基づいて実行する処理を切り換えることができれば、ユーザが歩いているかの判定と、ユーザが交差点領域にいるかの判定の順序は逆にしてもよい。
 また、上記実施形態では、コントローラ10は、ユーザが歩いていると判定したときには、表示するメッセージを、ユーザが交差点領域にいるか否かに応じて変化させたが、メッセージは同一でもよい。
 また、スマートフォン1は、ユーザが交差点領域にいる場合の周囲の状況に応じて、危険度がさらに高い状況を検出した場合、ユーザに注意がより伝わる方法で報知を行ってもよい。図8は、実施形態の一つに係るスマートフォンが行う制御の一例を示すフローチャートである。図8の処理は、一部を除いて、図6の処理を適用してよい。以下、図8の処理に特有の点を説明する。
 コントローラ10は、ステップS16でユーザが歩行していると判定し、ステップS18でユーザが交差点領域にいると判定する。そして、コントローラ10は、ステップS20で第2画面を表示させ、ステップS22でバイブレータ22に加振を行わせた後、ステップS42として、ユーザに接近する車両があるかを判定する。コントローラ10は、通信ユニット6を介して路側機104から情報(第3情報)を取得し、路側機104が通信可能な車両102が存在することを示す情報を取得した場合、ユーザに接近する車両があると判定する。コントローラ10は、ユーザに接近する車両がない(ステップS42でNo)と判定した場合、本処理を終了する。コントローラ10は、ユーザに接近する車両がある(ステップS42でYes)と判定した場合、ステップS44として、スピーカ11から音声を出力する。なお、スピーカ11から出力する音声は、警告音でも警告メッセージでもよい。
 コントローラ10は、ユーザが歩行していると判定し、かつ、ユーザが交差点領域にいると判定し、かつ、ユーザに接近する車両があると判定した場合、表示および振動に加え音の3つの手段で報知を行うことで、より注意が必要であることをユーザに報知してよい。これにより、スマートフォン1は、ユーザが歩きながら画面を表示させている場合、状況に応じてより適切な報知処理を実行してよい。要するに、コントローラ10は、(i)ユーザが歩行していると判定し、かつ、(ii)ユーザが交差点領域にいると判定したときには、ディスプレイ2Aに表示を行わせつつ、報知部に第1報知(例えば振動による報知)を行わせ、(i)ユーザが歩行していると判定し、(ii)ユーザが交差点領域にいると判定し、かつ、(iii)ユーザに近接する車両があると判定したときには、ディスプレイ2Aに表示を行わせつつ、報知部に第1報知のみならず、第1報知とは異なる第2報知(例えば音による報知)も行わせる。
 また、スマートフォン1は、ユーザが歩行していると判定し、ユーザが交差点領域にいると判定し、かつ、ユーザに接近する車両があると判定した場合、第1画面および第2画面のいずれとも異なる第3画面をディスプレイ2Aに表示させてもよい。第3画面には、例えば「衝突危険」というメッセージが含まれる。「衝突危険」は、第2画面におけるメッセージよりも注意の必要性が高い文章である。つまり、第3画面における報知レベルは第2画面よりも高い。
 また、スマートフォン1は、ユーザが歩行していると判定し、ユーザが交差点領域にいると判定し、かつ、ユーザに接近する車両があると判定した場合、画面に対する操作を制限してもよい。もしくは、スマートフォン1は、ユーザが歩行していると判定し、かつ、ユーザが交差点領域にいると判定した場合、画面に対する操作を制限してもよい。スマートフォン1は、ユーザが歩いていると判定し、ユーザが交差点領域にいないと判定した場合、画面に対する操作を有効としてもよい。つまり、スマートフォン1は画面に対する操作の制限を解除してもよい。もしくは、スマートフォン1は、ユーザが歩いていると判定し、ユーザに接近する車両がいないと判定した場合、画面に対する操作を有効としてもよい。これにより、ユーザは、画面に対する操作が制限されることで、スマートフォン1の操作に集中し、周囲の状況変化への対応に遅れることを抑制することができる。
 なお、ある実施形態のスマートフォン1は、ユーザが歩行していると判定し、ユーザが交差点領域にいると判定し、かつ、ユーザに接近する車両があると判定した場合、報知部を用いた報知を実行したが、ユーザが歩行していると判定し、かつ、ユーザに接近する車両があると判定した場合に報知部を用いた報知を実行してもよい。この場合、スマートフォン1は、車両102と直接通信を行うことができるか否かの判定を行いその判定結果に応じて、車両が接近しているかを判定してもよい。具体的には、コントローラ10は無線ユニット6を介して車両102と直接通信を行うことができたときに、ユーザに近接する車両104があると判定する。このようにユーザが所定領域にいない場合も、ユーザに接近する車両がある場合に報知部で報知することでより、ユーザに必要な情報を適切に報知することができる。
 上記実施形態では、スマートフォン1が通信を行う対象を路側機104とし、対象の領域を交差点としたが、これに限定されない。例えば、周囲の情報を取得する状況検出部として、通信ユニット6に加え、または、これに替えて、GPS受信機24を採用してもよい。この場合、GPS受信機24はGPS衛星の情報を受信し、この情報に基づいて現在の位置情報を特定する。またスマートフォン1には、道路の中で危険度の高い道路が所定領域として予め設定されていてもよい。スマートフォン1は、ユーザがこの所定領域を歩行しているか否かを、位置情報と所定領域(あるいは更に加速度センサ15の検出結果)とに基づいて判定してもよい。なおスマートフォン1は、周囲の情報を取得する状況検出部として、GPS衛星以外の測位用人工衛星からの電波信号の受信機を利用し、現在の位置情報を特定してもよい。
 また、上記実施形態では、所定領域を交差点領域としたがこれに限定されない。図9は、実施形態の一つに係るスマートフォンが行う制御の一例を示すフローチャートである。図9に示す処理のうち、図6に示す処理と同様の処理については、説明を簡略化する。
 まず、コントローラ10は、ステップS12として、画面を表示中であるかを判定する。コントローラ10は、画面を表示中ではない(ステップS12でNo)と判定した場合、ステップS12の処理に戻る。コントローラ10は、画面を表示中である(ステップS12でYes)と判定した場合、ステップS14として、センサの検出結果を取得する。
 コントローラ10は、センサの検出結果を取得した後、ステップS16として、ユーザが歩行しているかを判定する。コントローラ10は、ユーザが歩行していない(ステップS16でNo)と判定した場合、ステップS12に戻る。コントローラ10は、ユーザが歩行している(ステップS16でYes)と判定した場合、ステップS52として、ユーザが駅のホーム内にいるかを判定する。ある実施形態のコントローラ10は、通信ユニット6から取得した情報と状況判定データ9Bとに基づいて、駅のホームに設置された通信部と通信が確立しているかを判定する。コントローラ10は、駅のホームに設置された通信部と通信を確立していると判定した場合、駅のホーム内にいると判定する。
 コントローラ10は、ユーザが駅のホーム内にいない(ステップS52でNo)と判定した場合、ステップS24として、第1画面を表示させる。第1画面は、「歩きスマホ注意」というメッセージを含み背景が透明な第1報知画像を、ステップS24の直前に表示している画面に積層させた画面である。コントローラ10は、ユーザが駅のホーム内にいる(ステップS52でYes)と判定した場合、ステップS20として、第2画面を表示させ、ステップS22として、バイブレータ22でハウジング20を振動させる。第2画面は、「周囲に注意してください」というメッセージを含み背景が透明な第2報知画像を、ステップS22の直前に表示している画面に積層させた画面である。
 このように、スマートフォン1は、交差点に限定されず、種々の場所を所定領域に設定してよい。スマートフォン1は、注意が必要な場所を所定領域に設定し、所定領域で歩いている場合、報知部による高い報知レベルの報知を行うことで、よりいっそうの注意が必要であることをユーザに報知することができる。
 また、駅のホームにいるか否かは、通信部の通信の結果ではなく、位置情報と地図情報に基づいて判定してもよい。
 また、スマートフォン1は、所定領域をエスカレータ、階段とし、エスカレータ、階段にいることを検出し、かつ、歩いている場合は、画面表示に加え、報知部から高い報知レベルの報知を行うようにしてもよい。これにより、エスカレータ、階段の段差に躓いたり、落ちたりすることを抑制できる。また、エスカレータ、階段にいるか否かは、気圧センサ19の気圧の変化に基づいて判定することができる。つまり、スマートフォン1は、状況検出部として気圧センサ19を用いることができる。また、スマートフォン1は、エスカレータ、階段にいるか否かの検出として、位置情報と地図情報に基づいて判定してもよいし、エスカレータ、階段に設置された近距離無線通信可能な通信部と通信することで検出してもよい。
 本出願の開示する実施形態は、発明の要旨及び範囲を逸脱しない範囲で変更することができる。さらに、本出願の開示する実施形態及びその変形例は、適宜組み合わせることができる。例えば、上記の実施形態は、以下のように変形してもよい。
 例えば、図5に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。
 上記の実施形態では、携帯電子装置の例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。添付の請求項に係る装置は、スマートフォン以外の携帯電子機器であってもよい。携帯電子機器は、表示部と操作部と他の機器と通信を行う通信部を備えていればよく、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。
 添付の請求項に係る技術を明瞭に開示するために特徴的な実施形態に関し記載した。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。上述した各種の実施形態は相互に組み合わせて実施することができる。
 1 スマートフォン
 2 タッチスクリーンディスプレイ
 2A ディスプレイ
 2B タッチスクリーン
 3 ボタン
 4 照度センサ
 5 近接センサ
 6 通信ユニット
 7 レシーバ
 8 マイク
 9 ストレージ
 9A 制御プログラム
 9B 状況判定データ
 9C 移動状態データ
 9D 設定データ
 10 コントローラ
 11 スピーカ
 12、13 カメラ
 14 コネクタ
 15 加速度センサ
 16 方位センサ
 17 ジャイロスコープ
 18 磁気センサ
 19 気圧センサ
 20 ハウジング
 22 バイブレータ
 23 発光部
 24 GPS受信機 
100 制御システム
102 車両
104 路側機
106、108 信号機
109 交差点
110 横断歩道
112 通信部
114 制御部
116 記憶部
120 所定領域

Claims (10)

  1.  表示部と、
     第1情報を取得する第1検出部と、
     第2情報を取得する第2検出部と、
     報知部と、
     コントローラと、を有し、
     前記コントローラは、
     前記第1情報に基づいて、ユーザが歩行していることを検出し、かつ、前記第2情報に基づいて、前記ユーザが所定領域以外の領域にいると判定すると、第1画面を前記表示部に表示させ、
     前記第1情報に基づいて、ユーザが歩行していることを検出し、かつ、前記第2情報に基づいて、前記ユーザが前記所定領域にいると判定すると、前記表示部に表示を行わせつつ、第1報知を前記報知部に行わせる携帯電子機器。
  2.  前記コントローラは、前記ユーザが歩行していることを検出し、かつ、前記ユーザが前記所定領域にいると判定すると、前記第1画面と異なる第2画面を前記表示部に表示させる請求項1に記載の携帯電子機器。
  3.  前記報知部は、複数の報知方法で報知を行い、
     前記第2検出部は、第3情報を取得し、
     前記コントローラは、前記ユーザが歩行していることを検出し、前記ユーザが前記所定の領域にいると判定し、かつ、前記第3情報に基づいて、前記ユーザに移動体が接近していることを検出すると、前記第1報知に加え、前記第1報知とは異なる第2報知を前記報知部に行わせる請求項1または請求項2に記載の携帯電子機器。
  4.  前記第2検出部は、近距離無線通信部を含み、
     前記コントローラは、前記近距離無線通信部により通信を確立した機器から受信した前記第2情報に基づいて、前記ユーザが前記所定領域にいるかを判定する請求項1から請求項3のいずれか一項に記載の携帯電子機器。
  5.  前記第2検出部は、地球上の位置情報を検出する位置検出部を含み、
     前記コントローラは、前記位置検出部が検出した位置情報に基づいて、前記所定領域にいるかを判定する請求項1から請求項4のいずれか一項に記載の携帯電子機器。
  6.  前記報知部は、振動部を含む請求項1から請求項5のいずれか一項に記載の携帯電子機器。
  7.  前記報知部は、音声出力部を含む請求項1から請求項6のいずれか一項に記載の携帯電子機器。
  8.  前記報知部は、発光部を含む請求項1から請求項7のいずれか一項に記載の携帯電子機器。
  9.  表示部を備える携帯電子機器を制御する携帯電子機器制御方法であって、
     第1情報を取得し、前記第1情報に基づいてユーザが歩行しているかを判定するステップと、
     第2情報を取得し、前記第2情報に基づいて、ユーザが所定領域にいるか否かを判定するステップと、
     前記ユーザが歩行していることを検出し、かつ、前記ユーザが所定領域以外にいると判定すると、第1画面を前記表示部に表示させ、前記ユーザが歩行していることを検出し、かつ、前記ユーザが前記所定領域にいると判定すると、前記表示部に表示を行わせつつ、表示とは異なる第1報知を行うステップと、を含む携帯電子機器制御方法。
  10.  表示部を備える携帯電子機器に、
     第1情報を取得し、前記第1情報に基づいてユーザが歩行しているかを判定するステップと、
     第2情報を取得し、前記第2情報に基づいて、ユーザが所定領域にいるか否かを判定するステップと、
     前記ユーザが歩行していることを検出し、かつ、前記ユーザが所定領域以外にいると判定すると、第1画面を前記表示部に表示させ、前記ユーザが歩行していることを検出し、かつ、前記ユーザが前記所定領域にいると判定すると、前記表示部に表示を行わせつつ、表示とは異なる第1報知を行うステップと、を実行させる携帯電子機器制御プログラム。
PCT/JP2017/015139 2016-04-27 2017-04-13 携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム WO2017188009A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP17789296.5A EP3432556B1 (en) 2016-04-27 2017-04-13 Mobile electronic device, mobile electronic device control method, and mobile electronic device control program
CN201780025595.8A CN109076112A (zh) 2016-04-27 2017-04-13 便携电子设备、便携电子设备控制方法以及便携电子设备控制程序
US16/165,820 US10609510B2 (en) 2016-04-27 2018-10-19 Mobile electronic apparatus, mobile electronic apparatus control method, a non-transitory computer readable recording medium, for providing warnings to a user of the apparatus based on the location of the electronic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-089629 2016-04-27
JP2016089629A JP6262800B2 (ja) 2016-04-27 2016-04-27 携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/165,820 Continuation US10609510B2 (en) 2016-04-27 2018-10-19 Mobile electronic apparatus, mobile electronic apparatus control method, a non-transitory computer readable recording medium, for providing warnings to a user of the apparatus based on the location of the electronic apparatus

Publications (1)

Publication Number Publication Date
WO2017188009A1 true WO2017188009A1 (ja) 2017-11-02

Family

ID=60160505

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/015139 WO2017188009A1 (ja) 2016-04-27 2017-04-13 携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム

Country Status (6)

Country Link
US (1) US10609510B2 (ja)
EP (1) EP3432556B1 (ja)
JP (1) JP6262800B2 (ja)
CN (1) CN109076112A (ja)
TW (1) TWI641859B (ja)
WO (1) WO2017188009A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107888726A (zh) * 2017-11-22 2018-04-06 广东欧珀移动通信有限公司 显示屏组件及电子设备
TW202016279A (zh) 2018-10-17 2020-05-01 美商英培雅股份有限公司 圖案化有機金屬光阻及圖案化的方法
JP2023515693A (ja) 2020-03-02 2023-04-13 インプリア・コーポレイション 無機レジストパターニング用のプロセス環境
JP7350698B2 (ja) * 2020-09-09 2023-09-26 株式会社東芝 音響装置及び音響装置のボリューム制御方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059068A (ja) * 2006-08-29 2008-03-13 Sky Kk 飛び出し警告システム
JP2013131143A (ja) * 2011-12-22 2013-07-04 Sanyo Electric Co Ltd 移動体通信装置及び通信制御方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8624727B2 (en) * 2008-01-28 2014-01-07 Saigh And Son, Llc Personal safety mobile notification system
JP5340631B2 (ja) 2008-04-25 2013-11-13 京セラ株式会社 携帯端末装置
DE102008002322A1 (de) * 2008-06-10 2009-12-17 Robert Bosch Gmbh Tragbare Vorrichtung mit Warnsystem und Verfahren
US9118428B2 (en) * 2009-11-04 2015-08-25 At&T Intellectual Property I, L.P. Geographic advertising using a scalable wireless geocast protocol
US8566029B1 (en) * 2009-11-12 2013-10-22 Google Inc. Enhanced identification of interesting points-of-interest
US8818706B1 (en) * 2011-05-17 2014-08-26 Google Inc. Indoor localization and mapping
CN102928833B (zh) * 2011-08-10 2014-03-19 广州三星通信技术研究有限公司 用于便携式终端的防撞装置、防撞方法以及便携式终端
US20130085861A1 (en) * 2011-09-30 2013-04-04 Scott Dunlap Persistent location tracking on mobile devices and location profiling
US9049583B2 (en) * 2012-08-29 2015-06-02 Cellco Partnership Impending hazard alert
TW201413662A (zh) * 2012-09-19 2014-04-01 Elitegroup Computer Sys Co Ltd 可攜式行動裝置
US20140087711A1 (en) * 2012-09-27 2014-03-27 Aegis Mobility, Inc. Mobile device context incorporating near field communications
EP2936453A1 (en) * 2012-12-20 2015-10-28 Telefonaktiebolaget L M Ericsson (Publ) Method for issuing a ticket to a customer to a queue, a mobile device and a queue ticket terminal
JP6163017B2 (ja) * 2013-05-29 2017-07-12 富士通テン株式会社 携帯端末、及び、危険報知システム
JP2015076714A (ja) 2013-10-08 2015-04-20 京セラ株式会社 携帯端末装置、報知制御方法およびプログラム
CN104916068B (zh) * 2014-03-14 2018-10-12 联想(北京)有限公司 一种信息处理方法及电子设备
US9736647B2 (en) * 2014-03-19 2017-08-15 Verizon Patent And Licensing Inc. Method, apparatus, and system for network identifier supression
CN105282708B (zh) * 2014-07-17 2019-06-21 本田技研工业株式会社 互通消息的方法以及电子设备
US9940521B2 (en) * 2015-02-27 2018-04-10 Sony Corporation Visibility enhancement devices, systems, and methods
US9718405B1 (en) * 2015-03-23 2017-08-01 Rosco, Inc. Collision avoidance and/or pedestrian detection system
CN204859263U (zh) * 2015-08-06 2015-12-09 湖南象外科技有限公司 一种手机保护套

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059068A (ja) * 2006-08-29 2008-03-13 Sky Kk 飛び出し警告システム
JP2013131143A (ja) * 2011-12-22 2013-07-04 Sanyo Electric Co Ltd 移動体通信装置及び通信制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3432556A4 *

Also Published As

Publication number Publication date
TWI641859B (zh) 2018-11-21
JP2017200053A (ja) 2017-11-02
EP3432556B1 (en) 2020-04-22
EP3432556A4 (en) 2019-01-23
US20190053001A1 (en) 2019-02-14
US10609510B2 (en) 2020-03-31
TW201743077A (zh) 2017-12-16
JP6262800B2 (ja) 2018-01-17
CN109076112A (zh) 2018-12-21
EP3432556A1 (en) 2019-01-23

Similar Documents

Publication Publication Date Title
US10609510B2 (en) Mobile electronic apparatus, mobile electronic apparatus control method, a non-transitory computer readable recording medium, for providing warnings to a user of the apparatus based on the location of the electronic apparatus
JP6325601B2 (ja) 電子機器、制御方法、及び制御プログラム
WO2017007643A1 (en) Systems and methods for providing non-intrusive indications of obstacles
US10665076B2 (en) Mobile electronic device, control system, control method, and non-transitory computer readable storage medium
US10536810B2 (en) Electronic apparatus, control method, and non-transitory computer-readable recording medium
US10854071B2 (en) Electronic device, control method, and non-transitory computer-readable medium
US20190274009A1 (en) Electronic apparatus, control device and computer-readable non-transitory recording medium
JP6605566B2 (ja) 携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム
JP6560770B2 (ja) 電子機器、制御システム及び電子機器の制御方法
JP6334605B2 (ja) 携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム
JP2018032209A (ja) 電子機器、制御方法、及び制御プログラム
JP6777743B2 (ja) 電子機器、制御プログラム及び電子機器の動作方法
JP6619046B2 (ja) 電子機器および電子機器の制御方法
JP2018152862A (ja) 電子機器、電子機器制御方法及び電子機器制御プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2017789296

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017789296

Country of ref document: EP

Effective date: 20181019

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17789296

Country of ref document: EP

Kind code of ref document: A1