WO2022050428A1 - 情報処理装置及び表示装置の制御方法 - Google Patents

情報処理装置及び表示装置の制御方法 Download PDF

Info

Publication number
WO2022050428A1
WO2022050428A1 PCT/JP2021/032912 JP2021032912W WO2022050428A1 WO 2022050428 A1 WO2022050428 A1 WO 2022050428A1 JP 2021032912 W JP2021032912 W JP 2021032912W WO 2022050428 A1 WO2022050428 A1 WO 2022050428A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
period
display state
displayed
Prior art date
Application number
PCT/JP2021/032912
Other languages
English (en)
French (fr)
Inventor
謙一郎 松村
国一郎 成瀬
恵太 齋藤
哲 黒澤
弘樹 高垣
貴和子 三浦
由樹 小林
壮央 五ヶ市
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to CN202180053406.4A priority Critical patent/CN116034578A/zh
Priority to US18/043,343 priority patent/US20230334620A1/en
Publication of WO2022050428A1 publication Critical patent/WO2022050428A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/247Telephone sets including user guidance or feature selection means facilitating their use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs

Definitions

  • the present invention relates to a control method for an information processing device and a display device.
  • Patent Document 1 discloses a foldable smartphone having both portability and a large screen display. This smartphone is in a small screen display state when the main body is closed, and is in a large screen display state when the main body is open. In the large screen display state, detailed information is displayed on the large screen as compared with the small screen display state.
  • the present invention has been made in view of the above circumstances, and the solution is to improve the convenience of the information processing apparatus.
  • the information processing apparatus can switch the display state between the first display state and the second display state in which the display area is larger than the display area in the first display state.
  • the display device and the display state of the display device become the first display state over the first period, the second display state over the second period after the first period, and the second display state.
  • the first process performed over the first period produces a first image and is performed over the second period.
  • An image generation unit that generates a second image by the second process and generates a third image by the third process executed over the third period, and the first image over the first period.
  • a display control unit that displays an image on the display device, displays the second image on the display device over the second period, and displays the third image on the display device over the third period. , And the image displayed on the display device at the start point of the third period of the third image is displayed on the display device at the end point of the first period of the first image.
  • the third process uses the result of the second process, unlike the image.
  • a method of controlling a display device is to switch a display state between a first display state and a second display state in which the display area is larger than the display area in the first display state.
  • the display state of the display device is changed to the first display state over the first period, and the second display state is changed over the second period after the first period.
  • the first image is generated by the first process performed over the first period.
  • the generated first image is displayed on the display device, the second image is generated by the second process executed over the second period, and the generated second image is displayed on the display device.
  • a third image is generated by the third process executed over the third period, the generated third image is displayed on the display device, and the third of the third images is displayed.
  • the image displayed on the display device at the start point of the period is different from the image displayed on the display device at the end point of the first period among the first images, and the third process is the second process. The result of the processing of is used.
  • the third image displayed at the start point in the third period is generated based on the result of the second process, so that the second image displayed at the end point of the second period is displayed. Can be related to. Further, since the third image is different from the image displayed at the end point of the first period, new information can be provided to the user. As a result, the convenience of the information processing device is improved as compared with the case where the same image as the end point of the first period is displayed on the display device at the start point of the third period.
  • the information processing apparatus it is a sequence diagram which shows the cooperation between the map processing executed by a processing apparatus according to a map application, and the main processing executed according to a control program. It is a figure which shows the transition of the display screen of the information processing apparatus in the 1st operation example. It is a figure which shows the transition of the display screen of the information processing apparatus in the 1st operation example. It is a figure which shows the transition of the display screen of the information processing apparatus in the 1st operation example.
  • the second operation example of the information processing apparatus it is a sequence diagram which shows the cooperation between map processing, AR processing, store guidance processing, and main processing. It is a figure which shows the transition of the display screen of the information processing apparatus in the 2nd operation example.
  • the information processing apparatus is a sequence diagram which shows the cooperation between the map processing, the store guidance processing, and the main processing. It is a perspective view which shows the appearance in the 1st display state of the information processing apparatus which is 2nd Embodiment of this disclosure. It is a perspective view which shows the appearance in the 2nd display state of the information processing apparatus. It is a figure which shows the transition of the display screen of the information processing apparatus in the modification.
  • FIGS. 1A and 1B are perspective views showing the appearance of the information processing apparatus 100 according to the first embodiment of the present disclosure.
  • the information processing device 100 in this embodiment is a smartphone.
  • the information processing device 100 may be a portable information processing device such as a mobile phone or a tablet terminal other than a smartphone.
  • the information processing apparatus 100 has housings 41 and 42 and a hinge 49.
  • the housings 41 and 42 are both rectangular parallelepiped plate-shaped housings.
  • the housing 41 has a rectangular-shaped display surface 41S on one of the two front and back surfaces thereof, and the housing 42 has a rectangular-shaped display surface 42S on one of the two front and back surfaces.
  • These display surfaces 41S and 42S are display surfaces of the display device 14 of the information processing device 100.
  • the display surfaces 41S and 42S have the same display area as each other.
  • the end face 41E is one of the two end faces on the long side of the two front and back sides of the housing 41 among those four end faces.
  • the housing 42 has four rectangular end faces surrounding the two front and back sides.
  • the end face 42E is one of the two end faces on the long side of the two front and back sides of the housing 42 among those four end faces.
  • the hinge 49 is a so-called hinge that rotatably connects the housings 41 and 42. The hinge 49 connects the long side of the end surface 41E on the opposite side of the long side facing the display surface 41S and the long side of the end surface 42E facing the display surface 42S on the opposite side.
  • the hinge angle ⁇ formed by the display surfaces 41S and 42S changes as the hinge 49 rotates.
  • the display surfaces 41S and 42S are turned outward, and the display state of the display device of the information processing device 100 is displayed. It is possible to set the first display state in which the display is performed only by the surface 41S.
  • the hinge angle ⁇ is set to 180 degrees, the user can make the display surfaces 41S and 42S face each other as shown in FIG. 1B.
  • the user can change the display state of the display device 14 of the information processing device 100 to a second display state in which both the display surfaces 41S and 42S display.
  • This second display state is a display state in which the display area is wider than that of the first display state.
  • FIG. 2 is a block diagram illustrating a hardware configuration of the information processing apparatus 100.
  • the information processing device 100 includes a processing device 11, a storage device 12, a communication device 13, a display device 14, an operation device 15, a positioning device 16, an acceleration detection device 17, and an open / close detection device 18. It is a computer.
  • Each element of the information processing apparatus 100 is connected to each other by a single unit or a plurality of buses.
  • the term "device" in the present application may be read as another term such as a circuit, a device or a unit.
  • each element of the information processing apparatus 100 may be composed of a single or a plurality of devices, and some elements of the information processing apparatus 100 may be omitted.
  • the processing device 11 is a processor that controls the entire information processing device 100, and is composed of, for example, a single or a plurality of chips.
  • the processing device 11 is composed of, for example, a central processing unit (CPU: Central Processing Unit) including an interface with peripheral devices, an arithmetic unit, registers, and the like. Part or all of the functions of the processing device 11 are realized by hardware such as DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), or FPGA (Field Programmable Gate Array). You may.
  • the processing device 11 executes various processes in parallel or sequentially.
  • the storage device 12 is a recording medium that can be read by the processing device 11, and stores a plurality of programs executed by the processing device 11 and various data used by the processing device 11.
  • the storage device 12 includes, for example, a non-volatile storage circuit such as ROM (Read Only Memory), EPROM (Erasable Programmable ROM), or EEPROM (Electrically Erasable Programmable ROM), and a volatile storage circuit such as RAM (Random Access Memory). It is composed of.
  • the communication device 13 is a device that communicates with another device via a mobile communication network or a communication network such as the Internet.
  • the communication device 13 is also referred to as, for example, a network device, a network controller, a network card, or a communication module.
  • the application program received by the communication device 13 from the distribution server (not shown) via the communication network is stored in the storage device 12.
  • the communication device 13 includes a wireless device that performs short-range wireless communication such as Bluetooth (registered trademark).
  • the display device 14 displays various images on the display surfaces 41S and 42S described above under the control of the processing device 11.
  • various display panels such as a liquid crystal display panel and an organic EL display panel are suitably used as the display device 14.
  • the display device having the display surface 41S and the display device having the display surface 42S are physically separate display devices.
  • one image is displayed straddling the display surfaces 41S and 42S, or the display on the display surface 41S and the display on the display surface 42S are linked to form one unified process. May be executed. Therefore, in the present embodiment, the display device having the display surface 41S and the display device having the display surface 42S are collectively treated as one display device 14.
  • the operation device 15 is a device for inputting information used by the information processing device 100.
  • the operating device 15 accepts operations by the user.
  • the operation device 15 accepts an operation for inputting a code such as a number and a character and an operation for selecting an icon displayed by the display device 14.
  • a touch panel that detects contact with the display surface of the display device 14 is suitable as the operation device 15.
  • the operation device 15 may include a plurality of operators that can be operated by the user.
  • the positioning device 16 is a GPS device, receives radio waves from a plurality of satellites, and generates position information from the received radio waves.
  • the position information may be in any format as long as the position can be specified.
  • the position information indicates, for example, the latitude and longitude of the information processing apparatus 100.
  • the information processing device 100 may acquire the position information by any method.
  • the position information may be acquired by using the cell ID assigned to the base station to be the communication destination of the information processing apparatus 100.
  • the information processing device 100 communicates with the access point of the wireless LAN
  • the information processing device 100 is a database in which the identification address (MAC address) on the network assigned to the access point and the actual address (location) are associated with each other.
  • the information processing apparatus 100 may acquire the position information by referring to.
  • the acceleration detection device 17 is a device that detects the acceleration acting on the information processing device 100.
  • Various acceleration sensors such as a piezo resistance type or a capacitance type are used as the acceleration detection device 17.
  • the open / close detection device 18 is a device that detects the display state of the display device 14. Specifically, the open / close detection device 18 detects the angle formed by the display surfaces 41S and 42S, that is, the hinge angle ⁇ of the hinge 49, and outputs a sensor having a magnitude corresponding to the hinge angle ⁇ . include. When the hinge angle ⁇ indicated by the detection signal is within the range of, for example, 360 ° ⁇ ⁇ 270 °, the open / close detection device 18 indicates that the display state of the display device 14 is the first display state (closed state).
  • FIG. 3A is a diagram showing the storage contents of the storage device 12.
  • the storage device 12 includes various application programs (hereinafter abbreviated as applications) AP_1 to AP_N (N is an integer of 2 or more) forming an upper layer and a control program CP forming a lower layer.
  • applications AP_1 to AP_N may be, for example, those written in the storage device 12 at the time of factory shipment of the information processing device 100, or may be downloaded to the storage device 12 via the communication device 13. good.
  • the display state data DS indicates whether the current display state of the display device 14 is the first display state or the second display state.
  • the image D is an image to be displayed by the display device 14, and is generated by the processing device 11. In this image D, the display state of the display device 14 is displayed in the first display state, the first image D1 or the third image D3, and the display state of the display device 14 is displayed in the second display state. There is a second image D2.
  • the start control data AC includes specified data and parameters.
  • the designated data is displayed after the display is switched.
  • the designated data is an example of information that specifies the processing to be started by the processing device 11 after the display is switched.
  • the parameter is data used for processing to be started by the processing device 11 after the display is switched.
  • the processing device 11 stores the start control data AC in the storage device 12 in preparation for the display switching performed thereafter each time the execution state of the application changes during the execution of any of the applications AP_1 to AP_N.
  • the process to be started may be the first process of all the processes based on the application, but it may also be the process in the middle.
  • the specified data specifies, for example, the storage address of the first instruction in the storage area in which the application is stored.
  • the specified data specifies, for example, the storage address of the first instruction corresponding to the intermediate process in the storage area where the application is stored.
  • the process to be started may be a process based on an application different from the application being executed by the processing device 11 at the time when the processing device 11 stores the activation control data AC in the storage device 12, but is currently being executed. It may be a process other than the currently executed process among all the processes based on the application of.
  • the designated data that specifies the process to be activated indicates the storage address of the first instruction among the instructions that constitute the process stored in the storage device 12.
  • the processing device 11 refers to the start control data AC last stored in the storage device 12 in the period before the display switch at the timing of the display switch, and refers to the start control. Starts the process specified by the data AC.
  • the parameters included in the start control data AC are referred to by the processing device 11 that executes this started process.
  • FIG. 3B is a block diagram showing a functional configuration of the processing device 11.
  • the processing device 11 reads the control program CP and the applications AP_1 to AP_N from the storage device 12.
  • the processing device 11 is an execution unit that executes the read control program CP and the applications AP_1 to AP_N.
  • the processing device 11 functions as an image generation unit CCP_1 by executing any of the applications AP_1 to AP_N.
  • FIG. 3C is a time chart showing switching of processing associated with display switching performed in the present embodiment.
  • the display state of the display device 14 becomes the first display state over the first period T1, the second display state over the subsequent second period T2, and then the third display state. It becomes the first display state over the period T3.
  • the image generation unit CCP_1 generates the first image D1 by the first process executed over the first period T1, and the second image by the second process executed over the second period T2.
  • D2 is generated and a third image D3 is generated by a third process performed over the third period T3.
  • the image generation unit CCP_1 executes the first process, the second process, and the third process, respectively, by executing any one or more of the applications AP_1 to AP_N.
  • the processing device 11 functions as a display control unit CCP_2 by executing the control program CP.
  • the display control unit CCP_2 causes the display device 14 to display the first image D1 generated by the first process executed over the first period T1, and by the second process executed over the second period T2.
  • the generated second image D2 is displayed on the display device 14, and the third image D3 generated by the third process executed over the third period T3 is displayed on the display device 14.
  • the image displayed on the display device 14 at the end point T2e of the second period T2 of the second image D2 is the display device 14 at the end point T1e of the first period T1 of the first image D1. It is different from the image displayed in. Further, the image displayed on the display device 14 at the start point T3s of the third period T3 of the third image D3 is displayed on the display device 14 at the end point T1e of the first period T1 of the first image D1. It is different from the image. Further, the image displayed on the display device 14 at the start point T3s of the third period T3 of the third image D3 is displayed on the display device 14 at the end point T2e of the second period T2 of the second image. Different from the image. Further, in the present embodiment, the result of the second process is used as the third process. The result of the second process is a parameter included in the start control data AC.
  • the processing device 11 functions as the switching control unit CCP_3 by executing the control program CP.
  • the switching control unit CCP_3 refers to the activation control data AC last stored in the storage device 12 within the period before the switching.
  • the processing device 11 starts the processing specified by the information included in the activation control data AC as the processing of the image generation unit CCP_1.
  • the processing device 11 refers to the parameters included in the start control data AC when the process specified by the start control data AC is executed. Therefore, in the present embodiment, the activation control data AC associates the second process with the result of the first process and the third process with the result of the second process.
  • FIG. 4 is a flowchart showing the flow of the main processing OP100 executed by the processing apparatus 11 according to the control program CP in the present embodiment.
  • the processing apparatus 11 executes the control program CP.
  • the processing device 11 repeats the switching control (step Sc10), which is the process of the switching control unit CCP_3, and the display control (step Sc20), which is the process of the display control unit CCP_2.
  • step Sc10 the processing device 11 switches the display based on the output signal of the open / close detection device 18, that is, switches from the first display state to the second display state or from the second display state. It is determined whether or not the switching to the first display state has been performed (step Sc11). If the determination result in step Sc11 is negative, the processing device 11 ends the switching control (step Sc10) and advances the processing to the display control (step Sc20).
  • step Sc11 determines whether the display state is updated, that is, the process of storing the display state data DS indicating the display state detected in step Sc11 in the storage device 12 is executed (step Sc12).
  • the processing device 11 executes the startup process (step Sc13).
  • the processing device 11 refers to the start-up control data AC stored in the storage device 12 and starts the process specified by the start-up control data AC.
  • the processing apparatus 11 ends the switching control (step Sc10) and advances the processing to the display control (step Sc20).
  • the processing device 11 determines whether or not the display state data DS in the storage device 12 indicates the first display state (step Sc21). If this determination result is affirmative, the processing device 11 causes the display device 14 in the first display state to display the image D stored in the storage device 12 (step Sc22), and ends the display control (step Sc20). do.
  • the display state of the display device 14 is the first display state
  • the first image D1 or the third image D3 is stored in the storage device 12 as an image D. Therefore, in step Sc22, the first image D1 or the third image D3 is displayed on the display device 14.
  • step Sc21 When the display state of the display device 14 is the second display state, the determination result of step Sc21 is negative. In this case, the processing device 11 causes the display device 14 in the second display state to display the image D stored in the storage device 12 (step Sc23), and then ends the display control (step Sc20).
  • the display state of the display device 14 is the second display state
  • the second image D2 is stored in the storage device 12 as the image D. Therefore, in step Sc23, the second image D2 is displayed on the display device 14.
  • step Sc20 When the display control (step Sc20) is completed, the processing device 11 returns the processing to the switching control (step Sc10). The processing device 11 repeats the execution of the switching control (step Sc10) and the display control (step Sc20).
  • the processing device 11 executes the control program CP as described above and any application in the applications AP_1 to AP_N to switch from the first display state to the second display state.
  • Various operations accompanied by switching from the second display state to the first display state are realized.
  • FIG. 5 is a sequence diagram showing the cooperation between the map processing OP200 executed by the processing device 11 according to the map application AP_1 and the main processing OP100 executed according to the control program CP in the first operation example of the present embodiment.
  • 6A, 6B, and 6C are diagrams showing the transition of the display screen of the display device 14 in the first operation example.
  • the processing device 11 executes the map application AP_1, which is one of the applications AP_1 to AP_N, and the control program CP.
  • the processing device 11 executes the map processing OP200.
  • the control program CP executes the main processing OP100.
  • the display device 14 is in the first display state in the initial state, and the period is the first period T1.
  • the processing apparatus 11 executes the first processing based on the map processing OP200 over the first period T1 (step S101).
  • the processing device 11 functions as an image generation unit CCP_1.
  • the processing device 11 generates a first image D1 which is a map image according to an operation on the operation device 15, and stores the generated first image D1 as an image D in the storage device 12.
  • step S111 of the main processing OP100 the processing device 11 functions as the display control unit CCP_2.
  • the processing device 11 causes the display device 14, which is the first display state, to display the image D stored in the storage device 12, that is, the first image D1.
  • FIG. 6A exemplifies the first image D1 displayed on the display surface 41S of the display device 14 at this time.
  • the processing device 11 stores the start control data AC in the storage device 12 each time the execution state of the first process (step S101) of the map processing OP200 changes, for example, by executing a process corresponding to the operation of the operation device 15. do.
  • the activation control data AC that is finally stored in the storage device 12 in the first period T1 is currently being displayed together with the designated data that specifies the second process (step S102) of the map processing OP200.
  • the processing device 11 When the display state of the display device 14 is switched from the first display state to the second display state, the processing device 11 functions as the switching control unit CCP_3 in step S112 of the main processing OP100. When the processing device 11 detects this switching, the processing device 11 stores the display state data DS indicating the second display state in the storage device 12.
  • step S113 of the main processing OP100 the processing device 11 functions as the switching control unit CCP_3.
  • the processing device 11 activates the second process (step S102) based on the map processing OP200 according to the activation control data AC in the storage device 12.
  • the first period T1 ends and the second period T2 starts.
  • the processing device 11 as the image generation unit CCP_1 executes the second process in step S102 of the map processing OP200.
  • this second process is a process of enlarging a map image.
  • the processing device 11 generates a second image D2 which is a map image having an image size corresponding to the second display state.
  • the processing device 11 stores the generated second image D2 as an image D in the storage device 12.
  • the processing device 11 scrolls the map image so that the position indicated by the parameter in the activation control data AC in the second image D2 is displayed at the center of the display surface in the second display state, and the second image is displayed.
  • step S114 of the main processing OP100 the processing device 11 functions as the display control unit CCP_2.
  • the processing device 11 causes the image D in the storage device 12, that is, the second image D2, to be displayed on the display device 14 which is the second display state.
  • step S102 the second process of the map process OP200
  • the user operates the operation device 15 to indicate a desired position Pmark in the second image D2 being displayed.
  • FIG. 6B illustrates a second image D2 displayed on the display device 14 by the process of step S114 executed at this time.
  • the processing device 11 as the image generation unit CCP_1 generates the activation control data AC in response to the instruction of the position Pmark and stores it in the storage device 12.
  • the activation control data AC becomes the activation control data AC that is finally stored in the storage device 12 within the second period T2.
  • This activation control data AC includes designated data for designating a third process (step S103) in the map process OP200, and parameters indicating the position Pmark instructed by the user (for example, the latitude and longitude of the position Pmark on the map). ..
  • the processing device 11 When the display state of the display device 14 is switched from the second display state to the first display state, the processing device 11 functions as the switching control unit CCP_3 in step S115 of the main processing OP100. When the processing device 11 detects this switching, the processing device 11 stores the display state data DS indicating the first display state in the storage device 12.
  • step S116 of the main processing OP100 the processing device 11 functions as the switching control unit CCP_3.
  • the processing device 11 activates the third process (step S103) in the map processing OP200 according to the activation control data AC in the storage device 12.
  • the second period T2 ends and the third period T3 starts.
  • the processing device 11 as the image generation unit CCP_1 executes the third process in step S103 of the map processing OP200.
  • This third process is a process of displaying a normal size image.
  • the processing device 11 generates a third image D3 which is a map image of an image size corresponding to the first display state, and stores the generated third image D3 in the storage device 12. ..
  • the processing device 11 scrolls the map image so that the position indicated by the parameter in the activation control data AC is displayed at the center of the display surface 41S in the first display state, and generates the third image D3. ..
  • step S117 of the main processing OP100 the processing device 11 functions as the display control unit CCP_2.
  • the processing device 11 causes the image D in the storage device 12, that is, the third image D3 to be displayed on the display device 14 which is the first display state.
  • FIG. 6C exemplifies the third image D3 displayed on the display device 14 at this time.
  • the desired position Pmark on the enlarged map image which is the second image D2
  • the second period T2 is specified in the second period T2.
  • the map image scrolled so that the designated position Pmark is located at the center of the display surface is displayed as the third image D3.
  • the processing device 11 as the image generation unit CCP_1 uses the map application AP_1, which is an example of the first application program, to perform the first processing (step S101) and the third processing.
  • Step S103 is executed, a parameter (position Pmark) is determined based on the result of the second process (step S102), and the map application AP_1 is determined using the determined parameter in the third process (step S103). To execute.
  • the third image D3 (see FIG. 6C) displayed at the start point T3s of the third period T3 is generated based on the result of the second process (step S102), so that the second image is generated. It can be related to the second image D2 (see FIG. 6B) displayed at the end point T2e of the period T2. Further, since the third image D3 is different from the image displayed at the end point T1e of the first period T1 (see FIG. 6A), new information can be provided to the user. As a result, the convenience of the information processing apparatus 100 is improved as compared with the case where the same image as the end point T1e of the first period T1 is displayed on the display device 14 at the start point T3s of the third period T3.
  • FIG. 7 is a sequence diagram showing the cooperation between the map processing OP200, the AR processing OP300, the store guidance processing OP400, and the main processing OP100 executed in the second operation example.
  • 8A, 8B, and 8C are diagrams showing the transition of the display screen of the display device 14 in the second operation example.
  • the processing device 11 executes the map application AP_1, the AR application AP_2, and the store guidance application AP_3, which are the applications in the applications AP_1 to AP_N, and the control program CP, respectively.
  • AR is an abbreviation for Augmented Reality, and is a technique for adding, reducing, or changing information given to perception such as vision from a real environment by processing by a computer.
  • AR includes, for example, a technique of generating an image showing the environment of a walking user by adding an image of a building or the like around the current position when the current position of the user is obtained by positioning.
  • the store guidance application AP_3 is executed, the processing device 11 executes the store guidance processing OP400 shown in FIG. 7.
  • the control program CP is executed, the processing apparatus 11 executes the main processing OP100 shown in FIG. 7.
  • the processing device 11 executes the first processing in step S201 of the map processing OP200.
  • the processing apparatus 11 In the first period T1 in which the first processing is continued, the processing apparatus 11 generates the first image D1 which is a map image according to the operation with respect to the operating apparatus 15.
  • the processing device 11 receives a route search request from the user. Therefore, the processing device 11 executes the route search, generates the first image D1 which is a map image showing the result, and stores it in the storage device 12 as the image D.
  • step S231 of the main processing OP100 the processing device 11 functions as the display control unit CCP_2.
  • the processing device 11 causes the image D in the storage device 12, that is, the first image D1 to be displayed on the display device 14 which is the first display state.
  • FIG. 8A shows an example of the first image D1 displayed on the display surface 41S of the display device 14.
  • a map image showing the route to the destination / Harajuku obtained by the route search in the first process is displayed on the display surface 41S as the first image D1.
  • the size of the map image that can be displayed on the display surface 41S is small, only a part of the searched routes is displayed on the display surface 41S.
  • the processing device 11 stores the start control data AC in the storage device 12 every time the execution state of the first process changes by executing the process according to the request from the user.
  • the activation control data AC finally stored in the storage device 12 in the first period T1 includes the designated data designating the second process (step S202) of the map process OP200 and the AR application AP_2.
  • the designated data for designating the AR process OP300 based on the above and the parameter indicating the route obtained by the route search in the first process (step S201) are included.
  • the processing device 11 When the display state of the display device 14 is switched from the first display state to the second display state, the processing device 11 functions as the switching control unit CCP_3 in step S232 of the main processing OP100. When the processing device 11 detects this switching, the processing device 11 stores the display state data DS indicating the second display state in the storage device 12.
  • step S233 of the main processing OP100 the processing device 11 functions as the switching control unit CCP_3.
  • the processing device 11 activates the second process (step S202) of the map processing OP200 and the AR processing OP300 based on the AR application AP_2 according to the activation control data AC in the storage device 12.
  • the processing device 11 as the image generation unit CCP_1 executes the second process in step S202 in the map processing OP200.
  • the processing device 11 as the image generation unit CCP_1 executes the AR processing OP300, and executes the second processing in the step S211.
  • the processing device 11 refers to a parameter included in the activation control data AC in the storage device 12, and a map image capable of confirming the route indicated by this parameter is a part of the second image D2. Generate as. Further, in the second process of step S211 the processing device 11 refers to the parameters included in the activation control data AC in the storage device 12, searches for stores around the route indicated by the parameters, and searches for the searched stores. An AR image containing the image is generated as the rest of the second image D2. More specifically, the processing device 11 obtains the user's current position by the positioning device 16 and generates an AR image including an image of the store closest to the user's current position among the stores around the route indicated by the parameter. .. Then, the processing device 11 generates a second image D2 in which the image generated in step S202 and the image generated in step S211 are combined, and stores the second image D2 as the image D in the storage device 12.
  • step S234 of the main processing OP100 the processing device 11 functions as the display control unit CCP_2.
  • the processing device 11 causes the image D in the storage device 12, that is, the second image D2, to be displayed on the display device 14 which is the second display state.
  • FIG. 8B illustrates a second image D2 displayed on the display device 14 at this time.
  • the second image D2 includes a map image Dmap generated by the map processing OP200 and an AR image Dar generated by the AR processing OP300.
  • the AR image Dar consists of a 3D image of a building such as a store that can be seen from the user's current position, and in the part of the image showing the store in this 3D image, information indicating the store, pizza in the illustrated example. It is an image in which the image of the characters "Italian restaurant" is superimposed.
  • the AR image Dar is not limited to a 3D image of a building such as a store that can be seen from the user's current position.
  • the AR image Dar may be, for example, an image in which characters indicating the explanation of the target are superimposed on the image of the street view near the target. In this case, the Street View image near the target is acquired via the Internet.
  • the user When the user indicates a desired position in the map image Dmap or AR image Dar displayed on the display device 14 by using the operation device 15, the user requests the information processing device 100 to provide information about the store at the instructed position. can.
  • the desired position may be a position on the map image Dmap or a position on the AR image Dar.
  • the processing device 11 specifies a store corresponding to the instructed position in the second process of step S202.
  • the processing device 11 generates activation control data AC including designated data for designating the store guidance process OP400 based on the store guidance application AP_3 and parameters indicating the specified store.
  • the processing device 11 stores the generated start control data AC in the storage device 12.
  • the processing device 11 When the user indicates a desired position on the AR image Dar, the processing device 11 generates the same activation control data AC in the second process of step S211.
  • the processing device 11 stores the generated start control data AC in the storage device 12.
  • the processing device 11 as the switching control unit CCP_3 detects this switching in step S235 of the main processing OP100, the first display is displayed.
  • the display state data DS indicating the state is stored in the storage device 12.
  • step 236 of the main processing OP100 the processing device 11 functions as the switching control unit CCP_3.
  • the processing device 11 activates the store guidance processing OP400 based on the store guidance application AP_3 according to the activation control data AC in the storage device 12.
  • the second period T2 ends and the third period T3 starts.
  • the processing device 11 as the image generation unit CCP_1 executes the third process in step S221 of the store guidance process OP400.
  • the processing device 11 generates a third image D3, which is a store guide image having an image size corresponding to the first display state, and stores the third image D3 as the image D in the storage device 12.
  • the processing device 11 generates a guide image regarding the store specified by the parameters included in the activation control data AC as the third image D3.
  • step S237 of the main processing OP100 the processing device 11 as the display control unit CCP_2 causes the image D in the storage device 12, that is, the third image D3 to be displayed on the display device 14 which is the first display state. ..
  • FIG. 8C shows an example of the third image D3 displayed on the display device 14 at this time.
  • the image of the pizza Italian restaurant in the AR image Dar shown in FIG. 8B is instructed by the user, and in the second process of step S211 (step S211), the activation control data AC including the parameter indicating the pizza Italian restaurant is stored. It is stored in the device 12.
  • step S221 a third image D3 showing store guidance information regarding the pizza Italian restaurant is generated.
  • the processing device 11 as the image generation unit CCP_1 executes the first process (step S201) using the map application AP_1 which is an example of the first application program. Further, the processing device 11 executes the second process (steps S202 and S211) by using the map application AP_1 and the AR application AP_2 which is an example of the second application program. Further, the processing device 11 determines a parameter (store) based on the result of the second processing (step S202 or S211). Further, the processing device 11 executes the third process (step S221) by using the store guidance application AP_3, which is an example of the third application program. In the third process (step S221), the processing device 11 executes the store guidance application AP_3 with reference to the determined parameter (store).
  • the third image D3 (see FIG. 8C) displayed at the start point T3s of the third period T3 is generated based on the result of the second process (step S202 or S211).
  • the second image D2 (see FIG. 8B) displayed at the end point T2e of the second period T2 and the third image D3 displayed at the start point T3s of the third period T3 can be related.
  • there is a relationship between the third image D3 and the second image D2 that they are both images related to the store instructed by the user.
  • the third image D3 since the third image D3 is different from the image displayed at the end point T1e of the first period T1 (see FIG. 8A), the third image D3 can provide new information to the user.
  • the convenience of the information processing apparatus 100 is improved as compared with the case where the same image as the end point T1e of the first period T1 is displayed on the display device 14 at the start point T3s of the third period T3.
  • FIG. 9 is a sequence diagram showing the cooperation between the electronic ticket processing OP500, the map processing OP200, the store guidance processing OP400, and the main processing OP100 executed in the third operation example. Further, FIGS. 10A, 10B and 10C are diagrams showing transitions of the display screen of the display device 14 in the third operation example.
  • the processing device 11 executes the electronic ticket application AP_1, the map application AP_1, the store guidance application AP_3, which are the applications in the applications AP_1 to AP_N, and the control program CP, respectively.
  • the processing device 11 executes the electronic ticket processing OP500 shown in FIG. Further, when the map application AP_1 is executed, the processing device 11 executes the map processing OP200 shown in FIG. Further, when the store guidance application AP_3 is executed, the processing device 11 executes the store guidance processing OP400 shown in FIG. Further, when the control program CP is executed, the processing apparatus 11 executes the main processing OP100 shown in FIG.
  • the processing device 11 executes the first processing in step S301 of the electronic ticket processing OP500.
  • the processing apparatus 11 functions as an image generation unit CCP_1.
  • the processing device 11 executes a procedure for purchasing an electronic ticket desired by the user according to an operation on the operating device 15.
  • the processing device 11 generates a first image D1 showing an electronic ticket purchased by the user, and stores the generated first image D1 in the storage device 12.
  • step S331 of the main processing OP100 the processing device 11 functions as the display control unit CCP_2.
  • the processing device 11 causes the display device 14 whose display state is the first display state to display the image D in the storage device 12, that is, the first image D1.
  • FIG. 10A illustrates a first image D1 displayed on the display surface 41S of the display device 14 at this time.
  • the image of the electronic ticket purchased by the user is displayed on the display device 14 as the first image D1.
  • the processing device 11 stores the start control data AC in the storage device 12 every time the execution state of the first process changes due to the execution of the process according to the request from the user or the like.
  • the activation control data AC finally stored in the storage device 12 in the first period T1 includes the designated data for designating the map processing OP200 based on the map application AP_1 and the user purchasing an electronic ticket. Includes parameters indicating the name of the concert venue.
  • the processing device 11 When the display state of the display device 14 is switched from the first display state to the second display state, the processing device 11 functions as the switching control unit CCP_3 in step S332 of the main processing OP100. When the processing device 11 detects this switching, the processing device 11 stores the display state data DS indicating the second display state in the storage device 12.
  • step S333 of the main processing OP100 the processing device 11 functions as the switching control unit CCP_3.
  • the processing device 11 activates the map processing OP200 based on the map application AP_1 according to the activation control data AC in the storage device 12.
  • the first period T1 ends and the second period T2 starts.
  • the processing device 11 as the image generation unit CCP_1 executes the map processing OP200, and executes the second processing in the step S311. Then, in the second process of step S311, the processing device 11 accesses the map database on the network by the communication device 13 and searches for the concert venue indicated by the parameter included in the activation control data AC. Then, the processing device 11 acquires the second image D2, which is a map image of the periphery of the concert venue, from the map database, and stores the acquired second image D2 as the image D in the storage device 12.
  • step S334 of the main processing OP100 the processing device 11 functions as the display control unit CCP_2.
  • the processing device 11 causes the image D in the storage device 12, that is, the second image D2, to be displayed on the display device 14 which is the second display state.
  • FIG. 10B illustrates a second image D2 displayed on the display surface 41S of the display device 14 at this time.
  • the map image around the ABC Hall is the second image. Generated as D2.
  • the generated map image is displayed on the display device 14 in step S334.
  • the processing device 11 When a desired position in the second image D2 (in this case, a map image) displayed on the display device 14 is instructed by an operation on the user's operation device 15, the user provides information about the store at the instructed position. Can be requested from the information processing apparatus 100.
  • the position Pst in the second image D2 shown in FIG. 10B is instructed by the user.
  • the processing device 11 specifies a store corresponding to the instructed position in the second process of step S311. Then, the processing device 11 generates activation control data AC including designated data for designating the store guidance processing OP400 based on the store guidance application AP_3 and parameters indicating the specified store, and stores the start control data AC in the storage device 12.
  • the processing device 11 When the display state of the display device 14 is switched from the second display state to the first display state, the processing device 11 functions as the switching control unit CCP_3 in step S335 of the main processing OP100. When the processing device 11 detects this switching, the processing device 11 stores the display state data DS indicating the first display state in the storage device 12.
  • step S336 of the main processing OP100 the processing device 11 functions as the switching control unit CCP_3.
  • the processing device 11 activates the store guidance processing OP400 based on the store guidance application AP_3 according to the activation control data AC in the storage device 12.
  • the second period T2 ends and the third period T3 starts.
  • the processing device 11 as the image generation unit CCP_1 executes the store guidance processing OP400, and in the step S321, executes the third processing.
  • the processing device 11 generates a third image D3, which is a store guide image having an image size corresponding to the first display state, and stores the generated third image D3 as an image D.
  • the processing device 11 generates a guide image about the store indicated by the parameter included in the activation control data AC as the third image D3.
  • step S337 of the main processing OP100 the processing device 11 functions as the display control unit CCP_2.
  • the processing device 11 causes the image D in the storage device 12, that is, the third image D3 to be displayed on the display device 14 which is the first display state.
  • the third image D3 showing the guidance information about the store at the position Pst is displayed on the display device 14.
  • FIG. 10C illustrates a first image D1 displayed on the display surface 41S of the display device 14 at this time.
  • the store located at location Pst is an ABC bookstore.
  • the processing device 11 as the image generation unit CCP_1 executes the first process (step S301) using the electronic ticket application AP_1 which is an example of the first application program. Further, the processing device 11 executes the second process (step S311) by using the map application AP_1 which is an example of the second application program. Further, the processing device 11 determines a parameter (store) based on the result of the second processing (step S311). Further, the processing device 11 executes the third process (step S321) by using the store guidance application AP_3 which is an example of the third application program. The processing device 11 executes the store guidance application AP_3 using the determined parameter (store) in the third process (step S321).
  • the third image D3 (store guide image) displayed at the start point T3s of the third period T3 is generated based on the result of the second process (step S311). Therefore, the third image D3 (store guide image) displayed at the start point T3s of the third period T3 and the second image D2 (see FIG. 10B) displayed at the end point T2e of the second period T2. It is possible to have a relationship between them.
  • the third image D3 is related to the second image D2, which is an image relating to the store instructed by the user. Further, since the third image D3 is different from the image displayed at the end point T1e of the first period T1 (see FIG. 10A), new information is provided to the user.
  • the third operation example when the user purchases an electronic ticket (first image D1) for entering the concert venue, the user generates a second image D2 (see FIG. 10B).
  • the operation information (instructed position Pst) used in the process of 2 the guide information (third image D3) of the store near the concert venue can be obtained. Therefore, the convenience of the information processing device 100 can be enhanced as compared with the case where the same image as the end point T1e of the first period T1 is displayed on the display device 14 at the start point T3s of the third period T3.
  • the map application AP_1 which is an example of the second application, may be executed in the third process.
  • the processing device 11 may generate the third image D3 by scrolling the map image so that the determined parameter (store) is located at the center of the display surface in the third processing (in the third processing).
  • FIG. 11 is a sequence diagram showing the cooperation between the map processing OP200, the store guidance processing OP400, and the main processing OP100 executed in the fourth operation example.
  • the processing device 11 executes the map application AP_1 included in the applications AP_1 to AP_N, the store guidance application AP_3 included in the applications AP_1 to AP_N, and the control program CP.
  • the processing device 11 executes the map processing OP200 shown in FIG. Further, when the store guidance application AP_3 is executed, the processing device 11 executes the store guidance processing OP400 shown in FIG. Further, when the control program CP is executed, the processing apparatus 11 executes the main processing OP100 shown in FIG.
  • step S501 of the map processing OP200 the processing device 11 executes the first processing.
  • This first process is basically the same as the first process (step S101) in the first operation example (see FIG. 5).
  • the first image D1 (map image) generated in this first process is displayed on the display surface 41S in step S111 of the main process OP100.
  • step S101 in the fourth operation example, a desired position in the first image D1 (map image) displayed on the display surface 41S is instructed by the user, and the store name at this instructed position is indicated. A parameter is generated to indicate. Then, in the first process, the processing device 11 stores the activation control data AC including the designated data for designating the store guidance process OP400 and the parameter indicating the store name in the storage device 12.
  • the processing device 11 When the display state of the display device 14 is switched from the first display state to the second display state, the processing device 11 functions as the switching control unit CCP_3 in step S522 of the main processing OP100. When the processing device 11 detects this switching, the processing device 11 stores the display state data DS indicating the second display state in the storage device 12.
  • step S523 of the main processing OP100 the processing device 11 as the switching control unit CCP_3 starts the store guidance processing OP400 according to the activation control data AC in the storage device 12.
  • the first period T1 ends and the second period T2 starts.
  • the processing device 11 as the image generation unit CCP_1 executes the second process in step S511 of the store guidance process OP400.
  • the processing device 11 refers to the store name indicated by the parameter included in the activation control data AC in the storage device 12, and searches for the homepage of the store corresponding to the referenced store name. Then, the processing device 11 accesses the homepage of the searched store by using the communication device 13, and acquires the image provided by the homepage as the second image D2.
  • the processing device 11 stores the second image D2 as an image D in the storage device 12.
  • step S524 of the main processing OP100 the processing device 11 functions as the display control unit CCP_2.
  • the processing device 11 causes the image D in the storage device 12, that is, the second image D2 provided by the homepage of the store to be displayed on the display device 14 which is the second display state.
  • the user can purchase the product posted on the homepage by operating the operation device 15.
  • the image of the receipt is transmitted from the home page to the information processing apparatus 100.
  • the image of the receipt is received by the communication device 13 of the information processing device 100 and stored in the storage device 12.
  • the processing device 11 is a storage device 12 for storing the designated data for designating the third process (step S502) of the map processing OP200 and the received receipt image in the second process (step S511) of the store guidance process OP400.
  • the activation control data AC including the parameter indicating the storage destination address is stored in the storage device 12.
  • the processing device 11 When the display state of the display device 14 is switched from the second display state to the first display state, the processing device 11 functions as the switching control unit CCP_3 in step S525 of the main processing OP100. When the processing device 11 detects this switching, the display state data DS indicating the first display state is stored in the storage device 12.
  • step 526 of the main processing OP100 the processing device 11 as the switching control unit CCP_3 activates the third process (step S502) of the map processing OP200 according to the activation control data AC in the storage device 12.
  • step S502 the third process of the map processing OP200 according to the activation control data AC in the storage device 12.
  • the processing device 11 as the image generation unit CCP_1 executes the third process in step S502 of the map processing OP200.
  • the processing device 11 reads the image of the receipt from the storage device 12 by using the storage destination address indicated by the parameter included in the activation control data AC. Then, the processing device 11 generates a third image D3 composed of the image of the receipt and the map image generated according to the operation of the operating device 15, and stores the third image D3 as the image D in the storage device 12.
  • the processing device 11 functions as the display control unit CCP_2.
  • the processing device 11 causes the display device 14, which is the first display state, to display the image D in the storage device 12, that is, the third image D3 including the image of the receipt and the map image.
  • the user arrives at the store where the product is purchased by walking while looking at the map image displayed on the display device 14.
  • the user can receive the product by showing the receipt displayed on the display device 14 to the clerk.
  • the processing device 11 as the image generation unit CCP_1 executes the first process (step S501) using the map application AP_1 which is an example of the first application program.
  • the processing device 11 executes the second process (step S511) by using the store guidance application AP_3, which is an example of the second application program.
  • the processing device 11 determines a parameter (storage address of the image of the receipt) based on the result of the second process (step S511).
  • the processing device 11 executes the third process (step S502) by using the map application AP_1 which is an example of the first application program.
  • the processing device 11 executes the map application AP_1 using the determined parameter (storage address of the image of the receipt) in the third process (step S502).
  • the convenience of the information processing apparatus 100 is enhanced as compared with the case where the same image as the end point T1e of the first period T1 is displayed on the display device 14 at the start point T3s of the third period T3. be able to.
  • the display device 14 switches the display state between the first display state and the second display state in which the display area is larger than the display area in the first display state. Is possible.
  • the display state of the display device 14 becomes the first display state over the first period T1, becomes the second display state over the second period t2 after the first period T1, and becomes the second display state after the second period T2. It is assumed that the first display state is reached over the third period T3.
  • the image generation unit CCP_1 generates the first image D1 by the first process executed over the first period T1, and the second image by the second process executed over the second period T2.
  • D2 is generated and a third image D3 is generated by a third process performed over the third period T3.
  • the display control unit CCP_2 causes the display device 14 to display the first image D1 over the first period T1, displays the second image D2 on the display device 14 over the second period T2, and displays the second image D2 on the display device 14 over the third period T3.
  • the third image D3 is displayed on the display device 14.
  • the image displayed on the display device 14 at the start point T3s of the third period T3 of the third image D3 is the image displayed on the display device 14 at the end point T1s of the first period T1 of the first image D1. Is different.
  • the third process is executed using the result of the second process.
  • the start point T3s of the third period T3 of the third image D3 is executed.
  • the image displayed on the display device 14 is different from the image displayed on the display device 14 at the end point T1s of the first period T1 in the first image D1. Therefore, new information can be provided to the user.
  • the convenience of the information processing apparatus 100 is improved as compared with the case where the same image as the end point T1e of the first period T1 is displayed on the display device 14 at the start point T3s of the third period T3.
  • the image displayed on the display device 14 at the start point T3s of the third period T3 of the third image D3 is the end point T2e of the second period T2 of the second image D2. Is different from the image displayed on the display device 14. Therefore, at the start point T3s of the third period T3, information different from the information provided to the user at the end point T2e of the second period T2 is provided. Moreover, since the third process is executed using the result of the second process, the second image D2 and the third image D3 can be related to each other. As a result, the convenience of the information processing apparatus 100 is improved.
  • the image displayed on the display device 14 at the end point T2e of the second period T2 of the second image D2 is the end point T1e of the first period T1 of the first image D1. Is different from the image displayed on the display device 14. Therefore, at the end point T2e of the second period T2, information different from the information provided to the user at the end point T1e of the first period T1 is provided. As a result, the convenience of the information processing apparatus 100 is improved.
  • the image generation unit CCP_1 executes the first process and the third process by using the first application program, and determines the parameters based on the result of the second process.
  • the first application program is executed using the determined parameters.
  • the first application program is executed in both the first process and the third process. Even if the same first application program is executed, since the parameters based on the result of the second process are used in the third process, they are displayed at the start point T3s of the third period T3 in the third image D3.
  • the image displayed on the device 14 is different from the image displayed on the display device 14 at the end point T1s of the first period T1 in the first image D1. Therefore, new information can be provided to the user.
  • the image generation unit CCP_1 executes the first process by using the first application program, and performs the second process by using the first application program or the second application program. It is executed, parameters are determined based on the result of the second process, the third process is executed using the second application program or the third application program, and the determination is made in the third process. A second application program or a third application program is executed using the parameters. According to the above aspect, since the parameter is determined using the result of the second process, the second image D2 and the third image D3 can be related to each other. As a result, the convenience of the information processing apparatus 100 is improved.
  • ⁇ Second Embodiment> 12A and 12B are perspective views showing the appearance of the information processing apparatus 100a according to the second embodiment of the present disclosure.
  • the information processing device 100a in the present embodiment has a different configuration of the display device 14 from the first embodiment.
  • the information processing device 100a has the housings 41 and 42 and the hinge 49 as in the first embodiment.
  • the information processing apparatus 100 has two display surfaces 41S and 42S.
  • the information processing apparatus 100a in the present embodiment has three rectangular display surfaces 43S, 44S and 45S, respectively.
  • the housing 41 has display surfaces 45S and 44S on two front and back surfaces, respectively
  • the housing 42 has display surfaces 44S on one of the two front and back surfaces.
  • the hinge 49 connects the long side of the rectangular end surface 41E of the housing 41 facing the display surface 43S and the long side of the rectangular end surface 42E of the housing 42 facing the display surface 44S.
  • the hinge angle ⁇ formed by the display surfaces 43S and 44S changes as the hinge 49 rotates.
  • the display state of the display device of the information processing device 100a is displayed so that the display surfaces 43S and 44S face each other and face outward as shown in FIG. 12A. It is possible to set the first display state in which the display is performed only by the display surface 45S. Further, by setting the hinge angle ⁇ to 180 degrees, the user can display the display state of the display device of the information processing device 100a with the display surface 41S and the display surface 42S facing outward and the display surface 43S as shown in FIG. 12B.
  • the second display state is a display state in which the display area is wider than that of the first display state.
  • control program and the application executed by the processing device 11 are the same as those in the first embodiment. Therefore, the same effect as that of the first embodiment can be obtained in this embodiment as well. Further, in the present embodiment, since the display surfaces 43S and 44S face each other in the first display state and the user's finger or the like does not touch, for example, in the first display state, the touch panel provided on the display surfaces 43S and 44S is used. There is an advantage that processing such as invalidating the operation becomes unnecessary.
  • the following aspects can be considered as a modification of the first operation example.
  • the first process it is assumed that the user is stuck in the progress of the game while executing the game process based on the game app.
  • the second process of the game process is executed, and the display device 14 in the second display state gives a hint regarding the progress of the game. Is displayed.
  • the third process of reflecting the above hint on the game screen is executed in the game process. In particular. By displaying an arrow on the game screen or highlighting it, a hint is shown to the user in an easy-to-understand manner. In this embodiment as well, the same effect as that of the first operation example can be obtained.
  • the following aspects can be considered as another modification of the first operation example. It is assumed that the user is in trouble during the execution of the first process based on an arbitrary application according to the operation performed by the user.
  • the second process is executed, and the help information for getting out of the predicament of the display device 14 in the second display state. Is displayed.
  • the third process is executed. In this third process, the help information is overlaid and displayed with respect to the display information originally displayed in the third process.
  • the activation control data AC including the parameters used in the second process is stored in the storage device 12.
  • the activation control data AC including the first parameter used in the second process and the second parameter used in the third process is stored. It may be stored in the device 12.
  • the start control data AC including the parameters used in the third process (referred to as the third parameter to avoid confusion) is stored in the storage device 12.
  • the second parameter stored in the storage device 12 in the first process and the third parameter stored in the storage device 12 in the second process are used. According to this aspect, both the result of the first process and the result of the second process can be involved in the third process, and the convenience of the information processing apparatus 100 can be further enhanced.
  • the result of the second treatment was used in the third treatment.
  • the state of the information processing apparatus 100 is detected, and the state of the information processing apparatus 100 at the end of the second period or the state of the information processing apparatus 100 at the start of the third period is used for the third process. You may.
  • the processing device 11 executes the electronic ticket application AP_4 during the first period, and causes the first image D1 shown in FIG. 10A to be displayed on the display surface 41S.
  • the processing device 11 executes the map application AP_1 to display the second image D2 shown in FIG. 10B on the display surface 41S and the display surface 42S.
  • the position Pst shown in FIG. 10B is a target position designated by the user in the second process, and is an example of the result of the second process.
  • the processing device 11 switches the application to be executed in the third period according to the state of the information processing device 100 at the end of the second period. Specifically, in the second period, the processing device 11 continuously detects the tilt information indicating the tilt of the information processing device 100 with respect to the horizontal by using the acceleration detection device 17. Then, when the second display state is switched to the first display state, the processing device 11 acquires the tilt information of the information processing device 100 at the end of the second period, which is the switching timing.
  • the processing device 11 executes the AR application AP_2 in the third period to display, for example, the third image D3 shown in FIG. 13 on the display surface 41S.
  • the processing device 11 displays the AR screen in the third processing executed in the third period.
  • the processing device 11 executes the store guidance application AP_3 in the third period to display, for example, the third image D3 shown in FIG. 10C on the display surface 41S. That is, the processing device 11 displays the store guidance information in the third processing executed in the third period.
  • the processing device 11 determines whether or not the inclination of the information processing device 100 with respect to the horizontal is within a predetermined range at the end of the second period, and if the determination result is affirmative, the AR application AP_2 Is executed, and when the determination result is negative, the store guidance application AP_3 is executed.
  • the predetermined range is set to a range that is considered to be desired by the user for AR display.
  • the predetermined range is, for example, 60 degrees or more and less than 120 degrees. The user may be able to set a predetermined range.
  • the inclination of the information processing apparatus 100 with respect to the horizontal is not limited to the end time of the second period, but may be the start time of the third period.
  • the image generator CCP_1 determines the parameters based on the result of the second process performed over the second period and at the end point of the second period or the start point of the third period.
  • the application program to be executed in the third period is determined among the plurality of application programs according to the state of the information processing apparatus 100, and the application program determined by using the parameters determined in the third period is executed. As a result, the third process is executed in the third period.
  • the inclination of the information processing apparatus 100 with respect to the horizontal is an example of the information processing apparatus 100.
  • the position Pst is an example of a parameter based on the result of the second process.
  • the AR application AP_2 and the store information application AP_3 are examples of a plurality of application programs.
  • the application program to be executed in the third period among the plurality of application programs is determined according to the state of the information processing apparatus 100 at the end point of the second period or the start point of the third period.
  • the convenience of the information processing apparatus 100 is improved.
  • the display in the second display state, is performed by the separate display surfaces 43S and 44S.
  • the information processing apparatus 100a is provided with a display surface which is a continuous display surface straddling the housings 41 and 42 and has a larger display area than the display surface 45S, and the display surface provides a second display surface. It may be displayed.
  • the smartphone is exemplified as the information processing device 100 or 100a, but the specific form of the information processing device 100 or 100a is arbitrary and is not limited to the above-mentioned examples of each form.
  • a portable or stationary personal computer may be used as the information processing device 100 or 100a.
  • the storage device 12 is a recording medium that can be read by the processing device 11, and examples thereof include a ROM and a RAM.
  • Disk Blu-ray (registered trademark) disk), smart card, flash memory device (for example, card, stick, key drive), CD-ROM (Compact Disc-ROM), register, removable disk, hard disk, floppy (registered trademark) ) Disks, magnetic strips, databases, servers and other suitable storage media.
  • the program may also be transmitted from the network via a telecommunication line. Further, the program may be transmitted from the communication network via a telecommunication line.
  • the base station may include an input device such as an input key and an output device such as a display.
  • Each of the above embodiments is LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA (registered trademark).
  • GSM registered trademark
  • CDMA2000 Code Division Multiple Access 2000
  • UMB Ultra Mobile Broadband
  • IEEE 802.11 Wi-Fi
  • IEEE 802.16 WiMAX
  • LTE 802.20 UWB (Ultra-WideBand)
  • Bluetooth registered trademark
  • the information, signals, and the like described may be represented using any of a variety of different techniques.
  • data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.
  • the terms described herein and / or the terms necessary for understanding the present specification may be replaced with terms having the same or similar meanings.
  • the input / output information and the like may be stored in a specific place (for example, a memory) or may be managed by a management table. Information to be input / output may be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.
  • the determination may be made by a value represented by one bit (0 or 1) or by a boolean value (Boolean: true or false). , May be done by numerical comparison (eg, comparison with a given value).
  • each function disclosed in the above embodiment is realized by any combination of hardware and software. Further, each function may be realized by a single device, or may be realized by two or more devices configured as separate bodies from each other.
  • the program exemplified in each of the above embodiments may be called a software, firmware, middleware, microcode or hardware description language, or may be called by another name, an instruction, an instruction set, a code, a code segment, and the like. It should be broadly interpreted to mean program code, subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures or functions, etc. Further, software, instructions, and the like may be transmitted and received via a transmission medium.
  • the software may use wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave to website, server, or other. When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.
  • the information processing apparatus 100 or 100a includes a case where the information processing apparatus 100 or 100a is a mobile station.
  • Mobile stations can be used by those skilled in the art as subscriber stations, mobile units, subscriber units, wireless units, remote units, mobile devices, wireless devices, wireless communication devices, remote devices, mobile subscriber stations, access terminals, mobile terminals, wireless. It may also be referred to as a terminal, remote terminal, handset, user agent, mobile client, client, or some other suitable term.
  • connection means any direct or indirect connection or connection between two or more elements and to each other. It can include the presence of one or more intermediate elements between two "connected” elements.
  • the connection between the elements may be physical, logical, or a combination thereof.
  • the two elements are by using one or more wires, cables and / or printed electrical connections, and, as some non-limiting and non-comprehensive examples, radio frequencies. It can be considered to be “connected” to each other by using electromagnetic energies such as electromagnetic energies having wavelengths in the region, microwave region and light (both visible and invisible) regions.
  • the present technology can also have the following configurations.
  • a display device capable of switching the display state between the first display state and the second display state in which the display area is larger than the display area in the first display state.
  • the display state of the display device becomes the first display state over the first period, the second display state over the second period after the first period, and after the second period.
  • the first image is generated by the first process executed over the first period, and the second image is executed over the second period.
  • An image generation unit that generates a second image by the processing and generates a third image by the third processing executed over the third period.
  • the first image is displayed on the display device over the first period
  • the second image is displayed on the display device over the second period
  • the third image is displayed on the display device over the third period.
  • a display control unit for displaying on the display device is provided.
  • the image displayed on the display device at the start point of the third period of the third image is different from the image displayed on the display device at the end point of the first period of the first image.
  • the third process uses the result of the second process.
  • (2) The image displayed on the display device at the start point of the third period of the third image is different from the image displayed on the display device at the end point of the second period of the second image.
  • the image displayed on the display device at the end point of the second period of the second image is different from the image displayed on the display device at the end point of the first period of the first image.
  • the image generation unit Using the first application program, the first process and the third process are executed. Based on the result of the second process, the parameters are determined. In the third process, the first application program is executed using the determined parameters. The information processing apparatus according to any one of (1) to (3).
  • the image generator Based on the result of the second process, the parameters are determined.
  • the application program to be executed in the third period among the plurality of application programs is determined according to the state of the information processing apparatus at the end point of the second period or the start point of the third period.
  • the determined application program is executed using the determined parameters.
  • the information processing apparatus according to any one of (1) to (3).
  • the image generation unit The first process is executed using the first application program, The second process is executed by using the first application program or the second application program. Based on the result of the second process, the parameters are determined.
  • the third process is executed by using the second application program or the third application program.
  • the second application program or the third application program is executed using the determined parameters.
  • the information processing apparatus according to any one of (1) to (3).
  • the display state of the display device becomes the first display state over the first period, becomes the second display state over the second period after the first period, and becomes the second display state after the second period.
  • a first image is generated by the first process executed over the first period, and the generated first image is displayed on the display device.
  • a second image is generated by the second process executed over the second period, and the generated second image is displayed on the display device.
  • a third image is generated by the third process executed over the third period, and the generated third image is displayed on the display device.
  • the image displayed on the display device at the start point of the third period of the third image is different from the image displayed on the display device at the start point of the first period of the first image.
  • the third process uses the result of the second process.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

表示装置は、第1の表示状態と、第1の表示状態よりも表示面積が大きい第2の表示状態との切り替えが可能である。画像生成部(CCP_1)は、第1の期間において第1の表示状態となり、その後の第2の期間において第2の表示状態となり、その後の第3の期間において第1の表示状態となる場合に、第3の期間の始点において表示される画像を第1の期間の終点において表示される画像と異ならせる。画像生成部(CCP_1)は、第3の期間において、第2の期間における処理の処理結果を用いる。

Description

情報処理装置及び表示装置の制御方法
 本発明は、情報処理装置及び表示装置の制御方法に関する。
 近年、単なる通話に用いるだけでなく、各種の情報を表示できるスマートフォンが普及している。特許文献1には、携帯性と大画面表示を兼ね備えた折り畳み型のスマートフォンが開示されている。このスマートフォンは、本体を閉じた状態では小画面の表示状態となり、本体を開いた状態では大画面の表示状態となる。大画面の表示状態では、小画面の表示状態と比較して詳細な情報が大画面に表示される。
特開2019-67309号公報
 しかしながら、上述したスマートフォンでは、小画面の表示状態から大画面の表示状態に切り替えた後、小画面の表示状態に戻した場合、小画面に表示される画像は、元の小画面の表示状態において表示された画像であった。従って、従来のスマートフォンでは大画面の表示状態において表示される画像と、後の小画面に表示される画像との間に関連性を持たせることができなかった。
 本発明は、上述した事情に鑑みてなされたものであり、情報処理装置の利便性を向上することを解決課題とする。
 この発明の一態様である情報処理装置は、第1の表示状態と、前記第1の表示状態における表示面積よりも表示面積が大きい第2の表示状態との間で表示状態の切替が可能な表示装置と、前記表示装置の表示状態が、第1の期間にわたって前記第1の表示状態となり、前記第1の期間の後の第2の期間にわたって前記第2の表示状態となり、前記第2の期間の後の第3の期間にわたって前記第1の表示状態となる場合に、前記第1の期間にわたって実行される第1の処理により第1の画像を生成し、前記第2の期間にわたって実行される第2の処理により第2の画像を生成し、前記第3の期間にわたって実行される第3の処理により第3の画像を生成する画像生成部と、前記第1の期間にわたって前記第1の画像を前記表示装置に表示させ、前記第2の期間にわたって前記第2の画像を前記表示装置に表示させ、前記第3の期間にわたって前記第3の画像を前記表示装置に表示させる表示制御部と、を備え、前記第3の画像のうち前記第3の期間の始点において前記表示装置に表示される画像は、前記第1の画像のうち前記第1の期間の終点において前記表示装置に表示される画像と異なり、前記第3の処理は、前記第2の処理結果を用いる。
 この発明の他の態様である表示装置の制御方法は、第1の表示状態と、前記第1の表示状態における表示面積よりも表示面積が大きい第2の表示状態との間で表示状態の切替が可能な表示装置の制御方法であって、前記表示装置の表示状態が、第1の期間にわたって前記第1の表示状態となり、前記第1の期間の後の第2の期間にわたって前記第2の表示状態となり、前記第2の期間の後の第3の期間にわたって前記第1の表示状態となる場合に、前記第1の期間にわたって実行される第1の処理により第1の画像を生成し、前記生成した第1の画像を前記表示装置に表示させ、前記第2の期間にわたって実行される第2の処理により第2の画像を生成し、前記生成した第2の画像を前記表示装置に表示させ、前記第3の期間にわたって実行される第3の処理により第3の画像を生成し、前記生成した第3の画像を前記表示装置に表示させ、前記第3の画像のうち前記第3の期間の始点において前記表示装置に表示される画像は、前記第1の画像のうち前記第1の期間の終点において前記表示装置に表示される画像と異なり、前記第3の処理は、前記第2の処理の結果を用いる。
 この発明によれば、第3の期間に始点において表示される第3の画像は、第2の処理の結果に基づいて生成されるので、第2の期間の終点に表示される第2の画像と関連性を持たせることができる。また、第3の画像は、第1の期間の終点に表示される画像と相違するので、ユーザに新たな情報を提供できる。この結果、第3の期間の始点において第1の期間の終点と同じ画像を表示装置に表示する場合と比較して、情報処理装置の利便性が向上する。
本開示の第1実施形態である情報処理装置の第1の表示状態における外観を示す斜視図である。 同情報処理装置の第2の表示状態における外観を示す斜視図である。 同情報処理装置のハードウェア構成を示すブロック図である。 同情報処理装置の記憶装置の記憶内容を示す図である。 同情報処理装置の機能構成を示すブロック図である。 同情報処理装置の表示切替に伴う処理の切替を示すタイムチャートである。 同情報処理装置の処理装置が制御プログラムに従って実行するメイン処理の流れを示すフローチャートである。 同情報処理装置の第1動作例において、処理装置が地図アプリに従って実行する地図処理と、制御プログラムに従って実行するメイン処理との連携を示すシーケンス図である。 同第1動作例における情報処理装置の表示画面の遷移を示す図である。 同第1動作例における情報処理装置の表示画面の遷移を示す図である。 同第1動作例における情報処理装置の表示画面の遷移を示す図である。 同情報処理装置の第2動作例において、地図処理と、AR処理と、店舗案内処理と、メイン処理との連携を示すシーケンス図である。 同第2動作例における情報処理装置の表示画面の遷移を示す図である。 同第2動作例における情報処理装置の表示画面の遷移を示す図である。 同第2動作例における情報処理装置の表示画面の遷移を示す図である。 同情報処理装置の第3動作例において、電子チケット処理と、地地図処理と、店舗案内処理と、メイン処理との連携を示すシーケンス図である。 同第3動作例における情報処理装置の表示画面の遷移を示す図である。 同第3動作例における情報処理装置の表示画面の遷移を示す図である。 同第3動作例における情報処理装置の表示画面の遷移を示す図である。 同情報処理装置の第4動作例において、地図処理と、店舗案内処理と、メイン処理との連携を示すシーケンス図である。 本開示の第2実施形態である情報処理装置の第1の表示状態における外観を示す斜視図である。 同情報処理装置の第2の表示状態における外観を示す斜視図である。 変形例における情報処理装置の表示画面の遷移を示す図である。
<第1実施形態>
 図1A及び図1Bは、本開示の第1実施形態である情報処理装置100の外観を示す斜視図である。本実施形態における情報処理装置100は、スマートフォンである。なお、情報処理装置100は、スマートフォン以外の携帯電話機、タブレット端末等の可搬型の情報処理装置であってもよい。
 図1A及び図1Bに示されるように、情報処理装置100は、筐体41及び42と、ヒンジ49とを有する。筐体41及び42は、いずれも直方体の板状の形をした筐体である。筐体41は、その表裏の2面の一方に長方形の形をした表示面41Sを有し、筐体42は、その表裏の2面の一方に長方形の形をした表示面42Sを有する。これらの表示面41S及び42Sは、情報処理装置100の表示装置14の表示面である。本実施形態において、表示面41S及び42Sは、互いに同じ表示面積を有する。
 端面41Eは、それらの4つの端面のうち筐体41の表裏の2面の長辺側にある2つの端面うちの1つである。同様に、筐体42は、その表裏の2面を囲む4つの長方形形状の端面を有する。端面42Eは、それらの4つの端面のうち筐体42の表裏の2面の長辺側にある2つの端面うちの1つである。ヒンジ49は、筐体41及び42を回転可能に連結するいわゆる蝶番である。ヒンジ49は、端面41Eにおいて表示面41Sに臨む長辺の反対側の長辺と、端面42Eにおいて表示面42Sに臨む長辺の反対側の長辺とを連結する。
 本実施形態では、ヒンジ49が回転することで、表示面41S及び42Sのなすヒンジ角度θが変化する。本実施形態において、ユーザは、ヒンジ角度θを360度とすることにより、図1Aに示すように、表示面41S及び42Sを外側に向かせ、情報処理装置100の表示装置の表示状態を、表示面41Sのみにより表示を行う第1の表示状態とすることができる。また、ユーザは、ヒンジ角度θを180度とすることにより、図1Bに示されるように、表示面41S及び42Sを自分に対面させることができる。ユーザは、情報処理装置100の表示装置14の表示状態を、表示面41S及び42Sの両方による表示を行う第2の表示状態にすることができる。この第2の表示状態は、第1の表示状態よりも表示面積が広い表示状態である。
 図2は、情報処理装置100のハードウェア構成を例示するブロック図である。図2に例示される通り、情報処理装置100は、処理装置11、記憶装置12、通信装置13、表示装置14、操作装置15、測位装置16、加速度検出装置17及び開閉検出装置18を具備するコンピュータである。情報処理装置100の各要素は、単体又は複数のバスで相互に接続される。なお、本願における「装置」という用語は、回路、デバイス又はユニット等の他の用語に読替えてもよい。また、情報処理装置100の各要素は、単数又は複数の機器で構成され、情報処理装置100の一部の要素を省略してもよい。
 処理装置11は、情報処理装置100の全体を制御するプロセッサであり、例えば単数又は複数のチップで構成される。処理装置11は、例えば、周辺装置とのインタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU:Central Processing Unit)で構成される。なお、処理装置11の機能の一部又は全部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、又はFPGA(Field Programmable Gate Array)等のハードウェアで実現してもよい。処理装置11は、各種の処理を並列的又は逐次的に実行する。
 記憶装置12は、処理装置11が読取可能な記録媒体であり、処理装置11が実行する複数のプログラム、及び処理装置11が使用する各種のデータを記憶する。記憶装置12は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、又はEEPROM(Electrically Erasable Programmable ROM)等の不揮発性記憶回路と、RAM(Random Access Memory)等の揮発性記憶回路とにより構成される。
 通信装置13は、移動体通信網又はインターネット等の通信網を介して他の装置と通信する装置である。通信装置13は、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード又は通信モジュールとも表記される。例えば、配信サーバ(図示略)から通信網を介して通信装置13が受信したアプリケーションプログラムが記憶装置12に記憶される。また、通信装置13は、Bluetooth(登録商標)等の近距離無線通信を行う無線装置を含む。
 表示装置14は、処理装置11による制御のもとで上述した表示面41S及び42Sに各種の画像を表示する。例えば液晶表示パネル、有機EL表示パネル等の各種の表示パネルが表示装置14として好適に利用される。表示面41Sを有する表示装置と、表示面42Sを有する表示装置は、物理的には別個の表示装置である。しかし、本実施形態による情報処理装置100では、表示面41S及び42Sに跨って1つの画像を表示し、あるいは表示面41Sによる表示と表示面42Sによる表示とを連携させて、1つのまとまった処理を実行する場合もある。そこで、本実施形態では、表示面41Sを有する表示装置と、表示面42Sを有する表示装置とをまとめ、1つの表示装置14として扱う。
 操作装置15は、情報処理装置100が使用する情報を入力するための装置である。操作装置15は、利用者による操作を受付ける。具体的には、操作装置15は、数字及び文字等の符号を入力するための操作と、表示装置14が表示するアイコンを選択するための操作とを受付ける。例えば、表示装置14の表示面に対する接触を検出するタッチパネルが操作装置15として好適である。なお、利用者が操作可能な複数の操作子を操作装置15が含んでもよい。
 測位装置16は、具体的にはGPS装置であり、複数の衛星からの電波を受信し、受信した電波から位置情報を生成する。位置情報は、位置を特定できるのであれば、どのような形式であってもよい。位置情報は、例えば、情報処理装置100の緯度と経度とを示す。この例では、位置情報は測位装置16から得られることを例示するが、情報処理装置100は、どのような方法で位置情報を取得してもよい。例えば、情報処理装置100の通信先となる基地局に割り当てられたセルIDを用いて位置情報を取得してもよい。さらに、情報処理装置100が無線LANのアクセスポイントと通信する場合、情報処理装置100はアクセスポイントに割り当てられたネットワーク上の識別アドレス(MACアドレス)と実際の住所(位置)とを対応付けたデータベースを参照することによって、情報処理装置100は位置情報を取得してもよい。
 加速度検出装置17は、情報処理装置100に働く加速度を検出する装置である。ピエゾ抵抗型、又は静電容量型等の各種の加速度センサが加速度検出装置17として用いられる。開閉検出装置18は、表示装置14の表示状態を検出する装置である。具体的には、開閉検出装置18は、表示面41S及び42Sがなす角度、すなわち、ヒンジ49のヒンジ角度θを検出し、ヒンジ角度θに応じた大きさを持った検出信号を出力するセンサを含む。開閉検出装置18は、検出信号が示すヒンジ角度θが例えば360°<θ<270°の範囲内にある場合、表示装置14の表示状態が第1の表示状態(閉状態)であることを示す信号を出力する。また、開閉検出装置18は、検出信号が示すヒンジ角度θが例えば270°<θ<90°の範囲内にある場合、表示装置14の表示状態が第2の表示状態(開状態)であることを示す信号を出力する。
 図3Aは、記憶装置12の記憶内容を示す図である。図3Aに示すように、記憶装置12には、上位階層をなす各種のアプリケーションプログラム(以下、アプリと略す)AP_1~AP_N(Nは2以上の整数)と、下位層をなす制御プログラムCPとが記憶される。ここで、アプリAP_1~AP_Nは、例えば情報処理装置100の工場出荷時に記憶装置12に書き込まれたものであってもよく、通信装置13を介して記憶装置12にダウンロードされたものであってもよい。
 また、記憶装置12には、表示状態データDS、画像D、及び起動制御データACが記憶される。表示状態データDSは、表示装置14の現在の表示状態が第1の表示状態であるか第2の表示状態であるかを示す。画像Dは、表示装置14の表示対象となる画像であり、処理装置11により生成される。この画像Dには、表示装置14の表示状態が第1の表示状態において表示される第1の画像D1又は第3の画像D3と、表示装置14の表示状態が第2の表示状態において表示される第2の画像D2とがある。
 起動制御データACは、指定データとパラメータを含む。指定データは、表示装置14の表示状態が第1の表示状態から第2の表示状態に切替わった場合又は第2の表示状態から第1の表示状態に切替わった場合に、その表示切替後に処理装置11が起動すべき処理を指定する。指定データは、表示切替後に処理装置11が起動すべき処理を指定する情報の一例である。パラメータは、表示切替後に処理装置11が起動すべき処理に用いられるデータである。
 処理装置11は、アプリAP_1~AP_Nのうちの任意のアプリの実行中、アプリの実行状態が変わる都度、その後に行われる表示切替に備えて記憶装置12に起動制御データACに格納する。起動すべき処理は、アプリに基づく全処理のうちの先頭の処理である場合もあるが、途中の処理である場合もある。起動すべき処理が先頭の処理である場合、指定データは、例えば、アプリが記憶されている記憶領域のうち、先頭の命令の格納アドレスを指定する。起動すべき処理が途中の処理である場合、指定データは、例えば、アプリが記憶されている記憶領域のうち途中の処理に対応する先頭の命令の格納アドレスを指定する。
 また、起動すべき処理は、処理装置11が記憶装置12に起動制御データACを格納する時点において、処理装置11が実行中のアプリと異なるアプリに基づく処理である場合もあるが、現在実行中のアプリに基づく全処理のうち現在実行中の処理以外の処理である場合もある。具体的には、起動すべき処理を指定する指定データは、記憶装置12に記憶された当該処理を構成する命令のうちの先頭の命令の格納アドレスを示す。処理装置11は、制御プログラムCPを実行することにより、表示切替のあったタイミングにおいて、その表示切替の前の期間において記憶装置12に最後に格納された起動制御データACを参照し、この起動制御データACにより指定された処理を起動する。起動制御データACに含まれるパラメータは、この起動された処理を実行する処理装置11によって参照される。
 図3Bは、処理装置11の機能構成を示すブロック図である。処理装置11は、制御プログラムCPと、アプリAP_1~AP_Nとを記憶装置12から読み出す。処理装置11は、読み出された制御プログラムCPとアプリAP_1~AP_Nとを実行する実行部である。
 処理装置11は、アプリAP_1~AP_Nのうちの任意のアプリを実行することにより画像生成部CCP_1として機能する。図3Cは、本実施形態において行われる表示切替に伴う処理の切替を示すタイムチャートである。図3Cに示される動作例では、表示装置14の表示状態が、第1の期間T1にわたって第1の表示状態となり、その後の第2の期間T2にわたって第2の表示状態となり、その後の第3の期間T3にわたって第1の表示状態となる。この場合、画像生成部CCP_1は、第1の期間T1にわたって実行される第1の処理により第1の画像D1を生成し、第2の期間T2にわたって実行される第2の処理により第2の画像D2を生成し、第3の期間T3にわたって実行される第3の処理により第3の画像D3を生成する。ここで、画像生成部CCP_1は、アプリAP_1~AP_Nのうちの任意の1以上のアプリを実行することにより、第1の処理、第2の処理及び第3の処理を各々実行する。
 また、処理装置11は、制御プログラムCPを実行することにより表示制御部CCP_2として機能する。表示制御部CCP_2は、第1の期間T1にわたって実行される第1の処理により生成される第1の画像D1を表示装置14に表示させ、第2の期間T2にわたって実行される第2の処理により生成される第2の画像D2を表示装置14に表示させ、第3の期間T3にわたって実行される第3の処理により生成される第3の画像D3を表示装置14に表示させる。
 本実施形態において、第2の画像D2のうち第2の期間T2の終点T2eにおいて表示装置14に表示される画像は、第1の画像D1のうち第1の期間T1の終点T1eにおいて表示装置14に表示される画像と異なる。また、第3の画像D3のうち第3の期間T3の始点T3sにおいて表示装置14に表示される画像は、第1の画像D1のうち第1の期間T1の終点T1eにおいて表示装置14に表示される画像と異なる。また、第3の画像D3のうち第3の期間T3の始点T3sにおいて表示装置14に表示される画像は、第2の画像のうち第2の期間T2の終点T2eにおいて表示装置14に表示される画像と異なる。また、本実施形態において、第3の処理は、第2の処理の結果を用いる。第2の処理の結果は、起動制御データACに含まれるパラメータである。
 また、処理装置11は、制御プログラムCPを実行することにより、切替制御部CCP_3として機能する。切替制御部CCP_3は、表示状態の切替が行われた場合に、その切替前の期間内において記憶装置12に最後に格納された起動制御データACを参照する。処理装置11は、起動制御データACに含まれる情報により指定された処理を画像生成部CCP_1の処理として起動する。そして、処理装置11は、起動制御データACにより指定された処理の実行時に、起動制御データACに含まれるパラメータを参照する。従って、本実施形態では、起動制御データACにより、第2の処理を第1の処理の結果に関連付け、第3の処理を第2の処理の結果に関連付ける。
<第1実施形態の動作>
 次に本実施形態の動作を説明する。図4は本実施形態において処理装置11が制御プログラムCPに従って実行するメイン処理OP100の流れを示すフローチャートである。本実施形態において、情報処理装置100の電源が投入されると、処理装置11は、制御プログラムCPを実行する。この制御プログラムCPの実行において、処理装置11は、切替制御部CCP_3としての処理である切替制御(ステップSc10)と、表示制御部CCP_2としての処理である表示制御(ステップSc20)とを繰り返す。
 切替制御(ステップSc10)において、処理装置11は、開閉検出装置18の出力信号に基づいて、表示切替、すなわち、第1の表示状態から第2の表示状態への切替又は第2の表示状態から第1の表示状態への切替が行われたか否かを判定する(ステップSc11)。このステップSc11の判定結果が否定である場合、処理装置11は、切替制御(ステップSc10)を終了し、処理を表示制御(ステップSc20)に進める。
 一方、ステップSc11の判定結果が肯定である場合、表示状態の更新、すなわち、ステップSc11において検知した表示状態を示す表示状態データDSを記憶装置12に格納する処理を実行する(ステップSc12)。
 次に処理装置11は、起動処理を実行する(ステップSc13)。この起動処理において、処理装置11は、記憶装置12に格納された起動制御データACを参照し、起動制御データACにより指定された処理を起動する。このステップSc13の処理が終了すると、処理装置11は、切替制御(ステップSc10)を終了し、処理を表示制御(ステップSc20)に進める。
 次に表示制御(ステップSc20)において、処理装置11は、記憶装置12内の表示状態データDSが第1の表示状態を示すか否かを判定する(ステップSc21)。この判定結果が肯定である場合、処理装置11は、記憶装置12に格納された画像Dを第1の表示状態である表示装置14に表示させ(ステップSc22)、表示制御(ステップSc20)を終了する。ここで、表示装置14の表示状態が第1の表示状態である場合には、第1の画像D1又は第3の画像D3が画像Dとして記憶装置12に格納される。従って、ステップSc22では、第1の画像D1又は第3の画像D3が表示装置14に表示される。
 表示装置14の表示状態が第2の表示状態である場合、ステップSc21の判定結果は否定となる。この場合、処理装置11は、記憶装置12に格納された画像Dを第2の表示状態である表示装置14に表示させ(ステップSc23)、この後、表示制御(ステップSc20)を終了する。ここで、表示装置14の表示状態が第2の表示状態である場合には、第2の画像D2が画像Dとして記憶装置12に格納される。従って、ステップSc23では、第2の画像D2が表示装置14に表示される。
 表示制御(ステップSc20)が終了すると、処理装置11は、処理を切替制御(ステップSc10)に戻す。処理装置11は、切替制御(ステップSc10)及び表示制御(ステップSc20)の実行を繰り返す。
 本実施形態では、以上のような制御プログラムCPと、アプリAP_1~AP_Nの中の任意のアプリとを処理装置11が実行することにより、第1の表示状態から第2の表示態への切替及び第2の表示状態から第1の表示状態への切替を伴う各種の動作が実現される。
<第1実施形態の第1動作例>
 図5は、本実施形態の第1動作例において、処理装置11が地図アプリAP_1に従って実行する地図処理OP200と、制御プログラムCPに従って実行するメイン処理OP100との連携を示すシーケンス図である。また、図6A、図6B及び図6Cは、第1動作例における表示装置14の表示画面の遷移を示す図である。
 第1動作例において、処理装置11は、アプリAP_1~AP_Nの中の1つである地図アプリAP_1と、制御プログラムCPを実行する。地図アプリAP_1が実行されることにより、処理装置11は地図処理OP200を実行する。制御プログラムCPが実行されることにより、処理装置11はメイン処理OP100を実行する。
 第1動作例では、初期状態において表示装置14は第1の表示状態であり、期間は第1の期間T1となっている。そして、第1動作例では、この第1の期間T1にわたって処理装置11が地図処理OP200に基づく第1の処理を実行する(ステップS101)。この第1の処理において、処理装置11は画像生成部CCP_1として機能する。処理装置11は、操作装置15に対する操作に従って地図画像である第1の画像D1を生成し、生成した第1の画像D1を画像Dとして記憶装置12に格納する。
 一方、メイン処理OP100のステップS111において、処理装置11は表示制御部CCP_2として機能する。処理装置11は記憶装置12に記憶されている画像D、すなわち、第1の画像D1を第1の表示状態である表示装置14に表示させる。図6Aはこのとき表示装置14の表示面41Sに表示される第1の画像D1を例示するものである。
 処理装置11は、例えば操作装置15に対する操作に応じた処理を実行する等により、地図処理OP200の第1の処理(ステップS101)の実行状態が変わる都度、起動制御データACを記憶装置12に格納する。第1動作例では、第1の期間T1内において記憶装置12に最後に格納される起動制御データACは、地図処理OP200の第2の処理(ステップS102)を指定する指定データと、現在表示中の地図の中心位置を示すパラメータ(例えば地図における中心位置の緯度及び経度)を含む。
 表示装置14の表示状態が第1の表示状態から第2の表示状態へ切り替わる場合、メイン処理OP100のステップS112において、処理装置11は切替制御部CCP_3として機能する。処理装置11は、この切替を検知する場合、第2の表示状態を示す表示状態データDSを記憶装置12に格納する。
 次にメイン処理OP100のステップS113において、処理装置11は、切替制御部CCP_3として機能する。処理装置11は、記憶装置12内の起動制御データACに従い、地図処理OP200に基づく第2の処理(ステップS102)を起動する。これにより第1の期間T1が終了し、第2の期間T2が開始される。
 画像生成部CCP_1としての処理装置11は、地図処理OP200のステップS102において第2の処理を実行する。第1動作例において、この第2の処理は、地図画像を拡大する処理である。この第2の処理において、処理装置11は、第2の表示状態に対応した画像サイズの地図画像である第2の画像D2を生成する。処理装置11は、生成した第2の画像D2を画像Dとして記憶装置12に格納する。その際、処理装置11は、第2の画像D2において起動制御データAC内のパラメータが示す位置が第2の表示状態における表示面の中心に表示されるように地図画像をスクロールして第2の画像D2を生成する。
 一方、メイン処理OP100のステップS114において、処理装置11は表示制御部CCP_2として機能する。処理装置11は、記憶装置12内の画像D、すなわち、第2の画像D2を第2の表示状態である表示装置14に表示させる。
 第1動作例では、地図処理OP200の第2の処理(ステップS102)の実行中、ユーザが操作装置15を操作することにより、表示中の第2の画像D2における所望の位置Pmarkが指示される。図6Bはこのとき実行されるステップS114の処理により表示装置14に表示される第2の画像D2を例示するものである。画像生成部CCP_1としての処理装置11は、この位置Pmarkの指示に応じ、起動制御データACを生成して記憶装置12に格納する。第1動作例では、この起動制御データACが、第2の期間T2内において最後に記憶装置12に格納される起動制御データACとなる。この起動制御データACは、地図処理OP200における第3の処理(ステップS103)を指定する指定データと、ユーザによって指示された位置Pmarkを示すパラメータ(例えば地図における位置Pmarkの緯度及び経度)とを含む。
 表示装置14の表示状態が第2の表示状態から第1の表示状態へ切り替わる場合、メイン処理OP100のステップS115において、処理装置11は切替制御部CCP_3として機能する。処理装置11は、この切替を検知すると、第1の表示状態を示す表示状態データDSを記憶装置12に格納する。
 次にメイン処理OP100のステップS116において、処理装置11は、切替制御部CCP_3として機能する。処理装置11は、記憶装置12内の起動制御データACに従い、地図処理OP200における第3の処理(ステップS103)を起動する。これにより第2の期間T2が終了し、第3の期間T3が開始される。
 画像生成部CCP_1としての処理装置11は、地図処理OP200のステップS103において、第3の処理を実行する。この第3の処理は、通常サイズの画像を表示する処理である。この第3の処理において、処理装置11は、第1の表示状態に対応した画像サイズの地図画像である第3の画像D3を生成し、生成した第3の画像D3を記憶装置12に格納する。その際、処理装置11は、起動制御データAC内のパラメータが示す位置が第1の表示状態における表示面41Sの中心に表示されるように地図画像をスクロールして第3の画像D3を生成する。
 一方、メイン処理OP100のステップS117において、処理装置11は表示制御部CCP_2として機能する。処理装置11は、記憶装置12内の画像D、すなわち、第3の画像D3を第1の表示状態である表示装置14に表示させる。
 図6Cはこのとき表示装置14に表示される第3の画像D3を例示するものである。図6Bと図6Cを対比すれば分かるように、第1動作例では、第2の期間T2において、第2の画像D2である拡大された地図画像上の所望の位置Pmarkが指示された場合に、第3の期間T3では、その指示された位置Pmarkが表示面の中心に位置するようにスクロールされた地図画像が第3の画像D3として表示される。
 以上のように、第1動作例において、画像生成部CCP_1としての処理装置11は、第1のアプリケーションプログラムの一例である地図アプリAP_1を用いて第1の処理(ステップS101)及び第3の処理(ステップS103)を実行し、第2の処理(ステップS102)の結果に基づいて、パラメータ(位置Pmark)を決定し、第3の処理(ステップS103)において、決定したパラメータを用いて地図アプリAP_1を実行する。
 第1動作例では、第3の期間T3の始点T3sにおいて表示される第3の画像D3(図6C参照)は、第2の処理(ステップS102)の結果に基づいて生成されるので、第2の期間T2の終点T2eに表示される第2の画像D2(図6B参照)と関連性を持たせることができる。また、第3の画像D3は、第1の期間T1の終点T1eに表示される画像(図6A参照)と相違するので、ユーザに新たな情報を提供できる。この結果、第3の期間T3の始点T3sにおいて第1の期間T1の終点T1eと同じ画像を表示装置14に表示する場合と比較して、情報処理装置100の利便性が向上する。
<第1実施形態の第2動作例>
 図7は、第2動作例において実行される地図処理OP200と、AR処理OP300と、店舗案内処理OP400と、メイン処理OP100との連携を示すシーケンス図である。また、図8A、図8B及び図8Cは、第2動作例における表示装置14の表示画面の遷移を示す図である。
 第2動作例において、処理装置11は、各々アプリAP_1~AP_Nの中のアプリである地図アプリAP_1、ARアプリAP_2、及び店舗案内アプリAP_3と、制御プログラムCPを実行する。
 地図アプリAP_1が実行されることにより、処理装置11は、図7に示す地図処理OP200を実行する。また、ARアプリAP_2が実行されることにより、処理装置11は、図7に示すAR処理OP300を実行する。ここで、ARとは、拡張現実感(Augmented Reality)の略であり、現実の環境から視覚などの知覚に与えられる情報を、コンピュータによる処理で追加あるいは削減、変化させる技術である。ARは、例えばユーザの現在位置を測位により求めた場合において、その現在位置の周囲の建造物等の画像を追加することにより、歩行するユーザの環境を示す画像を生成する技術を含む。また、店舗案内アプリAP_3が実行されることにより、処理装置11は、図7に示す店舗案内処理OP400を実行する。また、制御プログラムCPが実行されることにより、処理装置11は、図7に示すメイン処理OP100を実行する。
 第2動作例では、地図処理OP200のステップS201において、処理装置11は第1の処理を実行する。この第1の処理が継続される第1の期間T1において、処理装置11は、操作装置15に対する操作に従って地図画像である第1の画像D1を生成する。第2動作例では、第1の処理の実行過程において、処理装置11は、ユーザからルート検索の要求を受け付ける。このため、処理装置11は、ルート検索を実行し、その結果を示す地図画像である第1の画像D1を生成し、画像Dとして記憶装置12に格納する。
 一方、メイン処理OP100のステップS231において、処理装置11は表示制御部CCP_2として機能する。処理装置11は記憶装置12内の画像D、すなわち、第1の画像D1を第1の表示状態である表示装置14に表示させる。図8Aにより表示装置14の表示面41Sに表示される第1の画像D1の一例が示される。図8Aに示す例では、第1の処理(ステップS201)のルート検索により得られた目的地・原宿までのルートを示す地図画像が第1の画像D1として表示面41Sに表示される。この例では、表示面41Sに表示可能な地図画像のサイズが小さいため、検索されたルートのうちの一部のルートしか表示面41Sに表示されない。
 処理装置11は、ユーザからの要求に応じた処理を実行すること等により、第1の処理の実行状態が変わる毎に、起動制御データACを記憶装置12に格納する。第2動作例では、第1の期間T1内において記憶装置12に最後に格納される起動制御データACは、地図処理OP200の第2の処理(ステップS202)を指定する指定データと、ARアプリAP_2に基づくAR処理OP300を指定する指定データと、第1の処理(ステップS201)のルート検索により得られたルートを示すパラメータとを含む。
 表示装置14の表示状態が第1の表示状態から第2の表示状態へ切り替わる場合、メイン処理OP100のステップS232において、処理装置11は切替制御部CCP_3として機能する。処理装置11がこの切替を検知する場合、処理装置11は第2の表示状態を示す表示状態データDSを記憶装置12に格納する。
 次にメイン処理OP100のステップS233において、処理装置11は切替制御部CCP_3として機能する。処理装置11は記憶装置12内の起動制御データACに従い、地図処理OP200の第2の処理(ステップS202)と、ARアプリAP_2に基づくAR処理OP300を起動する。
 表示装置14の表示状態が切り替わることにより、第1の期間T1が終了し、第2の期間T2が開始される。画像生成部CCP_1としての処理装置11は、地図処理OP200におけるステップS202において、第2の処理を実行する。これと並行し、画像生成部CCP_1としての処理装置11は、AR処理OP300を実行し、そのステップS211において第2の処理を実行する。
 ステップS202の第2の処理において、処理装置11は、記憶装置12内の起動制御データACに含まれるパラメータを参照し、このパラメータが示すルートを確認できる地図画像を第2の画像D2の一部として生成する。また、ステップS211の第2の処理において、処理装置11は、記憶装置12内の起動制御データACに含まれるパラメータを参照し、パラメータが示すルートの周辺にある店舗を検索し、検索した店舗の画像を含むAR画像を第2の画像D2の残りの一部として生成する。さらに詳述すると、処理装置11は、測位装置16によりユーザの現在位置を求め、パラメータが示すルート周辺の店舗のうちユーザの現在位置に最も近い位置にある店舗の画像を含むAR画像を生成する。そして、処理装置11は、ステップS202において生成した画像とステップS211において生成した画像とを合わせた第2の画像D2を生成し、画像Dとして記憶装置12に格納する。
 一方、メイン処理OP100のステップS234において、処理装置11は表示制御部CCP_2として機能する。処理装置11は、記憶装置12内の画像D、すなわち、第2の画像D2を第2の表示状態である表示装置14に表示させる。図8Bはこのとき表示装置14に表示される第2の画像D2を例示する。図8Bに示されるように、第2の画像D2は、地図処理OP200により生成された地図画像Dmapと、AR処理OP300により生成されたAR画像Darとを含む。ここで、AR画像Darは、ユーザの現在位置から見える店舗等の建造物の3D画像からなり、この3D画像の中の店舗を示す画像の部分に、その店舗を示す情報、図示の例ではピザイタリアンレストランという文字の画像が重畳された画像となっている。なお、AR画像Darは、ユーザの現在位置から見える店舗等の建造物の3D画像に限定されない。AR画像Darは、例えば、目標付近のストリートビューの画像に目標の説明を示す文字を重畳した画像であってもよい。この場合、目標付近のストリートビューの画像は、インターネット経由で取得される。
 表示装置14に表示された地図画像Dmap又はAR画像Darにおける所望の位置をユーザが操作装置15を用いて指示することにより、ユーザはその指示位置にある店舗に関する情報提供を情報処理装置100に要求できる。所望の位置は、地図画像Dmap上の位置であってもよいし、AR画像Dar上の位置であってもよい。ユーザが地図画像Dmap上の所望の位置を指示する操作を行った場合、処理装置11は、ステップS202の第2の処理において、その指示位置に対応した店舗を特定する。処理装置11は、店舗案内アプリAP_3に基づく店舗案内処理OP400を指定する指定データと、特定した店舗を示すパラメータとを含む起動制御データACを生成する。処理装置11は生成された起動制御データACを記憶装置12に格納する。また、ユーザがAR画像Dar上の所望の位置を指示した場合、処理装置11は、ステップS211の第2の処理において、同様な起動制御データACを生成する。処理装置11は、生成された起動制御データACを記憶装置12に格納する。
 表示装置14の表示状態が第2の表示状態から第1の表示状態へ切り替わる場合、メイン処理OP100のステップS235において、切替制御部CCP_3としての処理装置11がこの切替を検知すると、第1の表示状態を示す表示状態データDSを記憶装置12に格納する。
 次にメイン処理OP100のステップ236において、処理装置11は切替制御部CCP_3として機能する。処理装置11は記憶装置12内の起動制御データACに従い、店舗案内アプリAP_3に基づく店舗案内処理OP400を起動する。これにより第2の期間T2が終了し、第3の期間T3が開始される。
 画像生成部CCP_1としての処理装置11は、店舗案内処理OP400のステップS221において、第3の処理を実行する。第3の処理において、処理装置11は、第1の表示状態に対応した画像サイズの店舗案内画像である第3の画像D3を生成し、画像Dとして記憶装置12に格納する。その際、処理装置11は、起動制御データACに含まれるパラメータにより特定された店舗に関する案内画像を第3の画像D3として生成する。
 一方、メイン処理OP100のステップS237において、表示制御部CCP_2としての処理装置11は、記憶装置12内の画像D、すなわち、第3の画像D3を第1の表示状態である表示装置14に表示させる。図8Cは、このとき表示装置14に表示される第3の画像D3の例を示すものである。この例では、図8Bに示すAR画像Darにおけるピザイタリアンレストランの画像がユーザによって指示され、ステップS211の第2の処理(ステップS211)において、ピザイタリアンレストランを示すパラメータを含む起動制御データACが記憶装置12に格納される。この結果、第3の処理(ステップS221)において、ピザイタリアンレストランに関する店舗案内情報を示す第3の画像D3が生成される。
 以上のように、第2動作例において、画像生成部CCP_1としての処理装置11は、第1のアプリケーションプログラムの一例である地図アプリAP_1を用いて第1の処理(ステップS201)を実行する。また、処理装置11は、地図アプリAP_1及び第2のアプリケーションプログラムの一例であるARアプリAP_2を用いて第2の処理(ステップS202及びS211)を実行する。また、処理装置11は、第2の処理(ステップS202又はS211)の結果に基づいて、パラメータ(店舗)を決定する。更に、処理装置11は、第3のアプリケーションプログラムの一例である店舗案内アプリAP_3を用いて第3の処理(ステップS221)を実行する。処理装置11は、第3の処理(ステップS221)において、決定したパラメータ(店舗)を参照して店舗案内アプリAP_3を実行する。
 第2動作例においても、第3の期間T3の始点T3sにおいて表示される第3の画像D3(図8C参照)は、第2の処理(ステップS202又はS211)の結果に基づいて生成されるので、第2の期間T2の終点T2eに表示される第2の画像D2(図8B参照)と第3の期間T3の始点T3sにおいて表示される第3の画像D3とに関連性を持たせることができる。この場合、第3の画像D3と第2の画像D2との間には、いずれもユーザが指示した店舗に関する画像であるという関連性がある。また、第3の画像D3は、第1の期間T1の終点T1eに表示される画像(図8A参照)と相違するので、第3の画像D3によってユーザに新たな情報を提供できる。この結果、第3の期間T3の始点T3sにおいて第1の期間T1の終点T1eと同じ画像を表示装置14に表示する場合と比較して、情報処理装置100の利便性が向上する。
 なお、第2の動作例において、第2の処理でARアプリAP_2を実行しなくてもよい。
<第1実施形態の第3動作例>
 図9は、第3動作例において実行される電子チケット処理OP500と、地図処理OP200と、店舗案内処理OP400と、メイン処理OP100との連携を示すシーケンス図である。また、図10A、図10B及び図10Cは、第3動作例における表示装置14の表示画面の遷移を示す図である。
 第3動作例において、処理装置11は、各々アプリAP_1~AP_Nの中のアプリである電子チケットアプリAP_4、地図アプリAP_1、及び店舗案内アプリAP_3と、制御プログラムCPを実行する。
 電子チケットアプリAP_4が実行されることにより、処理装置11は、図9に示す電子チケット処理OP500を実行する。また、地図アプリAP_1が実行されることにより、処理装置11は、図9に示す地図処理OP200を実行する。また、店舗案内アプリAP_3が実行されることにより、処理装置11は、図9に示す店舗案内処理OP400を実行する。また、制御プログラムCPが実行されることにより、処理装置11は、図9に示すメイン処理OP100を実行する。
 第3動作例では、電子チケット処理OP500のステップS301において、処理装置11は第1の処理を実行する。この第1の処理が継続する第1の期間T1において、処理装置11は画像生成部CCP_1として機能する。処理装置11は、操作装置15に対する操作に従って、ユーザが所望する電子チケットを購入するための手続を実行する。処理装置11は、ユーザが購入した電子チケットを示す第1の画像D1を生成し、生成した第1の画像D1を記憶装置12に格納する。
 一方、メイン処理OP100のステップS331において、処理装置11は表示制御部CCP_2として機能する。処理装置11は、記憶装置12内の画像D、すなわち、第1の画像D1を表示状態が第1の表示状態である表示装置14に表示させる。図10Aはこのとき表示装置14の表示面41Sに表示される第1の画像D1を例示する。この例では、ユーザが購入した電子チケットの画像が第1の画像D1として表示装置14に表示される。
 処理装置11は、ユーザからの要求に応じた処理を実行する等により、第1の処理の実行状態が変わる毎に、起動制御データACを記憶装置12に格納する。第3動作例では、第1の期間T1内において記憶装置12に最後に格納される起動制御データACは、地図アプリAP_1に基づく地図処理OP200を指定する指定データと、ユーザが電子チケットを購入したコンサート会場の名称を示すパラメータとを含む。
 表示装置14の表示状態が第1の表示状態から第2の表示状態へ切り替わる場合、処理装置11は、メイン処理OP100のステップS332において、切替制御部CCP_3として機能する。処理装置11がこの切替を検知すると、処理装置11は第2の表示状態を示す表示状態データDSを記憶装置12に格納する。
 次にメイン処理OP100のステップS333において、処理装置11は切替制御部CCP_3として機能する。処理装置11は、記憶装置12内の起動制御データACに従い、地図アプリAP_1に基づく地図処理OP200を起動する。これにより第1の期間T1が終了し、第2の期間T2が開始される。
 画像生成部CCP_1としての処理装置11は、地図処理OP200を実行し、そのステップS311において第2の処理を実行する。そして、処理装置11は、ステップS311の第2の処理において、通信装置13によりネットワーク上の地図データベースにアクセスし、起動制御データACに含まれるパラメータが示すコンサート会場の検索を行う。そして、処理装置11は、コンサート会場の周辺の地図画像である第2の画像D2を地図データベースから取得し、取得した第2の画像D2を画像Dとして記憶装置12に格納する。
 一方、メイン処理OP100のステップS334において、処理装置11は表示制御部CCP_2として機能する。処理装置11は、記憶装置12内の画像D、すなわち、第2の画像D2を第2の表示状態である表示装置14に表示させる。図10Bはこのとき表示装置14の表示面41Sに表示される第2の画像D2を例示する。この例において、ユーザはABCホールにおいて開催されるコンサートについての電子チケットを購入しているので(図10A参照)、ステップS311の第2の処理において、ABCホールの周辺の地図画像が第2の画像D2として生成される。生成された地図画像は、ステップS334において表示装置14に表示される。
 表示装置14に表示された第2の画像D2(この場合、地図画像)中の所望の位置がユーザの操作装置15に対する操作によって指示されることにより、ユーザはその指示位置にある店舗に関する情報提供を情報処理装置100に要求できる。第3動作例では、図10Bに示す第2の画像D2における位置Pstがユーザによって指示される。ユーザが操作装置15に対して地図画像上の所望の位置を指示する操作を行った場合、処理装置11は、ステップS311の第2の処理において、その指示位置に対応した店舗を特定する。そして、処理装置11は、店舗案内アプリAP_3に基づく店舗案内処理OP400を指定する指定データと、特定した店舗を示すパラメータとを含む起動制御データACを生成し、記憶装置12に格納する。
 表示装置14の表示状態が第2の表示状態から第1の表示状態へ切り替わる場合、メイン処理OP100のステップS335において、処理装置11は切替制御部CCP_3として機能する。処理装置11がこの切替を検知すると、処理装置11は第1の表示状態を示す表示状態データDSを記憶装置12に格納する。
 次にメイン処理OP100のステップS336において、処理装置11は切替制御部CCP_3として機能する。処理装置11は、記憶装置12内の起動制御データACに従い、店舗案内アプリAP_3に基づく店舗案内処理OP400を起動する。これにより第2の期間T2が終了し、第3の期間T3が開始される。
 画像生成部CCP_1としての処理装置11は、店舗案内処理OP400を実行し、そのステップS321において、第3の処理を実行する。この第3の処理において、処理装置11は、第1の表示状態に対応した画像サイズの店舗案内画像である第3の画像D3を生成し、生成した第3の画像D3を画像Dとして記憶装置12に格納する。その際、処理装置11は、起動制御データACに含まれるパラメータが示す店舗に関する案内画像を第3の画像D3として生成する。
 一方、メイン処理OP100のステップS337において、処理装置11は表示制御部CCP_2として機能する。処理装置11は、記憶装置12内の画像D、すなわち、第3の画像D3を第1の表示状態である表示装置14に表示させる。このようにして図10Bに示す第2の画像D2において、位置Pstにある店舗に関する案内情報を示す第3の画像D3が表示装置14に表示される。図10Cはこのとき表示装置14の表示面41Sに表示される第1の画像D1を例示する。この例では、位置Pstに位置する店舗は、ABC書店である。ユーザは第3の画像D3を見ることによって、住所、電話番号及び営業時間などの案内情報を知ることができる。
 以上のように、第3動作例において、画像生成部CCP_1としての処理装置11は、第1のアプリケーションプログラムの一例である電子チケットアプリAP_4を用いて第1の処理(ステップS301)を実行する。また、処理装置11は、第2のアプリケーションプログラムの一例である地図アプリAP_1を用いて第2の処理(ステップS311)を実行する。また、処理装置11は、第2の処理(ステップS311)の結果に基づいて、パラメータ(店舗)を決定する。更に、処理装置11は、第3のアプリケーションプログラムの一例である店舗案内アプリAP_3を用いて第3の処理(ステップS321)を実行する。処理装置11は、第3の処理(ステップS321)において、決定したパラメータ(店舗)を用いて店舗案内アプリAP_3を実行する。
 第3動作例においても、第3の期間T3の始点T3sにおいて表示される第3の画像D3(店舗案内画像)は、第2の処理(ステップS311)の結果に基づいて生成される。従って、第3の期間T3の始点T3sにおいて表示される第3の画像D3(店舗案内画像)と、第2の期間T2の終点T2eに表示される第2の画像D2(図10B参照)との間に関連性を持たせることができる。この場合、第3の画像D3は、第2の画像D2において、ユーザが指示した店舗に関する画像であるという関連性がある。また、第3の画像D3は、第1の期間T1の終点T1eに表示される画像(図10A参照)と相違するので、ユーザに新たな情報が提供される。具体的には、第3動作例では、コンサート会場に入場するための電子チケット(第1の画像D1)を購入した場合において、ユーザは、第2の画像D2(図10B参照)を生成する第2の処理に用いられる操作情報(指示位置Pst)を提供することにより、そのコンサート会場の近くの店舗の案内情報(第3の画像D3)を得ることができる。よって、第3の期間T3の始点T3sにおいて第1の期間T1の終点T1eと同じ画像を表示装置14に表示する場合と比較して、情報処理装置100の利便性を高めることができる。
 なお、第3動作例において、第3の処理において、第2のアプリケーションの一例である地図アプリAP_1を実行してもよい。この場合、処理装置11は、第3の処理(において、決定したパラメータ(店舗)が表示面の中央に位置するように地図画像をスクロールすることにより、第3の画像D3を生成すればよい。
<第1実施形態の第4動作例>
 図11は、第4動作例において実行される地図処理OP200と、店舗案内処理OP400と、メイン処理OP100との連携を示すシーケンス図である。第4動作例において、処理装置11は、アプリAP_1~AP_Nに含まれる地図アプリAP_1、及びアプリAP_1~AP_Nに含まれる店舗案内アプリAP_3と、制御プログラムCPを実行する。
 地図アプリAP_1が実行されることにより、処理装置11は、図11に示す地図処理OP200を実行する。また、店舗案内アプリAP_3が実行されることにより、処理装置11は、図11に示す店舗案内処理OP400を実行する。また、制御プログラムCPが実行されることにより、処理装置11は、図11に示すメイン処理OP100を実行する。
 地図処理OP200のステップS501において、処理装置11は第1の処理を実行する。この第1の処理は、上記第1動作例(図5参照)における第1の処理(ステップS101)と基本的に同様である。この第1の処理において生成される第1の画像D1(地図画像)がメイン処理OP100のステップS111において表示面41Sに表示される。
 しかし、第4動作例における第1の処理(ステップS101)では、表示面41Sに表示された第1の画像D1(地図画像)における所望の位置がユーザによって指示され、この指示位置にある店舗名称を示すパラメータが生成される。そして、処理装置11は、第1の処理において、店舗案内処理OP400を指定する指定データと、店舗名称を示すパラメータとを含む起動制御データACを記憶装置12に格納する。
 表示装置14の表示状態が第1の表示状態から第2の表示状態へ切り替わる場合、メイン処理OP100のステップS522において、処理装置11は切替制御部CCP_3として機能する。処理装置11がこの切替を検知すると、処理装置11は第2の表示状態を示す表示状態データDSを記憶装置12に格納する。
 次にメイン処理OP100のステップS523において、切替制御部CCP_3としての処理装置11は、記憶装置12内の起動制御データACに従い、店舗案内処理OP400を起動する。これにより第1の期間T1が終了し、第2の期間T2が開始される。
 画像生成部CCP_1としての処理装置11は、店舗案内処理OP400のステップS511において第2の処理を実行する。この第2の処理において、処理装置11は、記憶装置12内の起動制御データACに含まれるパラメータが示す店舗名称を参照し、参照した店舗名称に対応する店舗のホームページを検索する。そして、処理装置11は、通信装置13を利用することにより、検索した店舗のホームページにアクセスし、ホームページが提供する画像を第2の画像D2として取得する。処理装置11は、この第2の画像D2を画像Dとして記憶装置12に格納する。
 一方、メイン処理OP100のステップS524において、処理装置11は表示制御部CCP_2として機能する。処理装置11は記憶装置12内の画像D、すなわち、店舗のホームページが提供する第2の画像D2を第2の表示状態である表示装置14に表示させる。
 この状態において、ユーザは操作装置15を操作することによりホームページに掲載された商品を購入できる。ユーザが商品を購入すると、その受取証の画像がホームページから情報処理装置100に送信される。受取証の画像は情報処理装置100の通信装置13によって受信され、記憶装置12に格納される。処理装置11は、店舗案内処理OP400の第2の処理(ステップS511)において、地図処理OP200の第3の処理(ステップS502)を指定する指定データと、受信した受取証の画像の記憶装置12における格納先アドレスを示すパラメータとを含む起動制御データACを記憶装置12に格納する。
 表示装置14の表示状態が第2の表示状態から第1の表示状態へ切り替わる場合、処理装置11は、メイン処理OP100のステップS525において、切替制御部CCP_3として機能する。処理装置11がこの切替を検知すると、第1の表示状態を示す表示状態データDSを記憶装置12に格納する。
 次にメイン処理OP100のステップ526において、切替制御部CCP_3としての処理装置11は、記憶装置12内の起動制御データACに従い、地図処理OP200の第3の処理(ステップS502)を起動する。これにより第2の期間T2が終了し、第3の期間T3が開始される。
 画像生成部CCP_1としての処理装置11は、地図処理OP200のステップS502において第3の処理を実行する。この第3の処理において、処理装置11は、起動制御データACに含まれるパラメータが示す格納先アドレスを利用し、記憶装置12から受取証の画像を読み出す。そして、処理装置11は、この受取証の画像と、操作装置15の操作に従って生成した地図画像とからなる第3の画像D3を生成し、画像Dとして記憶装置12に格納する。
 一方、メイン処理OP100のステップS527において、処理装置11は表示制御部CCP_2として機能する。処理装置11は、記憶装置12内の画像D、すなわち、受取証の画像と地図画像とからなる第3の画像D3を第1の表示状態である表示装置14に表示させる。ユーザは、表示装置14に表示された地図画像を見ながら歩くことにより、商品を購入した店舗に辿り着く。ユーザは、表示装置14に表示された受取証を店員に見せることにより、商品を受け取ることができる。
 以上のように、第4動作例において、画像生成部CCP_1としての処理装置11は、第1のアプリケーションプログラムの一例である地図アプリAP_1を用いて第1の処理(ステップS501)を実行する。処理装置11は、第2のアプリケーションプログラムの一例である店舗案内アプリAP_3を用いて第2の処理(ステップS511)を実行する。処理装置11は、第2の処理(ステップS511)の結果に基づいて、パラメータ(受取証の画像の格納アドレス)を決定する。処理装置11は、第1のアプリケーションプログラムの一例である地図アプリAP_1を用いて第3の処理(ステップS502)を実行する。処理装置11は、第3の処理(ステップS502)において、決定したパラメータ(受取証の画像の格納アドレス)を用いて地図アプリAP_1を実行する。この第4動作例においても、第3の期間T3の始点T3sにおいて第1の期間T1の終点T1eと同じ画像を表示装置14に表示する場合と比較して、情報処理装置100の利便性を高めることができる。
 以上のように、本実施形態によれば、表示装置14は第1の表示状態と、第1の表示状態における表示面積よりも表示面積が大きい第2の表示状態との間で表示状態の切替が可能である。表示装置14の表示状態が、第1の期間T1にわたって第1の表示状態となり、第1の期間T1の後の第2の期間t2にわたって第2の表示状態となり、第2の期間T2の後の第3の期間T3にわたって第1の表示状態となる場合を想定する。この場合、画像生成部CCP_1は、第1の期間T1にわたって実行される第1の処理により第1の画像D1を生成し、第2の期間T2にわたって実行される第2の処理により第2の画像D2を生成し、第3の期間T3にわたって実行される第3の処理により第3の画像D3を生成する。表示制御部CCP_2は、第1の期間T1にわたって第1の画像D1を表示装置14に表示させ、第2の期間T2にわたって第2の画像D2を表示装置14に表示させ、第3の期間T3にわたって第3の画像D3を表示装置14に表示させる。第3の画像D3のうち第3の期間T3の始点T3sにおいて表示装置14に表示される画像は、第1の画像D1のうち第1の期間T1の終点T1sにおいて表示装置14に表示される画像と異なる。また、第3の処理は、第2の処理の結果を用いて実行される。
 以上の構成によれば、第1処理の後に実行される第2の処理の結果を用いて、第3の処理が実行されるので、第3の画像D3のうち第3の期間T3の始点T3sにおいて表示装置14に表示される画像は、第1の画像D1のうち第1の期間T1の終点T1sにおいて表示装置14に表示される画像と異なる。このため、ユーザに新たな情報を提供できる。この結果、第3の期間T3の始点T3sにおいて第1の期間T1の終点T1eと同じ画像を表示装置14に表示する場合と比較して、情報処理装置100の利便性が向上する。
 また、本実施形態によれば、第3の画像D3のうち第3の期間T3の始点T3sにおいて表示装置14に表示される画像は、第2の画像D2のうち第2の期間T2の終点T2eにおいて表示装置14に表示される画像と異なる。従って、第3の期間T3の始点T3sにおいて、第2の期間T2の終点T2eにおいてユーザに提供した情報と異なる情報が提供される。しかも、第2の処理の結果を用いて、第3の処理が実行されるので、第2の画像D2と第3の画像D3とに関連性を持たせることができる。この結果、情報処理装置100の利便性が向上する。
 また、本実施形態によれば、第2の画像D2のうち第2の期間T2の終点T2eにおいて表示装置14に表示される画像は、第1の画像D1のうち第1の期間T1の終点T1eにおいて表示装置14に表示される画像と異なる。従って、第2の期間T2の終点T2eにおいて、第1の期間T1の終点T1eにおいてユーザに提供した情報と異なる情報が提供される。この結果、情報処理装置100の利便性が向上する。
 また、本実施形態によれば、画像生成部CCP_1は、第1のアプリケーションプログラムを用いて第1の処理及び第3の処理を実行し、第2の処理の結果に基づいて、パラメータを決定し、第3の処理において、決定したパラメータを用いて第1のアプリケーションプログラムを実行する。この態様によれば、第1の処理と第3の処理とでは、ともに第1のアプリケーションプログラムが実行される。同じ第1のアプリケーションプログラムが実行されても、第3の処理では、第2の処理の結果に基づいたパラメータが用いられるので、第3の画像D3のうち第3の期間T3の始点T3sにおいて表示装置14に表示される画像は、第1の画像D1のうち第1の期間T1の終点T1sにおいて表示装置14に表示される画像と異なる。このため、ユーザに新たな情報を提供できる。
 また、本実施形態によれば、画像生成部CCP_1は、第1のアプリケーションプログラムを用いて第1の処理を実行し、第1のアプリケーションプログラム又は第2のアプリケーションプログラムを用いて第2の処理を実行し、第2の処理の結果に基づいて、パラメータを決定し、第2のアプリケーションプログラム又は第3のアプリケーションプログラムを用いて前記第3の処理を実行し、第3の処理において、前記決定したパラメータを用いて第2のアプリケーションプログラム又は第3のアプリケーションプログラムを実行する。以上の態様によれば、第2の処理の結果を用いてパラメータを決定するので、第2の画像D2と第3の画像D3とに関連性を持たせることができる。この結果、情報処理装置100の利便性が向上する。
<第2実施形態>
 図12A及び図12Bは、本開示の第2実施形態である情報処理装置100aの外観を示す斜視図である。本実施形態における情報処理装置100aは、表示装置14の構成が上記第1実施形態と異なる。
 情報処理装置100aは、上記第1実施形態と同様、筐体41及び42と、ヒンジ49とを有する。上記第1実施形態において、情報処理装置100は、2つの表示面41S及び42Sを有していた。これに対し、本実施形態における情報処理装置100aは、各々長方形形状の3つの表示面43S、44S及び45Sを有する。具体的には、筐体41は、その表裏の2面に表示面45S及び44Sを各々有し、筐体42は、その表裏の2面のうちの一方の面に表示面44Sを有する。そして、ヒンジ49は、筐体41の長方形形状の端面41Eにおいて表示面43Sに臨む長辺と、筐体42の長方形形状の端面42Eにおいて表示面44Sに臨む長辺とを連結している。
 本実施形態では、ヒンジ49が回転することで、表示面43S及び44Sのなすヒンジ角度θが変化する。本実施形態において、ユーザは、ヒンジ角度θを0度とすることにより、情報処理装置100aの表示装置の表示状態を、図12Aに示すように、表示面43S及び44Sが互いに向き合い、外側を向いた表示面45Sのみにより表示を行う第1の表示状態とすることができる。また、ユーザは、ヒンジ角度θを180度とすることにより、情報処理装置100aの表示装置の表示状態を、図12Bに示すように、表示面41S及び表示面42Sが外側を向き、表示面43S及び表示面44Sの両方により表示を行う第2の表示状態とすることができる。ここで、表示面43S及び44Sの総表示面積は表示面45Sの表示面積よりも広い。従って、第2の表示状態は、第1の表示状態よりも表示面積が広い表示状態となる。
 本実施形態において、処理装置11が実行する制御プログラム及びアプリは、上記第1実施形態と同様である。従って、本実施形態においても、上記第1実施形態と同様な効果が得られる。また、本実施形態では、第1の表示状態において、表示面43S及び44Sが向き合い、ユーザの指等が触れないので、例えば第1の表示状態において、表示面43S及び44Sに設けられたタッチパネルに対する操作を無効にする等の処理が不要になるという利点がある。
<変形例>
 本開示は、以上に例示した各実施形態に限定されない。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を併合してもよい。
(1)第1動作例の変形例として次のような態様が考えられる。第1の処理として、ゲームアアプリに基づくゲーム処理を実行中、ユーザがゲームの進行に行き詰まったとする。この場合において、ユーザが第1の表示状態から第2の表示状態への切替を行うと、ゲーム処理の第2の処理が実行され、第2の表示状態の表示装置14にゲーム進行に関するヒントが表示される。ユーザが第2の表示状態から第1の表示状態への切替を行うと、ゲーム処理において、上記ヒントをゲーム画面に反映させる第3の処理が実行される。具体的には。ゲーム画面に矢印を表示し、あるいはハイライト表示をすることにより、ユーザに対して分かり易くヒントを示す。この態様においても上記第1動作例と同様な効果が得られる。
(2)第1動作例の他の変形例として次のような態様も考えられる。ユーザが行う操作に従って任意のアプリに基づく第1の処理の実行中、ユーザが操作に窮したとする。この場合において、ユーザが第1の表示状態から第2の表示状態への切替を行うと、第2の処理が実行され、第2の表示状態の表示装置14に窮地を脱するためのヘルプ情報が表示される。ユーザが第2の表示状態から第1の表示状態への切替を行うと、第3の処理が実行される。この第3の処理では、第3の処理本来の表示情報に対して、ヘルプ情報がオーバレイして表示される。
(3)上記第1実施形態において、第1の処理では、第2の処理に使用されるパラメータを含む起動制御データACを記憶装置12に格納した。しかし、そのようにする代わりに、第1の処理では、第2の処理に使用される第1のパラメータと、第3の処理に使用される第2のパラメータとを含む起動制御データACを記憶装置12に格納してもよい。この場合、第2の処理では、上記第1実施形態と同様、第3の処理に使用されるパラメータ(混乱を避けるため、第3のパラメータとする)とを含む起動制御データACを記憶装置12に格納する。そして、第3の処理では、第1の処理において記憶装置12に格納された第2のパラメータと、第2の処理において記憶装置12に格納された第3のパラメータとを利用する。この態様によれば、第1の処理の結果と、第2の処理の結果の両方を第3の処理に関与させることができ、情報処理装置100の利便性をさらに高めることができる。
(4)上記第1実施形態において、第3の処理では第2の処理の結果を用いた。この場合において、情報処理装置100の状態を検出し、第2の期間の終了時点における情報処理装置100の状態又は第3の期間の開始時点における情報処理装置100の状態を第3の処理に用いてもよい。
 例えば次のような態様があり得る。まず、第3動作例と同様に、処理装置11は、第1の期間に電子チケットアプリAP_4を実行し、図10Aに示される第1の画像D1を表示面41Sに表示させる。次に、第2の期間において、処理装置11は、地図アプリAP_1を実行し、図10Bに示される第2の画像D2を表示面41S及び表示面42Sに表示させる。図10Bに示される位置Pstは、第2の処理において、ユーザが指定した目標の位置であり、第2の処理の結果の一例である。
 そして、処理装置11は、第3の期間に実行するアプリを、第2の期間の終了時点における情報処理装置100の状態に応じて切り替える。具体的には、処理装置11は、第2の期間において、加速度検出装置17を用いて情報処理装置100の水平に対する傾きを示す傾き情報を継続的に検出する。そして、第2の表示状態から第1の表示状態に切り替わった場合、処理装置11は、その切替タイミングである第2の期間の終了時点における情報処理装置100の傾き情報を取得する。
 第2の期間の終了時点において、情報処理装置100の傾きがほぼ鉛直、即ち、情報処理装置100を立てた状態であれば、ユーザは積極的に周囲の風景を撮影していると考えられる。この場合は、ユーザがAR表示による道案内を希望している可能性が高い。そこで、処理装置11は、第3の期間にARアプリAP_2を実行することにより、例えば、図13に示される第3の画像D3を表示面41Sに表示させる。図13に示される第3の画像D3では、現実の風景に「英会話スクール」の表示が重畳してなされ、目標に至る方向が矢印で表示される。即ち、処理装置11は、第3の期間において実行する第3の処理において、ARの画面を表示させる。
 一方、第2の期間の終了時点において、情報処理装置100の傾きが通常、ユーザがスマートフォンの画面を見るときのスマートフォンの傾きと同程度の傾きである場合、ユーザは、AR表示を希望しておらず目標とする店舗の案内を希望していると考えられる。そこで、処理装置11は、第3の期間に店舗案内アプリAP_3を実行することにより、例えば、図10Cに示される第3の画像D3を表示面41Sに表示させる。即ち、処理装置11は、第3の期間において実行する第3の処理において、店舗案内情報を表示させる。以上の動作において、処理装置11は、第2の期間の終了時点において、情報処理装置100の水平に対する傾きが、所定範囲にあるか否か判定し、判定結果が肯定である場合にARアプリAP_2を実行し、判定結果が否定である場合に店舗案内アプリAP_3を実行する。所定範囲は、ユーザがAR表示を希望していると考えられる範囲に設定される。所定範囲は、例えば、60度以上120度未満である。なお、ユーザが所定範囲を設定できるようにしてもよい。
 また、情報処理装置100の水平に対する傾きは、第2の期間の終了時点に限られず、第3の期間の開始時点であってもよい。
 この変形例によれば、画像生成部CCP_1は、第2の期間にわたって実行される第2の処理の結果に基づいて、パラメータを決定し、第2の期間の終点又は第3の期間の始点における情報処理装置100の状態に応じて、複数のアプリケーションプログラムのうち第3の期間で実行するアプリケーションプログラムを決定し、第3の期間において決定されたパラメータを用いて決定されたアプリケーションプログラムを実行する。この結果、第3の期間において、第3の処理が実行される。情報処理装置100の水平に対する傾きは、情報処理装置100の一例である。位置Pstは第2の処理の結果に基づくパラメータの一例である。ARアプリAP_2及び店舗案内アプリAP_3は、複数のアプリケーションプログラムの一例である。
 以上説明したように、第2の期間の終点又は第3の期間の始点における情報処理装置100の状態に応じて、複数のアプリケーションプログラムのうち第3の期間で実行するアプリケーションプログラムを決定するので、情報処理装置100の利便性が向上する。
(5)上記第2実施形態において、第2の表示状態では、別個の表示面43S及び44Sにより表示を行った。しかし、筐体41及び42を跨る連続した1枚の表示面であって、表示面45Sよりも表示面積が広い表示面を情報処理装置100aに設け、この表示面により第2の表示状態での表示を行ってもよい。
(6)上記各実施形態では、スマートフォンを情報処理装置100又は100aとして例示したが、情報処理装置100又は100aの具体的な形態は任意であり、前述の各形態の例示には限定されない。例えば、可搬型又は据置型のパーソナルコンピュータを情報処理装置100又は100aとして利用してもよい。
(7)上記各実施形態では、記憶装置12は、処理装置11が読取可能な記録媒体であり、ROM及びRAMなどを例示したが、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体である。また、プログラムは、電気通信回線を介してネットワークから送信されても良い。また、プログラムは、電気通信回線を介して通信網から送信されても良い。なお、基地局は、入力キーなどの入力装置や、ディスプレイなどの出力装置を含んでいてもよい。
(8)上記各実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi)、IEEE802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。
(9)上記各実施形態において、説明した情報及び信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
(10)上記各実施形態において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
(11)上記各実施形態において、判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
(12)上記各実施形態おいて例示したフローチャートにおいて、各ステップの順序を変更してもよい。すなわち、本開示の好適な態様における各処理の順序は、特定の順序に限定されない。
(13)上記実施形態に開示された各機能は、ハードウェア及びソフトウェアの任意の組合せによって実現される。また、各機能は、単体の装置によって実現されてもよいし、相互に別体で構成された2個以上の装置によって実現されてもよい。
(14)上記各実施形態で例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード又はハードウェア記述言語と呼ばれるか、他の名称によって呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順又は機能等を意味するよう広く解釈されるべきである。また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
(15)上記各実施形態において、情報処理装置100、又は100aは、移動局である場合が含まれる。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。
(16)上記各実施形態において、「接続された(connected)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」されると考えることができる。
(17)上記各実施形態において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
(18)「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書あるいは請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
(19)本願の全体において、例えば、英語におけるa、an及びtheのように、翻訳によって冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数を含む。
(20)本発明が本明細書中に説明した実施形態に限定されないことは当業者にとって明白である。本発明は、請求の範囲の記載に基づいて定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施できる。従って、本明細書の記載は、例示的な説明を目的とし、本発明に対して何ら制限的な意味を有さない。また、本明細書に例示した態様から選択された複数の態様を組み合わせてもよい。
 また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 第1の表示状態と、前記第1の表示状態における表示面積よりも表示面積が大きい第2の表示状態との間で表示状態の切替が可能な表示装置と、
 前記表示装置の表示状態が、第1の期間にわたって前記第1の表示状態となり、前記第1の期間の後の第2の期間にわたって前記第2の表示状態となり、前記第2の期間の後の第3の期間にわたって前記第1の表示状態となる場合に、前記第1の期間にわたって実行される第1の処理により第1の画像を生成し、前記第2の期間にわたって実行される第2の処理により第2の画像を生成し、前記第3の期間にわたって実行される第3の処理により第3の画像を生成する画像生成部と、
 前記第1の期間にわたって前記第1の画像を前記表示装置に表示させ、前記第2の期間にわたって前記第2の画像を前記表示装置に表示させ、前記第3の期間にわたって前記第3の画像を前記表示装置に表示させる表示制御部と、を備え、
 前記第3の画像のうち前記第3の期間の始点において前記表示装置に表示される画像は、前記第1の画像のうち前記第1の期間の終点において前記表示装置に表示される画像と異なり、
 前記第3の処理は、前記第2の処理の結果を用いる、
 ことを特徴とする情報処理装置。
(2)
 前記第3の画像のうち前記第3の期間の始点において前記表示装置に表示される画像は、前記第2の画像のうち前記第2の期間の終点において前記表示装置に表示される画像と異なる、前記(1)に記載の情報処理装置。
(3)
 前記第2の画像のうち前記第2の期間の終点において前記表示装置に表示される画像は、前記第1の画像のうち前記第1の期間の終点において前記表示装置に表示される画像と異なる、請求項1又は2に記載の情報処理装置。
(4)
 前記画像生成部は、
 第1のアプリケーションプログラムを用いて前記第1の処理及び前記第3の処理を実行し、
 前記第2の処理の結果に基づいて、パラメータを決定し、
 前記第3の処理において、前記決定したパラメータを用いて前記第1のアプリケーションプログラムを実行する、
 前記(1)から(3)のうちいずれかに記載の情報処理装置。
(5)
 画像生成部は、
 前記第2の処理の結果に基づいて、パラメータを決定し、
 前記第2の期間の終点又は前記第3の期間の始点における前記情報処理装置の状態に応じて、複数のアプリケーションプログラムのうち前記第3の期間で実行するアプリケーションプログラムを決定し、
 前記第3の処理において、前記決定されたパラメータを用いて前記決定されたアプリケーションプログラムを実行する、
 前記(1)から(3)のいずれかに記載の情報処理装置。
(6)
 前記画像生成部は、
 第1のアプリケーションプログラムを用いて前記第1の処理を実行し、
 前記第1のアプリケーションプログラム又は第2のアプリケーションプログラムを用いて前記第2の処理を実行し、
 前記第2の処理の結果に基づいて、パラメータを決定し、
 前記第2のアプリケーションプログラム又は第3のアプリケーションプログラムを用いて前記第3の処理を実行し、
 前記第3の処理において、前記決定したパラメータを用いて前記第2のアプリケーションプログラム又は前記第3のアプリケーションプログラムを実行する、
 前記(1)から(3)のうちいずれかに記載の情報処理装置。
(7)
 第1の表示状態と、前記第1の表示状態における表示面積よりも表示面積が大きい第2の表示状態との間で表示状態の切替が可能な表示装置の制御方法であって、
 前記表示装置の表示状態が、第1の期間にわたって前記第1の表示状態となり、前記第1の期間の後の第2の期間にわたって前記第2の表示状態となり、前記第2の期間の後の第3の期間にわたって前記第1の表示状態となる場合に、
 前記第1の期間にわたって実行される第1の処理により第1の画像を生成し、前記生成した第1の画像を前記表示装置に表示させ、
 前記第2の期間にわたって実行される第2の処理により第2の画像を生成し、前記生成した第2の画像を前記表示装置に表示させ、
 前記第3の期間にわたって実行される第3の処理により第3の画像を生成し、前記生成した第3の画像を前記表示装置に表示させ、
 前記第3の画像のうち前記第3の期間の始点において前記表示装置に表示される画像は、前記第1の画像のうち前記第1の期間の始点において前記表示装置に表示される画像と異なり、
 前記第3の処理は、前記第2の処理の結果を用いる、
 ことを特徴とする表示装置の制御方法。
100,100a…情報処理装置、11…処理装置、12…記憶装置、13…通信装置、14…表示装置、15…操作装置、16…測位装置、17…加速度検出装置、18…開閉検出装置、41,42…筐体、41E,42E…端面、49…ヒンジ、41S、42S,43S,44S,45S…表示面、AP_1~AP_N…アプリ、CP…制御プログラム、CCP_1…画像生成部、CCP_2…表示制御部、CCP_3…切替制御部、OP100…メイン処理、OP200…地図処理、OP300…AR処理、OP400…店舗案内処理、OP500…電子チケット処理。

Claims (7)

  1.  第1の表示状態と、前記第1の表示状態における表示面積よりも表示面積が大きい第2の表示状態との間で表示状態の切替が可能な表示装置と、
     前記表示装置の表示状態が、第1の期間にわたって前記第1の表示状態となり、前記第1の期間の後の第2の期間にわたって前記第2の表示状態となり、前記第2の期間の後の第3の期間にわたって前記第1の表示状態となる場合に、前記第1の期間にわたって実行される第1の処理により第1の画像を生成し、前記第2の期間にわたって実行される第2の処理により第2の画像を生成し、前記第3の期間にわたって実行される第3の処理により第3の画像を生成する画像生成部と、
     前記第1の期間にわたって前記第1の画像を前記表示装置に表示させ、前記第2の期間にわたって前記第2の画像を前記表示装置に表示させ、前記第3の期間にわたって前記第3の画像を前記表示装置に表示させる表示制御部と、を備え、
     前記第3の画像のうち前記第3の期間の始点において前記表示装置に表示される画像は、前記第1の画像のうち前記第1の期間の終点において前記表示装置に表示される画像と異なり、
     前記第3の処理は、前記第2の処理の結果を用いる、
     ことを特徴とする情報処理装置。
  2.  前記第3の画像のうち前記第3の期間の始点において前記表示装置に表示される画像は、前記第2の画像のうち前記第2の期間の終点において前記表示装置に表示される画像と異なる、請求項1に記載の情報処理装置。
  3.  前記第2の画像のうち前記第2の期間の終点において前記表示装置に表示される画像は、前記第1の画像のうち前記第1の期間の終点において前記表示装置に表示される画像と異なる、請求項1に記載の情報処理装置。
  4.  前記画像生成部は、
     第1のアプリケーションプログラムを用いて前記第1の処理及び前記第3の処理を実行し、
     前記第2の処理の結果に基づいて、パラメータを決定し、
     前記第3の処理において、前記決定したパラメータを用いて前記第1のアプリケーションプログラムを実行する、
     請求項1に記載の情報処理装置。
  5.  画像生成部は、
     前記第2の処理の結果に基づいて、パラメータを決定し、
     前記第2の期間の終点又は前記第3の期間の始点における前記情報処理装置の状態に応じて、複数のアプリケーションプログラムのうち前記第3の期間で実行するアプリケーションプログラムを決定し、
     前記第3の処理において、前記決定されたパラメータを用いて前記決定されたアプリケーションプログラムを実行する、
     請求項1に記載の情報処理装置。
  6.  前記画像生成部は、
     第1のアプリケーションプログラムを用いて前記第1の処理を実行し、
     前記第1のアプリケーションプログラム又は第2のアプリケーションプログラムを用いて前記第2の処理を実行し、
     前記第2の処理の結果に基づいて、パラメータを決定し、
     前記第2のアプリケーションプログラム又は第3のアプリケーションプログラムを用いて前記第3の処理を実行し、
     前記第3の処理において、前記決定したパラメータを用いて前記第2のアプリケーションプログラム又は前記第3のアプリケーションプログラムを実行する、
     請求項1に記載の情報処理装置。
  7.  第1の表示状態と、前記第1の表示状態における表示面積よりも表示面積が大きい第2の表示状態との間で表示状態の切替が可能な表示装置の制御方法であって、
     前記表示装置の表示状態が、第1の期間にわたって前記第1の表示状態となり、前記第1の期間の後の第2の期間にわたって前記第2の表示状態となり、前記第2の期間の後の第3の期間にわたって前記第1の表示状態となる場合に、
     前記第1の期間にわたって実行される第1の処理により第1の画像を生成し、前記生成した第1の画像を前記表示装置に表示させ、
     前記第2の期間にわたって実行される第2の処理により第2の画像を生成し、前記生成した第2の画像を前記表示装置に表示させ、
     前記第3の期間にわたって実行される第3の処理により第3の画像を生成し、前記生成した第3の画像を前記表示装置に表示させ、
     前記第3の画像のうち前記第3の期間の始点において前記表示装置に表示される画像は、前記第1の画像のうち前記第1の期間の始点において前記表示装置に表示される画像と異なり、
     前記第3の処理は、前記第2の処理の結果を用いる、
     ことを特徴とする表示装置の制御方法。
PCT/JP2021/032912 2020-09-07 2021-09-07 情報処理装置及び表示装置の制御方法 WO2022050428A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202180053406.4A CN116034578A (zh) 2020-09-07 2021-09-07 信息处理设备和控制显示设备的方法
US18/043,343 US20230334620A1 (en) 2020-09-07 2021-09-07 Information processing device and method of controlling display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020149886A JP2022044322A (ja) 2020-09-07 2020-09-07 情報処理装置及び表示装置の制御方法
JP2020-149886 2020-09-07

Publications (1)

Publication Number Publication Date
WO2022050428A1 true WO2022050428A1 (ja) 2022-03-10

Family

ID=80492025

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/032912 WO2022050428A1 (ja) 2020-09-07 2021-09-07 情報処理装置及び表示装置の制御方法

Country Status (4)

Country Link
US (1) US20230334620A1 (ja)
JP (1) JP2022044322A (ja)
CN (1) CN116034578A (ja)
WO (1) WO2022050428A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011209576A (ja) * 2010-03-30 2011-10-20 Nec Personal Products Co Ltd 折り畳み式地図表示装置
US20140204037A1 (en) * 2013-01-24 2014-07-24 Lg Electronics Inc. Portable device and control method thereof
US20150325216A1 (en) * 2014-05-12 2015-11-12 Lg Electronics Inc. Foldable display device and method for controlling the same
US20170229100A1 (en) * 2014-10-15 2017-08-10 Lg Electronics Inc. Portable device and control method therefor
JP2020046957A (ja) * 2018-09-19 2020-03-26 富士ゼロックス株式会社 表示制御装置、表示装置、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011209576A (ja) * 2010-03-30 2011-10-20 Nec Personal Products Co Ltd 折り畳み式地図表示装置
US20140204037A1 (en) * 2013-01-24 2014-07-24 Lg Electronics Inc. Portable device and control method thereof
US20150325216A1 (en) * 2014-05-12 2015-11-12 Lg Electronics Inc. Foldable display device and method for controlling the same
US20170229100A1 (en) * 2014-10-15 2017-08-10 Lg Electronics Inc. Portable device and control method therefor
JP2020046957A (ja) * 2018-09-19 2020-03-26 富士ゼロックス株式会社 表示制御装置、表示装置、及びプログラム

Also Published As

Publication number Publication date
CN116034578A (zh) 2023-04-28
US20230334620A1 (en) 2023-10-19
JP2022044322A (ja) 2022-03-17

Similar Documents

Publication Publication Date Title
KR101713167B1 (ko) 폴더블 디바이스 및 그 제어 방법
Emmanouilidis et al. Mobile guides: Taxonomy of architectures, context awareness, technologies and applications
KR101761615B1 (ko) 이동 단말기 및 그 제어 방법
KR20160033507A (ko) 이동 단말기 및 그 제어 방법
WO2014155549A1 (ja) 携帯情報端末
CN108519080B (zh) 一种导航路线规划方法及终端
JP2001160063A (ja) 携帯型地図表示装置
US20160047661A1 (en) Method and apparatus for providing route guidance using reference points
CN111580815B (zh) 一种页面元素的编辑方法及相关设备
JPWO2013175751A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
CN107656768A (zh) 控制页面跳转的方法及其系统
CN111338737A (zh) 内容呈现方法、装置、终端设备及计算机可读存储介质
WO2010023963A1 (ja) アバター表示方法、アバター表示装置および記憶媒体
JP2021174206A (ja) 情報処理装置及びプログラム
WO2022050428A1 (ja) 情報処理装置及び表示装置の制御方法
JP2016184436A (ja) 携帯情報端末
JP5697491B2 (ja) 電子機器、表示方法及びプログラム
CN111665947B (zh) 一种宝箱展示方法、装置、电子设备及存储介质
JP5646561B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
CN107407987B (zh) 信息输出系统、控制方法以及存储有控制程序的计算机可读取的存储介质
WO2022049795A1 (ja) 情報処理装置
WO2010134363A1 (ja) 携帯端末
JP6930553B2 (ja) 情報処理システム、情報処理装置、情報処理方法及びプログラム
KR101986775B1 (ko) 위치 기반 서비스 시스템 및 방법, 이를 위한 장치 및 단말기
JP5801090B2 (ja) 携帯端末及び機能グループ化方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21864479

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21864479

Country of ref document: EP

Kind code of ref document: A1