WO2019180774A1 - 操作割当制御装置、操作割当制御方法及び操作入力装置 - Google Patents

操作割当制御装置、操作割当制御方法及び操作入力装置 Download PDF

Info

Publication number
WO2019180774A1
WO2019180774A1 PCT/JP2018/010783 JP2018010783W WO2019180774A1 WO 2019180774 A1 WO2019180774 A1 WO 2019180774A1 JP 2018010783 W JP2018010783 W JP 2018010783W WO 2019180774 A1 WO2019180774 A1 WO 2019180774A1
Authority
WO
WIPO (PCT)
Prior art keywords
knob
control unit
display
assigned
item
Prior art date
Application number
PCT/JP2018/010783
Other languages
English (en)
French (fr)
Inventor
信吾 鈩
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2020508117A priority Critical patent/JP7003225B2/ja
Priority to PCT/JP2018/010783 priority patent/WO2019180774A1/ja
Publication of WO2019180774A1 publication Critical patent/WO2019180774A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to an operation assignment control device, an operation assignment control method, and an operation input device.
  • the knob-on display has a touch panel integrated display and a knob-like controller (hereinafter referred to as “knob”) that can be arranged in the display area of the display, that is, in the operation area of the touch panel.
  • a plurality of conductor pillars that are detected as a plurality of touch points on the touch panel are provided inside the knob.
  • the knob-on display the knob is arranged in the display area of the display, the operation image is displayed in the display area of the display, and the arrangement position of the knob is the display position of the operation image. In a state corresponding to the above, an operation input by turning the knob or sliding the knob is received (see, for example, Patent Document 1).
  • in-vehicle information devices such as car navigation devices are provided in the center cluster of the vehicle.
  • a knob-on display for in-vehicle information devices for example, when an operation image is displayed at the end of the passenger seat in the display area, a knob is arranged at the end of the passenger seat in the display area It is required to do.
  • the knob In a state where the knob is disposed at the end on the passenger seat side in the display area, when the driver operates the knob, it is required to tilt the body toward the passenger seat side.
  • Such a posture change has a problem of placing a burden on the driver's body.
  • the present invention has been made to solve the above-described problems, and an object of the present invention is to suppress a posture change when a user operates a knob in a knob-on display.
  • the operation assignment control device has a knob-on-display knob disposed in the display area of the knob-on-display, and the operation item is assigned to the knob.
  • a follow-up control unit that executes control for causing the display position of the operation image corresponding to the operated operation item to follow the knob placement position.
  • the present invention since it is configured as described above, it is possible to suppress a change in posture when the user operates the knob in the knob-on display.
  • FIG. 1A is a front view showing a main part of the operation input device according to the first embodiment.
  • FIG. 1B is a bottom view showing a main part of the operation input device according to the first embodiment.
  • FIG. 3 is a block diagram illustrating a main part of the operation input device according to the first embodiment.
  • FIG. 3A is an explanatory diagram showing a state in which one operation image is displayed at the initial position.
  • FIG. 3B is an explanatory diagram illustrating a state in which the knob is arranged so as to be superimposed on the single operation image.
  • FIG. 3C is an explanatory diagram illustrating a state in which the display position of the operation image corresponding to the operation item assigned to the knob corresponds to the knob arrangement position.
  • FIG. 3A is an explanatory diagram showing a state in which one operation image is displayed at the initial position.
  • FIG. 3B is an explanatory diagram illustrating a state in which the knob is arranged so as to be superimposed on the single operation image.
  • FIG. 4A is an explanatory diagram showing a state in which one operation image is displayed at the initial position.
  • FIG. 4B is an explanatory diagram illustrating a state in which the knob is arranged so as not to be superimposed on the single operation image.
  • FIG. 4C is an explanatory diagram illustrating a state in which the display position of the operation image corresponding to the operation item assigned to the knob corresponds to the arrangement position of the knob.
  • FIG. 5A is an explanatory diagram showing a state in which three operation images are displayed at the initial position.
  • FIG. 5B is an explanatory diagram showing a state where the knob is arranged so as to be superimposed on one of the three operation images.
  • FIG. 5C is an explanatory diagram illustrating a state in which the display position of the operation image corresponding to the operation item assigned to the knob corresponds to the knob arrangement position.
  • FIG. 6A is an explanatory diagram showing a state in which three operation images are displayed at the initial position.
  • FIG. 6B is an explanatory diagram illustrating a state in which the knob is arranged so as to be superimposed on two of the three operation images.
  • FIG. 6C is an explanatory diagram illustrating a state in which the display position of the operation image corresponding to the operation item assigned to the knob corresponds to the knob arrangement position.
  • FIG. 7A is an explanatory diagram showing a state in which three operation images are displayed at the initial position.
  • FIG. 7B is an explanatory diagram showing a state in which the knob is arranged so as to be superimposed on two of the three operation images.
  • FIG. 7C is an explanatory diagram illustrating a state in which the display position of the operation image corresponding to the operation item assigned to the knob corresponds to the arrangement position of the knob.
  • FIG. 8A is an explanatory diagram showing a state in which three operation images are displayed at the initial position.
  • FIG. 8B is an explanatory diagram illustrating a state in which the knob is arranged so as not to be superimposed on any of the three operation images.
  • FIG. 8C is an explanatory diagram illustrating a state in which the display position of the operation image corresponding to the operation item assigned to the knob corresponds to the knob arrangement position.
  • FIG. 8A is an explanatory diagram showing a state in which three operation images are displayed at the initial position.
  • FIG. 8B is an explanatory diagram illustrating a state in which the knob is arranged so as not to be superimposed on any of
  • FIG. 9A is a block diagram illustrating a hardware configuration of the control device according to the first embodiment.
  • FIG. 9B is a block diagram illustrating another hardware configuration of the control device according to Embodiment 1.
  • 4 is a flowchart showing an operation of an assignment control unit in the operation assignment control apparatus according to the first embodiment.
  • 3 is a flowchart showing an operation of a follow-up control unit in the operation assignment control device according to the first embodiment.
  • FIG. 12A is a diagram illustrating a state in which an operation image corresponding to an operation item assigned to a knob is displayed at the left end in the display area, and the knob is disposed at the left end in the display area.
  • FIG. 12B is a diagram illustrating a state in which an operation image corresponding to an operation item assigned to the knob is displayed at the right end in the display area, and the knob is disposed at the right end in the display area.
  • FIG. FIG. 13A is an explanatory diagram illustrating a state in which the knob is attached to the display and the display position of one of the three operation images corresponds to the position where the knob is disposed.
  • FIG. 13B is an explanatory diagram illustrating a state in which the display position of the single operation image is returned to the initial position when the knob is removed from the display.
  • FIG. 13C is an explanatory diagram illustrating a state in which the display position of the one operation image is returned to a position corresponding to the knob arrangement position when the knob is attached to the display again.
  • FIG. 10 is a block diagram illustrating a main part of an operation input device according to a second embodiment.
  • FIG. 15A is an explanatory diagram illustrating a state in which an operation item corresponding to one operation image among the three operation images is assigned to the knob.
  • FIG. 15B is an explanatory diagram showing a state in which the assignment of operation items to the knob is released.
  • 10 is a flowchart illustrating an operation of a first release control unit in the operation assignment control device according to the second embodiment.
  • FIG. 10 is a block diagram illustrating a main part of an operation input device according to a third embodiment.
  • FIG. 18A is an explanatory diagram illustrating an example of a release operation.
  • FIG. 18B is an explanatory diagram showing a state in which the assignment of operation items to the knob is released.
  • FIG. 19A is an explanatory diagram illustrating another example of the release operation.
  • FIG. 19B is an explanatory diagram showing a state in which the assignment of operation items to the knob is released.
  • 10 is a flowchart showing an operation of a second release control unit in the operation assignment control device according to the third embodiment.
  • FIG. 10 is a block diagram illustrating a main part of an operation input device according to a fourth embodiment.
  • FIG. 22A is an explanatory diagram illustrating a state where the knob is not superimposed on the operation image corresponding to another operation item.
  • FIG. 22B is an explanatory diagram illustrating a state where the knob is superimposed on an operation image corresponding to another operation item.
  • FIG. 22C is an explanatory diagram illustrating a state where the knob is superimposed on an operation image corresponding to another operation item.
  • 14 is a flowchart showing an operation of a maintenance control unit in the operation assignment control device according to the fourth embodiment.
  • FIG. 10 is a block diagram illustrating a main part of an operation input device according to a fifth embodiment. 10 is a flowchart showing an operation of a prohibition control unit in an operation assignment control apparatus according to a fifth embodiment.
  • FIG. 10 is a block diagram illustrating a main part of an operation input device according to a sixth embodiment. 18 is a flowchart showing an operation of a non-display control unit in the operation assignment control device according to the sixth embodiment.
  • FIG. 10 is a block diagram illustrating a main part of an operation input device according to a seventh embodiment. 18 is a flowchart showing an operation of an invalidation control unit in an operation assignment control apparatus according to a seventh embodiment.
  • FIG. 1A is a front view showing a main part of the operation input device according to the first embodiment.
  • FIG. 1B is a bottom view showing a main part of the operation input device according to the first embodiment.
  • FIG. 2 is a block diagram illustrating a main part of the operation input device according to the first embodiment. With reference to FIG.1 and FIG.2, the operation input apparatus 300 of Embodiment 1 is demonstrated.
  • the display 1 is configured by, for example, an LCD (Liquid Crystal Display) or an OLED (Organic Light Emitting Diode) display.
  • the touch panel 2 is composed of, for example, a capacitive touch panel integrated with the display 1.
  • the knob 3 is configured to be freely arranged in the display area of the display 1 (that is, the operation area of the touch panel 2) A. More specifically, the knob 3 is configured to be detachable with respect to the display 1 integrated with the touch panel 2 and is configured to be disposed at an arbitrary position in the display area A.
  • the knob 3 is substantially cylindrical and has a hollow portion 4. Inside the knob 3, three conductor columns 5 1 to 5 3 are provided. The three conductor pillars 5 1 to 5 3 are detected as three touch points on the touch panel 2 in a state where the knob 3 is arranged in the display area A.
  • the main part of the knob-on display 6 is constituted by the display 1, the touch panel 2 and the knob 3.
  • a control board 7 is provided on the back surface of the display 1.
  • the control board 7 is provided with a control device 200 for the knob-on display 6.
  • the control device 200 will be described.
  • the display control unit 11 performs control to display N operation images I 1 to I N in the display area A of the display 1.
  • N is an integer of 1 or more.
  • the display control unit 11 includes information indicating display positions of the individual operation images I 1 to I N in the display area A, information indicating operation items corresponding to the individual operation images I 1 to I N, and the like (hereinafter, referred to as “display information”). Collectively referred to as “operation image information”) to the operation input control unit 17.
  • the N operation images I 1 to I N correspond to, for example, N operation items I 1 ′ to I N ′ on a one-to-one basis.
  • the touch point detection unit 12 detects a touch point on the touch panel 2 using an output signal from the touch panel 2.
  • the knob presence / absence determination unit 13 determines whether or not the three touch points corresponding to the three conductor pillars 5 1 to 5 3 are included in the detection result by the touch point detection unit 12, thereby It is determined whether or not it is arranged in the display area A.
  • the knob position determination unit 14 displays the display area A based on the detection positions of the three touch points in the display area A. The arrangement position of the knob 3 is determined.
  • the knob operation determination unit 15 is based on the time change of the detection positions of the three touch points in the display area A. It is determined whether or not the knob 3 is rotating and whether or not the knob 3 is sliding. The knob operation determination unit 15 determines the rotation direction of the knob 3 when it is determined that the knob 3 is rotating. The knob operation determination unit 15 determines the moving direction of the knob 3 when it is determined that the knob 3 is sliding.
  • the knob determination unit 16 includes the knob presence / absence determination unit 13, the knob position determination unit 14, and the knob operation determination unit 15.
  • the knob determination unit 16 indicates information indicating whether the knob 3 is arranged in the display area A, information indicating the arrangement position of the knob 3 in the display area A, and whether the knob 3 is rotating.
  • Information, information indicating the rotation direction of the knob 3, information indicating whether or not the knob 3 is sliding, and information indicating the movement direction of the knob 3 (hereinafter collectively referred to as "knob information"). Is output to the operation input control unit 17.
  • the operation input control unit 17 executes control for receiving an operation input by the knob 3 using the operation image information, the knob information, and the like. That is, the operation input control unit 17 has the knob 3 arranged in the display area A, the operation item I X ′ assigned to the knob 3, and the assigned operation item I X ′. are displayed in the operation image I X display area a corresponding to, and in a state in which arrangement positions of the knob 3 in the display region a corresponds to the display position of the operation image I X in the display area a Thus, control for receiving an operation input by turning the knob 3 or sliding the knob 3 is executed.
  • X is an integer of 1 or more and N or less.
  • the knob 3 is arranged in the display region A, and are displayed on one of the operation image I 1 is the display area A, and the one of the operation image and operation item I 1 corresponding to I 1 'is assigned to the knob 3, and, to that position of the knob 3 corresponds to the display position of the operation image I 1 in the display area a in the display area a To do.
  • the operation input control unit 17 executes control to receive an operation input of the operation item I 1 '.
  • the knob 3 is arranged in the display area A, and the three operation images I 1 to I 3 are displayed in the display area A, and the three operation images are displayed.
  • An operation item I 1 ′ corresponding to one operation image I 1 among I 1 to I 3 is assigned to the knob 3, and the arrangement position of the knob 3 in the display area A is the operation in the display area A. It assumed to correspond to the display position of use the image I 1.
  • the operation input control unit 17 executes control to receive an operation input of the operation item I 1 '.
  • the operation image I 1 corresponds to an operation item I 1 ′ for changing the volume in an in-vehicle audio system (not shown).
  • the operation image I 2 corresponds to an operation item I 2 ′ that changes a set temperature in an in-vehicle air conditioning system (not shown).
  • the operation image I 3 corresponds to the operation item I 3 ′ for changing the scale of the map image in the in-vehicle navigation system (not shown).
  • the display control unit 11 changes the operation image IX in accordance with the operation input received by the operation input control unit 17. Specifically, for example, the display control unit 11 changes a numerical value (that is, a numerical value indicating a volume, a set temperature, a reduced scale, or the like) in the operation image IX .
  • a numerical value that is, a numerical value indicating a volume, a set temperature, a reduced scale, or the like
  • the display control unit 11 outputs the operation image information to the operation assignment control device 100.
  • the knob determination unit 16 is configured to output knob information to the operation assignment control device 100.
  • the operation assignment control device 100 executes the following control using the operation image information and knob information.
  • the assignment control unit 21 executes control for assigning the operation item to the knob 3 when the operation item is not assigned to the knob 3 when the knob 3 is arranged in the display area A.
  • the assignment control unit 21 has the knob 3 arranged so as to be superimposed on the one operation image. At this time, an operation item corresponding to the one operation image is assigned to the knob 3.
  • the control unit 21 arranges the knob 3 so as not to be superimposed on the single operation image in a state where the single operation image is displayed in the display area A, the assignment control unit 21 An operation item corresponding to each operation image is assigned to the knob 3.
  • the allocation control unit 21 superimposes one of the plurality of operation images on one operation image in a state where the plurality of operation images are displayed in the display area A.
  • an operation item corresponding to any one of the operation images is assigned to the knob 3.
  • the allocation control unit 21 superimposes on any two or more operation images among the plurality of operation images in a state where the plurality of operation images are displayed in the display area A.
  • the knob 3 is arranged as described above, when any two or more operation images include an operation image corresponding to the operation item last assigned to the knob 3, the knob 3 is assigned last. The same operation item as the previously operated operation item is assigned to the knob 3.
  • the allocation control unit 21 superimposes on any two or more operation images among the plurality of operation images in a state where the plurality of operation images are displayed in the display area A.
  • the knob 3 is arranged as described above, when any two or more operation images do not include the operation image corresponding to the operation item last assigned to the knob 3, any one of the two An operation item corresponding to the operation image having the largest overlapping area with respect to the knob 3 among the plurality of operation images is assigned to the knob 3.
  • the allocation control unit 21 controls the knob so as not to be superimposed on any one of the plurality of operation images in a state where the plurality of operation images are displayed in the display area A.
  • the same operation item as that last assigned to the knob 3 is assigned to the knob 3.
  • the assignment of operation items to the knob 3 is maintained until a predetermined condition (hereinafter referred to as “cancellation condition”) is satisfied. In other words, the assignment of the operation item to the knob 3 is released when the release condition is satisfied.
  • the assignment of operation items to the knob 3 is maintained until the knob 3 is removed from the display 1.
  • the assignment of the operation item to the knob 3 is released.
  • “the last assigned operation item” in the above specific example means that the knob 3 is removed from the display 1 and then the knob 3 is attached to the display 1 so that the knob 3 is brought into the display area A.
  • the operation assignment control device 100 When the operation item is assigned to the knob 3, the operation assignment control device 100 outputs information indicating the assigned operation item to the display control unit 11 and the operation input control unit 17. When the operation item assignment to the knob 3 is released, the operation assignment control device 100 outputs information indicating that to the display control unit 11 and the operation input control unit 17.
  • the tracking control unit 22 displays the operation image corresponding to the assigned operation item in a state where the knob 3 is disposed in the display area A and the operation item is assigned to the knob 3. Control for causing the position to follow the arrangement position of the knob 3 is executed. That is, the follow-up control unit 22 instructs the display control unit 11 to cause the display position of the operation image corresponding to the assigned operation item to follow the arrangement position of the knob 3.
  • the knob 3 is superimposed on the one operation image I1.
  • the assignment control unit 21 assigns the operation item I 1 ′ corresponding to the one operation image I 1 to the knob 3.
  • the operation item I 1 ′ is assigned to the knob 3.
  • the display position of the operation image I 1 corresponds to the position of the knob 3 (See FIG. 3C).
  • the operation input related to the operation item I 1 ′ is validated in the operation input control unit 17.
  • D1 indicates the moving direction of the operation image I 1 by tracking control of the tracking control unit 22.
  • the knob 3 is arranged so as not to be superimposed on the one operation image I1.
  • the assignment control unit 21 assigns the operation item I 1 ′ corresponding to the one operation image I 1 to the knob 3.
  • the operation item I 1 ′ is assigned to the knob 3.
  • the display position of the operation image I 1 corresponds to the position of the knob 3 (See FIG. 4C).
  • the operation input related to the operation item I 1 ′ is validated in the operation input control unit 17.
  • D2 indicates the moving direction of the operation image I 1 according to following control of the follow-up control unit 22.
  • the last operation item assigned to the knob 3 is I 1 ′.
  • the last operation item assigned to the knob 3 is I 1 ′.
  • three operation images I 1 to I 3 are displayed in the display area A (see FIG. 6A)
  • two of the three operation images I 1 to I 3 are for operation.
  • image I 1 when the knob 3 is arranged so as to overlap the I 2 (Fig. 6B see)
  • the allocation controller 21 allocates the 'same operation item I 1 and' last operation was assigned to the item I 1 to the knob 3 to the knob 3.
  • the operation item I 1 ′ is assigned to the knob 3.
  • the last operation item assigned to the knob 3 is I 1 ′.
  • the last operation item assigned to the knob 3 is I 1 ′.
  • the knob 3 is arranged so as to overlap on the image I 2, I 3 (see FIG. 7B)
  • the operation image I 1 in which the two operation image I 2, I 3 corresponding to the operation item I 1 ' Therefore, the allocation control unit 21 does not include the operation item I 2 ′ corresponding to the operation image I 2 having the largest overlapping area with respect to the knob 3 of the two operation images I 2 and I 3.
  • the operation item I 2 ′ is assigned to the knob 3.
  • the last operation item assigned to the knob 3 is I 1 ′.
  • the three one of the operation image of the operation image I 1 ⁇ I 3 When the knob 3 is arranged so as not to overlap with I 1 to I 3 (see FIG. 8B), the assignment control unit 21 performs the same operation item I as the operation item I 1 ′ assigned last to the knob 3. Assign 1 'to knob 3. As a result, the operation item I 1 ′ is assigned to the knob 3.
  • the display control unit 11 displays the operation image IX corresponding to the operation item I X ′ assigned to the knob 3 on the display 1 in a manner that can be visually recognized by the hollow portion 4 of the knob 3. It has become. Specifically, for example, as shown in FIGS. 3C, 4C, 5C, 6C, 7C, and 8C, the display control unit 11 performs numerical values (that is, volume, set temperature, or scale) in the operation image IX .
  • the operation image IX is displayed on the display 1 so that the numerical values indicating the above are arranged in the hollow portion 4.
  • the display control unit 11 returns the display position of the operation image I X to the default position (hereinafter referred to as “initial position”).
  • initial position the display position of the operation image I X to the default position (hereinafter referred to as “initial position”).
  • 3A and 4A show a state in which one operation image I1 is displayed at the initial position.
  • 5A, FIG. 6A, FIG. 7A, and FIG. 8A show a state in which three operation images I 1 to I 3 are displayed at the initial position.
  • the allocation control unit 21 and the follow-up control unit 22 constitute the main part of the operation allocation control device 100.
  • the display control unit 11, the touch point detection unit 12, the knob determination unit 16, the operation input control unit 17, and the operation assignment control device 100 constitute a main part of the control device 200.
  • the knob-on display 6, the control board 7 and the control device 200 constitute the main part of the operation input device 300. In FIG. 2, the control board 7 is not shown.
  • the control device 200 is configured by a computer, and the computer has a processor 31 and a memory 32.
  • the computer includes the display control unit 11, the touch point detection unit 12, the knob presence / absence determination unit 13, the knob position determination unit 14, the knob operation determination unit 15, the operation input control unit 17, the assignment control unit 21, and the follow-up control.
  • a program for functioning as the unit 22 is stored.
  • the processor 31 reads and executes the program stored in the memory 32, the display control unit 11, the touch point detection unit 12, the knob presence / absence determination unit 13, the knob position determination unit 14, the knob operation determination unit 15, and the operation input
  • the functions of the control unit 17, the allocation control unit 21, and the follow-up control unit 22 are realized.
  • the processor 31 uses, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a microprocessor, a microcontroller, or a DSP (Digital Signal Processor).
  • the memory 32 is, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory Memory), an EEPROM (Electrically Erasable Semiconductor Memory, etc.). (State Drive) or HDD (Hard Disk Drive) or the like is used.
  • the function of the unit 22 may be realized by the processing circuit 33.
  • the processing circuit 33 may be, for example, an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), an FPGA (Field-Programmable Gate Array), an SoC (System-LargeSemi-ChemicalLargeSigureSystem). Etc. are used.
  • control device 200 may be configured by the processor 31, the memory 32, and the processing circuit 33.
  • Some of the functions may be realized by the processor 31 and the memory 32, and the remaining functions may be realized by the processing circuit 33.
  • FIG. 10 is a flowchart showing the operation of the allocation control unit 21.
  • the assignment control unit 21 is in a state where no operation item is assigned to the knob 3 (step ST2 “ NO "), control for assigning operation items to the knob 3 is executed (step ST3).
  • FIG. 11 is a flowchart showing the operation of the tracking control unit 22.
  • the follow-up control unit 22 has the knob 3 arranged in the display area A (step ST11 “YES”) and the operation item is assigned to the knob 3 (step ST12). "YES”), control is performed to cause the display position of the operation image corresponding to the assigned operation item to follow the arrangement position of the knob 3 (step ST13).
  • the posture change when the user operates the knob 3 can be suppressed.
  • the operation input device 300 is provided in the center cluster of a so-called “right-hand drive vehicle”, and the operation image I 1 is displayed on the left end portion in the display area A (that is, the end on the passenger seat side).
  • the knob 3 is arranged at the left end portion in the display area A (that is, the end portion on the passenger seat side).
  • the driver operates the knob 3 it is required to tilt the body to the passenger seat side.
  • Such posture change places a burden on the driver's body.
  • L1 indicates the locus of a point corresponding to the center of the knob 3 in the display area A due to the movement of the knob 3. Further, L1 is by follow-up control of the follow-up control unit 22 indicates the locus of points corresponding to the center portion of the operation image I 1 in the display area A.
  • any operation item can be assigned to the knob 3 according to the arrangement position of the knob 3. That is, when the knob 3 is disposed in the display area A, the assignment control unit 21 performs control for assigning the operation item to the knob 3 as described with reference to FIGS. Thereby, an arbitrary operation item can be assigned to the knob 3 according to the arrangement position of the knob 3.
  • the knob 3 is reattached to the display 1 so that the knob 3 Operation input relating to the same operation item as that immediately before the display 1 is removed from the display 1 can be performed.
  • the knob 3 is attached to the display 1, the operation item I 1 ′ is assigned to the knob 3, and the arrangement position of the knob 3 corresponds to the display position of the operation image I 1. ing.
  • the operation input related to the operation item I 1 ′ is validated.
  • FIG. 13B it is assumed that the knob 3 is removed from the display 1 against the user's will.
  • the assignment of the operation item I 1 ′ to the knob 3 is canceled, and the display position of the operation image I 1 returns to the initial position.
  • the operation input related to the operation item I 1 ′ is invalidated.
  • the assignment control unit 21 assigns the operation item I 1 ′ to the knob 3 by reattaching the knob 3 to the display 1.
  • the follow-up control of the follow-up control unit 22, the display position of the operation image I 1 is in a state that corresponds to the position of the knob 3.
  • the operation input related to the operation item I 1 ′ is enabled.
  • D7 and D9 indicate the direction in which the knob 3 is attached to and detached from the display 1. Further, D8 is knob 3 indicates a movement direction of the operation image I 1 when removed from the display 1. Also, D10 is the knob 3 indicates a movement direction of the operation image I 1 when attached again to the display 1.
  • the knob 3 only needs to have a plurality of conductor columns, and the number of conductor columns is not limited to three. However, from the viewpoint of improving the determination accuracy by the knob position determination unit 14 and the knob operation determination unit 15, it is preferable to use three or more conductor columns.
  • the shape of the knob 3 is not limited to a substantially cylindrical shape, and the knob 3 may have any shape.
  • the knob 3 may not have the hollow portion 4. That is, the knob 3 may be substantially cylindrical.
  • each operation image is not limited to a circular image including a numerical value, and each operation image may be any image.
  • each operation image may be a dial scale image or a slider scale image.
  • the dial-scale image corresponds to an operation input by turning the knob 3.
  • the knob 3 functions as a dial.
  • the scale-like image for the slider corresponds to the operation input by the sliding movement of the knob 3.
  • the knob 3 functions as a slider.
  • the display control unit 11 displays the operation image IX corresponding to the operation item I X ′ assigned to the knob 3 around the knob 3. It is preferable to display on the display 1 in a visually recognizable manner.
  • the display control unit 11 sets the diameter of the operation image IX to be larger than the diameter of the knob 3. A large value may be set so that the scale is displayed around the knob 3.
  • the assignment control unit 21 may be provided outside the operation assignment control device 100 in the control device 200. That is, the main part of the operation allocation control device 100 may be configured by the tracking control unit 22.
  • the display control unit 11 may be provided in the operation assignment control device 100. That is, the main part of the operation assignment control device 100 may be configured by the tracking control unit 22 and the display control unit 11. Alternatively, the follow-up control unit 22, the allocation control unit 21, and the display control unit 11 may constitute a main part of the operation allocation control device 100.
  • the information device using the operation input device 300 is not limited to the in-vehicle information device.
  • the operation input device 300 can be used for any information device such as consumer use or business use.
  • cylindrical described in the claims of the present application includes not only a complete cylindrical shape but also a substantially cylindrical shape.
  • the knob 3 for the knob-on display 6 is arranged in the display area A of the display 1 for the knob-on display 6, and the knob 3 A tracking control unit 22 that performs control for causing the display position of the operation image corresponding to the assigned operation item to follow the arrangement position of the knob 3 in a state where the operation item is assigned is provided.
  • the posture change when the user operates the knob 3 can be suppressed.
  • the operation assignment control device 100 executes control for assigning the operation item to the knob 3 when the operation item is not assigned to the knob 3.
  • the unit 21 is provided. Thereby, an arbitrary operation item can be assigned to the knob 3 according to the arrangement position of the knob 3. Further, when the user operates the knob 3, even if the knob 3 is removed from the display 1 against the user's will, the knob 3 is reattached to the display 1 so that the knob 3 is displayed on the display 1.
  • the operation input related to the same operation item as the operation item immediately before being removed from can be performed.
  • the knob 3 has a hollow portion 4, and the operation assignment control device 100 performs the assignment in a state where the knob 3 is arranged in the display area A and the operation item is assigned to the knob 3.
  • the display control part 11 which performs control which displays the image for operation corresponding to the operated operation item on the display 1 by the aspect visually recognizable in the hollow part 4 is provided. Thereby, the display of the image for operation suitable for the knob 3 which has the hollow part 4 is realizable.
  • the knob 3 has a cylindrical shape, and three or more conductor pillars are provided inside the knob 3. When the knob 3 is disposed in the display area A, three or more conductor pillars are provided. This is detected as three or more touch points on the touch panel 2 integrated with the display 1. When the knob 3 has a substantially cylindrical shape, the determination accuracy by the knob position determination unit 14 and the knob operation determination unit 15 can be improved by using three or more conductor columns.
  • the follow-up control unit 22 includes the knob 3 for the knob-on display 6 disposed in the display area A of the display 1 for the knob-on display 6, and the knob 3 includes a step ST13 of executing control for causing the display position of the operation image corresponding to the assigned operation item to follow the arrangement position of the knob 3 in a state where the operation item is assigned to 3.
  • the effect similar to the said effect by the operation allocation control apparatus 100 can be acquired.
  • the operation input device 300 includes a display 1 for the knob-on display 6, a knob 3 for the knob-on display 6, and the knob 3 disposed in the display area A of the display 1. And a tracking control unit 22 that executes control for causing the display position of the operation image corresponding to the assigned operation item to follow the arrangement position of the knob 3 in a state where the operation item is assigned to the knob 3. And an operation assignment control device 100. Thereby, the effect similar to the said effect by the operation allocation control apparatus 100 can be acquired.
  • FIG. 14 is a block diagram illustrating a main part of the operation input device according to the second embodiment. With reference to FIG. 14, the operation input apparatus 300a of Embodiment 2 is demonstrated. In FIG. 14, the same blocks as those in FIG.
  • the assignment of the operation item to the knob 3 is canceled when a predetermined release condition is satisfied. Specifically, for example, when the knob 3 is removed from the display 1, the assignment of the operation item to the knob 3 is released.
  • the first release control unit 23 is in a state where the knob 3 is arranged in the display area A and no operation input is made by the knob 3 in a state where the operation item is assigned to the knob 3. Is calculated.
  • the first release control unit 23 executes control to release the assignment of the operation item to the knob 3 when the calculated duration exceeds a predetermined time (hereinafter referred to as “first reference time”).
  • the first reference time is set to a value of about several seconds to several minutes, for example.
  • the duration of the state where there is no operation input by the knob 3 Exceeds the first reference time.
  • the first release control unit 23 releases the assignment of the operation item I 1 ′ to the knob 3.
  • the display position of the operation image I 1 returns to the initial position (see FIG. 15B).
  • D11 indicates the moving direction of the operation image I 1.
  • the operation input against the user's intention is made. Can be suppressed. Further, for example, when the user's hand touches the knob 3 against the intention of another user after the operation input related to the operation item I 1 ′ by the user is finished, the intention of the other user is determined. It is possible to suppress an operation input that is contrary.
  • the allocation control unit 21, the follow-up control unit 22, and the first release control unit 23 constitute a main part of the operation allocation control device 100a.
  • the display control unit 11, the touch point detection unit 12, the knob determination unit 16, the operation input control unit 17, and the operation assignment control device 100a constitute a main part of the control device 200a.
  • the knob-on display 6, the control board 7, and the control device 200a constitute the main part of the operation input device 300a. In FIG. 14, the control board 7 is not shown.
  • the hardware configuration of the main part of the control device 200a is the same as that described with reference to FIG. 9 in the first embodiment, illustration and description thereof are omitted. That is, the functions of the display control unit 11, the touch point detection unit 12, the knob determination unit 16, the operation input control unit 17, the assignment control unit 21, the follow-up control unit 22, and the first release control unit 23 are the processor 31 and the memory 32 may be realized, or may be realized by the processing circuit 33.
  • the flowchart in FIG. 16 shows the operation of the first release control unit 23.
  • the first release control unit 23 is in a state where the knob 3 is arranged in the display area A (step ST21 “YES”) and the operation item is assigned to the knob 3 ( (Step ST22 “YES”)
  • Step ST23 “YES” When the duration of the state in which there is no operation input by the knob 3 exceeds the first reference time (step ST23 “YES”), control for canceling assignment of the operation item to the knob 3 is executed (step ST23 “YES”).
  • Step ST24 the duration of the state in which there is no operation input by the knob 3 exceeds the first reference time
  • the first reference time may be settable by the user.
  • the operation input device 300a can employ various modifications similar to those described in the first embodiment.
  • the assignment control unit 21 may be provided outside the operation assignment control device 100a in the control device 200a.
  • the display control unit 11 may be provided in the operation assignment control device 100a.
  • the knob 3 is operated in the state where the knob 3 is arranged in the display area A and the operation items are assigned to the knob 3.
  • a first cancellation control unit 23 is provided that executes control for canceling the assignment of the operation item to the knob 3 when the duration of the state in which there is no input exceeds the first reference time.
  • FIG. 17 is a block diagram illustrating a main part of the operation input device according to the third embodiment. With reference to FIG. 17, the operation input apparatus 300b of Embodiment 3 is demonstrated. In FIG. 17, the same blocks as those in FIG.
  • the assignment of the operation item to the knob 3 is canceled when a predetermined release condition is satisfied. Specifically, for example, when the knob 3 is removed from the display 1, the assignment of the operation item to the knob 3 is released.
  • the second release control unit 24 performs a predetermined operation (hereinafter referred to as “knob 3”) in a state where the knob 3 is arranged in the display area A and the operation item is assigned to the knob 3.
  • a predetermined operation hereinafter referred to as “knob 3”
  • input operation for release control for canceling assignment of the operation item to the knob 3 is executed.
  • an operation of swinging the knob 3 to the left and right is set as a release operation.
  • the operation input control unit 17 inputs the operation of swinging the knob 3 left and right. Is received (see FIG. 18A), the second release control unit 24 releases the assignment of the operation item I 1 ′ to the knob 3 (see FIG. 18B).
  • D12 indicates the moving direction of the knob 3 by the releasing operation. Further, D13 indicates the moving direction of the operation image I 1 due to the assignment of the operation item I 1 'is released.
  • an operation for swinging the knob 3 up and down is set as a release operation.
  • the operation input control unit 17 inputs the operation of swinging the knob 3 up and down. Is received (see FIG. 19A), the second release control unit 24 releases the assignment of the operation item I 1 ′ to the knob 3 (see FIG. 19B).
  • D14 indicates the moving direction of the knob 3 by the releasing operation.
  • D15 indicates the moving direction of the operation image I 1 due to the assignment of the operation item I 1 'is released.
  • the allocation control unit 21, the follow-up control unit 22, and the second release control unit 24 constitute a main part of the operation allocation control device 100b.
  • the display control unit 11, the touch point detection unit 12, the knob determination unit 16, the operation input control unit 17, and the operation assignment control device 100b constitute a main part of the control device 200b.
  • the knob-on display 6, the control board 7, and the control device 200b constitute the main part of the operation input device 300b. In FIG. 17, the control board 7 is not shown.
  • the functions of the display control unit 11, touch point detection unit 12, knob determination unit 16, operation input control unit 17, assignment control unit 21, follow-up control unit 22, and second release control unit 24 include a processor 31 and a memory. 32 may be realized, or may be realized by the processing circuit 33.
  • step ST31 “YES”) the second release control unit 24 is in a state in which the knob 3 is arranged in the display area A (step ST31 “YES”) and the operation item is assigned to the knob 3 ( Step ST32 “YES”)
  • step ST33 “YES” the operation item is assigned to the knob 3
  • step ST34 control for canceling the assignment of the operation item to the knob 3 is executed (step ST34).
  • the release operation is not limited to the operation of swinging the knob 3 up and down or the operation of swinging the knob left and right, and any operation may be set as the release operation.
  • any operation may be set as the release operation.
  • an operation for pressing the knob 3 on the touch panel 2 may be set as a release operation.
  • the operation allocation control device 100b can adopt various modifications similar to those described in the first embodiment.
  • the assignment control unit 21 may be provided outside the operation assignment control device 100b in the control device 200b.
  • the display control unit 11 may be provided in the operation assignment control device 100b.
  • the operation assignment control device 100b may include the first release control unit 23 similar to that described in the second embodiment.
  • the operation assignment control device 100b is released by the knob 3 in the state where the knob 3 is arranged in the display area A and the operation item is assigned to the knob 3.
  • a second release control unit 24 that executes control to release the assignment of the operation item to the knob 3 when an operation is input. Thereby, the user can cancel the assignment of the operation item to the knob 3 at an arbitrary timing.
  • FIG. 21 is a block diagram illustrating a main part of the operation input device according to the fourth embodiment. With reference to FIG. 21, the operation input apparatus 300c of Embodiment 4 is demonstrated. In FIG. 21, the same blocks as those in FIG.
  • the assignment of operation items to the knob 3 is maintained until a predetermined release condition is satisfied. Specifically, for example, the assignment of operation items to the knob 3 is maintained until the knob 3 is removed from the display 1.
  • the maintenance control unit 25 superimposes the knob 3 on the operation image corresponding to another operation item different from the operation item assigned to the knob 3 (hereinafter simply referred to as “other operation item”). Even if it becomes the state which exists, control which maintains allocation of the operation item with respect to the knob 3 is performed. That is, in the state where the knob 3 is arranged in the display area A and the operation item is assigned to the knob 3, the maintenance control unit 25 displays the knob 3 on the operation image corresponding to the other operation item. When the state is overlaid, control for maintaining the assignment of operation items to the knob 3 is executed.
  • the knob 3 is arranged in the display area A, and the operation item I 1 ′ is assigned to the knob 3.
  • the maintenance control unit 25 maintains the assignment of the operation item I 1 ′ to the knob 3.
  • L2 indicates the locus of a point corresponding to the center of the knob 3 in the display area A. Further, L2 indicates the locus of points corresponding to the center portion of the operation image I 1 in the display area A.
  • L3 indicates the locus of a point corresponding to the center of the knob 3 in the display area A. Moreover, L3 shows the locus of points corresponding to the center portion of the operation image I 1 in the display area A.
  • the main part of the operation allocation control device 100c is configured by the allocation control unit 21, the follow-up control unit 22, and the maintenance control unit 25.
  • the display control unit 11, the touch point detection unit 12, the knob determination unit 16, the operation input control unit 17, and the operation assignment control device 100c constitute a main part of the control device 200c.
  • the knob-on display 6, the control board 7, and the control device 200c constitute the main part of the operation input device 300c. In FIG. 21, the control board 7 is not shown.
  • control device 200c Since the hardware configuration of the main part of the control device 200c is the same as that described with reference to FIG. 9 in the first embodiment, illustration and description thereof are omitted. That is, the functions of the display control unit 11, touch point detection unit 12, knob determination unit 16, operation input control unit 17, assignment control unit 21, follow-up control unit 22, and maintenance control unit 25 are performed by the processor 31 and the memory 32. It may be realized, or may be realized by the processing circuit 33.
  • step ST41 “YES”) the knob 3 is arranged in the display area A
  • step ST42 an operation item is assigned to the knob 3
  • step ST43 “YES” control for maintaining the assignment of the operation item to the knob 3 is executed.
  • step ST43 the determination result in step ST43 is “NO”, the assignment of operation items to the knob 3 is maintained as described above.
  • the operation allocation control apparatus 100c can employ various modifications similar to those described in the first embodiment.
  • the allocation control unit 21 may be provided outside the operation allocation control device 100c in the control device 200c.
  • the display control unit 11 may be provided in the operation assignment control device 100c.
  • the operation assignment control device 100c may include the first release control unit 23 similar to that described in the second embodiment. Further, the operation assignment control device 100c may include the second release control unit 24 similar to that described in the third embodiment.
  • the knob 3 is arranged in the display area A, and the operation item is assigned to the knob 3, the assignment is performed.
  • a maintenance control unit 25 is provided that executes control to maintain the assigned operation item when the knob 3 is superimposed on the operation image corresponding to another operation item different from the operation item being provided. Thereby, irrespective of the arrangement position of the knob 3, the operation input related to the operation item assigned to the knob 3 can be continued.
  • FIG. 24 is a block diagram illustrating a main part of the operation input device according to the fifth embodiment. With reference to FIG. 24, the operation input device 300d of the fifth embodiment will be described. In FIG. 24, blocks similar to those in FIG.
  • the operation input device 300d is provided in the vehicle 8. Specifically, for example, the operation input device 300 d is provided in the center cluster of the vehicle 8.
  • the vehicle 8 has a driver monitoring system 9.
  • the driver monitoring system 9 executes an image recognition process on a captured image by a camera (not shown) for imaging in the passenger compartment, thereby determining whether or not the driver of the vehicle 8 is in an inoperable state (so-called “dead man”). Is determined. Further, the driver monitoring system 9 determines whether or not the driver of the vehicle 8 is in a drowsy driving state by executing an image recognition process on the captured image. In addition, the driver monitoring system 9 determines whether or not the driver of the vehicle 8 is in the aside driving state by executing an image recognition process on the captured image.
  • the armpit driving state is a state in which the line of sight of the driver of the vehicle 8 (hereinafter simply referred to as “driver”) is directed in a direction different from the traveling direction of the vehicle 8 while the vehicle 8 is traveling. It is.
  • driver monitoring system 9 determines that the driver's line of sight is directed in a direction different from the traveling direction of the vehicle 8 while the vehicle 8 is traveling, information indicating that (hereinafter referred to as “line of sight information”). ").) Is output.
  • the line-of-sight information acquisition unit 18 acquires the line-of-sight information output by the driver monitoring system 9.
  • the prohibition control unit 26 uses the line-of-sight information acquired by the line-of-sight information acquisition unit 18 and continues the state in which the driver's line of sight is directed in a direction different from the traveling direction of the vehicle 8 while the vehicle 8 is traveling, That is, the duration of the side-view driving state is calculated.
  • the prohibition control unit 26 executes control for prohibiting the assignment of the operation item to the knob 3 and the knob 3.
  • the control for prohibiting the release of the assignment of the operation item to is executed.
  • the second reference time is set to a value of about several seconds to several tens of seconds.
  • the allocation control unit 21, the follow-up control unit 22, and the prohibition control unit 26 constitute a main part of the operation allocation control device 100d.
  • the display control unit 11, the touch point detection unit 12, the knob determination unit 16, the operation input control unit 17, the line-of-sight information acquisition unit 18, and the operation assignment control device 100d constitute the main part of the control device 200d.
  • the knob-on display 6, the control board 7, and the control device 200d constitute the main part of the operation input device 300d. In FIG. 24, the control board 7 is not shown.
  • the hardware configuration of the main part of the control device 200d is the same as that described with reference to FIG. 9 in the first embodiment, illustration and description thereof are omitted. That is, the functions of the display control unit 11, the touch point detection unit 12, the knob determination unit 16, the operation input control unit 17, the line-of-sight information acquisition unit 18, the allocation control unit 21, the follow-up control unit 22, and the prohibition control unit 26 are as follows. It may be realized by the processor 31 and the memory 32, or may be realized by the processing circuit 33.
  • the flowchart in FIG. 25 shows the operation of the prohibition control unit 26.
  • the prohibition control unit 26 executes control for prohibiting the assignment of the operation item to the knob 3 when the duration of the sideward driving state exceeds the second reference time (step ST51 “YES”). Then, control for prohibiting the release of the assignment of the operation item to the knob 3 is executed (step ST52).
  • prohibition control unit 26 may execute only one of the control for prohibiting the assignment of the operation item to the knob 3 or the control for prohibiting the release of the assignment of the operation item to the knob 3.
  • the operation allocation control device 100d can employ various modifications similar to those described in the first embodiment.
  • the assignment control unit 21 may be provided outside the operation assignment control device 100d in the control device 200d.
  • the display control unit 11 may be provided in the operation assignment control device 100d.
  • the operation assignment control device 100d may include the first release control unit 23 similar to that described in the second embodiment. Further, the operation assignment control device 100d may include the second release control unit 24 similar to that described in the third embodiment. Further, the operation assignment control device 100d may have the same maintenance control unit 25 as that described in the fourth embodiment.
  • the knob-on display 6 is for in-vehicle use, and the operation assignment control device 100d has the driver's line of sight directed in a direction different from the traveling direction of the vehicle 8 while the vehicle 8 is traveling.
  • a prohibition control unit 26 is provided that executes control for prohibiting assignment of operation items to the knob 3 when the duration of the standing state (side looking driving state) exceeds the second reference time. As a result, it is possible to suppress the side-viewing operation to change the assignment of the operation items to the knob 3 while the vehicle 8 is traveling.
  • FIG. 26 is a block diagram illustrating a main part of the operation input device according to the sixth embodiment. With reference to FIG. 26, the operation input device 300e of the sixth embodiment will be described. In FIG. 26, blocks similar to the blocks in FIG. In FIG. 26, the same blocks as those shown in FIG.
  • the non-display control unit 27 uses the line-of-sight information acquired by the line-of-sight information acquisition unit 18 and continues the state in which the driver's line of sight is directed in a direction different from the traveling direction of the vehicle 8 while the vehicle 8 is traveling. That is, the duration of the side-view driving state is calculated.
  • the non-display control unit 27 executes control to hide all the operation images on the display 1 when the calculated duration exceeds a predetermined time (hereinafter referred to as “third reference time”). Is. That is, the non-display control unit 27 instructs the display control unit 11 to hide all the operation images on the display 1.
  • the third reference time is set to a value of about several seconds to several tens of seconds.
  • the operation input control unit 17 When all the operation images are hidden, the operation input control unit 17 is in a state where the operations related to all the operation items are invalidated. As a result, it is possible to prevent the driver from looking aside in order to operate the knob 3 while the vehicle 8 is traveling. Further, since all the operation images are not displayed, the assignment of the operation items by the assignment control unit 21 is substantially invalidated. As a result, it is possible to suppress the side-viewing operation to change the assignment of the operation items to the knob 3 while the vehicle 8 is traveling.
  • the allocation control unit 21, the follow-up control unit 22, and the non-display control unit 27 constitute a main part of the operation allocation control device 100e.
  • the display control unit 11, the touch point detection unit 12, the knob determination unit 16, the operation input control unit 17, the line-of-sight information acquisition unit 18, and the operation assignment control device 100e constitute the main part of the control device 200e.
  • the knob-on display 6, the control board 7, and the control device 200e constitute the main part of the operation input device 300e. In FIG. 26, the control board 7 is not shown.
  • the hardware configuration of the main part of the control device 200e is the same as that described with reference to FIG. 9 in the first embodiment, illustration and description thereof are omitted. That is, the functions of the display control unit 11, the touch point detection unit 12, the knob determination unit 16, the operation input control unit 17, the line-of-sight information acquisition unit 18, the allocation control unit 21, the tracking control unit 22, and the non-display control unit 27 are as follows. Further, it may be realized by the processor 31 and the memory 32, or may be realized by the processing circuit 33.
  • the flowchart in FIG. 27 shows the operation of the non-display control unit 27.
  • the non-display control unit 27 controls to hide all the operation images on the display 1 when the duration of the sideward driving state exceeds the third reference time (step ST61 “YES”). Is executed (step ST62).
  • non-display control unit 27 may be configured to hide only a part of the operation images when the duration of the armpit driving state exceeds the third reference time.
  • the non-display control unit 27 may hide only the operation image corresponding to the operation item assigned to the knob 3.
  • the operation allocation control device 100e can employ various modifications similar to those described in the first embodiment.
  • the allocation control unit 21 may be provided outside the operation allocation control device 100e in the control device 200e.
  • the display control unit 11 may be provided in the operation assignment control device 100e.
  • the operation assignment control device 100e may include the first release control unit 23 similar to that described in the second embodiment. Further, the operation assignment control device 100e may include the second release control unit 24 similar to that described in the third embodiment. Further, the operation allocation control device 100e may have the same maintenance control unit 25 as that described in the fourth embodiment. Further, the operation assignment control device 100e may have the same prohibition control unit 26 as described in the fifth embodiment.
  • the third reference time in the non-display control unit 27 is set to a value equivalent to the second reference time in the prohibition control unit 26. Or may be set to a different value.
  • the knob-on display 6 is for in-vehicle use, and the driver's line of sight is directed in a direction different from the traveling direction of the vehicle 8 while the vehicle 8 is traveling (sideward driving state) )
  • a non-display control unit 27 that executes control to hide the operation image on the display 1 when the duration exceeds the third reference time.
  • FIG. 28 is a block diagram illustrating a main part of the operation input device according to the seventh embodiment.
  • the operation input device 300f of the seventh embodiment will be described.
  • FIG. 28 the same blocks as those in FIG. Also, in FIG. 28, the same blocks as those shown in FIG.
  • the invalidation control unit 28 uses the line-of-sight information acquired by the line-of-sight information acquisition unit 18 and continues the state in which the driver's line of sight is directed in a direction different from the traveling direction of the vehicle 8 while the vehicle 8 is traveling. That is, the duration of the side-view driving state is calculated.
  • the invalidation control unit 28 performs control to invalidate operation inputs related to all operation items by the knob 3 when the calculated duration exceeds a predetermined time (hereinafter referred to as “fourth reference time”). It is something to execute. That is, the invalidation control unit 28 instructs the operation input control unit 17 to invalidate the operation inputs related to all the operation items by the knob 3.
  • the fourth reference time is set to a value of about several seconds to several tens of seconds.
  • the allocation control unit 21, the follow-up control unit 22, and the invalidation control unit 28 constitute a main part of the operation allocation control device 100f.
  • the display control unit 11, the touch point detection unit 12, the knob determination unit 16, the operation input control unit 17, the line-of-sight information acquisition unit 18, and the operation assignment control device 100f constitute the main part of the control device 200f.
  • the knob-on display 6, the control board 7, and the control device 200f constitute the main part of the operation input device 300f. In FIG. 28, the control board 7 is not shown.
  • the hardware configuration of the main part of the control device 200f is the same as that described with reference to FIG. 9 in the first embodiment, illustration and description thereof are omitted. That is, the functions of the display control unit 11, the touch point detection unit 12, the knob determination unit 16, the operation input control unit 17, the line-of-sight information acquisition unit 18, the allocation control unit 21, the follow-up control unit 22, and the invalidation control unit 28 are as follows. Further, it may be realized by the processor 31 and the memory 32, or may be realized by the processing circuit 33.
  • the control to perform is executed (step ST72).
  • the invalidation control unit 28 may invalidate only the operation input related to some operation items when the duration of the armpit driving state exceeds the fourth reference time. For example, the invalidation control unit 28 may invalidate only the operation input related to the operation item assigned to the knob 3.
  • the operation allocation control device 100f can adopt various modifications similar to those described in the first embodiment.
  • the assignment control unit 21 may be provided outside the operation assignment control device 100f in the control device 200f.
  • the display control unit 11 may be provided in the operation assignment control device 100f.
  • the operation assignment control device 100f may include the first release control unit 23 similar to that described in the second embodiment. Further, the operation assignment control device 100f may include the second release control unit 24 similar to that described in the third embodiment. Further, the operation assignment control device 100f may have the same maintenance control unit 25 as that described in the fourth embodiment. In addition, the operation assignment control device 100f may include the prohibition control unit 26 similar to that described in the fifth embodiment. Further, the operation assignment control device 100f may include the non-display control unit 27 similar to that described in the sixth embodiment.
  • the fourth reference time in the invalidation control unit 28 is set to a value equivalent to the second reference time in the prohibition control unit 26. Or may be set to a different value.
  • the fourth reference time in the invalidation control unit 28 is set to a value equivalent to the third reference time in the non-display control unit 27. Or may be set to a different value.
  • the knob-on display 6 is for in-vehicle use, and the driver's line of sight is directed in a direction different from the traveling direction of the vehicle 8 while the vehicle 8 is traveling (side-armed driving state) )
  • a disabling control unit 28 that executes control for disabling the operation input by the knob 3 when the duration time exceeds the fourth reference time.
  • the operation assignment control device, the operation assignment control method, and the operation input device of the present invention can be used for, for example, in-vehicle information devices.

Abstract

操作割当制御装置(100)は、ノブオンディスプレイ(6)用のディスプレイ(1)の表示領域(A)内にノブオンディスプレイ(6)用のノブ(3)が配置されており、かつ、ノブ(3)に操作項目が割り当てられている状態にて、当該割り当てられている操作項目に対応する操作用画像の表示位置をノブ(3)の配置位置に追従させる制御を実行する追従制御部(22)を備える。

Description

操作割当制御装置、操作割当制御方法及び操作入力装置
 本発明は、操作割当制御装置、操作割当制御方法及び操作入力装置に関する。
 従来、車載情報機器用の操作入力装置に、いわゆる「ノブオンディスプレイ」が用いられている。ノブオンディスプレイは、タッチパネル一体型ディスプレイと、当該ディスプレイの表示領域内、すなわち当該タッチパネルの操作領域内に配置自在なノブ状のコントローラー(以下「ノブ」という。)とを有している。ノブの内部には、当該タッチパネルに対する複数個のタッチ点として検出される複数本の導体柱が設けられている。ノブオンディスプレイは、当該ディスプレイの表示領域内にノブが配置されており、かつ、当該ディスプレイの表示領域内に操作用画像が表示されており、かつ、ノブの配置位置が操作用画像の表示位置に対応している状態にて、ノブの回動又はノブのスライド移動による操作入力を受け付けるものである(例えば、特許文献1参照)。
特開2013-178678号公報
 通常、カーナビゲーション装置などの車載情報機器は、車両のセンタークラスターに設けられている。車載情報機器用の従来のノブオンディスプレイにおいては、例えば、表示領域内の助手席側の端部に操作用画像が表示されている場合、表示領域内の助手席側の端部にノブを配置することが求められる。表示領域内の助手席側の端部にノブが配置されている状態においては、運転者がノブを操作するとき、助手席側に体を傾けることが要求される。このような姿勢変化により、運転者の体に負担がかかる問題があった。
 本発明は、上記のような課題を解決するためになされたものであり、ノブオンディスプレイにおいて、ユーザがノブを操作するときの姿勢変化を抑制することを目的とする。
 本発明の操作割当制御装置は、ノブオンディスプレイ用のディスプレイの表示領域内にノブオンディスプレイ用のノブが配置されており、かつ、ノブに操作項目が割り当てられている状態にて、当該割り当てられている操作項目に対応する操作用画像の表示位置をノブの配置位置に追従させる制御を実行する追従制御部を備えるものである。
 本発明によれば、上記のように構成したので、ノブオンディスプレイにおいて、ユーザがノブを操作するときの姿勢変化を抑制することができる。
図1Aは、実施の形態1に係る操作入力装置の要部を示す正面図である。図1Bは、実施の形態1に係る操作入力装置の要部を示す底面図である。 実施の形態1に係る操作入力装置の要部を示すブロック図である。 図3Aは、1個の操作用画像が初期位置に表示されている状態を示す説明図である。図3Bは、当該1個の操作用画像に重畳するようにノブが配置された状態を示す説明図である。図3Cは、ノブに割り当てられている操作項目に対応する操作用画像の表示位置がノブの配置位置に対応している状態を示す説明図である。 図4Aは、1個の操作用画像が初期位置に表示されている状態を示す説明図である。図4Bは、当該1個の操作用画像に重畳しないようにノブが配置された状態を示す説明図である。図4Cは、ノブに割り当てられている操作項目に対応する操作用画像の表示位置がノブの配置位置に対応している状態を示す説明図である。 図5Aは、3個の操作用画像が初期位置に表示されている状態を示す説明図である。図5Bは、当該3個の操作用画像のうちの1個の操作用画像に重畳するようにノブが配置された状態を示す説明図である。図5Cは、ノブに割り当てられている操作項目に対応する操作用画像の表示位置がノブの配置位置に対応している状態を示す説明図である。 図6Aは、3個の操作用画像が初期位置に表示されている状態を示す説明図である。図6Bは、当該3個の操作用画像のうちの2個の操作用画像に重畳するようにノブが配置された状態を示す説明図である。図6Cは、ノブに割り当てられている操作項目に対応する操作用画像の表示位置がノブの配置位置に対応している状態を示す説明図である。 図7Aは、3個の操作用画像が初期位置に表示されている状態を示す説明図である。図7Bは、当該3個の操作用画像のうちの2個の操作用画像に重畳するようにノブが配置された状態を示す説明図である。図7Cは、ノブに割り当てられている操作項目に対応する操作用画像の表示位置がノブの配置位置に対応している状態を示す説明図である。 図8Aは、3個の操作用画像が初期位置に表示されている状態を示す説明図である。図8Bは、当該3個の操作用画像のうちのいずれの操作用画像にも重畳しないようにノブが配置された状態を示す説明図である。図8Cは、ノブに割り当てられている操作項目に対応する操作用画像の表示位置がノブの配置位置に対応している状態を示す説明図である。 図9Aは、実施の形態1に係る制御装置のハードウェア構成を示すブロック図である。図9Bは、実施の形態1に係る制御装置の他のハードウェア構成を示すブロック図である。 実施の形態1に係る操作割当制御装置のうちの割当制御部の動作を示すフローチャートである。 実施の形態1に係る操作割当制御装置のうちの追従制御部の動作を示すフローチャートである。 図12Aは、ノブに割り当てられている操作項目に対応する操作用画像が表示領域内の左端部に表示されており、かつ、ノブが表示領域内の左端部に配置されている状態を示す説明図である。図12Bは、ノブに割り当てられている操作項目に対応する操作用画像が表示領域内の右端部に表示されており、かつ、ノブが表示領域内の右端部に配置されている状態を示す説明図である。 図13Aは、ノブがディスプレイに取り付けられており、かつ、3個の操作用画像のうちの1個の操作用画像の表示位置がノブの配置位置に対応している状態を示す説明図である。図13Bは、ノブがディスプレイから取り外されたことにより、当該1個の操作用画像の表示位置が初期位置に戻った状態を示す説明図である。図13Cは、ノブがディスプレイに再度取り付けられたことにより、当該1個の操作用画像の表示位置がノブの配置位置に対応する位置に戻った状態を示す説明図である。 実施の形態2に係る操作入力装置の要部を示すブロック図である。 図15Aは、3個の操作用画像のうちの1個の操作用画像に対応する操作項目がノブに割り当てられている状態を示す説明図である。図15Bは、ノブに対する操作項目の割当てが解除された状態を示す説明図である。 実施の形態2に係る操作割当制御装置のうちの第1解除制御部の動作を示すフローチャートである。 実施の形態3に係る操作入力装置の要部を示すブロック図である。 図18Aは、解除用操作の一例を示す説明図である。図18Bは、ノブに対する操作項目の割当てが解除された状態を示す説明図である。 図19Aは、解除用操作の他の例を示す説明図である。図19Bは、ノブに対する操作項目の割当てが解除された状態を示す説明図である。 実施の形態3に係る操作割当制御装置のうちの第2解除制御部の動作を示すフローチャートである。 実施の形態4に係る操作入力装置の要部を示すブロック図である。 図22Aは、ノブが他の操作項目に対応する操作用画像に重畳していない状態を示す説明図である。図22Bは、ノブが他の操作項目に対応する操作用画像に重畳している状態を示す説明図である。図22Cは、ノブが他の操作項目に対応する操作用画像に重畳している状態を示す説明図である。 実施の形態4に係る操作割当制御装置のうちの維持制御部の動作を示すフローチャートである。 実施の形態5に係る操作入力装置の要部を示すブロック図である。 実施の形態5に係る操作割当制御装置のうちの禁止制御部の動作を示すフローチャートである。 実施の形態6に係る操作入力装置の要部を示すブロック図である。 実施の形態6に係る操作割当制御装置のうちの非表示制御部の動作を示すフローチャートである。 実施の形態7に係る操作入力装置の要部を示すブロック図である。 実施の形態7に係る操作割当制御装置のうちの無効化制御部の動作を示すフローチャートである。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1Aは、実施の形態1に係る操作入力装置の要部を示す正面図である。図1Bは、実施の形態1に係る操作入力装置の要部を示す底面図である。図2は、実施の形態1に係る操作入力装置の要部を示すブロック図である。図1及び図2を参照して、実施の形態1の操作入力装置300について説明する。
 ディスプレイ1は、例えば、LCD(Liquid Crystal Display)又はOLED(Organic Light Emitting Diode)ディスプレイにより構成されている。タッチパネル2は、例えば、ディスプレイ1と一体型の静電容量方式のタッチパネルにより構成されている。
 ノブ3は、ディスプレイ1の表示領域(すなわちタッチパネル2の操作領域)A内に配置自在に構成されている。より具体的には、ノブ3は、タッチパネル2と一体型のディスプレイ1に対して着脱自在に構成されており、表示領域A内の任意の位置に配置自在に構成されている。
 図1に示す例において、ノブ3は略円筒状であり、中空部4を有している。ノブ3の内部には、3本の導体柱5~5が設けられている。3本の導体柱5~5は、ノブ3が表示領域A内に配置されている状態にて、タッチパネル2に対する3個のタッチ点として検出されるものである。
 ディスプレイ1、タッチパネル2及びノブ3により、ノブオンディスプレイ6の要部が構成されている。ディスプレイ1の背面部には、制御基板7が設けられている。制御基板7には、ノブオンディスプレイ6用の制御装置200が設けられている。以下、制御装置200について説明する。
 表示制御部11は、N個の操作用画像I~Iをディスプレイ1の表示領域A内に表示させる制御を実行するものである。ここで、Nは1以上の整数である。表示制御部11は、表示領域Aにおける個々の操作用画像I~Iの表示位置を示す情報、及び個々の操作用画像I~Iに対応する操作項目を示す情報など(以下、総称して「操作用画像情報」という。)を操作入力制御部17に出力するものである。N個の操作用画像I~Iは、例えば、N個の操作項目I’~I’と一対一に対応するものである。
 タッチ点検出部12は、タッチパネル2による出力信号を用いて、タッチパネル2に対するタッチ点を検出するものである。
 ノブ有無判定部13は、3本の導体柱5~5に対応する3個のタッチ点がタッチ点検出部12による検出結果に含まれているか否かを判定することにより、ノブ3が表示領域A内に配置されているか否かを判定するものである。
 ノブ位置判定部14は、ノブ有無判定部13によりノブ3が表示領域A内に配置されていると判定された場合、表示領域Aにおける当該3個のタッチ点の検出位置に基づき、表示領域Aにおけるノブ3の配置位置を判定するものである。
 ノブ動作判定部15は、ノブ有無判定部13によりノブ3が表示領域A内に配置されていると判定された場合、表示領域Aにおける当該3個のタッチ点の検出位置の時間変化に基づき、ノブ3が回動中であるか否かを判定するとともに、ノブ3がスライド移動中であるか否かを判定するものである。ノブ動作判定部15は、ノブ3が回動中であると判定された場合、ノブ3の回動方向を判定するものである。ノブ動作判定部15は、ノブ3がスライド移動中であると判定された場合、ノブ3の移動方向を判定するものである。
 ノブ有無判定部13、ノブ位置判定部14及びノブ動作判定部15により、ノブ判定部16が構成されている。ノブ判定部16は、ノブ3が表示領域A内に配置されているか否かを示す情報、表示領域Aにおけるノブ3の配置位置を示す情報、ノブ3が回動中であるか否かを示す情報、ノブ3の回動方向を示す情報、ノブ3がスライド移動中であるか否かを示す情報、及びノブ3の移動方向を示す情報など(以下、総称して「ノブ情報」という。)を操作入力制御部17に出力するものである。
 操作入力制御部17は、操作用画像情報及びノブ情報などを用いて、ノブ3による操作入力を受け付ける制御を実行するものである。すなわち、操作入力制御部17は、ノブ3が表示領域A内に配置されており、かつ、ノブ3に操作項目I’が割り当てられており、かつ、当該割り当てられている操作項目I’に対応する操作用画像Iが表示領域A内に表示されており、かつ、表示領域Aにおけるノブ3の配置位置が表示領域Aにおける操作用画像Iの表示位置に対応している状態にて、ノブ3の回動又はノブ3のスライド移動による操作入力を受け付ける制御を実行するものである。ここで、Xは1以上かつN以下の整数である。
 具体的には、例えば、ノブ3が表示領域A内に配置されており、かつ、1個の操作用画像Iが表示領域A内に表示されており、かつ、当該1個の操作用画像Iに対応する操作項目I’がノブ3に割り当てられており、かつ、表示領域Aにおけるノブ3の配置位置が表示領域Aにおける操作用画像Iの表示位置に対応しているものとする。この場合、操作入力制御部17は、操作項目I’に係る操作入力を受け付ける制御を実行する。
 また、例えば、ノブ3が表示領域A内に配置されており、かつ、3個の操作用画像I~Iが表示領域A内に表示されており、かつ、当該3個の操作用画像I~Iのうちの1個の操作用画像Iに対応する操作項目I’がノブ3に割り当てられており、かつ、表示領域Aにおけるノブ3の配置位置が表示領域Aにおける操作用画像Iの表示位置に対応しているものとする。この場合、操作入力制御部17は、操作項目I’に係る操作入力を受け付ける制御を実行する。
 なお、図1に示す例において、操作用画像Iは、車載用のオーディオシステム(不図示)における音量を変化させる操作項目I’に対応している。操作用画像Iは、車載用の空調システム(不図示)における設定温度を変化させる操作項目I’に対応している。操作用画像Iは、車載用のナビゲーションシステム(不図示)における地図画像の縮尺を変化させる操作項目I’に対応している。
 表示制御部11は、操作入力制御部17により受け付けられた操作入力に応じて、操作用画像Iを変化させるようになっている。具体的には、例えば、表示制御部11は、操作用画像I内の数値(すなわち音量、設定温度又は縮尺などを示す数値)を変化させるようになっている。
 ここで、表示制御部11は、操作用画像情報を操作割当制御装置100に出力するようになっている。ノブ判定部16は、ノブ情報を操作割当制御装置100に出力するようになっている。操作割当制御装置100は、操作用画像情報及びノブ情報などを用いて、以下の制御を実行するものである。
 割当制御部21は、ノブ3が表示領域A内に配置されたとき、ノブ3に操作項目が割り当てられていない状態である場合、ノブ3に操作項目を割り当てる制御を実行するものである。
 より具体的には、割当制御部21は、表示領域A内に1個の操作用画像が表示されている状態にて、当該1個の操作用画像に重畳するようにノブ3が配置されたとき、当該1個の操作用画像に対応する操作項目をノブ3に割り当てる。
 また、割当制御部21は、表示領域A内に1個の操作用画像が表示されている状態にて、当該1個の操作用画像に重畳しないようにノブ3が配置されたとき、当該1個の操作用画像に対応する操作項目をノブ3に割り当てる。
 また、割当制御部21は、表示領域A内に複数個の操作用画像が表示されている状態にて、当該複数個の操作用画像のうちのいずれか1個の操作用画像に重畳するようにノブ3が配置されたとき、当該いずれか1個の操作用画像に対応する操作項目をノブ3に割り当てる。
 また、割当制御部21は、表示領域A内に複数個の操作用画像が表示されている状態にて、当該複数個の操作用画像のうちのいずれか2個以上の操作用画像に重畳するようにノブ3が配置されたとき、当該いずれか2個以上の操作用画像がノブ3に最後に割り当てられていた操作項目に対応する操作用画像を含むものである場合、ノブ3に最後に割り当てられていた操作項目と同一の操作項目をノブ3に割り当てる。
 また、割当制御部21は、表示領域A内に複数個の操作用画像が表示されている状態にて、当該複数個の操作用画像のうちのいずれか2個以上の操作用画像に重畳するようにノブ3が配置されたとき、当該いずれか2個以上の操作用画像がノブ3に最後に割り当てられていた操作項目に対応する操作用画像を含まないものである場合、当該いずれか2個以上の操作用画像のうちのノブ3に対する重畳面積が最も大きい操作用画像に対応する操作項目をノブ3に割り当てる。
 また、割当制御部21は、表示領域A内に複数個の操作用画像が表示されている状態にて、当該複数個の操作用画像のうちのいずれの操作用画像にも重畳しないようにノブ3が配置されたとき、ノブ3に最後に割り当てられていた操作項目と同一の操作項目をノブ3に割り当てる。
 ノブ3に対する操作項目の割当ては、所定の条件(以下「解除条件」という。)が満たされるまで維持されるようになっている。換言すれば、ノブ3に対する操作項目の割当ては、解除条件が満たされたときに解除されるようになっている。
 具体的には、例えば、ノブ3に対する操作項目の割当ては、ノブ3がディスプレイ1から取り外されるまで維持される。換言すれば、ノブ3がディスプレイ1から取り外されたとき、ノブ3に対する操作項目の割当てが解除される。この場合、上記具体例における「最後に割り当てられていた操作項目」とは、ノブ3がディスプレイ1から取り外されて、次いで、ノブ3がディスプレイ1に取り付けられることによりノブ3が表示領域A内に配置されたとき、ノブ3がディスプレイ1から取り外される直前にノブ3に割り当てられていた操作項目のことである。
 操作割当制御装置100は、ノブ3に操作項目が割り当てられたとき、当該割り当てられた操作項目を示す情報を表示制御部11及び操作入力制御部17に出力する。操作割当制御装置100は、ノブ3に対する操作項目の割当てが解除されたとき、その旨を示す情報を表示制御部11及び操作入力制御部17に出力する。
 追従制御部22は、ノブ3が表示領域A内に配置されており、かつ、ノブ3に操作項目が割り当てられている状態にて、当該割り当てられている操作項目に対応する操作用画像の表示位置をノブ3の配置位置に追従させる制御を実行するものである。すなわち、追従制御部22は、当該割り当てられている操作項目に対応する操作用画像の表示位置をノブ3の配置位置に追従させるように表示制御部11に指示するものである。
 具体的には、例えば、表示領域A内に1個の操作用画像Iが表示されている状態にて(図3A参照)、当該1個の操作用画像Iに重畳するようにノブ3が配置されたとき(図3B参照)、割当制御部21は、当該1個の操作用画像Iに対応する操作項目I’をノブ3に割り当てる。これにより、操作項目I’がノブ3に割り当てられている状態となる。この状態にて、追従制御部22が操作用画像Iの表示位置をノブ3の配置位置に追従させる制御を実行することにより、操作用画像Iの表示位置がノブ3の配置位置に対応している状態となる(図3C参照)。この結果、操作入力制御部17において操作項目I’に係る操作入力が有効化された状態となる。図中、D1は、追従制御部22の追従制御による操作用画像Iの移動方向を示している。
 また、例えば、表示領域A内に1個の操作用画像Iが表示されている状態にて(図4A参照)、当該1個の操作用画像Iに重畳しないようにノブ3が配置されたとき(図4B参照)、割当制御部21は、当該1個の操作用画像Iに対応する操作項目I’をノブ3に割り当てる。これにより、操作項目I’がノブ3に割り当てられている状態となる。この状態にて、追従制御部22が操作用画像Iの表示位置をノブ3の配置位置に追従させる制御を実行することにより、操作用画像Iの表示位置がノブ3の配置位置に対応している状態となる(図4C参照)。この結果、操作入力制御部17において操作項目I’に係る操作入力が有効化された状態となる。図中、D2は、追従制御部22の追従制御による操作用画像Iの移動方向を示している。
 また、例えば、表示領域A内に3個の操作用画像I~Iが表示されている状態にて(図5A参照)、当該3個の操作用画像I~Iのうちの1個の操作用画像Iに重畳するようにノブ3が配置されたとき(図5B参照)、割当制御部21は、当該1個の操作用画像Iに対応する操作項目I’をノブ3に割り当てる。これにより、操作項目I’がノブ3に割り当てられている状態となる。この状態にて、追従制御部22が操作用画像Iの表示位置をノブ3の配置位置に追従させる制御を実行することにより、操作用画像Iの表示位置がノブ3の配置位置に対応している状態となる(図5C参照)。この結果、操作入力制御部17において操作項目I’に係る操作入力が有効化された状態となる。図中、D3は、追従制御部22の追従制御による操作用画像Iの移動方向を示している。
 また、例えば、ノブ3に最後に割り当てられていた操作項目がI’であるものとする。表示領域A内に3個の操作用画像I~Iが表示されている状態にて(図6A参照)、当該3個の操作用画像I~Iのうちの2個の操作用画像I,Iに重畳するようにノブ3が配置されたとき(図6B参照)、当該2個の操作用画像I,Iが操作項目I’に対応する操作用画像Iを含むものであるため、割当制御部21は、ノブ3に最後に割り当てられていた操作項目I’と同一の操作項目I’をノブ3に割り当てる。これにより、操作項目I’がノブ3に割り当てられている状態となる。この状態にて、追従制御部22が操作用画像Iの表示位置をノブ3の配置位置に追従させる制御を実行することにより、操作用画像Iの表示位置がノブ3の配置位置に対応している状態となる(図6C参照)。この結果、操作入力制御部17において操作項目I’に係る操作入力が有効化された状態となる。図中、D4は、追従制御部22の追従制御による操作用画像Iの移動方向を示している。
 また、例えば、ノブ3に最後に割り当てられていた操作項目がI’であるものとする。表示領域A内に3個の操作用画像I~Iが表示されている状態にて(図7A参照)、当該3個の操作用画像I~Iのうちの2個の操作用画像I,Iに重畳するようにノブ3が配置されたとき(図7B参照)、当該2個の操作用画像I,Iが操作項目I’に対応する操作用画像Iを含まないものであるため、割当制御部21は、当該2個の操作用画像I,Iのうちのノブ3に対する重畳面積が最も大きい操作用画像Iに対応する操作項目I’をノブ3に割り当てる。これにより、操作項目I’がノブ3に割り当てられている状態となる。この状態にて、追従制御部22が操作用画像Iの表示位置をノブ3の配置位置に追従させる制御を実行することにより、操作用画像Iの表示位置がノブ3の配置位置に対応している状態となる(図7C参照)。この結果、操作入力制御部17において操作項目I’に係る操作入力が有効化された状態となる。図中、D5は、追従制御部22の追従制御による操作用画像Iの移動方向を示している。
 また、例えば、ノブ3に最後に割り当てられていた操作項目がI’であるものとする。表示領域A内に3個の操作用画像I~Iが表示されている状態にて(図8A参照)、当該3個の操作用画像I~Iのうちのいずれの操作用画像I~Iにも重畳しないようにノブ3が配置されたとき(図8B参照)、割当制御部21は、ノブ3に最後に割り当てられていた操作項目I’と同一の操作項目I’をノブ3に割り当てる。これにより、操作項目I’がノブ3に割り当てられている状態となる。この状態にて、追従制御部22が操作用画像Iの表示位置をノブ3の配置位置に追従させる制御を実行することにより、操作用画像Iの表示位置がノブ3の配置位置に対応している状態となる(図8C参照)。この結果、操作入力制御部17において操作項目I’に係る操作入力が有効化された状態となる。図中、D6は、追従制御部22の追従制御による操作用画像Iの移動方向を示している。
 なお、表示制御部11は、ノブ3に割り当てられている操作項目I’に対応する操作用画像Iを、ノブ3の中空部4にて視認可能な態様によりディスプレイ1に表示させるようになっている。具体的には、例えば、表示制御部11は、図3C、図4C、図5C、図6C、図7C及び図8Cに示す如く、操作用画像I内の数値(すなわち音量、設定温度又は縮尺などを示す数値)が中空部4内に配置されるように、操作用画像Iをディスプレイ1に表示させる。
 また、表示制御部11は、ノブ3に対する操作項目I’の割当てが解除されたとき、操作用画像Iの表示位置をデフォルトの位置(以下「初期位置」という。)に戻すようになっている。図3A及び図4Aは、1個の操作用画像Iが初期位置に表示されている状態を示している。図5A、図6A、図7A及び図8Aは、3個の操作用画像I~Iが初期位置に表示されている状態を示している。
 割当制御部21及び追従制御部22により、操作割当制御装置100の要部が構成されている。表示制御部11、タッチ点検出部12、ノブ判定部16、操作入力制御部17及び操作割当制御装置100により、制御装置200の要部が構成されている。ノブオンディスプレイ6、制御基板7及び制御装置200により、操作入力装置300の要部が構成されている。なお、図2において制御基板7は図示を省略している。
 次に、図9を参照して、制御装置200の要部のハードウェア構成について説明する。
 図9Aに示す如く、制御装置200はコンピュータにより構成されており、当該コンピュータはプロセッサ31及びメモリ32を有している。メモリ32には、当該コンピュータを表示制御部11、タッチ点検出部12、ノブ有無判定部13、ノブ位置判定部14、ノブ動作判定部15、操作入力制御部17、割当制御部21及び追従制御部22として機能させるためのプログラムが記憶されている。メモリ32に記憶されているプログラムをプロセッサ31が読み出して実行することにより、表示制御部11、タッチ点検出部12、ノブ有無判定部13、ノブ位置判定部14、ノブ動作判定部15、操作入力制御部17、割当制御部21及び追従制御部22の機能が実現される。
 プロセッサ31は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)などを用いたものである。メモリ32は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)若しくはEEPROM(Electrically Erasable Programmable Read-Only Memory)などの半導体メモリ、SSD(Solid State Drive)又はHDD(Hard Disk Drive)などを用いたものである。
 または、図9Bに示す如く、表示制御部11、タッチ点検出部12、ノブ有無判定部13、ノブ位置判定部14、ノブ動作判定部15、操作入力制御部17、割当制御部21及び追従制御部22の機能が処理回路33により実現されるものであっても良い。処理回路33は、例えば、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field-Programmable Gate Array)、SoC(System-on-a-Chip)又はシステムLSI(Large-Scale Integration)などを用いたものである。
 または、制御装置200は、プロセッサ31、メモリ32及び処理回路33により構成されているものであっても良い。この場合、表示制御部11、タッチ点検出部12、ノブ有無判定部13、ノブ位置判定部14、ノブ動作判定部15、操作入力制御部17、割当制御部21及び追従制御部22の機能のうちの一部の機能がプロセッサ31及びメモリ32により実現されて、残余の機能が処理回路33により実現されるものであっても良い。
 図10は、割当制御部21の動作を示すフローチャートである。図10に示す如く、割当制御部21は、ノブ3が表示領域A内に配置されたとき(ステップST1“YES”)、ノブ3に操作項目が割り当てられていない状態である場合(ステップST2“NO”)、ノブ3に操作項目を割り当てる制御を実行する(ステップST3)。
 図11は、追従制御部22の動作を示すフローチャートである。図11に示す如く、追従制御部22は、ノブ3が表示領域A内に配置されており(ステップST11“YES”)、かつ、ノブ3に操作項目が割り当てられている状態にて(ステップST12“YES”)、当該割り当てられている操作項目に対応する操作用画像の表示位置をノブ3の配置位置に追従させる制御を実行する(ステップST13)。
 次に、実施の形態1の操作入力装置300による作用効果について、三つ説明する。
 第一に、ユーザがノブ3を操作するときの姿勢変化を抑制することができる。例えば、図12Aに示す如く、いわゆる「右ハンドル車両」のセンタークラスターに操作入力装置300が設けられており、かつ、操作用画像Iが表示領域A内の左端部(すなわち助手席側の端部)に表示されており、かつ、ノブ3が表示領域A内の左端部(すなわち助手席側の端部)に配置されている。図12Aに示す状態において、運転者がノブ3を操作するときは、助手席側に体を傾けることが要求される。このような姿勢変化により、運転者の体に負担がかかる。
 これに対して、図12Bに示す如く、運転者がノブ3を表示領域A内の左端部から右端部に移動させることにより、ノブ3が表示領域A内の右端部(すなわち運転席側の端部)に配置されている状態となる。このとき、追従制御部22の追従制御により、操作用画像Iも表示領域A内の右端部(すなわち運転席側の端部)に表示されている状態となる。図12Bに示す状態は、図12Aに示す状態に比して、ノブ3が運転席の近くに配置されている。このため、運転者がノブ3を操作するときに要求される姿勢変化を小さくすることができる。
 図中、L1は、ノブ3の移動による、表示領域Aにおけるノブ3の中心部に対応する点の軌跡を示している。また、L1は、追従制御部22の追従制御による、表示領域Aにおける操作用画像Iの中心部に対応する点の軌跡を示している。
 第二に、ノブ3の配置位置に応じて任意の操作項目をノブ3に割り当てることができる。すなわち、ノブ3が表示領域A内に配置されたとき、図3~図8を参照して説明したように、割当制御部21がノブ3に操作項目を割り当てる制御を実行する。これにより、ノブ3の配置位置に応じて任意の操作項目をノブ3に割り当てることができる。
 第三に、ユーザがノブ3を操作しているとき、ユーザの意に反してノブ3がディスプレイ1から取り外された場合であっても、ノブ3をディスプレイ1に再度取り付けることにより、ノブ3がディスプレイ1から取り外される直前の操作項目と同一の操作項目に係る操作入力が可能となる。
 例えば、図13Aに示す如く、ノブ3がディスプレイ1に取り付けられており、ノブ3に操作項目I’が割り当てられており、ノブ3の配置位置が操作用画像Iの表示位置に対応している。図13Aに示す状態においては、操作項目I’に係る操作入力が有効化されている。これに対して、図13Bに示す如く、ユーザの意に反してノブ3がディスプレイ1から取り外されたものとする。これにより、ノブ3に対する操作項目I’の割当てが解除されて、操作用画像Iの表示位置が初期位置に戻る。この結果、操作項目I’に係る操作入力が無効化された状態となる。
 しかしながら、図13Cに示す如く、ノブ3をディスプレイ1に再度取り付けることにより、割当制御部21が操作項目I’をノブ3に割り当てる。追従制御部22の追従制御により、操作用画像Iの表示位置がノブ3の配置位置に対応している状態となる。この結果、操作項目I’に係る操作入力が有効化された状態となる。
 図中、D7及びD9は、ディスプレイ1に対するノブ3の着脱方向を示している。また、D8は、ノブ3がディスプレイ1から取り外されたときの操作用画像Iの移動方向を示している。また、D10は、ノブ3がディスプレイ1に再度取り付けられたときの操作用画像Iの移動方向を示している。
 なお、ノブ3は複数本の導体柱を有するものであれば良く、導体柱の本数は3本に限定されるものではない。ただし、ノブ位置判定部14及びノブ動作判定部15による判定精度を向上する観点から、3本以上の導体柱を用いるのが好適である。
 また、ノブ3の形状は略円筒状に限定されるものではなく、ノブ3は如何なる形状によるものであっても良い。例えば、ノブ3は中空部4を有しないものであっても良い。すなわち、ノブ3は略円柱状であっても良い。
 また、個々の操作用画像は数値を含む円形状の画像に限定されるものではなく、個々の操作用画像は如何なる画像によるものであっても良い。例えば、個々の操作用画像は、ダイヤル用の目盛状の画像又はスライダー用の目盛状の画像であっても良い。ダイヤル用の目盛状の画像は、ノブ3の回動による操作入力に対応したものである。この場合、ノブ3はダイヤルの機能を果たすものとなる。他方、スライダー用の目盛状の画像は、ノブ3のスライド移動による操作入力に対応したものである。この場合、ノブ3はスライダーの機能を果たすものとなる。
 ここで、ノブ3が中空部4を有しない形状である場合、表示制御部11は、ノブ3に割り当てられている操作項目I’に対応する操作用画像Iを、ノブ3の周囲にて視認可能な態様によりディスプレイ1に表示させるのが好適である。例えば、ノブ3が略円柱状であり、かつ、操作用画像Iがダイヤル状の目盛を含む画像である場合、表示制御部11は、操作用画像Iの直径をノブ3の直径よりも大きい値に設定して、当該目盛がノブ3の周囲に表示されるようにするものであっても良い。
 また、割当制御部21は、制御装置200内にて操作割当制御装置100外に設けられているものであっても良い。すなわち、追従制御部22により操作割当制御装置100の要部が構成されているものであっても良い。
 また、表示制御部11は、操作割当制御装置100内に設けられているものであっても良い。すなわち、追従制御部22及び表示制御部11により操作割当制御装置100の要部が構成されているものであっても良い。または、追従制御部22、割当制御部21及び表示制御部11により操作割当制御装置100の要部が構成されているものであっても良い。
 また、操作入力装置300が用いられる情報機器は、車載情報機器に限定されるものではない。操作入力装置300は、例えば、民生用又は業務用などの如何なる情報機器にも用いることができる。
 また、本願の請求の範囲に記載された「円筒状」の用語の意義は、完全な円筒状はもちろんのこと、略円筒状も包含するものである。
 以上のように、実施の形態1の操作割当制御装置100は、ノブオンディスプレイ6用のディスプレイ1の表示領域A内にノブオンディスプレイ6用のノブ3が配置されており、かつ、ノブ3に操作項目が割り当てられている状態にて、当該割り当てられている操作項目に対応する操作用画像の表示位置をノブ3の配置位置に追従させる制御を実行する追従制御部22を備える。これにより、ユーザがノブ3を操作するときの姿勢変化を抑制することができる。
 また、操作割当制御装置100は、表示領域A内にノブ3が配置されたとき、ノブ3に操作項目が割り当てられていない状態である場合、ノブ3に操作項目を割り当てる制御を実行する割当制御部21を備える。これにより、ノブ3の配置位置に応じて任意の操作項目をノブ3に割り当てることができる。また、ユーザがノブ3を操作しているとき、ユーザの意に反してノブ3がディスプレイ1から取り外された場合であっても、ノブ3をディスプレイ1に再度取り付けることにより、ノブ3がディスプレイ1から取り外される直前の操作項目と同一の操作項目に係る操作入力が可能となる。
 また、ノブ3は中空部4を有し、操作割当制御装置100は、表示領域A内にノブ3が配置されており、かつ、ノブ3に操作項目が割り当てられている状態にて、当該割り当てられている操作項目に対応する操作用画像が中空部4にて視認可能な態様によりディスプレイ1に表示させる制御を実行する表示制御部11を備える。これにより、中空部4を有するノブ3に適した操作用画像の表示を実現することができる。
 また、ノブ3は円筒状であり、ノブ3の内部に3本以上の導体柱が設けられており、ノブ3が表示領域A内に配置されている状態にて、3本以上の導体柱がディスプレイ1と一体型のタッチパネル2に対する3個以上のタッチ点として検出されるものである。ノブ3が略円筒状である場合、3本以上の導体柱を用いることにより、ノブ位置判定部14及びノブ動作判定部15による判定精度を向上することができる。
 また、実施の形態1の操作割当制御方法は、追従制御部22が、ノブオンディスプレイ6用のディスプレイ1の表示領域A内にノブオンディスプレイ6用のノブ3が配置されており、かつ、ノブ3に操作項目が割り当てられている状態にて、当該割り当てられている操作項目に対応する操作用画像の表示位置をノブ3の配置位置に追従させる制御を実行するステップST13を備える。これにより、操作割当制御装置100による上記効果と同様の効果を得ることができる。
 また、実施の形態1の操作入力装置300は、ノブオンディスプレイ6用のディスプレイ1と、ノブオンディスプレイ6用のノブ3と、ディスプレイ1の表示領域A内にノブ3が配置されており、かつ、ノブ3に操作項目が割り当てられている状態にて、当該割り当てられている操作項目に対応する操作用画像の表示位置をノブ3の配置位置に追従させる制御を実行する追従制御部22を備える操作割当制御装置100と、を備える。これにより、操作割当制御装置100による上記効果と同様の効果を得ることができる。
実施の形態2.
 図14は、実施の形態2に係る操作入力装置の要部を示すブロック図である。図14を参照して、実施の形態2の操作入力装置300aについて説明する。なお、図14において、図2におけるブロックと同様のブロックには同一符号を付して説明を省略する。
 実施の形態1にて説明したように、ノブ3に対する操作項目の割当ては、所定の解除条件が満たされたときに解除されるようになっている。具体的には、例えば、ノブ3がディスプレイ1から取り外されたとき、ノブ3に対する操作項目の割当てが解除される。
 これに加えて、第1解除制御部23は、表示領域A内にノブ3が配置されており、かつ、ノブ3に操作項目が割り当てられている状態にて、ノブ3による操作入力がない状態の継続時間を算出するものである。第1解除制御部23は、当該算出された継続時間が所定時間(以下「第1基準時間」という。)を超えたとき、ノブ3に対する操作項目の割当てを解除する制御を実行するものである。第1基準時間は、例えば、数秒~数分程度の値に設定されている。
 例えば、表示領域A内にノブ3が配置されており、かつ、ノブ3に操作項目I’が割り当てられている状態にて(図15A参照)、ノブ3による操作入力がない状態の継続時間が第1基準時間を超えたものとする。この場合、第1解除制御部23は、ノブ3に対する操作項目I’の割当てを解除する。これにより、操作用画像Iの表示位置が初期位置に戻る(図15B参照)。この結果、操作用画像Iの表示位置がノブ3の配置位置に対応していない状態となるため、操作入力制御部17において操作項目I’に係る操作入力が無効化された状態となる。図中、D11は操作用画像Iの移動方向を示している。
 これにより、例えば、ユーザによる操作項目I’に係る操作入力が終了した後、当該ユーザの意に反して当該ユーザの手などがノブ3に接触したとき、当該ユーザの意に反した操作入力がなされるのを抑制することができる。また、例えば、ユーザによる操作項目I’に係る操作入力が終了した後、他のユーザの意に反して当該他のユーザの手などがノブ3に接触したとき、当該他のユーザの意に反した操作入力がなされるのを抑制することができる。
 割当制御部21、追従制御部22及び第1解除制御部23により、操作割当制御装置100aの要部が構成されている。表示制御部11、タッチ点検出部12、ノブ判定部16、操作入力制御部17及び操作割当制御装置100aにより、制御装置200aの要部が構成されている。ノブオンディスプレイ6、制御基板7及び制御装置200aにより、操作入力装置300aの要部が構成されている。なお、図14において制御基板7は図示を省略している。
 制御装置200aの要部のハードウェア構成は、実施の形態1にて図9を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、表示制御部11、タッチ点検出部12、ノブ判定部16、操作入力制御部17、割当制御部21、追従制御部22及び第1解除制御部23の各々の機能は、プロセッサ31及びメモリ32により実現されるものであっても良く、又は処理回路33により実現されるものであっても良い。
 図16のフローチャートは、第1解除制御部23の動作を示している。図16に示す如く、第1解除制御部23は、表示領域A内にノブ3が配置されており(ステップST21“YES”)、かつ、ノブ3に操作項目が割り当てられている状態にて(ステップST22“YES”)、ノブ3による操作入力がない状態の継続時間が第1基準時間を超えたとき(ステップST23“YES”)、ノブ3に対する操作項目の割当てを解除する制御を実行する(ステップST24)。
 なお、第1基準時間は、ユーザにより設定自在なものであっても良い。
 また、操作入力装置300aは、実施の形態1にて説明したものと同様の種々の変形例を採用することができる。例えば、割当制御部21は、制御装置200a内にて操作割当制御装置100a外に設けられているものであっても良い。また、例えば、表示制御部11は、操作割当制御装置100a内に設けられているものであっても良い。
 以上のように、実施の形態2の操作割当制御装置100aは、表示領域A内にノブ3が配置されており、かつ、ノブ3に操作項目が割り当てられている状態にて、ノブ3による操作入力がない状態の継続時間が第1基準時間を超えたとき、ノブ3に対する操作項目の割当てを解除する制御を実行する第1解除制御部23を備える。これにより、例えば、ユーザによる操作入力が終了した後、当該ユーザの意に反して当該ユーザの手などがノブ3に接触したとき、当該ユーザの意に反した操作入力がなされるのを抑制することができる。
実施の形態3.
 図17は、実施の形態3に係る操作入力装置の要部を示すブロック図である。図17を参照して、実施の形態3の操作入力装置300bについて説明する。なお、図17において、図2におけるブロックと同様のブロックには同一符号を付して説明を省略する。
 実施の形態1にて説明したように、ノブ3に対する操作項目の割当ては、所定の解除条件が満たされたときに解除されるようになっている。具体的には、例えば、ノブ3がディスプレイ1から取り外されたとき、ノブ3に対する操作項目の割当てが解除される。
 これに加えて、第2解除制御部24は、表示領域A内にノブ3が配置されており、かつ、ノブ3に操作項目が割り当てられている状態にて、ノブ3による所定の操作(以下「解除用操作」という。)の入力がなされたとき、ノブ3に対する操作項目の割当てを解除する制御を実行するものである。
 具体的には、例えば、ノブ3を左右に振る操作が解除用操作に設定されている。この場合、表示領域A内にノブ3が配置されており、かつ、ノブ3に操作項目I’が割り当てられている状態にて、ノブ3を左右に振る操作の入力を操作入力制御部17が受け付けたとき(図18A参照)、第2解除制御部24は、ノブ3に対する操作項目I’の割当てを解除する(図18B参照)。図中、D12は、解除用操作によるノブ3の移動方向を示している。また、D13は、操作項目I’の割当てが解除されたことによる操作用画像Iの移動方向を示している。
 または、例えば、ノブ3を上下に振る操作が解除用操作に設定されている。この場合、表示領域A内にノブ3が配置されており、かつ、ノブ3に操作項目I’が割り当てられている状態にて、ノブ3を上下に振る操作の入力を操作入力制御部17が受け付けたとき(図19A参照)、第2解除制御部24は、ノブ3に対する操作項目I’の割当てを解除する(図19B参照)。図中、D14は、解除用操作によるノブ3の移動方向を示している。また、D15は、操作項目I’の割当てが解除されたことによる操作用画像Iの移動方向を示している。
 これにより、ユーザは任意のタイミングにてノブ3に対する操作項目I’の割当てを解除することができる。
 割当制御部21、追従制御部22及び第2解除制御部24により、操作割当制御装置100bの要部が構成されている。表示制御部11、タッチ点検出部12、ノブ判定部16、操作入力制御部17及び操作割当制御装置100bにより、制御装置200bの要部が構成されている。ノブオンディスプレイ6、制御基板7及び制御装置200bにより、操作入力装置300bの要部が構成されている。なお、図17において制御基板7は図示を省略している。
 制御装置200bの要部のハードウェア構成は、実施の形態1にて図9を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、表示制御部11、タッチ点検出部12、ノブ判定部16、操作入力制御部17、割当制御部21、追従制御部22及び第2解除制御部24の各々の機能は、プロセッサ31及びメモリ32により実現されるものであっても良く、又は処理回路33により実現されるものであっても良い。
 図20のフローチャートは、第2解除制御部24の動作を示している。図20に示す如く、第2解除制御部24は、表示領域A内にノブ3が配置されており(ステップST31“YES”)、かつ、ノブ3に操作項目が割り当てられている状態にて(ステップST32“YES”)、ノブ3による解除用操作の入力がなされたとき(ステップST33“YES”)、ノブ3に対する操作項目の割当てを解除する制御を実行する(ステップST34)。
 なお、解除用操作はノブ3を上下に振る操作又はノブを左右に振る操作に限定されるものではなく、如何なる操作が解除用操作に設定されているものであっても良い。例えば、タッチパネル2に対してノブ3を押下する操作が解除用操作に設定されているものであっても良い。
 また、操作割当制御装置100bは、実施の形態1にて説明したものと同様の種々の変形例を採用することができる。例えば、割当制御部21は、制御装置200b内にて操作割当制御装置100b外に設けられているものであっても良い。また、例えば、表示制御部11は、操作割当制御装置100b内に設けられているものであっても良い。
 また、操作割当制御装置100bは、実施の形態2にて説明したものと同様の第1解除制御部23を有するものであっても良い。
 以上のように、実施の形態3の操作割当制御装置100bは、表示領域A内にノブ3が配置されており、かつ、ノブ3に操作項目が割り当てられている状態にて、ノブ3による解除用操作の入力がなされたとき、ノブ3に対する操作項目の割当てを解除する制御を実行する第2解除制御部24を備える。これにより、ユーザは任意のタイミングにてノブ3に対する操作項目の割当てを解除することができる。
実施の形態4.
 図21は、実施の形態4に係る操作入力装置の要部を示すブロック図である。図21を参照して、実施の形態4の操作入力装置300cについて説明する。なお、図21において、図2におけるブロックと同様のブロックには同一符号を付して説明を省略する。
 実施の形態1にて説明したとおり、ノブ3に対する操作項目の割当ては、所定の解除条件が満たされるまで維持されるようになっている。具体的には、例えば、ノブ3に対する操作項目の割当ては、ノブ3がディスプレイ1から取り外されるまで維持される。
 このとき、維持制御部25は、ノブ3に割り当てられている操作項目と異なる他の操作項目(以下、単に「他の操作項目」という。)に対応する操作用画像にノブ3が重畳されている状態になったとしても、ノブ3に対する操作項目の割当てを維持する制御を実行するものである。すなわち、維持制御部25は、表示領域A内にノブ3が配置されており、かつ、ノブ3に操作項目が割り当てられている状態にて、他の操作項目に対応する操作用画像にノブ3が重畳している状態になったとき、ノブ3に対する操作項目の割当てを維持する制御を実行するものである。
 例えば、図22Aに示す如く、表示領域A内にノブ3が配置されており、かつ、ノブ3に操作項目I’が割り当てられている。これに対して、図22Bに示す如く、ユーザがノブ3を移動させることにより、他の操作項目I’に対応する操作用画像Iにノブ3が重畳している状態になったものとする。維持制御部25は、このような場合であっても、ノブ3に対する操作項目I’の割当てを維持するものである。図中、L2は、表示領域Aにおけるノブ3の中心部に対応する点の軌跡を示している。また、L2は、表示領域Aにおける操作用画像Iの中心部に対応する点の軌跡を示している。
 さらに、図22Cに示す如く、ユーザがノブ3を移動させることにより、他の操作項目I’に対応する操作用画像Iにノブ3が重畳している状態になったものとする。維持制御部25は、このような場合であっても、ノブ3に対する操作項目I’の割当てを維持するものである。図中、L3は、表示領域Aにおけるノブ3の中心部に対応する点の軌跡を示している。また、L3は、表示領域Aにおける操作用画像Iの中心部に対応する点の軌跡を示している。
 これにより、ノブ3の配置位置にかかわらず(すなわち他の操作項目I’,I’に対応する操作用画像I,Iに対するノブ3の重畳の有無にかかわらず)、ノブ3に割り当てられている操作項目I’に係る操作入力を継続することができる。
 割当制御部21、追従制御部22及び維持制御部25により、操作割当制御装置100cの要部が構成されている。表示制御部11、タッチ点検出部12、ノブ判定部16、操作入力制御部17及び操作割当制御装置100cにより、制御装置200cの要部が構成されている。ノブオンディスプレイ6、制御基板7及び制御装置200cにより、操作入力装置300cの要部が構成されている。なお、図21において制御基板7は図示を省略している。
 制御装置200cの要部のハードウェア構成は、実施の形態1にて図9を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、表示制御部11、タッチ点検出部12、ノブ判定部16、操作入力制御部17、割当制御部21、追従制御部22及び維持制御部25の各々の機能は、プロセッサ31及びメモリ32により実現されるものであっても良く、又は処理回路33により実現されるものであっても良い。
 図23のフローチャートは、維持制御部25の動作を示している。図23に示す如く、維持制御部25は、表示領域A内にノブ3が配置されており(ステップST41“YES”)、かつ、ノブ3に操作項目が割り当てられている状態にて(ステップST42“YES”)、他の操作項目に対応する操作用画像にノブ3が重畳している状態になったとき(ステップST43“YES”)、ノブ3に対する操作項目の割当てを維持する制御を実行する(ステップST44)。
 なお、仮にステップST43の判定結果が“NO”であったとして、上記のとおりノブ3に対する操作項目の割当ては維持されるようになっている。
 なお、操作割当制御装置100cは、実施の形態1にて説明したものと同様の種々の変形例を採用することができる。例えば、割当制御部21は、制御装置200c内にて操作割当制御装置100c外に設けられているものであっても良い。また、例えば、表示制御部11は、操作割当制御装置100c内に設けられているものであっても良い。
 また、操作割当制御装置100cは、実施の形態2にて説明したものと同様の第1解除制御部23を有するものであっても良い。また、操作割当制御装置100cは、実施の形態3にて説明したものと同様の第2解除制御部24を有するものであっても良い。
 以上のように、実施の形態4の操作割当制御装置100cは、表示領域A内にノブ3が配置されており、かつ、ノブ3に操作項目が割り当てられている状態にて、当該割り当てられている操作項目と異なる他の操作項目に対応する操作用画像にノブ3が重畳している状態になったとき、当該割り当てられている操作項目を維持する制御を実行する維持制御部25を備える。これにより、ノブ3の配置位置にかかわらず、ノブ3に割り当てられている操作項目に係る操作入力を継続することができる。
実施の形態5.
 図24は、実施の形態5に係る操作入力装置の要部を示すブロック図である。図24を参照して、実施の形態5の操作入力装置300dについて説明する。なお、図24において、図2におけるブロックと同様のブロックには同一符号を付して説明を省略する。
 図24に示す如く、操作入力装置300dは車両8に設けられている。具体的には、例えば、操作入力装置300dは、車両8のセンタークラスターに設けられている。
 車両8は、運転者監視システム9を有している。運転者監視システム9は、車室内撮像用のカメラ(不図示)による撮像画像に対する画像認識処理を実行することにより、車両8の運転者が運転不能状態(いわゆる「デッドマン」)であるか否かを判定するものである。また、運転者監視システム9は、当該撮像画像に対する画像認識処理を実行することにより、車両8の運転者が居眠り運転状態であるか否かを判定するものである。また、運転者監視システム9は、当該撮像画像に対する画像認識処理を実行することにより、車両8の運転者が脇見運転状態であるか否かを判定するものである。
 ここで、脇見運転状態とは、車両8の走行中に車両8の運転者(以下、単に「運転者」という。)の視線が車両8の進行方向と異なる方向に向けられている状態のことである。運転者監視システム9は、車両8の走行中に運転者の視線が車両8の進行方向と異なる方向に向けられている状態であると判定された場合、その旨を示す情報(以下「視線情報」という。)を出力する機能を有している。
 視線情報取得部18は、運転者監視システム9により出力された視線情報を取得するものである。
 禁止制御部26は、視線情報取得部18により取得された視線情報を用いて、車両8の走行中に運転者の視線が車両8の進行方向と異なる方向に向けられている状態の継続時間、すなわち脇見運転状態の継続時間を算出するものである。禁止制御部26は、当該算出された継続時間が所定の時間(以下「第2基準時間」という。)を超えたとき、ノブ3に対する操作項目の割当てを禁止する制御を実行するとともに、ノブ3に対する操作項目の割当ての解除を禁止する制御を実行するものである。第2基準時間は、例えば、数秒~十数秒程度の値に設定されている。
 割当制御部21、追従制御部22及び禁止制御部26により、操作割当制御装置100dの要部が構成されている。表示制御部11、タッチ点検出部12、ノブ判定部16、操作入力制御部17、視線情報取得部18及び操作割当制御装置100dにより、制御装置200dの要部が構成されている。ノブオンディスプレイ6、制御基板7及び制御装置200dにより、操作入力装置300dの要部が構成されている。なお、図24において制御基板7は図示を省略している。
 制御装置200dの要部のハードウェア構成は、実施の形態1にて図9を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、表示制御部11、タッチ点検出部12、ノブ判定部16、操作入力制御部17、視線情報取得部18、割当制御部21、追従制御部22及び禁止制御部26の各々の機能は、プロセッサ31及びメモリ32により実現されるものであっても良く、又は処理回路33により実現されるものであっても良い。
 図25のフローチャートは、禁止制御部26の動作を示している。図25に示す如く、禁止制御部26は、脇見運転状態の継続時間が第2基準時間を超えたとき(ステップST51“YES”)、ノブ3に対する操作項目の割当てを禁止する制御を実行するとともに、ノブ3に対する操作項目の割当ての解除を禁止する制御を実行する(ステップST52)。
 なお、禁止制御部26は、ノブ3に対する操作項目の割当てを禁止する制御又はノブ3に対する操作項目の割当ての解除を禁止する制御のうちのいずれか一方のみを実行するものであっても良い。
 また、操作割当制御装置100dは、実施の形態1にて説明したものと同様の種々の変形例を採用することができる。例えば、割当制御部21は、制御装置200d内にて操作割当制御装置100d外に設けられているものであっても良い。また、例えば、表示制御部11は、操作割当制御装置100d内に設けられているものであっても良い。
 また、操作割当制御装置100dは、実施の形態2にて説明したものと同様の第1解除制御部23を有するものであっても良い。また、操作割当制御装置100dは、実施の形態3にて説明したものと同様の第2解除制御部24を有するものであっても良い。また、操作割当制御装置100dは、実施の形態4にて説明したものと同様の維持制御部25を有するものであっても良い。
 以上のように、実施の形態5において、ノブオンディスプレイ6は車載用であり、操作割当制御装置100dは、車両8の走行中に運転者の視線が車両8の進行方向と異なる方向に向けられている状態(脇見運転状態)の継続時間が第2基準時間を超えたとき、ノブ3に対する操作項目の割当てを禁止する制御を実行する禁止制御部26を備える。これにより、車両8の走行中、ノブ3に対する操作項目の割当てを変更するために脇見運転がなされるのを抑制することができる。
実施の形態6.
 図26は、実施の形態6に係る操作入力装置の要部を示すブロック図である。図26を参照して、実施の形態6の操作入力装置300eについて説明する。なお、図26において、図2におけるブロックと同様のブロックには同一符号を付して説明を省略する。また、図26において、図24に示すブロックと同様のブロックには同一符号を付して説明を省略する。
 非表示制御部27は、視線情報取得部18により取得された視線情報を用いて、車両8の走行中に運転者の視線が車両8の進行方向と異なる方向に向けられている状態の継続時間、すなわち脇見運転状態の継続時間を算出するものである。非表示制御部27は、当該算出された継続時間が所定の時間(以下「第3基準時間」という。)を超えたとき、ディスプレイ1における全ての操作用画像を非表示にする制御を実行するものである。すなわち、非表示制御部27は、ディスプレイ1における全ての操作用画像を非表示にするように表示制御部11に指示するものである。第3基準時間は、例えば、数秒~十数秒程度の値に設定されている
 全ての操作用画像が非表示になることにより、操作入力制御部17において全ての操作項目に係る操作が無効化された状態となる。これにより、車両8の走行中、ノブ3を操作するために脇見運転がなされるのを抑制することができる。また、全ての操作用画像が非表示になることにより、割当制御部21による操作項目の割当ても実質無効化された状態となる。これにより、車両8の走行中、ノブ3に対する操作項目の割当てを変更するために脇見運転がなされるのを抑制することができる。
 割当制御部21、追従制御部22及び非表示制御部27により、操作割当制御装置100eの要部が構成されている。表示制御部11、タッチ点検出部12、ノブ判定部16、操作入力制御部17、視線情報取得部18及び操作割当制御装置100eにより、制御装置200eの要部が構成されている。ノブオンディスプレイ6、制御基板7及び制御装置200eにより、操作入力装置300eの要部が構成されている。なお、図26において制御基板7は図示を省略している。
 制御装置200eの要部のハードウェア構成は、実施の形態1にて図9を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、表示制御部11、タッチ点検出部12、ノブ判定部16、操作入力制御部17、視線情報取得部18、割当制御部21、追従制御部22及び非表示制御部27の各々の機能は、プロセッサ31及びメモリ32により実現されるものであっても良く、又は処理回路33により実現されるものであっても良い。
 図27のフローチャートは、非表示制御部27の動作を示している。図27に示す如く、非表示制御部27は、脇見運転状態の継続時間が第3基準時間を超えたとき(ステップST61“YES”)、ディスプレイ1における全ての操作用画像を非表示にする制御を実行する(ステップST62)。
 なお、非表示制御部27は、脇見運転状態の継続時間が第3基準時間を超えたとき、一部の操作用画像のみを非表示にするものであっても良い。例えば、非表示制御部27は、ノブ3に割り当てられている操作項目に対応する操作用画像のみを非表示にするものであっても良い。
 また、操作割当制御装置100eは、実施の形態1にて説明したものと同様の種々の変形例を採用することができる。例えば、割当制御部21は、制御装置200e内にて操作割当制御装置100e外に設けられているものであっても良い。また、例えば、表示制御部11は、操作割当制御装置100e内に設けられているものであっても良い。
 また、操作割当制御装置100eは、実施の形態2にて説明したものと同様の第1解除制御部23を有するものであっても良い。また、操作割当制御装置100eは、実施の形態3にて説明したものと同様の第2解除制御部24を有するものであっても良い。また、操作割当制御装置100eは、実施の形態4にて説明したものと同様の維持制御部25を有するものであっても良い。また、操作割当制御装置100eは、実施の形態5にて説明したものと同様の禁止制御部26を有するものであっても良い。
 また、操作割当制御装置100eが禁止制御部26を有するものである場合、非表示制御部27における第3基準時間は、禁止制御部26における第2基準時間と同等の値に設定されているものであっても良く、又は異なる値に設定されているものであっても良い。
 以上のように、実施の形態6において、ノブオンディスプレイ6は車載用であり、車両8の走行中に運転者の視線が車両8の進行方向と異なる方向に向けられている状態(脇見運転状態)の継続時間が第3基準時間を超えたとき、ディスプレイ1における操作用画像を非表示にする制御を実行する非表示制御部27を備える。これにより、車両8の走行中、ノブ3を操作するために脇見運転がなされるのを抑制することができる。また、車両8の走行中、ノブ3に対する操作項目の割当てを変更するために脇見運転がなされるのを抑制することができる。
実施の形態7.
 図28は、実施の形態7に係る操作入力装置の要部を示すブロック図である。図28を参照して、実施の形態7の操作入力装置300fについて説明する。なお、図28において、図2におけるブロックと同様のブロックには同一符号を付して説明を省略する。また、図28において、図24に示すブロックと同様のブロックには同一符号を付して説明を省略する。
 無効化制御部28は、視線情報取得部18により取得された視線情報を用いて、車両8の走行中に運転者の視線が車両8の進行方向と異なる方向に向けられている状態の継続時間、すなわち脇見運転状態の継続時間を算出するものである。無効化制御部28は、当該算出された継続時間が所定の時間(以下「第4基準時間」という。)を超えたとき、ノブ3による全ての操作項目に係る操作入力を無効化する制御を実行するものである。すなわち、無効化制御部28は、ノブ3による全ての操作項目に係る操作入力を無効化するように操作入力制御部17に指示するものである。第4基準時間は、例えば、数秒~十数秒程度の値に設定されている。
 割当制御部21、追従制御部22及び無効化制御部28により、操作割当制御装置100fの要部が構成されている。表示制御部11、タッチ点検出部12、ノブ判定部16、操作入力制御部17、視線情報取得部18及び操作割当制御装置100fにより、制御装置200fの要部が構成されている。ノブオンディスプレイ6、制御基板7及び制御装置200fにより、操作入力装置300fの要部が構成されている。なお、図28において制御基板7は図示を省略している。
 制御装置200fの要部のハードウェア構成は、実施の形態1にて図9を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、表示制御部11、タッチ点検出部12、ノブ判定部16、操作入力制御部17、視線情報取得部18、割当制御部21、追従制御部22及び無効化制御部28の各々の機能は、プロセッサ31及びメモリ32により実現されるものであっても良く、又は処理回路33により実現されるものであっても良い。
 図29のフローチャートは、無効化制御部28の動作を示している。図29に示す如く、無効化制御部28は、脇見運転状態の継続時間が第4基準時間を超えたとき(ステップST71“YES”)、ノブ3による全ての操作項目に係る操作入力を無効化する制御を実行する(ステップST72)。
 なお、無効化制御部28は、脇見運転状態の継続時間が第4基準時間を超えたとき、一部の操作項目に係る操作入力のみを無効化するものであっても良い。例えば、無効化制御部28は、ノブ3に割り当てられている操作項目に係る操作入力のみを無効化するものであっても良い。
 また、操作割当制御装置100fは、実施の形態1にて説明したものと同様の種々の変形例を採用することができる。例えば、割当制御部21は、制御装置200f内にて操作割当制御装置100f外に設けられているものであっても良い。また、例えば、表示制御部11は、操作割当制御装置100f内に設けられているものであっても良い。
 また、操作割当制御装置100fは、実施の形態2にて説明したものと同様の第1解除制御部23を有するものであっても良い。また、操作割当制御装置100fは、実施の形態3にて説明したものと同様の第2解除制御部24を有するものであっても良い。また、操作割当制御装置100fは、実施の形態4にて説明したものと同様の維持制御部25を有するものであっても良い。また、操作割当制御装置100fは、実施の形態5にて説明したものと同様の禁止制御部26を有するものであっても良い。また、操作割当制御装置100fは、実施の形態6にて説明したものと同様の非表示制御部27を有するものであっても良い。
 また、操作割当制御装置100fが禁止制御部26を有するものである場合、無効化制御部28における第4基準時間は、禁止制御部26における第2基準時間と同等の値に設定されているものであっても良く、又は異なる値に設定されているものであっても良い。
 また、操作割当制御装置100fが非表示制御部27を有するものである場合、無効化制御部28における第4基準時間は、非表示制御部27における第3基準時間と同等の値に設定されているものであっても良く、又は異なる値に設定されているものであっても良い。
 以上のように、実施の形態7において、ノブオンディスプレイ6は車載用であり、車両8の走行中に運転者の視線が車両8の進行方向と異なる方向に向けられている状態(脇見運転状態)の継続時間が第4基準時間を超えたとき、ノブ3による操作入力を無効化する制御を実行する無効化制御部28を備える。これにより、車両8の走行中、ノブ3を操作するために脇見運転がなされるのを抑制することができる。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 本発明の操作割当制御装置、操作割当制御方法及び操作入力装置は、例えば、車載情報機器に用いることができる。
 1 ディスプレイ、2 タッチパネル、3 ノブ、4 中空部、5~5 導体柱、6 ノブオンディスプレイ、7 制御基板、8 車両、9 運転者監視システム、11 表示制御部、12 タッチ点検出部、13 ノブ有無判定部、14 ノブ位置判定部、15 ノブ動作判定部、16 ノブ判定部、17 操作入力制御部、18 視線情報取得部、21 割当制御部、22 追従制御部、23 第1解除制御部、24 第2解除制御部、25 維持制御部、26 禁止制御部、27 非表示制御部、28 無効化制御部、31 プロセッサ、32 メモリ、33 処理回路、100,100a,100b,100c,100d,100e,100f 操作割当制御装置、200,200a,200b,200c,200d,200e,200f 制御装置、300,300a,300b,300c,300d,300e,300f 操作入力装置。

Claims (18)

  1.  ノブオンディスプレイ用のディスプレイの表示領域内に前記ノブオンディスプレイ用のノブが配置されており、かつ、前記ノブに操作項目が割り当てられている状態にて、当該割り当てられている操作項目に対応する操作用画像の表示位置を前記ノブの配置位置に追従させる制御を実行する追従制御部を備えることを特徴とする操作割当制御装置。
  2.  前記表示領域内に前記ノブが配置されたとき、前記ノブに操作項目が割り当てられていない状態である場合、前記ノブに操作項目を割り当てる制御を実行する割当制御部を備えることを特徴とする請求項1記載の操作割当制御装置。
  3.  前記割当制御部は、前記表示領域内に1個の操作用画像が表示されている状態にて、当該1個の操作用画像に重畳するように前記ノブが配置されたとき、当該1個の操作用画像に対応する操作項目を前記ノブに割り当てることを特徴とする請求項2記載の操作割当制御装置。
  4.  前記割当制御部は、前記表示領域内に1個の操作用画像が表示されている状態にて、当該1個の操作用画像に重畳しないように前記ノブが配置されたとき、当該1個の操作用画像に対応する操作項目を前記ノブに割り当てることを特徴とする請求項2記載の操作割当制御装置。
  5.  前記割当制御部は、前記表示領域内に複数個の操作用画像が表示されている状態にて、当該複数個の操作用画像のうちのいずれか1個の操作用画像に重畳するように前記ノブが配置されたとき、当該いずれか1個の操作用画像に対応する操作項目を前記ノブに割り当てることを特徴とする請求項2記載の操作割当制御装置。
  6.  前記割当制御部は、前記表示領域内に複数個の操作用画像が表示されている状態にて、当該複数個の操作用画像のうちのいずれか2個以上の操作用画像に重畳するように前記ノブが配置されたとき、当該いずれか2個以上の操作用画像が前記ノブに最後に割り当てられていた操作項目に対応する操作用画像を含むものである場合、前記ノブに最後に割り当てられていた操作項目と同一の操作項目を前記ノブに割り当てることを特徴とする請求項2記載の操作割当制御装置。
  7.  前記割当制御部は、前記表示領域内に複数個の操作用画像が表示されている状態にて、当該複数個の操作用画像のうちのいずれか2個以上の操作用画像に重畳するように前記ノブが配置されたとき、当該いずれか2個以上の操作用画像が前記ノブに最後に割り当てられていた操作項目に対応する操作用画像を含まないものである場合、当該いずれか2個以上の操作用画像のうちの前記ノブに対する重畳面積が最も大きい操作用画像に対応する操作項目を前記ノブに割り当てることを特徴とする請求項2記載の操作割当制御装置。
  8.  前記割当制御部は、前記表示領域内に複数個の操作用画像が表示されている状態にて、当該複数個の操作用画像のうちのいずれの操作用画像にも重畳しないように前記ノブが配置されたとき、前記ノブに最後に割り当てられていた操作項目と同一の操作項目を前記ノブに割り当てることを特徴とする請求項2記載の操作割当制御装置。
  9.  前記表示領域内に前記ノブが配置されており、かつ、前記ノブに操作項目が割り当てられている状態にて、前記ノブによる操作入力がない状態の継続時間が第1基準時間を超えたとき、前記ノブに対する操作項目の割当てを解除する制御を実行する第1解除制御部を備えることを特徴とする請求項1記載の操作割当制御装置。
  10.  前記表示領域内に前記ノブが配置されており、かつ、前記ノブに操作項目が割り当てられている状態にて、前記ノブによる解除用操作の入力がなされたとき、前記ノブに対する操作項目の割当てを解除する制御を実行する第2解除制御部を備えることを特徴とする請求項1記載の操作割当制御装置。
  11.  前記表示領域内に前記ノブが配置されており、かつ、前記ノブに操作項目が割り当てられている状態にて、当該割り当てられている操作項目と異なる他の操作項目に対応する操作用画像に前記ノブが重畳している状態になったとき、前記ノブに対する操作項目の割当てを維持する制御を実行する維持制御部を備えることを特徴とする請求項1記載の操作割当制御装置。
  12.  前記ノブは中空部を有し、
     前記表示領域内に前記ノブが配置されており、かつ、前記ノブに操作項目が割り当てられている状態にて、当該割り当てられている操作項目に対応する操作用画像が前記中空部にて視認可能な態様により前記ディスプレイに表示させる制御を実行する表示制御部を備える
     ことを特徴とする請求項1記載の操作割当制御装置。
  13.  前記ノブオンディスプレイは車載用であり、
     車両の走行中に運転者の視線が前記車両の進行方向と異なる方向に向けられている状態の継続時間が第2基準時間を超えたとき、前記ノブに対する操作項目の割当てを禁止する制御を実行する禁止制御部を備える
     ことを特徴とする請求項1記載の操作割当制御装置。
  14.  前記ノブオンディスプレイは車載用であり、
     車両の走行中に運転者の視線が前記車両の進行方向と異なる方向に向けられている状態の継続時間が第3基準時間を超えたとき、前記ディスプレイにおける操作用画像を非表示にする制御を実行する非表示制御部を備える
     ことを特徴とする請求項1記載の操作割当制御装置。
  15.  前記ノブオンディスプレイは車載用であり、
     車両の走行中に運転者の視線が前記車両の進行方向と異なる方向に向けられている状態の継続時間が第4基準時間を超えたとき、前記ノブによる操作入力を無効化する制御を実行する無効化制御部を備える
     ことを特徴とする請求項1記載の操作割当制御装置。
  16.  前記ノブは円筒状であり、
     前記ノブの内部に3本以上の導体柱が設けられており、
     前記ノブが前記表示領域内に配置されている状態にて、前記3本以上の導体柱が前記ディスプレイと一体型のタッチパネルに対する3個以上のタッチ点として検出されるものである
     ことを特徴とする請求項1記載の操作割当制御装置。
  17.  追従制御部が、ノブオンディスプレイ用のディスプレイの表示領域内に前記ノブオンディスプレイ用のノブが配置されており、かつ、前記ノブに操作項目が割り当てられている状態にて、当該割り当てられている操作項目に対応する操作用画像の表示位置を前記ノブの配置位置に追従させる制御を実行するステップを備えることを特徴とする操作割当制御方法。
  18.  ノブオンディスプレイ用のディスプレイと、
     前記ノブオンディスプレイ用のノブと、
     前記ディスプレイの表示領域内に前記ノブが配置されており、かつ、前記ノブに操作項目が割り当てられている状態にて、当該割り当てられている操作項目に対応する操作用画像の表示位置を前記ノブの配置位置に追従させる制御を実行する追従制御部を備える操作割当制御装置と、
     を備えることを特徴とする操作入力装置。
PCT/JP2018/010783 2018-03-19 2018-03-19 操作割当制御装置、操作割当制御方法及び操作入力装置 WO2019180774A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020508117A JP7003225B2 (ja) 2018-03-19 2018-03-19 操作割当制御装置、操作割当制御方法及び操作入力装置
PCT/JP2018/010783 WO2019180774A1 (ja) 2018-03-19 2018-03-19 操作割当制御装置、操作割当制御方法及び操作入力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/010783 WO2019180774A1 (ja) 2018-03-19 2018-03-19 操作割当制御装置、操作割当制御方法及び操作入力装置

Publications (1)

Publication Number Publication Date
WO2019180774A1 true WO2019180774A1 (ja) 2019-09-26

Family

ID=67988386

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/010783 WO2019180774A1 (ja) 2018-03-19 2018-03-19 操作割当制御装置、操作割当制御方法及び操作入力装置

Country Status (2)

Country Link
JP (1) JP7003225B2 (ja)
WO (1) WO2019180774A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021062663A (ja) * 2019-10-10 2021-04-22 パイオニア株式会社 端末装置及び車載システム
WO2022230165A1 (ja) * 2021-04-30 2022-11-03 三菱電機株式会社 操作制御装置、操作制御システムおよび操作制御方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015093568A (ja) * 2013-11-12 2015-05-18 株式会社デンソー 車載装置
JP2015230693A (ja) * 2014-06-06 2015-12-21 キヤノン株式会社 情報処理装置、入力方法、コンピュータプログラム、及び記録媒体
JP2016162132A (ja) * 2015-02-27 2016-09-05 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2016166793A1 (ja) * 2015-04-13 2016-10-20 三菱電機株式会社 操作具、入力装置および電子機器

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060256090A1 (en) 2005-05-12 2006-11-16 Apple Computer, Inc. Mechanical overlay
JP2012035782A (ja) 2010-08-09 2012-02-23 Clarion Co Ltd 車載装置
JP5705767B2 (ja) 2012-02-28 2015-04-22 日本電信電話株式会社 操作情報入力システム及び操作情報入力システムによって実行されるコンテンツ検索方法
TWI475438B (zh) * 2012-08-13 2015-03-01 Wistron Corp 旋鈕控制裝置與觸控面板的操作方法
US9158422B2 (en) 2012-12-14 2015-10-13 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Capacitive rotary encoder
JP6467655B2 (ja) 2015-04-22 2019-02-13 カルソニックカンセイ株式会社 車両用情報入力装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015093568A (ja) * 2013-11-12 2015-05-18 株式会社デンソー 車載装置
JP2015230693A (ja) * 2014-06-06 2015-12-21 キヤノン株式会社 情報処理装置、入力方法、コンピュータプログラム、及び記録媒体
JP2016162132A (ja) * 2015-02-27 2016-09-05 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2016166793A1 (ja) * 2015-04-13 2016-10-20 三菱電機株式会社 操作具、入力装置および電子機器

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021062663A (ja) * 2019-10-10 2021-04-22 パイオニア株式会社 端末装置及び車載システム
WO2022230165A1 (ja) * 2021-04-30 2022-11-03 三菱電機株式会社 操作制御装置、操作制御システムおよび操作制御方法

Also Published As

Publication number Publication date
JPWO2019180774A1 (ja) 2020-10-22
JP7003225B2 (ja) 2022-01-20

Similar Documents

Publication Publication Date Title
US9489500B2 (en) Manipulation apparatus
US11188296B2 (en) Human-vehicle interaction
KR101503108B1 (ko) 사용자가 디스플레이 객체의 표시에 영향을 미칠 수 있는 자동차의 디스플레이 및 조작 시스템과 그 디스플레이 및 조작 시스템을 작동하는 방법
JP6851482B2 (ja) 操作支援装置および操作支援方法
US10618528B2 (en) Driving assistance apparatus
JP2013159273A (ja) 車載操作装置
JP7046807B2 (ja) 応答性ヒューマン・マシン・インタフェース
WO2017033729A1 (ja) 表示制御装置
JP2017504895A (ja) チュートリアルを伴う運転後の総括
CN104723964B (zh) 用于车辆的曲面显示设备
US10635225B2 (en) Steering wheel, vehicle having the steering wheel, and method for controlling the vehicle
JP6244822B2 (ja) 車載用表示システム
EP2365293B1 (en) Device for drawing image to be moved and display system for vehicle
WO2013099216A1 (ja) 表示制御装置
WO2019180774A1 (ja) 操作割当制御装置、操作割当制御方法及び操作入力装置
CN110167818A (zh) 与带有自动化操作处理的建议系统进行交互的方法和组件
JP2017111711A (ja) 車両用操作装置
JP5201480B2 (ja) 車両用操作装置
JP2019119368A (ja) 車両用表示装置
WO2021029178A1 (ja) コンテントの表示制御装置、表示制御方法及び表示制御プログラム
JP2016097928A (ja) 車両用表示制御装置
CN108430821A (zh) 具有至少一个雷达单元的机动车
JP6135400B2 (ja) 表示装置
JP2009250933A (ja) 車両用ナビゲーション装置
JP2002133401A (ja) 操作者判定方法及び操作者判定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18910417

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020508117

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18910417

Country of ref document: EP

Kind code of ref document: A1