BR112014019490B1 - Método para gerenciamento de orientação de tela de um dispositivo eletrônico portátil e dispositivo eletrônico portátil capaz de gerir orientação de tela - Google Patents

Método para gerenciamento de orientação de tela de um dispositivo eletrônico portátil e dispositivo eletrônico portátil capaz de gerir orientação de tela Download PDF

Info

Publication number
BR112014019490B1
BR112014019490B1 BR112014019490-4A BR112014019490A BR112014019490B1 BR 112014019490 B1 BR112014019490 B1 BR 112014019490B1 BR 112014019490 A BR112014019490 A BR 112014019490A BR 112014019490 B1 BR112014019490 B1 BR 112014019490B1
Authority
BR
Brazil
Prior art keywords
electronic device
image
sensor
portable electronic
orientation
Prior art date
Application number
BR112014019490-4A
Other languages
English (en)
Other versions
BR112014019490A8 (pt
BR112014019490A2 (pt
Inventor
Hong Zhao
LieJun Tao
Dean E. Thorson
Original Assignee
Motorola Mobility Llc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Mobility Llc filed Critical Motorola Mobility Llc
Publication of BR112014019490A2 publication Critical patent/BR112014019490A2/pt
Publication of BR112014019490A8 publication Critical patent/BR112014019490A8/pt
Publication of BR112014019490B1 publication Critical patent/BR112014019490B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

método para gerenciamento de orientação de tela de um dispositivo eletrônico portátil. é descrito um dispositivo eletrônico portátil (100, 200) capaz de gerir a orientação de tela. o dispositivo eletrônico portátil (100, 200) compreende uma tela (107, 207), um sensor de movimento (219), um sensor de imagem (109, 221) e um processador (203). a tela (107, 207) fornece uma imagem (101) em uma primeira orientação. o sensor de movimento (219) tenta detectar uma rotação do dispositivo eletrônico portátil (100, 200). o sensor de imagem (109, 221) tenta detectar uma ou mais características de corpo. o processador (203) determina uma segunda orientação da imagem (101) para a tela (107, 207) com base na rotação detectada pelo sensor de movimento (219) e / ou a característica ou características de corpo detectadas pelo sensor de imagem (109 , 221). o dispositivo eletrônico portátil (100) pode determinar a orientação da imagem (101) na tela (107, 207) em resposta à detecção da rotação no sensor de movimento (219) e / ou a característica ou características de corpo no sensor de imagem (109, 221).

Description

CAMPO DA INVENÇÃO
[001] A presente invenção refere-se a um dispositivo eletrônico portátil e mais particularmente a um método para gestão de orientação de tela de um dispositivo eletrônico portátil.
ANTECEDENTES DA INVENÇÃO
[002] Aparelhos eletrônicos portáteis estão cada vez mais sendo usados para acessar conteúdos, aplicativos e funcionalidades. Por exemplo, um dispositivo eletrônico portátil pode incluir uma tela sensível ao toque que permite interagir diretamente com o que é exibido. A tela sensível ao toque pode ser utilizada para ativar uma função do dispositivo eletrônico ou de outra forma interagir com um usuário. Os usuários costumam usar a tela sensível ao toque em duas orientações básicas, ou seja, uma orientação de retrato em que a tela é vista verticalmente e uma orientação de paisagem em que a tela é vista horizontalmente.
[003] Um dispositivo eletrônico portátil pode incluir um acelerômetro para ajudar com rotações retrato para paisagem e rotações paisagem para retrato de sua tela. O acelerômetro do dispositivo mede orientação de dispositivo relativa à gravidade da Terra e, em seguida, gira a tela de acordo. Devido aos limites de lei da física, a orientação não pode ser resolvida quando o dispositivo encontra-se horizontalmente em relação à superfície do solo. De fato, rotação automática de tela geralmente não funciona quando o dispositivo é mais horizontal do que vertical em relação à superfície do solo. Muitos usuários, principalmente aqueles que entendem as limitações físicas de rotação de tela convencional, evitam o problema posicionando o dispositivo verticalmente sempre que rotação de tela é desejada.
BREVE DESCRIÇÃO DOS DESENHOS
As Figuras 1A e IB são vistas em perspectiva de uma modalidade de um dispositivo eletrônico portátil de acordo com a presente invenção. A Figura 2 é um diagrama de blocos representando os componentes internos de exemplo de um dispositivo eletrônico portátil de acordo com a presente invenção. As Figuras 3A e 3B são vistas em perspectiva ilustrando vistas do sensor de imagem de um dispositivo eletrônico portátil de acordo com a presente invenção. A Figura 4 é uma vista lateral plana de uma modalidade de um dispositivo eletrônico portátil mostrado em vários ângulos em relação à superfície do solo. A Figura 5 é um fluxograma representando um exemplo de operação de um dispositivo eletrônico portátil de acordo com a presente invenção. A Figura 6 é um fluxograma representando outro exemplo de operação de um dispositivo eletrônico portátil, de acordo com a presente invenção. A Figura 7 é um fluxograma representando ainda um outro exemplo de operação de um dispositivo eletrônico portátil de acordo com a presente invenção.
DESCRIÇÃO DETALHADA DAS MODALIDADES
[004] É descrito um aparelho eletrônico portátil, e método do mesmo, para gestão de rotação automática de uma imagem ou objeto em um componente de saída (tal como uma tela) do dispositivo. Um primeiro sensor (tal como um sensor de movimento) do dispositivo é usado para detectar movimento de rotação do dispositivo, e um segundo sensor (tal como um gerador de imagens capaz de detectar a imagem fixa e / ou vídeo de movimento) é utilizado para determinar a orientação da imagem ou objeto em relação ao componente de saída. Em particular, o segundo sensor aumenta a capacidade do dispositivo para determinar se a imagem ou objeto deverá estar em uma orientação de retrato ou uma orientação de paisagem.
[005] Para uma modalidade, o segundo sensor pode ser ativado em resposta ao primeiro sensor detectando que o ângulo de inclinação do dispositivo em relação à superfície de solo cai abaixo de um limiar predeterminado. O limiar predeterminado pode ser determinado com base anguladas em que o dispositivo pode não ser capaz de distinguir entre a orientação de retrato e paisagem utilizando um sensor sozinho. Assim, para esta modalidade, o segundo sensor detecta uma característica de corpo de um usuário, como uma característica de face do rosto de um usuário, e, em seguida, a imagem ou o objeto pode ser orientado no componente de saída de acordo com a característica de corpo detectada. Assim, quando um usuário visualiza a imagem ou o objeto no componente de saída, a imagem ou o objeto é fornecido em uma orientação adequada para visualização. Considerando-se o ângulo de inclinação medido pelo primeiro sensor e as características faciais detectadas pelo segundo sensor, rotações de tela paisagem-retrato automáticas podem ser geridas para operar adequadamente em todos os ângulos.
[006] Um aspecto da presente invenção é um método de um dispositivo eletrônico portátil para gestão de orientação de tela. O dispositivo tenta detectar uma rotação em um sensor de movimento, e o dispositivo tenta detectar uma ou mais características de corpo em um sensor de imagem. Depois disso, uma orientação de uma imagem em uma tela é determinada em resposta à detecção da rotação para o sensor de movimento, a característica ou características de corpo no sensor de imagem, ou ambos.
[007] Um outro aspecto da presente invenção é um dispositivo portátil eletrônico capaz de gerir orientação de tela, em que o dispositivo compreende uma tela, um sensor de movimento, um sensor de imagem e um processador. A tela é configurada para fornecer uma imagem em uma primeira orientação. O sensor de movimento é configurado para tentar detectar a rotação do dispositivo eletrônico portátil, e o sensor de imagem é configurado para tentar detectar uma ou mais características de corpo. O processador é configurado para determinar uma segunda orientação da imagem na tela com base na rotação detectada pelo sensor de movimento, a característica ou características de corpo detectadas no sensor de imagem, ou ambos.
[008] Com referência às Figuras 1A e IB, são proporcionadas vistas em perspectiva de uma modalidade de um dispositivo eletrônico portátil 100, de acordo com a presente invenção. O dispositivo eletrônico portátil 100 pode ser qualquer tipo de dispositivo que tem um componente de saída fornecendo um objeto ou imagem 101 e dois ou mais componentes de entrada ou sensores que podem ser utilizados para gestão de uma orientação do componente de saída ou, mais particularmente, o objeto ou imagem 101 fornecido pelo componente de saída. Por exemplo, o dispositivo eletrônico portátil 100 pode incluir uma tela, um sensor de movimento e um sensor de imagem. Exemplos de um dispositivo eletrônico portátil 100 incluem, mas não estão limitados a, um dispositivo de computação, tablet, dispositivo portátil, dispositivo de produtividade, tocador de mídia, leitor de mídia, dispositivo de comunicação (com ou sem fio), scanner, navegador de rede, dispositivo de comércio eletrônico, dispositivo de medição, e outros semelhantes. O dispositivo eletrônico portátil 100 pode ter um de uma variedade de fatores de forma diferentes, incluindo, mas não limitado a um fator de forma de tablet, barra de chocolate, flip / concha, deslizante, deslizante qwerty, rotator, que pode ser vestido (como uma pulseira ou bracelete), ou outros semelhantes. Para a modalidade mostrada na Figura 1, o dispositivo 100 tem uma superfície frontal 103 e uma pluralidade de superfícies laterais 105, substancialmente anguladas a partir da superfície frontal.
[009] O dispositivo eletrônico portátil 100 inclui, pelo menos, um componente de saída e, pelo menos, dois componentes de entrada ou sensores. Para uma modalidade, como a mostrada na Figura 1, o dispositivo 100 inclui uma tela 107 (tal como um LCD, OLED, LED, ou semelhante), que funciona como um elemento de saída. Por outra modalidade, a tela 107 pode incluir uma tela com um sensor ou superfície de toque (capacitivo, resistivo, de temperatura, ou semelhante) que cobre pelo menos uma parte da tela. A superfície frontal da tela 107 pode ser exposta em um ângulo ou vista que é substancialmente paralela à superfície frontal 103 do dispositivo 100. Um objeto ou imagem 101 é fornecido pelo componente de saída.
[0010] O dispositivo eletrônico portátil 100 inclui ainda, pelo menos, dois componentes de entrada ou sensores. Para uma modalidade, como a mostrada na Figura 1, o dispositivo 100 inclui um sensor de movimento (não mostrado) e um sensor de imagem 109. Para outras modalidades, o dispositivo 100 pode incluir vários sensores de movimento, vários sensores de imagem, e um sensor de movimento e outro componente de entrada (tal como um sensor acústico), um sensor de imagem e um outro componente de entrada, ou semelhantes. Exemplos de sensores de movimento incluem, mas não estão limitados a sensores mecânicos e sensores elétricos, tais como um acelerômetro, giroscópio, ou bússola. Exemplos de sensores de imagem incluem, mas não estão limitados a sensores de imagem (incluindo dispositivo de acoplamento de carga e sensores de semicondutores de óxido metálico complementares), sensores de vídeo, sensor de luz, sensores de IR ou de IR próximo, sensores térmicos, sensores multiespectrais, sensores de gama, sensores de raios-x e semelhantes.
[0011] Como representado na Figura 1, sensores podem detectar movimento e / ou orientação em uma direção x 113 e uma direção y 115 do dispositivo 100, que são ambas paralelas à superfície frontal 103 do dispositivo e a tela 107. A direção x 113 e a direção y 115 também são ortogonais entre si. Os sensores podem também detectar movimento em uma direção z 117 do dispositivo 100, a qual é ortogonal em relação à direção x 113 e a direção y 115, bem como a superfície frontal 103 do dispositivo e a tela 107.
[0012] Com referência à Figura 2, é mostrado um diagrama de blocos representando exemplos de componentes 200 que podem ser utilizados para uma modalidade de acordo com a presente invenção. O exemplo de modalidade pode incluir um ou mais transceptores sem fio 201, um ou mais processadores 203, uma ou mais memórias 205, um ou mais componentes de saída 207, e um ou mais componentes de entrada 209. Cada modalidade pode incluir uma interface de usuário que compreende um ou mais componentes de saída 207 e / ou um ou mais componentes de entrada 209. Cada transceptor sem fio 201 pode utilizar tecnologia sem fio para comunicação, tais como, mas não limitado a comunicações com base em celular como as comunicações analógicas (usando AMPS), comunicações digitais (usando CDMA, TDMA, GSM, iDEN, GPRS ou EDGE), e comunicações de próxima geração (usando UMTS, WCDMA, LTE, LTE-A ou IEEE 802.16) e suas variantes, como representado pelo transceptor celular 211. Cada transceptor sem fio 201 pode também utilizar tecnologia sem fio para comunicação, tais como, mas não se limitam a, comunicações ponto a ponto ou ad hoc, tais como HomeRF, Bluetooth e IEEE 802.11 (a, b, g ou n), HDMI sem fio; USB sem fio, e outras formas de comunicação sem fio, tais como a tecnologia de infravermelhos, tal como representado pelo transceptor WLAN 213. Além disso, cada transceptor 201 pode ser um receptor, um transmissor ou ambos.
[0013] O processador 203 pode gerar comandos com base na informação recebida a partir de um ou mais componentes de entrada 209. O processador 203 pode processar a informação recebida por si só ou em combinação com outros dados, tais como a informação armazenada na memória 205. Assim, a memória 205 dos componentes internos 200 pode ser utilizada pelo processador 203 para armazenar e recuperar dados. Os dados que podem ser armazenados pela memória 205 incluem, mas não se limitando a, sistemas operacionais, aplicativos e dados. Cada sistema operacional inclui um código executável que controla as funções básicas do dispositivo eletrônico portátil 100, como a interação entre os componentes dos componentes internos 200, comunicação com dispositivos externos através de cada transceptor 201 e / ou a interface de dispositivo (veja abaixo), e armazenamento e recuperação de aplicativos e dados de e para a memória 205. Cada aplicativo inclui código executável utilizando um sistema operacional para fornecer funcionalidade mais específica para o dispositivo eletrônico portátil. Dados são códigos ou informações não executáveis que possam ser referenciados e / ou manipulados por um sistema operacional ou aplicativo para desempenhar as funções do dispositivo eletrônico portátil 100.
[0014] Os componentes de entrada 209, tal como um sensor de movimento, um sensor de imagem, uma superfície sensível ao toque de uma tela, ou outros componentes da interface de usuário, podem produzir um sinal de entrada em resposta a uma entrada de usuário. Por exemplo, o dispositivo 100 pode incluir um ou mais sensores de movimento, tais como um acelerômetro ou bússola. Para um outro exemplo, o dispositivo 100 pode incluir um ou mais sensores de imagem, tal como uma câmera, um dispositivo de acoplamento de carga, sensores de semicondutores de óxido metálico complementares, sensores de vídeo, sensor de luz, ou sensores de IR ou de IR próximo, sensores térmicos, sensores multiespectrais, sensores de gama, sensores de raio-x, ou similares. Além disso, os componentes de entrada 209 podem incluir um componente de entrada de áudio, como um microfone, ou outro tipo de componente de entrada mecânico ou ativador como sensores de seleção de botão ou tecla ou comutador.
[0015] Da mesma forma, os componentes de saída 207 dos componentes internos 200 podem incluir um ou mais de saídas de vídeo, áudio e / ou mecânicas. Por exemplo, os componentes de saída 207 podem incluir a tela visível, como a tela 107. Outros componentes de saída 207 podem incluir um componente de saída de vídeo, como uma tela de toque, um tubo de raios catódicos, tela de cristal líquido, tela de plasma, luz incandescente, luz fluorescente, tela de projeção frontal ou traseira, e indicador de diodo emissor de luz. Outros exemplos de componentes de saída 207 incluem um componente de saída de áudio, como um alto-falante, alarme e / ou campainha, e / ou um componente de saída mecânico, como mecanismos baseados em vibração ou movimento.
[0016] Os componentes internos 200 podem ainda incluir uma interface de dispositivo 215 para fornecer uma conexão direta com componentes ou acessórios auxiliares para funcionalidade adicional ou melhorada. Além disso, os componentes internos 200 incluem de preferência uma fonte de alimentação 217, tal como uma bateria portátil, para fornecimento de energia para os outros componentes internos e permitir portabilidade do dispositivo eletrônico portátil 100.
[0017] Referindo-se novamente aos componentes de entrada 209 dos componentes internos 200, uma modalidade pode incluir um sensor de movimento 119 para detectar os dados de movimento e um sensor de imagem 221 para melhorar a análise e / ou interpretação dos dados de movimento detectados.
[0018] Deve ser compreendido que a Figura 2 é fornecida apenas para fins ilustrativos e para ilustrar os componentes de um dispositivo eletrônico portátil 100 de acordo com a presente invenção, e não se destina a ser uma representação esquemática completa dos vários componentes necessários para um dispositivo eletrônico portátil. Portanto, um dispositivo eletrônico portátil pode incluir vários outros componentes não mostrados na Figura 2, ou pode incluir uma combinação de dois ou mais componentes ou uma divisão de um componente particular em dois ou mais componentes separados, e ainda estar dentro do âmbito da presente invenção.
[0019] Referindo-nos às Figuras 3A e 3B, são mostradas vistas em perspectiva ilustrando vistas de sensor de imagem do dispositivo eletrônico portátil 100. Quando o dispositivo 100 posicionado horizontalmente em que a tela 107 é posicionado substancialmente horizontal para a superfície de solo, o sensor de movimento do dispositivo pode não ser capaz de determinar a orientação adequada da imagem ou objeto 101 do componente de saída, como se uma imagem deve estar em orientação de retrato ou uma orientação da paisagem em uma tela.
[0020] A Figura 3 A ilustra uma modalidade do dispositivo eletrônico portátil 100 em que a orientação adequada da imagem 101 é uma orientação vertical, porque o usuário 301 está visualizando o dispositivo a partir de um lado mais curto 303 da tela ou um lado mais curto 305 do dispositivo. O lado mais curto 303 da tela é em relação a um lado maios longo 307 da tela 107 de modo substancialmente ortogonal ao lado mais curto da tela. Da mesma forma, o lado mais curto 305 do dispositivo 100 é relativo a um lado mais longo do dispositivo 309 de modo substancialmente ortogonal ao lado mais curto do dispositivo.
[0021] Nesta posição horizontal substancialmente paralela à superfície de solo, o dispositivo eletrônico portátil tem dificuldade de determinar a orientação apropriada para fornecer a imagem ou objeto 101 com base no sensor de movimento por si só. Deste modo, o dispositivo eletrônico portátil 100 inclui um segundo componente de entrada para auxiliar ou complementar a operação do sensor de movimento por meio da determinação da posição do usuário 301 em relação à tela 107 e / ou o dispositivo 100. Para a modalidade mostrada nas Figuras 3A e 3B, o dispositivo eletrônico portátil 100 inclui um sensor de imagem 311 que é capaz de determinar a posição do usuário 301 em relação à tela 107 e / ou o dispositivo 100 com base em uma imagem detectada 313 de uma ou mais características de corpo do usuário. Especificamente, para esta modalidade, o sensor de imagem 311 tem uma região de visualização 315, em que uma ou mais características de corpo do usuário podem ser detectadas e, com base na imagem detectada 313 da característica ou características de corpo, o dispositivo 100 pode determinar a posição do usuário 301 e, em combinação com os dados recolhidos pelo sensor de movimento, determinar a orientação apropriada para fornecer a imagem ou objeto 101 no componente de saída, tal como a tela 107.
[0022] Com referência à Figura 4, proporciona-se uma vista lateral de uma modalidade do dispositivo eletrônico portátil 100, como visto por um usuário 401, mostrado em vários ângulos 403, 405, 407 em relação à superfície do nível de solo ou solo 409. Para uma modalidade, o segundo sensor (tal como um gerador de imagens) pode ser ativado em resposta ao primeiro sensor (tal como um sensor de movimento) detectar que o ângulo de inclinação do dispositivo em relação ao nível de solo 409 cai abaixo de uma posição predeterminada 411 e / ou ângulo de limiar 413. A posição predeterminada 411 e / ou o ângulo de limiar 413 pode ser determinado com base na posição ou ângulo, respectivamente, em que o dispositivo pode não ser capaz de distinguir entre a orientação de retrato e de paisagem utilizando um sensor sozinho. Se o segundo sensor detecta uma característica de corpo do usuário 401, como, por exemplo, uma característica de face da face de um usuário, em seguida, a imagem ou objeto pode ser orientado no componente de saída de acordo com a característica de corpo detectada. Assim, quando o usuário 401 visualiza a imagem ou objeto no componente de saída, a imagem ou objeto é apresentada em uma orientação apropriada para visualização. Por exemplo, por considerar o ângulo de inclinação 403, 405, 407 medido por um sensor de movimento e algumas características faciais detectadas por um sensor, rotações de tela paisagem-retrato automáticas podem ser geridas para operar adequadamente em todos os ângulos.
[0023] A Figura 4, em particular, mostra um dispositivo eletrônico portátil em várias posições. Em uma posição horizontal 415, o dispositivo eletrônico portátil é paralelo, ou substancialmente paralelo, para uma superfície do nível de solo ou solo 409, em que dispositivo é angulado cerca de zero graus em relação ao nível de solo. Na posição vertical 417, o dispositivo eletrônico portátil é perpendicular ou substancialmente ortogonal para uma superfície do nível de solo ou solo 409, em que dispositivo é angulado cerca de 90 graus em relação ao nível de solo. O ângulo da posição horizontal 415 do dispositivo em relação ao nível de solo 409 é menor do que o ângulo de limiar 413 e, assim, o segundo sensor pode ser utilizado para detectar uma característica de corpo de usuário 401 e orientar uma imagem ou objeto no componente de saída de acordo com a característica de corpo detectada. O ângulo da posição vertical 417 do dispositivo em relação ao nível de solo 409 é maior do que o ângulo de limiar 413. O primeiro sensor pode ser suficiente para determinar a orientação adequada de uma imagem ou objeto no componente de saída, de modo que o segundo sensor pode não ser necessário.
[0024] As posições e ângulos do dispositivo eletrônico portátil em relação ao nível de solo, 409 não são restritos a posições rigorosamente horizontais e verticais. Em uma terceira posição 419, o dispositivo eletrônico portátil tem um terceiro ângulo 407, maior do que o primeiro ângulo da posição horizontal 415 e menor do que o ângulo de limiar 413 da posição predeterminada 411. Em uma quarta posição 421, o dispositivo eletrônico portátil tem um quarto ângulo 405, menor do que o segundo ângulo da posição vertical 417 e maior do que o ângulo de limiar 413 da posição predeterminada 411. O ângulo da terceira posição 419 do dispositivo é menor do que o ângulo de limiar 413 e, assim, o segundo sensor pode ser utilizado para detectar uma característica de corpo do usuário 401 e orientar uma imagem ou objeto no componente de saída de acordo com a característica de corpo detectada. O ângulo da quarta posição 421 do dispositivo é maior do que o ângulo de limiar 413. O primeiro sensor pode ser suficiente para determinar a orientação adequada de uma imagem ou objeto no componente de saída, de modo que o segundo sensor pode não ser necessário.
[0025] Para algumas modalidades, um acelerômetro de 3 eixos pode ser usado para medir projeções de gravidade da Terra (denotado por g) em três direções, isto é, X, Y e Z. Os respectivos valores para X, Y e Z podem ser denotados como ax, ay, az. Quando o dispositivo é orientado na posição vertical, a variação dos valores de ax e ay quando o dispositivo é rodado pode indicar se o dispositivo está em uma posição de retrato ou de paisagem, uma vez que a alteração de valor é maior do que qualquer ruído de medição. Quando o dispositivo é inclinado (em um ângulo a partir da direção horizontal), a maior diferença entre ax e ay quando o dispositivo é girado de retrato para paisagem é axy = gsen(T). Quando o ângulo de inclinação é inferior ao limiar (indicado por T), axy será menor do que o ruído de medição (identificado por an) e, portanto, a medida não pode distinguir uma orientação de retrato a partir de uma orientação de paisagem. Em um ângulo de limiar T, gsin(T) = an, de modo que T = arcsin (an/g). Por exemplo, para algumas modalidades, T pode estar na gama de 20 a 30 graus. Quando o ângulo de inclinação cai abaixo de T, o gerador de imagens pode ser iniciado em segundo plano e quadros de imagem podem ser enviados periodicamente a um componente de detecção de corpo do dispositivo. Se uma característica de corpo (tal como uma face) é detectada, uma imagem ou objeto fornecido pelo componente de saída do dispositivo pode ser rodado para alinhar com a característica de corpo detectada. Quando o ângulo de inclinação torna-se maior do que , o gerador de imagens pode ser interrompido ou ignorado, e o sensor de movimento pode ser usado para determinar a orientação da imagem ou objeto no componente de saída.
[0026] Com referência à Figura 5, proporciona-se um fluxograma representando um exemplo de operação 500 do dispositivo eletrônico portátil 100. Em particular, o exemplo de operação 500 representa um método de um dispositivo eletrônico portátil para gestão de orientação de tela, em que o dispositivo inclui um componente de saída (tal como uma tela), um sensor primário (tal como um sensor de movimento) e um sensor secundário (tal como um sensor de imagem). Deve ser compreendido que operação 500 pode ser realizada por um processador, um componente de entrada, um componente de saída, e / ou outro circuito do dispositivo eletrônico portátil 100.
[0027] Inicialmente, no passo 501, a operação 500 identifica uma orientação particular de uma imagem ou objeto no componente de saída. A imagem ou objeto é fornecida no componente de saída em uma primeira orientação antes da detecção de rotação no sensor primário. A operação 500 determina então, ou tenta determinar, se uma ação de rotação foi detectada pelo sensor primário no passo 503. Por exemplo, a rotação pode ser detectada em torno de um eixo substancialmente ortogonal para uma superfície plana do componente de saída. Se uma ação de rotação não foi detectada pelo sensor primário, em seguida, a operação 500 irá verificar outra vez mais tarde. Por exemplo, como mostrado na Figura 5, a operação de 500 regressa ao passo 501 para verificar novamente a orientação da imagem ou objeto antes de verificar o sensor primário novamente. Se a ação de rotação é detectada pelo sensor primário no passo 503, a operação 500 pode ativar o sensor secundário no passo 507. O sensor secundário pode ser ativado em resposta à detecção da rotação no sensor primário. O sensor secundário pode ser ativado e inativado a fim de gerenciar o consumo de energia. Por exemplo, o sensor secundário pode não ser ativado até que o sensor primário determina uma necessidade para o sensor secundário. Por outro lado, deve ser entendido que o passo 507 de ativar o sensor secundário pode não ser necessário, por exemplo, o sensor secundário sempre ou substancialmente se mantém ativo.
[0028] Depois de uma ação de rotação ser detectada pelo sensor primário no passo 503, e o sensor secundário ser ativado no passo 507 se necessário, a operação 500 determina, ou tenta determinar, se o sensor secundário detecta uma ou mais características de corpo em passo 509. Se o sensor secundário detecta uma característica ou características de corpo, em seguida, um ou mais dos componentes do dispositivo (por exemplo, o processador 203) podem determinar, no passo 511, uma orientação apropriada da imagem ou objeto fornecida pelo componente de saída com base na rotação detectada pelo sensor primário no passo 503 e a característica ou características de corpo detectadas no passo 509. Por outro lado, se o sensor secundário não detecta uma característica ou características de corpo, em seguida, um ou mais componentes do dispositivo (tal como o processador 203) pode determinar, no passo 513, uma orientação apropriada da imagem ou objeto fornecida pelo componente de saída com base na rotação detectada pelo sensor primário no passo 503, independentemente de que é detectado ou não detectado no passo 509. Como resultado, a imagem ou objeto é fornecida no componente de saída em uma segunda orientação após a determinação da orientação da imagem ou tela no componente de saída. Para algumas modalidades, se uma pluralidade de características de corpo é detectada, em seguida, a operação 500 pode selecionar uma característica de corpo particular da pluralidade de características de corpo antes de utilizar esta informação no passo 511.
[0029] Conforme indicado acima, a característica ou características de corpo pode incluir, mas não é limitada para, uma ou mais características de face. Deve ser entendido que, uma vez que a característica ou características de corpo pode existir em qualquer lugar no dispositivo eletrônico portátil, o dispositivo pode incluir um sensor secundário que pode ser dirigido em direções múltiplas (manualmente ou automaticamente) ou vários sensores direcionados em direções diferentes sobre o dispositivo. Por exemplo, um dispositivo pode incluir um gerador de imagens virado para frente e um gerador de imagens virado para trás, em que um ou ambos os geradores de imagens podem ser utilizados como o sensor secundário.
[0030] Com referência à Figura 6, proporciona-se um fluxograma representando outro exemplo de operação 600 do dispositivo eletrônico portátil 100. Em particular, o exemplo de operação 600 representa um outro método de um dispositivo eletrônico portátil para gestão de orientação de tela, em que o dispositivo inclui um componente de saída (tal como uma tela), um sensor primário (tal como um sensor de movimento) e um sensor secundário (tal como um sensor de imagem). Deve ser compreendido que a operação 600 pode ser realizada por um processador, um componente de entrada, um componente de saída, e / ou outro circuito do dispositivo eletrônico portátil 100. Exemplo de operação 600 é semelhante ao exemplo de operação 500, de modo que a informação acima a respeito da operação 500 pode também aplicar-se à seguinte descrição para operação 600.
[0031] Inicialmente, no passo 601, a operação 600 identifica uma orientação particular de uma imagem ou objeto no componente de saída. A imagem ou objeto é fornecida no componente de saída em uma primeira orientação antes da detecção de rotação no sensor primário. A operação 600 determina então, ou tenta determinar, se uma ação de rotação foi detectada pelo sensor primário no passo 603. Se uma ação de rotação não foi detectada pelo sensor primário, em seguida, a operação 600 irá verificar outra vez mais tarde. Se a ação de rotação é detectada pelo sensor primário no passo 603, a operação 500 pode determinar o ângulo do dispositivo eletrônico portátil em relação à superfície de solo ou nível de solo e compará-la a um ângulo de limiar, tal como o ângulo de limiar 413 da Figura 4.
[0032] Se o ângulo do dispositivo não é determinado para estar abaixo do limiar no passo 605, então a operação 600 pode determinar, no passo 613, uma orientação apropriada da imagem ou objeto fornecida pelo componente de saída com base na rotação detectada pelo sensor primário no passo 603. Se o ângulo do dispositivo é determinado para ser inferior ao limiar no passo 605, então a operação 600 pode ativar o sensor secundário no passo 607. O sensor secundário pode ser ativado em resposta à detecção da rotação no sensor primário. Como observado acima, deve ser entendido que o passo 607 de ativar o sensor secundário pode ser opcional.
[0033] Se o ângulo do dispositivo é determinado para estar abaixo do limiar no passo 605, e o sensor secundário é ativado no passo 607 se necessário, a operação 600 determina, ou tenta determinar, se o sensor secundário detecta uma ou mais características de corpo no passo 609. Se o sensor secundário detecta uma característica ou características de corpo, em seguida, um ou mais dos componentes do dispositivo (por exemplo, o processador 203) podem determinar, no passo 611, uma orientação apropriada da imagem ou objeto fornecida pelo componente de saída com base na rotação detectada pelo sensor primário no passo 603 e a característica ou características de corpo detectadas no passo 609. Por outro lado, se o sensor secundário não detectar uma característica ou características de corpo, em seguida, um ou mais dos componentes do dispositivo (tal como o processador 203) podem determinar, no passo 613, uma orientação apropriada da imagem ou objeto fornecida pelo componente de saída com base na rotação detectada pelo sensor primário no passo 603, independentemente de que é detectado ou não detectado em passo 609. Como resultado, a imagem ou objeto é fornecida no componente de saída em uma segunda orientação após a determinação da orientação da imagem ou tela no componente de saída. Para algumas modalidades, se for detectada uma pluralidade de características de corpo, em seguida, a operação 600 pode selecionar uma característica de corpo particular da pluralidade de características de corpo antes de utilizar esta informação no passo 611.
[0034] Com referência à Figura 7, proporciona-se um fluxograma representando ainda um outro exemplo de operação 700 do dispositivo eletrônico portátil 100. Em particular, o exemplo de operação 700 representa um outro método de um dispositivo eletrônico portátil para gestão de orientação de tela, em que o dispositivo inclui um componente de saída (tal como uma tela), um sensor primário (tal como um sensor de movimento) e um sensor secundário (tal como um sensor de imagem). Deve ser compreendido que a operação 700 pode ser realizada por um processador, um componente de entrada, um componente de saída, e / ou outro circuito do dispositivo eletrônico portátil 100. Exemplo de operação 700 é semelhante aos exemplos de operações 500 e 600, de modo que as informações acima sobre operações 500 e 600 também podem aplicar-se à seguinte descrição para a operação 700.
[0035] Inicialmente, no passo 701, a operação 700 identifica uma orientação particular de uma imagem ou objeto no componente de saída. A imagem ou objeto é fornecida no componente de saída em uma primeira orientação antes de detectar uma condição de erro de sensor primário. A operação 700 tenta então detectar uma ação de rotação no sensor primário. Em particular, como representado pela Figura 7, a operação 700 determina se o sensor primário detecta uma condição de erro no passo 703. Por exemplo, uma condição de erro pode ser associada com a incapacidade do sensor primário para determinar se rotação ocorreu ou com uma falha da medição detectada da rotação para atender ou exceder um limiar de rotação predeterminado. Deve notar-se que a condição de erro pode ser causada por uma falha no próprio sistema de medição ou porque o dispositivo está funcionando fora de um campo gravitacional normal. Se uma condição de erro da rotação não é detectada pelo sensor primário, em seguida, a operação 700 irá verificar outra vez mais tarde. O sensor secundário pode ser ativado em resposta à detecção da condição de erro de sensor primário no sensor primário. Como observado acima, deve ser entendido que o passo 707 de ativar o sensor secundário pode ser opcional.
[0036] Se a condição de erro de sensor primário é detectada no passo 703, e o sensor secundário é ativado no passo 707 se necessário, a operação 700 determina se o sensor secundário detecta uma ou mais características de corpo no passo 709. Se os sensores secundários detectam uma característica ou características de corpo, em seguida, um ou mais dos componentes do dispositivo (tal como o processador 203) podem determinar, no passo 711, uma orientação apropriada da imagem ou objeto fornecida pelo componente de saída com base na característica ou características de corpo detectadas pelo passo 709. Por outro lado, se o sensor secundário não detecta uma característica ou características de corpo, em seguida, um ou mais dos componentes do dispositivo (por exemplo, o processador 203) podem determinar, no passo 713, uma orientação apropriada da imagem ou objeto fornecida pelo componente de saída com base na orientação anterior no passo 701, independente de que é detectado ou não detectado no passo 709. Como um resultado, a imagem ou objeto é fornecida no componente de saída em uma segunda orientação, a qual, neste caso, é a mesma que a primeira orientação, depois de determinar a orientação da imagem ou tela no componente de saída, uma vez que a orientação da imagem ou objeto é deixada inalterada. Para algumas modalidades, em vez de deixar a imagem ou objeto na orientação existente, a segunda orientação pode ser definida para uma orientação padrão, a qual pode ou não ser a mesma que a primeira orientação.
[0037] Para outras modalidades, se uma pluralidade de características de corpo é detectada, em seguida, a operação 700 pode selecionar uma característica de corpo particular da pluralidade de características de corpo antes de utilizar esta informação no passo 711. Mais uma vez, deve ser entendido que o dispositivo pode incluir um sensor secundário que pode ser dirigido em direções múltiplas (manualmente ou automaticamente) ou vários sensores dirigidos em diferentes direções sobre o dispositivo.
[0038] Embora as modalidades preferidas da invenção tenham sido ilustradas e descritas, deve ser entendido que a invenção não é assim limitada. Numerosas modificações, alterações, variações, substituições e equivalentes ocorrerão aos peritos na arte sem se afastar do espírito e do âmbito da presente invenção tal como definido pelas reivindicações anexas.

Claims (7)

1. Método (600) para gestão de orientação de tela de um dispositivo eletrônico portátil (100), o dispositivo eletrônico portátil incluindo uma tela (107), um sensor de movimento (119) e um sensor de imagem (221), o método CARACTERIZADO pelo fato de que compreende: fornecer (601) uma imagem na tela em uma primeira orientação; detectar (603) uma rotação do dispositivo eletrônico portátil no sensor de movimento; ao detectar a rotação do dispositivo eletrônico portátil no sensor de movimento, determinar um ângulo do dispositivo eletrônico portátil em relação a uma superfície do solo (409); responsivo a determinar (605) que o ângulo do dispositivo eletrônico portátil em relação à superfície do solo é menor que um ângulo limiar predeterminado (413) entre a superfície do solo e uma posição pré-definida (411) do dispositivo eletrônico portátil em relação à superfície do solo, ativando (607) o sensor de imagem, sendo que o ângulo limiar predeterminado entre a posição pré-definida e a superfície do nível do solo está contido na faixa de 20 a 30 graus; tentar detectar (609) pelo menos uma característica de corpo no sensor de imagem; e ao detectar pelo menos uma característica do corpo no sensor de imagem, determinar (611) uma segunda orientação de uma imagem na tela com base na detecção da rotação do dispositivo eletrônico portátil no sensor de movimento e a pelo menos uma característica de corpo no sensor de imagem; ou ao não detectar pelo menos uma característica de corpo no sensor de imagem, determinar (613) uma segunda orientação de uma imagem na tela com base na detecção da rotação do dispositivo eletrônico portátil no sensor de movimento.
2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que detectar a rotação do dispositivo eletrônico portátil no sensor de movimento inclui detectar a rotação do dispotivido eletrônico portátil em torno de um eixo substancialmente ortogonal a uma superfície plana da tela.
3. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a tentativa de detectar a pelo menos uma característica de corpo no sensor de imagem inclui detectar a pelo menos uma característica de corpo em resposta à ativação do sensor de imagem.
4. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a tentativa de detectar a pelo menos uma característica de corpo no sensor de imagem inclui detectar pelo menos uma característica de face no sensor de imagem.
5. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a tentativa de detectar a pelo menos uma característica de corpo no sensor de imagem compreende: detectar uma pluralidade de características de corpo; e selecionar uma característica de corpo particular da pluralidade de características de corpo.
6. Dispositivo eletrônico portátil (100) capaz de gerir orientação de tela, o dispositivo eletrônico portátil CARACTERIZADO pelo fato de que compreende: uma tela (107) configurada para fornecer (601) uma imagem em uma primeira orientação; um sensor de movimento (119) configurado para: detectar (603) uma rotação do dispositivo eletrônico portátil; e detectar um ângulo do dispositivo eletrônico portátil em relação à superfície do nível do solo (409); um processador (203) configurado para ativar (607) um sensor de imagem (221) em resposta a determinar (605) que o ângulo do dispositivo eletrônico portátil em relação à superfície do solo é menor que um ângulo limiar (413) predeterminado entre a superfície do solo e uma posição predefinida (411) do dispositivo eletrônico portátil relativa a superfície do nível do solo, sendo que o ângulo limiar predeterminado entre a posição pré-definida e a superfície do solo está contido na faixa de 20 a 30 graus; em que o sensor de imagem é configurado para tentar detectar (609) pelo menos uma característica de corpo; e em que, após o sensor de imagem detectar pelo menos uma característica do corpo, o processador é configurado para determinar (611) uma segunda orientação da imagem na tela com base na rotação do dispositivo eletrônico portátil detectada no sensor de movimento e a pelo menos uma característica de corpo detectada no sensor de imagem; ou em que, após o sensor de imagem não detectar pelo menos uma característica do corpo, o processador é configurado para determinar (613) uma segunda orientação da imagem na tela com base na rotação do dispositivo eletrônico portátil detectado no sensor de movimento.
7. Dispositivo eletrônico portátil, de acordo com a reivindicação 6, CARACTERIZADO pelo fato de que o processador está configurado para executar o método descrito em qualquer uma das reivindicações 1-5.
BR112014019490-4A 2012-02-08 2013-01-17 Método para gerenciamento de orientação de tela de um dispositivo eletrônico portátil e dispositivo eletrônico portátil capaz de gerir orientação de tela BR112014019490B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/368,853 US9146624B2 (en) 2012-02-08 2012-02-08 Method for managing screen orientation of a portable electronic device
US13/368,853 2012-02-08
PCT/US2013/021872 WO2013119366A1 (en) 2012-02-08 2013-01-17 Method for managing screen orientation of a portable electronic device

Publications (3)

Publication Number Publication Date
BR112014019490A2 BR112014019490A2 (pt) 2017-06-20
BR112014019490A8 BR112014019490A8 (pt) 2017-07-11
BR112014019490B1 true BR112014019490B1 (pt) 2021-09-14

Family

ID=47630572

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112014019490-4A BR112014019490B1 (pt) 2012-02-08 2013-01-17 Método para gerenciamento de orientação de tela de um dispositivo eletrônico portátil e dispositivo eletrônico portátil capaz de gerir orientação de tela

Country Status (6)

Country Link
US (1) US9146624B2 (pt)
EP (1) EP2812774B1 (pt)
KR (1) KR101598984B1 (pt)
CN (1) CN104303129B (pt)
BR (1) BR112014019490B1 (pt)
WO (1) WO2013119366A1 (pt)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9342143B1 (en) 2012-04-17 2016-05-17 Imdb.Com, Inc. Determining display orientations for portable devices
US20150130695A1 (en) * 2012-06-29 2015-05-14 Jianjun Gu Camera based auto screen rotation
JP5846661B2 (ja) * 2012-07-06 2016-01-20 Necディスプレイソリューションズ株式会社 表示装置、表示装置の制御方法
US20140267006A1 (en) * 2013-03-15 2014-09-18 Giuseppe Raffa Automatic device display orientation detection
US9134952B2 (en) * 2013-04-03 2015-09-15 Lg Electronics Inc. Terminal and control method thereof
CN104598136B (zh) * 2013-10-31 2018-07-31 纬创资通(昆山)有限公司 移动装置及移动装置的显示画面旋转方法
US9134764B2 (en) * 2013-12-20 2015-09-15 Sony Corporation Apparatus and method for controlling a display based on a manner of holding the apparatus
US20160275649A1 (en) * 2014-07-24 2016-09-22 Huawei Technologies Co., Ltd. Method and Apparatus for Switching Display Mode of Screen of Terminal Device, and Terminal Device
CN104503589B (zh) * 2015-01-05 2018-02-16 京东方科技集团股份有限公司 体感识别系统及其识别方法
CN104598030B (zh) * 2015-01-15 2018-03-23 青岛海信电器股份有限公司 一种智能终端控制键功能自动调整方法、装置及智能终端
CN107533151B (zh) * 2015-02-26 2020-02-11 布鲁尔及凯尔声音及振动测量公司 通过一个或多个空间定向特征检测变换器的空间定向的方法
US20180053490A1 (en) * 2015-02-27 2018-02-22 Sharp Kabushiki Kaisha Display device and method of displaying image on display device
WO2017048080A1 (ko) * 2015-09-14 2017-03-23 서용창 기울기에 기초한 이벤트 처리 방법 및 상기 방법을 수행하는 장치
WO2017111794A1 (en) * 2015-12-23 2017-06-29 Intel Corporation Virtual detent bezel device
JP6604314B2 (ja) * 2016-11-15 2019-11-13 京セラドキュメントソリューションズ株式会社 画像読取装置、画像形成装置、画像読取方法
US10706822B2 (en) * 2018-03-28 2020-07-07 Lenovo (Singapore) Pte. Ltd. Device configuration using orientation cues
US10664047B2 (en) * 2018-05-17 2020-05-26 International Business Machines Corporation Displaying visually aligned content of a mobile device
US20210375238A1 (en) * 2019-04-18 2021-12-02 Nanjing Easthouse Electrical Co., Ltd. Portable electronic devices and methods of using the same
JP7345400B2 (ja) 2020-01-17 2023-09-15 シャープ株式会社 画像形成装置、制御プログラムおよび制御方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6246862B1 (en) 1999-02-03 2001-06-12 Motorola, Inc. Sensor controlled user interface for portable communication device
US7251350B2 (en) 2002-10-23 2007-07-31 Intel Corporation Method and apparatus for adaptive realtime system power state control
EP1566788A3 (en) 2004-01-23 2017-11-22 Sony United Kingdom Limited Display
GB2410359A (en) 2004-01-23 2005-07-27 Sony Uk Ltd Display
US20070004451A1 (en) * 2005-06-30 2007-01-04 C Anderson Eric Controlling functions of a handheld multifunction device
KR100738030B1 (ko) 2005-10-10 2007-07-16 주식회사 케이티프리텔 영상 전환 기능을 구비한 휴대용 단말기
US8218080B2 (en) 2005-12-05 2012-07-10 Samsung Electronics Co., Ltd. Personal settings, parental control, and energy saving control of television with digital video camera
JP4264660B2 (ja) 2006-06-09 2009-05-20 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
US8340365B2 (en) 2006-11-20 2012-12-25 Sony Mobile Communications Ab Using image recognition for controlling display lighting
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US20080181502A1 (en) 2007-01-31 2008-07-31 Hsin-Ming Yang Pattern recognition for during orientation of a display device
US20090262078A1 (en) 2008-04-21 2009-10-22 David Pizzi Cellular phone with special sensor functions
US8896632B2 (en) 2008-09-12 2014-11-25 Qualcomm Incorporated Orienting displayed elements relative to a user
JP5176145B2 (ja) * 2008-09-24 2013-04-03 富士通株式会社 方位検出方法及び装置、並びに移動履歴算出方法及び装置
KR101474022B1 (ko) 2008-10-27 2014-12-26 삼성전자주식회사 이동 통신 단말에서 표시부의 축 변화에 따라 어플리케이션을 자동으로 실행하기 위한 방법 및 그 이동 통신 단말
TWI475885B (zh) 2008-11-10 2015-03-01 Wistron Corp 背光模組控制方法及其應用
EP2280331B1 (en) 2009-07-22 2018-10-31 BlackBerry Limited Display orientation change for wireless devices
JP5397081B2 (ja) 2009-08-12 2014-01-22 富士通モバイルコミュニケーションズ株式会社 携帯端末
KR101658562B1 (ko) * 2010-05-06 2016-09-30 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20110298887A1 (en) 2010-06-02 2011-12-08 Maglaque Chad L Apparatus Using an Accelerometer to Capture Photographic Images

Also Published As

Publication number Publication date
KR20140125840A (ko) 2014-10-29
KR101598984B1 (ko) 2016-03-14
WO2013119366A1 (en) 2013-08-15
CN104303129A (zh) 2015-01-21
BR112014019490A8 (pt) 2017-07-11
US9146624B2 (en) 2015-09-29
EP2812774A1 (en) 2014-12-17
US20130201219A1 (en) 2013-08-08
BR112014019490A2 (pt) 2017-06-20
EP2812774B1 (en) 2019-09-11
CN104303129B (zh) 2018-10-19

Similar Documents

Publication Publication Date Title
BR112014019490B1 (pt) Método para gerenciamento de orientação de tela de um dispositivo eletrônico portátil e dispositivo eletrônico portátil capaz de gerir orientação de tela
KR101969931B1 (ko) 디스플레이 영상의 회전을 제어하는 장치 및 방법
JP6286442B2 (ja) スクリーン画面の回転を制御する方法、装置、設備、プログラム及び記録媒体
ES2968868T3 (es) Método y terminal para adquirir una imagen panorámica
US8896533B2 (en) Display directional sensing
KR20180042718A (ko) 영상을 촬영하는 전자 장치
KR102381045B1 (ko) 전자 장치 및 그 제어 방법
BR112014007951B1 (pt) Método para detectar condições de falso despertar de um dispositivo eletrônico portátil
JP7354202B2 (ja) ハンドヘルドジンバル
US20160274622A1 (en) Controlling the orientation of a device display based on usage context
WO2019205899A1 (zh) 屏幕间夹角的确定方法、装置、存储介质及电子装置
CN109166150B (zh) 获取位姿的方法、装置存储介质
BR112017021042B1 (pt) Método de medição, terminal e meio legível por computador
US11356607B2 (en) Electing camera modes for electronic devices having multiple display panels
WO2014154006A1 (zh) 一种展现移动终端拍摄的图像的方法及装置
TW201514836A (zh) 電子設備的解鎖系統及解鎖方法
TWI556156B (zh) 調整畫面顯示方向的方法及其相關裝置
US11644928B2 (en) Display apparatus and control method thereof
US20180199909A1 (en) X-ray detector, x-ray imaging device, and control method therefor
TWI613570B (zh) 虛擬實境系統、行動裝置的操作方法、非揮發性電腦可讀取記錄媒體、及虛擬實境處理裝置
ES2966687T3 (es) Método y aparato para medir una dirección y un terminal
JP6325369B2 (ja) 電子機器、制御方法及びプログラム
JP5867554B2 (ja) 情報処理装置及び情報処理装置の操作方法
TWI523537B (zh) 電子裝置以及影像預覽方法
JP5662359B2 (ja) 端末装置、画面制御方法、プログラム

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 17/01/2013, OBSERVADAS AS CONDICOES LEGAIS.