usuários de google fotos beneficie-se dos poderosos algoritmos por trás da plataforma, que podem analisar e categorizar cada imagem carregada e, assim, fornecer atribuição automática e poderosa funcionalidade de pesquisa. Infelizmente, informações importantes são perdidas nos dias de hoje, porque o A detecção do local de gravação é restrita e, portanto, não pode mais funcionar de forma confiável.
O Google Fotos é muito bom em analisar e categorizar as fotos e vídeos enviados pelos usuários. Uma parte importante disso é reconhecer o local onde a respectiva foto foi tirada. Isso é usado para a função de pesquisa, para a visualização detalhada e também para a visualização do mapa. Este também será o caso no futuro, mas infelizmente esta função agora ficará significativamente pior, porque você limita severamente suas opções .
Em vez de acessar o histórico de localização do usuário e vincular os horários para descobrir onde o usuário estava quando o botão do obturador foi pressionado, agora apenas uma função de reconhecimento de imagem é usada. É claro que a combinação de histórico de localização e localização de fotos não era perfeita e propensa a erros, mas em muitos casos também funcionou muito bem e foi capaz de garantir que as imagens fossem atribuídas corretamente.
O maior problema foram as fotos, que nada têm a ver com o local. Por exemplo, imagens recebidas, capturas de tela ou imagens digitalizadas. Em todos os casos, nenhum local é geralmente armazenado e não pode ser lido de forma significativa a partir do histórico de localização. Portanto, levou ao armazenamento de informações falsas. Agora você pode considerar se grandes quantidades de imagens sem um local ou algumas com o local errado são a melhor escolha.
A nova detecção de localização depende da IA e da análise de imagens
Mas você não exclui a função completamente, apenas coloca um foco diferente nela. Não apenas os dados do histórico de localização sempre foram usados, mas também os objetos reconhecidos pelos algoritmos na imagem – mas os primeiros tiveram prioridade. Agora só falta o segundo e eles dizem que querem investir muito na expansão disso. Mas não importa quanto você invista, o sistema tem limites severos.
Claro que você tem uma grande chance se se fotografar bem em frente à Torre Eiffel. Mas com que frequência isso acontece? Na grande maioria das fotos, o fundo não desempenha nenhum papel ou fica tão desfocado no modo retrato que dificilmente pode ser analisado de maneira significativa. Portanto, se você não está tirando uma foto em frente a uma paisagem ou placa de rua, não pode esperar bons resultados. É claro que uma comparação com imagens do Street View seria uma opção, mas ainda não se sabe o quão confiável isso pode funcionar.
É provável que grande parte das imagens sejam criadas sem um fundo importante ou criadas em ambientes fechados. Com todos eles não é possível ler a localização deles. Talvez eu esteja perdendo alguma coisa, mas a função que o Google Fotos agora está focando deve entregar bons resultados apenas em casos excepcionais. A grande questão permanece: por que fazer essa mudança?
Google Fotos: o recurso conveniente foi descontinuado – a localização da foto não é mais determinada pelo histórico de localização