Recursos para o crescimento das empresas

30 de novembro de 2025

Regulamentar o que não é criado: a Europa arrisca-se a ser irrelevante do ponto de vista tecnológico?

A Europa atrai apenas um décimo do investimento mundial em inteligência artificial, mas pretende ditar as regras mundiais. Este é o "Efeito Bruxelas" - impor regras à escala planetária através do poder de mercado sem impulsionar a inovação. A Lei da IA entra em vigor num calendário escalonado até 2027, mas as empresas multinacionais de tecnologia respondem com estratégias criativas de evasão: invocando segredos comerciais para evitar revelar dados de formação, produzindo resumos tecnicamente conformes mas incompreensíveis, utilizando a autoavaliação para rebaixar os sistemas de "alto risco" para "risco mínimo", escolhendo os Estados-Membros com controlos menos rigorosos. O paradoxo dos direitos de autor extraterritoriais: a UE exige que a OpenAI cumpra as leis europeias, mesmo no caso de formação fora da Europa - um princípio nunca antes visto no direito internacional. Surge o "modelo duplo": versões europeias limitadas versus versões mundiais avançadas dos mesmos produtos de IA. Risco real: a Europa torna-se uma "fortaleza digital" isolada da inovação mundial, com os cidadãos europeus a acederem a tecnologias inferiores. O Tribunal de Justiça, no processo relativo à pontuação de crédito, já rejeitou a defesa dos "segredos comerciais", mas a incerteza interpretativa continua a ser enorme - o que significa exatamente "resumo suficientemente pormenorizado"? Ninguém sabe. Última pergunta sem resposta: estará a UE a criar uma terceira via ética entre o capitalismo americano e o controlo estatal chinês, ou simplesmente a exportar burocracia para uma área em que não compete? Para já: líder mundial na regulação da IA, marginal no seu desenvolvimento. Vasto programa.
29 de novembro de 2025

Regulamentação da IA para aplicações de consumo: como se preparar para os novos regulamentos de 2025

2025 marca o fim da era do "Oeste Selvagem" da IA: AI Act EU operacional a partir de agosto de 2024 com obrigações de literacia em IA a partir de 2 de fevereiro de 2025, governação e GPAI a partir de 2 de agosto. A Califórnia é pioneira com o SB 243 (nascido após o suicídio de Sewell Setzer, um jovem de 14 anos que desenvolveu uma relação emocional com um chatbot), que impõe a proibição de sistemas de recompensa compulsivos, a deteção de ideação suicida, a lembrança de 3 em 3 horas de que "não sou humano", auditorias públicas independentes, sanções de 1000 dólares por infração. SB 420 exige avaliações de impacto para "decisões automatizadas de alto risco" com direitos de recurso de revisão humana. Aplicação efectiva: Noom citou 2022 por causa de bots que se faziam passar por treinadores humanos, acordo de 56 milhões de dólares. Tendência nacional: Alabama, Havaí, Illinois, Maine, Massachusetts classificam a falha em notificar chatbots de IA como violação do UDAP. Abordagem de sistemas críticos de risco de três níveis (cuidados de saúde/transporte/energia) certificação de pré-implantação, divulgação transparente virada para o consumidor, registo de uso geral + testes de segurança. Mosaico regulamentar sem preempção federal: as empresas multi-estatais têm de navegar por requisitos variáveis. UE a partir de agosto de 2026: informar os utilizadores sobre a interação com a IA, a menos que seja óbvio, e os conteúdos gerados por IA devem ser rotulados como legíveis por máquinas.
29 de novembro de 2025

Sistema de arrefecimento Google DeepMind AI: como a inteligência artificial revoluciona a eficiência energética dos centros de dados

A Google DeepMind consegue -40% de energia de arrefecimento do centro de dados (mas apenas -4% do consumo total, uma vez que o arrefecimento representa 10% do total) - precisão de 99,6% com um erro de 0,4% em PUE 1.1 através de aprendizagem profunda de 5 camadas, 50 nós, 19 variáveis de entrada em 184 435 amostras de formação (2 anos de dados). Confirmado em 3 instalações: Singapura (primeira implantação em 2016), Eemshaven, Council Bluffs (investimento de 5 mil milhões de dólares). PUE Google em toda a frota 1,09 vs. média da indústria 1,56-1,58. O Controlo Preditivo de Modelos prevê a temperatura/pressão na hora seguinte, gerindo simultaneamente as cargas de TI, as condições meteorológicas e o estado do equipamento. Segurança garantida: verificação a dois níveis, os operadores podem sempre desativar a IA. Limitações críticas: nenhuma verificação independente por parte de empresas de auditoria/laboratórios nacionais, cada centro de dados requer um modelo personalizado (8 anos sem ser comercializado). A implementação em 6-18 meses requer uma equipa multidisciplinar (ciência dos dados, AVAC, gestão de instalações). Aplicável para além dos centros de dados: instalações industriais, hospitais, centros comerciais, escritórios de empresas. 2024-2025: transição da Google para o arrefecimento líquido direto para a TPU v5p, indicando os limites práticos da otimização da IA.