Declaração de Acessibilidade Saltar a Navegação
  • Recursos
  • Institucional
  • Fale com um Consultor
  • GDPR
  • Envie um Release
PR Newswire: news distribution, targeting and monitoring
  • Press Releases
  • Solicite Mais Informações
  • Overview
  • Marketing
  • IR & Compliance
  • Agency
  • All Products
  • Hamburger menu
  • PR Newswire: news distribution, targeting and monitoring
  • Envie um Release
    • Telefone

    • 11 2504-5100 Segunda a Sexta das 9h às 18h.

    • Entre em contato
    • Contacte-nos

      11 2504-5100
      Segunda a Sexta das 9h às 18h.

  • GDPR
  • Área do Cliente
  • Envie um Release
  • GDPR
  • Área do Cliente
  • Envie um Release
  • Marketing
  • Public Relations
  • IR & Compliance
  • Agency
  • All Products
  • GDPR
  • Área do Cliente
  • Envie um Release
  • GDPR
  • Área do Cliente
  • Envie um Release
  • GDPR
  • Área do Cliente
  • Envie um Release

Hon Hai Research Institute lança um LLM em chinês tradicional com recursos de raciocínio
  • USA - English
  • APAC - Traditional Chinese
  • USA - Deutsch
  • Japan - Japanese
  • USA - Nederlands
  • MEXICO - Spanish
  • USA - Français


Notícias fornecidas por

Hon Hai Research Institute

11 mar, 2025, 11:01 GMT

Partilhar este artigo

Share toX

Partilhar este artigo

Share toX

A primeira versão do AI Research Center tem bom desempenho em matemática e raciocínio

TAIPEI, 11 de março de 2025 /PRNewswire/ -- O Hon Hai Research Institute anunciou hoje o lançamento do primeiro Grande Modelo de Linguagem (LLM) em chinês tradicional, estabelecendo outro marco no desenvolvimento da tecnologia de IA de Taiwan com um método de treinamento de modelo mais eficiente e de baixo custo concluído em apenas quatro semanas.

Continue Reading
Fig. 1: Resultados do benchmark TMMLU+ do FoxBrain, Meta-Llama-3.1-70B e Taiwan-Llama-70B (PRNewsfoto/Hon Hai Research Institute)
Fig. 1: Resultados do benchmark TMMLU+ do FoxBrain, Meta-Llama-3.1-70B e Taiwan-Llama-70B (PRNewsfoto/Hon Hai Research Institute)

O instituto, que é financiado pelo Hon Hai Technology Group ("Foxconn") (TWSE:2317), o maior fabricante de produtos eletrônicos do mundo e principal fornecedor de soluções tecnológicas, disse que o LLM - codinome FoxBrain - será de fonte aberta e compartilhado publicamente no futuro. Ele foi desenvolvido originalmente para aplicativos usados nos sistemas internos do Grupo, abrangendo funções como análise de dados, suporte a decisões, colaboração em documentos, matemática, raciocínio e solução de problemas e geração de códigos.

Além de demonstrar recursos avançados de compreensão e raciocínio, o FoxBrain também é otimizado para o estilo de linguagem dos usuários taiwaneses, apresentando excelente desempenho em testes de raciocínio matemático e lógico.

"Nos últimos meses, o aprofundamento dos recursos de raciocínio e o uso eficiente de GPUs foram se tornando aos poucos o principal desenvolvimento no campo da IA. Nosso modelo FoxBrain adotou uma estratégia de treinamento muito eficiente, concentrando-se na otimização do processo de treinamento, em vez de acumular cegamente a capacidade de computação", afirmou o Dr. Yung-Hui Li, Diretor do Centro de Pesquisa de Inteligência Artificial do Hon Hai Research Institute. "Com métodos de treinamento cuidadosamente elaborados e otimização de recursos, criamos com sucesso um modelo de IA local com recursos avançados de raciocínio."

O processo de treinamento do FoxBrain foi realizado com 120 GPUs H100 da NVIDIA, expandido com NVIDIA Quantum-2 InfiniBand e concluído em apenas quatro semanas. Em comparação com os modelos de inferência lançados recentemente no mercado, o método de treinamento de modelos mais eficiente e de baixo custo estabelece uma nova marca para o desenvolvimento da tecnologia de IA de Taiwan.

O FoxBrain foi desenvolvido com base na arquitetura Meta Llama 3.1 com parâmetros 70B. Na maioria das categorias do conjunto de dados de teste do TMMLU+, ele supera o Llama-3-Taiwan-70B da mesma escala, destacando-se principalmente em matemática e raciocínio lógico (para saber mais sobre o benchmark TMMLU+ do FoxBrain, consulte a Fig. 1). Seguem as especificações técnicas e as estratégias de treinamento do FoxBrain:

  • Estabeleceu métodos de aumento de dados e avaliação de qualidade em 24 categorias de tópicos usando tecnologia própria, gerando 98 bilhões de tokens de dados de pré-treinamento de alta qualidade para o chinês tradicional
  • Tamanho da janela de contexto: 128 K tokens
  • Foram utilizadas 120 GPUs NVIDIA H100 para treinamento, com um custo computacional total de 2.688 dias de GPU
  • Foi empregada uma arquitetura de treinamento paralelo de vários nós para proporcionar alto desempenho e estabilidade
  • Foi utilizada uma técnica exclusiva de Reflexão de Raciocínio Adaptativo para treinar o modelo em raciocínio autônomo

Nos resultados dos testes, o FoxBrain apresentou grandes melhorias em matemática em comparação com o modelo básico Meta Llama 3.1. Ele apresentou um progresso significativo em testes matemáticos em comparação com o Taiwan Llama, atualmente o melhor modelo chinês tradicional de grande porte, e superou os modelos atuais do Meta da mesma classe no quesito capacidade de raciocínio matemático. Embora ainda haja uma pequena lacuna no modelo de destilação do DeepSeek, seu desempenho já está muito próximo dos principais padrões internacionais.

O desenvolvimento do FoxBrain - desde a coleta, limpeza e ampliação de dados até o pré-treinamento contínuo, o ajuste fino supervisionado, o RLAIF e a reflexão do raciocínio adaptativo - ocorreu gradualmente por meio de pesquisa independente, alcançando benefícios que se aproximam dos modelos de IA de primeira linha, apesar dos limitados recursos computacionais. Essa pesquisa de grandes modelos de linguagem demonstra que o talento tecnológico de Taiwan pode competir com seus colegas internacionais no segmento de modelos de IA.

Embora o FoxBrain tenha sido originalmente projetado para aplicativos internos do grupo, no futuro, o Grupo continuará a trabalhar em conjunto com parceiros de tecnologia para expandir os aplicativos do FoxBrain, compartilhar suas informações de código aberto e promover a IA na fabricação, no gerenciamento da cadeia de suprimentos e na tomada de decisões inteligentes.

Durante o treinamento do modelo, a NVIDIA ofereceu suporte com o Supercomputador Taipei-1 e consultoria técnica, permitindo que o Hon Hai Research Institute concluísse com sucesso o pré-treinamento do modelo com o NVIDIA NeMo. O FoxBrain também será um importante mecanismo para promover a atualização das três principais plataformas da Foxconn: Manufatura inteligente. Veículos elétricos inteligentes. Cidade inteligente.

Os resultados do FoxBrain deverão ser divulgados pela primeira vez em uma grande conferência durante o NVIDIA GTC 2025 Session Talk "Do código aberto à IA generativa: criação, personalização e ampliação de modelos fundamentais" em 20 de março.

Sobre o Hon Hai Research Institute

O instituto possui cinco centros de pesquisa. Cada centro tem uma média de 40 profissionais de P&D de alta tecnologia, todos focados na pesquisa e no desenvolvimento de novas tecnologias, no fortalecimento da tecnologia da Foxconn e no fluxo de inovação de produtos, nas iniciativas para apoiar a transformação do Grupo de "músculos" para "cérebros" e no aumento da competitividade da estratégia "3+3" da Foxconn.

Sobre a Foxconn aqui.

Foto - https://mma.prnewswire.com/media/2637733/Fig_1_TMMLU__benchmark_results_FoxBrain_Meta_Llama_3_1_70B_Taiwan_Llama_70B.jpg

FONTE Hon Hai Research Institute

Modal title

Entre em contato

  • 11 2504-5100
    Segunda a Sexta das 9h às 18h.
  • [email protected]
  • Entre em contato

Soluções

  • Distribuição de Conteúdo
  • Distribuição de Notícias
  • Guaranteed Paid Placement
  • Cision Insights
  • Relação com Investidores
  • Você, Jornalista

Contate-nos

  • Solicite Mais Informações
  • Seja um Parceiro
  • Contato de Parceiros
  • Alemanha
  • Asia
  • Canadá
  • Checoslováquia
  • Dinamarca
  • Eslováquia
  • Espanha
  • Finlândia
  • França
  • Holanda
  • Índia
  • Israel
  • Itália
  • Médio Oriente
  • México
  • Noruega
  • Polônia
  • Portugal
  • Reino Unido
  • Rússia
  • Suécia

Sobre a PR Newswire

  • Sobre a PR Newswire
  • Sobre a Cision
  • Escritórios Globais
  • FAQ

Do not sell or share my personal information:

  • Submit via [email protected] 
  • Call Privacy toll-free: 877-297-8921
Sítios globais
  • Ásia
  • Brasil
  • Canadá
  • Checo
  • Dinamarca
  • Finlândia
  • França
  • Alemanha
  • Índia
  • Israel
  • Itália
  • México
  • Países Baixos
  • Noruega
  • Polônia
  • Portugal
  • Rússia
  • Eslováquia
  • Espanha
  • Suécia
  • Reino Unido
  • Estados Unidos
+44 (0)20 7454 5110
de 8 AM - 5 PM GMT
  • Termos de Uso
  • Política de Privacidade / Segurança da Informação
  • Configurações de Cookies
  • Sitemap
Copyright © 2025 Cision US Inc.