Toggle navigation
Publicações
Investigadores
Instituições
0
Entrar
Autenticação Federada
(Clique na imagem)
Autenticação local
Recuperar Palavra-passe
Registar
Entrar
Publicações
Pesquisar
Estatísticas
E.T.: Re-Thinking Self-Attention for Transformer Models on Gpus
AuthID
P-00Z-PKT
8
Author(s)
Chen, S
·
Huang, S
·
Pandey, S
·
Li, B
·
Gao, GR
·
Zheng, L
·
Ding, C
·
Liu, H
3
Editor(es)
de Supinski,BR;Hall,MW;Gamblin,T
Tipo de Documento
Proceedings Paper
Year published
2021
Publicado
in
International Conference for High Performance Computing, Networking, Storage and Analysis, SC 2021, St. Louis, Missouri, USA, November 14-19, 2021
in
SC
Páginas: 25
Indexing
Dblp
®
/pt/publications/view/1038970
Metadata
Fontes
Publication Identifiers
DBLP
: conf/sc/ChenHPLG0D021
Export Publication Metadata
Exportar
×
Publication Export Settings
BibTex
EndNote
APA
Export Preview
Lista
Marked
Adicionar à lista
Marked
Info
At this moment we don't have any links to full text documens.
×
Selecione a Fonte
Esta publicação tem:
2 registos no
ISI
2 registos no
SCOPUS
2 registos no
DBLP
2 registos no
Unpaywall
2 registos no
Openlibrary
2 registos no
Handle
Por favor selecione o registo que deve ser utilizado pelo Authenticus.
×
Comparar Publicações
© 2024 CRACS & Inesc TEC - All Rights Reserved
Política de Privacidade
|
Terms of Service