Skip to main content
Advanced Search
Search Terms
Content Type

Exact Matches
Tag Searches
Date Options
Updated after
Updated before
Created after
Created before

Search Results

13 total results found

SGD FOR NEURAL NETWORKS

PRE-ATTENTION

馃帳 Ponentes y Tutor(es): Miguel Pimiento Juan Calderon Tutor: Miguel Molina 馃摎 Recursos 馃敆 Referencias Deep Learning Category - Secci贸n 4.3 Deep Learning Category - Secci贸n 8.3 馃柤 Diapositivas Presentaci贸n en Canva 馃捇 C贸digo / NoteCategories Notebook 馃摑 No...

BATCH NORM

PRE-ATTENTION

馃帳 Ponentes y Tutor(es): Andrea Parra Dana Villamizar Tutor: Henry Mantilla 馃摎 Recursos 馃敆 Referencias Arxiv: Batch Norm 馃柤 Diapositivas Presentaci贸n en Canva 馃捇 C贸digo / Notebooks Notebook de la sesi贸n 馃摑 Notas Adicionales 鉁嶏笍 Comentarios y Observaciones ...

XAVIER INITIALIZATION

PRE-ATTENTION

馃帳 Ponentes y Tutor(es): Juan Toloza Tutor: Guillermo Pinto 馃摎 Recursos 馃敆 Referencias Proceedings - Xavier Initialization 馃柤 Diapositivas Presentaci贸n en Canva 馃捇 C贸digo / Notebooks PyTorch initializations Real example 馃摑 Notas Adicionales 鉁嶏笍 Comentarios...

FEATURE PYRAMID NETWORKS FOR OBJECT DETECTION

PRE-ATTENTION

馃帳 Ponentes y Tutor(es): Paula Uzcategui C茅sar Vanegas Tutor: Fabian Perez 馃摎 Recursos 馃敆 Referencias Arxiv: FPN 馃梻 Diapositivas Presentaci贸n en Canva 馃捇 C贸digo / Notebooks Notebook 馃摑 Notas Adicionales 鉁嶏笍 Comentarios y Observaciones [Espacio para coment...

BAG OF TRICKS

PRE-ATTENTION

馃帳 Ponentes y Tutor(es): Jorge Garcia Brayan Quintero Tutor: Cristian Rey 馃摎 Recursos 馃敆 Referencias Arxiv: Bag of Tricks 馃梻 Diapositivas Presentaci贸n en Canva 馃捇 C贸digo / Notebooks Insertar enlace o insertar archivo 馃摑 Notas Adicionales 鉁嶏笍 Comentarios y ...

DEEP NEURAL NETWORKS WITH STOCHASTIC DEPTH

PRE-ATTENTION

馃帳 Ponentes y Tutor(es): Valentina Perez Sneider S谩nchez Tutor: Ramiro Avila 馃摎 Recursos 馃敆 Referencias Arxiv: Drop Path 馃梻 Diapositivas Presentaci贸n en Canva 馃捇 C贸digo / Notebooks Notebook 馃摑 Notas Adicionales 驴Cu谩l es el apellido de Sneyder? 鉁嶏笍 Coment...

KNOWLEDGE DESTILLATION

PRE-ATTENTION

馃帳 Ponentes y Tutor(es): Guillermo Pinto Henry Mantilla 馃摎 Recursos 馃敆 Referencias Arxiv: Distilling the Knowledge 馃梻 Diapositivas Presentaci贸n en Canva 馃捇 C贸digo / Notebooks Knowledge Distillation Tutorial 馃摑 Notas Adicionales 鉁嶏笍 Comentarios y Observa...

TRANSFORMER: ATTENTION IS ALL YOU NEED

ATTENTION

馃帳 Ponentes y Tutor(es): Jorge Garcia Juan Calder贸n Tutor: Fabi谩n P茅rez 馃摎 Recursos 馃敆 Referencias Arxiv: Attention Is All You Need 馃梻 Diapositivas Presentaci贸n en Canva 馃捇 C贸digo / Notebooks Transformer Multi-Head Attention 馃摑 Notas Adicionales 鉁嶏笍 Com...

VISION TRANSFORMER

ATTENTION

馃帳 Ponentes y Tutor(es): Juan Toloza Valentina Perez Tutor: Miguel Angel 馃摎 Recursos 馃敆 Referencias Arxiv: Vision Transformer 馃梻 Diapositivas Presentaci贸n en Canva 馃捇 C贸digo / Notebooks ViT 馃摑 Notas Adicionales 鉁嶏笍 Comentarios y Observaciones [Espacio ...

PATCHES ARE ALL YOU NEED?

ATTENTION

馃帳 Ponentes y Tutor(es): Brayan Quintero Paula Uzcategui Tutor: Cristian Rey 馃摎 Recursos 馃敆 Referencias Arxiv: Patches Are All You Need? 馃梻 Diapositivas Presentaci贸n en Canva 馃捇 C贸digo / Notebooks ConvMixer 馃摑 Notas Adicionales 鉁嶏笍 Comentarios y Observa...

MASKED AUTOENCODERS ARE SCALABLE VISION LEARNERS

ATTENTION

馃帳 Ponentes y Tutor(es): Sneider S谩nchez Miguel Pimiento Tutor: Guillermo Pinto 馃摎 Recursos 馃敆 Referencias Arxiv: Masked Autoencoders 馃梻 Diapositivas Presentaci贸n en Canva 馃捇 C贸digo / Notebooks MAE 馃摑 Notas Adicionales 鉁嶏笍 Comentarios y Observaciones [...

INTRIGUING PROPERTIES OF VISION TRANSFORMERS

ATTENTION

馃帳 Ponentes y Tutor(es): Andrea Parra C茅sar Vanegas Tutor: Henry Mantilla 馃摎 Recursos 馃敆 Referencias Arxiv: Intriguing Properties of Vision Transformers 馃梻 Diapositivas Presentaci贸n en Canva 馃捇 C贸digo / Notebooks No hay, no existe, taca帽os 馃摑 Notas Adicion...

DINO

ATTENTION

馃帳 Ponentes y Tutor(es): Dana Villamizar Julio Tutor: Ramiro Avila 馃摎 Recursos 馃敆 Referencias Arxiv: DINO 馃梻 Diapositivas Presentaci贸n en Canva 馃捇 C贸digo / Notebooks Notebook 馃摑 Notas Adicionales 鉁嶏笍 Comentarios y Observaciones [Espacio para comentario...