english Icono del idioma   español Icono del idioma  

Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/20.500.12008/36840 Cómo citar
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.date.accessioned2023-04-27T11:13:01Z-
dc.date.available2023-04-27T11:13:01Z-
dc.date.issued2023-
dc.identifier.citationUniversidad de la República (Uruguay). Facultad de Ciencias. Comisión de Carrera Matemática. Programa de Seminario: de Bandits [en linea] 2023. Plan 2014.es
dc.identifier.urihttps://hdl.handle.net/20.500.12008/36840-
dc.description.abstractSe pretende abordar el estudio del problema de "Bandits" y diferentes variantes, desde la versión más básica de Bandits con k-brazos, hasta las nuevas variantes de Bandits con recompensa por fidelidad. El problema de Bandits se enmarca en lo que se conoce como aprendizaje por refuerzos (Reinforcement Learning), donde un individuo tiene que tomar diferentes decisiones y según la decisión que toma, recibe una recompensa. El objetivo es maximizar esta recompensa.es
dc.format.mimetypeapplication/pdfes
dc.language.isoeses
dc.publisherUniversidad de la República (Uruguay). Facultad de Ciencias. Comisión de Carrera Matemáticaes
dc.titlePrograma de Seminario: de Banditses
dc.typeProgramaes
dc.rights.licenceLicencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0)es
udelar.degree.nameLicenciatura en Matemáticaes
udelar.degree.code65es
udelar.degree.typeGradoes
udelar.program.codeMA480_2023es
udelar.program.issued2023es
udelar.plan.code639es
udelar.subject.codeMA480es
Aparece en las colecciones: Unidad Curricular (Programas) - Facultad de Ciencias

Ficheros en este ítem:
Fichero Descripción Tamaño Formato   
MA480_2023.pdf87,53 kBAdobe PDFVisualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons