Por favor, use este identificador para citar o enlazar este ítem:
https://hdl.handle.net/20.500.12008/36840
Cómo citar
Registro completo de metadatos
Campo DC | Valor | Lengua/Idioma |
---|---|---|
dc.date.accessioned | 2023-04-27T11:13:01Z | - |
dc.date.available | 2023-04-27T11:13:01Z | - |
dc.date.issued | 2023 | - |
dc.identifier.citation | Universidad de la República (Uruguay). Facultad de Ciencias. Comisión de Carrera Matemática. Programa de Seminario: de Bandits [en linea] 2023. Plan 2014. | es |
dc.identifier.uri | https://hdl.handle.net/20.500.12008/36840 | - |
dc.description.abstract | Se pretende abordar el estudio del problema de "Bandits" y diferentes variantes, desde la versión más básica de Bandits con k-brazos, hasta las nuevas variantes de Bandits con recompensa por fidelidad. El problema de Bandits se enmarca en lo que se conoce como aprendizaje por refuerzos (Reinforcement Learning), donde un individuo tiene que tomar diferentes decisiones y según la decisión que toma, recibe una recompensa. El objetivo es maximizar esta recompensa. | es |
dc.format.mimetype | application/pdf | es |
dc.language.iso | es | es |
dc.publisher | Universidad de la República (Uruguay). Facultad de Ciencias. Comisión de Carrera Matemática | es |
dc.title | Programa de Seminario: de Bandits | es |
dc.type | Programa | es |
dc.rights.licence | Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0) | es |
udelar.degree.name | Licenciatura en Matemática | es |
udelar.degree.code | 65 | es |
udelar.degree.type | Grado | es |
udelar.program.code | MA480_2023 | es |
udelar.program.issued | 2023 | es |
udelar.plan.code | 639 | es |
udelar.subject.code | MA480 | es |
Aparece en las colecciones: | Unidad Curricular (Programas) - Facultad de Ciencias |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | ||
---|---|---|---|---|---|
MA480_2023.pdf | 87,53 kB | Adobe PDF | Visualizar/Abrir |
Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons