Skip to content

Commit 79bb5eb

Browse files
updated 1
1 parent 9d38946 commit 79bb5eb

File tree

2 files changed

+11
-11
lines changed

2 files changed

+11
-11
lines changed

9ML/.ipynb_checkpoints/1_IntroML-checkpoint.ipynb

Lines changed: 6 additions & 6 deletions
Original file line numberDiff line numberDiff line change
@@ -4,7 +4,7 @@
44
"cell_type": "markdown",
55
"metadata": {},
66
"source": [
7-
"# Machine Learning\n",
7+
"# 1. Machine Learning\n",
88
"\n",
99
"## Qué es Machine Learning?\n",
1010
"\n",
@@ -81,12 +81,12 @@
8181
"source": [
8282
"\n",
8383
"\n",
84-
"# Aprendizaje Supervisado: Regresión Lineal\n",
84+
"# 2. Aprendizaje Supervisado: Regresión Lineal\n",
8585
"\n",
8686
"A partir de un conjunto de variables de entrada, se busca predecir una característica objetivo de salida. Se denota una pareja $(x^{(i)},y^{(i)})$, la muestra de entrenamiento y el conjunto desde $i=1,...,n$ es denotado, conjunto de entrenamiento. El objetivo es a partir de nuestro conjunto deentrada $\\mathcal{X}$ obtener una hipótesis $h:\\mathcal{X} \\rightarrow \\mathcal{Y}$. Cuando $y$ únicamente puede tomar un pequeño número de valores discretos, se dice que este es un problema de clasificación. \n",
8787
"\n",
8888
"\n",
89-
"# Regresión Lineal\n",
89+
"## 2.1 Regresión Lineal\n",
9090
"\n",
9191
"Para realizar aprendizaje supervisado, se necesita decidir cómo representar funciones hipótesis $h$. Inicialmente, es posible decidir representarlas como funciones lineales de x:\n",
9292
"\n",
@@ -183,10 +183,10 @@
183183
"cell_type": "markdown",
184184
"metadata": {},
185185
"source": [
186-
"## Mínimos cuadrados\n",
187-
"Es claro que a partir de la función de costo $J(\\theta)$ que se definió previamente, el parámetro óptimo que se puede obtener utilizando mínimos cuadrados es $\\hat{\\theta}=X^T X\\theta - X^T \\vec{y}$.\n",
186+
"# 3. Mínimos cuadrados\n",
187+
"Es claro que a partir de la función de costo $J(\\theta)$ que se definió previamente, el parámetro óptimo que se puede obtener utilizando mínimos cuadrados es $\\hat{\\theta}=(X^T X)^{-1}X^T \\vec{y}$. Sin embargo, no siempre es factible llegar a esta solución debido a distintas ra\n",
188188
"\n",
189-
"## Interpretación probabilística \n",
189+
"## 3.1 Interpretación probabilística \n",
190190
"\n",
191191
"Cuando se tiene un problema de regresión es común pensar en por qué la escogencia de la función de costo $J$ es apropiada. Asumamos que el target y las entradas están relacionadas a través de \n",
192192
"\n",

9ML/1_IntroML.ipynb

Lines changed: 5 additions & 5 deletions
Original file line numberDiff line numberDiff line change
@@ -4,7 +4,7 @@
44
"cell_type": "markdown",
55
"metadata": {},
66
"source": [
7-
"# Machine Learning\n",
7+
"# 1. Machine Learning\n",
88
"\n",
99
"## Qué es Machine Learning?\n",
1010
"\n",
@@ -81,12 +81,12 @@
8181
"source": [
8282
"\n",
8383
"\n",
84-
"# Aprendizaje Supervisado: Regresión Lineal\n",
84+
"# 2. Aprendizaje Supervisado: Regresión Lineal\n",
8585
"\n",
8686
"A partir de un conjunto de variables de entrada, se busca predecir una característica objetivo de salida. Se denota una pareja $(x^{(i)},y^{(i)})$, la muestra de entrenamiento y el conjunto desde $i=1,...,n$ es denotado, conjunto de entrenamiento. El objetivo es a partir de nuestro conjunto deentrada $\\mathcal{X}$ obtener una hipótesis $h:\\mathcal{X} \\rightarrow \\mathcal{Y}$. Cuando $y$ únicamente puede tomar un pequeño número de valores discretos, se dice que este es un problema de clasificación. \n",
8787
"\n",
8888
"\n",
89-
"# Regresión Lineal\n",
89+
"## 2.1 Regresión Lineal\n",
9090
"\n",
9191
"Para realizar aprendizaje supervisado, se necesita decidir cómo representar funciones hipótesis $h$. Inicialmente, es posible decidir representarlas como funciones lineales de x:\n",
9292
"\n",
@@ -183,10 +183,10 @@
183183
"cell_type": "markdown",
184184
"metadata": {},
185185
"source": [
186-
"## Mínimos cuadrados\n",
186+
"# 3. Mínimos cuadrados\n",
187187
"Es claro que a partir de la función de costo $J(\\theta)$ que se definió previamente, el parámetro óptimo que se puede obtener utilizando mínimos cuadrados es $\\hat{\\theta}=(X^T X)^{-1}X^T \\vec{y}$. Sin embargo, no siempre es factible llegar a esta solución debido a distintas ra\n",
188188
"\n",
189-
"## Interpretación probabilística \n",
189+
"## 3.1 Interpretación probabilística \n",
190190
"\n",
191191
"Cuando se tiene un problema de regresión es común pensar en por qué la escogencia de la función de costo $J$ es apropiada. Asumamos que el target y las entradas están relacionadas a través de \n",
192192
"\n",

0 commit comments

Comments
 (0)