๐ Cost Function์ ์ต์ํ ํ ์ ์๋ ๊ฒ์ด ์ข๋ค.
๐ ์ฝ๋๋ก ํ ๋ฒ ๊ตฌํด๋ณด์!
import numpy as np
a = np.poly1d([1, 1])
b = np.poly1d([1, -1])
a,b
>>>>
(poly1d([1, 1]), poly1d([ 1, -1]))
# (x+1) * (x-1) = x^2 -1
a*b
>>>>
poly1d([ 1, 0, -1])
# x^2์ ๊ณ์ -> 1 / x์ ๊ณ์ -> 0 / ์์ํญ -> -1
np.poly1d([2, -1])**2 + np.poly1d([3, -5])**2 + np.poly1d([5, -6])**2
>>>>
poly1d([ 38, -94, 62])
import sympy as sym
theta = sym.Symbol('th')
diff_th = sym.diff(38*theta**2-94*theta+62 , theta) # ์์ ์์ theta๋ก diff(๋ฏธ๋ถ) ํ๋ค
diff_th
>>>>
76th−94
# 76th-94 = 0 ์ผ๋ก ๊ทน์๊ฐ์ ๊ตฌํ ์ ์๋ค.
๐ ์ค์ ๋ฐ์ดํฐ๋ฅผ ๋ค๋ฃฐ ๋๋ ๋ค๋ฅด๋ค..
- ์ค์ ๋ฐ์ดํฐ๋ ๋๋ฌด ๋ณต์กํ์ฌ ์ ์ฒ๋ผ ์์ผ๋ก ํ๊ธฐ๊ฐ ์ด๋ ต๋ค
'Study_note(zb_data) > Machine Learning' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
์คํฐ๋๋ ธํธ (Logistic Regression) (0) | 2023.09.30 |
---|---|
์คํฐ๋๋ ธํธ (Cost Function 2) (0) | 2023.09.28 |
์คํฐ๋๋ ธํธ (ํต๊ณ์ ํ๊ท) (0) | 2023.09.28 |
์คํฐ๋๋ ธํธ (Regression) (0) | 2023.09.28 |
์คํฐ๋๋ ธํธ (ML_ํจ์์ ํํ) (0) | 2023.09.26 |