[JAX] Automatic Differentiation; Logiostic Regression
·
코딩/JAX
`[JAX] Automatic Differentiation; jax.grad`에서 이어지는 내용입니다.이 포스팅에서는 지난시간의 `jax.grad`에 이어 나머지 주제에 대해 이야기 해보려합니다.`jax.grad`를 사용한 계산로지스틱 회귀에서의 gradient 계산 (이번 포스팅)중첩 리스트, 튜플, 딕셔너리에 대한 미분`jax.value_and_grad`를 사용하여 함수와 그 그래디언트 평가 수치 미분과의 비교 로지스틱 회귀에서의 gradient 계산다음의 예제는 로지스틱 회귀모델에서 `jax.grad()`를 이용하여 그래디언트를 계산하는 방법을 보여줍니다. 설정은 다음과 같습니다:먼저 시그모이드 함수는 탄젠트 쌍곡함수의 변환으로 표현 하였습니다; $tanh(x)=2\sigma{(2x)}-1$key ..