목록AI (43)
hojeomi blog
In [1]: from IPython.core.display import display, HTML display(HTML("")) 1. Build graph using TF operations¶ In [2]: # Lab 3 Minimizing Cost import numpy as np import tensorflow as tf import matplotlib.pyplot as plt x_train = [1, 2, 3, 4] y_train = [0, -1, -2, -3] # Sequential 모델은 레이어를 선형으로 연결하여 구성합니다. 레이어 인스턴스를 생성자에게 넘겨줌으로써 Sequential 모델을 구성할 수 있습니다. # units: 출력값의 크기(갯수) # inpun_dim: 2D, input_..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/6xaUp/btqTvQjoUBn/R8XvjK36lX2P0de1sKq8O1/img.png)
* Sung Kim 교수님의 유튜브 강의 공부내용입니다. - cost가 가장 작은 W 찾는 것 - 가장 대표적인 Gradient descent algorithm(경사하강법) - Formal definition에서 2로 나누는 이유: 미분 시, 지수 2가 곱하기 2로 내려오는데, 이때 계산을 더 쉽게 하기 위해 2로 한번 더 나눠준다. - 최종 식의 의미(W := W - a/m~): 필기 참고 - 좋지 않은 cost function 예시: 어떤 점에서 시작하는냐에 따라 결과값이 달라짐 - 그래서 꼭 convex한지 확인해야함. 오목해야 한 곳으로 모임.
In [25]: from IPython.core.display import display, HTML display(HTML("")) import tensorflow as tf import os # info 로그를 필터링 하려면 1, warning 로그는 2, error 로그는 3 os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' In [26]: hellow = tf.constant("hellow!") print(hellow) tf.Tensor(b'hellow!', shape=(), dtype=string) In [ ]: In [27]: # 앞쪽 레이어 In [28]: node1 = tf.constant(3.0, tf.float32) nod..