목록AI/Machine & Deep Learning (7)
hojeomi blog
1. IQR(Inter Quartile Range) based 2. Percentile based 3. Mad(Median Absolute Deviation) based 4. Std(Standard Deviation) based 5. Voting vased: 위와 같은 여러 방식을 통해 n번 이상 선택된 데이터. 예) 위 4가지 방식 중 2번 이상 선택된 데이터

* 출처: 유튜브 Sunk Kim 교수님 - 변수가 2개 이상일 때 - 이론은 Wx로 나타내지만, tensorflow에서는 XW로 적용한다. 이유는 행렬의 특성을 활용하기 위해(아래 참고) - 위 예시에서 변수는 3개, 인스턴스 갯수(데이터행 갯수)는 5개, 출력값은 1개의 열을 가진다.
In [ ]: In [4]: import tensorflow as tf import numpy as np x_data = [[73., 80., 75.], [93., 88., 93.], [89., 91., 90.], [96., 98., 100.], [73., 66., 70.]] y_data = [[152.], [185.], [180.], [196.], [142.]] In [5]: tf.model = tf.keras.Sequential() # units: 출력값의 크기(갯수) tf.model.add(tf.keras.layers.Dense(units=1, input_dim=3)) # input_dim=3 gives multi-variable regression tf.model.add(tf.keras.layer..

- TensorFlow의 이전버전이어서 최신버전에서는 어떤 식으로 구현하는지 모른다. 하지만 gradient를 직접 조절하고 싶을 때 참고하고자 정리한다. - Manual gradient 대략적으로 train - cost - hypothesis - W*b로 연결된다. 위 식에서 gradient 변수는 gradient 값들을 손수 계산한 것이다. - Gradient 조절 optimizer에서 바로 minimize 하지 말고, compute_gradient(cost)를 통해 cost에 맞는 gradient를 계산 -> 그 후 계산된 값들(gvs)을 마음대로 수정할 수 있다. 그 수정된 값을 apply_gradients(gvs)를 통해 적용할 수 있다. - 본 예제에서는 gvs를 수정하지 않고 바로 apply..