Giter Club home page Giter Club logo

2018-1-deeplearning-study's People

Contributors

creaitr avatar junjak avatar kairos03 avatar reasonh avatar yeongbean avatar youmin-kim avatar

Stargazers

 avatar  avatar  avatar  avatar  avatar  avatar

Watchers

 avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar

Forkers

junjak yeongbean

2018-1-deeplearning-study's Issues

모델의 train accuracy가 줄어들수도 있나요

Detail

default

MNIST에서는 train accuracy가 학습이 진행될때마다 계속 증가하는 추세였는데요,
cat vs dog같이 같은 답(라벨)을 가진 이미지끼리도 서로 상이한 모습을 가지고 있다면 train accuracy가 반드시 증기하지는 않는건가요?
(강아지도 까만색 흰색 주황색, 삽살개 포메라니안 도베르만 같이 여러 종류가 있는것 처럼)

Reference

Deep NN의 hypothesis

\\\    [1, 0, 0],  # 기타
    [0, 1, 0],  # 포유류
    [0, 0, 1],  # 조류
-----------------------------------------------------------------------------
X = tf.placeholder(tf.float32)
Y = tf.placeholder(tf.float32)

# 첫번째 가중치의 차원은 [특성, 히든 레이어의 뉴런갯수] -> [2, 10] 으로 정합니다.
W1 = tf.Variable(tf.random_uniform([2, 10], -1., 1.))
# 두번째 가중치의 차원을 [첫번째 히든 레이어의 뉴런 갯수, 분류 갯수] -> [10, 3] 으로 정합니다.
W2 = tf.Variable(tf.random_uniform([10, 3], -1., 1.))

# 편향을 각각 각 레이어의 아웃풋 갯수로 설정합니다.
# b1 은 히든 레이어의 뉴런 갯수로, b2 는 최종 결과값 즉, 분류 갯수인 3으로 설정합니다.
b1 = tf.Variable(tf.zeros([10]))
b2 = tf.Variable(tf.zeros([3]))

# 신경망의 히든 레이어에 가중치 W1과 편향 b1을 적용합니다
L1 = tf.add(tf.matmul(X, W1), b1)
L1 = tf.nn.relu(L1)

# 최종적인 아웃풋을 계산합니다.
# 히든레이어에 두번째 가중치 W2와 편향 b2를 적용하여 3개의 출력값을 만들어냅니다.
model = tf.add(tf.matmul(L1, W2), b2)

\
위에서 마지막 줄의 model이 Linear Regression으로 치면 hypothesis같은 건가요?

그리고
W1은 행렬 크기가 [2,10]이고 X는 상수이니 X와 W1을 곱한 행렬의 크기는 [2,10]이고
b1은 크기가 [1,10] 이나 [10,1] 둘 중 하나일거 같은데 어느경우던 더할 수 없을거 같아요

혹시 b1,b2의 tf,zeros[10] 이 부분이 행렬의 크기가 아닌 다른 의미가 있는건가요?

용어 정리

  • Loss, Cost function의 정의와 쓰임
  • Optimizer의 정의와 쓰임
  • One Hot Encoding?
  • Local Optima and Global Optima?

가장 최근 ckpt의 학습횟수가 제대로 불러와지지 않습니다

Detail

image

1000번 학습할때마다 checkpoint를 만드는모델입니다.
저번에 돌릴 때 6000번째에 마지막 checkpoint가 생겼습니다.

이를 로드해서 몇번째에 만들어진 checkpoint인지를 알아내기 위해 global_step이라는 변수를 이용했지만 계속 0번째라고 뜹니다.

그런데 학습결과를 보면 checkpoint가 제대로 불러졌다는걸 알 수 있습니다.

이게 항상 안되는게 아니라 vscode를 끄지 않은 상태에서 checkpoint를 만들고 불러오면 제대로 되지만 그 외의 경우는 사진과 같은 결과가 나옵니다.

Reference

dopout를 사용하면 학습이 느리게 진행되나요?

Detail

dropout

overfitting을 막기 위해 dropout(conv3, keepprob = 0.85)를 추가했습니다.
그랬더니 dropout이 없고 컨볼루션 레이어 수가 적은 모델보다 학습이 느리게 진행됩니다.

dropout이 학습 진행을 느리게 만드나요?

Reference

04 Neural Network Basic - 02 Deep NN 코드 관련

[털, 날개]

x_data = np.array(
[[0, 0], [1, 0], [1, 1], [0, 0], [0, 0], [0, 1]])

[기타, 포유류, 조류]

y_data = np.array([
[1, 0, 0], # 기타
[0, 1, 0], # 포유류
[0, 0, 1], # 조류
[1, 0, 0],
[1, 0, 0],
[0, 0, 1]
])

위 입력의 의미가 무엇인가요? 책 사주세요

Test 셋으로 모델을 평가할 때 epoch, step을 어느정도 해야 적절한가요?

Detail

cat vs dog cnn에서 훈련시킨 모델을 불러들여 약 1000step을 돌려보았습니다. 처음 300step 정도만 loss를 찾는 과정이 있어 정확도가 많이 낮았지만 이후에는 거의 100%를 유지했습니다. step을 좀 더 늘인다면 더 높은 평균 정확도를 얻을 수 있을 텐데 여기서 step을 더 늘이는 것이 맞는 것인지 궁금합니다.
(training set 개, 고양이 각각 1만장씩, test set 개, 고양이 각각 2,500장씩 사용했습니다.)
(test셋을 원래 모델에 집어 넣어 정확도를 구하는 test 방법이 맞는 것인지도 궁금합니다. 애초에 test 방법이 잘못되어 있는 것일 수 있어서...)
test
test

표준편차가 의미하는 바는 ?

W2 = tf.Variable(tf.random_normal([256, 256], stddev=0.01))

이곳에서 stddev 는 표준편차인데 , 레이어를 구성하는데 있어서 의미하는 바가 무엇인가요?

feed_dict를 쓰는 이유?

feed_dict=(X: .... )라는 구문은 학습이 끝난 이후 사용자가 임의의 값을 물어보는건가요?

4차 스터디 내용

  • 질문 교환 및 숙제 확인
    • 질문 많이 하세요
    • DNN mnist 98% 스냅샷
    • DNN mnist 실패한 케이스 또는 시도한 케이스 5개 이상
    • 위 숙제 자기 위키에 올리기
  • 실패한 케이스 발표 @JINHYUNGP
  • naver ai hackathon 진행 결과 발표

git add의 의미

git add를 하면 수정한 내용이 저장되는건가요? 제가 똑바로 이해한건가요?? ㅜ

3차 스터디 내용

  • 과제 확인 및 질문 교환
    • python 숙제 #2
    • git 숙제 #4
    • golbin 4, 5, 6장 코드 실행 #17
    • 용어 정리 #15
  • git / github 발표 백지원 @1core2life
  • DNN Tensorflow로 구현하기 (mnist 풀기) 박진배 @cometonf

학습을 계속해도 학습률이 오르지 않는 경우

Detail

cat dog training

모델을 바꾸어 돌려본 결과 80~90%대에 train accuracy가 왔다갔다 하는데 1300회 가량의 결과가 비슷하다면 모델을 좀 더 복잡하게 바꾸어야 하는걸까요

<<지난 발표자중 한분이 '나는 좀 더 간단한 모델로 더 많이 학습시켜서 정확도를 높이겠다' 라고 한것이 생각나서 하는 질문입니다. >>

Reference

트레이닝 오류

Detail

개고양이 training 도중에 이미지 로드는 완료했지만 컴퓨터 사양이 안되서 안돌아가는건지 확실치 않아 여기에 올려봅니다....

Reference

training

이미지를 학습시키기 위해 파일을 변환해야 하나요?

Detail

CNN을 이용해 학습시키려면 학습시킬 이미지들이 필요할텐데요,
어떻게 하면 학습시킬 이미지를 불러올 수 있는지를 찾다가 아래와 같은 주소에서 변환하라는 이야기를 합니다.

강아지 12500장, 고양이12500이 담긴 train압축파일 안의 이미지를 모두 변환해야 학습시킬 수 있나요?

Reference

http://gusrb.tistory.com/12

train 도중 같은 정확도가 빈번하게 나옵니다.

image
image

train 결과를 프린트 하는 도중, 사진에 보이듯 75%, 65.62% 등등 특정한 정확도가 빈번하게 나옵니다.

분명히 이미지 배치에서 셔플 돌렸는데 왜 이런식으로 특정한 정확도가 자주 나오는지 궁금합니다.

Regularization이 잘 이해가 안갑니다.

모두의 딥러닝 7-1에서 Regularization을 cost함수가 굴곡이 심하지 않게 쫙펴주는 일이라고 합니다.
여기서 기존의 cost함수에 새로운 가중치[regularization strength*tf.reduce_mean(tf.square(W))]를 더해주는 것이 왜 cost 함수의 굴곡을 줄여주는지 궁금합니다.

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❤️ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.