문서 URL
수정이 필요한 URL을 남겨주세요. (예. https://tutorials.pytorch.kr/beginner/basics/intro.html)
변경 사항
(1)어떤 단어 / 문장 / 내용이 (2)어떻게 변경되어야 한다고 생각하세요?
line 16: 우리는 (x), 학습시켜 -> 학습하여
line 19: 어째서 (x), 작동하는지에 -> 작동하는 이유에
line 20: 처음 읽었을 때는 -> 입문자라면, 일어나고 있는지에 대해 이해하는 것이 조금 시간을 소요할 수 있으나 -> 얼어나고 있는지 이해하는 데 다소 시간이 걸릴 수 있으나
line 21: 그래도 GAN에 대한 사전지식이 필요하지는 않으니 -> GAN에 대한 사전 지식이 필수는 아니니
line 22: 추가로 -> 또한, 1-2개 -> 12개, 시간절약에 -> 시간 절약에
line 31: 학습시키는 -> 학습하는
line 45: 생성해 내고 -> 생성해내고
line 46: equilbrium -> equilibrium
line 63: 대응시키는 -> 대응하는
line 72: 최소화시키려고 -> 최소화하려고
line 73: 손실함수는 -> 손실 함수는
line 78: 이 때 -> 이때
line 87: convolution-transpose -> convolutional-transpose
line 88: Radford와 그 외가 -> Radford 등이
line 90: GAN모델이 -> GAN 모델이
line 91: 확인을 해보자면 -> 확인해보자면
line 97: 3x64x64 의 -> 3x64x64 크기의
line 98: 출력값은 -> 출력 값은, 01사이의 확률값입니다 -> 0~1 사이의 확률 값입니다.
line 103: 입력값은 -> 입력 값은, 출력값은 -> 출력 값은
line 105: 반대적인 개념이라 -> 반대 개념으로
line 106: 손실함수의 -> 손실 함수의, 방법등에 -> 방법 등에
line 265: 설정값들과 -> 설정 값들과
line 274: 모든 합성곱 계층, 전치 합성곱 계층, 배치 정규화 계층을, 위에서 말한 조건대로 가중치들을 다시 초기화 시킵니다. 이 함수는 모델이 만들어지자 마자 바로 적용을 시키게 됩니다. -> 모든 합성곱 계층, 전치 합성곱 계층, 배치 정규화 계층의 가중치들을 위에서 말한 조건대로 다시 초기화합니다. 이 함수는 모델이 만들어지자마자 바로 적용합니다.
line 294: 변환시키도록 -> 변환하도록
line 295: 데이터공간으로 -> 데이터 공간으로
line 298: relu -> ReLU
line 300: 위해서 입니다 -> 위해서입니다.
line 303: 아키텍쳐 -> 아키텍처
line 308: 설정값 -> 설정 값
line 309: 아키텍쳐 -> 아키텍처
line 376: 가공시키고 -> 가공하고
line 377: 확률값으로 -> 확률 값으로, 아키텍쳐 -> 아키텍처
line 381: MaxPool or AvgPooling -> MaxPooling or AvgPooling
line 382: leaky relu -> LeakyReLU, 학습과정에서 -> 학습 과정에서, 있습니다 -> 있도록 돕습니다.
line 440: 손실함수 -> 손실 함수
line 443: 손실함수 -> 손실함수
line 444: 구체화시킬 -> 구체화할, 손실함수 -> 손실 함수
line 446: 사용할겁니다 -> 사용할 것입니다, 해당함수는 -> 해당 함수는
line 450: 주의깊게 -> 주의 깊게
line 451: 조정을 조정하여 -> 조정하여
line 457: 구성할때의 -> 구성할 때의
line 458: 손실값을 -> 손실 값을, 사용될겁니다 -> 사용될 것입니다
line 462: 끝날때까지 -> 끝날 때까지
line 464: 출력값을 -> 출력 값을, 확인 할 수 -> 확인할 수
line 487: 학습시키는 -> 학습하는
line 489: 것 조차도 -> 것조차도
line 491: 몇가지 -> 몇 가지
line 492: 몇번 -> 몇 번
line 493: 최적화 시키는 겁니다 -> 최적화하는 것입니다, 학습과정은 -> 학습 과정은
line 498: 입력값이 -> 입력 값이
line 499: 상승시키며 -> 상승하며
line 500: 최대화시키는 -> 최대화하는
line 503: 출력값으로 -> 출력 값으로, 손실값을 -> 손실 값을
line 504: 첫번째 -> 첫 번째, 두번째 -> 두 번째
line 505: 출력값으로 -> 출력 값으로, 손실값을 -> 손실 값을
line 507: 적용될겁니다 -> 적용될 것입니다
line 511: 최소화시키는 -> 최소화하는
line 512: 학습초기에는 -> 학습 초기에는
line 514: 출력값을 -> 출력 값을, 라벨값 -> 라벨 값, 손실값-> 손실 값
line 515: 손실값 -> 손실 값, 업데이트시켜주면 -> 업데이트해주면
line 516: 볼때는 -> 볼 때는, 될테지만 -> 될 것처럼 보이지만
line 523: 손실값 -> 손실 값
line 524: 손실값 -> 손실 값
line 525: 확률값 -> 확률 값
line 526: 0.5값에 -> 0.5 값에
line 527: 출력값 -> 출력 값
line 536: 손실값 -> 손실 값
line 560: 손실값 -> 손실 값
line 574: 손실값 -> 손실 값
line 579: 손실값 -> 손실 값
line 589: 손실값 -> 손실 값
line 591: 손실값가 -> 손실 값과
line 593: 손실값 -> 손실 값
line 607: 손실값 -> 손실 값
line 611: 출력값 -> 출력 값
line 624: 세가지를 -> 세 가지를
line 625: 첫번째 -> 첫 번째, 손실값 -> 손실 값, 두번째 -> 두 번째
line 629: 손실값 -> 손실 값
line 631: 손실값 -> 손실 값
line 647: 기억할겁니다 -> 기억할 겁니다
line 648: 이미지들을애니메이션 -> 이미지들을 애니메이션, play버튼을 -> play 버튼을
line 692: 아키텍쳐 -> 아키텍처
추가 정보
위와 같이 생각하신 이유 또는 다른 참고할 정보가 있다면 알려주세요.
convolution-transpose를 convolutional-transpose로 원문 그대로 수정하였으나, 학계에선 주로 transposed convolution으로 사용하여 이 부분에 대한 의견 수렴이 필요합니다.
문서 URL
수정이 필요한 URL을 남겨주세요. (예. https://tutorials.pytorch.kr/beginner/basics/intro.html)
변경 사항
(1)어떤 단어 / 문장 / 내용이 (2)어떻게 변경되어야 한다고 생각하세요?
line 16: 우리는 (x), 학습시켜 -> 학습하여
line 19: 어째서 (x), 작동하는지에 -> 작동하는 이유에
line 20: 처음 읽었을 때는 -> 입문자라면, 일어나고 있는지에 대해 이해하는 것이 조금 시간을 소요할 수 있으나 -> 얼어나고 있는지 이해하는 데 다소 시간이 걸릴 수 있으나
line 21: 그래도 GAN에 대한 사전지식이 필요하지는 않으니 -> GAN에 대한 사전 지식이 필수는 아니니
line 22: 추가로 -> 또한, 1-2개 -> 1
2개, 시간절약에 -> 시간 절약에1사이의 확률값입니다 -> 0~1 사이의 확률 값입니다.line 31: 학습시키는 -> 학습하는
line 45: 생성해 내고 -> 생성해내고
line 46: equilbrium -> equilibrium
line 63: 대응시키는 -> 대응하는
line 72: 최소화시키려고 -> 최소화하려고
line 73: 손실함수는 -> 손실 함수는
line 78: 이 때 -> 이때
line 87: convolution-transpose -> convolutional-transpose
line 88: Radford와 그 외가 -> Radford 등이
line 90: GAN모델이 -> GAN 모델이
line 91: 확인을 해보자면 -> 확인해보자면
line 97: 3x64x64 의 -> 3x64x64 크기의
line 98: 출력값은 -> 출력 값은, 0
line 103: 입력값은 -> 입력 값은, 출력값은 -> 출력 값은
line 105: 반대적인 개념이라 -> 반대 개념으로
line 106: 손실함수의 -> 손실 함수의, 방법등에 -> 방법 등에
line 265: 설정값들과 -> 설정 값들과
line 274: 모든 합성곱 계층, 전치 합성곱 계층, 배치 정규화 계층을, 위에서 말한 조건대로 가중치들을 다시 초기화 시킵니다. 이 함수는 모델이 만들어지자 마자 바로 적용을 시키게 됩니다. -> 모든 합성곱 계층, 전치 합성곱 계층, 배치 정규화 계층의 가중치들을 위에서 말한 조건대로 다시 초기화합니다. 이 함수는 모델이 만들어지자마자 바로 적용합니다.
line 294: 변환시키도록 -> 변환하도록
line 295: 데이터공간으로 -> 데이터 공간으로
line 298: relu -> ReLU
line 300: 위해서 입니다 -> 위해서입니다.
line 303: 아키텍쳐 -> 아키텍처
line 308: 설정값 -> 설정 값
line 309: 아키텍쳐 -> 아키텍처
line 376: 가공시키고 -> 가공하고
line 377: 확률값으로 -> 확률 값으로, 아키텍쳐 -> 아키텍처
line 381: MaxPool or AvgPooling -> MaxPooling or AvgPooling
line 382: leaky relu -> LeakyReLU, 학습과정에서 -> 학습 과정에서, 있습니다 -> 있도록 돕습니다.
line 440: 손실함수 -> 손실 함수
line 443: 손실함수 -> 손실함수
line 444: 구체화시킬 -> 구체화할, 손실함수 -> 손실 함수
line 446: 사용할겁니다 -> 사용할 것입니다, 해당함수는 -> 해당 함수는
line 450: 주의깊게 -> 주의 깊게
line 451: 조정을 조정하여 -> 조정하여
line 457: 구성할때의 -> 구성할 때의
line 458: 손실값을 -> 손실 값을, 사용될겁니다 -> 사용될 것입니다
line 462: 끝날때까지 -> 끝날 때까지
line 464: 출력값을 -> 출력 값을, 확인 할 수 -> 확인할 수
line 487: 학습시키는 -> 학습하는
line 489: 것 조차도 -> 것조차도
line 491: 몇가지 -> 몇 가지
line 492: 몇번 -> 몇 번
line 493: 최적화 시키는 겁니다 -> 최적화하는 것입니다, 학습과정은 -> 학습 과정은
line 498: 입력값이 -> 입력 값이
line 499: 상승시키며 -> 상승하며
line 500: 최대화시키는 -> 최대화하는
line 503: 출력값으로 -> 출력 값으로, 손실값을 -> 손실 값을
line 504: 첫번째 -> 첫 번째, 두번째 -> 두 번째
line 505: 출력값으로 -> 출력 값으로, 손실값을 -> 손실 값을
line 507: 적용될겁니다 -> 적용될 것입니다
line 511: 최소화시키는 -> 최소화하는
line 512: 학습초기에는 -> 학습 초기에는
line 514: 출력값을 -> 출력 값을, 라벨값 -> 라벨 값, 손실값-> 손실 값
line 515: 손실값 -> 손실 값, 업데이트시켜주면 -> 업데이트해주면
line 516: 볼때는 -> 볼 때는, 될테지만 -> 될 것처럼 보이지만
line 523: 손실값 -> 손실 값
line 524: 손실값 -> 손실 값
line 525: 확률값 -> 확률 값
line 526: 0.5값에 -> 0.5 값에
line 527: 출력값 -> 출력 값
line 536: 손실값 -> 손실 값
line 560: 손실값 -> 손실 값
line 574: 손실값 -> 손실 값
line 579: 손실값 -> 손실 값
line 589: 손실값 -> 손실 값
line 591: 손실값가 -> 손실 값과
line 593: 손실값 -> 손실 값
line 607: 손실값 -> 손실 값
line 611: 출력값 -> 출력 값
line 624: 세가지를 -> 세 가지를
line 625: 첫번째 -> 첫 번째, 손실값 -> 손실 값, 두번째 -> 두 번째
line 629: 손실값 -> 손실 값
line 631: 손실값 -> 손실 값
line 647: 기억할겁니다 -> 기억할 겁니다
line 648: 이미지들을애니메이션 -> 이미지들을 애니메이션, play버튼을 -> play 버튼을
line 692: 아키텍쳐 -> 아키텍처
추가 정보
위와 같이 생각하신 이유 또는 다른 참고할 정보가 있다면 알려주세요.
convolution-transpose를 convolutional-transpose로 원문 그대로 수정하였으나, 학계에선 주로 transposed convolution으로 사용하여 이 부분에 대한 의견 수렴이 필요합니다.