Machine Learning 용어집
머신러닝 관련 용어를 정리합니다. 머신러닝 원문 용어의 한글 맵핑과 관련 정보를 정리합니다.
A
- Accuracy: 정확도
- 분류 성능 모델 성능 지표
 - 다중 클래스 분류에서 정확도
- $\frac{#True Positive}{#Total Examples}$
 
 - 이진 분류 정확도
- $\frac{#True Positive + #True Negative}{#Total Examples}$
 
 
 - Activation function: 활성화 함수
 - Adam: Adaptive Moment Estimation
- 과거의 미분값의 방향과 분산을 계속 가중평균 내에서 효과적인 업데이트 방향과 크기 선택
 
 - AdamGrad
- 미분값의 크기를 추적하고 학습률을 데이터에 적응
 
 - Affine transformation: 어파인 변환
 - Algorithm: 알고리즘
- 입력을 출력으로 변환하기 위해 수행되는 명령의 순서
 
 - Anomaly Detection: 이상 탐지
 - Area under the curve(AUC): 곡선 아래 면적
- 관련 용어: ROC 곡선
 
 - Artificial Neural Network: 인공신경망
 - Association Rule Learning: 연관 규칙 학습
 - Autoencoder: 오토인코더
 - Average pooling: 평균 풀링
 
B
- backpropagation: 오차역전파법
 - Backpropagation Through Time: 시간 기반 오차역전파법
 - Backward propagation: 역전파
 - Batch: 배치
 - Batch Learning: 배치 학습
 - Batch Nomalization: 배치 정규화
- 학습 속도 향상
 - 과대적홥 방지
 - 초깃값에 크게 의존하지 않음
 
 - Bayesian: 베이지언
- 불확실성을 정량화하는 것을 목표로 하는 통계확 관점
 - 베이지언은 확률을 빈도의 개념이 아니라 믿음의 정도로 해석하는 관점
 
 - Bias: 편향
 - Bidirected RNN: 양방향 순환 신경망
 - binary classification: 이진 분류
- 상호 배타적인 두 클래스 중 하나를 출력하는 분류
 - 예: ‘스팸’ / ‘스팸 아님’
 
 - bilinear interpolation: 이중선형 보간
 - Binomial Distribution: 이항분포
- 이항 분포는 연속된 n번의 독립적 시행에서 각 시행이 확률 p를 가질 때의 이산 확률 분포
 - 이러한 시행은 베르누이 시행이라고 불리기도 함
 
 - Binomial Logistic Regression: 이항 로지스틱 회귀
 
C
- category: 범주
 - Categorical data: 범주형 데이터
- 가능한 값의 불연속 집합을 갖는 특성
 - 관련 용어: Numerical data(수치 데이터)
 
 - Central Limit Theorem: 중심 극한의 원리
- 표본들의 평균을 구할 때, 극단적인 값을이 서로 상쇄되어 평균값으로 모이는 경향
 
 - Centroid: 중심(센트로이드)
 - Chain rule: 연쇄법칙
 - Chi-sqare: 카이제곱
 - Chi-sqare Feature Selection: 카이제곱 특성 선택법
 - Classification: 분류
 - Classification threshold: 분류 임계값
- 긍정과 부정을 결정하는 모델의 예측 점수의 스칼라 기준 값
 
 - Closed-form Solution: 닫힌 형태의 해
 - Clustering: 군집
 - CNN: 합성곱 신경망
 - Coefficient: 계수
 - Collaborative filtering: 협업 필터링
- 여러 사람의 관심분야를 기반으로 특정인의 관심 분야 예측
 - 추천에 자주 사용
 
 - Computational Complexity: 게산 복잡도
 - Corpus: 말뭉치
 - Confidence Interval
- (통계)신뢰구간
- 신뢰 수준의 확률로 모평균을 포함하는 구간
 
 
 - (통계)신뢰구간
 - Confidence Level
- (통계)신뢰수준
- 어떤 모수가 신뢰 구간에 포함될 확률
 - 동일한 모집단에서 반복해서 표본을 추출할 경우 모집단 모수를 포함할 구간의 비율
 
 
 - (통계)신뢰수준
 - Confuse Matrix: 혼동 행렬
- 학습된 모델이 예측한 예측 범주와 데이터의 실제 분류 범주의 빈도를 교차표 형태로 정리한 행렬
 - 분류 정확도 등 분류 학습 모델 결과 평가에 사용
 - 분류 문제에서 관심이 있는 범주를 긍정(Positive), 그 외 범주를 부정(Nagative)라고 지정
 - 범주의 종류
- True Positive: 참 긍정 -> 긍정을 바르게 예측
 - True Negative: 참 부정 -> 부정을 바르게 예측
 - False Positive: 거짓 긍정 -> 긍정을 잘못 예측
 - False Negative: 거짓 부정 -> 부정을 잘못 예측
 
 
 - Continuous feature: 연속 특성
- 부동 소수점 타입의 특성
 
 - Continuous Probability Distribution: 연속 확률 분포
 - Continuous Random Variable: 연속 확률 변수
- 확률변수가 취할 수 있는 값이 일정한 구간내의 실수로서 그 수가 무한한 확률변수
 - 체중, 온도, 키
 - 대표 사례: 정규분포
 
 - Convergence: 수렴
 - Convex: 볼록
 - Convex function: 볼록 함수
 - Convolution: 컨볼루션
 - Convolutional layer: 컨볼루션 레이어
 - Correllation Coefficient: 상관 계수
 - Cosine Similarity: 코사인 유사도
- 두 벡터의 사이의 각도를 -1에서 1로 나타내는 척도
 - 1이면 크고 -1이면 작다
 
 - Cost: 비용
- Loss(손실)과 동의어
 
 - Cost Function: 비용 함수
 - Curse of Dimensionality: 차원의 저주
 - Cross Entropy: 교차 엔트로피
 - Cross Validation: 교차 검증
 - Cross Validation Error: 교차 검증 오차
 - Cumulative Reward: 누적 보상
 
D
- Data augmentation 데이터 증식
 - Data Mining: 데이터 마아닝
- 머신러닝을 적용하여 대용량 데이러를 분석하여 숨겨진 패턴을 찾는 것
 
 - Data Snooping Bias: 데이터 스누핑 편향
- 테스트 데이터가 유출되어 편향을 일으키는
 
 - Dataset: 데이터셋
- 사례를 모은 것
 
 - Decision boundary: 결정 경계
- 클래스 사이의 구분 선
 
 - Decision Function: 결정 함수
- 유사어: Distrimination Function(판별 함수)
 - 샘플 공간(표본 공간)에서 결정 영역(Decision Region)을 대응/사상/매핑하는 함수
 
 - Decision Tree: 결정 트리
 - Degree of Freedom: 자유도
 - Default Value: 기본값
 - Dense layer: 덴스 레이어
- Fully Connected Layer(전연결 레이어)와 동의어
 
 - Density Estimation: 밀도 추정
 - Density-based clustering: 밀도 기반 클러스터링
 - Deep Belief Network: 심층 신뢰 신경망
 - Deep Model: 심층 모델
- 여러 히든 레이어를 포함하는 신경망
 
 - Deep learning: 딥러닝
 - Deep Belief Network: 심층 신뢰 신경망
 - Deep Neural Network(DNN): 심층 신경망
 - Deep Reinforcement Learning: 심층 강화 학습ㅊ
 - Dependent Variable: 종속 변수
 - Derived feature: 파생 피처
 - Deviation: 편차
 - Diagram: 그림, 도식, 도표
 - Dimensionality Reduction: 차원 축소
 - Discrete feature: 불연속 특성
- 가능한 값의 유한 집합을 갖는 특성
 
 - Discrete Probability Distribution: 이산 확률 분포
 - Discrete Random Variable: 이산 확률 변수
- 확률변수가 취할 수 있는 값의 수가 유한하거나 무한하더라도 셀수있는(countable) 확률변수
 - 동전을 1,000개 던질 때 앞면의 수
 - 관련 용어: Continuous Random Variable
 
 - Document Categorization: 문서 분류
 - Document Classification: 문서 분류
 - Document Frequency: 문서 빈도
 - Document Segmentation: 문서 세그멘테이션
 - Dot product: 스칼라 곱
 - Double Presicion: 배정밀도
 - Dropout: 드롭아웃
 - Dropout regularization: 드롭아웃 규제
- 신경망을 학습시키는 데 유용한 규제 형태
 - 네트워크를 학습시켜 더 작은 네트워크로 이루어진 대규모 앙상블을 모방하도록 하는 방식과
 
 
E
- Early stopping: 조기 중단
 - Edit Distance: 편집 거리
 - Edge: 윤곽선
 - Element: 요소, 개체, 레코드
- 변량에 대한 실제의 수치
 
 - Embeddings: 임베딩
- 임베딩(embeddings)은 고차원 벡터를 저차원 공간으로 변환한 결과
 - 예제
- 백만 개의 요소를 갖는(고차원) 희소 벡터를 수백 개의 요소를 갖는(저차원) 밀집 벡터로 표현
 
 
 - Embedding Learning: 임베딩 학습
 - Ensemble: 앙상블
- 여러 모델의 예측을 병합한 결과
 
 - Ensemble learning: 앙상블 학습
 - Ensemble method: 앗상블 방법
 - Epoch: 에포크
- 전체 데이터 세트의 각 예를 한 번씩 확인한 학습 단계
 
 - Error: 오차
- 실제 값과 예측값의 차이
 - 유형
- training error: 학습 오차
 - Generation error: 일반화 오차
 - Test error: 테스트 오차
 
 
 - Error Function: 오차 함수
 - Error Rate: 오차율
- 분류 성능 모델 성능 지표
 
 - Extimation: 추정
 - Example: 사례
- 데이터셋의 한 개 데이터, 하나 이상의 특성을 포함
 - 지도하급이라면 라벨을 포함함
 
 - Expected Value: 기대값
 - Expectation Maximization: 기댓값 최대화
 - Expert System: 전문가 시스템
 - Exponential function: 지수 함수
 
F
- Factor Matrix: 요인 행렬
 - Feature: 특성
- 예측을 수행하는 데 사용되는 입력 변수
 
 - Feature Engineering: 특성 공학
 - Feature Extraction: 특성 추출
- 상관 관계가 있는 여러 특성을 합치는 기법
 
 - Feature Improtance: 특성 중요도
- 머신러닝 알고리즘에서 특성의 중요 정도를 평가
 - 출처: 파이썬 라이브러리를 활용한 머신러닝(p109)
 
 - Feature map: 특성 맵
 - Feature Selection: 특성 선정
 - Feed-forward neural network: FFNets, FF넷
 - Filter: 필터
 - Forget gate: 망각 게이트
 - Fully connected layer: 완전 연결 계층
- 각 노드가 다음 히든 레이어의 모든 노드에 연결된 히든 레이어.
 - Dense Layer와 동의어
 
 
G
- Gate Recurrent Unit: GRU
 - Gaussian Maxture Model: 가우시안 혼합 모형
 - Generalization: 일반화
- 모델에서 학습에 사용된 데이터가 아닌 이전에 접하지 못한 새로운 데이터에 대해 올바른 예측을 수행하는 역량
 
 - Generalization Error: 일반화 오류
 - Generalization linear model: 일반화 선형 모델
 - Global Minimum: 전역 최솟값
 - Gradient: 기울기
- 모든 독립 변수를 기준으로 한 편미분의 벡터
 
 - Gradient Method   경사법
- Gradient Ascent Method: 경사 상승법
 - Gradient Descent Method: 경사 하강법
 
 - Gradient Vanishing: 기울기 소실
- 신경망이 깊을때 역전파중에 소실Vanishing되는 효과
 
 
H
- Hidden layer: 은닉 레이어
- 신경망에서 입력 레이어(특성)와 출력 레이어(예측) 사이에 위치하는 합성 레이어
 
 - Hierachical Clustering Analysis(HCA): 계층 군집 분석
 - Hold-out: 홀드아웃
- 학습 중에 의도적으로 사용하지 않는 데이터를 유지하는 전략
 
 - Hyperplane: 초평면
- a subspace of one dimension less than its ambient space
 - 유한 공간 보다 한 차원 낮은 부분 공간
 - 3차원의 부분 공간인 평면을 일반화한 명칭
 
 - Hypothesis: 가설
 - Hyperparameter: 하이퍼파라미터
- 학습 파라미터가 아닌 사용자가 변경하는 파라미터
 - 아키텍처를 결정
 
 - hyperplane: 초평면
- 한 공간을 두 부분공간으로 나누는 경계
 - 초평면의 형태
- 2차원의 초평면: 직선
 - 3차원의 초평면: 평면
 
 
 
I ~ J
- Identify function: 항등 함수
 - Image Detection: 이미지 검출
- 이미지에 특정 물체의 존재 여부와 위치
 
 - Image Classification: 이미지 분류
 - Imbalanced Dataset: 불균형 데이터셋
 - Incremental Learning: 점진적 학습
 - Instanced-based Learning: 사례 기반 학습
 - Independently and identically distributed(ILL): 독립적이고 동일한 분포
- 변화가 없는 분포에서 각 값이 이전에 추출된 값에 의존하지 않도록 추출한 데이터
 
 - Input Gate: 입력 게이트
 - Input layer: 입력 레이어
 - Inference: 추론
- 학습된 모델을 이용하여 학습하지 않은 사례에 적용하여 예측을 수행하는 것
 
 - instance: 사례
- example과 동의어
 
 - Iteration: 반복
 - Jaccard Coefficient: 자카드 계수
- 두 집합이 공유하는 원소 수에 기반한 유사도
 
 
K
- Kernal: 커널
 - K-fold cross-validation: K겹 교차검증
 - K-Means: K-평균
 - K-Nearest Neighbors: K-최근접 이웃
 - Kernel Support Vector Machines(KSVM): 커널 서포트 벡터 머신
- 초고차원 공간에서 초평면을 사용하여 긍정 클래스와 부정 클래스를 구분
 
 - Knowledge Discovery: 지식발견
 
L
- Label: 레이블
- 지도 학습에서 사례의 ‘답’ 또는 ‘결과’ 부분
 
 - Labeling: 라벨링, 식별화
 - Lasso Regression: 라쏘 회귀
- Least Absolute Shrinkage and Selection Operator
 
 - Lambda
- Regularization rate(정규화율)과 동의어
 - 정규화율을 높이면 과적합이 감소하지만 모델의 정확성이 떨어짐
 
 - Likelyhood: 가능도
 - Latent Factor Model: 잠재 요소 모델
 - Latent Variable: 잠재변수
 - Learning: 학습
 - Learning Rate: 학습률
 - Learning Rate Decay: 학습률 감소
 - Learning Schedule: 학습 스케줄
- Learning rate schedule
 - 매 반복에서 학습률을 결정하는 함수 (핸드온 머신러닝, p169)
 
 - Linear regerssion: 선형회귀
 - Local Minimum: 지역 최솟값
 - Loss: 손실
 - Loss function: 손실 함수
- Penality를 어떻게 부여할 지를 정의하는 함수
 - 최적화 과정에서 사용됨
 
 - Locality Linear Embedding: 지역 선형 임베딩
 - Logistic Regression: 로지스틱 회귀
 - Long short-term memory: LSTM
 
M
- Manifold Learning: 매니폴드 학습
 - Margin: 간격
 - Margin Violation: 마진 오류
 - Matrix Fractorization: 행렬 분해
 - Maxium likehood method: 최대 가능도 방법
 - Mean Aboulute Error: 평균 절대 오차
 - Mean Squared error: 평균 제곱 오차
 - method of least squares, least squares approximation: 최소 제곱법
- 예측값과 정답의 오차 제곱의 합이 최소가 되는 해를 구하는 방법
 
 - Neural Language Processing: 자연어 처리
 - Mini-batch: 미니배치
 - Minture normal distribution: 혼합 정규분포
 - Missing Value: 결측값
 - Model-based Learning: 모델 기반 학습
 - Model Parallelism: 모델 병렬화
 - Momentum: 모멘텀
 - Multinomial Logistic Regression: 다항 로지스틱 회귀
 - Multi-layer Perceptron(MLP): 다층 퍼셉트론
- 1개 이상의 은닉층을 가진 다층 전방향 신경망
 
 - Multivariate regression: 다변량 회귀
- 여러 특성을 이용한 회귀
 - 관련용어: univariate regression: 단변량 회귀
 
 
N
- Naive Bayes Classifier: 나이브 베이즈 분류기
 - NER: Named Entity Resolution, 고유명사 추출
 - Neural Netwrok: 신경망
 - Natural Language Toolkit: NLTK
 - Native log-likelihood: 음의 로그 가능도
 - Noise: 노이즈
 - Nonresponse Bias: 비응답 편향
 - Norm: 노름
 - Normalization: 정규화
 - Numerical differentiation: 수치 미분
 
O
- Object Recognition: 사물 인식
 - Objective Function: 목적함수
 - Observed variable: 관측변수
- 잠재변수는 구성개념이 직접적으로 관찰되거나 측정이 되지 않는 변수
 - 사회과학적으로 잠재변수 자체로는 전체 통계량을 측정하기에 불가능하기 때문에, 관측변수로 간접적으로 통계 측정
 
 - OCR(Optical Character Recognition): 광학 문자 판독기
 - Offline Learning: 오프라인 학습
 - One-hot encoding: 원-핫 인코딩
 - Online Learning: 온라인 학습
 - Optimal Policy: 최적 정책
 - Optimization: 최적화
 - Outlier: 이상치
 - Output layer: 출력 레이어
 - Out-of-Sample Error: 외부 샘플 오류
 - Overfitting: 과대적합
 
P
- Padding: 패딩
 - Penceltile: 백분위수
- 크기가 있는 값들로 이뤄진 자료를 순서대로 나열했을 때 백분율로 나타낸 특정 위치의 값을 이르는 용어.
 - 100개의 값을 가진 어떤 자료의 20 백분위수는 그 자료의 값들 중 20번째로 작은 값을 뜻한다. 50 백분위수는 중앙값.
 - 관련 용어
- Quartiles: 사분위수
 
 
 - Perceptron: 퍼셉트론
 - Perceptron convergence theorem: 퍼셉트론 수렴 정리
 - Penalty: 벌점
 - Policy: 정책
 - Polynomial Regression: 다항식 회귀
 - Population: 모집단
- 연구 대상이 되는 모든 관측값이나 측정값의 집합
 
 - POS Tagging: 품사 테깅
- Part of Speech Tagging
 
 - Pooling Layer: 풀링 레이어
 - Precision: 정밀도
 - Predictor Variable: 예측 변수
 - Prediction: 예측
 - Pre-training: 선행 학습
 - Principal Component Analysis(PCA): 주성분 분석
 - Probability: 확률
 - Problem Statement: 문제 진술
 - Projection: 투영
 
Q - R
- Q-Learning: 큐-러닝ㅇㅇ
 - Quartiles: 사분위수
 - Random Initialization: 무작위 초기화
 - Random Variable: 확률변수
- 시행을 해야 값이 확정되는 변수로써, 시행되는 모든 가능한 결과들의 표현
 - 확률을 가지고 변하는 사건들을 수치로 표현한 것
 
 - Regression: 회귀
 - Regression Performance Metrics: 회귀 성능 평가 지표
- MSE(Mean Squere Error): 평균 제곱 오차
- 오차의 제곱의 평균
 - $\frac{\sum{(\hat{Y_i}-Y)^2}}{n}$
 
 - RMSE(Root Mean Squere Error): 루트 평균 제곱 오차
- 오차의 제곱의 평균의 루트
 - $\sqrt{\frac{\sum{(\hat{Y_i}-Y)^2}}{n}}$
 
 - MAPE(Mean Absolute Percentage Error): 평균 절대 백분비 오차
- $\frac{1}{n}\sum{\mid\frac{\hat{y_i}-y_i}{y_i}\mid}$
 
 - MAD(Mean Absolute Derivation): 평균 절대 편차
- $\frac{\sum{\mid\hat{y_i}-y_i\mid}}{y_i}$
 
 - MAE(Mean Absolute Error): 평균 절대 오차
- $\frac{\sum{\mid\hat{y_i}-y_i\mid}}{y_i}$
 
 - $R^2$
 
 - MSE(Mean Squere Error): 평균 제곱 오차
 - Reinforcement learning: 강화학습
 - ReLU function: ReLU 함수
 - Restricted Boltzmann Machine(RBM): 제한 볼츠만 머신
 - Robo Advisor: 로보 어드바이저
- 고도화된 알고리즘과 빅데이터를 통해 인간 프라이빗 뱅커(Private Banker) 대신 모바일 기기나 PC를 통해서 포트폴리오 관리를 수행하는 온라인 자산 관리 서비스
 
 - Root Mean Square Error(RSME): 평균 제곱근 오차
- 추정 값 또는 모델이 예측한 값과 실제 환경에서 관찰되는 값의 차이 측정법
 
 - Random Forrests: 랜덤 포레스트
 - Recall: 재현율
- 분류 학습 모델 성능 지표
 
 - Recurrent Neural Network(RNN): 순환 신경망
- 인공 신경망을 구성하는 유닛 사잉의 연결이 Directed Cycle을 구성하는 신경망
 
 - Reinforcement Learning: 강화 학습
 - Real-Time Recurrent Learning: 신시산 순환 학습
 - Regression: 회귀
 - Regularization: 규제
 - Representation: 표현
- 데이터를 유용한 특성에 매핑하는 과정
 
 - Representation Learning: 표현 학습
 - Residuals: 잔차
 - Residual error: 잔여 오차
 - Restricted Boltzmann Machine: 제한된 볼츠만 머신
 - Reward: 보상
 - Receiver Operating Characteristic(ROC): 수신기 조작 특성
 - Root Mean Square Error: 평균 제곱근 오차
 - Rounding Error: 반올림 오차
 
S
- Saddle point: 안정점
 - Sample: 사례, 표본
- (통계)더 큰 모집단에서 추론을 위해 수집하고 분석하는 사건의 부분 집합
 
 - Sample Space: 표본 공간
- Trial(시행)의 결과들의 집합
 - 예제 - 동전을 던지는 실험에서 표본 공간은 {앞면, 뒷면} - 6면 주사위를 던지는 실험에서 표본 공간은 {1, 2, 3, 4, 5, 6}
 
 - Sampling Bias: 샘플링 편향
 - Sampleing Noise: 샘플링 잡음
 - Scaling: 조정
- 특성 추출에서 널리 사용되는 방식으로서 특성 값 범위를 데이터 세트의 다른 특성 범위와 일치하도록 맞춤
 
 - Scatter plot: 산포도, 산점도
 - Self-Orgnaization: 자기 조직화
 - Semisupervised Learning: 준지도 학습
- 일부 레이블, 대다수 데이터 레이블이 없는 데이터로 학습
 
 - Sequence model: 시퀀스 모델
- 입력에 순서 종속성이 있는 모델
 
 - Shape: 형상
 - Sigmoid function: 시그모이드 함수
- 로지스틱 또는 다항 회귀 출력을 확률에 매핑하여 0~1 사이의 값을 반환하는 함수
 
 - Simularity: 유사도
 - Signal: 시그널
- 클로드 새넌(Claude Shannon)의 정보이론에서 정보를 시그널(Signal)로 표현한다. (출처: 핸즈온 머신러닝)
 
 - Singularity: 특이점
- (수학): 이상한 성질을 가지는, 곡선 위의 특정한 점. - $f(x)=\frac{1}{x}$, x=0
 - (인공지능): 인공지능이 인간을 넘어서는 전환점 - “특이점이 온다(김영사, 2007)”, 레이 커즈와인, 특이점 2045 - 인간이 스스로 만들어 낸 기술을 이해하지 못하거나 따라잡지 못하는 시점 - 초지능적 기계가 자신보다 나은 기계를 설계하는 지능의 폭발 - 기계 지능이 모든 인간 지능을 합친 것 보다 무한히 더 강력해 짐
 
 - Singular Value Decomposition: 특잇값 분해
 - Softmax: 소프트맥스
- 다중 클래스 분류 모델에서 가능한 각 클래스의 확률을 구하는 함수
 
 - Sparse feature: 희소 특성
- 대부분의 값이 0이거나 비어 있는 특성 벡터
 
 - Speech Recognition: 음성 인식
 - Squared euclidean distance: 제곱 유클리드 거리
 - Startistics: 통계량
- 표본으로부터 계산된 값
 - 표본평균, 표본분산, 표본비율
 
 - Standard Deviation: 표준 편차
 - Standard Correlation Coefficient: 표준 상관 계수
- 피어슨 r
 
 - Stationary Distribution: 정상분포
 - Stratified sampling: 계층적 샘플링
- 전체 모수를 동질이 계층(Strata) 나누고, 계층별로 샘플링
 
 - 전체 모수를 동질이 계층(Strata) 나누고, 계층별로 샘플링
 - Step Function: 계단 함수
 - Step size: 스텝 크기
- 학습률과 동의어
 
 - Stop Words: 불용어 처리
 - Stride: 스트라이드
 - Stochastic gradient descent: 확률적 경사 하강법
- 확률적 경사하강법은 데이터셋에서 무작위로 균일하게 선택한 예에 의존하여 각 단계의 예측 경사를 계산
 
 - Subspace: 부분차원
 - Supervised Learning: 지도학습
 - Support Vector Machine(SVM): 서포트 벡터 머신
 - Synthetic feature: 합성 특성
- 입력 특성 중에는 없지만 하나 이상의 입력 특성으로부터 파생되는 특성
 
 
T
- Target: 타켓
- 라벨과 동의어
 
 - Term Frequency: 단어 빈도
 - Test:
- (머신러닝)검정
- 아직 검증되지 않은 어떤 주장을 통계적 방법으로 판정하는 것
 
 - (머신러닝: 결정트리)테스트
- 결정을 위한 질문 목록(Yes or No)
 - 파이썬 라이브러리를 활용한 머신러닝, p103
 
 
 - (머신러닝)검정
 - Test Set: 시험셋
 - Temporal data: 시계열 데이터
- 서로 다른 시점에 기록된 데이터
 
 - Temporal Difference: 시간차
- 분류: 강화학습
 
 - Time series analysis: 시계열 분석
 - Time-series data: 시계열 데이터
 - Time-series forecasting: 시계열 예측
 - Token: 토큰
- 텍스트를 나눈 작은 단위
 - 단어, 문자, n-gram
 
 - Tolerance: 허용 오차
 - Tokenization: 토큰화
- 텍스트를 토큰으로 나누는 과정
 
 - Topic: 토픽
- (머신러닝: 문서분류)
- 문서에 단어들의 분포
 
 
 - (머신러닝: 문서분류)
 - Topic Model: 토픽모델
 - Training Data: 학습 데이터
- Feature + Label
 
 - Training: 학습
 - Training Instance: 학습 사례
 - Training Set: 학습셋
 - Train-Test data split: 학습-평가 데이터 나누기
 - Transfer Learning: 전이학습
- 머신러닝 작업 간에 정보를 전송
 
 - Translation invariance: 이동 불변성
 - Trial: 시행
- 같은 조건에서 여러번 반복할 수 있고 그 결과가 우연에 의해서 결정되는 관찰이나 실험
 - 예제: 주사위 던지기
 
 
U
- Univariate regression: 단변량 회귀
 - Underfitting: 과소적합
 - Unsupervised Learning: 비지도 학습
 - Unsupervised pre-learning: 비지도 선행 학습
 - UV decomposition: UV 분해
 
V - Z
- Validation: 검증
 - Validation Set: 검증셋
 - Vanishing gradient: 기울기 소실
 - Variable: 변량, 변수
- 조사 대상의 특성을 나타내는 문자나 숫자
 
 - Variance: 분산
 - Vectorization: 벡터화
 - Visible layer: 가시 레이어
 - Visualization: 시각화
 - Vocabulary: 어휘
 - Weight: 가중치
- 특성의 계수 또는 심층 네트워크의 엣지
 
 - Weight Decay: 가중치 감소
 - Weighted Graph: 가중 그래프
 - Whiting: 백색화
 - Word Embedding: 워드 임베딩
 - z-score standardization: z-점수 표준화
- $z=\frac{x-\mu}{\sigma}$
 - x: 수치값
 - $\mu$: 평균
 - $\sigma$: 표준편차
 
 - zero padding: 제로페딩
 - Zero-shot learning: 제로샷 학습