확률에서 LLM까지 – 데이터 사이언스 전문 교육 플랫폼
가장 간단한 형태의 신경망, 딥러닝의 기초
선형 분류기: 직선으로 나눌 수 있는 문제 해결
가중합: 입력값에 가중치를 곱해서 합산
임계값: 활성화 기준이 되는 한계값
학습 규칙: 오류 기반 가중치 조정
은닉층을 가진 완전연결 신경망
은닉층: 복잡한 특징 추출을 위한 중간층
완전연결: 모든 뉴런이 다음 층과 연결
XOR 해결: 선형 분리 불가능 문제 해결
비선형 활성화: 복잡한 패턴 학습 가능
뉴런의 출력을 결정하는 핵심 함수들
비선형성: 복잡한 패턴 학습을 위한 필수 요소
Sigmoid: 0~1 범위 출력, 이진 분류용
ReLU: 음수는 0, 양수는 그대로 통과
Tanh: -1~1 범위, 더 균형잡힌 학습
여러 뉴런이 연결된 네트워크 구조
다층 구조: 입력층, 은닉층, 출력층의 계층적 구성
순전파: 입력에서 출력으로 신호 전달
역전파: 오차를 바탕으로 가중치 학습
범용 근사기: 충분한 뉴런으로 모든 함수 근사
이미지 처리에 특화된 신경망 아키텍처
합성곱층: 필터로 지역적 특징 추출
풀링층: 중요한 정보 선별하여 크기 축소
특징맵: 각 층에서 생성되는 특징 표현
계층적 학습: 단순한 특징에서 복잡한 특징으로
시퀀스 데이터 처리에 특화된 기억 능력을 가진 신경망
순환 연결: 이전 시점 정보를 현재 시점에서 활용
LSTM/GRU: 장기 의존성 문제를 해결한 개선 모델
시퀀스 처리: 가변 길이 데이터 처리 가능
메모리 셀: 중요한 정보를 선택적으로 기억
퍼셉트론부터 다층 신경망까지 기본 개념과 학습 원리 이해
이미지 처리의 핵심인 합성곱 신경망 구조와 응용 학습
시퀀스 데이터 처리를 위한 순환 신경망과 LSTM 실습
최신 AI의 핵심인 어텐션 메커니즘과 대규모 언어 모델