| GPT (Generative Pre-trained Transformer) 언어 모델(Language Model) 구조 살펴보기 |
|
트랜스포머 논문보고 GPT 만들기 1 입력, 토큰화, positional 임베딩 처리 |
|
00:18:00 |
|
트랜스포머 논문보고 GPT 만들기 2 실습 참고 GPT 코드 실행해 보기 |
|
00:12:00 |
| 트랜스포머 논문보고 GPT 만들기 |
|
트랜스포머 논문보고 GPT 만들기 3 잔차 처리, 정규화, 어탠션처리,Feed Forwad,아웃풋 임베딩(linear)과 소프트맥스 |
|
00:15:00 |
|
트랜스포머 논문보고 GPT 만들기 4 GPT-2 모델의 문장 생성 기능(generate) 구현 |
|
00:31:00 |
|
트랜스포머 논문보고 GPT 만들기 5 Transformer Block의 구성 요소와 동작 원리 |
|
00:12:00 |
|
트랜스포머 논문보고 GPT 만들기 6 내적연산과 다중 헤드 어텐션 (MHA) |
|
00:29:00 |
|
트랜스포머 논문보고 GPT 만들기 7 Scaled Dot-Product Attention 과 마무리 |
|
00:10:00 |
| 트랜스포머 논문 보고 라마 만들기 |
|
라마(LLaMA)를 사용한 텍스트 생성 1 : 토큰화 및 모델 설정 |
|
00:41:00 |
|
라마(LLaMA)를 사용한 텍스트 생성 2 : generation.py 파일 분석 완료 하기 |
|
00:55:00 |
|
라마(LLaMA)를 사용한 텍스트 생성 3 : MODEL |
|
00:21:00 |
| 스탠포드 알파카 (Stanford Alpaca) |
|
스탠포드 알파카를 활용한 기계 생성 데이터 생성 방법 |
|
00:47:00 |
| 비쿠나 (Vicuna AI) |
|
비쿠나(Vicuna AI)설치와 Vicuna 13B 모델 Cli 실행 |
|
00:17:00 |
| 메타 라마 2 (Llama 2) |
|
AI 스타트업 창업의 좋은 기반 모델 – 메타 Llama 2 설치와 13B 모델 실행 (Text Generation WebUI – Oobabooga) |
|
00:12:00 |
| 자신만의 특화된 GPT 만들기 - A I학습 시키기 |
|
파인튜닝(Fine-Tuning) – GPT 3.5-Turbo + 랭체인(Langchain) |
|
00:15:00 |
|
증강검색 기능 만들기 – 임베딩(Embedding) -Vector Search(벡터 검색) + 랭체인(Langchain) |
|
00:20:00 |
| GPT 에이전트 |
|
GPT 다중 AI 에어진트 만들기 -autogen, langchain 등 활용 |
|
00:32:00 |