https://onoffmix.com/event/referrer/329202 https://onoffmix.com/event/referrer/329202 onoffmix.com 개발경력자를 위한 AI교육과정을 개설하였습니다. 많은 분들이 요청해주셔서 개발경험은 많은데 AI 경험은 전혀 없고개인적으로 공부한것은 인정해주지 않고. 어렵게 프로젝트 투입되면 곧 부적합으로 판정되거나 중도하차하는경우가 많습니다. AI와 일반 개발은 어떤차이가 있는지 그리고 파이썬으로 어떤것을 하는지 교육안을 마련했습니다. 1.파이썬 데이터 분석2. 머신러닝3. 생성형AI연계 딱 3개를 주제로 3시간씩 3일 진행합니다(매주토요일)유료 입니다(노쇼 방지)끝나면 8주 프로젝트 진행합니다.(비상주) 잘따라오시면 프로젝트 추천도 드립니다..
import matplotlib.pyplot as pltimport numpy as npfrom sklearn.linear_model import LinearRegressiondef loss(x, y, beta_0, beta_1): N = len(x) ''' 이전 실습에서 구현한 loss function을 여기에 붙여넣습니다. ''' x = np.array(x) y = np.array(y) pred = beta_0 * x + beta_1 diff = (y- pred) **2 loss = np.sum(diff) print(loss) return loss X = [8.70153760, 3.90825773, 1.89362433, 3..
import matplotlib.pyplot as pltimport numpy as np%matplotlib inlinedef loss(x, y, beta_0, beta_1): N = len(x) ''' x, y, beta_0, beta_1 을 이용해 loss값을 계산한 뒤 리턴합니다. ''' x = np.array(x) y = np.array(y) return np.sum((y - (beta_0 * x + beta_1)) ** 2)X = [8.70153760, 3.90825773, 1.89362433, 3.28730045, 7.39333004, 2.98984649, 2.25757240, 9.84450732, 9.94589513, 5.483216..
✅ Chain-of-Thought(CoT) 예시 10개복잡한 문제 해결 시 ChatGPT가 단계적 추론을 유도하도록 설계된 프롬프트입니다.두 사람이 동시에 일을 시작했는데, 한 사람은 3일마다, 다른 사람은 5일마다 쉬어요. 두 사람이 모두 쉬는 날은 며칠 후인가요? 단계별로 생각해보세요.1에서 100까지의 숫자 중 3의 배수이면서 5의 배수도 아닌 숫자는 몇 개일까요? 하나씩 따져보며 계산해보세요.어떤 수를 3으로 나누면 2가 남고, 5로 나누면 4가 남습니다. 그런 수 중 100보다 작은 가장 큰 수는 무엇인가요? 단계적으로 설명해주세요.한 마트에서 사과는 개당 500원이고, 바나나는 3개에 1,000원입니다. 5,000원으로 사과와 바나나를 최대한 많이 사려면 어떻게 해야 할까요? 단계별로 계산해보..
pip install matplotlib scikit-learn ###소스 import numpy as np import matplotlib.pyplot as plt from sklearn.linear_model import LinearRegression%matplotlib inline # 1. 데이터 생성 (예: 공부 시간 vs 점수) X = np.array([1, 2, 3, 4, 5, 6, 7, 8, 9]).reshape(-1, 1) # 독립변수 (공부 시간) y = np.array([35, 40, 50, 55, 60, 65, 70, 75, 85]) # 종속변수 (점수) # 2. 선형 회귀 모델 학습 model = LinearRegression() model.fit(X, y) # 3. ..
1) 기본프롬프트 예시번호문항 예시1"서울 날씨를 알려줘"라는 프롬프트에 대해 더 구체적이고 출력 일관성을 높이도록 개선해보세요.2다음 문장은 어떤 문제점을 가지고 있나요? → "자연어 처리에 대해 뭔가 말해줘."3프롬프트에서 temperature를 1.0으로 설정했을 때와 0.2일 때 어떤 차이가 발생하나요?4Zero-shot 프롬프트의 예시를 작성하고, 그것이 어떻게 작동할지 설명하세요.5아래 예시 중 명확한 프롬프트는 무엇인가요? (객관식)6"5살 아이에게 블랙홀을 설명해줘"는 어떤 유형의 프롬프트 전략인가요?7아래 프롬프트를 명확하게 개선해보세요: "회사 소개서 만들어줘."8사용자의 목적에 따라 동일한 내용을 어떻게 다르게 표현할 수 있을까요? (예: CEO용 vs 고객용 요약)9"이메일을 작성해..
!pip install sentence-transformers scikit-learn matplotlib!pip install faiss-cpu from sentence_transformers import SentenceTransformerimport faissimport numpy as np# 1. 임베딩 모델 불러오기 (문장을 숫자 벡터로 변환해줌)#model = SentenceTransformer("all-MiniLM-L6-v2") # 속도와 정확성 균형# 1. 로컬 모델 저장 경로model_dir = "./local_model/all-MiniLM-L6-v2"# 2. 모델 로드 또는 저장if not os.path.exists(model_dir): print("모델 다운로드 중...") ..
대부분자료에서 RAG생성시 BERT계열의 임베딩 모델을 사용하면전처리(동의어, 불용어) 처리가 필요없다는 내용이 많다. 하지만 기본 AI구축 모델의 특성상 동의어 처리가 성능개선에 도움이 된다는건 알고 있었는데 BERT같은 Transformer계열에서는 필요없다는 의견이 많아서 정리를 했습니다. 문서 벡터화(RAG 리트리버 구성)를 할 때 전처리를 어느 수준까지 해야 하는지, 특히 동의어 처리나 토큰 정제가 필요한지 여부는 성능과 정밀도에 큰 영향을 미칩니다.✅ 전제: BERT 기반 임베딩 모델의 특징BERT류(예: sentence-transformers, OpenAI Embeddings, E5, ColBERT, MiniLM)는 subword 토크나이저와 contextual embedding을 사용따..
- Total
 
- Today
 
- Yesterday
 
- argocd
 - python성능
 - 고급개발자
 - MariaDB
 - 클라우드 활용
 - 핀옵스
 - 정보관리기술사
 - 소프트웨어아키텍트
 - RegeneratorRuntime
 - ci/cd
 - 경력자인공지능교육
 - 123회기술사
 - atom git 연동
 - 핵심집중반
 - 클라우드 비용절감
 - 기술사
 - 벡터db
 - SWA
 - 아이리포
 - 정보처리기술사
 - 인공지능교육
 - joblib
 - FinOps
 - 중급개발자
 - 인공지능주말교육
 - 컴퓨터시스템응용기술사
 - 모델저장
 - 두음신공
 - BERT
 - mysql
 
| 일 | 월 | 화 | 수 | 목 | 금 | 토 | 
|---|---|---|---|---|---|---|
| 1 | ||||||
| 2 | 3 | 4 | 5 | 6 | 7 | 8 | 
| 9 | 10 | 11 | 12 | 13 | 14 | 15 | 
| 16 | 17 | 18 | 19 | 20 | 21 | 22 | 
| 23 | 24 | 25 | 26 | 27 | 28 | 29 | 
| 30 | 

