일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 지우개신공 #pc자기진단 #ram미인식 #컴퓨터고장해결 #램인식불량 #pc자가수리 #컴퓨터고장해결 #조립pc
- Enhanced Input System
- nixos한글설정\
- EnhancedInput
- flask
- nixos한글키보드
- Express
- 파이썬서버
- Bootstrap4
- 알고풀자
- 마인크래프트뮤지컬
- 블랙스크린복구
- ossca
- 디자드
- 언리얼뮤지컬
- 으
- 판다스
- 오픈소스
- R
- Jinja2
- VUE
- inxos
- JWT
- 메모리인식불량
- 미니프로젝트
- pandas
- streamlit
- 정글사관학교
- 프메
- 스트림릿
- Today
- Total
목록Computer Science/인공지능,딥러닝 (26)
Today, I will

안녕하세요! 오늘은 업로드한 PDF 파일 내용을 바탕으로 실시간으로 질문에 답변해주는 AI 챗봇을 직접 만들어봅니다! LangChain + Cohere Rerank + OpenAI Embedding의 조합으로 RAG 기반의 스마트한 검색 시스템을 구현해보도록 합니다. 이 글에서 다룰 내용RAG란 무엇인가?PDF 기반 질문-응답 시스템의 구조LangChain으로 벡터 검색 + LLM 연결하기전체 코드 분석과 주석실전 활용 팁 & 트러블슈팅RAG란?RAG는 Retrieval-Augmented Generation의 줄임말로,"검색 기반 생성"을 의미합니다.보통 LLM은 사전학습된 정보만을 기반으로 답변하지만,RAG는 외부 문서를 검색하여 관련 정보를 추출하고,그걸 바탕으로 답변을 생성합니다.📦 RAG의 구..
웹링크와 GPT와 LangChain을 활용해 RAG 기반 대화형 챗봇을 만들어보았습니다.웹링크를 통해 간단해 웹 단면을 크롤링하고 그에 대한 정보에 대해 물어볼 수 있어 유용합니다.맛집정보 웹사이트인 http://www.menupan.com/를 활용해보도록 합니다. 📁 1. 주피터 노트북 준비!pip install beautifulsoup4 from langchain.prompts import PromptTemplatefrom langchain_openai import ChatOpenAIfrom langchain_community.document_loaders import WebBaseLoaderfrom langchain_openai import OpenAIEmbeddingsfrom langchain..

피터래빗이야기 PDF 파일을 기반으로, GPT와 LangChain을 활용해 RAG 기반 대화형 챗봇을 만들어보았습니다. 📁 1. PDF 파일 준비먼저 프로젝트 루트 디렉토리 아래에 `pdf` 폴더를 만들고, 여기에 오만과 편견 PDF 파일을 넣어줍니다:project/ └── pdf/ └── 파일명.pdf🧠 2. GPT 처리 모듈: `gpt_proc.py`# gpt_proc.pyfrom langchain.prompts import PromptTemplatefrom langchain_openai import ChatOpenAIfrom langchain_community.document_loaders import PyPDFLoaderfrom langchain_openai import OpenAIEm..

Jane Austen의 Pride and Prejudice PDF 파일을 기반으로, GPT와 LangChain을 활용해 RAG 기반 대화형 챗봇을 만들어보았습니다.📁 1. PDF 파일 준비project/ └── pdf/ └── Pride_and_Prejudice.pdf 먼저 프로젝트 루트 디렉토리 아래에 `pdf` 폴더를 만들고, 여기에 오만과 편견 PDF 파일을 넣어줍니다:🧠 2. GPT 처리 모듈: `gpt_proc.py`# gpt_proc.pyfrom langchain.prompts import PromptTemplatefrom langchain_openai import ChatOpenAI, OpenAIEmbeddingsfrom langchain.document_loaders im..

1. from llama_index.core.settings import Settings Settings는 RAG 시스템을 돌리기 위한 기본 도구상자 세트(글 쪼개기, AI모델 연결하기, 글자수 조절하기, 에러관리까지 다 설정할 수 있어!) from llama_index.core.settings import Settings 아래와 같이 글로벌한 설정이 가능하다.Settings.# RAG 파이프라인 글로벌 설정Settings.embed_model = OpenAIEmbedding( model="text-embedding-3-small")Settings.llm=OpenAI(model='gpt-3.5-turbo',temperature=0)Settings 안에 있는 속성들의 역할 정리항목 역할chunk_si..

안녕하세요. 오늘은 스트림릿 기초 문법들을 살펴보도록 하겠습니다.# pypi# streamlit run 15Test.py import streamlit as stwith st.form('form'): chk1 = st.checkbox('낚시') chk2 = st.checkbox('골프') chk3 = st.checkbox('영화') submit = st.form_submit_button('확인') if submit: if chk1: st.write('낚시선택') if chk2: st.write('골프선택') if chk3: st.write('영화선택')form의 경우,form이 아닌..
Chat GPT 등의 text 생성형 AI 서비스를 사용하다보면, 사용자는 전체 text resonse가 완성된 이후 응답을 받는 대신에 실시간으로 생성되는 답변의 조각들을 받아볼 수 있다. open ai api에서는 이런 스트리밍 기법을 사용할 수 있도록 스트리밍 api를 제공해주고 있다. 가령 아래와 같은 예시 코드를 LLM 스트리밍 API를 통해 실시간 출력으로 바꾸어보도록 한다. 🔹 기존 코드 (stream=False, 응답을 한 번에 받음)import openaiimport osres = openai.chat.completions.create( model=os.getenv("OPENAI_DEFAULT_MODEL"), messages=[{"role": "user", "content..
Completion mode, 지시와 명령을 하나의 prompt로 전달# Completion mode, 지시와 명령을 하나의 prompt로 전달import osimport openaiopenai.api_key = os.getenv("OPENAI_API_KEY")# 텍스트 생성 요청을 보냅니다.response = openai.completions.create( model=“gpt-3.5-turbo-instruct", prompt="다음을 일본어로 번역하세요: 안녕하세요? 오늘 날씨가 참 좋군요!", max_tokens=256, # 생성된 텍스트의 최대 길이를 설정합니다.)# 생성된 텍스트를 출력합니다.print(response.choices[0].text) Chat modeChat mode# 표준적인 Ch..

한국어 자연어 처리(NLP)와 관련된 다양한 작업을 수행하기 위해서는 적합한 모델을 선택하는 것이 중요하다. 한국어 감성 분석, 질문-답변, 텍스트 생성, 기계 번역 등의 NLP 태스크를 수행하기 위해서는 충분한 데이터셋이 필요하다. 아래에 소개된 모델들은 한국어 데이터셋으로 학습된 모델들이다.이 모델들이 사용한 데이터셋의 상세한 정보는 각 모델의 공식 문서나 출처에서 확인할 수 있다. 1. sangrimlee/bert-base-multilingual-cased-nsmc한국어 감성 분석을 위해 "sangrimlee/bert-base-multilingual-cased-nsmc" 모델을 사용할 수 있다.https://huggingface.co/sangrimlee/bert-base-multilingual-c..
M1 Mac용 PyTorch 설치 가이드를 작성해본다.M1 및 M2와 같은 Apple Silicon에서 PyTorch를 MPS 가속(Metal Performance Shaders)을 사용하고자 하였다.Apple Silicon(M1, M2) Mac에서 PyTorch 설치 및 설정하기2022년 7월 이후 PyTorch는 Apple Silicon(M1, M2) Mac에서 Metal Performance Shaders(MPS)를 통한 GPU 가속을 지원한다. 이를 통해 딥러닝 모델을 Apple GPU에서 더욱 빠르게 학습할 수 있다. 아래는 MPS 지원을 위한 PyTorch 설치 과정이다.사전 준비macOS 버전이 Monterey 12.3 이상이어야 MPS 가속을 사용할 수 있다.설치 명령어# 잘못 설치했을 경..