AI (2) 썸네일형 리스트형 [논문] BART: Denoising Sequence-to-Sequence Pre-training for NaturalLanguage Generation, Translation, and Comprehension RAG 논문 읽기 전 #1 : ORQA(Open-Retrieval Question Answering)RAG 논문을 읽고 있는데 기본적으로 알아야되는 내용들이 많다. (https://arxiv.org/pdf/2005.11401)RAG는 검색(Retrieval)을 통해 얻은 외부 정보를 생성 모델(Generator)의 입력에 결합하여 답변을 만드는 기술itstudentstudy.tistory.comRAG 논문 읽기 전 #2기존에 BERT와 GPT를 알고 있다면 BART는 BERT의 양방향 인코더 + GPT의 디코더이다.BART는 Denoising Autoencoder로, 텍스트에 노이즈를 섞은 뒤 다시 원문으로 복구(Reconstruction)하는 과정을 통해 학습하는 Seq-to-Seq 구조의 모델이다.B.. [플레이데이터 SK네트웍스 Family AI 캠프 21기] 1주차 회고 OT어떤 내용들로 6개월을 채우게 될까 걱정반 기대반을 하고 있었는데 OT날이 불쑥 다가왔다.한달, 두달이 아닌 6개월은 예상치 못한 일들이 발생할 수 있는 기간이라 휴가, 병가, 조퇴 등 사용하는 방법들을 알려주시고출석하는 법, 커리큘럼 설명 등을 듣게 되는 시간을 가졌고,마지막 시간엔 아이스브레이킹 시간으로 조를 짜서 서로 소개하고 6개월 과정에서 어떤것을 얻어가고 싶은지 나누는 시간을 가졌다.다 같이 레고를 만들면서 어떤 6개월을 지내고 싶은지 표현하는 시간도 가졌는데 저 포함 4분 중 3분이 러너가 계셔서 마라톤 트랙과 목적지를 향해 뛰어가는 형태로 만들었다.1주차 수업첫날엔 강사님 소개와 커리큘럼을 더 상세하게 알려주셨는데 추 후 어떤 서비스를 이용해서 어떤것들을 배우고 어떤 클라우드를 구독해서.. 이전 1 다음