728x90
Chat GPT의 공개로 대화형 인공지능(Conversation AI)의 시대가 열였다. 시험용 버전의 사용자가 1억명을 넘어섰으며 많은 사람들이 일상생활에서 Chat GPT를 활용하고 있다.
그렇기에 대화형 인공지능을 다루는 방법을 익히는 것이 중요해지며 인공지능과 상호작용을 통해 "답"을 원하는 양식으로 얻을 수 있는 "능력"이 중요해질 것이다.
프롬프트 엔지니어링 사용 사례
- 주제별 전문 지식
- 비판적 사고
- 창의성
프롬프트(Prompt)
- 프롬프트(prompt)란 거대 언어 모델(Large Language Model; LLM)로 부터 응답을 생성하기 위한 입력값을 의미하며 자연어의 형태를 지님
- 즉 특정 작업을 수행하도록 생성형 AI에 요청하는 자연어 text이며 모든 유형의 입력에 유용한 출력을 생성하지 않음
프롬프트 엔지니어링(Prompt Engineering)
생성형 AI가 존재하기 이전에 우리는 정보를 얻기 위해 구글, 네이버 등 검색 서비스를 사용하였으며 한번의 검색으로 유의미한 결과가 나오지 않을 경우 검색어를 바꿔서 계속 정보를 얻었다.
이 처럼 원하는 결과를 얻기 위해서 prompt에 포함된 문구의 조정이 필요하며 이 차이로 인해 결과물에 극적인 차이를 가져올 수 있다.
- 필요한 정보를 얻기 위해서는 해당 언어 모델이 잘 이해할 수 있게 정제된 언어로 구조화된 프롬프트를 구성하는 것이 중요함
프롬프트 엔지니어링(Prompt Engineering) 기법
- 사고의 사슬 프롬프트
- 복잡한 질문을 더 작고 논리적인 부분으로 나누는 기법
- 모델이 바로 질문에 답을 하는게 아닌 일련의 중간 단계를 거치면서 문제를 해결함
- 사고의 나무 프롬프트
- 위의 "사고의 사슬 프롬프트"를 일반화한 것으로모델에 가능한 다음 단계를 하나 이상 생성하라고 지시함
- 그 이후 트리 검색 방법을 사용하여 각각의 단계에서모델을 실행함
- ex) "기후 변화의 영향은 무엇인가요?" -> "환경 영향 목록", "사회적 영향 목록" 과 같은 단계 생성하여 다음 단계에서 이들에 대해 설명함
- 산파술 프롬프트 (소크라테스 대화법으로 무지를 일깨움)
- "사고의 나무 프롬프트"와 비슷하다 일관되지 않은 설명 트리를 잘라내 버림
- 복잡성 기반 프롬프트
- 가장 긴 사고의 사슬이 있는 롤아웃을 선택한 다음 가장 많이 도달한결론을 택함
- ex) 복잡한 수학 문제가 있을 경우 여러 단계의 계산식이 도출되며 가장 긴 계산식(롤아웃)을 고려함 그 다음 고통된 결론에 도달한 계산식을 고려함
- 추가적인 프롬프트 기법은 참고 링크 확인
Prompt 요령
- 쉽고 간결한 표현을 사용하기
- '열린'질문 보다는 '닫힌' 질문이 좋음
- 수행할 작업의 조건을 구체적으로 명시
- 지시의 맥락을 함께 제공함 - 참고 링크 확인
- 원하는 결과물의 예시를 함께 입력 - 참고 링크 확인
- 충분한 실험 - 참고 링크 확인
1. 쉽고 간결한 표현 사용
- 혹시 괜찮다면 제임스 웹 우주망원경이 무엇인지를 가지고 이제 갓 9살이 된 어린 아이도 알아들을 수 있을 만큼 쉽게 설명해주겠니?
- 제임스 웹 우주망원경을 9살 어린이에게 설명해줘.
위의 2개의 prompt는 같은 지시를 담고 있으나 미사여구가 많은 위에 prompt보다 아래의 prompt에서 원하는 응답을 얻어낼 가능성이 더 높다. LLM에서는 작은 입력값의 차이가 큰 변화로 이어질 수 있으니 쉽고 간결한 표현을 쓰는 것이 좋다.
2. '열린' 질문보다 '닫힌' 질문
- 로봇이 의사의 역할을 대신할 수 있을까?
- 로봇이 의사의 역할을 대체할 수 있는가에 대해 에세이를 써줘
로봇이 의사의 역할을 대체할 수 있는가에 대한 정보를 얻어야 한다면 열린 질문이 아닌 닫힌 질문으로 했을 때 유의미한 결과를 얻을가능성이높다.
3. 구체적 명시
- Write some messages for an energy drink
- Develop 5 key messages and 5 glogans for an energy drink targeting young adults aged 18-30.
몇가지 가이드 라인을 통해 위에 prompt보다 아래의 prompt가 더 구조화된 응답을 얻을 수 있다.
References
728x90
'NLP' 카테고리의 다른 글
GNN(Graph Neural Network)의 기초, 이론, 모델 학습 (0) | 2024.02.14 |
---|---|
NER 기초 (0) | 2024.02.08 |
Seq2Seq + Attention 코드로 이해하기 (2) | 2023.12.15 |
[NLP] NLP를 위한 CNN (0) | 2023.05.28 |
[NLP] LSTM(Long Short-Term Memory) (0) | 2023.05.26 |