Prompt Design Framework: l’arte di fare la domanda giusta

batman
batman – the riddler

uno dei temi che mi ha più appassionato da quando è uscito chat gpt è il tema della richiesta. io ho creato un modello di data strategy fondato sull’importanza di farci la giusta domanda e questa pratica la ritrovo fondamentale nell’utilizzo di LLM come chat gpt.

A domanda sbagliata non esiste risposta intelligente

Prompt design & prompt engegniering

  • Il termine “prompt design” si riferisce alla creazione di un prompt, ovvero una breve istruzione o descrizione che viene fornita al modello di linguaggio per guidare la sua generazione di testo. Il prompt design è un processo creativo che coinvolge la progettazione di prompt efficaci e pertinenti per ottenere le risposte desiderate dal modello.
  • D’altra parte, il termine “prompt engineering” si riferisce all’approccio tecnico e strategico per progettare e ottimizzare i prompt al fine di influenzare il comportamento del modello di linguaggio in modi specifici. Ciò può includere la progettazione di prompt che forniscono informazioni contestuali, l’uso di prompt multipli o condizionali per guidare la generazione di testo, l’uso di prompt per controllare lo stile o il tono del testo generato, e così via.

In sostanza, il prompt design si concentra sulla creazione di prompt appropriati e significativi per comunicare l’intento al modello, mentre il prompt engineering si concentra su come manipolare e ottimizzare i prompt per ottenere risultati specifici e influenzare il comportamento del modello. dalla combinazione di queste due tecniche possiamo fare la richiesta giusta ed addestrare il modello ad ottenerla.

Metodologie e framework

la cosa incredibile è che anche se la domanda sembra molto simile, il modo in cui noi la scriviamo influenza il sistema di risposta.

CIDI: 

  • Contenxt: devo valutare l’interesse di un prodotto nel mercato
  • instruction: ho bisogno di fare una keyword research per il prodotto A
  • details: crea una tabella con keyord volume di ricerca e cpc
  • input: questo è un eempio…

RTF

  • role: sono federica e lavoro come data strategist
  • task: fai una kw research
  • format: mettila in tabella

RASCEF

  • role: sono federica data strategist
  • actions: devo fare keyord research
  • steps: seleziona le parole chiave (es xx), poi prendi volumi e cpc. poi ragruppameli di cluster di argomenti (es…)
  • context: mi serve per validare un prodotto
  • example: vedi su
  • format: metti in tabella

molto carino aggiungere alla fine il tono di voce (rispondi come se tu fossi arrabbiato, come se tu fossi obama ecc)

Efficacia del prompt: Valuta e combina

Misurare e valutare i risultati Misurare l’efficacia del prompt è essenziale per valutare i risultati ottenuti e apportare eventuali modifiche. Si possono eseguire esperimenti con diversi prompt per analizzare quale approccio funzioni meglio per l’obiettivo desiderato. Monitorare le metriche di qualità del testo generato, come la coerenza, la pertinenza e l’assenza di bias, può fornire indicazioni sull’efficacia del prompt utilizzato

  1. Prompt condizionali: I prompt condizionali consentono di condizionare il modello di linguaggio a generare testo specifico in base a determinate condizioni. Invece di fornire un prompt generico, si aggiungono delle clausole condizionali che influenzano il processo di generazione del testo. Ad esempio, si potrebbe specificare al modello di generare un testo sulla base di una certa categoria, uno stile o un’entità specifica menzionata nel prompt. In questo modo, si può ottenere un testo che si adatta meglio all’intento e ai requisiti specifici dell’utente.

  2. Prompt multipli: I prompt multipli coinvolgono l’utilizzo di più prompt o input per guidare la generazione di testo. Invece di affidarsi a un unico prompt, si possono fornire diversi input, ciascuno con un contesto specifico. Ad esempio, si potrebbe fornire un prompt iniziale seguito da un ulteriore input che modifica o amplia il contesto. Questa tecnica consente di combinare diverse informazioni o stili di testo desiderati per ottenere risultati più accurati e coerenti.

Use cases: per cosa uso le domande?

gli LLM come chatgpt sono generalisti cioè possono svolgere tanti compiti diversi. ho provato a categorizzarli in

  • scrittura
  • formattazzione
  • codice
  • Sintesi 
  • ideazione e brainstorming

io credo che la vera “magia” sia la capacità di unire i puntini (definizione personale di intelligenza) nei big data che gli esseri umani non possono processare. E’ nella convergenza, nel raggruppamento (cluster) e nel pensiero sistemico che io vedo l’AI il miglior alleato di sempre. Cosa serve? basta cominciare a vedere il mondo sotto gli occhi di un database 😉

VEDI ANCHE: ETICA E RESPONSABILITA’ DELL’AI