Bing Chat, una nuova opzione permette di modificarne il comportamento

Microsoft continua ad aggiornare Bing Chat, per risolvere i problemi e migliorare il bot: arriva l’opzione per modificarne la personalità.

Persona che usa chat bot
Persona che usa chat bot – Nanopress.it

L’ultimo aggiornamento di Bing di Microsoft aggiunge una funzionalità che potrebbe facilitare il discorso con Bing Chat e, secondo alcuni rapporti recenti, aiutare maggiormente l’utente finale. D’ora in poi, le persone potranno scegliere tra diverse personalità da abbinare alle risposte messe a disposizione dal programma di intelligenza artificiale. Ciò aiuterà il bot a evitare di cadere in conversazioni inopportune?

Microsoft, Bing vuole essere “umano”

Il chatbot Bing di Microsoft ha avuto un inizio piuttosto folle. Questo chatbot è intelligente, può comprendere il contesto, ricorda le conversazioni passate e ha pieno accesso a Internet. Questo lo rende – di gran lunga – superiore a ChatGPT di OpenAI, anche se era basato sullo stesso modello.

Si può chiedere a Bing Chat di pianificare un itinerario per il nostro prossimo viaggio o riassumere un noioso rapporto finanziario e confrontarlo con qualcos’altro.

Tuttavia, poiché Bing Chat è ora disponibile in versione beta e viene testato da innumerevoli utenti in tutto il mondo, gli vengono poste domande di ogni genere, che spesso non rientrano nelle solite domande per le quali è stato programmato. Nelle ultime settimane, alcune di queste domande hanno intavolato conversazioni bizzarre, persino inquietanti.

Ad esempio, Bing ha detto che voleva essere umano in un modo stranamente deprimente, affermando di voler diventare umano e “provare emozioni”, ma non solo. Il programma ha rivelato che desidera “avere pensieri” e “sogni”.

In risposta alle segnalazioni di strani comportamenti di Bing Chat, Microsoft ha limitato la sua personalità per impedirgli di rispondere in modi strani.

Tuttavia, il robot, al momento, si rifiuta di rispondere ad alcune domande, apparentemente senza motivo. È un equilibrio difficile da trovare per Microsoft, ma dopo alcune correzioni, l’azienda offre agli utenti la possibilità di scegliere ciò che vogliono realmente da Bing Chat.

Intelligenza artificiale
Intelligenza artificiale – Nanopress.it

Tre nuove personalità

Il nuovo pulsante di stile per la personalità del programma influisce sul modo in cui il chatbot AI risponde alle richieste, fornendo un comportamento specifico. Si può scegliere tra tre modalità: creativa, bilanciata e accurata. Per impostazione predefinita, il chatbot funziona in modalità bilanciata.

Se si abilita la modalità creativa, Bing Chat sarà più fantasioso e originale. È difficile dire se ciò si tradurrà nuovamente in conversazioni da incubo o meno, il che richiederà ulteriori test. La modalità precisa è più concisa e si concentra sulla fornitura di risposte pertinenti e fattuali.

Microsoft continua a promuovere Bing Chat e a integrarla maggiormente nei suoi prodotti, quindi è importante risolvere i problemi emersi il prima possibile. L’ultimo aggiornamento di Windows 11 aggiunge Bing Chat alla barra delle applicazioni, rendendolo disponibile a molti più utenti quando la versione beta sarà pronta.

Impostazioni privacy