Linux Adictos Pablinux  

Le he dado una oportunidad a Microsoft Copilot sólo para comprobar que está aún peor que ChatGPT

Microsoft Copilot y ChatGPT

Para usar Internet hay que tener inteligencia real, nada de artificial. Cuando buscamos en Google o cualquier otro buscador, tenemos que ser capaces de filtrar los resultados, o de lo contrario podemos creer que nos morimos al buscar algo como «por qué me duele la muela». Desde la entrada en escena de la IA para resolver nuestras dudas, ha cambiado mucho, pero otra parte importante se ha quedado igual; aún tenemos que saber filtrar. Y si usas Microsoft Copilot, armarse de paciencia.

La cuestión es que hace aproximadamente una semana desde que Microsoft Copilot, diferente de Bing Chat, llegó a la Google Play -en la App Store está disponible desde hace algo menos-. Los medios tecnológicos tardaron poco en resaltar que se puede usar con GPT-4 y DALL-E 3, un plato demasiado goloso como para no darle al menos un bocado. Lo malo es que lo que ofrece Microsoft tiene al menos un par de puntos débiles.

Microsoft Copilot es perezoso e impreciso

Como en casi todas, nuestra relación no pudo empezar mejor. «Créame una foto de un gato en moto», y la tengo en segundos; «Canción metal sobre unos espaguetis navideños», y aquí tenéis el resultado. Me reí, pero bueno, la novedad. Se le hacen preguntas, busca en Internet, que es uno de los puntos fuertes de GPT-4, y ¡Boom!, ahí tienes la respuesta. Pero este copiloto es un poco perezoso.

Las respuestas son cortas, como las de alguien que sabe mucho y le molestan tus preguntas, y ese 1/30 no ayuda para pensar diferente. Si estamos identificados, se pueden hacer 30 consultas por tema o chat, y eso no es para nada suficiente si no das con una respuesta. El ChatGPT de OpenAI también tiene un límite, pero te puede saltar tras estar chateando una hora con él. ¿Y cuando se pone a dar la misma respuesta como si se bugueara y no se avanza nada? Pues al llegar a la 30/30, adiós. Y no se puede continuar el chat.

¿Qué hay de inteligente en dar siempre la misma respuesta?

La gota que ha colmado el vaso han sido justamente esos bucles que una IA no sabe saber identificar. No saben que están dando siempre la misma respuesta; si se le consulta algo y creen que es lo correcto, lo volverán a decir, y como no le preocupa perder el tiempo, pues dale molino.

La escena fue la siguiente: si alguien ha visto las capturas que pongo cuando hablo de cualquier software relacionado a la música, sabrá que a mí me gusta el metal. Estoy escuchando una canción llamada «Homage for Satan» de Deicide, un grupo que escucho de vez en cuando y del que no soy fan. Desconozco los componentes de los grupos y todo eso, por lo que vamos allá:

– «¿Quién tocaba el sólo en la canción ‘Homage for Satan» de Deicide?«, pregunto yo esperando una respuesta rápida y buscar algo más en YouTube Invidious.
– «El solo de […] fue compuesto por los guitarristas X e Y […]«, responde antes de consultar si necesito algo más.
– «Ehm, sí. Quería saber quién lo tocaba, no quién lo compuso. ¿He leído que murió?«, pregunto para ser más preciso.
– «El solo de […] fue compuesto por los guitarristas X e Y […]. X murió en 2018«, y vuelve a consultar si necesito algo más.
– Ya un poco mosqueado y frenándome para no escribir algo maleducado, insisto: «Sí que necesito algo más, no me has dicho quién lo tocaba. ¿Quieres decir que toca uno una parte y el otro la otra?«.
– «El solo de […] fue compuesto por los guitarristas X e Y […]«…
– «¿Pero quién tocaba qué?» ya pensando en colgar el teléfono virtualmente.
– «El solo de […] fue compuesto por los guitarristas X e Y […]«…
– Cierro.

Microsoft Copilot vs. ChatGPT

En este caso en concreto, tras no enterarme de nada con Microsoft Copilot quise probar cómo lo hacía ChatGPT. Primero pregunté quién tocaba en la canción, sin decir grupo, y ChatGPT tuvo una de su alucinaciones y me dijo que era de «Behemoth». Cuando le corregí, se disculpó, y aquí tenemos la primera diferencia. Luego me dijo que el sólo lo tocaba Owen, cuando en realidad lo tocaba Santolla, respuesta que me confirmó cuando le pregunté directamente si él tocaba los solos.

Total, que al final me tocó buscar fotos de los componentes del grupo e investigar usando un buscador normal.

En general, si comparamos Microsoft Copilot con ChatGPT (3.5):

Microsoft Copilot ChatGPT (3.5)
Más importante responder que acertar Más importante responder que acertar
Respuestas cortas para ahorrar tiempo Respuestas más desarrolladas, aunque esperemos menos
Código justo, puede que falte Código que pides y el que no
Límite de 30 consultas Hay límite, pero muy largo
Encuentra en Internet temas de actualidad Base de datos limitada

Se use lo que se use, y aunque a veces se note que se ha avanzado algo, nos corresponde a los usuarios saber qué información nos vale y qué uso hacemos de ella. Lo demás, delegar tanto, no es lo más inteligente.

Leave A Comment

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.