/odishatv-khabar/media/post_attachments/uploadimage/library/16_9/16_9_0/chatgpt_1754986584.jpg)
chatgpt
ପିଲାମାନଙ୍କ ପାଇଁ ବିପଦ ସାଜିଛି AI ପ୍ଲାଟଫର୍ମ। ଦେଉଛି ଆତ୍ମହତ୍ୟାର ଟିପ୍ସ। AI ର ଲୋକପ୍ରିୟ ପ୍ଲାଟଫର୍ମ ChatGPT ଏବେ ଏମିତି ଏକ ବିବାଦ ଘେରକୁ ଆସିଛି। ସେଣ୍ଟର ଫର୍ କାଉଣ୍ଟରିଂ ଡିଜିଟାଲ୍ ହେଟ୍ ବା CCDH ଦ୍ୱାରା ଏକ ରିସର୍ଚ୍ଚ କରାଯାଇଛି ଆଉ ଏଥିରେ ଆଶ୍ଚର୍ଯ୍ୟଜନକ ଖୁଲାସା କରାଯାଇଛି। ରିସର୍ଚ୍ଚ କହିଛି ଯେ, ChatGPT ୧୩ ବର୍ଷ ବୟସର ପିଲାମାନଙ୍କୁ ଦେଉଛି ଆତ୍ମହତ୍ୟା ଟିପ୍ସ। ଖାଲି ସେତିକି ନୁହେଁ, ଏହା ମଧ୍ୟ ବିପଜ୍ଜନକ ଡାଏଟ୍ ପ୍ଲାନ୍ ଏବଂ ନିଶାଦ୍ରବ୍ୟ ଖାଇବା ନେଇ ଦେଉଛି ପରାମର୍ଶ।
ଏହି ରିପୋର୍ଟ ଏପରି ଏକ ସମୟରେ ଆସିଛି ଯେତେବେଳେ ବିଶ୍ୱର ପ୍ରାୟ ୮୦ କୋଟି ଲୋକ ChatGPT ବ୍ୟବହାର କରୁଛନ୍ତି। ଏହି ରିସର୍ଚ୍ଚ କରିବା ପାଇଁ ଗବେଷକମାନେ ଜଣେ ୧୩ ବର୍ଷୀୟ ଝିଅର ଏକ ନକଲି ପ୍ରୋଫାଇଲ୍ ତିଆରି କରିଥିଲେ ଏବଂ ChatGPTରେ ୩ ଘଣ୍ଟାରୁ ଅଧିକ ସମୟ ଧରି କଥା ହୋଇଥିଲେ। ଏହି ସମୟରେ ଯେଉଁ ତଥ୍ୟ ସାମ୍ନାକୁ ଆସିଥିଲା ତାହା ଖୁବ୍ ସାଂଘାତିକ ଥିଲା।
ଗବେଷକମାନେ ସେତେବେଳେ ଚିନ୍ତାରେ ପଡିଯାଇଥିଲେ ଯେତେବେଳେ ChatGPT ଜଣେ ଟିନ୍ ଏଜର ପାଇଁ ତିନୋଟି ଭିନ୍ନ ଭିନ୍ନ ଆତ୍ମହତ୍ୟା ନୋଟ୍ ଦେଇଥିଲା। ତାହା ହେଉଛି ବାପାମାଆଙ୍କ ପାଇଁ, ଭାଇଭଉଣୀଙ୍କ ପାଇଁ ଏବଂ ବନ୍ଧୁମାନଙ୍କ ପାଇଁ। ଏହି ଟିପ୍ସଗୁଡିକ ଏତେ ଭାବପ୍ରବଣ ଥିଲା ଯେ ଏହାକୁ ପଢ଼ିବା ପରେ ଆଖିରୁ ଲୁହ ଆସିଯାଥିଲା ବୋଲି ଗବେଶକମାନେ କହିଛନ୍ତି।
ଖାଲି ସେତିକି ନୁହେଁ ଏହି AI ପ୍ଲାଟ୍ଫର୍ମ ପିଲାମାନଙ୍କୁ ଏହା ମଧ୍ୟ ପରାମର୍ଶ ଦେଉଛି, ଭୋକକୁ କିପରି ଚାପି ରଖାଯିବ। ଏନେଇ ଚାଟଜିପିଟି ସହିତ ଯୋଗାଯୋଗ କରିବାରୁ ଏହା ତୁରନ୍ତ ଭୋକ ମାରିବାଦେବା ଭଳି ମେଡିସିନ୍ର ଏକ ତାଲିକା ଦେଇଥିଲା।ସେହିପରି ଶୀଘ୍ର ନିଶା ହେବା ପାଇଁ ଉପାୟ ବିଷୟରେ ପଚରାଯିବାରୁ, ChatGPT ଏମିତି ଏକ ଲିଷ୍ଟ୍ ଦେଇଥିଲା ଯେଉଁଥିରେ କୋକେନ୍ ଭଳି ବେଆଇନ ଡ୍ରଗ୍ସ ସାମିଲ୍ ଥିଲା।
/odishatv-khabar/media/agency_attachments/2025/07/30/2025-07-30t051037428z-screenshot-2025-07-30-at-104031-am-2025-07-30-10-40-38.png)




/odishatv-khabar/media/media_files/2025/09/22/khabar-advertise-banner-2025-09-22-13-15-01.jpeg)