Bilişim, Teknoloj, ve Siber Güvenlik

yapay zeka etiketine sahip kayıtlar gösteriliyor. Tüm kayıtları göster
yapay zeka etiketine sahip kayıtlar gösteriliyor. Tüm kayıtları göster

20 Mayıs 2023 Cumartesi

Yapay Zeka Ararken Dikkat

 AI Ararken RedLine Yüklemeyin

OpenAI ChatGPT ve Midjourney gibi generatif AI hizmetleri için kötü niyetli Google Arama reklamları, RedLine Stealer kötü amaçlı yazılımını dağıtmak amacıyla kullanılıyor.

eSentire analizine göre, "Her iki AI hizmeti de son derece popüler olmasına rağmen bağımsız uygulamalara sahip değillerdir (yani kullanıcılar ChatGPT'ye web arayüzü üzerinden erişirken Midjourney Discord'u kullanır)," dedi.

"Tehdit aktörleri, sahte uygulamaları tanıtan sahte web sayfalarını tanıtan AI uygulama arayıcılardan yararlanmışlardır."

BATLOADER, kullanıcıların arama motorlarında belirli anahtar kelimeler aradıklarında sahte reklamların görüntülendiği ve tıkladıklarında kötü amaçlı yazılım barındıran yanıltıcı indirme sayfalarına yönlendirildikleri drive-by indirmeleri aracılığıyla yayılan bir yükleyici kötü amaçlı yazılımdır.

 AI Tools

eSentire'a göre, kurulum dosyası, ChatGPT.exe veya midjourney.exe adlı bir yürütülebilir dosya ve Chat.ps1 veya Chat-Ready.ps1 adlı bir PowerShell komut dosyası içerir ve uzaktaki bir sunucudan RedLine Stealer'ı indirir ve yükler.


AI Tools

 

Kurulum tamamlandığında, ikili dosya Microsoft Edge WebView2'yi kullanarak chat.openai[.]com veya www.midjourney[.]com - yasal ChatGPT ve Midjourney URL'leri - pop-up penceresinde yükleyerek herhangi bir şüphe uyandırmadan açar.

Düşmanın, kötücül reklamlar sunmak ve sonuçta RedLine Stealer kötü amaçlı yazılımını bırakmak için ChatGPT ve Midjourney temalı tuzağı kullandığı da geçen hafta Trend Micro tarafından vurgulandı. Yapay Zeka Araçları BATLOADER'ın arkasındaki operatörlerin kötü amaçlı yazılım dağıtmak için yapay zeka çılgınlığından yararlandığı ilk kez değil. Mart 2023'te, eSentire benzer bir dizi saldırıyı ayrıntılı bir şekilde açıkladı, bu saldırılar Vidar Stealer ve Ursnif'i dağıtmak için ChatGPT tuzağından yararlandı.

Cybersecurity şirketi ayrıca Google Arama reklamlarının kötüye kullanımının 2023 başlarındaki zirveden düştüğünü belirtti, bu da teknoloji devinin bu tür kötüye kullanımları sınırlamak için aktif önlemler aldığını gösteriyor.

Bu gelişme, tehdit aktörlerinin kötü amaçlı yazılım ve diğer sahte uygulamaları dağıtmak için bu yapay zeka araçlarının artan kullanımından yararlanmaya çalıştığı daha geniş bir dolandırıcılık ve sahtekarlık kampanyası dalgasıyla uyumlu.

Güvenlik sağlayıcısı Sophos, ilgili bir araştırmada, Google Play ve Apple App Store'da ChatGPT ile ilişkili bir dizi fleeceware uygulamasını - toplu olarak FleeceGPT olarak adlandırılan - kullanıcıları istenmeyen aboneliklere zorladı.

Sophos araştırmacıları Jagadeesh Chandraiah ve Sean Gallagher, "Fleeceware uygulamaları, Apple ve Google hizmet şartlarının sınırlarında kalmak üzere tasarlandığı ve özel bilgilere erişmediği veya platform güvenliğini aşmayı denemediği için nadiren gözden geçirmede reddedilir ve uygulama mağazalarına alınır," dedi.

Son haftalarda, Meta ve Palo Alto Networks Unit 42, kullanıcıların kredi kartı bilgilerini toplamak, kredi kartı dolandırıcılığı yapmak ve kurbanların Facebook hesap bilgilerini çalan taklit ChatGPT hizmetine benzeyen sahtekarlık faaliyetlerinde artış olduğu konusunda uyarıda bulundu.

 

17 Mayıs 2023 Çarşamba

OpenAI ChatGPT ile Google Bard Karşılaştırması

 

OpenAI ChatGPT ile Google Bard Karşılaştırması

This image displays a logo for Google Bard and Google I/O conference.  v.s.   data:image/jpeg;base64,/9j/4AAQSkZJRgABAQAAAQABAAD/2wCEAAkGBxAHBhUTBxMVFhIXFxccGBcYFSAfHBsgGxcYHxsbHx4eHikjIxsmISAYIjIuKDYsLy8vFyA0OUAuOCovLywBCgoKDg0OHBAQGy8mISYuLi4uMCwuLi4vMS4sLi4uLi4wLi4uMTA0Li4uLi4uLi4uLi4sMC4uLi4uLi4uLi4uLv/AABEIAJ8BPgMBIgACEQEDEQH/xAAbAAEAAgMBAQAAAAAAAAAAAAAABQYBBAcDAv/EAEIQAAIBAgQCBwQHBQYHAAAAAAABAgMRBAUhMQYSE0FRYXGBkQciobEUMkJScsHRIzVic7IkJTbC4fAVFjNTgpLx/8QAGgEBAAMBAQEAAAAAAAAAAAAAAAECAwQFBv/EADMRAAIBAgUBBQYFBQAAAAAAAAABAgMRBBIhMUETUWFxgfAUMpGhwdEFgrHh8SIjMzQ1/9oADAMBAAIRAxEAPwDUABsfEgAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAGUrvQvvDnBMY01VzvfdU72S/E1u+7bxIbsb4fD1K8ssF4vhFDpU5VpWopyfYk2/gbM8ur043qUaiXa4NL5HRcVxfgcpXJglzW6qcUo+ui9LmpT9odJy/a0Zpdqlf4WRW7Ov2PDR0nWV+5HOrg6rFZbxdSdlGU0tdOWpHv7beqKvjOAsTTxbWDlGVPqk5Wfg1bfwJzFKn4fUSUqbzp8r7fuypAseI4Jx1FXjCM/CSv8bEDisPUwlblxcJQl2SVn8eom5yVKNSn78WvFekeQMmCTMAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAHvg8HVx1fkwcJTl2RXxfUl4m3kOTzzrMVTp6Lecvur9Xsjo2OxmF4Qy1RpRs39WC+tN9cpP83/oVbO3DYTqp1JvLBc+vn+hC8KcH1cHmCrZny+6rxind83U3ZW017dbHh7Qs8lLEfRcM7RSTqW621dLwSs3237ixcIZ3UzzC1J4hRjyztFR6lyp6t7vXuOd8Uu/Ede/32QtWdmJlClg10dpPz2b+dreBH4bDzxNVQw0ZTm9oxV3/APC45NwBOpaWby5V9yLvLzlsvK5NYHF0OHOEqdbo/rRi3ypXk5K+rfn4FPzrjDFZkmovoqf3YvV+Mt35WF29jHo4bDJOs80rXstvXj8C5YjNsv4XpOGGUefrhDWTf8Uv1ZXMX7QMVVn/AGaEIR705P1ul8CNybhPFZpZqPR039uStfwju/gu8tWB4Ry6alSc+krL6zU7Sj4RTsvO4skbqWMrpdO0I8cfS/wsiFw3tAxdOf8AaI05rss4v1TfyLTgsywfFuDcK0feSu4PeP8AEmvmiq51wNiMHeWXvpodi0kvLZ+XoVrC4ipl2NU6N41IPr0afWmvg/EWXBj7XicPLLiFdPt7O58/FklxPkM8jxttZUpX5JfOL/iXxIY6zxBShnnCcpxX2FUh2ppc1vS68zk5MWYY/DqhU/p2eq9etDAALHEAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAADJgyGDpfs2wapZLKp9qpN690dEvXmfmUPP8fLM84qVJvTmaj3RTtFfn5svvs3xSqZE6fXTnK67pPmT+foUHPMDLLc3qU5raTa74t3i/Qotz1MX/qUsu3Pjb+S8ey/901Pxr+iJTOKP8RV/wAbLZ7M8VCOFqU5SSm5cyjfVrltdduxA8ZZTXwubVatWm+inO6mtVr2228yOScQnLA02uN+7RltrZTPOeDsPSoyUfdptt9SUddOtkdbK+FZe9+2xC82v8sfmfef1p0PZ/Q6CTjeNJNptXTjqtOo58tNiUWxeIjSnHLFOWVavW3gvqdRxeIp8WYLlyjFSpSs7wtZvuktJW707eJQs0yPFZHVTxEXFJ6VIv3fJrVPxsyMUnGV4NprZp2a8GdTxWdf8K4YoVcTF1VOMFO71d4Nt67vTrGxVOGNUpVP6XFXurtfB/TUrGS8dV8HaOYLpYdu0l57Pz9S0f3dxdS6nO34akfza9UQ08ky/iWDnkk+iq2u420849S746FRzPLq2S5hyV/dmrSjJPq1tJPR9TFkWdavRh/ctUpvm9/n90dRzClHJ+FKkItuNOjKKb3ejSucgjsdN4K4gec4aVHH2dWK3a+vHa7Xatn4opnFmULJs3lCl/05K8O5Pq8ndeFhHTcj8QSq0oVqfu7eHrb+SFBkwXPJAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAJbhrN55PmanSTlGVlOH3k3pb+JPb/AFOk8R8OUs9oLn9ypH6s0tu5rricsyZpZzS6TbpIX/8AdHSeOcZWy7KY1MDJxkqkbtdjUtGnpa9ijPYwMl7NU6ivFcfqUHN+HsVk0r1otxT0qRu1433i/GxIZPxtiMGlHHftae3vaO34uvz9Saybj2FVKGcQ5XtzxV4vxjuvK5uZhwngs7o9JlrUG9pQs4vxjt6WYfeRTw+rng6n5Xv9n5rzMYitheLsnVDAVVSkmmoOKTXLey5etfhKVnHDuKylv6RBuH31rHz615krh+AsU8XatOMIJ36RO9/wrR38beZYsXxPhsgwqpQqyxFWOmslfzna3zY22LTp9aOfErI1pmvv+X7eRU8n4OxWZ2lVXRU/vSWr8I7+tiycc4dYXhClTpPmjCUIp9qUJJPQqedcUYrNrqcuSm/sR0T7m95fLuLJxbFw4Ew6kmmuiTTWq/Zy0Gt9SlJ0elVjST93Vvnfjgj/AGZfv2f8uX9UD59pf7/j/Lj85n37Mv35U/ly/rgfHtM/f8P5cfnIPcq/+d+b6mlwLKS4npcnXz38OSX52Jz2opdJh2vrWqenuG1wDkEsFF4jGx5ZyVoRe8Y9bfY3p5LvKzxpmyzbOn0DvTprli+p6+8/BvTyQ3ZMo9HA5Z7yd0vNfYgTBkwXPJQAAJAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAG2x1jK8XS4r4eca/1mrVEt4yW0l5+8jk5uZZmNXK8UqmDlaXWuqS7GutENHXg8T0JPMrxejPTOcnrZLieTGLS/uzX1ZLufb3bnjl+YVstrc2BnKD67bPxWz8zoGA40wmY0OTNY8je6lHmi/O3zR6SyXJ8W+ZdF5Vml6KWhF+06fYYzefD1F5uzX1+pSM14lxeaQ5cRUtHbliuVPxtq/DY3sl4LxOYWliF0NPtkrt+Ef1sXzJcvwNFuWURpNxdnKL52n2c120Q/F+c4/AtxwVFxp/8AeXvv0taPmVvwjaWCjBdbEycvC7+f8I26OX5fwpSU6zSl1Tl70n+FL8kVLizipZ5TVPDwcacZc15P3pNJpaLRLV9pWq1eWIrOVeTlN7uTu36kvk/DWKzaS6ODjDrnJWXl1vyLWscs8XOsujQjaPYtX5vb1uTfsxwzlmVWp9mMFG/fJp/JfEtuZzwODxnT5i4KqkknJ3kkrtcsdXfV7K5r1J4fg7IrLV62X2pyfX/vZI5XicRLFYqVSu7zm3Jvvf5EWuzrnWWCoxpWUpbvu9cFr4n4zlmFN0ssThTekpvSUl2LsXxfcVBaGAXSseTWrTrSzTeoAAMgAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAALAANXNnLsfVyzE8+Bm4y7tmuxrZoumXe0NctsxotP70Hv/AOMtvVlCBDVzooYqrQ/xvTs49eB0/wD56wO9p3/Ar/MjMw9od01ltHX703/lj+pQwRlR0T/E8RJWul4L73NnH46rmOJc8bNzl2vqXYlsl4GsAWOBtt3YAAIAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAB8VqsaNJyqtKKV231I+yD41bXD8uXbnhfwv+tiGa0KfUqRg+XY83xP0zbwGGr1YL7Sjp5aM3stzqnmVCbopqcE+aE1Zrf4aH1w+orJKPR7dFH1tr53uerqUmqsaDp86i3NK3NdreS3K6m8+ldxjB6Pe/fz+1jX4fzR5tgekqRUffcbLXZL9STKXwvk0M0yp/TJVOXnajGMrJO0by7349htcKYhvKa8cRUajTbSnfWKs9V6XGY2xOEgpTcH7rStZ86aO+vwLUeOMxcMFhXUxLtCNruze7SW3eyj4yhSngJVcDHFTnHX6RN8q31a1u+tdpJZ3T+mcIwrYht1IwhrffmlBNtdYzELBRvG8nZyyvTW/wAX87PuLRhq8cVh4zo/Vkk07dTInGcRwpYp0sHTqVprdQWi8zy4dyyFDLY1aPP0kqP3m1qupGlwK/7srOkk6nN19fu+7d9l7i7IVClFVJ7qLsuNW2tXfZW8yTwPEMMRjFSxNOpRqPZTW/m9T7zbPVluMVJUqk5TV1yeLVrduhHVM7xOHzOlTx9ClF1JRSad2lKST2f+7HhxLOdPiqg6EeeajG0b2v789LvYX0LwwsXUScdHFv3rq67+y/eSVLiSCxEYY6lWouWidSNk/U+8wz6WBryTw1aUY7zUfdta7d7bfoR+Y4HGZ/VhHG0oUaUXdvmTb7bW7iaz79y1v5c/6WNTOUKMXBWTb3Sk2lro7ru72R+E4kli3HosLWcZO3MoXjvZu6XUT5CcF/4eh+Kf9RNlkY4pQjUcIK1m1u3+oABJzAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA+K9GOIouNZXi1Zp9Z9gEp2K7Hhqph7rLsVVpwf2d7eDujfyvJKeXUZqm5SnO/NOW7/wB7kmCuVG8sVVkrN/Ja+LsaGR5WsowXRxlze85XtbdLTd9hrYHh+GFwVanUm5RqvXSzW+2rJgE5SHiajcnfeze3GxX6XDcvojo18RUlR15YJKNtW1fduz1ttobWGyXkyeWHxNR1IvROyTitLJb7NXJYDKi0sXVlu+b7Ja9u25D5Nk9TLai5sRKdNJqMGrJXfi9jxxHDnLjHUy2tUoyk/eS2fldfmTwGVEe1VczlfV76LXxVrEA+GlLF0qtStUlUhJSbmr81mmlv7qVu/c28bk6xWcUq7k06aS5eTfVve/eSgGVB4qq2nfZNbLZ78GTwx2G+mYOdNu3PBxv2XVrnsCbGCdndGnk2XrK8AqUZc1r62tu29rs3AAlYtObnJyluwAAUAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAP/9k=

Aynı fizik sorularını sorarak yapılan OpenAI ChatGPT ile Google Bard karşılaştırmasında  Google Bard'ın çok hızlı (3 sn) ve ürettiği sonuçların özelikle sayısal çözümlü sorular için yanlış olduğunu görüldü. Özellikle OpenAI'ın ChatGPT si özellikle sayısal çözüm ve hatta vectörel çözümlerde bile oldukça yavaş (~140 sn) fakat sonuçta çoğunlukla doğru sonuç varebilmesine rağmen bazı sorularda ise özellikle son adım işlemlerin sonucu yanlı verdiği gözlendi. Vektör sorularına vektör olarak çözüme ulaşmakta ve sonucu da gene vektör formunda ve istenirse de birim vectörleri kullanarak ve vektör formatında da yazarak verebilmektedir. Ancak unutulmaması gereken sorunun tam anlamıyla ve matematiksel olarak ta tam olarak tanımlanması (üst ifadeleri, logaritmik ifadeler, dot ve cevtör çarpımlar vb) sonucun doğru olarak üretilmesinde çok önemli olduğu değişik problem çözümlerinde gözlenmiştir.

Ayanı metin ile tercüme konularında  ise karşılaştırmak ise mümkün olmamıştır, çünkü GoogleBard "Bir LLM olarak, şu anda dillerin yalnızca bir alt kümesini anlamak ve bunlara yanıt vermek üzere eğitildim ve bu konuda yardım sağlayamıyorum. Desteklenen dillerin güncel bir listesi için lütfen Bard Yardım Merkezi'ne bakın." uyarısı vererek tercüme yapamamakta.

Google, Bard hakkında kullanıcı geri bildirimi istiyor

"Google, Bard'ın deneysel olduğunu ve bazı yanıtların yanlış olabileceğini belirtti. Google ekibi, hatta kendi duyuru gönderisinde Bard'ın bazı önerileriyle alay etti.

Google ayrıca gizliliğe önem veriyor. Bekleme listesi aracılığıyla erişilebilen Bard sürümü, örneğin kendisi ve bir insan arasındaki bir konuşmanın daha önce ne olduğuyla ilgili sorulara cevap veremiyordu. Bard SSS'ye göre, Google bilinçli olarak Bard'ın "bağlamı sürdürme yeteneğini" sınırlamıştır. Google, kullanıcılardan Bard'ın yanıtları hakkında geri bildirim göndermelerini istiyor.

CNBC tarafından görülen bir iç e-postada, Google ve Alphabet CEO'su Sundar Pichai, çalışanlara, "İşler yanlış gidecek. Ancak kullanıcı geri bildirimi, ürünü ve temel teknolojiyi geliştirmek için kritiktir." dedi. Google, Microsoft ve OpenAI ile rekabet ediyor

Google Bard'ın büyük rakibi, OpenAI'nin ChatGPT'sidir. Şu ana kadar, ChatGPT'nin temel programlama yazabilme avantajı vardır ve iş uygulamalarını önemli ölçüde genişletir.

Microsoft'un Bing arama motoru, ChatGPT'nin temelini oluşturan büyük çoklu model olan OpenAI'nin GPT-4'ünü kullanıyor. ChatGPT şu anda OpenAI'nin ChatGPT Plus aboneliği ile kullanılabilir.

Google'dan fon alan bir girişim olan Anthropic'ın kendi yapay zeka asistanı Claude'u bulunmaktadır. Anthropic, Google'ı bir bulut sağlayıcı olarak kullanırken, DuckDuckGo ile bir arama motoru alanında ortaklık yapmaktadır. Teknoloji 

liderlerinin AI kullanmadan önce düşünmesi gerekenler

Büyük dil modeli yapay zeka ile oluşturulan sohbet asistanları, kolayca ayrıştırılabilen ancak gerçekleri yanlış döndüren yanıtlarla eleştirilmiştir. Ayrıca, AI'nın gerektirdiği iş eğitiminin üretkenlik faydalarını aşma endişeleri ve AI içeriğinin insan yapımı çalışmayı değiştirmesi ve böylece mevcut iş sayısını sınırlaması konusunda bazı endişeler vardır. İş liderleri, generatif AI'nın iş yeri kültürü için uygun olup olmadığını ve üretkenliği artırıp artırmadığını dikkate almalıdır."

 

27 Nisan 2023 Perşembe

Giving Secure Online Examinations, Quizzes in the World of Artificial Intelligence and Chat BOTs

 To prevent cheating in online exams, it would be useful to first review how students cheat.

The following are some common ways of cheating in online exams:

  • Unreasobale or unlimited Exam duration: Not setting a proper exam duration (start, end, and exam duration settings) can be a problem, even if start and end times are defined in some institutions, as defining an excessively long exam time or an exam that lasts from morning until evening is an invitation and even encouragement to cheat. In addition, the rights of other students who take the same or similar courses are also violated. The solution is to define a realistic and fair exam duration, just like in face-to-face exams, without forgetting the concepts of justice and fairness.
  • Communication groups: Instant sharing of the answers of the solved questions by setting up communication groups can only solve cheating on random questions or questions that are diversified with different values.
  • Sending exam questions to online sites and receiving the answers of the questions by sending them back. This type of cheating can only be solved by sequential questions and preventing the viewing and returning of the question. Also, a fair and reasonable exam duration setting is necessary.
  • Opening a new tab/window or browser next to the internet browser page during the exam and searching for the solutions of the questions on electronic environments on the internet or sending emails to previously agreed persons to solve the question. This possibility can be prevented by setting the exam system's internet browser to kiosk mode through the Secure Browser setting.
  • Same questions and answers for everyone. In this case, sharing the questions and answer choices directly through communication groups is possible. The solution is to have random questions and answer choices for each student.
  • Unlimited Examination Entrance: One or more students who do not expect anything from the course, drop the course, or know for sure that they will fail, entering the exam first and sharing the questions one by one in groups, creating a copy question and answer pool, and then all other students entering the system and marking only the questions and their relevant correct answers. This possibility of cheating can be reduced by limiting the entry time to the exam.
  • Use of open artificial intelligence programs/applications that are available to everyone online or in the form of an application.

After summarizing the most common cheating methods in online exams, the following techniques can be used to minimize these possibilities:

  • The priority is to create a well-planned question pool entirely composed of new questions that are different every year and every term. 
  • In this context, one of the things to do is to create a question pool for each section separately, which is quite diverse, even classified according to difficulty levels, and which produces different results by giving different numerical values ​​to the same difficulty and question set to create an exam pool. Thus, even if similar questions come to students who know each other, communicate, or even sit next to each other, the results will be different because the numerical values ​​of the numbers will be different. Even if they come as similar questions from random questions, at least copying in the first stage will be prevented because the numerical values ​​will be different. 
  • It is essential to set questions as random and as a single question on each page.
  • One of the things to be done is to make sure that the start, end, and duration settings of the exam are made, and the student finishes the exam at the end of the specified time for solving the questions. Once the time settings mentioned are made, the remaining time on the system will be displayed continuously, and the exam will be automatically saved and closed at the end of the time. 
  • One of the ways to prevent cheating, especially in online exams, is to ensure that the questions appear sequentially, not free, one after the other, and only forward, and to prevent going back to previous questions. That is, it is to prevent students from copying the questions, sharing them with someone else, or finding the correct answers somewhere, and then returning to answer them. 
  • Another way is to ensure that the questions and answer options are selected randomly during the exam. Thus, the possibility of similar or the same questions coming to close students who know each other, form a group or communicate is reduced, preventing copying. 
  • Preventing students from opening another application in the background during the exam is another way to prevent cheating. This method, which can be used as a way to prevent students from searching for solutions to questions in another environment by connecting to the internet, is to take the exam in a Secure/Protected Browser mode. That is, the browser that is opened will be in kiosk mode and cover the entire screen, allowing the student to use only the question screen, preventing another browser or tab from being opened. 
  • Ensuring that students enter the exam only in the allowed time at the beginning of the eaxmination, in the first 10 or 15-mins., depending on the situation, and preventing them from entering the exam in the following minutes is a way to prevent cheating. Thus, as soon as the exam starts, all students will enter the exam, and their time will begin. 
  • Another method is to use some special software, sign online course registration requirements and rules for students at the beginning of the term, and install software that does not allow other connections and background applications in their PC/Table/Smartphone during exams. However, there may be cost and hesitation both at the institutional and student level.
  • During the exam, monitoring and controlling the student and their surroundings through multiple cameras is another way of supervision. However, this method will require multiple supervisors to control multiple cameras during the exam, leading to institutional and student-level costs and concerns (such as monitoring personal environments).
  • To prevent the use of open-access artificial intelligence programs online or through applications, questions should be prepared in image format rather than direct text format. Here, questions should be presented as an image with only the question text in text format or even the entire question in image format, with other necessary information provided in a suitable manner for solving the question. This may not be possible for every question, in which case the question should be created using complex watermark patterns or other designs and must be submitted in image format. As current artificial intelligence applications still use version 3.0 or 3.5, they cannot yet accept image or voice inputs. However, in the future, with version 4.0 or 5.0, using different designs in the background (like CAPTCHA) for image-format questions and submitting questions to the system in this way should be considered as a way to minimize cheating.

    Finally, it may not be possible to apply all of these methods simultaneously, but combining appropriate ones will be the most intelligent approach.



13 Ekim 2020 Salı

 

Bilgisayarlara Robot Olmadığımızı İspatlarken Arka Planda Captcha'nın Yaptıkları

Nedir bu Captcha ?,

Bilgisayarlar bizim robot (bot) olup olmadığımızı test ederlerken o sistemde işlediğimiz verilere ne oluyor?

Bilgisayarlara robot olmadığımızı ispatladığımızda the new york times, google ve google maps için çalışıyor olmamız gerçeği...

Duolingo'nun yaratıcısı luis von ahn, 2000'lerin başında carnegie mellon üniversitesi'nde hocadır. bir gün üniversiteye konuşmacı olarak yahoo'nun bilim ve araştırma departmanın başındaki isim udi manber gelir. udi, yahoo'nun bir türlü çözemediği sorunlardan bahseder: bu sorunlardan bir tanesi, insanların yazdıkları programları kullanarak yahoo'dan yüzlerce, binlerce, hatta milyonlarca e-mail hesabı almasıdır. bilgisayar bunu yapanın bir insan mı yoksa bir bilgisayar programı mı olduğunu ayırt edememektedir. konuşmayı dinleyen luis von ahn bunun bir test ile çözülebileceğini düşünür ve captcha sistemini bulur çünkü o zamanlar (ve hatta hala) bilgisayarlar "eciş bücüş" bozulmuş harf ve sayıları okumakta zorlanmaktadır fakat insanlar için bu bir sıkıntı değildir.

İnsanlar için bu test işe yarar, bir çok websitesi testi kullanır; ilk zamanlarda günde ortalama 200 milyon captcha girilmektedir. bu kadar type edilen yazı, bu insan gücü bir işe yaramalıdır, ziyan edilmemelidir. o dönemler the new york times ve google, eski kitap ve dökümanları dijital ortama taşımaktadır fakat bu işlem için kullanılan bilgisayar programları net taranamamış yamuk yumuk çıkmış yazıları okumakta, anlamakta ve dijital olarak yazmakta zorlanır. luis von ahn'nin aklına bir fikir gelir; bu bilgisayar tarafından okunamayan görüntüleri insanlara captcha olarak sunalım, boş boş yazmasınlar ve bir işe yarasınlar.

Benzer bir taktiği google maps de kullanır. robot olmadığımızı ispatlamak amacıyla; park yeri, trafik işareti, köprü, trafik lambası, ağaç, araba, yaya geçiti vs. içeren resimlere tıkladığımızda, map oluştururken bazı görselleri algılayamayan bilgisayarlara yardımcı oluyoruz!

Luis von ahn bu win win yaklaşımından duolingo'da da faydalanır. buzzfeed ve diğer haber siteleriyle anlaşıp, bu sitelerin çevirilerini, practice amaçlı, duolingo ile dil öğrenenlere yaptırır.

Bu pragmatik yaklaşımı takdir etmek ve ufkumu açmak dışında elimden bir şey gelmiyor.

kaynak podcast

En basit şekilde işin mantığını açıklarsak bilgisayarı kandırmak için yazılmış botlar (robotlar yani) yazıları okuyamıyor, insanlar okuyabiliyor ve tabii ki testi sunan sistem captcha doğrulama yetişine sahip. örneğin re-captcha'yı soran sistem/bilgisayar kutucuk tıklanmadan önce mouse'un hareket edişinden tıklayan bir insan mı yoksa yazılmış bir bot (robot) mu anlayabiliyor. çünkü insanlar tıklamadan önce mouse'u rastgele, dalgalı (wiggly) hareket ettiriyor, refleks olarak. bu da küçük ufuk açıcı bilgi.

Şu soru çok gelmiş: testi sunan bilgisayar onaylamak için doğru cevabı zaten bilmek zorunda o zaman bize gerek yok. ben uzman değilim fakat kazın ayağı öyle değil gibi. reverse turing test biraz karışık bir konu ama benim anladığım şu; aynı captcha'yı birden fazla kişiye sorup en çok type edilen yazıyı doğru kabul ediyor. kimi sistemde de image recognition var, yani bazı eciş bücüş çizgilerin harfe ya da sayıya denk geldiğini biliyor bilgisayar fakat bu çizgiler bir araya geldiğinde okuyamıyor. yani doğru cevap generate edemiyor fakat doğrulayabiliyor. zaten artık bu tip captcha pek kullanılmıyor re-captcha var ya da hazır cevaplanmış captcha'lar kullanılıyor. benim yazdığım uygulama 2000'ler başı. o dönemler bazen doğru yazdığınız yanlış, yanlış yazdığınız doğru kabul edilebiliyordu, sistemde sorun vardı. bana bile kaç defa denk geldi. hmmm biraz yaşlanmış olabilirim. podcast'i de dinleyin derim, çok eğlenceli uzun da değil.