Analyzing websites and hyperlinks for malicious codes
Other Title(s)
تحليل المواقع و التوصيلات للبرامج الخبيثة
Author
Source
Issue
Vol. 2010, Issue 13 (30 Jun. 2010), pp.82-105, 24 p.
Publisher
Publication Date
2010-06-30
Country of Publication
Iraq
No. of Pages
24
Main Subjects
Information Technology and Computer Science
Topics
Abstract AR
كما نعلم بأن الإنترنت أصبح شبكة واسعة الاستخدام، تحتوي على أنواع عدیدة من الأوساط المتعددة كالوثائق و البرامج و المواقع، لهذا السبب أنه من الأصعب إدامتها كبیئة خالیة من التخریب، هذه البرامج الخبیثة تكون مخفیة داخل مواقع ذات مظهر برئ, هذه المواقع بدورها واسعة الانتشار، و هي صفة مهمة للبرامج الخبیثة كي تعتمد علیها للوصول إلى أكبر عدد من المستخدمین.
الهدف الرئیسي من هذا البحث هو إیجاد و كشف البرامج الخبیثة في مواقع الإنترنت, و لأن هذه البرامج و المبرمجین المخربین منتشرون بكثرة فإن الحاجة لهذه الأداة أصبحت حقیقة واضحة، الموقع المستهدف یتم تحلیله لكشف وجود هذه البرمجیات الخبیثة فإذا لم یجد هذه البرمجیات فیه فیتم تتبع الوصلات بصورة مفردة لفحص هل البرامج موجودة بصورة غیر مباشرة، هذه الطریقة مفیدة في المواقع ذات الانتشار السریع.
یتم تشغیل النظام المقترح على الخادم الرئیسي عندما یقوم المستخدم بطلب تحمیل صفحة فهذا الطلب یتم إرساله أولا إلى الخادم ثم یتبع هذا المسار و یتفحص المحتویات لذلك الموقع متتبعا كل الوصلات الثانویة فإذا كان الموقع نظیف (أي خالي من البرامج الخبیثة) فإن الخادم یسمح باستخدام ذلك الموقع و إلا فسیقوم بكشفها و یكشف نوعها و یهیئ تقریر للمستخدم عن نوع الإصابة كرسالة تحذیریة في الموقع الخاص بالفحص و یحسب الوقت المستغرق لإیجادها.
Abstract EN
As we all know Internet is a very widely used network, containing different types of multimedia, documents, programs and websites, for that reason it is difficult to maintain it as a malicious-free environment, these malicious codes are embedded into an innocent looking website, these websites in turn are very wide spread sites.
An important feature a malicious code depends on reaching to as many users as it can get.
This paper implemented generally to find and detect a malicious code in Internet websites, because of the wide spread of vandal users and malicious programs, the need for that tool has become a flat fact.
A targeted website is analyzed for existing code and if that code is does not exist then its links are followed individually to check whether or not there is an indirect malicious code, this approach is useful in rapidly growing websites.
The application is run on the server and when the client makes its request to load a website this request is sent first to the server then the system follows that on line to internet by (URL) and checks the contents of its website and follows all its sub-links in that website then if the website is clean (malicious free) then the client is granted access to that site, otherwise the system prints a warning message to the user containing the type of the malicious code and the time required to detect the infection.
American Psychological Association (APA)
Mustafa, Mustafa Sabah. 2010. Analyzing websites and hyperlinks for malicious codes. al-Mansour،Vol. 2010, no. 13, pp.82-105.
https://search.emarefa.net/detail/BIM-325910
Modern Language Association (MLA)
Mustafa, Mustafa Sabah. Analyzing websites and hyperlinks for malicious codes. al-Mansour No. 13 (2010), pp.82-105.
https://search.emarefa.net/detail/BIM-325910
American Medical Association (AMA)
Mustafa, Mustafa Sabah. Analyzing websites and hyperlinks for malicious codes. al-Mansour. 2010. Vol. 2010, no. 13, pp.82-105.
https://search.emarefa.net/detail/BIM-325910
Data Type
Journal Articles
Language
English
Notes
Includes appendicx : p. 100-104
Record ID
BIM-325910