Analyzing websites and hyperlinks for malicious codes

Other Title(s)

تحليل المواقع و التوصيلات للبرامج الخبيثة

Author

Mustafa, Mustafa Sabah

Source

al-Mansour

Issue

Vol. 2010, Issue 13 (30 Jun. 2010), pp.82-105, 24 p.

Publisher

al-Mansour University College

Publication Date

2010-06-30

Country of Publication

Iraq

No. of Pages

24

Main Subjects

Information Technology and Computer Science

Topics

Abstract AR

كما نعلم بأن الإنترنت أصبح شبكة واسعة الاستخدام، تحتوي على أنواع عدیدة من الأوساط المتعددة كالوثائق و البرامج و المواقع، لهذا السبب أنه من الأصعب إدامتها كبیئة خالیة من التخریب، هذه البرامج الخبیثة تكون مخفیة داخل مواقع ذات مظهر برئ, هذه المواقع بدورها واسعة الانتشار، و هي صفة مهمة للبرامج الخبیثة كي تعتمد علیها للوصول إلى أكبر عدد من المستخدمین.

الهدف الرئیسي من هذا البحث هو إیجاد و كشف البرامج الخبیثة في مواقع الإنترنت, و لأن هذه البرامج و المبرمجین المخربین منتشرون بكثرة فإن الحاجة لهذه الأداة أصبحت حقیقة واضحة، الموقع المستهدف یتم تحلیله لكشف وجود هذه البرمجیات الخبیثة فإذا لم یجد هذه البرمجیات فیه فیتم تتبع الوصلات بصورة مفردة لفحص هل البرامج موجودة بصورة غیر مباشرة، هذه الطریقة مفیدة في المواقع ذات الانتشار السریع.

یتم تشغیل النظام المقترح على الخادم الرئیسي عندما یقوم المستخدم بطلب تحمیل صفحة فهذا الطلب یتم إرساله أولا إلى الخادم ثم یتبع هذا المسار و یتفحص المحتویات لذلك الموقع متتبعا كل الوصلات الثانویة فإذا كان الموقع نظیف (أي خالي من البرامج الخبیثة) فإن الخادم یسمح باستخدام ذلك الموقع و إلا فسیقوم بكشفها و یكشف نوعها و یهیئ تقریر للمستخدم عن نوع الإصابة كرسالة تحذیریة في الموقع الخاص بالفحص و یحسب الوقت المستغرق لإیجادها.

Abstract EN

As we all know Internet is a very widely used network, containing different types of multimedia, documents, programs and websites, for that reason it is difficult to maintain it as a malicious-free environment, these malicious codes are embedded into an innocent looking website, these websites in turn are very wide spread sites.

An important feature a malicious code depends on reaching to as many users as it can get.

This paper implemented generally to find and detect a malicious code in Internet websites, because of the wide spread of vandal users and malicious programs, the need for that tool has become a flat fact.

A targeted website is analyzed for existing code and if that code is does not exist then its links are followed individually to check whether or not there is an indirect malicious code, this approach is useful in rapidly growing websites.

The application is run on the server and when the client makes its request to load a website this request is sent first to the server then the system follows that on line to internet by (URL) and checks the contents of its website and follows all its sub-links in that website then if the website is clean (malicious free) then the client is granted access to that site, otherwise the system prints a warning message to the user containing the type of the malicious code and the time required to detect the infection.

American Psychological Association (APA)

Mustafa, Mustafa Sabah. 2010. Analyzing websites and hyperlinks for malicious codes. al-Mansour،Vol. 2010, no. 13, pp.82-105.
https://search.emarefa.net/detail/BIM-325910

Modern Language Association (MLA)

Mustafa, Mustafa Sabah. Analyzing websites and hyperlinks for malicious codes. al-Mansour No. 13 (2010), pp.82-105.
https://search.emarefa.net/detail/BIM-325910

American Medical Association (AMA)

Mustafa, Mustafa Sabah. Analyzing websites and hyperlinks for malicious codes. al-Mansour. 2010. Vol. 2010, no. 13, pp.82-105.
https://search.emarefa.net/detail/BIM-325910

Data Type

Journal Articles

Language

English

Notes

Includes appendicx : p. 100-104

Record ID

BIM-325910