Авторские статьи Пишем свою систему рекоммендаций

Discussion in 'Статьи' started by Fata1ex, 1 Aug 2009.

  1. Fata1ex

    Fata1ex Elder - Старейшина

    Joined:
    12 Dec 2006
    Messages:
    703
    Likes Received:
    300
    Reputations:
    38
    Пишем свою систему рекомендаций

    Пишем свою систему рекомендаций


    Примечание: в статье приводится код на языке python, однако он будет понятен человеку, владеющему любым другим языком программирования, ввиду простоты и краткости листингов.



    Intro
    Сбор информации
    Подбор похожих пользователей
    __Евклидово расстояние
    __Коэффициент корреляции Пирсона
    Сортировка похожих пользователей
    Рекомендация предметов
    Outro
    Приложение




    Intro

    Многие из вас пользуются или слышали о таких ресурсах, как last.fm, amazon.com, ozon.ru, afisha.ru, digg.com, habrahabr.ru. Что же их объединяет? Они все обладают собственной системой рекомендаций, используя которую, могут советовать вам купить тот или иной товар, прочитать статью или посмотреть фильм.

    В этой статье я попробую показать вам несколько способов построения подобной системы рекомендаций, основываясь на методе коллаборативной (совместной) фильтрации. Он заключается в том, что сначала алгоритм просматривает большую группу пользователей и отыскивает в ней меньшую с интересами, которые сходны с вашими. Затем, основываясь на том, какие вещи предпочитает эта группа, строит свой сортированный (ранжированный) список рекомендаций для вас.


    Сбор информации

    Далее мы будем рассматривать лишь варианты, когда мы уже что-то знаем о пользователе: он уже купил какой-то товар или оценил какой-то продукт. То как узнать информацию о новом, только что пришедшем на ваш ресурс пользователе, возможно, будет рассмотрено в следующей статье. Итак, предположим, что у вас уже есть некоторые данные о пользователях. Представим их в виде словаря.

    Code:
    [color=lime]# Вложенный словарь, содержащий данные об оценках пользователей ряда статей[/color]
    Data = {
            'User1' : 
                { 'Article1' : 3.0, 'Article2' : 2.5, 'Article3' : 4.0, 'Article4' : 2.5, 'Article5' : 3.5 },
            'User2' :
                { 'Article1' : 1.5, 'Article2' : 3.0, 'Article3' : 5.0, 'Article4' : 2.5, 'Article5' : 2.5 },
            'User3' :
                { 'Article1' : 2.5, 'Article2' : 3.0, 'Article4' : 4.5, 'Article5' : 2.0 },
            'User4' :
                { 'Article2' : 3.5, 'Article3' : 2.0, 'Article4' : 4.0, 'Article5' : 3.0 },
            'User5' :
                { 'Article1' : 3.0, 'Article2' : 4.0 },
            'User6' :
                { 'Article1' : 2.0, 'Article2' : 2.5, 'Article4' : 4.0, 'Article5' : 4.5 }
            }
    
    Примечание: здесь и далее в примерах работы будет использоваться интерактивный режим.

    Пример работы кода

    Помещаем файл с кодом (recommendation.py) в папку с интерпретатором Python.
    >>> from recommendation import Data
    >>> Data['User1']
    {'Article1' : 3, 'Article2' : 2.5, 'Article3' : 4.0, 'Article4' : 2.5, 'Article5' : 3.5}
    >>> Data['User2']['Article3']
    5.0


    Примечание: в реальных проектах, конечно, выгоднее и удобнее использовать базу данных, нежели чем обычный словарь.
    Разумеется, возможно использования не только данных оценок, но и других вариантов. Например, на amazon.ru вы можете наблюдать систему, которая подбирает рекомендации исходя из системы купил/не купил (1/0).



    Подбор похожих пользователей

    Итак, у нас есть данные о пользователях. Как же среди них отобрать похожих? Нам нужно определить насколько их предпочтения совпадают. Сделать это мы можем с помощью коэффициента подобия, который высчитывается для каждого пользователя относительно того, которому мы подбираем похожих. Существует большое количество способов, но в данной статье мы рассмотрим лишь два: евклидово расстояние и коэффициент корреляции Пирсона, ввиду их понятности и простоты.


    Евклидово расстояние


    Простейший из способов отыскания похожих пользователей - это евклидово расстояние. Представим себе статьи (или любые другие предметы, которые оценивали пользователи) в виде координатных осей. Простейший случай - в декартовой системе координат.

    [​IMG]

    Все очень наглядно - чем ближе точки, тем более схожи вкусы пользователей, которые им соответствуют. Как известно из курса 7 класса многим из вас, чтобы найти расстояние между двумя точками на данной плоскости нужно возвести в квадрат разности соответствующих координат этих точек, а затем сложить и извлечь квадратный корень из суммы. Напишем простейшую функцию, вычисляющую коэффициент подобия между двумя пользователями.

    Code:
    import math
    [color=lime]# Функция возвращает коэффициент подобия по евклидовому расстоянию между Person1 и Person2, используя словарь с данными об оценках [/color]
    def Similarity( Data, Person1, Person2 ):
        [color=lime]# Генерируем список оцененных обоими пользователями статей[/color]
        Both_Marked = [ item for item in Data[Person1] if item in Data[Person2] ]
        [color=lime]# Если отмеченных обоими пользвателями статей не найдено, возвращаем 0[/color]
        if len( Both_Marked ) == 0: return 0 
        [color=lime]# Чем больше похожи пользователи, тем больше полученное от функции число ( оно лежит в диапазоне от 0 до 1 )[/color]
        return 1 / ( 1 + math.sqrt(sum( [ (Data[Person1][item] - Data[Person2][item]) ** 2 for item in Both_Marked ] )) )
    
    Пример работы кода
    >>> import recommendation
    >>> recommendation.Similarity( recommendation.Data, 'User2', 'User3' )
    0.30383243470068705



    Коэффициент корреляции Пирсона

    Немного более сложный способ определения степени схожести предпочтений пользователей дает нам коэффициент корреляции Пирсона. Коэффициент корреляции - мера того, насколько хорошо два набора данных ложатся на прямую. Алгоритм менее очевиден, однако во многих случаях показывает более удачные результаты. В данном случае в роли координатных осей выступают уже пользователи, а статьи или любые другие предметы отмечаются точками с соответствующими их оценкам координатами.

    [​IMG]

    На рисунке мы видим прямую линию, она называется линией наилучшего приближения, потому что проходит настолько близко ко всем точкам, насколько это только возможно. При полном совпадении интересов пользователей, она прошла бы через все точки и начало координат. Коэффициент корреляции в таком случае был бы равен 1. Основным преимуществом коэффициента Пирсона над евклидовым расстоянием является то, что даже если один пользователь из двух постоянно выставляет оценки ниже другого, однако разница в оценках постоянна, коэффициент корреляции будет достаточно высок, так как их интересы все же схожи. Евклидово расстояние в данном случае показало бы нам абсолютно другой результат. Напишем функцию вычисления коэффициента Пирсона.

    Code:
    [color=lime]# Функция возвращает коэффициент Пирсона между Person1 и Person2[/color]
    def Similarity_Pearson( Data, Person1, Person2 ):
        [color=lime]# Генерируем список оцененных обоими пользователями статей[/color]
        Both_Marked = [ item for item in Data[Person1] if item in Data[Person2] ]
        [color=lime]# Количество статей, оцененных обоими[/color]
        count = len( Both_Marked )
        [color=lime]# Если общих статей нет, возвращаем 0[/color]
        if not count: return 0
        
        [color=lime]# Далее следует алгоритм, он не столь интересен, чтобы его комментировать :)[/color]
        Sum1 = sum( [ Data[Person1][item] for item in Both_Marked ] )
        Sum2 = sum( [ Data[Person2][item] for item in Both_Marked ] )
        Sum1_sqr = sum( [ Data[Person1][item] ** 2 for item in Both_Marked ] )
        Sum2_sqr = sum( [ Data[Person2][item] ** 2 for item in Both_Marked ] )
        Sum = sum( [ Data[Person1][item] * Data[Person2][item] for item in Both_Marked ] )
        
        N = Sum - ( Sum1 * Sum2 ) / count
        D = math.sqrt( ( Sum1_sqr - ( Sum1 ** 2 ) / count ) * ( Sum2_sqr - ( Sum2 ** 2 ) / count ) )
        
        if D == 0: return 0
        else:
            [color=lime]# Аналогично, чем больше схожесть пользователей, тем больше число, полученное от функции ( оно лежит в диапазоне от 0 до 1 )[/color]
            return ( N / D + 1 ) / 2
    

    Пример работы кода

    >>> import recommendation
    >>> recommendation.Similarity_Pearson ( recommendation.Data, 'User1', 'User2' )
    0.8037120361098036


    Итак, мы научились определять коэффициенты подобия двумя способами, однако, повторюсь, они далеко не единственные - существует большое количество аналогов, которыми вы можете воспользоваться.


    Сортировка похожих пользователей

    Мы можем узнать степень подобия двух пользователей, а значит мы можем написать функцию, которая будет вычислять оценку подобия всех пользователей с данным и выбирать лучше всего подходящие кандидатуры.

    Code:
    [color=lime]# Функция возвращает список наиболее подходящих к данному пользователей[/color]
    def Top_Similarity( Data, Person, Count = 3, Function = Similarity_Pearson ):
        [color=lime]# Генерируем список, содержащий коэффициенты подобия и пользователей, соответствующих им[/color]
        Result = [ ( Function( Data, Person, Other ), Other ) for Other in Data if Other != Person ]
        [color=lime]# Сортируем в удобном для нас виде[/color]
        [color=lime]# Это можно оформить ввиде функции, так как повторяется дважды в идентичном виде, однако для наглядности оставлено так  ( Get_Result - см ниже )[/color]
        [color=lime]# Get_Result( Result, Count )[/color]
        Result = sorted( Result, reverse = True )
        tmp = []
        [color=lime]# Возвращаем первые несколько записей наиболее подходящих пользователей ( количество выводимых записей задано Count )[/color]
        for _ in range( 0, Count ):
            tmp.append( Result[_][1] )
        return tmp
    
    Пример работы кода
    >>> import recommendation
    >>> recommendation.Top_Similarity( recommendation.Data, 'User1', 2 )
    ['User2', 'User6']
    >>> recommendation.Top_Similarity( recommendation.Data, 'User2' )
    ['User5', 'User1', 'User6']



    Рекомендация предметов

    Найти похожего пользователя, как вы надеюсь догадываетесь, это всего лишь половина дела. Главное для нас - научиться рекомендовать некий предмет на основе предпочтений похожих пользователей. Проще всего было бы, конечно, просто посоветовать те предметы, которые понравились понравились схожему пользователю, однако этот путь приводит к проблемам. Что если этот предмет, так понравившийся схожему пользователю, не понравился всем остальным, или же предмет, который мог бы ему понравится, не был оценен похожим пользователем? Избежать этих проблем поможет нам ранжирование предметов и сумма оценок пользователей. Нам нужна некая взвешенная сумма оценок всех пользователей, и в то же время нам нужно, чтобы похожий пользователь вносил больший вклад в общую оценку, нежели чем непохожий. Берем каждого пользователя и умножаем его оценку на коэффициент подобия с данным, а затем суммируем полученные числа. Чтобы уравнять шансы предметов, которые оценило разное количество пользователей (надеюсь вы понимаете, что сумма в случае когда оценок было больше, будет почти всегда выше), мы делим полученное число на сумму коэффициентов подобия пользователей, оценивших предмет.

    Code:
    [color=lime]# Функция возвращает рекомендации для заданного пользователя, основываясь на данных остальных пользователей[/color]
    def Get_Recommendation( Data, Person, Count = 1, Function = Similarity_Pearson ):
       [color=lime] # Здесь будут хранится данные о сумме произведений коэффициентов подобия и оценок для определенной статьи[/color]
        Total = {}
       [color=lime] # А здесь сумма коэфициентов для определенной статьи[/color]
        Sum = {}
       [color=lime] # Для каждого пользователя[/color]
        for Other in Data:
           [color=lime] # Кроме заданного [/color]
            if Other == Person: continue
          [color=lime]  # Берем статью[/color]
            for item in Data[Other]:
             [color=lime]   # И, если статья не была оценена заданным пользователем[/color]
                if item not in Data[Person] or Data[Person][item] == 0:
                   [color=lime] # Создаем в словарях ключи, определяющие статью, со значение 0, если их еще нет[/color]
                    Total.setdefault( item, 0 )
                    Sum.setdefault( item, 0 )
                   [color=lime] # Вычисляем нужные нам данные[/color]
                    Total[item] += Data[Other][item] * Function( Data, Person, Other )
                    Sum[item] += Function( Data, Person, Other )
        [color=lime]# Получаем список со статьями и соответствующими им вычисленными по алгоритму взвешенными оценками[/color]
        Result = [ ( value / Sum[item], item ) for item, value in Total.items () ]
       [color=lime] # Сортируем в удобном для нас виде[/color]
       [color=lime] # Это можно оформить ввиде функции, так как повторяется дважды в идентичном виде, однако для наглядности оставлено так ( Get_Result - см ниже )[/color]
       [color=lime] # Get_Result( Result, Count )[/color]
        Result = sorted( Result, reverse = True )
        tmp = []
       [color=lime] # Возвращаем первые несколько записей наиболее подходящих статей ( количество выводимых записей задано Count ) [/color]
        for _ in range( 0, Count ):
            tmp.append( Result[_][1] )
        return tmp
    
    Пример работы кода
    >>> import recommendation
    >>> recommendation.Get_Recommendation( recommendation.Data, 'User5' )
    ['Article3']


    Мы построили полную систему рекомендования предметов :)



    Outro

    Хочу заметить, что мы создали систему рекомендаций таким образом, что для ее работы нам понадобятся оценки, выставленные каждым пользователем. Для небольшого количества пользователей и предметов это, несомненно, будет работать, однако при большом количестве данных сравнение пользователя со всеми, вычисление коэффициентов подобия и ранжирование предметов займет недопустимо много времени. Более того при большом количестве предметов перекрытие вкусов станет столь мало, что сложно будет определить похожих пользователей. В данном случае нам поможет процедура фильтрации по схожести образцов. Главная ее идея заключается в том, что изначально для каждого предмета создается список похожих на него. Тогда для выработки рекомендаций, нам остается только отобрать предметы, которые пользователь оценил максимально высоко, и отобрать для них ряд похожих. Кроме того, пользоваться этим набором похожих элементов можно долгое время не меняя его.
    Экспериментируя, вы сможете подобрать методику, наиболее всего подходящую для вашего ресурса. Удачи :)


    Приложение

    Code:
    def Get_Result( Result, Count ):
       Result = sorted( Result, reverse = True )
       tmp = []
       for _ in range( 0, Count ):
           tmp.append( Result[_][1] )
       return tmp
    
    Скачать архив с файлами, содержащими примеры работы кода и сам код, вы можете по этим ссылкам:
    Например здесь
    Или здесь



    (c) fata1ex 25 июля 2009 года
    Копирование материала статьи только с разрешения автора.


    Всем заинтересовавшимся хочу посоветовать отличную книгу Тоби Сегарана "Программируем коллективный разум". Именно из нее взята структура изложения данной статьи.
     
    #1 Fata1ex, 1 Aug 2009
    Last edited: 19 Jun 2010
    5 people like this.
  2. [n]-c0der

    [n]-c0der Member

    Joined:
    3 Feb 2009
    Messages:
    86
    Likes Received:
    25
    Reputations:
    -1
    Круто...
    Только не догнал полезности этой статьи...
    Объясни пожалуйста, кому может быть это полезно и для чего вообще это....
     
  3. Fata1ex

    Fata1ex Elder - Старейшина

    Joined:
    12 Dec 2006
    Messages:
    703
    Likes Received:
    300
    Reputations:
    38
    Статья описывает устройство простейшей системы рекомендаций. Может быть полезна всем, кто держит ресурс, который может нуждаться в данной системе.

    Блоги, Варез, Магазины - везде можно применить свою систему рекомендаций для построения более дружелюбного пользовательского интерфейса.

    [+] На античате очень мало статей с применением методики web 2.0.

    ps. К сожалению пользователей больше интересуют разделы Болталка, Халява и Мировые Новости, а не статья :( Наверно, она скучна и неинформативна для них. Будем исправляться...
     
    #3 Fata1ex, 1 Aug 2009
    Last edited: 1 Aug 2009
  4. Roston

    Roston Elder - Старейшина

    Joined:
    31 Jul 2008
    Messages:
    338
    Likes Received:
    104
    Reputations:
    8
    Да статейка норм... я не оч в питоне но задумку понял... спасибо большое... очень доступно описано
     
  5. Fata1ex

    Fata1ex Elder - Старейшина

    Joined:
    12 Dec 2006
    Messages:
    703
    Likes Received:
    300
    Reputations:
    38
    Специально писал подробные комментарии ) рад что понравилось, если что непонятно - пиши ПМ или здесь, постараюсь помочь :)
     
    #5 Fata1ex, 1 Aug 2009
    Last edited: 1 Aug 2009
    1 person likes this.
  6. Fata1ex

    Fata1ex Elder - Старейшина

    Joined:
    12 Dec 2006
    Messages:
    703
    Likes Received:
    300
    Reputations:
    38
    Добавил ссылки на скачивание файлов с кодом. Возможно, вам так будет проще разобраться в нем и сразу использовать.
     
    1 person likes this.
  7. Fata1ex

    Fata1ex Elder - Старейшина

    Joined:
    12 Dec 2006
    Messages:
    703
    Likes Received:
    300
    Reputations:
    38
    Спасибо, я старался. Если есть пожелания по поводу следующих статей, близких к этой по теме, пишите пм.
     
Loading...
Similar Threads - Пишем систему рекоммендаций
  1. Scraid

    Авторские статьи Пишем IRC бота на PHP

    Replies:
    1
    Views:
    5,086
  2. kastin
    Replies:
    17
    Views:
    10,712
  3. mr.Penguin
    Replies:
    0
    Views:
    5,909
  4. piupiu
    Replies:
    3
    Views:
    10,195