anhinga_anhinga: (Default)
anhinga_anhinga ([personal profile] anhinga_anhinga) wrote2010-10-10 05:58 am

A tempting paper in math linguistics

[livejournal.com profile] russhatter showed me a very tempting paper in mathematical linguistics (in the comments to the previous post). I don't understand it well enough (yet) to say whether I like it. It does use monoidal categories to achieve its goals.

Perhaps someone would want to comment on this, or would find the reference interesting.

http://arxiv.org/abs/1003.4394

"Mathematical Foundations for a Compositional Distributional Model of Meaning
Authors: Bob Coecke, Mehrnoosh Sadrzadeh, Stephen Clark
(Submitted on 23 Mar 2010)

Abstract: We propose a mathematical framework for a unification of the distributional theory of meaning in terms of vector space models, and a compositional theory for grammatical types, for which we rely on the algebra of Pregroups, introduced by Lambek. [...]"

Update: I think understand it completely now.

It's a paper worth reading. It's not too difficult, and is a very inexpensive way to get a review of quite a few cool things it relies upon.

The objective of this paper is to provide a civilized, compositional semantics, but with meanings naturally represented by ordinary vectors, and this is what I'd like to see very much.

What remains to be seen is whether this can be further developed to be applicable in practice.

One remark about their particular examples is that the meanings for all their example sentences are represented by fuzzy Booleans, that is, a sentence "John likes Mary" is represented by a fuzzy Boolean expressing to which extent the statement is true (and this fuzzy Boolean is represented as a vector in a two-dimensional space generated by atoms "true" and "false").

In practice, one would probably want a more intensional approach, preserving information about the identities of John and Mary in the combined meaning of the sentence. But then one would lose the property that all sentences take their meaning in the same vector space, and restoring that would result in a very large space. Perhaps, one would need to consider a projection of that very big space onto the space expressing meanings of the set of sentences under consideration at a given point, or something like that.

Update 2: Of course, this does not even start to model the connotations of the word "likes". It might be possible to introduce those connotations simply as the lexical vector of nearby words, but the paper does not even start to explore how this should/might be combined with the functions of word "likes" as an operator containing the sentence type and yielding the sentence value.

[identity profile] algebraic-brain.livejournal.com 2010-10-13 12:51 pm (UTC)(link)
>>Пусть, несмотря на то, что корпус большой, сочетания "John likes Mary" и "John observes Mary" встречаются там только по одному разу, в качестве отдельных предложений, и без какого-либо интересного контекста. Даже и для большого корпуса это вполне реалистичная ситуация, поскольку сочетания эти весьма специфичны.

Тогда наш семантический распознаватель просто не будет обучен на эти слова и соответствующие конструкции. Они будут выкинуты по недостоверности. Т.е. единственный способ обучить его - это взять еще больший корпус, где они встречаются достаточное число раз. И тогда у этих конструкций будут разные семантики.

Во всяком случае, так делается на практике. Т.е. я обсуждаю здесь не какую-то отвлеченную философскую семантику, а вполне инструментальные вещи.

А формализму статьи до этих практических тонкостей нет дела, и это совершенно верно.

[identity profile] anhinga-anhinga.livejournal.com 2010-10-13 01:01 pm (UTC)(link)
> Тогда наш семантический распознаватель просто не будет обучен на эти слова и соответствующие конструкции. Они будут выкинуты по недостоверности.

Тогда это очень слабый формализм.

Прогресс, которого мы действительно хотели бы, как в теории, так и в приложениях, состоит в том, чтобы был inference, позволяющий что-то сделать и в этом случае.

Даже если предположить, что этого ещё совсем нет в практических приложениях (в чём я очень сомневаюсь, но я просто не очень слежу за state-of-the-art в этой области), всё таки мы надеемся, что статьи вроде этой позволят нам продвинуться вперед, а не будут просто кодифицировать status quo в теоретико-категорных терминах.

[identity profile] algebraic-brain.livejournal.com 2010-10-13 01:07 pm (UTC)(link)
В практических приложениях конечно есть inference. Скорее всего, его можно ввести разными способами и в этом случае. Но мне не показалось, что это входит в цели статьи.

Но тут наши взгляды расходятся. Я как раз за то, чтобы очень долго "кодифицировать status quo в теоретико-категорных терминах" и обучать такой кодификации, даже не имея почти никаких практических следствий. Только после такого обучения начнется новый прорыв в практике и в понимании этого мира, за счет облегчения взаимопонимания и улучшения наглядности.

[identity profile] anhinga-anhinga.livejournal.com 2010-10-13 02:31 pm (UTC)(link)
> Но мне не показалось, что это входит в цели статьи.

Конечно. Но, мне кажется, что есть потенциал к тому, чтобы сделать это, и притом принципиальным, теоретико-категорным способом, и что это потребует существенно нового подхода, а не просто незначительных вариаций.

То есть, мне кажется, что людям, которые хотят это развивать дальше, надо ставить себе такую цель, и что самое интересное в этом месте ещё впереди.

И, мне кажется, для приложений эта штука, в том виде, как она есть, ещё не созрела...