Human Rights Ice Права человекА {?}

LiIce :: Права человека. Получить код кнопки для установки на свой сайт.

HTML-код кнопки:

Новости Hi-Tech

Все новости Hi-Tech

15.03.2011

Технология сверхчетких цифровых снимков

Ученые из Физического института им. П.Н. Лебедева РАН (ФИАН) разработали простой алгоритм устранения дефектов изображений, связанных с дисторсией фотообъективов. Полуавтоматический процесс обработки изображения обладает высокой точностью - 0,03 пикселя, и занимает всего несколько минут.
Каким бы качественным ни был объектив фотоаппарата, но если поднести его вплотную, скажем, к лицу человека, то часть лица получится раздутой, например, нос, а часть сожмется, например, щеки. Этот оптический дефект называется дисторсией, или проще говоря, искривлением линий, и возникает из-за неидеальности оптической системы. По виду дисторсионные искажения делятся на два вида - бочкообразная и подушкообразная дисторсия. Проблема ее компенсации актуальна во многих областях - в фотограмметрии (например, в картографии и геодезии), в задачах, связанных с компьютерным зрением, а также в физических измерениях, использующих цифровую регистрацию информации (например, в исследованиях потоков в газах и жидкостях).
Чаще всего для определения дисторсии используют калибровочный объект, состоящий из набора отдельных реперных точек. Он фотографируется, и по соответствию координат точек фотографии и объекта определяется величина дисторсии. Но в этом случае измерения проводятся не сплошь по всему пространству кадра, а в небольшом количестве точек, после чего результаты измерений аппроксимируются на все изображение в целом. Научные сотрудники ФИАН Александр Крайский и Татьяна Миронова задались целью разработать простой алгоритм определения дисторсии сразу на всем пространстве кадра.
"В нашем алгоритме, - рассказывает руководитель работы кандидат физико-математических наук Александр Крайский, - в основу которого положен корреляционный метод обработки изображения, выявляется центр тяжести смещения. Для этого мы используем плоское изображение случайного распределения черных и белых точек, реализованное в любом графическом формате, например, BMP. Это наш калибровочный объект. Отображаем его на плоскость и фотографируем получившуюся картину тестируемой камерой. Затем фотография сравнивается с содержимым исходного графического объекта для небольшой окрестности любой точки кадра и определяется, насколько среднее значение положения картинки смещено относительно координат на оригинале. После обработки всего кадра на выходе получается величина дисторсионного смещения в каждой точке".
Для проверки работоспособности разработанного метода ученые откалибровали ряд цифровых фотоаппаратов и сменных объективов.



Максимальные значения дисторсионных искажений для ряда цифровых фотоаппаратов и сменных объективов (для объективов с зумом при минимальном фокусном расстоянии).
Числа показывают диапазон фокусных расстояний. Белые линии - без учета масштаба, черные линии - после восстановления масштаба.


"Видимо, при наличии зума, то есть возможности изменения фокусного расстояния, - делится Александр Крайский, - нельзя сделать бездисторсионный объектив. Дисторсия зависит от фокусного расстояния, например, при малом фокусном расстоянии она большая и, как правило, бочкообразная. При увеличении фокусного расстояния она уменьшается и даже может стать подушкообразной".
Для разных объективов дисторсия ведет себя по-разному. Вследствие этого и компенсация искажения должна быть индивидуальной для каждого объектива.
"Компенсировать дисторсию очень просто, - говорит Татьяна Миронова, - для этого мы определяем матрицу смещений и с ее помощью делаем обратное преобразование, то есть узнаем размер смещения и смещаем участок изображения в обратную сторону - получается исправленная картинка".

Source: cybersecurity.ru

  • Без комментариев.
Источник: News review (новость)



15.03.2011

Компьютер для сверхнизких температур

Группа физиков и инженеров из Университета Калифорнии в городе Сан-Диего разработала несколько законченных интегрированных компьютерных микросхем, способных нормально работать с сверххолодных условиях. Подобные решения, также называемые экситоны, представляют собой новый класс вычислительной техники, способной работать в глубоком космосе, в очень холодных лабораторных условиях.
Экситон в классической физике представляет собой водородоподобную квазичастицу, представляющую собой электронное возбуждение в диэлектрике или полупроводнике, мигрирующее по кристаллу и не связанное с переносом электрического заряда и массы. Хотя экситон состоит из электрона и дырки, его следует считать самостоятельной элементарной частицей в случаях, когда энергия взаимодействия электрона и дырки имеет тот же порядок, что и энергия их движения, а энергия взаимодействия между двумя экситонами мала по сравнению с энергией каждого из них.
Экситон можно считать элементарной квазичастицей в тех явлениях, в которых он выступает как целое образование, не подвергающееся воздействиям, способным его разрушить.
Исследователи продемонстрировали цепь интегрированных микросхем, производящих вычисления при температуре выше абсолютного нуля всего на 1,5° (минус 271,65°C). Подобная температура может быть достижима на окраинах Солнечной Системы, условиях далеких планет, таких как Плутон или Уран, либо в специальных лабораторных условиях.
По словам исследователей, происходить вычисления в принципе могут и при 1,5° Кельвина, но с приемлемой скоростью они проводятся в диапазоне температур от 125 до 234° по Кельвину (минус 148 - минус 40°C). Такие условия достигаются при воздействии на схемы жидкого азота.
"Наша цель - создать эффективное устройство на основе экситонов, способное работать и при комнатной температуре, где устройство сможет получить высочайшую скорость взаимодействия между узлами. Пока мы находимся на ранней стадии исследований, наша команда пока демонстрирует лишь принципиальные возможности технологии", - говорит профессор калифорнийского университета Леонид Бутов.

Source: cybersecurity.ru

  • Без комментариев.
Источник: News review (новость)



15.03.2011

Internet Explorer 9

Microsoft сегодня выпускает финальную версию веб-браузера Internet Explorer 9, который хоть и теряет позиции на рынке последние три года, по-прежнему остается самым популярным браузером в мире. Формальная презентация IE9 состоится сегодня мероприятии South by Southwest Interactive Festival в Техасе. В открытом доступе новинка появится с 20 часов по московскому времени.
В компании говорят, что IE9 стал ближе к каноническим стандартам, повысил скорость работы и обзавелся рядом новых функций, которые позволят ему успешнее конкурировать с Apple Safari, Mozilla Firefox, Google Chrome и Opera. Пользователи англоязычной Windows 7 уже сейчас могут обновить браузер через систему обновлений. Вечером апдейт появится и для Windows Vista. А вот пользователи Windows XP не получат IE9, так как новый браузер уже не поддерживает данную ОС.
В отношении того, почему IE9 не поддерживает Windows XP, Microsoft дает объяснение: дело в том, что новый браузер имеет встроенную систему аппаратного ускорения веб-содержимого, которая в принципе не поддерживается для Windows XP.
В Microsoft говорят, что в новой версии браузера нововведений довольно много. В частности, встроенный в сам браузер новый движок JavaScript Chakra интерпретирует, компилирует и выполняет код параллельно, используя мощность многоядерных процессоров. В сочетании с поддерживаемой Internet Explorer 9 технологией аппаратного ускорения, этот движок повышает скорость работы c "тяжелыми" сайтами. Согласно тесту производительности браузеров SunSpider, IE9 RC на 35% быстрее, чем IE9 Beta (209 миллисекунд против 322 миллисекунд соответственно).
Основные обновления интерфейса включают: В IE9 внизу страницы будут показываться только наиболее важные уведомления, сообщая пользователю о каких-либо проблемах, угрожающих безопасности компьютера или замедляющих работу браузера. Пользователь сможет размещать вкладки на отдельной строке, обеспечивая больше места открытым вкладкам. Пользователи смогут закрепить веб-сайт на панель задач, независимо от ее расположения. Разработчики также могут реализовать поддержку перетаскивания элементов страницы на панель задач для закрепления веб-сайта.
В дополнение к функциям InPrivate Browsing и InPrivate Filtering, которые впервые были реализованы в предыдущей версии браузера, Internet Explorer 9 усиливает защиту конфиденциальной информации с помощью технологии "Защита от слежки" (Tracking Protection). Современные веб-сайты нередко включают контент других, то есть сторонних, веб-ресурсов. Таким контентом может быть информация о погоде, котировка акций, реклама, видео и т.д. Причем он может быть не виден во время работы с веб-страницей. Однако во время работы с сайтом, который содержит информацию со сторонних веб-ресурсов, последние автоматически, без ведома пользователя, получают некоторые данные о пользователе, например, его IP-адрес и адрес сайта, с которым он в действительности работает. Таким образом, информация о пользователе становится доступной не только тем веб-ресурсам, которые пользователь открывал, но гораздо большему количеству веб-сайтов. Используя cookies и другие техники, сторонние сайты могут создать профиль поисковой истории.
Благодаря технологии пользователь может указывать, какие данные о нем могут быть переданы сторонним сайтам. У него также появится возможность заблокировать такие ресурсы: достаточно внести информацию о нежелательном сайте в списки Tracking Protection, и браузер автоматически будет предотвращать предоставление информации, тем самым сохраняя конфиденциальность пользователя и повышая его безопасность. В этих же списках также можно указать сайты, которым разрешается собирать такую информацию.
В Internet Explorer 9 реализована поддержка CSS2D Transforms, семантических тегов HTML5, геолокации и WebM. Поддержка модуля CSS3 2D Transforms позволяет применять к отображаемым элементам страницы двумерные преобразования непосредственно с помощью CSS. В Internet Explorer 9 улучшена поддержка ряда семантических тегов HTML5, теперь эти элементы наследуются от HTMLElement и по умолчанию используют настройки стилей, указанные в спецификации HTML5. Поддержка геолокации в Internet Explorer 9 RC позволяет веб-приложению определять географическое месторасположение устройства в соответствии со спецификацией Geolocation API.

Source: cybersecurity.ru

  • Без комментариев.
Источник: News review (новость)



10.03.2011

Вирус гриппа H2N2

Ученые призывают правительства разных стран уже сейчас заняться разработкой нового поколения вакцин против вероятной пандемии гриппа H2N2, возникновение которой вирусологи прогнозируют в будущем. Американские вирусологи говорят, что пандемия H2N2 вероятна, а лабораторные тесты показывают, что устойчивость людей к этому вирусу очень низка. По словам специалистов, большинство ранних версий гриппа не были столь опасны для молодых людей, а вот H2N2 одинаково опасен как для пациентов за 50, так и для более молодых.
Исследователи говорят, что во многих западных странах вспышка H2N2 уже была в 1950-60х годах, поэтому база для вакцины уже есть, вероятно, что ее придется незначительно доработать в случае современных пандемий. Однако процесс доработки вакцины, а не ее разработка с нуля, может сэкономить фармацевтическим компаниям миллиарды долларов.
В случае же бездействия, медики из Великобритании и США говорят о возможности реализации того же сценария, что был в случае с H1N1 в 2009 году.
Первая вакцина от H2N2 была создана к 1968 году, но с 1957 по 1968 годы, когда ее еще не было, от заболевания по всему миру умерли около 4 млн человек. Когда в конце 60-х пандемия завершилась, дальнейшие программы по разработке вакцин также были заморожены. Сейчас небольшая группа жителей старшего возраста, которые были привиты еще тогда, сохраняет иммунитет к заболеванию, но молодые жители его не имеют.
Исследователи сообщают, что с 2003 по 2007 годы проверили уровни иммунитета к H2N2 у небольшой группы из 90 человек и пришли к выводу , согласно которому люди до 50 лет практически не имеют иммунитета к H2N2. Примерно такая же ситуация была в 2009 году с H1N1.
"Наш подход заключается в том, чтобы создать хотя бы запас вакцин для H2N2, аналогичных тем, что были созданы в 1960-х годах. Таким образом, можно будет хотя бы замедлить распространение заболевания", - говорит доктор Гари Набел, из американского Центра исследования вакцин.
По его словам, наиболее вероятными переносчиками H2N2 могут стать птицы и домашние животные.

Source: cybersecurity.ru

  • Без комментариев.
Источник: News review (новость)



10.03.2011

Оптическая передача данных со скоростью 40 Гбит/сек

Компания Fujitsu сегодня представила новую систему передачи данных по оптическому кабелю, способную передавать информацию на скорости 40 Гбит/сек. В компании говорят, что передача осуществляется при помощи одного лазера с прямой модуляцией. Никаких дополнительных устройств или сжатия данных тут не требуется. По словам разработчиков новой технологии, для 40-гигабитной оптической системы был создан новый высокотемпературный термоэлектрический контроллер.
В компании рассказывают, что новая система во время работы может разогреваться до 70 градусов, поэтому требует дополнительной изоляции, предотвращающей дополнительный перегрев. Одним из преимуществ новой системы является ее низкое потребление, что важно в современных условиях датацентров.
По словам инженеров Fujitsu, операторы датацентров, работающих с облачными технологиями и HD-видео могут перейти на 40-гигабитные сетевые соединения за счет несложной модернизации современных 10-гигабитных сетевых каналов. В новых сетевых оптических каналах лазерный луч имеет длину волны в 1,3 мкм, а производит его специальный излучатель на базе диодного соединения алюминия, галлия, индия и арсенида. Длина волны и структура луча позволяют практически на 100% защитить его от любых внешних помех, которые возникают в результате работы в датацентре, говорят в японской компании.
Разработчики говорят, что тестировали систему передачи данных на расстоянии до 5 км без дополнительных усилителей, в диапазоне температур от 15 до 70 градусов.

Source: cybersecurity.ru

  • Без комментариев.
Источник: News review (новость)



10.03.2011

Google позволит пользователям блокировать сайты в результатах поисковой выдачи

Google выпустила новый программный инструмент, позволяющий пользователям блокировать нежелательные для них поисковые результаты. Таким образом, поисковик будет учитывать пожелания пользователей при тех или иных поисковых запросах и убирать из поисковых результатов те или иные сайты. Пользователи теперь получат возможность нажать на ссылку в поисковых результатах и скрыть тот или иной сайты из вывода поисковика.
В компании говорят, что таким образом поисковый механизм получает еще один рекомендательный механизм по отсеиванию низкокачественных сайтов в результатах поиска. Для конкретного пользователя можно будет запоминать результаты блокировки и после того, как пользователь закрыл тот или иной сайт от показа, для него он в будущем не будет показываться.
"Получение контроля над тем, что вы ищете дает вам еще более персонализированный и удобный опыт работы с Google. На сегодняшний день мы пока не включили механизм блокировки в зачет поискового индекса, но мы изучаем ситуацию и, скорее всего, подключим его в ближайшем будущем, когда у нас будет уверенность, что таким образом улучшается качество поиска", - говорится в заявлении компании.
Заблокированные сайты будут привязываться к определенному аккаунту пользователя на сервисах Google и позже эти домены пользователи может разблокировать.
В конце февраля компания сообщила об изменении поискового алгоритма. В компании говорят, что поисковик теперь будет значительно более требователен к сайтам, глубже изучая их контент и отдавая предпочтение проектам, публикующим оригинальную информацию, развернутые данные, а вот копипейстерам, тайпсквоттерам и иным "оптимизаторам" заказана дорога вниз рейтинга.
Амит Синхал, один из ведущих разработчиков Google, говорит, что ранее компания уже начала воевать против контент-ферм в интернете - сайтов, которые в огромных количествах размещают различный рекламный материал, статьи украденные с других сайтов, а также прочую информацию, призванную лишь для того, чтобы обмануть поисковые системы и искусственно завысить рейтинг сайта, передав ему бОльшую часть поискового трафика.
В связи с реализованными нововведениями, возникает резонный вопрос: что считать качественным контентом, а что нет? Мэтт Каттс, старший инженер Google, говорит, что под качественным контентом компания понимает оригинальную информацию, например исследования, глубокие и развернутые статьи и отчеты, широкую аналитику и различные вспомогательные материалы, призванные еще больше раскрыть суть контента. Соответственно, критерии отбора информации будет определять новый алгоритм.
Пресс-секретарь Google говорит, что компания не может публиковать все данные, касающиеся особенности работы новой версии алгоритма. "Мы не хотим давать плохим актерам возможность играть с нашим алгоритмом и снижать качество информации для пользователей", - заявил представитель компании.
В Google заверили, что новая версия алгоритма пока не будет полагаться на недавно реализованные в браузере Chrome возможности по блокировке тех или иных страниц.

Source: cybersecurity.ru

  • Без комментариев.
Источник: News review (новость)



© www.humanrights.liice.info 2009-2013. All rights reserved.