[要約] RFC 6465は、Mixer-to-Clientオーディオレベル表示のためのRTPヘッダー拡張に関するものです。このRFCの目的は、オーディオミキサーからクライアントへのリアルタイムなオーディオレベル情報の伝送を可能にすることです。

Internet Engineering Task Force (IETF)                      E. Ivov, Ed.
Request for Comments: 6465                                         Jitsi
Category: Standards Track                                E. Marocco, Ed.
ISSN: 2070-1721                                           Telecom Italia
                                                               J. Lennox
                                                                   Vidyo
                                                           December 2011
        

A Real-time Transport Protocol (RTP) Header Extension for Mixer-to-Client Audio Level Indication

ミキサー間オーディオレベルの表示用のリアルタイムトランスポートプロトコル(RTP)ヘッダー拡張

Abstract

概要

This document describes a mechanism for RTP-level mixers in audio conferences to deliver information about the audio level of individual participants. Such audio level indicators are transported in the same RTP packets as the audio data they pertain to.

このドキュメントでは、個々の参加者のオーディオレベルに関する情報を提供するために、オーディオ会議におけるRTPレベルのミキサーのメカニズムについて説明します。このようなオーディオレベルのインジケーターは、関係するオーディオデータと同じRTPパケットで輸送されます。

Status of This Memo

本文書の位置付け

This is an Internet Standards Track document.

これは、インターネット標準トラックドキュメントです。

This document is a product of the Internet Engineering Task Force (IETF). It represents the consensus of the IETF community. It has received public review and has been approved for publication by the Internet Engineering Steering Group (IESG). Further information on Internet Standards is available in Section 2 of RFC 5741.

このドキュメントは、インターネットエンジニアリングタスクフォース(IETF)の製品です。IETFコミュニティのコンセンサスを表しています。公開レビューを受けており、インターネットエンジニアリングステアリンググループ(IESG)からの出版が承認されています。インターネット標準の詳細については、RFC 5741のセクション2で入手できます。

Information about the current status of this document, any errata, and how to provide feedback on it may be obtained at http://www.rfc-editor.org/info/rfc6465.

このドキュメントの現在のステータス、任意のERRATA、およびそのフィードバックを提供する方法に関する情報は、http://www.rfc-editor.org/info/rfc6465で取得できます。

Copyright Notice

著作権表示

Copyright (c) 2011 IETF Trust and the persons identified as the document authors. All rights reserved.

Copyright(c)2011 IETF Trustおよび文書著者として特定された人。全著作権所有。

This document is subject to BCP 78 and the IETF Trust's Legal Provisions Relating to IETF Documents (http://trustee.ietf.org/license-info) in effect on the date of publication of this document. Please review these documents carefully, as they describe your rights and restrictions with respect to this document. Code Components extracted from this document must include Simplified BSD License text as described in Section 4.e of the Trust Legal Provisions and are provided without warranty as described in the Simplified BSD License.

このドキュメントは、BCP 78およびIETFドキュメント(http://trustee.ietf.org/license-info)に関連するIETF Trustの法的規定の対象となります。この文書に関するあなたの権利と制限を説明するので、これらの文書を注意深く確認してください。このドキュメントから抽出されたコードコンポーネントには、セクション4.Eで説明されている法的規定のセクション4.Eで説明されており、単純化されたBSDライセンスで説明されているように保証なしで提供される簡略化されたBSDライセンステキストを含める必要があります。

Table of Contents

目次

   1. Introduction ....................................................2
   2. Terminology .....................................................4
   3. Protocol Operation ..............................................4
   4. Audio Levels ....................................................5
   5. Signaling Information ...........................................7
   6. Security Considerations .........................................9
   7. IANA Considerations ............................................10
   8. Acknowledgments ................................................10
   9. References .....................................................10
      9.1. Normative References ......................................10
      9.2. Informative References ....................................11
   Appendix A. Reference Implementation ..............................12
      A.1. AudioLevelCalculator.java .................................12
        
1. Introduction
1. はじめに

"A Framework for Conferencing with the Session Initiation Protocol (SIP)" [RFC4353] presents an overall architecture for multi-party conferencing. Among others, the framework borrows from RTP [RFC3550] and extends the concept of a mixer entity "responsible for combining the media streams that make up a conference, and generating one or more output streams that are delivered to recipients". Every participant would hence receive, in a flat single stream, media originating from all the others.

「セッション開始プロトコル(SIP)との会議のフレームワーク」[RFC4353]は、マルチパーティ会議の全体的なアーキテクチャを示しています。とりわけ、フレームワークはRTP [RFC3550]から借用し、「会議を構成するメディアストリームを組み合わせ、受信者に配信される1つ以上の出力ストリームを生成する」ミキサーエンティティの概念を拡張します。したがって、すべての参加者は、他のすべてに由来するメディアをフラットな単一のストリームで受け取ります。

Using such centralized mixer-based architectures simplifies support for conference calls on the client side, since they would hardly differ from one-to-one conversations. However, the method also introduces a few limitations. The flat nature of the streams that a mixer would output and send to participants makes it difficult for users to identify the original source of what they are hearing.

このような集中ミキサーベースのアーキテクチャを使用すると、クライアント側での電話会議のサポートが簡素化されます。これは、1対1の会話とはほとんど異ならないためです。ただし、この方法ではいくつかの制限も導入されています。ミキサーが出力して参加者に送信するストリームのフラットな性質により、ユーザーが聞いているものの元のソースを識別することが困難になります。

Mechanisms that allow the mixer to send to participants cues on current speakers (e.g., the contributing source (CSRC) fields in RTP [RFC3550]) only work for speaking/silent binary indications. There are, however, a number of use cases where one would require more detailed information. Possible examples include the presence of background chat/noise/music/typing, someone breathing noisily in their microphone, or other cases where identifying the source of the disturbance would make it easy to remove it (e.g., by sending a private IM to the concerned party asking them to mute their microphone). A more advanced scenario could involve an intense discussion between multiple participants that the user does not personally know. Audio level information would help better recognize the speakers by associating with them complex (but still human readable) characteristics like loudness and speed, for example.

ミキサーが参加者に現在のスピーカーにキューを送信できるメカニズム(たとえば、RTP [RFC3550]の寄稿ソース(CSRC)フィールド)のみが発言/サイレントバイナリの表示に機能します。ただし、より詳細な情報が必要な場合、多くのユースケースがあります。考えられる例には、バックグラウンドチャット/ノイズ/音楽/タイピングの存在、マイクで騒々しく呼吸する人、または妨害の原因を特定すると、それを削除しやすくする他のケースが含まれます(たとえば、関係者に個人的なIMを送信することによりマイクをミュートするように彼らに頼むパーティー)。より高度なシナリオには、ユーザーが個人的に知らない複数の参加者間の激しい議論が含まれる場合があります。オーディオレベルの情報は、たとえば、ラウドネスやスピードなどの複雑な(しかし、まだ人間の読み取り可能な)特性を関連付けることにより、スピーカーをよりよく認識するのに役立ちます。

One way of presenting such information in a user-friendly manner would be for a conferencing client to attach audio level indicators to the corresponding participant-related components in the user interface. One possible example is displayed in Figure 1, where levels can help users determine that Alice is currently the active speaker, Carol is mute, and Bob and Dave are sending some background noise.

このような情報をユーザーフレンドリーな方法で提示する1つの方法は、会議クライアントがユーザーインターフェイスの対応する参加者関連コンポーネントにオーディオレベルのインジケーターを添付することです。1つの考えられる例が図1に表示されます。レベルは、ユーザーが現在アクティブなスピーカーであり、キャロルはミュートであり、ボブとデイブが背景ノイズを送信していることをユーザーが判断するのに役立ちます。

                         ________________________
                        |                        |
                        |  00:42 |  Weekly Call  |
                        |________________________|
                        |                        |
                        |                        |
                        | Alice |======    | (S) |
                        |                        |
                        | Bob   |=         |     |
                        |                        |
                        | Carol |          | (M) |
                        |                        |
                        | Dave  |===       |     |
                        |                        |
                        |________________________|
        

Figure 1: Displaying Detailed Speaker Information to the User by Including Audio Level for Every Participant

図1:すべての参加者にオーディオレベルを含めることにより、ユーザーに詳細なスピーカー情報を表示する

Implementing a user interface like the above requires analysis of the media sent from other participants. In a conventional audio conference, this is only possible for the mixer, since all other conference participants are generally receiving a single, flat audio stream and therefore have no immediate way of determining individual audio levels.

上記のようなユーザーインターフェイスを実装するには、他の参加者から送信されたメディアの分析が必要です。従来のオーディオ会議では、これはミキサーにとってのみ可能です。これは、他のすべての会議参加者が一般に単一のフラットなオーディオストリームを受け取っているため、個々のオーディオレベルを決定する即時の方法がないためです。

This document specifies an RTP extension header that allows such mixers to deliver audio level information to conference participants by including it directly in the RTP packets transporting the corresponding audio data.

このドキュメントは、対応するオーディオデータを輸送するRTPパケットに直接含めることにより、このようなミキサーが会議参加者にオーディオレベル情報を提供できるようにするRTP拡張ヘッダーを指定します。

The header extension in this document is different than, but complementary to, the one defined in [RFC6464], which defines a mechanism by which clients can indicate to audio mixers the levels of the audio in the packets they send.

このドキュメントのヘッダー拡張機能は、[RFC6464]で定義されているものとは異なりますが、補完的です。これは、クライアントが送信するパケットのオーディオのレベルをオーディオミキシに示すメカニズムを定義します。

2. Terminology
2. 用語

The key words "MUST", "MUST NOT", "REQUIRED", "SHALL", "SHALL NOT", "SHOULD", "SHOULD NOT", "RECOMMENDED", "MAY", and "OPTIONAL" in this document are to be interpreted as described in RFC 2119 [RFC2119].

この文書のキーワード "MUST", "MUST NOT", "REQUIRED", "SHALL", "SHALL NOT", "SHOULD", "SHOULD NOT", "RECOMMENDED", "MAY", および "OPTIONAL" はRFC 2119 [RFC2119]で説明されているように解釈されます。

3. Protocol Operation
3. プロトコル操作

According to RFC 3550 [RFC3550], a mixer is expected to include in outgoing RTP packets a list of identifiers (CSRC IDs) indicating the sources that contributed to the resulting stream. The presence of such CSRC IDs allows RTP clients to determine, in a binary way, the active speaker(s) in any given moment. The RTP Control Protocol (RTCP) also provides a basic mechanism to map the CSRC IDs to user identities through the CNAME field. More advanced mechanisms can exist, depending on the signaling protocol used to establish and control a conference. In the case of the Session Initiation Protocol [RFC3261], for example, "A Session Initiation Protocol (SIP) Event Package for Conference State" [RFC4575] defines a <src-id> tag that binds CSRC IDs to media streams and SIP URIs.

RFC 3550 [RFC3550]によると、ミキサーは、結果のストリームに寄与するソースを示す識別子(CSRC ID)のリストを発信RTPパケットに含めることが期待されています。このようなCSRC IDの存在により、RTPクライアントは、特定の瞬間にアクティブなスピーカーをバイナリ方法で決定できます。RTP制御プロトコル(RTCP)は、CNAMEフィールドを介してCSRC IDをユーザーIDにマッピングするための基本的なメカニズムも提供します。会議の確立と制御に使用されるシグナル伝達プロトコルに応じて、より高度なメカニズムが存在する可能性があります。セッション開始プロトコル[RFC3261]の場合、たとえば、「Conference Stateのセッション開始プロトコル(SIP)イベントパッケージ」[RFC4575]は、CSRC IDをメディアストリームに結合してSIP URISに結合するA <SRC-ID>タグを定義します。。

This document describes an RTP header extension that allows mixers to indicate the audio level of every contributing conference participant (CSRC) in addition to simply indicating their on/off status. This new header extension uses the general mechanism for RTP header extensions as described in [RFC5285].

このドキュメントでは、単にオン/オフステータスを示すことに加えて、ミキサーがすべての貢献会議参加者(CSRC)のオーディオレベルを示すことができるRTPヘッダー拡張機能について説明します。この新しいヘッダー拡張は、[RFC5285]で説明されているように、RTPヘッダー拡張機能の一般的なメカニズムを使用します。

Each instance of this header contains a list of one-octet audio levels expressed in -dBov, with values from 0 to 127 representing 0 to -127 dBov (see Figures 2 and 3). Appendix A provides a reference implementation indicating one way of obtaining such values from raw audio samples.

このヘッダーの各インスタンスには、-DBOVで表される1オクタートのオーディオレベルのリストが含まれており、0から127の値は0から-127 DBOVを表します(図2および3を参照)。付録Aでは、生のオーディオサンプルからそのような値を取得する1つの方法を示す参照実装を提供します。

Every audio level value pertains to the CSRC identifier located at the corresponding position in the CSRC list. In other words, the first value would indicate the audio level of the conference participant represented by the first CSRC identifier in that packet, and so forth. The number and order of these values MUST therefore match the number and order of the CSRC IDs present in the same packet.

すべてのオーディオレベル値は、CSRCリストの対応する位置にあるCSRC識別子に関係しています。言い換えれば、最初の値は、そのパケットの最初のCSRC識別子によって表される会議参加者のオーディオレベルを示します。したがって、これらの値の数と順序は、同じパケットに存在するCSRC IDの数と順序と一致する必要があります。

When encoding audio level information, a mixer SHOULD include in a packet information that corresponds to the audio data being transported in that same packet. It is important that these values follow the actual stream as closely as possible. Therefore, a mixer SHOULD also calculate the values after the original contributing stream has undergone possible processing such as level normalization, and noise reduction, for example.

オーディオレベルの情報をエンコードする場合、ミキサーは、同じパケットで転送されるオーディオデータに対応するパケット情報に含める必要があります。これらの値は、実際のストリームを可能な限り密接に従うことが重要です。したがって、ミキサーは、たとえば、レベルの正規化やノイズリダクションなどの処理の可能性がある元の寄与ストリームが可能になった後にも値を計算する必要があります。

It can sometimes happen that a conference involves more than a single mixer. In such cases, each of the mixers MAY choose to relay the CSRC list and audio level information they receive from peer mixers (as long as the total CSRC count remains below 16). Given that the maximum audio level is not precisely defined by this specification, it is likely that in such situations average audio levels would be perceptibly different for the participants located behind the different mixers.

会議には1つ以上のミキサーが含まれることが時々起こる可能性があります。そのような場合、各ミキサーは、ピアミキサーから受け取ったCSRCリストとオーディオレベルの情報を中継することを選択できます(合計CSRCカウントが16未満のままである限り)。この仕様によって最大のオーディオレベルが正確に定義されていないことを考えると、このような状況では、異なるミキサーの後ろにある参加者にとって平均オーディオレベルは知覚的に異なる可能性があります。

4. Audio Levels
4. オーディオレベル

The audio level header extension carries the level of the audio in the RTP payload of the packet with which it is associated. This information is carried in an RTP header extension element as defined by "A General Mechanism for RTP Header Extensions" [RFC5285].

オーディオレベルのヘッダー拡張機能は、それが関連付けられているパケットのRTPペイロードにおけるオーディオのレベルを持ちます。この情報は、「RTPヘッダー拡張の一般的なメカニズム」[RFC5285]で定義されているように、RTPヘッダー拡張要素で運ばれます。

The payload of the audio level header extension element can be encoded using either the one-byte or two-byte header defined in [RFC5285]. Figures 2 and 3 show sample audio level encodings with each of these header formats.

オーディオレベルヘッダー拡張要素のペイロードは、[RFC5285]で定義された1バイトまたは2バイトのヘッダーのいずれかを使用してエンコードできます。図2と3は、これらのヘッダー形式のそれぞれを使用したサンプルオーディオレベルのエンコーディングを示しています。

       0                   1                   2                   3
       0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1
      +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
      |  ID   | len=2 |0|   level 1   |0|   level 2   |0|   level 3   |
      +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
        

Figure 2: Sample Audio Level Encoding Using the One-Byte Header Format

図2:1バイトのヘッダー形式を使用したオーディオレベルのサンプルエンコード

       0                   1                   2                   3
       0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1
      +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
      |      ID       |     len=3     |0|   level 1   |0|   level 2   |
      +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
      |0|   level 3   |    0 (pad)    |               ...
      +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
        

Figure 3: Sample Audio Level Encoding Using the Two-Byte Header Format

図3:2バイトヘッダー形式を使用したオーディオレベルのサンプルエンコード

In the case of the one-byte header format, the 4-bit len field is the number minus one of data bytes (i.e., audio level values) transported in this header extension element following the one-byte header. Therefore, the value zero in this field indicates that one byte of data follows. In the case of the two-byte header format, the 8-bit len field contains the exact number of audio levels carried in the

1バイトのヘッダー形式の場合、4ビットLENフィールドは、1バイトヘッダーに続いてこのヘッダー拡張要素で輸送されるデータバイト(つまり、オーディオレベル値)のいずれかを差し引いた数値です。したがって、このフィールドの値ゼロは、1バイトのデータが続くことを示します。2バイトヘッダー形式の場合、8ビットのLENフィールドには、

extension. RFC 3550 [RFC3550] only allows RTP packets to carry a maximum of 15 CSRC IDs. Given that audio levels directly refer to CSRC IDs, implementations MUST NOT include more than 15 audio level values. The maximum value allowed in the len field is therefore 14 for the one-byte header format and 15 for the two-byte header format.

拡大。RFC 3550 [RFC3550]では、RTPパケットが最大15のCSRC IDを運ぶことができます。オーディオレベルがCSRC IDを直接参照することを考えると、実装には15を超えるオーディオレベルの値が含まれてはなりません。したがって、LENフィールドで許可される最大値は、1バイトヘッダー形式で14、2バイトヘッダー形式で15です。

Note: Audio levels in this document are defined in the same manner as is audio noise level in the RTP Payload Comfort Noise specification [RFC3389]. In [RFC3389], the overall magnitude of the noise level in comfort noise is encoded into the first byte of the payload, with spectral information about the noise in subsequent bytes. This specification's audio level parameter is defined so as to be identical to the comfort noise payload's noise-level byte.

注:このドキュメントのオーディオレベルは、RTPペイロードコンフォートノイズ仕様[RFC3389]のオーディオノイズレベルと同じ方法で定義されます。[RFC3389]では、コンフォートノイズのノイズレベルの全体の大きさは、ペイロードの最初のバイトにエンコードされ、その後のバイトのノイズに関するスペクトル情報があります。この仕様のオーディオレベルパラメーターは、コンフォートノイズペイロードのノイズレベルバイトと同一であるように定義されています。

The magnitude of the audio level itself is packed into the seven least significant bits of the single byte of the header extension, shown in Figures 2 and 3. The least significant bit of the audio level magnitude is packed into the least significant bit of the byte. The most significant bit of the byte is unused and always set to 0.

オーディオレベル自体の大きさは、図2および3に示すヘッダー拡張機能の単一バイトの7つの最も有意なビットに詰め込まれています。オーディオレベルの大きさの最小ビットは、バイトの最小重要なビットに詰め込まれています。。バイトの最も重要なビットは未使用であり、常に0に設定されています。

The audio level is expressed in -dBov, with values from 0 to 127 representing 0 to -127 dBov. dBov is the level, in decibels, relative to the overload point of the system, i.e., the highest-intensity signal encodable by the payload format. (Note: Representation relative to the overload point of a system is particularly useful for digital implementations, since one does not need to know the relative calibration of the analog circuitry.) For example, in the case of u-law (audio/pcmu) audio [ITU.G711], the 0 dBov reference would be a square wave with values +/- 8031. (This translates to 6.18 dBm0, relative to u-law's dBm0 definition in Table 6 of [ITU.G711].)

オーディオレベルは-DBOVで表され、0から127の値は0から-127 DBOVを表します。DBOVは、システムの過負荷点、つまりペイロード形式でエンコードできる最高強度信号に対して、デシベルでレベルです。(注:システムの過負荷ポイントに関連する表現は、アナログ回路の相対的なキャリブレーションを知る必要がないため、デジタル実装に特に役立ちます。たとえば、U-Law(Audio/PCMU)の場合。オーディオ[ITU.G711]、0 DBOV参照は、[ITU.G711]の表6のU-LAWのDBM0定義と比較して、値 /-8031を持つ正方形の波になります。

The audio level for digital silence -- for a muted audio source, for example -- MUST be represented as 127 (-127 dBov), regardless of the dynamic range of the encoded audio format.

エンコードされたオーディオ形式のダイナミックレンジに関係なく、デジタルサイレンスのオーディオレベルは、たとえば、ミュートされたオーディオソースなど、127(-127 DBOV)として表す必要があります。

The audio level header extension only carries the level of the audio in the RTP payload of the packet with which it is associated, with no long-term averaging or smoothing applied. That level is measured as a root mean square of all the samples in the measured range.

オーディオレベルのヘッダー拡張機能は、関連付けられているパケットのRTPペイロードにおけるオーディオのレベルのみを持ち、長期的な平均化または平滑化は適用されません。そのレベルは、測定範囲内のすべてのサンプルのルート平均平方として測定されます。

To simplify implementation of the encoding procedures described here, this specification provides a sample Java implementation (see Appendix A) of an audio level calculator that helps obtain such values from raw linear Pulse Code Modulation (PCM) audio samples.

ここで説明するエンコード手順の実装を簡素化するために、この仕様は、生線形パルスコード変調(PCM)オーディオサンプルからそのような値を取得するのに役立つオーディオレベル計算機のサンプルJava実装(付録Aを参照)を提供します。

5. Signaling Information
5. 信号情報

The URI for declaring the audio level header extension in a Session Description Protocol (SDP) extmap attribute and mapping it to a local extension header identifier is "urn:ietf:params:rtp-hdrext:csrc-audio-level". There is no additional setup information needed for this extension (i.e., no extension attributes).

セッション説明プロトコル(SDP)extMAP属性でオーディオレベルヘッダー拡張機能を宣言し、ローカルエクステンダー識別子にマッピングするURIは「urn:ietf:params:rtp-hdrext:csrc-audio-level」です。この拡張機能に必要な追加のセットアップ情報はありません(つまり、拡張属性はありません)。

An example attribute line in the SDP for a conference might be:

会議のSDPの属性ラインの例は、次のようになります。

      a=extmap:7 urn:ietf:params:rtp-hdrext:csrc-audio-level
        

The above mapping will most often be provided per media stream (in the media-level section(s) of SDP, i.e., after an "m=" line) or globally if there is more than one stream containing audio level indicators in a session.

上記のマッピングは、ほとんどの場合、メディアストリームごとに提供されます(SDPのメディアレベルのセクション、つまり「m =」行の後)、またはセッションにオーディオレベルのインジケータを含む複数のストリームがある場合はグローバルに提供されます。。

Presence of the above attribute in the SDP description of a media stream indicates that RTP packets in that stream, which contain the level extension defined in this document, will be carrying such an extension with an ID of 7.

メディアストリームのSDP説明に上記の属性が存在することは、このドキュメントで定義されているレベル拡張機能を含むそのストリーム内のRTPパケットが、7のIDでそのような拡張機能を運ぶことを示しています。

Conferencing clients that support audio level indicators and have no mixing capabilities would not be able to provide content for this audio level extension and would hence have to always include the direction parameter in the "extmap" attribute with a value of "recvonly". Conference focus entities with mixing capabilities can omit the direction or set it to "sendrecv" in SDP offers. Such entities would need to set it to "sendonly" in SDP answers to offers with a "recvonly" parameter and to "sendrecv" when answering other "sendrecv" offers.

オーディオレベルのインジケーターをサポートし、ミキシング機能を持たない会議クライアントは、このオーディオレベルの拡張機能にコンテンツを提供することができないため、「recvonly」の値を持つ「extmap」属性の方向パラメーターを常に含める必要があります。ミキシング機能を備えたカンファレンスフォーカスエンティティは、方向を省略したり、SDPオファーで「sendrecv」に設定したりできます。このようなエンティティは、他の「sendrecv」オファーに答えるときに、「recvonly」パラメーターを使用してオファーに対する「sendonly」に「sendonly」に設定する必要があります。

This specification only defines the use of the audio level extensions in audio streams. They MUST NOT be advertised with other media types, such as video or text, for example.

この仕様は、オーディオストリームでのオーディオレベル拡張機能の使用のみを定義します。たとえば、ビデオやテキストなど、他のメディアタイプで宣伝してはなりません。

Figures 4 and 5 show two example offer/answer exchanges between a conferencing client and a focus, and between two conference focus entities.

図4と5は、会議クライアントとフォーカスの間、および2つのカンファレンスフォーカスエンティティ間の2つの例の提供/回答交換を示しています。

SDP Offer:

SDPオファー:

       v=0
       o=alice 2890844526 2890844526 IN IP6 host.example.com
       s=-
       c=IN IP6 host.example.com
       t=0 0
       m=audio 49170 RTP/AVP 0 4
       a=rtpmap:0 PCMU/8000
       a=rtpmap:4 G723/8000
       a=extmap:1/recvonly urn:ietf:params:rtp-hdrext:csrc-audio-level
        

SDP Answer:

SDP回答:

       v=0
       i=A Seminar on the session description protocol
       o=conf-focus 2890844730 2890844730 IN IP6 focus.example.net
       s=-
       c=IN IP6 focus.example.net
       t=0 0
       m=audio 52544 RTP/AVP 0
       a=rtpmap:0 PCMU/8000
       a=extmap:1/sendonly urn:ietf:params:rtp-hdrext:csrc-audio-level
        

Figure 4: A Client-Initiated Example SDP Offer/Answer Exchange Negotiating an Audio Stream with One-Way Flow of Audio Level Information

図4:クライアントが開始した例SDPオファー/回答交換オーディオレベル情報の一方向でオーディオストリームを交渉する

SDP Offer:

SDPオファー:

       v=0
       i=Un seminaire sur le protocole de description des sessions
       o=fr-focus 2890844730 2890844730 IN IP6 focus.fr.example.net
       s=-
       c=IN IP6 focus.fr.example.net
       t=0 0
       m=audio 49170 RTP/AVP 0
       a=rtpmap:0 PCMU/8000
       a=extmap:1/sendrecv urn:ietf:params:rtp-hdrext:csrc-audio-level
        

SDP Answer:

SDP回答:

       v=0
       i=A Seminar on the session description protocol
       o=us-focus 2890844526 2890844526 IN IP6 focus.us.example.net
       s=-
       c=IN IP6 focus.us.example.net
       t=0 0
       m=audio 52544 RTP/AVP 0
       a=rtpmap:0 PCMU/8000
       a=extmap:1/sendrecv urn:ietf:params:rtp-hdrext:csrc-audio-level
        

Figure 5: An Example SDP Offer/Answer Exchange between Two Conference Focus Entities with Mixing Capabilities Negotiating an Audio Stream with Bidirectional Flow of Audio Level Information

図5:SDPの例の例は、オーディオレベル情報の双方向の流れでオーディオストリームを交渉するミキシング機能を備えた2つの会議フォーカスエンティティ間のオファー/回答交換

6. Security Considerations
6. セキュリティに関する考慮事項

1. This document defines a means of attributing audio level to a particular participant in a conference. An attacker may try to modify the content of RTP packets in a way that would make audio activity from one participant appear to be coming from another participant.

1. このドキュメントは、会議の特定の参加者にオーディオレベルを帰属させる手段を定義します。攻撃者は、ある参加者からのオーディオアクティビティが別の参加者から来ているように見えるように、RTPパケットのコンテンツを変更しようとする場合があります。

2. Furthermore, the fact that audio level values would not be protected even in a Secure Real-time Transport Protocol (SRTP) session [RFC3711] might be of concern in some cases where the activity of a particular participant in a conference is confidential. Also, as discussed in [SRTP-VBR-AUDIO], an attacker might be able to infer information about the conversation, possibly with phoneme-level resolution.

2. さらに、安全なリアルタイム輸送プロトコル(SRTP)セッション[RFC3711]でもオーディオレベルの値が保護されないという事実は、会議の特定の参加者の活動が機密である場合には懸念があるかもしれません。また、[srtp-vbr-audio]で説明したように、攻撃者は、おそらく音素レベルの解像度で会話に関する情報を推測できるかもしれません。

3. Both of the above are concerns that stem from the design of the RTP protocol itself, and they would probably also apply when using CSRC identifiers in the way specified in RFC 3550 [RFC3550]. It is therefore important that, according to the

3. 上記の両方は、RTPプロトコル自体の設計に起因する懸念であり、RFC 3550 [RFC3550]で指定された方法でCSRC識別子を使用する場合にもおそらく適用されるでしょう。したがって、によれば、それが重要です

needs of a particular scenario, implementors and deployers consider the use of header extension encryption [SRTP-ENCR-HDR] or a lower-level security and authentication mechanism such as IPsec [RFC4301], for example.

特定のシナリオのニーズ、実装者と展開者は、たとえば、IPSEC [RFC4301]などのヘッダー拡張暗号化[SRTP-ENCR-HDR]または低レベルのセキュリティおよび認証メカニズムの使用を考慮します。

7. IANA Considerations
7. IANAの考慮事項

This document defines a new extension URI in the RTP Compact Header Extensions subregistry of the Real-Time Transport Protocol (RTP) Parameters registry, according to the following data:

このドキュメントでは、次のデータに従って、RTP Compact Header Extensionsの新しい拡張機能URIをRTP Compact Header Extensionsサブレジストリ(RTP)パラメーターレジストリを定義します。

      Extension URI: urn:ietf:params:rtp-hdrext:csrc-audio-level
      Description:   Mixer-to-client audio level indicators
      Contact:       emcho@jitsi.org
      Reference:     RFC 6465
        
8. Acknowledgments
8. 謝辞

Lyubomir Marinov contributed level measurement and rendering code.

Lyubomir Marinovは、レベルの測定とレンダリングコードを提供しました。

Keith Drage, Roni Even, Miguel A. Garcia, John Elwell, Kevin P. Fleming, Ingemar Johansson, Michael Ramalho, Magnus Westerlund, and several others provided helpful feedback over the avt and avtext mailing lists.

キース・ドレイジ、ロニ・イヴ・イ・イヴ・ガルシア、ジョン・エルウェル、ケビン・P・フレミング、インゲマー・ヨハンソン、マイケル・ラマルホ、マグナス・ウェスターランドなど、AVTおよびAVTextメーリングリストに対する有益なフィードバックを提供しました。

Jitsi's participation in this specification is funded by the NLnet Foundation.

この仕様へのJitsiの参加は、NLNET財団によって資金提供されています。

9. References
9. 参考文献
9.1. Normative References
9.1. 引用文献

[RFC2119] Bradner, S., "Key words for use in RFCs to Indicate Requirement Levels", BCP 14, RFC 2119, March 1997.

[RFC2119] Bradner、S。、「要件レベルを示すためにRFCで使用するためのキーワード」、BCP 14、RFC 2119、1997年3月。

[RFC3550] Schulzrinne, H., Casner, S., Frederick, R., and V. Jacobson, "RTP: A Transport Protocol for Real-Time Applications", STD 64, RFC 3550, July 2003.

[RFC3550] Schulzrinne、H.、Casner、S.、Frederick、R。、およびV. Jacobson、「RTP:リアルタイムアプリケーション用の輸送プロトコル」、STD 64、RFC 3550、2003年7月。

[RFC5285] Singer, D. and H. Desineni, "A General Mechanism for RTP Header Extensions", RFC 5285, July 2008.

[RFC5285]シンガー、D。およびH.デシネニ、「RTPヘッダー拡張の一般的なメカニズム」、RFC 5285、2008年7月。

9.2. Informative References
9.2. 参考引用

[ITU.G711] International Telecommunication Union, "Pulse Code Modulation (PCM) of Voice Frequencies", ITU-T Recommendation G.711, November 1988.

[ITU.G711] International Telecommunication Union、「音声周波数のパルスコード変調(PCM)」、ITU-T推奨G.711、1988年11月。

[RFC3261] Rosenberg, J., Schulzrinne, H., Camarillo, G., Johnston, A., Peterson, J., Sparks, R., Handley, M., and E. Schooler, "SIP: Session Initiation Protocol", RFC 3261, June 2002.

[RFC3261] Rosenberg、J.、Schulzrinne、H.、Camarillo、G.、Johnston、A.、Peterson、J.、Sparks、R.、Handley、M。、およびE. Schooler、「SIP:SESSION INTIANIATION Protocol」、RFC 3261、2002年6月。

[RFC3389] Zopf, R., "Real-time Transport Protocol (RTP) Payload for Comfort Noise (CN)", RFC 3389, September 2002.

[RFC3389] ZOPF、R。、「リアルタイム輸送プロトコル(RTP)コンフォートノイズのペイロード(CN)」、RFC 3389、2002年9月。

[RFC3711] Baugher, M., McGrew, D., Naslund, M., Carrara, E., and K. Norrman, "The Secure Real-time Transport Protocol (SRTP)", RFC 3711, March 2004.

[RFC3711] Baugher、M.、McGrew、D.、Naslund、M.、Carrara、E。、およびK. Norrman、「The Secure Real-Time Transport Protocol(SRTP)」、RFC 3711、2004年3月。

[RFC4301] Kent, S. and K. Seo, "Security Architecture for the Internet Protocol", RFC 4301, December 2005.

[RFC4301] Kent、S。およびK. SEO、「インターネットプロトコルのセキュリティアーキテクチャ」、RFC 4301、2005年12月。

[RFC4353] Rosenberg, J., "A Framework for Conferencing with the Session Initiation Protocol (SIP)", RFC 4353, February 2006.

[RFC4353] Rosenberg、J。、「セッション開始プロトコル(SIP)との会議のフレームワーク」、RFC 4353、2006年2月。

[RFC4575] Rosenberg, J., Schulzrinne, H., and O. Levin, Ed., "A Session Initiation Protocol (SIP) Event Package for Conference State", RFC 4575, August 2006.

[RFC4575] Rosenberg、J.、Schulzrinne、H。、およびO. Levin、ed。、「Conference Stateのセッション開始プロトコル(SIP)イベントパッケージ」、RFC 4575、2006年8月。

[RFC6464] Lennox, J., Ed., Ivov, E., and E. Marocco, "A Real-time Transport Protocol (RTP) Header Extension for Client-to-Mixer Audio Level Indication", RFC 6465, December 2011.

[RFC6464] Lennox、J.、ed。、Ivov、E。、およびE. Marocco、「クライアント間オーディオレベルの表示用のリアルタイムトランスポートプロトコル(RTP)ヘッダー拡張」、2011年12月、RFC 6465。

[SRTP-ENCR-HDR] Lennox, J., "Encryption of Header Extensions in the Secure Real-Time Transport Protocol (SRTP)", Work in Progress, October 2011.

[SRTP-ENCR-HDR] Lennox、J。、「安全なリアルタイム輸送プロトコル(SRTP)におけるヘッダー拡張の暗号化」、2011年10月の作業。

[SRTP-VBR-AUDIO] Perkins, C. and JM. Valin, "Guidelines for the use of Variable Bit Rate Audio with Secure RTP", Work in Progress, July 2011.

[SRTP-VBR-Audio] Perkins、C。およびJM。Valin、「Secure RTPを使用した可変ビットレートオーディオの使用に関するガイドライン」、2011年7月に進行中の作業。

Appendix A. Reference Implementation
付録A. 参照実装

This appendix contains Java code for a reference implementation of the level calculation and rendering methods. The code is not normative and is by no means the only possible implementation. Its purpose is to help implementors add audio level support to mixers and clients.

この付録には、レベルの計算とレンダリング方法を参照するためのJavaコードが含まれています。コードは規範的ではなく、実装の唯一の実装ではありません。その目的は、実装者がミキサーとクライアントにオーディオレベルのサポートを追加するのを支援することです。

The Java code contains an AudioLevelCalculator class that calculates the sound pressure level of a signal with specific samples. It can be used in mixers to generate values suitable for the level extension headers.

Javaコードには、特定のサンプルを使用して信号の音圧レベルを計算するAudiolevelcalculatorクラスが含まれています。ミキサーで使用して、レベル拡張ヘッダーに適した値を生成できます。

The implementation is provided in Java but does not rely on any of the language specifics and can be easily ported to another language.

実装はJavaで提供されますが、いずれの言語の詳細に依存せず、別の言語に簡単に移植できます。

A.1. AudioLevelCalculator.java
A.1.

<CODE BEGINS>

<code begins>

   /*
      Copyright (c) 2011 IETF Trust and the persons identified
      as authors of the code.  All rights reserved.
        

Redistribution and use in source and binary forms, with or without modification, is permitted pursuant to, and subject to the license terms contained in, the Simplified BSD License set forth in Section 4.c of the IETF Trust's Legal Provisions Relating to IETF Documents (http://trustee.ietf.org/license-info). */

変更とバイナリ形式での再配布と使用は、変更の有無にかかわらず、IETF Trustの法的規定(IETFドキュメントに関する法的規定)のセクション4.Cに記載されている簡略化されたBSDライセンスに基づいて許可されており、ライセンス条件に従うことが許可されています。http://trustee.ietf.org/license-info)。*/

   /**
    * Calculates the audio level of specific samples of a signal
    * relative to overload.
    */
   public class AudioLevelCalculator
   {
        
       /**
        * Calculates the audio level of a signal with specific
        * <tt>samples</tt>.
        *
        * @param samples  the samples whose audio level we need to
        * calculate.  The samples are specified as an <tt>int</tt>
        * array starting at <tt>offset</tt>, extending <tt>length</tt>
        * number of elements, and each <tt>int</tt> element in the
        * specified range representing a sample whose audio level we
        
        * need to calculate.  Though a sample is provided in the
        * form of an <tt>int</tt> value, the sample size in bits
        * is determined by the caller via <tt>overload</tt>.
        *
        * @param offset  the offset in <tt>samples</tt> at which the
        * samples start.
        *
        * @param length  the length of the signal specified in
        * <tt>samples<tt>, starting at <tt>offset</tt>.
        *
        * @param overload  the overload (point) of <tt>signal</tt>.
        * For example, <tt>overload</tt> can be {@link Byte#MAX_VALUE}
        * for 8-bit signed samples or {@link Short#MAX_VALUE} for
        * 16-bit signed samples.
        *
        * @return  the audio level of the specified signal.
        */
       public static int calculateAudioLevel(
           int[] samples, int offset, int length,
           int overload)
       {
           /*
            * Calculate the root mean square (RMS) of the signal.
            */
           double rms = 0;
        
           for (; offset < length; offset++)
           {
               double sample = samples[offset];
        
               sample /= overload;
               rms += sample * sample;
           }
           rms = (length == 0) ? 0 : Math.sqrt(rms / length);
        
           /*
            * The audio level is a logarithmic measure of the
            * rms level of an audio sample relative to a reference
            * value and is measured in decibels.
            */
           double db;
        
           /*
            * The minimum audio level permitted.
            */
           final double MIN_AUDIO_LEVEL = -127;
        
           /*
            * The maximum audio level permitted.
            */
           final double MAX_AUDIO_LEVEL = 0;
        
           if (rms > 0)
           {
               /*
                * The "zero" reference level is the overload level,
                * which corresponds to 1.0 in this calculation, because
                * the samples are normalized in calculating the RMS.
                */
               db = 20 * Math.log10(rms);
        
               /*
                * Ensure that the calculated level is within the minimum
                * and maximum range permitted.
                */
               if (db < MIN_AUDIO_LEVEL)
                   db = MIN_AUDIO_LEVEL;
               else if (db > MAX_AUDIO_LEVEL)
                   db = MAX_AUDIO_LEVEL;
           }
           else
           {
               db = MIN_AUDIO_LEVEL;
           }
        
           return (int)Math.round(db);
       }
   }
        

<CODE ENDS>

<コードエンド>

Authors' Addresses

著者のアドレス

Emil Ivov (editor) Jitsi Strasbourg 67000 France

Emil Ivov(編集者)Jitsi Strasbourg 67000フランス

   EMail: emcho@jitsi.org
        

Enrico Marocco (editor) Telecom Italia Via G. Reiss Romoli, 274 Turin 10148 Italy

Enrico Marocco(編集者)G。Reiss Romoli経由のテレコムイタリア、274トリノ10148イタリア

   EMail: enrico.marocco@telecomitalia.it
        

Jonathan Lennox Vidyo, Inc. 433 Hackensack Avenue Seventh Floor Hackensack, NJ 07601 US

Jonathan Lennox Vidyo、Inc。433 Hackensack Avenue Seventh Floor Hackensack、NJ 07601 US

   EMail: jonathan@vidyo.com